JP4479227B2 - Audio pickup / video imaging apparatus and imaging condition determination method - Google Patents

Audio pickup / video imaging apparatus and imaging condition determination method Download PDF

Info

Publication number
JP4479227B2
JP4479227B2 JP2003389892A JP2003389892A JP4479227B2 JP 4479227 B2 JP4479227 B2 JP 4479227B2 JP 2003389892 A JP2003389892 A JP 2003389892A JP 2003389892 A JP2003389892 A JP 2003389892A JP 4479227 B2 JP4479227 B2 JP 4479227B2
Authority
JP
Japan
Prior art keywords
microphone
sound
imaging
speaker
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003389892A
Other languages
Japanese (ja)
Other versions
JP2005151471A (en
Inventor
竜一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003389892A priority Critical patent/JP4479227B2/en
Publication of JP2005151471A publication Critical patent/JP2005151471A/en
Application granted granted Critical
Publication of JP4479227B2 publication Critical patent/JP4479227B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、たとえば、2つの会議室にいる複数の会議参加者同士が、テレビジョン会議を行うときに使用するのに好適な音声集音・映像撮像装置と撮像条件決定方法に関する。
特に、本発明は、発言者が使用しているマイクロフォンを正確に選択し、好ましくは、さらに声紋認証を行い、その結果に基づいて選択され、声紋認証されたマイクロフォン設置領域を撮像可能にした、音声集音・映像撮像装置と撮像条件決定方法に関する。
The present invention relates to a sound collection / video imaging device and an imaging condition determination method suitable for use when, for example, a plurality of conference participants in two conference rooms perform a video conference.
In particular, the present invention accurately selects the microphone used by the speaker, preferably further performs voiceprint authentication, and is selected based on the result, and the microphone installation area that is voiceprint authenticated can be imaged. The present invention relates to a sound collection / video imaging device and an imaging condition determination method.

離れた位置にある2つの会議室にいる会議参加者同士が会議を行うため、テレビ会議システムが用いられている。テレビ会議システムは、それぞの会議室にいる会議参加者の姿を撮像手段で撮像し、音声をマイクロフォンで集音して、撮像手段で撮像した画像およびマイクロフォンで集音した音声を通信経路を介して伝送し、相手側の会議室のテレビジョン受像機の表示部に撮像した画像を表示し、スピーカから集音した音声を出力する。   A video conference system is used in order for conference participants in two conference rooms located at distant locations to hold a conference. The video conference system captures the appearance of the conference participants in each conference room with the imaging means, collects the sound with the microphone, and transmits the image captured with the imaging means and the sound collected with the microphone through the communication path. And the captured image is displayed on the display unit of the television receiver in the other party's conference room, and the sound collected from the speaker is output.

このようなテレビ会議システムにおいては、それぞれの会議室において、撮像手段およびマイクロフォンから離れた位置にいる発言者の音声が集音しにくいという問題に遭遇しており、その改善策として、会議参加者ごとにマイクロフォンを設けている場合がある。 またテレビジョン受像機のスピーカから出力される音声が、スピーカから離れた位置にいる会議参加者には聞きにくいという問題もある。   In such a video conference system, in each conference room, a problem has been encountered that it is difficult to collect the voice of a speaker who is away from the imaging means and the microphone. A microphone may be provided for each. In addition, there is a problem that it is difficult for a conference participant who is away from the speaker to hear the sound output from the speaker of the television receiver.

特開2003−87887号公報および特開2003−87890号公報は、互いに離れた位置の会議室相互においてテレビ会議を行うときに、映像および音声を提供する通常のテレビ会議システムに加えて、相手側の会議室にいる会議出席者の音声がスピーカから明瞭に聴こえ、こちら側の会議室内の雑音の影響を受けにくいまたはエコーキャンセラーの負担が少ない、マイクロフォンとスピーカとが一体構成された音声入出力装置を開示している。   In JP 2003-87887 A and JP 2003-87890 A, in addition to a normal video conference system that provides video and audio when a video conference is performed between conference rooms located at a distance from each other, Voice input / output device with a built-in microphone and speaker that can clearly hear the voices of meeting attendees in the conference room from the speaker and is less susceptible to the noise in the conference room on this side or less burden on the echo canceller Is disclosed.

たとえば、特開2003−87887号公報に開示されている音声入出力装置は、特開2003−87887号公報の図5〜図8、図9、図23を参照して記述されているように、下から上に向かって、スピーカ6が内蔵されたスピーカボックス5と、上に向かって放射状に開いている音を拡散する円錐状反射板4と、音遮蔽板3と、支柱8に支持された単一指向性の複数のマイクロフォン(図6、図7においては4本、図23においては6本)を水平面に放射状に等角度で配置した構造をしている。音遮蔽板3は、下部のスピーカ5からの音が複数のマイクロフォンに入らないように遮蔽するためのものである。
特開2003−87887号公報 特開2003−87890号公報
For example, a voice input / output device disclosed in Japanese Patent Laid-Open No. 2003-87887 is described with reference to FIGS. Supported from the bottom to the top by a speaker box 5 with a built-in speaker 6, a conical reflector 4 that diffuses a sound that opens radially upward, a sound shielding plate 3, and a column 8. A plurality of unidirectional microphones (four in FIGS. 6 and 7 and six in FIG. 23) are arranged radially at equal angles on a horizontal plane. The sound shielding plate 3 is for shielding the sound from the lower speaker 5 from entering a plurality of microphones.
Japanese Patent Laid-Open No. 2003-87887 JP 2003-87890 A

特開2003−87887号公報および特開2003−87890号公報に開示された音声入出力装置は、映像および音声を提供するテレビ会議システムを補完する手段として活用されている。   The audio input / output devices disclosed in Japanese Patent Laid-Open Nos. 2003-87887 and 2003-87890 are used as means for complementing a video conference system that provides video and audio.

本発明の目的は、双方向通話に使用する手段としての性能面、価格面、寸法的な面、使用環境への適合性、使い勝手などの面から、さらに改善した音声集音・映像撮像装置と撮像条件決定方法を提供することにある。
特に本発明は、発言者のマイクロフォンを正確に選択し、さらに、正確に声紋認証を行い、その結果に基づいて、選択されたマイクロフォンの設置領域を撮像可能にした、音声集音・映像撮像装置と撮像条件決定方法を提供することにある。
An object of the present invention is to provide a further improved sound collection / video imaging device in terms of performance, price, dimension, compatibility with the use environment, usability, etc. as means for use in two-way calls. It is to provide an imaging condition determination method.
In particular, the present invention accurately selects a speaker's microphone, further accurately performs voiceprint authentication, and based on the result, can pick up an area where the selected microphone is picked up, and is a sound collection / video imaging device And providing an imaging condition determination method.

本発明によれば、通話装置と、声紋認証手段と、撮像手段と、撮像調整手段とを具備し、
前記通話装置は、支持部と、複数のマイクロフォンと、音声信号処理手段と、マイクロフォン選択手段とを有し、
前記支持部は、音反射板と、連結部材と、スピーカ収容部とを有し、
前記スピーカ収容部は、音反射面と、底面と、上部音出力開口部とを有し、
前記音反射面と前記底面とで包囲された内腔にスピーカが収容されており、
前記スピーカ収容部の音反射面の断面がゆるやかな凸面を描いて形成されており、前記スピーカ収容部の前記音反射面と対向して配置された前記音反射板の音反射面の断面がゆるやかなラッパ型の弧を描いて形成されており、対向して配置された前記スピーカ収容部の音反射面と前記音反射板の音反射面とで前記スピーカからの再生音を水平方向に放射状に放出する音放射部を形成しており、
前記スピーカ収容部と前記音反射板とが前記連結部材によって連結されており、前記連結部材には拘束部材が貫通しており、前記拘束部材は前記スピーカ収容部の前記底面の固定部と前記音反射板の固定部との間を拘束しており、
前記音反射板は、前記スピーカの動作に起因する振動を吸収する振動吸収部材を介してプリント基板を支持しており、
前記プリント基板には、複数の話者が位置する場所に1対1に対応して配置され、指向性を持つ、複数のマイクロフォンと、前記音声信号処理手段とが配設されており、
前記声紋認証手段は、事前に複数の話者の声紋を登録している声紋登録メモリと、声紋処理のための辞書メモリと、前記マイクロフォンが集音した音声信号が前記声紋メモリに登録されている声紋に一致しているかを判定して利用者を認証する専門認証処理部とを有し、
前記通話装置内の前記音声信号処理手段は、前記複数のマイクロフォンの集音信号を増幅する利得調整可能な利得可変型増幅手段と、増幅器利得調整手段とを有し、前記増幅器利得調整手段は前記スピーカとの音響結合が等しくなるように前記利得可変型増幅手段の利得を調整し、かつ、前記声紋認証手段で話者が認証されたとき、当該話者に対応するマイクロフォンの集音信号を大きく増幅するように前記利得可変型増幅手段の利得を大きな第1の利得に設定し、
前記通話装置内の前記マイクロフォン選択手段は、前記音声信号処理手段から出力される前記複数のマイクロフォンの集音信号のうち最大振幅を示すマイクロフォンの信号に対応するマイクロフォンを話者が使用している使用マイクロフォンとして選択し、
前記撮像手段は、前記複数のマイクロフォンを使用する話者を撮像するため、少なくとも1つ所定配置条件に基づいて配置され、各撮像手段はパン、チルト、ズームが可能であり、
前記撮像調整手段は、前記声紋認証手段において話者の声紋が認証されたとき、前記マイクロフォン選択手段で選択された使用マイクロフォンの位置および向きと、前記撮像手段の配置位置とから、前記撮像手段から前記使用マイクロフォンまでの距離と前記撮像手段に対する前記使用マイクロフォンの向きとを算出し、該算出した距離と向きに基づいて前記撮像手段の撮像方向、パン、チルト、ズーム量の何れかを含む撮像条件を決定し、当該決定した撮像条件に基づいて前記撮像手段を制御する、
音声集音・映像撮像装置が提供される。
According to the present invention, the communication device, the voiceprint authentication means, the imaging means, and the imaging adjustment means,
The call device includes a support unit, a plurality of microphones, an audio signal processing unit, and a microphone selection unit.
The support portion includes a sound reflection plate, a connecting member, and a speaker housing portion.
The speaker housing portion has a sound reflection surface, a bottom surface, and an upper sound output opening,
A speaker is housed in a lumen surrounded by the sound reflecting surface and the bottom surface,
The cross section of the sound reflecting surface of the speaker housing portion is formed to draw a gentle convex surface, and the cross section of the sound reflecting surface of the sound reflecting plate disposed facing the sound reflecting surface of the speaker housing portion is gentle. The sound reproduced from the speaker is radiated in a horizontal direction between the sound reflecting surface of the speaker housing portion and the sound reflecting surface of the sound reflecting plate, which are formed so as to draw a trumpet-shaped arc. It forms a sound radiation part that emits,
The speaker housing portion and the sound reflecting plate are connected by the connecting member, and a constraining member passes through the connecting member, and the constraining member is connected to the fixing portion of the bottom surface of the speaker housing portion and the sound. Constrains between the fixed part of the reflector,
The sound reflector supports the printed circuit board through a vibration absorbing member that absorbs vibration caused by the operation of the speaker.
The printed circuit board has a plurality of microphones arranged in a one-to-one correspondence at locations where a plurality of speakers are located, and having directivity, and the audio signal processing means.
The voiceprint authentication means has a voiceprint registration memory in which voiceprints of a plurality of speakers are registered in advance, a dictionary memory for voiceprint processing, and a voice signal collected by the microphone is registered in the voiceprint memory. A specialized authentication processing unit that authenticates the user by determining whether the voiceprint matches,
The voice signal processing means in the communication device includes variable gain amplification means capable of gain adjustment for amplifying the collected sound signals of the plurality of microphones, and amplifier gain adjustment means, and the amplifier gain adjustment means includes the amplifier gain adjustment means. When the gain of the variable gain amplification means is adjusted so that the acoustic coupling with the speaker is equal, and when the speaker is authenticated by the voiceprint authentication means, the sound collection signal of the microphone corresponding to the speaker is increased. The gain of the variable gain amplification means is set to a large first gain so as to amplify,
The microphone selection means in the communication device is used by a speaker using a microphone corresponding to a microphone signal indicating the maximum amplitude among the collected sound signals of the plurality of microphones output from the audio signal processing means Select as microphone,
The imaging means is arranged based on at least one predetermined arrangement condition for imaging a speaker who uses the plurality of microphones, and each imaging means is capable of panning, tilting and zooming,
When the voiceprint of the speaker is authenticated by the voiceprint authentication unit, the imaging adjustment unit is configured to use the position and orientation of the used microphone selected by the microphone selection unit and the arrangement position of the imaging unit from the imaging unit. An imaging condition including any of an imaging direction, pan, tilt, and zoom amount of the imaging unit based on the calculated distance and direction, and calculating a distance to the used microphone and an orientation of the used microphone with respect to the imaging unit And controlling the imaging means based on the determined imaging condition,
An audio collecting / imaging device is provided.

好ましくは、前記増幅器利得調整手段は、前記声紋認証手段で声紋の認証がされないとき、前記マイクロフォン選択手段で選択した選択マイクロフォンの集音信号を増幅する前記利得可変型増幅手段の利得を低い前記第1の利得より低い第2の利得に設定する。Preferably, the amplifier gain adjusting means lowers the gain of the variable gain amplification means for amplifying the collected sound signal of the selected microphone selected by the microphone selecting means when the voiceprint authenticating means is not authenticated by the voiceprint authenticating means. A second gain lower than 1 is set.

好ましくは、前記撮像調整手段は、前記撮像手段で撮像した話者の画像データを信号処理して、当該話者の顔を含む人体の輪郭データを検出し、検出した輪郭データが前記撮像手段の画像表示部の画枠内に一杯になるように、前記撮像手段をズーム動作させる
Preferably, the imaging adjustment unit performs signal processing on the speaker image data captured by the imaging unit to detect contour data of a human body including the speaker's face, and the detected contour data is detected by the imaging unit. The imaging means is zoomed so that it fills the image frame of the image display section .

また好ましくは、前記撮像調整手段は、前記声紋認証手段で声紋認証されないとき、前記撮像手段をデフォルト状態にする
Preferably, the imaging adjustment unit sets the imaging unit to a default state when a voiceprint is not authenticated by the voiceprint authentication unit .

好ましくは、前記撮像調整手段は、前記デフォルト状態として、前記撮像手段の前記撮像条件を変化させない。Preferably, the imaging adjustment unit does not change the imaging condition of the imaging unit as the default state.

好ましくは、前記撮像調整手段は、前記デフォルト状態として、前記撮像手段の撮像条件を予め設定された初期撮像条件にする
Preferably, the imaging adjustment unit sets the imaging condition of the imaging unit to a preset initial imaging condition as the default state .

本発明によれば、発言者が使用しているマイクロフォンを選択し、その結果に基づいて、事前に設定された撮像条件情報に基づいて撮像手段の撮像条件を調整し、発言者を撮像できる。
好ましくは、声紋認証を行い、さらに声紋認証された場合に、その結果に基づいて、撮像条件情報に基づいて撮像手段の撮像条件を調整し、発言者を撮像できる。
According to the present invention, a microphone used by a speaker can be selected, and based on the result, the imaging condition of the imaging unit can be adjusted based on imaging condition information set in advance, and the speaker can be imaged.
Preferably, voiceprint authentication is performed, and when voiceprint authentication is further performed, based on the result, the imaging condition of the imaging means is adjusted based on the imaging condition information, and the speaker can be imaged.

本発明の実施の形態の音声集音・映像撮像装置について述べる。
図1(A)〜(C)は本発明の実施の形態の音声集音・映像撮像装置が適用される1例を示す構成図である。
図1(A)に図解したように、2つの会議室901、902にそれぞれに第1および第2の音声集音・映像撮像装置1A、1Bが設置されており、これらの音声集音・映像撮像装置1A、1Bが通信回線920、たとえば、電話回線で接続されている。
An audio collection / video imaging apparatus according to an embodiment of the present invention will be described.
FIGS. 1A to 1C are configuration diagrams showing an example to which the sound collection / video imaging apparatus according to the embodiment of the present invention is applied.
As illustrated in FIG. 1A, the first and second sound collection / video imaging devices 1A and 1B are installed in the two conference rooms 901 and 902, respectively. The imaging devices 1A and 1B are connected by a communication line 920, for example, a telephone line.

〔音声集音・映像撮像装置の概要〕
図2は本発明の実施の形態の音声集音・映像撮像装置1Aの平面配置図である。第1および第2の音声集音・映像撮像装置1A、1Bは同じ構成をしている。
第1の音声集音・映像撮像装置1Aを代表して述べると、第1の音声集音・映像撮像装置1Aは、本発明の音声集音手段に相当する第1の通話装置10Aと、本発明の撮像手段に相当する2台の第1のテレビジョンカメラ(テレビカメラ)装置40A1、40A2とを有する。通話装置は会議者の発言を検出し、発言者を決定して決定して発言者の音声をその会議室内の他の会議出席者および相手方の会議室の会議出席者に通報する。さらに通話装置は、発言者の特定に基づいてテレビカメラ装置40A1、40A2の撮像条件を提供する。
テレビカメラ装置40A1、40A2は提供された撮像条件に基づき自動的に最適な画像を撮像する。
[Outline of the sound collection and imaging device]
FIG. 2 is a plan layout view of the sound collection / video imaging apparatus 1A according to the embodiment of the present invention. The first and second audio collecting / imaging devices 1A and 1B have the same configuration.
As a representative example of the first sound collection / video imaging device 1A, the first sound collection / video imaging device 1A includes the first call device 10A corresponding to the sound collection means of the present invention, It has two first television camera (television camera) devices 40A1 and 40A2 corresponding to the imaging means of the invention. The communication device detects the speech of the conference person, determines and determines the speaker, and reports the voice of the speaker to the other conference attendees in the conference room and the conference attendee in the other conference room. Furthermore, the communication device provides the imaging conditions of the television camera devices 40A1 and 40A2 based on the identification of the speaker.
The TV camera devices 40A1 and 40A2 automatically capture an optimal image based on the provided imaging conditions.

第1の音声集音・映像撮像装置1Aに、テレビジョン受像機50A、および/または、第1のプロジェクタ装置60Aを含めることもできる。
プロジェクタ装置60Aは、たとえば、変調手段として液晶を用いたプロジェクタ装置であり、会議に用いる各種資料をパーソナルコンピュータからの提供された場合、スクリーンSに映像として投射して会議者A1〜A8に視認可能とする。
テレビジョン受像機50Aは、テレビカメラ装置40A1、40A2で撮像した映像、または、相手方会議室のテレビカメラ装置40B1、40B2で撮像した映像をスクリーンSに投射して会議者A1〜A8に表示する。なお、テレビジョン受像機50Aを削除して、テレビカメラ装置40A1、40A2で撮像した映像、または、相手方会議室のテレビカメラ装置40B1、40B2で撮像した映像を、パーソナルコンピュータからの提供された映像と切り換えて、プロジェクタ装置60Aを介してスクリーンSに投射して会議者A1〜A8に表示することもできる。以下、テレビジョン受像機50Aを用いず、プロジェクタ装置60Aでテレビカメラ装置40A1、40A2で撮像した画像を表示する場合について述べる。
The first sound collection / video imaging device 1A may include the television receiver 50A and / or the first projector device 60A.
The projector device 60A is, for example, a projector device that uses liquid crystal as a modulation means. When various materials used for a conference are provided from a personal computer, the projector device 60A projects the image on the screen S and is visible to the conference participants A1 to A8. And
The television receiver 50A projects the images captured by the TV camera devices 40A1 and 40A2 or the images captured by the TV camera devices 40B1 and 40B2 in the other party's conference room on the screen S and displays them on the participants A1 to A8. It is to be noted that the television receiver 50A is deleted and the video captured by the television camera devices 40A1 and 40A2 or the video captured by the television camera devices 40B1 and 40B2 in the other party's conference room is provided as the video provided from the personal computer. It is also possible to switch and project the image onto the screen S via the projector device 60A and display it on the conference participants A1 to A8. Hereinafter, a case will be described in which an image captured by the television camera devices 40A1 and 40A2 is displayed by the projector device 60A without using the television receiver 50A.

好ましくは、通話装置10Aと、プロジェクタ装置60Aとはテーブル911の上に載置されている。図1(B)はテレビジョン911に載置された通話装置10Aを示す。
図1(C)、図2に図解したように、通話装置10Aの周囲に複数(図1(C)では6名、図2においては8名)の会議参加者A1〜A6(A1〜A8)が位置している。
Preferably, communication device 10A and projector device 60A are placed on table 911. FIG. 1B shows a call device 10A mounted on a television 911.
As illustrated in FIGS. 1C and 2, a plurality of conference participants A1 to A6 (A1 to A8) around the communication device 10A (six participants in FIG. 1C and eight in FIG. 2). Is located.

図解を省略した第2の音声集音・映像撮像装置1Bも、第2の通話装置10Bと、第2の2台のテレビジョンカメラ(テレビカメラ)装置40B1、40B2とを有する。
音声集音・映像撮像装置1Bに、第2のプロジェクタ装置60Bおよびテレビジョン受像機50Bを含めることもできる。
好ましくは、通話装置10Bとプロジェクタ装置60Bとは会議室902のテーブル912に載置されている。
The second sound collection / video imaging device 1B (not shown) also includes a second call device 10B and second two television camera (television camera) devices 40B1 and 40B2.
The sound collection / video imaging device 1B may include the second projector device 60B and the television receiver 50B.
Preferably, call device 10B and projector device 60B are placed on table 912 in conference room 902.

〔通話装置〕
第1通話装置10Aと第2の通話装置10Bとの間で、通信回線920を介して音声による応答を行う。
通常、通信回線920を介しての会話は、一人の話者と一人の話者同士、すなわち、1対1で通話を行うが、本発明の実施の形態の通話装置は1つの通信回線920を用いて、会議室901、902内の複数の会議参加者同士が通話できる。ただし、本実施の形態においては、音声の混雑を回避し、テレビカメラ装置での話者の撮像を可能にするため、同時刻(同じ時間帯)の話者は、相互に一人に限定する。
通話装置の詳細は後述する。
[Calling equipment]
A voice response is made via the communication line 920 between the first call device 10A and the second call device 10B.
Normally, a conversation via the communication line 920 is performed by one speaker and one speaker, that is, a one-to-one call. By using this, a plurality of conference participants in the conference rooms 901 and 902 can talk with each other. However, in this embodiment, in order to avoid voice congestion and to enable imaging of a speaker with a television camera device, the number of speakers at the same time (same time zone) is limited to one person.
Details of the communication device will be described later.

〔テレビカメラ装置とテレビジョン受像機〕
たとえば、第1の音声集音・映像撮像装置1Aにおけるテレビカメラ装置40A1、40A2は、第1通話装置10Aで特定した通話者を撮像する。そのため、テレビカメラ装置40A1、40A2は、パン、チルト、ズーム機能などを有する。
テレビカメラ装置40A1、40A2で撮像した映像は、通信回線920を介して相手側の会議室のプロジェクタ装置60A(またはテレビジョン受像機50B)に表示される。
必要に応じて、自分の側の会議室のプロジェクタ装置60A(またはテレビジョン受像機50A)にテレビカメラ装置40A1、40A2が撮像した映像を表示することもできる。
[Television camera device and television receiver]
For example, the television camera devices 40A1 and 40A2 in the first sound collection / video imaging device 1A image the caller specified by the first call device 10A. Therefore, the television camera devices 40A1 and 40A2 have pan, tilt, zoom functions, and the like.
Images captured by the television camera devices 40A1 and 40A2 are displayed on the projector device 60A (or the television receiver 50B) in the conference room on the other side via the communication line 920.
If necessary, video captured by the television camera devices 40A1 and 40A2 can be displayed on the projector device 60A (or the television receiver 50A) in the conference room on the own side.

〔撮像対象の特定方法〕
テレビカメラ装置40A1、40A2で撮像する撮像対象の特定方法は、第1通話装置10Aにおける話者の方向の特定、および、事前に登録してある話者の声紋認識結果を用いる。その詳細は撮像調整部36において行うが、後述する。
[Identification method of imaging target]
The identification method of the imaging target imaged by the TV camera devices 40A1 and 40A2 uses the direction of the speaker in the first call device 10A and the voiceprint recognition result of the speaker registered in advance. The details are performed in the imaging adjustment unit 36, which will be described later.

第2の音声集音・映像撮像装置1Bも第1の音声集音・映像撮像装置1Aと同じ処理を行う。
このように、音声集音・映像撮像装置1A、1Bは、通話装置10A、10Bにおいて、通話者を選択(特定)し、選択した通話者の音声を集音する。さらに、テレビカメラ装置40A1、40A2は、撮像調整部36の指令に基づいて、選択(特定)された通話者の映像を撮像する。
集音した音声と撮像した映像は相手側に会議室に転送され、相手側の音声集音・映像撮像装置における通話装置で音声を再生し、プロジェクタ装置(またはテレビジョン受像機)で映像を表示する。
The second sound collection / video imaging apparatus 1B performs the same processing as the first sound collection / video imaging apparatus 1A.
As described above, the sound collecting / imaging devices 1A and 1B select (specify) the caller and collect the sound of the selected caller in the call devices 10A and 10B. Furthermore, the TV camera devices 40A1 and 40A2 capture the video of the selected (specified) caller based on the command of the imaging adjustment unit 36.
The collected audio and the captured video are transferred to the conference room on the other side, the sound is played back by the call device in the other party's voice collection and video imaging device, and the video is displayed on the projector device (or television receiver). To do.

通話装置の詳細
図3〜図5を参照して本発明の実施の形態の音声集音・映像撮像装置における通話装置の構成について述べる。通話装置10Aも第2の通話装置10Bも同様である。
図3は本発明の1実施の形態としての通話装置の斜視図である。
図4は図3に図解した通話装置の断面図である。
図5は図3、図4に図解した通話装置のマイクロフォン・電子回路収容部の平面図であり、図4の線X−Xにおける平面図である。
Details of the Call Device The configuration of the call device in the sound collection / video imaging device according to the embodiment of the present invention will be described with reference to FIGS. The same applies to the communication device 10A and the second communication device 10B.
FIG. 3 is a perspective view of a communication device as an embodiment of the present invention.
FIG. 4 is a cross-sectional view of the communication device illustrated in FIG.
FIG. 5 is a plan view of the microphone / electronic circuit housing portion of the communication device illustrated in FIGS. 3 and 4, and is a plan view taken along line XX in FIG.

図3に図解したように、通話装置は、上部カバー11と、音反射板12と、連結部材13と、スピーカ収容部14と、操作部15とを有する。
図4に図解したように、スピーカ収容部14は、音反射面14aと、底面14bと、上部音出力開口部14cとを有する。音反射面14aと底面14bで包囲された空間である内腔14dに受話再生スピーカ16が収容されている。スピーカ収容部14の上部に音反射板12が位置し、スピーカ収容部14と音反射板12とが連結部材13によって連結されている。
As illustrated in FIG. 3, the communication device includes an upper cover 11, a sound reflection plate 12, a connecting member 13, a speaker housing unit 14, and an operation unit 15.
As illustrated in FIG. 4, the speaker housing 14 includes a sound reflecting surface 14 a, a bottom surface 14 b, and an upper sound output opening 14 c. The reception / reproduction speaker 16 is accommodated in a lumen 14d which is a space surrounded by the sound reflection surface 14a and the bottom surface 14b. The sound reflecting plate 12 is positioned above the speaker housing portion 14, and the speaker housing portion 14 and the sound reflecting plate 12 are connected by a connecting member 13.

連結部材13内には拘束部材17が貫通しており、拘束部材17は、スピーカ収容部14の底面14bの拘束部材下部固定部14eと、音反射板12の拘束部材固定部12bとの間を拘束している。ただし、拘束部材17はスピーカ収容部14の拘束部材貫通部14fは貫通しているだけである。拘束部材17が拘束部材貫通部14fを貫通してここで拘束していないのはスピーカ16の動作によってスピーカ収容部14が振動するが、その振動を上部音出力開口部14cの周囲においては拘束させないためである。   A constraining member 17 passes through the connecting member 13, and the constraining member 17 is between the constraining member lower fixing portion 14 e on the bottom surface 14 b of the speaker housing portion 14 and the constraining member fixing portion 12 b of the sound reflecting plate 12. Restrained. However, the restraining member 17 is only penetrated by the restraining member penetration portion 14 f of the speaker housing portion 14. The reason why the restraining member 17 penetrates the restraining member through portion 14f and is not restrained here is that the speaker housing portion 14 vibrates due to the operation of the speaker 16, but the vibration is not restrained around the upper sound output opening 14c. Because.

相手会議室の話者が話した音声は、受話再生スピーカ16を介して上部音出力開口部14cから抜け、音反射板12の音反射面12aとスピーカ収容部14の音反射面14aとで規定される空間に沿って軸C−Cを中心として360度の全方位に拡散する。
音反射板12の音反射面12aの断面は図解したように、ゆるやかなラッパ型の弧を描いている。音反射面12aの断面は軸C−Cを中心として360度にわたり(全方位にわたり)、図解した断面形状をしている。
同様にスピーカ収容部14の音反射面14aの断面も図解したように、ゆるやかな凸面を描いている。音反射面14aの断面も軸C−Cを中心として360度にわたり(全方位)、図解した断面形状をしている。
The voice spoken by the speaker in the other party's conference room is extracted from the upper sound output opening 14c through the reception / reproduction speaker 16, and is defined by the sound reflecting surface 12a of the sound reflecting plate 12 and the sound reflecting surface 14a of the speaker accommodating portion 14. And spread in all directions of 360 degrees around the axis CC along the space.
As illustrated, the cross section of the sound reflecting surface 12a of the sound reflecting plate 12 depicts a gentle trumpet arc. The cross section of the sound reflecting surface 12a has a cross-sectional shape illustrated over 360 degrees (over all directions) about the axis CC.
Similarly, as illustrated in the cross section of the sound reflection surface 14a of the speaker housing portion 14, a gentle convex surface is drawn. The cross section of the sound reflecting surface 14a also has the illustrated cross sectional shape over 360 degrees (omnidirectional) about the axis CC.

受話再生スピーカ16から出た音Sは、上部音出力開口部14cを抜け、音反射面12aと音反射面14aとで規定される断面がラッパ状の音出力空間を経て、通話装置が載置されているテーブル911の面に沿って、軸C−Cを中心として360度全方位に拡散していき、全ての会議参加者A1〜A6に等しい音量で聞き取られる。本実施の形態においては、テーブル911の面も音伝播手段の一部として利用している。
受話再生スピーカ16から出力された音Sの拡散状態を矢印で図示した。
The sound S emitted from the reception / reproduction speaker 16 passes through the upper sound output opening 14c, passes through a sound output space having a trumpet-shaped cross section defined by the sound reflection surface 12a and the sound reflection surface 14a, and the communication device is placed. Along the surface of the table 911, the sound spreads in all directions 360 degrees around the axis C-C, and is heard at a volume equal to all conference participants A1 to A6. In the present embodiment, the surface of the table 911 is also used as part of the sound propagation means.
The diffusion state of the sound S output from the receiving / reproducing speaker 16 is shown by arrows.

音反射板12は、プリント基板21を支持している。
プリント基板21には、図5に平面を図解したように、マイクロフォン・電子回路収容部2のマイクロフォンMC1〜MC6、発光ダイオードLED1〜6、マイクロプロセッサ23、コーデック(CODEC)24、第1のディジタルシグナルプロセッサ(DSP1)DSP25、第2のディジタルシグナルプロセッサ(DSP2)DSP26、A/D変換器ブロック27、D/A変換器ブロック28、増幅器ブロック29などの各種電子回路が搭載されており、音反射板12はマイクロフォン・電子回路収容部2を支持する部材としても機能している。
The sound reflecting plate 12 supports the printed circuit board 21.
On the printed circuit board 21, as illustrated in a plan view in FIG. 5, the microphones MC1 to MC6, the light emitting diodes LED1 to 6 of the microphone / electronic circuit housing unit 2, the microprocessor 23, the codec (CODEC) 24, the first digital signal. Various electronic circuits such as a processor (DSP 1) DSP 25, a second digital signal processor (DSP 2) DSP 26, an A / D converter block 27, a D / A converter block 28, and an amplifier block 29 are mounted on the sound reflector. Reference numeral 12 also functions as a member that supports the microphone / electronic circuit housing portion 2.

プリント基板21には、受話再生スピーカ16からの振動が音反射板12を伝達してマイクロフォンMC1〜MC6などに進入して騒音とならないように、受話再生スピーカ16からの振動を吸収するダンパー18が取り付けられている。ダンパー18は、ネジと、このネジとプリント基板21との間に挿入された防振ゴムなどの緩衝材とからなり、緩衝材をネジでプリント基板21にネジ止めしている。すなわち、緩衝材によって受話再生スピーカ16からプリント基板21に伝達される振動が吸収される。これにより、マイクロフォンMC1〜MC6は、スピーカ16からの音の影響を受けない。   The printed circuit board 21 has a damper 18 that absorbs vibration from the reception / reproduction speaker 16 so that vibration from the reception / reproduction speaker 16 is transmitted to the sound reflector 12 and does not enter the microphones MC1 to MC6. It is attached. The damper 18 includes a screw and a cushioning material such as an anti-vibration rubber inserted between the screw and the printed board 21, and the cushioning material is screwed to the printed board 21 with a screw. That is, the vibration transmitted from the reception / reproduction speaker 16 to the printed circuit board 21 is absorbed by the buffer material. Thereby, the microphones MC1 to MC6 are not affected by the sound from the speaker 16.

マイクロフォンの配置
図5に図解したように、プリント基板21の中心軸Cから等角度で放射状にかつ等間隔(本実施の形態では60度の等角度で)で6本のマイクロフォンMC1〜MC6が位置している。各マイクロフォンは単一指向性を持つマイクロフォンである。その特性については後述する。
各マイクロフォンMC1〜MC6は、共に柔軟性または弾力性のある第1のマイク支持部材22aと第2のマイク支持部材22bとで、揺動自在に支持されており(図解を簡単にするため、マイクロフォンMC1の部分の第1のマイク支持部材22aと第2のマイク支持部材22bとについてのみ図解している)、上述した緩衝材を用いたダンパー18による受話再生スピーカ16からの振動の影響を受けない対策に加えて、柔軟性または弾力性のある第1のマイク支持部材22aと第2のマイク支持部材22bとで受話再生スピーカ16からの振動で振動するプリント基板21の振動を吸収して受話再生スピーカ16の振動の影響を受けないようにして、受話再生スピーカ16の騒音を回避している。
Microphone Arrangement As illustrated in FIG. 5, six microphones MC1 to MC6 are located radially from the central axis C of the printed circuit board 21 at equal angles and at equal intervals (equal angle of 60 degrees in the present embodiment). is doing. Each microphone is a unidirectional microphone. Its characteristics will be described later.
Each of the microphones MC1 to MC6 is swingably supported by a first microphone support member 22a and a second microphone support member 22b, both of which are flexible or elastic (in order to simplify the illustration, the microphones Only the first microphone support member 22a and the second microphone support member 22b in the MC1 portion are illustrated), and is not affected by the vibration from the reception / reproduction speaker 16 by the damper 18 using the above-described cushioning material. In addition to the countermeasures, the first microphone support member 22a and the second microphone support member 22b having flexibility or elasticity absorb the vibration of the printed circuit board 21 that is vibrated by the vibration from the reception / reproduction speaker 16, and reproduce the reception. The noise of the receiving / reproducing speaker 16 is avoided so as not to be affected by the vibration of the speaker 16.

図4に図解したように、受話再生スピーカ16はマイクロフォンMC1〜MC6が位置する平面の中心軸C−Cに対して垂直に指向しており(本実施の形態においては上方向に向いている(指向している))、このような受話再生スピーカ16と6本のマイクロフォンMC1〜MC6の配置により、受話再生スピーカ16と各マイクロフォンMC1〜MC6との距離は等距離となり、受話再生スピーカ16からの音声は、各マイクロフォンMC1〜MC6に対しほとんど同音量、同位相で届く。ただし、上述した音反射板12の音反射面12aおよびスピーカ収容部14の音反射面14aの構成により、受話再生スピーカ16の音がマイクロフォンMC1〜MC6には直接入力されないようにしている。加えて、上述したように、緩衝材を用いたダンパー18と、柔軟性または弾力性のある第1のマイク支持部材22aと第2のマイク支持部材22bとを用いることにより、受話再生スピーカ16の振動の影響を低減している。
会議参加者A1〜A6は、通常、たとえば、図1(C)に例示したように、通話装置の周囲360度方向に、60度間隔で配設されているマイクロフォンMC1〜MC6の近傍にほぼ等間隔で位置している。なお、図2に図解した例示では、通話装置の周囲に8名の会議参加者が位置している。
As illustrated in FIG. 4, the reception / reproduction speaker 16 is oriented perpendicularly to the central axis CC of the plane on which the microphones MC1 to MC6 are located (in the present embodiment, it is directed upward) With the arrangement of the reception / reproduction speaker 16 and the six microphones MC1 to MC6, the distance between the reception / reproduction speaker 16 and each of the microphones MC1 to MC6 is equal. The sound reaches the microphones MC1 to MC6 with almost the same volume and phase. However, due to the configuration of the sound reflection surface 12a of the sound reflection plate 12 and the sound reflection surface 14a of the speaker housing portion 14, the sound of the reception and reproduction speaker 16 is not directly input to the microphones MC1 to MC6. In addition, as described above, by using the damper 18 using the buffer material, the first microphone support member 22a and the second microphone support member 22b having flexibility or elasticity, the reception / reproduction speaker 16 is provided. The influence of vibration is reduced.
The conference participants A1 to A6 are usually almost equal to the vicinity of the microphones MC1 to MC6 arranged at intervals of 60 degrees in the direction of 360 degrees around the communication device as illustrated in FIG. Located at intervals. In the example illustrated in FIG. 2, eight conference participants are located around the call device.

話者を決定したことを通報する手段(マイクロフォン選択結果表示手段)として発光ダイオードLED1〜6がマイクロフォンMC1〜MC6の近傍に配置されている。
発光ダイオードLED1〜6は上部カバー11を装着した状態でも、全ての会議参加者A1〜A6から視認可能に設けられている。したがって、上部カバー11は発光ダイオードLED1〜6の発光状態が視認可能なように透明窓が設けられている。もちろん、上部カバー11に発光ダイオードLED1〜6の部分に開口が設けられていてもよいが、マイクロフォン・電子回路収容部2への防塵の観点からは透光窓が好ましい。
Light emitting diodes LED1 to 6 are arranged in the vicinity of the microphones MC1 to MC6 as means for notifying that the speaker has been determined (microphone selection result display means).
The light emitting diodes LED1 to 6 are provided so as to be visible from all the conference participants A1 to A6 even when the upper cover 11 is attached. Therefore, the upper cover 11 is provided with a transparent window so that the light emitting states of the light emitting diodes LED1 to LED6 can be visually recognized. Of course, the upper cover 11 may be provided with openings in the portions of the light emitting diodes LEDs 1 to 6, but a light-transmitting window is preferable from the viewpoint of dust prevention to the microphone / electronic circuit housing portion 2.

プリント基板21には、後述する各種の信号処理を行うために、第1のディジタルシグナルプロセッサ(DSP1)25、第2のディジタルシグナルプロセッサ(DSP2)26、各種電子回路27〜29が、マイクロフォンMC1〜MC6が位置する部分以外の空間に配置されている。
本実施の形態においては、DSP25を各種電子回路27〜29とともにフィルタ処理、マイクロフォン選択処理などの処理を行う信号処理手段として用い、DSP26をエコーキャンセラーとして用いている。
The printed circuit board 21 includes a first digital signal processor (DSP 1) 25, a second digital signal processor (DSP 2) 26, and various electronic circuits 27 to 29 for performing various signal processing described later. It is arranged in a space other than the part where the MC 6 is located.
In the present embodiment, the DSP 25 is used as signal processing means for performing processing such as filter processing and microphone selection processing together with various electronic circuits 27 to 29, and the DSP 26 is used as an echo canceller.

図6は、マイクロプロセッサ23、コーデック24、DSP25、DSP26、A/D変換器ブロック27、D/A変換器ブロック28、増幅器ブロック29、その他各種電子回路の概略構成図である。
マイクロプロセッサ23はマイクロフォン・電子回路収容部2の全体制御処理を行う。 コーデック24は相手方会議室に送信する音声を圧縮符号化する。
DSP25が下記に述べる各種の信号処理、たとえば、フィルタ処理、マイクロフォン選択処理などを行う。
DSP26はエコーキャンセラーとして機能する。
図6においては、A/D変換器ブロック27の1例として、4個のA/D変換器271〜274を例示し、D/A変換器ブロック28の1例として、2個のD/A変換器281〜282を例示し、増幅器ブロック29の1例として、2個の増幅器291〜292を例示している。
その他、マイクロフォン・電子回路収容部2としては電源回路など各種の回路がプリント基板21に搭載されている。
FIG. 6 is a schematic configuration diagram of the microprocessor 23, the codec 24, the DSP 25, the DSP 26, the A / D converter block 27, the D / A converter block 28, the amplifier block 29, and other various electronic circuits.
The microprocessor 23 performs overall control processing of the microphone / electronic circuit housing unit 2. The codec 24 compresses and encodes audio to be transmitted to the other party conference room.
The DSP 25 performs various signal processing described below, such as filter processing and microphone selection processing.
The DSP 26 functions as an echo canceller.
In FIG. 6, four A / D converters 271 to 274 are illustrated as an example of the A / D converter block 27, and two D / A converters are illustrated as an example of the D / A converter block 28. The converters 281 to 282 are illustrated, and two amplifiers 291 to 292 are illustrated as an example of the amplifier block 29.
In addition, as the microphone / electronic circuit housing portion 2, various circuits such as a power supply circuit are mounted on the printed circuit board 21.

図5においてプリント基板21の中心軸Cに対してそれぞれ対称(または対向する)位置に一直線上に配設された1対のマイクロフォンMC1−MC4:MC2−MC5:MC3−M6が、それぞれ2チャネルのアナログ信号をディジタル信号に変換するA/D変換器271〜273に入力されている。本実施の形態においては、1個のA/D変換器が2チャネルのアナログ入力信号をディジタル信号に変換する。そこで、中心軸Cを挟んで一直線上に位置する2個(1対)のマイクロフォン、たとえば、マイクロフォンMC1とMC4の検出信号を1個のA/D変換器に入力してディジタル信号に変換している。また、本実施の形態においては、相手の会議室に送出する音声の話者を特定するため、一直線上に位置する2個のマイクロフォンの音声の差、音声の大きさなどを参照するから、一直線上に位置する2個のマイクロフォンの信号を同じA/D変換器に入力すると、変換タイミングもほぼ同じになり、2個のマイクロフォンの音声出力の差をとるときにタイミング誤差が少ない、信号処理が容易になるなどの利点がある。
なお、A/D変換器271〜274は可変利得型増幅機能付きのA/D変換器271〜274として構成することもできる。
A/D変換器271〜274で変換したマイクロフォンMC1〜MC6の集音信号はDSP25に入力されて、後述する各種の信号処理が行われる。
DSP25の処理結果の1つとして、マイクロフォンMC1〜MC6のうちの1つを選択した結果が、マイクロフォン選択結果表示手段の1例である発光ダイオードLED1〜6に出力される。
In FIG. 5, a pair of microphones MC1-MC4: MC2-MC5: MC3-M6 arranged in a straight line at symmetrical (or opposite) positions with respect to the central axis C of the printed circuit board 21 are respectively two channels. The analog signals are inputted to A / D converters 271 to 273 for converting them into digital signals. In this embodiment, one A / D converter converts a 2-channel analog input signal into a digital signal. Therefore, the detection signals of two (one pair) microphones, for example, microphones MC1 and MC4, which are positioned on a straight line across the central axis C, are input to one A / D converter and converted into digital signals. Yes. Further, in this embodiment, in order to identify the speaker of the voice to be sent to the other party's conference room, the difference between the two microphones positioned on a straight line, the volume of the voice, etc. are referred to. When the signals of two microphones located on the line are input to the same A / D converter, the conversion timing is also substantially the same, and there is little timing error when taking the difference between the audio outputs of the two microphones. There are advantages such as being easy.
The A / D converters 271 to 274 can also be configured as A / D converters 271 to 274 with a variable gain amplification function.
The collected sound signals of the microphones MC1 to MC6 converted by the A / D converters 271 to 274 are input to the DSP 25, and various signal processing described later is performed.
As one of the processing results of the DSP 25, the result of selecting one of the microphones MC1 to MC6 is output to the light emitting diodes LED1 to 6 which are an example of the microphone selection result display means.

DSP25の処理結果が、DSP26に出力されてエコーキャンセル処理が行われる。DSP26は、たとえば、エコーキャンセル送話処理部とエコーキャンセル受話部とを有する。
DSP26の処理結果が、D/A変換器281〜282でアナログ信号に変換される。D/A変換器281からの出力が、必要に応じて、コーデック24で符号化されて、増幅器291を介して通信回線920(図1(A))のラインアウトに出力され、相手方会議室に設置された通話装置の受話再生スピーカ16を介して音として出力される。
相手方の会議室に設置された通話装置からの音声が通信回線920(図1(A))のラインインを介して入力され、A/D変換器274においてディジタル信号に変換されて、DSP26に入力されてエコーキャンセル処理に使用される。また、相手方の会議室に設置された通話装置からの音声は図示しない経路でスピーカ16に印加されて音として出力される。
D/A変換器282からの出力が増幅器292を介してこの通話装置の受話再生スピーカ16から音として出力される。すなわち、会議参加者A1〜A6は、上述した受話再生スピーカ16から相手会議室の選択された話者の音声に加えて、その会議室にいる発言者が発した音声をも受話再生スピーカ16を介して聞くことが出来る。
The processing result of the DSP 25 is output to the DSP 26 and an echo cancellation process is performed. The DSP 26 includes, for example, an echo cancellation transmission processing unit and an echo cancellation reception unit.
The processing result of the DSP 26 is converted into an analog signal by the D / A converters 281 to 282. The output from the D / A converter 281 is encoded by the codec 24 as necessary, and is output to the line-out of the communication line 920 (FIG. 1A) via the amplifier 291 to the partner conference room. It is output as sound through the receiving / reproducing speaker 16 of the installed communication device.
Voice from a communication device installed in the other party's conference room is input via the line-in of the communication line 920 (FIG. 1A), converted into a digital signal by the A / D converter 274, and input to the DSP 26. And used for echo cancellation processing. In addition, the voice from the communication device installed in the other party's conference room is applied to the speaker 16 through a route (not shown) and output as sound.
An output from the D / A converter 282 is output as a sound from the reception reproduction speaker 16 of the communication device via the amplifier 292. In other words, in addition to the voice of the speaker selected in the other party's conference room from the reception / reproduction speaker 16 described above, the conference participants A1 to A6 also use the reception / reproduction speaker 16 for the voice uttered by the speaker in the conference room. Can be heard through.

マイクロフォンMC1〜MC6
図7は各マイクロフォンMC1〜MC6の指向性を示すグラフである。
各単一指向特性マイクフォンは発言者からマイクロフォンへの音声の到達角度により図7に図解のように周波数特性、レベル特性が変化する。複数の曲線は、集音信号の周波数が、100Hz、150Hz、200Hz、300Hz、400Hz、500Hz、700Hz、1000Hz、1500Hz、2000Hz、3000Hz、4000Hz、5000Hz、7000Hzの時の指向性を示している。ただし、図解を簡単にするため、図7は代表的に、150Hz、500Hz、1500Hz、3000Hz、7000Hzについての指向性を図解している。
Microphones MC1 to MC6
FIG. 7 is a graph showing the directivity of each of the microphones MC1 to MC6.
Each unidirectional characteristic microphone changes its frequency characteristic and level characteristic as illustrated in FIG. 7 depending on the arrival angle of the sound from the speaker to the microphone. The plurality of curves indicate directivity when the frequency of the sound collection signal is 100 Hz, 150 Hz, 200 Hz, 300 Hz, 400 Hz, 500 Hz, 700 Hz, 1000 Hz, 1500 Hz, 2000 Hz, 3000 Hz, 4000 Hz, 5000 Hz, and 7000 Hz. However, for simplicity of illustration, FIG. 7 typically illustrates the directivity for 150 Hz, 500 Hz, 1500 Hz, 3000 Hz, and 7000 Hz.

図8(A)〜(D)は音源の位置とマイクロフォンの集音レベルの分析結果を示すグラフであり、通話装置と所定距離、たとえば、1.5メートルの距離にスピーカを置いて各マイクロフォンが集音した音声を一定時間間隔で高速フーリエ変換(FFT)した結果を示している。X軸が周波数を、Y軸が信号レベルを、Z軸が時間を表している。
図7の指向性を持つマイクロフォンを用いた場合、マイクロフォンの正面に強い指向性を示す。本実施の形態においては、このような特性を活用して、DSP25においてマイクロフォンの選定処理を行う。
8A to 8D are graphs showing the analysis results of the position of the sound source and the sound collection level of the microphone, and each microphone is placed with a speaker placed at a predetermined distance, for example, a distance of 1.5 meters. The result of fast Fourier transform (FFT) of the collected sound at regular time intervals is shown. The X axis represents frequency, the Y axis represents signal level, and the Z axis represents time.
When the microphone having directivity shown in FIG. 7 is used, strong directivity is shown in front of the microphone. In the present embodiment, using such characteristics, the DSP 25 performs a microphone selection process.

本発明の実施の形態のように指向性を持つマイクロフォンではなく無指向性のマイクロフォンを用いた場合、マイクロフォン周辺の全ての音を集音(収音)するので発言者の音声と周辺ノイズとのS/Nが混同してあまり良い音が集音できない。これを避けるため、本発明においては、指向性マイクロフォン1本で集音することによって周辺のノイズとのS/Nを改善している。
さらに、マイクロフォンの指向性を得る方法として、複数の無指向性マイクロフォンを使用したマイクロフォンアレイを用いることができるが、このような方法では、複数の信号の時間軸(位相)の一致のため複雑な処理を要するため、時間がかかり応答性が低いし、装置構成を複雑になる。すなわち、DSPの信号処理系にも複雑な信号処理を必要とする。本発明は図6に例示した指向性のあるマイクロフォンを用いてそのような問題を解決している。
また、マイクロフォンアレイ信号を合成して指向性収音(集音)マイクロフォンとして利用するためには外形形状が通過周波数特性によって規制され外形形状が大きくなるという不利益がある。本発明はこの問題も解決している。
When an omnidirectional microphone is used instead of a directional microphone as in the embodiment of the present invention, all sounds around the microphone are collected (sound collection). S / N is confused and cannot collect very good sound. In order to avoid this, in the present invention, S / N with surrounding noise is improved by collecting sound with one directional microphone.
Furthermore, a microphone array using a plurality of omnidirectional microphones can be used as a method for obtaining the directivity of the microphone. However, in such a method, the time axis (phase) of a plurality of signals is complicated, which is complicated. Since processing is required, it takes time and response is low, and the apparatus configuration is complicated. That is, the DSP signal processing system also requires complicated signal processing. The present invention solves such a problem by using the directional microphone illustrated in FIG.
Further, in order to synthesize a microphone array signal and use it as a directional sound collecting (sound collecting) microphone, there is a disadvantage that the outer shape is restricted by the pass frequency characteristic and the outer shape becomes large. The present invention also solves this problem.

上述した構成の通話装置は下記の利点を示す。
(1)等角度で放射状かつ等間隔に配設された偶数個のマイクロフォンMC1〜MC6と受話再生スピーカ16との位置関係が一定であり、さらにその距離が非常に近いことで受話再生スピーカ16から出た音が会議室(部屋)環境を経てマイクロフォンMC1〜MC6に戻ってくるレベルより直接戻ってくるレベルが圧倒的に大きく支配的である。そのために、スピーカ16からマイクロフォンMC1〜MC6に音が到達する特性(信号レベル(強度)、周波数特性(f特、位相)がいつも同じである。つまり、本発明の実施の形態における通話装置においてはいつも伝達関数が同じという利点がある。
(2)それ故、話者が異なった時に相手方会議室に送出するマイクロフォンの出力を切り替えた時の伝達関数の変化がなく、マイクロフォンを切り替える都度、マイクロフォン系の利得を調整をする必要がないという利点を有する。換言すれば、通話装置の製造時に一度調整をすると調整をやり直す必要がないという利点がある。
(3)上記と同じ理由で話者が異なった時にマイクロフォンを切り替えても、エコーキャンセラー(DSP26)が一つでよい。DSPは高価であり、種々の部材が搭載されて空きが少ないプリント基板21に複数のDSPを配置する必要がなく、プリント基板21におけるDSPを配置するスペースも少なくてよい。その結果、プリント基板21、ひいては、本発明の通話装置を小型にできる。
(4)上述したように、受話再生スピーカ16とマイクロフォンMC1〜MC6間の伝達関数が一定であるため、たとえば、±3dBもあるマイクロフォン自体の感度差調整を通話装置のマイクロフォンユニット単独で出来るという利点がある。感度差調整の詳細は後述する。
(5)通話装置が搭載されるテーブルは、通常、円いテーブル(円卓)または多角テーブルを用いることで、通話装置内の一つの受話再生スピーカ16で均等な品質の音声を軸Cを中心として360度全方位に均等に分散(拡散)するスピーカシステムが可能になった。
(6)受話再生スピーカ16から出た音は円卓のテーブル面を伝達して(バウンダリ効果)会議参加者まで有効に能率良く均等に上質な音が届き、会議室の天井方向に対しては対向側の音と位相がキャンセルされて小さな音になり、会議参加者に対して天井方向からの反射音が少なく、結果として参加者に明瞭な音が配給されるという利点がある。
(7)受話再生スピーカ16から出た音は等角度で放射状かつ等間隔に配設された全てのマイクロフォンMC1〜MC6に同時に同じ音量で届くので発言者の音声なのか受話音声なのかの判断が容易になる。その結果、マイクロフォン選択処理の誤判別が減る。その詳細は後述する。
(8)偶数個、たとえば、6本のマイクロフォンを等角度で放射状かつ等間隔で、対向する1対のマイクロフォンを一直線上に配置したことで方向検出の為のレベル比較が容易に出来る。
(9)ダンパー18、マイクロフォン支持部材22などにより、受話再生スピーカ16の音による振動が、マイクロフォンMC1〜MC6の集音に与える影響を低減することができる。
(10)図4に図解したように、構造的に、受話再生スピーカ16の音が直接、マイクロフォンMC1〜MC6には伝搬しない。したがって、この通話装置においては受話再生スピーカ16からのノイズの影響が少ない。
The communication device configured as described above has the following advantages.
(1) Since the positional relationship between the even number of microphones MC1 to MC6 radially arranged at equal angles and at equal intervals and the reception / reproduction speaker 16 is constant and the distance is very close, the reception / reproduction speaker 16 The level at which the output sound returns directly to the microphones MC1 to MC6 via the conference room (room) environment is overwhelmingly dominant. For this reason, the characteristics (signal level (intensity) and frequency characteristics (f characteristics, phase) in which sound reaches the microphones MC1 to MC6 from the speaker 16 are always the same. That is, in the communication device according to the embodiment of the present invention. There is an advantage that the transfer function is always the same.
(2) Therefore, there is no change in the transfer function when the output of the microphone sent to the other party's conference room is switched when the speakers are different, and there is no need to adjust the gain of the microphone system each time the microphone is switched. Have advantages. In other words, there is an advantage that once the adjustment is made at the time of manufacturing the telephone device, there is no need to redo the adjustment.
(3) Even if the microphones are switched when the speakers are different for the same reason as described above, only one echo canceller (DSP 26) is required. The DSP is expensive, and it is not necessary to arrange a plurality of DSPs on the printed circuit board 21 on which various members are mounted and the space is small. As a result, the printed circuit board 21, and thus the communication device of the present invention can be reduced in size.
(4) Since the transfer function between the reception / reproduction speaker 16 and the microphones MC1 to MC6 is constant as described above, for example, the advantage that the sensitivity difference of the microphone itself having ± 3 dB can be adjusted by the microphone unit alone of the communication device. There is. Details of the sensitivity difference adjustment will be described later.
(5) The table on which the communication device is mounted is normally a round table or a polygonal table, so that sound of equal quality is centered on the axis C with one reception / reproduction speaker 16 in the communication device. A speaker system that is evenly distributed (diffused) in all directions at 360 degrees has become possible.
(6) The sound emitted from the receiving / reproducing speaker 16 is transmitted to the table surface of the round table (boundary effect), effectively and efficiently delivering high-quality sound to the conference participants, and facing the ceiling direction of the conference room There is an advantage that the sound and phase on the side are canceled and become a small sound, and there are few reflected sounds from the ceiling direction to the conference participants, and as a result, a clear sound is distributed to the participants.
(7) Since the sound emitted from the reception / reproduction speaker 16 reaches all the microphones MC1 to MC6 arranged radially and at equal intervals at the same angle at the same volume at the same time, it is determined whether the sound is the voice of the speaker or the received voice. It becomes easy. As a result, erroneous determination of microphone selection processing is reduced. Details thereof will be described later.
(8) Even number, for example, six microphones are arranged at equal angles radially and at equal intervals, and a pair of opposing microphones are arranged in a straight line, so that level comparison for direction detection can be easily performed.
(9) By the damper 18, the microphone support member 22, and the like, it is possible to reduce the influence of the vibration due to the sound of the reception and reproduction speaker 16 on the sound collection of the microphones MC1 to MC6.
(10) As illustrated in FIG. 4, structurally, the sound of the reception / reproduction speaker 16 does not propagate directly to the microphones MC1 to MC6. Therefore, in this communication device, the influence of noise from the reception / reproduction speaker 16 is small.

変形例
図3〜図4を参照して述べた通話装置は、下部に受話再生スピーカ16を配置させ、上部にマイクロフォンMC1〜MC6(および関連する電子回路)を配置させたが、受話再生スピーカ16とマイクロフォンMC1〜MC6(および関連する電子回路)の位置を、図9に図解したように、上下逆にすることもできる。このような場合でも上述した効果を奏する。
Modified Example The communication device described with reference to FIGS. 3 to 4 has the reception reproduction speaker 16 disposed in the lower portion and the microphones MC1 to MC6 (and related electronic circuits) disposed in the upper portion. And the positions of the microphones MC1 to MC6 (and related electronic circuits) can also be turned upside down as illustrated in FIG. Even in such a case, the above-described effects are exhibited.

マイクロフォンの本数は6本には限定されず、4本、8本などと任意の偶数本のマイクロフォンを等角度で放射状かつ等間隔で軸Cを中心に複数対それぞれを一直線に(同方向に)、たとえば、マイクロフォンMC1とMC4のように一直線に配置する。好ましい形態として、2本のマイクロフォンMC1、MC4を対向させて一直線に配置する理由は、マイクロフォンを選定して話者を特定するためである。   The number of microphones is not limited to six, and any number of microphones, such as four, eight, etc., may be arranged in a straight line (in the same direction) with a plurality of pairs radially centered on axis C at equal angles and at equal intervals. For example, the microphones MC1 and MC4 are arranged in a straight line. The reason why the two microphones MC1 and MC4 are arranged in a straight line as a preferred form is to select a microphone and identify a speaker.

信号処理内容
以下、主として第1のディジタルシグナルプロセッサ(DSP)25で行う処理内容について述べる。
図10はDSP25が行う通話装置における処理の概要を図解した図である。以下、その概要を述べる。
Signal Processing Contents Hereinafter, processing contents mainly performed by the first digital signal processor (DSP) 25 will be described.
FIG. 10 is a diagram illustrating an outline of processing in the communication device performed by the DSP 25. The outline is described below.

(1)周囲のノイズの測定
初期動作として、好ましくは、通話装置10Aが設置される周囲のノイズを測定する。
通話装置は種々の環境(会議室)で使用されうる。マイクロフォンの選択の正確さを期し、通話装置の性能を高めるために、本発明においては、初期段階において、通話装置が設置される周囲環境のノイズを測定し、そのノイズの影響をマイクロフォンで集音した信号から排除することを可能とする。
もちろん、通話装置を同じ会議室で反復して使用するような場合、事前にノイズ測定が行われており、ノイズ状態が変化しないような場合にはこの処理は割愛できる。
なお、ノイズ測定は通常状態においても行うことができる。
(1) Measurement of ambient noise As an initial operation, preferably, ambient noise where the communication device 10A is installed is measured.
The call device can be used in various environments (conference rooms). In the present invention, in order to increase the accuracy of the selection of the microphone and to improve the performance of the communication device, in the initial stage, noise in the surrounding environment where the communication device is installed is measured, and the influence of the noise is collected by the microphone. It is possible to exclude it from the processed signal.
Of course, when the communication device is repeatedly used in the same conference room, noise measurement is performed in advance, and this processing can be omitted when the noise state does not change.
Note that noise measurement can also be performed in a normal state.

(2)議長の選定
たとえば、通話装置を双方向会議に使用する場合、それぞれの会議室における議事運営を取りまとめる議長がいることが有益である。したがって、本発明の1態様としては、通話装置を使用する初期段階において、通話装置の操作部15から議長を設定する。議長の設定方法としては、たとえば、操作部15の近傍に位置する第1マイクロフォンMC1を議長用マイクロフォンとする。もちろん、議長用マイクロフォンを任意のものにすることもできる。
なお、通話装置を反復して使用する議長が同じ場合はこの処理は割愛できる。あるいは、事前に議長が座る位置のマイクロフォンを決めておいてもよい。その場合はその都度、議長の選定動作は不要である。
もちろん、議長の選定は初期状態に限らず、任意のタイミングで行うことができる。
(2) Selection of Chairperson For example, when a telephone device is used for a two-way conference, it is beneficial to have a chairperson who manages the proceedings in each conference room. Therefore, as one aspect of the present invention, the chairperson is set from the operation unit 15 of the call device in the initial stage of using the call device. As a chairperson setting method, for example, the first microphone MC1 located in the vicinity of the operation unit 15 is used as a chairperson microphone. Of course, the chairman's microphone can be arbitrary.
Note that this process can be omitted when the chairperson who uses the telephone device repeatedly is the same. Or you may decide the microphone of the position where a chairperson sits beforehand. In that case, there is no need to select a chairman each time.
Of course, the selection of the chair is not limited to the initial state, and can be performed at any timing.

(3)マイクロフォンの感度差調整
初期動作として、好ましくは、受話再生スピーカ16とマイクロフォンMC1〜MC6との音響結合が等しくなるように、マイクロフォンMC1〜MC6の信号を増幅する増幅部の利得または減衰部の減衰値を自動的に調整する。
(3) Microphone sensitivity difference adjustment As an initial operation, preferably, the gain or attenuation unit of the amplification unit that amplifies the signals of the microphones MC1 to MC6 so that the acoustic coupling between the reception reproduction speaker 16 and the microphones MC1 to MC6 is equal. Automatically adjust the attenuation value.

通常処理として下記に例示する各種の処理を行う。
(1)マイクロフォン選択、切り替え処理
1つの会議室において同時に複数の会議参加者が通話すると、音声が入り交じり相手側会議室内の会議参加者A1〜A6にとって聞きにくい。そこで、本発明においては、原則として、ある時間帯には1人ずつ通話させる。そのため、DSP25においてマイクロフォンの選択・切り替え処理を行う。
その結果、選択されたマイクロフォンからの通話のみが、通信回線920を介して相手方会議室の通話装置に伝送されてスピーカから出力される。もちろん、図6を参照して述べたように、選択された話者のマイクロフォンの近傍のLEDが点灯し、さらに、その部屋の通話装置のスピーカからも選択された話者の音声を聞くことができ、誰が許可された話者かを認識することができる。
この処理により、発言者に対向した単一指向性マイクの信号を選択し、送話信号として相手方にS/Nの良い信号を送ることを目的としている。
(2)選択したマイクロフォンの表示
話者のマイクロフォンが選択され、話すことが許可された会議参加者のマイクロフォンがどれであるかを、会議参加者A1〜A6全員に容易に認識できるように、マイクロフォン選択結果表示手段、たとえば、発光ダイオードLED1〜6の該当するもの点灯させる。
(3)撮像条件の決定(第3実施の形態)
第3実施の形態として述べる撮像調整部36において、通話装置による上述したマイクロフォンの選択(特定)結果を用いて、テレビカメラ装置40A1、40A2の撮像条件を決定することができる。
(4)上述したマイクロフォン選択処理の背景技術として、または、マイクロフォン選択処理を正確に遂行するため下記に例示する各種の信号処理を行う。
(a)マイクロフォンの集音信号の帯域分離と、レベル変換処理
(b)発言の開始、終了の判定処理
発言者方向に対向したマイク信号の選択判定開始トリガとして使用するた め。
(c)発言者方向マイクロフォンの検出処理
各マイクロフォンの集音信号を分析し、発言者の使用しているマイクロフ ォンを判定するため。
(d)発言者方向マイクロフォンの切り換えタイミング判定処理、および、検出 された発言者に対向したマイク信号の選択切り替え処理
上述した処理結果から選択したマイクロフォンへ切り換えの指示をする。 (e)通常動作時のフロアノイズの測定
Various processes exemplified below are performed as normal processes.
(1) Microphone selection and switching processing When a plurality of conference participants make a call at the same time in one conference room, voices are mixed and difficult for the conference participants A1 to A6 in the other conference room. Therefore, in the present invention, in principle, one person is allowed to talk at a time. For this reason, the DSP 25 performs microphone selection / switching processing.
As a result, only the call from the selected microphone is transmitted to the call device in the other party's conference room via the communication line 920 and output from the speaker. Of course, as described with reference to FIG. 6, the LED in the vicinity of the selected speaker's microphone is turned on, and the selected speaker's voice can be heard from the speaker of the communication device in the room. And recognize who is the authorized speaker.
The purpose of this processing is to select a signal from a unidirectional microphone facing the speaker and send a signal having a good S / N to the other party as a transmission signal.
(2) Display of the selected microphone A microphone is selected so that all the conference participants A1 to A6 can easily recognize which microphone of the conference participant is selected and allowed to speak. Selection result display means, for example, corresponding ones of the light emitting diodes LED1 to LED6 are turned on.
(3) Determination of imaging conditions (third embodiment)
In the imaging adjustment unit 36 described as the third embodiment, the imaging conditions of the television camera devices 40A1 and 40A2 can be determined using the above-described microphone selection (specification) result by the communication device.
(4) As a background technique of the above-described microphone selection process, or in order to accurately perform the microphone selection process, various signal processes exemplified below are performed.
(A) Band separation and level conversion processing of microphone collected signal (b) Start / end determination processing of speech
To be used as a trigger to start selecting the microphone signal that faces the speaker direction.
(C) Speaker direction microphone detection processing
To analyze the collected sound signal of each microphone and determine the microphone used by the speaker.
(D) Speaker direction microphone switching timing determination processing, and microphone signal selection switching processing facing the detected speaker
An instruction to switch to the microphone selected from the above processing result is given. (E) Measurement of floor noise during normal operation

フロア(環境)ノイズの測定
この処理は通話装置の電源投入直後の初期処理と通常処理に分かれる。
なお、この処理は下記の例示的な前提条件の下に行う。
Measurement of floor (environment) noise This process is divided into an initial process and a normal process immediately after the communication device is turned on.
This process is performed under the following exemplary preconditions.

〔表1〕
(1)条件:測定時間及び閾値暫定値:
1.テストトーン音圧 :マイク信号レベルで−40dB
2.ノイズ測定単位時間:10秒
3.通常状態でのノイズ測定:10秒間の測定結果で平均値計算し、さらにこれを10回繰り返して平均値を求めノイズレベルとする。
[Table 1]
(1) Conditions: Measurement time and threshold provisional value:
1. Test tone sound pressure: -40dB at microphone signal level
2. 2. Noise measurement unit time: 10 seconds Noise measurement in a normal state: The average value is calculated from the measurement result for 10 seconds, and this is repeated 10 times to obtain the average value to obtain the noise level.

〔表2〕
(2)フロアノイズと発言開始基準レベルとの差による有効距離の目安と閾値
1.26dB以上:3メートル以上
発言開始の検出レベル閾値:フロアノイズレベル+9dB
発言終了の検出レベル閾値:フロアノイズレベル+6dB
2.20〜26dB:3メートル以内
発言開始の検出レベル閾値:フロアノイズレベル+9dB
発言終了の検出レベル閾値:フロアノイズレベル+6dB
3.14〜20dB:1.5メートル以内
発言開始の検出レベル閾値:フロアノイズレベル+9dB
発言終了の検出レベル閾値:フロアノイズレベル+6dB
4.9〜14dB:1 メートル以内
発言開始の検出レベル閾値:
フロアノイズレベルと発言開始基準レベルとの差÷2+2dB
発言終了の検出レベル閾値:発言開始閾値−3dB
5.9dB以下:数10センチメートル
発言開始の検出レベル閾値:−3dB
6.フロアノイズレベルと発言開始基準レベルとの差÷2
発言終了の検出レベル閾値:−3dB
7.同じかマイナス:判定できず選択禁止
[Table 2]
(2) Estimated effective distance and threshold based on the difference between floor noise and speech start reference level 1.26 dB or more: 3 meters or more
Detection level threshold for starting speech: Floor noise level +9 dB
Talk level detection level threshold: floor noise level + 6 dB
2.20 to 26 dB: within 3 meters
Detection level threshold for starting speech: Floor noise level +9 dB
Talk level detection level threshold: floor noise level + 6 dB
3.14 to 20 dB: within 1.5 meters
Detection level threshold for starting speech: Floor noise level +9 dB
Talk level detection level threshold: floor noise level + 6 dB
4.9-14dB: within 1 meter
Detection level threshold for starting speech:
Difference between floor noise level and speech start reference level ÷ 2 + 2 dB
Talk end threshold: Talk start threshold-3 dB
5.9 dB or less: tens of centimeters
Detection level threshold for speech start: -3 dB
6). Difference between floor noise level and speech start reference level ÷ 2
Talk end detection level threshold: -3 dB
7). Same or negative: Cannot be judged and cannot be selected

〔表3〕
(3)通常処理のノイズ測定開始閾値は電源投入時のフロアノイズ+3dB以下のレベルになった時から開始する。
[Table 3]
(3) The noise measurement start threshold value of the normal process starts when the level becomes lower than the floor noise at the time of power-on + 3 dB.

フィルタ処理による各種周波数成分信号の生成
図11はマイクロフォンで集音した音信号を前処理として、DSP25で行うフィルタリング処理を示す構成図である。図11は1マイクロフォン(チャネル(1集音信号))分の処理について示す。
各マイクロフォンの集音信号は、たとえば、100Hzのカットオフ周波数を持つアナログ・ローカットフィルタ101で処理され、100Hz以下の周波数が除去されたフィルタ処理された音声信号がA/D変換器102に出力され、A/D変換器102でディジタル信号に変換された集音信号が、それぞれ7.5KHz、4KHz、1.5KHz、600Hz、250Hzのカットオフ周波数を持つ、ディジタル・ハイカットフィルタ103a〜103e(総称して103)で高周波成分が除去される(ハイカット処理)。ディジタル・ハイカットフィルタ103a〜103eの結果はさらに、減算器104a〜104d(総称して104)において隣接するディジタル・ハイカットフィルタ103a〜103eのフィルタ信号ごとの減算が行われる。
本発明の実施の形態において、ディジタル・ハイカットフィルタ103a〜103eおよび減算器104a〜104dは、実際はDSP25において処理している。A/D変換器102はA/D変換器ブロック27の1つとして実現できる。
Generation of Various Frequency Component Signals by Filter Processing FIG. 11 is a configuration diagram showing filtering processing performed by the DSP 25 using sound signals collected by a microphone as preprocessing. FIG. 11 shows processing for one microphone (channel (one sound collection signal)).
The collected sound signal of each microphone is processed by an analog low cut filter 101 having a cutoff frequency of 100 Hz, for example, and a filtered audio signal from which a frequency of 100 Hz or less has been removed is output to the A / D converter 102. , Digital high-cut filters 103a to 103e (collectively referred to as “collection signals”) having cut-off frequencies of 7.5 KHz, 4 KHz, 1.5 KHz, 600 Hz, and 250 Hz, respectively. 103), high frequency components are removed (high cut processing). The results of the digital high cut filters 103a to 103e are further subtracted for each filter signal of the adjacent digital high cut filters 103a to 103e in subtractors 104a to 104d (collectively 104).
In the embodiment of the present invention, the digital high cut filters 103a to 103e and the subtractors 104a to 104d are actually processed in the DSP 25. The A / D converter 102 can be realized as one of the A / D converter blocks 27.

図12は、図11を参照して述べたフィルタ処理結果を示す周波数特性図である。このように1つの指向性を持つマイクロフォンで集音した信号から、各種の周波数成分をもつ複数の信号が生成される。   FIG. 12 is a frequency characteristic diagram showing the filter processing result described with reference to FIG. Thus, a plurality of signals having various frequency components are generated from a signal collected by a microphone having one directivity.

バンドパス・フィルタ処理およびマイク信号レベル変換処理
マイクロフォン選択処理の開始のトリガの1つに発言の開始、終了の判定を行う。そのために使用する信号が、DSP25で行う図13に図解したバンドパス・フィルタ処理およびレベル変換処理によって得られる。図13はマイクロフォンMC1〜MC6で集音した6チャネル(CH)の入力信号処理中の1CHのみを示す。
DSP25内のバンドパス・フィルタ処理およびレベル変換処理部は、各チャネルのマイクロフォンの集音信号を、それぞれ100〜600Hz、200〜250Hz、250〜600Hz、600〜1500Hz、1500〜4000Hz、4000〜7500Hzの帯域通過特性を持つバンドパス・フィルタ201a〜201f(総称してバンドパス・フィルタ・ブロック201)と、元のマイクロフォン集音信号および上記帯域通過集音信号をレベル変換するレベル変換器202a〜202g(総称して、レベル変換ブロック202)を有する。
The start / end of speech is determined as one of the triggers for starting the band-pass filter processing and microphone signal level conversion processing microphone selection processing. A signal used for this purpose is obtained by the bandpass filter processing and level conversion processing illustrated in FIG. FIG. 13 shows only 1CH during processing of 6-channel (CH) input signals collected by the microphones MC1 to MC6.
The band-pass filter processing and level conversion processing unit in the DSP 25 respectively collects the collected sound signals of the microphones of each channel at 100 to 600 Hz, 200 to 250 Hz, 250 to 600 Hz, 600 to 1500 Hz, 1500 to 4000 Hz, 4000 to 7500 Hz. Band-pass filters 201a to 201f having band-pass characteristics (collectively, band-pass filter block 201), original microphone sound collection signals, and level converters 202a to 202g (for converting the levels of the band-pass sound collection signals). Collectively, it has a level conversion block 202).

各レベル変換部202a〜202gは、信号絶対値処理部203とピークホールド処理部204を有する。したがって、波形図を例示したように、信号絶対値処理部203は破線で示した負の信号が入力されたとき符号を反転して正の信号に変換する。ピークホールド処理部204は、信号絶対値処理部203の出力信号の最大値を保持する。ただし、本実施の形態では、時間の経過により、保持した最大値は幾分低下していく。もちろん、ピークホールド処理部204を改良して、低下分を少なくして長時間最大値を保持可能にすることもできる。   Each level conversion unit 202 a to 202 g includes a signal absolute value processing unit 203 and a peak hold processing unit 204. Therefore, as illustrated in the waveform diagram, the signal absolute value processing unit 203 inverts the sign and converts it to a positive signal when a negative signal indicated by a broken line is input. The peak hold processing unit 204 holds the maximum value of the output signal of the signal absolute value processing unit 203. However, in the present embodiment, the held maximum value is somewhat lowered with the passage of time. Of course, the peak hold processing unit 204 can be improved so that the maximum value can be held for a long time by reducing the decrease.

バンドパス・フィルタについて述べる。音声集音・映像撮像装置の通話装置に使用するバンドパス・フィルタは、たとえば、2次IIRハイカット・フィルタと、マイク信号入力段のローカット・フィルタのみでバンドパス・フィルタを構成している。
本実施の形態においては周波数特性がフラットな信号からハイカットフィルタを通した信号を引き算すれば残りはローカットフィルタを通した信号とほぼ同等になることを利用する。
周波数−レベル特性を合わせる為に、1バンド余分に全体帯域通過のバンドパス・フィルタが必要となるが、必要とするバンドパス・フィルタのバンド数+1のフィルタ段数とフィルタ係数により必要とされるバンドパスが得られる。今回必要とされるハンドパス・フィルタの帯域周波数はマイク信号1チャネル(CH)当りで下記6バンドのバンドパス・フィルタとなる。
A bandpass filter will be described. The bandpass filter used for the speech device of the sound collecting / imaging device is, for example, a bandpass filter made up of only a secondary IIR high cut filter and a low cut filter at the microphone signal input stage.
In the present embodiment, it is utilized that if the signal that has passed through the high-cut filter is subtracted from the signal having a flat frequency characteristic, the rest is substantially equivalent to the signal that has passed through the low-cut filter.
In order to match the frequency-level characteristics, an extra band-pass bandpass filter is required for one band, but the band required by the number of filter stages equal to the number of bands of the required bandpass filter + 1 and the filter coefficient A pass is obtained. The band frequency of the hand pass filter required this time is the following 6 band pass filter per channel (CH) of the microphone signal.

〔表4〕
BP特性 バンドパスフィルタ
BPF1=[100Hz-250Hz] ・・201b
BPF2=[250Hz-600Hz] ・・201c
BPF3=[600Hz-1.5KHz] ・・201d
BPF4=[1.5KHz-4KHz] ・・201e
BPF5=[4KHz-7.5KHz] ・・201f
BPF6=[100Hz-600Hz] ・・201a
[Table 4]
BP characteristic band pass filter
BPF1 = [100Hz-250Hz] ・ ・ 201b
BPF2 = [250Hz-600Hz] ・ ・ 201c
BPF3 = [600Hz-1.5KHz] ・ ・ 201d
BPF4 = [1.5KHz-4KHz] ・ ・ 201e
BPF5 = [4KHz-7.5KHz] ・ ・ 201f
BPF6 = [100Hz-600Hz] ・ ・ 201a

この方法でDSP25における上記のIIR・フィルタの計算プログラムは、6CH(チャネル)×5(IIR・フィルタ) =30のみである。
従来のバンドパス・フィルタの構成と対比する。バンドパス・フィルタの構成は2次IIRフィルタを使用するとして、本発明のように6本のマイク信号にそれぞれ6バンドのバンドパス・フィルタを用意すると、従来方法では、6×6×2=72回路のIIR・フィルタ処理が必要になる。この処理には、最新の優秀なDSPでもかなりのプログラム処理を要し他の処理への影響が出る。
本発明の実施の形態においては、100Hzのローカット・フィルタは入力段のアナログフィルタで処理する。用意する2次IIRハイカット・フィルタのカットオフ周波数は、250Hz,600Hz,1.5KHz,4KHz,7.5KHzの5種類である。このうちのカットオフ周波数7.5KHzのハイカット・フィルタは、実はサンプリング周波数が 16KHzなので必要が無いが、減算処理の過程で、IIRフィルタの位相回りの影響で、バンドパス・フィルタの出力レベルが減少する現象を軽減する為に意図的に被減数の位相を回す。
In this method, the calculation program of the above IIR filter in the DSP 25 is only 6CH (channel) × 5 (IIR filter) = 30.
Contrast with the conventional bandpass filter configuration. Assuming that the band-pass filter uses a second-order IIR filter and a 6-band band-pass filter is prepared for each of six microphone signals as in the present invention, in the conventional method, 6 × 6 × 2 = 72. Circuit IIR / filtering is required. This processing requires considerable program processing even with the latest excellent DSP, and affects other processing.
In the embodiment of the present invention, the 100 Hz low cut filter is processed by an analog filter in the input stage. There are five types of cutoff frequencies of the prepared second-order IIR high cut filters: 250 Hz, 600 Hz, 1.5 KHz, 4 KHz, and 7.5 KHz. Of these, a high-cut filter with a cutoff frequency of 7.5 KHz is not necessary because the sampling frequency is actually 16 KHz. Deliberately rotate the phase of the attenuator to reduce the phenomenon.

図14は図13に図解した構成による処理をDSP25で処理したときのフローチャートである。   FIG. 14 is a flowchart when processing by the DSP 25 is performed according to the configuration illustrated in FIG.

図14に図解したDSP25におけるフィルタ処理は1段目の処理としてハイパス・フィルタ処理、2段目の処理として1段目のハイパス・フィルタ処理結果からの減算処理を行う。図14はその信号処理結果のイメージ周波数特性図である。下記、〔x〕は図12における各処理ケースを示す。   The filter processing in the DSP 25 illustrated in FIG. 14 performs high-pass filter processing as the first-stage processing and subtraction processing from the result of the first-stage high-pass filter processing as the second-stage processing. FIG. 14 is an image frequency characteristic diagram of the signal processing result. [X] below shows each processing case in FIG.

第一段階
〔1〕全体帯域通過フィルタ用として、入力信号を7.5KHzのハイカットフィルタを通す。このフィルタ出力信号は入力のアナログのローカット合わせにより [100Hz-7.5KHz] のバンドパス・フィルタ出力となる。
First stage [1] The input signal is passed through a 7.5 kHz high cut filter for the whole band pass filter. This filter output signal becomes a bandpass filter output of [100Hz-7.5KHz] by matching the analog low cut of the input.

〔2〕入力信号を4KHzのハイカットフィルタに通す。このフィルタ出力信号は入力のアナログのローカットフィルタとの組み合わせにより [100Hz-4KHz] のバンドパス・フィルタ出力となる。   [2] Pass the input signal through a 4KHz high cut filter. This filter output signal becomes a bandpass filter output of [100Hz-4KHz] by combining with the input analog low cut filter.

〔3〕入力信号を1.5KHzのハイカットフィルタを通す。このフィルタ出力信号は入力のアナログのローカットフィルタとの組み合わせにより [100Hz-1.5KHz] のバンドパス・フィルタ出力となる。   [3] Pass the input signal through a 1.5 kHz high cut filter. This filter output signal becomes a bandpass filter output of [100Hz-1.5KHz] by combining with the input analog low cut filter.

〔4〕入力信号を600Hz のハイカットフィルタを通す。このフィルタ出力信号は入力のアナログのローカットフィルタとの組み合わせにより [100Hz-600Hz] のバンドパス・フィルタ出力となる。   [4] Pass the input signal through a 600Hz high-cut filter. This filter output signal becomes a bandpass filter output of [100Hz-600Hz] by combining with the input analog low cut filter.

〔5〕入力信号を250Hz のハイカットフィルタを通す。このフィルタ出力信号は入力のアナログのローカットフィルタとの組み合わせにより [100Hz-250Hz] のバンドパス・フィルタ出力となる。   [5] Pass the input signal through a 250Hz high cut filter. This filter output signal becomes a bandpass filter output of [100Hz-250Hz] by combining with the input analog low cut filter.

第二段階
〔1〕バンドパス・フィルタ(BPF5=[4KHz〜7.5KHz])は、フィルタ出力[1]-[2]([100Hz〜7.5KHz] - [100Hz〜4KHz])の処理を実行すると上記信号出力[4KHz〜7.5KHz]となる。
〔2〕バンドパス・フィルタ(BPF4=[1.5KHz〜4KHz])は、フィルタ出力[2]-[3]([100Hz〜4KHz] - [100Hz〜1.5KHz])の処理を実行すると、上記信号出力[1.5KHz〜4KHz]となる。
〔3〕バンドパス・フィルタ(BPF3=[600Hz〜1.5KHz])は、フィルタ出力[3]-[4]([100Hz〜1.5KHz] - [100Hz〜600Hz])の処理を実行すると、上記信号出力[600Hz〜1.5KHz]となる。
〔4〕バンドパス・フィルタ(BPF2=[250Hz〜600Hz])は、フィルタ出力[4]-[5]([100Hz〜600Hz] - [100Hz〜250Hz]) の処理を実行すると上記信号出力[250Hz〜600Hz]となる。 〔5〕バンドパス・フィルタ(BPF1=[100Hz〜250Hz])は上記[5]の信号をそのままで出力信号[5]とする。
〔6〕バンドパス・フィルタ(BPF6=[100Hz〜600Hz])は[4]の信号をそのままで上記(4)の出力信号とする。
DSP25における以上の処理で必要とされるバンドパス・フィルタ出力が得られる。
The second stage [1] band pass filter (BPF5 = [4KHz ~ 7.5KHz]) executes the process of filter output [1]-[2] ([100Hz ~ 7.5KHz]-[100Hz ~ 4KHz]) The signal output is [4KHz to 7.5KHz].
[2] The bandpass filter (BPF4 = [1.5KHz to 4KHz]) will perform the above processing when the filter output [2]-[3] ([100Hz to 4KHz]-[100Hz to 1.5KHz]) is executed. Output [1.5KHz ~ 4KHz].
[3] The bandpass filter (BPF3 = [600Hz to 1.5KHz]) performs the above processing when the filter output [3]-[4] ([100Hz to 1.5KHz]-[100Hz to 600Hz]) is executed. Output [600Hz ~ 1.5KHz].
[4] The bandpass filter (BPF2 = [250Hz to 600Hz]) performs the process of filter output [4]-[5] ([100Hz to 600Hz]-[100Hz to 250Hz]). ~ 600Hz]. [5] The bandpass filter (BPF1 = [100 Hz to 250 Hz]) uses the signal [5] as it is as the output signal [5].
[6] The bandpass filter (BPF6 = [100 Hz to 600 Hz]) uses the signal [4] as it is and outputs it as the output signal (4).
The bandpass filter output required by the above processing in the DSP 25 is obtained.

入力されたマイクロフォンの集音信号MIC1〜MIC6は、DSP25において、全帯域の音圧レベル、バンドパス・フィルタを通過した6帯域の音圧レベルとして表5のように常時更新される。   The input microphone sound collection signals MIC1 to MIC6 are constantly updated in the DSP 25 as the sound pressure level of the entire band and the sound pressure level of the six bands that have passed through the bandpass filter as shown in Table 5.

Figure 0004479227
Figure 0004479227

表5において、たとえば、L1-1はマイクロフォンMC1の集音信号が第1バンドパス・フィルタ201aを通過したときのピークレベルを示す。
発言の開始、終了判定は、図13に図示した100Hz〜600Hzのバンドパス・フィルタ201aを通過し、レベル変換部202bで音圧レベル変換されたマイクロフォン集音信号を用いる。
In Table 5, for example, L1-1 indicates a peak level when the collected sound signal of the microphone MC1 passes through the first bandpass filter 201a.
The start and end of speech is determined by using a microphone sound collection signal that has passed through the 100 Hz to 600 Hz bandpass filter 201a shown in FIG. 13 and whose sound pressure level has been converted by the level converter 202b.

従来のバンドパス・フィルタの構成は、バンドパス・フィルタ1段当りにハイ・パスフィルタとロー・パスフィルタの組み合わせで行うので、本実施の形態で使用する仕様の36回路のバンドパス・フィルタを構築すると72回路のフィルタ処理が必要となる。これに対して本発明の実施の形態のフィルタ構成は上述したように簡単になる。   The conventional band-pass filter is configured by combining a high-pass filter and a low-pass filter for each stage of the band-pass filter. Therefore, a 36-band band-pass filter of the specification used in this embodiment is used. When constructed, 72 circuits of filter processing are required. In contrast, the filter configuration of the embodiment of the present invention is simplified as described above.

発言の開始・終了判定処理
第1のディジタルシグナルプロセッサ(DSP1)25は、音圧レベル検出部から出力される値を元に、図15に図解したように、マイクロフォン集音信号レベルがフロアノイズより上昇し、発言開始レベルの閾値を越した場合発言開始と判定し、その後開始レベルの閾値よりも高いレベルが継続した場合発言中、発言終了の閾値よりレベルが下がった場合をフロアノイズと判定し、発言終了判定時間、たとえば、フロアノイズが0.5秒間継続した場合発言終了と判定する。
発言の開始、終了判定は、図13に図解したマイク信号変換処理部202bで音圧レベル変換された100Hz〜600Hzのバンドパス・フィルタを通過した音圧レベルデータ(マイク信号レベル(1))が図15に例示した閾値レベル以上になった時から発言開始と判定する。
DSP25は、頻繁なマイクロフォン切り替えに伴う動作不良を回避するため、発言開始を検出してから、発言終了判定時間を、たとえば、0.5秒間経過するまでは次の発言開始を検出しないようにしている。
Sentence start / end determination processing The first digital signal processor (DSP1) 25, based on the value output from the sound pressure level detector, as shown in FIG. If it rises and exceeds the threshold of the speech start level, it is determined that the speech starts.If the level continues to be higher than the threshold of the start level, the floor noise is determined if the level is lower than the threshold of speech end during speech. The speech end determination time is determined, for example, when the floor noise continues for 0.5 seconds, the speech end is determined.
The start and end of speech is determined based on sound pressure level data (microphone signal level (1)) that has passed through a 100 Hz to 600 Hz bandpass filter whose sound pressure level has been converted by the microphone signal conversion processing unit 202b illustrated in FIG. It is determined that the speech starts when the threshold level illustrated in FIG. 15 is reached.
In order to avoid malfunction due to frequent microphone switching, the DSP 25 does not detect the start of the next speech until the speech termination determination time, for example, 0.5 seconds elapses after the speech start is detected. Yes.

マイクロフォン選択
DSP25は、相互通話システムにおける発言者方向検出および発言者に対向したマイク信号の自動選択を、いわゆる、「星取表方式」に基づいて行う。
図16は音声集音・映像撮像装置の通話装置の動作形態を図解したグラフである。
図17は通話装置の通常処理を示すフローチャートである。
The microphone selection DSP 25 performs speaker direction detection and automatic selection of a microphone signal facing the speaker in the mutual communication system based on a so-called “star chart method”.
FIG. 16 is a graph illustrating the operation mode of the communication device of the sound collecting / imaging device.
FIG. 17 is a flowchart showing normal processing of the telephone device.

通話装置は図16に図解したように、マイクロフォンMC1〜MC6からの集音信号に応じて音声信号監視処理を行い、発言開始・終了判定を行い、発言方向判定を行い、マイクロフォン選択を行い、その結果をマイクロフォン選択結果表示手段、たとえば、発光ダイオードLED1〜6に表示する。
以下、図17のフローチャートを参照して通話装置1におけるDSP25を主体として動作を述べる。なお、マイクロフォン・電子回路収容部2の全体制御はマイクロプロセッサ23によって行われるが、DSP25の処理を中心に述べる。
As shown in FIG. 16, the communication device performs voice signal monitoring processing according to the collected sound signals from the microphones MC1 to MC6, performs speech start / end determination, performs speech direction determination, performs microphone selection, The result is displayed on the microphone selection result display means, for example, the light emitting diodes LED1 to LED6.
The operation will be described below with the DSP 25 in the call device 1 as a main component with reference to the flowchart of FIG. The overall control of the microphone / electronic circuit housing unit 2 is performed by the microprocessor 23, and the processing of the DSP 25 will be mainly described.

ステップ1:レベル変換信号の監視
マイクロフォンMC1〜MC6で集音した信号はそれぞれ、図12〜図14、特に、図13を参照して述べた、バンドパス・フィルタ・ブロック201、レベル変換ブロック202において、7種類のレベルデータとして変換されているから、DSP25は各マイクロフォン集音信号についての7種類の信号を常時監視する。
その監視結果に基づいて、DSP25は、発言者方向検出処理、発言者方向検出処理、発言開始・終了判定処理のいずれかの処理に移行する。
Step 1: Level conversion signal monitoring The signals collected by the microphones MC1 to MC6 are respectively obtained in the band-pass filter block 201 and the level conversion block 202 described with reference to FIGS. Therefore, the DSP 25 constantly monitors seven types of signals for each microphone sound collection signal.
Based on the monitoring result, the DSP 25 proceeds to any one of the speaker direction detection processing, the speaker direction detection processing, and the speech start / end determination processing.

ステップ2:発言開始・終了判定処理
DSP25は図14を参照して、さらに下記に詳述する方法に従って、発言の開始、終了の判定を行う。DSP25の処理が発言開始を検出した場合、ステップ4の発言者方向の判定処理へ発言開始検出を知らせる。
なお、ステップ2における発言の開始、終了の判定処理において、発言レベルが発言終了レベルより低くなった時、発言終了判定時間(たとえば、0.5秒)のタイマを起動し発言終了判定時間、発言レベルが発言終了レベルより小さい時、発言終了と判定する。
発言終了判定時間以内に発言終了レベルより大きくなったら再び発言終了レベルより小さくなるまで待ちの処理に入る。
Step 2: Statement Start / End Determination Processing The DSP 25 determines the start and end of a statement according to the method described in detail below with reference to FIG. When the processing of the DSP 25 detects the start of speech, the speech start detection is notified to the speaker direction determination processing in step 4.
In the speech start / end determination process in step 2, when the speech level becomes lower than the speech end level, a speech end determination time (for example, 0.5 second) timer is started and the speech end determination time and the speech level are set. When it is smaller than the speech end level, it is determined that the speech has ended.
If it becomes larger than the speech end level within the speech end determination time, it waits until it becomes smaller than the speech end level again.

ステップ3:発言者方向の検出処理
DSP25における発言者方向の検出処理は、常時発言者方向をサーチし続けて行う。その後、ステップ4の発言者方向の判定処理へデータを供給する。
Step 3: Speaker Direction Detection Processing The speaker direction detection processing in the DSP 25 is continuously performed by continuously searching for the speaker direction. Thereafter, the data is supplied to the speaker direction determination processing in step 4.

ステップ4:発言者方向マイクの切り換え処理
DSP25に発言者方向マイクの切り換え処理におけるタイミング判定処理はステップ2の処理とステップ3の処理の結果から、その時の発言者検出方向と今まで選択していた発言者方向が違う場合に、新たな発言者方向のマイク選択をステップ4のマイク信号切り換え処理へ指示する。
ただし、議長のマイクロフォンが操作部15から設定されていて、議長のマイクロフォンと他の会議参加者とが同時的に発言がある場合、議長の発言を優先する。
この時に、選択されたマイク情報をマイクロフォン選択結果表示手段、たとえば、発光ダイオードLED1〜6に表示する。
Step 4: Speaker direction microphone switching processing The timing determination processing in the speaker direction microphone switching processing in the DSP 25 has been selected from the results of Step 2 and Step 3 and the current speaker detection direction. If the speaker direction is different, the microphone selection in step 4 is instructed to select a microphone in a new speaker direction.
However, if the chairman's microphone is set from the operation unit 15 and the chairman's microphone and another conference participant speak at the same time, the chairman's comment is given priority.
At this time, the selected microphone information is displayed on the microphone selection result display means, for example, the light emitting diodes LED1 to LED6.

ステップ5:マイクロフォン集音信号の伝送
マイク信号切り換え処理は6本のマイク信号の中からステップ4処理により選択されたマイク信号のみを送話信号として、たとえば、第1の音声集音・映像撮像装置1Aの第1の通話装置10Aから通信回線920を介して相手側の第2の音声集音・映像撮像装置1Bの第2の通話装置10Bに伝送するため、図6に図解した通信回線920のラインアウトへ出力する。
Step 5: Transmission of microphone sound collecting signal In the microphone signal switching process, only the microphone signal selected by the step 4 process from the six microphone signals is used as the transmission signal, for example, the first sound collecting / video imaging device. In order to transmit from the first call device 10A of 1A to the second call device 10B of the second voice collecting / imaging device 1B on the other side via the communication line 920, the communication line 920 illustrated in FIG. Output to line-out.

ステップS6:撮像条件の決定
以上の方法で、発言者が決定できると、複数のマイクロフォンの配置条件、および、会議参加者の位置から、テレビカメラ装置40A1、40A2による撮像条件も決定できる。
なお、好ましくは、第2実施の形態で述べる会議出席者の声紋認識結果を用いる。
この処理の詳細は第3実施の形態として詳述する。
Step S6: Determination of Imaging Conditions When the speaker can be determined by the above method, the imaging conditions by the TV camera devices 40A1 and 40A2 can be determined from the arrangement conditions of the plurality of microphones and the positions of the conference participants.
In addition, Preferably, the voiceprint recognition result of the meeting attendant described in 2nd Embodiment is used.
Details of this processing will be described as a third embodiment.

発言開始レベル閾値、発言終了閾値の設定
処理1:電源を投入直後に各マイクロフォンそれぞれの所定時間、たとえば、1秒間分のフロアノイズを測定する。
DSP25は、音圧レベル検出部のピークホールドされたレベル値を一定時間間隔、本実施の形態では、たとえば、10mSec間隔で読み出し、所定時間、たとえば、1分間の値の平均値を算出しフロアノイズとする。
DSP25は測定されたフロアノイズレベルを元に発言開始の検出レベル(フロアノイズ +9dB)、発言終了の検出レベルの閾値(フロアノイズ+6dB)を決定する。DSP25は、以後も、音圧レベル検出器のピークホールドされたレベル値を一定時間間隔で読み出す。
発言終了と判定された時は、DSP25は、フロアノイズの測定として働き、発言開始の検出し、発言終了の検出レベルの閾値を更新する。
Processing for setting a speech start level threshold and a speech end threshold 1: Immediately after the power is turned on, the floor noise for a predetermined time, for example, 1 second is measured for each microphone.
The DSP 25 reads the peak-held level value of the sound pressure level detection unit at regular time intervals, for example, 10 mSec intervals in the present embodiment, and calculates an average value of values for a predetermined time, for example, 1 minute, to calculate floor noise. And
The DSP 25 determines a speech start detection level (floor noise +9 dB) and a speech end detection level threshold (floor noise +6 dB) based on the measured floor noise level. After that, the DSP 25 reads the peak-held level value of the sound pressure level detector at regular time intervals.
When it is determined that the speech has ended, the DSP 25 functions as a floor noise measurement, detects the start of speech, and updates the threshold for the detection level of speech end.

この方法によれば、この閾値設定はマイクロフォンの置かれた位置のフロアノイズレベルがそれぞれ違うので各マイクロフォンにそれぞれ閾値が設定でき、ノイズ音源によるマイクロフォンの選択における誤判定を防げる。   According to this method, since the floor noise level at the position where the microphone is placed is different in this threshold setting, a threshold can be set for each microphone, and erroneous determination in selection of a microphone by a noise source can be prevented.

処理2:周辺ノイズ(フロアノイズの大きい)部屋への対応
処理2は処理1ではフロアノイズが大きく自動で閾値レベルを更新されると、発言開始、終了検出がしにくい時の対策として下記を行う。
DSP25は、予測されるフロアノイズレベルを元に発言開始の検出レベル、発言終了の検出レベルの閾値を決定する。
DSP25は、発言開始閾値レベルは発言終了閾値レベルより大きく(たとえば、3dB以上の差)に設定する。
DSP25は、音圧レベル検出器でピークホールドされたレベル値を一定時間間隔で読み出す。
Process 2: Response to room with ambient noise (large floor noise) In Process 2, if the floor level is large and the threshold level is automatically updated in Process 1, the following measures are taken when it is difficult to detect the start and end of speech. .
The DSP 25 determines a threshold for the detection level of the speech start and the detection level of the speech end based on the predicted floor noise level.
The DSP 25 sets the speech start threshold level to be greater than the speech end threshold level (for example, a difference of 3 dB or more).
The DSP 25 reads the level value peak-held by the sound pressure level detector at regular time intervals.

この方法によれば、この閾値設定は閾値が全てのマイクロフォンに対して同じ値なので、ノイズ源を背にした人と、そうでない人とで声の大きさが同程度でも発言開始が認識できる。   According to this method, since the threshold value is the same value for all microphones, it is possible to recognize the start of speech even if the person who is behind the noise source and the person who is not the same have the same loudness.

発言開始判定
処理1、6個のマイクロフォンに対応した音圧レベル検出器の出力レベルと、発言開始レベルの閾値を比較し発言開始レベルの閾値を越した場合発言開始と判定する。
DSP25は、全てのマイクロフォンに対応した音圧レベル検出器の出力レベルが、発言開始レベルの閾値を越した場合は、受話再生スピーカ16からの信号であると判定し、発言開始とは判定しない。なぜなら、受話再生スピーカ16と全てのマイクロフォンMC1〜MC6との距離は同じであるから、受話再生スピーカ16からの音は全てのマイクロフォンMC1〜MC6にほぼ均等に到達するからである。
Talk start judgment
Process 1 The output level of the sound pressure level detector corresponding to the six microphones is compared with the threshold value of the speech start level.
When the output level of the sound pressure level detector corresponding to all the microphones exceeds the threshold of the speech start level, the DSP 25 determines that the signal is from the reception / reproduction speaker 16 and does not determine that the speech is started. This is because the distance between the reception / reproduction speaker 16 and all the microphones MC1 to MC6 is the same, so that the sound from the reception / reproduction speaker 16 reaches almost all the microphones MC1 to MC6.

処理2、図5に図解した6個のマイクロフォンについての60度の等角度で放射状かつ等間隔の配置で、指向性軸を反対方向に180度ずらした単一指向性マイク2本(マイクロフォンMC1とMC4、マイクロフォンMC2とMC5、マイクロフォンMC3とMC6)の3組構成しマイク信号のレベル差を利用する。すなわち下記の演算を実行する。 Process 2 , two unidirectional microphones (with microphones MC1 and MC1) with the directional axes shifted by 180 degrees in the opposite direction at an equal angle of 60 degrees with respect to the six microphones illustrated in FIG. Three sets of MC4, microphones MC2 and MC5, and microphones MC3 and MC6) are used to make use of the level difference of the microphone signal. That is, the following calculation is performed.

〔表6〕
(マイク1の信号レベル−マイク4の信号レベル)の絶対値・・・[1]
(マイク2の信号レベル−マイク5の信号レベル)の絶対値・・・[2]
(マイク3の信号レベル−マイク6の信号レベル)の絶対値・・・[3]
[Table 6]
Absolute value of (the signal level of microphone 1−the signal level of microphone 4) [1]
Absolute value of (signal level of microphone 2−signal level of microphone 5) [2]
Absolute value of (signal level of microphone 3−signal level of microphone 6) [3]

DSP25は上記絶対値[1],[2],[3]と発言開始レベルの閾値を比較し発言開始レベルの閾値を越した場合発言開始と判定する。
この処理の場合、処理1のように全ての絶対値が発言開始レベルの閾値より大きくなることは無いので(受話再生スピーカ16からの音が全てのマイクロフォンに等しく到達するから)、受話再生スピーカ16からの音か話者からの音声かの判定は不要になる。
The DSP 25 compares the absolute values [1], [2], and [3] with the threshold value of the speech start level, and determines that the speech is started when the threshold value of the speech start level is exceeded.
In the case of this process, since all the absolute values do not become larger than the threshold value of the speech start level as in process 1 (because the sound from the reception / reproduction speaker 16 reaches all the microphones equally), the reception / reproduction speaker 16 It is not necessary to determine whether the sound is from the speaker or from the speaker.

発言者方向の検出処理
発言者方向の検出には図7に例示した単一指向性マイクロフォンの特性を利用する。単一指向特性マイクロフォンは発言者からマイクロフォンへの音声の到達角度により図7に例示したように、周波数特性、レベル特性が変化する。その結果を図8(A)〜(C)に例示した。図8(A)〜(C)は、通話装置10Aから所定距離、たとえば、1.5メートルの距離にスピーカーを置いて各マイクロフォンが集音した音声を一定時間間隔で高速フーリエ変換(FFT)した結果を示す。X軸が周波数を、Y軸が信号レベルを、Z軸が時間を表している。横線は、バンドパス・フィルタのカットオフ周波数を表し、この線にはさまれた周波数帯域のレベルが、図11〜図14を参照して述べたマイク信号レベル変換処理からの5バンドのバンドパス・フィルタを通した音圧レベルに変換されたデータとなる。
Speaker Direction Detection Processing For detecting the speaker direction, the characteristics of the unidirectional microphone illustrated in FIG. 7 are used. As illustrated in FIG. 7, the frequency characteristics and level characteristics of the unidirectional microphone change depending on the sound arrival angle from the speaker to the microphone. The results are illustrated in FIGS. 8 (A) to (C). 8A to 8C show a case where a speaker is placed at a predetermined distance from the communication device 10A, for example, a distance of 1.5 meters, and the sound collected by each microphone is subjected to fast Fourier transform (FFT) at regular time intervals. Results are shown. The X axis represents frequency, the Y axis represents signal level, and the Z axis represents time. The horizontal line represents the cut-off frequency of the band-pass filter, and the level of the frequency band sandwiched between the lines is the 5-band band pass from the microphone signal level conversion processing described with reference to FIGS. -It becomes the data converted into the sound pressure level that passed through the filter.

本発明の実施の形態の音声集音・映像撮像装置における通話装置における発言者方向の検出のために実際の処理として適用した判定方法を述べる。
各帯域バンドパス・フィルタの出力レベルに対しそれぞれ適切な重み付け処理(1dBフルスパン(1dBFs)ステップなら0dBFsの時0、-3dBFsなら3というように、又はこの逆に)を行う。この重み付けのステップで処理の分解能が決まる。
1サンプルクロック毎に上記の重み付け処理を実行し、各マイクの重み付けされた得点を加算して一定サンプル数で平均値化して合計点の小さい(大きい)マイク信号を発言者に対向したマイクロフォンと判定する。この結果をイメージ化したものが下記表7である。
A determination method applied as an actual process for detecting the direction of the speaker in the communication device in the sound collection / video imaging device according to the embodiment of the present invention will be described.
Appropriate weighting processing is performed on the output level of each band-pass filter (0 for 1 dB full span (1 dBFs) step, 0 for 0 dBFs, 3 for -3 dBFs, or vice versa). This weighting step determines the processing resolution.
The above weighting process is executed for each sample clock, and the weighted score of each microphone is added and averaged with a fixed number of samples, and the microphone signal having a small (large) total score is determined as a microphone facing the speaker. To do. Table 7 below is an image of this result.

Figure 0004479227
Figure 0004479227

表7に例示したこの例では一番合計点が小さいのは第1マイクロフォンMC1なので、DSP25は第1マイクロフォンMC1の方向に音源が有る(話者がいる)と判定する。DSP25はその結果を音源方向マイク番号という形で保持する。
上述したように、DSP25は各マイクロフォン毎の周波数帯域のバンドパス・フィルタの出力レベルに重み付けを付けを実行し、各帯域バンドパス・フィルタの出力の、得点の小さい(または大きい)マイク信号順に順位をつけ、1位の順位が3つの帯域以上に有るマイク信号を発言者に対向したマイクロフォンと判定する。そして、DSP25は第1マイクロフォンMC1の方向に音源が有る(話者がいる)として、下記表8のような成績表を作成する。
In this example illustrated in Table 7, the smallest total point is the first microphone MC1, so the DSP 25 determines that there is a sound source in the direction of the first microphone MC1 (there is a speaker). The DSP 25 holds the result in the form of a sound source direction microphone number.
As described above, the DSP 25 performs weighting on the output level of the bandpass filter in the frequency band for each microphone, and ranks the microphone signals in the order of smaller (or larger) scores of the output of each bandbandpass filter. The microphone signal having the first rank in three or more bands is determined as the microphone facing the speaker. Then, the DSP 25 creates a score table as shown in Table 8 below, assuming that there is a sound source in the direction of the first microphone MC1 (there is a speaker).

Figure 0004479227
Figure 0004479227

実際には部屋の特性により音の反射や定在波の影響で、必ずしも第1マイクロフォンMC1の成績が全てのバンドパス・フィルタの出力で一番となるとは限らないが、5バンド中の過半数が1位であれば第1マイクロフォンMC1の方向に音源が有る(話者がいる)と判定することができる。DSP25はその結果を音源方向マイク番号という形で保持する。   Actually, the performance of the first microphone MC1 is not necessarily the best in the output of all bandpass filters due to the reflection of sound and the influence of standing waves depending on the characteristics of the room, but the majority in the 5 bands If it is 1st place, it can be determined that there is a sound source in the direction of the first microphone MC1 (there is a speaker). The DSP 25 holds the result in the form of a sound source direction microphone number.

DSP25は各マイクロフォンの各帯域バンドパス・フィルタの出力レベルデータを下記表9に示した形態で合計し、レベルの大きいマイク信号を発言者に対向したマイクロフォンと判定し、その結果を音源方向マイク番号という形で保持する。   The DSP 25 sums the output level data of each band band pass filter of each microphone in the form shown in Table 9 below, determines that the microphone signal having a high level is the microphone facing the speaker, and determines the result as the sound source direction microphone number. Hold in the form of.

〔表9〕
MIC1 Level = L1-1 + L1-2 + L1-3 + L1-4 + L1-5
MIC2 Level = L2-1 + L2-2 + L2-3 + L2-4 + L2-5
MIC3 Level = L3-1 + L3-2 + L3-3 + L3-4 + L3-5
MIC4 Level = L4-1 + L4-2 + L4-3 + L4-4 + L4-5
MIC5 Level = L5-1 + L5-2 + L5-3 + L5-4 + L5-5
MIC6 Level = L6-1 + L6-2 + L6-3 + L6-4 + L6-5
[Table 9]
MIC1 Level = L1-1 + L1-2 + L1-3 + L1-4 + L1-5
MIC2 Level = L2-1 + L2-2 + L2-3 + L2-4 + L2-5
MIC3 Level = L3-1 + L3-2 + L3-3 + L3-4 + L3-5
MIC4 Level = L4-1 + L4-2 + L4-3 + L4-4 + L4-5
MIC5 Level = L5-1 + L5-2 + L5-3 + L5-4 + L5-5
MIC6 Level = L6-1 + L6-2 + L6-3 + L6-4 + L6-5

発言者方向マイクの切り換えタイミング判定処理
図17のステップ2の発言開始判定結果により起動し、ステップ3の発言者方向の検出処理結果と過去の選択情報から新しい発言者のマイクロフォンが検出された時、DSP25は、ステップ5のマイク信号の選択切り替え処理へマイク信号の切り換えコマンドを発効すると共に、マイクロフォン選択結果表示手段(発光ダイオードLED1〜6)へ発言者マイクが切り替わったことを通知し、発言者に自分の発言に対し音声集音・映像撮像装置の通話装置が応答したことを知らせる。
Talker direction microphone switching timing determination processing When activated by the speech start determination result in step 2 of FIG. 17, when a new speaker microphone is detected from the speaker direction detection processing result in step 3 and past selection information, The DSP 25 issues a microphone signal switching command to the microphone signal selection switching process in step 5, and notifies the microphone selection result display means (light emitting diodes LED1 to LED6) that the speaker microphone has been switched to the speaker. Informs that the speech device of the sound collecting / imaging device has responded to his speech.

反響の大きい部屋で、反射音や定在波の影響を除くため、DSP25は、マイクロフォンを切り換えてから発言終了判定時間(たとえば、0.5 秒)経過しないと、新しいマイク選択コマンドの発効は禁止する。
図17のステップ1のマイク信号レベル変換処理結果、および、ステップ3の発言者方向の検出処理結果から、本実施の形態においては、マイク選択切り替えタイミングは2通りを準備する。
In order to eliminate the influence of reflected sound and standing waves in a room with high reverberation, the DSP 25 prohibits the activation of a new microphone selection command unless the speech end determination time (for example, 0.5 seconds) elapses after the microphone is switched.
In the present embodiment, two microphone selection switching timings are prepared from the result of the microphone signal level conversion process in step 1 in FIG. 17 and the detection process result in the speaker direction in step 3.

第1の方法:発言開始が明らかに判定できる時
選択されていたマイクロフォンの方向からの発言が終了し新たに別の方向から発言があった場合。
この場合は、DSP25は、全てのマイク信号レベル(1)とマイク信号レベル(2)が発言終了閾値レベル以下になってから発言終了判定時間(たとえば、0.5 秒)以上経過してから発言が開始され、どれかのマイク信号レベル(1)が発言開始閾値レベル以上になった時発言が開始されたと判断し、音源方向マイク番号の情報を元に発言者方向に対向したマイクロフォンを正当な集音マイクロフォンと決定し、ステップ5のマイク信号選択切り替え処理を開始する。
First method : When it is possible to clearly determine the start of speech When speech from the direction of the selected microphone has ended and there is a new speech from another direction.
In this case, the DSP 25 starts speaking after all the microphone signal level (1) and the microphone signal level (2) are equal to or lower than the speech end threshold level and more than the speech end determination time (for example, 0.5 seconds). When any microphone signal level (1) is equal to or higher than the speech start threshold level, it is determined that speech has started, and a microphone facing the speaker direction is properly collected based on the information of the microphone number in the sound source direction. The microphone is determined, and the microphone signal selection switching process in step 5 is started.

第2の方法:発言継続中に新たに別の方向からより大きな声の発言があった場合
この場合はDSP25は発言開始(マイク信号レベル(1)が閾値レベル以上になった時)から発言終了判定時間(たとえば、0.5 秒)以上経過してから判定処理を開始する。
発言終了検出前に、3の処理からの音源方向マイク番号が変更になり、安定していると判定された場合、DSP25は音源方向マイク番号に相当するマイクロフォンに現在選択されている発言者よりも大声で発言している話者がいると判断し、その音源方向マイクロフォンを正当な集音マイクロフォンと決定し、ステップ5のマイク信号選択切り替え処理を起動する。
Second method : When a new louder voice is spoken from another direction while speaking is in progress In this case, the DSP 25 stops speaking from the start of speaking (when the microphone signal level (1) exceeds the threshold level). The determination process starts after the determination time (for example, 0.5 seconds) has elapsed.
If it is determined that the sound source direction microphone number from the process 3 is changed and is stable before the end of the speech is detected, the DSP 25 is more than the speaker currently selected for the microphone corresponding to the sound source direction microphone number. It is determined that there is a speaker who is speaking loudly, the sound source direction microphone is determined as a valid sound collecting microphone, and the microphone signal selection switching process in step 5 is started.

検出された発言者に対向したマイク信号の選択切り替え処理
DSP25は図17のステップ4の発言者方向マイクの切り換えタイミング判定処理からのコマンドで選択判定されたコマンドにより起動する。
DSP25のマイク信号の選択切り替え処理は、図18に図解したように、6回路の乗算器と6入力の加算器で構成する。マイク信号を選択する為には、DSP25は選択したいマイク信号が接続されている乗算器のチャネルゲイン(チャネル利得:CH Gain)を〔1〕に、その他の乗算器のCH Gainを〔0〕とする事で、加算器には選択された(マイク信号×〔1])の信号と(マイク信号×〔0])の処理結果が加算されて希望のマイク選択信号が出力に得られる。
The microphone signal selection switching process DSP 25 facing the detected speaker is activated by the command selected and determined by the command from the speaker direction microphone switching timing determination process in step 4 of FIG.
As shown in FIG. 18, the DSP 25 microphone signal selection switching process is composed of a 6-circuit multiplier and a 6-input adder. In order to select the microphone signal, the DSP 25 sets the channel gain (channel gain: CH Gain) of the multiplier to which the microphone signal to be selected is connected to [1] and the CH gains of the other multipliers to [0]. By doing so, the selected signal of (microphone signal × [1]) and the processing result of (microphone signal × [0]) are added to the adder, and a desired microphone selection signal is obtained at the output.

上記の様にチャネルゲインを[1]か[0]に切り換えると切り換えるマイク信号のレベル差によりクリック音が発生する可能性が有る。そこで、通話装置1では、図19に図解したように、CH Gainの変化を[1]から[0]へ、[0]から[1]へ変化するのに、切替遷移時間、たとえば、10m秒の時間で連続的に変化させてクロスするようにして、マイク信号のレベル差によるクリック音の発生を避けている。   When the channel gain is switched between [1] and [0] as described above, there is a possibility that a click sound is generated due to the level difference of the microphone signal to be switched. Therefore, in the communication device 1, as illustrated in FIG. 19, the switching transition time, for example, 10 ms, is used to change the change in CH Gain from [1] to [0] and from [0] to [1]. In order to avoid the click sound caused by the difference in the level of the microphone signal, the signal is continuously changed over time.

また、チャネルゲインの最大を[1]以外、たとえば[0.5]の様にセットする事で後段のDSP25におけるエコーキャンセル処理動作の調整を行うこともできる。   Further, by setting the maximum channel gain to other than [1], for example, [0.5], the echo cancellation processing operation in the DSP 25 at the subsequent stage can be adjusted.

上述したように、本発明の第1実施の形態の音声集音・映像撮像装置における通話装置は、ノイズの影響を受けず、有効に会議などの通話装置に適用できる。   As described above, the communication device in the sound collection / video imaging device according to the first embodiment of the present invention is not affected by noise and can be effectively applied to a communication device such as a conference.

本発明の第1実施の形態の音声集音・映像撮像装置における通話装置は構造面から下記の利点を有する。
(1)複数の単一指向性を持つマイクロフォンと受話再生スピーカとの位置関係が一定であり、さらにその距離が非常に近いことで受話再生スピーカから出た音が会議室(部屋)環境を経て複数のマイクロフォンに戻ってくるレベルより直接戻ってくるレベルが圧倒的に大きく支配的である。そのために、受話再生スピーカから複数のマイクロフォンに音が到達する特性(信号レベル(強度)、周波数特性(f特)、位相)がいつも同じである。つまり、通話装置においてはいつも伝達関数が同じという利点がある。
The communication device in the sound collection / video imaging device of the first embodiment of the present invention has the following advantages in terms of structure.
(1) The positional relationship between a plurality of microphones having a single directivity and a reception / reproduction speaker is constant, and furthermore, since the distance is very close, the sound emitted from the reception / reproduction speaker passes through the conference room (room) environment. The level that returns directly to the multiple microphones is overwhelmingly dominant. For this reason, the characteristics (signal level (intensity), frequency characteristics (f characteristic), phase) for sound to reach a plurality of microphones from the receiving / reproducing speaker are always the same. That is, there is an advantage that the transfer function is always the same in the communication device.

(2)それ故、マイクロフォンを切り替えた時の伝達関数の変化がなく、マイクロフォンを切り替える都度、マイクロフォン系の利得を調整をする必要がないという利点を有する。換言すれば、通話装置の製造時に一度調整をするとやり直す必要がないという利点がある。   (2) Therefore, there is no change in the transfer function when the microphone is switched, and there is an advantage that it is not necessary to adjust the gain of the microphone system every time the microphone is switched. In other words, there is an advantage that it is not necessary to redo once the adjustment is made at the time of manufacturing the communication device.

(3)上記と同じ理由でマイクロフォンを切り替えても、ディジタルシグナルプロセッサ(DSP)で構成するエコーキャンセラが一つでよい。DSPは高価であり、種々の部材が搭載されて空きが少ないプリント基板にDSPを配置するスペースも少なくてよい。   (3) Even if the microphone is switched for the same reason as described above, only one echo canceller configured by a digital signal processor (DSP) may be used. The DSP is expensive, and the space for placing the DSP on a printed circuit board on which various members are mounted and there is little space may be small.

(4)受話再生スピーカと複数のマイクロフォン間の伝達関数が一定であるため、±3dBもあるマイクロフォン自体の感度差調整をユニット単独で出来るという利点がある。   (4) Since the transfer function between the receiving / reproducing speaker and the plurality of microphones is constant, there is an advantage that the sensitivity difference of the microphone itself having ± 3 dB can be adjusted by the unit alone.

(5)音声集音・映像撮像装置の通話装置が搭載されるテーブルは、通話装置内の一つの受話再生スピーカで均等な品質の音声を全方位に均等に分散(拡散)するスピーカシステムが可能になった。   (5) The table on which the voice collecting / video imaging device communication device is mounted can be a speaker system that evenly distributes (spreads) sound of equal quality in all directions with a single receiving / reproducing speaker in the communication device. Became.

(6)受話再生スピーカから出た音はテーブル面を伝達して(バウンダリ効果)会議参加者まで有効に能率良く均等に上質な音が届き、会議室の天井方向に対しては対向側の音と位相キャンセルされて小さな音になり、会議参加者に対して天井方向からの反射音が少なく、結果として参加者に明瞭な音が配給されるという利点がある。   (6) The sound emitted from the receiving / reproducing speaker is transmitted to the table surface (boundary effect), and the sound is effectively and evenly delivered to the conference participants, and the sound on the opposite side to the ceiling direction of the conference room. The phase is canceled to produce a small sound, and there is an advantage that the conference participant has less reflected sound from the ceiling direction, and as a result, a clear sound is distributed to the participant.

(7)受話再生スピーカから出た音は複数の全てのマイクロフォンに同時に同じ音量で届くので発言者の音声なのか受話音声なのかの判断が容易になる。その結果、マイクロフォン選択処理の誤判別が減る。   (7) Since the sound emitted from the reception / reproduction speaker reaches all of the plurality of microphones at the same volume at the same time, it is easy to determine whether the sound is the speaker's voice or the reception voice. As a result, erroneous determination of microphone selection processing is reduced.

(8)偶数個のマイクロフォンを等間隔で配置したことで方向検出の為のレベル比較が容易に出来る。   (8) By arranging even number of microphones at equal intervals, level comparison for direction detection can be easily performed.

(9)緩衝材を用いたダンパー、柔軟性または弾力性を持つマイクロフォン支持部材などにより、マイクロフォンが搭載されているプリント基板を介して伝達され得る受話再生スピーカの音による振動が、マイクロフォンの集音に対する影響を低減することができる。   (9) Due to a damper using a cushioning material, a microphone support member having flexibility or elasticity, vibration due to the sound of the reception and reproduction speaker that can be transmitted through the printed circuit board on which the microphone is mounted is collected by the microphone. The influence on can be reduced.

(10)受話再生スピーカの音が直接、マイクロフォンには進入しない。したがって、この通話装置においては受話再生スピーカからのノイズの影響が少ない。   (10) The sound of the receiving / reproducing speaker does not directly enter the microphone. Therefore, in this call device, there is little influence of noise from the receiving / reproducing speaker.

本発明の第1実施の形態の音声集音・映像撮像装置における通話装置は信号処理面から下記の利点を有する。
(a)複数の単一指向性マイクを等間隔で放射状に配置して音源方向を検知可能とし、マイク信号を切り換えてS/Nの良い音、クリアな音を集音(収音)して、相手方に送信することができる。
(b)周辺の発言者からの音声をS/N良く集音して、発言者に対向したマイクを自動選択できる。
(c)本発明においては、マイク選択処理の方法として通過音声周波数帯域を分割し、それぞれの分割された周波数帯域事ごとのレベルを比較する事で、信号分析を簡略化している。
(d)本発明のマイク信号切り換え処理をDSPの信号処理として実現し、複数の信号をすべてにクロス・フェード処理する事で切り換え時のクリック音を出さないようにしている。
(e)マイク選択結果を、発光ダイオードなどのマイクロフォン選択結果表示手段、または、外部への通知処理することができる。したがって、たとえば、図2に図解したテレビカメラ装置40A1、40A2を用いた会議システムへの発言者位置情報として活用することもできる。
The communication device in the sound collection / video imaging device according to the first embodiment of the present invention has the following advantages from the viewpoint of signal processing.
(A) A plurality of unidirectional microphones are arranged radially at equal intervals so that the direction of the sound source can be detected, and the microphone signal is switched to collect (collect) sound with good S / N and clear sound. Can be sent to the other party.
(B) Sound from surrounding speakers can be collected with good S / N, and a microphone facing the speaker can be automatically selected.
(C) In the present invention, the signal analysis is simplified by dividing the passing voice frequency band as a microphone selection processing method and comparing the levels of the divided frequency bands.
(D) The microphone signal switching process according to the present invention is realized as a DSP signal process, and a plurality of signals are all cross-fade processed so as not to generate a clicking sound at the time of switching.
(E) A microphone selection result display means such as a light emitting diode or a notification process to the outside can be performed on the microphone selection result. Therefore, for example, it can be utilized as speaker position information for the conference system using the TV camera devices 40A1 and 40A2 illustrated in FIG.

第2実施の形態
図20〜図25を参照して本発明の音声集音・映像撮像装置の通話装置の第2実施の形態を述べる。
従来、会議や個人の音声を離れた相手に伝送するのに、電話、インターフォン、テレビ電話などがあった。しかしこの場合、周囲の人の声やテレビジョン装置からの音などがうるさいため話者の声が相手に良く伝わらないことが多い。そのためわざわざ話者がマイクロフォンの近くまで行ったり、大声を上げたり、テレビジョン装置の出力音をそのつど下げたりと面倒であった。
第1実施の形態の音声集音・映像撮像装置における通話装置を用いれば、通話装置の周囲の雑音を排除でき、話者の識別も正確にできるが、さらに改善することが希望されている。
本発明の第2実施の形態は、第1実施の形態の通話装置をさらに向上させるため、声紋識別を行って事前に声紋を登録した話者の音声のみを明瞭に選別し、その他のノイズとなる音はレベルを下げることにより、より良いコミュニケーションを可能にする。
Second Embodiment Referring to FIGS. 20 to 25, a second embodiment of the speech device of the sound collecting and video imaging apparatus of the present invention will be described.
Conventionally, there have been telephones, interphones, videophones and the like for transmitting conferences and individual voices to remote parties. However, in this case, the voices of the people around and the sound from the television set are noisy, and the voice of the speaker is often not transmitted well to the other party. For this reason, it is troublesome for the speaker to go close to the microphone, raise a loud voice, or lower the output sound of the television device each time.
If the communication device in the sound collecting and video imaging device of the first embodiment is used, noise around the communication device can be eliminated and the speaker can be identified accurately, but further improvement is desired.
In the second embodiment of the present invention, in order to further improve the communication device of the first embodiment, only voices of speakers who have previously registered voiceprints by performing voiceprint identification are clearly selected, and other noise and The sound becomes better communication by lowering the level.

図20は本発明の第2実施の形態の通話装置の装置構成を示す。
図20に図解した通話装置は、図6に図解した通話装置と類似する構成をしており、図6に図解した通話装置における構成要素は同じ符号を付している。ただし、下記の部分が異なる。
第2実施の形態の通話装置においては、マイクロフォンMC1〜MC6とA/D変換器271〜273との間に利得可変型増幅器301〜306が配置され、声紋認証部32が追加され、増幅器利得調整部34が追加され、増幅器291からLINEOUT端子への出力に加えて増幅器291から声紋認証部32に出力信号が印加されている。なお、利得可変型増幅器301〜306は第1実施の形態においても述べたように、A/D変換器271〜273を利得調整付増幅機能型A/D変換器271〜273として構成することもでき、その場合は、利得可変型増幅器301〜306の機能をA/D変換器271〜273に含めることもできる。なお、本実施の形態においては、A/D変換器271〜273とは別個に利得可変型増幅器301〜306を設けた場合について述べる。
なお、第2実施の形態においては、第3の増幅器293が付加されて,録音出力端子REC OUTに、LINE INからの入力信号または増幅器293からの信号を出力可能に構成されている。
FIG. 20 shows a device configuration of the communication device according to the second embodiment of the present invention.
The telephone apparatus illustrated in FIG. 20 has a configuration similar to that of the telephone apparatus illustrated in FIG. 6, and the components in the telephone apparatus illustrated in FIG. However, the following parts are different.
In the communication device of the second embodiment, variable gain type amplifiers 301 to 306 are arranged between microphones MC1 to MC6 and A / D converters 271 to 273, a voiceprint authentication unit 32 is added, and amplifier gain adjustment is performed. In addition to the output from the amplifier 291 to the LINEOUT terminal, an output signal is applied from the amplifier 291 to the voiceprint authentication unit 32. As described in the first embodiment, the variable gain amplifiers 301 to 306 may be configured such that the A / D converters 271 to 273 are the amplification function type A / D converters 271 to 273 with gain adjustment. In this case, the functions of the variable gain amplifiers 301 to 306 can be included in the A / D converters 271 to 273. In this embodiment, a case where variable gain amplifiers 301 to 306 are provided separately from A / D converters 271 to 273 will be described.
In the second embodiment, a third amplifier 293 is added so that an input signal from LINE IN or a signal from the amplifier 293 can be output to the recording output terminal REC OUT.

6本のマイクロフォンMC1〜MC6は、図7に例示した指向性を持ち、図3〜図5を参照して述べたように、等角度かつ等間隔で配置されている。
A/D変換器271〜273は第2実施の形態においても、2チャネル用A/D変換器であり、1個のA/D変換器で2入力信号(2チャネルの入力信号)が取り込める。
DSP25は第1実施の形態において述べた、図10に列挙した種々の処理、たとえば、マイクロフォン選択・切り替え処理などを行う。
第2のディジタルシグナルプロセッサ(DSP)26は第1実施の形態で述べたとおり、エコーキャンセル処理を行う。
The six microphones MC1 to MC6 have the directivity illustrated in FIG. 7 and are arranged at equal angles and at equal intervals as described with reference to FIGS.
The A / D converters 271 to 273 are also two-channel A / D converters in the second embodiment, and two input signals (two-channel input signals) can be captured by one A / D converter.
The DSP 25 performs various processes listed in FIG. 10 described in the first embodiment, such as a microphone selection / switching process.
As described in the first embodiment, the second digital signal processor (DSP) 26 performs echo cancellation processing.

声紋認証部32は、声紋認証処理を行う声紋認証処理プロセッサPと、声紋処理のための辞書メモリM1と、声紋を登録する声紋登録メモリM2とを有する。声紋登録メモリM2には、声紋登録装置32Aにより事前に話者認証を行う人の声紋が登録されている。話者認証の対象者は、本実施の形態の通話装置を使用する会議出席者などである。声紋認証部32の処理の詳細は後述する。   The voiceprint authentication unit 32 includes a voiceprint authentication processor P that performs voiceprint authentication processing, a dictionary memory M1 for voiceprint processing, and a voiceprint registration memory M2 that registers voiceprints. In the voiceprint registration memory M2, a voiceprint of a person who performs speaker authentication in advance by the voiceprint registration device 32A is registered. The target person for speaker authentication is a meeting attendee who uses the communication device of the present embodiment. Details of the processing of the voiceprint authentication unit 32 will be described later.

DSP25は第1実施の形態と同様、マイクロフォンMC1〜MC6のうちの1つを選択し、選択したマイクロフォンの番号を示すマイクロフォン選択信号S251をマイクロプロセッサ23に出力する。マイクロプロセッサ23はマイクロフォン選択信号S251を増幅器利得調整部34に出力する。
DSP25で選択したマイクロフォンの信号がDSP26に印加され、DSP26においてエコーキャンセル処理されて、D/A変換器282に出力され、増幅器292で増幅されて受話再生スピーカ16から出力されるので、通話装置を使用している会議者は受話再生スピーカ16から選択されたマイクロフォンを使用した話者の音声を聞くことができる。
As in the first embodiment, the DSP 25 selects one of the microphones MC1 to MC6 and outputs a microphone selection signal S251 indicating the number of the selected microphone to the microprocessor 23. The microprocessor 23 outputs the microphone selection signal S251 to the amplifier gain adjustment unit 34.
The microphone signal selected by the DSP 25 is applied to the DSP 26, echo canceled at the DSP 26, output to the D / A converter 282, amplified by the amplifier 292, and output from the reception / reproduction speaker 16. The conference participant in use can hear the voice of the speaker using the microphone selected from the reception reproduction speaker 16.

DSP26からD/A変換器282に出力された選択音声信号S26は増幅器291を介してLINE OUT端子に出力され、相手方の通話装置に送出することができる。
またDSP26からD/A変換器282に出力された選択音声信号S26は増幅器293を介してREC OUT端子に出力されるので、録音することもできる。
さらにDSP26からD/A変換器282に出力された選択音声信号S26は増幅器291を介して声紋認証部32に出力されるので、声紋認証部32において選択音声信号S26について声紋認証を行う。声紋認証の詳細は後述するが、声紋認証部32は選択音声信号S26を声紋認証した結果、声紋登録メモリM2に登録されたものであるとき、認証合格信号S32(認証合格のとき「1」、認証不合格のとき「0」)を増幅器利得調整部34に出力する。
The selected voice signal S26 output from the DSP 26 to the D / A converter 282 is output to the LINE OUT terminal via the amplifier 291 and can be sent to the partner telephone apparatus.
Since the selected audio signal S26 output from the DSP 26 to the D / A converter 282 is output to the REC OUT terminal via the amplifier 293, it can also be recorded.
Furthermore, since the selected voice signal S26 output from the DSP 26 to the D / A converter 282 is output to the voiceprint authentication unit 32 via the amplifier 291, the voiceprint authentication unit 32 performs voiceprint authentication on the selected voice signal S26. Although the details of the voiceprint authentication will be described later, when the voiceprint authentication unit 32 is registered in the voiceprint registration memory M2 as a result of voiceprint authentication of the selected voice signal S26, an authentication pass signal S32 (“1” is passed when the authentication is passed). “0”) is output to the amplifier gain adjustment unit 34 when the authentication fails.

増幅器利得調整部34にはマイクロプロセッサ23を介してDSP25からマイクロフォン選択信号S251が入力されている。この状態において、声紋認証部32から認証合格を示す認証合格信号S32が増幅器利得調整部34に入力されると、増幅器利得調整部34はマイクロフォン選択信号S251で示されたマイクロフォンの出力信号が入力されている該当する利得可変型増幅器の利得を大きくし(すでに大きく設定されているときはその値に維持する、または、ある大きな値に設定する)、その他の利得可変型増幅器の利得を低下させる(すでに低く設定されているときはその値に維持する、または、ある低い値に設定する)。   A microphone selection signal S251 is input from the DSP 25 to the amplifier gain adjustment unit 34 via the microprocessor 23. In this state, when an authentication pass signal S32 indicating authentication pass is input from the voiceprint authentication unit 32 to the amplifier gain adjustment unit 34, the amplifier gain adjustment unit 34 receives the output signal of the microphone indicated by the microphone selection signal S251. Increase the gain of the corresponding variable gain amplifier (maintain that value if it is already set to a large value, or set it to a large value), and decrease the gain of the other variable gain amplifier ( If it is already set low, keep it at that value, or set it to a low value).

具体的には、増幅器利得調整部34はマイクロコンピュータを内蔵しており、増幅器利得調整部34内のマイクロコンピュータは、マイクロフォン選択信号S251で示されたマイクロフォンの出力信号が入力されている該当する利得可変型増幅器の利得設定値を大きな値に設定してその利得可変型増幅器に出力し、その他の利得可変型増幅器の利得設定値を低い値に設定してそれらの利得可変型増幅器に出力する。その結果、利得可変型増幅器301〜306は設定された利得に変更される。   Specifically, the amplifier gain adjustment unit 34 has a built-in microcomputer, and the microcomputer in the amplifier gain adjustment unit 34 has a corresponding gain to which the output signal of the microphone indicated by the microphone selection signal S251 is input. The gain setting values of the variable amplifiers are set to large values and output to the variable gain amplifiers, and the gain setting values of the other variable gain amplifiers are set to low values and output to these variable gain amplifiers. As a result, the variable gain amplifiers 301 to 306 are changed to the set gain.

たとえば、第1マイクロフォンMC1がテレビジョン装置からの音だけを集音した場合、その音が大きければ、DSP25によって選択される。その結果、DSP25は第1マイクロフォンMC1が選択されたことを示すマイクロフォン選択信号S251をマイクロプロセッサ23を介して増幅器利得調整部34に出力する。
DSP25で選択されたテレビジョン装置からの音信号がDSP26から選択音声信号S26として、増幅器291を経由して声紋認証部32に入力される。声紋認証部32の声紋登録メモリM2にはテレビジョン装置の音を登録していないから、その選択音声信号S26は認証不合格とされ、「0」の認証合格信号S32が増幅器利得調整部34に出力される。
増幅器利得調整部34にはすでに、第1マイクロフォンMC1が選択されたことを示すマイクロフォン選択信号S251が入力されているが、「0」の認証合格信号S32が入力されるので、増幅器利得調整部34は、マイクロフォン選択信号S251に示された第1マイクロフォンMC1の出力信号が接続されている利得可変型増幅器301の利得を低く設定して利得可変型増幅器301に出力し、利得可変型増幅器301の利得を下げる。その結果、第1マイクロフォンMC1の集音信号は、利得可変型増幅器301で低下されて、A/D変換器271に入力されるから、その後、マイクロフォン選択の対象から外れる可能性が高い。
For example, when the first microphone MC1 collects only the sound from the television device, if the sound is loud, it is selected by the DSP 25. As a result, the DSP 25 outputs a microphone selection signal S251 indicating that the first microphone MC1 has been selected to the amplifier gain adjustment unit 34 via the microprocessor 23.
A sound signal from the television device selected by the DSP 25 is input from the DSP 26 to the voiceprint authentication unit 32 via the amplifier 291 as the selected sound signal S26. Since the sound of the television apparatus is not registered in the voiceprint registration memory M2 of the voiceprint authentication unit 32, the selected voice signal S26 is rejected for authentication, and the authentication pass signal S32 of “0” is sent to the amplifier gain adjustment unit 34. Is output.
The amplifier gain adjustment unit 34 has already received the microphone selection signal S251 indicating that the first microphone MC1 has been selected. However, since the authentication pass signal S32 of “0” is input, the amplifier gain adjustment unit 34 The gain of the variable gain amplifier 301 to which the output signal of the first microphone MC1 indicated by the microphone selection signal S251 is connected is set low and output to the variable gain amplifier 301. The gain of the variable gain amplifier 301 is Lower. As a result, the collected sound signal of the first microphone MC1 is lowered by the variable gain amplifier 301 and is input to the A / D converter 271, so that there is a high possibility that it will be excluded from the microphone selection target.

他方、第3マイクロフォンMC3を使用する話者の声紋が事前に声紋認証部32の声紋登録メモリM2に登録されており、DSP25により第3マイクロフォンMC3が選択されたとき、DSP25からマイクロプロセッサ23を経由して第3マイクロフォンMC3が選択されたことを示すマイクロフォン選択信号S251が増幅器利得調整部34に出力され、第3マイクロフォンMC3の音声が選択音声信号S26として声紋認証部32に入力されて声紋認証される。この場合、その声紋は声紋登録メモリM2に登録されているから、認証は合格し、「1」の認証合格信号S32が出力される。
増幅器利得調整部34は「1」の認証合格信号S32を入力すると、第3マイクロフォンMC3が選択されたことを示すマイクロフォン選択信号S251を参照して、第3マイクロフォンMC3の出力信号が接続されている利得可変型増幅器305の利得を高く設定して利得可変型増幅器305に出力し、利得可変型増幅器305の利得をある高い値に設定する。その結果、第3マイクロフォンMC3の集音信号は、利得可変型増幅器305で高められてA/D変換器273に入力され、高い音声出力がDSP26から選択音声信号S26として出力される。その選択音声信号S26はもちろん、D/A変換器282でアナログ信号に変換された後、増幅器292で増幅された受話再生スピーカ16に出力され、増幅器291で増幅されてLINE OUTを経由して相手方の通話装置に送出され、再び声紋認証部32に入力されて声紋認証の対象となる。
On the other hand, when a voiceprint of a speaker who uses the third microphone MC3 is registered in advance in the voiceprint registration memory M2 of the voiceprint authentication unit 32 and the third microphone MC3 is selected by the DSP 25, the DSP 25 passes through the microprocessor 23. Then, the microphone selection signal S251 indicating that the third microphone MC3 has been selected is output to the amplifier gain adjustment unit 34, and the voice of the third microphone MC3 is input to the voiceprint authentication unit 32 as the selected voice signal S26 for voiceprint authentication. The In this case, since the voiceprint is registered in the voiceprint registration memory M2, the authentication is passed and an authentication pass signal S32 of “1” is output.
When the amplifier gain adjustment unit 34 receives the authentication pass signal S32 of “1”, the output signal of the third microphone MC3 is connected with reference to the microphone selection signal S251 indicating that the third microphone MC3 has been selected. The gain of variable gain amplifier 305 is set high and output to variable gain amplifier 305, and the gain of variable gain amplifier 305 is set to a high value. As a result, the collected sound signal of the third microphone MC3 is increased by the variable gain amplifier 305 and input to the A / D converter 273, and a high sound output is output from the DSP 26 as the selected sound signal S26. The selected audio signal S26 is, of course, converted to an analog signal by the D / A converter 282, then output to the reception / reproduction speaker 16 amplified by the amplifier 292, amplified by the amplifier 291 and via the LINE OUT. Are input to the voiceprint authentication unit 32 again and are subject to voiceprint authentication.

第1マイクロフォンMC1で採取したテレビジョン装置からの音と、第3マイクロフォンMC3からの音声とが同時に存在したときは、DSP25において、まず、音の高いほうが選択されて、選択音声信号S26として声紋認証部32に入力される。
たとえば、第1マイクロフォンMC1で集音したテレビジョン装置の音が第3マイクロフォンMC3からの音声より高いときは第1マイクロフォンMC1からのテレビジョン装置の音がDSP25において選択されDSP26から選択音声信号S26として出力されている場合は、上述したように、声紋認証部32においては認証されない。よって、上述したように、第1マイクロフォンMC1の出力信号が接続されている利得可変型増幅器301の利得が低くされる。その結果、DSP25における次のマイクロフォン選択処理においては第1マイクロフォンMC1の集音信号は選択されず、第3マイクロフォンMC3の集音信号が選択されることになる。第3マイクロフォンMC3の集音信号が選択音声信号S26としてDSP26から声紋認証部32に出力されると、声紋認証処理は合格となる。その結果、増幅器利得調整部34により、第3マイクロフォンMC3が接続された利得可変型増幅器305の利得が高い値に設定されて、第3マイクロフォンMC3の集音信号が高くなり、明瞭な音声として受話再生スピーカ16から出力され、LINEOUTから出力され、再び声紋認証部32に入力される。
When the sound from the television apparatus collected by the first microphone MC1 and the sound from the third microphone MC3 exist at the same time, the DSP 25 first selects the higher sound and authenticates the voice print as the selected sound signal S26. Input to the unit 32.
For example, when the sound of the television apparatus collected by the first microphone MC1 is higher than the sound from the third microphone MC3, the sound of the television apparatus from the first microphone MC1 is selected by the DSP 25 and is selected from the DSP 26 as the selected sound signal S26. If it is output, the voiceprint authentication unit 32 does not authenticate as described above. Therefore, as described above, the gain of the variable gain amplifier 301 to which the output signal of the first microphone MC1 is connected is lowered. As a result, in the next microphone selection process in the DSP 25, the sound collection signal of the first microphone MC1 is not selected, and the sound collection signal of the third microphone MC3 is selected. When the collected sound signal of the third microphone MC3 is output from the DSP 26 to the voiceprint authentication unit 32 as the selected voice signal S26, the voiceprint authentication process is passed. As a result, the gain of the variable gain amplifier 305 to which the third microphone MC3 is connected is set to a high value by the amplifier gain adjusting unit 34, and the collected sound signal of the third microphone MC3 becomes high, so that a clear voice can be received. It is output from the reproduction speaker 16, output from LINEOUT, and input to the voiceprint authentication unit 32 again.

このように、声紋認証部32の声紋登録メモリM2に登録した声紋の話者が話した音声が最終的に選択され、明瞭な信号として、受話再生スピーカ16から、LINE OUTに、声紋認証部32に、出力される。
したがって、第2実施の形態の通話装置を用いれば、図1に例示したように、離れたところにいる人との間で明瞭な音声の会話を容易に行うことができる。
また、周囲のノイズとしてのテレビジョン装置の音など騒音環境で通話装置を使用する場合でも、話者が話す位置を移動する必要もなく、あるいは、ことさら大きい声を出す必要も無い。
さらに、ノイズとしてのテレビジョン装置の音声レベルをその都度下げる煩わしさもなく相手と話をすることができる。特に、ノイズとしてのテレビジョン装置の音を低く抑えて送られるので相手は明瞭な会話音だけが聞こえ、会話が円滑に行われる。その意味では、第2実施の形態の通話装置は不要な雑音を除去する装置としての機能をも持つ。
もちろん、声紋認証部32の声紋登録メモリM2に声紋登録されてない人が通話装置の周囲で話していても、そのような音声は最終的には選択されず、声紋登録された話者の音声のみで、明瞭に選択出力される。
In this way, the voice spoken by the voiceprint speaker registered in the voiceprint registration memory M2 of the voiceprint authentication unit 32 is finally selected, and as a clear signal, the voiceprint authentication unit 32 is sent from the reception reproduction speaker 16 to LINE OUT. Is output.
Therefore, if the communication device of the second embodiment is used, as illustrated in FIG. 1, a clear voice conversation can be easily performed with a person at a distance.
Further, even when using a communication device in a noise environment such as the sound of a television device as ambient noise, it is not necessary to move the speaking position of the speaker or to make a loud voice.
Furthermore, it is possible to talk with the other party without bothering to lower the sound level of the television device as noise each time. In particular, since the sound of the television apparatus as noise is kept low, the other party can only hear a clear conversation sound, and the conversation is performed smoothly. In that sense, the communication device of the second embodiment also has a function as a device for removing unnecessary noise.
Of course, even if a person who is not registered in the voiceprint registration memory M2 of the voiceprint authentication unit 32 speaks around the telephone device, such voice is not finally selected, and the voice of the speaker who is registered as a voiceprint. Only clearly and selectively output.

選択されたマイクロフォンの終了は、図15に図解したように、マイクロフォン出力信号のレベルが低下し、所定時間継続したとき、DSP25により判断される。
このとき、好ましくは、増幅器利得調整部34は、発言が終了したマイクロフォンに対応する利得可変型増幅器の利得を通常の利得に設定しなおす。もちろん、DSP25からマイクロプロセッサ23を経由して選択が終了したことを、マイクロフォン選択信号S251に含めて増幅器利得調整部34に通報することができる。
このように、選択が終了したマイクロフォンに対応する利得可変型増幅器の利得を他の利得可変型増幅器と同じ利得にすることにより、次のマイクロフォン選択が平等の条件となる。
The end of the selected microphone is determined by the DSP 25 when the level of the microphone output signal decreases and continues for a predetermined time, as illustrated in FIG.
At this time, the amplifier gain adjustment unit 34 preferably resets the gain of the variable gain amplifier corresponding to the microphone whose speech has ended to a normal gain. Of course, it is possible to notify the amplifier gain adjustment unit 34 that the selection is completed from the DSP 25 via the microprocessor 23 by including it in the microphone selection signal S251.
In this way, by setting the gain of the variable gain amplifier corresponding to the selected microphone to the same gain as that of the other variable gain amplifiers, the next microphone selection becomes an equal condition.

以上の実施の形態においては、本発明の利得可変型増幅手段として、利得可変型増幅器301〜306を用いた場合について述べたが、上述したように、A/D変換器271〜273として利得可変型A/D変換器271〜273を用いることもでき、その場合、利得可変型増幅器301〜306を固定利得の増幅器に代え、増幅器利得調整部34は利得可変型A/D変換器271〜273の利得を調整(設定)することもできる。   In the above embodiment, the case where the variable gain amplifiers 301 to 306 are used as the variable gain amplification means of the present invention has been described. However, as described above, the variable gain can be used as the A / D converters 271 to 273. Type A / D converters 271 to 273 can also be used. In this case, the variable gain amplifiers 301 to 306 are replaced with fixed gain amplifiers, and the amplifier gain adjustment unit 34 includes variable gain A / D converters 271 to 273. Can be adjusted (set).

本発明の通話装置の好適な例示として、第1実施の形態として述べた、マイクロフォンMC1〜MC6が等角度で放射状に配置された場合について述べたが、第2実施の形態としては、マイクロフォンMC1〜MC6が第1実施の形態のように、各対のマイクロフォン、たとえば、MC1とMC4とが一直線上に対向して配置されている場合に限らず、所定の配置でもよい。その場合、DSP25は、たとえば、最大振幅の集音信号を出力したマイクロフォンをマイクロフォン選択信号S251として選択する。その後、声紋認証部32において上述した声紋認証を行う。   As a preferred example of the communication device of the present invention, the case where the microphones MC1 to MC6 described as the first embodiment are radially arranged at an equal angle has been described. However, as the second embodiment, the microphones MC1 to MC1 are described. The MC 6 is not limited to the case where each pair of microphones, for example, MC 1 and MC 4 are arranged on a straight line as in the first embodiment, but may be a predetermined arrangement. In this case, the DSP 25 selects, for example, a microphone that outputs a sound collection signal having the maximum amplitude as the microphone selection signal S251. Thereafter, the voiceprint authentication unit 32 performs the above-described voiceprint authentication.

図21〜図25を参照して声紋認証部32の処理内容の詳細な例について述べる。
本実施の形態においては、各会議出席者がマイクロフォンMC1〜MC6から順に音声を声紋登録装置32Aに入力し、声紋登録装置32Aからマイクロフォンの番号とともに、声紋認証部32に出力する。本例では、各会議出席者の音声は、図21に例示したように、たとえば、『Open File』,『Next』等の2〜3秒程度の音声によるコマンドを想定している。
声紋認証部32内の声紋認証処理プロセッサPは、声紋登録装置32Aから入力された音声信号をディジタル信号に変換した後、辞書メモリM1に記録された辞書を参照して音声認識処理を施し、文字列データに変換してマイクロフォン番号とともに声紋登録メモリM2に記録する。すなわち、声紋認証処理プロセッサPはあらかじめ入力する音声コマンドに対応する文字列データが格納されている辞書メモリM1の音声コマンドに対応する文字列データを照合し、合致するものを選択する。
A detailed example of processing contents of the voiceprint authentication unit 32 will be described with reference to FIGS.
In the present embodiment, the attendees of each conference input voices sequentially from the microphones MC1 to MC6 to the voiceprint registration device 32A, and output the voiceprint registration unit 32A together with the microphone number to the voiceprint authentication unit 32. In this example, the voice of each conference attendant is assumed to be a command with a voice of about 2 to 3 seconds, such as “Open File” and “Next”, as illustrated in FIG.
The voiceprint authentication processor P in the voiceprint authentication unit 32 converts the voice signal input from the voiceprint registration device 32A into a digital signal, and then performs a voice recognition process with reference to the dictionary recorded in the dictionary memory M1, thereby Converted into column data and recorded in the voiceprint registration memory M2 together with the microphone number. That is, the voiceprint authentication processor P collates the character string data corresponding to the voice command in the dictionary memory M1 in which the character string data corresponding to the voice command input in advance is stored, and selects a matching one.

図21(A)〜(D)は、音声認識処理部32で行われる制御の動作について図解したタイミングチャートである。
図21(A)は、マイク切替え信号MC_SELのタイミングチャートであり、例えば#4と記載されている場合は、第4マイクロフォンMC4が現在選択されていることを示している。
図21(B)は、マイクロフォン出力信号のタイミングチャートである。マイクロフォン出力信号は、図21(A)のマイク切替え信号MC_SELで示すマイク番号に対応した音声信号であり、声紋認証処理プロセッサP内のA/D変換器でディジタルに変換されて入力される。この例では、マイクロフォン出力信号”OpenFile”,”Next”といったコマンドの音声信号である。
図21(C)は、図21(A)〜(B)で得られた情報をもとに声紋認証処理プロセッサPで行われる処理プロセスを示すタイミングチャートである。各音声データのバッファリングとバッファリング後の音声認識処理から構成される。
図21(D)は、図21(C)で示した音声認識処理の結果として順次出力される文字列データのタイミングチャートである。
FIGS. 21A to 21D are timing charts illustrating the control operation performed by the speech recognition processing unit 32.
FIG. 21A is a timing chart of the microphone switching signal MC_SEL. When, for example, # 4 is described, it indicates that the fourth microphone MC4 is currently selected.
FIG. 21B is a timing chart of the microphone output signal. The microphone output signal is an audio signal corresponding to the microphone number indicated by the microphone switching signal MC_SEL in FIG. 21A, and is converted into a digital signal by an A / D converter in the voiceprint authentication processor P and input. In this example, it is a voice signal of a command such as a microphone output signal “OpenFile” or “Next”.
FIG. 21C is a timing chart showing a process performed by the voiceprint authentication processor P based on the information obtained in FIGS. It consists of buffering of each voice data and voice recognition processing after buffering.
FIG. 21D is a timing chart of character string data sequentially output as a result of the voice recognition process shown in FIG.

図21(A)に図解のように、最初に選択されたマイクロフォンの番号が#4であり、第4マイクロフォンから”Open File”というマイクロフォン出力信号が声紋認証処理プロセッサPに入力されている。声紋認証処理プロセッサPはA/D変換器を介してディジタル変換されたマイクロフォン出力信号を入力し、図21(C)に図解のごとくバッファリングを開始し、その音声データはバッファのマイク番号#4に応じたバッファで保持される。   As illustrated in FIG. 21A, the number of the first selected microphone is # 4, and the microphone output signal “Open File” is input to the voiceprint authentication processor P from the fourth microphone. The voiceprint authentication processor P inputs the microphone output signal digitally converted via the A / D converter, starts buffering as illustrated in FIG. 21C, and the voice data is the microphone number # 4 of the buffer. Is held in a buffer according to

その後、マイクロフォンの番号が#4から#1になると、マイク切替え信号MC_SEL=1となる。図21(B)に示すとおり、マイク番号#1の音声データは”Next”に相当する音声データであり、声紋認証処理プロセッサPはマイク番号#4のバッファリングを終了し、新たにマイク番号#1のバッファリングを開始するとともに、バッファに保持されたマイク番号#4の音声データに基づいて、声紋認証処理プロセッサPで音声認識処理を並行して行う。
音声認識処理では、マイク番号#4の音声データが音声認識処理され、辞書メモリM1に格納されている文字列データのコマンド群と照合され、合致するものが選択され、文字列データとしての”Open File”を、図21(D)のとおり出力される。
その後さらに、マイク番号が#1から#2へ変化しても同様である。
以上、概略説明した制御動作をフローチャートを参照してさらに説明する。
Thereafter, when the microphone number changes from # 4 to # 1, the microphone switching signal MC_SEL = 1. As shown in FIG. 21B, the voice data of the microphone number # 1 is the voice data corresponding to “Next”, and the voiceprint authentication processing processor P ends the buffering of the microphone number # 4 and starts a new microphone number #. 1 buffering is started, and voice recognition processing processor P performs voice recognition processing in parallel based on the voice data of microphone number # 4 held in the buffer.
In the speech recognition process, the speech data of the microphone number # 4 is subjected to speech recognition processing, collated with the command group of the character string data stored in the dictionary memory M1, and the matching data is selected, and “Open” as the character string data File "is output as shown in FIG.
Thereafter, the same applies even if the microphone number changes from # 1 to # 2.
The control operation outlined above will be further described with reference to the flowchart.

図22は声紋認証処理プロセッサPで行われる制御のメインフローを示す図である。
たとえば、2kHzのT1タイマがスタートし、50μs毎に図23に示すT1タイマ割込みに移行する。そして、一定レベル以上の音声入力があれば(ステップST11)、ステップST12に移行する。この一定レベルの閾値は、アプリケーションに応じて適宜設定することができることは言うまでもない。
声紋認証処理プロセッサPはマイク切替え信号MC_SELが供給されているので、ステップST11において一定レベル以上の音声入力があれば、その音声のマイク番号(1〜6)を把握している。従って、ステップST12では、その入力音声データのサンプリングを開始し、その音声のマイク番号(1〜6)に応じたバッファに音声データを保持する。
一定レベル以上の音声入力がなければ、ステップST12では何もしない。
FIG. 22 is a diagram showing a main flow of control performed by the voiceprint authentication processor P.
For example, a T1 timer of 2 kHz starts and shifts to a T1 timer interrupt shown in FIG. 23 every 50 μs. If there is a voice input of a certain level or higher (step ST11), the process proceeds to step ST12. It goes without saying that this constant level threshold value can be appropriately set according to the application.
Since the voice print authentication processor P is supplied with the microphone switching signal MC_SEL, if there is a voice input at a certain level or higher in step ST11, the voice print authentication processor P knows the voice microphone number (1 to 6). Accordingly, in step ST12, sampling of the input voice data is started, and the voice data is held in a buffer corresponding to the microphone number (1 to 6) of the voice.
If there is no voice input above a certain level, nothing is done in step ST12.

図25は、図22に示したメインフローの制御においてマイク選択情報が変化した場合の割込みフローを示した図である。すなわち、通常制御動作であるメインフローにおいて、通話装置で選択されるマイク番号が変化して、その情報がマイク切替え信号MC_SELを通して通知された場合に発生する割込みフローであり、図21の例で言えば、本割込み以前にマイク番号4(マイク切替え信号MC_SEL=4)の音声データをマイク番号4のバッファにサンプリングをして格納していたとき、マイク切替え信号MC_SELが4から1へ変化した場合である。
図25のステップST40において、声紋認証処理プロセッサPは音声サンプリングを行っていた場合は、それ以上バッファには音声データを格納しない。
この場合は、現在行っているマイク番号4からの発話入力は終了したものとみなし、サンプリングを終了する(ステップST41)。
さらに、サンプリングが終了したマイク番号4の音声データは、声紋認証処理プロセッサPにおいて音声認識処理が行われる(ステップST42)。図21の例では、声紋認証処理プロセッサPにおいて、マイク番号4の音声データは”Open File”と認識され、その文字列データが通話装置1Aの外部に出力される。
FIG. 25 is a diagram showing an interrupt flow when the microphone selection information is changed in the control of the main flow shown in FIG. That is, in the main flow that is a normal control operation, the interrupt number is generated when the microphone number selected by the call device changes and the information is notified through the microphone switching signal MC_SEL. For example, when the voice data of microphone number 4 (microphone switching signal MC_SEL = 4) is sampled and stored in the buffer of microphone number 4 before this interruption, the microphone switching signal MC_SEL changes from 4 to 1. is there.
In step ST40 of FIG. 25, when the voiceprint authentication processor P is performing audio sampling, no more audio data is stored in the buffer.
In this case, it is considered that the speech input from the currently performed microphone number 4 is completed, and the sampling is terminated (step ST41).
Furthermore, the voice data of microphone number 4 for which sampling has been completed is subjected to voice recognition processing in the voiceprint authentication processor P (step ST42). In the example of FIG. 21, in the voiceprint authentication processor P, the voice data of the microphone number 4 is recognized as “Open File”, and the character string data is output to the outside of the call device 1A.

図22のステップST10において、T1タイマが開始され、例えば50μs(20kHz)毎に図22に示すT1タイマ割込みフローが開始される。T1タイマ割込みでは、5μs毎に音声入力があるか、および、一定レベル以上の音声入力があるか監視を行い、適切な処置を施す。まず、ステップST20で音声サンプリングを行っていたか否かチェックされる。
音声サンプリングを行っていた場合は、声紋認証処理プロセッサPはさらに一定レベルの音声入力があるか否かチェックし(ステップST21)、一定レベルの音声入力がある場合には後述するT2タイマは停止する。T2タイマは発話がない状態を監視し、一定時間発話がない場合には自動的に次のフェーズである音声認識に移行するためのものである。
発話、すなわち、音声入力が一定レベル以上ある場合は、発話が継続していると考えられ、ステップST22において、T2タイマはリセットされる。
また、ステップST20で音声サンプリングを行っているが、一定レベル以上の音声入力がない場合には、現在の発話が終了した可能性があるため、発話がない状態の継続時間を監視するため、T2タイマをスタートさせる(ステップST23)。
ステップST21で一定レベル以上の音声入力がない場合でも、発話を再開する可能性があるため、音声サンプリングは継続する(ステップST24)。
In step ST10 of FIG. 22, the T1 timer is started, and for example, the T1 timer interrupt flow shown in FIG. 22 is started every 50 μs (20 kHz). In the T1 timer interruption, it is monitored whether there is an audio input every 5 μs and whether there is an audio input of a certain level or more, and appropriate measures are taken. First, it is checked in step ST20 whether audio sampling has been performed.
If voice sampling has been performed, the voiceprint authentication processor P further checks whether there is a certain level of voice input (step ST21), and if there is a certain level of voice input, the T2 timer described later stops. . The T2 timer is used to monitor a state where there is no utterance, and when there is no utterance for a certain period of time, the T2 timer automatically shifts to the next phase, speech recognition.
If the utterance, that is, the voice input is above a certain level, it is considered that the utterance is continuing, and the T2 timer is reset in step ST22.
Further, although voice sampling is performed in step ST20, if there is no voice input of a certain level or more, the current utterance may be terminated. Therefore, in order to monitor the duration time when there is no utterance, T2 A timer is started (step ST23).
Even if there is no voice input of a certain level or higher in step ST21, speech sampling is continued because there is a possibility that speech is resumed (step ST24).

ステップST20で音声サンプリングを行っていない場合は、声紋認証処理プロセッサPはステップST25で一定レベル以上の音声入力があるか否かがチェックする。これにより、発話が開始された否かがチェックされ、一定レベル以上の音声入力がある場合は、声紋認証処理プロセッサPは発話が開始されたものとし、新しく選択されたマイクに対応したバッファに音声サンプリングが開始される(ステップST26)。
ステップST25で一定レベル以上の音声入力がない場合には、声紋認証処理プロセッサPは何もせず次の有効な発話を待つことになる。
If voice sampling is not performed in step ST20, the voiceprint authentication processor P checks in step ST25 whether there is a voice input of a certain level or higher. Thereby, it is checked whether or not the utterance has started, and if there is an audio input of a certain level or more, the voiceprint authentication processor P assumes that the utterance has started, and the audio is stored in the buffer corresponding to the newly selected microphone. Sampling is started (step ST26).
If there is no voice input exceeding a certain level in step ST25, the voiceprint authentication processor P does nothing and waits for the next valid utterance.

図23のステップST23で、例えば2HzのT2タイマが開始され、一定時間経過した場合、すなわち、声紋認証処理プロセッサPは音声サンプリングは実施しているが(ステップST20)、一定レベル以上の音声入力がない場合が一定時間継続した場合は、音声サンプリングを継続することは無駄であるため、図24に示すT2タイマ割込みフローに移行する。
すなわち、その時行っていた音声のサンプリングを終了し(ステップST30)、音声認識処理に移行する(ステップST31)。
音声認識処理に移行した後、ステップST32において、次の発話の処理のため、T2タイマはリセットされる。
In step ST23 of FIG. 23, for example, when a T2 timer of 2 Hz is started and a certain period of time has elapsed, that is, the voiceprint authentication processor P is performing voice sampling (step ST20), If no case continues for a certain period of time, it is useless to continue the audio sampling, and the process proceeds to the T2 timer interrupt flow shown in FIG.
That is, the voice sampling performed at that time is terminated (step ST30), and the process proceeds to the voice recognition process (step ST31).
After shifting to the voice recognition process, in step ST32, the T2 timer is reset for the next utterance process.

声紋認証部32によれば、複数の会議出席者のそれぞれが使用するマイクロフォンを通して、複数人が重なって通話装置に対して音声によりコマンドを発している場合でも、各音声の帯域毎の音圧レベルを分析して、主の話者を特定してその音声信号を引き渡す。したがって、声紋認証部32において、複数の音声コマンドが同時に入力された場合でも誤認識処理を起こす可能性を極力回避することができ、主に発話している音声コマンドを適切に判断・処理を行うことが可能である。
声紋認証部32の声紋認証処理プロセッサPは、引き渡された音声コマンド信号をバッファリングし、バッファリングした音声信号を音声認識処理し、辞書メモリM1に格納されるコマンド文字列データと照合し、合致する文字列データを選択して処理される。
また、声紋認証部32の声紋認証処理プロセッサPは、声紋登録装置32Aから選択されたマイク番号を逐次通知されている。したがって、その選択されたマイク番号が切り替わった場合には、バッファリングを中止し、それまでバッファリングしていた音声信号を音声認識処理し、更新されたマイク番号からの音声コマンド信号のバッファリングを開始するので、音声認識の精度が向上する。
According to the voiceprint authentication unit 32, even when a plurality of people overlap each other and issue a voice command to the call device through the microphones used by each of the plurality of conference attendees, the sound pressure level for each voice band To identify the main speaker and deliver the speech signal. Therefore, the voiceprint authentication unit 32 can avoid the possibility of erroneous recognition processing even when a plurality of voice commands are input at the same time, and appropriately determines and processes a voice command mainly spoken. It is possible.
The voiceprint authentication processor P of the voiceprint authentication unit 32 buffers the delivered voice command signal, performs voice recognition processing on the buffered voice signal, compares it with the command character string data stored in the dictionary memory M1, and matches. The character string data to be selected is selected and processed.
The voiceprint authentication processor P of the voiceprint authentication unit 32 is sequentially notified of the selected microphone number from the voiceprint registration device 32A. Therefore, when the selected microphone number is switched, the buffering is stopped, the voice signal that has been buffered up to that point is subjected to voice recognition processing, and the voice command signal from the updated microphone number is buffered. Since it starts, the accuracy of voice recognition is improved.

第3実施の形態
図2、図26〜図31を参照して本発明の音声集音・映像撮像装置の第3実施の形態について述べる。
本発明の第3実施の形態は、上述した通話装置を用い、これらに、撮像手段を付加して、テレビジョン会議(TV会議)システムを構成した場合について述べる。
図2は音声集音・映像撮像装置のテレビカメラ装置40A1、40A2の初期状態を示し、図31は通話装置および撮像調整部36による撮像条件の決定に基づきテレビカメラ装置40A1、40A2が撮像する状態を示す図である。
Third Embodiment With reference to FIGS. 2 and 26 to 31, a third embodiment of the sound collection / video imaging apparatus of the present invention will be described.
In the third embodiment of the present invention, a case will be described in which a television conference (TV conference) system is configured by using the above-described communication devices and adding imaging means to them.
FIG. 2 shows an initial state of the television camera devices 40A1 and 40A2 of the sound collection / video imaging device, and FIG. 31 shows a state in which the television camera devices 40A1 and 40A2 take an image based on determination of imaging conditions by the communication device and the imaging adjustment unit 36. FIG.

従来のカメラ付き会議システムでは、各発言者個別のマイクロフォンの番号や、TV会議システムの管理者(議長)による制御によりカメラの向きを制御していた。このような方法だと発言者ごとに個別のマイクロフォンが必要なため高価なシステムが必要であったり、TV会議システムの管理者が発言者が変わるたびに撮像領域を変更するためのカメラ撮像方向の変更制御をしなければいけないという面倒さがあった。
また発言者の名前表示等については通常、マイクロフォンと発言者名が連動しており参加者が座る座席を途中変更すると、再設定が必要になり、手続きが複雑であった。
なお、単に音が出ている方向にカメラの向きを向けるという簡便なシステムも存在するが、カメラの向きが撮像に適しない人の方向に向いたり、周囲のノイズ、たとえば、会議に使用しているプロジェクタ装置のファンの音に感応してプロジェクタ装置の方向にカメラの撮像方向が向くという不具合が起こる。
In the conventional conference system with a camera, the direction of the camera is controlled by the microphone number of each speaker or the control (chairman) of the TV conference system. In such a method, an individual microphone is required for each speaker, so an expensive system is necessary, or a video conference system administrator changes the imaging area every time the speaker changes. There was a hassle of having to control change.
In addition, the display of the name of the speaker is usually linked with the microphone and the name of the speaker, and if the seat where the participant sits is changed halfway, it must be reset and the procedure is complicated.
There are simple systems that simply point the camera in the direction in which the sound is coming out, but the camera faces the direction of the person who is not suitable for imaging, or is used for ambient noise, such as a meeting. In response to the sound of the fan of the projector device, there is a problem that the imaging direction of the camera is directed toward the projector device.

上述した音声集音・映像撮像装置の通話装置を用いれば、話者の選択が正確になる、会議出席者の近傍にマイクロフォンを設置する必要がないなど、種々の利点があり、上述した不具合を改善できる。
すなわち、図5に図解した、全方位に複数のマイクロフォンMC1〜MC6を配置し、第1のディジタルシグナルプロセッサ(DSP)25により現在主に発話している方向のマイクロフォンの集音信号を選択する機能を持った図6に図解した通話装置を用いると、正確に発言者のマイクロフォンを選択できる。マイクロフォンは、たとえば、均等の角度で配置されているから、たとえば、DSP25においてマイクロフォンを選択できれば、DSP25におていマイクロフォンの配置方向が決定でき、さらにDSP25において話者の方向を特定できる。
さらに好ましくは、図20を参照して第2実施の形態として述べた、図6に図解した通話装置に声紋認証部32を付加した通話装置によって、声紋認証部32から出力される認証合格信号S32と、DSP25からマイクロプロセッサ23に出力されるマイクロフォン選択信号S251を用いると、正確に発言者を特定できる。
図1(B)、図2、図31に例示したように、発言者は対応するマイクロフォンの前に座っているから、事前にDSP25に各マイクロフォンの位置に対応する発言者の位置を登録しておく。さらに、DSP25には、各テレビカメラ装置40A1、40A2と発言者の位置および方向を登録しておく。
以上の話者の方向と位置を用いれば、各テレビカメラ装置40A1、40A2が撮像すべき発言者の撮像領域を決定できる。
Using the above-described voice collecting / imaging device communication device has various advantages such as accurate selection of a speaker and no need to install a microphone in the vicinity of a conference attendee. Can improve.
That is, the function illustrated in FIG. 5 is that a plurality of microphones MC1 to MC6 are arranged in all directions, and the first digital signal processor (DSP) 25 selects a microphone sound collection signal in a direction mainly speaking at present. 6 can be used to accurately select the speaker's microphone. For example, since the microphones are arranged at equal angles, for example, if the microphone can be selected in the DSP 25, the arrangement direction of the microphone can be determined in the DSP 25, and further, the direction of the speaker can be specified in the DSP 25.
More preferably, the authentication pass signal S32 output from the voiceprint authentication unit 32 by the call device in which the voiceprint authentication unit 32 is added to the call device illustrated in FIG. 6 described as the second embodiment with reference to FIG. If the microphone selection signal S251 output from the DSP 25 to the microprocessor 23 is used, the speaker can be accurately identified.
As illustrated in FIGS. 1B, 2, and 31, since the speaker is sitting in front of the corresponding microphone, the position of the speaker corresponding to the position of each microphone is registered in the DSP 25 in advance. deep. Further, the television camera devices 40A1 and 40A2 and the positions and directions of the speakers are registered in the DSP 25.
By using the direction and position of the above speakers, it is possible to determine the imaging area of the speaker to be captured by each of the television camera devices 40A1 and 40A2.

そこで、第3実施の形態においては、図26、図27に図解したように、本発明の撮像手段としてのテレビカメラ装置40A1、40A2(代表して、テレビカメラ装置40)と、このテレビカメラ装置40の撮像条件を調整する撮像調整手段としての撮像調整部36とを、図20を参照して述べた通話装置に付加している。
図26、図27は本発明の第3実施の形態としての音声集音・映像撮像装置の構成図である。図27は、図20に図解した通話装置に、撮像調整部36とテレビカメラ装置40(テレビカメラ装置40A1、40A2)とを付加した音声集音・映像撮像装置の構成図であり、図27は、図26に図解した音声集音・映像撮像装置から利得可変型増幅器301〜306と増幅器利得調整部34とを削除した音声集音・映像撮像装置の構成図である。
Therefore, in the third embodiment, as illustrated in FIGS. 26 and 27, the television camera devices 40A1 and 40A2 (typically, the television camera device 40) as the imaging means of the present invention, and the television camera device An imaging adjustment unit 36 serving as an imaging adjustment unit that adjusts 40 imaging conditions is added to the communication device described with reference to FIG.
FIG. 26 and FIG. 27 are configuration diagrams of an audio sound collection / video imaging apparatus as a third embodiment of the present invention. FIG. 27 is a configuration diagram of an audio sound collection / video imaging device in which the imaging adjustment unit 36 and the television camera device 40 (television camera devices 40A1 and 40A2) are added to the call device illustrated in FIG. FIG. 27 is a block diagram of a sound collection / video imaging apparatus in which the variable gain amplifiers 301 to 306 and the amplifier gain adjustment unit 34 are deleted from the voice collection / video imaging apparatus illustrated in FIG. 26.

(1)本発明の第3実施の形態としては、第1実施の形態として述べたDSP25によるマイクロフォン選択処理が必須となり、DSP25におけるマイクロフォン選択処理結果に基づいて撮像調整部36がテレビカメラ装置40の撮像条件を制御する。
(2)本発明の第3実施の形態の好ましい形態としては、図26に図解した構成において、図20を参照して述べた第2実施の形態のように、第1実施の形態として述べたDSP25によるマイクロフォン選択処理に加えて、声紋認証部32における声紋認証を行って、マイクロフォン選択処理結果と声紋認証との両者が一致した場合のみ、撮像調整部36によってテレビカメラ装置40(テレビカメラ装置40A1、40A2)の撮像条件を制御する。
(3)本発明の第3実施の形態のさらに好ましい形態としては、図27に図解した構成において、図20を参照して述べた第2実施の形態のように、第1実施の形態として述べたDSP25によるマイクロフォン選択処理に加えて、声紋認証部32における声紋認証を行って、マイクロフォン選択処理結果と声紋認証との両者が一致した場合のみ、撮像調整部36によってテレビカメラ装置40(テレビカメラ装置40A1、40A2)の撮像条件を制御するともに、第2実施の形態として述べた、増幅器利得調整部34による利得可変型増幅器301〜306の利得制御をも行う。
以下、図26および図27を参照して、第3実施の形態の基本事項について述べる。
(1) As the third embodiment of the present invention, the microphone selection process by the DSP 25 described as the first embodiment is indispensable, and the imaging adjustment unit 36 of the television camera device 40 is based on the result of the microphone selection process in the DSP 25. Control imaging conditions.
(2) As a preferable mode of the third embodiment of the present invention, the configuration illustrated in FIG. 26 is described as the first embodiment like the second embodiment described with reference to FIG. In addition to the microphone selection process by the DSP 25, voice print authentication is performed in the voice print authentication unit 32, and only when the microphone selection process result and the voice print authentication match, the imaging adjustment unit 36 performs the television camera device 40 (TV camera device 40A1). , 40A2) is controlled.
(3) As a more preferable form of the third embodiment of the present invention, the structure illustrated in FIG. 27 is described as the first embodiment like the second embodiment described with reference to FIG. In addition to the microphone selection process performed by the DSP 25, voice print authentication is performed by the voice print authentication unit 32, and only when the microphone selection process result matches the voice print authentication, the imaging adjustment unit 36 performs the TV camera device 40 (TV camera device). 40A1 and 40A2) are controlled, and the gain control of the variable gain amplifiers 301 to 306 by the amplifier gain adjustment unit 34 described in the second embodiment is also performed.
The basic items of the third embodiment will be described below with reference to FIGS.

撮像調整部36は、コンピュータを内蔵しており、図2および図31に図解したように、各テレビカメラ装置40A1、40A2の上下左右方向(上下左右向きまたはチルト)、パン、ズーム、照明条件などを調整できる。
なお、撮像調整部36には、事前に、各テレビカメラ装置40A1、40A2について、たとえば、第1マイクロフォンの方向および領域MIC1AREAを撮像するための第1の撮像条件情報、第2マイクロフォンの方向および領域MIC2AREAを撮像するための第2の撮像条件情報などがコンピュータのメモリ部分に設定されている。好ましくは、これら撮像条件情報には、会議参加者の氏名、職名または役職などを含めてもよい。
図2に図解した例示においては、撮像調整部36は、初期状態として、各テレビカメラ装置40A1、40A2が会議室内の通話装置10Aを中心として会議室の左右を分担し、かつ、合わせて出席者全員を撮像可能にしている。
The imaging adjustment unit 36 has a built-in computer, and as illustrated in FIG. 2 and FIG. 31, up and down and left and right directions (up and down and left and right or tilt), pan, zoom, illumination conditions, etc. Can be adjusted.
In addition, the imaging adjustment unit 36, for each TV camera device 40A1, 40A2, in advance, for example, the first imaging condition information for imaging the direction and area MIC1AREA of the first microphone, the direction and area of the second microphone Second imaging condition information for imaging MIC2AREA is set in the memory portion of the computer. Preferably, the imaging condition information may include the name, title or title of the conference participant.
In the example illustrated in FIG. 2, as an initial state, the imaging adjustment unit 36 has the television camera devices 40A1 and 40A2 share the right and left of the conference room with the call device 10A in the conference room as the center, and the attendees as well. Everyone can be imaged.

各テレビカメラ装置40A1、40A2は、撮像調整部36から与えられる撮像条件、たとえば、、撮像方向(上下、左右方向)、ズームするか否か、ズームする場合はどの程度ズームするかの撮像条件が与えられると、その撮像条件で撮像可能な構成になっている。テレビカメラ装置40A1、40A2で撮像した画像信号は、プロジェクタ装置60A(またはテレビジョン受像機50A)に表示される他、遠隔の音声集音・映像撮像装置のプロジェクタ装置60B(またはテレビジョン受像機50B)に表示される。   Each of the television camera devices 40A1 and 40A2 has an imaging condition given from the imaging adjustment unit 36, for example, an imaging direction (vertical and horizontal directions), whether to zoom, and how much to zoom when zooming. When given, it is configured to be able to image under the imaging conditions. The image signals captured by the TV camera devices 40A1 and 40A2 are displayed on the projector device 60A (or the television receiver 50A), and the projector device 60B (or the television receiver 50B) of the remote sound collection / video imaging device. ) Is displayed.

増幅器利得調整部34および撮像調整部36は、DSP25で選択したマイクロフォンの番号を示すマイクロフォン選択信号S251をマイクロプロセッサ23を介して入力する。
増幅器利得調整部34および撮像調整部36は、DSP25で選択した集音信号がDSP26でエコーキャンセル処理されて出力された選択音声信号S26が、声紋認証部32において声紋認証されて事前に登録した声紋と一致したとき、「1」として出力される認証合格信号S32を入力する。
The amplifier gain adjustment unit 34 and the imaging adjustment unit 36 input a microphone selection signal S251 indicating the number of the microphone selected by the DSP 25 via the microprocessor 23.
The amplifier gain adjustment unit 34 and the image pickup adjustment unit 36 have a voice print that has been pre-registered after the voice print authentication is performed by the voice print authentication unit 32 on the selected voice signal S26 output by the echo cancellation processing of the collected sound signal selected by the DSP 25 by the DSP 26. The authentication pass signal S32 output as “1” is input.

増幅器利得調整部34は第2実施の形態として述べた方法により、マイクロフォン選択信号S251で示されたマイクロフォンに対応する利得可変型増幅器の利得を大きな第1の利得に設定する。その結果は第2実施の形態において述べたと同様である。   The amplifier gain adjustment unit 34 sets the gain of the variable gain amplifier corresponding to the microphone indicated by the microphone selection signal S251 to a large first gain by the method described in the second embodiment. The result is the same as that described in the second embodiment.

撮像調整部36は、マイクロフォン選択信号S251で示されたマイクロフォンに該当する、撮像調整部36に事前に設定された撮像条件情報をメモリから読みだして、その撮像条件情報に基づいてテレビカメラ装置40A1、40A2の撮像条件を調整する。
たとえば、マイクロフォン選択信号S251が第1マイクロフォンを示している場合、、第1マイクロフォンの方向および領域MIC1 AREA(図26、たとえば、図2の左方向)を撮像するための第1の撮像条件情報に基づいて、第1マイクロフォンの方向および領域MIC1AREAを撮像するように、各テレビカメラ装置40A1、40A2の方向または向き(上下、左右)を制御する。第1の撮像条件情報がズーム情報を含んでいる場合は、撮像調整部36はさらにテレビカメラ装置40A1、40A2にズーム処理を指示する。
テレビカメラ装置40A1、40A2は撮像調整部36で指示された条件で撮像を行い、その結果を図示しない回線を用いて遠隔の相手方の音声集音・映像撮像装置のプロジェクタ装置に送出する。また、テレビカメラ装置40A1、40A2の撮像結果を、その音声集音・映像撮像装置のプロジェクタ装置に表示することもできる。
このように、遠隔の相手方の音声集音・映像撮像装置が設置されている室内のモニタ装置としてのプロジェクタ装置に、DSP25でマイクロフォンが選択され、さらに、声紋認証部32において声紋認証されたマイクロフォンを用いて発言した会議出席者の映像が選択表示される。
The imaging adjustment unit 36 reads imaging condition information set in advance in the imaging adjustment unit 36 corresponding to the microphone indicated by the microphone selection signal S251 from the memory, and based on the imaging condition information, the TV camera device 40A1. , 40A2 imaging conditions are adjusted.
For example, when the microphone selection signal S251 indicates the first microphone, the first imaging condition information for imaging the direction of the first microphone and the region MIC1 AREA (FIG. 26, for example, the left direction in FIG. 2) Based on this, the direction or direction (vertical, horizontal) of each television camera device 40A1, 40A2 is controlled so that the direction of the first microphone and the area MIC1AREA are captured. When the first imaging condition information includes zoom information, the imaging adjustment unit 36 further instructs the television camera devices 40A1 and 40A2 to perform zoom processing.
The TV camera devices 40A1 and 40A2 perform image capturing under the conditions instructed by the image capturing adjustment unit 36, and send the result to the projector device of the remote sound collecting / video image capturing device using a line (not shown). In addition, the imaging results of the television camera devices 40A1 and 40A2 can be displayed on the projector device of the sound collection / video imaging device.
As described above, a microphone selected by the DSP 25 and further subjected to voice print authentication by the voice print authentication unit 32 is selected as a projector device serving as a monitor device in a room where the voice collecting / imaging device of the remote party is installed. The video of the attendees who used to speak is selected and displayed.

撮像調整部36は、テレビカメラ装置40A1、40A2が撮像した映像信号に、撮像条件情報に含まれる、氏名、役職などの情報を重畳することができる。その結果、通話装置が設置されている室内のモニタ装置としてのプロジェクタ装置、および、遠隔の相手方のプロジェクタ装置には、テレビカメラ装置40A1、40A2で撮像した映像だけでなく、氏名、役職などの情報が重畳されて表示される。   The imaging adjustment unit 36 can superimpose information such as name and title included in the imaging condition information on the video signals captured by the television camera devices 40A1 and 40A2. As a result, the projector device as the indoor monitor device in which the communication device is installed, and the remote counterpart projector device, not only the images captured by the TV camera devices 40A1 and 40A2, but also information such as name and title Are superimposed and displayed.

動作形態
図28〜図29を参照して第3実施の形態の音声集音・映像撮像装置の動作形態を述べる。
1.初期状態として、撮像調整部36はテレビカメラ装置40A1、40A2を図2に図解したように、広角にしておく。
2.図28、ステップS51:会議が始まり発言者があると、通話装置は上述した方法で発言者の音声を検出する。
3.ステップS52〜53:好ましくは、通話装置の声紋認証部32において発言者の声紋を抽出して声紋認識処理を行う。声紋登録装置32Aに登録されていない声紋の場合、ステップS60の処理に移行する。
4.ステップS60〜64:新しい声紋の場合の処理を行う。この処理の詳細は後述する。
5.ステップS54:声紋認証部32は前回と同じ声紋か、または、音を検出したマイクロフォンが前回と同じか否かをチェックし、前回と同じ声紋または前回と同じマイクロフォンが選択されている場合は、ステップS51の処理に戻る。
前回と異なる声紋または前回と異なるマイクロフォンが選択されている場合は、ステップS55の処理に移行する。
6.ステップS55〜59:ステップS60〜64:
これらの処理を述べる前に、図29に示したサブルーチン1および図30に示したサブルーチン2の処理を述べる。
Mode of Operation The mode of operation of the sound collection / video imaging apparatus of the third embodiment will be described with reference to FIGS.
1. As an initial state, the imaging adjustment unit 36 sets the TV camera devices 40A1 and 40A2 to a wide angle as illustrated in FIG.
2. FIG. 28, Step S51: When the conference starts and there is a speaker, the call device detects the voice of the speaker by the method described above.
3. Steps S52 to 53: Preferably, the voiceprint authentication unit 32 of the call device extracts the voiceprint of the speaker and performs voiceprint recognition processing. If the voiceprint is not registered in the voiceprint registration device 32A, the process proceeds to step S60.
4). Steps S60 to S64: Processing for a new voiceprint is performed. Details of this processing will be described later.
5). Step S54: The voiceprint authentication unit 32 checks whether it is the same voiceprint as the previous time or whether the microphone that detected the sound is the same as the previous time, and if the same voiceprint as the previous time or the same microphone as the previous time is selected, the step The process returns to S51.
If a voiceprint different from the previous time or a microphone different from the previous time is selected, the process proceeds to step S55.
6). Steps S55 to 59: Steps S60 to 64:
Before describing these processes, the processes of subroutine 1 shown in FIG. 29 and subroutine 2 shown in FIG. 30 will be described.

図29、サブルーチン1
ステップS70:音声集音・映像撮像装置を設置したとき、通話装置の各マイクロフォン、テレビカメラ装置40A1、40A2の座標位置を、撮像調整部36に入力しておく。これらの情報は、通話装置において発言者の音の方向(マイクロフォン位置)を特定し、たとえば、さらに声紋認識で発言者を特定したとき、各テレビカメラ装置40A1、40A2からその発言者の方向および距離を算出する情報となる。
FIG. 29, subroutine 1
Step S70: When the sound collection / video imaging device is installed, the coordinate positions of the microphones of the communication device and the TV camera devices 40A1 and 40A2 are input to the imaging adjustment unit 36. These pieces of information specify the direction (microphone position) of the speaker's sound in the communication device. For example, when the speaker is further specified by voiceprint recognition, the direction and distance of the speaker from each TV camera device 40A1, 40A2. Is the information for calculating.

ステップS71:撮像調整部36はDSP25の結果である選択された2つのマイクロフォンから算出した音源方向検出データを入手する。
上述した実施の形態において、話者がどのマイクの近くにいるのかを検出し、そのマイク付近を撮影するのにふさわしいテレビカメラ装置40A1、40A2が選択される。
Step S71: The imaging adjustment unit 36 obtains sound source direction detection data calculated from the two selected microphones as a result of the DSP 25.
In the embodiment described above, it is detected which microphone the speaker is near, and the TV camera devices 40A1 and 40A2 suitable for photographing the vicinity of the microphone are selected.

なお、第1実施の形態においては、対向して配置された1対のマイクロフォンを用いて、最も音の高い音を検出したマイクロフォンを選択する場合を好適実施の形態として述べたが、本実施の形態においては、図2および図31に図解したように、たとえば、6個のマイクロフォンに対して8名の会議出席者がいる場合をも想定している。
このような場合、マイクロフォンの数と会議出席者の数とが1対1に対応していないから、隣接する2つのマイクロフォンの間に位置する会議出席者がいることになる。このような場合、第1実施の形態のように1つのマイクロフォンのみを選択するのではなく、最大の音を検出した第1マイクロフォンと次に高い音を検出した第2マイクロフォンとを選択し、これら2つのマイクロフォンから音源方向を検出する。したがって、音源方向データは、2つの隣接するマイクロフォンの向き(配置、第1の配置条件)から規定できる。
In the first embodiment, the case of selecting the microphone that detects the highest sound using a pair of microphones arranged opposite to each other has been described as a preferred embodiment. In the embodiment, as illustrated in FIGS. 2 and 31, for example, it is assumed that there are eight conference attendees for six microphones.
In such a case, since the number of microphones and the number of conference attendees do not correspond one-to-one, there are conference attendees located between two adjacent microphones. In such a case, instead of selecting only one microphone as in the first embodiment, the first microphone that detects the highest sound and the second microphone that detects the next highest sound are selected, and these are selected. The direction of the sound source is detected from the two microphones. Therefore, the sound source direction data can be defined from the directions (arrangement, first arrangement condition) of two adjacent microphones.

音源方向の特定と、テレビカメラ装置40A1、40A2の撮影条件との関係は、たとえば、図31に図解したように、会議出席者A1の顔の正面が撮像できるテレビカメラ装置40A2で会議出席者A1の顔を撮影し、他方のテレビカメラ装置40A1で会議室の右側全体、または、議長(たとえば、会議出席者A4)、または、会議出席者全員を撮影する。   The relationship between the specification of the sound source direction and the shooting conditions of the TV camera devices 40A1 and 40A2 is, for example, as illustrated in FIG. 31, with the TV camera device 40A2 that can capture the front of the face of the conference participant A1 being the conference participant A1. The other TV camera device 40A1 shoots the entire right side of the conference room, the chairperson (for example, conference attendant A4), or all conference attendees.

ステップS72:撮像調整部36は音源方向検出データに変化があるか否かをチェックし、変化がなければステップS71の処理に戻り、変化があれば、ステップS73の処理に移行する。   Step S72: The imaging adjustment unit 36 checks whether or not there is a change in the sound source direction detection data. If there is no change, the process returns to step S71, and if there is a change, the process proceeds to step S73.

ステップS73:撮像調整部36は、隣接する2つのマイクロフォンの向き(方向)から、交点を算出する。なお、交点の算出に使用するデータは、ステップS70で設定したデータを用いる。
これにより、通話装置10Aの中心から、発言者の位置が推定できる。
Step S73: The imaging adjustment unit 36 calculates an intersection point from the directions (directions) of two adjacent microphones. Note that the data set in step S70 is used as data used to calculate the intersection.
Thereby, the position of the speaker can be estimated from the center of the communication device 10A.

ステップS74:撮像調整部36は、算出した交点までの各テレビカメラ装置40A1、40A2の距離、上下左右方向(または上下左右向き)を算出する。なお、この距離および方向の算出に使用するデータは、ステップS70で設定したデータを用いる。
ステップS75、76:撮像調整部36は、算出した向き(方向)に各テレビカメラ装置40A1、40A2をパンさせる。その後、撮像調整部36の処理は、呼び出された図28のステップに次に戻る。
Step S74: The imaging adjustment unit 36 calculates the distance, vertical and horizontal directions (or vertical and horizontal directions) of each of the television camera devices 40A1 and 40A2 to the calculated intersection. Note that the data set in step S70 is used as data used to calculate the distance and direction.
Steps S75 and 76: The imaging adjustment unit 36 pans the television camera devices 40A1 and 40A2 in the calculated direction (direction). Thereafter, the processing of the imaging adjustment unit 36 returns to the called step of FIG.

図30、サブルーチン2
ステップS80、81:図28に図解したメインルーチンのサブルーチン2の結果(テレビカメラ装置40A1、40A2の撮像結果)を見る。その結果、出力がなければステップS80の処理に戻り、出力があればステップS82に移行する。
FIG. 30, subroutine 2
Steps S80 and 81: The results of the subroutine 2 of the main routine illustrated in FIG. 28 (imaging results of the television camera devices 40A1 and 40A2) are viewed. As a result, if there is no output, the process returns to step S80, and if there is an output, the process proceeds to step S82.

ステップS82〜84:撮像調整部36はテレビカメラ装置40A1、40A2の撮像結果(画像)の輪郭、すなわち、会議出席者の輪郭を探し(ステップS82)、その輪郭が画像の枠(フレーム)一杯になるように、テレビカメラ装置40A1、40A2に対してズーム制御を行う。上述したように、たとえば、図31に図解したように、会議出席者A1を撮影する場合は、会議出席者A1の顔の正面が撮像できるテレビカメラ装置40A2で会議出席者A1の顔を撮影し、ズーム処理を行う。ズーム処理後、呼び出されたメインルーチンに次のステップSに戻る。
すなわち、テレビカメラ装置40A1、40A2の撮像結果から撮像調整部36が話者の発言している状態を画像認識し、話者の顔の輪郭が画枠の中心になるよう、テレビカメラ装置40A1、40A2の向きをパン、チルトにて変化させ、ズームを行う。また、同時に話者の声紋を登録する。
Steps S82 to 84: The imaging adjustment unit 36 searches for the outline of the imaging results (images) of the TV camera devices 40A1 and 40A2, that is, the outline of the conference attendee (step S82), and the outline fills the frame (frame) of the image. Thus, zoom control is performed on the television camera devices 40A1 and 40A2. As described above, for example, as illustrated in FIG. 31, when the conference attendee A1 is photographed, the face of the conference attendant A1 is photographed by the TV camera device 40A2 that can capture the front face of the conference attendee A1. Perform zoom processing. After the zoom process, the process returns to the next step S in the called main routine.
That is, from the imaging results of the TV camera devices 40A1 and 40A2, the imaging adjustment unit 36 recognizes the state of the speaker speaking, and the TV camera devices 40A1 and 40A1 are configured so that the outline of the speaker's face is at the center of the image frame. The zoom is performed by changing the direction of 40A2 by pan and tilt. At the same time, the voiceprint of the speaker is registered.

この時、撮像調整部36がもし2人以上の画像を認識してしまった場合には、モニタ装置としてのプロジェクタ装置60Aにその旨を表示する。たとえば、認識した全員の顔を表示するので、話者はその中からどれが自分であるかを選択し、必要があれば、手動でパン、チルト、ズーム操作を行い、出来る限り話者一人だけが画枠に入るようにする。   At this time, if the image capturing adjustment unit 36 recognizes two or more images, the fact is displayed on the projector device 60A as a monitor device. For example, since all recognized faces are displayed, the speaker selects which one of them is his / herself, and if necessary, manually performs pan, tilt and zoom operations. To enter the image frame.

ステップS55〜59:ステップS60〜64:
図29に示したサブルーチン1および図30に示したサブルーチン2の処理を参照して、これらの処理を述べる。
ステップS55〜56、60〜61:音源方向検出データをサブルーチン1に渡してテレビカメラ装置40A1、40A2のうち該当するものをパンさせる。
ステップS57〜58、62〜63:画像認識処理を行うサブルーチン2の処理を行う。
ステップS59、64:声紋認証部32による声紋データと、テレビカメラ装置40A1、40A2のパン、チルト、ズームのデータを1対として、たとえば、撮像調整部36のデータベースに保存し、次回の処理に用いる。
すなわち、話者の声紋と、その話者を明瞭に映し出すためのカメラのパン、チルト、ズームのデータを一対一で対応させ、データとして登録する。その結果、以後、話者が変わっても、話者の声紋を登録データと照合することにより、話者を明瞭に映し出すためのカメラのパン、チルト、ズーム動作が自動的に行われる。
Steps S55 to 59: Steps S60 to 64:
These processes will be described with reference to the processes of the subroutine 1 shown in FIG. 29 and the subroutine 2 shown in FIG.
Steps S55 to 56, 60 to 61: The sound source direction detection data is passed to the subroutine 1, and the corresponding one of the TV camera devices 40A1 and 40A2 is panned.
Steps S57 to 58, 62 to 63: Subroutine 2 processing for performing image recognition processing is performed.
Steps S59 and S64: The voiceprint data by the voiceprint authentication unit 32 and the pan, tilt, and zoom data of the television camera devices 40A1 and 40A2 are stored as a pair in, for example, the database of the imaging adjustment unit 36 and used for the next processing. .
That is, a speaker's voiceprint and camera pan, tilt, and zoom data for clearly displaying the speaker are made to correspond one-to-one and registered as data. As a result, even if the speaker changes thereafter, the camera's pan, tilt and zoom operations are automatically performed to clearly show the speaker by comparing the speaker's voiceprint with the registered data.

なお、マイクロフォンの選択が適正に行われない場合、あるいは、マイクロフォンの選択が行われたが声紋認証が合格されない、デフォルト状態のときは、撮像調整部36は、デフォルト処理を行う。そのようなデフォルト処理としては、撮像調整部36は、図2に図解した初期状態、すなわち、各テレビカメラ装置40A1、40A2が会議室の左右を分担して撮像する撮像条件をテレビカメラ装置40A1、40A2に与える。その結果、テレビカメラ装置40A1、40A2は初期状態の映像を撮像する。   If the microphone is not selected properly, or if the microphone is selected but voiceprint authentication is not passed, the imaging adjustment unit 36 performs default processing. As such default processing, the imaging adjustment unit 36 sets the imaging conditions for imaging in the initial state illustrated in FIG. 2, that is, the television camera devices 40A1 and 40A2 share the right and left of the conference room. Give to 40A2. As a result, the television camera devices 40A1 and 40A2 capture an initial image.

なお、デフォルトのとき、増幅器利得調整部34は利得可変型増幅器301〜306の利得調整を行わない。   At the default, the amplifier gain adjusting unit 34 does not adjust the gain of the variable gain amplifiers 301 to 306.

以下、発言者の撮影例を述べる。
第1マイクロフォンの方向および領域MIC1 AREAにいる会議参加者A1が第1マイクロフォンMC1を用いて発言したとする。第1マイクロフォンMC1の集音信号は、A/D変換器271でディジタル信号に変換されてDSP25に入力され、第1実施の形態において述べた方法により選択される。このとき、DSP25はマイクロプロセッサ23に第1マイクロフォンMC1を選択したことを示すマイクロフォン選択信号S251を出力する。マイクロフォン選択信号S251はマイクロプロセッサ23から撮像方向調整部36に出力される。
また、DSP25で選択された第1マイクロフォンの集音信号はDSP26に出力され、DSP26でエコーキャンセルされ、選択音声信号S26としてD/A変換器282、増幅器291を経由して声紋認証部32に入力される。
声紋認証部32は、選択音声信号S26が声紋認証部32内の声紋登録メモリM2に事前に登録されている声紋に一致するか否かを認証する。会議参加者A1の声紋が声紋認証部32の声紋登録メモリM2に事前に登録されていれば、声紋認証部32から合格を示す「1」の認証合格信号S32が増幅器利得調整部34と撮像調整部36に出力される。
他方、会議参加者A1の声紋が声紋認証部32の声紋登録メモリM2に事前に登録されていなければ、声紋認証部32から不合格を示す「0」の認証合格信号S32が撮像調整部36に出力される。
An example of shooting a speaker will be described below.
The direction of the first microphone and the conference participant A1 in the area MIC1 AREA speaks using the first microphone MC1. The collected sound signal of the first microphone MC1 is converted into a digital signal by the A / D converter 271 and input to the DSP 25, and is selected by the method described in the first embodiment. At this time, the DSP 25 outputs to the microprocessor 23 a microphone selection signal S251 indicating that the first microphone MC1 has been selected. The microphone selection signal S251 is output from the microprocessor 23 to the imaging direction adjustment unit 36.
The collected sound signal of the first microphone selected by the DSP 25 is output to the DSP 26, echo-cancelled by the DSP 26, and input to the voiceprint authentication unit 32 via the D / A converter 282 and the amplifier 291 as the selected sound signal S26. Is done.
The voiceprint authentication unit 32 authenticates whether the selected voice signal S26 matches a voiceprint registered in advance in the voiceprint registration memory M2 in the voiceprint authentication unit 32. If the voiceprint of the conference participant A1 has been registered in advance in the voiceprint registration memory M2 of the voiceprint authentication unit 32, an authentication pass signal S32 of “1” indicating acceptance from the voiceprint authentication unit 32 and the imaging adjustment with the amplifier gain adjustment unit 34 Is output to the unit 36.
On the other hand, if the voice print of the conference participant A1 is not registered in advance in the voice print registration memory M2 of the voice print authentication unit 32, an authentication pass signal S32 of “0” indicating failure is sent from the voice print authentication unit 32 to the imaging adjustment unit 36. Is output.

撮像調整部36は、「1」の認証合格信号S32が入力されたとき、マイクロフォン選択信号S251で示された第1マイクロフォンMC1についての第1撮像条件情報に基づいて、テレビカメラ装置40A1、40A2を制御する。その結果、第1マイクロフォンの方向および領域MIC1 AREAが撮像されて、会議参加者A1が撮像される。
撮像調整部36は会議参加者A1が発言をしている間、第1撮像条件情報に基づいてテレビカメラ40で第1マイクロフォンの方向および領域MIC1 AREAを撮像を継続させる。
When the authentication pass signal S32 of “1” is input, the imaging adjustment unit 36 sets the television camera devices 40A1 and 40A2 based on the first imaging condition information about the first microphone MC1 indicated by the microphone selection signal S251. Control. As a result, the direction of the first microphone and the area MIC1 AREA are imaged, and the conference participant A1 is imaged.
The imaging adjustment unit 36 continues imaging the direction of the first microphone and the area MIC1 AREA with the television camera 40 based on the first imaging condition information while the conference participant A1 is speaking.

次に、声紋認証部32には声紋が登録されていない、第3のマイクロフォンMC3を用いた会議参加者A3が発言し、DSP25においてその発言が選択されたとする。
DSP25からは、第3のマイクロフォンMC3を示すマイクロフォン選択信号S251がマイクロプロセッサ23を経由して撮像調整部36に出力される。もちろん、第3のマイクロフォンMC3の集音信号はDSP26に入力されてエコーキャンセル処理され、DSP26として声紋認証部32に出力される。
会議参加者A3の声紋は声紋認証部32に登録されていないから、声紋認証部32からは、不合格を示す「0」の認証合格信号S32が撮像調整部36に出力される。
撮像調整部36は、「0」の認証合格信号S32に入力されたとき、デフォルトと判断する。デフォルトの場合の処理としては、撮像調整部36は、たとえば、テレビカメラ装置40A1、40A2の撮像条件を継続するか、初期状態として会議室の左右かつ会議者全体が撮像されるようにする。
Next, it is assumed that the conference participant A3 using the third microphone MC3 who has no voiceprint registered in the voiceprint authentication unit 32 speaks and the DSP25 selects the speech.
From the DSP 25, a microphone selection signal S251 indicating the third microphone MC3 is output to the imaging adjustment unit 36 via the microprocessor 23. Of course, the collected sound signal of the third microphone MC3 is input to the DSP 26, subjected to echo cancellation processing, and output to the voiceprint authentication unit 32 as the DSP 26.
Since the voice print of the conference participant A3 is not registered in the voice print authentication unit 32, the voice print authentication unit 32 outputs an authentication pass signal S32 of “0” indicating failure to the imaging adjustment unit 36.
The imaging adjustment unit 36 determines that it is the default when the authentication pass signal S32 of “0” is input. As a process in the case of default, for example, the imaging adjustment unit 36 continues the imaging conditions of the television camera devices 40A1 and 40A2, or the left and right of the conference room and the entire conference person are imaged as an initial state.

複数の会議参加者が同時に発言した時は、DSP25において音のレベルの高い方が選択され、その後は、上記の声紋認証の結果により撮像調整部36を介してテレビカメラ装置40A1、40A2の撮像条件が制御される。   When a plurality of conference participants speak at the same time, the DSP 25 selects the one with the higher sound level, and thereafter, the imaging conditions of the TV camera devices 40A1 and 40A2 through the imaging adjustment unit 36 according to the result of the voiceprint authentication described above. Is controlled.

以上の処理は遠隔会議の先方の音声集音・映像撮像装置でも全く同様に行われる。
また声紋登録、認証が遠隔の先方で使えない場合、先方の会議参加者の声紋登録や会議中の声紋認証を通話装置が設置されているこちら側で行い、先方の音声集音・映像撮像装置のテレビカメラ装置の撮像条件を制御することもできる。
The above processing is performed in exactly the same way in the audio collecting / imaging device at the other end of the remote conference.
If voiceprint registration and authentication cannot be used at the remote site, voiceprint registration and voiceprint authentication during the conference will be performed on this side where the call device is installed. It is also possible to control the imaging conditions of the TV camera apparatus.

第3実施の形態の音声集音・映像撮像装置を用いることにより、明瞭な音声および映像による遠隔会議の相手側に伝わるのは勿論であるが、会議参加者が発言するとその声紋が認証され、テレビカメラ装置がその声紋認証された発言者の方を向いて映すことができる。   Of course, by using the sound collection / video imaging device of the third embodiment, it is transmitted to the other party of the remote conference by clear voice and video, but when the conference participant speaks, the voiceprint is authenticated, The TV camera device can be directed toward the voice-printed speaker.

第3実施の形態によれば、会議参加者ごとに個別のマイクロフォンを設けることも不要であるし、システム管理者、たとえば、議長によるテレビカメラ装置40A1、40A2の撮像条件の制御も不要である。   According to the third embodiment, it is not necessary to provide a separate microphone for each conference participant, and it is not necessary to control the imaging conditions of the TV camera devices 40A1 and 40A2 by the system administrator, for example, the chairperson.

さらに会議中に会議参加者が場所を移動しても、DSP25におけるマイクロフォン選択処理により有効なマイクロフォンが選択されかつ声紋認証部32における声紋の認証により、テレビカメラ装置40A1、40A2をその会議参加者のいる方向および領域に向かわせることができる。   Furthermore, even if a conference participant moves during the conference, an effective microphone is selected by the microphone selection process in the DSP 25 and the voiceprint authentication unit 32 performs voiceprint authentication, so that the TV camera devices 40A1 and 40A2 are connected to the conference participant. Can be directed in the direction and area.

また会議中はシステム管理者(たとえば、議長)がなにもしなくても、テレビジョン受像機またはテレビジョン受像機に発言者の名前とかが自動的に表示される。   During the conference, the name of the speaker is automatically displayed on the television receiver or the television receiver without any action from the system administrator (for example, chairperson).

以上、第3実施の形態の好適な例示として、図26および図27を参照して、DSP25におけるマイクロフォン選択を行い、さらに、声紋認証部32における声紋認証をした結果、撮像調整部36がテレビカメラ装置40A1、40A2を撮像条件に従って制御する場合について述べたが、基本的には、DSP25によるマイクロフォン選択結果のみについて、撮像調整部36によるテレビカメラ装置40A1、40A2の撮像制御を行うこともできる。   As described above, as a preferable example of the third embodiment, referring to FIGS. 26 and 27, the microphone selection in the DSP 25 is performed, and the voice print authentication in the voice print authentication unit 32 is performed. Although the case where the devices 40A1 and 40A2 are controlled in accordance with the imaging conditions has been described, basically, the imaging control of the television camera devices 40A1 and 40A2 by the imaging adjustment unit 36 can be performed only for the microphone selection result by the DSP 25.

第3実施の形態に実施に際しては、第1実施の形態におい述べたように、マイクロフォンが等角度で放射状に配置されている場合には限定されない。マイクロフォンが等角度で放射状に配置されていない場合でも、DSP25は、たとえば、最大振幅を示すマイクロフォンを選択することができ、声紋認証部32は事前に登録された声紋と一致しているか否かを認証することができる。
この場合でも、撮像調整部36は事前に設定された撮像条件情報に基づいて、テレビカメラ装置40A1、40A2の撮像条件を制御する。
The implementation of the third embodiment is not limited to the case where the microphones are arranged radially at an equal angle as described in the first embodiment. Even when the microphones are not arranged radially at an equal angle, the DSP 25 can select, for example, a microphone that exhibits the maximum amplitude, and the voiceprint authentication unit 32 determines whether or not it matches the voiceprint registered in advance. It can be authenticated.
Even in this case, the imaging adjustment unit 36 controls the imaging conditions of the television camera devices 40A1 and 40A2 based on the imaging condition information set in advance.

本発明の第3実施の形態によれば、会議中に話者が変わっても、話者を映し出すカメラの選択、及び選択されたカメラのパン、チルト、ズームが自動的に変わるため、従来のように手動でセッティングを変更する必要がなく、常に話者の明瞭な映像を映し出し続けることができる。
また、話者方向検出技術と画像認識技術を用いることで、話者を映し出すカメラのパン、チルト、ズーム動作が自動的に行われ、話者の明瞭な映像を映し出すことができる。特に、話者の声紋照合を行うことで、話者が変わる度に自動的にカメラのパン、チルト、ズーム動作が行われ、新しい話者を明瞭に撮影することが可能である。
また本発明の第3実施の形態によれば、マイクロフォンとテレビカメラ装置40A1、40A2の相対位置が厳密でなくても、上述した画像認識処理などにより実用的な画像及び音声が収録できる。
According to the third embodiment of the present invention, even if the speaker changes during the conference, the selection of the camera that displays the speaker and the pan, tilt, and zoom of the selected camera automatically change. Thus, it is not necessary to change the setting manually, and a clear image of the speaker can always be projected.
In addition, by using the speaker direction detection technology and the image recognition technology, panning, tilting, and zooming operations of a camera that displays the speaker are automatically performed, and a clear image of the speaker can be displayed. In particular, by performing speaker voiceprint matching, the camera pans, tilts, and zooms automatically whenever the speaker changes, and a new speaker can be clearly photographed.
Further, according to the third embodiment of the present invention, even if the relative positions of the microphone and the TV camera devices 40A1 and 40A2 are not strict, practical images and sounds can be recorded by the above-described image recognition processing or the like.

本発明の実施に際しては、上述した複数の実施の形態を適宜組み合わせることができる。   In carrying out the present invention, the above-described embodiments can be combined as appropriate.

図1(A)は本発明の音声集音・映像撮像装置が適用される1例しての会議システムの概要を示す図であり、図1(B)は図1(A)における音声集音・映像撮像装置の通話装置が載置される状態を示す図であり、図1(C)はテーブルに載置された通話装置と会議参加者との配置を示す図である。FIG. 1A is a diagram showing an outline of a conference system as an example to which the sound collection / video imaging apparatus of the present invention is applied, and FIG. 1B is a sound collection in FIG. -It is a figure which shows the state in which the communication apparatus of a video imaging device is mounted, and FIG.1 (C) is a figure which shows arrangement | positioning with the communication apparatus mounted on the table, and a conference participant. 図2は本発明の実施の形態の音声集音・映像撮像装置の平面構成図である。FIG. 2 is a plan configuration diagram of the sound collection / video imaging apparatus according to the embodiment of the present invention. 図3は本発明の実施の形態の通話装置の斜視図である。FIG. 3 is a perspective view of the communication device according to the embodiment of the present invention. 図4は図3に図解した通話装置の内部断面図である。FIG. 4 is an internal cross-sectional view of the communication device illustrated in FIG. 図5は図3に図解した通話装置の上部カバーを取り外したマイクロフォン・電子回路収容部の平面図である。FIG. 5 is a plan view of the microphone / electronic circuit housing portion from which the upper cover of the communication device illustrated in FIG. 3 is removed. 図6は第1実施の形態のマイクロフォン・電子回路収容部の主要回路の構成および接続状態を示す図であり、第1のディジタルシグナルプロセッサ(DSP1)および第2のディジタルシグナルプロセッサ(DSP2)の接続の接続状態を示している。FIG. 6 is a diagram showing the configuration and connection state of the main circuit of the microphone / electronic circuit housing portion of the first embodiment, and the connection of the first digital signal processor (DSP1) and the second digital signal processor (DSP2). Shows the connection state. 図7は図5に図解したマイクロフォンの特性図である。FIG. 7 is a characteristic diagram of the microphone illustrated in FIG. 図8(A)〜(D)は、図6に図解した特性を持つマイクロフォンの指向性を分析した結果を示すグラフである。8A to 8D are graphs showing the results of analyzing the directivity of a microphone having the characteristics illustrated in FIG. 図9は本発明の通話装置の変形態様の部分構成図である。FIG. 9 is a partial configuration diagram of a modification of the communication device of the present invention. 図10は第1のディジタルシグナルプロセッサ(DSP1)における全体処理内容の概要を示すグラフである。FIG. 10 is a graph showing an outline of the entire processing contents in the first digital signal processor (DSP 1). 図11は本発明の通話装置内のフィルタリング処理を示す図である。FIG. 11 is a diagram showing filtering processing in the communication device of the present invention. 図12は図11の処理結果を示す周波数特性図である。FIG. 12 is a frequency characteristic diagram showing the processing result of FIG. 図13は本発明のバンドパス・フィルタリング処理とレベル変換処理を示すブロック図である。FIG. 13 is a block diagram showing bandpass filtering processing and level conversion processing according to the present invention. 図14は図13の処理を示すフローチャートである。FIG. 14 is a flowchart showing the processing of FIG. 図15は本発明の通話装置における発言開始、終了を判定する処理を示すグラフである。FIG. 15 is a graph showing a process for determining the start and end of speech in the communication device of the present invention. 図16は本発明の通話装置における通常処理の流れを示すグラフである。FIG. 16 is a graph showing the flow of normal processing in the communication device of the present invention. 図17は本発明の通話装置における通常処理の流れを示すフローチャートである。FIG. 17 is a flowchart showing the flow of normal processing in the communication device of the present invention. 図18は本発明の通話装置におけるマイクロフォン切り替え処理を図解したブロック図である。FIG. 18 is a block diagram illustrating a microphone switching process in the communication device of the present invention. 図19は本発明の通話装置におけるマイクロフォン切り替え処理の方法を図解したブロック図である。FIG. 19 is a block diagram illustrating a method of microphone switching processing in the communication device of the present invention. 図20は第2実施の形態のマイクロフォン・電子回路収容部の主要回路の構成および接続状態を示す図である。FIG. 20 is a diagram showing a configuration and connection state of main circuits of the microphone / electronic circuit housing portion of the second embodiment. 図21は図20に図解した声紋認証部の処理を示すグラフである。FIG. 21 is a graph showing the processing of the voiceprint authentication unit illustrated in FIG. 図22は図20に図解した声紋認証部の処理を示す第1のフローチャートである。FIG. 22 is a first flowchart showing the processing of the voiceprint authentication unit illustrated in FIG. 図23は図20に図解した声紋認証部の処理を示す第2のフローチャートである。FIG. 23 is a second flowchart showing the processing of the voiceprint authentication unit illustrated in FIG. 図24は図20に図解した声紋認証部の処理を示す第3のフローチャートである。FIG. 24 is a third flowchart showing the processing of the voiceprint authentication unit illustrated in FIG. 図25は図20に図解した声紋認証部の処理を示す第4のフローチャートである。FIG. 25 is a fourth flowchart showing the processing of the voiceprint authentication unit illustrated in FIG. 図26は第3実施の形態の会議装置の構成図である。FIG. 26 is a configuration diagram of the conference apparatus according to the third embodiment. 図27は第3実施の形態の会議装置の他の構成図である。FIG. 27 is another configuration diagram of the conference apparatus according to the third embodiment. 図28は第3実施の形態の動作を示すフローチャートである。FIG. 28 is a flowchart showing the operation of the third embodiment. 図29は第3実施の形態の緒と検出から撮影までの処理の流れ(その1)を示すフローチャートである。FIG. 29 is a flowchart showing the first embodiment and the flow of processing from detection to photographing (part 1). 図30は第3実施の形態の緒と検出から撮影までの処理の流れ(その2)を示すフローチャートである。FIG. 30 is a flowchart showing the process flow (No. 2) from detection to photographing in the third embodiment. 図31は第3実施の形態のテレビカメラ装置の撮像状態を示す図である。FIG. 31 is a diagram illustrating an imaging state of the television camera apparatus according to the third embodiment.

符号の説明Explanation of symbols

1A、1B・・音声集音・映像撮像装置
10A、10B・・通話装置(音声集音手段)
11・・上部カバー、12・・音反射板、13・・連結部材
14・・スピーカ収容部、15・・操作部、16・・受話再生スピーカ
17・・拘束部材、18・・ダンパ
2・・マイクロフォン・電子回路収容部
MC1〜MC・・マイクロフォン
21・・プリント基板、22・・マイクロフォン支持部材
23・・マイクロプロセッサ、24・・コーデック
25・・第1のDSP、26・・第2のDSP
27・・A/D変換器ブロック、271〜274・・A/D変換器
28・・D/A変換器ブロック、29・・増幅器ブロック
30・・マイクロフォン選択結果表示手段
301〜306・・可変利得型増幅器
32・・声紋認証部
34・・増幅器利得調整部
36・・撮像調整部
40(40A、40B)・・テレビカメラ装置(撮像手段)
1A, 1B..Voice sound collection / video imaging device 10A, 10B.
11 .. Upper cover, 12 .... Sound reflector, 13 .... Connecting member
14 .. Speaker housing part, 15 .. Operation part, 16 ..
17 .. Restraining member 18.. Damper 2.. Microphone · Electronic circuit housing
MC1 ~ MC ・ ・ Microphone
21 .. Printed circuit board, 22 .. Microphone support member
23. Microprocessor, 24. Codec
25..First DSP, 26..Second DSP
27 ·· A / D converter block, 271 to 274 ·· A / D converter
28..D / A converter block, 29..Amplifier block
30 .. Microphone selection result display means
301-306 .. Variable gain amplifier
32. Voiceprint authentication department
34 .. Amplifier gain adjustment section
36. Imaging adjustment unit
40 (40A, 40B) .. TV camera device (imaging means)

Claims (6)

通話装置と、声紋認証手段と、撮像手段と、撮像調整手段とを具備し、
前記通話装置は、支持部と、複数のマイクロフォンと、音声信号処理手段と、マイクロフォン選択手段とを有し、
前記支持部は、音反射板と、連結部材と、スピーカ収容部とを有し、
前記スピーカ収容部は、音反射面と、底面と、上部音出力開口部とを有し、
前記音反射面と前記底面とで包囲された内腔にスピーカが収容されており、
前記スピーカ収容部の音反射面の断面がゆるやかな凸面を描いて形成されており、前記スピーカ収容部の前記音反射面と対向して配置された前記音反射板の音反射面の断面がゆるやかなラッパ型の弧を描いて形成されており、対向して配置された前記スピーカ収容部の音反射面と前記音反射板の音反射面とで前記スピーカからの再生音を水平方向に放射状に放出する音放射部を形成しており、
前記スピーカ収容部と前記音反射板とが前記連結部材によって連結されており、前記連結部材には拘束部材が貫通しており、前記拘束部材は前記スピーカ収容部の前記底面の固定部と前記音反射板の固定部との間を拘束しており、
前記音反射板は、前記スピーカの動作に起因する振動を吸収する振動吸収部材を介してプリント基板を支持しており、
前記プリント基板には、複数の話者が位置する場所に1対1に対応して配置され、指向性を持つ、複数のマイクロフォンと、前記音声信号処理手段とが配設されており、
前記声紋認証手段は、事前に複数の話者の声紋を登録している声紋登録メモリと、声紋処理のための辞書メモリと、前記マイクロフォンが集音した音声信号が前記声紋メモリに登録されている声紋に一致しているかを判定して利用者を認証する専門認証処理部とを有し、
前記通話装置内の前記音声信号処理手段は、前記複数のマイクロフォンの集音信号を増幅する利得調整可能な利得可変型増幅手段と、増幅器利得調整手段とを有し、前記増幅器利得調整手段は前記スピーカとの音響結合が等しくなるように前記利得可変型増幅手段の利得を調整し、かつ、前記声紋認証手段で話者が認証されたとき、当該話者に対応するマイクロフォンの集音信号を大きく増幅するように前記利得可変型増幅手段の利得を大きな第1の利得に設定し、
前記通話装置内の前記マイクロフォン選択手段は、前記音声信号処理手段から出力される前記複数のマイクロフォンの集音信号のうち最大振幅を示すマイクロフォンの信号に対応するマイクロフォンを話者が使用している使用マイクロフォンとして選択し、
前記撮像手段は、前記複数のマイクロフォンを使用する話者を撮像するため、少なくとも1つ所定配置条件に基づいて配置され、各撮像手段はパン、チルト、ズームが可能であり、
前記撮像調整手段は、前記声紋認証手段において話者の声紋が認証されたとき、前記マイクロフォン選択手段で選択された使用マイクロフォンの位置および向きと、前記撮像手段の配置位置とから、前記撮像手段から前記使用マイクロフォンまでの距離と前記撮像手段に対する前記使用マイクロフォンの向きとを算出し、該算出した距離と向きに基づいて前記撮像手段の撮像方向、パン、チルト、ズーム量の何れかを含む撮像条件を決定し、当該決定した撮像条件に基づいて前記撮像手段を制御する、
音声集音・映像撮像装置。
A communication device, a voiceprint authentication unit, an imaging unit, and an imaging adjustment unit;
The call device includes a support unit, a plurality of microphones, an audio signal processing unit, and a microphone selection unit.
The support portion includes a sound reflection plate, a connecting member, and a speaker housing portion.
The speaker housing portion has a sound reflection surface, a bottom surface, and an upper sound output opening,
A speaker is housed in a lumen surrounded by the sound reflecting surface and the bottom surface,
The cross section of the sound reflecting surface of the speaker housing portion is formed to draw a gentle convex surface, and the cross section of the sound reflecting surface of the sound reflecting plate disposed facing the sound reflecting surface of the speaker housing portion is gentle. The sound reproduced from the speaker is radiated in a horizontal direction between the sound reflecting surface of the speaker housing portion and the sound reflecting surface of the sound reflecting plate, which are formed so as to draw a trumpet-shaped arc. It forms a sound radiation part that emits,
The speaker housing portion and the sound reflecting plate are connected by the connecting member, and a constraining member passes through the connecting member, and the constraining member is connected to the fixing portion of the bottom surface of the speaker housing portion and the sound. Constrains between the fixed part of the reflector,
The sound reflector supports the printed circuit board through a vibration absorbing member that absorbs vibration caused by the operation of the speaker.
The printed circuit board has a plurality of microphones arranged in a one-to-one correspondence at locations where a plurality of speakers are located, and having directivity, and the audio signal processing means.
The voiceprint authentication means has a voiceprint registration memory in which voiceprints of a plurality of speakers are registered in advance, a dictionary memory for voiceprint processing, and a voice signal collected by the microphone is registered in the voiceprint memory. A specialized authentication processing unit that authenticates the user by determining whether the voiceprint matches,
The voice signal processing means in the communication device includes variable gain amplification means capable of gain adjustment for amplifying the collected sound signals of the plurality of microphones, and amplifier gain adjustment means, and the amplifier gain adjustment means includes the amplifier gain adjustment means. When the gain of the variable gain amplification means is adjusted so that the acoustic coupling with the speaker is equal, and when the speaker is authenticated by the voiceprint authentication means, the sound collection signal of the microphone corresponding to the speaker is increased. The gain of the variable gain amplification means is set to a large first gain so as to amplify,
The microphone selection means in the communication device is used by a speaker using a microphone corresponding to a microphone signal indicating the maximum amplitude among the collected sound signals of the plurality of microphones output from the audio signal processing means Select as microphone,
The imaging means is arranged based on at least one predetermined arrangement condition for imaging a speaker who uses the plurality of microphones, and each imaging means is capable of panning, tilting and zooming,
When the voiceprint of the speaker is authenticated by the voiceprint authentication unit, the imaging adjustment unit is configured to use the position and orientation of the used microphone selected by the microphone selection unit and the arrangement position of the imaging unit from the imaging unit. An imaging condition including any of an imaging direction, pan, tilt, and zoom amount of the imaging unit based on the calculated distance and direction, and calculating a distance to the used microphone and an orientation of the used microphone with respect to the imaging unit And controlling the imaging means based on the determined imaging condition,
Audio collection / video imaging device.
前記増幅器利得調整手段は、前記声紋認証手段で声紋の認証がされないとき、前記マイクロフォン選択手段で選択した選択マイクロフォンの集音信号を増幅する前記利得可変型増幅手段の利得を低い前記第1の利得より低い第2の利得に設定する、The amplifier gain adjustment means lowers the gain of the variable gain amplification means for amplifying the collected sound signal of the selected microphone selected by the microphone selection means when the voiceprint authentication means is not authenticated by the voiceprint authentication means. Set to a lower second gain,
請求項1に記載の音声集音・映像撮像装置。The sound collection / video imaging apparatus according to claim 1.
前記撮像調整手段は、前記撮像手段で撮像した話者の画像データを信号処理して、当該話者の顔を含む人体の輪郭データを検出し、検出した輪郭データが前記撮像手段の画像表示部の画枠内に一杯になるように、前記撮像手段をズーム動作させる
請求項1または2に記載の音声集音・映像撮像装置。
The imaging adjustment unit performs signal processing on the image data of the speaker imaged by the imaging unit, detects contour data of a human body including the speaker's face, and the detected contour data is an image display unit of the imaging unit. Zooming the imaging means so that it fills the image frame .
The sound collection / video imaging apparatus according to claim 1 or 2.
前記撮像調整手段は、前記声紋認証手段で声紋認証されないとき、前記撮像手段をデフォルト状態にする、
請求項1または2に記載の音声集音・映像撮像装置。
The imaging adjustment unit sets the imaging unit to a default state when a voiceprint is not authenticated by the voiceprint authentication unit.
The sound collection / video imaging apparatus according to claim 1 or 2.
前記撮像調整手段は、前記デフォルト状態として、前記撮像手段の前記撮像条件を変化させない、
請求項4に記載の音声集音・映像撮像装置。
The imaging adjustment unit does not change the imaging condition of the imaging unit as the default state;
The sound collection / video imaging apparatus according to claim 4.
前記撮像調整手段は、前記デフォルト状態として、前記撮像手段の撮像条件を予め設定された初期撮像条件にする、
請求項4に記載の音声集音・映像撮像装置。
The imaging adjustment unit sets the imaging condition of the imaging unit as a default initial imaging condition as the default state.
The sound collection / video imaging apparatus according to claim 4.
JP2003389892A 2003-11-19 2003-11-19 Audio pickup / video imaging apparatus and imaging condition determination method Expired - Lifetime JP4479227B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003389892A JP4479227B2 (en) 2003-11-19 2003-11-19 Audio pickup / video imaging apparatus and imaging condition determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003389892A JP4479227B2 (en) 2003-11-19 2003-11-19 Audio pickup / video imaging apparatus and imaging condition determination method

Publications (2)

Publication Number Publication Date
JP2005151471A JP2005151471A (en) 2005-06-09
JP4479227B2 true JP4479227B2 (en) 2010-06-09

Family

ID=34696485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003389892A Expired - Lifetime JP4479227B2 (en) 2003-11-19 2003-11-19 Audio pickup / video imaging apparatus and imaging condition determination method

Country Status (1)

Country Link
JP (1) JP4479227B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253589A1 (en) * 2005-09-21 2008-10-16 Koninklijke Philips Electronics N.V. Ultrasound Imaging System with Voice Activated Controls Using Remotely Positioned Microphone
JP2007318438A (en) * 2006-05-25 2007-12-06 Yamaha Corp Voice state data generating device, voice state visualizing device, voice state data editing device, voice data reproducing device, and voice communication system
KR100874470B1 (en) 2007-04-24 2008-12-18 주식회사 비에스이 Variable Directional Microphone Using Analog Signal Processor
US9030520B2 (en) 2011-06-20 2015-05-12 Polycom, Inc. Automatic camera selection for videoconferencing
JP6436400B2 (en) * 2014-03-28 2018-12-12 パナソニックIpマネジメント株式会社 Voice command input device and voice command input method
CN105162611B (en) * 2015-10-21 2019-03-15 方图智能(深圳)科技集团股份有限公司 A kind of digital conference system and management control method
JP7310388B2 (en) * 2019-07-10 2023-07-19 株式会社リコー Information processing device, information processing system, information processing method and information processing program
CN111614928B (en) * 2020-04-28 2021-09-28 深圳市鸿合创新信息技术有限责任公司 Positioning method, terminal device and conference system

Also Published As

Publication number Publication date
JP2005151471A (en) 2005-06-09

Similar Documents

Publication Publication Date Title
JP2005086365A (en) Talking unit, conference apparatus, and photographing condition adjustment method
JP3972921B2 (en) Voice collecting device and echo cancellation processing method
JP3891153B2 (en) Telephone device
JP4411959B2 (en) Audio collection / video imaging equipment
JP4192800B2 (en) Voice collecting apparatus and method
US7519175B2 (en) Integral microphone and speaker configuration type two-way communication apparatus
JP5028944B2 (en) Audio conference device and audio conference system
JP4479227B2 (en) Audio pickup / video imaging apparatus and imaging condition determination method
JP4639639B2 (en) Microphone signal generation method and communication apparatus
JP4281568B2 (en) Telephone device
JP4269854B2 (en) Telephone device
JP4225129B2 (en) Microphone / speaker integrated type interactive communication device
JP2005181391A (en) Device and method for speech processing
JP4453294B2 (en) Microphone / speaker integrated configuration / communication device
JP4379105B2 (en) Order receiving equipment at restaurants
JP4403370B2 (en) Microphone / speaker integrated configuration / communication device
JP2005151042A (en) Sound source position specifying apparatus, and imaging apparatus and imaging method
JP4470413B2 (en) Microphone / speaker integrated configuration / communication device
JP2005148301A (en) Speech processing system and speech processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3