JP6589042B1 - Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system - Google Patents

Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system Download PDF

Info

Publication number
JP6589042B1
JP6589042B1 JP2018502281A JP2018502281A JP6589042B1 JP 6589042 B1 JP6589042 B1 JP 6589042B1 JP 2018502281 A JP2018502281 A JP 2018502281A JP 2018502281 A JP2018502281 A JP 2018502281A JP 6589042 B1 JP6589042 B1 JP 6589042B1
Authority
JP
Japan
Prior art keywords
sound
speech
sound collection
unit
information indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018502281A
Other languages
Japanese (ja)
Other versions
JPWO2019142233A1 (en
Inventor
武志 水本
武志 水本
哲也 菅原
哲也 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hylable Inc
Original Assignee
Hylable Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hylable Inc filed Critical Hylable Inc
Priority to JP2019166860A priority Critical patent/JP6975756B2/en
Application granted granted Critical
Publication of JP6589042B1 publication Critical patent/JP6589042B1/en
Publication of JPWO2019142233A1 publication Critical patent/JPWO2019142233A1/en
Priority to JP2021182091A priority patent/JP7149019B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本発明は、複数のグループにおける発言の状況を示す情報を出力できる音声分析装置、音声分析方法、音声分析プログラム及び音声分析システムを提供することを目的とする。本発明の一実施形態に係る音声分析装置100は、複数の集音装置から複数の参加者が発した音声を取得する音声取得部112と、音声における、複数の参加者それぞれの発言を特定する分析部114と、複数の集音装置それぞれに関連付けて発言の状況を示す情報を表示部に表示させる出力部115と、を有する。An object of the present invention is to provide a voice analysis device, a voice analysis method, a voice analysis program, and a voice analysis system that can output information indicating the state of speech in a plurality of groups. The voice analysis device 100 according to an embodiment of the present invention specifies a voice acquisition unit 112 that acquires voices uttered by a plurality of participants from a plurality of sound collectors, and specifies a speech of each of the plurality of participants in the voice. It has an analysis unit 114 and an output unit 115 that displays information indicating the state of speech in association with each of the plurality of sound collectors on the display unit.

Description

本発明は、音声を分析するための音声分析装置、音声分析方法、音声分析プログラム及び音声分析システムに関する。   The present invention relates to a speech analysis apparatus, a speech analysis method, a speech analysis program, and a speech analysis system for analyzing speech.

グループ学習や会議における議論を分析する方法として、ハークネス法(ハークネスメソッドともいう)が知られている(例えば、非特許文献1参照)。ハークネス法では、各参加者の発言の遷移を線で記録する。これにより、各参加者の議論への貢献や、他者との関係性を分析することができる。ハークネス法は、学生が主体的に学習を行うアクティブ・ラーニングにも効果的に適用できる。   A Harkness method (also referred to as a Harkness method) is known as a method for analyzing discussions in group learning and meetings (see, for example, Non-Patent Document 1). In the Harkness method, the transition of each participant's speech is recorded as a line. As a result, each participant's contribution to the discussion and the relationship with others can be analyzed. The Harkness method can be effectively applied to active learning where students learn independently.

Paul Sevigny、「Extreme Discussion Circles : Preparing ESL Students for "The Harkness Method"」、Polyglossia、立命館アジア太平洋大学言語教育センター、平成24年10月、第23号、p. 181-191Paul Sevigny, “Extreme Discussion Circles: Preparing ESL Students for“ The Harkness Method ””, Polyglossia, Center for Language Education, Ritsumeikan Asia Pacific University, October 2012, No. 23, p. 181-191

学校や組織等でハークネス法のような分析を行う際には、複数のグループが同時に議論を行うことが多い。その場合に、議論の補助者(教師、ファシリテータ等)は複数のグループを掛け持つことになるため、各グループの議論における発言の状況を把握することが難しいという問題があった。   When an analysis such as the Harkness method is performed at a school or organization, a plurality of groups often discuss at the same time. In this case, since discussion assistants (teachers, facilitators, etc.) have multiple groups, there is a problem that it is difficult to grasp the state of speech in each group discussion.

本発明はこれらの点に鑑みてなされたものであり、複数のグループにおける発言の状況を示す情報を出力できる音声分析装置、音声分析方法、音声分析プログラム及び音声分析システムを提供することを目的とする。   The present invention has been made in view of these points, and an object of the present invention is to provide a voice analysis device, a voice analysis method, a voice analysis program, and a voice analysis system that can output information indicating the state of speech in a plurality of groups. To do.

本発明の第1の態様の音声分析装置は、複数の集音装置から複数の参加者が発した音声を取得する取得部と、前記音声における、前記複数の参加者それぞれの発言を特定する分析部と、前記複数の集音装置それぞれに関連付けて前記発言の状況を示す情報を表示部に表示させる出力部と、を有する。   The voice analysis device according to the first aspect of the present invention includes an acquisition unit that acquires voices uttered by a plurality of participants from a plurality of sound collection devices, and an analysis that identifies each of the plurality of participants in the voice. And an output unit that causes the display unit to display information indicating the state of the speech in association with each of the plurality of sound collecting devices.

前記出力部は、前記集音装置ごと又は前記参加者ごとの発言量を示す情報を、前記発言の状況を示す情報として前記表示部に表示させてもよい。   The output unit may cause the display unit to display information indicating the amount of speech for each sound collecting device or for each participant as information indicating the state of the speech.

前記出力部は、前記音声分析装置と通信する通信端末に設けられた前記表示部に、前記発言の状況を示す情報を表示させてもよい。   The output unit may display information indicating the state of the utterance on the display unit provided in a communication terminal that communicates with the voice analysis device.

前記出力部は、前記複数の集音装置それぞれの位置に対応する前記通信端末に設けられた前記表示部上の位置に、前記発言の状況を示す情報を表示させてもよい。   The output unit may display information indicating the state of the statement at a position on the display unit provided in the communication terminal corresponding to the position of each of the plurality of sound collecting devices.

前記出力部は、前記複数の集音装置のいずれかに所定の人物が接近した場合に、該集音装置の位置に対応する前記通信端末に設けられた前記表示部上の位置に、前記人物の接近を示す情報を表示させてもよい。   When the predetermined person approaches one of the plurality of sound collectors, the output unit is located at a position on the display unit provided in the communication terminal corresponding to the position of the sound collector. Information indicating the approach may be displayed.

前記音声分析装置は、前記複数の集音装置の間で授受される信号に基づいて、前記複数の集音装置それぞれの位置を設定する設定部をさらに有してもよい。   The voice analysis device may further include a setting unit that sets a position of each of the plurality of sound collection devices based on a signal exchanged between the plurality of sound collection devices.

前記出力部は、前記複数の集音装置それぞれに設けられた前記表示部に、前記発言の状況を示す情報を表示させてもよい。   The output unit may display information indicating the state of the utterance on the display unit provided in each of the plurality of sound collecting devices.

前記出力部は、前記複数の集音装置それぞれに設けられた前記表示部に、前記集音装置ごとの前記発言の状況を示す情報を表示させてもよい。   The output unit may cause the display unit provided in each of the plurality of sound collecting devices to display information indicating the state of the utterance for each sound collecting device.

前記出力部は、前記複数の集音装置それぞれにおいて前記複数の参加者それぞれに向けて設けられた前記表示部に、前記参加者ごとの前記発言の状況を示す情報を表示させてもよい。   The output unit may cause the display unit provided for each of the plurality of participants in each of the plurality of sound collecting devices to display information indicating the state of the speech for each participant.

本発明の第2の態様の音声分析方法は、プロセッサが、複数の集音装置から複数の参加者が発した音声を取得するステップと、前記音声における、前記複数の参加者それぞれの発言を特定するステップと、前記複数の集音装置それぞれに関連付けて前記発言の状況を示す情報を表示部に表示させるステップと、を実行する。   In the speech analysis method according to the second aspect of the present invention, the processor obtains speech uttered by a plurality of participants from a plurality of sound collectors, and specifies the speech of each of the plurality of participants in the speech. And a step of displaying information indicating the state of the speech on the display unit in association with each of the plurality of sound collecting devices.

本発明の第3の態様の音声分析プログラムは、コンピュータに、複数の集音装置から複数の参加者が発した音声を取得するステップと、前記音声における、前記複数の参加者それぞれの発言を特定するステップと、前記複数の集音装置それぞれに関連付けて前記発言の状況を示す情報を表示部に表示させるステップと、を実行させる。   The speech analysis program according to the third aspect of the present invention specifies, in a computer, a step of acquiring speech uttered by a plurality of participants from a plurality of sound collecting devices, and specifying a speech of each of the plurality of participants in the speech. And a step of displaying information indicating the state of the speech on the display unit in association with each of the plurality of sound collecting devices.

本発明の第4の態様の音声分析システムは、音声分析装置と、前記音声分析装置と通信可能な通信端末及び複数の集音装置と、を備え、前記通信端末及び前記複数の集音装置の少なくとも一方は、情報を表示する表示部を有し、前記音声分析装置は、前記複数の集音装置から複数の参加者が発した音声を取得する取得部と、前記音声における、前記複数の参加者それぞれの発言を特定する分析部と、前記複数の集音装置それぞれに関連付けて前記発言の状況を示す情報を前記表示部に表示させる出力部と、を有する。   A speech analysis system according to a fourth aspect of the present invention includes a speech analysis device, a communication terminal capable of communicating with the speech analysis device, and a plurality of sound collection devices, and the communication terminal and the plurality of sound collection devices. At least one has a display unit for displaying information, and the voice analysis device acquires an audio generated by a plurality of participants from the plurality of sound collection devices, and the plurality of participations in the voice And an output unit that displays information indicating the status of the speech on the display unit in association with each of the plurality of sound collecting devices.

本発明によれば、複数のグループにおける発言の状況を示す情報を出力できるという効果を奏する。   According to the present invention, it is possible to output information indicating the state of speech in a plurality of groups.

本実施形態に係る音声分析システムの模式図である。It is a mimetic diagram of a voice analysis system concerning this embodiment. 本実施形態に係る音声分析システムのブロック図である。It is a block diagram of the speech analysis system concerning this embodiment. 本実施形態に係る音声分析システムが行う音声分析方法の模式図である。It is a schematic diagram of the audio | voice analysis method which the audio | voice analysis system which concerns on this embodiment performs. 設定部によるグループ位置情報の設定方法の模式図である。It is a schematic diagram of the setting method of the group position information by a setting part. 参加者設定画面を表示している通信端末の表示部の前面図である。It is a front view of the display part of the communication terminal which is displaying the participant setting screen. グループ及び参加者の発言の状況を表示している集音装置の側面図である。It is a side view of the sound collector which is displaying the situation of a group and a participant's utterance. グループの発言の状況を表示している通信端末の表示部の前面図である。It is a front view of the display part of the communication terminal which is displaying the status of a group utterance. 参加者の発言の状況を表示している通信端末の表示部の前面図である。It is a front view of the display part of the communication terminal which is displaying the situation of a participant's statement. 本実施形態に係る音声分析システムが行う音声分析方法のシーケンス図である。It is a sequence diagram of the audio | voice analysis method which the audio | voice analysis system which concerns on this embodiment performs.

[音声分析システムSの概要]
図1は、本実施形態に係る音声分析システムSの模式図である。音声分析システムSは、音声分析装置100と、集音装置10と、通信端末20とを含む。音声分析システムSが含む集音装置10及び通信端末20の数は限定されない。音声分析システムSは、その他のサーバ、端末等の機器を含んでもよい。
[Outline of Speech Analysis System S]
FIG. 1 is a schematic diagram of a speech analysis system S according to the present embodiment. The voice analysis system S includes a voice analysis device 100, a sound collection device 10, and a communication terminal 20. The number of the sound collecting devices 10 and the communication terminals 20 included in the voice analysis system S is not limited. The voice analysis system S may include other servers and terminals.

音声分析装置100、集音装置10及び通信端末20は、ローカルエリアネットワーク、インターネット等のネットワークNを介して接続される。音声分析装置100、集音装置10及び通信端末20のうち少なくとも一部は、ネットワークNを介さず直接接続されてもよい。   The voice analysis device 100, the sound collection device 10, and the communication terminal 20 are connected via a network N such as a local area network or the Internet. At least some of the voice analysis device 100, the sound collection device 10, and the communication terminal 20 may be directly connected without going through the network N.

集音装置10は、異なる向きに配置された複数の集音部(マイクロフォン)を含むマイクロフォンアレイを備える。例えばマイクロフォンアレイは、地面に対する水平面において、同一円周上に等間隔で配置された8個のマイクロフォンを含む。集音装置10は、マイクロフォンアレイを用いて取得した音声をデータとして音声分析装置100に送信する。   The sound collection device 10 includes a microphone array including a plurality of sound collection units (microphones) arranged in different directions. For example, the microphone array includes eight microphones arranged at equal intervals on the same circumference in a horizontal plane with respect to the ground. The sound collection device 10 transmits the sound acquired using the microphone array to the sound analysis device 100 as data.

通信端末20は、有線又は無線の通信を行うことが可能な通信装置である。通信端末20は、例えばスマートフォン端末等の携帯端末、又はパーソナルコンピュータ等のコンピュータ端末である。通信端末20は、分析者から分析条件の設定を受け付けるとともに、音声分析装置100による分析結果を表示する。通信端末20は、議論の分析者又は補助者によって保持されてもよく、あるいは各集音装置10の近傍に配置されてもよい。   The communication terminal 20 is a communication device capable of performing wired or wireless communication. The communication terminal 20 is a portable terminal such as a smartphone terminal or a computer terminal such as a personal computer. The communication terminal 20 receives the analysis condition setting from the analyst and displays the analysis result by the voice analysis device 100. The communication terminal 20 may be held by an analyst or an assistant of discussion, or may be disposed in the vicinity of each sound collecting device 10.

音声分析装置100は、集音装置10によって取得された音声を、後述の音声分析方法によって分析するコンピュータである。また、音声分析装置100は、音声分析の結果を通信端末20に送信する。   The voice analysis device 100 is a computer that analyzes the voice acquired by the sound collection device 10 by a voice analysis method described later. In addition, the voice analysis device 100 transmits the result of the voice analysis to the communication terminal 20.

[音声分析システムSの構成]
図2は、本実施形態に係る音声分析システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of speech analysis system S]
FIG. 2 is a block diagram of the speech analysis system S according to the present embodiment. In FIG. 2, arrows indicate main data flows, and there may be data flows not shown in FIG. In FIG. 2, each block represents a functional unit configuration, not a hardware (device) unit configuration. Therefore, the blocks shown in FIG. 2 may be implemented in a single device, or may be separately implemented in a plurality of devices. Data exchange between the blocks may be performed via any means such as a data bus, a network, a portable storage medium, or the like.

集音装置10は、上述の集音部に加えて、グループ全体の状況を表示する全体ランプ11と、各参加者の状況を表示する個別ランプ12とを有する。全体ランプ11の数は、1つの集音装置10につき少なくとも1つである。個別ランプ12は、少なくとも1つの集音装置10が処理することが可能な参加者の数(すなわち1つの議論のグループに所属可能な参加者の数以上)である。各個別ランプ12は、集音装置10を取り囲む各参加者に対応するように設けられる。例えば集音装置10上の各参加者の正面に、該参加者に対応する少なくとも1つの個別ランプ12が設けられる。   In addition to the above-described sound collection unit, the sound collection device 10 includes an overall lamp 11 that displays the status of the entire group, and an individual lamp 12 that displays the status of each participant. The number of total lamps 11 is at least one for one sound collecting device 10. The individual lamp 12 is the number of participants that can be processed by at least one sound collector 10 (that is, the number of participants that can belong to one discussion group or more). Each individual lamp 12 is provided so as to correspond to each participant surrounding the sound collector 10. For example, at least one individual lamp 12 corresponding to the participant is provided in front of each participant on the sound collecting device 10.

全体ランプ11及び個別ランプ12は、それぞれ音声分析装置100による制御に従って発光する表示部である。例えば全体ランプ11及び個別ランプ12は、音声分析装置100から受信した信号に応じて、光を点滅させたり、光の色を変更したり、あるいは光の強度を変更したりすることができる。全体ランプ11及び個別ランプ12として、参加者又は補助者に対して発言の状況を示すことが可能であれば、液晶ディスプレイ等のその他表示装置を用いてもよい。   Each of the general lamp 11 and the individual lamp 12 is a display unit that emits light according to control by the voice analysis device 100. For example, the general lamp 11 and the individual lamp 12 can blink light, change the color of light, or change the intensity of light according to a signal received from the voice analysis device 100. As the general lamp 11 and the individual lamp 12, other display devices such as a liquid crystal display may be used as long as it is possible to indicate the state of speech to the participants or assistants.

通信端末20は、各種情報を表示するための表示部21と、分析者による操作を受け付けるための操作部22とを有する。表示部21は、液晶ディスプレイ、有機エレクトロルミネッセンス(OLED: Organic Light Emitting Diode)ディスプレイ等の表示装置を含む。操作部22は、ボタン、スイッチ、ダイヤル等の操作部材を含む。表示部21として分析者による接触の位置を検出可能なタッチスクリーンを用いることによって、表示部21と操作部22とを一体に構成してもよい。   The communication terminal 20 includes a display unit 21 for displaying various information and an operation unit 22 for receiving an operation by an analyst. The display unit 21 includes a display device such as a liquid crystal display and an organic light emitting diode (OLED) display. The operation unit 22 includes operation members such as buttons, switches, and dials. By using a touch screen capable of detecting the position of contact by the analyst as the display unit 21, the display unit 21 and the operation unit 22 may be configured integrally.

音声分析装置100は、制御部110と、通信部120と、記憶部130とを有する。制御部110は、設定部111と、音声取得部112と、音源定位部113と、分析部114と、出力部115とを有する。記憶部130は、設定情報記憶部131と、音声記憶部132と、分析結果記憶部133とを有する。   The voice analysis device 100 includes a control unit 110, a communication unit 120, and a storage unit 130. The control unit 110 includes a setting unit 111, a sound acquisition unit 112, a sound source localization unit 113, an analysis unit 114, and an output unit 115. The storage unit 130 includes a setting information storage unit 131, a voice storage unit 132, and an analysis result storage unit 133.

通信部120は、ネットワークNを介して集音装置10及び通信端末20との間で通信をするための通信インターフェースである。通信部120は、通信を実行するためのプロセッサ、コネクタ、電気回路等を含む。通信部120は、外部から受信した通信信号に所定の処理を行ってデータを取得し、取得したデータを制御部110に入力する。また、通信部120は、制御部110から入力されたデータに所定の処理を行って通信信号を生成し、生成した通信信号を外部に送信する。   The communication unit 120 is a communication interface for communicating between the sound collection device 10 and the communication terminal 20 via the network N. The communication unit 120 includes a processor, a connector, an electric circuit, and the like for executing communication. The communication unit 120 performs predetermined processing on a communication signal received from the outside to acquire data, and inputs the acquired data to the control unit 110. In addition, the communication unit 120 performs predetermined processing on the data input from the control unit 110 to generate a communication signal, and transmits the generated communication signal to the outside.

記憶部130は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部130は、制御部110が実行するプログラムを予め記憶している。記憶部130は、音声分析装置100の外部に設けられてもよく、その場合に通信部120を介して制御部110との間でデータの授受を行ってもよい。   The storage unit 130 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like. The storage unit 130 stores a program executed by the control unit 110 in advance. The storage unit 130 may be provided outside the voice analysis device 100, and in that case, data may be exchanged with the control unit 110 via the communication unit 120.

設定情報記憶部131は、グループ及び参加者の位置を含む分析条件を示す設定情報を記憶する。音声記憶部132は、集音装置10によって取得された音声を記憶する。分析結果記憶部133は、音声を分析した結果を示す分析結果を記憶する。設定情報記憶部131、音声記憶部132及び分析結果記憶部133は、それぞれ記憶部130上の記憶領域であってもよく、あるいは記憶部130上で構成されたデータベースであってもよい。   The setting information storage unit 131 stores setting information indicating analysis conditions including the positions of groups and participants. The sound storage unit 132 stores the sound acquired by the sound collection device 10. The analysis result storage unit 133 stores an analysis result indicating a result of analyzing the voice. Each of the setting information storage unit 131, the voice storage unit 132, and the analysis result storage unit 133 may be a storage area on the storage unit 130, or may be a database configured on the storage unit 130.

制御部110は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部130に記憶されたプログラムを実行することにより、設定部111、音声取得部112、音源定位部113、分析部114及び出力部115として機能する。設定部111、音声取得部112、音源定位部113、分析部114及び出力部115の機能については、図3〜図8を用いて後述する。制御部110の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部110の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。   The control unit 110 is a processor such as a CPU (Central Processing Unit), for example, and by executing a program stored in the storage unit 130, a setting unit 111, a sound acquisition unit 112, a sound source localization unit 113, an analysis unit 114, and It functions as the output unit 115. The functions of the setting unit 111, the sound acquisition unit 112, the sound source localization unit 113, the analysis unit 114, and the output unit 115 will be described later with reference to FIGS. At least a part of the function of the control unit 110 may be executed by an electric circuit. Further, at least part of the functions of the control unit 110 may be executed by a program executed via a network.

本実施形態に係る音声分析システムSは、図2に示す具体的な構成に限定されない。例えば音声分析装置100は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。   The voice analysis system S according to the present embodiment is not limited to the specific configuration shown in FIG. For example, the voice analysis device 100 is not limited to one device, and may be configured by connecting two or more physically separated devices in a wired or wireless manner.

[音声分析方法の説明]
図3は、本実施形態に係る音声分析システムSが行う音声分析方法の模式図である。まず分析者は、通信端末20の操作部22を操作することによって、分析条件を設定する。通信端末20は、分析者から分析条件の設定を受け付け、設定情報として音声分析装置100に送信する(a)。音声分析装置100の設定部111は、通信端末20から受信した設定情報又は設定部111自身が特定した設定情報を設定情報記憶部131に記憶させる。
[Description of voice analysis method]
FIG. 3 is a schematic diagram of a speech analysis method performed by the speech analysis system S according to the present embodiment. First, an analyst sets analysis conditions by operating the operation unit 22 of the communication terminal 20. The communication terminal 20 receives the analysis condition setting from the analyst and transmits it as setting information to the speech analysis apparatus 100 (a). The setting unit 111 of the voice analysis device 100 causes the setting information storage unit 131 to store the setting information received from the communication terminal 20 or the setting information specified by the setting unit 111 itself.

設定情報は、1つの集音装置10に関するグループにおける各参加者(すなわち、複数の参加者それぞれ)の位置を示す参加者位置情報と、同時に議論を行う各グループ(すなわち、複数のグループそれぞれ)の位置を示すグループ位置情報とを含む。各グループの位置は、各集音装置10(すなわち、複数の集音装置10それぞれ)の位置に対応する。例えば参加者位置情報は、分析対象とする議論の参加者の人数と、集音装置10を基準とした各参加者が位置する向きとを示す情報である。例えばグループ位置情報は、分析対象とするグループの数と、各グループの相対的又は絶対的な位置を示す情報である。   The setting information includes participant position information indicating the position of each participant (that is, each of a plurality of participants) in a group related to one sound collecting device 10, and each group (that is, each of a plurality of groups) that performs discussion at the same time. Group position information indicating the position. The position of each group corresponds to the position of each sound collection device 10 (that is, each of the plurality of sound collection devices 10). For example, the participant position information is information indicating the number of participants in the discussion to be analyzed and the direction in which each participant is located with reference to the sound collection device 10. For example, the group position information is information indicating the number of groups to be analyzed and the relative or absolute position of each group.

図4(a)、図4(b)は、設定部111によるグループ位置情報の設定方法の模式図である。図4(a)は、グループ位置情報を設定するためのグループ設定画面Aを表示している通信端末20の表示部21を表す。通信端末20は、グループ位置情報の設定を行う際に表示部21上にグループ設定画面Aを表示し、分析者によるグループ位置情報の設定を受け付ける。グループ設定画面Aは、位置設定領域A1と、基準位置A2と、完了ボタンA3と、自動設定ボタンA4とを含む。   FIG. 4A and FIG. 4B are schematic diagrams of a group position information setting method by the setting unit 111. FIG. 4A shows the display unit 21 of the communication terminal 20 displaying the group setting screen A for setting group position information. The communication terminal 20 displays the group setting screen A on the display unit 21 when setting the group position information, and accepts the setting of the group position information by the analyst. The group setting screen A includes a position setting area A1, a reference position A2, a completion button A3, and an automatic setting button A4.

位置設定領域A1は、同時に行われる議論(例えば同一の室内で行われる議論)について、所定の基準位置A2を基準とした各グループGの位置を設定する領域である。例えば位置設定領域A1は、図4(a)のように基準位置A2(例えば教卓の位置)を含む矩形領域である。基準位置A2は、位置設定領域A1上で分析者によって指定されてもよく、あるいは音声分析装置100に予め登録されてもよい。   The position setting area A1 is an area for setting the position of each group G with respect to a predetermined reference position A2 for a discussion that is performed simultaneously (for example, a discussion performed in the same room). For example, the position setting area A1 is a rectangular area including a reference position A2 (for example, the position of a teacher) as shown in FIG. The reference position A2 may be designated by the analyst on the position setting area A1, or may be registered in advance in the speech analysis apparatus 100.

分析者は、通信端末20の操作部22を操作することによって、位置設定領域A1において各グループGの位置を設定する。例えば分析者が位置設定領域A1内のどこかを押下すると、音声分析装置100の設定部111は、分析者が押下した位置を1つのグループGの位置として設定する。各グループGについて設定された位置には、各グループGを識別する識別情報(ここではG1〜G4)が割り当てられて表示される。各グループGの識別情報は、分析者によって入力されてもよく、あるいは設定部111によって自動的に決定されてもよい。図4(a)の例では、4つのグループG1〜G4が設定されている。   The analyst operates the operation unit 22 of the communication terminal 20 to set the position of each group G in the position setting area A1. For example, when the analyst presses somewhere in the position setting area A1, the setting unit 111 of the voice analysis device 100 sets the position pressed by the analyst as the position of one group G. Identification information (here, G1 to G4) for identifying each group G is assigned to the position set for each group G and displayed. The identification information of each group G may be input by an analyst or may be automatically determined by the setting unit 111. In the example of FIG. 4A, four groups G1 to G4 are set.

完了ボタンA3及び自動設定ボタンA4は、それぞれ表示部21上に表示された仮想的なボタンである。設定部111は、分析者によって完了ボタンA3が押下されると、グループ設定画面Aにおいて設定された各グループGの位置を、グループ位置情報として設定情報記憶部131に記憶させることにより、各グループGの位置を設定する。そして設定部111は、グループ設定画面Aにおいて設定された各グループGについて、図5に示す参加者設定画面Cを通信端末20に表示させる。   The completion button A3 and the automatic setting button A4 are virtual buttons displayed on the display unit 21, respectively. When the completion button A3 is pressed by the analyst, the setting unit 111 stores the position of each group G set on the group setting screen A in the setting information storage unit 131 as group position information. Set the position of. Then, the setting unit 111 displays the participant setting screen C shown in FIG. 5 on the communication terminal 20 for each group G set on the group setting screen A.

設定部111は、分析者によって自動設定ボタンA4が押下されると、集音装置10から取得した情報に基づいて、各グループGの位置を自動的に設定する。図4(b)は、設定部111が各グループGの位置を自動的に設定する方法の模式図である。例えば設定部111は、集音装置10間で授受される音又は電波の信号に基づいて、各集音装置10の位置、すなわち各グループGの位置を自動的に設定する。   When the automatic setting button A4 is pressed by the analyst, the setting unit 111 automatically sets the position of each group G based on the information acquired from the sound collection device 10. FIG. 4B is a schematic diagram of a method in which the setting unit 111 automatically sets the position of each group G. For example, the setting unit 111 automatically sets the position of each sound collection device 10, that is, the position of each group G, based on sound or radio wave signals exchanged between the sound collection devices 10.

自動設定のために、各集音装置10は、所定の音(音波又は超音波)又は所定の電波(例えばBluetooth(登録商標)等の近距離無線通信の電波)の信号を発生させる発信機を備え、集音装置10は該信号を受信する受信機を備える。設定部111は、各集音装置10の発信機から信号を順次発生させる。設定部111は、各集音装置10の受信機において信号を検出した時間及び強度を取得する。   For automatic setting, each sound collection device 10 has a transmitter that generates a signal of a predetermined sound (sound wave or ultrasonic wave) or a predetermined radio wave (for example, a short-range wireless communication radio wave such as Bluetooth (registered trademark)). The sound collecting apparatus 10 includes a receiver that receives the signal. The setting unit 111 sequentially generates signals from the transmitters of the sound collection devices 10. The setting unit 111 acquires the time and intensity at which the signal is detected in the receiver of each sound collecting device 10.

次に設定部111は、各集音装置10について、信号を検出した時間を用いて信号の発生源の集音装置10を特定するとともに、信号を検出した強度を用いて発生源の集音装置10までの距離Bを算出する。そして設定部111は、算出した集音装置10間の距離Bに基づいて、例えば三角測量によって各集音装置10の位置、すなわち各グループGの位置を決定する。設定部111は、決定した各グループGの位置を、グループ位置情報として設定情報記憶部131に記憶させることにより、各グループGの位置を設定する。そして設定部111は、各グループGについて、図5に示す参加者設定画面Cを通信端末20に表示させる。   Next, the setting unit 111 specifies, for each sound collecting device 10, the sound collecting device 10 that is the signal generation source using the time when the signal is detected, and also uses the intensity that detected the signal to collect the sound collecting device that is the generation source. A distance B up to 10 is calculated. And the setting part 111 determines the position of each sound collector 10, ie, the position of each group G, for example by triangulation based on the calculated distance B between the sound collectors. The setting unit 111 sets the position of each group G by causing the setting information storage unit 131 to store the determined position of each group G as group position information. And the setting part 111 displays the participant setting screen C shown in FIG.

ここでは例示的に集音装置10間で音又は電波の信号を授受することによって集音装置10の位置を決定する方法を説明したが、設定部111はその他の方法で集音装置10を決定してもよい。例えば集音装置10の外部に設けられた装置から音又は電波の信号を発生させてもよい。   Here, the method of determining the position of the sound collecting device 10 by exchanging sound or radio wave signals between the sound collecting devices 10 is described as an example, but the setting unit 111 determines the sound collecting device 10 by other methods. May be. For example, a sound or radio wave signal may be generated from a device provided outside the sound collecting device 10.

設定部111は、グループGの位置の自動設定と手動設定とを組み合わせて行ってもよい。この場合に、例えば設定部111は、図4(b)の自動設定によって設定された各グループGの位置を図4(a)の位置設定領域A1に表示し、さらに分析者による手動の設定を受け付ける。これにより、自動設定によって設定された各グループGの位置を手動設定によって修正し、各グループGの位置をより確実に設定することができる。   The setting unit 111 may perform a combination of automatic setting and manual setting of the position of the group G. In this case, for example, the setting unit 111 displays the position of each group G set by the automatic setting of FIG. 4B in the position setting area A1 of FIG. 4A, and further the manual setting by the analyst. Accept. Thereby, the position of each group G set by automatic setting can be corrected by manual setting, and the position of each group G can be set more reliably.

図5は、参加者位置情報を設定するための参加者設定画面Cを表示している通信端末20の表示部21の前面図である。通信端末20は、参加者位置情報の設定を行う際に表示部21上に参加者設定画面Cを表示し、グループ設定画面Aで設定された各グループについて分析者による参加者位置情報の設定を受け付ける。参加者設定画面Cは、位置設定領域C1と、開始ボタンC2と、終了ボタンC3とを含む。位置設定領域C1は、分析対象の議論において、集音装置10を基準として各参加者Uが実際に位置する向きを設定する領域である。例えば位置設定領域C1は、図5のように集音装置10の位置を中心とした円を表し、さらに円に沿って集音装置10を基準とした角度を表している。   FIG. 5 is a front view of the display unit 21 of the communication terminal 20 displaying the participant setting screen C for setting the participant position information. The communication terminal 20 displays the participant setting screen C on the display unit 21 when setting the participant position information, and the participant position information is set by the analyst for each group set on the group setting screen A. Accept. The participant setting screen C includes a position setting area C1, a start button C2, and an end button C3. The position setting area C1 is an area for setting the direction in which each participant U is actually located with reference to the sound collection device 10 in the discussion of the analysis target. For example, the position setting area C1 represents a circle centered on the position of the sound collector 10 as shown in FIG. 5, and further represents an angle along the circle with reference to the sound collector 10.

分析者は、通信端末20の操作部22を操作することによって、位置設定領域C1において各参加者Uの位置を入力する。設定部111は、分析者によって入力された各参加者Uの位置を、参加者位置情報として設定情報記憶部131に記憶させることにより、各参加者Uの位置を設定する。各参加者Uについて設定された位置の近傍には、各参加者Uを識別する識別情報(ここではU1〜U4)が割り当てられて表示される。図5の例では、4人の参加者U1〜U4が設定されている。位置設定領域C1内の各参加者Uに対応する部分は、参加者ごとに異なる色で表示される。これにより、分析者は容易に各参加者Uが設定されている向きを認識することができる。   The analyst inputs the position of each participant U in the position setting area C1 by operating the operation unit 22 of the communication terminal 20. The setting unit 111 sets the position of each participant U by causing the setting information storage unit 131 to store the position of each participant U input by the analyst as participant position information. In the vicinity of the position set for each participant U, identification information (here, U1 to U4) for identifying each participant U is assigned and displayed. In the example of FIG. 5, four participants U1 to U4 are set. The part corresponding to each participant U in the position setting area C1 is displayed in a different color for each participant. Thereby, the analyst can easily recognize the direction in which each participant U is set.

開始ボタンC2及び終了ボタンC3は、それぞれ表示部21上に表示された仮想的なボタンである。通信端末20は、分析者によって開始ボタンC2が押下されると、音声分析装置100に開始指示の信号を送信する。通信端末20は、分析者によって終了ボタンC3が押下されると、音声分析装置100に終了指示の信号を送信する。本実施形態では、分析者による開始指示から終了指示までを1つの議論とする。   The start button C2 and the end button C3 are virtual buttons displayed on the display unit 21, respectively. When the start button C2 is pressed by the analyst, the communication terminal 20 transmits a start instruction signal to the voice analysis device 100. When the end button C3 is pressed by the analyst, the communication terminal 20 transmits an end instruction signal to the voice analysis device 100. In the present embodiment, one discussion is from the start instruction to the end instruction by the analyst.

音声分析装置100の音声取得部112は、通信端末20から開始指示の信号を受信した場合に、音声の取得を指示する信号を集音装置10に送信する(b)。集音装置10は、音声分析装置100から音声の取得を指示する信号を受信した場合に、音声の取得を開始する。また、音声分析装置100の音声取得部112は、通信端末20から終了指示の信号を受信した場合に、音声の取得の終了を指示する信号を集音装置10に送信する。集音装置10は、音声分析装置100から音声の取得の終了を指示する信号を受信した場合に、音声の取得を終了する。   When the voice acquisition unit 112 of the voice analysis device 100 receives a start instruction signal from the communication terminal 20, the voice acquisition unit 112 transmits a signal instructing voice acquisition to the sound collector 10 (b). When the sound collection device 10 receives a signal instructing acquisition of sound from the sound analysis device 100, the sound collection device 10 starts acquiring sound. In addition, when the voice acquisition unit 112 of the voice analysis device 100 receives an end instruction signal from the communication terminal 20, the voice acquisition unit 112 transmits a signal instructing the end of voice acquisition to the sound collector 10. When the sound collection device 10 receives a signal instructing the end of voice acquisition from the voice analysis device 100, the sound collection device 10 ends the voice acquisition.

集音装置10は、複数の集音部においてそれぞれ音声を取得し、各集音部に対応する各チャネルの音声として内部に記録する。そして集音装置10は、取得した複数のチャネルの音声を、音声分析装置100に送信する(c)。集音装置10は、取得した音声を逐次送信してもよく、あるいは所定量又は所定時間の音声を送信してもよい。音声分析装置100の音声取得部112は、集音装置10から音声を受信して音声記憶部132に記憶させる。   The sound collection device 10 acquires sound in each of the plurality of sound collection units, and records the sound therein as sound of each channel corresponding to each sound collection unit. Then, the sound collecting device 10 transmits the acquired sounds of the plurality of channels to the sound analyzing device 100 (c). The sound collecting device 10 may sequentially transmit the acquired sound, or may transmit sound of a predetermined amount or a predetermined time. The voice acquisition unit 112 of the voice analysis device 100 receives the voice from the sound collection device 10 and stores it in the voice storage unit 132.

音声分析装置100は、集音装置10から取得したグループごとの音声を、逐次、すなわちリアルタイム処理で分析する。例えば音声分析装置100は、現在時間から遡って過去の所定時間分(例えば30秒間)の音声を順次分析対象とする。   The voice analyzer 100 analyzes the voice for each group acquired from the sound collector 10 sequentially, that is, by real-time processing. For example, the voice analysis apparatus 100 sequentially analyzes voices for a predetermined time (for example, 30 seconds) in the past from the current time.

音声を分析する際に、まず音源定位部113は、音声取得部112が取得した複数チャネルの音声に基づいて音源定位を行う(d)。音源定位は、音声取得部112が取得した音声に含まれる音源の向きを、時間ごと(例えば10ミリ秒〜100ミリ秒ごと)に推定する処理である。音源定位部113は、時間ごとに推定した音源の向きを、設定情報記憶部131に記憶された設定情報が示す参加者の向きと関連付ける。   When analyzing the sound, the sound source localization unit 113 first performs sound source localization based on a plurality of channels of sound acquired by the sound acquisition unit 112 (d). The sound source localization is a process of estimating the direction of the sound source included in the sound acquired by the sound acquisition unit 112 every time (for example, every 10 milliseconds to 100 milliseconds). The sound source localization unit 113 associates the sound source direction estimated for each time with the participant direction indicated by the setting information stored in the setting information storage unit 131.

音源定位部113は、集音装置10から取得した音声に基づいて音源の向きを特定可能であれば、MUSIC(Multiple Signal Classification)法、ビームフォーミング法等、公知の音源定位方法を用いることができる。   The sound source localization unit 113 can use a known sound source localization method such as a MUSIC (Multiple Signal Classification) method or a beam forming method as long as the direction of the sound source can be specified based on the sound acquired from the sound collector 10. .

次に分析部114は、音声取得部112が取得した音声及び音源定位部113が推定した音源の向きに基づいて、音声を分析する(e)。具体的には、まず分析部114は、音声取得部112が取得した音声及び音源定位部113が推定した音源の向きに基づいて、分析対象の議論において、時間ごと(例えば10ミリ秒〜100ミリ秒ごと)に、いずれの参加者が発言(発声)したかを判別する。分析部114は、1人の参加者が発言を開始してから終了するまでの連続した期間を発言期間として特定し、分析結果記憶部133に記憶させる。同じ時間に複数の参加者が発言を行った場合には、分析部114は、参加者ごとに発言期間を特定する。   Next, the analysis unit 114 analyzes the sound based on the sound acquired by the sound acquisition unit 112 and the direction of the sound source estimated by the sound source localization unit 113 (e). Specifically, first, the analysis unit 114 performs analysis (for example, 10 milliseconds to 100 millimeters) in the analysis target based on the sound acquired by the sound acquisition unit 112 and the direction of the sound source estimated by the sound source localization unit 113. Every second), it is determined which participant speaks (speaks). The analysis unit 114 specifies a continuous period from when one participant starts speaking until it ends as a speech period, and causes the analysis result storage unit 133 to store it. When a plurality of participants make a statement at the same time, the analysis unit 114 specifies a statement period for each participant.

また、分析部114は、時間ごとの各参加者の発言量を算出し、分析結果記憶部133に記憶させる。具体的には、分析部114は、ある時間窓(例えば5秒間)において、参加者の発言を行った時間の長さを時間窓の長さで割った値を、時間ごとの発言量として算出する。そして分析部114は、議論の開始時間から終了時間(リアルタイム処理の場合には現在)まで、時間窓を所定の時間(例えば1秒)ずつずらしながら、各参加者について時間ごとの発言量の算出を繰り返す。また、分析部114は、グループに属する参加者の発言量の時間ごとの合計値を、グループの時間ごとの発言量(活性度)として算出する。   In addition, the analysis unit 114 calculates the amount of speech of each participant for each hour and stores it in the analysis result storage unit 133. Specifically, the analysis unit 114 calculates a value obtained by dividing the length of the time when the participant made a speech by the length of the time window in a certain time window (for example, 5 seconds) as the amount of speech for each time. To do. Then, the analysis unit 114 calculates the amount of speech for each participant for each participant while shifting the time window by a predetermined time (for example, 1 second) from the start time of the discussion to the end time (current in the case of real-time processing). repeat. Moreover, the analysis part 114 calculates the total value for every hour of the amount of speech of the participant who belongs to a group as the amount of speech (activity) for every time of a group.

そして分析部114は、参加者及びグループの発言量を用いて、参加者及びグループの発言の状況を特定する。分析部114は、参加者の発言の状況として、例えば現在から遡って所定期間(例えば20秒間)の参加者の発言量の合計値又は積分値、あるいは該発言量の合計値又は積分値の参加者間の比(すなわち相対値)を算出する。このように算出された参加者の発言の状況は、各参加者が議論に対する貢献度を表す指標として利用できる。   And the analysis part 114 specifies the situation of the speech of a participant and a group using the amount of speech of a participant and a group. The analysis unit 114, for example, as the participant's speech status, participates in the total value or integral value of the participant's speech amount for a predetermined period (for example, 20 seconds) from the present, or the total value or integral value of the speech amount. The ratio between persons (that is, the relative value) is calculated. The state of the participant's remarks calculated in this way can be used as an index that represents the degree of contribution of each participant to the discussion.

また、分析部114は、グループの発言の状況として、例えば現在から遡って所定期間(例えば20秒間)のグループの発言量の合計値又は積分値、あるいは該発言量の合計値又は積分値のグループ間の比(すなわち相対値)を算出する。このように算出されたグループの発言の状況は、各グループにおける議論の盛り上がりの程度を表す指標として利用できる。分析部114は、各参加者及び各グループの発言の状況を示す状況情報を、分析結果として分析結果記憶部133に記憶させる。   In addition, the analysis unit 114 may, for example, as a group's speech status, for example, a total value or integral value of a group's speech amount for a predetermined period (for example, 20 seconds) retroactive from the present, The ratio between them (ie relative value) is calculated. The status of group remarks calculated in this way can be used as an index representing the degree of excitement of discussion in each group. The analysis unit 114 causes the analysis result storage unit 133 to store status information indicating the status of the speech of each participant and each group as an analysis result.

グループの発言の状況として、グループの雰囲気を用いてもよい。グループの雰囲気は、議論において発言者の交替が多いか少ないかの雰囲気を示す情報である。具体的には、分析部114は、同じ参加者U間の発言の遷移(すなわち、ある発言期間の後に別の発言期間に切り替わったこと)の回数の平均値と、異なる参加者間の発言の遷移の回数の平均値とを算出し、それらの間の比をグループの雰囲気として特定する。例えば同じ参加者U間の発言の遷移の比が大きい場合にそのグループは1人の参加者が長く発言する傾向にあり、異なる参加者間の発言の遷移の比が大きい場合にそのグループは複数の参加者が交替で発言する傾向にある。   The group atmosphere may be used as the situation of the group remarks. The atmosphere of the group is information indicating the atmosphere of whether there are many or few speakers in the discussion. Specifically, the analysis unit 114 determines the average value of the number of transitions of speech between the same participants U (that is, switching from one speech period to another speech period) and the speech between different participants. The average value of the number of transitions is calculated, and the ratio between them is specified as the group atmosphere. For example, when the ratio of the speech transition between the same participants U is large, the group tends to speak for a long time, and when the ratio of the speech transition between different participants is large, the group is plural. Participants tend to speak in turns.

出力部115は、分析部114が特定した各参加者及び各グループの発言の状況を、該参加者及び該グループに対応する集音装置10に関連付けて、集音装置10及び通信端末20の表示部に表示させる。具体的には、出力部115は、分析結果記憶部133に記憶された状況情報を読み出して集音装置10に送信することによって、分析部114が特定した発言の状況を示す情報を、全体ランプ11及び個別ランプ12に表示させる制御を行う(f)。   The output unit 115 associates the speech status of each participant and each group specified by the analysis unit 114 with the sound collection device 10 corresponding to the participant and the group, and displays the sound collection device 10 and the communication terminal 20. Display on the screen. Specifically, the output unit 115 reads out the status information stored in the analysis result storage unit 133 and transmits the status information to the sound collecting device 10, so that information indicating the status of the utterance specified by the analysis unit 114 is displayed on the entire lamp. 11 and the individual lamp 12 are displayed (f).

また、出力部115は、分析結果記憶部133に記憶された状況情報を読み出して通信端末20に送信することによって、分析部114が特定した発言の状況を示す情報を、表示部21に表示させる制御を行う(g)。出力部115による発言の状況の出力方法を、図6〜図8を用いて以下に説明する。   Further, the output unit 115 reads out the status information stored in the analysis result storage unit 133 and transmits the status information to the communication terminal 20, thereby causing the display unit 21 to display information indicating the status of the statement specified by the analysis unit 114. Control is performed (g). A method for outputting the state of speech by the output unit 115 will be described below with reference to FIGS.

[発言の状況の表示方法の説明]
図6は、グループ及び参加者の発言の状況を表示している集音装置10の側面図である。出力部115は、集音装置10に設けられた全体ランプ11及び個別ランプを用いて、グループ及び参加者の発言の状況を示す情報を表示する。具体的には、出力部115は、グループの発言の状況に対応する所定の光を全体ランプ11から発生させることによって、集音装置10にグループの発言の状況を表示させる。例えば出力部115は、グループの発言量の合計値又は積分値に応じて、光の点滅の速度、光の色、又は光の強度を変化させる。これにより、議論の参加者及び補助者は、グループ全体の発言の状況を容易に把握することができる。
[Explanation of how to display the status of remarks]
FIG. 6 is a side view of the sound collecting device 10 displaying the state of the speech of the group and the participant. The output unit 115 uses the general lamp 11 and the individual lamps provided in the sound collection device 10 to display information indicating the status of the group and participants. Specifically, the output unit 115 causes the sound collecting device 10 to display the state of the group remarks by causing the overall lamp 11 to generate predetermined light corresponding to the state of the group remarks. For example, the output unit 115 changes the blinking speed of light, the color of light, or the intensity of light according to the total value or integral value of the amount of speech of the group. Thereby, the participant and assistant of discussion can grasp | ascertain easily the situation of the speech of the whole group.

また、出力部115は、参加者の発言の状況に対応する所定の光を、該参加者に対応する個別ランプ12から発生させることによって、集音装置10に各参加者の発言の状況を表示させる。すなわち出力部115は、各参加者に対応する位置(例えば各参加者の正面)に設けられている個別ランプ12を、参加者ごとの発言の状況に応じて発光させる。例えば出力部115は、参加者の発言量の合計値又は積分値に応じて、光の点滅の速度、光の色、又は光の強度を変化させる。これにより、議論の参加者は自身の発言の状況を客観的に認識することができ、また議論の補助者は参加者ごとの議論への貢献度を把握することができる。   Further, the output unit 115 displays the state of each participant's speech on the sound collecting device 10 by generating predetermined light corresponding to the state of the participant's speech from the individual lamp 12 corresponding to the participant. Let That is, the output unit 115 causes the individual lamp 12 provided at a position corresponding to each participant (for example, the front of each participant) to emit light according to the state of speech for each participant. For example, the output unit 115 changes the blinking speed of light, the color of light, or the intensity of light according to the total value or integral value of the participant's speech amount. As a result, the participants of the discussion can objectively recognize the situation of their remarks, and the assistant of the discussion can grasp the contribution degree to the discussion for each participant.

図7は、グループの発言の状況を表示している通信端末20の表示部21の前面図である。出力部115は、グループの発言の状況を示す情報を、全体状況画面Dとして通信端末20の表示部21に表示させる。全体状況画面Dは、グループごとの発言の状況を示す円D1と、補助者の位置を示すアイコンD2とを含む。   FIG. 7 is a front view of the display unit 21 of the communication terminal 20 displaying the state of the group remarks. The output unit 115 causes the display unit 21 of the communication terminal 20 to display information indicating the status of the group remarks as the overall status screen D. The overall status screen D includes a circle D1 indicating the status of a statement for each group, and an icon D2 indicating the position of the assistant.

出力部115は、設定情報記憶部131に記憶されたグループ位置情報が示す各グループの位置に対応する表示部21上の位置に、グループの発言の状況に対応する表示態様の円D1を表示する。すなわち出力部115は、各グループ(各集音装置10)の位置を示すマップ上に、グループの発言の状況を示す情報を表示する。例えば出力部115は、グループの発言量の合計値又は積分値に応じて、円D1の色、形状、模様等を変化させる。これにより、議論の分析者又は補助者は、各グループの発言の状況を容易に把握することができる。   The output unit 115 displays a circle D <b> 1 having a display mode corresponding to the utterance status of the group at a position on the display unit 21 corresponding to the position of each group indicated by the group position information stored in the setting information storage unit 131. . That is, the output unit 115 displays information indicating the state of speech of the group on a map indicating the position of each group (each sound collecting device 10). For example, the output unit 115 changes the color, shape, pattern, or the like of the circle D1 according to the total value or integral value of the amount of speech of the group. Thereby, the analyst or assistant of the discussion can easily grasp the state of the remarks of each group.

また、出力部115は、議論の補助者の位置に対応する表示部21上の位置に、補助者の位置を示すアイコンD2を表示する。補助者の位置を検出するために、出力部115は、例えば集音装置10と補助者との間で授受される信号を用いる。この場合に、補助者は例えばBluetooth等の無線通信の電波や超音波等によって所定の信号を発する発信機を保持し、集音装置10は該信号を受信する受信機を備える。   The output unit 115 displays an icon D2 indicating the position of the assistant at a position on the display unit 21 corresponding to the position of the assistant for discussion. In order to detect the position of the assistant, the output unit 115 uses, for example, a signal exchanged between the sound collecting device 10 and the assistant. In this case, for example, the assistant holds a transmitter that emits a predetermined signal by radio waves or ultrasonic waves of wireless communication such as Bluetooth, and the sound collection device 10 includes a receiver that receives the signal.

そして出力部115は、集音装置10の受信機において補助者の発信機からの信号を受信できた場合又は信号を受信した強度が所定の閾値以上となった場合に、集音装置10に補助者が接近したことを検出する。また、出力部115は、集音装置10の受信機において補助者の発信機からの信号を受信できなくなった場合又は信号を受信した強度が所定の閾値未満となった場合に、集音装置10から補助者が離脱したことを検出する。   The output unit 115 assists the sound collecting device 10 when the receiver of the sound collecting device 10 can receive a signal from the assistant's transmitter or when the intensity of receiving the signal exceeds a predetermined threshold value. Detect that the person approached. The output unit 115 also receives the sound collecting device 10 when the receiver of the sound collecting device 10 cannot receive the signal from the auxiliary transmitter or when the intensity of receiving the signal becomes less than a predetermined threshold. It is detected that the assistant has left from.

出力部115はいずれかの集音装置10に補助者が接近したことを検出した場合に、表示部21上の該集音装置10(グループ)の近傍にアイコンD2を表示する。これにより、議論の分析者は、補助者がグループに接近している場合と接近していない場合との間で各グループの発言の状況の変化を分析することができ、また補助者の評価を行うことができる。   When the output unit 115 detects that an assistant has approached any of the sound collecting devices 10, the output unit 115 displays an icon D <b> 2 in the vicinity of the sound collecting device 10 (group) on the display unit 21. This allows the analyst of the discussion to analyze changes in the situation of each group's speech between when the assistant is approaching the group and when it is not approaching the group. It can be carried out.

図8は、参加者の発言の状況を表示している通信端末20の表示部21の前面図である。出力部115は、全体状況画面D上で分析者又は補助者によっていずれかのグループが指定された場合に、該グループに属する各参加者の発言の状況を示す情報を、個別状況画面Eとして通信端末20の表示部21に表示させる。個別状況画面Eは、参加者ごとの発言の状況を示す領域E1を含む。領域E1は、複数の参加者に対応する複数の領域からなる。   FIG. 8 is a front view of the display unit 21 of the communication terminal 20 displaying the participant's speech status. When any group is designated by an analyst or an assistant on the overall status screen D, the output unit 115 communicates information indicating the speech status of each participant belonging to the group as an individual status screen E. It is displayed on the display unit 21 of the terminal 20. The individual status screen E includes an area E1 indicating the status of the speech for each participant. The region E1 includes a plurality of regions corresponding to a plurality of participants.

出力部115は、参加者ごとの発言の状況に対応する表示態様の領域E1を表示する。例えば出力部115は、各参加者の発言量の合計値又は積分値に応じて、領域E1の中で各参加者に対応する領域の色、模様等を変化させる。また、出力部115は、各参加者に対応する領域の近傍に、各参加者を識別する識別情報(ここではU1〜U4)を表示する。これにより、議論の分析者又は補助者は、1つのグループに属する各参加者の発言の状況を容易に把握することができる。   The output unit 115 displays an area E1 having a display mode corresponding to the state of speech for each participant. For example, the output unit 115 changes the color, pattern, and the like of the region corresponding to each participant in the region E1 according to the total value or integral value of the speech amount of each participant. The output unit 115 displays identification information (here, U1 to U4) for identifying each participant in the vicinity of the area corresponding to each participant. Thereby, the analyst or assistant of the discussion can easily grasp the speech status of each participant belonging to one group.

図6〜図8に示したグループ及び参加者の発言の状況を示す情報の出力方法は一例であり、グループ及び参加者に対応する集音装置10に関連付けて該情報を表示することが可能なその他の出力方法を用いてもよい。出力部115は、必ずしも集音装置10及び通信端末20の両方によって発言の状況を示す情報を表示する必要はなく、それらの少なくとも一方によって発言の状況を示す情報を表示してもよい。出力部115は、プリンタによる印刷、記憶装置へのデータ記録等、その他の手段によって発言の状況を示す情報を出力してもよい。   The method for outputting information indicating the state of the speech of the group and the participant shown in FIGS. 6 to 8 is an example, and the information can be displayed in association with the sound collecting device 10 corresponding to the group and the participant. Other output methods may be used. The output unit 115 does not necessarily need to display information indicating the state of speech by both the sound collection device 10 and the communication terminal 20, and may display information indicating the state of speech by at least one of them. The output unit 115 may output information indicating the state of the utterance by other means such as printing by a printer or recording data in a storage device.

[音声分析方法のシーケンス]
図9は、本実施形態に係る音声分析システムSが行う音声分析方法のシーケンス図である。まず通信端末20は、分析者から分析条件の設定を受け付け、設定情報として音声分析装置100に送信する(S11)。音声分析装置100の設定部111は、通信端末20から取得した設定情報又は設定部111自身が特定した設定情報を、設定情報記憶部131に記憶させる。設定情報は、1つの集音装置10に関するグループにおける各参加者の位置を示す参加者位置情報と、同時に議論を行う各グループ(すなわち各集音装置10)の位置を示すグループ位置情報とを含む。
[Speech analysis method sequence]
FIG. 9 is a sequence diagram of a speech analysis method performed by the speech analysis system S according to the present embodiment. First, the communication terminal 20 receives setting of analysis conditions from an analyst, and transmits it as setting information to the voice analysis device 100 (S11). The setting unit 111 of the voice analysis device 100 causes the setting information storage unit 131 to store the setting information acquired from the communication terminal 20 or the setting information specified by the setting unit 111 itself. The setting information includes participant position information that indicates the position of each participant in the group related to one sound collector 10 and group position information that indicates the position of each group (that is, each sound collector 10) to be discussed at the same time. .

次に音声分析装置100の音声取得部112は、音声の取得を指示する信号を集音装置10に送信する(S12)。集音装置10は、音声分析装置100から音声の取得を指示する信号を受信した場合に、複数の集音部を用いて音声の記録を開始し、記録した複数チャネルの音声を音声分析装置100に送信する(S13)。音声分析装置100の音声取得部112は、集音装置10から音声を受信して音声記憶部132に記憶させる。   Next, the voice acquisition unit 112 of the voice analyzer 100 transmits a signal instructing acquisition of voice to the sound collector 10 (S12). When the sound collection device 10 receives a signal instructing the acquisition of sound from the sound analysis device 100, the sound collection device 10 starts recording the sound using a plurality of sound collection units, and the sound analysis device 100 converts the recorded sound of the plurality of channels. (S13). The voice acquisition unit 112 of the voice analysis device 100 receives the voice from the sound collection device 10 and stores it in the voice storage unit 132.

音声分析装置100は、取得した音声を、逐次、すなわちリアルタイム処理で分析する。音声を分析する際に、まず音源定位部113は、音声取得部112が取得した音声に基づいて音源定位を行う(S14)。   The voice analysis device 100 analyzes the acquired voice sequentially, that is, by real-time processing. When analyzing sound, the sound source localization unit 113 first performs sound source localization based on the sound acquired by the sound acquisition unit 112 (S14).

次に分析部114は、音声取得部112が取得した音声及び音源定位部113が推定した音源の向きに基づいて、時間ごとにいずれの参加者が発言したかを判別することによって、参加者の時間ごとの発言量を算出する。そして分析部114は、算出した発言量を用いて参加者の発言の状況を特定する(S15)。参加者の発言の状況は、例えば参加者の発言量の合計値又は積分値、あるいは参加者の発言量の合計値又は積分値の参加者間の比(すなわち相対値)である。   Next, the analysis unit 114 determines which participant has spoken at each time based on the sound acquired by the sound acquisition unit 112 and the direction of the sound source estimated by the sound source localization unit 113. The amount of speech for each hour is calculated. And the analysis part 114 specifies the situation of a participant's utterance using the calculated amount of utterances (S15). The state of the participant's speech is, for example, a total value or an integral value of the participant's speech amount, or a ratio (that is, a relative value) between the participants of the total value or the integral value of the participant's speech amount.

また、分析部114は、参加者の時間ごとの発言量をグループごとに合計することによってグループの時間ごとの発言量を算出し、算出した発言量を用いてグループの発言の状況を特定する(S16)。グループの発言の状況は、例えばグループの発言量の合計値又は積分値、あるいはグループの発言量の合計値又は積分値のグループ間の比(すなわち相対値)である。分析部114は、各参加者及び各グループの発言の状況を示す状況情報を、分析結果として分析結果記憶部133に記憶させる。   Further, the analysis unit 114 calculates the amount of speech for each group time by adding the amount of speech for each participant for each group, and specifies the state of the group speech using the calculated amount of speech ( S16). The state of the group speech is, for example, the total value or integral value of the group speech amount, or the ratio (ie, relative value) of the total value or integral value of the group speech amount between the groups. The analysis unit 114 causes the analysis result storage unit 133 to store status information indicating the status of the speech of each participant and each group as an analysis result.

出力部115は、各参加者及び各グループの発言の状況を示す状況情報を集音装置10及び通信端末20に送信することによって、各参加者及び各グループの発言の状況を示す情報を表示する制御を行う(S17)。   The output unit 115 displays information indicating the state of speech of each participant and each group by transmitting the state information indicating the state of speech of each participant and each group to the sound collection device 10 and the communication terminal 20. Control is performed (S17).

集音装置10は、音声分析装置100から受信した状況情報に従って、全体ランプ11及び個別ランプ12を発光させることによって、各参加者及び各グループの発言の状況を示す情報を表示する(S18)。通信端末20は、音声分析装置100から受信した表示情報に従って、各参加者及び各グループの発言の状況を示す情報を表す全体状況画面D及び個別状況画面Eを、表示部21に表示させる(S19)。音声分析装置100は、所定の時間間隔でステップS12〜S19を繰り返すことによって、リアルタイム処理で音声を分析する。   The sound collection device 10 displays information indicating the speech status of each participant and each group by causing the overall lamp 11 and the individual lamp 12 to emit light according to the status information received from the voice analysis device 100 (S18). In accordance with the display information received from the voice analysis device 100, the communication terminal 20 causes the display unit 21 to display an overall status screen D and an individual status screen E representing information indicating the status of each participant and each group. ). The voice analysis device 100 analyzes the voice by real-time processing by repeating steps S12 to S19 at predetermined time intervals.

[本実施形態の効果]
本実施形態に係る音声分析装置100は、複数の集音部を有する集音装置10を用いて取得した音声に基づいて集音装置10に係るグループにおける発言の状況を特定し、集音装置10又は通信端末20に表示させる。そのため、複数のグループが同時に議論を行っている場合であっても、議論の分析者又は補助者は、集音装置10又は通信端末20における表示を参照することによって、複数のグループにおける発言の状況を容易に把握することができる。
[Effect of this embodiment]
The speech analysis apparatus 100 according to the present embodiment identifies the state of speech in the group related to the sound collection device 10 based on the sound acquired using the sound collection device 10 having a plurality of sound collection units, and the sound collection device 10. Alternatively, it is displayed on the communication terminal 20. Therefore, even if a plurality of groups are discussing at the same time, the analyst or assistant of the discussion can refer to the display on the sound collection device 10 or the communication terminal 20 to determine the state of remarks in the plurality of groups. Can be easily grasped.

音声分析装置100が集音装置10上に発言の状況を表示する場合に、議論の分析者又は補助者に加えて、参加者も自身が属するグループの発言の状況を客観的に知ることができる。また、集音装置10上で参加者ごとに設けられた個別ランプ12に発言の状況を表示することによって、参加者は自身の発言の状況を他の参加者の発言の状況と容易に区別することができる。   When the voice analysis device 100 displays the speech status on the sound collection device 10, in addition to the analyst or assistant of the discussion, the participant can objectively know the status of the speech of the group to which the speech analysis device 100 belongs. . Further, by displaying the state of speech on the individual lamp 12 provided for each participant on the sound collection device 10, the participant can easily distinguish his speech status from the speech status of other participants. be able to.

音声分析装置100が通信端末20上に発言の状況を表示する場合に、議論の分析者又は補助者は、全てのグループの発言の状況を俯瞰的に見ることができる。また、各集音装置10にランプを設ける必要がないため低コストである。   When the speech analysis apparatus 100 displays the speech status on the communication terminal 20, the discussion analyst or assistant can view the speech status of all groups from a bird's-eye view. Further, since it is not necessary to provide a lamp for each sound collecting device 10, the cost is low.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment, A various deformation | transformation and change are possible within the range of the summary. is there. For example, the specific embodiments of device distribution / integration are not limited to the above-described embodiments, and all or a part of them may be configured to be functionally or physically distributed / integrated in arbitrary units. Can do. In addition, new embodiments generated by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effect of the new embodiment produced by the combination has the effect of the original embodiment.

上述の説明において、音声分析装置100は集音装置10を参加者が取り囲んで行われる議論における音声の分析に用いられているが、その他の用途にも適用できる。例えば音声分析装置100は、ポスターセッション等において1人の解説者が複数の観客に対して説明するような状況にも適用できる。   In the above description, the voice analysis device 100 is used for voice analysis in the discussion that is performed by the participants surrounding the sound collection device 10, but it can also be applied to other uses. For example, the speech analysis apparatus 100 can be applied to a situation where one commentator explains to a plurality of audiences in a poster session or the like.

音声分析装置100、集音装置10及び通信端末20のプロセッサは、図9に示す音声分析方法に含まれる各ステップ(工程)の主体となる。すなわち、音声分析装置100、集音装置10及び通信端末20のプロセッサは、図9に示す音声分析方法を実行するためのプログラムを記憶部から読み出し、該プログラムを実行して音声分析装置100、集音装置10及び通信端末20の各部を制御することによって、図9に示す音声分析方法を実行する。図9に示す音声分析方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。   The processors of the speech analysis device 100, the sound collection device 10, and the communication terminal 20 are the main components of each step (process) included in the speech analysis method shown in FIG. That is, the speech analysis apparatus 100, the sound collection apparatus 10, and the processor of the communication terminal 20 read out a program for executing the speech analysis method shown in FIG. The voice analysis method shown in FIG. 9 is executed by controlling each unit of the sound device 10 and the communication terminal 20. Some steps included in the speech analysis method shown in FIG. 9 may be omitted, the order between steps may be changed, and a plurality of steps may be performed in parallel.

S 音声分析システム
100 音声分析装置
110 制御部
111 設定部
112 音声取得部
114 分析部
115 出力部
10 集音装置
20 通信端末
21 表示部
S voice analysis system 100 voice analysis device 110 control unit 111 setting unit 112 voice acquisition unit 114 analysis unit 115 output unit 10 sound collector 20 communication terminal 21 display unit

Claims (11)

複数の集音装置それぞれに関連付けて、該集音装置を取り囲む複数の参加者の情報を記憶する記憶部と、
前記複数の集音装置それぞれから、前記記憶部において該集音装置に関連付けられた前記複数の参加者が発した音声を取得する取得部と、
前記取得部が前記複数の集音装置それぞれから取得した前記音声における、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言を特定する分析部と、
前記複数の集音装置それぞれに関連付けて、前記記憶部において該集音装置に関連付けられた前記複数の参加者の該集音装置ごとの発言量を示す情報と、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言量を示す情報とを、発言の状況を示す情報として表示部に表示させる出力部と、
を有する音声分析装置。
A storage unit that stores information on a plurality of participants surrounding the sound collection device in association with each of the plurality of sound collection devices;
From each of the plurality of sound collection devices , an acquisition unit that obtains sounds emitted by the plurality of participants associated with the sound collection device in the storage unit ;
An analysis unit that identifies a speech of each of the plurality of participants associated with the sound collection device in the storage unit in the sound acquired by the acquisition unit from each of the plurality of sound collection devices ;
In association with each of the plurality of sound collection devices , information indicating the amount of speech for each sound collection device of the plurality of participants associated with the sound collection device in the storage unit, and the sound collection device in the storage unit An output unit that displays information indicating the amount of each of the plurality of participants associated with the display unit as information indicating a state of the statement;
A voice analysis apparatus having
前記出力部は、前記音声分析装置と通信する通信端末に設けられた前記表示部に、前記発言の状況を示す情報を表示させる、請求項に記載の音声分析装置。 The speech analysis apparatus according to claim 1 , wherein the output unit displays information indicating the state of the utterance on the display unit provided in a communication terminal that communicates with the speech analysis apparatus. 前記出力部は、前記複数の集音装置それぞれの位置に対応する前記通信端末に設けられた前記表示部上の位置に、前記発言の状況を示す情報を表示させる、請求項に記載の音声分析装置。 The output unit corresponds to the position of each of the plurality of sound collecting devices, the position on the display unit provided in the communication terminal to display the information indicating the status of the talk, according to claim 2 Voice analysis device. 前記出力部は、前記複数の集音装置のいずれかに所定の人物が接近した場合に、該集音装置の位置に対応する前記通信端末に設けられた前記表示部上の位置に、前記人物の接近を示す情報を表示させる、請求項又はに記載の音声分析装置。 When the predetermined person approaches one of the plurality of sound collectors, the output unit is configured to place the person at a position on the display unit provided in the communication terminal corresponding to the position of the sound collector. The voice analysis device according to claim 2 or 3 , wherein information indicating the approach of the is displayed. 前記複数の集音装置の間で授受される信号に基づいて、前記複数の集音装置それぞれの位置を設定する設定部をさらに有する、請求項1から4のいずれか一項に記載の音声分析装置。 5. The voice analysis according to claim 1, further comprising: a setting unit configured to set a position of each of the plurality of sound collecting devices based on a signal exchanged between the plurality of sound collecting devices. apparatus. 前記出力部は、前記複数の集音装置それぞれに設けられた前記表示部に、前記発言の状況を示す情報を表示させる、請求項1からのいずれか一項に記載の音声分析装置。 And the output unit, the multiple sound collector the display unit provided to each, to display the information indicating the status of the talk, voice analysis device according to any one of claims 1 to 5. 前記出力部は、前記複数の集音装置それぞれに設けられた前記表示部に、前記集音装置ごとの前記発言の状況を示す情報を表示させる、請求項に記載の音声分析装置。 The voice analysis device according to claim 6 , wherein the output unit displays information indicating a status of the utterance for each of the sound collecting devices on the display unit provided in each of the plurality of sound collecting devices. 前記出力部は、前記複数の集音装置それぞれにおいて前記複数の参加者それぞれに向けて設けられた前記表示部に、前記参加者ごとの前記発言の状況を示す情報を表示させる、請求項又はに記載の音声分析装置。 And the output unit, the at each of the plurality of sound collection devices on the display unit provided towards each of the plurality of participants, and displays the information indicating the status of the speech of each of the participants, according to claim 6 or 8. The voice analysis device according to 7 . プロセッサが、
複数の集音装置それぞれに関連付けて、該集音装置を取り囲む複数の参加者の情報を記憶部に記憶させるステップと、
前記複数の集音装置それぞれから、前記記憶部において該集音装置に関連付けられた前記複数の参加者が発した音声を取得するステップと、
前記取得するステップが前記複数の集音装置それぞれから取得した前記音声における、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言を特定するステップと、
前記複数の集音装置それぞれに関連付けて、前記記憶部において該集音装置に関連付けられた前記複数の参加者の該集音装置ごとの発言量を示す情報と、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言量を示す情報とを、発言の状況を示す情報として表示部に表示させるステップと、
を実行する音声分析方法。
Processor
Storing information on a plurality of participants surrounding the sound collection device in a storage unit in association with each of the plurality of sound collection devices;
From each of the plurality of sound collecting devices, a step of acquiring speech said plurality of participants uttered associated with said population sound device in the storage unit,
Identifying the utterances of each of the plurality of participants associated with the sound collection device in the storage unit in the sound acquired from each of the plurality of sound collection devices ;
In association with each of the plurality of sound collection devices , information indicating the amount of speech for each sound collection device of the plurality of participants associated with the sound collection device in the storage unit, and the sound collection device in the storage unit Displaying information indicating the amount of speech of each of the plurality of participants associated with a display unit as information indicating the status of the speech;
Perform voice analysis method.
コンピュータに、
複数の集音装置それぞれに関連付けて、該集音装置を取り囲む複数の参加者の情報を記憶部に記憶させるステップと、
前記複数の集音装置それぞれから、前記記憶部において該集音装置に関連付けられた前記複数の参加者が発した音声を取得するステップと、
前記取得するステップが前記複数の集音装置それぞれから取得した前記音声における、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言を特定するステップと、
前記複数の集音装置それぞれに関連付けて、前記記憶部において該集音装置に関連付けられた前記複数の参加者の該集音装置ごとの発言量を示す情報と、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言量を示す情報とを、発言の状況を示す情報として表示部に表示させるステップと、
を実行させる音声分析プログラム。
On the computer,
Storing information on a plurality of participants surrounding the sound collection device in a storage unit in association with each of the plurality of sound collection devices;
From each of the plurality of sound collecting devices, a step of acquiring speech said plurality of participants uttered associated with said population sound device in the storage unit,
Identifying the utterances of each of the plurality of participants associated with the sound collection device in the storage unit in the sound acquired from each of the plurality of sound collection devices ;
In association with each of the plurality of sound collection devices , information indicating the amount of speech for each sound collection device of the plurality of participants associated with the sound collection device in the storage unit, and the sound collection device in the storage unit Displaying information indicating the amount of speech of each of the plurality of participants associated with a display unit as information indicating the status of the speech;
Voice analysis program that runs
音声分析装置と、前記音声分析装置と通信可能な通信端末及び複数の集音装置と、を備え、
前記通信端末及び前記複数の集音装置の少なくとも一方は、情報を表示する表示部を有し、
前記音声分析装置は、
複数の集音装置それぞれに関連付けて、該集音装置を取り囲む複数の参加者の情報を記憶する記憶部と、
前記複数の集音装置それぞれから、前記記憶部において該集音装置に関連付けられた前記複数の参加者が発した音声を取得する取得部と、
前記取得部が前記複数の集音装置それぞれから取得した前記音声における、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言を特定する分析部と、
前記複数の集音装置それぞれに関連付けて、前記記憶部において該集音装置に関連付けられた前記複数の参加者の該集音装置ごとの発言量を示す情報と、前記記憶部において該集音装置に関連付けられた前記複数の参加者それぞれの発言量を示す情報とを、発言の状況を示す情報として前記表示部に表示させる出力部と、
を有する、音声分析システム。
A speech analyzer, a communication terminal capable of communicating with the speech analyzer and a plurality of sound collectors,
At least one of the communication terminal and the plurality of sound collecting devices has a display unit for displaying information,
The speech analyzer is
A storage unit that stores information on a plurality of participants surrounding the sound collection device in association with each of the plurality of sound collection devices;
From each of the plurality of sound collection devices , an acquisition unit that obtains sounds emitted by the plurality of participants associated with the sound collection device in the storage unit ;
An analysis unit that identifies a speech of each of the plurality of participants associated with the sound collection device in the storage unit in the sound acquired by the acquisition unit from each of the plurality of sound collection devices ;
In association with each of the plurality of sound collection devices , information indicating the amount of speech for each sound collection device of the plurality of participants associated with the sound collection device in the storage unit, and the sound collection device in the storage unit an output unit for displaying the information indicating the plurality of participants each utterance amount associated, on the display unit as the information indicating the status of the remarks,
A speech analysis system.
JP2018502281A 2018-01-16 2018-01-16 Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system Active JP6589042B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019166860A JP6975756B2 (en) 2018-01-16 2019-09-13 Voice analyzer, voice analysis method, voice analysis program and voice analysis system
JP2021182091A JP7149019B2 (en) 2018-01-16 2021-11-08 Speech analysis device, speech analysis method, speech analysis program and speech analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/000944 WO2019142233A1 (en) 2018-01-16 2018-01-16 Voice analysis device, voice analysis method, voice analysis program, and voice analysis system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019166860A Division JP6975756B2 (en) 2018-01-16 2019-09-13 Voice analyzer, voice analysis method, voice analysis program and voice analysis system

Publications (2)

Publication Number Publication Date
JP6589042B1 true JP6589042B1 (en) 2019-10-09
JPWO2019142233A1 JPWO2019142233A1 (en) 2020-01-23

Family

ID=67302072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018502281A Active JP6589042B1 (en) 2018-01-16 2018-01-16 Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system

Country Status (2)

Country Link
JP (1) JP6589042B1 (en)
WO (1) WO2019142233A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414319B2 (en) * 2021-11-08 2024-01-16 ハイラブル株式会社 Speech analysis device, speech analysis method, speech analysis program and speech analysis system
WO2023209898A1 (en) * 2022-04-27 2023-11-02 ハイラブル株式会社 Voice analysis device, voice analysis method, and voice analysis program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010074494A (en) * 2008-09-18 2010-04-02 Yamaha Corp Conference support device
JP2010176544A (en) * 2009-01-30 2010-08-12 Toshiba Corp Conference support device
JP2011081581A (en) * 2009-10-07 2011-04-21 Ricoh Co Ltd Conference progress supporting apparatus
JP2015195554A (en) * 2013-09-30 2015-11-05 株式会社Jvcケンウッド Voice volume notification device
JP2016206355A (en) * 2015-04-20 2016-12-08 本田技研工業株式会社 Conversation analysis device, conversation analysis method, and program
JP2017161731A (en) * 2016-03-09 2017-09-14 本田技研工業株式会社 Conversation analyzer, conversation analysis method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262046A (en) * 2007-04-12 2008-10-30 Hitachi Ltd Conference visualizing system and method, conference summary processing server
JP2009194857A (en) * 2008-02-18 2009-08-27 Sharp Corp Communication conference system, communication apparatus, communication conference method, and computer program
JP5949843B2 (en) * 2013-06-28 2016-07-13 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing apparatus control method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010074494A (en) * 2008-09-18 2010-04-02 Yamaha Corp Conference support device
JP2010176544A (en) * 2009-01-30 2010-08-12 Toshiba Corp Conference support device
JP2011081581A (en) * 2009-10-07 2011-04-21 Ricoh Co Ltd Conference progress supporting apparatus
JP2015195554A (en) * 2013-09-30 2015-11-05 株式会社Jvcケンウッド Voice volume notification device
JP2016206355A (en) * 2015-04-20 2016-12-08 本田技研工業株式会社 Conversation analysis device, conversation analysis method, and program
JP2017161731A (en) * 2016-03-09 2017-09-14 本田技研工業株式会社 Conversation analyzer, conversation analysis method and program

Also Published As

Publication number Publication date
JPWO2019142233A1 (en) 2020-01-23
WO2019142233A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
KR102694487B1 (en) Systems and methods supporting selective listening
CN111739553B (en) Conference sound collection, conference record and conference record presentation method and device
JP2007318438A (en) Voice state data generating device, voice state visualizing device, voice state data editing device, voice data reproducing device, and voice communication system
JP2018036690A (en) One-versus-many communication system, and program
JP6589042B1 (en) Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system
WO2016198132A1 (en) Communication system, audio server, and method for operating a communication system
CN110544532A (en) sound source space positioning ability detecting system based on APP
JP6646134B2 (en) Voice analysis device, voice analysis method, voice analysis program, and voice analysis system
JP7414319B2 (en) Speech analysis device, speech analysis method, speech analysis program and speech analysis system
JP6975756B2 (en) Voice analyzer, voice analysis method, voice analysis program and voice analysis system
JP7149019B2 (en) Speech analysis device, speech analysis method, speech analysis program and speech analysis system
JP6589040B1 (en) Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system
KR102350890B1 (en) Portable hearing test device
CN112741622B (en) Audiometric system, audiometric method, audiometric device, earphone and terminal equipment
JP7427274B2 (en) Speech analysis device, speech analysis method, speech analysis program and speech analysis system
JP2018049140A (en) Voice analyzing program, voice analyzer, and voice analysis method
US10505879B2 (en) Communication support device, communication support method, and computer program product
WO2023210052A1 (en) Voice analysis device, voice analysis method, and voice analysis program
JP6589041B1 (en) Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system
JP6975755B2 (en) Voice analyzer, voice analysis method, voice analysis program and voice analysis system
WO2023079602A1 (en) Voice analysis device and voice analysis method
US20240181201A1 (en) Methods and devices for hearing training
JP2019046018A (en) Annotation device and noise measurement system
JP4551105B2 (en) Conference support system and server
CN116156057A (en) Call training method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190913

R150 Certificate of patent or registration of utility model

Ref document number: 6589042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250