JP2020148930A - Voice analyzer, voice analysis system and voice analysis method - Google Patents
Voice analyzer, voice analysis system and voice analysis method Download PDFInfo
- Publication number
- JP2020148930A JP2020148930A JP2019046989A JP2019046989A JP2020148930A JP 2020148930 A JP2020148930 A JP 2020148930A JP 2019046989 A JP2019046989 A JP 2019046989A JP 2019046989 A JP2019046989 A JP 2019046989A JP 2020148930 A JP2020148930 A JP 2020148930A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- participant
- communication terminal
- participants
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、複数の参加者による議論の音声を分析するための音声分析装置、音声分析システム及び音声分析方法に関する。 The present invention relates to a voice analyzer, a voice analysis system, and a voice analysis method for analyzing the voice of a discussion by a plurality of participants.
特許文献1には、複数の参加者が参加する会議等の議論において、カメラ及びマイクを備える装置をテーブル上に載置し、該カメラが撮像した顔画像を用いて話者の方位を特定するとともに、該マイクが取得した音声を用いて発話内容を特定し、話者と発話内容とを対応付けて記録するシステムが記載されている。
In
特許文献1に記載のシステムは、カメラ及びマイクを一体化した装置を議論のグループごとに必要とするため、導入のために高いコストが掛かる。学生が行うアクティブ・ラーニングの音声の分析や、組織における会議の音声の分析においては、多数のグループが並行して議論を行うことが想定されるため、低いコストで音声の分析を可能にすることが求められている。
Since the system described in
本発明はこれらの点に鑑みてなされたものであり、複数の参加者が参加する議論における音声を分析するためのコストを削減することを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to reduce the cost for analyzing speech in a discussion in which a plurality of participants participate.
本発明の第1の態様の音声分析装置は、集音装置の周囲で複数の参加者が発した音声を分析する音声分析装置であって、通信端末が取得した、前記集音装置を識別可能な集音装置識別情報と、前記参加者を識別可能な参加者識別情報と、前記集音装置に対する位置を指定する位置指定情報とを、前記通信端末から受信する受信部と、前記受信部が受信した前記集音装置識別情報、前記参加者識別情報及び前記位置指定情報に基づいて、前記集音装置に対する前記複数の参加者それぞれの位置を設定する位置設定部と、前記集音装置から前記音声を取得する音声取得部と、前記位置設定部が設定した前記複数の参加者それぞれの前記位置に基づいて、前記音声取得部が取得した前記音声に含まれる前記複数の参加者それぞれが発した前記音声を分析する音声分析部と、を有する。 The voice analyzer of the first aspect of the present invention is a voice analyzer that analyzes sounds emitted by a plurality of participants around the sound collector, and can identify the sound collector acquired by the communication terminal. A receiving unit that receives the sound collecting device identification information, the participant identification information that can identify the participant, and the position designation information that specifies the position with respect to the sound collecting device from the communication terminal, and the receiving unit. A position setting unit that sets the position of each of the plurality of participants with respect to the sound collector based on the received sound collector identification information, the participant identification information, and the position designation information, and the sound collector from the sound collector. Based on the voice acquisition unit for acquiring the sound and the positions of the plurality of participants set by the position setting unit, each of the plurality of participants included in the sound acquired by the voice acquisition unit emitted the sound. It has a sound analysis unit that analyzes the sound.
前記受信部は、前記集音装置に付された前記集音装置を識別可能な第1の識別情報提示部を前記通信端末が読み取ることによって取得された前記集音装置識別情報を、前記通信端末から受信してもよい。 The receiving unit uses the communication terminal to obtain the sound collecting device identification information acquired by the communication terminal reading a first identification information presenting unit attached to the sound collecting device that can identify the sound collecting device. May be received from.
前記受信部は、前記複数の参加者それぞれが有する前記複数の参加者それぞれを識別可能な第2の識別情報提示部を前記通信端末が読み取ることによって取得された前記参加者識別情報を、前記通信端末から受信してもよい。 The receiving unit communicates the participant identification information acquired by the communication terminal reading a second identification information presenting unit that can identify each of the plurality of participants possessed by the plurality of participants. It may be received from the terminal.
前記受信部は、前記複数の参加者それぞれの生体情報を前記通信端末が読み取ることによって取得された前記参加者識別情報を、前記通信端末から受信してもよい。 The receiving unit may receive the participant identification information acquired by the communication terminal reading the biometric information of each of the plurality of participants from the communication terminal.
前記位置設定部は、前記位置指定情報に基づいて、予め設定された前記集音装置の周囲の座席配置の中で前記複数の参加者それぞれの座席の位置を選択し、選択した前記座席の位置を前記参加者の位置として設定してもよい。 Based on the position designation information, the position setting unit selects the seat positions of the plurality of participants in the seat arrangement around the sound collecting device set in advance, and the selected seat positions. May be set as the position of the participant.
前記受信部は、前記通信端末が前記複数の参加者それぞれの前記参加者識別情報を取得した順番を前記位置指定情報として受信し、前記位置設定部は、前記受信部が受信した前記順番に基づいて、前記座席配置の中で前記複数の参加者それぞれの前記座席の位置を選択してもよい。 The receiving unit receives the order in which the communication terminal acquires the participant identification information of each of the plurality of participants as the position designation information, and the position setting unit is based on the order received by the receiving unit. Therefore, the position of the seat of each of the plurality of participants may be selected in the seat arrangement.
前記受信部は、前記通信端末に対する操作を前記位置指定情報として受信し、前記位置設定部は、前記受信部が受信した前記操作に基づいて、前記座席配置の中で前記複数の参加者それぞれの前記座席の位置を選択してもよい。 The receiving unit receives an operation on the communication terminal as the position designation information, and the position setting unit receives each of the plurality of participants in the seat arrangement based on the operation received by the receiving unit. The position of the seat may be selected.
本発明の第2の態様の音声分析システムは、集音装置の周囲で複数の参加者が発した音声を分析する音声分析装置と、前記音声分析装置と通信可能な通信端末とを含む音声分析システムであって、前記通信端末は、前記集音装置を識別可能な集音装置識別情報と、前記参加者を識別可能な参加者識別情報と、前記集音装置に対する位置を指定する位置指定情報とを取得する取得部と、前記集音装置識別情報と、前記参加者識別情報と、前記位置指定情報とを送信する送信部と、を有し、前記音声分析装置は、前記通信端末が取得した、前記集音装置識別情報と、前記参加者識別情報と、前記位置指定情報とを、前記通信端末から受信する受信部と、前記受信部が受信した前記集音装置識別情報、前記参加者識別情報及び前記位置指定情報に基づいて、前記集音装置に対する前記複数の参加者それぞれの位置を設定する位置設定部と、前記集音装置から前記音声を取得する音声取得部と、前記位置設定部が設定した前記複数の参加者それぞれの前記位置に基づいて、前記音声取得部が取得した前記音声に含まれる前記複数の参加者それぞれが発した前記音声を分析する音声分析部と、を有する。 The voice analysis system according to the second aspect of the present invention includes a voice analyzer that analyzes sounds emitted by a plurality of participants around the sound collector, and a communication terminal capable of communicating with the voice analyzer. In the system, the communication terminal has sound collector identification information that can identify the sound collector, participant identification information that can identify the participant, and position designation information that specifies a position with respect to the sound collector. The voice analyzer has the acquisition unit for acquiring the above, the sound collector identification information, the participant identification information, and the transmission unit for transmitting the position designation information, and the communication terminal acquires the voice analyzer. A receiving unit that receives the sound collecting device identification information, the participant identification information, and the position designation information from the communication terminal, the sound collecting device identification information received by the receiving unit, and the participant. A position setting unit that sets the position of each of the plurality of participants with respect to the sound collector based on the identification information and the position designation information, a sound acquisition unit that acquires the sound from the sound collector, and the position setting. It has a voice analysis unit that analyzes the sound emitted by each of the plurality of participants included in the sound acquired by the sound acquisition unit based on the position of each of the plurality of participants set by the unit. ..
本発明の第3の態様の音声分析方法は、集音装置の周囲で複数の参加者が発した音声を分析する音声分析方法であって、プロセッサが実行する、通信端末が取得した、前記集音装置を識別可能な集音装置識別情報と、前記参加者を識別可能な参加者識別情報と、前記集音装置に対する位置を指定する位置指定情報とを、前記通信端末から受信するステップと、前記受信するステップが受信した前記集音装置識別情報、前記参加者識別情報及び前記位置指定情報に基づいて、前記集音装置に対する前記複数の参加者それぞれの位置を設定するステップと、前記集音装置から前記音声を取得するステップと、前記設定するステップが設定した前記複数の参加者それぞれの前記位置に基づいて、前記取得するステップが取得した前記音声に含まれる前記複数の参加者それぞれが発した前記音声を分析するステップと、を有する。 The voice analysis method of the third aspect of the present invention is a voice analysis method for analyzing sounds emitted by a plurality of participants around a sound collector, which is executed by a processor and acquired by a communication terminal. A step of receiving from the communication terminal the sound collector identification information that can identify the sound device, the participant identification information that can identify the participant, and the position designation information that specifies the position with respect to the sound collector. A step of setting the position of each of the plurality of participants with respect to the sound collecting device based on the sound collecting device identification information, the participant identification information, and the position designation information received by the receiving step, and the sound collecting. Based on the step of acquiring the sound from the device and the position of each of the plurality of participants set by the step to be set, each of the plurality of participants included in the sound acquired by the acquisition step emits. It has a step of analyzing the said voice.
本発明によれば、複数の参加者が参加する議論における音声を分析するためのコストを削減できるという効果を奏する。 According to the present invention, there is an effect that the cost for analyzing speech in a discussion in which a plurality of participants participate can be reduced.
[音声分析システムSSの概要]
図1は、本実施形態に係る音声分析システムSSの模式図である。音声分析システムSSは、音声分析装置1と、通信端末2と、集音装置3とを含む。音声分析システムSSが含む通信端末2及び集音装置3の数は限定されない。音声分析システムSSは、その他のサーバ、端末等の機器を含んでもよい。
[Overview of voice analysis system SS]
FIG. 1 is a schematic diagram of a voice analysis system SS according to the present embodiment. The voice analysis system SS includes a
集音装置3は、異なる向きに配置された複数の集音部(マイクロフォン)を含むマイクロフォンアレイを備える。例えばマイクロフォンアレイは、地面に対する水平面において、同一円周上に等間隔で配置された8個のマイクロフォンを含む。このようなマイクロフォンアレイを用いることによって、音声分析装置1は、集音装置3を取り囲んでいる複数の参加者Uが発した音声に基づいて、いずれの参加者Uが話者(音源)であるかを特定することができる。集音装置3は、マイクロフォンアレイを用いて取得した音声をデータとして音声分析装置1へ送信する。
The
通信端末2は、通信を行うことが可能なコンピュータである。通信端末2は、例えばパーソナルコンピュータ等のコンピュータ端末、又はスマートフォン等の携帯端末である。通信端末2は、音声分析装置1に対して分析条件を設定し、また音声分析装置1から受信した情報を表示する。
The
音声分析装置1は、集音装置3によって取得された音声を用いて音声を分析するコンピュータである。音声分析装置1は、例えば単一のコンピュータ、又はコンピュータ資源の集合であるクラウドによって構成される。
The
音声分析装置1は、ローカルエリアネットワーク、インターネット等のネットワークNを介して、通信端末2及び集音装置3に有線又は無線で接続される。音声分析装置1は、通信端末2及び集音装置3のうち少なくとも一方に、ネットワークNを介さず直接接続されてもよい。
The
集音装置3は、議論を実施する部屋や建物ごとに配置されている管理端末と無線LAN(Local Area Network)によって通信し、該管理端末を介して音声分析装置1とデータを授受してもよい。あるいは集音装置3は、移動体通信用のSIM(Subscriber Identity Module)を備え、音声分析装置1と移動体通信によって通信してもよい。この場合には、集音装置3と管理端末との間で無線LANを構築する必要がないため、集音装置3が配置されている場所のネットワーク構成や電波の混雑状況に影響を受けづらい。
Even if the
音声分析システムSSが実行する処理の概要を以下に説明する。参加者Uは、議論を開始する前に、集音装置3に付されたタグTを通信端末2に読み取らせる。また、参加者Uは、参加者Uの学生証、社員証等のカードCを通信端末2に読み取らせる。
The outline of the processing executed by the voice analysis system SS will be described below. Participant U has the
通信端末2は、読み取ったタグTが示す集音装置3の識別情報と、読み取ったカードCが示す参加者Uの識別情報と、集音装置3に対する位置を指定する情報とを、音声分析装置1へ送信する。集音装置3に対する位置は、通信端末2が複数の参加者Uの複数のカードCを読み取った順番、又は通信端末2に対する参加者Uの操作によって示される。
The
音声分析装置1は、通信端末2から受信した集音装置3の識別情報、参加者Uの識別情報及び集音装置3に対する位置を指定する情報に基づいて、集音装置3に対する複数の参加者Uそれぞれの位置を設定する。そして音声分析装置1は、設定した複数の参加者Uの位置に基づいて、集音装置3から取得した音声を分析し、通信端末2を用いて分析結果を出力する。
The
本実施形態に係る音声分析システムSSによれば、通信端末2を用いて取得した情報に基づいて集音装置3を基準とした複数の参加者Uの相対的な位置を特定し、特定した位置に基づいて集音装置3を用いて取得した音声を分析して複数の参加者Uそれぞれの発話を分析する。そのため、音声分析システムSSは、集音装置3上にカメラを設ける必要がないため、複数の参加者Uが参加する議論における音声を分析するためのコストを削減できる。また、音声分析システムSSは、参加者Uごとにマイクを配置する必要がないため、複数の参加者Uに対応する複数のマイクを配置する手間を削減できる。
According to the voice analysis system SS according to the present embodiment, the relative positions of the plurality of participants U with respect to the
[音声分析システムSSの構成]
図2は、本実施形態に係る音声分析システムSSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に分かれて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Voice analysis system SS configuration]
FIG. 2 is a block diagram of the voice analysis system SS according to the present embodiment. In FIG. 2, the arrows indicate the main data flows, and there may be data flows not shown in FIG. In FIG. 2, each block shows a functional unit configuration, not a hardware (device) unit configuration. Therefore, the block shown in FIG. 2 may be mounted in a single device, or may be mounted separately in a plurality of devices. Data transfer between blocks may be performed via any means such as a data bus, a network, or a portable storage medium.
音声分析装置1は、制御部11と、記憶部12とを有する。制御部11は、受信部111と、位置設定部112と、音声取得部113と、音声分析部114と、出力部115とを有する。記憶部12は、設定情報記憶部121と、分析結果記憶部122とを有する。
The
記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部12は、制御部11が実行するプログラムを予め記憶している。記憶部12は、音声分析装置1の外部に設けられてもよく、その場合にネットワークを介して制御部11との間でデータの授受を行ってもよい。
The storage unit 12 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like. The storage unit 12 stores in advance the program executed by the control unit 11. The storage unit 12 may be provided outside the
設定情報記憶部121は、音声の分析に用いられる設定情報を記憶する。分析結果記憶部122は、音声の分析結果を記憶する。設定情報記憶部121及び分析結果記憶部122は、それぞれ記憶部12上の記憶領域であってもよく、あるいは記憶部12上で構成されたデータベースであってもよい。
The setting
制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部12に記憶されたプログラムを実行することにより、受信部111、位置設定部112、音声取得部113、音声分析部114及び出力部115として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
The control unit 11 is, for example, a processor such as a CPU (Central Processing Unit), and by executing a program stored in the storage unit 12, the
通信端末2は、制御部21と、記憶部22と、読取部23と、表示部24とを有する。制御部21は、取得部211と、送信部212と、受信部213とを有する。表示部24は、液晶ディスプレイ等、情報を表示可能な表示装置を含む。表示部24として人間による接触の位置を検出可能なタッチスクリーンを用いてもよい。
The
読取部23は、後述する集音装置ID及び参加者IDの取得方法に応じた構成を備える。読取部23は、集音装置ID及び参加者IDがタグT及びカードCに搭載されたIC(Integrated Circuit)チップに記録されている場合に、近距離無線通信によって該ICチップに記録された情報を読み取ることが可能な近距離無線通信装置を備える。近距離無線通信は、例えばNFC(Near Field Communication)である。読取部23は、集音装置ID及び参加者IDがタグT及びカードC上のコードによって表される場合に、該コードを撮像可能な撮像装置を備える。コードは、例えばバーコード又は2次元コードである。
The
また、参加者の顔を認識することによって参加者IDが取得される場合に、読取部23は、参加者の顔を撮像可能な撮像装置を備える。また、参加者の指紋を認識することによって参加者IDが取得される場合に、読取部23は、指紋スキャナを備える。
Further, when the participant ID is acquired by recognizing the participant's face, the
記憶部22は、ROM、RAM、ハードディスクドライブ等を含む記憶媒体である。記憶部22は、制御部21が実行するプログラムを予め記憶している。記憶部22は、通信端末2の外部に設けられてもよく、その場合にネットワークを介して制御部21との間でデータの授受を行ってもよい。
The storage unit 22 is a storage medium including a ROM, a RAM, a hard disk drive, and the like. The storage unit 22 stores in advance the program executed by the
制御部21は、例えばCPU等のプロセッサであり、記憶部22に記憶されたプログラムを実行することにより、取得部211、送信部212及び受信部213として機能する。制御部21の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部21の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
The
本実施形態に係る音声分析装置1及び通信端末2は、図2に示す具体的な構成に限定されない。音声分析装置1及び通信端末2は、それぞれ1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。
The
[音声分析方法の説明]
本実施形態に係る音声分析システムSSが行う音声分析方法を以下に説明する。議論を開始する前に、通信端末2は、所定の操作が行われると、集音装置3の周囲の座席配置を設定するための座席配置設定画面を表示部24に表示させる。音声の分析者は、通信端末2において、座席配置設定画面上で集音装置3の周囲の座席配置を設定する操作を行う。分析者ではなく議論の参加者が、通信端末2を操作してもよい。
[Explanation of voice analysis method]
The voice analysis method performed by the voice analysis system SS according to the present embodiment will be described below. Before starting the discussion, the
図3は、座席配置設定画面を表示している通信端末2の正面図である。通信端末2は、設定領域241を表示している。設定領域241は、集音装置3を中心とした仮想的な円であり、設定領域241の周囲には集音装置3を中心とした角度が表されている。設定領域241の中には、座席の位置が円で表され、座席の位置の近傍には座席の番号242及びキャンセルボタン243が表される。座席の番号242は、設定済みの座席に対して、集音装置3を基準とした所定の向き(例えば時計回り)で順番に割り振られる。
FIG. 3 is a front view of the
分析者が設定領域241内の1点の位置を押下する操作を行った場合に、通信端末2は、該位置に新たな座席を設定し、設定領域241の中で該座席の位置を示す円を追加する。分析者がいずれかのキャンセルボタン243を押下する操作を行った場合に、通信端末2は、該キャンセルボタン243に対応する座席を削除又は無効化し、設定領域241の中で該座席の位置を示す円を消去又は無効化する。
When the analyst performs an operation of pressing the position of one point in the
分析者が、座席配置設定画面において完了ボタン244を押下した場合に、通信端末2の取得部211は、設定された座席配置(例えば集音装置3を中心とした複数の座席それぞれの角度)を取得する。ここに示した操作は一例であり、通信端末2は、分析者によるその他の操作によって座席配置を設定してもよい。
When the analyst presses the
通信端末2の送信部212は、取得部211が取得した座席配置を示す情報を、音声分析装置1へ送信する。音声分析装置1の受信部111は、通信端末2から受信した座席配置を示す情報を、設定情報記憶部121に記憶させる。
The
座席配置の設定は、全ての集音装置3に対して一括して行われてもよい。この場合に、座席配置を示す情報は、設定情報記憶部121において、全ての集音装置3の集音装置IDに関連付けられる。あるいは座席配置の設定は、集音装置3ごとに行われてもよい。この場合に、座席配置設定画面上で、分析者は、設定対象の1つ又は複数の集音装置IDを指定する操作を行う。そして座席配置を示す情報は、設定情報記憶部121において、指定された集音装置IDに関連付けられる。
The seat arrangement may be set for all the
議論を開始する際に、複数の参加者は、1つの集音装置3を取り囲んで着席する。議論に参加する複数の参加者のうち1人の参加者は、通信端末2において、集音装置3及び参加者を登録する操作を行う。参加者ではなく分析者が、通信端末2を操作してもよい。参加者は、集音装置3及び参加者を登録するために、上述の座席配置の設定に用いられた通信端末2と同一の通信端末2を用いてもよく、別の通信端末2を用いてもよい。
At the beginning of the discussion, a plurality of participants are seated around one
まず、音声分析システムSSは、議論の音声の取得に用いられる集音装置3を登録する処理を実行する。図4は、議論の音声の取得に用いられる集音装置3を登録する方法を説明するための模式図である。議論を開始する前に、通信端末2は、所定の操作が行われると、集音装置3を登録するための集音装置登録画面を表示部24に表示させる。通信端末2が集音装置登録画面を表示している状態で、参加者は、集音装置3に付されたタグTを通信端末2に読み取らせる。
First, the voice analysis system SS executes a process of registering the
図4の上段の図は、通信端末2が集音装置3に付されたタグTを読み取る処理を表している。集音装置3の上部には、タグTが付されている。タグTは、集音装置3を識別可能な集音装置識別情報(集音装置ID)を提示する識別情報提示部である。例えば集音装置IDは、予め分析者によって集音装置3に割り振られた数字又は文字列であってもよく、集音装置3固有の製造番号やMACアドレス(Media Access Control Address)であってもよい。
The upper part of FIG. 4 shows a process in which the
タグTは、集音装置IDを記録した、近距離無線通信(NFC等)用のICチップを搭載してもよい。この場合に、参加者が通信端末2をタグTに近づけると、通信端末2の読取部23としての近距離無線通信装置がタグTのICチップに記録された情報を近距離無線通信によって読み取る。通信端末2の取得部211は、読取部23がタグTのICチップから読み取った情報が示す集音装置IDを取得する。
The tag T may be equipped with an IC chip for short-range wireless communication (NFC or the like) that records the sound collecting device ID. In this case, when the participant brings the
タグTは、集音装置IDを所定の規則に従って符号化することによって生成したコード(バーコード、2次元コード等)を表面に表してもよい。この場合に、参加者が通信端末2をタグTに近づけると、通信端末2の読取部23としての撮像装置がタグTのコードを撮像する。通信端末2の取得部211は、読取部23が撮像した画像に含まれるタグTのコードを所定の規則に従って復号することによって集音装置IDを取得する。
The tag T may represent a code (bar code, two-dimensional code, etc.) generated by encoding the sound collecting device ID according to a predetermined rule on the surface. In this case, when the participant brings the
図4の下段の図は、集音装置登録画面を表示している通信端末2を表している。通信端末2は、集音装置登録画面において、図3と同様の設定領域241を表示している。取得部211が集音装置IDを取得した場合に、通信端末2は、設定領域241の中央部に取得部211が取得した集音装置IDを表すラベル245を表示する。ラベル245は、集音装置IDの全部を表してもよく、集音装置IDの一部を表してもよい。
The lower figure of FIG. 4 shows the
参加者が集音装置登録画面において完了ボタン244を押下すると、音声分析システムSSは、議論に参加する参加者を登録する処理に移る。図5(a)〜図5(c)は、議論に参加する参加者を登録する方法を説明するための模式図である。図4に示した集音装置登録画面で完了ボタン244が押下された場合に、通信端末2は、取得部211が取得した集音装置IDについて、議論に参加する複数の参加者を登録するための参加者登録画面を表示部24に表示させる。通信端末2が参加者登録画面を表示している状態で、参加者は、参加者を特定するための情報を、図5(a)〜図5(c)のいずれかの方法で、通信端末2に読み取らせる。
When the participant presses the
図5(a)は、参加者が有するカードCを通信端末2が読み取る処理を表している。カードCは、参加者を識別可能な参加者識別情報(参加者ID)を提示する識別情報提示部である。例えば参加者IDは、予め分析者によって参加者に割り振られた数字又は文字列であってもよく、参加者の所属する会社の社員番号や、参加者の所属する学校の学生番号であってもよい。音声分析装置1は、参加者IDと、参加者の情報(例えば氏名、所属等)とを関連付けて、予め記憶部12に記憶している。
FIG. 5A shows a process in which the
カードCは、参加者IDを記録した、近距離無線通信(NFC等)用のICチップを搭載してもよい。この場合に、参加者が通信端末2をカードCに近づけると、通信端末2の読取部23としての近距離無線通信装置がカードCのICチップに記録された情報を近距離無線通信によって読み取る。通信端末2の取得部211は、読取部23がカードCのICチップから読み取った情報が示す参加者IDを取得する。
The card C may be equipped with an IC chip for short-range wireless communication (NFC or the like) that records a participant ID. In this case, when the participant brings the
カードCは、参加者IDを所定の規則に従って符号化することによって生成したコード(バーコード、2次元コード等)を表面に表してもよい。この場合に、参加者が通信端末2をカードCに近づけると、通信端末2の読取部23としての撮像装置がカードCのコードを撮像する。通信端末2の取得部211は、読取部23が撮像した画像に含まれるカードCのコードを所定の規則に従って復号することによって参加者IDを取得する。
The card C may display a code (bar code, two-dimensional code, etc.) generated by encoding the participant ID according to a predetermined rule on the surface. In this case, when the participant brings the
図5(b)は、参加者の顔を通信端末2が読み取る処理を表している。通信端末2は、既知の顔認識処理を用いて、参加者IDを取得する。この場合に、顔認識処理によって特定される個人と参加者IDとは、通信端末2の記憶部22において予め関連付けられている。通信端末2の読取部23としての撮像装置は、1人の参加者の顔を含む領域を撮像する。通信端末2の取得部211は、読取部23が撮像した画像に対して顔認識処理を行うことによって、画像に含まれる参加者の個人を特定する。そして取得部211は、記憶部22において、顔認識処理によって特定した個人に関連付けられた参加者IDを取得する。
FIG. 5B shows a process in which the
顔認識処理は、通信端末2ではなく、音声分析装置1によって行われてもよい。この場合に、通信端末2は、参加者の顔を含む領域を撮像した画像を音声分析装置1に送信し、音声分析装置1が該画像に基づいて取得した参加者IDを音声分析装置1から受信する。
The face recognition process may be performed by the
図5(c)は、参加者の指紋を通信端末2が読み取る処理を表している。通信端末2は、既知の指紋認証処理を用いて、参加者IDを取得する。この場合に、指紋認証処理によって特定される個人と参加者IDとは、通信端末2の記憶部22において予め関連付けられている。通信端末2の読取部23としての指紋スキャナは、1人の参加者の指紋を撮像する。通信端末2の取得部211は、読取部23が撮像した画像に対して指紋認証処理を行うことによって、画像に含まれる指紋を有する個人を特定する。そして取得部211は、記憶部22において、指紋認証処理によって特定した個人に関連付けられた参加者IDを取得する。
FIG. 5C shows a process in which the
指紋認証処理は、通信端末2ではなく、音声分析装置1によって行われてもよい。この場合に、通信端末2は、参加者の指紋を含む領域を撮像した画像を音声分析装置1に送信し、音声分析装置1が該画像に基づいて取得した参加者IDを音声分析装置1から受信する。
The fingerprint authentication process may be performed by the
図5(b)、図5(c)に示した参加者の顔や指紋のような生体情報を読み取る構成では、音声分析システムSSは、参加者がカードCを有していない状況であっても参加者IDを特定できるという利点がある。 In the configuration for reading biological information such as the participant's face and fingerprint shown in FIGS. 5 (b) and 5 (c), the voice analysis system SS is in a situation where the participant does not have the card C. Also has the advantage that the participant ID can be specified.
図5(a)〜図5(c)において取得された参加者IDに関連付けられた参加者の情報が音声分析装置1に登録されていない場合に、通信端末2は、参加者の情報の登録を受け付けてもよい。この場合に、通信端末2は、音声分析装置1に、取得した参加者IDが記憶部12に記憶されているか否かを問い合わせる。音声分析装置1の記憶部12に参加者IDが記憶されていない場合に、通信端末2は、参加者の情報(氏名、所属等)を入力するための不図示の参加者情報入力画面を、表示部24に表示させる。
When the participant information associated with the participant ID acquired in FIGS. 5 (a) to 5 (c) is not registered in the
参加者は、参加者情報入力画面を表示している通信端末2に対して、参加者の情報を入力する操作を行う。通信端末2の送信部212は、参加者情報入力画面上で入力された参加者の情報を、参加者IDとともに、音声分析装置1へ送信する。音声分析装置1の受信部111は、通信端末2から受信した参加者IDと参加者の情報とを関連付けて記憶部12に記憶させる。これにより、音声分析装置1に未登録の参加者であっても、容易に議論に参加することができる。
Participants perform an operation of inputting participant information to the
別の方法として、参加者IDに関連付けられた参加者の情報が音声分析装置1に登録されていない場合に、通信端末2は、参加者の情報の登録を受け付けることなく、参加者IDの登録を拒否してもよい。この場合には、通信端末2は、音声分析装置1に、取得した参加者IDが記憶部12に記憶されているか否かを問い合わせる。音声分析装置1の記憶部12に参加者IDが記憶されていない場合に、通信端末2は、該参加者IDが登録されていないことを表す情報を表示部24に表示させるとともに、該参加者IDの登録を拒否する。
Alternatively, when the participant information associated with the participant ID is not registered in the
図6(a)、図6(b)は、参加者登録画面を表示している通信端末2の正面図である。音声分析装置1は、取得部211が参加者IDを取得した順番に基づいて、又は通信端末2に対する参加者の操作に基づいて、複数の参加者の位置を設定する。
6 (a) and 6 (b) are front views of the
図6(a)は、取得部211が参加者IDを取得した順番に基づいて音声分析装置1が複数の参加者の位置を設定する場合の参加者登録画面を表している。通信端末2は、参加者登録画面において、図3と同様の設定領域241を表示している。
FIG. 6A shows a participant registration screen when the
設定領域241の中には、図3の座席配置設定画面で設定された座席の位置が円で表されている。通信端末2は、集音装置3を基準とした所定の向きD(例えば時計回り)に、取得部211が参加者IDを取得した順番で、座席に対して参加者ID246を割り振って表示する。
In the
参加者が、参加者登録画面において完了ボタン244を押下した場合に、通信端末2の送信部212は、取得部211が取得した集音装置ID(すなわち集音装置識別情報)と、取得部211が取得した複数の参加者ID(すなわち参加者識別情報)と、取得部211が複数の参加者それぞれの参加者IDを取得した順番(すなわち位置指定情報)とを、関連付けて音声分析装置1へ送信する。
When the participant presses the
音声分析装置1において、受信部111は、通信端末2が取得した集音装置ID、通信端末2が取得した参加者ID、及び通信端末2が複数の参加者それぞれの参加者IDを取得した順番を受信する。
In the
位置設定部112は、設定情報記憶部121において集音装置IDに関連付けられた座席配置を取得する。そして位置設定部112は、取得した座席配置の中で、集音装置3を基準とした所定の向きDに、通信端末2が複数の参加者それぞれの参加者IDを取得した順番で、複数の参加者それぞれの座席を選択する。そして位置設定部112は、集音装置IDと、複数の参加者IDと、複数の参加者IDそれぞれの参加者の位置(すなわち複数の参加者それぞれについて選択された座席の位置)とを関連付けて設定情報記憶部121に記憶させることによって、複数の参加者それぞれの位置を設定する。参加者の位置は、例えば集音装置3を中心とした水平面上の角度によって表される。また、位置設定部112は、座席の数が参加者の数よりも多い場合に、参加者が設定されなかった座席を空席と設定する情報を、設定情報記憶部121に記憶させる。
The
図6(b)は、通信端末2に対する参加者の操作に基づいて音声分析装置1が複数の参加者の位置を設定する場合の参加者登録画面を表している。通信端末2は、参加者登録画面において、図3と同様の設定領域241と、取得部211が取得した参加者ID247とを表示している。取得部211が取得した参加者ID247において、座席が未設定の参加者IDと座席が設定済の参加者IDの表示態様とは互いに異なるように表されている。
FIG. 6B shows a participant registration screen when the
設定領域241の中には、図3の座席配置設定画面で設定された座席の位置が円で表されている。参加者が通信端末2に対していずれかの座席の位置を指定する操作をすると、通信端末2は、指定された座席に対して1つの参加者ID246(例えば取得部211が取得した参加者ID247において、座席が未設定の参加者IDのうち最も上の参加者ID)を割り振って表示する。参加者は、複数の参加者IDそれぞれについて座席を指定する操作を繰り返す。
In the
参加者が、参加者登録画面において完了ボタン244を押下した場合に、通信端末2の送信部212は、取得部211が取得した集音装置ID(すなわち集音装置識別情報)と、取得部211が取得した複数の参加者ID(すなわち参加者識別情報)と、複数の参加者IDそれぞれについて座席を指定する操作を示す情報(すなわち位置指定情報)とを、関連付けて音声分析装置1へ送信する。
When the participant presses the
音声分析装置1において、受信部111は、通信端末2が取得した集音装置ID、通信端末2が取得した参加者ID、及び複数の参加者IDそれぞれについて座席を指定する操作を示す情報を受信する。
In the
位置設定部112は、設定情報記憶部121において集音装置IDに関連付けられた座席配置を取得する。そして位置設定部112は、取得した座席配置の中で、複数の参加者IDそれぞれについて座席を指定する操作が示すように、複数の参加者それぞれの座席を選択する。そして位置設定部112は、集音装置IDと、複数の参加者IDと、複数の参加者IDそれぞれの参加者の位置(すなわち複数の参加者それぞれについて選択された座席の位置)とを関連付けて設定情報記憶部121に記憶させることによって、複数の参加者それぞれの位置を設定する。参加者の位置は、例えば集音装置3を中心とした水平面上の角度によって表される。また、位置設定部112は、座席の数が参加者の数よりも多い場合に、参加者が設定されなかった座席を空席と設定する情報を、設定情報記憶部121に記憶させる。
The
このように、音声分析システムSSは、通信端末2を用いて取得した集音装置識別情報、参加者識別情報及び位置指定情報に基づいて、集音装置3を基準とした複数の参加者の位置を設定する。そのため、音声分析システムSSは、集音装置3上にカメラを設けることなく複数の参加者の位置を容易に設定でき、複数の参加者Uが参加する議論における音声を分析するためのコストを削減できる。
In this way, the voice analysis system SS is based on the sound collector identification information, the participant identification information, and the position designation information acquired by using the
参加者又は分析者は、議論を開始する際に、通信端末2を操作することによって、議論の開始を指示する。音声分析装置1において、音声取得部113は、議論の開始を指示する信号を通信端末2から受信すると、音声の取得を指示する信号を集音装置3へ送信する。集音装置3は、音声分析装置1から音声の取得を指示する信号を受信した場合に、音声の取得を開始する。
When the participant or the analyst starts the discussion, he / she instructs the start of the discussion by operating the
集音装置3は、複数の集音部においてそれぞれ音声を取得し、各集音部に対応する各チャネルの音声として内部に記録する。そして集音装置3は、取得した複数のチャネルの音声を、音声分析装置1へ送信する。集音装置3は、取得した音声を逐次送信してもよく、あるいは所定量又は所定時間の音声を送信してもよい。また、集音装置3は、取得の開始から終了までの音声をまとめて送信してもよい。音声分析装置1において、音声取得部113は、集音装置3から音声を受信し、議論を識別するための識別情報(例えば議論ID)と関連付けて分析結果記憶部122に記憶させる。議論IDは、自動的に議論に割り振られてもよく、あるいは参加者又は分析者によって入力されてもよい。
The
参加者又は分析者は、議論を終了する際に、通信端末2を操作することによって、議論の終了を指示する。音声分析装置1において、音声取得部113は、議論の終了を指示す信号を通信端末2から受信すると、音声の取得の終了を指示する信号を集音装置3へ送信する。集音装置3は、音声分析装置1から音声の取得の終了を指示する信号を受信した場合に、音声の取得を終了する。
At the end of the discussion, the participant or the analyst instructs the end of the discussion by operating the
以降の処理は、音声の取得が終了したことを契機として、又は分析者が通信端末2に対して所定の指示を行ったことを契機として行われる。音声分析部114は、設定情報記憶部121において、音声の取得元の集音装置3の集音装置IDに関連付けられた、複数の参加者IDと、複数の参加者IDそれぞれの参加者の位置とを取得する。音声分析部114は、集音装置3から受信した複数チャネルの音声に基づいて音源定位を行う。音源定位は、音声取得部113が取得した音声に含まれる音源の向きを、時間ごと(例えば10ミリ秒〜100ミリ秒ごと)に推定する処理である。音声分析部114は、時間ごとに推定した音源の向きを、設定情報記憶部121から取得した複数の参加者それぞれの位置と関連付ける。
Subsequent processing is performed when the acquisition of the voice is completed or when the analyst gives a predetermined instruction to the
音声分析部114は、取得した音声に基づいて音源の向きを特定可能であれば、MUSIC(Multiple Signal Classification)法、ビームフォーミング法等、既知の音源定位方法を用いることができる。
If the direction of the sound source can be specified based on the acquired voice, the
次に音声分析部114は、取得した音声及び推定した音源の向きに基づいて、議論において、所定の時間ごと(例えば10ミリ秒〜100ミリ秒ごと)に、いずれの参加者が発話(発言)したかを判別する。音声分析部114は、1人の参加者が発話を開始してから終了するまでの連続した期間を発話期間として特定する。同じ時間に複数の参加者が発話を行った場合には、複数の参加者の発話期間の少なくとも一部同士が重複する。音声分析部114は、議論において特定した発話期間を、議論ID及び参加者IDと関連付けて分析結果記憶部122に記憶させる。
Next, the
さらに音声分析部114は、特定した発話期間に基づいて、議論における複数の参加者それぞれの時系列の発話量(発言量ともいう)を取得する。具体的には、音声分析部114は、議論を所定の窓幅(例えば30秒)のフレーム(時間範囲)に分割する。フレームは窓幅より短い所定のシフト幅(例えば10秒)ずつずらされており、隣接するフレーム同士の一部同士が時系列で互いに重複している。
Further, the
そして音声分析部114は、フレームにおける参加者の発話期間の長さ(合計発話時間)を窓幅で割った値を、フレームごとの発話量として算出する。音声分析部114は、複数の参加者それぞれについて、議論の開始時刻から終了時刻までのフレームごとの発話量を算出する。音声分析部114は、議論における複数の参加者それぞれのフレームごとの発話量を示す情報を、議論ID及び参加者IDと関連付けて分析結果記憶部122に記憶させる。
Then, the
出力部115は、音声の分析結果を出力する。例えば出力部115は、複数の参加者それぞれの発話量を示す情報を、分析結果として出力する。出力部115は、集音装置3が取得した音声を用いて分析可能なその他の情報を分析結果として出力してもよい。
The
出力部115は、上述の集音装置3の登録及び参加者の登録に用いられた通信端末2と同一の通信端末2に分析結果を表示させてもよく、別の通信端末2に分析結果を表示させてもよい。出力部115は、画面の表示に限らず、プリンタを用いて紙に印刷すること、記憶媒体にデータとして記憶させること、又は通信回線を介して外部へ送信することによって、分析結果を出力してもよい。
The
出力部115は、音声分析部114の処理が終了したことを契機として、又は分析者が通信端末2に対して分析結果を出力する指示を行ったことを契機として、分析結果記憶部122に記憶されている情報に基づいて分析結果を表示するための表示情報を生成し、通信端末2へ送信する。通信端末2の受信部213は、音声分析装置1が送信した表示情報を受信し、図7に示す分析結果画面を表示部24に表示させる。
The
図7は、分析結果画面を表示している通信端末2の正面図である。分析結果画面は、1つの議論に関する情報を表示する画面である。分析結果画面は、複数の参加者の時系列の発話量のグラフ248を含む。グラフ248は、複数の参加者の発話量を積み上げグラフとして表している。グラフ248の横軸は時間、縦軸は発話量である。グラフ248の領域には、複数の参加者それぞれに応じて異なる模様が表されている。これにより、分析者は、音声分析装置1による音声の分析結果を知ることができる。
FIG. 7 is a front view of the
[音声分析方法のフロー]
図8は、音声分析システムSSが行う音声分析方法のフローチャートを示す図である。議論を開始する前に、通信端末2の取得部211は、座席配置を設定するための座席配置設定画面上で設定された座席配置を取得する。通信端末2の送信部212は、取得部211が取得した座席配置を示す情報を、音声分析装置1へ送信する。音声分析装置1の受信部111は、通信端末2から受信した集音装置3の周囲の座席配置を示す情報を、設定情報記憶部121に記憶させる(S11)。
[Flow of voice analysis method]
FIG. 8 is a diagram showing a flowchart of a voice analysis method performed by the voice analysis system SS. Before starting the discussion, the
議論を開始する際に、複数の参加者は、1つの集音装置3を取り囲んで着席する。議論に参加する複数の参加者のうち1人の参加者は、通信端末2において、集音装置3及び参加者を登録する操作を行う。
At the beginning of the discussion, a plurality of participants are seated around one
通信端末2の取得部211は、読取部23がタグTのICチップから読み取った情報が示す集音装置IDを取得し、又は読取部23が撮像した画像に含まれるタグTのコードを所定の規則に従って復号することによって集音装置IDを取得する。
The
また、通信端末2の取得部211は、読取部23がカードCのICチップから読み取った情報が示す参加者IDを取得し、又は読取部23が撮像した画像に含まれるカードCのコードを所定の規則に従って復号することによって参加者IDを取得する。あるいは通信端末2の取得部211は、顔認識処置又は指紋認証処理を用いて、参加者の生体情報を読み取ることによって、参加者IDを取得してもよい。
Further, the
通信端末2の送信部212は、取得部211が取得した、集音装置識別情報(集音装置ID)、参加者識別情報(参加者ID)及び位置指定情報を、関連付けて音声分析装置1へ送信する。位置指定情報は、取得部211が複数の参加者それぞれの参加者IDを取得した順番、又は複数の参加者IDそれぞれについて座席を指定する操作を示す情報である。
The
音声分析装置1において、受信部111は、通信端末2が取得した、集音装置識別情報、参加者識別情報及び位置指定情報を受信する(S12)。位置設定部112は、受信部111が受信した集音装置識別情報、参加者識別情報及び位置指定情報に基づいて複数の参加者それぞれの座席を選択し、選択した座席の位置を用いて複数の参加者それぞれの位置を設定する(S13)。
In the
議論が開始された後に、音声取得部113は、集音装置3から議論の音声を受信する(S14)。音声分析部114は、設定情報記憶部121において、音声の取得元の集音装置3の集音装置IDに関連付けられた、複数の参加者IDと、複数の参加者IDそれぞれの参加者の位置とを取得する。
After the discussion is started, the
音声分析部114は、受信した音声及び取得した参加者の位置を用いて音源定位を行い、複数の参加者それぞれの発話期間及び発話量を算出することによって、受信した議論の音声を分析する(S15)。出力部115は、音声分析部114による音声の分析結果を出力する(S16)。
The
[本実施形態の効果]
本実施形態に係る音声分析システムSSは、通信端末2を用いて取得した集音装置識別情報、参加者識別情報及び位置指定情報に基づいて、集音装置3を基準とした複数の参加者の位置を設定する。このような構成により、音声分析システムSSは、特許文献1に記載のシステムのように集音装置3上にカメラを設けることを必要とせずに、複数の参加者の位置を設定できるため、複数の参加者が参加する議論における音声を分析するためのコストを削減できる。
[Effect of this embodiment]
The voice analysis system SS according to the present embodiment has a plurality of participants based on the
また、1人の分析者が複数の議論のグループに対して複数の参加者の位置を設定するためには大きな手間が掛かるが、本実施形態に係る音声分析システムSSは、参加者自身が通信端末2を用いて議論に参加する参加者の位置を設定できるため、参加者の位置を設定するための手間を削減できる。
Further, although it takes a lot of time and effort for one analyst to set the positions of a plurality of participants with respect to a plurality of discussion groups, in the voice analysis system SS according to the present embodiment, the participants themselves communicate with each other. Since the positions of the participants participating in the discussion can be set using the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. is there. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment.
音声分析装置1及び通信端末2のプロセッサは、図8に示す音声分析方法に含まれる各ステップ(工程)の主体となる。すなわち、音声分析装置1及び通信端末2のプロセッサは、図8に示す音声分析方法を実行するためのプログラムを記憶部から読み出し、該プログラムを実行して音声分析装置1及び通信端末2の各部を制御することによって、図8に示す音声分析方法を実行する。図8に示す音声分析方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
The processor of the
SS 音声分析システム
1 音声分析装置
11 制御部
111 受信部
112 位置設定部
113 音声取得部
114 音声分析部
2 通信端末
21 制御部
211 取得部
212 送信部
3 集音装置
SS
Claims (9)
通信端末が取得した、前記集音装置を識別可能な集音装置識別情報と、前記参加者を識別可能な参加者識別情報と、前記集音装置に対する位置を指定する位置指定情報とを、前記通信端末から受信する受信部と、
前記受信部が受信した前記集音装置識別情報、前記参加者識別情報及び前記位置指定情報に基づいて、前記集音装置に対する前記複数の参加者それぞれの位置を設定する位置設定部と、
前記集音装置から前記音声を取得する音声取得部と、
前記位置設定部が設定した前記複数の参加者それぞれの前記位置に基づいて、前記音声取得部が取得した前記音声に含まれる前記複数の参加者それぞれが発した前記音声を分析する音声分析部と、
を有する、音声分析装置。 A voice analyzer that analyzes the voices emitted by multiple participants around the sound collector.
The sound collector identification information that can identify the sound collector, the participant identification information that can identify the participant, and the position designation information that specifies the position with respect to the sound collector, which are acquired by the communication terminal, are described above. The receiver that receives from the communication terminal and
A position setting unit that sets the position of each of the plurality of participants with respect to the sound collector based on the sound collector identification information, the participant identification information, and the position designation information received by the reception unit.
A sound acquisition unit that acquires the sound from the sound collector, and
A voice analysis unit that analyzes the voice emitted by each of the plurality of participants included in the voice acquired by the voice acquisition unit based on the positions of the plurality of participants set by the position setting unit. ,
A voice analyzer.
前記位置設定部は、前記受信部が受信した前記順番に基づいて、前記座席配置の中で前記複数の参加者それぞれの前記座席の位置を選択する、請求項5に記載の音声分析装置。 The receiving unit receives the order in which the communication terminal acquires the participant identification information of each of the plurality of participants as the position designation information.
The voice analyzer according to claim 5, wherein the position setting unit selects the position of the seat of each of the plurality of participants in the seat arrangement based on the order received by the receiving unit.
前記位置設定部は、前記受信部が受信した前記操作に基づいて、前記座席配置の中で前記複数の参加者それぞれの前記座席の位置を選択する、請求項5に記載の音声分析装置。 The receiving unit receives an operation on the communication terminal as the position designation information, and receives the operation.
The voice analyzer according to claim 5, wherein the position setting unit selects the position of the seat of each of the plurality of participants in the seat arrangement based on the operation received by the receiving unit.
前記通信端末は、
前記集音装置を識別可能な集音装置識別情報と、前記参加者を識別可能な参加者識別情報と、前記集音装置に対する位置を指定する位置指定情報とを取得する取得部と、
前記集音装置識別情報と、前記参加者識別情報と、前記位置指定情報とを送信する送信部と、
を有し、
前記音声分析装置は、
前記通信端末が取得した、前記集音装置識別情報と、前記参加者識別情報と、前記位置指定情報とを、前記通信端末から受信する受信部と、
前記受信部が受信した前記集音装置識別情報、前記参加者識別情報及び前記位置指定情報に基づいて、前記集音装置に対する前記複数の参加者それぞれの位置を設定する位置設定部と、
前記集音装置から前記音声を取得する音声取得部と、
前記位置設定部が設定した前記複数の参加者それぞれの前記位置に基づいて、前記音声取得部が取得した前記音声に含まれる前記複数の参加者それぞれが発した前記音声を分析する音声分析部と、
を有する、音声分析システム。 A voice analysis system including a voice analyzer that analyzes voices emitted by a plurality of participants around the sound collector and a communication terminal capable of communicating with the voice analyzer.
The communication terminal is
An acquisition unit that acquires sound collector identification information that can identify the sound collector, participant identification information that can identify the participant, and position designation information that specifies a position with respect to the sound collector.
A transmission unit that transmits the sound collector identification information, the participant identification information, and the position designation information.
Have,
The voice analyzer is
A receiving unit that receives the sound collecting device identification information, the participant identification information, and the position designation information acquired by the communication terminal from the communication terminal.
A position setting unit that sets the position of each of the plurality of participants with respect to the sound collector based on the sound collector identification information, the participant identification information, and the position designation information received by the reception unit.
A sound acquisition unit that acquires the sound from the sound collector, and
A voice analysis unit that analyzes the voice emitted by each of the plurality of participants included in the voice acquired by the voice acquisition unit based on the positions of the plurality of participants set by the position setting unit. ,
Has a voice analysis system.
プロセッサが実行する、
通信端末が取得した、前記集音装置を識別可能な集音装置識別情報と、前記参加者を識別可能な参加者識別情報と、前記集音装置に対する位置を指定する位置指定情報とを、前記通信端末から受信するステップと、
前記受信するステップが受信した前記集音装置識別情報、前記参加者識別情報及び前記位置指定情報に基づいて、前記集音装置に対する前記複数の参加者それぞれの位置を設定するステップと、
前記集音装置から前記音声を取得するステップと、
前記設定するステップが設定した前記複数の参加者それぞれの前記位置に基づいて、前記取得するステップが取得した前記音声に含まれる前記複数の参加者それぞれが発した前記音声を分析するステップと、
を有する、音声分析方法。 It is a voice analysis method that analyzes the voices emitted by multiple participants around the sound collector.
The processor runs,
The sound collector identification information that can identify the sound collector, the participant identification information that can identify the participant, and the position designation information that specifies the position with respect to the sound collector, which are acquired by the communication terminal, are described above. Steps to receive from the communication terminal and
A step of setting the position of each of the plurality of participants with respect to the sound collector based on the sound collector identification information, the participant identification information, and the position designation information received by the receiving step.
The step of acquiring the sound from the sound collector, and
A step of analyzing the voice emitted by each of the plurality of participants included in the voice acquired by the acquisition step based on the position of each of the plurality of participants set by the setting step.
A voice analysis method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046989A JP7261462B2 (en) | 2019-03-14 | 2019-03-14 | Speech analysis device, speech analysis system and speech analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046989A JP7261462B2 (en) | 2019-03-14 | 2019-03-14 | Speech analysis device, speech analysis system and speech analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020148930A true JP2020148930A (en) | 2020-09-17 |
JP7261462B2 JP7261462B2 (en) | 2023-04-20 |
Family
ID=72429748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019046989A Active JP7261462B2 (en) | 2019-03-14 | 2019-03-14 | Speech analysis device, speech analysis system and speech analysis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7261462B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058221A (en) * | 2012-10-18 | 2013-03-28 | Hitachi Ltd | Conference analysis system |
-
2019
- 2019-03-14 JP JP2019046989A patent/JP7261462B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058221A (en) * | 2012-10-18 | 2013-03-28 | Hitachi Ltd | Conference analysis system |
Also Published As
Publication number | Publication date |
---|---|
JP7261462B2 (en) | 2023-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210287472A1 (en) | Attendance management system and method, and electronic device | |
CN105844247A (en) | Bi-camera cabinet machine and face recognition and second-generation ID card identification system | |
CN104143219A (en) | Checking-in method and system based on Wi-Fi fingerprints | |
CN107301687B (en) | A kind of course of personally instructing based on face recognition technology is registered and sign-out system | |
JP2020148931A (en) | Discussion analysis device and discussion analysis method | |
CN208351494U (en) | Face identification system | |
CN105610474B (en) | A kind of information system based on intelligent chest card | |
CN113947376A (en) | C/S card punching method and device based on multiple biological characteristics | |
JP2008172407A (en) | Portable communication terminal device | |
JP6372396B2 (en) | Information transmission system | |
WO2022097276A1 (en) | Server device, visitor notification system, visitor notification method, and storage medium | |
KR102478558B1 (en) | Customer Satisfaction Survey System | |
JP7261462B2 (en) | Speech analysis device, speech analysis system and speech analysis method | |
KR102052600B1 (en) | System for sit registration | |
CN107819807A (en) | A kind of Information Authentication method, apparatus and equipment | |
JP6589042B1 (en) | Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system | |
CN113055194B (en) | Cloud conference box rapid conference entering method, cloud conference box and readable storage medium | |
CN214900857U (en) | Handheld terminal | |
CN112734966B (en) | Classroom roll call method integrating WiFi data and face recognition | |
CN114764690A (en) | Method, device and system for intelligently conducting conference summary | |
JP6589041B1 (en) | Speech analysis apparatus, speech analysis method, speech analysis program, and speech analysis system | |
JP6975755B2 (en) | Voice analyzer, voice analysis method, voice analysis program and voice analysis system | |
JP2022100522A (en) | Person identifying method, program and information system | |
JP2002092175A (en) | Health consultation system, terminal equipment, recording medium for the system and health consultation method | |
JP7427274B2 (en) | Speech analysis device, speech analysis method, speech analysis program and speech analysis system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7261462 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |