JP2010055307A - Conference support system and conference support method - Google Patents

Conference support system and conference support method Download PDF

Info

Publication number
JP2010055307A
JP2010055307A JP2008218504A JP2008218504A JP2010055307A JP 2010055307 A JP2010055307 A JP 2010055307A JP 2008218504 A JP2008218504 A JP 2008218504A JP 2008218504 A JP2008218504 A JP 2008218504A JP 2010055307 A JP2010055307 A JP 2010055307A
Authority
JP
Japan
Prior art keywords
opinion
evaluation
quality value
extracted
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008218504A
Other languages
Japanese (ja)
Inventor
Soichiro Yoshimoto
壮一郎 佳元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008218504A priority Critical patent/JP2010055307A/en
Publication of JP2010055307A publication Critical patent/JP2010055307A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for objectively evaluating deterioration in the quality of a conference. <P>SOLUTION: An opinion acquisition device (2) of a conference support system (1) creates time-series opinion results (26) based on the number of opinions that participants of a conference input for each evaluation item. A detection device (3) of the conference support system acquires a physical quantity for one or a plurality of evaluation items during the conference, and creates an evaluation result (37) including time-series quality values acquired based on the physical quantity. An evaluation device (4) of the conference support system calculates the final time-series quality value of the conference based on the opinion results and evaluation results for each evaluation item. Further, the evaluation items include the detection of either repeated statements, prohibited statements, statements not conforming to the main subject of the conference, exclusive statements, statements with sound pressures equal to or greater than a predetermined threshold value, or an elapsed time equal to or longer than a predetermined threshold value. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、会議支援システム及び会議支援方法に関する。   The present invention relates to a conference support system and a conference support method.

複数の参加者が対面するような会議では、一般に議題が決められている。このような会議においては、同じ発言が繰り返されたり、話題が議題から離れて脱線したりすることにより、会議の質が低下することがある。これらの質の低下要因がまさに発生しているという指摘を、参加者が躊躇なく会議の司会者に伝えることができる技術が開示されている(例えば特許文献1)。
特開2007−241620号公報(段落0008〜0011、図4、5)
In a meeting where a plurality of participants meet, the agenda is generally decided. In such a meeting, the quality of the meeting may be deteriorated by repeating the same statement or derailing the topic away from the agenda. A technology is disclosed that allows participants to convey to the moderator of the conference without hesitation that these quality degradation factors have just occurred (for example, Patent Document 1).
JP 2007-241620 A (paragraphs 0008 to 0011, FIGS. 4 and 5)

しかしながら、特許文献1の技術では、「繰返しが多い」「話題から脱線している」等の指摘が参加者からなされても、司会者としては、実際に繰返しが多いのか否か、話題から脱線しているのか否かを客観的な根拠に基づき判断できない。従って、質の低下要因を発生させている参加者に対して注意を与えることが困難である。
そこで、本発明は、会議の質の低下を客観的に評価する技術を提供することを目的とする。
However, in the technique of Patent Document 1, even if the participants point out that there are many repetitions, “is derailed from the topic”, etc., as a moderator, whether or not there are many repetitions, derailment from the topic It is not possible to judge whether or not this is based on an objective basis. Therefore, it is difficult to give attention to the participants who are causing the quality degradation factor.
Therefore, an object of the present invention is to provide a technique for objectively evaluating a decrease in the quality of a conference.

本発明に係る会議支援システムの意見取得装置は、会議の参加者が入力する評価項目毎の意見数に基づき時系列の意見結果を作成する。会議支援システムの検出装置は、1又は複数の評価項目について会議中に物理量を取得し、物理量に基づき取得された品質値を含む時系列の評価結果を作成する。会議支援システムの評価装置は、評価項目毎の意見結果と評価結果に基づき、時系列の会議の最終品質値を計算すること、を特徴とする。更に、評価項目には、繰返し発言、禁止されている発言、会議の本題に沿わない発言、独占発言、所定の閾値以上の音圧を有する発言、及び所定の閾値以上の経過時間のうちの何れかの検出を含むことを特徴とする。   The opinion acquisition device of the conference support system according to the present invention creates a time-series opinion result based on the number of opinions for each evaluation item input by a conference participant. The detection device of the meeting support system acquires a physical quantity during a meeting for one or a plurality of evaluation items, and creates a time-series evaluation result including a quality value acquired based on the physical quantity. An evaluation device of a meeting support system is characterized in that a final quality value of a time-series meeting is calculated based on an opinion result and an evaluation result for each evaluation item. Furthermore, the evaluation items include any of repetitive utterances, banned utterances, utterances that do not meet the main topic of the meeting, exclusive utterances, utterances having a sound pressure equal to or higher than a predetermined threshold, and elapsed time that exceeds a predetermined threshold. It is characterized by including the detection.

本発明によれば、会議の質の低下を客観的に評価する技術を提供することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the technique which objectively evaluates the fall of the quality of a meeting.

以下に、本発明を実施するための最良の形態(「本実施形態」という)を、図等を参照しながら詳細に説明する。   Hereinafter, the best mode for carrying out the present invention (referred to as “the present embodiment”) will be described in detail with reference to the drawings and the like.

(全体構成)
図1は、本実施形態に係る会議支援システムの全体構成の一例を示す図である。
会議支援システム1は、意見取得装置2、検出装置3、及び評価装置4を有する。これらは各装置が有する通信インタフェース(IF)25、36、49を介して相互に接続されている。
(overall structure)
FIG. 1 is a diagram illustrating an example of the overall configuration of the conference support system according to the present embodiment.
The meeting support system 1 includes an opinion acquisition device 2, a detection device 3, and an evaluation device 4. These are connected to each other via communication interfaces (IF) 25, 36, and 49 included in each device.

意見取得装置2は、一般的なコンピュータであり、中央制御装置21、主記憶装置22、補助記憶装置23、キーボード24及び通信インタフェース(IF)25を有する。これらは相互にバスで接続されている。キーボード24は、参加者に対して1台ずつ割り当てられる。キーボード24は、入出力インタフェース(IF)を介して複数台接続されている。
意見取得装置2の補助記憶装置23には、意見結果26及び意見反映倍率表27が記憶されている。意見反映倍率設定部28はプログラムである。
以下の説明で「○○部は」と主体を記した場合は、中央制御装置21が、補助記憶装置23から各プログラムを読み出し、主記憶装置22にロードした上で各プログラムの機能を実行するものとする(検出装置3及び評価装置4のプログラムについても同様である)。
The opinion acquisition device 2 is a general computer, and includes a central control device 21, a main storage device 22, an auxiliary storage device 23, a keyboard 24, and a communication interface (IF) 25. These are connected to each other by a bus. One keyboard 24 is assigned to each participant. A plurality of keyboards 24 are connected via an input / output interface (IF).
In the auxiliary storage device 23 of the opinion acquisition device 2, an opinion result 26 and an opinion reflection magnification table 27 are stored. The opinion reflection magnification setting unit 28 is a program.
In the following description, when the subject is described as “XX section is”, the central control device 21 reads out each program from the auxiliary storage device 23 and loads it into the main storage device 22 to execute the function of each program. (The same applies to the programs of the detection device 3 and the evaluation device 4).

検出装置3は、一般的なコンピュータであり、中央制御装置31、主記憶装置32、補助記憶装置33、及び通信インタフェース(IF)36を有する。これらは相互にバスで接続されている。マイク34は、図示しない入出力インタフェースを介してバスに接続されている。
検出装置3の補助記憶装置33には、評価結果37が記憶されている。検出部38はプログラムである。検出部38は、同じくプログラムである、繰返し発言検出部39、NG発言検出部40、脱線発言検出部41、独占発言検出部42、感情発言検出部43及び終了検出部44(これらを、「各検出部」ということがある)を含む。また、主記憶装置32は、タイマ35を含む。
The detection device 3 is a general computer and includes a central control device 31, a main storage device 32, an auxiliary storage device 33, and a communication interface (IF) 36. These are connected to each other by a bus. The microphone 34 is connected to the bus via an input / output interface (not shown).
An evaluation result 37 is stored in the auxiliary storage device 33 of the detection device 3. The detection unit 38 is a program. The detection unit 38 is also a program, the repetitive speech detection unit 39, the NG speech detection unit 40, the derailment speech detection unit 41, the exclusive speech detection unit 42, the emotional speech detection unit 43, and the end detection unit 44 (these are referred to as “each It may also be referred to as a “detection unit”. The main storage device 32 includes a timer 35.

評価装置4は、一般的なコンピュータであり、中央制御装置45、主記憶装置46、補助記憶装置47、及び通信インタフェース(IF)49を有する。これらは相互にバスで接続されている。ディスプレイ48は、図示しない入出力インタフェースを介してバスに接続されている。ディスプレイ48は、参加者全員に対して視認されうる場所に1台または複数台配置されることを想定している。しかし、司会者のみに対して視認されうる場所に配置されてもよい。
評価装置4の補助記憶装置47には、意見結果26(意見取得装置2が作成した意見結果26と同じである)、評価結果37(検出装置3が作成した評価結果37と同じである)、品質ボーダ50、及び表示結果51が記憶されている。最終品質値計算部52及び工数計算部53はプログラムである。
The evaluation device 4 is a general computer and includes a central control device 45, a main storage device 46, an auxiliary storage device 47, and a communication interface (IF) 49. These are connected to each other by a bus. The display 48 is connected to the bus via an input / output interface (not shown). It is assumed that one or a plurality of displays 48 are arranged at a place where all the participants can see. However, you may arrange | position in the place which can be visually recognized only with respect to the presenter.
The auxiliary storage device 47 of the evaluation device 4 includes an opinion result 26 (same as the opinion result 26 created by the opinion acquisition device 2), an evaluation result 37 (same as the evaluation result 37 created by the detection device 3), A quality border 50 and a display result 51 are stored. The final quality value calculation unit 52 and the man-hour calculation unit 53 are programs.

なお、図1では、意見取得装置2、検出装置3及び評価装置4がそれぞれ独立している例を示したが、これらのうちの2つあるいは3つが1つのコンピュータとして構成されていてもよい。   1 shows an example in which the opinion acquisition device 2, the detection device 3, and the evaluation device 4 are independent of each other, two or three of them may be configured as one computer.

(評価項目、各装置の機能)
本実施形態の会議支援システム1では、以下の6項目につき評価される。
すなわち、繰返し発言(同じ意味の発言)、NG発言(禁止されている発言)、脱線発言(会議の本題に沿わない発言)、独占発言(特定の参加者が、会議時間を独占するような発言)、感情発言(所定の閾値以上の音圧を有する発言)、及び会議開始からの経過時間である。これら6項目を以降「評価項目」と呼ぶことがある。
なお、参加者とは、本発明の会議支援システム1を用いた会議に出席するメンバのうち、司会者以外のメンバを言う(以下同様)。
(Evaluation items, functions of each device)
In the conference support system 1 of the present embodiment, the following six items are evaluated.
That is, repetitive speech (same speech), NG speech (prohibited speech), derailment speech (non-conforming speech), exclusive speech (a speech that a particular participant monopolizes the meeting time) ), Emotional speech (a speech having a sound pressure equal to or higher than a predetermined threshold), and the elapsed time from the start of the conference. These six items may be referred to as “evaluation items” hereinafter.
The participant means a member other than the moderator among members attending the conference using the conference support system 1 of the present invention (the same applies hereinafter).

各装置の機能を大まかに説明する。
意見取得装置2は、各評価項目についての主観的評価を、参加者から受け付け、それを評価装置4に対し送信する。
検出装置3は、マイク34やタイマ35から取得した情報に基づき、各評価項目についての客観的な評価を評価装置4に対し送信する。
評価装置4は、意見取得装置2及び検出装置3から受信した情報を総合して、会議の質を定量的に評価し、表示する。
The function of each device will be roughly described.
The opinion acquisition device 2 receives a subjective evaluation for each evaluation item from the participant and transmits it to the evaluation device 4.
The detection device 3 transmits an objective evaluation for each evaluation item to the evaluation device 4 based on the information acquired from the microphone 34 and the timer 35.
The evaluation device 4 comprehensively evaluates and displays the quality of the conference by combining the information received from the opinion acquisition device 2 and the detection device 3.

図2(a)は本実施形態に係る意見ボタン対応表の一例を示す図である。
意見ボタンとは、各評価項目についての参加者の主観的な意見の入力を受けるためにキーボード24上に設けられた6種類のキーである。
意見ボタン対応表61は、意見内容とその識別番号等を対応させたものであり、同じものが、意見取得装置2、検出装置3及び評価装置4のそれぞれの補助記憶装置23、33、47に記憶されている(図示せず)。
識別番号欄62の識別番号は、評価項目を識別する番号であり、各評価項目についての処理を実行する、検出装置3の各検出部39〜44を識別する番号でもある。
意見内容欄63の意見内容は、各評価項目において会議の質を落とすような要因等を端的に表現した文字列である。この意見内容は、キーボード24上の意見ボタンの近傍に表示されているか、又は、予め参加者に対して周知されているものとする。
検出部欄64の検出部名は、各評価項目についての処理を実行する、検出装置3の各検出部39〜44の名称である。検出部名は、参加者に対して開示されている必要はない。
FIG. 2A shows an example of the opinion button correspondence table according to the present embodiment.
The opinion buttons are six types of keys provided on the keyboard 24 in order to receive a participant's subjective opinion regarding each evaluation item.
The opinion button correspondence table 61 associates opinion contents with their identification numbers, and the same information is stored in the auxiliary storage devices 23, 33, and 47 of the opinion acquisition device 2, the detection device 3, and the evaluation device 4. Remembered (not shown).
The identification number in the identification number column 62 is a number that identifies an evaluation item, and is also a number that identifies each detection unit 39 to 44 of the detection device 3 that executes processing for each evaluation item.
The opinion content in the opinion content column 63 is a character string that briefly expresses factors that degrade the quality of the conference in each evaluation item. This opinion content is displayed in the vicinity of the opinion button on the keyboard 24 or is known to the participants in advance.
The detection unit name in the detection unit column 64 is the name of each of the detection units 39 to 44 of the detection device 3 that executes processing for each evaluation item. The detection unit name does not need to be disclosed to the participants.

図2(b)は本実施形態に係る意見反映倍率表の一例を示す図である。
縦軸65には、意見数が、横軸66には識別番号が記憶されている。
縦軸65の意見数は、参加者が意見ボタンを押下した、評価項目毎の回数である。
横軸66の識別番号は、図2(a)の識別番号と同じである。
縦軸65と横軸66との交差部分には、意見反映倍率が記憶されている。意見反映倍率は、横軸66の識別番号が示す評価項目について、縦軸65の意見数が発生した場合に、品質値(後記)に対して乗ずる数である。
ちなみに、4行目と1列目の交差部分には「×4」とある。これは、参加者(1人の参加者による場合も、複数の参加者による場合もある)により「同じ発言です」という意見内容に対して意見ボタンが3回押下された場合は、「繰返し発言検出部」39が計算した品質値は、4倍されることを表す。
意見反映倍率は、ユーザが任意の値を設定可能である。一般的には、意見数が大きいほど意見反映倍率も大きな数値が設定される。同じ意見数であっても、識別番号が異なれば意見反映倍率が異なる設定であってもよい。例えば、繰返し発言は厳しく取り締まられ、脱線発言は比較的容認されるような例では、同じ意見数「3」でも、識別番号1の欄には意見反映倍率「×10」が、識別番号3の欄には意見反映倍率「×1」が設定されることもある。本実施形態では、意見反映倍率表27は所与のものとする。
FIG. 2B is a diagram showing an example of the opinion reflection magnification table according to the present embodiment.
The vertical axis 65 stores the number of opinions, and the horizontal axis 66 stores the identification number.
The number of opinions on the vertical axis 65 is the number of times for each evaluation item that the participant has pressed the opinion button.
The identification number on the horizontal axis 66 is the same as the identification number in FIG.
Opinion reflection magnification is stored at the intersection of the vertical axis 65 and the horizontal axis 66. The opinion reflection magnification is a number by which the quality value (described later) is multiplied when the number of opinions on the vertical axis 65 is generated for the evaluation item indicated by the identification number on the horizontal axis 66.
Incidentally, there is “× 4” at the intersection of the fourth row and the first column. This is because if the opinion button is pressed three times for the opinion content “Same utterance” by a participant (may be due to one participant or multiple participants) The quality value calculated by the “detection unit” 39 indicates that the quality value is quadrupled.
The opinion reflection magnification can be set to an arbitrary value by the user. In general, the larger the number of opinions, the larger the value that reflects the opinion is set. Even if the number of opinions is the same, the opinion reflection magnification may be set differently if the identification numbers are different. For example, in an example where repeated utterances are strictly controlled and derailment utterances are relatively acceptable, even if the number of opinions is the same “3”, the opinion reflection magnification “× 10” is displayed in the column of the identification number 1. An opinion reflection magnification “× 1” may be set in the column. In this embodiment, the opinion reflection magnification table 27 is given.

図2(c)は本実施形態に係る意見結果の一例を示す図である。
意見結果26は、意見取得装置2によって作成され、評価装置4に対して送信される。
識別番号欄67に記憶された識別番号に関連付けて、意見数欄68には意見数が、意見反映倍率欄69には意見反映倍率が記憶されている。
識別番号欄67の識別番号は、図2(a)の識別番号と同じである。
意見数欄68の意見数は、図2(b)の意見数と同じである。
意見反映倍率欄69の意見反映倍率は、図2(b)の意見反映倍率と同じである。ここでは、実際の意見数に基づき意見反映倍率表27を検索した結果である意見反映倍率が記憶されている。
ちなみに、図2(c)の意見結果26の例は、「同じ発言です」、「発言してはいけない発言です」、・・・という意見内容に対して意見ボタンがそれぞれ4回、1回、・・・押下された結果、繰返し発言検出部39、NG発言検出部40、・・・がそれぞれ算出した品質値は、それぞれ、5倍、2倍、・・・されることを表している。
FIG. 2C is a diagram illustrating an example of an opinion result according to the present embodiment.
The opinion result 26 is created by the opinion acquisition device 2 and transmitted to the evaluation device 4.
In association with the identification number stored in the identification number column 67, the opinion number column 68 stores the number of opinions, and the opinion reflection magnification column 69 stores the opinion reflection magnification.
The identification number in the identification number column 67 is the same as the identification number in FIG.
The number of opinions in the opinion number column 68 is the same as the number of opinions in FIG.
The opinion reflection magnification in the opinion reflection magnification column 69 is the same as the opinion reflection magnification in FIG. Here, the opinion reflection magnification, which is the result of searching the opinion reflection magnification table 27 based on the actual number of opinions, is stored.
By the way, the example of the opinion result 26 in FIG. 2 (c) shows that the opinion buttons are four times, once for the opinion contents “same statement”, “you must not speak”, etc. As a result of pressing, the quality values calculated by the repeated speech detection unit 39, the NG speech detection unit 40,.

図3(a)は本実施形態に係る評価結果の一例を示す図である。
評価結果37は、検出装置3によって作成され、評価装置4に対して送信される。
識別番号欄72に記憶された識別番号に関連付けて、品質値欄73には品質値が、参考情報欄74には参考情報が記憶されている。
識別番号欄72の識別番号名は、図2(a)の識別番号と同じである。
品質値欄73の品質値は、識別番号が示す各検出部39〜44が取得した、会議の質を示す数値である(詳細後記)。
参考情報欄74の参考情報は、識別番号が示す各検出部39〜44が取得した数値、抽出した文字列、その他の情報である。
例えば、繰返し発言検出部39が、ある時間帯の総比較回数が64であったこと、そのうち「配列」「配置」「チェックする」「配置、チェックする」という語は直前の時間帯にも発言されている語の繰返しであったことを検出しているとする(詳細後記)。
この場合、1行目において、参考情報欄74には、繰返し回数「4」が「繰返し回数」と言う見出しをつけて記憶され、繰返し度「6.3%(4÷64)」が「繰返し度」と言う見出しをつけて記憶され、繰り返された語「配列」他が「繰返し内容」と言う見出しをつけて記憶される。更に、品質値欄73には、繰返し発言検出部39が取得した品質値「17.5」が記憶される。
FIG. 3A is a diagram illustrating an example of an evaluation result according to the present embodiment.
The evaluation result 37 is created by the detection device 3 and transmitted to the evaluation device 4.
In association with the identification number stored in the identification number column 72, the quality value column 73 stores quality values, and the reference information column 74 stores reference information.
The identification number name in the identification number column 72 is the same as the identification number in FIG.
The quality value in the quality value column 73 is a numerical value indicating the quality of the conference acquired by each of the detection units 39 to 44 indicated by the identification number (details will be described later).
The reference information in the reference information column 74 is a numerical value acquired by each of the detection units 39 to 44 indicated by the identification number, an extracted character string, and other information.
For example, the repeated speech detection unit 39 indicates that the total number of comparisons in a certain time zone is 64, and the words “array”, “placement”, “check”, and “placement, check” Suppose that it is detected that the word is repeated (detailed later).
In this case, in the first line, the reference information column 74 stores the heading “repetition count” with the number of repetitions “4”, and the repetition degree “6.3% (4 ÷ 64)” is “repetition”. The heading “degree” is stored and stored, and the repeated word “array” and the like are stored with the heading “repetitive content”. Further, the quality value column 73 stores the quality value “17.5” acquired by the repetitive speech detection unit 39.

図3(b)は本実施形態に係る品質ボーダの一例を示す図である。
最終品質値欄75に記憶された最終品質値の範囲に関連付けて、コメント欄76にコメントが記憶されている。
最終品質値75とは、各評価項目につき、検出装置3が算出した品質値に対し、意見取得装置2が取得した意見反映倍率を乗じ、その積を合計した値である。
例えば、評価結果37(図3(a))の品質値欄73の品質値が「17.5、16.7、−12、−10、−20、0」であり、意見結果26(図2(c))の意見反映倍率欄69の意見反映倍率が「5、2、3、1、1、2」である場合、最終品質値は、(17.5)×5+(16.7)×2+(−12)×3+(−10)×1+(−20)×1+0×2=54.9となる。
最終品質値欄75の最終品質値の範囲は、このようにして計算された最終品質値が取り得る範囲である。最終品質値の範囲は、所定の幅を以って連続的に記憶されている。
コメント欄76のコメントは、表示結果51(詳細後記)の一部として、ディスプレイ48に表示されるべき任意の文字列である。最終品質値が小さい値(低品質)になるにつれて、出力コメントの意味は、否定的になっている。品質最終値「0」に対するコメントは存在しないものとしたが、任意の文字列を設定してもよい。最終品質値の範囲の幅、段階数は、ユーザが任意に設定可能である。本実施形態では、品質ボーダ50は所与のものとする。
FIG. 3B is a diagram showing an example of a quality border according to the present embodiment.
A comment is stored in the comment field 76 in association with the range of the final quality value stored in the final quality value field 75.
The final quality value 75 is a value obtained by multiplying the quality value calculated by the detection device 3 for each evaluation item by the opinion reflection magnification acquired by the opinion acquisition device 2 and summing the products.
For example, the quality value in the quality value column 73 of the evaluation result 37 (FIG. 3A) is “17.5, 16.7, −12, −10, −20, 0”, and the opinion result 26 (FIG. 2). When the opinion reflection magnification in the opinion reflection magnification column 69 of (c)) is “5, 2, 3, 1, 1, 2”, the final quality value is (17.5) × 5 + (16.7) × 2 + (− 12) × 3 + (− 10) × 1 + (− 20) × 1 + 0 × 2 = 54.9.
The range of the final quality value in the final quality value column 75 is a range that the final quality value calculated in this way can take. The range of final quality values is stored continuously with a predetermined width.
The comment in the comment field 76 is an arbitrary character string to be displayed on the display 48 as a part of the display result 51 (detailed later). As the final quality value becomes smaller (low quality), the meaning of the output comment becomes negative. Although there is no comment for the final quality value “0”, an arbitrary character string may be set. The width of the range of the final quality value and the number of steps can be arbitrarily set by the user. In this embodiment, the quality border 50 is given.

図4は本実施形態に係る表示結果の一例を示す図である。
表示結果51は、ディスプレイ48に対して表示される情報である。
意見数欄77に記憶された意見数に関連付けて、主観的意見内容欄78には主観的意見内容が、主観・客観的結果欄79には主観・客観的結果が、工数欄80には工数が記憶されている。
意見数欄77の意見数は、図2(c)の意見数のうち最も値が大きい意見数である。
主観的意見内容欄78の主観的意見内容は、図2(a)の意見内容のうち、図4の意見数欄77に記憶された意見数に対応する意見内容である。意見数が「0」の場合は「意見がありません」である。
主観・客観的結果欄79の主観・客観的結果は、図3(b)のコメント、及び図3(a)の参考情報のうち、図4の意見数欄77に記憶された意見数に対応する各検出部39〜44が作成した参考情報に基づき作成された文字列である。
この主観・客観的結果は、主観的意見内容とは異なり、検出装置3が検出した客観的な情報に基づく情報である。従って、参加者が主観・客観的結果を視認すれば、会議の品質を保つことが可能になる。
工数欄80の工数は、個々の参加者の時給に対し会議の経過時間(開始時刻から現時点までの時間)を乗じた積を合計した値である。正の値を取る場合と、負の値を取る場合がある(詳細後記)。
FIG. 4 is a diagram illustrating an example of a display result according to the present embodiment.
The display result 51 is information displayed on the display 48.
In association with the number of opinions stored in the opinion number column 77, the subjective opinion content column 78 contains the subjective opinion content, the subjective / objective result column 79 shows the subjective / objective result, and the man-hour column 80 shows the man-hour. Is remembered.
The number of opinions in the opinion number column 77 is the number of opinions having the largest value among the numbers of opinions in FIG.
The subjective opinion content in the subjective opinion content column 78 is the opinion content corresponding to the number of opinions stored in the opinion number column 77 in FIG. 4 among the opinion content in FIG. When the number of opinions is “0”, “No opinion”.
The subjective / objective result in the subjective / objective result column 79 corresponds to the number of opinions stored in the comment number column 77 of FIG. 4 in the comment of FIG. 3 (b) and the reference information of FIG. 3 (a). It is the character string produced based on the reference information which each detection part 39-44 produced.
This subjective / objective result is information based on objective information detected by the detection device 3, unlike the subjective opinion content. Therefore, if the participant visually recognizes the subjective / objective result, the quality of the conference can be maintained.
The man-hour in the man-hour column 80 is a total value of products obtained by multiplying each participant's hourly wage by the elapsed time of the conference (the time from the start time to the present time). There are cases where a positive value is taken and cases where a negative value is taken (details will be described later).

表示結果51のレコードは、経過時間に関連付けて記憶されている(符号81〜84の吹き出し)。例えば、会議開始直後、20分後、及び40分後において、表示結果51を表示する場合は、時間の経過につれて、例えば(a)、(b)、(c)の順にレコードが追加される。この場合は、意見ボタンは1回も押下されていないので、会議の展開は理想的であるといえる。
別の例として、(a)、(d)、(e)の順にレコードが追加される場合もある。この場合は、特に繰返し発言を指摘する参加者が多く、時間の経過につれ、意見ボタンが押下される回数は増加しており、会議の質は低下している。
表示結果51の、意見数、主観的意見内容、主観・客観的結果、及び工数は、それぞれに適当な見出しを付された上で、ディスプレイ48に表示される(図示せず)。例えば「ボタンを押した方の数:10名」、「気をつけて下さい:同じ発言です」、「コンピュータの判断は:同じ発言・・が多く、繰返し度が・・会議品質がかなり悪いです」、「当社の利益または損失:−5800円」のように表示される。
The record of the display result 51 is stored in association with the elapsed time (speech balloons 81 to 84). For example, when the display result 51 is displayed immediately after the start of the conference, 20 minutes later, and 40 minutes later, records are added in the order of (a), (b), (c), for example, as time passes. In this case, since the opinion button has never been pressed, it can be said that the development of the conference is ideal.
As another example, records may be added in the order of (a), (d), and (e). In this case, there are many participants who particularly point out repetitive remarks, and as the time passes, the number of times the opinion button is pressed increases, and the quality of the conference decreases.
The number of opinions, subjective opinion contents, subjective / objective results, and man-hours of the display result 51 are displayed on the display 48 (not shown) with appropriate headings attached thereto. For example, “Number of people who pressed the button: 10 people”, “Please be careful: the same remarks”, “Computer judgment: the same remarks ... "," Our profit or loss: -5800 yen ".

(各種情報の内容)
図5は、本実施形態に係る各種情報の内容を説明するための図である。
マイク34を介して取得した情報は、自然音声85(時間の経過につれて変化する波形)である。検出装置3は、この自然音声85を、発言情報86、声紋情報87、及び音圧情報88に変換することができる。また、検出装置3は、発言情報86から抽出語89を抽出し、抽出語89に基づき類義語90を取得することができる。更に、検出装置3は、声紋情報87から抽出声紋情報91を抽出することができる。これらは、すべて公知の技術を使用して実現可能であるものとする。
(Contents of various information)
FIG. 5 is a diagram for explaining the contents of various types of information according to the present embodiment.
The information acquired through the microphone 34 is a natural voice 85 (a waveform that changes over time). The detection device 3 can convert the natural voice 85 into speech information 86, voiceprint information 87, and sound pressure information 88. Further, the detection device 3 can extract the extracted word 89 from the utterance information 86 and acquire the synonym 90 based on the extracted word 89. Further, the detection device 3 can extract the extracted voice print information 91 from the voice print information 87. These can all be realized using known techniques.

発言情報86は、時間の経過に関連付けられた文字列である。
声紋情報87は、時間の経過に関連付けられた周波数及び振幅である。振幅は二次元平面上では色(等高線のような)で表現される。
音圧情報88は、時間の経過に関連付けられた音圧(振幅)である。
抽出語89は、発言情報86の中から抽出された、名詞、動詞、及び名詞や動詞に対する修飾語である。抽出語89は、発言情報86から抽出されることも、キーボード24から直接入力されることもある。検出装置3が有するキーボード(図示せず)から入力されてもよいものとする。
類義語90は、抽出語89と意味が同一又は類似の語である。
抽出声紋情報91は、声紋情報87の時間的な一部である。
The comment information 86 is a character string associated with the passage of time.
The voiceprint information 87 is a frequency and an amplitude associated with the passage of time. The amplitude is expressed in color (such as contour lines) on a two-dimensional plane.
The sound pressure information 88 is sound pressure (amplitude) associated with the passage of time.
The extracted words 89 are nouns, verbs, and modifiers for nouns and verbs extracted from the remark information 86. The extracted word 89 may be extracted from the utterance information 86 or may be directly input from the keyboard 24. It may be input from a keyboard (not shown) of the detection device 3.
The synonym 90 is a word having the same or similar meaning as the extracted word 89.
The extracted voiceprint information 91 is a part of the voiceprint information 87 in terms of time.

(比較元、比較先、切り替え間隔、評価間隔)
図6は、本実施形態に係る比較元、比較先、切り替え間隔、及び評価間隔を説明するための図である。
検出装置3は、会議開始後時間の経過に伴いリアルタイムで、発言情報86、声紋情報87、及び音圧情報88を作成する。つまり、切り替えタイミング97が到来する都度新たなファイル(時系列で並んだ86、87、88)が作成される。そして、ある切り替えタイミング97と次の切り替えタイミング97との間の時間的長さを「切り替え間隔」98といい、切り替えタイミング97で区切られた時間帯を、切り替え周期と呼ぶ。切り替え周期には、会議の開始から順に、1、2、・・、n−1、n、n+1、・・・のように順番が付されている。
一方、検出装置3は、会議開始前に、NG語としての抽出語92、本題語としての抽出語93、見本声紋情報データベース94、許容音圧95、及び予定時間96を作成し、補助記憶装置33に格納しておく。
(Comparison source, comparison destination, switching interval, evaluation interval)
FIG. 6 is a diagram for explaining the comparison source, the comparison destination, the switching interval, and the evaluation interval according to the present embodiment.
The detection device 3 creates speech information 86, voiceprint information 87, and sound pressure information 88 in real time with the passage of time after the start of the conference. That is, a new file (86, 87, 88 arranged in time series) is created every time the switching timing 97 arrives. A time length between a certain switching timing 97 and the next switching timing 97 is referred to as a “switching interval” 98, and a time period divided by the switching timing 97 is referred to as a switching period. The switching periods are sequentially assigned in the order of 1, 2,..., N−1, n, n + 1,.
On the other hand, the detection device 3 creates an extracted word 92 as an NG word, an extracted word 93 as a main subject, a sample voiceprint information database 94, an allowable sound pressure 95, and a scheduled time 96 before starting the conference, and an auxiliary storage device 33 is stored.

検出装置3の各検出部39〜44は、前記のファイル同士を比較する、又は前記のファイルと前記の事前に作成された情報(符号92〜96)とを比較する。以下ではこれらの比較対象を「比較元」及び「比較先」という。図6で、各検出部39〜44の右側の吹き出しに記載された2つの記号(a、b等)は、その検出部が「比較元」(左)、「比較先」(右)とする情報を示している。
例えば、繰返し発言検出部39は、切り替え周期n−1の発言情報86b(fとも表記)と、切り替え周期nの発言情報86a(gとも表記)とを比較して、品質値を取得する。
NG発言検出部40は、会議開始前に作成されたNG語としての抽出語92(aとも表記)と、切り替え周期nの発言情報86a(gとも表記)とを比較して、品質値を取得する。このようにして作成された6つの品質値は評価結果37の一部として、評価装置4に送信される。
意見取得装置2は、検出装置3とタイミングを合わせて意見結果26を作成する。そして意見結果26は、評価装置4に送信される。
Each detection part 39-44 of the detection apparatus 3 compares the said files, or compares the said file and the said information (code | symbol 92-96) produced in advance. Hereinafter, these comparison targets are referred to as “comparison source” and “comparison destination”. In FIG. 6, two symbols (a, b, etc.) written in the balloons on the right side of the respective detection units 39 to 44 are set as “comparison source” (left) and “comparison destination” (right). Information is shown.
For example, the repetitive speech detection unit 39 compares the speech information 86b (also expressed as f) of the switching cycle n-1 with the speech information 86a (also expressed as g) of the switching cycle n, and acquires the quality value.
The NG utterance detection unit 40 compares the extracted word 92 (noted as “a”) created before the start of the conference with the utterance information 86a (also denoted as “g”) of the switching period n, and acquires a quality value. To do. The six quality values created in this way are transmitted to the evaluation device 4 as a part of the evaluation result 37.
The opinion acquisition device 2 creates an opinion result 26 in synchronization with the detection device 3. Then, the opinion result 26 is transmitted to the evaluation device 4.

切り替えタイミング97とは別の概念として、評価タイミング99がある。評価タイミング99とは、会議の質を評価するタイミングである(図4の吹き出し81〜84の「20分後」、「40分後」に相当する)。ある評価タイミング99と次の評価タイミング99との間の時間的長さを「評価間隔」100といい、評価タイミング99で区切られた時間帯を、評価周期と呼ぶ。評価周期には、会議の開始から順に、1、2、・・、n−1、n、n+1、・・・のように順番が付されている。
評価装置4、意見取得装置2、及び検出装置3の各検出部39〜44の動作は、この評価周期毎に行われる。
There is an evaluation timing 99 as a concept different from the switching timing 97. The evaluation timing 99 is a timing for evaluating the quality of the conference (corresponding to “20 minutes later” and “40 minutes later” in the balloons 81 to 84 in FIG. 4). A time length between one evaluation timing 99 and the next evaluation timing 99 is referred to as an “evaluation interval” 100, and a time period divided by the evaluation timing 99 is referred to as an evaluation cycle. The evaluation periods are assigned in order of 1, 2,..., N−1, n, n + 1,.
The operations of the detection units 39 to 44 of the evaluation device 4, the opinion acquisition device 2, and the detection device 3 are performed every evaluation cycle.

切り替えタイミング97と評価タイミング99は、一致させてもさせなくてもよい。一致させない場合、検出装置3は、2つのタイミングで制御されることになる。すなわち、切り替え間隔98が評価間隔100より短い場合は、切り替え間隔98毎に作成された発言情報86等がすべて利用されるとは限らない。また、切り替え間隔98が評価間隔100より長い場合は、各検出部39〜44は、新たな発言情報86等が作成されるまで処理を行わず待機することとなる。   The switching timing 97 and the evaluation timing 99 may or may not match. If they do not match, the detection device 3 is controlled at two timings. That is, when the switching interval 98 is shorter than the evaluation interval 100, not all of the comment information 86 and the like created for each switching interval 98 are used. When the switching interval 98 is longer than the evaluation interval 100, each of the detection units 39 to 44 waits without performing processing until new comment information 86 and the like are created.

(処理手順)
以降、処理手順につき説明する。処理手順には、(1)意見反映倍率取得処理手順、(2)繰返し発言検出処理手順、(3)NG発言検出処理手順、(4)脱線発言検出処理手順、(5)独占発言検出処理手順、(6)感情発言検出処理手順、(7)終了検出処理手順、及び(8)結果表示処理手順の8つがある。(8)が実行されるには、(1)〜(7)の実行が終了していることが前提になる。
詳細は後記するが、(2)のステップS311、(3)のステップS321、(4)のステップS331、(5)のステップS341、(6)のステップS351、及び(7)のステップS361は、切り替え周期毎に繰り返される。一方、(1)のすべてのステップ、(2)のステップS312以降、(3)のステップS322以降、(4)のステップS332以降、(5)のステップS342以降、(6)のステップS352以降、(7)のステップS362以降、及び(8)のすべてのステップは、評価周期毎に繰り返される。
(Processing procedure)
Hereinafter, the processing procedure will be described. The processing procedure includes (1) opinion reflection magnification acquisition processing procedure, (2) repeated speech detection processing procedure, (3) NG speech detection processing procedure, (4) derailment speech detection processing procedure, and (5) exclusive speech detection processing procedure. , (6) Emotional utterance detection processing procedure, (7) End detection processing procedure, and (8) Result display processing procedure. In order to execute (8), it is assumed that the execution of (1) to (7) has been completed.
Although details will be described later, step S311 in (2), step S321 in (3), step S331 in (4), step S341 in (5), step S351 in (6), and step S361 in (7) are: Repeated every switching cycle. On the other hand, all the steps of (1), (2) after step S312, (3) after step S322, (4) after step S332, (5) after step S342, (6) after step S352, After step S362 of (7) and all steps of (8) are repeated every evaluation cycle.

(意見反映倍率取得処理手順)
図7は、本実施形態に係る意見反映倍率取得処理手順のフローチャートである。
ステップS301において、意見取得装置2の意見反映倍率設定部28は、意見数を取得する。
具体的には、意見反映倍率設定部28は、評価間隔100毎に、参加者が意見ボタンを押下する回数(意見数)を、識別番号毎に取得する。
(Opinion reflection rate acquisition processing procedure)
FIG. 7 is a flowchart of an opinion reflection magnification acquisition processing procedure according to this embodiment.
In step S301, the opinion reflection magnification setting unit 28 of the opinion acquisition device 2 acquires the number of opinions.
Specifically, the opinion reflection magnification setting unit 28 acquires, for each identification number, the number of times the participant presses the opinion button (the number of opinions) for each evaluation interval 100.

ステップS302において、意見反映倍率設定部28は、意見反映倍率を取得する。
具体的には、意見反映倍率設定部28は、ステップS301にて取得した意見数を縦軸の検索キー、識別番号を横軸の検索キーとして意見反映倍率表27を検索し、該当する交差部分の意見反映倍率を取得する。
In step S302, the opinion reflection magnification setting unit 28 acquires an opinion reflection magnification.
Specifically, the opinion reflection magnification setting unit 28 searches the opinion reflection magnification table 27 using the number of opinions acquired in step S301 as a search key on the vertical axis and the identification number as a search key on the horizontal axis. Get the opinion reflection ratio of.

ステップS303において、意見反映倍率設定部28は、意見結果26を作成する。
具体的には、意見反映倍率設定部28は、識別番号に関連付けて、ステップS301にて取得した意見数と、ステップS302にて取得した意見反映倍率とを意見結果26として補助記憶装置23に記憶する。
ここで、意見反映倍率取得処理手順を終了する。
In step S <b> 303, the opinion reflection magnification setting unit 28 creates the opinion result 26.
Specifically, the opinion reflection magnification setting unit 28 stores the number of opinions acquired in step S301 and the opinion reflection magnification acquired in step S302 in the auxiliary storage device 23 as the opinion result 26 in association with the identification number. To do.
Here, the opinion reflection magnification acquisition processing procedure ends.

ステップS301の変形例として、意見反映倍率設定部28は、取得した意見数が所定の閾値を超えた場合は、「0」にリセットすることとしてもよいし、それ以上意見数を受け付けないこととしてもよい。   As a modified example of step S301, the opinion reflection magnification setting unit 28 may reset to “0” when the number of acquired opinions exceeds a predetermined threshold, or may not accept more opinions. Also good.

(繰返し発言検出処理手順)
図8は、本実施形態に係る繰返し発言検出処理手順のフローチャートである。
図9は、本実施形態に係る繰返し発言検出部39の機能等を説明する図である。
図10(a)(b)(c)は、本実施形態に係る繰返し発言検出部39が機能する過程で、主記憶装置32の中で一時的に保持される情報を説明する図である。図10(d)は、本実施形態に係る繰返し発言検出部39が使用する品質値対応表の一例を示す図である。この品質値対応表124は、補助記憶装置33の中に記憶される。以下では、図8のフローチャートに沿って、適宜図9及び図10を参照しつつ、繰返し発言処理手順を説明する。
前提として、繰返し発言検出部39は、同じくプログラムである書込み部101、書込み制御部102、比較情報抽出部103、及び比較部104を有している(図9)。なお、このことは、他の各検出部40〜44についても同様である(図12、図16、図19、図21)。
(Repeated speech detection processing procedure)
FIG. 8 is a flowchart of the repeated speech detection processing procedure according to this embodiment.
FIG. 9 is a diagram for explaining functions and the like of the repeated speech detection unit 39 according to the present embodiment.
FIGS. 10A, 10B, and 10C are diagrams illustrating information temporarily stored in the main storage device 32 in the process in which the repetitive speech detection unit 39 according to the present embodiment functions. FIG. 10D is a diagram illustrating an example of a quality value correspondence table used by the repetitive speech detection unit 39 according to the present embodiment. The quality value correspondence table 124 is stored in the auxiliary storage device 33. Hereinafter, the repetitive speech processing procedure will be described along the flowchart of FIG. 8 with reference to FIGS. 9 and 10 as appropriate.
As a premise, the repeated speech detection unit 39 includes a writing unit 101, a writing control unit 102, a comparison information extraction unit 103, and a comparison unit 104, which are also programs (FIG. 9). This also applies to the other detection units 40 to 44 (FIGS. 12, 16, 19, and 21).

ステップS311において、書込み部101は、マイク34を介して自然音声85を、タイマ35から時間情報を取得し、物理量としての発言情報86を作成する。
このとき書込み制御部102は、書込み部101が作成する発言情報86を書き込む先のファイルを、切り替えタイミング97が到来する都度切り替える。このようにして、時系列の発言情報のファイル(符号86a、86b)が複数作成される。最新の発言情報を、最古のファイルに上書きしてもかまわない。
In step S <b> 311, the writing unit 101 acquires natural voice 85 via the microphone 34 and time information from the timer 35, and creates speech information 86 as a physical quantity.
At this time, the writing control unit 102 switches the file to which the remark information 86 created by the writing unit 101 is written every time the switching timing 97 arrives. In this way, a plurality of time-series message information files (reference numerals 86a and 86b) are created. You may overwrite the oldest file with the latest message information.

ステップS312において、比較情報抽出部103は、2つの発言情報86を選択する。
具体的には、比較情報抽出部103は、発言情報86が書き込まれたファイルのうち、時間的に最新のもの(符号86a)と、その直前のもの(符号86b)を取得し、最新のものを比較先用のファイルとし、その直前のものを比較元用のファイルとする。
ファイルが2つ以上存在しない場合は、ファイルが2つ以上作成されるまで待つ。各ファイルには、1度選択されたことを示す情報が付されているものとし、比較先用のファイルとして、この情報が付されたファイルを選択することはないものとする。後記する、NG発言検出処理手順、脱線発言検出処理手順、独占発言検出処理手順、感情発言検出処理手順、及び終了検出処理手順において、取得すべき比較先(独占発言検出処理手順では比較元)のファイルが存在しない場合も同様である。
In step S312, the comparison information extraction unit 103 selects two pieces of speech information 86.
Specifically, the comparison information extraction unit 103 acquires the latest file (symbol 86a) and the immediately preceding file (symbol 86b) among the files in which the statement information 86 is written, and obtains the latest file. Is the file for comparison, and the file immediately before is the file for comparison.
If two or more files do not exist, wait until two or more files are created. It is assumed that information indicating that the file has been selected once is attached to each file, and a file to which this information is attached is not selected as a file for comparison. In a later-described NG speech detection processing procedure, derailment speech detection processing procedure, exclusive speech detection processing procedure, emotion speech detection processing procedure, and end detection processing procedure, the comparison destination (comparison source in the exclusive speech detection processing procedure) to be acquired The same applies when the file does not exist.

ステップS313において、比較情報抽出部103は、抽出語111、114を抽出する。
具体的には、比較情報抽出部103は、ステップS312にて取得した2つの発言情報のファイル86a、86b(以降、「ファイル」を略して、単に「発言情報」とも言う)から、名詞、動詞、及びそれらに対する修飾語を抽出語として抽出する。
図10(a)では、比較情報抽出部103は、比較元100の発言情報86b「・・・配列をチェックしておきます・・・」から、抽出語111として「配列」(名詞)、「チェックする」(動詞)を抽出している。図10(b)では、比較情報抽出部103は、比較先113の発言情報86a「・・・処理を調べておきます・・・」から、抽出語114として「処理」(名詞)、「調べる」(動詞)を抽出している。
In step S313, the comparison information extraction unit 103 extracts the extracted words 111 and 114.
Specifically, the comparison information extraction unit 103 obtains nouns and verbs from the two message information files 86 a and 86 b (hereinafter, “file” is simply abbreviated as “message information”) acquired in step S312. , And modifiers for them are extracted as extracted words.
In FIG. 10A, the comparison information extraction unit 103 extracts “array” (noun), “noun” as the extracted word 111 from the utterance information 86b of the comparison source 100 “... check the array ...”. "Check" (verb) is extracted. In FIG. 10B, the comparison information extraction unit 103 extracts “processing” (noun) and “examine” as the extracted word 114 from the utterance information 86a “... "(Verb).

ステップS313の変形例として、2つの発言情報86a、86bのうちの少なくとも1つから抽出語111、114の抽出が全くできない場合は、ステップS312に戻ることとしてもよい。
例えば、会議中に参加者全員が資料を読んでいる場合等、比較情報抽出部103は、発言情報86a、86bの中から、抽出語111、114を抽出できない場合もあり得るからである。
As a modified example of step S313, when the extracted words 111 and 114 cannot be extracted from at least one of the two utterance information 86a and 86b, the process may return to step S312.
For example, the comparison information extraction unit 103 may not be able to extract the extracted words 111 and 114 from the utterance information 86a and 86b, for example, when all participants are reading materials during the meeting.

ステップS314において、比較部104は、類義語112、115を取得する。
具体的には、比較部104は、前記のように抽出された抽出語111、114の個々について、シソーラス情報105を参照し、類義語112、115を取得する。取得する類義語112、115の数は特に限定されない(ゼロの場合もあり得る)。シソーラス情報105とは、意味が同一又は類似の語同士のグループが採録されている辞書的な情報である。
図10(a)では、比較部104は、抽出語111「配列」から類義語112として「整理」、「配置」及び「性質」を、抽出語111「チェックする」から類義語112として「阻止する」を、それぞれ取得している。図10(b)では、比較部104は、抽出語114「処理」から類義語115として「配列」及び「配置」を、抽出語114「調べる」から類義語115として「研究する」及び「チェックする」を、それぞれ取得している。
In step S314, the comparison unit 104 acquires the synonyms 112 and 115.
Specifically, the comparison unit 104 acquires the synonyms 112 and 115 by referring to the thesaurus information 105 for each of the extracted words 111 and 114 extracted as described above. The number of synonyms 112 and 115 to be acquired is not particularly limited (it may be zero). The thesaurus information 105 is lexicographic information in which groups of words having the same or similar meaning are recorded.
In FIG. 10A, the comparison unit 104 “arranges”, “arrangement” and “property” from the extracted word 111 “array” as synonyms 112 and “blocks” as the synonym 112 from the extracted words 111 “check”. Have acquired each. In FIG. 10B, the comparison unit 104 performs “research” and “check” as the synonym 115 from the extracted word 114 “process” as the synonym 115 and “study” from the extracted word 114 “examine”. Have acquired each.

ステップS315において、比較部104は、比較元116の語と比較先119の語を作成する。
具体的には、比較部104は、第一に、図10(c)の比較元116の抽出語及び類義語欄117に、図10(a)の抽出語111及び類義語112を上から下に並べる。
このとき、比較部104は、「配置、チェックする」のように、名詞である抽出語111、114及び類義語112、115と、動詞である抽出語111、114及び類義語112、115との組み合わせを作成し、その下に並べる。ここには例として現れないが、比較部104は、修飾語と名詞との組み合わせ、又は修飾語と動詞との組み合わせを並べてもよい。
更に、このような組み合わせの中から、意味的に不自然な組合せを公知の技術で削除してもよいし、抽出語111及び類義語112の中に同一の語が重複して存在している場合は、重複分を削除してもよい(比較先においても同様)。
比較部104は、第二に、図10(c)の比較先119の抽出語及び類義語欄120に、図10(b)の抽出語114及び類義語115を上から下に並べる。
このとき、比較部104は、比較元と同様に、組み合わせを作成し、その下に並べる。
In step S315, the comparison unit 104 creates the word of the comparison source 116 and the word of the comparison destination 119.
Specifically, the comparison unit 104 first arranges the extracted word 111 and the synonym 112 of FIG. 10A from the top to the bottom in the extracted word and synonym column 117 of the comparison source 116 of FIG. .
At this time, the comparison unit 104 determines a combination of the extracted words 111 and 114 and the synonyms 112 and 115 that are nouns and the extracted words 111 and 114 and the synonyms 112 and 115 that are verbs, as in “placement and check”. Create and line up under it. Although not shown here as an example, the comparison unit 104 may arrange a combination of a modifier and a noun, or a combination of a modifier and a verb.
Furthermore, a combination that is semantically unnatural from such combinations may be deleted by a known technique, or the same word is duplicated in the extracted word 111 and the synonym 112. May delete duplicates (the same applies to the comparison destination).
Second, the comparison unit 104 arranges the extracted words 114 and the synonyms 115 of FIG. 10B from the top to the bottom in the extracted words and synonyms column 120 of the comparison destination 119 of FIG.
At this time, the comparison unit 104 creates combinations and arranges them under the same as the comparison source.

ステップS316において、比較部104は、比較を行う。すなわち、会議中に取得された物理量としての発言情報86から抽出された抽出語及びその類義語を異なる2つの期間同士で比較する。
比較部104は、図10(c)の比較元116の抽出語及び類義語欄117の各語又は組み合わせについて、図10(c)の比較先119の抽出語及び類義語欄120に同一の語又は組合せが存在するか否かを判断し、存在すれば、その数を、存在しなければ「0」を比較元(先)のヒット数欄118、121に記憶する。
例えば、比較元116の1行目の「配列」に対して、比較先119の2行目の「配列」が一致するので、比較元116の1行目のヒット数欄118に「1」を、比較先119の1行目のヒット数欄121に「1」を、それぞれ記憶する。比較先のヒット数欄121はなくてもかまわない。
なお、この例では、前記した重複分の削除を行っている結果、ある比較元116の語が複数の比較先119の語と一致することはなく、「1」又は「0」の何れかがヒット数として記憶されるものとする。
In step S316, the comparison unit 104 performs comparison. That is, the extracted word extracted from the remark information 86 as a physical quantity acquired during the meeting and its synonyms are compared between two different periods.
The comparison unit 104 uses the same word or combination in the extracted word and synonym column 120 of the comparison destination 119 in FIG. 10C for each extracted word or combination in the comparing word 116 and the synonym column 117 in FIG. Is stored in the hit number columns 118 and 121 of the comparison source (destination), if not, “0” is stored.
For example, since the “array” in the second row of the comparison destination 119 matches the “array” in the first row of the comparison source 116, “1” is set in the hit number column 118 in the first row of the comparison source 116. Then, “1” is stored in the hit number column 121 on the first line of the comparison destination 119. The hit number column 121 of the comparison destination may be omitted.
In this example, as a result of deleting the overlap, the word of a certain comparison source 116 does not match the words of a plurality of comparison destinations 119, and either “1” or “0” is determined. Assume that it is stored as the number of hits.

ステップS317において、比較部104は、繰返し度を計算する。すなわち、会議中に取得された物理量としての発言情報86から抽出された抽出語及びその類義語を異なる2つの期間同士で比較した結果の、一致する回数を取得する。
具体的には、比較部104は、比較元116のヒット数欄118のヒット数を合計し、合計値を繰返し回数122とする。そして、繰返し回数122を、比較元116のレコード数と比較先119のレコード数との積(「総比較回数」123という)で除した百分率(「繰返し度」という)を算出する。
図10(c)の例では、繰返し回数122は「4」であり、総比較回数は64(8×8)であり、繰返し度は6.3%(4÷64×100)である。
なお、この計算方法はあくまでも一例であり、これに限定されない。以下の各処理手順についても同様である。
In step S317, the comparison unit 104 calculates the repetition rate. That is, the number of times of matching is obtained as a result of comparing the extracted word extracted from the utterance information 86 as a physical quantity acquired during the meeting and its synonyms between two different periods.
Specifically, the comparison unit 104 totals the hit numbers in the hit number column 118 of the comparison source 116 and sets the total value as the repetition count 122. Then, a percentage (referred to as “repeat degree”) obtained by dividing the repeat count 122 by the product of the record number of the comparison source 116 and the record count of the comparison destination 119 (referred to as “total comparison count” 123) is calculated.
In the example of FIG. 10C, the number of repetitions 122 is “4”, the total number of comparisons is 64 (8 × 8), and the repetition rate is 6.3% (4 ÷ 64 × 100).
This calculation method is merely an example, and the present invention is not limited to this. The same applies to the following processing procedures.

ステップS318において、比較部104は、品質値を取得する。すなわち、一致する回数と、前記抽出語及びその類義語の合計数又は抽出語及びその類義語同士を比較した回数の何れかと、に基いて品質値を取得する。
具体的には、比較部104は、ステップS317にて計算した繰返し度に基づいて、品質値対応表124(図10(d)詳細後記)から品質値を取得する。この例では、繰返し度6.3%に基づき、品質値「17.5」を取得する。
In step S318, the comparison unit 104 acquires a quality value. That is, the quality value is acquired based on the number of times of matching and the total number of the extracted words and their synonyms or the number of times the extracted words and their synonyms are compared.
Specifically, the comparison unit 104 acquires a quality value from the quality value correspondence table 124 (detailed later in FIG. 10D) based on the repetition rate calculated in step S317. In this example, the quality value “17.5” is acquired based on the repetition rate of 6.3%.

ステップS319において、比較部104は、品質値、参考情報を記憶する。
具体的には、比較部104は、図3(a)の評価結果37の新たなレコードを作成し、識別番号欄72には「1」を、品質値欄73にはステップS318にて取得した品質値を、それぞれ記憶する。参考情報欄74には、ステップS317にて合計した繰返し回数、ステップS317にて算出した繰返し度、及びステップS316にてヒット数欄118に「1」を記載した抽出語、類義語、又は組み合わせを、それぞれ「繰り返し回数」、「繰返し度」及び「繰返し内容」の見出しを付して記憶する。
ここで、繰返し発言検出処理手順は終了する。
In step S319, the comparison unit 104 stores the quality value and reference information.
Specifically, the comparison unit 104 creates a new record of the evaluation result 37 in FIG. 3A, and acquires “1” in the identification number column 72 and the quality value column 73 in step S318. Each quality value is stored. In the reference information column 74, the total number of repetitions in step S317, the repetition rate calculated in step S317, and the extracted word, synonym, or combination in which “1” is entered in the hit number column 118 in step S316, The headings “repetition count”, “repetition degree” and “repetition content” are added and stored.
Here, the repeated speech detection processing procedure ends.

<品質値対応表>
図10(d)の品質値対応表124は、予めユーザが作成しておく表であり、補助記憶装置33に記憶されているものとする。
品質値対応表124は、総比較回数だけ存在するものとする。図10(d)の品質値対応表124は、総比較回数が「64」である場合に用いられるものである(実際の総比較回数は64よりはるかに大きい数値であるが、ここでは、わかり易さのために64とする)。
繰返し回数に関連付けて、繰返し度及び品質値が記憶されている。
繰返し回数の行125には、繰返し回数が、総比較回数である「64」を先頭にして、左から右へ64、63、・・・、1、0のように記憶されている。
繰返し度の行126には、繰返し度が記憶されている。例えば、1列目では、繰返し回数64÷総比較回数64=100%が記憶されている。2列目では、繰返し回数63÷総比較回数64=98.4%が記憶されている。
品質値の行127には、品質値が記憶されている。品質値は、最小値−20から最大値20までの範囲を、等間隔で刻んだ数列である。
この例では、最大値と最小値との差を総比較回数で除し、刻みの幅を((20−(−20))÷(64)=0.6としている。
<Quality value correspondence table>
The quality value correspondence table 124 in FIG. 10D is a table created by the user in advance, and is stored in the auxiliary storage device 33.
Assume that the quality value correspondence table 124 exists for the total number of comparisons. The quality value correspondence table 124 in FIG. 10D is used when the total number of comparisons is “64” (the actual total number of comparisons is a numerical value much larger than 64, but here it is easy to understand. For this reason, it is 64).
The degree of repetition and the quality value are stored in association with the number of repetitions.
In the number of repetitions row 125, the number of repetitions is stored as 64, 63,..., 1, 0 from left to right starting from “64” which is the total number of comparisons.
The repeat degree row 126 stores the repeat degree. For example, in the first column, the number of repetitions 64 ÷ total number of comparisons 64 = 100% is stored. In the second column, the number of repetitions 63 ÷ the total number of comparisons 64 = 98.4% is stored.
The quality value row 127 stores quality values. The quality value is a numerical sequence in which the range from the minimum value −20 to the maximum value 20 is cut at equal intervals.
In this example, the difference between the maximum value and the minimum value is divided by the total number of comparisons, and the step width is ((20 − (− 20)) ÷ (64) = 0.6.

(NG発言検出処理手順)
図11は、本実施形態に係るNG発言検出処理手順のフローチャートである。
図12は、本実施形態に係るNG発言検出部40の機能等を説明する図である。
図13(a)(b)(c)は、本実施形態に係るNG発言検出部40が機能する過程で、主記憶装置32の中で一時的に保持される情報を説明する図である。図13(d)は、本実施形態に係るNG発言検出部40が使用する品質値対応表の一例を示す図である。この品質値対応表141は、補助記憶装置33の中に記憶される。以下では、図11のフローチャートに沿って、適宜図12及び図13を参照しつつ、NG発言処理手順を説明する。
なお、後記する脱線発言検出処理手順の説明においても、図11及び図12は共通して参照される。したがって、図11及び図12の( )は、ここでは無視されるものとする。
前提として、補助記憶装置33には、NG語としての抽出語92が記憶されている(図12)。これは、会議が始まる前に、キーボード24等の入力装置から入力されている語である。
(NG speech detection processing procedure)
FIG. 11 is a flowchart of the NG speech detection processing procedure according to the present embodiment.
FIG. 12 is a diagram for explaining functions and the like of the NG message detection unit 40 according to the present embodiment.
FIGS. 13A, 13B, and 13C are diagrams for explaining information temporarily held in the main storage device 32 in the process in which the NG speech detection unit 40 according to the present embodiment functions. FIG. 13D is a diagram showing an example of a quality value correspondence table used by the NG statement detection unit 40 according to the present embodiment. The quality value correspondence table 141 is stored in the auxiliary storage device 33. Hereinafter, the NG speech processing procedure will be described along the flowchart of FIG. 11 with reference to FIGS. 12 and 13 as appropriate.
Note that FIGS. 11 and 12 are also commonly referred to in the description of the derailment speech detection processing procedure described later. Accordingly, the parentheses in FIGS. 11 and 12 are ignored here.
As a premise, the auxiliary storage device 33 stores extracted words 92 as NG words (FIG. 12). This is a word that is input from an input device such as the keyboard 24 before the conference starts.

ステップS321は、繰返し発言検出処理手順のステップS311と同じである。結果として、時系列の発言情報86のファイルが複数作成される。   Step S321 is the same as step S311 of the repeated speech detection processing procedure. As a result, a plurality of time-series message information 86 files are created.

ステップS322において、比較情報抽出部103は、1つの発言情報86を選択する。
具体的には、比較情報抽出部103は、発言情報86が書き込まれたファイルのうち、時間的に最新のもの(符号86a)を取得し、これを比較先用のファイルとする。
In step S322, the comparison information extraction unit 103 selects one piece of speech information 86.
Specifically, the comparison information extraction unit 103 acquires the latest file (symbol 86a) in time among the files in which the statement information 86 is written, and sets this as a comparison destination file.

ステップS323において、比較情報抽出部103は、抽出語134を抽出する。
具体的には、比較情報抽出部103は、ステップS322にて取得した1つの発言情報のファイル86aから、名詞、動詞、及びそれらに対する修飾語を抽出語134として抽出する。
図13(b)では、比較情報抽出部103は、比較先133の発言情報86a「・・・そういえば前回の会議で実施する・・・」から、抽出語134として「そういえば」(修飾語)、「前回」(名詞)、及び「実施する」(動詞)を抽出している。なお、図13(a)には、NG語としての抽出語92が記憶されているが、これは既に品詞に分解されている。したがって、比較情報抽出部103は、NG語としての抽出語92に対して処理を行わない。
In step S323, the comparison information extraction unit 103 extracts the extracted word 134.
Specifically, the comparison information extraction unit 103 extracts nouns, verbs, and modifiers for the nouns, verbs, and modifiers as extracted words 134 from the single comment information file 86a acquired in step S322.
In FIG. 13B, the comparison information extraction unit 103 uses “speaking” (modifier) as the extracted word 134 from the utterance information 86 a of the comparison destination 133 “. ), “Previous” (noun), and “perform” (verb). In FIG. 13A, an extracted word 92 as an NG word is stored, which has already been decomposed into parts of speech. Therefore, the comparison information extraction unit 103 does not process the extracted word 92 as an NG word.

ステップS323の変形例として、発言情報86aから抽出語134の抽出が全くできない場合は、ステップS322に戻ることとしてもよい。   As a modified example of step S323, when the extracted word 134 cannot be extracted from the utterance information 86a at all, the process may return to step S322.

ステップS324は、繰返し発言処理手順のステップS314とほぼ同じである。
ステップS314との相違点は、類義語を抽出してくる元が、ステップS314では、2つの抽出語111、114のグループであるのに対し、ステップS324では、1つの抽出語134のグループと、1つのNG語としての抽出語92のグループである点である。
図13(a)では、比較部104は、NG語としての抽出語92「前々」から類義語132として「先々」を、NG語としての抽出語92「実行する」から類義語132として「執行する」及び「実施する」を、それぞれ取得している。図13(b)では、比較部104は、抽出語134「前回」から類義語135として「前々」及び「先」を、抽出語134「実施する」から類義語135として「施行する」を、それぞれ取得している。NG語としての抽出語92「そういえば」及び抽出語134「そういえば」については、類義語が取得されていない。
Step S324 is substantially the same as step S314 of the repeated speech processing procedure.
The difference from step S314 is that the source from which synonyms are extracted is a group of two extracted words 111 and 114 in step S314, whereas in step S324, a group of one extracted word 134 and a group of 1 This is a group of extracted words 92 as two NG words.
In FIG. 13A, the comparison unit 104 “executes” “previous” as the synonym 132 from the extracted word 92 “previous” as the NG word, and “executes” as the synonym 132 from the extracted word 92 “execute” as the NG word. ”And“ Implement ”. In FIG. 13B, the comparison unit 104 sets “previous” and “destination” as synonyms 135 from the extracted word 134 “previous”, and “enforces” as the synonym 135 from the extracted word 134 “execute”, respectively. Have acquired. No synonyms have been acquired for the extracted word 92 “speaking” and the extracted word 134 “speaking” as NG words.

ステップS325は、繰返し発言検出処理手順のステップS315と同じである。   Step S325 is the same as step S315 of the repeated speech detection processing procedure.

ステップS326は、繰返し発言検出処理手順のステップS316と同じである。   Step S326 is the same as step S316 in the repeated speech detection processing procedure.

ステップS327において、比較部104は、NG発言度を計算する。すなわち、会議中に取得された物理量としての発言情報から抽出された抽出語及びその類義語と、予め設定された禁止発言及びその類義語と、を比較した結果の、一致する回数を取得する。
具体的には、比較部104は、比較元136のヒット数欄138のヒット数を合計し、合計値をNG発言回数139とする。そして、NG発言回数139を、「総比較回数」140で除した百分率(「NG発言度」という)を算出する。
図13(c)の例では、NG発言回数は「4」であり、総比較回数は48(6×8)であり、NG発言度は8.3%(4÷48×100)である。
In step S327, the comparison unit 104 calculates an NG speech level. That is, the number of times of coincidence obtained as a result of comparing the extracted word extracted from the utterance information as the physical quantity acquired during the meeting and its synonyms with the preset prohibited utterance and its synonyms is acquired.
Specifically, the comparison unit 104 totals the hit numbers in the hit number column 138 of the comparison source 136 and sets the total value as the number of NG utterances 139. Then, a percentage (referred to as “NG speech level”) obtained by dividing the number of NG speeches 139 by the “total number of comparisons” 140 is calculated.
In the example of FIG. 13C, the number of NG utterances is “4”, the total number of comparisons is 48 (6 × 8), and the degree of NG utterance is 8.3% (4 ÷ 48 × 100).

ステップS328において、比較部104は、品質値を取得する。すなわち、一致する回数と、禁止発言及びその類義語の合計数又は禁止発言及びその類義語と抽出語及びその類義語とを比較した回数の何れかと、に基づいて、前記品質値を取得する。
具体的には、比較部104は、ステップS327にて計算したNG発言度に基づいて、品質値対応表141(図13(d)詳細後記)から品質値を取得する。この例では、繰返し度8.3%に基づき、品質値「16.7」を取得する。
In step S328, the comparison unit 104 acquires a quality value. That is, the quality value is acquired based on the number of times of matching and the total number of prohibited words and their synonyms, or the number of times of comparison of prohibited words and their synonyms with extracted words and their synonyms.
Specifically, the comparison unit 104 acquires a quality value from the quality value correspondence table 141 (FIG. 13 (d) details later) based on the NG speech level calculated in step S327. In this example, the quality value “16.7” is acquired based on the repetition rate of 8.3%.

ステップS329において、比較部104は、品質値、参考情報を記憶する。
具体的には、比較部104は、図3(a)の評価結果37の新たなレコードを作成し、識別番号欄72には「2」を、品質値欄73にはステップS328にて取得した品質値を、それぞれ記憶する。参考情報欄74には、ステップS327にて合計したNG発言回数、ステップS327にて算出したNG発言度、及びステップS326にてヒット数欄138に「1」を記載した抽出語、類義語、又は組み合わせを、それぞれ「NG発言回数」、「NG発言度」及び「NG発言内容」の見出しを付して記憶する。
ここで、繰返し発言検出処理手順は終了する。
In step S329, the comparison unit 104 stores the quality value and reference information.
Specifically, the comparison unit 104 creates a new record of the evaluation result 37 in FIG. 3A, and acquires “2” in the identification number column 72 and the quality value column 73 in step S328. Each quality value is stored. In the reference information column 74, the total number of NG utterances calculated in step S327, the NG utterance degree calculated in step S327, and the extracted word, synonym, or combination in which “1” is described in the hit number column 138 in step S326 Are stored with headings "NG speech count", "NG speech level" and "NG speech content", respectively.
Here, the repeated speech detection processing procedure ends.

<品質値対応表>
図13(d)の品質値対応表141は、予めユーザが作成しておく表であり、補助記憶装置33に記憶されているものとする。
図13(d)の品質値対応表141は、図10(d)の品質値対応表124と構成は同じである。但し、「繰返し回数」行125に替わって「NG発言回数」行142が、「繰返し度」行126に替わって「NG発言度」行143が記憶されている。
<Quality value correspondence table>
The quality value correspondence table 141 in FIG. 13D is a table created in advance by the user, and is stored in the auxiliary storage device 33.
The quality value correspondence table 141 in FIG. 13D has the same configuration as the quality value correspondence table 124 in FIG. However, a “NG speech count” row 142 is stored instead of the “repeat count” row 125, and an “NG speech count” row 143 is stored instead of the “repeat count” row 126.

(脱線発言検出処理手順)
図11は、本実施形態に係る脱線発言検出処理手順のフローチャートである。
図12は、本実施形態に係る脱線発言検出部41の機能等を説明する図である。
図14(a)(b)(c)は、本実施形態に係る脱線発言検出部41が機能する過程で、主記憶装置32の中で一時的に保持される情報を説明する図である。図14(d)は、本実施形態に係る脱線発言検出部41が使用する品質値対応表の一例を示す図である。この品質値対応表174は、補助記憶装置33の中に記憶される。以下では、図11のフローチャートに沿って、適宜図12及び図14を参照しつつ、脱線発言処理手順を説明する。
前提として、補助記憶装置33には、本題語としての抽出語93が記憶されている(図12)。これは、会議が始まる前に、キーボード24等の入力装置から入力されている語である。
なお、前記したNG発言検出処理手順の説明においても、図11及び図12は共通して参照された。したがって、図11及び図12の( )の部分がここでは参照されるものとする
(Derailment remark detection processing procedure)
FIG. 11 is a flowchart of the derailment speech detection processing procedure according to this embodiment.
FIG. 12 is a diagram for explaining functions and the like of the derailment message detection unit 41 according to the present embodiment.
FIGS. 14A, 14B, and 14C are diagrams for explaining information temporarily stored in the main storage device 32 in a process in which the derailment speech detection unit 41 according to the present embodiment functions. FIG. 14D is a diagram illustrating an example of a quality value correspondence table used by the derailment speech detection unit 41 according to the present embodiment. The quality value correspondence table 174 is stored in the auxiliary storage device 33. Hereinafter, the derailment speech processing procedure will be described along the flowchart of FIG. 11 with reference to FIGS. 12 and 14 as appropriate.
As a premise, the auxiliary storage device 33 stores an extracted word 93 as the main subject (FIG. 12). This is a word that is input from an input device such as the keyboard 24 before the conference starts.
It should be noted that FIGS. 11 and 12 are also commonly referred to in the description of the NG speech detection processing procedure described above. Therefore, the part in parentheses in FIGS. 11 and 12 is referred to here.

ステップS331は、NG発言検出処理手順のステップS321と同じである。   Step S331 is the same as step S321 of the NG speech detection processing procedure.

ステップS332は、NG発言検出処理手順のステップS322と同じである。   Step S332 is the same as step S322 of the NG speech detection processing procedure.

ステップS333において、比較情報抽出部103は、抽出語154を抽出する。
具体的には、比較情報抽出部103は、ステップS332にて取得した1つの発言情報のファイル86aから、名詞、動詞、及びそれらに対する修飾語を抽出語154として抽出する。
図14(b)では、比較情報抽出部103は、比較先153の発言情報86a「・・・ダンプ解析を支援するYYY解析を説明する・・・」から、抽出語154として「ダンプ解析」及び「YYY解析」(名詞)、「説明する」(動詞)を抽出している。なお、図14(a)には、本題語としての抽出語93が記憶されているが、これは、既に品詞に分解されている。したがって、比較情報抽出部103は、本題語としての抽出語93に対して処理を行わない。
In step S333, the comparison information extraction unit 103 extracts the extracted word 154.
Specifically, the comparison information extraction unit 103 extracts nouns, verbs, and modifiers as extracted words 154 from the single statement information file 86 a acquired in step S <b> 332.
In FIG. 14B, the comparison information extraction unit 103 extracts “dump analysis” as the extracted word 154 from the utterance information 86a of the comparison destination 153 “... Explains the YYY analysis supporting the dump analysis. “YYY analysis” (noun) and “explain” (verb) are extracted. In FIG. 14A, an extracted word 93 as the main subject is stored, which has already been decomposed into parts of speech. Therefore, the comparison information extraction unit 103 does not process the extracted word 93 as the main subject.

ステップS333の変形例として、発言情報86aから抽出語の抽出が全くできない場合は、ステップS332に戻ることとしてもよい。   As a modified example of step S333, when no extracted word can be extracted from the utterance information 86a, the process may return to step S332.

ステップS334は、NG発言検出処理手順のステップS324とほぼ同じである。
ステップS324との相違点は、類義語を抽出してくる元が、ステップS324では、1つの抽出語134のグループと、1つのNG語としての抽出語92のグループであるのに対し、ステップS334では、1つの抽出語154のグループと、1つの本題語としての抽出語93のグループである点である。
図14(a)では、比較部104は、本題語としての抽出語93「伝票」から類義語152として「勘定書」を、本題語としての抽出語93「レクチャーする」から類義語152として「説明する」を、それぞれ取得している。図14(b)では、比較部104は、抽出語154「ダンプ解析」から類義語155として「ZZZ解析」を、抽出語154「説明する」から類義語155として「解説する」を、それぞれ取得している。本題語としての抽出語93「XXX帳票作成」及び抽出語154「YYY解析」については、類義語が取得されていない。
Step S334 is almost the same as step S324 of the NG speech detection processing procedure.
The difference from step S324 is that the source for extracting synonyms is a group of one extracted word 134 and a group of extracted words 92 as one NG word in step S324, whereas in step S334 This is a group of one extracted word 154 and a group of extracted words 93 as one main word.
In FIG. 14A, the comparison unit 104 “explains” from the extracted word 93 “slip” as the main subject as a synonym 152 and “explains” as the synonym 152 from the extracted word 93 “lectures” as the main subject. ", Respectively. In FIG. 14B, the comparison unit 104 acquires “ZZZ analysis” as the synonym 155 from the extracted word 154 “dump analysis”, and “explains” as the synonym 155 from the extracted word 154 “explain”. Yes. Synonyms are not acquired for the extracted word 93 “XXX form creation” and the extracted word 154 “YYY analysis” as the main words.

ステップS335において、比較部104は、比較元156の語と比較先159の語を作成する。
具体的には、比較部104は、第一に、図14(c)の比較元156の抽出語及び類義語欄157に、図14(a)の本題語としての抽出語93及び類義語152を上から下に並べる。
更に、本題語としての抽出語93及び類義語152の中に同一の語が重複して存在している場合は、重複分を削除してもよい。また、抽出語154及び類義語155の中に同一の語が重複して存在している場合は、重複分を削除してもよい。
比較部104は、第二に、図14(c)の比較先159の抽出語及び類義語欄160に、図14(b)の抽出語154及び類義語155を上から下に並べる。
In step S335, the comparison unit 104 creates the word of the comparison source 156 and the word of the comparison destination 159.
Specifically, the comparison unit 104 first adds the extracted word 93 and the synonym 152 as the main subject in FIG. 14A to the extracted word and synonym column 157 of the comparison source 156 in FIG. Line up from the bottom.
Furthermore, when the same word is duplicated in the extracted word 93 and the synonym 152 as the main subject, the duplicate may be deleted. If the same word is duplicated in the extracted word 154 and the synonym 155, the duplicate may be deleted.
Second, the comparison unit 104 arranges the extracted word 154 and the synonym 155 of FIG. 14B from the top to the bottom in the extracted word and synonym column 160 of the comparison destination 159 of FIG.

<ステップS315との差異>
ステップS315における処理「名詞である抽出語及び類義語と、動詞である抽出語及び類義語との組み合わせを作成し、その下に並べる」はここでは省略している。なぜならば、ここでは、名詞や動詞等の単語同士の比較を主として行うためである。もちろん、ステップS315と同様、名詞や動詞の組み合わせを作成し、これらも比較対象としてもよい。
<Difference from step S315>
The processing in step S315 “creates a combination of extracted words and synonyms that are nouns and extracted words and synonyms that are verbs and arranges them underneath” is omitted here. This is because here, comparison is mainly made between words such as nouns and verbs. Of course, as in step S315, a combination of nouns and verbs may be created and these may be used as comparison targets.

ステップS336は、NG発言検出処理手順のステップS326と同じである。   Step S336 is the same as step S326 of the NG speech detection processing procedure.

ステップS337において、比較部104は、脱線度を計算する。すなわち、本題発言及びその類義語の合計数、又は本題発言及びその類義語と抽出語及びその類義語とを比較した回数の何れかから一致する回数を控除した脱線回数を取得する。
具体的には、比較部104は、比較元156のヒット数欄158のヒット数を合計し、合計値を本題発言回数171とする。そして、比較元156のレコードの数である「語句総数」172から本題発言回数171を控除した数(「脱線発言回数」173という)を、「語句総数」172で除した百分率(「脱線度」という)を算出する。
図14(c)の例では、本題発言回数171は「1」であり、語句総数172は「5」であり、脱線発言回数173は「4」であり、脱線度は80%((5−1)÷5×100)である。
In step S337, the comparison unit 104 calculates a derailment degree. That is, the number of derailments is obtained by subtracting the number of coincidences from either the total number of the main subject utterances and their synonyms or the number of comparisons between the main subject utterances and their synonyms and the extracted words and their synonyms.
Specifically, the comparison unit 104 totals the hit numbers in the hit number column 158 of the comparison source 156 and sets the total value as the main subject utterance count 171. Then, the number obtained by subtracting the number of main subject utterances 171 (referred to as “number of derailment utterances” 173) from the “total number of phrases” 172 that is the number of records of the comparison source 156, and the percentage (“derailment degree”). Calculated).
In the example of FIG. 14C, the main subject utterance count 171 is “1”, the phrase total number 172 is “5”, the derailment utterance count 173 is “4”, and the derailment degree is 80% ((5- 1) ÷ 5 × 100).

<ステップS317との差異>
ステップS317においては、繰返し度の分母は総比較回数であるとして、ここでは、脱線度の分母は語句総数であるとして説明した。しかしながら、ステップS317においても、ステップS337においても、分母として、総比較回数及び語句総数のいずれを採用してもかまわない。但し、分母を語句総数とした場合のほうが、繰返し度及び脱線度の値は大きくなる。
<Difference from step S317>
In step S317, it has been described that the denominator of the repeat degree is the total number of comparisons, and here, the denominator of the derailment degree is the total number of words. However, in both step S317 and step S337, either the total number of comparisons or the total number of words may be adopted as the denominator. However, the repeatability and derailment values are larger when the denominator is the total number of phrases.

ステップS338において、比較部104は、品質値を取得する。すなわち、脱線回数と、本題発言及びその類義語の合計数又は本題発言及びその類義語と抽出語及びその類義語とを比較した回数の何れかと、に基づいて、品質値を取得する。
具体的には、比較部104は、ステップS337にて計算した脱線度に基づいて、品質値対応表174(図14(d)詳細後記)から品質値を取得する。この例では、脱線度80%に基づき、品質値「−12」を取得する。
In step S338, the comparison unit 104 acquires a quality value. That is, the quality value is acquired based on the number of derailments and either the total number of the main subject utterances and their synonyms or the number of times the main subject utterances and their synonyms are compared with the extracted words and their synonyms.
Specifically, the comparison unit 104 acquires a quality value from the quality value correspondence table 174 (FIG. 14 (d) details later) based on the derailment degree calculated in step S337. In this example, the quality value “−12” is acquired based on the derailment degree of 80%.

ステップS339において、比較部104は、品質値、参考情報を記憶する。
具体的には、比較部104は、図3(a)の評価結果37の新たなレコードを作成し、識別番号欄72には「3」を、品質値欄73にはステップS338にて取得した品質値を、それぞれ記憶する。参考情報欄74には、ステップS337にて計算した脱線発言回数173、ステップS337にて算出した脱線度、及びステップS336にてヒット数欄170に「0」を記載した抽出語又は類義語を、それぞれ「脱線発言回数」、「脱線度」及び「脱線発言内容」の見出しを付して記憶する。
ここで、繰返し発言検出処理手順は終了する。
In step S339, the comparison unit 104 stores the quality value and reference information.
Specifically, the comparison unit 104 creates a new record of the evaluation result 37 of FIG. 3A, and acquires “3” in the identification number column 72 and the quality value column 73 in step S338. Each quality value is stored. In the reference information column 74, the number of derailment utterances 173 calculated in step S337, the derailment degree calculated in step S337, and the extracted word or synonym in which “0” is described in the hit number column 170 in step S336, respectively. The headings “derailment utterance count”, “derailment degree”, and “derailment utterance content” are added and stored.
Here, the repeated speech detection processing procedure ends.

<品質値対応表>
図14(d)の品質値対応表174は、予めユーザが作成しておく表であり、補助記憶装置33に記憶されているものとする。
図14(d)の品質値対応表174は、図10(d)の品質値対応表124と構成は同じである。但し、「繰返し発言回数」行125に替わって「脱線発言回数」行175が、「繰返し度」行126に替わって「脱線度」行176が記憶されている。
<Quality value correspondence table>
The quality value correspondence table 174 in FIG. 14D is a table created in advance by the user, and is stored in the auxiliary storage device 33.
The quality value correspondence table 174 in FIG. 14D has the same configuration as the quality value correspondence table 124 in FIG. However, a “derailment frequency” row 175 is stored instead of the “repetition frequency” row 125, and a “derailment rate” row 176 is stored instead of the “repetition rate” row 126.

(独占発言検出処理手順)
図15は、本実施形態に係る独占発言検出処理手順のフローチャートである。
図16は、本実施形態に係る独占発言検出部42の機能等を説明する図である。
図17(a)(c)は、本実施形態に係る独占発言検出部42が機能する過程で、主記憶装置32の中で一時的に保持される情報を説明する図である。図17(b)は、本実施形態に係る独占発言検出部42が使用する見本声紋情報データベースの一例を示す図である。この見本声紋情報データベース94及び品質値対応表188は、補助記憶装置33の中に記憶される。以下では、図15のフローチャートに沿って、適宜図16及び図17を参照しつつ、独占発言処理手順を説明する。
(Exclusive speech detection processing procedure)
FIG. 15 is a flowchart of the exclusive message detection processing procedure according to this embodiment.
FIG. 16 is a diagram for explaining functions and the like of the exclusive message detection unit 42 according to the present embodiment.
FIGS. 17A and 17C are diagrams illustrating information temporarily held in the main storage device 32 in the process in which the exclusive message detection unit 42 according to the present embodiment functions. FIG. 17B is a diagram illustrating an example of a sample voiceprint information database used by the exclusive speech detection unit 42 according to the present embodiment. The sample voiceprint information database 94 and the quality value correspondence table 188 are stored in the auxiliary storage device 33. Hereinafter, the exclusive speech processing procedure will be described along the flowchart of FIG. 15 with reference to FIGS. 16 and 17 as appropriate.

<見本声紋情報データベース>
会議に先立って、参加者の見本声紋情報184が取得される。まずユーザは、参加者が発言するべき複数の「センテンス」を決める。センテンスは、特に限定されないが、会議中に参加者の誰もが発言する可能性のある言葉(挨拶語、自社名等)であることが望ましい。そして、検出装置3は、参加者全員が発言する決定された複数の「センテンス」を、マイク34を介して取得する。
図17(b)の見本声紋情報データベース94には、参加者欄183の参加者名に関連付けて、見本声紋情報欄184には見本声紋情報が、センテンス欄185にはセンテンスが、それぞれ記憶されている。
参加者欄183の参加者は、会議に参加する参加者の名称である。
見本声紋情報欄184の見本声紋情報は、そのセンテンスを発言した際の声紋情報である。見本声紋情報は、図5の声紋情報87と同様、横軸に時間情報、縦軸に周波数、色として振幅を有する情報である。横軸の時間の長さは特に限定されない(センテンスの長さや、参加者によって異なる)。
センテンス欄185のセンテンスは、発言された文字情報である。
見本声紋情報データベース94のレコードは、参加者とセンテンスの組み合わせの数だけ存在する。
ちなみに、1行目のレコードは、Aさんが「ありがとう」と発言した際の見本声紋情報が「SSSS」であったことを示している。
<Sample Voiceprint Information Database>
Prior to the meeting, sample voiceprint information 184 of the participant is acquired. First, the user determines a plurality of “sentences” that the participant should speak. The sentence is not particularly limited, but is preferably a word (greeting word, company name, etc.) that can be spoken by any of the participants during the meeting. Then, the detection device 3 acquires a plurality of “sentences” determined by all participants through the microphone 34.
In the sample voiceprint information database 94 of FIG. 17B, sample voiceprint information is stored in the sample voiceprint information column 184 and sentence is stored in the sentence column 185 in association with the participant name in the participant column 183. Yes.
The participant in the participant column 183 is the name of the participant who participates in the conference.
The sample voice print information in the sample voice print information column 184 is voice print information when the sentence is spoken. Similar to the voiceprint information 87 of FIG. 5, the sample voiceprint information is information having time information on the horizontal axis, frequency on the vertical axis, and amplitude as a color. The length of time on the horizontal axis is not particularly limited (it varies depending on the sentence length and participants).
The sentence in the sentence column 185 is the text information that is spoken.
There are as many records in the sample voiceprint information database 94 as there are combinations of participants and sentences.
Incidentally, the record in the first line indicates that the sample voiceprint information when Mr. A remarked “Thank you” was “SSSS”.

ステップS341において、書込み部101は、マイク34を介して自然音声85を、タイマ35から時間情報を取得し、物理量としての声紋情報87を作成する。
このとき書込み制御部102は、書込み部101が作成する声紋情報87を書き込む先のファイルを、切り替えタイミング97が到来する都度切り替える。このようにして、時系列の声紋情報87のファイルが複数作成される。最新の声紋情報を、最古のファイルに上書きしてもかまわない。
In step S341, the writing unit 101 acquires natural voice 85 through the microphone 34 and time information from the timer 35, and creates voiceprint information 87 as a physical quantity.
At this time, the writing control unit 102 switches the file to which the voiceprint information 87 created by the writing unit 101 is written every time the switching timing 97 arrives. In this way, a plurality of time-series voiceprint information 87 files are created. You may overwrite the oldest file with the latest voiceprint information.

ステップS342において、比較情報抽出部103は、1つの声紋情報87を選択する。
具体的には、比較情報抽出部103は、声紋情報87が書き込まれたファイルのうち、時間的に最新のもの取得し、これを比較元用のファイルとする。
In step S342, the comparison information extraction unit 103 selects one voiceprint information 87.
Specifically, the comparison information extraction unit 103 acquires the latest file in time from among the files in which the voiceprint information 87 is written, and sets this as a comparison source file.

ステップS343において、比較情報抽出部103は、抽出声紋情報91を抽出する。
具体的には、比較情報抽出部103は、第一に、取得した声紋情報87を、所定の長さの時間的間隔(「発言間隔」という)を有する発言時間帯(欄181)に区切り、時系列の抽出声紋情報91を作成する。この発言間隔は、前記切り替え間隔98とは別の概念であり、前記切り替え間隔よりはるかに短い。
比較情報抽出部103は、第二に、発言情報87から、区切られた発言時間帯に対応する文字列を取得する。
比較情報抽出部103は、第三に、発言時間帯毎に、区切られた抽出声紋情報と、文字列とを関連付けて、主記憶装置32内に一時的に記憶する(図17(a))。
In step S343, the comparison information extraction unit 103 extracts the extracted voiceprint information 91.
Specifically, the comparison information extraction unit 103 first divides the acquired voiceprint information 87 into a speech time zone (column 181) having a predetermined time interval (referred to as “speech interval”), Time-series extracted voiceprint information 91 is created. The speech interval is a concept different from the switching interval 98 and is much shorter than the switching interval.
Second, the comparison information extraction unit 103 acquires a character string corresponding to the divided speech time zone from the speech information 87.
Thirdly, the comparison information extraction unit 103 associates the extracted extracted voiceprint information with the character string for each speech time period and temporarily stores them in the main storage device 32 (FIG. 17A). .

図17(a)の表は、発言時間帯欄181に記憶された発言時間帯に関連付けて、抽出声紋情報欄91には抽出声紋情報が、発言情報欄86aには発言情報が、それぞれ記憶されている。
発言時間帯欄181の発言時間帯は、発言時間帯の始点と終点を「0〜2(秒)」のように会議開始からの経過時間で示した情報である。
抽出声紋情報欄91の抽出声紋情報は、声紋情報87のうち発言時間帯に発言されたものである。
発言情報欄86aの発言情報は、発言時間帯に発言された文字列である。これらの文字列は、1つの発言情報のファイル86aに含まれる文字列を、発言時間帯毎に分割したものに他ならない。
図17(a)の表のレコードは、切り替え間隔98を発言間隔で除した数だけ存在する。
ちなみに、1行目のレコードは、会議開始後0秒から2秒の間(この2秒が「発言間隔」である)に、参加者の誰かが「お集まり頂きありがとうございます」と発言し、その抽出声紋情報が「SSSZ」であったことを示している。
In the table of FIG. 17A, the extracted voiceprint information column 91 stores the extracted voiceprint information and the speech information column 86a stores the speech information in association with the speech timezone stored in the speech timezone column 181. ing.
The speech time zone in the speech time zone column 181 is information indicating the start point and end point of the speech time zone by the elapsed time from the start of the conference, such as “0 to 2 (seconds)”.
The extracted voiceprint information in the extracted voiceprint information column 91 is the voiceprint information 87 that is spoken during the speech time zone.
The speech information in the speech information column 86a is a character string that is spoken during the speech time zone. These character strings are nothing but a character string included in one utterance information file 86a divided for each utterance time zone.
There are as many records in the table of FIG. 17A as the number obtained by dividing the switching interval 98 by the speech interval.
By the way, in the record on the first line, during the period from 0 to 2 seconds after the start of the meeting (this 2 seconds is the “speaking interval”), one of the participants said “Thank you for gathering” The extracted voiceprint information is “SSSZ”.

ステップS343の変形例として、声紋情報87から抽出声紋情報91の抽出が全くできない場合は、ステップS342に戻ることとしてもよい。   As a modified example of step S343, when the extracted voiceprint information 91 cannot be extracted from the voiceprint information 87 at all, the process may return to step S342.

ステップS344において、比較部104は、比較を行う。すなわち、抽出声紋情報に対応する発言情報と抽出声紋情報を検索キーとして、見本声紋情報データベースを検索し、抽出声紋情報毎にその抽出声紋情報を発言した参加者名を取得する。
具体的には、比較部104は、以下の処理を実行する。
(1)図17(a)の表のレコード♯1の発言情報「お集まり頂きありがとうございます」を取得する。
(2)取得した発言情報を検索キーとして、見本声紋情報データベース94のセンテンス欄185を検索し、最も類似しているセンテンスを有するレコードをすべて取得する(公知の技術を使用して類似を判断する)。ここでは、「ありがとう」を含む1行目〜3行目のレコードが取得されたものとする。
(3)図17(a)の表のレコード♯1の抽出声紋情報「SSSZ」を検索キーとして、前記(2)で取得された見本声紋情報データベース94のレコードの見本声紋情報欄184を検索し、最も類似している見本声紋情報を有するレコードの参加者名を取得する(公知の技術を使用して類似を判断する)。ここでは、見本声紋情報「SSSS」を有するレコードの参加者名「Aさん」が取得されたものとする。
(4)図17(a)の表のレコード♯1の発言時間帯と、前記(3)で取得した参加者名(発言者名)を関連付けて、主記憶装置32内に一時的に記憶する(図17(c)の♯1)。
図17(c)の表の発言時間帯欄186の発言時間帯は、図17(a)の表の発言時間帯と同じである。
発言者欄187の発言者名は、発言を行ったと判断された参加者の参加者名である。
(5)前記(1)〜(4)の処理を図17(a)の表のレコード♯1、♯2、・・・のすべてについて繰り返し、その結果、図17(c)の表が完成する。
In step S344, the comparison unit 104 performs comparison. In other words, the sample voiceprint information database is searched using the speech information corresponding to the extracted voiceprint information and the extracted voiceprint information as search keys, and the name of the participant who made the extracted voiceprint information is acquired for each extracted voiceprint information.
Specifically, the comparison unit 104 performs the following processing.
(1) The speech information “Thank you for gathering” of record # 1 in the table of FIG.
(2) The sentence column 185 of the sample voiceprint information database 94 is searched using the acquired speech information as a search key, and all records having the most similar sentence are acquired (similarity is determined using a known technique). ). Here, it is assumed that the records in the first to third lines including “Thank you” have been acquired.
(3) Using the extracted voiceprint information “SSSZ” of record # 1 in the table of FIG. 17A as a search key, search the sample voiceprint information column 184 of the record of the sample voiceprint information database 94 acquired in (2) above. The participant name of the record having the most similar sample voiceprint information is acquired (similarity is determined using a known technique). Here, it is assumed that the participant name “Mr. A” of the record having the sample voice print information “SSSS” is acquired.
(4) The speech time zone of record # 1 in the table of FIG. 17A and the participant name (speaker name) acquired in (3) above are associated and temporarily stored in the main storage device 32. (# 1 in FIG. 17C).
The speech time zone in the speech time zone column 186 in the table of FIG. 17C is the same as the speech time zone in the table of FIG.
The speaker name in the speaker column 187 is the participant name of the participant who is determined to have made a statement.
(5) The processes (1) to (4) are repeated for all the records # 1, # 2,... In the table of FIG. 17A, and as a result, the table of FIG. .

ステップS345において、比較部104は、独占度を計算する。すなわち、発言した参加者毎に抽出声紋情報の時間的長さを合計し、その合計と、会議中に取得された声紋情報の時間的長さと、に基づき、独占度を計算する。
具体的には、比較部104は、第一に、図17(c)の表のすべてのレコードを発言者名毎に集計し、グループを作成する。
第二に、各グループに属するレコード数を、図17(c)の表のすべてのレコード数で除して、発言者毎に独占度(百分率)を求める。ここでは、すべてのレコード数は「3」とすると、Aさんについての独占度は、2÷3×100=66.7%であり、Bさんについての独占度は、1÷3=33.3%である。
In step S345, the comparison unit 104 calculates the degree of monopoly. That is, the time lengths of the extracted voiceprint information are totaled for each participant who speaks, and the degree of monopoly is calculated based on the total and the time length of the voiceprint information acquired during the conference.
Specifically, the comparison unit 104 first adds up all the records in the table of FIG. 17C for each speaker name, and creates a group.
Secondly, the number of records belonging to each group is divided by the total number of records in the table of FIG. 17C to obtain the degree of monopoly (percentage) for each speaker. Here, if the number of all records is “3”, the monopoly degree for Mr. A is 2 ÷ 3 × 100 = 66.7%, and the monopoly degree for Mr. B is 1 ÷ 3 = 33.3. %.

ステップS346において、比較部104は、品質値を取得する。すなわち、発言した参加者毎に抽出声紋情報の時間的長さを合計し、その合計と、会議中に取得された声紋情報の時間的長さと、に基づき計算した独占度から、品質値を取得する。
具体的には、ステップS345で求めた独占度のうち、最も大きなものに基づいて、図17(d)の品質値対応表188(詳細後記)から品質値を求める。ここでは、「66.7%」に対する「−10」が取得される。
In step S346, the comparison unit 104 acquires a quality value. That is, for each participant who made a statement, the time length of the extracted voiceprint information is totaled, and the quality value is obtained from the monopoly calculated based on the total and the time length of the voiceprint information acquired during the meeting. To do.
Specifically, the quality value is obtained from the quality value correspondence table 188 (detailed later) in FIG. 17D based on the largest degree of monopoly obtained in step S345. Here, “−10” with respect to “66.7%” is acquired.

なお、ステップS346の変形例として、ステップS345で求めた独占度のうち最も大きいものから数えてn個(nは参加者数mより小さい任意の数)の和に基づいて、図17(d)の品質値対応表188(詳細後記)から品質値を求めることとしてもよい。   Note that as a modification of step S346, based on the sum of n (n is an arbitrary number smaller than the number of participants m) counted from the largest degree of monopoly obtained in step S345, FIG. The quality value may be obtained from the quality value correspondence table 188 (detailed later).

ステップS347において、比較部104は、品質値、参考情報を記憶する。
具体的には、比較部104は、図3(a)の評価結果37の新たなレコードを作成し、識別番号欄72には「4」を、品質値欄73にはステップS346にて取得した品質値を、それぞれ記憶する。参考情報欄74には、ステップS345にて計算した独占度を、「独占度」の見出しを付して記憶する。更に、独占度が所定の閾値以上である場合は「話題を独占しています」などの文字列を記憶してもよい。
ここで、独占発言検出処理手順は終了する。
In step S347, the comparison unit 104 stores the quality value and reference information.
Specifically, the comparison unit 104 creates a new record of the evaluation result 37 in FIG. 3A, and acquires “4” in the identification number column 72 and the quality value column 73 in step S346. Each quality value is stored. In the reference information column 74, the monopoly degree calculated in step S345 is stored with the heading "Exclusive degree". Furthermore, if the degree of monopoly is a predetermined threshold or more, a character string such as “I have a monopoly on the topic” may be stored.
Here, the exclusive message detection processing procedure ends.

<品質値対応表>
図17(d)の品質値対応表188は、予めユーザが作成しておく表であり、補助記憶装置33に記憶されているものとする。
図17(d)の品質値対応表188は、独占度行189に記憶された独占度の範囲に関連付けて、品質値行190に品質値が記憶されている。
独占度行189の独占度の範囲は、ここでは、0〜100%を20%の幅で等分した範囲である。
品質値行190の品質値は、最小値を−20とし、最大値を20として、等間隔に区切った数列である。
<Quality value correspondence table>
The quality value correspondence table 188 in FIG. 17D is a table created by the user in advance, and is stored in the auxiliary storage device 33.
In the quality value correspondence table 188 in FIG. 17D, the quality value is stored in the quality value row 190 in association with the range of the monopoly degree stored in the monopoly degree row 189.
The range of the monopoly degree of the monopoly degree row 189 is a range obtained by equally dividing 0 to 100% by a width of 20%.
The quality value in the quality value row 190 is a sequence of numbers divided at equal intervals, with the minimum value set to -20 and the maximum value set to 20.

(感情発言検出処理手順)
図18は、本実施形態に係る感情発言検出処理手順のフローチャートである。
図19は、本実施形態に係る感情発言検出部43の機能等を説明する図である。
以下では、図18のフローチャートに沿って、適宜図19を参照しつつ、感情発言処理手順を説明する。
前提として、補助記憶装置33には、許容音圧95が記憶されている(図19)。
(Emotion remark detection processing procedure)
FIG. 18 is a flowchart of the emotion utterance detection processing procedure according to this embodiment.
FIG. 19 is a diagram for explaining functions and the like of the emotion utterance detection unit 43 according to the present embodiment.
In the following, along with the flowchart of FIG. 18, the emotional speech processing procedure will be described with reference to FIG. 19 as appropriate.
As a premise, an allowable sound pressure 95 is stored in the auxiliary storage device 33 (FIG. 19).

<許容音圧>
会議に先立って、許容音圧95が設定される。許容音圧95は、会議中に取得される音圧情報88の許容限度を示す音圧の値(単位dB)そのものである。
<Allowable sound pressure>
Prior to the meeting, an allowable sound pressure 95 is set. The allowable sound pressure 95 is the sound pressure value (unit dB) itself indicating the allowable limit of the sound pressure information 88 acquired during the conference.

ステップS351において、書き込み部101は、マイク34を介して自然音声85を、タイマ35から時間情報を取得し、物理量としての音圧情報88を作成する。
このとき書込み制御部102は、書込み部101が作成する音圧情報88を書き込む先のファイルを、切り替えタイミング97が到来する都度切り替える。このようにして、時系列の音圧情報88のファイルが複数作成される。最新の音圧情報を、最古のファイルに上書きしてもかまわない。
In step S <b> 351, the writing unit 101 acquires natural voice 85 through the microphone 34 and time information from the timer 35, and creates sound pressure information 88 as a physical quantity.
At this time, the writing control unit 102 switches the file to which the sound pressure information 88 created by the writing unit 101 is written every time the switching timing 97 arrives. In this manner, a plurality of time-series sound pressure information 88 files are created. You may overwrite the oldest file with the latest sound pressure information.

ステップS352において、比較情報抽出部103は、1つの音圧情報88を選択する。
具体的には、比較情報抽出部103は、音圧情報88が書き込まれたファイルのうち、時間的に最新のもの取得し、これを比較先用のファイルとする。
In step S352, the comparison information extraction unit 103 selects one sound pressure information 88.
Specifically, the comparison information extraction unit 103 acquires the latest file in time among the files in which the sound pressure information 88 is written, and sets this as a comparison destination file.

ステップS353において、比較情報抽出部103は、最高音圧191を抽出する。
具体的には、比較情報抽出部103は、ステップS352において取得した音圧情報88に記憶された音圧のうちの最高値(最高音圧191)を取得し、補助記憶装置33に記憶する。
In step S353, the comparison information extraction unit 103 extracts the highest sound pressure 191.
Specifically, the comparison information extraction unit 103 acquires the highest value (maximum sound pressure 191) among the sound pressures stored in the sound pressure information 88 acquired in step S352, and stores it in the auxiliary storage device 33.

ステップS354において、比較部104は、比較を行う。すなわち、会議中に取得された物理量としての音圧情報から抽出された最高音圧と、予め設定された許容音圧と、を比較する。
具体的には、比較部104は、許容音圧95を比較元とし、最高音圧191を比較先として両者の大きさを比較する。そして、「最高音圧≧許容音圧」又は「最高音圧<許容音圧」の何れかの結果を取得する。
In step S354, the comparison unit 104 performs comparison. That is, the highest sound pressure extracted from the sound pressure information as a physical quantity acquired during the conference is compared with a preset allowable sound pressure.
Specifically, the comparison unit 104 compares the magnitudes of the allowable sound pressure 95 as a comparison source and the highest sound pressure 191 as a comparison destination. Then, the result of either “highest sound pressure ≧ allowable sound pressure” or “highest sound pressure <allowable sound pressure” is acquired.

ステップS355において、比較部104は、品質値を取得する。
具体的には、ステップS354で取得した結果に基づいて、品質値対応表192(補助記憶装置33に記憶されているものとする。)から品質値を求める。品質対応表192には、例えば、結果「最高音圧≧許容音圧」に対して品質値「−20」が、結果「最高音圧<許容音圧」に対して品質値「20」が、それぞれ記憶されているものとする。
In step S355, the comparison unit 104 acquires a quality value.
Specifically, the quality value is obtained from the quality value correspondence table 192 (assumed to be stored in the auxiliary storage device 33) based on the result obtained in step S354. In the quality correspondence table 192, for example, a quality value “−20” is obtained for the result “maximum sound pressure ≧ allowable sound pressure”, and a quality value “20” is obtained for the result “maximum sound pressure <allowable sound pressure”. Each is memorized.

ステップS356において、比較部104は、品質値、参考情報を記憶する。
具体的には、比較部104は、図3(a)の評価結果37の新たなレコードを作成し、識別番号欄72には「5」を、品質値欄73にはステップS355にて取得した品質値を、それぞれ記憶する。
参考情報欄74には、ステップS354にて取得した結果が「最高音圧≧許容音圧」である場合は、許容音圧95を、「以上になりました。感情的になっています」の見出しを付して記憶する。ステップS354にて取得した結果が「最高音圧<許容音圧」である場合は、許容音圧191を、「に達していません」の見出しを付して記憶する。
ここで、独占発言検出処理手順は終了する。
In step S356, the comparison unit 104 stores the quality value and reference information.
Specifically, the comparison unit 104 creates a new record of the evaluation result 37 in FIG. 3A, and acquires “5” in the identification number column 72 and the quality value column 73 in step S355. Each quality value is stored.
In the reference information column 74, if the result obtained in step S354 is “maximum sound pressure ≧ allowable sound pressure”, the allowable sound pressure 95 is set to “above. Record with a heading. If the result obtained in step S354 is “maximum sound pressure <allowable sound pressure”, the sound pressure 191 is stored with the heading “not reached”.
Here, the exclusive message detection processing procedure ends.

(終了検出処理手順)
図20は、本実施形態に係る終了検出処理手順のフローチャートである。
図21は、本実施形態に係る終了検出部44の機能等を説明する図である。
以下では、図20のフローチャートに沿って、適宜図21を参照しつつ、終了検出処理手順を説明する。
前提として、補助記憶装置33には、予定時間96が記憶されている(図21)。
(End detection procedure)
FIG. 20 is a flowchart of the end detection processing procedure according to this embodiment.
FIG. 21 is a diagram for explaining functions and the like of the end detection unit 44 according to the present embodiment.
Hereinafter, the end detection processing procedure will be described along the flowchart of FIG. 20 and with reference to FIG. 21 as appropriate.
As a premise, a scheduled time 96 is stored in the auxiliary storage device 33 (FIG. 21).

<予定時間>
会議に先立って、予定時間96が設定される。予定時間96は、会議が開始されてから終了されるまでの時間の予定値(単位:分)そのものである。
<Scheduled time>
Prior to the meeting, a scheduled time 96 is set. The scheduled time 96 is the scheduled value (unit: minutes) of the time from the start to the end of the conference.

ステップS361において、書き込み部101は、マイク34を介して自然音声85を、タイマ35から時間情報を取得し、物理量としての発言情報86を作成する。
このとき書込み制御部102は、書込み部101が作成する発言情報86を書き込む先のファイルを、切り替えタイミング97が到来する都度切り替える。このようにして、時系列の発言情報86のファイルが複数作成される。最新の発言情報を、最古のファイルに上書きしてもかまわない。
In step S361, the writing unit 101 acquires natural voice 85 via the microphone 34, time information from the timer 35, and creates speech information 86 as a physical quantity.
At this time, the writing control unit 102 switches the file to which the remark information 86 created by the writing unit 101 is written every time the switching timing 97 arrives. In this way, a plurality of time-series message information 86 files are created. You may overwrite the oldest file with the latest message information.

ステップS362において、比較情報抽出部103は、1つの発言情報86を取得する。
具体的には、比較情報抽出部103は、発言情報86が書き込まれたファイルのうち、時間的に最新のもの(符号86a)を取得し、これを比較先用のファイルとする。
In step S362, the comparison information extraction unit 103 acquires one piece of speech information 86.
Specifically, the comparison information extraction unit 103 acquires the latest file (symbol 86a) in time among the files in which the statement information 86 is written, and sets this as a comparison destination file.

ステップS363において、比較情報抽出部103は、経過時間193を抽出する。
具体的には、比較情報抽出部103は、ステップS362において取得した発言情報86aに記憶された横軸の時間のうちの最も後の値(経過時間193)を取得し、補助記憶装置33に記憶する。
In step S363, the comparison information extraction unit 103 extracts the elapsed time 193.
Specifically, the comparison information extraction unit 103 acquires the latest value (elapsed time 193) of the time on the horizontal axis stored in the statement information 86a acquired in step S362, and stores it in the auxiliary storage device 33. To do.

ステップS364において、比較部104は、比較を行う。すなわち、会議中に取得された物理量としての経過時間と、予め設定された予定時間と、を比較する。
具体的には、比較部104は、予定時間96を比較元とし、経過時間193を比較先として両者の大きさを比較する。そして、「経過時間≧予定時間」又は「経過時間<予定時間」の何れかの結果を取得する。
In step S364, the comparison unit 104 performs comparison. That is, the elapsed time as the physical quantity acquired during the meeting is compared with the preset scheduled time.
Specifically, the comparison unit 104 compares the magnitudes of the scheduled time 96 as a comparison source and the elapsed time 193 as a comparison destination. Then, the result of either “elapsed time ≧ scheduled time” or “elapsed time <scheduled time” is acquired.

ステップS365において、比較部104は、品質値を取得する。
具体的には、ステップS364で取得した結果に基づいて、品質値対応表194(補助記憶装置33に記憶されているものとする。)から品質値を求める。品質対応表194には、例えば、結果「経過時間≧予定時間」に対して品質値「−20」が、結果「経過時間<予定時間」に対して品質値「20」が、それぞれ記憶されているものとする。
In step S365, the comparison unit 104 acquires a quality value.
Specifically, the quality value is obtained from the quality value correspondence table 194 (assumed to be stored in the auxiliary storage device 33) based on the result obtained in step S364. In the quality correspondence table 194, for example, a quality value “−20” is stored for the result “elapsed time ≧ scheduled time”, and a quality value “20” is stored for the result “elapsed time <scheduled time”. It shall be.

ステップS366において、比較部104は、品質値、参考情報を記憶する。
具体的には、比較部104は、図3(a)の評価結果37の新たなレコードを作成し、識別番号欄72には「6」を、品質値欄73にはステップS365にて取得した品質値を、それぞれ記憶する。
参考情報欄74には、ステップS364にて取得した結果が「経過時間≧予定時間」である場合は、予定時間96を、「以上になりました」の見出しを付して記憶する。ステップS364にて取得した結果が「経過時間<予定時間」である場合は、「時間はオーバーしていません」の文字列を記憶する。
ここで、終了検出処理手順は終了する。
In step S366, the comparison unit 104 stores the quality value and reference information.
Specifically, the comparison unit 104 creates a new record of the evaluation result 37 in FIG. 3A, and acquires “6” in the identification number column 72 and the quality value column 73 in step S365. Each quality value is stored.
In the reference information column 74, when the result acquired in step S364 is “elapsed time ≧ scheduled time”, the scheduled time 96 is stored with the heading “It is over”. If the result obtained in step S364 is “elapsed time <scheduled time”, the character string “time has not exceeded” is stored.
Here, the end detection processing procedure ends.

(結果表示処理手順)
図22は、本実施形態に係る結果表示処理手順のフローチャートである。
ステップS371において、評価装置4の最終品質値計算部52は、意見結果26と評価結果37を受け取る。
具体的には、最終品質値計算部52は、意見取得装置2がステップS303にて作成した意見結果26を、意見取得装置2から受け取る。更に、検出装置3がステップS319、S329、S339、S347、S356及びS365にて作成したすべてのレコードからなる評価結果37を、検出装置3から受け取る。
(Result display processing procedure)
FIG. 22 is a flowchart of a result display processing procedure according to this embodiment.
In step S <b> 371, the final quality value calculation unit 52 of the evaluation device 4 receives the opinion result 26 and the evaluation result 37.
Specifically, the final quality value calculation unit 52 receives the opinion result 26 created by the opinion acquisition device 2 in step S303 from the opinion acquisition device 2. Further, the detection device 3 receives from the detection device 3 the evaluation result 37 including all the records created in steps S319, S329, S339, S347, S356, and S365.

ステップS372において、最終品質値計算部52は、最終品質値を計算する。
具体的には、最終品質値計算部52は、第一に、ステップS371で受け取った意見結果26の意見反映倍率と、評価結果37の品質値とを、関連付けられた識別番号が同じもの同士乗算し、乗算結果を合計し、この合計を最終品質値とする。
第二に、最終品質値を検索キーとして、品質ボーダ50を検索し、該当するコメントを取得する。
In step S372, the final quality value calculation unit 52 calculates the final quality value.
Specifically, the final quality value calculation unit 52 first multiplies the opinion reflection magnification of the opinion result 26 received in step S371 and the quality value of the evaluation result 37 with the same associated identification number. Then, the multiplication results are summed and this sum is taken as the final quality value.
Second, the quality border 50 is searched using the final quality value as a search key, and the corresponding comment is acquired.

ステップS373において、評価装置4の工数計算部53は、工数を計算する。
具体的には、工数計算部53は、第一に、意見ボタンを押下した個々の参加者の1時間当たり給料×経過時間(分)÷60(意見者別工数)を計算する。
第二に、意見ボタンを押下した参加者全員分の意見者別工数の合計を算出する。
第三に、最終品質値が正の場合は、合計値に「+」の符号を付し、最終品質値が負の場合は、合計値に「−」の符号を付し工数とする。
In step S373, the man-hour calculation unit 53 of the evaluation device 4 calculates the man-hour.
Specifically, the man-hour calculation unit 53 first calculates salary per hour for each participant who pressed the opinion button × elapsed time (minutes) ÷ 60 (man-hours by opinion person).
Second, the total number of man-hours by opinion for all participants who pressed the opinion button is calculated.
Thirdly, if the final quality value is positive, a sign of “+” is added to the total value, and if the final quality value is negative, a sign of “−” is added to the total value.

ステップS374において、最終品質値計算部52は、表示結果51を作成する。
具体的には、最終品質値計算部52は、以下の処理を実行する。
(1)表示結果51の新たなレコードを作成する。
(2)ステップS371にて受け取った意見結果26の意見数のうち、最も大きいものを取得し、新たなレコードの意見数欄77に記憶する。
(3)ステップS371にて受け取った意見結果26の意見数のうち、最も大きいものを有するレコードの識別番号を取得し、取得した識別番号を検索キーにして意見ボタン対応表61を検索し、該当するレコードの意見内容を取得する。
このとき、最も大きい意見数が同順位で複数ある場合は、最も若い識別番号を取得するものとする。また、すべての意見数が「0」の場合は「意見がありません」を意見内容として取得するものとする。
(4)新たなレコードの主観的意見内容欄78に、前記(3)にて取得した意見内容を記憶する。
(5)新たなレコードの主観・客観的結果欄79にステップS372にて取得したコメントを記憶する。
(6)ステップS371にて受け取った意見結果26の意見数のうち、最も大きいものを有するレコードの識別番号を取得し、取得した識別番号を検索キーにして評価結果37を検索し、該当するレコードの参考情報を取得する。そして、取得した参考情報も、新たなレコードの主観・客観的結果欄79に記憶する。
(7)ステップS373にて計算した工数を、新たなレコードの工数欄80に記憶する。このようにして、表示結果51の新たなレコードが完成する。
In step S374, the final quality value calculation unit 52 creates the display result 51.
Specifically, the final quality value calculation unit 52 executes the following processing.
(1) A new record of the display result 51 is created.
(2) The largest number of opinions of the opinion result 26 received in step S371 is acquired and stored in the opinion number column 77 of the new record.
(3) Acquires the identification number of the record having the largest number of opinions of the opinion result 26 received in step S371, searches the opinion button correspondence table 61 using the acquired identification number as a search key, and Get the contents of the opinion of the record to be performed.
At this time, when there are a plurality of the largest opinions in the same rank, the youngest identification number is acquired. If all the opinions are “0”, “no opinion” is acquired as the opinion content.
(4) The opinion content acquired in (3) is stored in the subjective opinion content column 78 of the new record.
(5) The comment acquired in step S372 is stored in the subjective / objective result column 79 of the new record.
(6) Acquire the identification number of the record having the largest number of opinions of the opinion result 26 received in step S371, search the evaluation result 37 using the acquired identification number as a search key, and the corresponding record Get reference information. The acquired reference information is also stored in the subjective / objective result field 79 of the new record.
(7) The man-hour calculated in step S373 is stored in the man-hour column 80 of the new record. In this way, a new record of the display result 51 is completed.

ステップS375において、最終品質値計算部52は、表示結果51を表示する。
具体的には、ステップS374にて完成した表示結果51のレコードを、ディスプレイ48に表示する。
ここで、結果表示処理手順は終了する。
In step S375, the final quality value calculation unit 52 displays the display result 51.
Specifically, the record of the display result 51 completed in step S374 is displayed on the display 48.
Here, the result display processing procedure ends.

本実施形態に係る会議支援システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the meeting assistance system which concerns on this embodiment. (a)は本実施形態に係る意見ボタン対応表の一例を示す図である。(b)は本実施形態に係る意見反映倍率表の一例を示す図である。(c)は本実施形態に係る意見結果の一例を示す図である。(A) is a figure which shows an example of the opinion button corresponding table which concerns on this embodiment. (B) is a figure which shows an example of the opinion reflection magnification table which concerns on this embodiment. (C) is a figure which shows an example of the opinion result which concerns on this embodiment. (a)は本実施形態に係る評価結果の一例を示す図である。(b)は本実施形態に係る品質ボーダの一例を示す図である。(A) is a figure showing an example of an evaluation result concerning this embodiment. (B) is a figure which shows an example of the quality border based on this embodiment. 本実施形態に係る表示結果の一例を示す図である。It is a figure which shows an example of the display result which concerns on this embodiment. 本実施形態に係る各種情報の内容を説明するための図である。It is a figure for demonstrating the content of the various information which concerns on this embodiment. 本実施形態に係る較元、比較先、切り替え間隔、及び評価間隔を説明するための図である。It is a figure for demonstrating the comparison origin, comparison destination, switching interval, and evaluation interval which concern on this embodiment. 本実施形態に係る意見反映倍率取得処理手順のフローチャートである。It is a flowchart of an opinion reflection magnification acquisition processing procedure according to the present embodiment. 本実施形態に係る繰返し発言検出処理手順のフローチャートである。It is a flowchart of the repetitive speech detection processing procedure according to the present embodiment. 本実施形態に係る繰返し発言検出部の機能等を説明する図である。It is a figure explaining the function etc. of the repeated speech detection part which concerns on this embodiment. (a)、(b)、(c)は、本実施形態に係る繰返し発言検出部が機能する過程で、主記憶装置の中で一時的に保持される情報を説明する図である。(d)は、本実施形態に係る繰返し発言検出部が使用する品質値対応表の一例を示す図である。(A), (b), (c) is a figure explaining the information temporarily hold | maintained in a main memory in the process in which the repeated speech detection part based on this embodiment functions. (D) is a figure which shows an example of the quality value corresponding table which the repeated speech detection part which concerns on this embodiment uses. 本実施形態に係るNG(脱線)発言検出処理手順のフローチャートである。It is a flowchart of the NG (derailment) utterance detection processing procedure which concerns on this embodiment. 本実施形態に係るNG(脱線)発言検出部の機能等を説明する図である。It is a figure explaining the function of the NG (derailment) statement detection part etc. which concern on this embodiment. (a)、(b)、(c)は、本実施形態に係るNG発言検出部が機能する過程で、主記憶装置の中で一時的に保持される情報を説明する図である。(d)は、本実施形態に係るNG発言検出部が使用する品質値対応表の一例を示す図である。(A), (b), (c) is a figure explaining the information temporarily hold | maintained in a main memory device in the process in which the NG utterance detection part concerning this embodiment functions. (D) is a figure which shows an example of the quality value corresponding table which the NG statement detection part which concerns on this embodiment uses. (a)、(b)、(c)は、本実施形態に係る脱線発言検出部が機能する過程で、主記憶装置の中で一時的に保持される情報を説明する図である。(d)は、本実施形態に係る脱線発言検出部が使用する品質値対応表の一例を示す図である。(A), (b), (c) is a figure explaining the information temporarily hold | maintained in a main memory in the process in which the derailment speech detection part concerning this embodiment functions. (D) is a figure which shows an example of the quality value corresponding table which the derailment speech detection part concerning this embodiment uses. 本実施形態に係る独占発言検出処理手順のフローチャートである。It is a flowchart of the exclusive speech detection processing procedure which concerns on this embodiment. 本実施形態に係る独占発言検出部の機能等を説明する図である。It is a figure explaining the function etc. of the exclusive speech detection part which concerns on this embodiment. (a)、(c)は、本実施形態に係る独占発言検出部が機能する過程で、主記憶装置の中で一時的に保持される情報を説明する図である。(b)は、本実施形態に係る独占発言検出部が使用する見本声紋情報データベースの一例を示す図である。(A), (c) is a figure explaining the information temporarily hold | maintained in a main memory in the process in which the exclusive message detection part which concerns on this embodiment functions. (B) is a figure which shows an example of the sample voiceprint information database which the exclusive speech detection part which concerns on this embodiment uses. 本実施形態に係る感情発言検出処理手順のフローチャートである。It is a flowchart of the emotion speech detection processing procedure which concerns on this embodiment. 本実施形態に係る感情発言検出部の機能等を説明する図である。It is a figure explaining the function etc. of the emotion speech detection part which concerns on this embodiment. 本実施形態に係る終了検出処理手順のフローチャートである。It is a flowchart of the completion | finish detection processing procedure which concerns on this embodiment. 本実施形態に係る終了検出部の機能等を説明する図であるIt is a figure explaining the function etc. of the end detection part concerning this embodiment 本実施形態に係る結果表示処理手順のフローチャートである。It is a flowchart of a result display processing procedure according to the present embodiment.

符号の説明Explanation of symbols

1 会議支援システム
2 意見取得装置
3 検出装置
4 評価装置
21、31、45 中央制御装置(制御部)
22、32、46 主記憶装置(記憶部)
23、33、47 補助記憶装置(記憶部)
24 キーボード
26 意見結果
27 意見反映倍率表
28 意見反映倍率設定部
34 マイク
35 タイマ
37 評価結果
39 繰返し発言検出部
40 NG発言検出部
41 脱線発言検出部
42 独占発言検出部
43 感情発言検出部
44 終了検出部
48 ディスプレイ
50 品質ボーダ
51 表示結果
52 最終品質値計算部
53 工数計算部
86 発言情報
87 声紋情報
88 音圧情報
94 見本声紋情報データベース
DESCRIPTION OF SYMBOLS 1 Meeting support system 2 Opinion acquisition apparatus 3 Detection apparatus 4 Evaluation apparatus 21, 31, 45 Central control apparatus (control part)
22, 32, 46 Main storage (storage unit)
23, 33, 47 Auxiliary storage device (storage unit)
24 Keyboard 26 Opinion Result 27 Opinion Reflection Magnification Table 28 Opinion Reflection Magnification Setting Unit 34 Microphone 35 Timer 37 Evaluation Result 39 Repetitive Speech Detection Unit 40 NG Speech Detection Unit 41 Derailment Speech Detection Unit 42 Exclusive Speech Detection Unit 43 Emotional Speech Detection Unit 44 End Detection unit 48 Display 50 Quality border 51 Display result 52 Final quality value calculation unit 53 Man-hour calculation unit 86 Speech information 87 Voiceprint information 88 Sound pressure information 94 Sample voiceprint information database

Claims (10)

意見取得装置、検出装置、及び評価装置を含み、1又は複数の評価項目について会議の質を評価する会議支援システムであって、
前記意見取得装置は、会議の参加者が入力する前記評価項目毎の意見数に基づき時系列の意見結果を作成し
前記検出装置は、1又は複数の前記評価項目について会議中に物理量を取得し、前記物理量に基づき取得された品質値を含む時系列の評価結果を作成し、
前記評価装置は、前記評価項目毎の前記意見結果と前記評価結果に基づき、時系列の会議の最終品質値を計算する、
ことを特徴とする会議支援システム。
A conference support system that includes an opinion acquisition device, a detection device, and an evaluation device, and evaluates the quality of the conference for one or more evaluation items,
The opinion acquisition device creates a time-series opinion result based on the number of opinions for each evaluation item input by a conference participant, and the detection device acquires a physical quantity during the conference for one or a plurality of the evaluation items. , Create a time-series evaluation result including the quality value obtained based on the physical quantity,
The evaluation device calculates a final quality value of a time series meeting based on the opinion result and the evaluation result for each evaluation item,
A conference support system characterized by that.
前記評価項目は、繰返し発言の検出を含み、
前記検出装置は、
会議中に取得された前記物理量としての発言情報から抽出された抽出語及びその類義語を、異なる2つの期間同士で比較し一致する回数を取得し、
前記一致する回数と、前記抽出語及びその類義語の合計数又は前記抽出語及びその類義語同士を比較した回数の何れかと、に基づいて、前記品質値を取得する、
ことを特徴とする請求項1に記載の会議支援システム。
The evaluation item includes repeated speech detection,
The detection device includes:
The extracted word extracted from the remark information as the physical quantity acquired during the meeting and its synonyms are compared between two different periods to obtain the number of matches.
Obtaining the quality value based on the number of matches and either the total number of the extracted words and their synonyms or the number of times the extracted words and their synonyms were compared;
The conference support system according to claim 1.
前記評価項目は、禁止されている発言の検出を含み、
前記検出装置は、
会議中に取得された前記物理量としての発言情報から抽出された抽出語及びその類義語と、予め設定された禁止発言及びその類義語と、を比較し一致する回数を取得し、
前記一致する回数と、前記禁止発言及びその類義語の合計数又は前記禁止発言及びその類義語と前記抽出語及びその類義語とを比較した回数の何れかと、に基づいて、前記品質値を取得する、
ことを特徴とする請求項1に記載の会議支援システム。
The evaluation item includes detection of prohibited speech,
The detection device includes:
The extracted word extracted from the utterance information as the physical quantity acquired during the meeting and its synonyms are compared with the preset prohibited utterances and their synonyms to obtain the number of times of matching,
The quality value is acquired based on the number of times of matching and the total number of the prohibited words and their synonyms or the number of times the prohibited words and their synonyms are compared with the extracted word and its synonyms.
The conference support system according to claim 1.
前記評価項目は、会議の本題に沿わない発言の検出を含み、
前記検出装置は、
会議中に取得された前記物理量としての発言情報から抽出された抽出語及びその類義語と、予め設定された本題発言及びその類義語と、を比較し一致する回数を取得し、
前記本題発言及びその類義語の合計数、又は前記本題発言及びその類義語と前記抽出語及びその類義語とを比較した回数の何れかから前記一致する回数を控除した脱線回数を取得し、
前記脱線回数と、前記本題発言及びその類義語の合計数又は前記本題発言及びその類義語と前記抽出語及びその類義語とを比較した回数の何れかと、に基づいて、前記品質値を取得する、
ことを特徴とする請求項1に記載の会議支援システム。
The evaluation item includes detection of a statement that does not conform to the main subject of the conference,
The detection device includes:
The extracted word extracted from the utterance information as the physical quantity acquired during the meeting and its synonyms are compared with the preset main subject utterance and its synonyms to obtain the number of matches.
The total number of the main subject utterances and synonyms thereof, or the number of derailments obtained by subtracting the number of coincidence from any number of times the main subject utterances and synonyms thereof and the extracted words and synonyms thereof are compared,
Obtaining the quality value based on the number of derailments and the total number of the subject utterances and their synonyms or the number of comparisons between the subject utterances and their synonyms and the extracted words and their synonyms;
The conference support system according to claim 1.
前記評価項目は、独占発言の検出を含み、
前記検出装置の記憶部は、
参加者が発言したセンテンスと、見本声紋情報とを、参加者名に関連付けて記憶した見本声紋情報データベースを備え、
前記検出装置の制御部は、
会議中に取得された前記物理量としての声紋情報から、所定の時間的長さを有する抽出声紋情報を抽出し、
前記抽出声紋情報に対応する発言情報と前記抽出声紋情報を検索キーとして、前記見本声紋情報データベースを検索し、前記抽出声紋情報毎にその抽出声紋情報を発言した参加者名を取得し、
発言した参加者毎に前記抽出声紋情報の時間的長さを合計し、その合計と、会議中に取得された声紋情報の時間的長さと、に基づき、前記品質値を取得する、
ことを特徴とする請求項1に記載の会議支援システム。
The evaluation item includes detection of exclusive utterances,
The storage unit of the detection device is
A sample voiceprint information database that stores the sentence spoken by the participant and the sample voiceprint information in association with the participant name,
The control unit of the detection device,
Extracting extracted voiceprint information having a predetermined time length from the voiceprint information as the physical quantity acquired during the meeting,
Using the speech information corresponding to the extracted voiceprint information and the extracted voiceprint information as a search key, the sample voiceprint information database is searched, and the name of the participant who has spoken the extracted voiceprint information is obtained for each of the extracted voiceprint information,
Summing up the time length of the extracted voiceprint information for each participant who speaks, and acquiring the quality value based on the total and the time length of the voiceprint information acquired during the meeting,
The conference support system according to claim 1.
前記評価項目は、所定の閾値以上の音圧を有する発言の検出を含み、
前記検出装置は、会議中に取得された前記物理量としての音圧情報から抽出された最高音圧と、予め設定された許容音圧と、を比較することにより、前記品質値を取得する、
ことを特徴とする請求項1に記載の会議支援システム。
The evaluation item includes detection of a speech having a sound pressure equal to or higher than a predetermined threshold,
The detection device acquires the quality value by comparing the maximum sound pressure extracted from the sound pressure information as the physical quantity acquired during the meeting with a preset allowable sound pressure.
The conference support system according to claim 1.
前記評価項目は、所定の閾値以上の経過時間の検出を含み、
前記検出装置は、会議中に取得された前記物理量としての経過時間と、予め設定された予定時間と、を比較することにより、前記品質値を取得する、
ことを特徴とする請求項1に記載の会議支援システム。
The evaluation item includes detection of an elapsed time equal to or greater than a predetermined threshold,
The detection device acquires the quality value by comparing an elapsed time as the physical quantity acquired during a meeting with a preset scheduled time.
The conference support system according to claim 1.
前記意見結果には、前記評価項目毎の前記品質値に対して乗ずるべき、前記意見数に基づいて決められた意見反映倍率が含まれており、
前記評価装置は、
前記評価項目毎に、前記品質値と前記意見反映倍率との積を求め、その積を合計することにより前記最終品質値を計算する、
ことを特徴とする請求項1に記載の会議支援システム。
The opinion result includes an opinion reflection magnification determined based on the number of opinions to be multiplied by the quality value for each evaluation item,
The evaluation device is
For each evaluation item, find the product of the quality value and the opinion reflection magnification, and calculate the final quality value by summing the products.
The conference support system according to claim 1.
意見取得装置、検出装置、及び評価装置を含み、1又は複数の評価項目について会議の質を評価する会議支援システムを用いた会議支援方法であって、
前記意見取得装置は、会議の参加者が入力する前記評価項目毎の意見数に基づき時系列の意見結果を作成し
前記検出装置は、1又は複数の前記評価項目について会議中に物理量を取得し、前記物理量に基づき取得された品質値を含む時系列の評価結果を作成し、
前記評価装置は、前記評価項目毎の前記意見結果と前記評価結果に基づき、時系列の会議の最終品質値を計算する、
ことを特徴とする会議支援方法。
A conference support method using a conference support system that includes an opinion acquisition device, a detection device, and an evaluation device and evaluates the quality of a conference for one or more evaluation items,
The opinion acquisition device creates a time-series opinion result based on the number of opinions for each evaluation item input by a conference participant, and the detection device acquires a physical quantity during the conference for one or a plurality of the evaluation items. , Create a time-series evaluation result including the quality value obtained based on the physical quantity,
The evaluation device calculates a final quality value of a time series meeting based on the opinion result and the evaluation result for each evaluation item,
A meeting support method characterized by the above.
前記意見結果には、前記評価項目毎の前記品質値に対して乗ずるべき、前記意見数に基づいて決められた意見反映倍率が含まれており、
前記評価装置は、
前記評価項目毎に、前記品質値と前記意見反映倍率との積を求め、その積を合計することにより前記最終品質値を計算する、
ことを特徴とする請求項9に記載の会議支援方法。
The opinion result includes an opinion reflection magnification determined based on the number of opinions to be multiplied by the quality value for each evaluation item,
The evaluation device is
For each evaluation item, find the product of the quality value and the opinion reflection magnification, and calculate the final quality value by summing the products.
The conference support method according to claim 9.
JP2008218504A 2008-08-27 2008-08-27 Conference support system and conference support method Pending JP2010055307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008218504A JP2010055307A (en) 2008-08-27 2008-08-27 Conference support system and conference support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008218504A JP2010055307A (en) 2008-08-27 2008-08-27 Conference support system and conference support method

Publications (1)

Publication Number Publication Date
JP2010055307A true JP2010055307A (en) 2010-03-11

Family

ID=42071164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008218504A Pending JP2010055307A (en) 2008-08-27 2008-08-27 Conference support system and conference support method

Country Status (1)

Country Link
JP (1) JP2010055307A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048628A (en) * 2010-08-30 2012-03-08 Ricoh Co Ltd Conference progress support device, conference progress support system, conference progress support method, program
JP2017215931A (en) * 2016-02-02 2017-12-07 株式会社リコー Conference support system, conference support device, conference support method, and program
JP2019502967A (en) * 2016-12-09 2019-01-31 グーグル エルエルシー Preventing the distribution of forbidden network content using automatic variation detection
JP2020173313A (en) * 2019-04-09 2020-10-22 富士通株式会社 Problem detection device, problem detection method and problem detection program
US11625681B2 (en) 2016-02-02 2023-04-11 Ricoh Company, Ltd. Conference support system, conference support method, and recording medium
WO2023100905A1 (en) * 2021-12-03 2023-06-08 パナソニックIpマネジメント株式会社 Authentication device and authentication method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048628A (en) * 2010-08-30 2012-03-08 Ricoh Co Ltd Conference progress support device, conference progress support system, conference progress support method, program
JP2017215931A (en) * 2016-02-02 2017-12-07 株式会社リコー Conference support system, conference support device, conference support method, and program
JP7098875B2 (en) 2016-02-02 2022-07-12 株式会社リコー Conference support system, conference support device, conference support method and program
US11625681B2 (en) 2016-02-02 2023-04-11 Ricoh Company, Ltd. Conference support system, conference support method, and recording medium
JP2019502967A (en) * 2016-12-09 2019-01-31 グーグル エルエルシー Preventing the distribution of forbidden network content using automatic variation detection
US11526554B2 (en) 2016-12-09 2022-12-13 Google Llc Preventing the distribution of forbidden network content using automatic variant detection
JP2020173313A (en) * 2019-04-09 2020-10-22 富士通株式会社 Problem detection device, problem detection method and problem detection program
JP7293826B2 (en) 2019-04-09 2023-06-20 富士通株式会社 PROBLEM DETECTION DEVICE, PROBLEM DETECTION METHOD AND PROBLEM DETECTION PROGRAM
WO2023100905A1 (en) * 2021-12-03 2023-06-08 パナソニックIpマネジメント株式会社 Authentication device and authentication method

Similar Documents

Publication Publication Date Title
US9947313B2 (en) Method for substantial ongoing cumulative voice recognition error reduction
US11037553B2 (en) Learning-type interactive device
Baker Sociolinguistics and corpus linguistics
McMahon Understanding language change
Taft Orthographically influenced abstract phonological representation: Evidence from non-rhotic speakers
JP2006201870A (en) Interactive processor
Verhagen et al. Predictive language processing revealing usage-based variation
JP2010055307A (en) Conference support system and conference support method
CN113870635A (en) Voice answering method and device
TWI610294B (en) Speech recognition system and method thereof, vocabulary establishing method and computer program product
GB2602398A (en) Emotion detection using speaker baseline
Seljan et al. Combined automatic speech recognition and machine translation in business correspondence domain for english-croatian
KR101677859B1 (en) Method for generating system response using knowledgy base and apparatus for performing the method
Guðnason et al. Almannaromur: An open icelandic speech corpus
Laban et al. Newspod: Automatic and interactive news podcasts
Zhou et al. Predicting meeting success with nuanced emotions
Nisimura et al. Takemaru-kun: Speech-oriented information system for real world research platform
Baker DRAGONDICTATE-30K: Natural language speech recognition with 30000 words
TW495736B (en) Method for generating candidate strings in speech recognition
Geary et al. Morphological priming without semantic relationship in Hebrew spoken word recognition
Biermann et al. A voice-and touch-driven natural language editor and its performance
JP5718406B2 (en) Utterance sentence generation device, dialogue apparatus, utterance sentence generation method, dialogue method, utterance sentence generation program, and dialogue program
CN111429886B (en) Voice recognition method and system
Wray Decomposability and the effects of morpheme frequency in lexical access
JP2007265131A (en) Dialog information extraction device, dialog information extraction method, and program