JP2019174768A - Information processing apparatus - Google Patents

Information processing apparatus Download PDF

Info

Publication number
JP2019174768A
JP2019174768A JP2018066136A JP2018066136A JP2019174768A JP 2019174768 A JP2019174768 A JP 2019174768A JP 2018066136 A JP2018066136 A JP 2018066136A JP 2018066136 A JP2018066136 A JP 2018066136A JP 2019174768 A JP2019174768 A JP 2019174768A
Authority
JP
Japan
Prior art keywords
evaluation
opinion
person
unit
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018066136A
Other languages
Japanese (ja)
Inventor
祐毅 小林
Masatsuyo Kobayashi
祐毅 小林
菜美 西村
Nami NISHIMURA
菜美 西村
知子 真野
Tomoko MANO
知子 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018066136A priority Critical patent/JP2019174768A/en
Publication of JP2019174768A publication Critical patent/JP2019174768A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To objectively present an evaluation result by evaluating a speech made by a person.SOLUTION: An information processing apparatus 1 as an image forming apparatus includes: an utterance time detecting unit 101 for detecting for each person, an utterance time period for each utterance from voice data of a plurality of persons; an interjection/opinion determination part 102 for determining that the detected utterance of each person is an interjection, or an opinion depending respectively on the utterance time period thereof being within a first time period, or a second time period, which is longer than the first time period; an HDD 114 for storing, for each person, a result that the utterance is determined to be an interjection or an opinion; an evaluation unit 103 to give, for each result of each person stored in the HDD 114, a first evaluation point to the interjection, and a second evaluation point to the opinion, wherein the second evaluation point is different from the first evaluation point; and a collection part 104 for tallying and graphing the given first and second evaluation points for each person, and determining an evaluation level of each person on the basis of the result of the tabulation. The image forming apparatus prints the graphed image data.SELECTED DRAWING: Figure 9

Description

本発明は、情報処理装置に関し、特に、人による発言を評価する技術に関する。   The present invention relates to an information processing apparatus, and more particularly to a technique for evaluating a person's speech.

今日では、グループ毎に討論の活性化を推定してその状況を明示する技術が提案されている(下記特許文献1参照)。この技術は、グループの各メンバーが発話した発話時刻及び発話時間長を記憶しておき、グループ毎に、各メンバーの発話時刻及び発話時間長を時系列に区分し、グループ全メンバーの発話時間長に対する各メンバーの発話時間長の比を算出して、グループ毎に、各メンバーの発話密度寄与率を描画したグラフを生成するというものである。   Today, a technique has been proposed in which the activation of discussion is estimated for each group and the situation is clearly indicated (see Patent Document 1 below). This technology memorizes the utterance time and utterance time length of each group member, classifies each member's utterance time and utterance time length in time series, and utterance time length of all group members The ratio of the utterance time length of each member to the above is calculated, and a graph depicting the utterance density contribution rate of each member is generated for each group.

特開2016−162339号公報JP 2006-162339 A

上記技術は、各メンバーの発話密度寄与率をグループの討論が活性化しているかの判断のために提供するが、この発話密度寄与率は、グループ全メンバーの発話時間長に対する各メンバーの発話時間長の比に過ぎない。この技術によっては、各メンバーが発言時間検出部解した内容を評価することまではできない。   The above technology provides each member's utterance density contribution rate to determine whether the group discussion is active, but this utterance density contribution rate is the utterance time length of each member relative to the utterance time length of all members of the group. It is only a ratio of Depending on this technology, it is not possible to evaluate the content that each member understands the speech time detection section.

本発明は、上記の事情に鑑みなされたものであり、人による発言を評価してその評価結果を客観的に提示可能にすることを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to evaluate an utterance by a person and objectively present the evaluation result.

本発明の一局面に係る情報処理装置は、外部とのデータ通信を行う通信インターフェイスと、前記通信インターフェイスを介して取得された複数人の音声データから、人の各発言を抽出し、抽出された各発言についての発言時間を各人について別個に検出する発言時間検出部と、前記発言時間検出部によって検出された前記各人の前記発言時間が、予め定められた第1の時間内であるか否かを判断し、前記第1の時間内の発言を相槌と判定し、前記第1の時間よりも長い予め定められた第2の時間でされた発言を意見と判定し、前記人毎に、前記意見の内容をテキスト化する相槌・意見判定部と、前記相槌・意見判定部によって判定された、前記発言が相槌又は意見のいずれであるかの結果を前記各人それぞれに記憶する結果記憶部と、前記結果記憶部に記憶されている前記各人の結果毎に、前記相槌に対して予め定められた第1の評価ポイントを付与し、前記意見に対して前記第1の評価ポイントとは異なる予め定められた第2の評価ポイントを付与する評価部と、前記評価部によって付与された前記第1及び第2の評価ポイントを前記各人それぞれに集計し、前記各人それぞれの集計結果をグラフ化した画像データを作成する集計部と、を備え、前記評価部は、前記相槌・意見判定部によってテキスト化された前記意見に、予め定められた重要キーワードを検出したときは、当該意見に対しては、前記第2の評価ポイントを予め定められた加算値だけ加算して付与し、予め定められた不要キーワードを検出したときは、当該意見に対しては、前記第2の評価ポイントを予め定められた減算値だけ減算して付与し、前記評価部は、前記付与した前記第1の評価ポイントを前記各人それぞれに集計し、当該集計の示すポイントが、予め定められた第1相槌評価値以上である場合には、当該人の評価レベルを、予め定められた第1の高レベルと判定し、前記付与した前記第2の評価ポイントを前記各人それぞれに集計し、当該集計の示すポイントが、予め定められた第1意見評価値以上である場合には、当該人の評価レベルを、予め定められた第2の高レベルと判定するものである。   An information processing apparatus according to one aspect of the present invention extracts and extracts each person's speech from a communication interface that performs data communication with the outside and voice data of a plurality of persons acquired through the communication interface. A speech time detection unit that individually detects the speech time for each speech, and whether the speech time of each person detected by the speech time detection unit is within a predetermined first time Determine whether or not the speech within the first time is a conflict, determine the speech made during a predetermined second time longer than the first time as an opinion, and for each person A result storage for storing the result of whether the remark is a reconciliation or an opinion determined by the reconciliation / opinion determination unit and the individual, respectively, Part and said For each of the results stored in the fruit storage unit, a predetermined first evaluation point is assigned to the conflict, and the opinion is predetermined different from the first evaluation point. The evaluation unit for assigning the second evaluation points, and the first and second evaluation points assigned by the evaluation unit are tabulated for each person, and the tabulation results for each person are graphed. A totaling unit for creating image data, and when the evaluation unit detects a pre-determined important keyword in the opinion converted into text by the conflict / opinion determination unit, for the opinion In addition, when the second evaluation point is added and given by a predetermined addition value and a predetermined unnecessary keyword is detected, the second evaluation point is predetermined for the opinion. The subtracted value is subtracted and added, and the evaluation unit adds the assigned first evaluation points to each of the persons, and the point indicated by the calculation is a predetermined first evaluation value. If it is above, the person's evaluation level is determined to be the first predetermined high level, the assigned second evaluation points are totaled for each person, and the points indicated by the totalization Is equal to or higher than a predetermined first opinion evaluation value, the person's evaluation level is determined to be a predetermined second high level.

本発明によれば、人による発言を評価してその評価結果を客観的に提示することが可能になる。   According to the present invention, it is possible to evaluate a person's utterance and objectively present the evaluation result.

本発明の一実施形態に係る情報処理装置、及び当該情報処理装置により発話解析が行われる対象者を示す図である。It is a figure which shows the information processing apparatus which concerns on one Embodiment of this invention, and the subject person whom speech analysis is performed by the said information processing apparatus. 情報処理装置の内部構成の概略を示すブロック図である。It is a block diagram which shows the outline of an internal structure of information processing apparatus. 音声データの一例を示す図である。It is a figure which shows an example of audio | voice data. 情報処理装置による発話解析処理の第1実施形態を示すフローチャートである。It is a flowchart which shows 1st Embodiment of the speech analysis process by information processing apparatus. 各人の各発言をその発言時間に応じて形状を異ならせて示すイメージ図である。It is an image figure which shows each person's each utterance by changing the shape according to the utterance time. 情報処理装置による発話解析処理の第2実施形態を示すフローチャートである。It is a flowchart which shows 2nd Embodiment of the speech analysis process by information processing apparatus. 情報処理装置による発話解析処理の第3実施形態を示すフローチャートである。It is a flowchart which shows 3rd Embodiment of the speech analysis process by information processing apparatus. 各人それぞれについて異なる第1の時間及び上記第2の時間を決定する決定処理を示すフローチャートである。It is a flowchart which shows the determination process which determines different 1st time and said 2nd time for each person. 情報処理装置の内部構成について更なる実施形態の概略を示すブロック図である。It is a block diagram which shows the outline of further embodiment about the internal structure of information processing apparatus. 情報処理装置による各人の発言に対する評価処理の第1実施形態を示すフローチャートである。It is a flowchart which shows 1st Embodiment of the evaluation process with respect to each person's utterance by information processing apparatus. 第1及び第2の評価ポイントを人毎に集計した集計結果をグラフ化した画像の一例を示す図である。It is a figure which shows an example of the image which graphed the total result which totaled the 1st and 2nd evaluation point for every person. 意見に対する第2の評価ポイントを、当該意見に対する相槌の有無に応じて異ならせて付与する処理を示すフローチャートである。It is a flowchart which shows the process which changes and assign | provides the 2nd evaluation point with respect to an opinion according to the presence or absence of the conflict with respect to the said opinion. 意見に対する第2の評価ポイントを、当該意見に含まれるキーワードに応じて異ならせて付与する処理を示すフローチャートである。It is a flowchart which shows the process which changes and assign | provides the 2nd evaluation point with respect to an opinion according to the keyword contained in the said opinion. 各人について評価を行う評価レベル判定処理の第1実施形態を示すフローチャートである。It is a flowchart which shows 1st Embodiment of the evaluation level determination process which evaluates about each person. 各人について評価を行う評価レベル判定処理の第2実施形態を示すフローチャートである。It is a flowchart which shows 2nd Embodiment of the evaluation level determination process which evaluates about each person. 各人について評価を行う評価レベル判定処理の第3実施形態を示すフローチャートである。It is a flowchart which shows 3rd Embodiment of the evaluation level determination process which evaluates about each person. 評価部によって作成された、上記評価ポイントの合計値をグラフ化した画像の例を示す図である。It is a figure which shows the example of the image which made the graph the total value of the said evaluation point produced by the evaluation part.

以下、本発明の一実施形態に係る画像形成装置等の情報処理装置、発話解析プログラム、評価プログラム、発話解析方法、及び評価方法について図面を参照して説明する。図1は、本発明の一実施形態に係る情報処理装置、及び当該情報処理装置により発話解析が行われる対象者を示す図である。   Hereinafter, an information processing apparatus such as an image forming apparatus according to an embodiment of the present invention, an utterance analysis program, an evaluation program, an utterance analysis method, and an evaluation method will be described with reference to the drawings. FIG. 1 is a diagram illustrating an information processing apparatus according to an embodiment of the present invention and a target person whose speech analysis is performed by the information processing apparatus.

情報処理装置1は、複数人からなる会話グループの各人が発した音声をデータにより取得する。例えば、人P1,P2,P3の複数人(本実施形態では3人として説明するが、これに限定されるものではない)からなる会話グループがミーティングや授業、会議など(以下、単に会議という)を行っているものとする。当該会話グループの各人は、マイクロフォン機能を備えたヘッドセット2を使用した状態で発声する。すなわち、当該各人が用いるそれぞれのヘッドセット2は、ヘッドセット2を装着した人の会話の音声を取得し、当該音声を示す電気信号に変換して、情報処理装置1に出力する。情報処理装置1と、各ヘッドセット2とは、例えば、ケーブル接続による有線通信、又はBluetooth(登録商標)や無線LAN等の無線通信により接続されている。情報処理装置1は、各ヘッドセット2から出力されてくる上記音声を示す電気信号を、ディジタルの音声信号からなる音声データに変換し、ヘッドセット2毎、すなわち、人P1,P2,P3についての音声データをそれぞれに蓄積する。   The information processing apparatus 1 acquires, by data, voices uttered by each person in a conversation group composed of a plurality of people. For example, a conversation group consisting of a plurality of people P1, P2, and P3 (in the present embodiment, described as three people, but is not limited to this) is a meeting, class, conference, etc. (hereinafter simply referred to as a conference). It is assumed that Each person in the conversation group speaks using the headset 2 having a microphone function. That is, each headset 2 used by each person acquires the voice of the conversation of the person wearing the headset 2, converts it into an electrical signal indicating the voice, and outputs it to the information processing apparatus 1. The information processing device 1 and each headset 2 are connected by, for example, wired communication by cable connection or wireless communication such as Bluetooth (registered trademark) or wireless LAN. The information processing apparatus 1 converts the electric signal indicating the sound output from each headset 2 into sound data including a digital sound signal, and for each headset 2, that is, for the persons P1, P2, and P3. Audio data is stored in each.

次に、情報処理装置1の構成を説明する。図2は、情報処理装置1の内部構成の概略を示すブロック図である。   Next, the configuration of the information processing apparatus 1 will be described. FIG. 2 is a block diagram illustrating an outline of the internal configuration of the information processing apparatus 1.

情報処理装置1は、例えばコンピューターである。情報処理装置1は、制御ユニット10と、ROM112と、RAM113と、HDD114と、表示部115と、通信インターフェイス118と、入力部119とを備える。これら各部は、互いにCPUバスによりデータ又は信号の送受信が可能とされている。   The information processing apparatus 1 is a computer, for example. The information processing apparatus 1 includes a control unit 10, a ROM 112, a RAM 113, an HDD 114, a display unit 115, a communication interface 118, and an input unit 119. These units can transmit / receive data or signals to / from each other via a CPU bus.

制御ユニット10は、情報処理装置1全体の動作制御を司る。ROM112は、情報処理装置1の基本動作についての動作プログラムを記憶する。RAM113は、制御ユニット10の動作領域等として使用される。   The control unit 10 controls the operation of the entire information processing apparatus 1. The ROM 112 stores an operation program for basic operations of the information processing apparatus 1. The RAM 113 is used as an operation area of the control unit 10.

HDD114は、その記憶領域の一部に、本発明の一実施形態に係る発話分析プログラムを記憶している。また、HDD114は、人P1,P2,P3についてのそれぞれの上記音声データを記憶する。なお、HDD114は、特許請求の範囲における結果記憶部の一例でもある。   The HDD 114 stores an utterance analysis program according to an embodiment of the present invention in a part of the storage area. Further, the HDD 114 stores the respective audio data for the persons P1, P2, and P3. The HDD 114 is also an example of a result storage unit in the claims.

表示部115は、LCD(Liquid Crystal Display)等からなり、情報処理装置1を操作する操作者に対する操作案内等が表示される。   The display unit 115 includes an LCD (Liquid Crystal Display) or the like, and displays operation guidance for an operator who operates the information processing apparatus 1.

通信インターフェイス118は、USBインターフェイス又は無線LANインターフェイス等を有する。通信インターフェイス118は、上記各ヘッドセット2とのデータ通信を行うためのインターフェイスとして機能する。   The communication interface 118 has a USB interface or a wireless LAN interface. The communication interface 118 functions as an interface for performing data communication with each headset 2 described above.

入力部119は、キーボードやマウス等から構成され、操作指示が操作者から入力される。   The input unit 119 includes a keyboard, a mouse, and the like, and an operation instruction is input from an operator.

制御ユニット10は、プロセッサー、RAM(Random Access Memory)、及びROM(Read Only Memory)などから構成される。プロセッサーは、CPU(Central Processing Unit)、MPU、又はASIC等である。この制御ユニット10は、HDD114に記憶されている発話解析プログラムが上記のプロセッサーで実行されることにより、制御部100、発言時間検出部101、及び相槌・意見判定部102として機能する。なお、制御部100、発言時間検出部101、及び相槌・意見判定部102は、ハード回路により構成されてもよい。   The control unit 10 includes a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The processor is a CPU (Central Processing Unit), MPU, ASIC, or the like. The control unit 10 functions as the control unit 100, the speech time detection unit 101, and the conflict / opinion determination unit 102 when the speech analysis program stored in the HDD 114 is executed by the above processor. Note that the control unit 100, the speech time detection unit 101, and the conflict / opinion determination unit 102 may be configured by a hard circuit.

制御部100は、情報処理装置1全体の動作制御を司る機能を有する。   The control unit 100 has a function for controlling operation of the entire information processing apparatus 1.

発言時間検出部101は、HDD114に記憶されている人P1,P2,P3についての音声データのそれぞれから、音声データに記録されている発話の中でされている各発言についての発言時間を検出する。図3は、音声データの一例を示す図である。図3の縦軸は音の振幅(単位db)、横軸は時刻を示す。発言時間検出部101は、音声データを解析し、音声データが示す振幅であって、予め定められた規定時間(例えば、0.25秒)以上連続して、予め定められた大きさ以上の振幅(例えば、20dB)が続く部分を発言として抽出する。図3に示す音声データでは、発言時間検出部101は、a部分、b部分、及びc部分を発言として抽出する。   The utterance time detection unit 101 detects the utterance time for each utterance in the utterance recorded in the audio data from each of the audio data for the persons P1, P2, and P3 stored in the HDD 114. . FIG. 3 is a diagram illustrating an example of audio data. The vertical axis in FIG. 3 indicates the amplitude of sound (unit db), and the horizontal axis indicates time. The speech time detection unit 101 analyzes the voice data, and is the amplitude indicated by the voice data, which is continuously larger than a predetermined magnitude (for example, 0.25 seconds) for a predetermined time (for example, 0.25 seconds). , 20dB) is extracted as a comment. In the audio data shown in FIG. 3, the speech time detection unit 101 extracts a part, b part, and c part as speech.

相槌・意見判定部102は、発言時間検出部101によって検出された上記発言時間が、予め定められた第1の時間(上記規定時間から、当該規定時間よりも長い予め定められた時間までの時間帯。例えば、上記規定時間としての0.25秒以上であって2.0秒までの時間帯)内であれば、この発言時間でされた発言を、相槌と判定する。また、相槌・意見判定部102は、発言時間検出部101によって検出された上記発言時間が、上記第1の時間よりも長い予め定められた第2の時間(上記第1時間を超える時間)であれば、この発言時間でされた発言を、意見と判定する。相槌・意見判定部102は、当該判定した相槌か意見かの結果と、当該相槌及び意見の各発言時間とをHDD114に記憶させる。   The conflict / opinion determination unit 102 determines that the speech time detected by the speech time detection unit 101 is a predetermined first time (the time from the specified time to a predetermined time longer than the specified time). For example, if it is within 0.25 seconds or more and 2.0 seconds as the specified time), the speech made at this speech time is determined as a conflict. In addition, the conflict / opinion determination unit 102 has a predetermined second time (a time exceeding the first time) that is longer than the first time, the speech time detected by the speech time detection unit 101. If there is, the speech made during this speech time is determined as an opinion. The meeting / opinion determination unit 102 causes the HDD 114 to store the result of the determination as to whether the determination is an opinion or an opinion, and the time of each comment and opinion.

また、相槌・意見判定部102は、既知の音声認識機能を備え、これにより、上記音声データをキャラクター変換してテキスト化する。そして、相槌・意見判定部102は、例えば人P1がした全ての発言から、それらに含まれる単語を検出し、同一の単語が複数回検出される場合は当該単語の検出回数をカウントする。相槌・意見判定部102は、当該検出した単語のうち、予め定められた数(例えば、5回)以上出現する単語を頻出キーワードとして抽出する。相槌・意見判定部102は、全ての人の音声データについて、同様にして頻出キーワードを抽出する。   In addition, the conflict / opinion determination unit 102 has a known voice recognition function, and thereby converts the voice data into text by converting it into text. Then, the conflict / opinion determination unit 102 detects, for example, words included in all the comments made by the person P1, and counts the number of times the word is detected when the same word is detected a plurality of times. The conflict / opinion determination unit 102 extracts words that appear more than a predetermined number (for example, five times) as frequent keywords from the detected words. The conflict / opinion determination unit 102 extracts frequent keywords in the same manner for the voice data of all persons.

次に、情報処理装置1による発話解析処理の第1実施形態を説明する。図4は情報処理装置1による発話解析処理の第1実施形態を示すフローチャートである。   Next, a first embodiment of the utterance analysis process by the information processing apparatus 1 will be described. FIG. 4 is a flowchart showing a first embodiment of the speech analysis processing by the information processing apparatus 1.

当該発話解析が行われる場面は、人P1,P2,P3の複数人からなる会話グループが会議を行っている場面である。人P1,P2,P3は、各自がヘッドセット2を装着し、各ヘッドセット2は上述したように情報処理装置1に対して通信可能に接続されている。この状態で、人P1,P2,P3は、会議中に発話を行う。人P1,P2,P3によって発話された音声は、人P1,P2,P3それぞれのヘッドセット2により集音され、情報処理装置1に出力される。   The scene where the speech analysis is performed is a scene where a conversation group composed of a plurality of persons P1, P2, and P3 is having a meeting. Each person P1, P2, P3 wears a headset 2, and each headset 2 is communicably connected to the information processing apparatus 1 as described above. In this state, people P1, P2, and P3 speak during the conference. Voices uttered by the persons P1, P2, and P3 are collected by the headsets 2 of the persons P1, P2, and P3 and output to the information processing apparatus 1.

情報処理装置1は、通信インターフェイス118を介して、各ヘッドセット2から音声データを取得する(S1)。すなわち、通信インターフェイス118が、各ヘッドセット2から出力されてくる上記音声を示す電気信号を受信し、発言時間検出部101は、当該取得された音声を示す電気信号を、ディジタルの音声信号からなる音声データに変換してHDD114に記憶させる。発言時間検出部101は、人P1,P2,P3毎に、当該音声データをHDD114に記憶させる。   The information processing apparatus 1 acquires audio data from each headset 2 via the communication interface 118 (S1). That is, the communication interface 118 receives an electrical signal indicating the sound output from each headset 2, and the speech time detection unit 101 includes the electrical signal indicating the acquired sound as a digital audio signal. The sound data is converted and stored in the HDD 114. The speech time detection unit 101 stores the audio data in the HDD 114 for each person P1, P2, P3.

続いて、発言時間検出部101は、人P1,P2,P3毎にHDD114に記憶された音声データのそれぞれから、当該音声データが示す発話の中でされている各発言を、上述したようにして抽出する(S2)。そして、発言時間検出部101は、当該抽出した各発言の発言時間を検出する(S3)。   Subsequently, the utterance time detection unit 101 determines each utterance in the utterance indicated by the voice data from each of the voice data stored in the HDD 114 for each person P1, P2, P3 as described above. Extract (S2). Then, the speech time detection unit 101 detects the speech time of each extracted speech (S3).

更に、相槌・意見判定部102は、上記各発言の発言時間が上記第1の時間内であるか第2の時間であるかを判断する(S4)。相槌・意見判定部102は、発言時間が第1の時間内であれば(S4で「第1の時間」)、この発言時間でされた発言を相槌と判定する(S5)。また、相槌・意見判定部102は、上記発言時間が上記第2の時間であれば(S4で「第2の時間」)、この発言時間でされた発言を意見と判定する(S8)。   Further, the conflict / opinion determination unit 102 determines whether the utterance time of each utterance is within the first time or the second time (S4). If the speech time is within the first time (“first time” in S4), the conflict / opinion determination unit 102 determines that the speech made during this speech time is a conflict (S5). If the speech time is the second time (“second time” in S4), the conflict / opinion determination unit 102 determines the speech made at the speech time as an opinion (S8).

更に、相槌・意見判定部102は、音声認識機能により人P1,P2,P3の各音声データをキャラクター変換してテキスト化し、人P1,P2,P3毎に、音声データから頻出キーワードを抽出する(S6)。相槌・意見判定部102は、上記判定した相槌か意見かの結果と、当該相槌及び意見の各発言時間と、抽出した頻出キーワードとを、人P1,P2,P3毎に纏めて、HDD114に記憶させる(S9)。   Further, the conflict / opinion determination unit 102 converts the voice data of the persons P1, P2, and P3 into text by using the voice recognition function, and extracts frequent keywords from the voice data for each of the persons P1, P2, and P3 ( S6). The meeting / opinion determination unit 102 stores the result of the determination of the above-described determination or opinion, each speaking time of the meeting and the opinion, and the extracted frequent keywords for each person P1, P2, and P3 and stores them in the HDD 114. (S9).

相槌・意見判定部102は、上記判定した相槌又は意見の結果を、図5に例を示すような、人P1,P2,P3毎に区分けした画像を作成する(S10)。制御部100は、当該作成された画像を表示部115に表示させる(S11)。ここで、情報処理装置1が画像形成装置である場合には、S10で作成された画像と音声データをテキスト化したデータとを印刷してもよい。   The conflict / opinion determination unit 102 creates an image in which the determined conflict or opinion result is divided into persons P1, P2, and P3 as shown in FIG. 5 (S10). The control unit 100 displays the created image on the display unit 115 (S11). Here, when the information processing apparatus 1 is an image forming apparatus, the image created in S10 and the data obtained by converting the audio data into text may be printed.

図5は人P1,P2,P3の各発言をその発言時間に応じて形状を異ならせて示すイメージ図である。   FIG. 5 is an image diagram showing the utterances of the people P1, P2 and P3 with different shapes according to the utterance time.

制御部100は、相槌・意見判定部102によって判定された相槌又は意見の結果を、図5に例を示すように、人P1,P2,P3毎に区分けして、表示部115に表示させる。   The control unit 100 causes the display unit 115 to display the results of the conflict or opinion determined by the conflict / opinion determination unit 102 for each person P1, P2, and P3 as shown in FIG.

例えば、図5において、横軸は時間軸を示し、人P1,P2,P3のそれぞれの欄に示される短冊状の画像im(図5に示される全ての短冊状の画像を指す)は、発言を表す画像である。人P1,P2,P3のそれぞれの欄には、発言の回数分の画像imが発言した時刻に対応する位置に並べて表示される。また、画像imの横幅は、発言の時間に応じて長く設定され、すなわち、発言の時間が長いほど画像imの横幅は長く設定される。なお、画像imの縦方向の形状は、発言の時間の長さに拘わらず同一に設定される。   For example, in FIG. 5, the horizontal axis indicates the time axis, and the strip-shaped images im shown in the respective columns of the persons P1, P2, and P3 (pointing to all the strip-shaped images shown in FIG. 5) are remarks. It is an image showing. In each column of the persons P1, P2, and P3, images im for the number of times of speaking are displayed side by side at positions corresponding to the time of speaking. Further, the horizontal width of the image im is set longer according to the speech time, that is, the horizontal width of the image im is set longer as the speech time is longer. Note that the vertical shape of the image im is set to be the same regardless of the duration of the speech.

上記イメージ図によれば、このイメージ図を視認したユーザーは、人P1,P2,P3が行った発言について、人毎に、画像imの数から発言回数を把握可能となり、画像imの表示位置から発言時刻が把握可能となる。   According to the above image diagram, the user who visually recognizes this image diagram can grasp the number of utterances from the number of images im for each person, and the utterance time from the display position of the image im. Can be grasped.

また、上記第1の時間を図5に示す幅wとすると、この幅w未満の横幅からなる画像imが相槌を示し、幅w以上の横幅からなる画像imが意見を示すものとなる。なお、相槌・意見判定部102は、相槌又は意見の別に応じて、(i)画像imの色を異ならせたり、(ii)相槌又は意見の別を示す表記を画像im中の画像に隣接させて、各画像imを作成してもよい。   If the first time is a width w shown in FIG. 5, an image im having a width less than the width w indicates a conflict, and an image im having a width greater than or equal to the width w indicates an opinion. The opinion / opinion determination unit 102 (i) makes the color of the image im different depending on the opinion or opinion, or (ii) makes the notation indicating the difference of opinion or opinion adjacent to the image in the image im. Thus, each image im may be created.

ユーザーは、図5に示すイメージ図を視認することで、更に、人P1,P2,P3の各人がどのような発言をいつの時点で行ったかを把握できる。また、図5では、人P1,P2,P3について共通の時間軸を用いているため、ある人と他の人がそれぞれに行った発言同士のタイミングの先後を把握することも可能になる。   By visually recognizing the image diagram shown in FIG. 5, the user can further understand what remarks each person P1, P2 and P3 made at what time. Further, in FIG. 5, since a common time axis is used for the persons P1, P2, and P3, it is possible to grasp the timing of the timing of the statements made by one person and another person.

例えば、図5によれば、人P1が全ての人の中で最初に意見を行い(画像im211)、これに続いて、人P2も意見を行い(画像im221)、これに続いて更に人P3も意見を行っている(画像im231)ことを、ユーザーが把握可能である。   For example, according to FIG. 5, the person P1 makes an opinion first among all the persons (image im211), and subsequently, the person P2 also gives an opinion (image im221), followed by the person P3. The user can grasp that he is also giving an opinion (image im231).

また、人P1は、人P2による意見(画像im221)の直後に連続して相槌(画像im111)を行い、人P3は、人P1による意見(画像im212)の直後に連続して相槌(画像im131)を行っていること等を、ユーザーが把握可能である。   In addition, the person P1 continuously gives an opinion (image im111) immediately after the opinion by the person P2 (image im221), and the person P3 continuously gives an opinion (image im131) immediately after the opinion by the person P1 (image im212). ) Can be grasped by the user.

また、図5からは、人P1は、10分間に意見を6回行っており、人P2は、10分間に意見を4回行っており、人P3は、10分間に意見を2回行っていることから、人P1が最も多くの意見を行っていることをユーザーが把握可能である。ユーザーは、この結果から、人P1が最も積極的に意見を行っていることを想定可能となる。   In addition, from FIG. 5, person P1 gives an opinion six times in 10 minutes, person P2 gives an opinion four times in 10 minutes, and person P3 gives an opinion twice in 10 minutes. Therefore, the user can grasp that the person P1 has the most opinions. From this result, the user can assume that the person P1 has the most active opinion.

一方、人P1は、10分間に相槌を5回行っており(画像im111〜im115)、人P2は、10分間に相槌を4回行っており(画像im121〜im124)、人P3は、10分間に相槌を7回行っている(画像im131〜im137)ことから、人P3が最も多くの相槌を行っていることが把握される。ユーザーは、この結果から、人P3が最も他人の意見を聞く意思を有していることを想定できる。   On the other hand, the person P1 performs 5 times of competing in 10 minutes (images im111 to im115), the person P2 performs 4 times of competing in 10 minutes (images im121 to im124), and the person P3 performs 10 minutes. In addition, it is understood that the person P3 is performing the largest amount of consideration since the comparison is performed seven times (images im131 to im137). From this result, the user can assume that the person P3 is most willing to hear the opinions of others.

なお、相槌・意見判定部102は、意見と判定した発言の直後に当該発言に連続してされた発言のみを相槌と判定するようにしてもよい。この場合、例えば、図5では、画像im111,im112,im131,im133,im135及びim136のみが相槌・意見判定部102により相槌と判定されることになる。   It should be noted that the conflict / opinion determination unit 102 may determine that only the speech that is continued after the speech determined to be an opinion is a conflict. In this case, for example, in FIG. 5, only the images im 111, im 112, im 131, im 133, im 135, and im 136 are determined as conflicts by the conflict / opinion determination unit 102.

これにより、第1実施形態によれば、本発明によれば、人が発話した際に当該人の発言の種類までを解析してその結果を提供することが可能になる。   Thus, according to the first embodiment, according to the present invention, when a person speaks, it is possible to analyze up to the type of the person's utterance and provide the result.

次に、情報処理装置1による発話解析処理の第2実施形態を説明する。図6は情報処理装置1による発話解析処理の第2実施形態を示すフローチャートである。なお、第2実施形態における説明では、第1実施形態と同様の処理については説明を省略する。   Next, a second embodiment of the utterance analysis process by the information processing apparatus 1 will be described. FIG. 6 is a flowchart showing a second embodiment of the utterance analysis process by the information processing apparatus 1. In the description of the second embodiment, the description of the same processing as that of the first embodiment is omitted.

当該第2実施形態では、第1実施形態におけるS1〜S3と同様の処理であるS11〜S13の処理を行った後、S14において、相槌・意見判定部102が、発言の発言時間が第1の時間内であると判断したとき(S14で「第1の時間」)、更に、当該発言が、予め定められたキーワードを含むか否かを判断する(S15)。例えば、相槌・意見判定部102は、この時点で、音声認識機能により人P1,P2,P3の各音声データをテキスト化し、各発言について、予め定められたキーワードとして、例えば、「そうですね」「そうでしょうか」「なるほど」「あり得ない」「はい」「いいえ」「ええ」又は「いやいや」等が含まれるかを判断する。このようにテキスト化されたデータは、S17における頻出キーワードの抽出時にも用いられる。   In the second embodiment, after performing the processing of S11 to S13, which is the same processing as S1 to S3 in the first embodiment, in S14, the competing / opinion determination unit 102 has the first speech time of the speech. When it is determined that it is within the time ("first time" in S14), it is further determined whether or not the comment includes a predetermined keyword (S15). For example, at this point in time, the opinion / opinion determination unit 102 converts the voice data of the people P1, P2, and P3 into text using the voice recognition function, and for each comment, for example, “Yes” “Yes” “Is it?” “I see,” “I ca n’t,” “Yes,” “No,” “Yes,” or “No,” or not. Data converted to text in this way is also used when extracting frequent keywords in S17.

ここで、相槌・意見判定部102が、当該発言に予め定められたキーワードが含まれると判断した場合(S15でYES)、当該発言を相槌と判定する(S16)。すなわち、第2実施形態では、相槌・意見判定部102は、発言の発言時間が上記第1の時間内であって、かつ、当該発言が予め定められたキーワードを含むという条件を満たす場合に、当該発言を相槌と判定する。   Here, if the opinion / opinion determination unit 102 determines that the predetermined keyword is included in the utterance (YES in S15), the utterance / opinion determination unit 102 determines that the utterance is an affinity (S16). That is, in the second embodiment, the conflict / opinion determination unit 102 satisfies the condition that the utterance time of the utterance is within the first time and the utterance includes a predetermined keyword. The said speech is determined to be a conflict.

なお、相槌・意見判定部102は、当該発言に予め定められたキーワードが含まれないと判断した場合(S15でNO)、当該発言を相槌及び意見のいずれでもないと判定する(S19)。   In addition, when determining that the predetermined keyword is not included in the utterance (NO in S15), the affinity / opinion determination unit 102 determines that the utterance is neither an affinity nor an opinion (S19).

この第2実施形態によれば、相槌・意見判定部102による相槌又は意見の判定を、時間の要素のみではなく、予め定められたキーワードを含むという要素を用いて行うため、相槌・意見判定部102が相槌であるという判定を行った場合における、各人の発言が相槌であるという確からしさが更に高まる。   According to the second embodiment, since the determination of the conflict or opinion by the conflict / opinion determination unit 102 is performed using not only the time element but also an element including a predetermined keyword, the conflict / opinion determination unit When it is determined that 102 is a match, the certainty that each person's statement is a match is further increased.

次に、情報処理装置1による発話解析処理の第3実施形態を説明する。図7は情報処理装置1による発話解析処理の第3実施形態を示すフローチャートである。なお、第3実施形態における説明では、第1又は第2実施形態と同様の処理については説明を省略する。   Next, a third embodiment of the utterance analysis process by the information processing apparatus 1 will be described. FIG. 7 is a flowchart showing a third embodiment of the utterance analysis process by the information processing apparatus 1. In the description of the third embodiment, the description of the same processing as that of the first or second embodiment is omitted.

当該第3実施形態では、第2実施形態におけるS11〜S14と同様の処理であるS21〜S24の処理を行った後、S25において、相槌・意見判定部102が、当該発言に上記予め定められたキーワードが含まれると判断した場合(S25でYES)、更に、相槌・意見判定部102は、上記予め定められたキーワードの中から更に特定された特定キーワードが、S25で処理対象となっている発言に含まれている場合に(S26でYES)、当該発言を、相槌であってその中でも特に同意を示す頷きと判定する(S31)。例えば、相槌・意見判定部102は、S25で処理対象となっている発言について、特定キーワードとして、例えば、「そうですね」「なるほど」「はい」又は「ええ」等が含まれている場合に、頷きと判定する。   In the said 3rd Embodiment, after performing the process of S21-S24 which is the process similar to S11-S14 in 2nd Embodiment, in S25, the conflict / opinion judgment part 102 was previously defined by the said statement. If it is determined that a keyword is included (YES in S25), the conflict / opinion determination unit 102 further determines that a specific keyword further specified from the predetermined keywords is a processing target in S25. If it is included (YES in S26), it is determined that the comment is a conflict and a whisper that particularly indicates consent (S31). For example, the conflict / opinion determination unit 102 asks for the remarks to be processed in S25 when the specific keyword includes, for example, "I see", "I see", "Yes", or "Yes". Is determined.

この第3実施形態によれば、相槌・意見判定部102による相槌の中から更に頷きを判定することによって、相槌をした人が、他者による意見に同意しているか否かまで判別することが可能になる。   According to the third embodiment, it is possible to discriminate whether or not the person who made the agreement agrees with the opinion of the other person by further determining whether or not the consideration is made by the consideration by the consideration / opinion determination unit 102. It becomes possible.

なお、上記第1乃至第3実施形態では、相槌・意見判定部102は、相槌の判定に用いる上記第1の時間及び意見の判定に用いる上記第2の時間として、人P1,P2,P3の各人について同一の時間を用いているが、相槌・意見判定部102は、上記第1の時間及び上記第2の時間として、各人それぞれについて異なる時間を用いてもよい。図8は、各人それぞれについて異なる第1の時間及び上記第2の時間を決定する決定処理を示すフローチャートである。当該決定処理は、第1実施形態におけるS3とS4の間、第2実施形態におけるS13とS14の間、第3実施形態におけるS23とS24の間に行われる。   In the first to third embodiments, the conflict / opinion determination unit 102 uses the first time used for the determination of the conflict and the second time used for the determination of the opinion of the persons P1, P2, and P3. Although the same time is used for each person, the conflict / opinion determination unit 102 may use different times for each person as the first time and the second time. FIG. 8 is a flowchart showing a determination process for determining a different first time and the second time for each person. The determination process is performed between S3 and S4 in the first embodiment, between S13 and S14 in the second embodiment, and between S23 and S24 in the third embodiment.

例えば、発言時間検出部101により上記抽出した各発言の発言時間を検出する処理が行われた後(S3,S13,S23)、相槌・意見判定部102は、人P1,P2,P3の各人による全ての発言の内容を例えば音声認識機能によりテキスト化し、各発言についてそれぞれのテキスト量を検出する(S51)。   For example, after the processing for detecting the utterance time of each extracted speech is performed by the utterance time detection unit 101 (S3, S13, S23), the conflict / opinion determination unit 102 determines each person P1, P2, P3. The contents of all the utterances are converted into texts using, for example, a voice recognition function, and the respective text amounts are detected for each utterance (S51).

続いて、相槌・意見判定部102は、検出した上記テキスト量を、当該テキスト量を検出する対象とした発言の発言時間で割った値を発言速度として算出する。相槌・意見判定部102は、当該発言速度の算出を、人P1,P2,P3の各人による全ての発言について行い、人毎に、その人がした全発言についての発言速度の平均速度を算出し、当該算出した平均速度をその人についての発言速度とする(S52)。   Subsequently, the conflict / opinion determination unit 102 calculates, as a speech speed, a value obtained by dividing the detected text amount by the speech time of a speech whose target is the text amount. The solicitation / opinion determination unit 102 calculates the speaking rate for all the remarks made by each of the persons P1, P2, and P3, and calculates the average remarking speed for all remarks made by the person for each person. Then, the calculated average speed is set as the speaking speed for the person (S52).

更に、相槌・意見判定部102は、上記算出した各人の発言速度に応じて、上記第1の時間及び上記第2の時間を人毎に決定する(S53)。例えば、相槌・意見判定部102は、各発言速度と、各発言速度に対応付けられたそれぞれの第1及び第2時間を示すデータテーブルを保有しており、当該データテーブルを参照して、上記人毎に、算出した発言時間に対応する第1及び第2時間を読み出し、当該読み出した第1及び第2時間を、相槌又は意見の判定に用いる第1及び第2時間として決定する。なお、上記データテーブルは、発言速度が遅くなるほど長くなる第1及び第2時間を記憶している。   Further, the conflict / opinion determination unit 102 determines the first time and the second time for each person according to the calculated speaking speed of each person (S53). For example, the conflict / opinion determination unit 102 has a data table indicating each speaking speed and each first and second time associated with each speaking speed. For each person, the first and second times corresponding to the calculated speech time are read, and the read first and second times are determined as the first and second times used for the determination of the conflict or opinion. The data table stores first and second times that become longer as the speech rate becomes slower.

これによれば、相槌・意見判定部102は、人P1,P2,P3の各人が話す速度に応じて、相槌又は意見の判定に用いる第1及び第2時間を決定するため、より正確に各人の発言が相槌又は意見であるかを判定することが可能になる。   According to this, the conflict / opinion determination unit 102 determines the first and second times used for determination of the conflict or opinion according to the speaking speed of each of the persons P1, P2, and P3. It becomes possible to determine whether each person's remark is a mutual opinion or opinion.

次に、情報処理装置1についての構成の更なる実施形態を説明する。図9は、情報処理装置1の内部構成について更なる実施形態の概略を示すブロック図である。なお、当該更なる実施形態についての説明では、図2を用いて説明した情報処理装置1の構成と同一の構成及び機能については説明を省略する。   Next, a further embodiment of the configuration of the information processing apparatus 1 will be described. FIG. 9 is a block diagram illustrating an outline of a further embodiment of the internal configuration of the information processing apparatus 1. In the description of the further embodiment, the description of the same configuration and function as the configuration of the information processing apparatus 1 described with reference to FIG. 2 is omitted.

当該更なる実施形態では、情報処理装置1において、制御ユニット10は、図2に示した構成と同様に、プロセッサー、RAM(Random Access Memory)、及びROM(Read Only Memory)などから構成される。プロセッサーは、CPU(Central Processing Unit)、MPU、又はASIC等である。制御ユニット10は、HDD114に記憶されている評価プログラムが上記のプロセッサーで実行されることにより、制御部100、発言時間検出部101、相槌・意見判定部102に加え、更に、評価部103及び集計部104として機能する。なお、制御部100、発言時間検出部101、相槌・意見判定部102、評価部103及び集計部104は、ハード回路により構成されてもよい。   In the further embodiment, in the information processing apparatus 1, the control unit 10 includes a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, similarly to the configuration illustrated in FIG. The processor is a CPU (Central Processing Unit), MPU, ASIC, or the like. When the evaluation program stored in the HDD 114 is executed by the above processor, the control unit 10 further includes the evaluation unit 103 and the aggregation in addition to the control unit 100, the speech time detection unit 101, and the conflict / opinion determination unit 102. It functions as the unit 104. Note that the control unit 100, the speech time detection unit 101, the conflict / opinion determination unit 102, the evaluation unit 103, and the totaling unit 104 may be configured by hardware circuits.

制御部100、発言時間検出部101、及び相槌・意見判定部102は、図2を用いて説明した上記構成と同様の機能を有する。本実施形態においても、相槌・意見判定部102は、判定した相槌か意見かの結果と、当該相槌及び意見の各発言時間と、抽出した頻出キーワードとを、人P1,P2,P3毎に纏めて、HDD114に記憶させる。   The control unit 100, the speech time detection unit 101, and the conflict / opinion determination unit 102 have the same functions as those described above with reference to FIG. Also in this embodiment, the conflict / opinion determination unit 102 summarizes the result of the determined conflict or opinion, each speech and opinion duration, and the extracted frequent keywords for each person P1, P2, and P3. And stored in the HDD 114.

評価部103は、HDD114に記憶されている上記各人の結果毎に、相槌に対しては予め定められた第1の評価ポイントを付与し、意見に対しては当該第1の評価ポイントとは異なる予め定められた第2の評価ポイントを付与する。例えば、評価部103は、相槌に対する上記第1の評価ポイント(例えば、1ポイント)よりも、意見に対する上記第2の評価ポイントを大きい値(例えば、10ポイント)として付与する。   The evaluation unit 103 assigns a predetermined first evaluation point to each other for each result stored in the HDD 114, and what is the first evaluation point for an opinion? A different predetermined second evaluation point is given. For example, the evaluation unit 103 gives the second evaluation point for the opinion as a larger value (for example, 10 points) than the first evaluation point (for example, 1 point) for the conflict.

集計部104は、評価部103によって付与された上記第1及び第2の評価ポイントを人P1,P2,P3毎に集計する。制御部100は、当該人毎の集計結果を例えば表示部115に出力して、表示部115に当該人毎の集計結果を表示させる。或いは、制御部100は、情報処理装置1にネットワーク接続されたコンピューターに上記人毎の集計結果を示すデータを、通信インターフェイス118を介して出力する。当該コンピューターでは、当該人毎の集計結果を示すデータの印刷又は表示が可能になる。   The totaling unit 104 totals the first and second evaluation points given by the evaluation unit 103 for each person P1, P2, P3. For example, the control unit 100 outputs the total result for each person to the display unit 115 and causes the display unit 115 to display the total result for each person. Alternatively, the control unit 100 outputs the data indicating the total result for each person to the computer connected to the information processing apparatus 1 via the communication interface 118. The computer can print or display data indicating the total result for each person.

また、集計部104は、上記人毎の集計結果をグラフ化した画像データを作成する。制御部100は、当該人毎の集計結果がグラフ化された画像データを表示部115に出力して表示させる。   Further, the totaling unit 104 creates image data in which the totaling result for each person is graphed. The control unit 100 outputs and displays the image data in which the aggregation result for each person is graphed on the display unit 115.

次に、上記更なる実施形態に係る情報処理装置1による各人の発言に対する評価処理を説明する。図10Aは情報処理装置1による各人の発言に対する評価処理の第1実施形態を示すフローチャートである。図10Bは、第1及び第2の評価ポイントを人P1,P2,P3毎に集計した集計結果をグラフ化した画像の一例を示す図である。なお、図4を用いて説明した上記発話解析処理の第1実施形態と同様の処理については説明を省略する。   Next, an evaluation process for each person's remarks by the information processing apparatus 1 according to the further embodiment will be described. FIG. 10A is a flowchart illustrating a first embodiment of an evaluation process for each person's remarks by the information processing apparatus 1. FIG. 10B is a diagram illustrating an example of an image obtained by graphing the aggregation results obtained by aggregating the first and second evaluation points for each person P1, P2, and P3. In addition, description is abbreviate | omitted about the process similar to 1st Embodiment of the said speech analysis process demonstrated using FIG.

当該評価処理の第1実施形態では、図4を用いて説明した上記発話解析処理の第1実施形態と同様にして、相槌・意見判定部102が相槌の判定(S65)及び意見の判定(S70)までを行った後、評価部103が、HDD114に記憶されている上記各人の上記結果毎に、更に、当該結果が示す相槌及び意見毎に、相槌に対して第1の評価ポイント(例えば、1ポイント)を付与し、意見に対して第2の評価ポイント(例えば、10ポイント)を付与する(S66)。相槌・意見判定部102は、人P1,P2,P3の各人による全ての発言(相槌又は意見)に対して、当該第1の評価ポイント又は第2の評価ポイントの付与を行う。   In the first embodiment of the evaluation process, as in the first embodiment of the utterance analysis process described with reference to FIG. 4, the conflict / opinion determination unit 102 determines the conflict (S65) and the opinion (S70). ), The evaluation unit 103 performs a first evaluation point (e.g., for each of the above results of each person stored in the HDD 114, and for each of the opinions and opinions indicated by the results). 1 point) and a second evaluation point (for example, 10 points) is given to the opinion (S66). The meeting / opinion determination unit 102 assigns the first evaluation point or the second evaluation point to all statements (consideration or opinion) by each of the persons P1, P2, and P3.

続いて、集計部104は、評価部103によって付与された上記第1及び第2の評価ポイントを人P1,P2,P3毎に集計する(S67)。更に、集計部104は、上記集計結果をグラフ化した画像を作成する(S68)。制御部100は、例を図10Bに示すように、当該人毎の集計結果がグラフ化された画像を表示部115に出力して表示させる(S69)。   Subsequently, the tabulation unit 104 tabulates the first and second evaluation points given by the evaluation unit 103 for each person P1, P2, P3 (S67). Further, the totaling unit 104 creates an image in which the totalization result is graphed (S68). As illustrated in FIG. 10B, the control unit 100 outputs and displays an image on which the tabulation result for each person is graphed on the display unit 115 (S69).

このような評価処理の第1実施形態によれば、相槌・意見判定部102が判定した相槌及び意見のそれぞれに対して、数字で示される評価ポイントが付与され、付与された上記第1及び第2の評価ポイントが人P1,P2,P3毎に集計されるので、当該人毎の集計結果に基づいて、会議における各人による発言を評価してその評価結果を客観的に提示することが可能になる。これにより、ユーザーは、会議における各人の発言の評価を客観的に把握することが可能になる。   According to the first embodiment of such an evaluation process, the evaluation points indicated by numerals are assigned to each of the considerations and opinions determined by the opinion / opinion determination unit 102, and the first and second evaluation points given above are given. Since the two evaluation points are counted for each person P1, P2, and P3, it is possible to evaluate the remarks made by each person in the meeting and present the evaluation results objectively based on the counting results for each person. become. As a result, the user can objectively grasp the evaluation of each person's remarks at the conference.

ここで、評価部103は、意見に対する第2の評価ポイントを、当該意見に対する相槌の有無に応じて異ならせて付与するようにしてもよい。図11は、意見に対する第2の評価ポイントを、当該意見に対する相槌の有無に応じて異ならせて付与する処理を示すフローチャートである。当該処理は、図10Aに示したS66のポイント付与処理時に行われる。   Here, the evaluation unit 103 may give the second evaluation point for the opinion differently depending on the presence or absence of the opinion. FIG. 11 is a flowchart showing a process of assigning the second evaluation point for an opinion differently depending on the presence or absence of the opinion. This process is performed during the point grant process of S66 shown in FIG. 10A.

評価部103は、相槌・意見判定部102が相槌の判定(S65)及び意見の判定(S70)までを行った後、ある人による意見がされた直後のタイミングで、当該意見に連続して他の人により行われた相槌があるかを判断する(S71)。評価部103は、当該タイミングで行われた相槌があると判断したときは(S71でYES)、当該意見の評価ポイントを、第2の評価ポイントよりも大きい予め定められた第3の評価ポイント(例えば、20ポイント)を、当該意見に付与する(S72)。   The evaluation unit 103 continues to the opinion at the timing immediately after the opinion is given by a certain person after the consideration / opinion determination unit 102 performs the determination of the conflict (S65) and the determination of the opinion (S70). It is determined whether there is a conflict made by the person (S71). When the evaluation unit 103 determines that there is a conflict performed at the timing (YES in S71), the evaluation unit 103 sets the evaluation point of the opinion to a predetermined third evaluation point that is larger than the second evaluation point ( For example, 20 points) are given to the opinion (S72).

なお、評価部103は、S71において、上記タイミングで行われた相槌が複数あると判断したときは、第3の評価ポイントを更に増加させた値(例えば、25ポイント)として、当該意見に付与するようにしてもよい。「相槌が複数ある」の意味は、複数の人によって相槌がされた場合と、同じ人が複数回相槌をした場合のいずれでもよい。   When the evaluation unit 103 determines in S71 that there are a plurality of conflicts made at the above timing, the evaluation unit 103 assigns the third evaluation point to the opinion as a further increased value (for example, 25 points). You may do it. The meaning of “there is a plurality of conflicts” may be either a case in which a plurality of people have a conflict or a case in which the same person has a plurality of conflicts.

更に、評価部103は、上記意見の直後に連続して上記タイミングで行われた上記相槌に対しては、第1の評価ポイントよりも大きい予め定められた第4の評価ポイント(例えば、2ポイント)を付与する(S73)。   In addition, the evaluation unit 103 determines a fourth evaluation point (for example, 2 points) that is larger than the first evaluation point for the above-described interaction performed immediately after the opinion at the above timing. ) Is given (S73).

なお、評価部103は、S73において、上記タイミングで行われた相槌が複数あると判断したときは、第4の評価ポイントを更に増加させた値(例えば、3ポイント)として、当該相槌に付与するようにしてもよい。「相槌が複数ある」の意味は、複数の人によって相槌がされた場合と、同じ人が複数回相槌をした場合のいずれでもよい。   If the evaluation unit 103 determines in S73 that there are a plurality of conflicts performed at the above timing, the evaluation unit 103 assigns the fourth evaluation point to the conflict as a value (for example, 3 points) further increased. You may do it. The meaning of “there is a plurality of conflicts” may be either a case in which a plurality of people have a conflict or a case in which the same person has a plurality of conflicts.

一方、評価部103は、当該タイミングで行われた相槌がないと判断したときは(S71でNO)、当該意見の評価ポイントを、第2の評価ポイントとして、当該意見に付与する(S74)。   On the other hand, when the evaluation unit 103 determines that there is no conflict performed at the timing (NO in S71), the evaluation unit 103 assigns the evaluation point of the opinion as the second evaluation point to the opinion (S74).

更に、評価部103は、上記意見の直後に連続しないタイミングで行われた相槌に対しては、第1の評価ポイントを付与する(S75)。なお、この実施形態において、第3の評価ポイントは、第4の評価ポイントより大きく設定されるものとする。   Furthermore, the evaluation unit 103 assigns a first evaluation point to the conflict performed at a timing that is not continuous immediately after the opinion (S75). In this embodiment, the third evaluation point is set larger than the fourth evaluation point.

この処理によれば、意見の直後に連続して他の人により相槌がされており、他の人の関心を惹き付けた良質な意見であると想定される意見については、このような意見には、当該相槌がされなかった他の意見よりも高い評価ポイントが付与されるため、良質と想定される意見に対して高評価を的確に与えることが可能になる。   According to this process, immediately after the opinion, other people have been in conflict with each other, and the opinion that is assumed to be a good opinion that has attracted the interest of other people is Since a higher evaluation point is given than other opinions that have not been discussed, it is possible to accurately give a high evaluation to an opinion that is assumed to be of good quality.

また、意見の直後に連続してされた相槌は、他の人の意見に対して自身の意思を表明する的確な相槌であると想定されるため、当該相槌には、他のタイミングでされた相槌よりも高い評価ポイントを付与する。これにより、的確に行われたと想定される相槌に対して高評価を与えることが可能になる。   In addition, it was assumed that the controversy that was made immediately after the opinion was an accurate consensus to express one's intention to the opinions of other people. Give a higher evaluation point than Ao. Thereby, it becomes possible to give high evaluation with respect to the consideration assumed that it was performed correctly.

また、評価部103は、意見に対する第2の評価ポイントを、当該意見に含まれるキーワードに応じて異ならせて付与するようにしてもよい。図12は、意見に対する第2の評価ポイントを、当該意見に含まれるキーワードに応じて異ならせて付与する処理を示すフローチャートである。当該処理は、図10Aに示したS66のポイント付与処理時に行われる。また、当該処理によって決定される第2の評価ポイントは、図11に示す処理における第2の評価ポイントとしても用いられる。   Further, the evaluation unit 103 may assign the second evaluation point for the opinion differently depending on the keyword included in the opinion. FIG. 12 is a flowchart showing a process of assigning the second evaluation point for an opinion differently depending on a keyword included in the opinion. This process is performed during the point grant process of S66 shown in FIG. 10A. Further, the second evaluation point determined by the processing is also used as the second evaluation point in the processing shown in FIG.

相槌・意見判定部102は、相槌の判定(S65)及び意見の判定(S70)までを行った後、人P1,P2,P3の各人による全ての発言(少なくとも意見について)の内容を例えば音声認識機能によりテキスト化しておく(S81)。なお、当該テキスト化の処理は、評価部103が行うものとしてもよい。   The solicitation / opinion determination unit 102, after performing the determination of the companion (S65) and the determination of the opinion (S70), the contents of all the remarks (at least about the opinion) by each of the persons P1, P2, and P3 are voiced Text is prepared by the recognition function (S81). Note that the text conversion process may be performed by the evaluation unit 103.

評価部103は、相槌・意見判定部102により上記テキスト化処理が行われた後、人P1,P2,P3の各人による全ての意見について、それらに含まれる単語を検出し、同一の単語(キーワード)が複数回検出される場合は当該各単語についてその検出回数をカウントする。すなわち、評価部103は、当該カウントを意見毎に行う。   The evaluation unit 103 detects the words included in all opinions by each of the people P1, P2, and P3 after the text processing is performed by the conflict / opinion determination unit 102, and the same word ( When a keyword is detected a plurality of times, the number of times of detection is counted for each word. That is, the evaluation unit 103 performs the count for each opinion.

そして、評価部103は、同一の単語を予め定められた数(例えば、5回)以上含む意見があるか否かを判断する(S82)。評価部103は、同一の単語が予め定められた数以上含む意見があると判断した場合は(S82でYES)、当該意見に対しては上記第2の評価ポイントを付与しないものとして設定する(S87)。評価部103は、同一の単語が予め定められた数以上出現する意見がない場合は、当該設定を行わない(S82でNO)。   Then, the evaluation unit 103 determines whether or not there is an opinion including the same word more than a predetermined number (for example, 5 times) (S82). When the evaluation unit 103 determines that there is an opinion including the same number of words or more (YES in S82), the evaluation unit 103 sets the second evaluation point as not to be given to the opinion ( S87). The evaluation unit 103 does not perform the setting when there is no opinion in which the same word appears more than a predetermined number (NO in S82).

更に、評価部103は、人P1,P2,P3の各人による全ての意見について、予め定められた不要キーワード(例えば、今回の会議には無関係として予め定められている単語。或いは、「やってられない」等の予め定められた不適切な単語)を含む意見があるか否かを判断する(S83)。評価部103は、不要キーワードを含む意見があると判断した場合には(S83でYES)、不要キーワードを含む当該意見に対して付与する第2の評価ポイントの値を、予め定められた減算値(例えば、5ポイント)だけ減算した値(例えば、5ポイント)に設定する(S86)。評価部103は、不要キーワードを含む意見がない場合は、当該減算を行わない(S83でNO)。   Furthermore, the evaluation unit 103 determines a predetermined unnecessary keyword (for example, a word determined not to be related to the current meeting, or “do” for all opinions by the persons P1, P2, and P3. It is determined whether or not there is an opinion including a predetermined inappropriate word such as “I can't do it” (S83). If the evaluation unit 103 determines that there is an opinion including the unnecessary keyword (YES in S83), the value of the second evaluation point to be given to the opinion including the unnecessary keyword is set to a predetermined subtraction value. A value (for example, 5 points) subtracted by (for example, 5 points) is set (S86). If there is no opinion including an unnecessary keyword, the evaluation unit 103 does not perform the subtraction (NO in S83).

続いて、評価部103は、人P1,P2,P3の各人による全ての意見について、予め定められた重要キーワード(例えば、今回の会議において発言して欲しいとして予め定められた単語。例えば、画像形成装置の画像形成機構部分の開発についての会議である場合に、「帯電」「現像」「露光」等の単語)を含む意見があるか否かを判断する(S84)。   Subsequently, the evaluation unit 103 determines a predetermined important keyword (for example, a word that is desired to be spoken in the current meeting. For example, an image for all opinions by each of the persons P1, P2, and P3. If the conference is about the development of the image forming mechanism portion of the forming apparatus, it is determined whether or not there is an opinion including words such as “charging”, “development”, and “exposure” (S84).

評価部103は、重要キーワードを含む意見があると判断した場合には(S84でYES)、重要キーワードを含む当該意見に対して付与する第2の評価ポイントの値を、予め定められた加算値(例えば、5ポイント)だけ加算した値(例えば、15ポイント)に設定する(S88)。評価部103は、重要キーワードを含む意見がない場合は、当該加算を行わない(S84でNO)。   When the evaluation unit 103 determines that there is an opinion including the important keyword (YES in S84), the value of the second evaluation point to be given to the opinion including the important keyword is set as a predetermined added value. A value obtained by adding (for example, 5 points) (for example, 15 points) is set (S88). The evaluation unit 103 does not perform the addition when there is no opinion including the important keyword (NO in S84).

この後、評価部103は、上記加算又は/及び減算がされた第2の評価ポイントの値、或いは、第2の評価ポイントそのもの等、この時点で算出されている第2の評価ポイントを、各意見に対する第2の評価ポイントとして用いる。   Thereafter, the evaluation unit 103 adds the second evaluation points calculated at this time, such as the value of the second evaluation point subjected to the addition or / and subtraction, or the second evaluation point itself, Use as second evaluation point for opinion.

このような評価処理によれば、1つの意見の中で同じことを繰り返して多く述べており、役に立たないと想定される意見に対しては、第2の評価ポイントを付与しない低評価とし(S87)、不要な単語を発言しており、会議に対する貢献度が低いと想定される意見に対しては、第2の評価ポイントを減算することで評価を下げ(S86)、重要な単語を発言しており、会議に対する貢献度が高いと想定される意見に対しては、第2の評価ポイントに加算することで評価を上げる(S88)、といったように、意見の内容に応じた的確な評価内容を決定することが可能になる。   According to such an evaluation process, the same is repeated many times in one opinion, and a second evaluation point is not assigned to an opinion that is assumed to be useless (S87). ) For opinions that are unneeded words and are considered to have a low contribution to the meeting, the second evaluation point is subtracted to lower the evaluation (S86), and important words are remarked. For those opinions that are assumed to have a high degree of contribution to the conference, the evaluation content will be raised according to the content of the opinion, such as increasing the evaluation by adding to the second evaluation point (S88). Can be determined.

次に、上記のように評価ポイントを付与した後に、人P1,P2,P3の各人について評価レベルを判定する評価レベル判定処理の第1実施形態を説明する。図13は、人P1,P2,P3の各人について評価を行う評価レベル判定処理の第1実施形態を示すフローチャートである。   Next, a first embodiment of an evaluation level determination process for determining an evaluation level for each of the persons P1, P2, and P3 after assigning evaluation points as described above will be described. FIG. 13 is a flowchart showing a first embodiment of an evaluation level determination process for evaluating each of the persons P1, P2, and P3.

各人について評価レベルを判定する評価レベル判定処理としては、各人が行った意見に注目して行う方法を説明する。この場合、集計部104は、人P1,P2,P3の人毎に、各意見について付与された第2の評価ポイントを集計して合計値を算出する(S101)。   As an evaluation level determination process for determining the evaluation level for each person, a method will be described in which attention is paid to the opinions made by each person. In this case, the totaling unit 104 calculates the total value by totaling the second evaluation points given for each opinion for each of the persons P1, P2, and P3 (S101).

そして、評価部103は、集計部104によって集計された人毎の上記合計値のそれぞれについて、予め定められた第1意見評価値以上か否かを判断する(S102)。ここで、評価部103が、上記第1意見評価値未満である合計値があると判断した場合には(S102でNO)、意見について当該合計値を有する人に対する評価を第2の低レベルと判定する(S105)。この第2の低レベルとは、会議において、意見を行っていない人、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。   Then, the evaluation unit 103 determines whether or not each of the total values for each person counted by the counting unit 104 is equal to or greater than a predetermined first opinion evaluation value (S102). Here, when the evaluation unit 103 determines that there is a total value that is less than the first opinion evaluation value (NO in S102), the evaluation for the person who has the total value for the opinion is set to the second low level. Determination is made (S105). The second low level is a low evaluation level given to the person as a person who does not give an opinion or a person who approximates it at the meeting.

また、評価部103は、上記第1意見評価値以上の合計値があると判断した場合には(S102でYES)、更に、当該合計値が、上記第1意見評価値よりも大きい予め定められた第2意見評価値以上か否かを判断する(S103)。すなわち、当該第2意見評価値は、過度に多いと想定される意見の回数を示す値である。   Further, when the evaluation unit 103 determines that there is a total value equal to or greater than the first opinion evaluation value (YES in S102), the total value is determined in advance to be larger than the first opinion evaluation value. It is determined whether or not the second opinion evaluation value is exceeded (S103). That is, the second opinion evaluation value is a value indicating the number of opinions that are assumed to be excessive.

ここで、評価部103が、当該合計値が上記第2意見評価値以上であると判断した場合は(S103でYES)、意見について当該合計値を有する人に対する評価を第1の低レベルと判定する(S106)。この第1の低レベルとは、会議において、意見を行っているものの、意見の回数が過度に多くて会議に貢献していない人、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。   Here, when the evaluation unit 103 determines that the total value is equal to or higher than the second opinion evaluation value (YES in S103), the evaluation for the person who has the total value for the opinion is determined as the first low level. (S106). This first low level is a low evaluation given to the person as a person who gives opinions at the meeting but does not contribute to the meeting because of the excessive number of opinions, or a person who approximates it. Is a level.

一方、評価部103が、当該合計値が上記第2意見評価値未満であると判断した場合は(S103でNO)、意見について当該合計値を有する人に対する評価を第1の高レベルと判定する(S104)。この第1の高レベルとは、会議において、意見を適正な回数で行っており会議に貢献している人、或いは、それに近似する人として、当該人に与えられる高い評価レベルである。   On the other hand, when the evaluation unit 103 determines that the total value is less than the second opinion evaluation value (NO in S103), the evaluation for the person who has the total value for the opinion is determined as the first high level. (S104). The first high level is a high evaluation level given to the person as a person who contributes to the meeting or who approximates the opinion at an appropriate number of times in the meeting.

このような評価レベル判定処理によれば、当該意見を行った人の会議への貢献度を、意見を行った回数に応じて的確に判定することが可能になる。   According to such an evaluation level determination process, it is possible to accurately determine the degree of contribution of the person who made the opinion to the meeting according to the number of times the opinion was made.

次に、上記のように評価ポイントを付与した後に、人P1,P2,P3の各人について評価レベルを判定する評価レベル判定処理の第2実施形態を説明する。図14は、人P1,P2,P3の各人について評価を行う評価レベル判定処理の第2実施形態を示すフローチャートである。   Next, a second embodiment of an evaluation level determination process for determining an evaluation level for each of the persons P1, P2, and P3 after giving evaluation points as described above will be described. FIG. 14 is a flowchart showing a second embodiment of an evaluation level determination process for evaluating each of the persons P1, P2, and P3.

各人について評価レベルを判定する評価レベル判定処理として、各人が行った相槌に注目して行う方法を説明する。この場合、集計部104は、人P1,P2,P3の人毎に、各相槌について付与された第1の評価ポイントを集計して合計値を算出する(S201)。   As an evaluation level determination process for determining the evaluation level for each person, a method will be described which pays attention to the interaction performed by each person. In this case, the totaling unit 104 calculates the total value by summing up the first evaluation points given for each of the people P1, P2, and P3 (S201).

そして、評価部103は、集計部104によって集計された人毎の上記合計値のそれぞれについて、予め定められた第1相槌評価値以上か否かを判断する(S202)。ここで、評価部103が、上記第1相槌評価値未満の合計値があると判断した場合には(S202でNO)、相槌についての当該合計値を有する人に対する評価を第3の低レベルと判定する(S206)。この第3の低レベルとは、会議において、相槌を行っていない人(他人の意見を聞いていないと想定される人)、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。   Then, the evaluation unit 103 determines whether or not each of the total values for each person tabulated by the tabulation unit 104 is equal to or greater than a predetermined first conflict evaluation value (S202). Here, when the evaluation unit 103 determines that there is a total value less than the first consideration evaluation value (NO in S202), the evaluation with respect to the person having the total value regarding the consideration is set to the third low level. Determination is made (S206). This third low level is a low evaluation level that is given to the person as a person who is not in a meeting (a person who is assumed not to hear other people's opinions) or a person who approximates it. is there.

また、評価部103が、上記第1相槌評価値以上の合計値があると判断した場合には(S202でYES)、更に、当該合計値が、上記第1相槌評価値よりも大きい予め定められた第2相槌評価値以上か否かを判断する(S203)。   If the evaluation unit 103 determines that there is a total value equal to or greater than the first conflict evaluation value (YES in S202), the total value is determined in advance to be larger than the first conflict evaluation value. It is determined whether or not it is equal to or greater than the second evaluation value (S203).

ここで、評価部103は、当該合計値が上記第2相槌評価値未満であると判断した場合は(S203でNO)、相槌についての当該合計値を有する人に対する評価を予め定められた第2の高レベルと判定する(S208)。この第2の高レベルとは、会議において、相槌を適正な回数で行っており、他人の意見をよく聞く人、或いは、それに近似する人として、当該人に与えられる高い評価レベルである。   Here, when the evaluation unit 103 determines that the total value is less than the second consideration evaluation value (NO in S203), the evaluation unit 103 has a predetermined second evaluation for the person having the total value regarding the consideration. Is determined to be a high level (S208). The second high level is a high evaluation level given to the person as a person who has been meeting with the appropriate number of times in the meeting and who listens to the opinions of others well or who approximates them.

一方、評価部103は、当該合計値が上記第2相槌評価値以上であると判断した場合(S203でYES)、更に、集計部104が、人P1,P2,P3の人毎に、各意見について付与された第2の評価ポイントを集計して意見についての合計値を算出し、評価部103は、当該意見についての合計値が、上述した第1意見評価値以上であるか否かを判断する(S204)。   On the other hand, when the evaluation unit 103 determines that the total value is equal to or greater than the second conflict evaluation value (YES in S203), the counting unit 104 further determines each opinion for each person P1, P2, P3. The total evaluation value is calculated by summing up the second evaluation points assigned to the evaluation points, and the evaluation unit 103 determines whether or not the total value for the opinion is equal to or greater than the first opinion evaluation value described above. (S204).

ここで、評価部103が、当該意見についての合計値が上記第1意見評価値未満であると判断した場合は(S204でNO)、当該意見についての合計値を有する人に対する評価を第4の低レベルと判定する(S205)。この第4の低レベルとは、会議において、相槌を行っているものの、相槌の回数が多すぎて会議において意見を余りしていない人、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。   Here, if the evaluation unit 103 determines that the total value for the opinion is less than the first opinion evaluation value (NO in S204), the evaluation for the person who has the total value for the opinion is the fourth evaluation. It is determined that the level is low (S205). The fourth low level is a low level given to the person as a person who has a meeting in the meeting but has too many meetings and does not have much opinions in the meeting, or a person who approximates it. Evaluation level.

また、評価部103が、当該意見についての合計値が上記第1意見評価値以上であると判断した場合は(S204でYES)、当該意見についての合計値を有する人に対する評価を第3の高レベルと判定する(S207)。この第3の高レベルとは、会議において、相槌の回数が多すぎるが、意見を多く行っており会議に貢献している人、或いは、それに近似する人として、当該人に与えられる高い評価レベルである。   In addition, when the evaluation unit 103 determines that the total value for the opinion is equal to or greater than the first opinion evaluation value (YES in S204), the evaluation for the person who has the total value for the opinion is evaluated as the third high value. The level is determined (S207). This third high level is a high evaluation level that is given to the person as a person who contributes to the meeting because he has a lot of opinions but contributes to the meeting or who approximates it. It is.

このような評価レベル判定処理によれば、当該相槌を行った人の会議への貢献度を、相槌を行った回数や意見を行った回数に応じて的確に判定することが可能になる。   According to such an evaluation level determination process, it is possible to accurately determine the degree of contribution to the meeting of the person who has made the relevant consultation according to the number of times of having given the opinion and the number of times of having given an opinion.

次に、上記のように評価ポイントを付与した後に、人P1,P2,P3の各人について評価レベルを判定する評価レベル判定処理の第3実施形態を説明する。図15は、人P1,P2,P3の各人について評価を行う評価レベル判定処理の第3実施形態を示すフローチャートである。   Next, a third embodiment of an evaluation level determination process for determining an evaluation level for each of the persons P1, P2, and P3 after assigning evaluation points as described above will be described. FIG. 15 is a flowchart showing a third embodiment of an evaluation level determination process for evaluating each of the persons P1, P2, and P3.

各人について評価レベルを判定する評価レベル判定を、各人が行った相槌及び意見に対して付与された評価ポイントの合計値に注目して行う処理を説明する。   Processing for performing evaluation level determination for determining the evaluation level for each person by paying attention to the total value of evaluation points given to the opinions and opinions performed by each person will be described.

この場合、集計部104は、人P1,P2,P3の人毎に、相槌及び意見に対して付与された評価ポイントの合計値を算出する(S301)。なお、集計部104は、上記各実施形態において相槌及び意見に対して付与されるいずれの評価ポイントであっても、当該合計値として算出することが可能である。   In this case, the totaling unit 104 calculates the total value of the evaluation points given to the opinions and opinions for each of the people P1, P2, and P3 (S301). Note that the totaling unit 104 can calculate the total value for any evaluation point given to the opinion and opinion in each of the above embodiments.

続いて、評価部103は、当該合計値が、予め定められた総合評価値以上か否かを判断する(S302)。この総合評価値は、各人が会議に貢献しているか否かを判断するために予め定められた値である。例えば、10分の会議で50ポイントが総合評価値として用いられる。   Subsequently, the evaluation unit 103 determines whether or not the total value is equal to or greater than a predetermined comprehensive evaluation value (S302). This comprehensive evaluation value is a predetermined value for determining whether or not each person contributes to the conference. For example, 50 points are used as a comprehensive evaluation value in a 10-minute meeting.

ここで、評価部103が、当該意見についての合計値が上記総合評価値以上であると判断した場合は(S302でYES)、当該総合評価値を有する人に対する総合評価を予め定められた高水準レベルと判定する(S303)。この高水準レベルとは、会議において、相槌や意見を適度に行っており、会議に貢献している人、或いは、それに近似する人として、当該人に与えられる高評価である。   Here, when the evaluation unit 103 determines that the total value of the opinion is equal to or greater than the comprehensive evaluation value (YES in S302), the comprehensive evaluation for the person having the comprehensive evaluation value is set to a predetermined high level. The level is determined (S303). This high-level level is a high evaluation given to the person as a person who contributes to the meeting or who approximates the person who has moderately given opinions and opinions at the meeting.

一方、評価部103が、当該意見についての合計値が上記総合評価値未満であると判断した場合は(S302でNO)、当該総合評価値を有する人に対する総合評価を予め定められた一般レベルと判定する(S304)。この一般レベルとは、上記高水準レベルの人ほどには会議に貢献していない人、或いは、それに近似する人として、当該人に与えられる評価である。   On the other hand, if the evaluation unit 103 determines that the total value for the opinion is less than the total evaluation value (NO in S302), the general evaluation for the person having the total evaluation value is set to a predetermined general level. Determination is made (S304). The general level is an evaluation given to the person as a person who does not contribute to the meeting as much as the person at the high level or a person who approximates the person.

続いて、評価部103は、人P1,P2,P3の人毎に算出された上記評価ポイントの合計値をグラフ化した画像を作成する(S305)。制御部100は、当該作成された画像を表示部115に表示させる(S306)。   Subsequently, the evaluation unit 103 creates an image in which the total value of the evaluation points calculated for each of the persons P1, P2, and P3 is graphed (S305). The control unit 100 displays the created image on the display unit 115 (S306).

図16は、評価部103によって作成された、上記評価ポイントの合計値をグラフ化した画像の例を示す図である。図16に示す画像は、横軸を時刻(時間経過)、縦軸を各人のポイント割合(縦方向において各人のポイントを示す幅をポイント割合に応じた幅とする)として、評価部103により作成されている。当該ポイント割合とは、人毎に算出された上記評価ポイントの合計値を合算した合算値に対する、各人の合計値の割合である。   FIG. 16 is a diagram illustrating an example of an image created by the evaluation unit 103 and graphed with the total value of the evaluation points. In the image shown in FIG. 16, the horizontal axis represents time (elapsed time), and the vertical axis represents each person's point ratio (the width indicating each person's point in the vertical direction is a width corresponding to the point ratio). It is created by. The said point ratio is a ratio of the total value of each person with respect to the total value which totaled the total value of the said evaluation point calculated for every person.

図16に示す画像によれば、時間経過に沿って、人P1,P2,P3の各人による会議に対する貢献度、及び当該貢献度の割合の時系列的変化をユーザーに視覚的に把握させることが可能になる。例えば、会議開始当初の10分経過時点では、人P1、人P2、人P3の順に貢献度が高いが、15分経過時点あたりから人P2の貢献度がもっとも高くなり、会議終了時の60分経過時には、人P1、人P2、人P3の貢献度はほぼ同じになっていることを把握することができる。   According to the image shown in FIG. 16, the user can visually grasp the contribution degree of each person P1, P2, P3 to the meeting and the time-series change in the contribution ratio over time. Is possible. For example, at the time when 10 minutes have passed since the start of the conference, the contribution rate is higher in the order of person P1, person P2, and person P3, but the contribution rate of person P2 is the highest since about 15 minutes, and 60 minutes at the end of the meeting. It can be understood that the contributions of the person P1, the person P2, and the person P3 are substantially the same at the time.

また、上記実施形態では、図1乃至図16を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。例えば、情報処理装置1としては、少なくとも図2に示す構成と同様の構成を備える画像形成装置の他、図2に示す構成を備えるパーソナルコンピューターや通信端末装置等の情報処理装置を本発明に適用することができる。   Moreover, in the said embodiment, the structure and process which were shown by the said embodiment using FIG. 1 thru | or FIG. 16 are only one Embodiment of this invention, and are not the meaning which limits this invention to the said structure and process. For example, as the information processing apparatus 1, an information processing apparatus such as a personal computer or a communication terminal apparatus having the configuration shown in FIG. 2 as well as an image forming apparatus having the same configuration as that shown in FIG. 2 is applied to the present invention. can do.

1 情報処理装置
2 ヘッドセット
10 制御ユニット
100 制御部
101 発言時間検出部
102 相槌・意見判定部
103 評価部
104 集計部
115 表示部
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Headset 10 Control unit 100 Control part 101 Speech time detection part 102 Conflict and opinion determination part 103 Evaluation part 104 Total part 115 Display part

Claims (5)

外部とのデータ通信を行う通信インターフェイスと、
前記通信インターフェイスを介して取得された複数人の音声データから、人の各発言を抽出し、抽出された各発言についての発言時間を各人について別個に検出する発言時間検出部と、
前記発言時間検出部によって検出された前記各人の前記発言時間が、予め定められた第1の時間内であるか否かを判断し、前記第1の時間内の発言を相槌と判定し、前記第1の時間よりも長い予め定められた第2の時間でされた発言を意見と判定し、前記人毎に、前記意見の内容をテキスト化する相槌・意見判定部と、
前記相槌・意見判定部によって判定された、前記発言が相槌又は意見のいずれであるかの結果を前記各人それぞれに記憶する結果記憶部と、
前記結果記憶部に記憶されている前記各人の結果毎に、前記相槌に対して予め定められた第1の評価ポイントを付与し、前記意見に対して前記第1の評価ポイントとは異なる予め定められた第2の評価ポイントを付与する評価部と、
前記評価部によって付与された前記第1及び第2の評価ポイントを前記各人それぞれに集計し、前記各人それぞれの集計結果をグラフ化した画像データを作成する集計部と、を備え、
前記評価部は、前記相槌・意見判定部によってテキスト化された前記意見に、予め定められた重要キーワードを検出したときは、当該意見に対しては、前記第2の評価ポイントを予め定められた加算値だけ加算して付与し、予め定められた不要キーワードを検出したときは、当該意見に対しては、前記第2の評価ポイントを予め定められた減算値だけ減算して付与し、
前記評価部は、前記付与した前記第1の評価ポイントを前記各人それぞれに集計し、当該集計の示すポイントが、予め定められた第1相槌評価値以上である場合には、当該人の評価レベルを、予め定められた第1の高レベルと判定し、前記付与した前記第2の評価ポイントを前記各人それぞれに集計し、当該集計の示すポイントが、予め定められた第1意見評価値以上である場合には、当該人の評価レベルを、予め定められた第2の高レベルと判定する情報処理装置。
A communication interface for data communication with the outside,
A speech time detection unit that extracts each speech of a person from voice data of a plurality of persons acquired via the communication interface, and separately detects the speech time for each extracted speech;
Determining whether the speech time of each person detected by the speech time detection unit is within a predetermined first time, determining a speech within the first time as a conflict, An opinion / determination determination unit that determines a comment made at a predetermined second time longer than the first time as an opinion, and converts the content of the opinion into text for each person,
A result storage unit that stores the result of whether the remark is either a reconciliation or an opinion determined by the reconciliation / opinion determination unit;
For each person's result stored in the result storage unit, a predetermined first evaluation point is given to the conflict, and the opinion is different from the first evaluation point in advance. An evaluation unit for granting a predetermined second evaluation point;
A totaling unit that totalizes each of the first and second evaluation points given by the evaluation unit and creates image data in which the totaling result of each person is graphed, and
When the evaluation unit detects a predetermined important keyword in the opinion converted into text by the conflict / opinion determination unit, the second evaluation point is determined in advance for the opinion When adding and adding only the addition value and detecting a predetermined unnecessary keyword, the second evaluation point is subtracted by a predetermined subtraction value and given to the opinion,
The evaluation unit totals the assigned first evaluation points for each person, and when the point indicated by the total is equal to or higher than a predetermined first conflict evaluation value, the evaluation of the person is performed. The level is determined to be a predetermined first high level, the assigned second evaluation points are totaled for each of the persons, and the point indicated by the total is a predetermined first opinion evaluation value When it is above, the information processing apparatus which determines the said person's evaluation level as the 2nd predetermined high level.
前記評価部は、前記結果記憶部に記憶されている前記各人の結果に基づいて、前記各人それぞれに、前記意見についての前記第2の評価ポイントの集計が、前記第1意見評価値よりも大きい予め定められた第2意見評価値以上であるという条件を満たすか否かを判断し、当該条件を満たすと判断した場合には、当該人の評価レベルを、予め定められた第1の低レベルと判定する請求項1に記載の情報処理装置。   Based on the result of each person stored in the result storage unit, the evaluation unit calculates the second evaluation point for the opinion based on the result of each person based on the first opinion evaluation value. Is greater than a predetermined second opinion evaluation value, and if it is determined that the condition is satisfied, the evaluation level of the person is set to a predetermined first level. The information processing apparatus according to claim 1, wherein the information processing apparatus determines that the level is low. 前記評価部は、前記結果記憶部に記憶されている前記各人の結果に基づいて、前記人毎に、前記相槌についての前記第1の評価ポイントの集計が、前記第1相槌評価値よりも小さいと判断した場合には、当該人の評価レベルを、予め定められた第3の低レベルと判定する請求項1又は請求項2に記載の情報処理装置。   The evaluation unit, for each person, based on the result of each person stored in the result storage unit, the total of the first evaluation points for the interaction is greater than the first interaction evaluation value. The information processing apparatus according to claim 1 or 2, wherein when the determination is small, the person's evaluation level is determined to be a predetermined third low level. 前記評価部は、前記結果記憶部に記憶されている前記各人の結果に基づいて、前記人毎に、前記相槌についての前記第1の評価ポイントの集計が、前記第1の値よりも大きい予め定められた第2相槌評価値以上であり、前記意見についての前記第2の評価ポイントの集計が、前記第1意見評価値以上という条件を満たすか否かを判断し、当該条件を満たす場合には、当該人の評価レベルを、予め定められた第3の高レベルと判定する請求項1乃至請求項3のいずれかに記載の情報処理装置。   The evaluation unit, for each person, based on the result of each person stored in the result storage unit, the total of the first evaluation points for the conflict is greater than the first value. When it is equal to or higher than a predetermined second opinion evaluation value, and it is determined whether or not the aggregation of the second evaluation point for the opinion satisfies the condition that the first opinion evaluation value or more satisfies the condition The information processing apparatus according to claim 1, wherein the person's evaluation level is determined to be a predetermined third high level. 前記評価部は、前記相槌・意見判定部によってテキスト化された前記意見に、同一のキーワードを予め定められた数以上検出したときは、当該意見に対しては、前記第2の評価ポイントを付与しない請求項1乃至請求項4のいずれかに記載の情報処理装置。   When the evaluation unit detects a predetermined number or more of the same keywords in the opinion converted into text by the conflict / opinion determination unit, the evaluation unit gives the second evaluation point to the opinion The information processing apparatus according to any one of claims 1 to 4.
JP2018066136A 2018-03-29 2018-03-29 Information processing apparatus Pending JP2019174768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018066136A JP2019174768A (en) 2018-03-29 2018-03-29 Information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018066136A JP2019174768A (en) 2018-03-29 2018-03-29 Information processing apparatus

Publications (1)

Publication Number Publication Date
JP2019174768A true JP2019174768A (en) 2019-10-10

Family

ID=68168778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018066136A Pending JP2019174768A (en) 2018-03-29 2018-03-29 Information processing apparatus

Country Status (1)

Country Link
JP (1) JP2019174768A (en)

Similar Documents

Publication Publication Date Title
CN111508474A (en) Voice interruption method, electronic equipment and storage device
JP2019148852A (en) System for determining degree of understanding and program for determining degree of understanding
CN106486134B (en) Language state determination device and method
JP6213476B2 (en) Dissatisfied conversation determination device and dissatisfied conversation determination method
JP2017010309A (en) Decision-making support apparatus and decision-making method
JP2018169506A (en) Conversation satisfaction degree estimation device, voice processing device and conversation satisfaction degree estimation method
KR102183280B1 (en) Electronic apparatus based on recurrent neural network of attention using multimodal data and operating method thereof
CN108536668A (en) Wake-up word evaluation method and device, storage medium and electronic equipment
JP7407190B2 (en) Speech analysis device, speech analysis method and program
JP7098949B2 (en) Information processing equipment and information processing programs
WO2019187397A1 (en) Information processing device
JP6672114B2 (en) Conversation member optimization device, conversation member optimization method and program
JP2010176544A (en) Conference support device
JP5136512B2 (en) Response generating apparatus and program
JP2016157388A (en) Communication skill evaluation feedback device, communication skill evaluation feedback method and communication skill evaluation feedback program
JP2019174768A (en) Information processing apparatus
US11404064B2 (en) Information processing apparatus and speech analysis method
WO2019130816A1 (en) Information processing device and evaluation method
JP7062966B2 (en) Voice analyzer, voice analysis system, and program
KR20230114196A (en) Sentiment analysis method and emotion analysis device
JP2019175382A (en) Information processing device
CN117688344B (en) Multi-mode fine granularity trend analysis method and system based on large model
CN110660412A (en) Emotion guiding method and device and terminal equipment
CN115379259B (en) Video processing method, device, electronic equipment and storage medium
Moriya et al. Estimation of conversational activation level during video chat using turn-taking information.