JP2018045364A - 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム - Google Patents
会話メンバー最適化装置、会話メンバー最適化方法およびプログラム Download PDFInfo
- Publication number
- JP2018045364A JP2018045364A JP2016178532A JP2016178532A JP2018045364A JP 2018045364 A JP2018045364 A JP 2018045364A JP 2016178532 A JP2016178532 A JP 2016178532A JP 2016178532 A JP2016178532 A JP 2016178532A JP 2018045364 A JP2018045364 A JP 2018045364A
- Authority
- JP
- Japan
- Prior art keywords
- members
- conference
- held
- conversation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000005457 optimization Methods 0.000 title claims abstract description 22
- 238000004458 analytical method Methods 0.000 claims abstract description 52
- 230000005236 sound signal Effects 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims description 93
- 230000000694 effects Effects 0.000 claims description 56
- 238000010187 selection method Methods 0.000 claims description 5
- 238000013500 data storage Methods 0.000 description 45
- 239000013598 vector Substances 0.000 description 39
- 238000001514 detection method Methods 0.000 description 24
- 238000003860 storage Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000000926 separation method Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 7
- 230000004807 localization Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
- G06Q10/063114—Status monitoring or status determination for a person or group
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L15/222—Barge in, i.e. overridable guidance for interrupting prompts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06315—Needs-based resource requirements planning or analysis
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Educational Administration (AREA)
- Probability & Statistics with Applications (AREA)
- Telephonic Communication Services (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
まず、会話メンバー最適化装置の概要を説明する。
会話メンバー最適化装置は、過去に開催された会議の音声信号を取得し、取得した音声信号を認識、解析することで、会議の会話内容を解析する。また、会話メンバー最適化装置は、会議にどのメンバーが参加しているときに発言量が多くなるか解析し、会議に参加しているメンバーにおいて、誰の後に誰が割り込んで発言しているかを解析し、誰の後で誰が発言しているか解析する。そして、会話メンバー最適化装置は、解析した結果のうち少なくとも1つに基づいて、これから開催される会議に参加させるメンバーを選択する。これにより、会話メンバー最適化装置は、活発な議論が行われるメンバーを選択することができる。
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、実施形態に係る会話メンバー最適化装置1の構成を示すブロック図である。
図1に示すように会話メンバー最適化装置1は、取得部10、音声解析部20、操作情報取得部30、会議データ記憶部40、会話解析部50、推定部60、記憶部70、およびメンバー選択部80を備える。また、会話メンバー最適化装置1には、操作部2および出力装置3が接続される。
音声解析部20は、取得部10が出力するPチャネルの音声信号に基づいて、会議毎の音声認識された結果を、会議データ記憶部40に記憶する。会議毎の音声認識された結果には、例えば、会議が行われた日時、会議名、話者であるメンバー毎の発話内容(テキスト形式)、メンバー毎かつ発話毎の発話開始時間と発話終了時間、会議に参加したメンバーを示す情報等が含まれる。
音声認識部205は、音源、即ち、話者ごとに生成したテキストデータと発言区間データとを各話者の発言区間ごとに対応付けて会話データを生成する。音声認識部205は、話者ごとに生成した会話データを会議データ記憶部40に記憶する。
会話解析部50は、会議データ記憶部40が記憶する音声認識された結果に基づいて、会議毎に、会議に参加しているメンバー(話者)の人数とメンバーの名前、会議にかかった時間、メンバー毎の1時間あたりの発話時間である発話量等を解析する。会話解析部50は、解析した結果を会議解析記録として会議データ記憶部40に記憶させる。
推定部60は、条件付き発話量、割り込み行列、および活性度確率(ターンテイク確率)のうち少なくとも1つを推定し、推定した結果を記憶部70に記憶させる。なお、推定部60は、条件付き発言量推定部601、割込行列推定部602、および活性度確率推定部603のうち、推定する内容に対応する機能部を、少なくとも1つを備えていればよい。
割込行列記憶部702は、会議に参加可能なメンバーの割込行列を記憶する。
活性度確率記憶部703は、会議に参加可能なメンバー毎の活性度確率を記憶する。
次に、会議データ記憶部40が記憶する情報の一例を説明する。
図2は、実施形態に係る会議データ記憶部40が記憶する開催される会議に参加可能なメンバーを示す情報の一例を示す図である。図2に示すように、会議データ記憶部40は、開催される会議に参加可能なメンバーを示す情報を記憶する。図2示す例では、メンバーの情報として、識別番号に所属情報が関連付けられて記憶されている。なお、図2に示した例は、メンバーを示す情報の例として識別番号の例を示したが、識別番号の代わりに社員番号、名前等であってもよい。
次に、実施形態で用いる開催される会議に参加するメンバーの選択に用いる要素を説明、定義する。
I.開催される会議に参加可能なメンバーの総数をN(ただし、Nは2以上の整数)とする。
会議に参加するメンバーを、長さNのバイナリベクトルgで表し、次式(1)のように、第iメンバーに含まれる場合のgの第i成分g(i)を1とし、その他場合のgの第i成分g(i)を0とする。なお、Rは、1以上の実数である。
2つのメンバーベクトルから、メンバーの構成の近さを算出する。例えばg1、g2の間のメンバーベクトル間類似度d(g1、g2)は、次式(2)のように表される。
VIII.開催される会議tにおけるメンバーベクトルgtの発言量a− tを条件付き発言量と定義する。
過去の会議のメンバーベクトルgsと、そのときの発言量asのペアS件から、推定する。会議に参加するメンバーの構成が、ターゲットと近いほど条件付き発言量a− tに近い発言量になると期待されるため、メンバーベクトル間の類似度で重み付けした平均によって、条件付き発言量a− tを推定する。
ここで、重みwsは、次式(6)のように定義する。
IX.割り込み量oi(n),i(n+1)(nは1以上の整数)を、1時間あたりのメンバーi(n)からi(n+1)への割り込み回数であると定義する。
X.全メンバー(M人)におけるメンバー同士の割り込み量を表す行列を割込行列Os∈RM×Mを、割込行列Os(i(n),i(n+1))と定義する。
割り込み行列Osを、そのまま推定するための行列(以下、推定行列という)Os’として使用する。
Os’=Os
次式(9)のように、推定行列Os’∈RM×Mを構成する。
一方、それに含まれないメンバーについては、対応する値が存在しないので、替わりに過去の会議における全メンバーの全割り込み量の平均値o−を割り当てる。
これにより、割込行列推定部602は、推定行列Os’のサンプルがS個生成できるので、次式(10)のように、メンバーベクトルとの類似度dを用いた重み付き和を算出することで、ターゲットの割り込み行列O− tを求める。
図4は、実施形態に係る割り込み行列の例を示す図である。
画像fg1は、割り込み行列における割り込み回数と割り込まれ回数を説明する図である。画像fg1に示すように、割り込み行列において、行方向がメンバー毎の割り込み回数を表し、列方向がメンバー毎の割り込まれ回数を表している。
また、画像fg2は、割り込み行列の要素を説明する図である。画像fg2に示すように、メンバー自身への割り込みはできないため、対角成分は0である。また、一例として、1行目3列目の要素3は、第1メンバーから第3メンバーへの割り込み回数が3回であることを表している。また、n行目1列目の要素1は、第1メンバーが第nメンバーから割り込まれた回数が3回であることを表している。
X.メンバーi(n)からメンバーi(n+1)へターンが移行する(メンバーi(n)の発言の開始後に他のメンバーより早くメンバーi(n+1)が発言を開始する)確率を、活性度確率(ターンテイク確率)qi(n),i(n+1)と定義する。なお、開催される会議に参加した全メンバーの活性度確率の和(Σi∈全メンバーqi(n),i(n+1))は、1であるように正規化する。
XI.活性度確率qi(n),i(n+1)から、開催される会議に参加した全メンバー同士の活性度確率を表すターンテイク行列Qs∈RM×Mを、Qs(i(n),i(n+1))=qi(n),i(n+1)と定義する。
ターンテイク行列Qsを、そのまま推定行列Qs’として使用する。
Qs’=Qs
次式(11)のように、推定行列Qs’∈RM×Mを構成する。
一方、それに含まれないメンバーについては、対応する値が存在しないので、替わりに過去の会議における全メンバーの全割り込み量の平均値q−を割り当てる。
これにより、活性度確率推定部603は、推定行列Qs’のサンプルがS個生成できるので、次式(12)のように、メンバーベクトルとの類似度dを用いた重み付き和を算出することで、ターゲットのターンテイク行列Q− t ’を求める。
第1実施形態では、会話メンバー最適化装置1が、条件付き発言量の推定結果に基づいて、開催される会議に参加するメンバーを選択する例を説明する。
なお、会話メンバー最適化装置1の構成は、図1に示した構成である。
すなわち、条件付き発言量推定部601は、ID7、ID8、ID9に、ID1〜ID6のうち1人を加えた時の条件付き発言量それぞれを算出する。図5に示す例では、条件付き発言量それぞれは、0.6、0.8、0.2、0.1、0.3、0.5である。例えば、以下のように計算する。参加者A、B、Cがいる場合、([AのB、Cが居る場合の発言量]+[BのA、Cが居る場合の発言量]+[CのA、Bが居る場合の発言量])/3で求める。
まず、条件付き発言量推定部601は、ID7、ID8、ID9、ID1が参加した会議の解析結果を会議データ記憶部40から抽出する。
次に、条件付き発言量推定部601は、ID7、ID8、ID9、ID1それぞれの1つの会議あたりの1時間あたりの発言回数を会議データ記憶部40から読み出す。ID7、ID8、ID9、ID1が参加した会議が例えば5つあった場合、この5つの会議における各メンバーの平均発言量a、メンバーベクトルg、メンバーベクトル間の類似度dを用いて、式(8)によって、ID1〜ID6が参加した場合の条件付き発言量それぞれを算出する。
次に、メンバー選択部80は、ID7、ID8、ID9、ID2以外の残りの1名を加えた場合の条件付き発言量を推定する推定指示を条件付き発言量推定部601に出力する。
すなわち、条件付き発言量推定部601は、ID7、ID8、ID、ID2に、ID1、ID3〜ID6のうち1人を加えた時の条件付き発言量それぞれを算出する。図5に示す例では、条件付き発言量それぞれは、0.1、0.2、0.3、0.9、0.5である。
なお、図5に示した条件付き発言量の値は、説明を簡便にするために用いた値である。
図6は、本実施形態に係る開催される会議に参加するメンバーの選択処理のフローチャートである。
これにより、利用者は、開催される会議に参加するメンバーの中で、急用等によって参加できないメンバーが発生した場合であっても、代わりのメンバーを選択することができる。このように、会話メンバー最適化装置1は、会議に参加するメンバーの第1候補のみではなく、第2候補、第3候補、・・・も提供することができる。
また、本実施形態によれば、開催される会議に参加するメンバーのうち、数人(1人以上)を予め決定し、残りのメンバーを逐次1人ずつ選択するようにしたので、演算量を削減することができる。
第2実施形態では、特徴量である、発言量、割り込み、活性度(ターンテイク)に基づいて、この3つの特徴量に対して利用者からの指示に応じた重みを用いて開催されるメンバーを選択する例を説明する。
なお、会話メンバー最適化装置1の構成は、図1に示した構成である。
まず、本実施形態で用いる支配関係グラフについて説明する。
図7は、本実施形態に係る支配関係グラフの例を示す図である。なお、図7において、i1〜i6は、会議に参加するメンバーを表している。また、画像fg101〜画像fg104それぞれは、支配関係グラフの例である。
本実施形態では、支配関係グラフ推定部604が、開催された会議における発言の割り込み回数に基づいて、支配関係グラフを推定する。
図8は、本実施形態に係る支配関係グラフの生成の一例を示す図である。図8において、符号A〜Cは、メンバーでありグラフにおけるノードでもある。また、エッジe201〜e202は、グラフにおけるエッジである。
また、符号fg202に示すように、支配関係グラフ推定部604は、メンバーBからメンバーCへの割り込み回数が、メンバーCからメンバーBへの割り込み回数より多いが、その差が所定の値tより小さい場合に、エッジe202を生成しない。
支配関係グラフ推定部604は、利用者が支配関係グラフを指定した場合、指定された構造と近いか否かを判別する。例えば、利用者が1人支配者型を指示した場合、支配関係グラフ推定部604は、選択したメンバーによる支配関係グラフを推定して、1人支配者型に近い構造であれば1人支配者型であると判別し、その他の場合に1人支配者型ではないと判別する。
このように、本実施形態では、利用者、例えば会議の主催者やリーダーが、開催される会議に求める支配関係を指定し、その支配関係に近く、かつ発言が活発になるメンバーを選択することができる。
図9は、本実施形態に係る支配関係グラフの型の識別手順のフローチャートである。
(ステップS109)支配関係グラフ推定部604は、推定したグラフを「その他の型」であると識別する。支配関係グラフ推定部604は、識別後、処理を終了する。
次に、本実施形態における開催される会議のメンバーを選択する方法の例を説明する。
利用者は、3つの特徴量(発話量、割り込み、ターンテイク)のうち、どれを重視するか、例えば比率で操作部2を操作して入力する。
また、利用者は、第1実施形態と同様に、開催される会議に参加するメンバーの総数と、決定メンバーを、操作部2を操作して入力する。
さらに利用者は、支配関係グラフを指定したい場合、指定したい支配関係グラフを示す情報を、操作部2を操作して入力する。
また、利用者は、開催される会議に参加させたくないメンバー(除外メンバー)がある場合、除外メンバーを示す情報(名前、識別番号、社員番号等)を、操作部2を操作して入力する。
操作部2は、入力された操作情報を、操作情報取得部30に出力する。操作情報取得部30は、取得した操作情報を、メンバー選択部80に出力する。
I.メンバー選択部80は、どの要素を重視するかに応じて、重み(wa,wo,wqo)の割合を設定する。
ここで、重みwaは発言量に対する重みであり、重みwoは割り込みに対する重みであり、重みwqoはターンテイクに対する重みである。
(例1)割り込みを最小にしたい場合;
(例1)全体の活性度確率を一様にしたい場合;
メンバー選択部80は、開催される会議に参加するメンバーのうち、決定メンバー以外の残りのメンバーを、以下の手順で選択する。なお、以下の処理において、決定メンバーが少なくとも1人はいるとする。
(ステップS201)メンバー選択部80は、上述したパラメータ(重み、割り込み行列Oをスカラーに変換する関数f0(O)、ターンテイク行列Qをスカラーに変換する関数fq(Q))を設定する。
(ステップS204)支配関係グラフ推定部604は、決定メンバー以外かつ除外メンバー以外のメンバーを1人、仮に選択する。
(ステップS207)メンバー選択部80は、算出したメンバーベクトルgt (1)(i)から、条件付き発言量a− t、割り込み行列O− t、および活性度確率Q− tを算出する。
(ステップS7、S8)メンバー選択部80は、ステップS7、S8の処理を行う。
図11は、本実施形態に係る条件付き発話量のみを用いてメンバーを選択する例を示す図である。
図11に示す例では、開催される会議に参加するメンバーの総数が5人であり、決定メンバーが3人(ID7〜ID9)であり、利用者が指示した支配関係グラフが1人支配者型の例である。また、選択可能なメンバーの識別番号が、ID1〜ID6の6人であるとする。
推定部60とメンバー選択部80は、このような処理を、2人(=5−3)が埋まるまで繰り返す。
また、本実施形態によれば、利用者の指示に応じて、発言量、割り込み、ターンテイクに対して重視したい項目に重み付けしてメンバーを選択することができるので、会議に最適なメンバーを選択することができる。
また、本実施形態によれば、利用者の指示に応じて、発言量、割り込み、ターンテイクのうち少なくとも1つを重視してメンバーを選択することができるので、会議に最適なメンバーを選択することができる。
なお、ターンテイクを大きくすることができるメンバーを選択することで、会話のキャッチボールが活発になる。
第3実施形態では、特徴量である、発言量、割り込み、活性度(ターンテイク)に基づいて、この3つの特徴量に対して利用者からの指示に応じた重みを用いずに開催されるメンバーを選択する例を説明する。
なお、会話メンバー最適化装置1の構成は、図1に示した構成である。
推定部60とメンバー選択部80は、算出した各値が、所定の閾値より大きいメンバーを選択する。なお、条件付き発言量、割込行列、活性度確率の選択結果が異なる場合、例えば、閾値と算出した値との差分が一番大きくなるメンバーを選択するようにしてもよい。または、条件付き発言量、割込行列、活性度確率の選択結果が異なる場合、一巡目で、3人の候補メンバーを選択するようにしてもよい。
推定部60とメンバー選択部80は、一巡目と同様に、算出した各値が、所定の閾値より大きいメンバーを選択する。
(ステップS301)メンバー選択部80は、パラメータ(割り込み行列Oをスカラーに変換する関数f0(O)、ターンテイク行列Qをスカラーに変換する関数fq(Q))を設定する。
以下、推定部60とメンバー選択部80は、ステップS4〜ステップS311の処理を、開催する会議のメンバーが選択されるまで、または選択に失敗するまで繰り返すことで、メンバーを選択する。
(ステップS305)条件付き発言量推定部601は、決定メンバーに仮に選択したメンバーを加えた場合の条件付き発言量a− tが第1の閾値以上となるメンバーを選択する。
(ステップS307)割込行列推定部602は、決定メンバーに仮に選択したメンバーを加えた場合の割り込み行列O− tをスカラー化した値が第2の閾値以上となるメンバーを選択する。
(ステップS309)活性度確率推定部603は、決定メンバーに仮に選択したメンバーを加えた場合の活性度確率Q− tをスカラー化した値が第3の閾値以上となるメンバーを選択する。
Claims (10)
- 過去に開催された複数の会議の音声信号を会議毎に認識して、会議の会話を会議毎に解析する会話解析部と、
前記会話解析部が解析した結果に基づいて、かつこれから開催される会議に参加するメンバーを選択するメンバー選択指示に応じて、前記開催される会議に参加する前記メンバーの組み合わせにおける特徴量を推定する推定部と、
前記推定部が推定した結果に基づいて、前記メンバーを選択するメンバー選択部と、
を備える会話メンバー最適化装置。 - 会議に参加する前記メンバー間の支配関係を示す型を記憶し、
前記メンバー選択部は、所望の型に合うように前記メンバーを選定する、請求項1に記載の会話メンバー最適化装置。 - 前記特徴量は、
一のメンバーと他のメンバーとの組み合わせよる発話量である条件付き発言量、
一のメンバーの後で他のメンバーが割り込んで発言しているかを示す割り込み行列、
一のメンバーの後で他のメンバーが発話をしている確率である活性度確率、のうち少なくとも1つである請求項1または請求項2に記載の会話メンバー最適化装置。 - 前記メンバー選択指示は、
前記開催される会議の参加メンバーの総数と、前記開催される会議の参加メンバーのうち少なくとも1人の予め参加が決定しているメンバーを示す決情報を含む、請求項1から請求項3のいずれか1項に記載の会話メンバー最適化装置。 - 前記メンバー選択指示は、
前記開催される会議の参加メンバーの総数と、前記開催される会議の参加メンバーのうち少なくとも1人の予め参加が決定しているメンバーを示す決情報を含み、
前記予め参加が決定しているメンバー以外のメンバーが選択可能なメンバーの候補であり、
前記推定部は、
前記開催される会議の参加メンバーに、選択する候補のメンバーのうち1人ずつを組み合わせた場合の前記条件付き発言量が最大となるように前記候補のメンバーの中から1人の前記メンバーを前記開催される会議の参加メンバーの総数になるまで繰り返して選択する、請求項3に記載の会話メンバー最適化装置。 - 前記メンバー選択指示は、
前記開催される会議の参加メンバーの総数と、前記開催される会議の参加メンバーのうち少なくとも1人の予め参加が決定しているメンバーを示す決情報を含み、
前記予め参加が決定しているメンバー以外のメンバーが選択可能なメンバーの候補であり、
前記推定部は、
前記開催される会議の参加メンバーに、選択する候補のメンバーのうち1人ずつを組み合わせた場合の前記条件付き発言量と前記割り込み行列をスカラー化した値と前記活性度確率をスカラー化した値との総和が最大となるように前記候補のメンバーの中から1人の前記メンバーを前記開催される会議の参加メンバーの総数になるまで繰り返して選択する、請求項3に記載の会話メンバー最適化装置。 - 前記メンバー選択指示は、
前記開催される会議の参加メンバーの総数と、前記開催される会議の参加メンバーのうち少なくとも1人の予め参加が決定しているメンバーを示す決情報を含み、
前記予め参加が決定しているメンバー以外のメンバーが選択可能なメンバーの候補であり、
前記推定部は、
前記開催される会議の参加メンバーに、選択する候補のメンバーのうち1人ずつを組み合わせた場合の前記条件付き発言量が第1の閾値以上である前記メンバーを選択し、
前記開催される会議の参加メンバーに、選択する候補のメンバーのうち1人ずつを組み合わせた場合の前記割り込み行列をスカラー化した値が第2の閾値以上である前記メンバーを選択し、
前記開催される会議の参加メンバーに、選択する候補のメンバーのうち1人ずつを組み合わせた場合の前記活性度確率をスカラー化した値が第3の閾値以上である前記メンバーを選択し、
前記メンバー選択部は、
前記推定部が選択した結果に基づいて、前記候補のメンバーの中から1人の前記メンバーを前記開催される会議の参加メンバーの総数になるまで繰り返して選択する、請求項3に記載の会話メンバー最適化装置。 - 前記推定部は、
前記割り込み行列をスカラー化するとき、前記メンバー選択指示に含まれる選択条件に応じて、前記割り込み行列をスカラー化に用いる関数を選択する、請求項6または請求項7に記載の会話メンバー最適化装置。 - 会話解析部が、過去に開催された複数の会議の音声信号を会議毎に認識して、会議の会話を会議毎に解析する会話解析手順と、
推定部が、前記会話解析手順によって解析された結果に基づいて、かつこれから開催される会議に参加するメンバーを選択するメンバー選択指示に応じて、前記開催される会議に参加する前記メンバーの組み合わせにおける特徴量を推定する推定手順と、
メンバー選択部が、前記推定手順によって推定された結果に基づいて、前記メンバーを選択するメンバー選択手順と、
を含む会話メンバー最適化方法。 - コンピュータに、
過去に開催された複数の会議の音声信号を会議毎に認識して、会議の会話を会議毎に解析する会話解析手順と、
前記会話解析手順によって解析された結果に基づいて、かつこれから開催される会議に参加するメンバーを選択するメンバー選択指示に応じて、前記開催される会議に参加する前記メンバーの組み合わせにおける特徴量を推定する推定手順と、
前記推定手順によって推定された結果に基づいて、前記メンバーを選択するメンバー選択手順と、
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016178532A JP6672114B2 (ja) | 2016-09-13 | 2016-09-13 | 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム |
US15/645,007 US10699224B2 (en) | 2016-09-13 | 2017-07-10 | Conversation member optimization apparatus, conversation member optimization method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016178532A JP6672114B2 (ja) | 2016-09-13 | 2016-09-13 | 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018045364A true JP2018045364A (ja) | 2018-03-22 |
JP6672114B2 JP6672114B2 (ja) | 2020-03-25 |
Family
ID=61560174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016178532A Active JP6672114B2 (ja) | 2016-09-13 | 2016-09-13 | 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10699224B2 (ja) |
JP (1) | JP6672114B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022124399A1 (ja) * | 2020-12-10 | 2022-06-16 | 正林 真之 | 情報処理装置 |
WO2022244366A1 (ja) * | 2021-05-17 | 2022-11-24 | 株式会社シンギュレイト | 情報処理装置、情報処理方法、およびプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020086056A1 (en) * | 2018-10-22 | 2020-04-30 | Hewlett-Packard Development Company, L.P. | Maintaining independent network connections for user devices in conferencing sessions |
US11423910B2 (en) * | 2019-03-19 | 2022-08-23 | Servicenow, Inc. | Systems and method for third party natural language understanding service integration |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009163431A (ja) * | 2007-12-28 | 2009-07-23 | Nec Corp | コミュニケーション算定装置、会合関数算定装置、会合関数算定方法および会合関数算定用プログラム |
WO2010113614A1 (ja) * | 2009-04-03 | 2010-10-07 | 株式会社日立製作所 | コミュニケーション支援装置、コミュニケーション支援システム、及びコミュニケーション支援方法 |
JP2011076480A (ja) * | 2009-09-30 | 2011-04-14 | Fujitsu Ltd | 参加者配置プログラム及び参加者配置装置 |
JP2013246501A (ja) * | 2012-05-23 | 2013-12-09 | Ricoh Co Ltd | 会議支援装置、会議支援システム、会議支援方法およびプログラム |
JP2014527651A (ja) * | 2011-07-07 | 2014-10-16 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 対人的対話からのテキストコンテンツを用いて、対人関係影響情報を判定するためのシステム及び方法 |
JP5814490B1 (ja) * | 2015-01-22 | 2015-11-17 | 楽天株式会社 | 情報処理装置、情報処理方法、プログラム、記憶媒体 |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4931934A (en) * | 1988-06-27 | 1990-06-05 | Snyder Thomas E | Method and system for measuring clarified intensity of emotion |
US5025471A (en) * | 1989-08-04 | 1991-06-18 | Scott Instruments Corporation | Method and apparatus for extracting information-bearing portions of a signal for recognizing varying instances of similar patterns |
EP0481107B1 (en) * | 1990-10-16 | 1995-09-06 | International Business Machines Corporation | A phonetic Hidden Markov Model speech synthesizer |
US5862519A (en) * | 1996-04-02 | 1999-01-19 | T-Netix, Inc. | Blind clustering of data with application to speech processing systems |
US6011851A (en) * | 1997-06-23 | 2000-01-04 | Cisco Technology, Inc. | Spatial audio processing method and apparatus for context switching between telephony applications |
US6480826B2 (en) * | 1999-08-31 | 2002-11-12 | Accenture Llp | System and method for a telephonic emotion detection that provides operator feedback |
US6275806B1 (en) * | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US6151571A (en) * | 1999-08-31 | 2000-11-21 | Andersen Consulting | System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters |
US7222075B2 (en) * | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
US7035804B2 (en) * | 2001-04-26 | 2006-04-25 | Stenograph, L.L.C. | Systems and methods for automated audio transcription, translation, and transfer |
US7930181B1 (en) * | 2002-09-18 | 2011-04-19 | At&T Intellectual Property Ii, L.P. | Low latency real-time speech transcription |
WO2004088632A2 (en) * | 2003-03-26 | 2004-10-14 | Honda Motor Co., Ltd. | Speaker recognition using local models |
JP4516527B2 (ja) * | 2003-11-12 | 2010-08-04 | 本田技研工業株式会社 | 音声認識装置 |
US20050246165A1 (en) * | 2004-04-29 | 2005-11-03 | Pettinelli Eugene E | System and method for analyzing and improving a discourse engaged in by a number of interacting agents |
JP4679254B2 (ja) * | 2004-10-28 | 2011-04-27 | 富士通株式会社 | 対話システム、対話方法、及びコンピュータプログラム |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
US7830408B2 (en) * | 2005-12-21 | 2010-11-09 | Cisco Technology, Inc. | Conference captioning |
US7843486B1 (en) * | 2006-04-10 | 2010-11-30 | Avaya Inc. | Selective muting for conference call participants |
CN101904151A (zh) * | 2007-12-17 | 2010-12-01 | 皇家飞利浦电子股份有限公司 | 控制在通信系统的至少两个用户之间通信的方法 |
US9484019B2 (en) * | 2008-11-19 | 2016-11-01 | At&T Intellectual Property I, L.P. | System and method for discriminative pronunciation modeling for voice search |
US9646603B2 (en) * | 2009-02-27 | 2017-05-09 | Longsand Limited | Various apparatus and methods for a speech recognition system |
US20100283829A1 (en) * | 2009-05-11 | 2010-11-11 | Cisco Technology, Inc. | System and method for translating communications between participants in a conferencing environment |
JP5433696B2 (ja) * | 2009-07-31 | 2014-03-05 | 株式会社東芝 | 音声処理装置 |
US9197736B2 (en) * | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US8666672B2 (en) * | 2009-11-21 | 2014-03-04 | Radial Comm Research L.L.C. | System and method for interpreting a user's psychological state from sensed biometric information and communicating that state to a social networking site |
US8818175B2 (en) * | 2010-03-08 | 2014-08-26 | Vumanity Media, Inc. | Generation of composited video programming |
US20110246172A1 (en) * | 2010-03-30 | 2011-10-06 | Polycom, Inc. | Method and System for Adding Translation in a Videoconference |
US9723260B2 (en) * | 2010-05-18 | 2017-08-01 | Polycom, Inc. | Voice tracking camera with speaker identification |
US8395653B2 (en) * | 2010-05-18 | 2013-03-12 | Polycom, Inc. | Videoconferencing endpoint having multiple voice-tracking cameras |
EP2588972A4 (en) * | 2010-07-01 | 2014-06-11 | METHOD AND APPARATUS FOR ADAPTING A CONTEXT MODEL | |
JP2012038131A (ja) * | 2010-08-09 | 2012-02-23 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
US8630854B2 (en) * | 2010-08-31 | 2014-01-14 | Fujitsu Limited | System and method for generating videoconference transcriptions |
US8825584B1 (en) * | 2011-08-04 | 2014-09-02 | Smart Information Flow Technologies LLC | Systems and methods for determining social regard scores |
BR112014008457A2 (pt) * | 2011-10-18 | 2017-04-11 | Unify Gmbh & Co Kg | processo e dispositivo para obtenção de dados gerados em uma conferência |
JP6109927B2 (ja) * | 2012-05-04 | 2017-04-05 | カオニックス ラブス リミテッド ライアビリティ カンパニー | 源信号分離のためのシステム及び方法 |
US8681203B1 (en) * | 2012-08-20 | 2014-03-25 | Google Inc. | Automatic mute control for video conferencing |
US9269073B2 (en) * | 2012-09-20 | 2016-02-23 | Avaya Inc. | Virtual agenda participant |
US10026329B2 (en) * | 2012-11-26 | 2018-07-17 | ISSLA Enterprises, LLC | Intralingual supertitling in language acquisition |
US9378729B1 (en) * | 2013-03-12 | 2016-06-28 | Amazon Technologies, Inc. | Maximum likelihood channel normalization |
EP2974273A4 (en) * | 2013-03-15 | 2018-01-10 | Jibo, Inc. | Apparatus and methods for providing a persistent companion device |
US9280972B2 (en) * | 2013-05-10 | 2016-03-08 | Microsoft Technology Licensing, Llc | Speech to text conversion |
US9595271B2 (en) * | 2013-06-27 | 2017-03-14 | Getgo, Inc. | Computer system employing speech recognition for detection of non-speech audio |
US9087521B2 (en) * | 2013-07-02 | 2015-07-21 | Family Systems, Ltd. | Systems and methods for improving audio conferencing services |
US9355636B1 (en) * | 2013-09-16 | 2016-05-31 | Amazon Technologies, Inc. | Selective speech recognition scoring using articulatory features |
JP6148163B2 (ja) * | 2013-11-29 | 2017-06-14 | 本田技研工業株式会社 | 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム |
JP2016012216A (ja) | 2014-06-27 | 2016-01-21 | Kddi株式会社 | 会議分析装置、方法及びプログラム |
US20170270930A1 (en) * | 2014-08-04 | 2017-09-21 | Flagler Llc | Voice tallying system |
US11232466B2 (en) * | 2015-01-29 | 2022-01-25 | Affectomatics Ltd. | Recommendation for experiences based on measurements of affective response that are backed by assurances |
-
2016
- 2016-09-13 JP JP2016178532A patent/JP6672114B2/ja active Active
-
2017
- 2017-07-10 US US15/645,007 patent/US10699224B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009163431A (ja) * | 2007-12-28 | 2009-07-23 | Nec Corp | コミュニケーション算定装置、会合関数算定装置、会合関数算定方法および会合関数算定用プログラム |
WO2010113614A1 (ja) * | 2009-04-03 | 2010-10-07 | 株式会社日立製作所 | コミュニケーション支援装置、コミュニケーション支援システム、及びコミュニケーション支援方法 |
JP2011076480A (ja) * | 2009-09-30 | 2011-04-14 | Fujitsu Ltd | 参加者配置プログラム及び参加者配置装置 |
JP2014527651A (ja) * | 2011-07-07 | 2014-10-16 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 対人的対話からのテキストコンテンツを用いて、対人関係影響情報を判定するためのシステム及び方法 |
JP2013246501A (ja) * | 2012-05-23 | 2013-12-09 | Ricoh Co Ltd | 会議支援装置、会議支援システム、会議支援方法およびプログラム |
JP5814490B1 (ja) * | 2015-01-22 | 2015-11-17 | 楽天株式会社 | 情報処理装置、情報処理方法、プログラム、記憶媒体 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022124399A1 (ja) * | 2020-12-10 | 2022-06-16 | 正林 真之 | 情報処理装置 |
WO2022244366A1 (ja) * | 2021-05-17 | 2022-11-24 | 株式会社シンギュレイト | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180075395A1 (en) | 2018-03-15 |
JP6672114B2 (ja) | 2020-03-25 |
US10699224B2 (en) | 2020-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10347244B2 (en) | Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response | |
JP6210239B2 (ja) | 会話解析装置、会話解析方法及びプログラム | |
JP6350148B2 (ja) | 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム | |
TWI396184B (zh) | 一種語音辨認所有語言及用語音輸入單字的方法 | |
CN109543020B (zh) | 问询处理方法及系统 | |
JP2017097162A (ja) | キーワード検出装置、キーワード検出方法及びキーワード検出用コンピュータプログラム | |
JP6672114B2 (ja) | 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム | |
JP2017161731A (ja) | 会話解析装置、会話解析方法およびプログラム | |
Schapire et al. | Boosting with prior knowledge for call classification | |
Kaushik et al. | Automatic audio sentiment extraction using keyword spotting. | |
JP7160778B2 (ja) | 評価システム、評価方法、及びコンピュータプログラム。 | |
Lin et al. | Mixture representation learning for deep speaker embedding | |
Ananthi et al. | Speech recognition system and isolated word recognition based on Hidden Markov model (HMM) for Hearing Impaired | |
Kaur et al. | An efficient speaker recognition using quantum neural network | |
CN113129895A (zh) | 一种语音检测处理系统 | |
WO2016152132A1 (ja) | 音声処理装置、音声処理システム、音声処理方法、および記録媒体 | |
JP5315976B2 (ja) | 音声認識装置、音声認識方法、および、プログラム | |
Andra et al. | Contextual keyword spotting in lecture video with deep convolutional neural network | |
Mandel et al. | Learning a concatenative resynthesis system for noise suppression | |
WO2020196743A1 (ja) | 評価システム及び評価方法 | |
Bird et al. | Lstm and gpt-2 synthetic speech transfer learning for speaker recognition to overcome data scarcity | |
JPH0823758B2 (ja) | 話者適応形音声認識装置 | |
Ohta et al. | Selecting type of response for chat-like spoken dialogue systems based on acoustic features of user utterances | |
Lee et al. | Recognizing low/high anger in speech for call centers | |
Avikal et al. | Estimation of age from speech using excitation source features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6672114 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |