JP7008992B2 - 音声解析方法 - Google Patents
音声解析方法 Download PDFInfo
- Publication number
- JP7008992B2 JP7008992B2 JP2020156743A JP2020156743A JP7008992B2 JP 7008992 B2 JP7008992 B2 JP 7008992B2 JP 2020156743 A JP2020156743 A JP 2020156743A JP 2020156743 A JP2020156743 A JP 2020156743A JP 7008992 B2 JP7008992 B2 JP 7008992B2
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- word
- information
- term
- voice analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 168
- 239000000463 material Substances 0.000 claims description 53
- 238000000605 extraction Methods 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 25
- 239000008280 blood Substances 0.000 description 37
- 210000004369 blood Anatomy 0.000 description 37
- 239000002547 new drug Substances 0.000 description 30
- 206010012601 diabetes mellitus Diseases 0.000 description 29
- 239000003814 drug Substances 0.000 description 13
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 12
- 239000008103 glucose Substances 0.000 description 12
- NOESYZHRGYRDHS-UHFFFAOYSA-N insulin Chemical compound N1C(=O)C(NC(=O)C(CCC(N)=O)NC(=O)C(CCC(O)=O)NC(=O)C(C(C)C)NC(=O)C(NC(=O)CN)C(C)CC)CSSCC(C(NC(CO)C(=O)NC(CC(C)C)C(=O)NC(CC=2C=CC(O)=CC=2)C(=O)NC(CCC(N)=O)C(=O)NC(CC(C)C)C(=O)NC(CCC(O)=O)C(=O)NC(CC(N)=O)C(=O)NC(CC=2C=CC(O)=CC=2)C(=O)NC(CSSCC(NC(=O)C(C(C)C)NC(=O)C(CC(C)C)NC(=O)C(CC=2C=CC(O)=CC=2)NC(=O)C(CC(C)C)NC(=O)C(C)NC(=O)C(CCC(O)=O)NC(=O)C(C(C)C)NC(=O)C(CC(C)C)NC(=O)C(CC=2NC=NC=2)NC(=O)C(CO)NC(=O)CNC2=O)C(=O)NCC(=O)NC(CCC(O)=O)C(=O)NC(CCCNC(N)=N)C(=O)NCC(=O)NC(CC=3C=CC=CC=3)C(=O)NC(CC=3C=CC=CC=3)C(=O)NC(CC=3C=CC(O)=CC=3)C(=O)NC(C(C)O)C(=O)N3C(CCC3)C(=O)NC(CCCCN)C(=O)NC(C)C(O)=O)C(=O)NC(CC(N)=O)C(O)=O)=O)NC(=O)C(C(C)CC)NC(=O)C(CO)NC(=O)C(C(C)O)NC(=O)C1CSSCC2NC(=O)C(CC(C)C)NC(=O)C(NC(=O)C(CCC(N)=O)NC(=O)C(CC(N)=O)NC(=O)C(NC(=O)C(N)CC=1C=CC=CC=1)C(C)C)CC1=CN=CN1 NOESYZHRGYRDHS-UHFFFAOYSA-N 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 235000013322 soy milk Nutrition 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 208000010412 Glaucoma Diseases 0.000 description 6
- 102000004877 Insulin Human genes 0.000 description 6
- 108090001061 Insulin Proteins 0.000 description 6
- 208000017442 Retinal disease Diseases 0.000 description 6
- 206010038923 Retinopathy Diseases 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 229940125396 insulin Drugs 0.000 description 6
- 229940124597 therapeutic agent Drugs 0.000 description 6
- 208000008589 Obesity Diseases 0.000 description 4
- 235000020824 obesity Nutrition 0.000 description 4
- 230000000699 topical effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 229940079593 drug Drugs 0.000 description 2
- 239000004480 active ingredient Substances 0.000 description 1
- 238000010171 animal model Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
この音声解析システム1は,第1の音声解析端末3と,第2の音声解析端末5とを含むシステムである。この端末は,コンピュータを含んでおり,以下説明する各要素はコンピュータにより実装される要素である。このシステムは,さらにサーバを含んでもよい。
第1の音声解析端末3は,第1の用語解析部7と,第1の会話記憶部9と,第1の解析部11と,プレゼンテーション記憶部13と,関連語記憶部15と,表示部17と,トピックス語記憶部19を含む端末である。
第1の用語解析部7は,会話に含まれる単語を解析し,第1の会話情報を得るための要素である。
第1の会話記憶部9は,第1の用語解析部7が解析した第1の会話情報を記憶するための要素である。
第1の解析部11は,第1の会話記憶部9が記憶した第1の会話情報を解析するための要素である。
プレゼンテーション記憶部13は,複数のプレゼンテーション資料を記憶するための要素である。
関連語記憶部15は,プレゼンテーション記憶部13に記憶されたそれぞれのプレゼンテーション資料に関連した関連語を記憶するための要素である。
表示部17は,プレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示することができる要素である。
トピックス語記憶部19は,会話中用語と関連するトピックス語を記憶するための要素である。
第2の用語解析部21は,会話に含まれる単語を解析し,第2の会話情報を得るための要素である。第2の会話記憶部23は,第2の用語解析部21が解析した第2の会話情報を記憶するための要素である。
そして,会話情報受信部25は,第2の音声解析端末5から第2の会話情報を受信するための要素である。そして,第1の会話記憶部は、会話情報受信部25が受信した第2の会話情報も記憶する。
特定プレゼンテーション情報取得部31は,複数のプレゼンテーション資料のうちのあるプレゼンテーション資料である特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。
第1の会話区分取得部33は,第1の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。
特定関連語読出部35は,関連語記憶部15から,特定プレゼンテーション資料に関連する関連語である特定関連語を読み出すための要素である。
第1の会話中用語抽出部37は,第1の会話情報におけるある会話区分である第1の会話区分に含まれる第1の解析部11が解析した会話中用語である第1の会話中用語を抽出するための要素である。
第1のトピックス語抽出部39は,トピックス語記憶部19から,第1の会話中用語と関連するトピックス語である第1のトピックス語を抽出するための要素である。
第2の会話中用語抽出部41は,第2の会話情報における第1の会話区分に対応する会話区分である第2の会話区分に含まれる会話中用語である第2の会話中用語を抽出するための要素である。
第2のトピックス語抽出部43は,トピックス語記憶部19から,第2の会話中用語と関連するトピックス語である第2のトピックス語を抽出するための要素である。
会話区分採用部45は,第1のトピックス語と特定関連語の関係及び第2のトピックス語と特定関連語との関係を用いて,第1の会話区分又は第2の会話区分を正しい会話区分として採用するための要素である。
第1のトピックス語が特定関連語であり,第2のトピックス語が特定関連語でないときは,第1の会話情報における第1の会話区分を正しい会話区分として採用し,
第1のトピックス語が特定関連語でなく,第2のトピックス語が特定関連語であるときは,第2の会話情報における第2の会話区分を正しい会話区分として採用する。
このシステムは,第1の会話情報は,会話に含まれる単語とともに,各単語と関連した時刻を含む。会話区分取得部33は,各単語の時刻情報を用いて,会話区分を分析する。
会話が途切れると,話者が変わったことが分かるので,単語間の時間が空けば会話区分が変わったことが分かる。
このシステムは,第1の会話情報が,会話に含まれる単語とともに,各単語と関連した音声の周波数を含む。
会話区分取得部33は,各単語の周波数を用いて,会話区分を分析する。
声の高さが変われば,話者が変わったことが分かるので,各単語の音の周波数を分析すれば会話区分が変わったことが分かる。
プレゼンテーションする方が用いるプレゼン関連用語と,リスナーの方が発言する用語とは異なるので,それぞれの用語を解析して,会話区分を分けることができる。
そして,第1の解析部11は,特定プレゼンテーション資料に関する誤変換用語が含まれる場合,各会話区分のうち正しい会話区分として採用されなかった会話区分に含まれる用語のうち,正しい会話区分に含まれる誤変換用語に対応する用語を用いて,正しい会話区分に含まれる用語を修正する。第1の音声解析端末3及び第2の音声解析端末5は、互いに情報を照らし合わせることで、高精度の解析結果を得ることができる。
例えば,トピックス語記憶部19には,肥満遺伝子,肥満症,肥満症実験動物という会話において用いられることが想定されるキーワードと関連して,肥満というトピックス語が記憶されていればよい。トピックス語は,複数のキーワードをさらに統一した用語や上位概念化した用語であってもよい。トピックス語を用いることで,検索をより迅速に行うことができることとなる。トピックス語の例は,疾患名,薬剤名,有効成分名及び製薬企業名である。つまり,トピックス語は,会話中用語に関する第2の変換語といえる。トピックス語は,複数種類のキーワードについて,検索に用いることがふさわしい用語を割り振った用語であってもよい。また,トピックス語は,メッセージに関するものであってもよい。
例えば,「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」を「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいします」と「それはけっとうちをさげますか」といった2つの会話区分を得る。又は,「これから糖尿病に関する新薬であるXYZについて説明しますそれは決闘 血を下げますか。」を「これから糖尿病に関する新薬であるXYZについて説明します。」「それは決闘 血を下げますか。」といった2つの会話区分を得る。このような会話区分の取得方法は,公知である。
例えば,関連語記憶部15には,ある糖尿病の新薬であるXYZに関するパワーポイント(登録商標)資料と関連して,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」が記憶されている。このため特定関連語読出部35は,特定プレゼンテーション資料であるXYZに関するパワーポイント(登録商標)資料と関連して,これらの用語を特定関連語として読み出し,記憶部に記憶する。
例えば,「これから糖尿病に関する新薬であるXYZについて説明します。」「それは決闘 血を下げますか。」のうち,「これから糖尿病に関する新薬であるXYZについて説明します。」を第1の会話区分とする。そして,「それは決闘 血を下げますか。」を第1の会話区分に続く会話区分とする。第1の会話区分には,「糖尿病」,「新薬」及び「XYZ」という第1の会話中用語が含まれている。
先に説明した通り,第1の会話中用語の例は,「糖尿病」,「新薬」及び「XYZ」である。これらに共通するトピックス語は,「XYZ」である。それぞれの会話中用語から複数のトピックス語が抽出されてもよい。
第2の会話区分の例は,「これから豆乳秒二巻する新約であるXYZについて説明します」である。第2の会話中用語の例は,「豆乳」,「秒」,「二巻」,「新約」,「XYZ」である。
第2の会話中用語の例は,「豆乳」,「秒」,「二巻」,「新約」,「XYZ」である。これらに関するトピックス語のうち共通するものが多いトピックス語の例は「聖書」である。
例えば,第1のトピックス語は「XYZ」,第2のトピックス語は「聖書」であり,特定関連語は,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」である。この場合,第1のトピックス語「XYZ」が特定関連語の一つと一致しているので,第1の会話区分が正しい会話区分として採用される。
例えば,第1の会話中用語及び第2の会話中用語のそれぞれと関連するトピックス語をすべて読み出し,読み出した複数のトピックス語が,特定関連語と一致する数を計測し,その数が多い方の会話区分を正しい会話区分として採用すればよい。なお,特定関連語には,それぞれ係数を付して,よりプレゼンテーション資料に関連する特定関連語とトピックス語とが一致した場合により高い得点となるようにし,得点が高い会話区分を正しい会話区分として採用してもよい。
プレゼンテーションする方が用いるプレゼン関連用語と,リスナーの方が発言する用語とは異なるので,それぞれの用語を解析して,会話区分を分けることができる。
例えば,あるプレゼンターション資料の資料名(存在位置)とそのページ数に関連して,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」が記憶部に記憶されているので,関連語抽出部35は,記憶部からこれらの特定プレゼンテーション資料に関する関連語を読み出す。そして,第1の会話情報に含まれる用語と,関連語とが一致するか演算処理を行う。そして,一致した関連語を,会話情報及び区分番号とともに記憶部に記憶する。
第2の会話情報の最初の会話区分である「これから豆乳秒二巻する新約であるXYZについて説明します。」には,「XYZ」という一つの関連語が含まれている。一方,第2の会話情報の2つめの会話区分である「それは血糖 値を下げますか?」には,「血糖値」という関連語が1つ含まれている。
MRが,ノート型パソコンに格納されているか,又はサーバから読み出したあるパワーポイント(登録商標)を開く。すると,パソコンに,そのパワーポイント(登録商標)が選択されたことに関する情報が入力される。
ノートパソコンの表示部には,そのパワーポイント(登録商標)で作成されたプレゼンテーション資料のページが表示される。一方,スマートフォンの表示部にもパワーポイント(登録商標)のページが表示される。
一方,パワーポイント(登録商標)で作成されたプレゼンテーション資料と関連した特定関連語が記憶部から読み出される。読み出された特定関連語の例は,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」である。読み出された特定関連語は適宜記憶部に一時的に記憶される。
表示された資料に関連してMRと医師との間で会話がなされる。会話は,プレゼンテーションであってもよいし,説明であってもよい。会話の例は,「これから糖尿病に関する新薬であるXYZについて説明します。」「それは血糖値を下ますか?」である(図3)。
ノート型パソコンは,会話を収録し,コンピュータ内に入力する。そして,会話に含まれる単語を解析し,第1の会話情報を得る。解析前の第1の会話情報の例は,「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」といったものである。ノート型パソコンはMR側に設置されており,MRの音声をよく拾う。会話情報は,記憶部に記憶される。
例えば解析後の第1の会話情報は,「これから糖尿病に関する新薬であるXYZについて説明しますそれは決闘血を下げますか」といった会話文である。そして,解析された会話文は,記憶部に記憶される。なお,この第1の会話情報は,会話区分が分析されてもよい。その場合,会話区分の例は, 「これから糖尿病に関する新薬であるXYZについて説明します。」「それは決闘血を下げますか。」といったものである。会話区分は,のちの工程で分析されてもよい。
スマートフォンにも会話が入力され,記憶される。そして,スマートフォンも起動したアプリケーションにより,会話が解析される。第2の会話情報の例は「これからとうにゅうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」である。ノート型パソコンと,スマートフォンでは,設置された位置や収音の方向などに相違がある。このため,同じ会話を解析しても,ノート型パソコン(第1の音声解析端末)とスマートフォン(第2の音声解析端末)とでは,解析される会話に相違がみられる。この工程は,通常,第1の会話情報取得工程(S105)と同時に行われる。
スマートフォン側でも,第2の会話情報が解析される。第2の会話情報の例は,「これから豆乳秒二巻する新約であるXYZについて説明しますそれは血糖値を下げますか?」といったものである。この際に,会話区分が解析されてもよい。会話区分が解析された第2の会話は,「これから豆乳秒二巻する新約であるXYZについて説明します。「それは血糖値を下げますか?」のようになる。第2の会話情報も適宜記憶部に記憶される。なお,第2の会話情報の解析は,ノート型パソコン(第1の音声解析端末)で行ってもよいし,サーバで行ってもよい。
第2の会話情報は,例えば,スマートフォンからノート型パソコンへ送信される。すると,ノート型パソコン(第1の音声解析端末3)は,スマートフォン(第2の音声解析端末5)から送信された第2の会話情報を受け取る。
第1の会話情報及び第2の会話情報における会話区分を分析し,1又は複数の会話区分を得てもよい。各端末において会話区分が解析されていてもよい。一方,ノート型パソコン(第1の音声解析端末)で,2つの端末が収録した会話情報について,まとめて会話区分を分析した方が,第1の会話情報と第2の会話情報とで,対応した会話区分を得ることができるので,好ましい。この場合,第1の会話情報の各会話区分と,第2の会話情報の各会話区分とは,会話時間がほぼ同じであるはずである。そのため,計時手段を用いて,各区分を合わせることが好ましい。このようにして,第1の会話情報を区分分けするとともに,対応する第2の会話区分の各会話区分も得ることができる。
会話区分取得部33は,第2の会話情報における会話区分をも分析し,1又は複数の会話区分を得てもよい。
「これから糖尿病に関する新薬であるXYZについて説明します。」
「それは決闘血を下げますか。」
という会話文に解析される。
第2の会話情報は,
「これから豆乳秒二巻する新約であるXYZについて説明します。」
「それは血糖値を下げますか?」という会話文に解析される。
第1の会話区分である「これから糖尿病に関する新薬であるXYZについて説明します。」に含まれる会話中用語である第1の会話中用語「糖尿病」,「新薬」,及び「XYZ」を抽出する。
そして,第1の会話中用語「糖尿病」,「新薬」,及び「XYZ」を用いて,トピックス語記憶部19から,これらと関連して記憶されているトピックス語を読み出す。なお,ここでは,3つの会話中用語に共通するトピックス語である「XYZ」を第1のトピックス語として抽出する。
第2の会話区分である「これから豆乳秒二巻する新約であるXYZについて説明します。」に含まれる会話中用語である第2の会話中用語「豆乳」,「秒」,「二巻」,「新約」及び「XYZ」を抽出する。第2の会話中用語「豆乳」,「秒」,「二巻」,「新約」及び「XYZ」を用いて,トピックス語記憶部19から,これらと関連して記憶されているトピックス語を読み出す。なお,ここでは,5つの会話中用語のなかで共通することが最も多かったトピックス語である「聖書」を第2のトピックス語として抽出する。
第1のトピックス語である「XYZ」と,特定関連語である,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,及び「添付文書」と比較すると,第1のトピックス語は特定関連語であることがわかる。一方,第2のトピックス語である「聖書」と特定関連語とを比較すると,第2のトピックス語は特定関連語ではないことが分かる。この結果を用いて,第1の会話区分である「これから糖尿病に関する新薬であるXYZについて説明します。」を正しい会話区分として採用する。これに続く2番目の会話区分についても同様にして,いずれが正しいか判断する。このようにして採用された会話区分の連続を記憶部に記憶する。
会話区分の連続は,「これから糖尿病に関する新薬であるXYZについて説明します。」「それは血糖値を下げますか?」である。
3 第1の音声解析端末
5 第2の音声解析端末
7 第1の用語解析部
9 第1の会話記憶部
11 第1の解析部
13 プレゼンテーション記憶部
15 関連語記憶部
17 表示部
19 トピックス語記憶部
21 第2の用語解析部
23 第2の会話記憶部
25 会話情報受信部
31 特定プレゼンテーション情報取得部
33 第1の会話区分取得部
35 特定関連語読出部
37 第1の会話中用語抽出部
39 第1のトピックス語抽出部
41 第2の会話中用語抽出部
43 第2のトピックス語抽出部
45 会話区分採用部
Claims (5)
- 第1の音声解析端末(3)と第2の音声解析端末(5)とを含む音声解析システムを用いた音声解析方法であって,
第1の音声解析端末(3)が,
会話に含まれる単語を解析し,第1の会話情報を得る第1の用語解析工程と,
第2の音声解析端末(5)が,
前記会話に含まれる単語を解析し,第2の会話情報を得る第2の用語解析工程と,
前記音声解析システムが,
複数のプレゼンテーション資料のうちのあるプレゼンテーション資料である特定プレゼンテーション資料が選択されたことに関する情報を受け取る特定プレゼンテーション情報取得工程と,
第1の会話情報における会話区分を分析し,1又は複数の会話区分を得る第1の会話区分取得工程と,
前記特定プレゼンテーション資料に関連する関連語である特定関連語を読み出す特定関連語読出工程と,
第1の会話情報におけるある会話区分である第1の会話区分に含まれる,会話中用語である第1の会話中用語を抽出する第1の会話中用語抽出工程と,
第1の会話中用語と関連するトピックス語である第1のトピックス語を抽出する第1のトピックス語抽出工程と,
第2の会話情報における第1の会話区分に対応する会話区分である第2の会話区分に含まれる会話中用語である第2の会話中用語を抽出する第2の会話中用語抽出工程と,
第2の会話中用語と関連するトピックス語である第2のトピックス語を抽出する第2のトピックス語抽出工程と,
第1のトピックス語と前記特定関連語の関係及び第2のトピックス語と前記特定関連語との関係を用いて,第1の会話区分又は第2の会話区分を正しい会話区分として採用する会話区分採用工程と,を含む,
音声解析方法。 - 請求項1に記載の音声解析方法であって,
前記会話区分採用工程は,
第1のトピックス語と第2のトピックス語が異なる場合であって,
第1のトピックス語が前記特定関連語であり,第2のトピックス語が前記特定関連語でないときは,第1の会話情報における第1の会話区分を正しい会話区分として採用し,
第1のトピックス語が前記特定関連語でなく,第2のトピックス語が前記特定関連語であるときは,第2の会話情報における第2の会話区分を正しい会話区分として採用する,音声解析方法。 - 請求項1に記載の音声解析方法であって,
前記会話区分採用工程は,
第1のトピックス語が前記特定関連語である数と,第2のトピックス語が前記特定関連語である数とを比較し,前者が多い場合は第1の会話区分を正しい会話区分として採用し,後者が多い場合は第2の会話区分を正しい会話区分として採用する,音声解析方法。 - 請求項1に記載の音声解析方法であって,
第1の音声解析端末(3)は,時刻時間を記憶するための時刻記憶部(51)を有し,
第1の会話情報は,前記会話に含まれる単語とともに,各単語と関連した時刻を含み,
第1の会話区分取得工程は,各単語の時刻情報を用いて,会話区分を分析する,音声解析方法。 - 請求項1に記載の音声解析方法であって,
第1の音声解析端末(3)は,会話に含まれる音声の周波数を解析する周波数解析部(53)を有し,
第1の会話情報は,前記会話に含まれる単語とともに,各単語と関連した音声の周波数を含み,
第1の会話区分取得工程は,各単語の周波数を用いて,会話区分を分析する,音声解析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156743A JP7008992B2 (ja) | 2020-04-24 | 2020-09-17 | 音声解析方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077794A JP6771251B1 (ja) | 2020-04-24 | 2020-04-24 | 音声解析システム |
JP2020156743A JP7008992B2 (ja) | 2020-04-24 | 2020-09-17 | 音声解析方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077794A Division JP6771251B1 (ja) | 2020-04-24 | 2020-04-24 | 音声解析システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021173988A JP2021173988A (ja) | 2021-11-01 |
JP7008992B2 true JP7008992B2 (ja) | 2022-01-25 |
Family
ID=72829198
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077794A Active JP6771251B1 (ja) | 2020-04-24 | 2020-04-24 | 音声解析システム |
JP2020156743A Active JP7008992B2 (ja) | 2020-04-24 | 2020-09-17 | 音声解析方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077794A Active JP6771251B1 (ja) | 2020-04-24 | 2020-04-24 | 音声解析システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11756536B2 (ja) |
JP (2) | JP6771251B1 (ja) |
CN (2) | CN116434755A (ja) |
CA (1) | CA3146508C (ja) |
WO (1) | WO2021215045A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6771251B1 (ja) * | 2020-04-24 | 2020-10-21 | 株式会社インタラクティブソリューションズ | 音声解析システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148185A (ja) | 1998-11-13 | 2000-05-26 | Matsushita Electric Ind Co Ltd | 認識装置及び認識方法 |
JP2010055020A (ja) | 2008-08-29 | 2010-03-11 | Yahoo Japan Corp | 複数言語モデルによる統合音声認識装置 |
JP6689421B1 (ja) | 2019-01-25 | 2020-04-28 | 株式会社インタラクティブソリューションズ | 音声解析システム |
JP6771251B1 (ja) | 2020-04-24 | 2020-10-21 | 株式会社インタラクティブソリューションズ | 音声解析システム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259269A (ja) * | 1998-03-13 | 1999-09-24 | Omron Corp | 情報処理装置および方法、並びに記録媒体 |
JP2002259635A (ja) | 2001-03-05 | 2002-09-13 | Keio Academic Enterprise Co Ltd | 認識共有化支援方法、議論構造化支援方法、状況把握支援方法、図形思考力開発支援方法、協創環境構築支援方法、質疑応答支援方法、議事録作成支援方法 |
JP2005010691A (ja) * | 2003-06-20 | 2005-01-13 | P To Pa:Kk | 音声認識装置、音声認識方法、会話制御装置、会話制御方法及びこれらのためのプログラム |
JP5731998B2 (ja) * | 2012-03-21 | 2015-06-10 | 株式会社東芝 | 対話支援装置、対話支援方法および対話支援プログラム |
US10079013B2 (en) * | 2013-11-27 | 2018-09-18 | Sri International | Sharing intents to provide virtual assistance in a multi-person dialog |
JP6257368B2 (ja) * | 2014-02-18 | 2018-01-10 | シャープ株式会社 | 情報処理装置 |
US9940932B2 (en) * | 2016-03-02 | 2018-04-10 | Wipro Limited | System and method for speech-to-text conversion |
JP6846766B2 (ja) | 2016-06-13 | 2021-03-24 | 株式会社インタラクティブソリューションズ | プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法 |
CN109792402B (zh) * | 2016-07-08 | 2020-03-06 | 艾赛普公司 | 自动响应用户的请求 |
CN109643313A (zh) * | 2016-08-29 | 2019-04-16 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
JP6767046B2 (ja) * | 2016-11-08 | 2020-10-14 | 国立研究開発法人情報通信研究機構 | 音声対話システム、音声対話装置、ユーザー端末、および音声対話方法 |
KR102318502B1 (ko) * | 2017-03-20 | 2021-10-29 | 이베이 인크. | 대화 중 미션 변경의 검출 |
SG10202111510VA (en) | 2017-06-01 | 2021-12-30 | Interactive Solutions Inc | Search document information storage device |
SG10202104109UA (en) * | 2017-06-01 | 2021-06-29 | Interactive Solutions Inc | Display device |
US11010436B1 (en) * | 2018-04-20 | 2021-05-18 | Facebook, Inc. | Engaging users by personalized composing-content recommendation |
US11302330B2 (en) * | 2019-06-03 | 2022-04-12 | Microsoft Technology Licensing, Llc | Clarifying questions for rewriting ambiguous user utterance |
US11288578B2 (en) * | 2019-10-10 | 2022-03-29 | International Business Machines Corporation | Context-aware conversation thread detection for communication sessions |
US11386885B2 (en) * | 2020-02-17 | 2022-07-12 | Wipro Limited | Method and system for detecting intent as an ordered sequence from a user query |
-
2020
- 2020-04-24 JP JP2020077794A patent/JP6771251B1/ja active Active
- 2020-09-17 JP JP2020156743A patent/JP7008992B2/ja active Active
- 2020-12-15 CA CA3146508A patent/CA3146508C/en active Active
- 2020-12-15 CN CN202310427070.4A patent/CN116434755A/zh active Pending
- 2020-12-15 WO PCT/JP2020/046827 patent/WO2021215045A1/ja active Application Filing
- 2020-12-15 US US17/624,253 patent/US11756536B2/en active Active
- 2020-12-15 CN CN202080054980.7A patent/CN114175148B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148185A (ja) | 1998-11-13 | 2000-05-26 | Matsushita Electric Ind Co Ltd | 認識装置及び認識方法 |
JP2010055020A (ja) | 2008-08-29 | 2010-03-11 | Yahoo Japan Corp | 複数言語モデルによる統合音声認識装置 |
JP6689421B1 (ja) | 2019-01-25 | 2020-04-28 | 株式会社インタラクティブソリューションズ | 音声解析システム |
JP6771251B1 (ja) | 2020-04-24 | 2020-10-21 | 株式会社インタラクティブソリューションズ | 音声解析システム |
Also Published As
Publication number | Publication date |
---|---|
WO2021215045A1 (ja) | 2021-10-28 |
CA3146508A1 (en) | 2021-10-28 |
CN114175148B (zh) | 2023-05-12 |
US20220399011A1 (en) | 2022-12-15 |
JP2021173872A (ja) | 2021-11-01 |
US11756536B2 (en) | 2023-09-12 |
JP2021173988A (ja) | 2021-11-01 |
JP6771251B1 (ja) | 2020-10-21 |
CN116434755A (zh) | 2023-07-14 |
CN114175148A (zh) | 2022-03-11 |
CA3146508C (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10417344B2 (en) | Exemplar-based natural language processing | |
CN110678859B (zh) | 显示装置 | |
CN109493850B (zh) | 成长型对话装置 | |
US8903847B2 (en) | Digital media voice tags in social networks | |
JP3472194B2 (ja) | 自動応答方法及びその装置並びにそのプログラムを記録した媒体 | |
WO2011093025A1 (ja) | 入力支援システム、方法、およびプログラム | |
KR102283134B1 (ko) | 회의록 열람 문서 생성 방법 및 그 장치 | |
JP7008992B2 (ja) | 音声解析方法 | |
WO2020153110A1 (ja) | 音声解析システム | |
JP2010002973A (ja) | 音声データ主題推定装置およびこれを用いたコールセンタ | |
JP4143541B2 (ja) | 動作モデルを使用して非煩雑的に話者を検証するための方法及びシステム | |
JP6781492B2 (ja) | 音声解析システム | |
JP2015099290A (ja) | 発話内重要語抽出装置とその装置を用いた発話内重要語抽出システムと、それらの方法とプログラム | |
KR101401503B1 (ko) | 사용자 음성 기반의 서비스 제공 시스템, 방법 및 장치 | |
JP7169031B1 (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 | |
JP2002014751A (ja) | オンラインヘルプシステム | |
JP7169030B1 (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 | |
JP2023168691A (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 | |
JP2002091999A (ja) | データベース検索システム、検索方法および記録媒体 | |
JP2021117444A (ja) | 音声分析装置、音声分析方法、オンラインコミュニケーションシステム、およびコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7008992 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |