JP7102035B1 - 説明支援システム - Google Patents
説明支援システム Download PDFInfo
- Publication number
- JP7102035B1 JP7102035B1 JP2021126987A JP2021126987A JP7102035B1 JP 7102035 B1 JP7102035 B1 JP 7102035B1 JP 2021126987 A JP2021126987 A JP 2021126987A JP 2021126987 A JP2021126987 A JP 2021126987A JP 7102035 B1 JP7102035 B1 JP 7102035B1
- Authority
- JP
- Japan
- Prior art keywords
- display
- information
- unit
- storage unit
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000463 material Substances 0.000 claims abstract description 110
- 230000000694 effects Effects 0.000 description 16
- 206010012601 diabetes mellitus Diseases 0.000 description 14
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 239000012769 display material Substances 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 239000002547 new drug Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
表示情報記憶部7は,キーワードの組み合わせに基づいて表示部3に表示される表示情報を記憶するための要素である。
音声解析部9は,説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析するための要素である。
表示制御部11は, 音声解析部9が解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報記憶部7から,表示情報を読み出し,表示部3に表示させるための要素である。
そして,説明支援システム1は,表示キーワードの選択情報を入力する選択情報入力部25をさらに有し,資料記憶部5は,キーワードと説明資料の頁を関連付けて記憶し,表示制御部11は,選択情報入力部25が入力した表示キーワードの選択情報に基づいて,資料記憶部5から選択情報と関連付けて記憶された説明資料の頁を表示部3に表示する。
説明資料に関する音声情報は,説明資料に関して人又は機械が発音し,それを収録した音声情報である。音声情報は,説明,プレゼンテーション,会話,チャット及び質問応答のいずれであってもよい。例えば,記憶部は,プレゼンテーション資料に関する音声情報を含むプレゼンテーションを記憶する。プレゼンテーションの例は,プレゼンテーション資料に基づいてプレゼンテーターが説明等を行った際の音声や映像である。プレゼンテーションは,マイクなどの収音機器(コンピュータの入力部)を介して,電気情報に変換されてコンピュータに入力された音声情報であってもよい。また,プレゼンテーションは,ビデオなどの収録機器を介して,電気情報に変換されてコンピュータに入力された映像及び音声情報であってもよい。このようにコンピュータの入力部から入力された音声情報(及び映像)が,記憶部に記憶されることとなる。もっとも,この発明では,プレゼンテーター(話者)のみならず,聴衆(相手)の音声も録音されることが好ましい。具体的には,MRなどの説明者のみならず,医師など説明を受ける者の音声も記憶部に録音されることが好ましい。
具体的な主体の例は,話者と聴衆の組合せでは,プレゼンテーターとオーディエンス,MRと医師,医師と患者,銀行員と顧客,従業員と顧客,店員と顧客である。
そして,説明支援システム1は,表示キーワードの選択情報を入力する選択情報入力部25をさらに有し,資料記憶部5は,キーワードと説明資料の頁を関連付けて記憶し,表示制御部11は,選択情報入力部25が入力した表示キーワードの選択情報に基づいて,資料記憶部5から選択情報と関連付けて記憶された説明資料の頁を表示部3に表示する。
説明資料と説明資料に関する複数のキーワードとを記憶させ,
キーワードの組み合わせに基づいて表示される表示情報を記憶させ,
説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析させ,
解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報を読み出し,表示させる,システムであってもよい。このシステムは,上記した様々な態様を実現できる。
説明資料と説明資料に関する複数のキーワードとを記憶させ,
キーワードの組み合わせに基づいて表示される表示情報を記憶させ,
説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析させ,
解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報を読み出し,表示させる方法をも提供する。
具体的なプログラムの例は,コンピュータを,
表示部3と,
説明資料と説明資料に関する複数のキーワードとを記憶する資料記憶部5と,
キーワードの組み合わせに基づいて表示部3に表示される表示情報を記憶する表示情報記憶部7と,
説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析する音声解析部9と,
音声解析部9が解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報記憶部7から,表示情報を読み出し,表示部3に表示させる表示制御部11と,を含む説明支援システム1として機能させるためのプログラムである。
このシステムは,記憶部に,説明資料と説明資料に関する複数のキーワードとを記憶させている。また,このシステムは,記憶部に,キーワードの組み合わせに基づいて表示される表示情報を記憶させている。このシステムは,各キーワードと説明資料の頁を関連付けて記憶していることが好ましい。この例では,MRが医師にプレゼンテーション資料(説明資料)を用いて,説明する際の例である。この例では,MR用の端末(第1の端末)と,医師用の端末(第2の端末)を用いる。最も,MRと医師が近くにいる場合は,一つの端末を共有してもよい。
MRがある薬剤に関するプレゼンテーション資料を選択する。すると,システムに,特定の説明資料が選択された旨の情報が入力される。システムは,記憶部に記憶される説明資料を読み出して,MR用の端末の表示部に説明資料を表示させる。その例は,図4に示されるものである。一方,システムは,記憶部に記憶される説明資料に関する複数のキーワードを読み出す。そして,この状態でも,説明資料に関して,最初に用いることが好ましいキーワード(初期表示用キーワード)を表示部に表示してもよい。すると,MRは,表示部に表示されたキーワードを参考に,医師に対して説明を行うことができることとなる。この工程は,説明資料の部分(プレゼンテーション資料の頁)が変わるごとに改めて行われてもよい。
MRが説明を行うと,MR用の端末の入力部(例えばマイク)を介して,MRの会話が入力される。すると,その会話は,デジタルの音声情報に変換され,記憶部に記憶される。医師が質問等の発言をした場合も,例えば,医師用の端末の入力部を介して,医師の質問が入力される。すると,その質問は,デジタルの音声情報に変換され,記憶部に記憶される。このようにして,会話による音声情報が,システムに入力される。
音声情報は,記憶部に記憶される。そして,システムは,記憶された音声情報を読み出して,音声情報を用語解析する。この際には,公知の辞書を用いて,音声情報と比較し,会話に含まれる音声用語を求めて,記憶部に適宜記憶させればよい。
次に,システムは,音声用語の主体を解析する。なお,この工程を省略して,音声用語の主体を解析せずに,表示情報を表示させ続けてもよい。そのうえで,このシステムを利用する場合に,主体解析モードとして,音声用語の主体を解析し,解析した主体に基づいて,表示情報を更新してもよい
例えば,通常モードでは(主体を特定しない場合),記憶部に記憶された音声用語が,記憶部に記憶されたキーワードのいずれであるかを特定し,記憶部に記憶させる。この動作を繰り返し,1又は複数のキーワードが,記憶部に記憶した特定のキーワードの組合せに相当した場合に,その組み合わせに関連して記憶部に記憶されている表示情報を記憶部から読み出して,表示部に表示させる。
また,聴衆モードでは(話者よりも聴衆の発言を優先する場合),聴衆からの発言がなされたときに,聴衆由来の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報を読み出し,表示部に表示させる。なお,話者モードでは(聴衆からの発言を軽視するモード)では,システムに聴衆からの雑音が入力された場合でも,話者の発言に基づいて,表示情報を表示部に表示させる。
先に説明した通り,例えば,「副作用」及び「19歳以下」がMR用端末の表示部に表示される。この段階で,プレゼンテーションに適した表示がなされ,説明が支援されることとなる。
MRが表示部に表示されたキーワード(表示キーワード)である「副作用」及び「19歳以下」のいずれかタッチする。例えば,MRが副作用の部分にタッチする。すると,タッチパネル入力により,「副作用」が選択されたことに関する情報が,端末に入力される。なお,表示画面に「副作用」及び「19歳以下」に関するアイコン(キーワード用アイコン)が表示され,このアイコンを指定してクリックすることで,キーワードが選択されるようにしてもよい。また,それ以外の公知の方法で,キーワードを選択させるようにしてもよい。
上記の工程で,表示キーワードである副作用が選択される。すると,システムは,副作用と関連して記憶された説明資料の頁に関する情報を読み出し,そのうえで,その説明資料の頁を記憶部から読み出す。そして,システムは,読み出した説明資料の頁を,MR用端末の表示部に表示する。それと並行して,読み出した説明資料の頁を医師用端末の表示部にも表示する。すると,MRは,副作用と関連して読み出された説明資料の頁について,スムーズに説明を行うことができることとなる。
次に,適切な端末を誘導するためのシステムについて説明する。このシステムは,上記システムの一部として用いることもできるし,上記システムとは別のシステムとして用いることができる。
コンテンツ表示部33は,複数のコンテンツ31を表示するための要素である。
選択コンテンツ入力部35は,複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツを入力するための要素である。
コンテンツ関連者情報記憶部37は,複数のコンテンツ31と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶するための要素である。
対応可能者情報記憶部39は,コンテンツ関連者情報記憶部37が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶するための要素である。
端末選択部41は,第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択するための要素である。
複数のコンテンツ31を表示するためのコンテンツ表示部33と,
複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツを入力する選択コンテンツ入力部35と,
複数のコンテンツ31と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶するコンテンツ関連者情報記憶部37と,
コンテンツ関連者情報記憶部37が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶する対応可能者情報記憶部39とを有し,
第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択する端末選択部41をさらに有する,
説明支援システム1として機能させるプログラムや,そのプログラムを記憶した情報記録媒体をも提供する。
複数のコンテンツ31を表示させ,
複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツを入力させ,
複数のコンテンツ31と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶させ,
コンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶させ,
第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択させる説明支援システム1をも提供する。
3 表示部
5 資料記憶部
7 表示情報記憶部
9 音声解析部
11 表示制御部
Claims (4)
- 表示部(3)と,
説明資料と前記説明資料に関する複数のキーワードとを記憶する資料記憶部(5)と,
前記キーワードの組み合わせに基づいて前記表示部(3)に表示される表示情報を記憶する表示情報記憶部(7)と,
前記説明資料に関する音声情報に含まれる用語である音声用語と前記音声用語の主体を解析する音声解析部(9)と,
前記音声解析部(9)が解析した特定の主体の音声用語が前記複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて, 前記表示情報記憶部(7)から,前記表示情報を読み出し,前記表示部(3)に表示させる表示制御部(11)と,を含む説明支援システム(1)であって,
前記表示情報は,前記複数のキーワードのうちいずれか2つ以上のキーワードである表示キーワードを含み,
前記説明支援システム(1)は,
前記表示キーワードの選択情報を入力する選択情報入力部(25)をさらに有し,
前記資料記憶部(5)は,前記キーワードと前記説明資料の頁を関連付けて記憶し,
前記表示制御部(11)は,選択情報入力部(25)が入力した表示キーワードの選択情報に基づいて,前記資料記憶部(5)から前記選択情報と関連付けて記憶された前記説明資料の頁を前記表示部(3)に表示する,
説明支援システム(1)であって,
前記表示制御部(11)は,
前記音声用語の主体が前記表示部(3)と接続された第1の端末(21)由来の主体である場合より,
前記第1の端末(21)以外の端末である第2の端末(23)由来の主体である場合を優先して,前記表示情報を前記表示部(3)に表示させる,
説明支援システム(1)。 - 請求項1に記載の説明支援システム(1)であって,
複数のコンテンツ(31)を表示するためのコンテンツ表示部(33)と,
前記複数のコンテンツ(31)のうち選択されたコンテンツである選択コンテンツを入力する選択コンテンツ入力部(35)と,
前記複数のコンテンツ(31)と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶するコンテンツ関連者情報記憶部(37)と,
前記コンテンツ関連者情報記憶部(37)が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶する対応可能者情報記憶部(39)とを有し,
前記第2の端末(23)が,前記選択コンテンツを選択した場合に,前記対応可能者情報に基づいて前記第1の端末(21)を選択する端末選択部(41)をさらに有する,
説明支援システム(1)。 - 請求項2に記載の説明支援システム(1)であって,
前記第2の端末(23)のユーザに関する情報を記憶するユーザ記憶部(43)をさらに有し,
前記端末選択部(41)は,前記ユーザ記憶部(43)が記憶するユーザ情報と前記対応可能者情報を用いて,前記第1の端末(21)を選択する
説明支援システム(1)。 - コンピュータを,
表示部(3)と,
説明資料と前記説明資料に関する複数のキーワードとを記憶する資料記憶部(5)と,
前記キーワードの組み合わせに基づいて前記表示部(3)に表示される表示情報を記憶する表示情報記憶部(7)と,
前記説明資料に関する音声情報に含まれる用語である音声用語と前記音声用語の主体を解析する音声解析部(9)と,
前記音声解析部(9)が解析した特定の主体の音声用語が前記複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて, 前記表示情報記憶部(7)から,前記表示情報を読み出し,前記表示部(3)に表示させる表示制御部(11)と,を含む説明支援システム(1)であって,
前記表示情報は,前記複数のキーワードのうちいずれか2つ以上のキーワードである表示キーワードを含み,
前記説明支援システム(1)は,
前記表示キーワードの選択情報を入力する選択情報入力部(25)をさらに有し,
前記資料記憶部(5)は,前記キーワードと前記説明資料の頁を関連付けて記憶し,
前記表示制御部(11)は,選択情報入力部(25)が入力した表示キーワードの選択情報に基づいて,前記資料記憶部(5)から前記選択情報と関連付けて記憶された前記説明資料の頁を前記表示部(3)に表示する,
説明支援システム(1)であって,
前記表示制御部(11)は,
前記音声用語の主体が前記表示部(3)と接続された第1の端末(21)由来の主体である場合より,
前記第1の端末(21)以外の端末である第2の端末(23)由来の主体である場合を優先して,前記表示情報を前記表示部(3)に表示させる,
説明支援システム(1)として機能させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021126987A JP7102035B1 (ja) | 2021-08-02 | 2021-08-02 | 説明支援システム |
JP2022018259A JP2023021901A (ja) | 2021-08-02 | 2022-02-08 | 説明支援システム |
CN202280004795.6A CN115968466A (zh) | 2021-08-02 | 2022-06-03 | 说明支持系统 |
US18/575,337 US20240331692A1 (en) | 2021-08-02 | 2022-06-03 | Explanation Support System |
PCT/JP2022/022627 WO2023013226A1 (ja) | 2021-08-02 | 2022-06-03 | 説明支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021126987A JP7102035B1 (ja) | 2021-08-02 | 2021-08-02 | 説明支援システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022018259A Division JP2023021901A (ja) | 2021-08-02 | 2022-02-08 | 説明支援システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7102035B1 true JP7102035B1 (ja) | 2022-07-19 |
JP2023021856A JP2023021856A (ja) | 2023-02-14 |
Family
ID=82457379
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021126987A Active JP7102035B1 (ja) | 2021-08-02 | 2021-08-02 | 説明支援システム |
JP2022018259A Pending JP2023021901A (ja) | 2021-08-02 | 2022-02-08 | 説明支援システム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022018259A Pending JP2023021901A (ja) | 2021-08-02 | 2022-02-08 | 説明支援システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240331692A1 (ja) |
JP (2) | JP7102035B1 (ja) |
CN (1) | CN115968466A (ja) |
WO (1) | WO2023013226A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025609A (ja) | 2011-07-22 | 2013-02-04 | Mizuho Information & Research Institute Inc | 説明支援システム、説明支援方法及び説明支援プログラム |
JP2017173768A (ja) | 2016-03-25 | 2017-09-28 | グローリー株式会社 | 議事録作成システム |
JP2020119112A (ja) | 2019-01-22 | 2020-08-06 | 株式会社インタラクティブソリューションズ | 発言禁止用語に対し注意を喚起するためのプレゼンテーション支援装置 |
JP2021012700A (ja) | 2020-08-06 | 2021-02-04 | 株式会社インタラクティブソリューションズ | プレゼンテーション支援システム |
JP2021081452A (ja) | 2018-03-08 | 2021-05-27 | 株式会社インタラクティブソリューションズ | コンピュータを用いたプレゼンテーション支援方法,支援システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1525739A1 (en) * | 2002-07-29 | 2005-04-27 | British Telecommunications Public Limited Company | Improvements in or relating to information provision for call centres |
JP6718243B2 (ja) * | 2016-01-28 | 2020-07-08 | 株式会社インタラクティブソリューションズ | 表示装置、表示プログラム、表示システム及び表示装置の制御方法 |
US10902481B1 (en) * | 2017-05-23 | 2021-01-26 | Walgreen Co. | Method and system for providing a seamless handoff from a voice channel to a call agent |
US11429834B1 (en) * | 2018-09-07 | 2022-08-30 | Intuit, Inc. | Neural-based agent assistance interface for providing answers based on a query vector |
CN109346086A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、计算机设备和计算机可读存储介质 |
US10805465B1 (en) * | 2018-12-20 | 2020-10-13 | United Services Automobile Association (Usaa) | Predictive customer service support system and method |
JP6689421B1 (ja) * | 2019-01-25 | 2020-04-28 | 株式会社インタラクティブソリューションズ | 音声解析システム |
JP6749705B2 (ja) * | 2019-01-25 | 2020-09-02 | 株式会社インタラクティブソリューションズ | プレゼンテーション支援システム |
US20210005207A1 (en) * | 2019-07-05 | 2021-01-07 | Talkdesk, Inc. | System and method for querying multiple information sources using agent assist within a cloud-based contact center |
US10812655B1 (en) * | 2019-10-30 | 2020-10-20 | Talkdesk Inc. | Methods and systems for seamless outbound cold calls using virtual agents |
JP6758732B1 (ja) * | 2020-01-06 | 2020-09-23 | 株式会社インタラクティブソリューションズ | プレゼンテーション支援システム |
JP6771251B1 (ja) * | 2020-04-24 | 2020-10-21 | 株式会社インタラクティブソリューションズ | 音声解析システム |
US11442601B2 (en) * | 2020-06-18 | 2022-09-13 | T-Mobile Usa, Inc. | Computer desktop that dynamically adapts to a live multi-channel audio stream, such as for use with wireless telecommunications customer service agents |
-
2021
- 2021-08-02 JP JP2021126987A patent/JP7102035B1/ja active Active
-
2022
- 2022-02-08 JP JP2022018259A patent/JP2023021901A/ja active Pending
- 2022-06-03 WO PCT/JP2022/022627 patent/WO2023013226A1/ja active Application Filing
- 2022-06-03 US US18/575,337 patent/US20240331692A1/en active Pending
- 2022-06-03 CN CN202280004795.6A patent/CN115968466A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025609A (ja) | 2011-07-22 | 2013-02-04 | Mizuho Information & Research Institute Inc | 説明支援システム、説明支援方法及び説明支援プログラム |
JP2017173768A (ja) | 2016-03-25 | 2017-09-28 | グローリー株式会社 | 議事録作成システム |
JP2021081452A (ja) | 2018-03-08 | 2021-05-27 | 株式会社インタラクティブソリューションズ | コンピュータを用いたプレゼンテーション支援方法,支援システム |
JP2020119112A (ja) | 2019-01-22 | 2020-08-06 | 株式会社インタラクティブソリューションズ | 発言禁止用語に対し注意を喚起するためのプレゼンテーション支援装置 |
JP2021012700A (ja) | 2020-08-06 | 2021-02-04 | 株式会社インタラクティブソリューションズ | プレゼンテーション支援システム |
Also Published As
Publication number | Publication date |
---|---|
JP2023021901A (ja) | 2023-02-14 |
US20240331692A1 (en) | 2024-10-03 |
WO2023013226A1 (ja) | 2023-02-09 |
CN115968466A (zh) | 2023-04-14 |
JP2023021856A (ja) | 2023-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018221120A1 (ja) | 表示装置 | |
US20070129942A1 (en) | Visualization and annotation of the content of a recorded business meeting via a computer display | |
JP2011039860A (ja) | 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム | |
JP2020003926A (ja) | 対話システムの制御方法、対話システム及びプログラム | |
CN111902831B (zh) | 演示支援系统 | |
JP7345909B2 (ja) | プレゼンテーション評価システム | |
JP7102035B1 (ja) | 説明支援システム | |
JP6979725B2 (ja) | プレゼンテーション支援方法 | |
JP6884442B2 (ja) | プレゼンテーション支援システム | |
JP7237378B2 (ja) | システム | |
JP7482562B2 (ja) | プレゼンテーション支援システム | |
JP7483995B1 (ja) | 通信ネットワークを介したサービスの提供を支援する方法、プログラム及びサーバ | |
WO2023106014A1 (ja) | 説明支援システム | |
Auer et al. | Digitization and Accessibility | |
JP2022179092A (ja) | 情報処理システム | |
JP2020052593A (ja) | 分析装置及び分析プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210802 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7102035 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |