JP7102035B1 - 説明支援システム - Google Patents

説明支援システム Download PDF

Info

Publication number
JP7102035B1
JP7102035B1 JP2021126987A JP2021126987A JP7102035B1 JP 7102035 B1 JP7102035 B1 JP 7102035B1 JP 2021126987 A JP2021126987 A JP 2021126987A JP 2021126987 A JP2021126987 A JP 2021126987A JP 7102035 B1 JP7102035 B1 JP 7102035B1
Authority
JP
Japan
Prior art keywords
display
information
unit
storage unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021126987A
Other languages
English (en)
Other versions
JP2023021856A (ja
Inventor
潔 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Interactive Solutions Inc
Original Assignee
Interactive Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interactive Solutions Inc filed Critical Interactive Solutions Inc
Priority to JP2021126987A priority Critical patent/JP7102035B1/ja
Priority to JP2022018259A priority patent/JP2023021901A/ja
Priority to CN202280004795.6A priority patent/CN115968466A/zh
Priority to US18/575,337 priority patent/US20240331692A1/en
Priority to PCT/JP2022/022627 priority patent/WO2023013226A1/ja
Application granted granted Critical
Publication of JP7102035B1 publication Critical patent/JP7102035B1/ja
Publication of JP2023021856A publication Critical patent/JP2023021856A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】会話主体を把握したうえで適切な表示を行うシステムを提供する。【解決手段】説明支援システム1は,表示部3と,説明資料と説明資料に関する複数のキーワードとを記憶する資料記憶部5と,キーワードの組み合わせに基づいて表示部3に表示される表示情報を記憶する表示情報記憶部7と,説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析する音声解析部9と,音声解析部9が解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報記憶部7から,表示情報を読み出し,表示部3に表示させる表示制御部11と,を含む。【選択図】図1

Description

この発明は,説明支援システムに関する。より具体的に説明すると音声の主体を分析し,分析した主体に関する情報を生かして,ダイナミックに説明を支援するためのシステムに関する。
特許第6758732号公報には,プレゼンテーション支援システムが記載されている。このシステムは,通常のプレゼンテーターであっても効果的なプレゼンテーションを行うことができるプレゼンテーション支援システムに関する。このシステムは,音声に含まれる複数のキーワードの登場順番を解析し,解析した登場順番に基づいて,表示部に表示されるキーワードの順番を変更することで,効果的なプレゼンテーションを行うことができるようにするものである。
一方,例えば,医師に対してMRが説明する場合や,生徒に対して教師が説明する場合,解析される音声の多くはMRや教師由来の音声である。この場合,MRや教師の音声が優先されて,キーワードが表示されることとなる。しかし,音声の数の少ない医師や生徒の発言を尊重した方が,効果的なプレゼンテーションを行うことができる場合もある。また,単に音声解析のみを行う場合,雑音に含まれる用語を解析してしまい,話者の思い通りのナビゲーションが行われない可能性もある。
特許第6758732号公報
この発明は,説明主体を考慮した説明をすることができるように,説明を支援するためのシステムを提供することを目的とする。
この発明は,基本的には,複数の主体由来の音声が含まれる会話を解析して説明を行うに際し,音声の主体を考慮して,表示内容を変更することで,効果的に説明を支援できるという知見に基づく。
この明細書に記載されるある発明は,説明支援システム1に関する。このシステムは,コンピュータを用いたシステムである。
このシステムは,表示部3と,資料記憶部5と,表示情報記憶部7と,音声解析部9と,表示制御部11とを含む。本明細書における各部は,コンピュータにおける各手段や各要素によって実現できる。それらは,ソフトウェア又はハードウェアにより実現してもよいし,ソフトウェアとハードウェアの協働により実現してもよい。
表示部3は,コンピュータの出力部の一種であり,通常,説明する側の者やプレゼンテーターが見ることができる表示部である。
資料記憶部5は,説明資料と説明資料に関する複数のキーワードとを記憶するための要素である。
表示情報記憶部7は,キーワードの組み合わせに基づいて表示部3に表示される表示情報を記憶するための要素である。
音声解析部9は,説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析するための要素である。
表示制御部11は, 音声解析部9が解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報記憶部7から,表示情報を読み出し,表示部3に表示させるための要素である。
上記のシステムの好ましい例は,表示制御部11が,音声用語の主体が表示部3と接続された第1の端末21由来の主体である場合より,第1の端末21以外の端末である第2の端末23由来の主体である場合を優先して,表示情報を表示部3に表示させるものである。
上記のシステムの好ましい例は,表示情報が,複数のキーワードのうちいずれか2つ以上のキーワードである表示キーワードを含むものである。
そして,説明支援システム1は,表示キーワードの選択情報を入力する選択情報入力部25をさらに有し,資料記憶部5は,キーワードと説明資料の頁を関連付けて記憶し,表示制御部11は,選択情報入力部25が入力した表示キーワードの選択情報に基づいて,資料記憶部5から選択情報と関連付けて記憶された説明資料の頁を表示部3に表示する。
上記のシステムの好ましい例は,複数のコンテンツ31を表示するためのコンテンツ表示部33と,複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツを入力する選択コンテンツ入力部35と,複数のコンテンツ31と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶するコンテンツ関連者情報記憶部37と, コンテンツ関連者情報記憶部37が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶する対応可能者情報記憶部39とを有し,第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択する端末選択部41をさらに有する,説明支援システム1である。
上記のシステムの好ましい例は,第2の端末23のユーザに関する情報を記憶するユーザ記憶部43をさらに有し,端末選択部41は,ユーザ記憶部43が記憶するユーザ情報と対応可能者情報を用いて,第1の端末21を選択する。
この発明によれば,説明を受ける者の発言を考慮して,表示内容が変更されるので,説明を受ける者の発言を考慮した説明を支援できるシステムを提供できる。また,この発明によれば,外部雑音に由来する用語を除くといった,複数の主体由来の音声が含まれる会話を解析して説明を行うに際し,音声の主体を考慮して,表示内容を変更することで,効果的に説明を支援できる。
図1は,説明支援システムの構成例を示すブロック図である。 図2は,コンピュータの基本構成を示すブロック図である。 図3は,本発明のシステム例を示す概念図である。 図4は,プレゼンテーション資料の表示例を示す概念図である。 図5は,キーワード順調整部により調整された語順のキーワードを示す概念図である。 図6は,このシステムの動作例を示すフローチャートである。 図7は,ウェブサイトの表示画面の例を示す概念図である。
以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。
この明細書に記載されるある発明は,説明支援システムに関する。このシステムは,コンピュータを用いたシステムである。
図1は,説明支援システムの構成例を示すブロック図である。図1に示されるように,このシステム1は,表示部3と,資料記憶部5と,表示情報記憶部7と,音声解析部9と,表示制御部11とを含む。なお,図1に示されるように,このシステムは,選択情報入力部25,コンテンツ表示部33と,選択コンテンツ入力部35と,コンテンツ関連者情報記憶部37と,対応可能者情報記憶部39,端末選択部41,及びユーザ記憶部43をさらに含んでもよく,コンピュータが備える各種要素を適宜含んでもよい。もっとも,コンテンツ表示部33と,選択コンテンツ入力部35と,コンテンツ関連者情報記憶部37と,対応可能者情報記憶部39,端末選択部41,及びユーザ記憶部43を含むシステムであって,音声解析部9及び表示制御部11を含まないものは,この明細書に記載される上記とは別の発明である。
本明細書における各部は,コンピュータにおける各手段,各要素又は各工程によって実現できる。それらは,ソフトウェア又はハードウェアにより実現してもよいし,ソフトウェアとハードウェアの協働により実現してもよい。このシステムは,コンピュータにより実装されてもよいし,コンピュータとサーバを用いたサーバ・クライアントシステムにより実装されてもよい。コンピュータは,携帯端末,デスクトップ型パーソナルコンピュータ,及びサーバのいずれか又は2つ以上の組み合わせであってもよい。これらは通常インターネット(イントラネット)等により情報の授受を行うことができるように接続されている。一部の機能をいずれかのコンピュータにもたせるなど,複数のコンピュータを用いて,機能を分担してもよい。
図2は,コンピュータの基本構成を示すブロック図である。この図に示されるように,コンピュータは,入力部51,出力部53,制御部55,演算部57及び記憶部59を有しており,各要素は,バス61などによって接続され,情報の授受を行うことができるようにされている。例えば,記憶部には,制御プログラムが記憶されていてもよいし,各種情報が記憶されていてもよい。入力部から所定の情報が入力された場合,制御部は,記憶部に記憶される制御プログラムを読み出す。そして,制御部は,適宜記憶部に記憶された情報を読み出し,演算部へ伝える。また,制御部は,適宜入力された情報を演算部へ伝える。演算部は,受け取った各種情報を用いて演算処理を行い,記憶部に記憶する。制御部は,記憶部に記憶された演算結果を読み出して,出力部から出力する。このようにして,各種処理が実行される。この各種処理を実行するものが,各手段や各部である。
図3は,本発明のシステム例を示す概念図である。図3に示されるように,本発明のシステム(本発明の装置を含むシステム)は,インターネット又はイントラネット63と接続された携帯端末65と,インターネット又はイントラネット63に接続されたサーバ67とを含むものであってもよい。もちろん,単体のコンピュータや携帯端末が,本発明の装置として機能してもよいし,複数のサーバが存在してもよい。なお,この図の例では,携帯端末65が第1の端末21であり,インターネットを介して第2の端末23と情報のやり取りを行うことができる態様で接続されている。
表示部3は,コンピュータに基づいて,各種情報を表示するための要素である。コンピュータの出力部53の一種であるモニタ又はディスプレイや,スマートフォンのタッチパネルが表示部3として機能する。表示部3は,プロジェクタであっても構わない。プレゼンテーションを行う場合は,コンピュータやタブレットのモニタが表示部3として機能する他,プレゼンテーション資料がプロジェクタにより放映されてもよい。この場合,後述するように,モニタには,プレゼンテーション資料のみならず,キーワードの語順に関する情報及び説明文のいずれか又は両方が合わせて表示されてもよい。
資料記憶部5は,説明資料と説明資料に関する複数のキーワードとを記憶するための要素である。コンピュータの記憶部が資料記憶部5として機能する。説明資料が複数のページを有する場合,ページごとに複数のキーワードが記憶されていてもよい。各説明資料や,各ページは,ファイル名やIDといった情報とともに記憶され,これらの情報を用いて,説明資料や複数のキーワードが読み出されるように記憶されていてもよい。説明資料の例は,プレゼンテーション資料である。プレゼンテーション資料の例は,パワーポイント(登録商標),又はpdf(登録商標)で作成された資料である。プレゼンテーション資料とは,例えばパワーポイント(登録商標)といったソフトウェアで作成された一連の資料の全体(あるファイル)を意味したり,ある特定のページを意味する。例えば,プレゼンテーション資料ごとに識別番号やIDが割り当てられている。そして,資料記憶部5では,割り当てられた情報(識別番号やID),又は識別番号及びページ番号(スライド番号)と関連して,複数のキーワードが記憶されている。このようにして,それぞれのプレゼンテーション資料又は各資料の各ページ(各スライド)と,それぞれのプレゼンテーション資料に関連する複数のキーワードが関連づけられて記憶される。
プレゼンテーション資料の例は,糖尿病に関する新薬Xに関するパワーポイント資料である。そして,そのプレゼンテーション資料に関する複数のキーワードの例は,そのパワーポイント資料に関するキーワードである「糖尿病」,「X」,「投与量」,「副作用」,「めまい」,「眠気」,(投与してはならない対象である)「妊婦」,及び(投与してはならない対象である)「19歳以下」である。これらは,例えば,プレゼンテーション資料の識別番号(及び各ページ番号)に関連して,資料記憶部5に記憶される。
図4は,プレゼンテーション資料の表示例を示す概念図である。この例では,例えばパワーポイントにより作成されたプレゼンテーション資料のある頁を表示する説明資料表示領域(プレゼンテーション領域)71,及び表示情報(例えばキーワード)を表示する表示情報表示領域(キーワード表示領域)73が表示部3に存在する。プロジェクタや,相手方のモニタ(相手方の表示部)には,例えばプレゼンテーション領域71の表示画像が表示される。相手方の表示部の例は,相手方のモニタ,複数の生徒用のディスプレイ,及び複数の聴衆用のディスプレイである。つまり,この例では,表示部に,説明資料のある部分(ある頁)を表示させる領域と,その説明資料又はその説明資料のある部分に関連する表示情報を表示する表示領域とを有する。そして,表示領域には,例えば,その説明資料又はその説明資料のある部分に関連するキーワードが適宜表示される。この表示例は,先に説明した通り,話者と聴衆との会話に基づいて,リアルタイムで更新される。なお,表示部は,タッチパネル形式であり,表示領域に表示された表示情報をタッチすることで,そのタッチした領域に存在する用語を選択してシステムに入力できるようにされているものが好ましい。
表示情報記憶部7は,キーワードの組み合わせに基づいて表示部3に表示される表示情報を記憶するための要素である。このキーワードの組み合わせは,先に説明した説明資料や説明資料のページと関連して,複数のキーワードの組み合わせが記憶されているものが好ましい。例えば,あるページに関するキーワードの組み合わせが,「糖尿病」及び「妊婦」であり,表示部に表示される表示情報の例は「副作用」及び「19歳以下」である。例えば,説明を受ける者が,「糖尿病」及び「妊婦」という組み合わせの発言をした場合,説明をする者の表示部に「副作用」及び「19歳以下」が表示される。すると,説明をする者は,忘れずに「副作用」及び「19歳以下」に関する説明をすることができるようになる。このキーワードの組み合わせは,キーワードの登場順番をも含む。例えば,「糖尿病」というキーワードの後に「妊婦」というキーワードが登場した場合に,「副作用」及び「19歳以下」というキーワードが表示部に表示されるようにしてもよい。
図5は,キーワードの登場順番に基づくキーワードの組み合わせの例を示す概念図である。例えば,ある用語の次にA1という用語が用いられた場合,表示情報として,B1,B2,及びB3が表示されてもよいし,ベストな候補としてB1及びC1が表示されてもよい。
音声解析部9は,説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析するための要素である。
説明資料に関する音声情報は,説明資料に関して人又は機械が発音し,それを収録した音声情報である。音声情報は,説明,プレゼンテーション,会話,チャット及び質問応答のいずれであってもよい。例えば,記憶部は,プレゼンテーション資料に関する音声情報を含むプレゼンテーションを記憶する。プレゼンテーションの例は,プレゼンテーション資料に基づいてプレゼンテーターが説明等を行った際の音声や映像である。プレゼンテーションは,マイクなどの収音機器(コンピュータの入力部)を介して,電気情報に変換されてコンピュータに入力された音声情報であってもよい。また,プレゼンテーションは,ビデオなどの収録機器を介して,電気情報に変換されてコンピュータに入力された映像及び音声情報であってもよい。このようにコンピュータの入力部から入力された音声情報(及び映像)が,記憶部に記憶されることとなる。もっとも,この発明では,プレゼンテーター(話者)のみならず,聴衆(相手)の音声も録音されることが好ましい。具体的には,MRなどの説明者のみならず,医師など説明を受ける者の音声も記憶部に録音されることが好ましい。
音声解析部9は,説明資料に関する音声情報に含まれる用語を解析するための要素である。音声解析部9は,例えば,記憶部に記憶された制御プログラムにより実装される。音声認識装置は,公知である。このため,音声解析部は,公知の音声認識装置のものを適宜用いることができる。例えば,記録部に記憶されたプレゼンテーションのうち音声情報を読み取る。そして,コンピュータの制御部は,記憶部に記憶された制御プログラムを読み出して,読み出した音声情報を演算部に解析させる。この際,記憶部に記憶された複数の用語及びその用語の音声情報を読み出し,プレゼンテーションに含まれる用語を解析すればよい。そして,解析された用語を適宜記憶部に記憶させればよい。このようにして,音声解析部9は,音声記憶部7が記憶したプレゼンテーションに含まれる用語を解析できる。
音声解析部9は,音声情報に基づいて,音声用語の主体を解析する。音声用語の主体を解析する例は,音声情報の発話主体が単独のものであるか,複数の者であるかを解析するものである。さらに,音声用語の主体を解析する例は,プレゼンテーター(話者)と,それ以外(聴衆や質問者)を区別するものである。例えば,記憶部に,プレゼンテーターの声紋を記憶しておき,音声解析部9が,記憶部からプレゼンテーターの声紋を読み出して,音声用語の主体がプレゼンテーターかそれ以外かを解析してもよい。また,音声解析部9は,音声情報の周波数を解析し,音声用語の主体を判別するようにしてもよい。さらに,音声情報がどの端末に入力されたものであるかに基づいて,音声用語の主体を判別するようにしてもよい。このようにすれば,音声解析部9は,音声用語の主体を解析できる。
具体的な主体の例は,話者と聴衆の組合せでは,プレゼンテーターとオーディエンス,MRと医師,医師と患者,銀行員と顧客,従業員と顧客,店員と顧客である。
また,記憶部は,プレゼンテーションを行った者の情報やプレゼンテーション相手に関する情報とともに,プレゼンテーションに含まれる用語を解析し記憶部に記憶してもよい。プレゼンテーションを行った者の情報を記憶部に記憶してもよい。プレゼンテーションを行った者の情報の例は,社員番号,氏名,性別,年齢,営業成績,役職,出身地,プレゼンテーションの評価,勤続年数,及び担当年数である。プレゼンテーション相手に関する情報の例は,病院の規模,病院の地方,講演か一人の医師向けか,及び(医師向けの場合)医師に関する情報である。プレゼンテーション相手に関する情報の別の例は,講義の地域,受講者のレベル,受講者の学年,受講人数,受講者の職業,受講者の業務内容,受講者の勤務年数,及び受講者の役職である。
表示制御部11は, 音声解析部9が解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報記憶部7から,表示情報を読み出し,表示部3に表示させるための要素である。
特定の主体の音声用語は,例えば,話者(プレゼンテーター)の音声用語であるか,又は話者以外の音声用語である。先に説明した通り,音声解析部9は,音声用語を解析するとともに,それぞれの音声用語の主体を解析し,記憶部に記憶する。そして,表示制御部11は,話者(又は聴衆)の音声用語と説明資料に関する複数のキーワードとを照合する。そして,照合して得られたキーワード(特定したキーワード)を記憶部に記憶し,キーワードの組み合わせに相当した場合に,そのキーワードの組み合わせに基づいて,表示情報を読み出し,表示部3に表示させる。
表示制御部11が,音声用語の主体が表示部3と接続された第1の端末21由来の主体である場合より,第1の端末21以外の端末である第2の端末23由来の主体である場合を優先して,表示情報を表示部3に表示させるものが好ましい。例えば,MRが医師に対して説明を行う場合,MRが話続けている際には,MRの説明を補助するための表示情報がMRの端末に表示され,途中で医師が質問をした際には,医師の質問に的確に回答するための表示情報がMRの端末に表示されることとなる。
上記のシステムの好ましい例は,表示情報が,複数のキーワードのうちいずれか2つ以上のキーワードである表示キーワードを含むものである。
そして,説明支援システム1は,表示キーワードの選択情報を入力する選択情報入力部25をさらに有し,資料記憶部5は,キーワードと説明資料の頁を関連付けて記憶し,表示制御部11は,選択情報入力部25が入力した表示キーワードの選択情報に基づいて,資料記憶部5から選択情報と関連付けて記憶された説明資料の頁を表示部3に表示する。
選択情報入力部25の例は,表示部に表示キーワードが表示されるので,表示部がタッチパネルとなっており,表示された表示キーワードをタッチすることで,表示キーワードを選択した情報がシステムに入力されるものである。例えば,「副作用」及び「19歳以下」という表示が表示部に表示される。そして,MRがタッチパネルのうち「副作用」と表示された部分をタッチする。すると,説明資料の「副作用」と関連して記憶された説明資料の頁が記憶部から読み出され,表示部に表示される。なお,この表示は,表示部のみならず,第2の端末23の端末の表示部(第2の表示部)に表示されてもよい。
このシステムは,コンピュータ(又はプロセッサ)を,
説明資料と説明資料に関する複数のキーワードとを記憶させ,
キーワードの組み合わせに基づいて表示される表示情報を記憶させ,
説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析させ,
解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報を読み出し,表示させる,システムであってもよい。このシステムは,上記した様々な態様を実現できる。
この明細書は,コンピュータ(又はプロセッサ)を,
説明資料と説明資料に関する複数のキーワードとを記憶させ,
キーワードの組み合わせに基づいて表示される表示情報を記憶させ,
説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析させ,
解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報を読み出し,表示させる方法をも提供する。
この明細書は,コンピュータ(又はプロセッサ)を,上記の各部として機能させるためのプログラムやそのようなプログラムを記憶した情報記録媒体をも記載する。
具体的なプログラムの例は,コンピュータを,
表示部3と,
説明資料と説明資料に関する複数のキーワードとを記憶する資料記憶部5と,
キーワードの組み合わせに基づいて表示部3に表示される表示情報を記憶する表示情報記憶部7と,
説明資料に関する音声情報に含まれる用語である音声用語と音声用語の主体を解析する音声解析部9と,
音声解析部9が解析した特定の主体の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報記憶部7から,表示情報を読み出し,表示部3に表示させる表示制御部11と,を含む説明支援システム1として機能させるためのプログラムである。
図6は,このシステムの動作例を示すフローチャートである。
このシステムは,記憶部に,説明資料と説明資料に関する複数のキーワードとを記憶させている。また,このシステムは,記憶部に,キーワードの組み合わせに基づいて表示される表示情報を記憶させている。このシステムは,各キーワードと説明資料の頁を関連付けて記憶していることが好ましい。この例では,MRが医師にプレゼンテーション資料(説明資料)を用いて,説明する際の例である。この例では,MR用の端末(第1の端末)と,医師用の端末(第2の端末)を用いる。最も,MRと医師が近くにいる場合は,一つの端末を共有してもよい。
説明資料選択工程(S101)
MRがある薬剤に関するプレゼンテーション資料を選択する。すると,システムに,特定の説明資料が選択された旨の情報が入力される。システムは,記憶部に記憶される説明資料を読み出して,MR用の端末の表示部に説明資料を表示させる。その例は,図4に示されるものである。一方,システムは,記憶部に記憶される説明資料に関する複数のキーワードを読み出す。そして,この状態でも,説明資料に関して,最初に用いることが好ましいキーワード(初期表示用キーワード)を表示部に表示してもよい。すると,MRは,表示部に表示されたキーワードを参考に,医師に対して説明を行うことができることとなる。この工程は,説明資料の部分(プレゼンテーション資料の頁)が変わるごとに改めて行われてもよい。
会話入力工程(S102)
MRが説明を行うと,MR用の端末の入力部(例えばマイク)を介して,MRの会話が入力される。すると,その会話は,デジタルの音声情報に変換され,記憶部に記憶される。医師が質問等の発言をした場合も,例えば,医師用の端末の入力部を介して,医師の質問が入力される。すると,その質問は,デジタルの音声情報に変換され,記憶部に記憶される。このようにして,会話による音声情報が,システムに入力される。
音声用語解析工程(S103)
音声情報は,記憶部に記憶される。そして,システムは,記憶された音声情報を読み出して,音声情報を用語解析する。この際には,公知の辞書を用いて,音声情報と比較し,会話に含まれる音声用語を求めて,記憶部に適宜記憶させればよい。
音声主体解析工程(S104)
次に,システムは,音声用語の主体を解析する。なお,この工程を省略して,音声用語の主体を解析せずに,表示情報を表示させ続けてもよい。そのうえで,このシステムを利用する場合に,主体解析モードとして,音声用語の主体を解析し,解析した主体に基づいて,表示情報を更新してもよい
表示情報表示工程(S105)
例えば,通常モードでは(主体を特定しない場合),記憶部に記憶された音声用語が,記憶部に記憶されたキーワードのいずれであるかを特定し,記憶部に記憶させる。この動作を繰り返し,1又は複数のキーワードが,記憶部に記憶した特定のキーワードの組合せに相当した場合に,その組み合わせに関連して記憶部に記憶されている表示情報を記憶部から読み出して,表示部に表示させる。
また,聴衆モードでは(話者よりも聴衆の発言を優先する場合),聴衆からの発言がなされたときに,聴衆由来の音声用語が複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて,表示情報を読み出し,表示部に表示させる。なお,話者モードでは(聴衆からの発言を軽視するモード)では,システムに聴衆からの雑音が入力された場合でも,話者の発言に基づいて,表示情報を表示部に表示させる。
先に説明した通り,例えば,「副作用」及び「19歳以下」がMR用端末の表示部に表示される。この段階で,プレゼンテーションに適した表示がなされ,説明が支援されることとなる。
キーワード選択工程(S106)
MRが表示部に表示されたキーワード(表示キーワード)である「副作用」及び「19歳以下」のいずれかタッチする。例えば,MRが副作用の部分にタッチする。すると,タッチパネル入力により,「副作用」が選択されたことに関する情報が,端末に入力される。なお,表示画面に「副作用」及び「19歳以下」に関するアイコン(キーワード用アイコン)が表示され,このアイコンを指定してクリックすることで,キーワードが選択されるようにしてもよい。また,それ以外の公知の方法で,キーワードを選択させるようにしてもよい。
表示資料更新工程(S107)
上記の工程で,表示キーワードである副作用が選択される。すると,システムは,副作用と関連して記憶された説明資料の頁に関する情報を読み出し,そのうえで,その説明資料の頁を記憶部から読み出す。そして,システムは,読み出した説明資料の頁を,MR用端末の表示部に表示する。それと並行して,読み出した説明資料の頁を医師用端末の表示部にも表示する。すると,MRは,副作用と関連して読み出された説明資料の頁について,スムーズに説明を行うことができることとなる。
適切な端末を誘導するためのシステム
次に,適切な端末を誘導するためのシステムについて説明する。このシステムは,上記システムの一部として用いることもできるし,上記システムとは別のシステムとして用いることができる。
このシステムは,コンテンツ表示部33と,選択コンテンツ入力部35と,コンテンツ関連者情報記憶部37と,対応可能者情報記憶部39と端末選択部41を有する。このシステムは,ユーザ記憶部43をさらに有してもよい。
コンテンツ表示部33は,複数のコンテンツ31を表示するための要素である。
選択コンテンツ入力部35は,複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツを入力するための要素である。
コンテンツ関連者情報記憶部37は,複数のコンテンツ31と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶するための要素である。
対応可能者情報記憶部39は,コンテンツ関連者情報記憶部37が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶するための要素である。
端末選択部41は,第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択するための要素である。
ユーザ記憶部43は,第2の端末23のユーザに関する情報を記憶するための要素である。この場合,端末選択部41は,ユーザ記憶部43が記憶するユーザ情報と対応可能者情報を用いて,第1の端末21を選択するものが好ましい。
図7は,第2の端末の表示部に表示されたウェブサイトの表示画面の例を示す概念図である。図7に示されるように,この表示画面には複数のコンテンツ31が表示されている。複数のコンテンツの例は,疾患名,医薬名,及び商品名である。例えば,あるウェブサイトの表示画面には,複数の疾患名が表示されている。このシステムは,このサイトにアクセスしたユーザの端末に上記した複数のコンテンツ31が表示されるように処理を行う。このため,このシステムは,上記した複数の疾患名に関する情報を記憶部に記憶するほか,ユーザの表示部にウェブサイトを表示させるための情報を記憶部に記憶させる。
医師が,マウスなどのポインティングデバイスを用いてカーソルを移動させ,ウェブサイトに表示された複数のコンテンツのいずれかをクリックする。すると,システムには,複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツが入力された旨の情報が入力される。例えば,複数の疾患のうち糖尿病が選択された場合,糖尿病が選択された旨の情報がシステムに入力される。
システムは,それぞれのコンテンツと関連した複数の端末又は複数の主体に関する情報を記憶している。例えば,糖尿病というコンテンツと関連して,糖尿病という質問事項に応答できる者の識別情報や,その者を読み出すための個人情報,その者の端末情報を記憶部に記憶している。例えば,このウェブサイトにおいて,糖尿病に関する説明を行うことができる者が,A1氏,A2氏,A3氏及びA4氏の場合,これら糖尿病コンテンツと関連した者の氏名,端末IDなどの情報を記憶する。
また,システムは,コンテンツ関連者情報記憶部37が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶する。例えば,システムは,A1氏,A2氏,A3氏及びA4氏の出勤情報を記憶している。そして,これらの者のうち,出勤している者を対応可能な主体とし,その主体が操作する端末を対応可能な端末として記憶部に記憶してもよい。また,システムは,A1氏,A2氏,A3氏及びA4氏の端末のうちログインしており(インターネットに接続されており),ビジー状態(作業を行っている状態)ではなく,ウエイト状態(対応可能な状態)となっている端末(例えばA1氏及びA2氏の端末)を分析して,一時的に記憶してもよい。
そして,このシステムは,第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択する。例えば,医師の端末が,糖尿病を選択した場合,糖尿病に関して対応可能者情報に基づいて,対応可能者の端末を選択する。この場合,例えば,A1氏及びA2氏の端末が対応可能な端末なので,システムは,例えばA1氏の端末(第1の端末21)を選択する。すると,医師の端末(第2の端末23)とMRの端末(第1の端末21)との間で説明(ウェブ会議)がスタートすることとなる。この際に,先に説明した説明支援システムが用いられることとなる。
なお,システムの記憶部は,このサイトにアクセスした端末のユーザに関する情報(IDなど)を記憶してもよい。この場合,端末選択部41は,ユーザ記憶部43が記憶するユーザ情報と対応可能者情報を用いて,第1の端末21を選択してもよい。例えば,このユーザが,以前A1氏とやり取りをした履歴と,そのやり取りの際の評価点が閾値異常であったという点が,ユーザに関する情報として記憶されている。すると,このシステムは,先に説明した通り,A1氏及びA2氏の端末が対応可能な端末であると判断した後に,ユーザに関する情報である,上記したA1とのやり取り及び評価情報を用いて,A1氏の端末(第1の端末21)を選択すればよい。このようにすれば,ユーザの嗜好に合わせた担当者を担当させることができることとなる。このシステムは,第2の端末23由来の主体である場合を優先して,表示情報を表示部3に表示させる場合に用いてもよいし,第1の端末由来の主体である場合を優先して,表示情報を表示部に表示される場合に用いてもよい。もちろん,このシステムは,上記した表示情報を表示部に表示させるものではない場合にも利用しうる。
この明細書は,コンピュータを,
複数のコンテンツ31を表示するためのコンテンツ表示部33と,
複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツを入力する選択コンテンツ入力部35と,
複数のコンテンツ31と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶するコンテンツ関連者情報記憶部37と,
コンテンツ関連者情報記憶部37が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶する対応可能者情報記憶部39とを有し,
第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択する端末選択部41をさらに有する,
説明支援システム1として機能させるプログラムや,そのプログラムを記憶した情報記録媒体をも提供する。
この明細書は,コンピュータ又はプロセッサを,
複数のコンテンツ31を表示させ,
複数のコンテンツ31のうち選択されたコンテンツである選択コンテンツを入力させ,
複数のコンテンツ31と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶させ,
コンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶させ,
第2の端末23が,選択コンテンツを選択した場合に,対応可能者情報に基づいて第1の端末21を選択させる説明支援システム1をも提供する。
この発明は,情報関連産業において利用されうる。
1 説明支援システム
3 表示部
5 資料記憶部
7 表示情報記憶部
9 音声解析部
11 表示制御部

Claims (4)

  1. 表示部(3)と,
    説明資料と前記説明資料に関する複数のキーワードとを記憶する資料記憶部(5)と,
    前記キーワードの組み合わせに基づいて前記表示部(3)に表示される表示情報を記憶する表示情報記憶部(7)と,
    前記説明資料に関する音声情報に含まれる用語である音声用語と前記音声用語の主体を解析する音声解析部(9)と,
    前記音声解析部(9)が解析した特定の主体の音声用語が前記複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて, 前記表示情報記憶部(7)から,前記表示情報を読み出し,前記表示部(3)に表示させる表示制御部(11)と,を含む説明支援システム(1)であって,
    前記表示情報は,前記複数のキーワードのうちいずれか2つ以上のキーワードである表示キーワードを含み,
    前記説明支援システム(1)は,
    前記表示キーワードの選択情報を入力する選択情報入力部(25)をさらに有し,
    前記資料記憶部(5)は,前記キーワードと前記説明資料の頁を関連付けて記憶し,
    前記表示制御部(11)は,選択情報入力部(25)が入力した表示キーワードの選択情報に基づいて,前記資料記憶部(5)から前記選択情報と関連付けて記憶された前記説明資料の頁を前記表示部(3)に表示する,
    説明支援システム(1)であって,
    前記表示制御部(11)は,
    前記音声用語の主体が前記表示部(3)と接続された第1の端末(21)由来の主体である場合より,
    前記第1の端末(21)以外の端末である第2の端末(23)由来の主体である場合を優先して,前記表示情報を前記表示部(3)に表示させる,
    説明支援システム(1)。
  2. 請求項1に記載の説明支援システム(1)であって,
    複数のコンテンツ(31)を表示するためのコンテンツ表示部(33)と,
    前記複数のコンテンツ(31)のうち選択されたコンテンツである選択コンテンツを入力する選択コンテンツ入力部(35)と,
    前記複数のコンテンツ(31)と関連した複数の端末又は複数の主体に関するコンテンツ関連者情報を記憶するコンテンツ関連者情報記憶部(37)と,
    前記コンテンツ関連者情報記憶部(37)が記憶したコンテンツ関連者情報のうち,対応可能な端末又は主体である対応可能者情報を記憶する対応可能者情報記憶部(39)とを有し,
    前記第2の端末(23)が,前記選択コンテンツを選択した場合に,前記対応可能者情報に基づいて前記第1の端末(21)を選択する端末選択部(41)をさらに有する,
    説明支援システム(1)。
  3. 請求項2に記載の説明支援システム(1)であって,
    前記第2の端末(23)のユーザに関する情報を記憶するユーザ記憶部(43)をさらに有し,
    前記端末選択部(41)は,前記ユーザ記憶部(43)が記憶するユーザ情報と前記対応可能者情報を用いて,前記第1の端末(21)を選択する
    説明支援システム(1)。
  4. コンピュータを,
    表示部(3)と,
    説明資料と前記説明資料に関する複数のキーワードとを記憶する資料記憶部(5)と,
    前記キーワードの組み合わせに基づいて前記表示部(3)に表示される表示情報を記憶する表示情報記憶部(7)と,
    前記説明資料に関する音声情報に含まれる用語である音声用語と前記音声用語の主体を解析する音声解析部(9)と,
    前記音声解析部(9)が解析した特定の主体の音声用語が前記複数のキーワードのいずれであるか特定し,特定したキーワードに関する情報を用いて, 前記表示情報記憶部(7)から,前記表示情報を読み出し,前記表示部(3)に表示させる表示制御部(11)と,を含む説明支援システム(1)であって,
    前記表示情報は,前記複数のキーワードのうちいずれか2つ以上のキーワードである表示キーワードを含み,
    前記説明支援システム(1)は,
    前記表示キーワードの選択情報を入力する選択情報入力部(25)をさらに有し,
    前記資料記憶部(5)は,前記キーワードと前記説明資料の頁を関連付けて記憶し,
    前記表示制御部(11)は,選択情報入力部(25)が入力した表示キーワードの選択情報に基づいて,前記資料記憶部(5)から前記選択情報と関連付けて記憶された前記説明資料の頁を前記表示部(3)に表示する,
    説明支援システム(1)であって,
    前記表示制御部(11)は,
    前記音声用語の主体が前記表示部(3)と接続された第1の端末(21)由来の主体である場合より,
    前記第1の端末(21)以外の端末である第2の端末(23)由来の主体である場合を優先して,前記表示情報を前記表示部(3)に表示させる,
    説明支援システム(1)として機能させるためのプログラム。
JP2021126987A 2021-08-02 2021-08-02 説明支援システム Active JP7102035B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021126987A JP7102035B1 (ja) 2021-08-02 2021-08-02 説明支援システム
JP2022018259A JP2023021901A (ja) 2021-08-02 2022-02-08 説明支援システム
CN202280004795.6A CN115968466A (zh) 2021-08-02 2022-06-03 说明支持系统
US18/575,337 US20240331692A1 (en) 2021-08-02 2022-06-03 Explanation Support System
PCT/JP2022/022627 WO2023013226A1 (ja) 2021-08-02 2022-06-03 説明支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021126987A JP7102035B1 (ja) 2021-08-02 2021-08-02 説明支援システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022018259A Division JP2023021901A (ja) 2021-08-02 2022-02-08 説明支援システム

Publications (2)

Publication Number Publication Date
JP7102035B1 true JP7102035B1 (ja) 2022-07-19
JP2023021856A JP2023021856A (ja) 2023-02-14

Family

ID=82457379

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021126987A Active JP7102035B1 (ja) 2021-08-02 2021-08-02 説明支援システム
JP2022018259A Pending JP2023021901A (ja) 2021-08-02 2022-02-08 説明支援システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022018259A Pending JP2023021901A (ja) 2021-08-02 2022-02-08 説明支援システム

Country Status (4)

Country Link
US (1) US20240331692A1 (ja)
JP (2) JP7102035B1 (ja)
CN (1) CN115968466A (ja)
WO (1) WO2023013226A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025609A (ja) 2011-07-22 2013-02-04 Mizuho Information & Research Institute Inc 説明支援システム、説明支援方法及び説明支援プログラム
JP2017173768A (ja) 2016-03-25 2017-09-28 グローリー株式会社 議事録作成システム
JP2020119112A (ja) 2019-01-22 2020-08-06 株式会社インタラクティブソリューションズ 発言禁止用語に対し注意を喚起するためのプレゼンテーション支援装置
JP2021012700A (ja) 2020-08-06 2021-02-04 株式会社インタラクティブソリューションズ プレゼンテーション支援システム
JP2021081452A (ja) 2018-03-08 2021-05-27 株式会社インタラクティブソリューションズ コンピュータを用いたプレゼンテーション支援方法,支援システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1525739A1 (en) * 2002-07-29 2005-04-27 British Telecommunications Public Limited Company Improvements in or relating to information provision for call centres
JP6718243B2 (ja) * 2016-01-28 2020-07-08 株式会社インタラクティブソリューションズ 表示装置、表示プログラム、表示システム及び表示装置の制御方法
US10902481B1 (en) * 2017-05-23 2021-01-26 Walgreen Co. Method and system for providing a seamless handoff from a voice channel to a call agent
US11429834B1 (en) * 2018-09-07 2022-08-30 Intuit, Inc. Neural-based agent assistance interface for providing answers based on a query vector
CN109346086A (zh) * 2018-10-26 2019-02-15 平安科技(深圳)有限公司 声纹识别方法、装置、计算机设备和计算机可读存储介质
US10805465B1 (en) * 2018-12-20 2020-10-13 United Services Automobile Association (Usaa) Predictive customer service support system and method
JP6689421B1 (ja) * 2019-01-25 2020-04-28 株式会社インタラクティブソリューションズ 音声解析システム
JP6749705B2 (ja) * 2019-01-25 2020-09-02 株式会社インタラクティブソリューションズ プレゼンテーション支援システム
US20210005207A1 (en) * 2019-07-05 2021-01-07 Talkdesk, Inc. System and method for querying multiple information sources using agent assist within a cloud-based contact center
US10812655B1 (en) * 2019-10-30 2020-10-20 Talkdesk Inc. Methods and systems for seamless outbound cold calls using virtual agents
JP6758732B1 (ja) * 2020-01-06 2020-09-23 株式会社インタラクティブソリューションズ プレゼンテーション支援システム
JP6771251B1 (ja) * 2020-04-24 2020-10-21 株式会社インタラクティブソリューションズ 音声解析システム
US11442601B2 (en) * 2020-06-18 2022-09-13 T-Mobile Usa, Inc. Computer desktop that dynamically adapts to a live multi-channel audio stream, such as for use with wireless telecommunications customer service agents

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025609A (ja) 2011-07-22 2013-02-04 Mizuho Information & Research Institute Inc 説明支援システム、説明支援方法及び説明支援プログラム
JP2017173768A (ja) 2016-03-25 2017-09-28 グローリー株式会社 議事録作成システム
JP2021081452A (ja) 2018-03-08 2021-05-27 株式会社インタラクティブソリューションズ コンピュータを用いたプレゼンテーション支援方法,支援システム
JP2020119112A (ja) 2019-01-22 2020-08-06 株式会社インタラクティブソリューションズ 発言禁止用語に対し注意を喚起するためのプレゼンテーション支援装置
JP2021012700A (ja) 2020-08-06 2021-02-04 株式会社インタラクティブソリューションズ プレゼンテーション支援システム

Also Published As

Publication number Publication date
JP2023021901A (ja) 2023-02-14
US20240331692A1 (en) 2024-10-03
WO2023013226A1 (ja) 2023-02-09
CN115968466A (zh) 2023-04-14
JP2023021856A (ja) 2023-02-14

Similar Documents

Publication Publication Date Title
WO2018221120A1 (ja) 表示装置
US20070129942A1 (en) Visualization and annotation of the content of a recorded business meeting via a computer display
JP2011039860A (ja) 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム
JP2020003926A (ja) 対話システムの制御方法、対話システム及びプログラム
CN111902831B (zh) 演示支援系统
JP7345909B2 (ja) プレゼンテーション評価システム
JP7102035B1 (ja) 説明支援システム
JP6979725B2 (ja) プレゼンテーション支援方法
JP6884442B2 (ja) プレゼンテーション支援システム
JP7237378B2 (ja) システム
JP7482562B2 (ja) プレゼンテーション支援システム
JP7483995B1 (ja) 通信ネットワークを介したサービスの提供を支援する方法、プログラム及びサーバ
WO2023106014A1 (ja) 説明支援システム
Auer et al. Digitization and Accessibility
JP2022179092A (ja) 情報処理システム
JP2020052593A (ja) 分析装置及び分析プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210802

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7102035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150