JP2021081452A - Presentation support method using computer and support system - Google Patents

Presentation support method using computer and support system Download PDF

Info

Publication number
JP2021081452A
JP2021081452A JP2018041428A JP2018041428A JP2021081452A JP 2021081452 A JP2021081452 A JP 2021081452A JP 2018041428 A JP2018041428 A JP 2018041428A JP 2018041428 A JP2018041428 A JP 2018041428A JP 2021081452 A JP2021081452 A JP 2021081452A
Authority
JP
Japan
Prior art keywords
presentation
keywords
computer
spoken
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018041428A
Other languages
Japanese (ja)
Inventor
潔 関根
Kiyoshi Sekine
潔 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Interactive Solutions Corp
Original Assignee
Interactive Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interactive Solutions Corp filed Critical Interactive Solutions Corp
Priority to JP2018041428A priority Critical patent/JP2021081452A/en
Priority to PCT/JP2018/037686 priority patent/WO2019171645A1/en
Publication of JP2021081452A publication Critical patent/JP2021081452A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

To provide a system and a program capable of easily checking whether contents to be spoken have been accurately spoken.SOLUTION: A plurality of keywords to be spoken (or the keywords which are not allowed to be spoken) depending on contents to be spoken are previously stored. Voice recognition is performed for presentation etc. Whether the plurality of keywords have been spoken is checked, and the keywords are stored so as to be displayed. Even if the conversation is not reproduced, it can be easily grasped that appropriate explanation etc. has been presented.SELECTED DRAWING: Figure 4

Description

本発明は,コンピュータを用いたプレゼンテーション支援方法や,支援システムに関する。 The present invention relates to a presentation support method using a computer and a support system.

例えば,特許第4551105号公報には,音声認識を用いた会議支援システムが開示されている。音声認識を行い,会議内容を記憶することは非常に便利である。一方,例えば,インフォームドコンセントや携帯端末の販売,不動産契約のように相手に必要な情報を説明する義務がある場合がある。また,企業の営業担当には,企業として統一して話すべきと考える事項や,話してはならない事項がある。これら話すべき事項を話したかといった事柄は,基本的に営業担当などの話し手に委ねられていた。 For example, Japanese Patent No. 4551105 discloses a conference support system using voice recognition. It is very convenient to perform voice recognition and memorize the contents of the meeting. On the other hand, there may be an obligation to explain necessary information to the other party, such as informed consent, sales of mobile terminals, and real estate contracts. In addition, there are matters that the sales staff of a company should talk about as a company and things that should not be talked about. It was basically left to the speaker, such as the sales staff, to decide whether or not they talked about these matters to be talked about.

特許第4551105号公報Japanese Patent No. 4551105

話し手がきちんと話すべきことを話したか,話してはならないことを話していないかについて,会話を録音しておき,再生してチェックするのでは,作業が煩雑である。また,話し手は,話に集中するあまり,話すべき事柄を話し忘れるといったこともよく起こる。 It would be cumbersome to record, play back, and check the conversation as to whether the speaker said what he should or shouldn't say. In addition, speakers often forget to talk about what they should talk about because they concentrate too much on the story.

そこで,この明細書に記載される発明は,話すべき内容をきちんと話したか容易にチェックできるようにするシステムを提供することを目的とする。また,その発明の好ましい例では,話漏れのある事項については,注意を喚起したり,話してはいけない事項を話した際に,訂正の機会を与えるほか,話をする者を評価する材料を得ることができるようにすることを目的とする。 Therefore, it is an object of the invention described in this specification to provide a system that makes it easy to check whether or not the content to be spoken is properly spoken. In addition, in a preferable example of the invention, when a matter that is omitted is called attention or a matter that should not be talked about, an opportunity for correction is given and a material for evaluating the person who talks is used. The purpose is to be able to obtain.

本発明は,上記の課題を解決するものであり,基本的には,話す内容に応じて予め話すべき複数のキーワード(又は話してはならないキーワード)を記憶しておいて,プレゼンテーション等を音声認識し,複数のキーワードが離されたかどうかをチェックして,表示できるように記憶することで,会話を再生しなくても,適切な説明等がなされたことを容易に把握できるという知見に基づく。さらに,本発明の好ましい例は,プレゼンテーション等の最中に説明漏れをしているキーワードがある場合は,そのキーワードを読み出して表示することで,話し手の注意を喚起し,説明漏れを防止できるという知見に基づく。 The present invention solves the above-mentioned problems. Basically, a plurality of keywords (or keywords that should not be spoken) to be spoken are stored in advance according to the content to be spoken, and a presentation or the like is voice-recognized. However, it is based on the knowledge that by checking whether multiple keywords are separated and memorizing them so that they can be displayed, it is possible to easily grasp that appropriate explanations have been given without playing the conversation. Furthermore, a preferred example of the present invention is that if there is a keyword that is omitted in the explanation during a presentation or the like, the keyword can be read out and displayed to draw the attention of the speaker and prevent the explanation from being omitted. Based on knowledge.

本明細書に開示される発明は,まずコンピュータを用いたプレゼンテーション支援方法に関する。この方法は,コンピュータにより実装される。この方法の主体(主語)は,基本的には,コンピュータである。この方法は,まず,プレゼンテーションの内容に関する入力を受け取る。そして,記憶部から入力に関する複数のキーワードを読み出す。次に, プレゼンテーションを含む音声を音声認識し,音声認識した用語を解析する。そして,複数のキーワードと音声認識した用語とのマッチングを行う。 The invention disclosed in the present specification first relates to a presentation support method using a computer. This method is implemented by a computer. The subject of this method is basically a computer. This method first receives input about the content of the presentation. Then, a plurality of keywords related to the input are read from the storage unit. Next, the voice including the presentation is voice-recognized, and the words recognized by the voice are analyzed. Then, matching is performed between a plurality of keywords and words recognized by voice.

この方法は,好ましくは,プレゼンテーションを録音するとともに,マッチングの結果を記憶する。そして,複数のキーワードのうち,音声認識によりマッチングした用語については,話に含まれていた旨のチェックを行う。そして,そのチェック結果を表示可能に記録する。管理者は,営業担当等が,必要事項をすべて話したかチェックする際に,録音を再生しなくても,必要事項を話したかのチェックを行うことができるので,重要事項の説明やインフォームドコンセント等のチェックが楽になる。 This method preferably records the presentation and stores the matching results. Then, among a plurality of keywords, the terms matched by voice recognition are checked to the effect that they are included in the story. Then, the check result is recorded so that it can be displayed. When the sales representative, etc. checks whether all the necessary items have been spoken, the administrator can check whether the necessary items have been spoken without playing the recording, so explanation of important matters, informed consent, etc. Checking becomes easier.

この方法は,好ましくは,マッチングの結果,複数のキーワードのうち音声認識した用語に含まれていないものがあると判断した場合,含まれていないキーワードを出力する工程をさらに含む。この方法によれば,説明漏れがないようにアラートを出すことができ,それにより説明漏れを防止できる。また,キーワード漏れがあったという事実を表示可能に記録することで,営業担当等としての適性を評価する材料となる。 This method preferably further includes a step of outputting a keyword that is not included when it is determined as a result of matching that some of the plurality of keywords are not included in the speech-recognized terms. According to this method, it is possible to issue an alert so that there is no omission of explanation, thereby preventing omission of explanation. In addition, by recording the fact that there was a keyword omission in a displayable manner, it becomes a material for evaluating the aptitude as a sales representative.

この方法は,好ましくは,複数のキーワードには,プレゼンテーションすべきキーワードと,プレゼンテーションすべきでないキーワードと,を含む。そして,音声認識した用語にプレゼンテーションすべきでないキーワードが含まれていたと判断した場合,プレゼンテーションすべきでないキーワードが含まれていたことを通知するアラートを出力する。これにより,説明すべきではないNGワードがプレゼンテーションや説明に含まれていた場合,アラートを出し,訂正等を促すことができる。また,NGワードを話した回数を記録することで,営業担当等としての適性を評価する材料となる。 This method preferably includes keywords that should be presented and keywords that should not be presented. Then, when it is determined that the speech-recognized term contains a keyword that should not be presented, an alert is output to notify that the keyword that should not be presented is included. As a result, if an NG word that should not be explained is included in the presentation or explanation, an alert can be issued to prompt correction or the like. In addition, by recording the number of times the NG word is spoken, it becomes a material for evaluating the aptitude as a sales representative.

本発明によれば,話すべき内容をきちんと話したか容易にチェックできるシステムを提供できる。また,その発明の好ましい例では,話漏れのある事項については,注意を喚起したり,話してはいけない事項を話した際に,訂正の機会を与えるほか,話をする者を評価する材料を得ることができる。 According to the present invention, it is possible to provide a system that can easily check whether or not the content to be spoken is properly spoken. In addition, in a preferable example of the invention, when a matter that is omitted is called attention or a matter that should not be talked about, an opportunity for correction is given and a material for evaluating the person who talks is used. Obtainable.

図1は,コンピュータの基本構成を示すブロック図である。FIG. 1 is a block diagram showing a basic configuration of a computer. 図2は,担当者の表示画面の例を示す概念図である。FIG. 2 is a conceptual diagram showing an example of a display screen of a person in charge. 図3は,医薬AAAに関して読み出された複数のキーワードとNGワードを示す例である。FIG. 3 is an example showing a plurality of keywords and NG words read out for the drug AAA. 図4は,プレゼンテーション途中でのキーワードとプレゼンテーションとのマッチング状況を示す概念図である。FIG. 4 is a conceptual diagram showing the matching situation between the keyword and the presentation during the presentation. 図5は,キーワードが含まれるか否かを判断する部分フローである。FIG. 5 is a partial flow for determining whether or not a keyword is included. 図6は,キーワードが表示された画面の例を示す概念図である。FIG. 6 is a conceptual diagram showing an example of a screen on which keywords are displayed. 図7は,評価画面の例である。FIG. 7 is an example of the evaluation screen.

以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the forms described below, and includes those which are appropriately modified by those skilled in the art from the following forms to the extent obvious to those skilled in the art.

本明細書に開示される発明は,まずコンピュータを用いたプレゼンテーション支援方法に関する。この方法は,コンピュータ(コンピュータ単独であるか,携帯端末であるか,サーバ等と接続されているものも含む)により実装される。 The invention disclosed in the present specification first relates to a presentation support method using a computer. This method is implemented by a computer (including a computer alone, a mobile terminal, or one connected to a server or the like).

コンピュータは,携帯端末,デスクトップ型パーソナルコンピュータ,及びサーバのいずれか又は2つ以上の組み合わせであってもよい。これらは通常インターネット(イントラネット)等により情報の授受を行うことができるように接続されている。一部の機能をいずれかのコンピュータにもたせるなど,複数のコンピュータを用いて,機能を分担してもよい。 The computer may be any one or a combination of two or more of a mobile terminal, a desktop personal computer, and a server. These are usually connected so that information can be exchanged via the Internet (intranet) or the like. Functions may be shared by using multiple computers, such as assigning some functions to one of the computers.

図1は,コンピュータの基本構成を示すブロック図である図1に示されるように,コンピュータは,入力部31,出力部33,制御部35,演算部37及び記憶部39を有しており,各要素は,バス41などによって接続され,情報の授受を行うことができるようにされている。例えば,記憶部には,制御プログラムが記憶されていてもよいし,各種情報が記憶されていてもよい。入力部から所定の情報が入力された場合,制御部は,記憶部に記憶される制御プログラムを読み出す。そして,制御部は,適宜記憶部に記憶された情報を読み出し,演算部へ伝える。また,制御部は,適宜入力された情報を演算部へ伝える。演算部は,受け取った各種情報を用いて演算処理を行い,記憶部に記憶する。制御部は,記憶部に記憶された演算結果を読み出して,出力部から出力する。このようにして,各種処理が実行される。この各種処理を実行するものが,各手段である。 As shown in FIG. 1, which is a block diagram showing a basic configuration of a computer, the computer has an input unit 31, an output unit 33, a control unit 35, a calculation unit 37, and a storage unit 39. Each element is connected by a bus 41 or the like so that information can be exchanged. For example, the control program may be stored in the storage unit, or various types of information may be stored in the storage unit. When the specified information is input from the input unit, the control unit reads out the control program stored in the storage unit. Then, the control unit appropriately reads out the information stored in the storage unit and transmits it to the arithmetic unit. In addition, the control unit transmits the appropriately input information to the calculation unit. The arithmetic unit performs arithmetic processing using various received information and stores it in the storage unit. The control unit reads the calculation result stored in the storage unit and outputs it from the output unit. In this way, various processes are executed. Each means executes these various processes.

この方法の主体(主語)は,基本的には,コンピュータである。以下の例では,MRなどの担当者が医者に自社の医薬を勧める際のプレゼンテーション及びプレゼンテーション支援システムを例にして説明する。 The subject of this method is basically a computer. In the following example, a presentation and presentation support system when a person in charge such as an MR recommends his / her own medicine to a doctor will be described as an example.

図2は,担当者の表示画面の例を示す概念図である。図2に示されるように,担当者のタブレットには,医薬AAA,医薬BBB及び医薬CCCが表示されている。そして,例えば,担当者が,医者に医薬AAAを紹介するとする。タブレット又はタブレットと接続されたサーバ(コンピュータ)には,医薬AAAを説明するためのプレゼンテーションドキュメントが格納されている。また,コンピュータは,医薬AAAと関連したプレゼンテーションを読み出すことができるようにされていてもよい。また,コンピュータは,医薬AAAと関連して,話すべき複数のキーワードであるKey1〜5と,話してはならないキーワードであるNGワード1,2を記憶する。また,コンピュータは,医薬AAAと関連し,プレゼンテーション時間(又は説明時間)である○分を記憶する。 FIG. 2 is a conceptual diagram showing an example of a display screen of a person in charge. As shown in FIG. 2, the tablet of the person in charge displays the drug AAA, the drug BBB, and the drug CCC. Then, for example, suppose that the person in charge introduces the medicine AAA to the doctor. A tablet or a server (computer) connected to the tablet stores a presentation document for explaining the pharmaceutical AAA. The computer may also be capable of reading presentations associated with pharmaceutical AAA. In addition, the computer stores a plurality of keywords, Keys 1 to 5, which should be spoken, and NG words 1 and 2, which are keywords which should not be spoken, in relation to the pharmaceutical AAA. In addition, the computer stores ○ minutes, which is the presentation time (or explanation time), in relation to the drug AAA.

担当者がタブレット上の医薬AAAボタンまたはアイコンをクリックする。すると,コンピュータには,医薬AAAが選択された旨の情報が入力される。このようにして,コンピュータは,プレゼンテーションの内容に関する入力を受け取る。プレゼンテーションの内容に関する入力の例は,プレゼンテーションの題名であったり,携帯端末契約に関する重要事項説明であったり,不動産契約説明であったり,対象医薬であったり,会話やプレゼンテーションと関連して,複数のキーワードが適切に話されたか否かを判断する対象となるものである。 The person in charge clicks the drug AAA button or icon on the tablet. Then, information indicating that the drug AAA has been selected is input to the computer. In this way, the computer receives input about the content of the presentation. Examples of input regarding the content of the presentation are the title of the presentation, the explanation of important matters related to the mobile terminal contract, the explanation of the real estate contract, the target medicine, and multiple cases related to the conversation and the presentation. It is the object to judge whether the keyword is spoken properly.

コンピュータは,医薬AAAが選択されたという入力情報を受け取ると,記憶部から,医薬AAAと関連して記憶されている,話すべき複数のキーワードであるKey1〜5と,話してはならないキーワードであるNGワード1,2を読み出す。この際話すべき複数のキーワードであるKey1〜5のみが読み出されてもよい。また,コンピュータは,医薬AAAと関連し,平均プレゼンテーション時間である○分を読み出す。このようにして,記憶部から入力に関する複数のキーワードを含む情報が読み出される。 When the computer receives the input information that the drug AAA has been selected, it is a keyword that should not be spoken with Keys 1 to 5, which are multiple keywords to be spoken, which are stored in connection with the drug AAA from the storage unit. Read NG words 1 and 2. At this time, only Keys 1 to 5, which are a plurality of keywords to be spoken, may be read out. In addition, the computer reads out the average presentation time of ○ minutes in relation to the drug AAA. In this way, information including a plurality of keywords related to the input is read from the storage unit.

図3は,医薬AAAに関して読み出された複数のキーワードとNGワードを示す例である。この例では,医薬AAAと関連して,話すべき複数のキーワードであるKey1〜5と,話してはならないキーワードであるNGワード1,2が読み出されている。また,これらは,別途,モニタに表示可能とされる。複数のキーワードやNGワードをモニタに表示できるので,担当者は,具体的な説明やプレゼンテーションを行う前に,話すべき事項や,話してはならない事項を点検できる。 FIG. 3 is an example showing a plurality of keywords and NG words read out for the drug AAA. In this example, in connection with the pharmaceutical AAA, a plurality of keywords that should be spoken, Keys 1 to 5, and keywords that should not be spoken, NG words 1 and 2, are read out. In addition, these can be displayed separately on the monitor. Since multiple keywords and NG words can be displayed on the monitor, the person in charge can check what should be said and what should not be said before giving a concrete explanation or presentation.

担当者が,医薬AAAを選択すると,医薬AAAに関するプレゼンテーション資料が読み出され,例えば,担当者のタブレットのモニタや,相手が視認できるモニタに表示される。このプレゼンテーション資料に基づいて,担当者が,プレゼンテーションや説明を行う。すると,タブレット内の音声認識装置は,プレゼンテーションを含む音声を音声認識する。音声認識の際には,周波数帯や話のテンポをあわせて記憶してもよい。周波数帯や話のテンポを記憶することで,話者が変わった際に,話者が変わったことを認識できる。話者の識別の方法を採用するか,採用するとすればどのような方法を採用するかは任意である。 When the person in charge selects the drug AAA, the presentation material related to the drug AAA is read out and displayed on, for example, the monitor of the person in charge's tablet or the monitor that the other party can see. The person in charge gives a presentation and explanation based on this presentation material. Then, the voice recognition device in the tablet recognizes the voice including the presentation. At the time of voice recognition, the frequency band and the tempo of the talk may be stored together. By memorizing the frequency band and the tempo of the story, when the speaker changes, it is possible to recognize that the speaker has changed. It is optional to adopt the speaker identification method, and if so, what method to adopt.

コンピュータは,記憶部に記憶したプレゼンテーションされた用語を解析し,解析した用語を記憶部に記憶する。そして,コンピュータは,音声認識した用語と,キーワードが一致するか否かを解析する。そして,複数のキーワードと音声認識した用語とのマッチングを行う。 The computer analyzes the presented terms stored in the storage unit and stores the analyzed terms in the storage unit. Then, the computer analyzes whether or not the words recognized by voice and the keywords match. Then, matching is performed between a plurality of keywords and words recognized by voice.

図4は,プレゼンテーション途中でのキーワードとプレゼンテーションとのマッチング状況を示す概念図である。図4に示される例では,話すべき複数のキーワードであるKey1〜5のうちKey1〜3が話された状態であることが分かる。つまり,コンピュータは,読み出したキーワード群と,解析によって得られた用語のマッチングを行い,Key1〜3については,その用語と一致したので,一致した旨のフラグをKey1〜3に付した。例えば,話者の会話とともに,図4に示す状況が表示可能に記憶される。すると,話者の上司等は,図4に示されるような表示画面を見ることで,NGワードは話されなかったものの,話す必要があるキーワードの全てが話されてはいないことを把握できる。また,例えば,全てのキーワードが話された旨の状況が表示された場合は,上司等は,録音内容を再生しなくても,必要事項がきちんと話されたという推測を持つことができる。 FIG. 4 is a conceptual diagram showing the matching situation between the keyword and the presentation during the presentation. In the example shown in FIG. 4, it can be seen that Keys 1 to 3 of the plurality of keywords to be spoken, Keys 1 to 5, are spoken. In other words, the computer matched the read keyword group with the terms obtained by the analysis, and as for Keys 1 to 3, they matched the terms, and therefore, the keys to the effect that they matched were added to Keys 1 to 3. For example, the situation shown in FIG. 4 is memorized so as to be displayable together with the conversation of the speaker. Then, by looking at the display screen as shown in FIG. 4, the speaker's boss or the like can grasp that the NG word was not spoken, but not all the keywords that need to be spoken were spoken. Further, for example, when the situation that all the keywords are spoken is displayed, the boss or the like can have a guess that the necessary items are properly spoken without playing back the recorded content.

すなわち,この方法は,好ましくは,プレゼンテーションを録音するとともに,マッチングの結果を記憶する。そして,複数のキーワードのうち,音声認識によりマッチングした用語については,話に含まれていた旨のチェックを行う。そして,そのチェック結果を表示可能に記録する。管理者は,営業担当等が,必要事項をすべて話したかチェックする際に,録音を再生しなくても,必要事項を話したかのチェックを行うことができるので,重要事項の説明やインフォームドコンセント等のチェックが楽になる。 That is, this method preferably records the presentation and stores the matching results. Then, among a plurality of keywords, the terms matched by voice recognition are checked to the effect that they are included in the story. Then, the check result is recorded so that it can be displayed. When the sales representative, etc. checks whether all the necessary items have been spoken, the administrator can check whether the necessary items have been spoken without playing the recording, so explanation of important matters, informed consent, etc. Checking becomes easier.

この方法の好ましい例では,コンピュータは,読み出したプレゼンテーション時間(説明時間)のうち所定の割合や所定の時間(この時間はプレゼンテーション時間(又は説明時間)より大きいものであってもよい)になって,全てのKeyワードが話されていないことを把握した場合に,モニタに(例えば,プレゼンテーションがなされている部分の下部に)それらのキーワードを表示するように制御してもよい。例えば,コンピュータ内の計測手段が,プレゼンテーションの開始(例えば,医薬AAAが選択されてからの時間や,プレゼンテーションを含む音声を音声認識してからの時間)を計測し,その時間が,記憶部に記憶された所定の時間となった場合に,キーワードと用語がマッチングしたか否かを判別するプログラムを起動する。すると,制御部は,複数のキーワードを読み出すとともに,解析した用語を読み出す。所定の時間は,あらかじめ記憶部に記憶されていてもよいし,例えば,標準的なプレゼンテーション時間に対し,所定の割合(例えば,70〜95%,80〜90%の間のいずれかの数値)となった場合に,プレゼンテーションされていないキーワードがあるか否かマッチングを行って,プレゼンテーションされていないキーワードがあれば,例えば,話されていないキーワードがある旨の表示とともに,話されていないキーワードをモニタ等に出力するようにすればよい。 In a preferred example of this method, the computer becomes a predetermined percentage of the read presentation time (explanation time) or a predetermined time (this time may be greater than the presentation time (or explanation time)). , If it is determined that all Key words are not spoken, the monitor may be controlled to display those keywords (for example, at the bottom of the part where the presentation is made). For example, a measuring means in a computer measures the start of a presentation (for example, the time after the drug AAA is selected or the time after voice recognition of the voice including the presentation), and the time is stored in the storage unit. When the memorized predetermined time is reached, the program that determines whether the keyword and the term match is started. Then, the control unit reads out a plurality of keywords and the analyzed terms. The predetermined time may be stored in the storage unit in advance, and for example, a predetermined ratio (for example, a numerical value between 70 to 95% and 80 to 90%) with respect to the standard presentation time). In that case, matching is performed to see if there are any keywords that have not been presented, and if there are keywords that have not been presented, for example, a message indicating that there are keywords that have not been spoken and keywords that have not been spoken are displayed. It may be output to a monitor or the like.

図5は,キーワードと用語のマッチングを行うフローチャートである。制御部が記憶部からKey1を読み出す。そして,解析した用語がkey1と一致するか否かの判断を行う。用語のうちがKey1と一致したものがあれば,Key1が話された旨のフラグを立てる処理を行う。例えば,制御部は,今回のプレゼンテーションや説明に関連して,Key1が話された旨を記憶部に記憶する。同様の作業を話すべき複数のキーワードであるKey1〜5と,話してはならないキーワードであるNGワード1,2に対して行う。この場合,例えば,プレゼンテーション担当者のモニタと相手のモニタの両方にプレゼンテーション資料が表示されている場合,話者(プレゼンテーションを行っている者)のモニタのみに,Keyワードが表示されるようにしてもよい。また,このKeyワードは,プレゼンテーションの下部部分に表示されるものが好ましい。 FIG. 5 is a flowchart for matching keywords and terms. The control unit reads Key1 from the storage unit. Then, it is determined whether or not the analyzed term matches key1. If any of the terms matches Key1, the process of setting a flag indicating that Key1 has been spoken is performed. For example, the control unit stores in the storage unit that Key1 has been spoken in connection with this presentation and explanation. The same work is performed for multiple keywords Key 1 to 5 that should be spoken and NG words 1 and 2 that are keywords that should not be spoken. In this case, for example, when the presentation material is displayed on both the monitor of the person in charge of presentation and the monitor of the other party, the Key word is displayed only on the monitor of the speaker (the person giving the presentation). May be good. Further, this Key word is preferably displayed at the lower part of the presentation.

図6は,キーワードが表示された画面の例を示す概念図である。図6の例では,医薬AAAと関連するプレゼンテーション画面の下部に,マッチングフラグが付されていないKey4及びKey5という2つのキーワードが表示されている。このように,説明すべきキーワードのうち,所定時間が経過しても話されていないものが,モニタに表示されるので,話者に注意を喚起することができることとなる。 FIG. 6 is a conceptual diagram showing an example of a screen on which keywords are displayed. In the example of FIG. 6, two keywords, Key4 and Key5, without the matching flag, are displayed at the bottom of the presentation screen related to the pharmaceutical AAA. In this way, among the keywords to be explained, those that have not been spoken even after a predetermined time has passed are displayed on the monitor, so that the speaker can be alerted.

つまり,この方法は,好ましくは,マッチングの結果,複数のキーワードのうち音声認識した用語に含まれていないものがあると判断した場合,含まれていないキーワードを出力する工程をさらに含む。この方法によれば,説明漏れがないようにアラートを出すことができ,それにより説明漏れを防止できる。また,キーワード漏れがあったという事実を表示可能に記録することで,営業担当等としての適性を評価する材料となる。 That is, this method preferably further includes a step of outputting a keyword that is not included when it is determined as a result of matching that some of the plurality of keywords are not included in the speech-recognized terms. According to this method, it is possible to issue an alert so that there is no omission of explanation, thereby preventing omission of explanation. In addition, by recording the fact that there was a keyword omission in a displayable manner, it becomes a material for evaluating the aptitude as a sales representative.

そして,音声認識した用語にプレゼンテーションすべきでないキーワードが含まれていたと判断した場合,プレゼンテーションすべきでないキーワードが含まれていたことを通知するアラートを出力するようにしてもよい。この場合,図6のKey4やKey5に変えて,NGワードが表示されるとともに,NGワードが話された旨の注意喚起を表示部に表示することが好ましい。この注意喚起の表示は,記憶部に記憶されており,NGワードが話された(解析した用語とNGワードとが一致した)とコンピュータが判断した場合,記憶部に記憶された注意喚起の表示に関する情報が読み出されて,表示部に表示されるようにすればよい。これにより,説明すべきではないNGワードがプレゼンテーションや説明に含まれていた場合,アラートを出し,訂正等を促すことができる。また,NGワードを話した回数を記録することで,営業担当等としての適性を評価する材料となる。 Then, when it is determined that the speech-recognized term contains a keyword that should not be presented, an alert may be output to notify that the keyword that should not be presented is included. In this case, it is preferable that the NG word is displayed instead of the Key 4 and Key 5 in FIG. 6, and a warning to the effect that the NG word is spoken is displayed on the display unit. This alert display is stored in the storage unit, and when the computer determines that the NG word has been spoken (the analyzed term matches the NG word), the alert display stored in the storage unit. Information about the above should be read out and displayed on the display. As a result, if an NG word that should not be explained is included in the presentation or explanation, an alert can be issued to prompt correction or the like. In addition, by recording the number of times the NG word is spoken, it becomes a material for evaluating the aptitude as a sales representative.

図7は,評価画面の例である。この例では,所定時間までにマッチングしなかった説明すべきキーワードの数,所定時間までにマッチングしなかった説明すべきキーワードのうちプレゼンテーションの終了までに説明がなされたものの数,及びマッチングしたNGキーワード(話してはならないキーワード)の数が表示される。この数は,記憶部に記憶されており,営業担当AAAの各種評価に用いられる。この担当は,複数の医薬を説明する業務を担当している。そして,この画面の例の医薬AAAについての左側に示されるプレゼンテーションでは,あらかじめ設定された時間までに1つの説明すべきキーワードを説明し損ねていたものの,そのキーワードが表示された後に,そのキーワードを説明し,修正したことが分かる。また,NGキーワードが話されなかったことが分かる。この管理画面をみた管理者は,例えば,その欄に存在する再生ボタンを押すと,そのプレゼンテーションの際の会話を再生できる。しかし,管理者は,必要なキーワードが全て話され,しかもNGキーワードが話されていないことから,再生をしなくても,適切なプレゼンテーションがなされたと把握できる。この場合,管理画面には,承認ボタンが表示されているので,管理者が承認ボタンを押すと,コンピュータは承認された旨の情報の入力を受ける。そして,コンピュータは,記憶部にこのプレゼンテーションと関連して,プレゼンテーションが承認された旨の情報を記録する。 FIG. 7 is an example of the evaluation screen. In this example, the number of keywords to be explained that were not matched by the predetermined time, the number of keywords that were not matched by the predetermined time to be explained that were explained by the end of the presentation, and the matched NG keywords. The number of (keywords that should not be spoken) is displayed. This number is stored in the storage unit and is used for various evaluations of the sales person AAA. This person is in charge of explaining multiple medicines. Then, in the presentation shown on the left side of the pharmaceutical AAA in the example of this screen, although one keyword to be explained was failed to be explained by the preset time, the keyword was displayed after the keyword was displayed. You can see that it was explained and corrected. It can also be seen that the NG keyword was not spoken. The administrator who sees this management screen can play the conversation at the time of the presentation by pressing the play button existing in the column, for example. However, since all the necessary keywords are spoken and the NG keyword is not spoken, the administrator can grasp that an appropriate presentation was made without playing. In this case, the approval button is displayed on the management screen, so when the administrator presses the approval button, the computer receives input of information that the approval has been made. Then, the computer records in the storage unit information that the presentation has been approved in connection with this presentation.

一方,図7の中央のプレゼンテーションでは,所定の時間内に一つの話すべきキーワードが漏れており,プレゼンテーション終了までにそのキーワードが認識されていない。また,NGキーワードが一つ認識されている。この場合,上司は,再生ボタンを押すことで,このプレゼンテーションと関連して記憶されている音声を再生できる。また,この場合,図7に示されるように,再生ボタンの入力及び音声が再生されたとコンピュータが判断されるまで,承認できないようにされており,音声が再生されたのちに承認できるように承認ボタンが表示されるようにしてもよい。プレゼンテーションを再生した上司は,このプレゼンテーションの評価を適宜修正できるようにしてもよい。この場合,コンピュータは,このプレゼンテーションに関する修正情報の入力を受け取る。そして,記憶部に記憶されているプレゼンテーションの評価(例えば必須―1)を修正し,更新された情報を記憶部に記録する。また,音声の再生後は,承認ボタンを押すことで,このプレゼンテーションを承認できる。このようにすれば,各担当の評価を容易に行うことができるとともに,プレゼンテーションや説明がきちんとなされていたかを容易に把握できることとなる。 On the other hand, in the central presentation of FIG. 7, one keyword to be spoken is leaked within a predetermined time, and the keyword is not recognized by the end of the presentation. In addition, one NG keyword is recognized. In this case, the boss can play the audio stored in connection with this presentation by pressing the play button. Further, in this case, as shown in FIG. 7, the computer cannot approve until the input of the play button and the computer determines that the voice has been played, and approves the voice after it has been played. The button may be displayed. The boss who played the presentation may be able to modify the evaluation of this presentation as appropriate. In this case, the computer receives input of correction information about this presentation. Then, the evaluation of the presentation stored in the storage unit (for example, required-1) is corrected, and the updated information is recorded in the storage unit. After playing the audio, you can approve this presentation by pressing the approve button. In this way, it is possible to easily evaluate each person in charge, and it is possible to easily grasp whether the presentation and explanation were made properly.

この明細書は,上記の方法を実装するためのプレゼンテーション支援コンピュータシステムをも提供する。そのシステムは,プレゼンテーションの内容に関する入力を受け取る手段と,記憶部から入力に関する複数のキーワードを読み出す手段と,プレゼンテーションを音声認識し,音声認識した用語を解析する手段と,複数のキーワードと音声認識した用語とのマッチングを行う手段と,プレゼンテーションを録音するとともに,マッチングの結果を記憶する手段と,を含む。また,このシステムは,先に説明した方法を実装するための各種手段を含む。各種手段の例は,計時手段や,各種表示手段である。 This specification also provides a presentation support computer system for implementing the above method. The system has a means of receiving input related to the content of the presentation, a means of reading multiple keywords related to the input from the storage unit, a means of voice-recognizing the presentation and analyzing the voice-recognized terms, and a means of voice-recognizing multiple keywords. It includes means for matching terms and means for recording presentations and storing matching results. The system also includes various means for implementing the methods described above. Examples of various means are timekeeping means and various display means.

この明細書は,上記の方法を実装するためのプレゼンテーション支援プログラムやそのプログラムを格納したコンピュータ読み取り可能な情報記録媒体をも提供する。そのプログラムは.コンピュータを上記工程を実行するように制御するものである。また,そのプログラムは,コンピュータを,プレゼンテーションの内容に関する入力を受け取る手段と,記憶部から入力に関する複数のキーワードを読み出す手段と,プレゼンテーションを音声認識し,音声認識した用語を解析する手段と,複数のキーワードと音声認識した用語とのマッチングを行う手段と,プレゼンテーションを録音するとともに,マッチングの結果を記憶する手段と,を含むように機能させるものである。 The specification also provides a presentation support program for implementing the above method and a computer-readable information recording medium containing the program. The program is. It controls the computer to perform the above steps. The program also includes a means for the computer to receive input related to the content of the presentation, a means for reading a plurality of keywords related to the input from the storage unit, a means for voice-recognizing the presentation, and a means for analyzing the voice-recognized term. It functions to include a means for matching keywords and speech-recognized terms, and a means for recording a presentation and memorizing the matching result.

本発明は,表示端末産業,情報通信産業,ソフトウェア開発,製薬産業,及び金融業などで利用されうる。 The present invention can be used in the display terminal industry, the information and communication industry, software development, the pharmaceutical industry, the financial industry, and the like.

Claims (7)

コンピュータを用いたプレゼンテーション支援方法であって,
前記コンピュータが,
プレゼンテーションの内容に関する入力を受け取る工程と,
記憶部から前記入力に関する複数のキーワードを読み出す工程と,
プレゼンテーションを含む音声を音声認識し,音声認識した用語を解析する工程と,
前記複数のキーワードと前記音声認識した用語とのマッチングを行う工程と,
を含む方法。
It is a presentation support method using a computer.
The computer
The process of receiving input about the content of the presentation and
A process of reading a plurality of keywords related to the input from the storage unit, and
The process of speech recognition of speech including presentations and analysis of speech-recognized terms,
The process of matching the plurality of keywords with the voice-recognized term, and
How to include.
請求項1に記載の方法であって,
前記コンピュータが,
前記プレゼンテーションを録音するとともに,前記マッチングの結果を記憶する工程をさらに含む,方法。
The method according to claim 1.
The computer
A method further comprising recording the presentation and storing the matching results.
請求項1に記載の方法であって,
前記コンピュータが,
前記マッチングの結果,前記複数のキーワードのうち前記音声認識した用語に含まれていないキーワードがあると判断した場合,前記含まれていないキーワードを出力する工程をさらに含む,方法。
The method according to claim 1.
The computer
As a result of the matching, when it is determined that there is a keyword that is not included in the voice-recognized term among the plurality of keywords, a method further including a step of outputting the keyword that is not included.
請求項3に記載の方法であって,
前記コンピュータが,
前記プレゼンテーションの内容に関する入力を受け取った後に,プレゼンテーションの時間を計測する工程をさらに含み,
前記コンピュータは,前記プレゼンテーションの時間が所定時間経過した後に,前記含まれていないキーワードを出力する,方法。
The method according to claim 3.
The computer
It further includes the step of measuring the time of the presentation after receiving the input regarding the content of the presentation.
A method in which the computer outputs the keywords that are not included after the presentation time has elapsed for a predetermined time.
請求項1に記載の方法であって,
前記複数のキーワードには,プレゼンテーションすべきキーワードと,プレゼンテーションすべきでないキーワードと,を含み,
前記マッチング工程において,前記音声認識した用語に前記プレゼンテーションすべきでないキーワードが含まれていた場合,
前記コンピュータが,プレゼンテーションすべきでないキーワードが含まれていたことを通知するアラートを出力する工程をさらに含む,方法。
The method according to claim 1.
The plurality of keywords include keywords that should be presented and keywords that should not be presented.
In the matching step, when the voice-recognized term contains the keyword that should not be presented,
A method further comprising the step of outputting an alert notifying that the computer contained a keyword that should not be presented.
プレゼンテーションの内容に関する入力を受け取る手段と,
記憶部から前記入力に関する複数のキーワードを読み出す手段と,
プレゼンテーションを音声認識し,音声認識した用語を解析する手段と,
前記複数のキーワードと前記音声認識した用語とのマッチングを行う手段と,
前記プレゼンテーションを録音するとともに,前記マッチングの結果を記憶する手段と,
を含む,プレゼンテーション支援コンピュータシステム。
A means of receiving input about the content of the presentation and
A means for reading a plurality of keywords related to the input from the storage unit, and
A means of speech-recognizing presentations and analyzing speech-recognized terms,
A means for matching the plurality of keywords with the voice-recognized term, and
A means for recording the presentation and storing the matching result,
Presentation support computer system, including.
プレゼンテーション支援プログラムであって,
コンピュータを,
プレゼンテーションの内容に関する入力を受け取る手段と,
記憶部から前記入力に関する複数のキーワードを読み出す手段と,
プレゼンテーションを音声認識し,音声認識した用語を解析する手段と,
前記複数のキーワードと前記音声認識した用語とのマッチングを行う手段と,
前記プレゼンテーションを録音するとともに,前記マッチングの結果を記憶する手段と,
を含むように機能させる,プログラム。
It is a presentation support program
Computer,
A means of receiving input about the content of the presentation and
A means for reading a plurality of keywords related to the input from the storage unit, and
A means of speech-recognizing presentations and analyzing speech-recognized terms,
A means for matching the plurality of keywords with the voice-recognized term, and
A means for recording the presentation and storing the matching result,
A program that works to include.
JP2018041428A 2018-03-08 2018-03-08 Presentation support method using computer and support system Pending JP2021081452A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018041428A JP2021081452A (en) 2018-03-08 2018-03-08 Presentation support method using computer and support system
PCT/JP2018/037686 WO2019171645A1 (en) 2018-03-08 2018-10-10 Presentation support method and support system using computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018041428A JP2021081452A (en) 2018-03-08 2018-03-08 Presentation support method using computer and support system

Publications (1)

Publication Number Publication Date
JP2021081452A true JP2021081452A (en) 2021-05-27

Family

ID=67847020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018041428A Pending JP2021081452A (en) 2018-03-08 2018-03-08 Presentation support method using computer and support system

Country Status (2)

Country Link
JP (1) JP2021081452A (en)
WO (1) WO2019171645A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7102035B1 (en) 2021-08-02 2022-07-19 株式会社インタラクティブソリューションズ Explanation support system
JP7195674B1 (en) 2022-04-07 2022-12-26 株式会社インタラクティブソリューションズ Presentation evaluation device
JP7195675B1 (en) 2022-04-12 2022-12-26 株式会社インタラクティブソリューションズ Presentation evaluation device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6933397B2 (en) * 2019-11-12 2021-09-08 ティ・アイ・エル株式会社 Speech recognition device, management system, management program and speech recognition method
JP2021135648A (en) * 2020-02-26 2021-09-13 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7966187B1 (en) * 2001-02-15 2011-06-21 West Corporation Script compliance and quality assurance using speech recognition
JP2005010989A (en) * 2003-06-18 2005-01-13 Nec Infrontia Corp Sale management method and apparatus
JP4687269B2 (en) * 2005-06-22 2011-05-25 沖電気工業株式会社 Product sales support device
JP4690999B2 (en) * 2006-11-15 2011-06-01 三菱電機インフォメーションシステムズ株式会社 Operator work support system
JP5329610B2 (en) * 2011-07-22 2013-10-30 みずほ情報総研株式会社 Explanation support system, explanation support method, and explanation support program
JP6718243B2 (en) * 2016-01-28 2020-07-08 株式会社インタラクティブソリューションズ Display device, display program, display system, and method for controlling display device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7102035B1 (en) 2021-08-02 2022-07-19 株式会社インタラクティブソリューションズ Explanation support system
WO2023013226A1 (en) * 2021-08-02 2023-02-09 株式会社インタラクティブソリューションズ Description assistance system
JP2023021856A (en) * 2021-08-02 2023-02-14 株式会社インタラクティブソリューションズ Explanation support system
JP7195674B1 (en) 2022-04-07 2022-12-26 株式会社インタラクティブソリューションズ Presentation evaluation device
JP2023154623A (en) * 2022-04-07 2023-10-20 株式会社インタラクティブソリューションズ Presentation evaluation device
JP7195675B1 (en) 2022-04-12 2022-12-26 株式会社インタラクティブソリューションズ Presentation evaluation device
WO2023199895A1 (en) * 2022-04-12 2023-10-19 株式会社インタラクティブソリューションズ Presentation evaluation device
JP2023156135A (en) * 2022-04-12 2023-10-24 株式会社インタラクティブソリューションズ Presentation evaluation device

Also Published As

Publication number Publication date
WO2019171645A1 (en) 2019-09-12

Similar Documents

Publication Publication Date Title
JP2021081452A (en) Presentation support method using computer and support system
US9697871B2 (en) Synchronizing recorded audio content and companion content
JP5855222B2 (en) Synchronous digital content
Palanica et al. Do you understand the words that are comin outta my mouth? Voice assistant comprehension of medication names
US20160239805A1 (en) Device, system and method for summarizing agreements
WO2020153109A1 (en) Presentation assistance device for calling attention to words that are forbidden to speak
JP6749705B2 (en) Presentation support system
US11694786B1 (en) Recommendation methods, systems and devices
JP2002099530A (en) Minutes production device, method and storage medium using it
JP2024010239A (en) Insurance consultation system, insurance consultation terminal, video recording method and video recording program
JP2018097239A (en) Voice reproduction device and program
JP2001272990A (en) Interaction recording and editing device
US20210390958A1 (en) Method of generating speaker-labeled text
JP6884442B2 (en) Presentation support system
JP2011170622A (en) Content providing system, content providing method, and content providing program
KR102236424B1 (en) Device, method and program for support call center counselor based on AI
US10146789B1 (en) Identifying and utilizing synchronized content
JP6639857B2 (en) Hearing test apparatus, hearing test method and hearing test program
Tompkinson et al. Perception of threat and intent to harm from vocal and facial cues
JP7040593B2 (en) Customer service support device, customer service support method, and customer service support program
CN113990419A (en) Physical examination display method and device, storage medium and virtual reality wearable equipment
WO2023013226A1 (en) Description assistance system
JP6624607B1 (en) Output sound error detection support program, output sound error detection support method, and output sound error detection support device
JP2007200038A (en) Learning unit and learning system
JP2008217722A (en) Contract receiving system