WO2023026545A1 - コンピュータを用いた会話支援方法 - Google Patents

コンピュータを用いた会話支援方法 Download PDF

Info

Publication number
WO2023026545A1
WO2023026545A1 PCT/JP2022/012380 JP2022012380W WO2023026545A1 WO 2023026545 A1 WO2023026545 A1 WO 2023026545A1 JP 2022012380 W JP2022012380 W JP 2022012380W WO 2023026545 A1 WO2023026545 A1 WO 2023026545A1
Authority
WO
WIPO (PCT)
Prior art keywords
conversation
term
term group
group
computer
Prior art date
Application number
PCT/JP2022/012380
Other languages
English (en)
French (fr)
Inventor
潔 関根
Original Assignee
株式会社インタラクティブソリューションズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社インタラクティブソリューションズ filed Critical 株式会社インタラクティブソリューションズ
Priority to CN202280004806.0A priority Critical patent/CN116034427B/zh
Publication of WO2023026545A1 publication Critical patent/WO2023026545A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Definitions

  • This invention relates to a conversation support method using a computer.
  • Patent No. 6739811 describes a presentation support device for drawing attention to prohibited words.
  • This device is a device that outputs keywords and alerts associated with NG words.
  • this device sums up the evaluation points of the keywords, related words, and NG words included in the presentation, and obtains the evaluation points of the entire presentation.
  • an object of the present invention is to provide a conversation support method capable of evaluating conversations in real time.
  • the above method may further include a recommended term group display step for the computer to display a recommended term group, which is a term group that is desired to be used next, using the term group analyzed in the word group analysis step. preferable.
  • the above method further includes the step of entering a scheduled time for the conversation into the computer; Preferably, the recommended term group display step displays the recommended term group further using the scheduled conversation time.
  • the above method preferably further includes an image display step for the computer to display an image of the term group analyzed in the word group analysis step.
  • FIG. 1 is a flow chart for explaining a conversation support method using a computer.
  • FIG. 2 is a block diagram of a conversation support device for realizing the conversation support method.
  • FIG. 3 is a conceptual diagram showing an example of voice analysis.
  • FIG. 4 is a table in place of a drawing showing examples of term groups.
  • FIG. 5 is a conceptual diagram showing an example of analyzing word groups.
  • FIG. 6 is a conceptual diagram showing an example of utterance evaluation.
  • FIG. 7 is a conceptual diagram showing an example of real-time evaluation of utterances and conversations.
  • FIG. 8 is a conceptual diagram showing an example of a group of recommended terms.
  • FIG. 1 is a flow chart for explaining a conversation support method using a computer.
  • This method includes a speech analysis step (S101), a word group analysis step (S102), and an utterance evaluation step (S103).
  • the method may further include either or both of a recommended term group display step (S104) and an image display step (S105).
  • FIG. 2 is a block diagram of a conversation support device for realizing the conversation support method.
  • this device 1 includes a speech analysis section 3, a word group analysis section 5, and an utterance evaluation section .
  • a recommended term group display section 9 and an image display section 11 may be further included.
  • the conversation support device is a computer-based system, and basically each part is an element for implementing each process described above.
  • the speech analysis unit 3 is an element for analyzing speech relating to conversation and obtaining speech words that are words included in the conversation.
  • the word group analysis unit 5 is an element for analyzing which one of a plurality of term groups a speech word corresponds to.
  • the device of the present invention may include a terminal connected to a network such as the Internet or an intranet, and a server connected to the network.
  • a network such as the Internet or an intranet
  • a server connected to the network.
  • a single computer or mobile terminal may function as the device of the present invention, or multiple servers may exist.
  • the speech analysis step is a step in which a computer analyzes speech about conversation and obtains speech words that are words included in the conversation.
  • Conversations can be mutual conversations, explanations or presentations by speakers to the audience, salespeople and customers, questions or inquiries over the phone, and so on. It may also be a conversation with a telephone attendant. Speech is usually the human voice. Of course, voice includes computer-generated pseudo-voice.
  • FIG. 3 is a conceptual diagram showing an example of voice analysis. In the example shown in FIG. 3, the conversation between the MR and the doctor (Dr. A) is input to the device. This device may be a device connected to the MR's terminal and the doctor's terminal, or may be one of them.
  • Conversational speech may be input to each terminal through the microphone of the MR's terminal and the microphone of the doctor's terminal, and the conversational speech may be input to the device through each terminal.
  • the microphone of the device may directly input the voice of the MR and the doctor (Dr. A) into the device.
  • the control unit of the apparatus appropriately reads the voice from the storage unit and causes the calculation unit to analyze the input voice. In this way, the device obtains the words (spoken words) involved in the conversation.
  • Such speech analysis devices are known.
  • the device may store the obtained phonetic words in a storage unit.
  • the word group analysis step is a step in which a computer analyzes which of a plurality of term groups a speech word corresponds to. And the term group includes either or both of words and phrases.
  • the storage unit of the device stores the words and phrases included in each term group.
  • the control unit of the apparatus causes the calculation unit to perform calculations for collating the spoken words with the words and phrases included in each term group. In this way, it is analyzed which term group the phonetic word is included in.
  • the analyzed analysis result may be stored in the storage unit.
  • Fig. 4 is a table that replaces drawings showing examples of term groups.
  • a term group may be a combination of words or phrases grouped into various elements. Also, the term group may be one or more of terms that must be spoken, keywords, and NG terms (terms that must not be spoken).
  • a plurality of term groups may be divided into term groups in which the presence of a certain term group is favorable and term groups in which the existence of a term group is undesirable.
  • FIG. 5 is a conceptual diagram showing an example of analyzing word groups.
  • the phrase “I am indebted to you” is included in the term group “greetings.” For this reason, when the MR utters, "Teacher, I am always indebted to you.”, this utterance is analyzed as a “greeting.” Then, regarding this conversation, it is stored in the storage unit that a "greeting” was made. Next, the doctor says, "(But) there are many, but is it on the market again?
  • the utterance evaluation process is a process in which the computer evaluates an utterance each time a utterance relating to conversation is input based on the term group analyzed in the word group analysis process. For example, in the storage unit, evaluation points are assigned to each term group. Then, the control unit of the apparatus reads out the evaluation points stored in association with the term group from the storage unit, and evaluates the statement. Note that the device may also evaluate the entire conversation, which is a set of utterances, at the same time. In addition, evaluation points may be stored in the storage unit in association with the relationship between the term group of one statement and the term group of the other statement.
  • the storage unit stores 0 points for the term group: “greetings”. Also, in the storage unit, -1 point is stored for the term group of one utterance: “greeting” and the term group of the other utterance: “rebuttal”.
  • the storage unit may store +1 point for the term group of one statement: "counterargument” followed by the term group of the other statement: "counterargument”.
  • This device may analyze the terms contained in the dialogue to obtain the coefficients. In this case, for example, when the conversation after the first "counter-argument" contained a term (DDP4 inhibitor) with a factor of 3, the term group in the other statement: 3 ⁇ (+1) for the "counter-argument" You may process so that 3 points may be added by .
  • the device stores the point-adding terms and the point-adding coefficients, and temporarily stores the point-adding coefficients when the conversational text is analyzed and it is found that the point-adding terms are included.
  • the evaluation score may be multiplied by this point addition coefficient when evaluating a statement.
  • these point-adding terms and point-adding coefficients may be stored in the storage unit in association with materials (for example, presentation materials), and when a conversation about the materials takes place, the point-adding terms and point-adding coefficients related to the materials may be read as appropriate. good.
  • FIG. 6 is a conceptual diagram showing an example of utterance evaluation.
  • MR Sensei
  • the term group: ⁇ Greetings'' is stored in the device. Therefore, the control unit of the apparatus reads out from the storage unit 0 points, which are evaluation points associated with the term group: "greetings”. Then, this statement is evaluated as 0 points.
  • the device stores a group of terms: "counterargument”. Then, the control unit of the apparatus reads out from the storage unit -1 point, which is the evaluation point associated with the term group of one statement: “greeting” and the term group of the other statement: "counterargument”. Thus, utterances are evaluated in real time.
  • the device memorizes the evaluation values so far included in the conversation leading up to this statement. Then, this device performs an operation to add the evaluation value in this utterance. In this way, the device can obtain evaluation points up to the time when a certain utterance is made in the conversation. Then, the obtained evaluation score of the conversation up to the time when a certain statement is made may be appropriately stored in the storage unit and output.
  • Figure 7 is a conceptual diagram showing an example of real-time evaluation of utterances and conversations. As shown in FIG. 7, in this example, for each utterance, the utterance and the conversation leading up to the utterance are evaluated. The content will be displayed in real time.
  • the above method may further include a recommended term group display step for the computer to display a recommended term group, which is a term group that is desired to be used next, using the term group analyzed in the word group analysis step. preferable.
  • the device selects a term group that should be spoken next after a certain term group, and if a second term group comes after the first term group, a third term that is preferably said next.
  • Memorize groups Then, the device analyzes the utterance, and uses the information about the utterance, the previous utterance, and the term group to which the previous utterance belongs, to read from the storage unit the term group that is desirable for the next utterance. Then, the device outputs terms included in the read term group that should be said next. Then, the term is displayed on the output unit (for example, monitor) of the speaker's terminal. In this way, the device can assist the speaker to converse.
  • a recommended term group display step for the computer to display a recommended term group, which is a term group that is
  • Fig. 8 is a conceptual diagram showing an example of a group of recommended terms. For example, when a term group A1 is used next to a certain term group, term group B1, term group B2, and term group B3 (or terms selected from these term groups or terms terms included in the group) may be displayed at the speaker's output, or term group B1 and term group C1 may be displayed as the best recommended term groups.
  • the above method may further include entering into the computer a scheduled time for the conversation.
  • the recommended term group display step it is preferable to display the recommended term group further using the scheduled conversation time.
  • the scheduled time of the conversation may be the beginning time of the conversation and the end time of the conversation, or the duration of the conversation (for example, within one hour).
  • the device has a clock section for keeping time or time.
  • the storage unit divides the conversation into conversation time areas such as initial, middle, and final.
  • the storage unit assigns identification information according to the conversation time region to the terms included in the term group and stores them.
  • the device can read and output the terms corresponding to the conversation time domain of the conversation.
  • the conversation end words which are words for ending the conversation
  • the ending term can be read and displayed accordingly. In this way, lectures, presentations, etc. can be completed within a predetermined time. Examples of end-of-conversation terms are "to sum up” and "to briefly explain the rest".
  • the above method preferably further includes an image display step for the computer to display an image of the term group analyzed in the word group analysis step.
  • An example of an image for a term group is a score or an arrow symbol (eg, ⁇ ) representing a score for the term group.
  • the storage unit stores images related to these term groups.
  • the device grasps a group of terms related to expression.
  • the device uses the grasped information about the term group to read the image about the term group from the storage unit.
  • the device then outputs the read image. For example, if the image is related to the evaluation value, it is possible to instantly grasp whether the person's remark was positive or negative.
  • This invention can be used in the information industry.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 会話をリアルタイムに評価できるコンピュータを用いた会話支援方法を提供する。 【解決手段】コンピュータを用いた会話支援方法は、会話に関する音声を解析し,会話に含まれる単語である音声単語を得るための音声解析工程と,音声単語について,単語及びフレーズのいずれか又は両方が含まれる複数の用語群のいずれに該当するかを分析するための単語群分析工程と,単語群分析工程で分析された用語群に基づいて,会話に関する発言がコンピュータに入力されるたびに,発言を評価する発言評価工程と,を含む。

Description

コンピュータを用いた会話支援方法
 この発明は,コンピュータを用いた会話支援方法に関する。
 特許第6739811号公報には,発言禁止用語に対し注意を喚起するためのプレゼンテーション支援装置が記載されている。この装置は,NGワードと関連したキーワードとアラートを出力する装置である。また,この装置は,プレゼンテーションに含まれるキーワード,関連語,及びNGワードについての評価点を合算し,プレゼンテーション全体に関する評価点を得る。
特許第6739811号公報
 上記の装置は,プレゼンテーションを評価することについては優れている。しかし,上記の装置は,プレゼンテーション全体を評価するものであり,会話をリアルタイムに評価するものではない。このため,この発明は,会話をリアルタイムに評価できる会話支援方法を提供することを目的とする。
 この明細書の最初の発明は,コンピュータを用いた会話支援方法に関する。この方法は,音声解析工程と,単語群分析工程と,発言評価工程とを含む。音声解析工程は,コンピュータが,会話に関する音声を解析し,会話に含まれる単語である音声単語を得る工程である。単語群分析工程は,コンピュータが,音声単語について,複数の用語群のいずれに該当するか分析する工程である。そして,用語群は,単語及びフレーズのいずれか又は両方が含まれる。発言評価工程は,コンピュータが,単語群分析工程で分析された用語群に基づいて,会話に関する発言が入力されるたびに,発言を評価する工程である。
 複数の用語群は,例えば,あいさつに関する用語群,反論に関する用語群,説明に関する用語群,疑問に関する用語群,弁解に関する用語群,同意に関する用語群,約束に関する用語群,及び確約に関する用語群のいずれか1つ又は2つ以上の用語群を含む。
 上記の方法は,コンピュータが,単語群分析工程で分析された用語群を用いて,次に用いることが望ましい用語群である推奨用語群を表示するための推奨用語群表示工程をさらに含むことが好ましい。
 上記の方法は,会話の予定時間をコンピュータに入力する工程をさらに含み,
 推奨用語群表示工程は,会話の予定時間をさらに用いて,推奨用語群を表示することが好ましい。
 上記の方法は,コンピュータが,単語群分析工程で分析された用語群に関する画像を表示するための画像表示工程をさらに含むことが好ましい。
 この明細書の次の発明は,プログラムやプログラムを記憶したコンピュータが読み取ることのできる情報記録媒体に関する。このプログラムは,コンピュータに,上記した各方法を実装させるためのプログラムである。
 この発明によれば,会話をリアルタイムに評価できる会話支援方法を提供できる。
図1は,コンピュータを用いた会話支援方法を説明するためのフローチャートである。 図2は,会話支援方法を実現するための会話支援装置のブロック図である。 図3は,音声解析を行った例を示す概念図である。 図4は,用語群の例を示す図面に代わる表である。 図5は,単語群を分析した例を示す概念図である。 図6は,発言の評価の例を示す概念図である。 図7は,発言や会話をリアルタイムに評価した例を示す概念図である。 図8は,推奨用語群の例を示す概念図である。
 以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。
 コンピュータを用いた会話支援方法について説明する。図1は,コンピュータを用いた会話支援方法を説明するためのフローチャートである。この方法は,音声解析工程(S101)と,単語群分析工程(S102)と,発言評価工程(S103)とを含む。図1に示されるように,この方法は,推奨用語群表示工程(S104)及び画像表示工程(S105)のいずれか又は両方をさらに含んでもよい。
 図2は,会話支援方法を実現するための会話支援装置のブロック図である。図2に示されるように,この装置1は,音声解析部3と,単語群分析部5と,発言評価部7とを含む。図2に示されるように,推奨用語群表示部9及び画像表示部11のいずれか又は両方をさらに含んでもよい。会話支援装置は,コンピュータに基づくシステムであり,基本的に各部は上記した各工程を実装するための要素である。例えば,音声解析部3は,会話に関する音声を解析し,会話に含まれる単語である音声単語を得るための要素である。単語群分析部5は,音声単語について,複数の用語群のいずれに該当するか分析するための要素である。発言評価部7は,分析された用語群に基づいて,会話に関する発言が入力されるたびに,発言を評価するための要素である。推奨用語群表示部9は,単語群分析工程で分析された用語群を用いて,次に用いることが望ましい用語群である推奨用語群を表示するための要素である。画像表示部11は,用語群に関する画像を表示するための要素である。
 コンピュータは,入力部,出力部,制御部,演算部及び記憶部を有しており,各要素は,バスなどによって接続され,情報の授受を行うことができるようにされている。例えば,記憶部には,制御プログラムが記憶されていてもよいし,各種情報が記憶されていてもよい。入力部から所定の情報が入力された場合,制御部は,記憶部に記憶される制御プログラムを読み出す。そして,制御部は,適宜記憶部に記憶された情報を読み出し,演算部へ伝える。また,制御部は,適宜入力された情報を演算部へ伝える。演算部は,受け取った各種情報を用いて演算処理を行い,記憶部に記憶する。制御部は,記憶部に記憶された演算結果を読み出して,出力部から出力する。このようにして,各種処理や各工程が実行される。この各種処理を実行するものが,各部や各手段である。
 本発明の装置は,インターネット又はイントラネットなどのネットワークと接続された端末と,ネットワークに接続されたサーバとを含むものであってもよい。もちろん,単体のコンピュータや携帯端末が,本発明の装置として機能してもよいし,複数のサーバが存在してもよい。
 音声解析工程(S101)
 音声解析工程は,コンピュータが,会話に関する音声を解析し,会話に含まれる単語である音声単語を得る工程である。会話は,お互いが話し合うものであってもよいし,演者が聴衆に対して説明をするものやプレゼンテーションであってもよいし,営業者と顧客であてもよいし,電話での質問や問い合わせと電話対応者との会話であってもよい。音声は,通常は,人の声である。もっとも,音声には,コンピュータによる疑似音声も含まれる。
図3は,音声解析を行った例を示す概念図である。図3に示す例では,MR及び医師(Dr.A)の会話が装置に入力される。この装置は,MRの端末と医師の端末と接続された装置であってもよいし,いずれか一つの端末であってもよい。MRの端末のマイク及び医師の端末のマイクを通して,各端末に,会話に関する音声が入力され,各端末を通して会話に関する音声が装置に入力されてもよい。また,装置のマイクが直接MR及び医師(Dr.A)の会話に関する音声を装置内に入力してもよい。装置の制御部は,記憶部から適宜音声を読み出して,演算部に入力された音声を解析させる。このようにして,装置は,会話に含まれる単語(音声単語)を得る。このような音声解析装置は,公知である。装置は,得られた音声単語を記憶部に記憶してもよい。
 図3に示される音声単語の解析例は,以下のとおりである。
 MR:先生、いつもお世話になっております。
   本日は、新発売となりましたDPP4阻害薬アイプロ錠のご紹介に伺いました。
 医師:(でも、)沢山あるのに、また発売になったの?
   もう新しいDPP4阻害薬は使うつもりないんだけど。
 MR:先生、確かに既にいくつかのDPP4阻害薬が発売になっておりますが、
   弊社のアイプロ錠は他剤に比べて優れている点がございます。
   今、どのDPP4阻害薬をお使いですか?
 医師:たくさんあるから、患者さんの生活スタイルに合わせて使い分けてるよ。
   最近はプチン錠を出すことが多いかな。プチンは一回で効果が強いからね。
 単語群分析工程(S102)
 単語群分析工程は,コンピュータが,音声単語について,複数の用語群のいずれに該当するか分析する工程である。そして,用語群は,単語及びフレーズのいずれか又は両方が含まれる。装置の記憶部は,各用語群に含まれる単語やフレーズを記憶している。そして,装置の制御部は,演算部に音声単語と各用語群に含まれる単語やフレーズとを照合する演算を行わせる。このようにして,音声単語が,いずれの用語群に含まれるかが分析される。分析された分析結果は,記憶部に記憶されてもよい。
 図4は,用語群の例を示す図面に代わる表である。用語群は,様々な要素にグループ分けを行った単語やフレーズの組合せであってもよい。また,用語群は,必ず話さなければならない用語,キーワード及びNG用語(話してはならない用語)のいずれか又は2つ以上であってもよい。複数の用語群は,ある用語群が存在するとよい方向となる用語群,及びよくない方向となる用語群に分けられていてもよい。また,複数の用語群は,例えば,あいさつに関する用語群,反論に関する用語群,説明に関する用語群,疑問に関する用語群,弁解に関する用語群,同意に関する用語群,約束に関する用語群,及び確約に関する用語群のいずれか1つ又は2つ以上の用語群を含む。なお,これらの用語群は,コンピュータに「あいさつに関する用語群」などとして記憶されている必要はない。
 図5は,単語群を分析した例を示す概念図である。図5に示されるように,例えば,「お世話になっております」というフレーズは,用語群である「挨拶」に含まれる。このため,MRが「先生、いつもお世話になっております。」と発言すると,この発言が「挨拶」であると分析される。そして,この会話について,「挨拶」がなされたことが記憶部に記憶される。
 次に,医師が,「(でも、)沢山あるのに、また発売になったの?もう新しいDPP4阻害薬は使うつもりないんだけど」と発言する。すると,医師の発言に含まれる「でも」と「つもりないんだけど」という単語の組合せが,「反論」であると分析される。そして,この会話について,上記した「挨拶」の後に「反論」がなされたことが記憶部に記憶される。
 発言評価工程(S103)
 発言評価工程は,コンピュータが,単語群分析工程で分析された用語群に基づいて,会話に関する発言が入力されるたびに,発言を評価する工程である。例えば,記憶部には,各用語群について,評価点が割り当てられている。そして,装置の制御部は,記憶部から用語群と関連して記憶されている評価点を読み出し,その発言を評価すればよい。なお,装置は,発言の集合である会話全体の評価も同時に行ってもよい。また,一方の発言の用語群と,他方の発言の用語群との関係に関連して評価点が記憶部に記憶されていてもよい。
 例えば,記憶部には,用語群:「挨拶」について0点が記憶される。また,記憶部には,一方の発言の用語群:「挨拶」の次の他方の発言の用語群:「反論」について-1点が記憶される。記憶部は,一方の発言の用語群:「反論」の次の他方の発言の用語群:「反論」について+1点が記憶されていてもよい。この装置は,会話文に含まれる用語を解析して係数を求めるようにしてもよい。この場合,例えば,最初の「反論」後の会話に係数3に関する用語(DDP4阻害薬)が含まれていたときに,次の他方の発言の用語群:「反論」について,3×(+1)で3点を加点するように処理してもよい。この場合,装置には,加点用語と加点係数とを記憶しておき,会話文を解析して,加点用語が含まれていることを把握した場合に,加点係数を一時的に記憶しておき,発言評価の際にこの加点係数を評価点と乗算すればよい。例えば,この加点用語や加点係数は,資料(例えばプレゼンテーション資料)と関連して記憶部に記憶され,資料に関する会話がなされると,その資料に関する加点用語や加点係数が適宜読み出されるようにしてもよい。
 図6は,発言の評価の例を示す概念図である。
「MR:先生、いつもお世話になっております。
   本日は、新発売となりましたDPP4阻害薬アイプロ錠のご紹介に伺いました。」と関連して装置に,用語群:「挨拶」が記憶されている。このため,装置の制御部は,記憶部から用語群:「挨拶」と関連した評価点である0点を読み出す。すると,この発言について,0点という評価がなされる。
 次に,医師が,
「医師:(でも、)沢山あるのに、また発売になったの?
   もう新しいDPP4阻害薬は使うつもりないんだけど。」と発言する。
この発言に関連して,装置に,用語群:「反論」が記憶されている。すると,装置の制御部は,記憶部から,一方の発言の用語群:「挨拶」の次の他方の発言の用語群:「反論」と関連する評価点である-1点を読み出す。このようにして,発言がリアルタイムに評価される。
 また,装置は,この発言に至る会話に含まれるこれまでの評価値を記憶している。そして,この装置は,この発言における評価値を加算する演算を行う。このようにして,この装置は,会話のうちある発言がなされている時点までの評価点を得ることができる。そして,得られたある発言がなされている時点までの会話の評価点は適宜記憶部に記憶され,出力されてもよい。
 図7は,発言や会話をリアルタイムに評価した例を示す概念図である。図7に示されるように,この例では,発言のたびに,その発言やその発言に至る会話が評価され,説明者,演者,又はプレゼンテーターの端末の表示部に,↑↑↓↓といった評価内容がリアルタイムで表示されることとなる。
 上記の方法は,コンピュータが,単語群分析工程で分析された用語群を用いて,次に用いることが望ましい用語群である推奨用語群を表示するための推奨用語群表示工程をさらに含むことが好ましい。装置は,ある用語群の次に発言されることが好ましい用語群や,第1の用語群の次に第2の用語群が来た場合に,次に発言されることが好ましい第3の用語群を記憶する。そして,装置は,発言を解析し,その発言やその前の発言,さらにその前の発言の属する用語群に関する情報を用いて,記憶部から,次発言することが望ましい用語群を読み出す。そして,装置は,読み出した次発言することが望ましい用語群に含まれる用語を,出力する。すると,話者の端末の出力部(例えばモニタ)にその用語が表示されることとなる。このようにして,この装置は,話者が会話することを支援できる。
 図8は,推奨用語群の例を示す概念図である。例えば,ある用語群の次にA1という用語群が用いられた場合,推奨用語群として,用語群B1,用語群B2,及び用語群B3(又はこれらの用語群から選ばれた用語やこれらの用語群に含まれる用語)が話者の出力部に表示されてもよいし,ベストな推奨用語群として用語群B1及び用語群C1が表示されてもよい。
 上記の方法は,会話の予定時間をコンピュータに入力する工程をさらに含んでもよい。そして,推奨用語群表示工程は,会話の予定時間をさらに用いて,推奨用語群を表示することが好ましい。会話の予定時間は,会話の初めの時間と会話の終わりの時間であってもよいし,会話の継続時間(例えば1時間以内)である。この装置は,時刻や時間を図る時計部を有していることが好ましい。そして,記憶部は,会話を初期,中期,及び終期といった会話時間領域に分割する。そして,記憶部は,用語群に含まれる用語に対し,会話時間領域に応じた識別情報を付与し,記憶する。すると,装置は,用語群に含まれる用語を読み出す際に,会話の会話時間領域に応じた用語を読み出し,出力することができる。
 例えば,会話の予定時間のうち所定時間前であるとか,会話終期になった場合に,記憶部に,会話を終わらせるための用語である会話終了用語を推奨用語群として記憶しておき,会話終了用語を読み出して,適宜表示すようにすればよい。このようにすれば,講演やプレゼンテーションなどを所定時間内に終えることができるようにすることができる。会話終了用語の例は,「まとめますと」,及び「残りを簡潔に説明しますと」である。
 上記の方法は,コンピュータが,単語群分析工程で分析された用語群に関する画像を表示するための画像表示工程をさらに含むことが好ましい。用語群に関する画像の例は,用語群に関する評価点又は評価点を表す矢印記号(例えば,↑↓)である。記憶部は,これら用語群に関する画像を記憶する。そして,装置が発現に関する用語群を把握する。すると,装置は,把握した用語群に関する情報を用いて,記憶部からその用語群に関する画像を読み出す。そして,装置は,読み出した画像を出力する。例えば画像が評価値に関連する画像の場合,自らの発言がプラスであったかマイナスであったか瞬時に把握できる。
 この明細書の次の発明は,プログラムやプログラムを記憶したコンピュータが読み取ることのできる情報記録媒体に関する。このプログラムは,コンピュータに,上記した各方法を実装させるためのプログラムである。このプログラムは,例えば,コンピュータを,会話に関する音声を解析し,会話に含まれる単語である音声単語を得て,音声単語について,複数の用語群のいずれに該当するか分析し,分析された用語群に基づいて,会話に関する発言が入力されるたびに,発言を評価するように機能させる。
 この発明は,情報産業において利用されうる。 
1 会話支援装置
3 音声解析部
5 単語群分析部
7 発言評価部
9 推奨用語群表示部
11 画像表示部

Claims (7)

  1.  コンピュータを用いた会話支援方法であって,
     前記コンピュータが,
     会話に関する音声を解析し,前記会話に含まれる単語である音声単語を得るための音声解析工程と,
     前記音声単語について,複数の用語群のいずれに該当するか分析するための単語群分析工程であって,前記用語群は,単語及びフレーズのいずれか又は両方が含まれる工程と,
     前記単語群分析工程で分析された用語群に基づいて,
     前記会話に関する発言が前記コンピュータに入力されるたびに,前記発言を評価する発言評価工程とを含む,
     方法。
  2.  請求項1に記載の方法であって,
     前記複数の用語群は,あいさつに関する用語群,反論に関する用語群,説明に関する用語群,疑問に関する用語群,弁解に関する用語群,同意に関する用語群,約束に関する用語群,及び確約に関する用語群のいずれか1つ又は2つ以上の用語群を含む,
     方法。
  3.  請求項1に記載の方法であって,
     前記コンピュータが,
     前記単語群分析工程で分析された用語群を用いて,
     次に用いることが望ましい用語群である推奨用語群を表示するための推奨用語群表示工程をさらに含む,
     方法。
  4.  請求項3に記載の方法であって,
     前記会話の予定時間を前記コンピュータに入力する工程をさらに含み,
     前記推奨用語群表示工程は,前記会話の予定時間をさらに用いて,前記推奨用語群を表示する,
     方法。
  5.  請求項1に記載の方法であって,
     前記コンピュータが,
     前記単語群分析工程で分析された用語群に関する画像を表示するための画像表示工程をさらに含む,
     方法。
  6.  コンピュータに,
     会話に関する音声を解析し,前記会話に含まれる単語である音声単語を得るための音声解析工程と,
     前記音声単語について,複数の用語群のいずれに該当するか分析するための単語群分析工程であって,前記用語群は,単語及びフレーズのいずれか又は両方が含まれる工程と,
     前記単語群分析工程で分析された用語群に基づいて,前記会話に関する発言が前記コンピュータに入力されるたびに,前記発言を評価する発言評価工程とを含む,
     方法を実装させるためのプログラム。
  7.  請求項6に記載のプログラムを記憶したコンピュータが読み取ることのできる情報記録媒体。
PCT/JP2022/012380 2021-08-27 2022-03-17 コンピュータを用いた会話支援方法 WO2023026545A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280004806.0A CN116034427B (zh) 2021-08-27 2022-03-17 使用计算机的会话支持方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-139434 2021-08-27
JP2021139434A JP7017822B1 (ja) 2021-08-27 2021-08-27 コンピュータを用いた会話支援方法

Publications (1)

Publication Number Publication Date
WO2023026545A1 true WO2023026545A1 (ja) 2023-03-02

Family

ID=80854580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012380 WO2023026545A1 (ja) 2021-08-27 2022-03-17 コンピュータを用いた会話支援方法

Country Status (3)

Country Link
JP (1) JP7017822B1 (ja)
CN (1) CN116034427B (ja)
WO (1) WO2023026545A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151766A (ja) * 2007-11-30 2009-07-09 Nec Corp ライフアドバイザ支援システム、アドバイザ側端末システム、認証サーバ、サーバ、支援方法、及びプログラム
WO2019017462A1 (ja) * 2017-07-21 2019-01-24 日本電信電話株式会社 満足度推定モデル学習装置、満足度推定装置、満足度推定モデル学習方法、満足度推定方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464703B2 (ja) * 2014-12-01 2019-02-06 ヤマハ株式会社 会話評価装置およびプログラム
CN108010513B (zh) * 2016-10-28 2021-05-14 北京回龙观医院 语音处理方法及设备
CN111416728B (zh) * 2019-01-08 2023-12-05 北京汇钧科技有限公司 会话结束预测、在线客服服务的方法、系统、设备及介质
JP6739811B2 (ja) * 2019-01-22 2020-08-12 株式会社インタラクティブソリューションズ 発言禁止用語に対し注意を喚起するためのプレゼンテーション支援装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151766A (ja) * 2007-11-30 2009-07-09 Nec Corp ライフアドバイザ支援システム、アドバイザ側端末システム、認証サーバ、サーバ、支援方法、及びプログラム
WO2019017462A1 (ja) * 2017-07-21 2019-01-24 日本電信電話株式会社 満足度推定モデル学習装置、満足度推定装置、満足度推定モデル学習方法、満足度推定方法、およびプログラム

Also Published As

Publication number Publication date
CN116034427A (zh) 2023-04-28
JP7017822B1 (ja) 2022-02-09
CN116034427B (zh) 2024-02-20
JP2023033001A (ja) 2023-03-09

Similar Documents

Publication Publication Date Title
St. Louis et al. Cluttering updated
Matheson The Voice Transcription Technique: Use of Voice Recognition Software to Transcribe Digital Interview Data in Qualitative Research.
US8725518B2 (en) Automatic speech analysis
WO2017200080A1 (ja) 対話方法、対話装置、及びプログラム
CN108431883A (zh) 语言学习系统以及语言学习程序
US11735208B2 (en) Systems and methods for classification and rating of calls based on voice and text analysis
JP6616038B1 (ja) 営業トークナビゲーションシステム、営業トークナビゲーション方法および営業トークナビゲーション用プログラム
Siegert et al. How do we speak with Alexa: Subjective and objective assessments of changes in speaking style between HC and HH conversations
Evanini et al. Overview of automated speech scoring
WO2023026545A1 (ja) コンピュータを用いた会話支援方法
JP7231894B1 (ja) コンピュータを用いた会話支援方法
US20190362737A1 (en) Modifying voice data of a conversation to achieve a desired outcome
JP2023055834A (ja) コンピュータを用いた会話支援方法
JP2010197858A (ja) 音声対話システム
US11848011B1 (en) Systems and methods for language translation during live oral presentation
CN111651582B (zh) 一种模拟用户发言的方法和系统
Gambino et al. Beyond on-hold messages: Conversational time-buying in task-oriented dialogue
Nijveld et al. The use of exemplars differs between native and non-native listening
CN113850086A (zh) 语音评分方法及装置、存储介质及电子设备
WO2020090857A1 (ja) 語学力評価方法及び語学力評価システム
JPH02206825A (ja) 議事録作成装置
Fernández et al. Interaction in task-oriented human-human dialogue: The effects of different turn-taking policies
CN109859741A (zh) 语音测评方法、装置、电子设备及存储介质
US11438457B1 (en) Method and apparatus for coaching call center agents
Bosdriesz Adding Speech to Dialogues with a Council of Coaches

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22860843

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE