JP5092720B2 - Product description content transcription support program, apparatus, and method. - Google Patents

Product description content transcription support program, apparatus, and method. Download PDF

Info

Publication number
JP5092720B2
JP5092720B2 JP2007314036A JP2007314036A JP5092720B2 JP 5092720 B2 JP5092720 B2 JP 5092720B2 JP 2007314036 A JP2007314036 A JP 2007314036A JP 2007314036 A JP2007314036 A JP 2007314036A JP 5092720 B2 JP5092720 B2 JP 5092720B2
Authority
JP
Japan
Prior art keywords
data
transcription
customer
similarity
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007314036A
Other languages
Japanese (ja)
Other versions
JP2009140103A (en
Inventor
佐藤  賢一
達雄 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2007314036A priority Critical patent/JP5092720B2/en
Publication of JP2009140103A publication Critical patent/JP2009140103A/en
Application granted granted Critical
Publication of JP5092720B2 publication Critical patent/JP5092720B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To allow a batch definition of question types of respective sentences by sentence labels defined with the plurality of question types, and to improve the accuracy of data. <P>SOLUTION: When a further specific field is aimed at and performing documentation based on a conversation record between an exponent and a customer, customer situation is grasped; explanation content (assumed explanation definition body) according to a contract purpose is decided, a commodity knowledge level, and experience years, or the like, are determined and explained; and the degree of similarity between actual explanation and assumed explanation is obtained for each process. When the similarity degree is a prescribed degree or lower, the transcription range of conversation record data is reduced, and the number of transcribing persons is increased, according to the similarity degree, and processing for performing a request is performed to aim the accuracy improvement of the documentation. <P>COPYRIGHT: (C)2009,JPO&amp;INPIT

Description

金融、保険、売買一般等で発生する販売アプロ−チ、商品説明から契約締結までの業務に於、口頭での重要事項説明や同意確認を実施する場合、説明内容や同意確認手順に問題が無かったか否かを確かめるための音声のテキスト書き起こしに関する。   When conducting verbal explanations of important matters and consent confirmations in operations from finance, insurance, general sales and other sales approaches, product explanations to contract conclusions, there are no problems with the explanations and consent confirmation procedures. This is related to transcription of audio text to confirm whether or not.

金融商品販売法改正に伴い、顧客の知識、経験、財産状況及び契約を締結する目的に照らして不適当と認められる勧誘を行わないとする新たな判断基準(適合性の原則)を加えた説明が必要となり、ますます顧客への説明責任の重要性が高まった。
この説明内容等を確認する方法として、説明中の録画・録音に加え、会話内容を文字列化し時系列に保存し、必要時にデータを検索して確認するといった手段が近年の流れである。
上記に関する特許文献を1件を検出した。
該当文献は、会話内容がある程度想定できる分野に於、その分野の基礎データ(音声、言語等を含む辞書データ等)を参照しながら複数の音声認識手段を有して独立した音声認識を行うため、確度の高い音声認識ができる(例:顧客とコ−ルセンタ対応者の二者間の音声認識を独立に行うため、音声の重畳が発生したとしても他者に害されず自己の音声を高確度で認識できる)旨を強調としている。そして、音声認識の結果から得られた文字を並列(例:二段)に表示装置等に表示し、その並列に表示された文字列(例:顧客とコ−ルセンタ対応者の会話内容を文字列として二段表示したもの)を書き起こし者が参考としながら、会話内容を文字化するため(書き起こし者が音声を聞き文字化する行為に比べ)、説明内容文字化作業の効率化が図れる旨述べられている。
特開2005−126869
Explanation that added new judgment standard (principle of conformity) that does not make solicitation deemed inappropriate in light of the customer's knowledge, experience, property situation and purpose of concluding a contract with the revision of the Financial Instruments and Exchange Act The need for accountability to customers has become increasingly important.
As a method for confirming the contents of the explanation, in recent years, in addition to the recording / recording being explained, the conversation contents are converted into a character string, stored in a time series, and the data is searched and confirmed when necessary.
One patent document related to the above was detected.
The corresponding document has a plurality of speech recognition means and performs independent speech recognition while referring to basic data (dictionary data including speech, language, etc.) in the field where conversation contents can be assumed to some extent. , Voice recognition with high accuracy can be performed (eg, since the voice recognition between the customer and the call center support person is performed independently, even if the voice is superimposed, the voice of the person is increased without being harmed by others. It is emphasized that it can be recognized with accuracy. Then, the characters obtained from the speech recognition result are displayed in parallel (for example, in two steps) on a display device or the like, and the character string displayed in parallel (for example, the conversation content between the customer and the call center supporter is displayed as characters. Since the conversation content is converted into text (compared to the act in which the caller listens to the speech and transcribes the text) while the transcriber is referring to the text (displayed in two rows as a column), the text content can be made more efficient. It is stated.
JP 2005-126869 A

しかし、この非特許文献1で開示された技術では、質問タイプ同定で用いられるタイプのうち、どの文が実質的な質問文(核文)かを抽出するタイプ同定のみ行っており、即ち、単一種類のタイプについて同定しているのみであり、本発明が対象とするように複数の種類のタイプ同定を行うものではない。   However, in the technique disclosed in Non-Patent Document 1, only type identification is performed to extract which sentence is a substantial question sentence (nuclear sentence) from the types used in question type identification. Only one type is identified, and a plurality of types are not identified as the subject of the present invention.

上記してきた様に、自然文の質問タイプ同定は、1種類のタイプ同定では正確にその質問文を同定したことにはならない。   As described above, the question type identification of a natural sentence does not mean that the question sentence is accurately identified by one type identification.

このため、この非特許文献1の様に、1度に1種類のタイプ同定しかできないもので、複数の種類のタイプ同定を行うためには、各種類ごとに個別にタイプ同定をさせていく必要があり、時間やリソ−スが掛かってしまう。   For this reason, like this non-patent document 1, only one type identification can be performed at a time, and in order to perform a plurality of types of type identification, it is necessary to perform type identification individually for each type. There will be time and resources.

本発明は、上記従来の課題を達成するために、質問を示す文か否かの質問タイプを含む複数の質問タイプを示す文ラベル単位に設けられ該文ラベルの定義が記憶された複数のテ−ブルと、記憶手段と、自然文による質問情報を受信する受信機能と、前記受信機能にて受信した質問情報を、文単位に分割し、各文毎に形態素解析を行い各単語の属性を決定し、この結果を記憶手段に記憶する形態素解析機能と、前記形態素解析機能にて、前記記憶手段に記憶された各文に対し、複数のテ−ブルによるスコアを求め、このスコアを利用して各文の文ラベルを決定し、前記記憶手段に記憶する質問タイプ決定機能と、前記質問タイプ決定機能にて決定された文ラベルを基に、前記記憶手段に記憶された各文から質問単
位にチャンキングを行うチャンキング機能とを有するものである。
In order to achieve the above-described conventional problems, the present invention provides a plurality of texts provided in sentence label units indicating a plurality of question types including a question type indicating whether or not a sentence indicates a question and storing definitions of the sentence labels. -Bull, storage means, reception function for receiving question information by natural sentence, and the question information received by the reception function are divided into sentence units, and morphological analysis is performed for each sentence to determine the attribute of each word. The morpheme analysis function for determining and storing the result in the storage means, and for each sentence stored in the storage means by the morpheme analysis function, a score by a plurality of tables is obtained, and this score is used. The sentence type of each sentence is determined and stored in the storage means. Based on the sentence label determined by the question type determination function, the question unit is determined from each sentence stored in the storage means. Chan to perform chunking Those having a bridging functions.

この構成により、複数の質問タイプが定義された文ラベルにより各文の質問タイプを一括定義できるようになるので、従来より高速に複数の質問タイプの決定を行う事ができる。   With this configuration, the question type of each sentence can be collectively defined by a sentence label in which a plurality of question types are defined, so that a plurality of question types can be determined at a higher speed than before.

加えてチャンキングを行う事で、質問者へ、各文単位の質問に対する回答より的確な回答を出力させる事が可能となる。   In addition, by performing chunking, it is possible to cause the questioner to output a more accurate answer than the answer to each sentence unit question.

図1は、本発明の一実施形態におけるシステム構成図の例である。   FIG. 1 is an example of a system configuration diagram according to an embodiment of the present invention.

図1に明記されているように、本実施の形態のシステムは、商品説明内容文字化支援装置1と営業店2に配置されたn台のクライアント装置21〜2n、書き起こし者用のm台のクライアント装置31〜3m、編集者用のk台のクライアント装置41〜4k及びコンプライアンス担当者用のs台のクライアント装置51〜5sが専用等のネットワ−クで結合されている。   As clearly shown in FIG. 1, the system according to the present embodiment includes a product description content characterizing support device 1 and n client devices 21 to 2n arranged in a sales office 2, m for a transcriber. The client devices 31 to 3m, the k client devices 41 to 4k for editors, and the s client devices 51 to 5s for compliance officers are connected by a dedicated network.

このうち、商品説明内容文字化支援装置1は、営業店配置のクライアント装置から収集した商品説明時の説明者と顧客の会話データを保存し、書き起こし者用クライアント装置に書き起こし用データの配信と書き起こし者によって書き起こされたデータの収集を行うものである。加えてその書き起こしデータを編集者に送信し、編集者によって修正された書き起こしデータを収集し、最終的にコンプライアンス担当者にクリ−ンな書き起こしデータを渡すために制御を司るものである。   Among them, the product description content characterizing support device 1 stores the conversation data of the explainer and the customer at the time of product description collected from the client device arranged at the sales office, and distributes the transcription data to the client device for the transcriber. The data collected by the transcriber is collected. In addition, it sends the transcription data to the editor, collects the transcription data modified by the editor, and ultimately controls to pass the clean transcription data to the compliance officer. .

また、営業店配置のクライアント装置21〜2nは、商品説明時の説明者と顧客の会話データを取得し保存する装置である。   Further, the client devices 21 to 2n arranged in the sales office are devices that acquire and store conversation data between the presenter and the customer at the time of the product description.

さらに、書き起こし者用クライアント装置31〜3mは、説明者と顧客の会話データを再生し、会話内容をテキストデータ化する装置である。   Further, the transcriber client devices 31 to 3m are devices that reproduce the conversation data of the presenter and the customer and convert the conversation contents into text data.

加えて、編集者用クライアント装置41〜4kは、テキスト化された会話内容を検査する装置である。   In addition, the client devices for editors 41 to 4k are devices that inspect the conversation contents that have been converted into text.

次に各装置における機能ブロックについて図2を用いて説明を行う。なお、図2はz、ズ1におけるシステムの機能ブロック図を示したものである。   Next, functional blocks in each apparatus will be described with reference to FIG. FIG. 2 is a functional block diagram of the system in z and z1.

営業店配置のクライアント装置21〜2nは、各々、説明者用の音声取得のためのマイクロホン210、マイクロホン210に入力された音声情報を取得する音声記録手段211、音声記録手段211により記録された音声を音声認識する音声認識手段212、音声認識手段212より出力された説明者の音声認識結果を取得する音声記録手段213、顧客用の音声取得のためのマイクロホン220、マイクロホン220より入力される連続音声を記録する音声記録手段221、音声記録手段221により記録された音声を認識する音声認識手段222、音声認識手段222により認識された顧客の音声認識結果を記録する音声記録手段223、説明者のキーボート等のユ−ザインタフェイス(図示せず)からの入力及び音声記録手段213、音声記録手段223に記録された音声認識結果キーワード等を表示するための入力・表示手段224、および、各々の手段を制御お呼びネットワ−クとの通信制御を行う処理制御・通信手段225から成る。   The client apparatuses 21 to 2n arranged at the branch offices each have a microphone 210 for acquiring sound for the presenter, a voice recording unit 211 for acquiring voice information input to the microphone 210, and a voice recorded by the voice recording unit 211. Voice recognition means 212 for recognizing voice, voice recording means 213 for obtaining the speech recognition result of the explainer output from the voice recognition means 212, microphone 220 for customer voice acquisition, and continuous voice input from the microphone 220 Voice recording means 221, voice recognition means 222 for recognizing the voice recorded by the voice recording means 221, voice recording means 223 for recording the voice recognition result of the customer recognized by the voice recognition means 222, and the explainer's keyboard From a user interface (not shown) such as a voice recording unit 213 Input and display means 224 for displaying the speech recognition result keyword or the like recorded in the sound recording unit 223 and, control each of the means and networks - consisting processing control and communication unit 225 for performing communication control with the click.

商品説明内容文字化支援装置1は、顧客の財産状況、契約目的、商品知識等の顧客状況
を把握するため、顧客に問合せして得られた情報を基に契約目的や商品知識レベルに応じた説明内容を決定して該当の営業店配置クライアント装置に説明内容を提示する顧客説明内容提示手段101、商品説明や契約時の音声等記録情報を営業店配置のクライアント装置21〜2nよりネットワ−クを経由して収集を行う説明内容収集手段102、説明内容収集手段102によって得られた音声等記録データを各書き起こし者用クライアント装置31〜3mに分配する書き起こしデータ分配手段103、各書き起こし者が各々のクライアント装置31〜3m利用して作成した書き起こしデータを、各々のクライアント31〜3mより収集する書き起こしデータ収集手段104、データ収集手段104により収集した書き起こしデータを編集者に渡すためのデータとして生成する書き起こし編集データ作成手段105、書き起こし編集データ生成手段105により生成された書き起こしデータをネットワ−クを経由して編集者用クライアント装置41〜4kへ送信する編集データ提示手段106、編集者によって修正された書き起こしデータを編集者用クライアント装置41〜41kよりネットワ−クを経由して取得する編集データ収集手段107、および、商品説明内容文字化支援装置1の各手段及びネットワ−クとの通信制御を行う処理制御・通信手段108から成る。
The product description content characterization support device 1 responds to the contract purpose and product knowledge level based on the information obtained by inquiring the customer in order to grasp the customer status such as the customer's property status, contract purpose, product knowledge, etc. Customer explanation content presenting means 101 for determining the explanation contents and presenting the explanation contents to the corresponding sales office arrangement client device, and recording information such as product explanation and voice at the time of contract from the client arrangements 21 to 2n at the sales office network. Explanation content collecting means 102 that collects data via the client, transcription data distribution means 103 that distributes recording data such as speech obtained by the explanation content collection means 102 to each of the transcription client devices 31 to 3m, and each transcription Transcript data collected by each client 31 to 3m from the transcription data created by each client device 31 to 3m. The data collection means 104, the transcription data collected by the data collection means 104, the transcription edit data creation means 105 that generates the data for passing to the editor, and the transcription data generated by the transcription edit data generation means 105 Edit data presenting means 106 to be transmitted to the editor client devices 41 to 4k via the client, and the transcription data corrected by the editor is obtained from the editor client devices 41 to 41k via the network. Editing data collecting means 107, and processing control / communication means 108 for controlling communication with each means of the product description contents characterizing support apparatus 1 and the network.

書き起こし者のクライアント装置31〜3mは、説明者又は顧客の音声再生のためのスピ−カ−300、音声記録を再生しスピ−カ−300から出力させる音声再生手段301、操作者のキーボート等などのユ−ザインタフェイス(図示せず)からの入力及び音声認識結果キーワード等を表示するための入力・表示手段302、通信手段303、各々の手段を制御する処理制御手段303から成る。また、図中に記載していないが、入力・表示手段302の補完機能として操作者の音声取得のためのマイクロホンや音声認識手段を追加して、音声入力によってキーボートの代替入力があっても良い。   The client device 31 to 3m of the transcriber includes a speaker 300 for reproducing the voice of the presenter or the customer, an audio reproducing means 301 for reproducing an audio recording and outputting it from the speaker 300, an operator's keyboard, etc. The input / display means 302 for displaying the input from a user interface (not shown), the speech recognition result keyword, etc., the communication means 303, and the processing control means 303 for controlling each means. In addition, although not shown in the figure, a microphone or voice recognition means for acquiring the voice of the operator may be added as a complementary function of the input / display means 302, and an alternative input for the keyboard may be provided by voice input. .

編集者のクライアント装置41〜4kは、説明者又は顧客の音声再生のためのスピ−カ−400、音声記録を再生し、スピ−カ−400から出力させる音声再生手段401、操作者のキーボート等からの入力及び音声認識結果キーワード等を表示するための入力・表示手段402、通信手段403、各々の手段を制御する処理制御手段401から成る。また、図中に記載していないが、入力・表示手段402の補完機能として操作者の音声取得のためのマイクロホンや音声認識手段を追加して、音声入力によってキーボートの代替入力があっても良い。   The client devices 41 to 4k of the editor include a speaker 400 for reproducing the voice of the presenter or the customer, a voice reproducing unit 401 for reproducing the voice recording and outputting it from the speaker 400, an operator keyboard, and the like. Input / display means 402 for displaying the input from the input and speech recognition result keywords, communication means 403, and processing control means 401 for controlling each means. Further, although not shown in the figure, a microphone or voice recognition means for acquiring the voice of the operator may be added as a complementary function of the input / display means 402, and an alternative input for the keyboard may be provided by voice input. .

コンプライアンス担当者のクライアント装置51〜5sは、説明者又は顧客の音声再生のためのスピ−カ−500、音声記録を再生しスピ−カ−500に出力させる音声再生手段501、操作者のキーボート等からの入力及び音声認識結果キーワード等を表示するための入力・表示手段502、通信手段503、各々の手段を制御する処理制御手段504から成る。また、図中に記載していないが、入力表示手段502の補完機能として操作者の音声取得のためのマイクロホンや音声認識手段を追加して、音声入力によってキーボートの代替入力があっても良い。   The client devices 51 to 5s of the person in charge of compliance include a speaker 500 for reproducing the voice of the presenter or the customer, a voice reproducing means 501 for reproducing the voice recording and outputting it to the speaker 500, an operator's keyboard, etc. Input / display means 502 for displaying the input from the input and speech recognition result keyword, communication means 503, and processing control means 504 for controlling each means. In addition, although not shown in the figure, a microphone or a voice recognition unit for acquiring the operator's voice may be added as a complementary function of the input display unit 502, and an alternative input of the keyboard may be provided by voice input.

以上のように構成されたシステムにおいて、以下、その処理について説明する。   In the system configured as described above, the processing will be described below.

なお、各々の処理は、各々の装置の対応する手段が処理を行っているものとする。   Note that each process is performed by a corresponding unit of each apparatus.

まず、商品説明内容文字化支援処理装置1と各クライアント間の処理について、図3、図4のフローチャートを用いて説明する。   First, processing between the product description content characterizing support processing apparatus 1 and each client will be described with reference to the flowcharts of FIGS.

なお、図3、図4において、点線枠が操作者がクライアントもしくは商品説明内容文字化支援装置、もしくは、各クライアントの操作を行った事を表したものである。   3 and 4, the dotted frame represents that the operator has operated the client, the product description content characterizing support device, or each client.

また、本説明は、書き起こし完了までの作業が必須説明の範囲であるため、コンプライアンス担当者に係る説明は省略する。   In addition, in this explanation, the work up to the completion of the transcription is within the scope of the essential explanation, and therefore explanation concerning the compliance officer is omitted.

まず、商品説明内容文字化支援処理装置1の基本的な処理について説明する。   First, basic processing of the product description content characterizing support processing device 1 will be described.

ます、商品説明内容文字化支援処理装置1の処理制御・通信手段108が起動され処理可能準備を行う。(301)
処理制御・通信手段108は、各クライアントから到来する処理依頼を待つ(302)。ここで、クライアントからの処理依頼有無をチェックし(303)、無しの場合、302へ戻り、有りの場合、304へ進む。
First, the process control / communication means 108 of the product description content characterization support processing apparatus 1 is activated to prepare for processing. (301)
The process control / communication means 108 waits for a process request coming from each client (302). Here, the presence / absence of a processing request from the client is checked (303), and if not, the process returns to 302, and if present, the process proceeds to 304.

次に、商品説明内容文字化支援処理装置1の処理制御・通信手段108は、各クライアントからの処理依頼要求を解析し、商品説明内容も自家支援処理装置1内の該当処理ポイントへ移行し、各々の処理を実行する(304)。なお、以下、各クライアント装置からの各種要求にて処理が行われた旨の記載があるが、これらは、上記の処理を行い、要求の解析を行った結果、対応する手段へ処理を移行(処理ポイント移行)することになる。   Next, the process control / communication means 108 of the product description content characterization support processing device 1 analyzes the process request request from each client, and the product description content is also transferred to the corresponding processing point in the home support processing device 1, Each process is executed (304). In the following, there is a description that processing has been performed in response to various requests from each client device. However, as a result of performing the above processing and analyzing the request, the processing is transferred to the corresponding means ( Processing points).

この各クライアントからの依頼に対する処理が終了すると302へ移行する(305)。   When the processing for the request from each client ends, the process proceeds to 302 (305).

次に各クライアント装置の基本処理について説明する。   Next, basic processing of each client device will be described.

まず、営業店クライアント装置21〜2nと商品説明内容文字化支援処理装置1間の処理について、営業店クライアント装置21を元に説明する。   First, the processing between the branch office client apparatuses 21 to 2n and the product description content characterization support processing apparatus 1 will be described based on the branch office client apparatus 21. FIG.

まず、営業店クライアント装置21の電源投入後、営業店クライアント21内の処理制御・通信手段225が起動され処理可能準備を行う。(308)
ここで、必要により説明者が商品説明開始キ−を押下する(309/説明上、処理開始をキ−押下とした)。
First, after the sales office client device 21 is turned on, the processing control / communication means 225 in the sales office client 21 is activated to prepare for processing. (308)
Here, if necessary, the presenter depresses the item explanation start key (309 / in the explanation, the process start is defined as the key depression).

営業店クライアント装置21は、この商品説明開始キ−を押下を検出しており(310)、キ−押下有りの場合(311)、押下を検出した場合、312へ処理を移行し、押下無しの場合309へ処理を移行する。   The branch office client device 21 detects that the product description start key is pressed (310). If the key is pressed (311), if the key is detected, the process proceeds to 312 and no key is pressed. The process proceeds to case 309.

次に、営業店クライアント装置21は、個人情報、財産状況、商品契約目的、希望購買商品、商品知識、投資の経験年数、他を問合せする入力画面(図4)を表示し、入力を促す(312)。   Next, the branch office client device 21 displays an input screen (FIG. 4) for inquiring personal information, property status, product contract purpose, desired purchase product, product knowledge, years of investment experience, etc., and prompts input ( 312).

ここで、説明者が顧客に問合せし、顧客状況を入力後、送信キ−を押下したとする(313)。   Here, it is assumed that the presenter makes an inquiry to the customer, inputs the customer status, and then presses the transmission key (313).

営業店クライアント装置21は、この送信キ−の押下検知により、顧客状況入力済の画面内容を商品説明内容文字化支援処理装置1に情報送信する(313)。この時の情報を、顧客説明内容提示要求情報とする。   In response to the detection of the transmission key being pressed, the branch office client device 21 transmits information on the contents of the screen on which the customer status has been input to the product description content characterizing support processing device 1 (313). The information at this time is referred to as customer explanation content presentation request information.

この情報を受信した商品説明内容文字化支援処理装置1は、各クライアントからの情報受信により、処理依頼要求を解析し、解析の結果、の顧客説明内容提示要求情報であった場合、315へ移行する。   The product description content characterizing support processing device 1 that has received this information analyzes the processing request request by receiving information from each client, and if it is the customer description content presentation request information as a result of the analysis, the process proceeds to 315. To do.

ここで、商品説明内容提示手段101は、自身が自身のデータベース(図示せず)から
、蓄積している顧客の情報顧客の財産状況、商品契約目的、希望購買商品、商品知識、投資経験年数、その他の入力情報と過去から蓄積された顧客説明統計情報ファイル等とを比較し、所定の抽出方法(例えば、顧客が要望する許容リスク度合と投資経験度合の2要素の関連度合によって抽出する等)によって最良と想定される説明内容(図5 想定説明定義体)を決定し、想定説明定義体を依頼してきた営業店クライアント装置21に返信する(315)。
Here, the product description content presenting means 101 is stored in its own database (not shown), from the customer's information, the customer's property status, product contract purpose, desired purchase product, product knowledge, years of investment experience, Comparing other input information with the customer explanation statistical information file accumulated from the past, etc., and a predetermined extraction method (for example, extracting by the degree of relevance of the two factors of allowable risk degree and investment experience degree desired by the customer) The description content assumed to be the best (FIG. 5 assumed explanation definition body) is determined and returned to the branch office client apparatus 21 that has requested the assumed explanation definition body (315).

ここで、営業店クライアント装置21は、想定説明定義体の受信と共に、処理制御・通信手段225がタイマ(営業クライアント装置21内に設置・図示せず)、マイクロホン210、音声記録手段211、音声認識手段212、音声記録手段213及びマイクロホン220、音声記録手段221、音声認識手段222、音声記録手段223の装置や処理を起動し、音声記録開始や音声記録準備を行う(図4・316)。   Here, the store client device 21 receives the assumed explanation definition body, and the processing control / communication means 225 includes a timer (installed in the sales client device 21, not shown), a microphone 210, a voice recording unit 211, a voice recognition unit. The apparatus and processing of the means 212, the voice recording means 213, the microphone 220, the voice recording means 221, the voice recognition means 222, and the voice recording means 223 are activated to start voice recording and prepare for voice recording (FIG. 4, 316).

なお、マイクロホン210、音声記録手段211、音声認識手段212、音声記録手段213が説明者用、マイクロホン220、音声記録手段221、音声認識手段222、音声記録手段223が顧客用である。
また、音声記録手段211、音声記録手段221によって出力されるデータは、説明者/顧客の連続音声を時系列に記録しファイル等に保存する。音声記録手段213、音声記録手段223は、説明者又は顧客の発した音声を音声認識手段212、音声認識手段222によって認識・出力された音声データと変換後のテキスト等データを時系列に記録しファイル等に保存する事を付け加える。なお、この処理の詳細は、処理制御・通信手段の処理にて後述する。
The microphone 210, the voice recording means 211, the voice recognition means 212, and the voice recording means 213 are for the explainer, and the microphone 220, the voice recording means 221, the voice recognition means 222, and the voice recording means 223 are for the customer.
The data output by the voice recording unit 211 and the voice recording unit 221 records the continuous voices of the explainer / customer in time series and saves them in a file or the like. The voice recording unit 213 and the voice recording unit 223 record voice data uttered by the presenter or the customer, voice data recognized and output by the voice recognition unit 212 and the voice recognition unit 222, and data such as converted text in time series. Add saving to file etc. Details of this process will be described later in the process of the process control / communication means.

ここで、説明者が商品説明終了時に商品説明終了操作を行うと(317)、その操作を検知した処理制御・通信手段225がタイマ、マイクロホン210、音声記録手段211、音声認識手段212、音声記録手段213及びマイクロホン220、音声記録手段221、音声認識手段222、音声記録手段223の処理動作を停止させ、音声等データの記録処理を終了する(318)。   Here, when the instructor performs the product description end operation at the end of the product description (317), the process control / communication unit 225 that detects the operation performs the timer, the microphone 210, the voice recording unit 211, the voice recognition unit 212, and the voice recording. The processing operations of the means 213, the microphone 220, the voice recording means 221, the voice recognition means 222, and the voice recording means 223 are stopped, and the recording processing of data such as voice is terminated (318).

そして、営業店クライアント装置21に於、記録された音声等データを編集し、処理制御・通信手段225により商品説明内容文字化支援処理装置1に送信する。この時の処理依頼要求は説明内容収集要求にする(319)。   Then, the sales client device 21 edits the recorded voice data and the like, and transmits it to the product description content characterizing support processing device 1 by the processing control / communication means 225. The processing request at this time is an explanation content collection request (319).

また、319の処理終了後、営業店クライアント装置21は、通常時は送信終了後は図3・309の処理へ移行し、タ−ミネイト時はタ−ミネイト処理を実行し終了する。   Further, after the process of 319 is completed, the branch office client apparatus 21 proceeds to the process of FIG. 3/309 after the transmission is completed normally, and executes the termination process and terminates at the termination.

商品説明内容文字化支援装置1は、上記のようにして送信されてきた各営業店クライアント21〜2nから説明内容収集要求を受信すると、受信した説明内容の収集データに基づきデータ生成し、識別名称を決定し、該当識別名称でフォルダを生成し、説明者や顧客の音声等データ毎にファイル保存する。この保存により書き起こし対象データは有り状態となる(321)。   Upon receiving the explanation content collection request from each of the branch office clients 21 to 2n transmitted as described above, the product explanation content characterization support apparatus 1 generates data based on the received collection data of the explanation content, and the identification name Is created, a folder is created with the corresponding identification name, and a file is saved for each data such as the voice of the explainer or customer. By this saving, the data to be transcribed is in the existing state (321).

ここで、書き起こしデータ有無をチェックし有りの場合、該当書き起こし者に書き起こし依頼の旨メッセ−ジを送信する(図5・504)。その後、呼出し元の復帰先(図3・305)へ処理を移行する。   If the presence or absence of the transcription data is checked, a message requesting the transcription is sent to the corresponding transcription person (504 in FIG. 5). Thereafter, the processing shifts to the return destination of the caller (305 in FIG. 3).

次に書き起こしクライアント装置31〜3mの処理について、書き起こしクライアント装置31を例に説明する。   Next, the processing of the transcription client devices 31 to 3m will be described using the transcription client device 31 as an example.

まず、書き起こしクライアント装置31の電源投入後、書き起こしクライアントの処理
制御手段303が起動され処理可能準備を行う(図5・501)。
First, after the transcription client device 31 is powered on, the transcription client processing control means 303 is activated to prepare for processing (FIG. 5, 501).

ここで、書き起こし者は、書き起こしクライアント装置31を操作し、商品説明内容文字化支援装置1から書き起こし依頼のメッセ−ジの受信又は、作業有無の照会操作を行うと、書き起こしクライアント装置31は、処理制御手段303が該処理を行い、その結果を表示することにより、書き起こし者は作業有無を知り、作業実施可能ならば、書き起こし該当書き起こしデータの要求操作を書き起こしクライアント装置31に行う(503)。   Here, when the transcriber operates the transcribe client device 31 and receives a message for a transcribe request from the product description content characterizing support device 1 or performs an inquiry operation on the presence of work, the transcribe client device. 31. When the process control means 303 performs the process and displays the result, the transcriber knows whether or not the work is present and, if the work can be performed, transcribes the requested operation for the transcribed data and the client device. 31 (503).

この操作に応じ、書き起こしクライアント装置31は、データの要求操作により、処理依頼要求を書き起こしデータ分配要求にして送信する。この時、書き起こし者の識別番号も付加して商品説明内容文字化支援装置1へ送信する。   In response to this operation, the transcription client device 31 transmits a processing request request as a transcription data distribution request by a data request operation. At this time, the identification number of the transcriber is also added and transmitted to the product description content characterizing support apparatus 1.

この書き起こしデータ分配要求を受信した商品説明内容文字化支援装置1の書き起こしデータ分配手段103は、書き起こし者のスキルレベルに応じた書き起こしデータを抽出して対応する書き起こしクライアント装置31〜3mへ分配する(505)。その後、呼出し元の復帰先(図3・305)へ戻る。なお書き起こしデータ分配手段103の詳細な書については後述する。   Upon receiving this transcription data distribution request, the transcription data distribution means 103 of the product description content characterizing support apparatus 1 extracts the transcription data corresponding to the skill level of the transcription person and corresponds to the transcription client apparatuses 31 to 31. Distribute to 3m (505). Thereafter, the process returns to the caller's return destination (FIG. 3, 305). Details of the transcription data distribution means 103 will be described later.

505にて分配されたデータを書き起こしクライアント31の処理制御手段303が受信すると、受信した書き起こしデータを再生するとともに、これを聞いた書き起こし者がデータ入力処理を行う(507)。この際の処理制御手段304の処理は後述する(508)。その後、操作者から、作業終了を指示する入力を検出すると、処理制御手段304、通信手段303によって商品説明内容文字化支援装置1へ書き起こしデータを送信する(509)。処理依頼要求は書き起こしデータ収集要求とする。   When the data distributed at 505 is transcribed and received by the processing control means 303 of the client 31, the received transcribed data is reproduced and the transcriber who hears the data performs data input processing (507). The processing of the processing control unit 304 at this time will be described later (508). Thereafter, when an input for instructing the end of work is detected from the operator, the process control means 304 and the communication means 303 transmit the transcription data to the product description content characterizing support apparatus 1 (509). The processing request is a transcription data collection request.

また、書き起こしクライアント装置31は、通常時は送信終了後は(502)へ処理移行する。また、タ−ミネイト時はタ−ミネイト処理を実行し終了する。   Further, the transcription client device 31 normally proceeds to (502) after the transmission is completed. At the time of termination, termination processing is executed and terminated.

この情報を受けた商品説明内容文字化支援装置1の書き起こしデータ収集手段104は、受信した書き起こしデータを書き起こしデータ収集ファイルにデータを蓄積する(図6・511)。なお、この処理は、書き起こしデータ収集手段104によって行われるが、この処理の詳細は後述する。   Upon receiving this information, the transcription data collection means 104 of the product description content characterization support apparatus 1 transcribes the received transcription data and stores the data in the data collection file (FIG. 6, 511). This process is performed by the transcription data collection means 104, and details of this process will be described later.

次に、商品説明内容文字化支援装置1の書き起こし編集データ作成手段105は、収集した書き起こしデータに対応する説明者と顧客用両方のデータ管理部をチェックし、全部の中工程処理ステ−タスが「2」(全収集済)の場合、書き起こし編集者に対する編集データ提示用ファイルを生成する(512)。この処理は、書き起こし編集データ作成手段106が行うが、この処理の詳細は後述する。   Next, the transcript editing data creation means 105 of the product description content characterization support apparatus 1 checks both the explainer and the customer data management unit corresponding to the collected transcript data, and all the middle process processing steps. If the status is “2” (all collected), an edit data presentation file for the transcription editor is generated (512). This processing is performed by the transcription editing data creation means 106, and details of this processing will be described later.

さらに、編集データ提示ファイル有無をチェックし有りの場合、編集者に書き起こし編集依頼の旨メッセ−ジを送信する。(図7:513)その後、呼出し元の復帰先へ戻る。   Further, if the presence / absence of the edit data presentation file is checked, a message is sent to the editor and a request for editing is sent to the editor. (FIG. 7: 513) Thereafter, the process returns to the caller's return destination.

なお、編集クライアント装置の電源投入後、編集クライアントの処理制御手段41が起動され処理可能準備が行われているものとする。(514)また、本実施の形態では、編集者クライアント41の処理を例としているが、他の編集者クライアント42〜4kも同様の処理が可能である。   It is assumed that after the editing client device is turned on, the editing client processing control means 41 is activated and ready for processing. (514) In the present embodiment, the process of the editor client 41 is taken as an example, but the other editor clients 42 to 4k can perform the same process.

編集者は編集者用クライアント41を操作し、編集依頼のメッセ−ジを受信又は、作業有無の照会指示により、編集作業の有無を知ると、作業実施可能ならば、更に編集者用ク
ライアント41を操作して該当編集データの提示要求の操作を実施する。(515)
この編集データ提示要求を受けた編集用クライアント41は、処理依頼要求を編集データ提示要求にして送信する。(516)
この編集データ提示要求情報を受信した商品説明内容文字化支援装置手段1は、編集データ提示手段106に処理を移行し(517)、編集データ提示ファイルを参照して該当編集データを編集者用クライアント41へ返信し、呼出し元の復帰先へ戻る。(518)
この情報を受けた編集者用クライアント41の処理制御手段404は(519)、受信したダウンロードデータを表示させ、編集者の操作に従ってこのデータの編集処理を実行する。(520:詳細は、後述する編集クライアントの処理制御手段の処理にて説明する。)
そして、編集者の作業終了を示す操作を受信すると、通信手段403によって編集しデータを商品説明内容文字化支援装置1へ送信する。(521:なお、この際の処理依頼要求は編集データ収集要求とする。(521)。
When the editor operates the editor client 41 and receives an edit request message or knows the presence or absence of the editing work by the inquiry instruction of the work presence, if the work can be performed, the editor client 41 is further opened. Operate the corresponding edit data presentation request. (515)
Upon receiving this edit data presentation request, the editing client 41 transmits the processing request request as an edit data presentation request. (516)
Upon receiving this edit data presentation request information, the product description content characterization support device 1 shifts the processing to the edit data presentation 106 (517), refers to the edit data presentation file, and sends the corresponding edit data to the editor client. It returns to 41 and returns to the return destination of the caller. (518)
Upon receiving this information, the processing control means 404 of the editor client 41 (519) displays the received download data, and executes this data editing processing in accordance with the editor's operation. (520: Details will be described in the processing of the processing control unit of the editing client described later.)
When an operation indicating the end of work by the editor is received, the data is edited by the communication means 403 and transmitted to the product description content characterizing support apparatus 1. (521: The processing request at this time is the editing data collection request. (521).

なお、編集者クライアント装置41は、通常、送信終了後は(515)へ処理を移行し、タ−ミネイト時はタ−ミネイト処理を実行し終了する。   Note that the editor client device 41 normally shifts the process to (515) after the transmission is completed, and terminates the termination process when terminated.

次にこの編集データ収集要求を受信した商品内容説明装置1は、編集者クライアント41から編集データ収集要求を受信すると、編集データ収集手段107に処理を移行する(522)。   Next, upon receiving this edit data collection request from the editor client 41, the product content explanation apparatus 1 that has received this edit data collection request shifts the processing to the edit data collection means 107 (522).

編集データ収集手段107は、該当編集データに基づき編集データ収集用ファイルを一括生成し、ファイル保存する(523)。   The edit data collection unit 107 generates edit data collection files collectively based on the corresponding edit data and saves the files (523).

その後、呼出し元の復帰先へ戻る。これにより、ファイル保存され書き起こしデータが完成することになる。また、この編集データを、書き起こしデータを依頼人であるコンプライアンス担当者等に引き渡すことになる。   Thereafter, the process returns to the caller's return destination. Thus, the file is saved and the transcription data is completed. In addition, the edited data is handed over to the compliance person who is the client.

なお、図8は、前述した個人情報入力画面の例を示したものであり、口座番号、個人情報、財産状況、商品契約目的、希望商品又は、許容リスク度合、投資経験、商品知識度合等から成る。   FIG. 8 shows an example of the personal information input screen described above, based on account number, personal information, property status, product contract purpose, desired product or acceptable risk level, investment experience, product knowledge level, etc. Become.

この入力された本情報に基づき、顧客説明統計情報ファイル等を検索し、顧客状況に応じた最良と想定される説明内容(想定説明定義体)を決定する事になる。   Based on this input information, a customer explanation statistical information file or the like is searched, and the explanation content (assumed explanation definition body) assumed to be the best according to the customer situation is determined.

次に図9を元の想定説明定義体情報について説明する。   Next, the original assumed explanation definition body information will be described with reference to FIG.

想定説明定義体情報とは、説明責任を果たすために間違い無く且つ効果的に説明を進捗させる目的で作成された商品説明用のデータテーブルであり、商品説明内容文字化支援手段の記憶手段(図示せず)に記憶されている。   The assumed explanation definition body information is a data table for product explanation created for the purpose of proceeding with explanation without fail without fail in order to fulfill accountability, and storage means (Fig. (Not shown).

この想定説明定義体情報は、種類を大別すると3つから成り、概ね顧客の商品知識レベル等(例えば、初級、中級、上級)に準じて作成されており、統計情報に蓄積された実績データに基づき、顧客レベル毎商品毎に多数用意されている。   This assumed explanation definition body information is divided into three types, and is created according to the customer's product knowledge level etc. (for example, beginner, intermediate, advanced), and results data accumulated in statistical information Based on the above, a large number are prepared for each product at each customer level.

1つの想定説明定義体は複数の大工程から構成され、大工程は複数の中工程から構成される。1つの中工程はテキスト書き起こしの評価単位となり、更に複数の小工程から構成され、小工程のデータ列が最小単位となる。工程の始まりから終了までのデータ長は任意である。
工程は自由に大工程、中工程、小工程と定めて設定可能である。但し、工程には識別番号
等を付与し識別可能としている。
One assumed explanation definition body is composed of a plurality of large processes, and the large process is composed of a plurality of intermediate processes. One middle process is an evaluation unit for text transcription, and is composed of a plurality of small processes, and a data string of the small processes is a minimum unit. The data length from the start to the end of the process is arbitrary.
Processes can be freely set as large processes, medium processes, and small processes. However, an identification number or the like is assigned to the process so that the process can be identified.

本実施の形態では、
大工程識別番号付与例:1、2、3、・・・
中工程識別番号付与例:1−1、1−2、1−3、・・・
小工程識別番号付与例:1−1−1、1−1−2、1−1−3・・・
等のように区切っている。
In this embodiment,
Examples of large process identification numbers: 1, 2, 3, ...
Middle process identification number assignment example: 1-1, 1-2, 1-3, ...
Small process identification number assignment example: 1-1-1, 1-1-2, 1-1-3,...
And so on.

次に、中工程と小工程の定義体の構成について図10及び図11の定義体図を基に説明する。
小工程定義体は、進捗小工程、説明者/顧客の区分、ストーリーテキスト、想定時間、実開始時間(経過時間)、説明者の登録キーワード、発声キーワード、想定外キーワード、小工程類似度合、顧客の登録キーワード、発声キーワード、想定外キーワード、小工程類似度合から構成され、中工程定義体は、小工程定義体の集合体に説明者の中工程類似度合、顧客の中工程類似度合を加えた項目から構成される。
進捗小工程は、付与された小工程識別番号が、説明者/顧客の区分は、説明者:0、顧客:1の識別子が、ストーリーテキストは、説明者や顧客の文字列から成るスト−リ−の内容が、想定時間は、説明者や顧客の想定会話時間が、説明者又は顧客の登録キーワードは、説明者又は顧客が発した声を文字列で表現したキーワードを、定義体作成時に設定する。
Next, the structure of the definition body of the middle process and the small process will be described based on the definition body diagrams of FIGS.
Small process definition body is progress small process, explainer / customer classification, story text, estimated time, actual start time (elapsed time), explainer registered keyword, utterance keyword, unexpected keyword, small process similarity, customer Registered keywords, utterance keywords, unexpected keywords, and small process similarity, the middle process definition body adds the middle process similarity degree of the explainer and the middle process similarity degree of the customer to the set of small process definition bodies Consists of items.
The progress small process is a story consisting of a given small process identification number, the explanation / customer category is explanation: 0, customer: 1 is the identifier, and the story text is a story consisting of the character strings of the explanation and the customer. -When the definition is created, the assumed time is the assumed conversation time of the explainer or customer, and the registered keyword of the explainer or customer is a keyword that expresses the voice of the explainer or customer as a character string. To do.

実開始時間(経過時間)は、説明者や顧客の実会話の開始時間及び経過時間が測定され該当項目の領域部に格納される。   The actual start time (elapsed time) is measured and stored in the area of the corresponding item after the start time and elapsed time of the actual conversation of the presenter or customer.

説明者又は顧客の発声キーワード(音声認識によって出力された文字列)は、説明者又は顧客の(想定説明定義体に設定した)登録キーワードと一致する文字列が出現した場合に、都度、該当項目の領域部に格納される。   Explainer or customer utterance keywords (character strings output by voice recognition) are applicable each time a character string that matches a registered keyword (set in the assumed explanation definition body) of the explainer or customer appears. Is stored in the area portion.

説明者又は顧客の想定外キーワードは、説明者又は顧客の登録キーワードと一致しない文字列が出現した場合に都度、該当項目の領域部に格納される。   The unexpected keyword of the explainer or customer is stored in the area portion of the corresponding item whenever a character string that does not match the registered keyword of the explainer or customer appears.

説明者又は顧客の小工程の類似度合は、類似度合算出方法により求め格納される。(詳しくは、以下の品毎類似度合抽出マトリクスの説明を参照のこと)
説明者又は顧客の中工程類似度合は、各々の小工程類似度合中の最低数値を求め格納される。
The degree of similarity of the small process of the explainer or customer is obtained and stored by the degree of similarity calculation method. (For details, refer to the explanation of the similarity extraction matrix for each product below)
The intermediate process similarity of the explainer or customer is stored by obtaining the lowest numerical value in each of the small process similarities.

次に商品毎類似度合抽出マトリクスについて図12を元に説明する。   Next, the product similarity extraction matrix will be described with reference to FIG.

この商品毎類似度合抽出マトリクスは、キーワード一致率dと、不一致率(e)の関係をマトリクス状に配置し各々のマトリクスには、類似度合から生成された数値が配置されたものである。この交差点を元に類似度に関する値を抽出する。   In this commodity similarity extraction matrix, the relationship between the keyword match rate d and the mismatch rate (e) is arranged in a matrix, and the numerical values generated from the similarity are placed in each matrix. Based on this intersection, a value relating to the similarity is extracted.

なお、図12に示される各要素は以下のとおりである。
a:説明者又は顧客の登録キーワード設定数
但し、該当キーワードの属性が同義語の場合、設定数にカウントしない。
b:説明者又は顧客の発声キーワード数
c:説明者又は顧客の想定外キーワード数
d:キーワード一致率 = b÷a
e:キーワード不一致率 = c÷(b+c)
このようにキーワード一致率(d)とキーワード不一致率(e)の関係をマトリクス状
に配し、dとeの交差点(交差領域)を類似度合と称する経験則から生まれた数値が格納されており、該当数値を抽出し、工程毎の類似度合を求める。
Each element shown in FIG. 12 is as follows.
a: Number of registered keywords set by the explainer or customer However, when the attribute of the corresponding keyword is a synonym, the number is not counted.
b: Number of keywords spoken by the explainer or customer c: Number of keywords unexpected by the explainer or customer d: Keyword match rate = b ÷ a
e: Keyword mismatch rate = c ÷ (b + c)
In this way, the relationship between the keyword match rate (d) and the keyword mismatch rate (e) is arranged in a matrix, and numerical values born from an empirical rule that refers to the intersection (intersection area) between d and e are stored. The corresponding numerical value is extracted, and the degree of similarity for each process is obtained.

因みに類似度合の数値は特に明示しないが、本実施の形態では、図12中の(ア)線のように、キーワード一致率(d)に対してキーワード不一致率(e)が高まれば類似度合数値も下がる傾向と想定している。   Incidentally, although the numerical value of the similarity degree is not particularly specified, in this embodiment, the similarity degree numerical value is obtained when the keyword mismatch rate (e) is higher than the keyword matching rate (d) as indicated by the line (a) in FIG. It is assumed that there is a downward trend.

更に想定の説明時間と実時間の差分(絶対値)を求め、差分値が所定以上の場合、差分値の拡大に応じて類似度合数値が縮小する係数を乗じて類似度合を求める。
因みに類似度合の数値は特に明示しないが、本実施の形態では、図12中の(イ)線のような傾向と想定している。
Further, the difference (absolute value) between the assumed explanation time and the actual time is obtained, and when the difference value is greater than or equal to a predetermined value, the degree of similarity is obtained by multiplying by a coefficient that reduces the degree of similarity degree according to the increase of the difference value.
Incidentally, although the numerical value of the degree of similarity is not particularly specified, in the present embodiment, it is assumed that the tendency is like a line (A) in FIG.

次に図13の登録キーワードの定義体詳細と機能説明について説明する。
説明者や顧客の登録キーワードの定義体は、登録キーワード番号、キーワード文言、次工程進捗、同義語有無、文言継続有無、動作コマンド列から構成される。
登録キーワード番号は、5文字から成り、先頭1文字がSの時に説明者、Kの時に顧客を表し、以降4文字が処理一連番号を表す。
キーワード文言は、先頭2文字がキーワード文言の文字数を表し、以降の文字列がキーワード文言表す。
次工程進捗は、1:次工程に進むキーワードを表し、0:現工程のキーワードを表す。
また、本属性は、説明者のみに存在する。
同義語有無は、キーワード属性が同義語か否かを1:同義語、0:非同義語で表し、類似度合を求める過程で登録キーワード母数を求めるが、1:同義語キーワードの場合、登録キーワード母数のカウント対象外とする。
文言継続有無は、1:継続有り、0:継続無を表し、該当キーワード群の最終か否かの終了判断に使用する。
動作コマンド列は、先頭2文字が動作コマンド列全体の文字数を表し、次の3文字一組で一意の動作コマンドを表し、必要に応じて動作コマンド記述が繰り返される。
例えば、登録キーワード定義体の1行目の登録キーワード番号:「S0001」、キーワード文言:「27それでは次の為替に関するリスク説明に進めさせて頂きます」、次工程進捗:「1」、同義語有無:「0」、文言継続有無:「1」、動作コマンド列:「06A01B02」と記載されていた場合、動作コマンド1番目「A01」により、発声回数の該当変数を初期化し、発声回数+1する事の指示によって、発声順番(発声回数):「1」が得られ、次の動作コマンド「B02」によって、発声時の開始時刻、経過時間、発声順番(回数)、登録キーワードと一致する音声データ、文字列データの記録を指示する事となるため、発声時刻:HH:MM:SS:ZZZ(時分秒ミリ秒)、経過時間:MM:SS:ZZZ(分秒ミリ秒)、発声順番:1、音声データ:「それでは次の為替に関するリスク説明に進めさせて頂きます」、文字列:「それでは次の為替に関するリスク説明に進めさせて頂きます」が、音声記録手段213によって説明者の音声データが時系列に説明者音声記録ファイル11に記録されている。
Next, the details of the definition of registered keywords and the function description of FIG. 13 will be described.
The definition body of the registered keyword of the explainer or the customer is composed of a registered keyword number, keyword wording, next process progress, presence / absence of synonyms, wording continuation presence / absence, and operation command sequence.
The registered keyword number consists of 5 characters. When the first character is S, it is an explainer, when it is K, a customer is indicated, and thereafter, 4 characters indicate a processing serial number.
In the keyword wording, the first two characters represent the number of characters of the keyword wording, and the subsequent character string represents the keyword wording.
The progress of the next process represents 1: a keyword for proceeding to the next process, and 0: a keyword for the current process.
This attribute exists only for the presenter.
The synonym presence / absence indicates whether the keyword attribute is a synonym: 1: synonym, 0: non-synonym, and the registration keyword parameter is obtained in the process of obtaining the degree of similarity. Not subject to keyword parameter counting.
The word continuation presence / absence indicates 1: continuation exists, 0: no continuation, and is used to determine whether or not the keyword group is the last.
In the operation command string, the first two characters represent the number of characters of the entire operation command string, and the following three characters represent a unique operation command, and the operation command description is repeated as necessary.
For example, the registered keyword number in the first line of the registered keyword definition: “S0001”, the keyword wording: “27 Then I will proceed to risk explanation regarding the next exchange”, the next process progress: “1”, presence of synonyms : “0”, word continuation presence / absence: “1”, operation command string: “06A01B02”, the corresponding variable of the number of utterances is initialized by the operation command first “A01”, and the number of utterances is incremented by one. , The utterance order (number of utterances): “1” is obtained, and by the next operation command “B02”, the start time at the time of utterance, the elapsed time, the utterance order (number of times), the voice data matching the registered keyword, Since the recording of the character string data is instructed, the utterance time: HH: MM: SS: ZZZ (hour minute second millisecond), elapsed time: MM: SS: ZZZ (minute second millisecond) Voice order: 1, Voice data: “Now let me move on to explain the risk of the next exchange”, Character string: “Let me move on to explain the risk of the next exchange”, explained by the voice recording means 213 The voice data of the presenter is recorded in the presenter voice recording file 11 in time series.

図14は、営業店クライアントの処理制御・通信手段225のフローチャート図であり、処理順番に従い説明する。なお、以下の説明において、工程の番号は、図10、図11に示されている工程表情報の番号を示している。   FIG. 14 is a flowchart of the processing control / communication means 225 of the sales office client, which will be described in the order of processing. In the following description, the process number indicates the process table information number shown in FIGS. 10 and 11.

本処理の概要は、説明者と顧客の会話を音声認識手段212又は222を通して得られた文字列データと想定説明定義体の小工程毎に登録されている文字列とを比較し、一致した場合、該当音声データや文字列等情報を発声キーワード項目領域部に格納(記録)することである。また、不一致の場合、該当音声データや文字列等情報を想定外キーワード項目領域部に格納(記録)することである。
そして工程の進捗は、説明者の発声した言葉(発声キーワード)を音声認識し、これを、工程表と照合する処理を行うことによりコントロールされる。
The outline of this processing is when the character string data obtained through the speech recognition means 212 or 222 is compared with the character string registered for each small process of the assumed explanation definition body in the conversation between the presenter and the customer, and they match. In other words, information such as corresponding voice data and character strings is stored (recorded) in the utterance keyword item area. Further, in the case of mismatch, information such as corresponding voice data and character strings is stored (recorded) in an unexpected keyword item area.
The progress of the process is controlled by performing speech recognition of words (uttered keywords) uttered by the presenter and collating this with the process chart.

例えば、図10に示される該当工程(02−05−01)の説明が終え、顧客の理解等を確認したならば、次工程(02−05−02)に進むための進捗用キーワードを発声しているかを確認するという具合である。詳しくは、営業店クライアントの処理制御通信手段225では、以下の処理が実行される。   For example, after the explanation of the corresponding process (02-05-01) shown in FIG. 10 is completed and the customer's understanding is confirmed, a progress keyword for proceeding to the next process (02-05-02) is spoken. And so on. Specifically, the processing control communication unit 225 of the sales office client executes the following processing.

本処理実行にあたり、変数、領域等の初期化や初期処理等を行う(1301)。例えば、想定説明定義体の先頭に設定されている進捗小工程の値を取り出し進捗工程変数に格納する等の処理がある。   In executing this processing, initialization of variables and areas, initial processing, and the like are performed (1301). For example, there is a process of taking out the value of the progress small process set at the head of the assumed explanation definition body and storing it in the progress process variable.

次に、音声認識手段212、音声認識手段222を起動し、説明者や顧客の発話に対する音声認識稼働状態にする。(1302)
次に、入力表示手段10を起動し、キーボード等入力や表示装置等を稼働状態にする。(1303)
この際の、説明者側の画面表示例を図18に示す。
Next, the voice recognition unit 212 and the voice recognition unit 222 are activated, and the voice recognition operation state for the speech of the presenter or the customer is set. (1302)
Next, the input display means 10 is activated, and an input such as a keyboard and a display device are put into operation. (1303)
An example of the screen display on the explainer side at this time is shown in FIG.

次にタイマ、マイクロホン10、音声記録手段211及びマイクロホン20、音声記録手段20の装置や処理を起動し、説明者/顧客の音声等データの等記録を開始する。(1304)
音声記録手段213及び音声記録手段21の装置や処理を起動し、音声等記録の開始準備をし、処理制御・通信手段10aからの動作指示を待つ。(1305)
キーボード等の入力や発話の音声認識出力及び動作コマンド等のイベント有無の確認を行う。(1306/1307)、イベント無し時は(1306)へ。イベント有り時は(1308)へ処理を移行する。
Next, the timer, the microphone 10, the voice recording unit 211, the microphone 20, and the voice recording unit 20 are activated and the recording of the data such as the voice of the presenter / customer is started. (1304)
The apparatus and process of the voice recording unit 213 and the voice recording unit 21 are activated, preparation for starting recording of voice and the like is performed, and an operation instruction from the process control / communication unit 10a is awaited. (1305)
Confirms the presence of events such as input from the keyboard, speech recognition output of utterances, and operation commands. (1306/1307), go to (1306) when there is no event. When there is an event, the process proceeds to (1308).

イベント発生時は、イベント種類をチェックし、各処理に振り分けする。(1308)
想定説明定義体の終了通知の場合、図16:1325へ処理を移行し(図14:1309)。キーボード等の入力通知の場合、図16:1326へ処理を移行する(図14:1310)。また、音声認識出力の場合、図15:1309へ処理を移行し(図14:1311)。その他はエラ−と判断し、(図14:1312)へ処理を移行する。
When an event occurs, the event type is checked and distributed to each process. (1308)
In the case of the end notification of the assumed explanation definition body, the process proceeds to FIG. 16: 1325 (FIG. 14: 1309). In the case of an input notification such as a keyboard, the process proceeds to FIG. 16: 1326 (FIG. 14: 1310). In the case of voice recognition output, the processing shifts to FIG. 15: 1309 (FIG. 14: 1311). Otherwise, it is determined as an error, and the process proceeds to (FIG. 14: 1312).

因みに想定説明定義体の終了通知は、最終の登録キーワード定義体中に記述された「想定説明定義体終了通知」の動作コマンド実行によって発生する。   Incidentally, the end notification of the assumed explanation definition body is generated by executing the operation command of the “notification of expected explanation definition body end” described in the final registered keyword definition body.

なお、図14:1312の処理は、エラ−処理を実行し、1306へ処理を移行するものである。   Note that the processing of FIG. 14: 1312 executes error processing and shifts the processing to 1306.

次に、図14:1311にて図15:1309へ移行するとされた場合、音声認識出力情報のチャネルをチェックし、音声認識出力チャネル変数に出力元が説明者側の場合、「0」、顧客側の場合、「1」を設定する。(図15:1309)
そして、音声認識出力情報から該当の音声テキスト(発声キーワード)を抽出する(図15:1310)。
Next, if it is determined in FIG. 14: 1311 that the process proceeds to FIG. 15: 1309, the channel of the voice recognition output information is checked, and if the output source is the explainer side in the voice recognition output channel variable, “0”, customer In the case of the side, “1” is set. (Fig. 15: 1309)
Then, the corresponding speech text (utterance keyword) is extracted from the speech recognition output information (FIG. 15: 1310).

さらに、音声認識出力チャネル変数をチェックし、説明者「0」の場合、1316へ処理を移行し、顧客「1」の場合、1312へ処理を移行する(図15:1311、図15:1312)。   Further, the voice recognition output channel variable is checked, and if the presenter is “0”, the process proceeds to 1316, and if the customer is “1”, the process proceeds to 1312 (FIG. 15: 1311, FIG. 15: 1312). .

次に、進捗工程変数に格納されている進捗小工程識別番号の定義体の顧客登録キーワー
ド群を抽出する(1313)。
Next, the customer registration keyword group of the definition body of the progress small process identification number stored in the progress process variable is extracted (1313).

その後、抽出した登録キーワード群から発声キーワードと一致する文字列の有無をチェックし、一致文字列が有る場合、(図16:1329)へ移行し、一致文字列が無い場合、図16:1326へ移行する(1314,1315)。   Thereafter, it is checked whether or not there is a character string that matches the utterance keyword from the extracted registered keyword group. If there is a matching character string, the process proceeds to (FIG. 16: 1329), and if there is no matching character string, the process proceeds to FIG. 16: 1326. Transition (1314, 1315).

1316へ処理を移行するとなった場合、進捗工程変数に格納されている進捗小工程識別番号の定義体の説明者登録キーワード群を抽出する(1316)。   When the process is shifted to 1316, the explainer registration keyword group of the definition body of the progress small process identification number stored in the progress process variable is extracted (1316).

そして、抽出した登録キーワード群から発声キーワードと一致する文字列の有無をチェックし、一致文字列が有る場合、1329へ処理を移行し、一致文字列が無い場合、1319へ処理を移行する(1317,1318)。   Then, the presence / absence of a character string that matches the utterance keyword is checked from the extracted registered keyword group. If there is a matching character string, the process proceeds to 1329, and if there is no matching character string, the process proceeds to 1319 (1317). , 1318).

そして、1319へ処理が移行するとなった場合、進捗工程変数に格納されている進捗小工程識別番号の次の小工程識別番号の定義体の説明者登録キーワード群を抽出する。(1319)
次に、抽出した登録キーワード群から発声キーワードと一致する文字列の有無をチェックし、一致文字列が有る場合、1323へ。一致文字列が無い場合、1325へ処理を移行する(1320、1322)。
When the process shifts to 1319, the explainer registration keyword group of the definition body of the small process identification number next to the progress small process identification number stored in the progress process variable is extracted. (1319)
Next, it is checked whether or not there is a character string that matches the utterance keyword from the extracted registered keyword group. If there is no matching character string, the process proceeds to 1325 (1320, 1322).

1323へ処理が移行するとなった場合、次工程進捗対象キーワードか否かをチェックし、次工程進捗対象キーワードの場合、図16:1328へ。次工程進捗対象キーワードの場合、図16:1325へ処理を移行する(1323,1324)。   When the process shifts to 1323, it is checked whether or not it is a next process progress target keyword, and in the case of the next process progress target keyword, the process proceeds to FIG. 16: 1328. In the case of the next process progress target keyword, the processing shifts to FIG. 16: 1325 (1323, 1324).

現在又は次の進捗工程の発生キーワード群と音声の一致がされなかった旨のメッセ−ジを表示し、必要により再発声によるリトライ又はキーボード等入力による進捗工程変更操作を依頼する(1325)。尚本メッセ−ジ属性は、説明者に一方的に通知するのみで、該当メッセ−ジに対する説明者の応答を必要としないメッセ−ジである。   A message to the effect that the voice has not been matched with the keyword group generated in the current or next progress process is displayed, and if necessary, a retry by a recurrent voice or a progress process change operation by keyboard input is requested (1325). This message attribute is a message that is unilaterally notified to the presenter and does not require the presenter's response to the message.

次に、発声キーワードの音声データ、発声時の開始時間、経過時間、発声順番を該当チャネルの音声記録手段213又は21に対して記録を指示する。その後、該当記録手段11又は21よってデータが時系列に記録される。(1326)
さらに、進捗工程変数に格納されている進捗小工程識別番号と音声認識出力チャネル変数に格納されている識別子から説明者又は顧客の進捗小工程先頭アドレスを求め、その後、該当の実開始時間、経過時間、想定外キーワードの想定定義体中の各アドレスを求め、発声時の開始時間、経過時間、想定外キーワードには発声順番を付加して定義体の各該当領域に格納し(1327)、1306へ処理を移行する。
Next, the voice recording unit 213 or 21 of the corresponding channel is instructed to record the voice data of the utterance keyword, the start time at the time of utterance, the elapsed time, and the utterance order. Thereafter, the data is recorded in time series by the corresponding recording means 11 or 21. (1326)
Furthermore, the start address of the explainer or the customer's progress small process is obtained from the progress small process identification number stored in the progress process variable and the identifier stored in the voice recognition output channel variable, and then the corresponding actual start time, elapsed time Each address in the expected definition body of the time and the unexpected keyword is obtained, and the start time at the time of utterance, the elapsed time, and the utterance order are added to the unexpected keyword and stored in each corresponding area of the definition body (1327), 1306 Transfer processing to.

次に、1328へ処理を移行するとされた場合、次の工程識別番号の説明者登録キーワード群中から呼発生キーワードと同一キーワードが検出されたため、現在の進捗工程の類似度合を求め、該当類似度合領域に格納する。この時、新しい中工程に変わる場合は、現在の進捗小工程の類似度合中の最低数値の類似度合を求め、該当中工程類似度合領域に格納する。その後、進捗工程変数値を次の工程識別番号に変更し、発声順番を初期化する。   Next, when it is determined that the processing is shifted to 1328, since the same keyword as the call generation keyword is detected from the group of explainer registration keywords of the next process identification number, the similarity degree of the current progress process is obtained, and the corresponding similarity degree is obtained. Store in the area. At this time, when changing to a new intermediate process, the lowest numerical similarity in the degree of similarity of the current progress small process is obtained and stored in the corresponding intermediate process similarity area. Thereafter, the progress process variable value is changed to the next process identification number, and the utterance order is initialized.

なお、小工程の類似度合の求め方は、上記記載に明記したとおりである。   In addition, the method of calculating | requiring the similarity degree of a small process is as having specified in the said description.

また、音声記録手段213又は223によって記録された説明者又は顧客の発声キーワード単位音声記録データ(説明者又は顧客の発声キーワード及び想定外キーワードに対応する音声データの事を指す)は、小工程単位に論理的に結合して1つの音声データにまとめ再格納する(1328)。   Further, the voice recording data of the presenter or customer utterance keyword recorded by the voice recording means 213 or 223 (refers to voice data corresponding to the utterance keyword or unexpected keyword of the presenter or customer) is a small process unit. Are combined into a single audio data and re-stored (1328).

文字列と一致する登録キーワード定義体に定義されている動作コマンド列を実行する。これにより、発声キーワードの音声データ、発声時の開始時間、経過時間、発声順番を該当チャネルの音声記録手段213又は21に対して記録を指示する。その後、該当記録手段11又は21よってデータが時系列に記録される(1329)。   The action command string defined in the registered keyword definition that matches the character string is executed. This instructs the voice recording means 213 or 21 of the corresponding channel to record the voice data of the utterance keyword, the start time at the time of utterance, the elapsed time, and the utterance order. Thereafter, the data is recorded in time series by the corresponding recording means 11 or 21 (1329).

次に、進捗工程変数に格納されている進捗小工程識別番号と音声認識出力チャネル変数に格納されている識別子から説明者又は顧客の進捗小工程先頭アドレスを求め、その後該当の実開始時間、経過時間、発声キーワードの想定定義体中の各アドレスを求め、発声時の開始時間、経過時間、発声キーワードには発声順番を付加して定義体の各該当領域に格納(図17:1330)し、図14:1306へ処理を移行する。   Next, the start address of the progress subprocess of the explainer or customer is obtained from the progress subprocess identification number stored in the progress process variable and the identifier stored in the voice recognition output channel variable, and then the corresponding actual start time and elapsed time Obtain each address in the expected definition body of the time and utterance keyword, add the utterance order to the start time, elapsed time, and utterance keyword at the time of utterance, and store in each corresponding area of the definition body (FIG. 17: 1330), The process proceeds to FIG.

また、1331への処理が移行された場合は、想定説明定義体の終了通知のため、処理終了確認メッセ−ジを表示し、その旨を説明者に知らせ、その後、図14:1306へ処理を移行する(1331)。   If the process to 1331 has been transferred, a process end confirmation message is displayed to notify the end of the assumed explanation definition body, and the instructor is notified of the fact, and then the process proceeds to FIG. Migrate (1331).

さらに、1332へ処理が移行された場合には、キーボード等入力による進捗工程変更操作か否かをチェックし、進捗工程変更操作の場合、1335へ処理を移行し。それ以外は1334へ処理を移行する(1332/1333)。   Further, when the process is shifted to 1332, it is checked whether or not the process is a progress process change operation by input from a keyboard or the like. If the process is a progress process change operation, the process is shifted to 1335. Otherwise, the process proceeds to 1334 (1332/1333).

1333にて、進捗工程変更操作の場合、その必要性:100%音声によるコントロールは不可能であるため、手動による進捗工程の変更操作を受け付ける。
また、進捗工程変数の内容を説明者操作に従い変更する。この時、手動による進捗工程操作があった旨を履歴として残し、1306へ処理を移行する(1334)。
In 1333, in the case of the progress process change operation, the necessity: Since control by 100% voice is impossible, the manual change operation of the progress process is accepted.
In addition, the contents of the progress process variable are changed according to the explainer operation. At this time, the fact that there has been a manual progress process operation is left as a history, and the process proceeds to 1306 (1334).

また、1333にて、進捗工程変更操作でないと判断された場合、説明者による業務終了の応答かをチェックし、説明者による業務終了応答の場合、本処理を終了し、その他は、1337へ処理を移行する(1335,1336)。
1337でその他の処理と判定された場合は、その他の処理を行い、1336へ処理を移行する。
If it is determined in 1333 that the operation is not a progress process change operation, it is checked whether the response is a business end response by the explainer. If the response is a business end response by the explainer, the present processing is terminated. (1335, 1336).
If it is determined in 1337 that the other processing is performed, the other processing is performed, and the processing proceeds to 1336.

次に、説明者の画面表示例を図19示す。   Next, FIG. 19 shows a screen display example of the presenter.

この画面表示は、図19からわかるように、進捗工程、説明者/顧客区分、ストーリーテキスト、説明者の発声キーワード、想定外キーワード、顧客の発声キーワード、想定外キーワードから構成される。
進捗工程は、現在の工程位置を背景色反転等で表す。ストーリーテキストは、説明者/顧客の想定テキストが表示されている。説明者の発声キーワード、想定外キーワードは、説明者音声をテキストに変換し、想定説明定義体中の登録キーワードと一致する場合は発声キーワード欄へ表示。不一致の場合は想定外キーワード欄へ表示する。顧客の発声キーワード、想定外キーワードも同様に表示する。
As shown in FIG. 19, this screen display is composed of a progress process, an explainer / customer classification, a story text, an explainer's utterance keyword, an unexpected keyword, a customer's utterance keyword, and an unexpected keyword.
The progress process represents the current process position by background color reversal or the like. In the story text, an assumed text of the explainer / customer is displayed. Explainer's utterance keyword and unexpected keyword are converted into text and displayed in the utterance keyword column if they match the registered keyword in the assumed explanation definition body. If they do not match, they are displayed in the unexpected keyword field. Customer utterance keywords and unexpected keywords are also displayed in the same manner.

また、図20は、処理制御・通信手段10a手段によって取得された説明者の音声実開始時間、音声経過時間、発声キーワード、想定外キーワード、類似度合の記録データ例であり、見やすく表現化したものである。実際の記録データは、想定説明定義体中に格納されている。顧客の記録データは特に明示していないが、同様に記録される。   FIG. 20 is an example of recorded data of the presenter's actual voice start time, voice elapsed time, utterance keyword, unexpected keyword, and similarity obtained by the process control / communication means 10a, and is expressed in an easy-to-read manner. It is. Actual recording data is stored in the assumed explanation definition body. The customer's record data is not specified but is recorded in the same way.

このうち、図20(a)は、音声記録手段211又は20によって記録された説明者又は顧客の連続音声データ例である。1つの音声は有音部分である開始時間(例:t1)及び終了時間(例:t2)と音声データから成り、それが連続的に記録されている。   Among these, FIG. 20A is an example of the continuous voice data of the explainer or the customer recorded by the voice recording means 211 or 20. One voice is made up of a voice portion and a start time (e.g., t1) and an end time (e.g., t2), which are voiced portions, which are continuously recorded.

また、図20(b)は、音声記録手段213又は21によって記録された説明者又は顧客の発声キーワード単位音声の記録データ例である。1つの音声データは開始時間(例:t1)及び経過時間(例:t2)と音声データから成る。図20(a)と図20(b)の関係は、連続音声データを発声キーワード単位に分割した関係である。   Further, FIG. 20B is an example of recorded data of the utterance keyword unit voice of the explainer or the customer recorded by the voice recording means 213 or 21. One piece of voice data includes a start time (eg, t1) and an elapsed time (eg, t2) and voice data. The relationship between FIG. 20A and FIG. 20B is a relationship in which continuous speech data is divided into utterance keyword units.

また、新しい工程に進捗する場合、今までの発声キーワード単位音声記録データは、小工程単位に論理的に結合して1つの音声データにまとめられる。   Further, when progressing to a new process, the voice keyword unit voice recording data so far is logically combined into small process units and combined into one voice data.

図21は、図4:321の説明内容収集手段30による処理によって生成された説明内容収集ファイルのイメ−ジ例である。   FIG. 21 is an example of an explanation content collection file generated by the processing by the explanation content collection means 30 of FIG. 4: 321.

第一階層は説明内容収集データのフォルダ名(SYyyyymmddXXXX、SY:収集データ識別、yyyymmdd:作成日付、XXXX:案件の一連通番)、第二階層は説明者と顧客用のデータ管理部、想定説明定義体、説明者用フォルダ名、顧客用フォルダ名から成る。   The first layer is the folder name of the description contents collection data (SYyyyymmddXXXX, SY: collection data identification, yyyymmdd: creation date, XXXX: serial number of the matter), the second layer is the data management unit for the explainer and customer, and assumed explanation definition Body, the folder name for the explainer, and the folder name for the customer.

想定説明定義体は図10の通りである。第三階層は、図20(a)に示される説明者又は顧客の連続音声記録データ、説明者又は顧客キーワード単位音声記録データフォルダ名から成る。第四階層は、図20(b)に示される説明者又は顧客キーワード単位音声記録データファイルである。   The assumed explanation definition body is as shown in FIG. The third hierarchy is composed of the continuous voice recording data of the explainer or customer shown in FIG. 20A, and the name of the voice recording data folder of the explainer or customer keyword unit. The fourth level is the audio recording data file of the explainer or customer keyword unit shown in FIG.

図22は、説明内容収集時の説明者と顧客の説明をテーブル化して記憶するデータ管理部の説明である。   FIG. 22 is an explanation of the data management unit that stores the explanation of the explainer and the customer at the time of collecting explanation contents in a table.

本管理部は、説明者と顧客用毎に中工程の作業進捗を管理するものであり、データサイズ、データ識別名、生成日付、一連通番、最終更新日付、中工程個数のほか、中工程(1)識別番号、中工程(1)類似度合、中工程(1)処理ステ−タス、中工程(1)書起従事人数、中工程(1)従事者IDの構造体が中工程(n)識別番号まで繰り返される構造からなる。また、各項目の説明は、上記した図21の通りである。   This management department manages the progress of work in the middle process for each explainer and customer.In addition to the data size, data identification name, generation date, serial number, last update date, number of middle processes, the number of middle processes ( 1) Structure of identification number, middle process (1) similarity degree, middle process (1) processing status, middle process (1) number of writers, middle process (1) worker ID is middle process (n) It consists of a structure repeated up to the identification number. The description of each item is as shown in FIG.

さらに、図23は、書き起こしデータ分配手段103の処理を示すフローチャート図であり、処理順番に従い説明する。   Further, FIG. 23 is a flowchart showing the processing of the transcription data distribution means 103, which will be described according to the processing order.

まず、該当の説明内容収集ファイルに基づく書き起こしデータ分配用ファイル生成済かをチェックし、ファイル生成済の場合、図26:2235へ処理を移行し、その他は、2203へ処理を移行する(2201,2202)。   First, it is checked whether or not the transcription data distribution file based on the corresponding explanation content collection file has been generated. If the file has been generated, the process proceeds to FIG. 26: 2235, and otherwise the process proceeds to 2203 (2201). 2202).

2202にてその他と判断された場合、該当の説明内容収集ファイルを基に書き起こし分配用データのフォルダやファイルを一括生成する(2203)。   If it is determined as other in 2202, a folder or file for distribution data is collectively created based on the corresponding explanation content collection file (2203).

この際、生成データのフォルダやファイル構成は、図27に示すテーブルのとおりであり、データは説明内容収集データの内容が引き継がれ生成される。   At this time, the folder and file structure of the generated data are as shown in the table shown in FIG. 27, and the data is generated by taking over the contents of the explanation content collection data.

また、生成されたフォルダやファイルのうち、想定説明定義体のイメ−ジは、図19中工程再編時の想定説明定義体の小工程識別番号付与例を参照の事。但し、説明内容収集時の定義体に無い、再編時進捗小工程や説明者又は顧客の書起入力データはデータ空間のみ確保される。   For the image of the assumed explanation definition body in the generated folders and files, see the example of assigning the small process identification number of the assumed explanation definition body at the time of process reorganization in FIG. However, only the data space is secured for the reorganization progress small process and the explanation input data of the explainer or the customer, which are not in the definition body at the time of explanation content collection.

加えて、項目追加された小工程単位音声ファイル名には、説明者又は顧客のキーワード単位音声記録データが小工程単位に1つにまとめられ、その音声ファイル名が格納される
(2203)。
In addition, in the small process unit audio file name to which the item has been added, the keyword unit audio record data of the explainer or the customer is grouped into one small process unit, and the audio file name is stored (2203).

次に、書き起こし用想定説明定義体のポインタを一番先頭の進捗小工程識別番号位置に設定する(2204)。   Next, the pointer of the assumed explanation definition body for transcription is set to the first progress small process identification number position (2204).

次に、想定説明定義体のポインタが指す小工程類似度合(説明者又は顧客用)をチェックする。この際、所定以上の数値の場合、2207へ処理を移行し、それ以外の場合、2208へ処理を移行する(2205,2206)。   Next, the small process similarity degree (for the explainer or customer) pointed to by the pointer of the assumed explanation definition body is checked. At this time, if the numeric value is greater than or equal to a predetermined value, the process proceeds to 2207, and otherwise, the process proceeds to 2208 (2205, 2206).

2206で2207への処理行こうとされた場合、想定説明定義体のポインタが指す説明者又は顧客のストーリーテキストの内容を説明者又は顧客の書起入力データに複写する。この複写したデータを書き起こし時の入力データ候補とすることにより、書き起こしの入力負担の軽減化を図る(2207)。   When an attempt is made to process 2207 in 2206, the contents of the story text of the explainer or customer pointed to by the pointer of the assumed explanation definition body are copied to the explanation input data of the explainer or customer. By making the copied data as input data candidates at the time of transcription, the input burden of transcription is reduced (2207).

次に、想定説明定義体のポインタが指すポインタは最終かをチェックする。このチェックにて、ポインタが最終の場合、2211へ処理を移行し、その他は2210へ処理を移行する(2208,2209)。   Next, it is checked whether the pointer pointed to by the assumed explanation definition body is final. In this check, when the pointer is final, the process proceeds to 2211, and in other cases, the process proceeds to 2210 (2208, 2209).

2209にて、その他と判断された場合、想定説明定義体のポインタを次進捗小工程識別番号位置に更新し、2205へ処理を移行する(2210)。   If it is determined in 2209 that it is other, the pointer of the assumed explanation definition body is updated to the next progress small process identification number position, and the process proceeds to 2205 (2210).

また、2209にて最終ポインタと判断された場合、書き起こし用想定説明定義体のポインタを一番先頭の進捗中工程識別番号位置に設定する(2211、図24:2212)。   If it is determined at 2209 that the pointer is the final pointer, the pointer of the assumed explanation definition body for transcription is set at the first in-progress process identification number position (2211, FIG. 24: 2212).

そして、想定説明定義体のポインタが指す中工程類似度合を抽出する(2213)。   Then, the intermediate process similarity indicated by the pointer of the assumed explanation definition body is extracted (2213).

さらに、抽出した中工程類似度合の値で、書き起こし作業分配テ−ブルを検索し、類似度合範囲を確定し、書き起こし分割数を求め、分割数が「0」の場合、2217へ処理を移行し、その他は、2216へ処理を移行する(2214,2215)。   Further, the transcription work distribution table is searched with the extracted intermediate process similarity degree, the similarity degree range is determined, the transcription division number is obtained, and when the division number is “0”, the process goes to 2217. In other cases, the processing shifts to 2216 (2214, 2215).

2215にて、分割数が「0」ではないと判断された場合、求めた分割数で、(書き起こしデータ分配用)データ管理部中の説明者又は顧客用の中工程を再編(分割)する。これに伴うデータ管理部(図29)のデータサイズ、中工程個数、関連領域も再編される。図30の(1)分割前、(2)3分割後は、データ管理部中の中工程の再編(分割)の様子を図で表したものである。
更に想定説明定義体中の再編時進捗小工程項目に新たな再編時進捗小工程識別番号が付与される(図30を参照)。
If it is determined in 2215 that the division number is not “0”, the middle process for the explainer or the customer in the data management unit (for transcription data distribution) is reorganized (divided) with the obtained division number. . As a result, the data size, the number of intermediate processes, and related areas of the data management unit (FIG. 29) are also reorganized. In FIG. 30, (1) before the division and (2) after the three division, the state of the reorganization (division) of the middle process in the data management unit is illustrated.
Further, a new reorganization progress small process identification number is assigned to the reorganization progress small process item in the assumed explanation definition body (see FIG. 30).

また。2215で分割数が「0」とされた場合、想定説明定義体のポインタが指すポインタは最終かをチェックし、ポインタが最終の場合、2220へ処理を移行し、その他は、2219へ処理を移行する(2217,2218)。   Also. When the number of divisions is set to “0” in 2215, it is checked whether the pointer pointed to by the assumed description definition pointer is final. If the pointer is final, the process proceeds to 2220, and the process proceeds to 2219 in other cases. (2217, 2218).

2218にて、2219への処理移行と判断されると、想定説明定義体のポインタを次進捗中工程識別番号位置に更新し、2213へ処理を移行する(2219)。   If it is determined in 2218 that the process shifts to 2219, the pointer of the assumed explanation definition body is updated to the next in-progress process identification number position, and the process shifts to 2213 (2219).

また、2218にて、2220への処理移行と判断されると、書き起こし用想定説明定義体のポインタを一番先頭の進捗中工程識別番号位置に設定する(2220)。   If it is determined in 2218 that the processing shifts to 2220, the pointer of the assumed explanation definition body for transcription is set to the in-progress ongoing process identification number position (2220).

次に想定説明定義体のポインタが指す中工程類似度合を抽出する(2221)。   Next, the intermediate process similarity indicated by the pointer of the assumed explanation definition body is extracted (2221).

ここで、抽出した中工程類似度合の値で、図16の書き起こし作業分配テ−ブルを検索し、類似度合範囲を確定し、書き起こし集約数を求め、集約数が「0」の場合、図25:2231へ処理を移行し、その他は、図25:2224へ処理を移行する(2222,2223)。   Here, using the extracted intermediate process similarity value, the transcription work distribution table of FIG. 16 is searched, the similarity degree range is determined, the transcription aggregation number is obtained, and the aggregation number is “0”. The processing shifts to FIG. 25: 2231, and the other processing shifts to FIG. 25: 2224 (2222, 2223).

2223にて2224への処理移行となった場合、想定説明定義体のポインタが指すポインタは最終かをチェックし、ポインタが最終の場合、図26:2234へ処理を移行し、その他は、2226へ処理を移行する(2224,2225)。   When the process shifts to 2224 at 2223, it is checked whether the pointer pointed to by the assumed explanation definition body is final. If the pointer is final, the process shifts to FIG. 26: 2234. The processing is shifted (2224, 2225).

2225にて2226への処理移行とされた場合、想定説明定義体のポインタを次進捗中工程識別番号位置に更新をする(2227)。   If the process shifts to 2226 in 2225, the pointer of the assumed explanation definition body is updated to the next progress process identification number position (2227).

次に、想定説明定義体のポインタが指す中工程類似度合を抽出する(2228)。   Next, the intermediate process similarity indicated by the pointer of the assumed explanation definition body is extracted (2228).

次に、抽出した中工程類似度合の値で、図16の書き起こし作業分配テ−ブルを検索し、類似度合範囲を確定し、書き起こし集約数を求め、集約数が「0」の場合、2231へ処理を移行し、そうでなければ2230へ処理を移行する(2228,2229)。   Next, the transcription work distribution table of FIG. 16 is searched with the extracted intermediate process similarity degree value, the similarity degree range is determined, the transcription aggregation number is obtained, and the aggregation number is “0”. If not, the process proceeds to 2230 (2228, 2229).

2229にて2230へ処理を移行した場合、高類似度合が連続して発生する事により、(書き起こしデータ分配用)データ管理部中の中工程を再編(集約)する。これに伴うデータ管理部(図29)のデータサイズ、中工程個数、関連領域も再編される(2230)。   When the processing shifts to 2230 at 2229, the high degree of similarity is continuously generated, so that the middle process in the data management unit (for transcription data distribution) is reorganized (aggregated). Along with this, the data size, the number of intermediate processes, and related areas of the data management unit (FIG. 29) are also reorganized (2230).

図30の(2)集約前、(3)集約後は、データ管理部中の中工程の再編(集約)の様子を図で表したものである。   In FIG. 30, (2) before consolidation and (3) after consolidation, the state of the reorganization (aggregation) of the middle process in the data management unit is shown in the figure.

更に想定説明定義体中の再編時進捗小工程項目も新たな再編時進捗小工程識別番号に再編される(図31を参照)。   Further, the reorganization progress small process item in the assumed explanation definition body is also reorganized to a new reorganization progress small process identification number (see FIG. 31).

次に、想定説明定義体のポインタが指すポインタは最終かをチェックし、ポインタが最終の場合、図24:2234へ処理を移行し、その他は、2233へ処理を移行する(2231,2232)。   Next, it is checked whether the pointer pointed to by the assumed description definition body is final. If the pointer is final, the processing shifts to FIG. 24: 2234, and otherwise the processing shifts to 2233 (2231, 2232).

2232にて2233への処理移行と判断された場合、想定説明定義体のポインタを次進捗中工程識別番号位置に更新し、図24:2221へ処理を移行する(2233)。   If it is determined in 2232 that the process shifts to 2233, the pointer of the assumed explanation definition body is updated to the next in-progress process identification number position, and the process shifts to FIG. 24: 2221 (2233).

また、2232にて図24:2234へ処理行こうとされた場合、分割や集約後のデータ管理部中工程類似度合を参照し、書き起こし作業分配テ−ブルを検索し、類似度合範囲を確定し、書き起こし従事人数を求め、従事人数領域へ格納し、従事者ID領域を従事人数に応じた空間を確保し、全中工程分の再編を実行し、データ管理部の再編を終了する(2234)。図31は、再編後のデータ管理部の例である。   Also, in the case of processing to 2234 in FIG. 24: 2234, reference is made to the intermediate process similarity in the data management unit after division or aggregation, the transcription work distribution table is searched, and the similarity range is determined. Then, the number of persons engaged in transcription is obtained, stored in the area for the number of persons engaged, the space corresponding to the number of persons engaged is secured, the reorganization for all the middle processes is executed, and the reorganization of the data management unit is completed ( 2234). FIG. 31 shows an example of the data management unit after the reorganization.

次に、書き起こしクライアント装置から送信された要求電文中から書き起こし者識別番号を抽出し、抽出した識別番号と書き起こし者管理テ−ブル(図32、図33参照)とを突合し、優先すべき作業内容を抽出し、抽出した作業内容で書き起こしデータ分配ファイルを全検索する(説明者又は顧客用のデータ管理部の中工程の処理ステ−タスを順次参照し、割当未や一部割当済に対して検索する)。ここで、優先すべき作業内容と一致するデータが有る場合、2240へ処理を移行し、その他の場合は、更に処理すべき書き起こしデータが有るか否かをチェックし、無し(0件)の場合、2238、その他は、2
239へ処理を移行する(2235〜2237)。
Next, the transcriber identification number is extracted from the request message transmitted from the transcribe client device, and the extracted identification number and the transcriber management table (see FIGS. 32 and 33) are matched and given priority. Extract the work contents to be transcribed, and transcribe the extracted work contents and search all data distribution files (refer to the process status of the middle process of the data manager for the explainer or the customer in order, not allocated or partially allocated Search against completed). If there is data that matches the work content to be prioritized, the process proceeds to 2240. In other cases, it is checked whether there is any transcription data to be further processed. If 2238, otherwise 2
The processing is shifted to 239 (2235-2237).

2237にて2238への移行を指示された場合、書き起こし要求に対し書き起こしデータが無いことを要求クライアントへ返信し、本処理を終了する(2238)。   When instructed to shift to 2238 in 2237, the fact that there is no transcription data in response to the transcription request is returned to the requesting client, and this processing is terminated (2238).

また、2237にて2239への移行を指示された場合、書き起こしデータ分配ファイルの中から最古参順にデータを抽出し、作業の割り当てを予定する(2239)。   In addition, when the transition to 2239 is instructed in 2237, data is extracted from the transcription data distribution file in the oldest order and the work is scheduled to be allocated (2239).

次に、予定の書き起こしデータに対し、重複割当か否かをチェックするため、該当中工程従事者ID部を参照し、書き起こし者識別番号とをチェックし、一致の場合、重複割当防止するため、別な次のデータを検索し一致があれば、2235へ、不一致の場合2242へ処理を移行する(2240,2241)。   Next, in order to check whether or not there is a duplicate assignment for the scheduled transcription data, refer to the corresponding middle process worker ID section, check the transcript identification number, and if they match, prevent duplicate assignment. Therefore, if another next data is searched and there is a match, the process proceeds to 2235, and if it does not match, the process proceeds to 2242 (2240, 2241).

2241にて不一致の場合、書き起こし要求に対する書き起こしデータ範囲を決定し、説明者又は顧客用のデータ管理部中の従事者ID領域に書き起こし者識別番号4桁(例:A001)を埋込みし、処理ステ−タスに「1」(一部割当済)又は「2」(全割当済)に変更する(2242)。   If there is a discrepancy in 2241, determine the range of transcription data for the transcription request, and embed a 4 digit transcriber identification number (eg A001) in the employee ID area in the data manager for the explainer or customer. Then, the processing status is changed to “1” (partially assigned) or “2” (all assigned) (2242).

次に決定した書き起こし範囲のデータを要求クライアントへ返信し、本処理を終了する。
書き起こしの範囲の事例を述べると、例えば、書き起こし者識別番号A001が書き起こし要求した場合、図32の太線枠内のデータ範囲が書き起こしの対象となる、という具合である。
Next, the data of the determined transcription range is returned to the requesting client, and this processing is terminated.
An example of the range of transcription is described, for example, when the transcripter identification number A001 makes a transcription request, the data range in the bold line frame in FIG. 32 becomes the target of transcription.

図27は、書き起こし作業分配テ−ブルの例であり、中工程の類似度合範囲、書き起こし分割数、書き起こし集約数、分割/集約後の類似度合範囲、書き起こし従事人数から成る。   FIG. 27 shows an example of a transcription work distribution table, which includes a similarity degree range in the middle process, a number of transcription divisions, a transcription aggregation number, a similarity degree range after division / aggregation, and the number of transcription workers.

また、図28は、分配用の書き起こしのデータ管理部のデータ内容である。   FIG. 28 shows the data contents of the transcription data management unit for distribution.

また、図30は、データ管理部の中工程の分割及び集約時の編成内容を図解した例である。   FIG. 30 is an example illustrating the contents of organization during the division and aggregation of the middle steps of the data management unit.

また。図32は、中工程再編時の想定説明定義体の小工程識別番号付与例を表す。また、書き起こしデータ分配用の想定説明定義体の中工程と小工程の定義体イメ−ジでもある。   Also. FIG. 32 shows an example of assigning a small process identification number to the assumed explanation definition body at the time of the middle process reorganization. It is also an image of the definition of the middle process and the small process of the assumed explanation definition body for the transcription data distribution.

さらに図33は、書き起こし者を管理するテ−ブルであり、管理対象人数、書き起こし者識別番号、スキルレベル、割り当て優先作業(1)、割り当て優先作業(2)、割り当て優先作業(3)から成る。   Further, FIG. 33 is a table for managing the transcribers. The number of persons to be managed, the transcriber identification number, the skill level, the assignment priority work (1), the assignment priority work (2), and the assignment priority work (3). Consists of.

次の図34は、書き起こし者が仮に10名存在する場合の設定例(管理対象人数以降の設定例)である。
スキルレベル低位者は説明者の書き起こし分を中心に類似度合81以上を優先して作業する。スキルレベル中位者は顧客の書き起こし分を中心に類似度合31以上を優先して作業する。
Next, FIG. 34 shows a setting example (setting example after the number of management targets) when there are 10 transcribers.
A person with a low skill level works by giving priority to a similarity of 81 or more, centering on the transcript of the presenter. The skill level intermediate person works by giving priority to a similarity degree of 31 or more, centering on the transcript of the customer.

次にスキルレベル高位者が、類似度合30以下を優先して作業する場合を想定した処理について説明する。   Next, processing that assumes a case where a person with a high skill level works by giving priority to a similarity degree of 30 or less will be described.

図34は、書き起こしクライアントの処理制御手段31のフローチャート図であり、処理順番に従い説明する。   FIG. 34 is a flowchart of the processing control unit 31 of the transcription client, and will be described according to the processing order.

まず、書き起こし初期画面(図36)にて書き起こし作業開始を選択後、書き起こし者に対し、受信した書き起こしデータ中に含まれる書き起こし作業期限をポップアップ画面にて通知する。(3401)
次に、ポップアップ画面内容を確認後、内容消去のため確認キ−を押下。その後、書き起こし作業開始の取引を選択し、作業を開始する。(3402)
そして、受信した書き起こしデータを画面表示用に編集し、書き起こし作業画面を表示し、各種の指示ボタンの押下や入力データ等のイベント発生毎に該当処理を実施すべく、各種のイベント発生待ちを行う。(3403、3404)
(なお、図36は、書き起こし作業画面全体イメ−ジ例を表し、図37は、具体的な書き起こし作業の画面表示例を表している。)
ここで、各種のイベント発生待ちを行い、イベント発生時は、イベント内容のチェックを行う(3405)。ここで、発声アイコンのクリックと判定された場合、3406へ処理を移行し、音声再生系ボタンのクリックの場合、3407へ処理を移行する。
First, after selecting the transcription work start on the transcription initial screen (FIG. 36), the transcription work deadline included in the received transcription data is notified to the transcription person on a pop-up screen. (3401)
Next, after confirming the pop-up screen contents, press the confirmation key to delete the contents. After that, the transaction for starting the transcription work is selected and the work is started. (3402)
Then, edit the received transcription data for screen display, display the transcription work screen, and wait for various event occurrences to perform the corresponding processing each time an event such as pressing various instruction buttons or input data occurs. I do. (3403, 3404)
(FIG. 36 shows an example of the entire transcription work screen image, and FIG. 37 shows a specific screen display example of the transcription work.)
Here, various event occurrences are waited, and when the event occurs, the event content is checked (3405). If it is determined that the utterance icon is clicked, the process proceeds to 3406. If the sound reproduction system button is clicked, the process proceeds to 3407.

そして、3405にて3406へ移行すると判断された場合、該当アイコンに振りつけられている小工程単位に論理的に結合された音声データを再生する(3406)。そして3404へ処理を移行する。   If it is determined in 3405 to shift to 3406, the audio data logically coupled to the small process unit chorded to the corresponding icon is reproduced (3406). Then, the process proceeds to 3404.

また、3405にて3407へ移行すると判断された場合、更に音声再生系ボタンかを確認し、そうであれば、3408へ処理を移行し、異なっていれば3409へ処理を移行する(3407)。   If it is determined in 3405 to shift to 3407, it is further confirmed whether the button is an audio reproduction system button. If so, the process shifts to 3408, and if not, the process shifts to 3409 (3407).

3406にて、音声再生系ボタンを押下したと判断した場合、例えば、再生ボタン押下の場合、時間指定バ−に括り付けられている開始時間を求め、該当開始時間で連続音声データを再生する。音声再生により経過時間に合せ時間バ−を移動させる。その他ボタン押下の場合、該当の機能動作を実行する。(3408)その後、各種のイベント発生待ちを行うため3404へ処理を移行する。   If it is determined in 3406 that the audio playback system button has been pressed, for example, if the playback button is pressed, the start time associated with the time designation bar is obtained, and the continuous audio data is played back at the corresponding start time. The time bar is moved according to the elapsed time by sound reproduction. When the other button is pressed, the corresponding function operation is executed. (3408) Thereafter, the process proceeds to 3404 to wait for various event occurrences.

さらに、3406にて、音声再生系ボタンを押下したと判断されなかった場合、ウィンドウスクロ−ルのクリックの有無をチェックし、有りの場合、3410へ移行し、なしの場合、3411へ処理を移行する(3409)。   Further, in 3406, if it is not determined that the audio playback system button has been pressed, the presence / absence of a click on the window scroll is checked. If yes, the process moves to 3410, and if not, the process moves to 3411. (3409).

ここで、3410へ移行すると判断された場合、該当ウィンドウスクロ−ルボタンのクリックにより、該当のウィンドウスクロ−ルを行う(3410)。その後、各種のイベント発生待ちを行うため3404へ処理を移行する。   If it is determined that the process proceeds to 3410, the corresponding window scroll is performed by clicking the corresponding window scroll button (3410). Thereafter, the processing shifts to 3404 in order to wait for various event occurrences.

また、また、3409にて3411へ処理を移行すると判断された場合、キーボード押下か否かの判定を行い、そうであれば3413へ、そうでなければ3412へ処理を移行する。   If it is determined in 3409 to shift the process to 3411, it is determined whether or not the keyboard is pressed. If so, the process shifts to 3413, and if not, the process shifts to 3412.

ここで、3412へ処理を移行すると判断された場合は、その他の処理であり、それに合わせた処理を行い、3404へ処理を移行する。(3412)
また、3413へ処理を移行すると判断された場合は、更に書き起こし終了キ−押下か否かをチェックし、書き起こし終了キ−の場合、3415へ処理を移行し、その他は、書き起こしのデータ入力と見做し3414へ処理を移行する(3413)。
Here, if it is determined that the processing is shifted to 3412, it is other processing, processing corresponding to that is performed, and the processing is shifted to 3404. (3412)
If it is determined that the process is to be moved to 3413, it is further checked whether or not the transcription end key is pressed. If it is the transcription end key, the process is transferred to 3415. The processing proceeds to 3414 assuming that it is an input (3413).

ここで、3414へ処理を移行するとなった場合、書き起こしのデータ入力と見做し、
書き起こしデータを保存する。その後、各種のイベント発生待ちを行うため3404へ処理を移行する。(3414)
また、3415へ処理を移行するとなった場合、書き起こし終了操作により、書き起こしデータ等をファイル保存し、初期画面に戻り、本処理を終了する。
Here, when the processing is shifted to 3414, it is regarded as a transcription data input,
Save the transcription data. Thereafter, the processing shifts to 3404 in order to wait for various event occurrences. (3414)
When the process is shifted to 3415, the transcription data and the like are saved in a file by a transcription termination operation, the process returns to the initial screen, and the process is terminated.

なお、図36は、書き起こし初期画面例である。また、図37は、書き起こし作業画面の全体イメ−ジ図であり、各項目の概要説明は図37に明記したとおりである。例えば、書き起こし者識別番号A001が書き起こし要求した場合、表示される具体的な書き起こし作業の画面表示例は、図37となる。特に図中の(5)「進捗工程」〜(8)「想定外キーワード」の情報表示によって、書き起こしデータの難易度や作業の所要時間の目安が把握でき、提出期限厳守に対する不安感の払拭が期待できる。   FIG. 36 shows an example of the initial screen for transcription. FIG. 37 is an overall image diagram of the transcription work screen. The outline of each item is as specified in FIG. For example, when the transcriber identification number A001 makes a transcription request, a specific screen display example of the transcription operation displayed is shown in FIG. In particular, (5) “Progress process” to (8) “Unexpected keyword” information displays in the figure can help you understand the level of difficulty of the transcription data and the time required for the work, and eliminate concerns about strict adherence to the submission deadline. Can be expected.

また、図39は、書き起こしデータ収集手段105のフローチャート図であり、処理順番に従い説明する。   FIG. 39 is a flowchart of the transcription data collection means 105, which will be described in the order of processing.

まず、受信した書き起こしデータを参照し、該当書き起こし分配用データに基づいた書き起こし収集用データが既に生成済か否かをチェックする(3801)。   First, the received transcription data is referred to and it is checked whether or not the transcription collection data based on the corresponding transcription distribution data has already been generated (3801).

ここで、チェックの結果、生成済の場合、3804へ。その他の場合、3803へ処理を移行する(3802)。   If the result of the check is that the file has been generated, go to 3804. In other cases, the processing shifts to 3803 (3802).

3803では、該当書き起こし分配用データに基づき書き起こし収集用データを一括生成し、処理を3804へ移行する。ここで、生成データのフォルダやファイル構成は図40に示すとおりであり、図29に示した書き起こし分配ファイルと同じ構成であり、データも書き起こし分配ファイルの内容が引き継がれ生成される。(3803)
また、3804では、受信した書き起こしデータを収集し、書き起こしデータ収集ファイルに書き起こし者分の入力データを蓄積する。(3804)具体的には、「書き起こしデータ」項目に入力した文字列データを該当定義体中の該当説明者又は顧客の「書起入力データ」項目へ追加格納する。追加格納時は、件数と入力データが分かるように格納する。
更に、該当説明者又は顧客のデータ管理部中の「中工程従事者ID」内に記録されている書き起こし者識別番号と今回操作者識別番号の一致場所を求め、該当制御フラグ1桁(初期値=0)を「1」(該当識別者分収集済)に変更する。更に、処理ステ−タスを「1」(一部収集済)又は「2」(全収集済)に変更する。(図42参照)
図41は、書き起こしデータ収集ファイルのイメ−ジ例である。
図42は、説明者又は顧客の書き起こしデータ収集ファイルのデータ管理部の概要であり、、中工程従事者IDに制御フラグ1桁が追加された程度である。
In 3803, transcription collection data is collectively generated based on the corresponding transcription distribution data, and the process proceeds to 3804. Here, the folder and file structure of the generated data is as shown in FIG. 40, which is the same structure as the transcription distribution file shown in FIG. 29, and the data is also generated by taking over the contents of the distribution file. (3803)
In 3804, the received transcription data is collected, and the input data for the transcription is accumulated in the transcription data collection file. (3804) Specifically, the character string data input in the “transcription data” item is additionally stored in the “transcription input data” item of the corresponding explainer or customer in the corresponding definition body. At the time of additional storage, store so that the number of cases and input data can be understood.
Further, the location where the transcriber identification number recorded in the “middle process worker ID” in the data management unit of the corresponding instructor or customer is matched with the current operator identification number is obtained, and the corresponding control flag 1 digit (initial (Value = 0) is changed to “1” (collected for the corresponding identifier). Further, the processing status is changed to “1” (partially collected) or “2” (all collected). (See Figure 42)
FIG. 41 shows an example of a transcription data collection file.
FIG. 42 is an overview of the data management unit of the transcript data collection file of the explainer or customer, and is the extent to which one digit of the control flag is added to the middle process worker ID.

図43は、書き起こし編集データ作成手段106のフローチャート図であり、処理順番に従い説明する。   FIG. 43 is a flowchart of the transcription edit data creation means 106, which will be described in the order of processing.

まず、収集した書き起こしデータに対応する説明者と顧客用両方のデータ管理部をチェックし、全部の中工程処理ステ−タスが「2」(全収集済)か否かをチェックする(4201)。チェック結果、全て「2」の場合、4203へ。その他は、本処理を終了する(4302)。   First, the data managers for both the explainer and the customer corresponding to the collected transcription data are checked to check whether or not all the intermediate process statuses are “2” (all collected) (4201). . If all the check results are “2”, go to 4203. In other cases, the present process is terminated (4302).

書き起こし編集者に対して該当の編集データ提示用ファイルを一括生成する。生成されたデータのフォルダやファイル構成は、図44で、データ管理部は1つに集約される。データも書き起こしデータ収集ファイルの内容が引き継がれ生成される。また、図45は、書き起こし編集データファイルのデータ管理部の概要、図46想定定義体の中工程と小工
程のイメ−ジ例である。
Corresponding edit data presentation files are generated in batch for the transcription editor. The folder and file structure of the generated data are shown in FIG. 44, and the data management unit is integrated into one. Data is also transcribed and the contents of the data collection file are taken over and generated. FIG. 45 shows an overview of the data management unit of the transcription edit data file, and FIG. 46 shows an example of the intermediate process and the small process of the assumed definition body.

なお、書き起こし分配ファイル時に存在した再編時進捗小工程は不必要なため、存在しない。   Note that the reorganization progress small process that existed at the time of the transcription distribution file is unnecessary and does not exist.

また、図47は、編集クライアントの処理制御手段107のフローチャート図であり、処理順番に従い説明する。   FIG. 47 is a flowchart of the processing control unit 107 of the editing client, which will be described according to the processing order.

まず、編集初期画面(図49)にて編集作業開始を選択後、編集者に対し、受信した編集データ中に含まれる編集作業期限をポップアップ画面にて通知する(4601)。   First, after selecting the start of editing work on the editing initial screen (FIG. 49), the editor is notified of the editing work deadline included in the received editing data on a pop-up screen (4601).

次に、ポップアップ画面内容を確認後、内容消去のため確認キ−を押下。その後、編集作業開始の取引を選択し、作業を開始する(4602)。   Next, after confirming the pop-up screen contents, press the confirmation key to delete the contents. Thereafter, the transaction for starting the editing work is selected and the work is started (4602).

ここで、受信した編集データの想定説明定義体中のポインタを一番先頭の進捗小工程識別番号位置に設定する(4603)。   Here, the pointer in the assumed explanation definition body of the received editing data is set to the first progress small process identification number position (4603).

さらに、ポインタが指す説明者用の「書起入力データ」項目を参照し、全ての入力データを編集作業画面中の「下書き書き起こしデータ」項目に表示するため、全て複写する。また、「書起入力データ」項目の入力データ同士を比較し、不一致がある場合、編集作業画面中の「不一致有無」項目に「下書きデータ不一致有り」と赤色表示するよう編集する。
一致時は、「無し」を編集する(4604)。
Further, referring to the “transcription input data” item for the explainer pointed to by the pointer, all the input data is displayed in the “draft transcription data” item on the editing work screen, so that all are copied. Also, the input data of the “transcription input data” item are compared with each other, and if there is a mismatch, editing is performed so that “draft data mismatch” is displayed in red in the “mismatch presence / absence” item on the editing work screen.
If they match, “none” is edited (4604).

このとき、ポインタが指す顧客用の「書起入力データ」項目を参照し、全ての入力データを編集作業画面中の「下書き書き起こしデータ」項目に表示するため、全て複写する。また、「書起入力データ」項目の入力データ同士を比較し、不一致がある場合、編集作業画面中の「不一致有無」項目に「下書きデータ不一致有り」と赤色表示するよう編集する。
一致時は、「無し」を編集する。
At this time, all the input data is displayed in the “draft transcription data” item in the editing work screen with reference to the customer “calling input data” item pointed to by the pointer. Also, the input data of the “transcription input data” item are compared with each other, and if there is a mismatch, editing is performed so that “draft data mismatch” is displayed in red in the “mismatch presence / absence” item on the editing work screen.
If there is a match, edit “none”.

その後、想定説明定義体のポインタが指すポインタは最終かをチェックし、ポインタが最終の場合、図48:4609へ処理を移行し、その他の場合、4608へ処理を移行する(4607)。   Thereafter, it is checked whether the pointer pointed to by the assumed explanation definition body is final. If the pointer is final, the process proceeds to FIG. 48: 4609; otherwise, the process proceeds to 4608 (4607).

4608へ処理を移行するとなった場合、想定説明定義体のポインタを次の進捗小工程識別番号位置に更新し、4604へ移行する(4608)。   When the processing is shifted to 4608, the pointer of the assumed explanation definition body is updated to the next progress small process identification number position, and the processing shifts to 4604 (4608).

また、図48:4609へ処理を移行するとなった場合、受信したその他のデータも画面表示用に編集し、編集作業画面を表示し、各種の指示ボタンの押下や入力データ等のイベント発生毎に該当処理を実施すべく、各種のイベント発生待ちを行う(4609)。因みに図55は、この編集作業画面の全体イメ−ジ例を表している。   48: When the processing is shifted to 4609, other received data is also edited for screen display, an editing work screen is displayed, and each time an event such as pressing of various instruction buttons or input data occurs. In order to execute the corresponding process, various event occurrence waits are performed (4609). Incidentally, FIG. 55 shows an example of the entire image of the editing work screen.

その後、各種のイベント発生待ちを行い、イベント発生時は、イベント内容のチェックを行う。(4610)
まず、発声アイコンのクリックの場合、該当アイコンに括り付けられている小工程単位に論理的に結合された音声データを再生する。その後、各種のイベント発生待ちを行うため4610へ処理を移行する(4611、4612)。
After that, it waits for various events to occur and checks the event contents when an event occurs. (4610)
First, when the utterance icon is clicked, the audio data logically coupled to the small process units linked to the corresponding icon is reproduced. Thereafter, the processing shifts to 4610 to wait for various event occurrences (4611, 4612).

また、音声再生系ボタンのクリックの場合、例えば、再生ボタン押下の場合、時間指定
バ−に括り付けられている開始時間を求め、該当開始時間で連続音声データを再生する。音声再生により経過時間に合せ時間バ−を移動させる。その他ボタン押下の場合、該当の機能動作を実行する。その後、各種のイベント発生待ちを行うため4609へ。へ処理を移行する(4613、4614)。
Also, in the case of clicking on the audio playback system button, for example, when the playback button is pressed, the start time tied to the time designation bar is obtained, and the continuous audio data is played back at the corresponding start time. The time bar is moved according to the elapsed time by sound reproduction. When the other button is pressed, the corresponding function operation is executed. Thereafter, the flow goes to 4609 to wait for various events. The processing is shifted to (4613, 4614).

さらに、ウィンドウスクロ−ルのクリックの場合、該当ウィンドウスクロ−ルボタンのクリックにより、該当のウィンドウスクロ−ルを行う。その後、各種のイベント発生待ちを行うため4609へ処理を移行する(4615、4616)。   Further, when the window scroll is clicked, the corresponding window scroll is performed by clicking the corresponding window scroll button. Thereafter, the processing shifts to 4609 to wait for various event occurrences (4615, 4616).

また、キ−押下等のキーボード系の場合(4617)、更に書き起こし終了キ−押下か否かをチェックし(4619)、書き起こし終了キ−の場合、編集終了操作により、編集データ等をファイル保存し、初期画面に戻り、本処理を終了する(4621)。   In the case of a keyboard system such as a key press (4617), it is further checked whether or not the transcription end key is pressed (4619). Save, return to the initial screen, and end this process (4621).

その他は、書き起こしのデータ入力と見做し集のデータ入力と見做し、編集データを保存する。この時、編集作業画面中の「不一致有無」項目に「下書きデータ不一致有り」と編集されていた場合、「無し」に再編集し、4609へ処理を移行する(4620)
なお、その他イベントの場合、その他処理の実施。その後、各種のイベント発生待ちを
図51は、書き起こし完成データファイルのイメ−ジ例である。
Others are regarded as transcription data input and data collection data input, and the edited data is saved. At this time, if “draft data mismatch” is edited in the “mismatch presence / absence” item in the editing work screen, it is re-edited to “none”, and the process proceeds to 4609 (4620).
In the case of other events, other processing is performed. Thereafter, waiting for various events to occur. FIG. 51 is an example of an image of a transcription completion data file.

図52は、書き起こし完成データファイルのデータ管理部の概要である。   FIG. 52 is an outline of the data management unit of the transcription completion data file.

本発明の一実施の形態における質問応答システムの構成図The block diagram of the question answering system in one embodiment of this invention 本実施の一実施の形態における質問応答システムのブロック図Block diagram of a question answering system in an embodiment of the present invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態における文ラベル処理の概要を説明した図The figure explaining the outline | summary of the sentence label process in one embodiment of this invention 本発明の一実施の形態における文ラベル識別処理にて利用されるテ−ブルの説明図Explanatory drawing of the table utilized by the sentence label identification process in one embodiment of this invention 本発明の一実施の形態における文ラベル識別処理にて利用されるテ−ブルの説明図Explanatory drawing of the table utilized by the sentence label identification process in one embodiment of this invention 本発明の一実施の形態における文ラベル識別処理にて利用されるテ−ブルの説明図Explanatory drawing of the table utilized by the sentence label identification process in one embodiment of this invention 本発明の一実施の形態における文ラベル識別処理の処理を示した図The figure which showed the process of the sentence label identification process in one embodiment of this invention 本発明の一実施の形態における文ラベル識別処理の処理を示した図The figure which showed the process of the sentence label identification process in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態におけるフローチャートThe flowchart in one embodiment of this invention 本発明の一実施の形態における説明者側の画面表示例Example of screen display on the side of the presenter in one embodiment of the present invention 本発明の一実施の形態における説明者側の画面表示例Example of screen display on the side of the presenter in one embodiment of the present invention 本発明の一実施の形態における処理制御・通信手段取得された説明者の音声実開始時間、音声経過時間、発声キーワード、想定外キーワード、類似度合の記録データの説明図Explanatory drawing of the recording data of the presenter's actual voice start time, voice elapsed time, utterance keyword, unexpected keyword, similarity obtained by the process control / communication means acquired in one embodiment of the present invention 本発明の一実施の形態における説明内容収集ファイルの説明図。Explanatory drawing of the description content collection file in one embodiment of this invention. 本発明の一実施の形態におけるデータ管理部の説明図。Explanatory drawing of the data management part in one embodiment of this invention. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態における書き起こし分配用データの例を示した図。The figure which showed the example of the data for transcription distribution in one embodiment of this invention. 本発明の一実施の形態における書き起こし分配用データの例を示した図、The figure which showed the example of the data for transcription distribution in one embodiment of this invention, 本発明の一実施の形態におけるデータ管理部に記録されたデータを示した図。The figure which showed the data recorded on the data management part in one embodiment of this invention. 本発明の一実施の形態におけるデータ管理部中の中工程の再編(分割)の様子を示した図。The figure which showed the mode of the reorganization (division | segmentation) of the middle process in the data management part in one embodiment of this invention. 本発明の一実施の形態における本発明の一実施の形態におけるデータ管理部に記録されたデータを示した図。The figure which showed the data recorded on the data management part in one embodiment of this invention in one embodiment of this invention. 本発明の一実施の形態における書き起こし者管理テ−ブルを示した図。The figure which showed the transcription management table in one embodiment of this invention. 本発明の一実施の形態における書き起こし者管理テ−ブルを示した図。The figure which showed the transcription management table in one embodiment of this invention. 本発明の一実施の形態における、書き起こし者が仮に10名存在する場合の設定例(管理対象人数以降の設定例)を示した図。The figure which showed the example of a setting (setting example after the number of management object persons) in case there are ten transcripts in one embodiment of this invention. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態における書き起こし初期画面を示した図。The figure which showed the transcription initial screen in one embodiment of this invention. 本発明の一実施の形態における書き起こし作業の画面表示を示した図。The figure which showed the screen display of the transcription work in one embodiment of this invention. 本発明の一実施の形態における書き起こし作業の画面表示を示した図。The figure which showed the screen display of the transcription work in one embodiment of this invention. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態における書き起こし収集用データ生成時のデータ構成を示した図。The figure which showed the data structure at the time of the data collection for transcription collection in one embodiment of this invention. 本発明の一実施の形態における書き起こしデータ収集ファイルのイメ−ジ例を示した図。The figure which showed the example of the image of the transcription data collection file in one embodiment of this invention. 本発明の一実施の形態における説明者又は顧客の書き起こしデータ収集ファイルのデータ管理部の概要を示した図The figure which showed the outline | summary of the data management part of the transcription data collection file of the explainer or customer in one embodiment of this invention 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態における書き起こしデータ収集ファイルのデータ管理部の概要を示した図The figure which showed the outline | summary of the data management part of the transcription data collection file in one embodiment of this invention 本発明の一実施の形態における書き起こし編集データファイルのデータ管理部の概要を示した図The figure which showed the outline | summary of the data management part of the transcription edit data file in one embodiment of this invention 本発明の一実施の形態における想定定義体の中工程と小工程のイメ−ジ例を示した図。The figure which showed the image example of the middle process of the assumption definition body in one embodiment of this invention, and a small process. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態におけるフローチャート。The flowchart in one embodiment of this invention. 本発明の一実施の形態における編集初期画面を示した図。The figure which showed the edit initial screen in one embodiment of this invention. 本発明の一実施の形態における編集作業画面の全体イメ−ジ例を示した図。The figure which showed the example of the whole image of the edit operation | work screen in one embodiment of this invention. 本発明の一実施の形態における書き起こし完成データファイルのイメ−ジ例を示した図。The figure which showed the image example of the transcription completion data file in one embodiment of this invention. 本発明の一実施の形態における書き起こし完成データファイルのデータ管理部の概要を示した図。The figure which showed the outline | summary of the data management part of the transcription completion data file in one embodiment of this invention.

符号の説明Explanation of symbols

1 商品説明内容文字化支援装置
21 営業店用クライアント装置
31 書き起こし者用クライアント装置
41 編集者用クライアント装置
51 コンプライアンス担当者用クライアント装置

DESCRIPTION OF SYMBOLS 1 Product description characterization assistance apparatus 21 Client apparatus for branch offices 31 Client apparatus for transcripts 41 Client apparatus for editors 51 Client apparatus for compliance personnel

Claims (7)

商品についての説明を行う説明者と顧客の会話を文書化する作業の依頼を支援するコンピュータに、
前記会話に係る音声に対する音声認識結果と、定義体に定義された前記顧客のレベルおよび前記商品に応じた説明内容との類似度合を求め
前記類似度合に応じて、前記音声を複数の書き起こし範囲に分割し、
前記書き起こし範囲の数に応じて、前記作業を行う複数の書き起こし者がそれぞれに操作する端末、前記書き起こし範囲に係るデータを送信する処理を実行させることを特徴とする商品説明内容文字化支援プログラム。
On the computer to support the request of work that documented the presenter and Kai story of the customer to perform a description of the goods,
Calculated results and similar degree of the description contents according to the level and the product of the customer defined definition of the speech recognition for the speech in accordance with the conversation,
According to the degree of similarity , the voice is divided into a plurality of transcription ranges,
According to the number of the transcription range, a product description content character, which causes a terminal operated by each of a plurality of transcribers to perform the work to transmit data related to the transcription range. Support program.
前記コンピュータに、さらに、
前記類似度合が所定以上の場合、前記定義体に定義した前記説明内容のテキストを、前記文書化の入力候補として出力する処理を実行させることを特徴とする請求項1に記載の商品説明内容文字化支援プログラム。
In addition to the computer,
Wherein if the similarity degree is equal to or larger than the predetermined, the text of the description contents defined previously Kijo prosthetic body, Product Description of claim 1, characterized in that to execute a process of outputting as an input candidate of the documentation Content characterization support program.
商品についての説明を行う説明者と顧客の会話を文書化する作業の依頼を支援するコンピュータが、
前記会話に係る音声に対する音声認識結果と、定義体に定義された前記顧客のレベルおよび前記商品に応じた説明内容との類似度合を求め
前記類似度合に応じて、前記音声を複数の書き起こし範囲に分割し、
前記書き起こし範囲の数に応じて、前記作業を行う複数の書き起こし者がそれぞれに操作する端末、前記書き起こし範囲に係るデータを送信する処理を実行することを特徴とする商品説明内容文字化支援方法。
Support child computer the request of work to document the meeting talking about the description and the customer to perform a description of the products,
Calculated results and similar degree of the description contents according to the level and the product of the customer defined definition of the speech recognition for the speech in accordance with the conversation,
According to the degree of similarity , the voice is divided into a plurality of transcription ranges,
A product description content character that executes a process of transmitting data related to the transcription range to a terminal operated by each of a plurality of transcripters performing the work according to the number of the transcription range Support method.
前記コンピュータは、さらに、
前記類似度合が所定以上の場合、前記定義体に定義した前記説明内容のテキストを、前記文書化の入力候補として出力する処理を実行することを特徴とする請求項3に記載の商品説明内容文字化支援方法。
The computer further includes:
Wherein if the similarity degree is equal to or larger than the predetermined, the text of the description contents defined previously Kijo prosthetic body, Product Description of claim 3, characterized in that executes processing for outputting as an input candidate of the documentation Content characterization support method.
商品についての説明を行う説明者と顧客の会話を文書化する作業の依頼を支援する商品説明内容文字化支援装置であって、
前記会話に係る音声に対する音声認識結果と、定義体に定義された前記顧客のレベルおよび前記商品に応じた説明内容との類似度合を求めるとともに、該類似度合に応じて、前記音声を複数の書き起こし範囲に分割するデータ分配手段と
前記書き起こし範囲の数に応じて、前記作業を行う複数の書き起こし者がそれぞれに操作する端末へ、前記書き起こし範囲に係るデータを送信する通信手段とを有することを特徴とする商品説明内容文字化支援装置
A product description content lexicalization support device that supports a request for an operation to document a conversation between a customer who explains a product and a customer,
The results of the speech recognition for the speech according to the conversation with obtaining the degree of similarity between the description contents according to the level and the product of the customer defined in definition body, depending on the degree of similarity, a plurality of the voice a data distribution means for dividing the transcription in the range,
Depending on the number of the transcription range, contents of description of item in which a plurality of transcription who performs the work to a terminal to be operated, respectively, and having a communication means for transmitting data relating to the transcription range Character support device .
前記通信手段は、前記類似度合が所定以上の場合、前記定義体に定義した前記説明内容のテキストを、前記文書化の入力候補として出力する事を特徴とする請求項5に記載の商品説明内容文字化支援装置。 Said communication means, when the similarity degree is equal to or larger than a predetermined, product description of claim 5, the text of the description contents defined in the definition, and outputs as an input candidate of the documentation Content characterization support device. コンピュータに、On the computer,
入力音声の認識結果と、定義体に定義された内容との類似度に応じて、前記入力音声を複数に分割して複数の分割音声を取得し、According to the similarity between the recognition result of the input sound and the content defined in the definition body, the input sound is divided into a plurality of pieces to obtain a plurality of divided sounds.
前記複数の分割音声を、該複数の分割音声の再生と文字入力とが可能な複数の端末に、分配送信する処理を実行させることを特徴とする商品説明内容文字化支援プログラム。A product description content characterizing support program for causing a plurality of terminals capable of reproducing and inputting characters to the plurality of divided voices to execute a process of distributing and transmitting the plurality of divided voices.
JP2007314036A 2007-12-04 2007-12-04 Product description content transcription support program, apparatus, and method. Expired - Fee Related JP5092720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007314036A JP5092720B2 (en) 2007-12-04 2007-12-04 Product description content transcription support program, apparatus, and method.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007314036A JP5092720B2 (en) 2007-12-04 2007-12-04 Product description content transcription support program, apparatus, and method.

Publications (2)

Publication Number Publication Date
JP2009140103A JP2009140103A (en) 2009-06-25
JP5092720B2 true JP5092720B2 (en) 2012-12-05

Family

ID=40870668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007314036A Expired - Fee Related JP5092720B2 (en) 2007-12-04 2007-12-04 Product description content transcription support program, apparatus, and method.

Country Status (1)

Country Link
JP (1) JP5092720B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5882388B2 (en) * 2014-04-17 2016-03-09 みずほ情報総研株式会社 Explanation support system and explanation support method
JP6511189B1 (en) * 2018-10-31 2019-05-15 株式会社ジェイ・エックス・ウィンド Information processing system and transcription method
JP7046326B2 (en) * 2020-06-12 2022-04-04 株式会社インタラクティブソリューションズ Display device, display program, display system and control method of display device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067063A (en) * 1998-08-20 2000-03-03 Hitachi Electronics Service Co Ltd Interaction content using system
JP4020083B2 (en) * 2004-02-16 2007-12-12 日本電気株式会社 Transcription text creation support system and program
JP4747573B2 (en) * 2004-12-22 2011-08-17 日本電気株式会社 Audio information processing system, audio information processing method, and audio information processing program
JP5217109B2 (en) * 2006-04-17 2013-06-19 富士通株式会社 Operator education support program, operator education support method, and operator education support apparatus

Also Published As

Publication number Publication date
JP2009140103A (en) 2009-06-25

Similar Documents

Publication Publication Date Title
EP1556854B1 (en) Method for statistical analysis of speech
US8644488B2 (en) System and method for automatically generating adaptive interaction logs from customer interaction text
US8504369B1 (en) Multi-cursor transcription editing
US20190362022A1 (en) Audio file labeling process for building datasets at scale
US20030115064A1 (en) Employing speech recognition and capturing customer speech to improve customer service
US20120016671A1 (en) Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions
JP6865653B2 (en) Dialogue analysis system and dialogue analysis program
JP2009175336A (en) Database system of call center, and its information management method and information management program
JP7132538B2 (en) SEARCH RESULTS DISPLAY DEVICE, SEARCH RESULTS DISPLAY METHOD, AND PROGRAM
JP2009175943A (en) Database system for call center, information management method for database and information management program for database
Wagner et al. Applying cooperative machine learning to speed up the annotation of social signals in large multi-modal corpora
JP5092720B2 (en) Product description content transcription support program, apparatus, and method.
JPH0749695A (en) Time sequential data recording and reproducing device
JP7126865B2 (en) Interactive business support system
US20220138428A1 (en) Systems and methods for inserting dialogue into a query response
CN116741178A (en) Manuscript generation method, device, equipment and storage medium
Menon et al. Deep learning based transcribing and summarizing clinical conversations
JP7169031B1 (en) Program, information processing device, information processing system, information processing method, information processing terminal
JP7223469B1 (en) Utterance information documentation device
US20240127804A1 (en) Transcript tagging and real-time whisper in interactive communications
JP7169030B1 (en) Program, information processing device, information processing system, information processing method, information processing terminal
JP7304269B2 (en) Transcription support method and transcription support device
Kiefer Improving Automatic Transcription Using Natural Language Processing
JP2020021486A (en) Search result display device, search result display method and program
JP2022032544A (en) Graph creation device, graph creation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees