JP2020016949A - Voice recognition data processing device, voice recognition data processing system, and voice recognition data processing method - Google Patents

Voice recognition data processing device, voice recognition data processing system, and voice recognition data processing method Download PDF

Info

Publication number
JP2020016949A
JP2020016949A JP2018137875A JP2018137875A JP2020016949A JP 2020016949 A JP2020016949 A JP 2020016949A JP 2018137875 A JP2018137875 A JP 2018137875A JP 2018137875 A JP2018137875 A JP 2018137875A JP 2020016949 A JP2020016949 A JP 2020016949A
Authority
JP
Japan
Prior art keywords
voice recognition
data processing
content
consultation
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018137875A
Other languages
Japanese (ja)
Other versions
JP7236669B2 (en
Inventor
亮太 藤井
Ryota Fujii
亮太 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018137875A priority Critical patent/JP7236669B2/en
Priority to PCT/JP2019/027461 priority patent/WO2020022079A1/en
Publication of JP2020016949A publication Critical patent/JP2020016949A/en
Application granted granted Critical
Publication of JP7236669B2 publication Critical patent/JP7236669B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

To improve consultation responding performance of a consultation counter by efficiently narrowing down necessary key words from consultation content of a client without omission at a consultation counter of an administrative agency, supporting simple creation of a summary of the consultation content, and lowering the load of the consultant.SOLUTION: A voice recognition data processing system determines respective contents of a plurality of items containing the genres of consultation contents according to comparison of the voice recognition results of voice data and keywords registered on the table, and narrows down the keywords among the plurality of keywords registered on the table for using the comparison according to the determined genre. The voice recognition data processing system generates a summary report of the consultation contents by using respective contents of the plurality of items determined on the basis of the keywords registered on the table or the narrowed down keywords.SELECTED DRAWING: Figure 5

Description

本開示は、音声認識データ処理装置、音声認識データ処理システムおよび音声認識データ処理方法に関する。   The present disclosure relates to a voice recognition data processing device, a voice recognition data processing system, and a voice recognition data processing method.

商品やサービスの問合せを受け付けるコールセンターあるいは自治体等の相談窓口での通話等において、その通話の発話音声を集音し、その発話音声を音声認識して文字列(つまり、テキストデータ)に変換して処理する音声認識データ処理システムが用いられるようになった。   In a call at a call center that accepts inquiries about products and services, or at a consultation counter of a local government, etc., the uttered voice of the call is collected, and the uttered voice is recognized and converted into a character string (that is, text data). Processing voice recognition data processing systems have come to be used.

この種の音声認識データ処理システムとして、例えば特許文献1には、送話側チャネルからの音声を第1音声認識手段により音声認識し、交換機を介して送られてきた受話側チャネルの音声を第2音声認識手段により音声認識し、それぞれの音声認識結果を文字列に変換して表示する通話内容書き起こしシステムが開示されている。この通話内容書き起こしシステムは、表示された文字列を文字列編集手段により編集することが可能に構成される。これにより、編集者は、送話側および受話側の通話内容が時系列に並べられて表示されるのを確認しながら、通話内容を書き起こす(つまり、テキスト化する)ことが可能となる。   As this type of speech recognition data processing system, for example, Japanese Patent Application Laid-Open No. H11-163873 discloses that a speech from a transmitting channel is speech-recognized by a first speech recognizing means, and a speech of a receiving channel transmitted through an exchange is transmitted to a second channel. 2. Description of the Related Art There is disclosed a call content transcription system that recognizes voice by two voice recognition means, converts each voice recognition result into a character string, and displays it. This call content transcription system is configured so that a displayed character string can be edited by a character string editing unit. As a result, the editor can transcribe (that is, convert to text) the contents of the call while confirming that the contents of the call on the transmitting and receiving sides are displayed in chronological order.

特開2005−123869号公報JP 2005-123869 A

しかしながら、特許文献1では、通話内容の全てを書き起こすことは考慮されているものの、その通話内容の概略(つまり、要約)を作成することまでは考慮されていない。そのため、特許文献1の構成を、行政機関(例えば警察署)等の相談窓口で相談員が相談者からの相談に応対する際、その相談内容をテキスト化する場合に適用しても相談者および相談員の発話内容の全てがテキスト化された出力内容が作成されることになる。従って、相談員が出力内容を後で見返す際、相談内容を一目で概略を把握しにくいことがあり、その結果、相談員の利便性が低化し、相談窓口の相談対応能力の向上を妨げる可能性があった。   However, in Patent Literature 1, although it is considered to transcribe all of the call contents, it is not considered to create an outline (that is, a summary) of the call contents. Therefore, even if the configuration of Patent Literature 1 is applied to a case where a consultant responds to a consultation from a consultant at a consultation counter of an administrative agency (for example, a police station) or the like, the content of the consultation is converted into a text even if the consultant is applied. The output contents in which all the utterance contents of the counselor are converted to text are created. Therefore, when the counselor reviews the output contents later, it may be difficult to grasp the outline of the consultation content at a glance, and as a result, the convenience of the counselor may be reduced and the consultation counter may not improve the consultation response ability. There was sex.

本開示は、上述した従来の事情に鑑みて案出され、相談者からの相談内容の中から必要なキーワードを漏らさず効率的に絞り込み、相談内容の要約の簡易な作成を支援して相談員の負荷を低減し、相談窓口の相談対応能力を向上できる音声認識データ処理装置、音声認識データ処理システムおよび音声認識データ処理方法を提供することを目的とする。   The present disclosure has been devised in view of the above-mentioned conventional circumstances, and efficiently narrows down necessary keywords from consultation contents of consultants without fail, and supports simple creation of summaries of consultation contents to assist consultants. It is an object of the present invention to provide a voice recognition data processing device, a voice recognition data processing system, and a voice recognition data processing method capable of reducing the load on the user and improving the consultation response capability of the consultation desk.

本開示は、相談者の発話音声を集音するマイクから入力された音声データを音声認識する音声認識部と、前記相談者からの相談内容の種別を含む複数の項目とそれぞれの前記項目に対応するキーワードとが対応付けて登録されたテーブルを保持するメモリと、前記音声データの音声認識結果と前記テーブルに登録されたキーワードとの比較に応じて、前記相談内容の種別を含む複数の項目のそれぞれの内容を決定するとともに、前記決定された種別に応じて、前記テーブルに登録された複数のキーワードのうち前記比較に用いるキーワードを絞り込む判定部と、前記テーブルに登録されたキーワードまたは前記絞り込まれたキーワードに基づいて決定された前記複数の項目のそれぞれの内容を用いて、前記相談内容の要約レポートを生成する生成部と、を備える、音声認識データ処理装置を提供する。   The present disclosure relates to a voice recognition unit that recognizes voice data input from a microphone that collects a uttered voice of a consultant, a plurality of items including a type of consultation content from the consultant, and each of the items. And a memory that holds a table in which the keywords to be registered are associated with each other, and a plurality of items including the type of the consultation content according to a comparison between the voice recognition result of the voice data and the keywords registered in the table. A determination unit that determines each content and narrows down a keyword used for the comparison among a plurality of keywords registered in the table according to the determined type, and a keyword registered in the table or the narrowed down keyword. And generating a summary report of the consultation content using the content of each of the plurality of items determined based on the keyword that has been determined. Comprising a generating unit, and to provide a speech recognition data processing apparatus.

また、本開示は、相談者の発話音声を集音するマイクから入力された音声データを音声認識する音声認識部と、前記相談者からの相談内容の種別を含む複数の項目とそれぞれの前記項目に対応するキーワードとが対応付けて登録されたテーブルを保持するメモリと、前記音声データの音声認識結果と前記テーブルに登録されたキーワードとの比較に応じて、前記相談内容の種別を含む複数の項目のそれぞれの内容を決定するとともに、前記決定された種別に応じて、前記テーブルに登録された複数のキーワードのうち前記比較に用いるキーワードを絞り込む判定部と、前記テーブルに登録されたキーワードまたは前記絞り込まれたキーワードに基づいて決定された前記複数の項目のそれぞれの内容を用いて、前記相談内容の要約レポートを生成する生成部と、を備える、音声認識データ処理システムを提供する。   Further, the present disclosure provides a voice recognition unit for recognizing voice data input from a microphone that collects a speech voice of a consultant, a plurality of items including a type of consultation content from the consultant, and each of the items. And a memory that holds a table in which a keyword corresponding to the keyword is registered, and a plurality of types including the type of the consultation content according to a comparison between the voice recognition result of the voice data and the keyword registered in the table. A determination unit that determines the content of each item and narrows down keywords used for the comparison among a plurality of keywords registered in the table, according to the determined type, and a keyword registered in the table or A summary report of the consultation content is generated using the content of each of the plurality of items determined based on the narrowed keywords. Comprising a generating unit that, the, to provide a speech recognition data processing system.

また、本開示は、相談者からの相談内容の種別を含む複数の項目とそれぞれの前記項目に対応するキーワードとが対応付けて登録されたテーブルを保持するメモリを有する音声認識データ処理システムにおいて、前記相談者の発話音声を集音するマイクから入力された音声データを音声認識するステップと、前記音声データの音声認識結果と前記テーブルに登録されたキーワードとの比較に応じて、前記相談内容の種別を含む複数の項目のそれぞれの内容を決定するステップと、前記決定された種別に応じて、前記テーブルに登録された複数のキーワードのうち前記比較に用いるキーワードを絞り込むステップと、前記テーブルに登録されたキーワードまたは前記絞り込まれたキーワードに基づいて決定された前記複数の項目のそれぞれの内容を用いて、前記相談内容の要約レポートを生成するステップと、を有する、音声認識データ処理方法を提供する。   Further, the present disclosure is a voice recognition data processing system having a memory that holds a table in which a plurality of items including a type of consultation content from a consultant and a keyword corresponding to each of the items are registered in association with each other. Voice recognition of voice data input from a microphone that collects the voice of the consultant, and, based on a comparison between a voice recognition result of the voice data and a keyword registered in the table, Determining the contents of each of the plurality of items including the type; narrowing down the keywords used for the comparison among the plurality of keywords registered in the table according to the determined type; registering in the table Of each of the plurality of items determined based on the selected keyword or the narrowed keyword Using, and a step of generating a summary report of the consulting detail, to provide a speech recognition data processing method.

本開示によれば、相談者からの相談内容の中から必要なキーワードを漏らさず効率的に絞り込み、相談内容の要約の簡易な作成を支援して相談員の負荷を低減でき、相談窓口の相談対応能力を向上できる。   According to the present disclosure, it is possible to efficiently narrow down necessary keywords from the contents of consultation from a consultant without any omission, to support simple creation of a summary of the consultation contents, to reduce the load on a consultant, and to provide consultation at a consultation desk. The ability to respond can be improved.

音声認識データ処理のために保持されるカルテ表を示す図Diagram showing the chart table maintained for speech recognition data processing 音声認識データ処理で生成される要約レポートの一例を示す図Diagram showing an example of a summary report generated by speech recognition data processing 実施の形態1に係る音声認識データ処理システムの構成例を示す図FIG. 1 shows a configuration example of a speech recognition data processing system according to a first embodiment. 図3に示す音声認識データ処理システムの構成の一例を示すブロック図FIG. 3 is a block diagram showing an example of the configuration of the speech recognition data processing system shown in FIG. 実施の形態1に係る音声認識データ処理のメインルーチンを示すフローチャート5 is a flowchart showing a main routine of voice recognition data processing according to the first embodiment. 図5に示す音声認識処理のサブルーチンを示すフローチャート5 is a flowchart showing a subroutine of the voice recognition process shown in FIG. 図5に示すキーワード一致判定処理のサブルーチンを示すフローチャート5 is a flowchart showing a subroutine of a keyword match determination process shown in FIG. 図5に示すカルテ表登録処理のサブルーチンを示すフローチャート5 is a flowchart showing a subroutine of a chart table registration process shown in FIG. 図5に示すカルテ表登録処理の処理前のカルテ表を例示する図The figure which illustrates the chart table before the process of the chart table registration process shown in FIG. 図5に示すカルテ表登録処理の処理後のカルテ表を例示する図The figure which illustrates the chart table after the processing of the chart table registration processing shown in FIG. 図5に示すカルテレポート生成処理のサブルーチンを示すフローチャート5 is a flowchart showing a subroutine of a chart report generation process shown in FIG. 実施の形態1に係る音声認識データ処理システムの変形例を示すブロック図FIG. 3 is a block diagram showing a modification of the speech recognition data processing system according to the first embodiment. 実施の形態2に係る音声認識データ処理のメインルーチンを示すフローチャート9 is a flowchart showing a main routine of voice recognition data processing according to the second embodiment. 図13に示す相談員提示処理のサブルーチンを示すフローチャート13 is a flowchart showing a subroutine of a consultant presentation process shown in FIG. 実施の形態3に係る相談員提示処理を示すフローチャートFlowchart showing counselor presentation processing according to Embodiment 3.

(音声認識データ処理装置、その処理システムおよびその処理方法の概要)
本開示に係る音声認識データ処理システムの具体的な説明を行う前に、図1および図2を参照して、先ず音声認識データ処理システムの概要について説明する。図1は、音声認識データ処理のために保持されるカルテ表を示す図である。図2は、音声認識データ処理で生成される要約レポートの一例を示す図である。
(Overview of Speech Recognition Data Processing Apparatus, Processing System and Processing Method)
Before giving a specific description of the speech recognition data processing system according to the present disclosure, an overview of the speech recognition data processing system will be described first with reference to FIGS. FIG. 1 is a diagram showing a chart table held for speech recognition data processing. FIG. 2 is a diagram illustrating an example of a summary report generated in the speech recognition data processing.

以下に詳述する実施の形態1では、相談者からの相談内容のジャンル(種別)を含む複数の項目ITとそれぞれの項目ITに対応しかつその項目に関連する複数のキーワード(文章も含む。以下同様。)とが予め対応付けて登録されたテーブルTBが事前に登録設定され、そのテーブルTBがデータベースとしてメモリ16に保持される(図1および図4参照)。テーブルTBは、項目ITに対応するそれぞれのキーワードについて、相談内容のジャンルとして関連性の低い1つ以上のキーワードをさらに登録している。つまり、テーブルTBは、キーワードごとにジャンルとの観点で関連性の低い1つ以上のキーワードが指定されたキーワード関連性情報を保持している。このキーワード関連性情報において指定されている、キーワードごとの関連性の低い1つ以上のキーワードは、後述するキーワードの絞り込みの際に使用される。また、相談内容をテキスト入力するためのフォーマットとしてカルテ表RTも同様に、メモリ16に保持される(図1、図4、図9および図10参照)。カルテ表RTの形式は、テーブルTBに事前登録された各項目ITに対応して事前に設定される。   In the first embodiment described in detail below, a plurality of items IT including a genre (type) of consultation content from a consultant and a plurality of keywords (including sentences) corresponding to each item IT and related to the item IT are also included. The table TB is registered and set in advance, and the table TB is stored in the memory 16 as a database (see FIGS. 1 and 4). The table TB further registers, for each keyword corresponding to the item IT, one or more keywords having low relevance as the genre of the consultation content. That is, the table TB holds keyword relevance information in which one or more keywords having low relevance in terms of genre are specified for each keyword. One or more keywords having low relevance for each keyword specified in the keyword relevance information are used when narrowing down keywords to be described later. Similarly, a chart table RT is held in the memory 16 as a format for inputting the contents of the consultation as text (see FIGS. 1, 4, 9, and 10). The format of the chart table RT is set in advance corresponding to each item IT registered in the table TB in advance.

例えば相談窓口が行政機関のうち警察署である場合、その相談内容は、例えば犯罪、迷惑行為に関するものが主に想定される。カルテ表RTには、図1に示すように、相談内容の項目ITには項番NOの順に「ジャンル(種別)」、「相談者」、「相手」、「被害状況」、「相談者の要求」、「警察からの提案内容」、「相談者の理解度・納得度」および「次のアクション」等が設定される。また、その項目ITごとの具体的な相談内容を入力するための内容入力欄CTもカルテ表RTに設けられる。さらに、カルテ表RTには、相談者C1の音声データに基づいて得られるキーワードを入力するための相談者側キーワード入力欄K1と、相談員C2の音声データに基づいて得られるキーワードを入力するための相談員側キーワード入力欄K2と、が項目ITごとに設けられる(図9および図10参照)。相談者側キーワード入力欄K1および相談員側キーワード入力欄K2にそれぞれ入力されている複数のキーワードは、テーブルTBにて規定されているキーワードから選択されて予め登録されているが、後述するように、人工知能(AI)を用いた学習処理によって使用頻度に応じて適宜更新(追加、変更、削除)されて構わない。   For example, when the consultation desk is a police station among the administrative organizations, the contents of the consultation are mainly assumed to relate to, for example, crimes and annoying acts. In the chart RT, as shown in FIG. 1, the item IT of the consultation content includes “genre (type)”, “consultant”, “partner”, “damage status”, and “ "Request", "Contents of Police Proposal", "Agreement / Understanding of Counselor", "Next Action", etc. are set. Further, a content input column CT for inputting specific consultation content for each item IT is also provided in the chart table RT. Further, in the chart table RT, a keyword input field K1 for inputting a keyword obtained based on the voice data of the consultant C1 and a keyword obtained based on the voice data of the consultant C2 are input. Is provided for each item IT (see FIGS. 9 and 10). A plurality of keywords respectively entered in the consultant-side keyword input field K1 and the consultant-side keyword input field K2 are selected from keywords specified in the table TB and registered in advance, as described later. The information may be appropriately updated (added, changed, or deleted) according to the frequency of use by a learning process using artificial intelligence (AI).

なお、カルテ表RTの初期状態では、各項目ITの内容入力欄CTは少なくとも空欄に設定される。また、カルテ表RTは例示であり、図1の図示内容に限定されず、相談窓口の性質により適宜変更されて設定される。以降の図面も同様であり、本開示の理解を促すための例示である。   Note that, in the initial state of the chart RT, the content input column CT of each item IT is set to at least a blank column. Further, the chart table RT is merely an example, and is not limited to the contents shown in FIG. 1, and may be appropriately changed and set according to the nature of the consultation desk. The same applies to the following drawings, which are examples for promoting understanding of the present disclosure.

実施の形態1に係る音声認識データ処理システム1は、相談者C1および相談員C2の発話音声を1フレーズごとに音声認識し、その音声認識結果とテーブルTBに登録されたキーワードとの比較に応じて、相談内容のジャンルを含む前述の項目ITそれぞれの内容を決定してカルテ表RTの各内容欄CNにテキスト入力する。   The voice recognition data processing system 1 according to the first embodiment performs voice recognition of the uttered voices of the consultant C1 and the consultant C2 for each phrase, and compares the voice recognition result with the keyword registered in the table TB. Then, the contents of each of the above-described items IT including the genre of the consultation contents are determined, and texts are input to the respective content columns CN of the chart table RT.

具体例として、図1中、項番NOが1番目の「ジャンル」にはその内容に「近隣トラブル」のキーワードが、6番目の「警察からの提案内容」にはその内容に「まず注意する所からはじめてはどうか。我々が注意します。」のキーワードが、8番目の「次のアクション」にはその内容に「注意する日を連絡します」のキーワードが音声認識の結果としてテキスト入力される。またこのとき、音声認識データ処理システム1は、テーブルTBを用いて、決定されたジャンルに応じて、テーブルTBに登録された複数のキーワードのうち比較に用いるキーワードを絞り込む。この絞り込みにより、音声認識結果に対するキーワード一致判定の高速化を図ることが可能となる。   As a specific example, in FIG. 1, the keyword of "neighborhood trouble" is included in the content of the "genre" having the first item number NO, and the content is first noted in the content of the sixth "content of proposal from police". We will be careful from the beginning. We will input the keyword "We will be careful." In the 8th "Next action," the keyword "Tell me the day to be careful" will be input as text as a result of speech recognition You. At this time, the speech recognition data processing system 1 uses the table TB to narrow down keywords used for comparison among a plurality of keywords registered in the table TB according to the determined genre. By this narrowing down, it is possible to speed up the keyword matching judgment on the speech recognition result.

カルテ表RTの各項目ITは音声データの1フレーズごとに逐次入力され、相談内容全体を示すリストとしてそれぞれの内容が順次決定される。その過程で各内容欄CNが埋められ、カルテ表RTが完成されていく。その際、図2に示すように、決定された項目ITのそれぞれの内容に基づいて相談内容の要約レポートが生成される。   Each item IT of the medical chart table RT is sequentially input for each phrase of the voice data, and each content is sequentially determined as a list indicating the entire consultation content. In the process, each content column CN is filled, and the chart table RT is completed. At this time, as shown in FIG. 2, a summary report of the consultation contents is generated based on the contents of each of the determined items IT.

具体例として、図2に示すように、図1に示すカルテ表RTに基づいて「タイトル:近隣トラブル」および「相談者:○○」を表題にした要約レポートABが生成される。その要約レポートABの内容は「近隣トラブルで困っている。…(省略)…警察からの提案内容として、まずは注意する所から始めてはどうか。警察が(下線あり)注意する(下線あり)と提案。…(省略)…次のアクションとしては警察が(下線あり)注意する日を連絡。」とテキスト入力される。なお、要約レポートABの内容では後述するように要確認項目に対応する内容に下線が付される。このように、要約レポートABは、図2に示すような文章形式で生成されてもよいが、図1に示すカルテ表RTのようなテーブル形式で生成されてもよい。   As a specific example, as shown in FIG. 2, based on the chart RT shown in FIG. 1, a summary report AB titled "Title: Neighborhood trouble" and "Consultant: OO" is generated. The content of the summary report AB is "I'm in trouble with a neighborhood trouble .... (omitted) ... As a proposal from the police, why don't you start with the place to be careful first. Propose that the police pay attention (with underline). .. (omitted) ... As the next action, contact the day on which the police should pay attention (underlined). " In the contents of the summary report AB, the contents corresponding to the items requiring confirmation are underlined as described later. As described above, the summary report AB may be generated in a sentence format as shown in FIG. 2, or may be generated in a table format such as the chart table RT shown in FIG.

このように、実施の形態1では、要約レポートABの作成により、行政機関等(本説明では警察署)の相談窓口で相談者C1からの相談内容の中から必要なキーワードを漏らさず効率的に絞り込み、相談内容の要約の簡易な作成を支援することが可能となる。そこで、その作成を支援可能とするため、音声認識データ処理装置10、音声認識データ処理システム1および音声認識データ処理方法は、以下に説明する複数の実施の形態に示す具体的構成を有する。   As described above, in the first embodiment, the creation of the summary report AB allows the consultation counter of the administrative agency or the like (the police station in this description) to efficiently transmit the necessary keywords from the consultation contents from the consultant C1 at the consultation counter. It is possible to support narrowing down and simple creation of a summary of consultation contents. Therefore, in order to support the creation, the speech recognition data processing device 10, the speech recognition data processing system 1, and the speech recognition data processing method have specific configurations described in a plurality of embodiments described below.

以下、適宜図面を参照しながら、本開示に係る音声認識データ処理装置、音声認識データ処理システムおよび音声認識データ処理方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, an embodiment that specifically discloses a speech recognition data processing device, a speech recognition data processing system, and a speech recognition data processing method according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, an unnecessary detailed description may be omitted. For example, a detailed description of a well-known item or a redundant description of substantially the same configuration may be omitted. This is to prevent the following description from being unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the claimed subject matter.

また、実施の形態1,2,3でいう「部」または「装置」とは単にハードウェアによって実現される物理的構成に限定されず、その構成が有する機能をプログラム等のソフトウェアにより実現されるものも含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、または2つ以上の構成の機能が例えば1つの物理的構成によって実現されていても構わない。   The “unit” or “apparatus” in the first, second, and third embodiments is not limited to a physical configuration realized simply by hardware, and the functions of the configuration are realized by software such as a program. Including things. Further, the functions of one configuration may be realized by two or more physical configurations, or the functions of two or more configurations may be realized by, for example, one physical configuration.

(実施の形態1)
図3および図4を参照して、実施の形態1に係る音声認識データ処理装置10および音声認識データ処理システム1の構成について説明する。図3は、実施の形態1に係る音声認識データ処理システム1の構成の一例を示す模式図である。図4は、図3に示す音声認識データ処理システム1の構成の一例を示すブロック図である。
(Embodiment 1)
The configurations of the speech recognition data processing device 10 and the speech recognition data processing system 1 according to the first embodiment will be described with reference to FIGS. FIG. 3 is a schematic diagram illustrating an example of a configuration of the speech recognition data processing system 1 according to the first embodiment. FIG. 4 is a block diagram showing an example of the configuration of the speech recognition data processing system 1 shown in FIG.

図3および図4に示すように、実施の形態1に係る音声認識データ処理装置10および音声認識データ処理システム1は、行政機関(例えば、警察署)に設置される相談窓口での使用が例示される。例えば地域住民である相談者C1が警察署の相談窓口に出向き、警察官等の相談員C2に面会して犯罪や迷惑行為等を直接相談する場面が想定される。   As illustrated in FIGS. 3 and 4, the voice recognition data processing device 10 and the voice recognition data processing system 1 according to the first embodiment are exemplified for use at a consultation counter installed in an administrative agency (for example, a police station). Is done. For example, it is assumed that a consultant C1 who is a local resident goes to a consultation counter of a police station and meets a consultant C2 such as a police officer to directly consult a crime or annoyance.

実施の形態1では、その相談窓口に複数のマイクM1,M2および音声認識データ処理装置10が設置されており、このマイクM1,M2を通じて相談者C1と相談員C2との発話音声を集音し、その音声データを音声認識データ処理装置10に入力して音声認識させる。なお、実施の形態1では警察署の相談窓口での使用を想定して説明するが、これに限定されない。その他、市役所等での相談窓口、病院等の医療機関での相談窓口、さらには公共的機関に限定されず民間機関での相談窓口等にも適応可能である。   In the first embodiment, a plurality of microphones M1 and M2 and a voice recognition data processing device 10 are installed at the consultation desk, and voices of the consultant C1 and the consultant C2 are collected through the microphones M1 and M2. Then, the voice data is input to the voice recognition data processing device 10 to perform voice recognition. In the first embodiment, description will be made assuming use at a consultation counter of a police station, but the present invention is not limited to this. In addition, it is applicable to a consultation desk at a city hall, a consultation desk at a medical institution such as a hospital, and a consultation desk at a private institution without being limited to a public institution.

実施の形態1の音声認識データ処理システム1は、相談者C1および相談員C2の発話音声を集音する複数(例えば、2本)のマイクM1,M2と、これらマイクM1,M2から入力された音声データに基づき相談内容の要約レポートAB(図2参照)を生成する音声認識データ処理装置10と、音声認識データ処理装置10から送信される音声データに基づき自動で音声認識する音声認識サーバ20と、音声認識データ処理装置10と音声認識サーバ20とを接続するネットワークNWと、を含んで構成される。   In the voice recognition data processing system 1 according to the first embodiment, a plurality of (for example, two) microphones M1 and M2 for collecting speech voices of the consultant C1 and the consultant C2, and input from the microphones M1 and M2 are provided. A speech recognition data processor 10 for generating a summary report AB (see FIG. 2) of consultation contents based on the speech data, and a speech recognition server 20 for automatically recognizing speech based on speech data transmitted from the speech recognition data processor 10. , And a network NW that connects the voice recognition data processing device 10 and the voice recognition server 20.

複数のマイクM1,M2は、相談者C1および相談員C2の発話音声を集音して電気信号の音声データとしてそれぞれ出力する。音声データは、電気的な振動波形データとして音声認識データ処理装置10に出力される。なお、実施の形態1ではマイクM1,M2を2本設置するが、これに限定されず1本でもよい。この場合、1つのマイクM1は相談者C1および相談員C2の両方の発話音声を識別可能に集音可能に構成されればよい。   The plurality of microphones M1 and M2 collect voices spoken by the consultant C1 and the consultant C2, and output the voices as electrical signal voice data. The voice data is output to the voice recognition data processing device 10 as electrical vibration waveform data. In the first embodiment, two microphones M1 and M2 are installed, but the number of microphones is not limited to two and may be one. In this case, one microphone M1 may be configured to be able to collect the uttered voices of both the consultant C1 and the consultant C2 so as to be identifiable.

音声認識データ処理装置10は、汎用のパーソナル・コンピュータで構成されており、プロセッサ11と、メモリ16と、ディスプレイ17と、入出力インターフェイス回路18と、通信回路19と、を含んで構成される。図4では、入出力インターフェイス回路を便宜的に「入出力I/F」と示している。なお、音声認識データ処理装置10は、パーソナル・コンピュータに限定されず、前述の各種回路を有するものであればタブレット端末、スマートフォン等の各種装置を用いてもよい。   The voice recognition data processing device 10 is configured by a general-purpose personal computer, and includes a processor 11, a memory 16, a display 17, an input / output interface circuit 18, and a communication circuit 19. In FIG. 4, the input / output interface circuit is indicated as “input / output I / F” for convenience. Note that the voice recognition data processing device 10 is not limited to a personal computer, and various devices such as a tablet terminal and a smartphone may be used as long as they have the above-described various circuits.

メモリ16は、RAM(Random Access Memory)、ROM(Read Only Memory)等の半導体メモリ等により構成される。メモリ16は、プロセッサ11で実行される所定のプログラムや各種の設定パラメータ等を記憶保持するとともに、デジタル変換された音声データやプロセッサが各種プログラムを実行する際に中間的に生成するデータを一時的に記憶する。   The memory 16 includes a semiconductor memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory). The memory 16 stores and holds a predetermined program executed by the processor 11, various setting parameters, and the like, and temporarily stores digitally converted audio data and data generated intermediately when the processor executes the various programs. To memorize.

また、実施の形態1では、メモリ16は、前述のように、相談者C1からの相談内容のジャンルを含む複数の項目ITとそれぞれの項目ITに対応しかつその項目ITに関連する複数のキーワードとが予め対応付けて登録されたテーブルTBを記憶保持する。つまり、前述したように、テーブルTBにおいて、キーワードは相談内容の項目ITごとに事前に複数設定されており、この複数のキーワードは項目ITごとにグループ登録され記憶保持される。また、メモリ16には、相談内容の入力用のフォーマットとしてカルテ表RT(図9参照)も同様に記憶保持される。なお、これらテーブルTBおよびカルテ表RTは半導体メモリの代わりにSSD(Solid State Drive)やHDD(Hard Disk Drive)等のストレージデバイス等の記憶回路内に記憶保持されてもよい。また、前述のように、テーブルTBは、項目ITに対応するそれぞれのキーワードについて、相談内容のジャンルとして関連性の低い他のキーワードをさらに登録している。   Further, in the first embodiment, as described above, the memory 16 stores the plurality of items IT including the genre of the consultation content from the consultant C1 and the plurality of keywords corresponding to each item IT and related to the item IT. Stores and holds a table TB registered in advance in association with the table TB. That is, as described above, in the table TB, a plurality of keywords are set in advance for each item IT of the consultation content, and the plurality of keywords are group-registered and stored for each item IT. The memory 16 also stores a chart table RT (see FIG. 9) as a format for inputting consultation contents. The table TB and the chart table RT may be stored and held in a storage circuit such as a storage device such as a solid state drive (SSD) or a hard disk drive (HDD) instead of a semiconductor memory. Further, as described above, the table TB further registers, for each keyword corresponding to the item IT, another keyword having low relevance as the genre of the consultation content.

ディスプレイ17は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等により構成される。ディスプレイ17は、その表示部に音声データ、前述のカルテ表RTおよび要約レポート等ABを適宜切り替えて少なくとも相談員C2に表示する。   The display 17 includes a liquid crystal display, an organic EL (Electro Luminescence) display, and the like. The display 17 switches the sound data, the chart table RT, the summary report AB, and the like as appropriate on the display unit and displays the data to at least the consultant C2.

入出力インターフェイス回路18は、マイクM1,M2にて取得した音声データを各種信号処理可能なデジタル信号に変換するオーディオ用のインターフェイスである。入出力インターフェイス回路18は、そのデジタル変換の際、所定の量子化ビットおよびサンプリング周波数によりアナログの音声データをデジタルに変換する。サンプリング周波数は、例えば48kHzに設定される。また、入出力インターフェイス回路18はバッファ回路を含み、このバッファ回路はマイクM1,M2の音声データをデジタル変換させるため、音声データを所定時間バッファリングする。入出力インターフェイス回路18は、プロセッサ11およびディスプレイ17にデジタル変換した音声データを送信する。   The input / output interface circuit 18 is an audio interface that converts audio data acquired by the microphones M1 and M2 into digital signals that can be subjected to various signal processing. At the time of the digital conversion, the input / output interface circuit 18 converts the analog audio data into a digital signal using a predetermined quantization bit and a sampling frequency. The sampling frequency is set to, for example, 48 kHz. Also, the input / output interface circuit 18 includes a buffer circuit, and this buffer circuit buffers audio data for a predetermined time in order to convert the audio data of the microphones M1 and M2 into digital data. The input / output interface circuit 18 transmits the digitally converted audio data to the processor 11 and the display 17.

通信回路19は、無線通信の機能を有しており、所定の無線通信回線を介してネットワークNWに接続され、音声認識サーバ20との間で無線通信を行う。即ち、音声認識データ処理装置10は通信回路19およびネットワークNWを介して音声認識サーバ20に接続され、音声データ等の所定のデータを送受信可能に構成される。なお、通信回路19は、無線通信回路として携帯電話網(セルラー網)、無線LAN等を使用することが可能である。また、通信回路19は無線通信に限らず有線LAN等を使用して有線通信可能に構成してもよい。   The communication circuit 19 has a wireless communication function, is connected to the network NW via a predetermined wireless communication line, and performs wireless communication with the voice recognition server 20. That is, the voice recognition data processing device 10 is connected to the voice recognition server 20 via the communication circuit 19 and the network NW, and is configured to be able to transmit and receive predetermined data such as voice data. The communication circuit 19 can use a mobile phone network (cellular network), a wireless LAN, or the like as a wireless communication circuit. The communication circuit 19 is not limited to wireless communication, and may be configured to enable wired communication using a wired LAN or the like.

プロセッサ11は、例えば、CPU(Central Processing Unit),MPU(Micro Processor Unit),DSP(Digital Signal Processor)あるいはFPGA(Field Programmable Gate Array)等が用いられる。プロセッサ11は、メモリ16に格納されるプログラムや設定パラメータを適宜読み出し、読み出したプログラムに従って所定の処理を実行する。   As the processor 11, for example, a CPU (Central Processing Unit), an MPU (Micro Processor Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array) is used. The processor 11 reads out a program and setting parameters stored in the memory 16 as appropriate, and executes a predetermined process according to the read out program.

プロセッサ11は、機能的構成として、マイクM1,M2から得られた音声データを音声認識する音声認識部12と、音声認識結果とテーブルTBに登録されたキーワードとを比較して項目ITのそれぞれの内容を決定するキーワード一致判定部13(判定部の一例)と、各項目ITの決定に基づいて相談内容の要約レポートABを生成するカルテレポート生成部14(生成部の一例)と、登録されている複数のキーワードとキーワード一致判定部13の判定結果とを学習して、テーブルTBでのキーワードの登録内容を適宜更新するAI(Artificial Intelligence)処理部15と、を有する。   As a functional configuration, the processor 11 compares the speech recognition result with a keyword registered in the table TB with a speech recognition unit 12 that recognizes speech data obtained from the microphones M1 and M2, and compares each of the items IT. A keyword match determination unit 13 (an example of a determination unit) that determines the contents, and a chart report generation unit 14 (an example of a generation unit) that generates a summary report AB of the consultation content based on the determination of each item IT are registered and registered. And an AI (Artificial Intelligence) processing unit 15 that learns a plurality of keywords and the determination result of the keyword match determination unit 13 and appropriately updates the registered contents of the keywords in the table TB.

音声認識部12は、入出力インターフェイス回路18からデジタル変換された音声データを取得する。音声認識部12は、取得した音声データを例えば所定のコーパスに基づき音声認識してテキストデータ(文字列)に変換する。テキストデータの変換や解釈は、所定の自動音声認識アルゴリズムに従って実行される。自動音声認識アルゴリズムは、例えばAI処理部15に実装される人工知能(AI:Artificial Intelligence)エンジンを用いて生成される。   The voice recognition unit 12 acquires digitally converted voice data from the input / output interface circuit 18. The voice recognition unit 12 performs voice recognition on the obtained voice data based on, for example, a predetermined corpus, and converts the voice data into text data (character string). The conversion and interpretation of the text data are executed according to a predetermined automatic speech recognition algorithm. The automatic speech recognition algorithm is generated using, for example, an artificial intelligence (AI) engine implemented in the AI processing unit 15.

ここで、音声認識データ処理装置10の音声認識部12は、音声認識データ処理装置10のプロセッサの処理能力(つまり、性能)の制限を受ける。また、音声認識部12は、プロセッサ11のAI処理部15により生成される自動音声認識アルゴリズムに従うためその性能や精度は限定的になってしまう可能性がある。そのため、実施の形態1では、様々な相談窓口での相談内容の音声データを取得可能な音声認識サーバ20を、ネットワークNWを介して通常使用して、後述する音声認識処理(例えば、図5に示すステップS20参照)を実行する。但し、ネットワークNWのトラフィック量が過多になる等、ネットワークNWの接続が不調である場合、音声認識データ処理装置10の音声認識部12が音声認識サーバ20の代わりに機能し、音声データを音声認識してよい。なお、音声認識サーバ20でも同様に、人工知能の学習により自動音声認識アルゴリズムを生成して音声認識する。   Here, the speech recognition unit 12 of the speech recognition data processing device 10 is limited by the processing capability (that is, performance) of the processor of the speech recognition data processing device 10. The performance and accuracy of the voice recognition unit 12 may be limited because the voice recognition unit 12 follows the automatic voice recognition algorithm generated by the AI processing unit 15 of the processor 11. Therefore, in the first embodiment, the voice recognition server 20 capable of acquiring voice data of the contents of consultation at various consultation desks is normally used via the network NW, and a voice recognition process described later (for example, FIG. (See step S20 shown). However, when the connection of the network NW is not good, for example, when the traffic volume of the network NW becomes excessive, the voice recognition unit 12 of the voice recognition data processing device 10 functions instead of the voice recognition server 20 to perform voice recognition on the voice data. May do it. Similarly, the speech recognition server 20 generates an automatic speech recognition algorithm by learning artificial intelligence and performs speech recognition.

また、音声認識データ処理装置10および音声認識サーバ20に実行される人工知能の学習は、1つ以上の統計的な分類技術を用いて実行されてもよい。統計的分類技術としては、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が例示される。但し、使用される統計的分類技術はこれらに限定されない。   The learning of the artificial intelligence executed by the speech recognition data processing device 10 and the speech recognition server 20 may be executed using one or more statistical classification techniques. Statistical classification techniques include linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, decision trees, artificial neural networks. Networks (artificial neural networks), Bayesian techniques and / or networks, hidden Markov models, binary classifiers, multi-class classifiers, Examples include a clustering technique, a random forest technique, a logistic regression technique, a linear regression technique, and a gradient boosting technique. However, the statistical classification technique used is not limited to these.

音声認識サーバ20または音声認識データ処理装置10の音声認識部12は、音声認識結果であるテキストデータをキーワード一致判定部13に逐次送信する。キーワード一致判定部13は、その音声認識結果を1フレーズごとに取得し、テーブルTBに予め登録されたキーワードとの一致の有無を判定する。即ち、キーワード一致判定部13は、相談者C1および相談員C2の発話音声の1フレーズに対応する音声データの音声認識結果を取得する度に、テーブルTBに登録された複数のキーワードとの比較を行う。また、キーワード一致判定部13は、テーブルTBを用いて、決定されたジャンルに応じて、テーブルTBに登録された複数のキーワードのうち比較に用いるキーワードを絞り込む。   The voice recognition server 20 or the voice recognition unit 12 of the voice recognition data processing device 10 sequentially transmits the text data as the voice recognition result to the keyword match determination unit 13. The keyword match determination unit 13 acquires the speech recognition result for each phrase, and determines whether or not there is a match with a keyword registered in advance in the table TB. That is, the keyword match determination unit 13 performs comparison with a plurality of keywords registered in the table TB every time the voice recognition result of voice data corresponding to one phrase of the uttered voice of the consultant C1 and the consultant C2 is obtained. Do. Further, the keyword match determination unit 13 uses the table TB to narrow down keywords to be used for comparison among a plurality of keywords registered in the table TB according to the determined genre.

カルテレポート生成部14は、テーブルTBに登録されたキーワードまたは絞り込まれたキーワードに基づいて決定された複数の項目ITのそれぞれの内容を用いて、相談内容の要約レポートABを生成する(図2参照)。   The medical chart report generation unit 14 generates a consultation content summary report AB using the contents of the plurality of items IT determined based on the keywords registered in the table TB or the narrowed keywords (see FIG. 2). ).

次に図5〜図11を参照して、実施の形態1の音声認識データ処理方法の手順について説明する。図5は、実施の形態1に係る音声認識データ処理のメインルーチンを示すフローチャートである。図6は、図5に示す音声認識処理S20のサブルーチンを示すフローチャートである。図7は、図5に示すキーワード一致判定処理S30のサブルーチンを示すフローチャートである。図8は、図5に示すカルテ表登録処理S40のサブルーチンを示すフローチャートである。図9は、図5に示すカルテ表登録処理S40の処理前のカルテ表RTを例示する図である。図10は、図5に示すカルテ表登録処理S40の処理後のカルテ表RTを例示する図である。図11は、図5に示すカルテレポート生成処理S50のサブルーチンを示すフローチャートである。   Next, the procedure of the voice recognition data processing method according to the first embodiment will be described with reference to FIGS. FIG. 5 is a flowchart showing a main routine of the voice recognition data processing according to the first embodiment. FIG. 6 is a flowchart showing a subroutine of the voice recognition processing S20 shown in FIG. FIG. 7 is a flowchart showing a subroutine of the keyword match determination processing S30 shown in FIG. FIG. 8 is a flowchart showing a subroutine of the chart table registration processing S40 shown in FIG. FIG. 9 is a diagram exemplifying the chart table RT before the processing of the chart table registration processing S40 shown in FIG. FIG. 10 is a diagram illustrating the medical chart table RT after the processing of the medical chart table registration processing S40 illustrated in FIG. 5. FIG. 11 is a flowchart showing a subroutine of the chart report generation processing S50 shown in FIG.

相談員C2は相談者C1に応対する際、音声認識データ処理システム1を稼働させる(図3参照)。各マイクM1,M2は、相談者C1または相談員C2の発話音声を集音し始め、アナログの音声データを音声認識データ処理装置10に出力する。図5に示すように、音声認識データ処理装置10は、その入力された音声データを入出力インターフェイス回路18により1フレーズごとに取得するとともに、その音声データの振動波形をディスプレイ17に表示させる(S10)。   When responding to the consultant C1, the consultant C2 operates the voice recognition data processing system 1 (see FIG. 3). Each of the microphones M1 and M2 starts collecting speech voices of the consultant C1 or the consultant C2, and outputs analog voice data to the voice recognition data processing device 10. As shown in FIG. 5, the voice recognition data processing device 10 acquires the input voice data for each phrase by the input / output interface circuit 18, and displays the vibration waveform of the voice data on the display 17 (S10). ).

次に、図5および図6に示すように、音声認識処理のサブルーチンが開始される(S20)。音声認識処理S20では、入出力インターフェイス回路18はそのバッファ回路で音声データをバッファリングして音声データをデジタルに変換し、プロセッサ11に出力する(S21)。プロセッサ11はデジタル変換された音声データを、通信回路19を通じて音声認識サーバ20に送信する(S22)。音声認識サーバ20は、音声データを受信し受信した音声データを自動音声認識アルゴリズムに従って音声認識し、音声認識結果としてテキストデータに変換する(S23)。このとき、音声認識サーバ20は、発話音声の1フレーズごとに音声認識結果を音声認識データ処理装置10に送信する。音声認識データ処理装置10は音声認識サーバ20の音声認識結果を、通信回路19を通じて受信する(S24)。この受信により音声認識処理のサブルーチンが終了する。   Next, as shown in FIGS. 5 and 6, a subroutine of the voice recognition process is started (S20). In the voice recognition process S20, the input / output interface circuit 18 buffers the voice data in the buffer circuit, converts the voice data into digital data, and outputs the digital data to the processor 11 (S21). The processor 11 transmits the digitally converted voice data to the voice recognition server 20 through the communication circuit 19 (S22). The voice recognition server 20 receives the voice data, recognizes the received voice data according to an automatic voice recognition algorithm, and converts the voice data into text data as a voice recognition result (S23). At this time, the voice recognition server 20 transmits the voice recognition result to the voice recognition data processing device 10 for each phrase of the uttered voice. The voice recognition data processing device 10 receives the voice recognition result of the voice recognition server 20 through the communication circuit 19 (S24). With this reception, the subroutine of the voice recognition processing ends.

次に、図5および図7に示すように、音声認識処理S20の終了後、キーワード一致判定処理のサブルーチンが開始される(S30)。キーワード一致判定処理S30では、プロセッサ11のキーワード一致判定部13は相談者C1および相談員C2の発話音声の1フレーズに対応する音声データの音声認識結果を取得する(S31)。キーワード一致判定部13は、その取得の際、音声認識結果を単語ごとに分解する(S32)。ここでいう単語は、単語に限らず、句あるいは節等の文章でもよい。キーワード一致判定部13は、音声認識結果とテーブルTBに予め登録された複数のキーワードとを比較して一致するか否かを、相談者C1および相談員C2のそれぞれの発話内容に対応する音声認識結果について個別で比較する(S33)。比較の結果、キーワード一致判定部13は、テーブルTBに登録されているキーワードと一致するか否かを判定する(S34)。一致しないと判定する場合、キーワード一致判定処理S30のサブルーチンは終了する。なお、キーワード一致判定部13はキーワードの一致判定の際(S34)、例えば「我々」の発話音声を「警察」に、または「私」の発話音声を「相談者」等に適宜補完変換して状況に応じた一人称の変換が可能に構成されてよい。   Next, as shown in FIG. 5 and FIG. 7, after the voice recognition processing S20 is completed, a subroutine of the keyword matching determination processing is started (S30). In the keyword match determination process S30, the keyword match determination unit 13 of the processor 11 acquires a voice recognition result of voice data corresponding to one phrase of the uttered voice of the consultant C1 and the consultant C2 (S31). At the time of the acquisition, the keyword match determination unit 13 decomposes the speech recognition result for each word (S32). The word here is not limited to a word, but may be a sentence such as a phrase or a section. The keyword match determination unit 13 compares the speech recognition result with a plurality of keywords registered in the table TB in advance and determines whether or not they match, based on the speech recognition corresponding to the utterance contents of each of the consultant C1 and the consultant C2. The results are compared individually (S33). As a result of the comparison, the keyword match determination unit 13 determines whether or not the keyword matches the keyword registered in the table TB (S34). If it is determined that they do not match, the subroutine of the keyword match determination processing S30 ends. Note that the keyword matching determination unit 13 performs supplementary conversion as appropriate, for example, to convert the uttered voice of "we" to "police" or the uttered voice of "me" to "consultant" at the time of keyword match determination (S34). First person conversion according to the situation may be configured.

また、このようなキーワード一致判定処理S30の終了処理により、音声認識データ処理システム1は、マイクM1,M2の集音中において相談者C1または相談員C2が相談内容と無関係(例えば雑談や世間話等)なことを話していると推定し、次のカルテ表登録処理(ステップS40)にそのまま進む。これにより、カルテ表RTや要約レポートABに相談内容と無関係な内容、即ちノイズ情報が混入するのを抑制することが可能となる。   Further, by the termination processing of the keyword match determination processing S30, the voice recognition data processing system 1 allows the consultant C1 or the consultant C2 to have no relation to the consultation content (for example, chat or small talk) while the microphones M1 and M2 are collecting sound. Etc.), and proceed to the next chart table registration process (step S40). This makes it possible to suppress the content unrelated to the consultation content, that is, noise information from being mixed into the chart table RT and the summary report AB.

その一方、一致すると判定する場合、キーワード一致判定部13はその一致した音声認識結果が相談内容のジャンルに対応するキーワードと一致するか否かをさらに判定する(S35)。   On the other hand, if it is determined that they match, the keyword match determination unit 13 further determines whether or not the matched voice recognition result matches a keyword corresponding to the genre of the consultation content (S35).

一致しないと判定する場合、キーワード一致判定処理S30のサブルーチンは終了する。その一方、ジャンルに対応するキーワードと一致すると判定する場合、キーワード一致判定部13は相談者C1の相談内容のジャンルが例えば「近隣トラブル」であるのか、「ストーカー被害」であるのか、あるいは「詐欺被害」であるのか等を決定して、その決定結果をカルテ表RTに入力する。さらに、キーワード一致判定部13は、決定されたジャンルに応じてテーブルTBに登録された複数のキーワードのうち前述のステップS33で用いるキーワードを絞り込む(S36)。例えば、前述したように、テーブルTBには、項目ITに対応するそれぞれのキーワードごとに、相談内容のジャンルの観点からして関連性の低い1つ以上のキーワードが指定されたキーワード関連性情報を保持している。例えば、ジャンル「ストーカー」というキーワードは、キーワード「○○円振り込んだ」と関連性が低いと考えられる。また、ジャンル「詐欺被害」というキーワードは、キーワード「切りつけられた」と関連性が低いと考えられる。このように、キーワードごとに登録されている関連性の低い1つ以上のキーワードは、キーワード一致判定部13におけるキーワードの絞り込み時に使用される。これにより、キーワード一致判定処理S30のサブルーチンを終了する。   If it is determined that they do not match, the subroutine of the keyword match determination processing S30 ends. On the other hand, when it is determined that the keyword matches the keyword corresponding to the genre, the keyword match determination unit 13 determines whether the genre of the consultation content of the consultant C1 is, for example, “neighboring trouble”, “stalker damage”, or “fraud”. It is determined whether it is "damage" or the like, and the result of the determination is input to the chart RT. Further, the keyword match determination unit 13 narrows down the keywords used in the above-described step S33 among the plurality of keywords registered in the table TB according to the determined genre (S36). For example, as described above, the table TB contains, for each keyword corresponding to the item IT, keyword relevance information in which one or more keywords having low relevance from the viewpoint of the genre of the consultation content are specified. keeping. For example, it is considered that the keyword of the genre “Stalker” has low relevance to the keyword “XX circle transfer”. Also, the keyword “genre fraud” is considered to have low relevance to the keyword “cut”. As described above, one or more keywords having low relevance registered for each keyword are used when the keyword matching determination unit 13 narrows down the keywords. Thus, the subroutine of the keyword match determination processing S30 is completed.

次に、図5および図8に示すように、キーワード一致判定処理S30の終了後、カルテ表登録処理のサブルーチンが開始される(S40)。カルテ表登録処理S40では、プロセッサ11のキーワード一致判定部13は、メモリ16のテーブルTBを参照して、ステップS33において一致したと判定されたキーワードに対応する項目ITを検索する(S41)。検索の結果、キーワード一致判定部13は、該当する項目ITにキーワードが入力済みか否かを判定する(S42)。未入力であると判定する場合、キーワード一致判定部13は、該当する項目ITの内容欄CNに、その一致したキーワードを決定して入力していく(S45)。   Next, as shown in FIGS. 5 and 8, after the keyword match determination processing S30 is completed, a subroutine of the chart table registration processing is started (S40). In the chart table registration process S40, the keyword match determination unit 13 of the processor 11 refers to the table TB in the memory 16 and searches for an item IT corresponding to the keyword determined to match in step S33 (S41). As a result of the search, the keyword match determination unit 13 determines whether a keyword has been input in the corresponding item IT (S42). If it is determined that the keyword has not been input, the keyword matching determination unit 13 determines and inputs the matching keyword into the content column CN of the corresponding item IT (S45).

具体的には、図9に示すように、相談者C1の発話に基づく音声認識結果の単語の中に、相談者側キーワード入力欄K1のキーワード「隣の部屋の人が」がステップS33において一致したと判定された場合、テーブルTBにて登録されているキーワード「隣の部屋の人が」に対応する項目(ジャンル)「近隣住民トラブル」が、ジャンルの内容欄CNに入力される。   Specifically, as shown in FIG. 9, in the words of the speech recognition result based on the utterance of the consultant C1, the keyword “the person in the next room” in the consultant-side keyword input field K1 matches in step S33. When it is determined that the user has performed the search, the item (genre) “neighborhood trouble” corresponding to the keyword “the person in the next room” registered in the table TB is input to the genre content column CN.

また、別の例として、相談員C2の発話に基づく音声認識結果の単語の中に、相談員側キーワード入力欄K2のキーワード「ストーカー」がステップS33において一致したと判定された場合、テーブルTBに登録されているキーワード「ストーカー」に対応する項目(ジャンル)「ストーカー」が、ジャンルの内容欄CNに入力される。また、音声認識データ処理システム1により入力途中のカルテ表RTは、音声認識データ処理装置10のディスプレイ17に表示されており、相談員C2はその入力状況を相談中に確認することが可能である。   Further, as another example, when it is determined in step S33 that the keyword “Stalker” in the keyword input field K2 of the consultant matches in the words of the voice recognition result based on the utterance of the consultant C2, the table TB is displayed. An item (genre) “stalker” corresponding to the registered keyword “stalker” is input in the genre content column CN. Further, the chart table RT being input by the voice recognition data processing system 1 is displayed on the display 17 of the voice recognition data processing device 10, and the consultant C2 can check the input status during the consultation. .

その一方、該当する項目ITが入力済みと判定する場合(即ち、複数の項目ITのうちいずれかの項目ITに複数の内容が存在した場合)、キーワード一致判定部13は、テーブルTBに保持されているキーワード関連性情報を参照し、入力済みである複数の内容が対応する項目ITのジャンルとの関係で矛盾するか否かを判定する(S43)。矛盾しないと判定する場合、カルテ表登録処理S40のサブルーチンは終了する。   On the other hand, when it is determined that the corresponding item IT has been input (that is, when a plurality of contents exist in any one of the plurality of items IT), the keyword match determination unit 13 is stored in the table TB. By referring to the keyword relevance information, it is determined whether or not a plurality of inputted contents are inconsistent in relation to the genre of the corresponding item IT (S43). If it is determined that there is no contradiction, the subroutine of the chart table registration processing S40 ends.

その一方、矛盾すると判定する場合、キーワード一致判定部13は要確認項目としてその旨をメモリ16に記憶保持させる(S44)。キーワード一致判定部13は、逐次取得する音声認識結果ごとに、該当する項目ITに対してキーワードを決定して入力する(S45)。さらに、入力されたキーワードに基づいて項目ITごとの内容に対する見出しを自動認識し、その見出しをカルテ表RTの内容の内容欄CNにそれぞれ入力する(図10参照)。これにより、カルテ表登録処理S40のサブルーチンが終了する。   On the other hand, if it is determined that there is a contradiction, the keyword match determination unit 13 causes the memory 16 to store that fact as a confirmation required item (S44). The keyword match determination unit 13 determines and inputs a keyword for the corresponding item IT for each sequentially acquired voice recognition result (S45). Further, based on the input keyword, a heading for the content of each item IT is automatically recognized, and the heading is input to the content column CN of the content of the chart table RT (see FIG. 10). Thus, the subroutine of the chart table registration process S40 ends.

次に、図5および図11に示すように、カルテ表登録処理S40の終了後、カルテレポート生成処理のサブルーチンが開始される(S50)。カルテレポート生成処理S50では、プロセッサ11のカルテレポート生成部14は、メモリ16に記憶保持されるカルテ表RTを参照して、内容が入力済みの項目ITを検索する(S51)。検索の結果、カルテレポート生成部14は、入力済みの項目ITに対応するテキストを生成する(S52)。またこのとき、カルテレポート生成部14は、メモリ16に記憶保持される要確認項目も同時に参照して、項目ITのいずれかで矛盾があると判定された場合、該当する項目ITの内容を要確認項目であることが識別可能にテキストを生成する。具体的には、カルテレポート生成部14は、要確認項目に対応する内容に下線を付与して識別可能とする(図2参照)。   Next, as shown in FIGS. 5 and 11, after the chart table registration processing S40 is completed, a subroutine of the chart report generation processing is started (S50). In the medical chart report generation processing S50, the medical chart report generation unit 14 of the processor 11 refers to the medical chart table RT stored in the memory 16 and searches for the item IT whose contents have been input (S51). As a result of the search, the medical record report generator 14 generates a text corresponding to the input item IT (S52). At this time, the chart report generation unit 14 also refers to the required confirmation items stored in the memory 16 and, when it is determined that any of the items IT is inconsistent, requires the contents of the corresponding item IT. Generate text so that it can be identified as a confirmation item. Specifically, the medical chart report generation unit 14 adds an underline to the content corresponding to the item requiring confirmation to make it identifiable (see FIG. 2).

さらにカルテレポート生成部14は、生成したテキストにおいて前後の意味等で違和感が生じないに補正するとともに(S53)、主語が抜けているテキストに対し主語を推測して補完挿入する(S54)。このとき、カルテレポート生成部14は主語を推測した場合、同様に要確認項目として下線を付して識別可能にテキストを生成する。   Further, the chart report generation unit 14 corrects the generated text so that the sense of incongruity does not occur in the meaning before and after (S53), and supposes and inserts the subject in the text in which the subject is missing (S54). At this time, when the subject is guessed, the chart report generation unit 14 similarly generates a text that can be identified by underlining the item to be checked.

このようにカルテレポート生成部14はキーワードに基づいて決定された複数の項目ITのそれぞれの内容を用いて相談内容の要約レポートをAB生成する(図2参照)。プロセッサ11は入出力インターフェイス回路18を介してその要約レポートABをディスプレイ17に表示させる(S56)。   As described above, the chart report generating unit 14 generates the summary report of the consultation content AB using the contents of the plurality of items IT determined based on the keyword (see FIG. 2). The processor 11 displays the summary report AB on the display 17 via the input / output interface circuit 18 (S56).

図5に示すように、カルテレポート生成処理S50の終了後、メイン処理に対する終了トリガが入力されたかが判定される(S60)。判定の結果、終了トリガが入力されない限り、ステップS10からステップS50までの一連の処理ステップが繰り返して実行される。終了トリガが入力された場合、例えば相談窓口での相談が終了して音声認識データ処理システムのスイッチが相談員C2によりオフ(OFF)された場合、音声認識データ処理システム1のメイン処理が終了する。   As shown in FIG. 5, after the chart report generation processing S50 ends, it is determined whether an end trigger for the main processing has been input (S60). As a result of the determination, unless a termination trigger is input, a series of processing steps from step S10 to step S50 are repeatedly executed. When the end trigger is input, for example, when the consultation at the consultation desk is completed and the switch of the voice recognition data processing system is turned off (OFF) by the consultant C2, the main processing of the voice recognition data processing system 1 ends. .

以上により、実施の形態1に係る音声認識データ処理装置10および音声認識データ処理システム1は、相談者C1の発話音声を集音するマイクM1から入力された音声データを音声認識する音声認識部12を備える。音声認識データ処理装置10および音声認識データ処理システム1は、相談者C1からの相談内容のジャンル(種別)を含む複数の項目ITとそれぞれの項目ITに対応するキーワードとが対応付けて登録されたテーブルTBを保持するメモリ16を備える。音声認識データ処理装置10および音声認識データ処理システム1は、音声データの音声認識結果とテーブルTBに登録されたキーワードとの比較に応じて、相談内容のジャンルを含む複数の項目ITのそれぞれの内容を決定するとともに、決定されたジャンルに応じて、テーブルTBに登録された複数のキーワードのうち比較に用いるキーワードを絞り込むキーワード一致判定部13(判定部の一例)を備える。音声認識データ処理装置10および音声認識データ処理システム1は、テーブルTBに登録されたキーワードまたは絞り込まれたキーワードに基づいて決定された複数の項目ITのそれぞれの内容を用いて、相談内容の要約レポートABを生成するカルテレポート生成部14(生成部の一例)を備える。   As described above, the voice recognition data processing device 10 and the voice recognition data processing system 1 according to the first embodiment provide the voice recognition unit 12 that recognizes voice data input from the microphone M1 that collects the voice of the consultant C1. Is provided. In the voice recognition data processing device 10 and the voice recognition data processing system 1, a plurality of items IT including the genre (type) of the consultation content from the consultant C1 and keywords corresponding to the respective items IT are registered in association with each other. A memory 16 for holding the table TB is provided. The voice recognition data processing device 10 and the voice recognition data processing system 1 perform the respective content of the plurality of items IT including the genre of the consultation content in accordance with the comparison between the voice recognition result of the voice data and the keyword registered in the table TB. And a keyword match determination unit 13 (an example of a determination unit) that narrows down keywords used for comparison among a plurality of keywords registered in the table TB according to the determined genre. The voice recognition data processing device 10 and the voice recognition data processing system 1 use the content of each of the plurality of items IT determined based on the keywords registered in the table TB or the narrowed-down keywords to generate a summary report of the consultation content. A medical chart report generation unit 14 (an example of a generation unit) that generates an AB is provided.

従って、実施の形態1では、音声認識データ処理装置10は、音声データの音声認識結果とテーブルに登録されたキーワードとの比較に応じて、相談内容の種別を含む複数の項目のそれぞれの内容を決定する。音声認識データ処理装置10は、決定された種別に応じて、テーブルTBに登録された複数のキーワードのうち比較に用いるキーワードを絞り込み、テーブルTBに登録されたキーワードまたは絞り込まれたキーワードに基づいて決定された複数の項目のそれぞれの内容を用いて、相談内容の要約レポートABを生成する。これにより、音声認識データ処理装置10は、要約レポートABの作成により、行政機関等の相談窓口で相談者からの相談内容の中から必要なキーワードを漏らさず効率的に絞り込み、相談内容の要約の簡易な作成を支援して相談員の負荷を低減する。その結果、相談窓口の相談対応能力を向上させることができる。   Therefore, in the first embodiment, the voice recognition data processing device 10 determines the content of each of the plurality of items including the type of the consultation content according to the comparison between the voice recognition result of the voice data and the keyword registered in the table. decide. The speech recognition data processing device 10 narrows down keywords to be used for comparison among a plurality of keywords registered in the table TB according to the determined type, and determines based on the keywords registered in the table TB or the narrowed down keywords. A summary report AB of the consultation content is generated using the contents of each of the plurality of items. Thus, the speech recognition data processing device 10 can efficiently narrow down the necessary keywords from the consultation contents from the consultant at the consultation counter of the administrative organization or the like by creating the summary report AB, and summarize the consultation contents. Support simple creation and reduce the load on consultants. As a result, the consultation service can improve the consultation response ability.

また、音声認識データ処理装置10および音声認識データ処理システム1は、生成された相談内容の要約レポートABをディスプレイ17に表示するプロセッサ11(制御部の一例)をさらに備える。これにより、相談員C2は、相談窓口で相談の応対をしながら相談内容を確認することができるので、音声認識データ処理装置10は相談員C2の負荷をさらに低減するとともに相談内容に関する相談員C2の問いかけの質も向上させることができる。   The speech recognition data processing device 10 and the speech recognition data processing system 1 further include a processor 11 (an example of a control unit) that displays the generated summary report AB of the consultation content on the display 17. Thereby, the consultant C2 can check the contents of the consultation while receiving the consultation at the consultation counter. Therefore, the voice recognition data processing device 10 further reduces the load on the consultant C2 and also consults the consultant C2 regarding the contents of the consultation. The quality of the question can also be improved.

また、音声認識データ処理装置10および音声認識データ処理システム1では、キーワード一致判定部13(判定部の一例)は、複数の項目ITのうちいずれかの項目ITに複数の内容が存在した場合に、複数の内容が対応する項目ITとの関係で矛盾するか否かを判定する。カルテレポート生成部14(生成部の一例)は、複数の内容が対応する項目ITとの関係で矛盾すると判定された場合に、複数の内容のうち少なくとも1つの内容を要確認項目と識別可能に要約レポートABを生成する。これにより、音声認識データ処理装置10は、要約レポートABの一貫性および整合性を高めて要約レポートの質を向上させ、相談員C2が後で見返す際、相談内容を一目で把握するのを容易にすることができる。   Further, in the speech recognition data processing device 10 and the speech recognition data processing system 1, the keyword match determination unit 13 (an example of a determination unit) determines whether or not a plurality of contents exist in any one of the plurality of items IT. It is determined whether or not a plurality of contents are inconsistent in relation to the corresponding item IT. When it is determined that the plurality of contents are inconsistent in relation to the corresponding item IT, the chart report generation unit 14 (an example of a generation unit) can identify at least one of the plurality of contents as the item requiring confirmation. Generate a summary report AB. Thereby, the speech recognition data processing apparatus 10 improves the consistency and consistency of the summary report AB, improves the quality of the summary report, and makes it easy for the consultant C2 to grasp the consultation content at a glance when reviewing it later. Can be

また、音声認識データ処理装置10および音声認識データ処理システム1では、カルテレポート生成部14(生成部の一例)は、要確認項目に対応する内容に下線を付与して要約レポートABを生成する。これにより、音声認識データ処理装置10は、要約レポートABでの要確認項目に対する視認性を高めるので、相談中での相談員C2に再確認を促したり、相談後での要約レポートの修正を容易にしたりすることができる。   In the speech recognition data processing device 10 and the speech recognition data processing system 1, the chart report generation unit 14 (an example of a generation unit) generates a summary report AB by adding an underline to the content corresponding to the item requiring confirmation. Accordingly, the voice recognition data processing device 10 enhances the visibility of the items requiring confirmation in the summary report AB, so that the consultant C2 during consultation is urged to reconfirm, and the summary report is easily modified after consultation. Or you can.

また、音声認識データ処理装置10および音声認識データ処理システム1では、キーワード一致判定部13(判定部の一例)は、相談者C1の発話音声の1フレーズに対応する音声データの音声認識結果を取得する度に、テーブルTBに登録されたキーワードとの比較を行う。これにより、相談窓口での相談の最中に音声認識およびキーワード比較が行われてカルテ表RTに逐次入力されて表示されるので、相談員C2はカルテ表RTの入力状況を把握しながら相談者C1の応対を行うことができる。このため、相談窓口での相談対応能力をより一層高めることができる。   In the voice recognition data processing device 10 and the voice recognition data processing system 1, the keyword match determination unit 13 (an example of a determination unit) acquires a voice recognition result of voice data corresponding to one phrase of the uttered voice of the consultant C1. Each time the keyword is compared with the keyword registered in the table TB. As a result, during the consultation at the consultation desk, the voice recognition and the keyword comparison are performed and are sequentially input and displayed on the chart table RT, so that the consultant C2 grasps the input status of the chart table RT and recognizes the consultant. C1 can be handled. For this reason, the consultation response ability at the consultation desk can be further enhanced.

(実施の形態1の変形例)
実施の形態1の変形例として、音声認識データ処理システム1は、音声認識データ処理の機能を補完したり代行したりするAI処理サーバ30をさらに有して構成されてもよい。AI処理サーバ30は、ネットワークNWに接続され、人工知能の性能が強化されて設けられる。AI処理サーバ30は、汎用のサーバーシステム(高機能なコンピュータ)で構成されており、音声認識データ処理装置10と同様に、プロセッサ31と、メモリ36と、通信回路39と、を含んで構成される。
(Modification of First Embodiment)
As a modified example of the first embodiment, the voice recognition data processing system 1 may further include an AI processing server 30 that complements or substitutes for the function of voice recognition data processing. The AI processing server 30 is connected to the network NW and provided with enhanced artificial intelligence performance. The AI processing server 30 is configured by a general-purpose server system (high-performance computer), and includes a processor 31, a memory 36, and a communication circuit 39, similarly to the speech recognition data processing device 10. You.

AI処理サーバ30のプロセッサ31は、機能的構成として同様に、キーワード一致判定部33と、カルテレポート生成部34と、AI処理部35と、を有する。但し、これらAI処理サーバ30は人工知能の性能が強化されており、また複数の相談窓口での音声データが取得可能に構成される。そのため、その人工知能のモデルは、音声認識データ処理装置10と比較して精度が高く構築可能である。従って、実施の形態1の変形例では、より高速且つより精度良く相談内容の要約の作成を支援して、相談員C2の負荷を低減することができる。   Similarly, the processor 31 of the AI processing server 30 has a keyword match determination unit 33, a chart report generation unit 34, and an AI processing unit 35 as functional configurations. However, these AI processing servers 30 have enhanced artificial intelligence performance, and are configured to be able to acquire voice data at a plurality of consultation desks. Therefore, the model of the artificial intelligence can be constructed with higher accuracy than the speech recognition data processing device 10. Therefore, in the modification of the first embodiment, it is possible to reduce the load on the consultant C2 by supporting the creation of the summary of the consultation content faster and more accurately.

(実施の形態2)
次に、図13および図14を参照して、実施の形態2に係る音声認識データ処理装置10および音声認識データ処理システム1の音声認識データ処理方法の手順について説明する。図13は、実施の形態2に係る音声認識データ処理のメインルーチンを示すフローチャートである。図14は、図13に示す相談員提示処理S70のサブルーチンを示すフローチャートである。なお、実施の形態1と同一または同等部分については、図面等に同一あるいは同等符合を付してその説明を省略あるいは簡略化する。
(Embodiment 2)
Next, a procedure of a voice recognition data processing method of the voice recognition data processing device 10 and the voice recognition data processing system 1 according to the second embodiment will be described with reference to FIGS. FIG. 13 is a flowchart showing a main routine of voice recognition data processing according to the second embodiment. FIG. 14 is a flowchart showing a subroutine of the consultant presenting process S70 shown in FIG. The same or equivalent parts as those in the first embodiment will be given the same or equivalent reference numerals in the drawings and the like, and the description thereof will be omitted or simplified.

図13および図14に示すように、実施の形態2では、カルテレポート生成処理(S50)の終了後、相談員提示処理のサブルーチンが開始される(S70)。なお、相談員提示処理S70の終了後、プロセッサ11は実施の形態1と同様に終了トリガが入力されたか否かが判定する(S60)。また、相談員提示処理S60はプロセッサ11のAI処理部15(提示処理部の一例)により主に実行されるが、これに限定されず、前述のAI処理サーバ30のAI処理部35がその処理を補佐または代理可能なように構成してもよい。   As shown in FIGS. 13 and 14, in the second embodiment, after the chart report generation processing (S50) ends, a subroutine of the consultant presentation processing is started (S70). After the end of the consultant presenting process S70, the processor 11 determines whether or not an end trigger has been input as in the first embodiment (S60). In addition, the counselor presentation processing S60 is mainly executed by the AI processing unit 15 (an example of the presentation processing unit) of the processor 11, but is not limited thereto. The AI processing unit 35 of the AI processing server 30 performs the processing. May be configured to be able to assist or substitute.

相談員提示処理S70では、プロセッサ11のAI処理部15は、カルテ表RTの決定状況応じて、所定の優先順位に従って内容が未だ決定されていない未決定の項目ITの項目ITの有無を検索する(S71)。検索の結果、AI処理部15は未決定の項目ITがあるか否かを判定する(S72)。未決定の項目ITがないと判定する場合、相談員提示処理S70は終了する。   In the consultant presenting process S70, the AI processing unit 15 of the processor 11 searches for the presence or absence of the item IT of the item IT whose content has not yet been determined according to a predetermined priority order according to the determination status of the chart table RT. (S71). As a result of the search, the AI processing unit 15 determines whether there is an undetermined item IT (S72). When it is determined that there is no undetermined item IT, the consultant presenting process S70 ends.

その一方、未決定の項目ITがあると判定する場合、AI処理部15は「相談員(C2)が次に尋ねるべき項目」として未決定の項目ITに関する情報を、ディスプレイ17を通じて提示する。例えば、AI処理部15は相談内容のジャンルが決定済みで被害状況の項目ITが未決定である場合、「被害状況を尋ねて下さい。」と相談員C2に提示する。その提示後、相談員提示処理S70は終了する。なお、優先順位に関する情報は事前に設定されており、音声認識データ処理装置10のメモリ16に記憶保持される。   On the other hand, when it is determined that there is an undetermined item IT, the AI processing unit 15 presents information about the undetermined item IT through the display 17 as “item to be asked next by the consultant (C2)”. For example, when the genre of the consultation content has been determined and the item IT of the damage status has not been determined, the AI processing unit 15 presents “Please ask for the damage status” to the consultant C2. After the presentation, the consultant presentation process S70 ends. The information on the priority is set in advance, and is stored in the memory 16 of the speech recognition data processing device 10.

以上により、実施の形態2に係る音声認識データ処理装置10および音声認識データ処理システム1は、複数の項目ITのそれぞれの内容の決定状況に応じて、内容が未だ決定されていない項目ITの有無を検索し、未決定の項目ITに関する情報をディスプレイ17に表示するAI処理部(提示処理部の一例)を備える。これにより、相談員C2は、相談者C1からの相談内容を漏れなく聞き出せるので、相談内容の質をより高め、相談窓口の相談対応能力をさらに向上させることができる。その他の構成や作用効果については、上記実施の形態1と同様である。   As described above, the voice recognition data processing device 10 and the voice recognition data processing system 1 according to the second embodiment determine whether or not there is an item IT whose content has not yet been determined according to the determination status of each of the plurality of items IT. And an AI processing unit (an example of a presentation processing unit) for displaying information on the undetermined item IT on the display 17. Thereby, the consultant C2 can hear the contents of the consultation from the consultant C1 without omission, so that the quality of the consultation contents can be further improved, and the consultation service ability of the consultation counter can be further improved. Other configurations and operational effects are the same as those in the first embodiment.

(実施の形態3)
次に、図15を参照して、実施の形態3に係る音声認識データ処理装置10および音声認識データ処理システム1の音声認識データ処理方法の手順について説明する。図15は、実施の形態3に係る相談員提示処理S70を示すフローチャートである。なお、実施の形態1および形態2と同一または同等部分については、図面等に同一あるいは同等符合を付してその説明を省略あるいは簡略化する。
(Embodiment 3)
Next, a procedure of a speech recognition data processing method of the speech recognition data processing device 10 and the speech recognition data processing system 1 according to the third embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing a consultant presentation process S70 according to the third embodiment. The same or equivalent parts as those in the first and second embodiments are given the same or equivalent reference numerals in the drawings and the like, and the description thereof is omitted or simplified.

図15に示すように、実施の形態3の相談員提示処理S70では、音声認識データ処理装置10のAI処理部15(提示処理部の一例)は、相談員C2から相談者C1へ提案するために必要な情報が揃っているか検索する(S75)。検索の結果、AI処理部15は、相談内容のジャンルを含む複数の項目ITのそれぞれの内容の決定数が所定値で、且つ少なくともジャンルの内容が決定されているか否かを判定する(S76)。例えばAI処理部15は、図1に示す項目ITの項番NOの第1〜第5の内容が決定済みか否かを判定する。未決定と判定する場合、相談員提示処理S70は終了する。   As shown in FIG. 15, in the counselor presentation process S70 of the third embodiment, the AI processing unit 15 (an example of a presentation processing unit) of the voice recognition data processing device 10 proposes from the counselor C2 to the counselor C1. A search is made to see if the necessary information is available (S75). As a result of the search, the AI processing unit 15 determines whether or not the number of determined contents of each of the plurality of items IT including the genre of the consultation content is a predetermined value, and at least whether the content of the genre is determined (S76). . For example, the AI processing unit 15 determines whether the first to fifth contents of the item number NO of the item IT illustrated in FIG. 1 have been determined. If it is determined that no decision has been made, the consultant presenting process S70 ends.

その一方、決定済みと判定する場合、AI処理部15は決定済みの内容に基づきジャンルに対応する対策の提案内容を生成する(S77)。このとき、AI処理部15はルール(規定)が事前に規定された所定のハッシュテーブルに従って提案内容を一意に決定する。AI処理部15は、生成した提案内容のテキストをディスプレイ17に提示し(S78)、相談員提示処理S70は終了する。   On the other hand, if it is determined that the decision has been made, the AI processing unit 15 generates the proposal content of the measure corresponding to the genre based on the decided content (S77). At this time, the AI processing unit 15 uniquely determines the content of the proposal in accordance with a predetermined hash table in which rules (regulations) are prescribed in advance. The AI processing unit 15 presents the generated text of the proposal content on the display 17 (S78), and the consultant presenting process S70 ends.

なお、AI処理部15は、ハッシュテーブル等のルールベースに従った手法に限定されず、人工知能を用いて過去の履歴を参照して提案内容を機械学習しておき、その機械学習で得た学習モデルに従って決定してもよい。また、学習モデルをAI処理サーバ30で生成してもよい。この場合、複数の相談窓口の相談内容から学習モデルが生成されるので、精度の良い学習モデルを生成することができる。   Note that the AI processing unit 15 is not limited to a method according to a rule base such as a hash table, but uses artificial intelligence to refer to a past history and machine-learns the proposal contents, and obtains the proposed contents by the machine learning. The determination may be made according to a learning model. The learning model may be generated by the AI processing server 30. In this case, since a learning model is generated from the consultation contents of a plurality of consultation desks, a highly accurate learning model can be generated.

以上により、実施の形態3に係る音声認識データ処理装置10および音声認識データ処理システム1は、相談内容のジャンル(種別)を含む複数の項目ITのそれぞれの内容の決定数が所定値で、かつ少なくともジャンルの内容が決定された場合に、ジャンルの内容に対応する対策の提案内容を生成してディスプレイ17に表示するAI処理部15(提示処理部の一例)を備える。これにより、相談内容に基づいて提案内容を適切且つ自動的に導き出して相談員C2に提示するので、相談者C1に対する支援を容易にして相談員C2の負荷をより低減することができる。その他の構成や作用効果については、上記実施の形態1および形態2と同様である。   As described above, in the voice recognition data processing device 10 and the voice recognition data processing system 1 according to the third embodiment, the number of determined contents of each of the plurality of items IT including the genre (type) of the consultation content is the predetermined value, and An AI processing unit 15 (an example of a presentation processing unit) that generates proposal contents of measures corresponding to the contents of the genre and displays it on the display 17 when at least the contents of the genre is determined. Thereby, since the proposal content is appropriately and automatically derived based on the consultation content and is presented to the consultant C2, the support for the consultant C1 is facilitated and the load on the consultant C2 can be further reduced. Other configurations and operational effects are the same as those in the first and second embodiments.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。   Although various embodiments have been described with reference to the drawings, it is needless to say that the present disclosure is not limited to such examples. It is clear that those skilled in the art can conceive various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that they belong to the technical scope of the present disclosure. Further, the components in the above-described various embodiments may be arbitrarily combined without departing from the spirit of the invention.

本開示は、行政機関等の相談窓口で相談者からの相談内容の中から必要なキーワードを漏らさず効率的に絞り込み、相談内容の要約の簡易な作成を支援して相談員の負荷を低減して、相談対応能力を向上させることができる音声認識データ処理装置、音声認識データ処理システム、および音声認識データ処理方法として有用である。   This disclosure reduces the burden on counselors by efficiently narrowing down the required keywords from the contents of consultations from consultants at consultation counters of administrative agencies, etc., and supporting simple creation of summaries of consultation contents. Therefore, the present invention is useful as a voice recognition data processing device, a voice recognition data processing system, and a voice recognition data processing method capable of improving consultation ability.

1 音声認識データ処理システム
10 音声認識データ処理装置
11 プロセッサ
12 音声認識部
13 キーワード一致判定部
14 カルテレポート生成部
15 AI処理部
16 メモリ
17 ディスプレイ
18 入出力インターフェイス回路
19 通信回路
20 音声認識サーバ
30 AI処理サーバ
31 プロセッサ
33 キーワード一致判定部
34 カルテレポート生成部
35 AI処理部
36 メモリ
39 通信回路
M1 マイク
M2 マイク
NW ネットワーク
TB テーブル
AB 要約レポート
1 Speech Recognition Data Processing System 10 Speech Recognition Data Processing Device 11 Processor 12 Speech Recognition Unit 13 Keyword Match Determination Unit 14 Medical Record Report Generation Unit 15 AI Processing Unit 16 Memory 17 Display 18 Input / Output Interface Circuit 19 Communication Circuit 20 Speech Recognition Server 30 AI Processing server 31 Processor 33 Keyword match determination unit 34 Medical record report generation unit 35 AI processing unit 36 Memory 39 Communication circuit M1 Microphone M2 Microphone NW Network TB Table AB Summary report

Claims (9)

相談者の発話音声を集音するマイクから入力された音声データを音声認識する音声認識部と、
前記相談者からの相談内容の種別を含む複数の項目とそれぞれの前記項目に対応するキーワードとが対応付けて登録されたテーブルを保持するメモリと、
前記音声データの音声認識結果と前記テーブルに登録されたキーワードとの比較に応じて、前記相談内容の種別を含む複数の項目のそれぞれの内容を決定するとともに、前記決定された種別に応じて、前記テーブルに登録された複数のキーワードのうち前記比較に用いるキーワードを絞り込む判定部と、
前記テーブルに登録されたキーワードまたは前記絞り込まれたキーワードに基づいて決定された前記複数の項目のそれぞれの内容を用いて、前記相談内容の要約レポートを生成する生成部と、を備える、
音声認識データ処理装置。
A voice recognition unit that recognizes voice data input from a microphone that collects speech of a consultant,
A memory that holds a table in which a plurality of items including the type of consultation content from the consultant and a keyword corresponding to each of the items are registered in association with each other;
According to the comparison between the voice recognition result of the voice data and the keyword registered in the table, the content of each of the plurality of items including the type of the consultation content is determined, and according to the determined type, A determination unit that narrows down keywords used for the comparison among a plurality of keywords registered in the table;
A generating unit that generates a summary report of the consultation content, using the content of each of the plurality of items determined based on the keyword registered in the table or the narrowed keyword,
Voice recognition data processing device.
生成された前記相談内容の要約レポートをディスプレイに表示する制御部、をさらに備える、
請求項1に記載の音声認識データ処理装置。
A control unit for displaying the generated summary report of the consultation content on a display, further comprising:
The speech recognition data processing device according to claim 1.
前記判定部は、前記複数の項目のうちいずれかの項目に複数の内容が存在した場合に、前記複数の内容が対応する項目との関係で矛盾するか否かを判定し、
前記生成部は、前記複数の内容が対応する項目との関係で矛盾すると判定された場合に、前記複数の内容のうち少なくとも1つの内容を要確認項目であることが識別可能に前記要約レポートを生成する、
請求項1に記載の音声認識データ処理装置。
The determination unit, when there is a plurality of contents in any of the plurality of items, determines whether the plurality of contents are inconsistent in relation to a corresponding item,
The generating unit, when it is determined that the plurality of contents are inconsistent with a corresponding item, the summary report so that at least one of the plurality of contents can be identified as a required item. Generate,
The speech recognition data processing device according to claim 1.
前記生成部は、前記要確認項目に対応する内容に下線を付与して前記要約レポートを生成する、
請求項3に記載の音声認識データ処理装置。
The generation unit generates the summary report by adding an underline to the content corresponding to the item requiring confirmation,
The voice recognition data processing device according to claim 3.
前記判定部は、前記相談者の発話音声の1フレーズに対応する前記音声データの音声認識結果を取得する度に、前記テーブルに登録されたキーワードとの比較を行う、
請求項1〜4のうちいずれか一項に記載の音声認識データ処理装置。
The determination unit performs a comparison with a keyword registered in the table each time a voice recognition result of the voice data corresponding to one phrase of the utterance voice of the consultant is obtained.
The speech recognition data processing device according to claim 1.
前記複数の項目のそれぞれの内容の決定状況に応じて、内容が未だ決定されていない項目の有無を検索し、未決定項目に関する情報をディスプレイに表示する提示処理部、をさらに備える、
請求項1に記載の音声認識データ処理装置。
A presentation processing unit that searches for the presence or absence of an item whose content has not yet been determined, according to the determination status of the content of each of the plurality of items, and displays information about the undetermined item on a display.
The speech recognition data processing device according to claim 1.
前記相談内容の種別を含む複数の項目のそれぞれの内容の決定数が所定値で、かつ少なくとも前記種別の内容が決定された場合に、前記種別の内容に対応する対策の提案内容を生成してディスプレイに表示する提示処理部、をさらに備える、
請求項1に記載の音声認識データ処理装置。
When the number of determined contents of each of the plurality of items including the type of the consultation content is a predetermined value, and at least the content of the type is determined, a proposal content of a measure corresponding to the content of the type is generated. A presentation processing unit for displaying on a display,
The speech recognition data processing device according to claim 1.
相談者の発話音声を集音するマイクから入力された音声データを音声認識する音声認識部と、
前記相談者からの相談内容の種別を含む複数の項目とそれぞれの前記項目に対応するキーワードとが対応付けて登録されたテーブルを保持するメモリと、
前記音声データの音声認識結果と前記テーブルに登録されたキーワードとの比較に応じて、前記相談内容の種別を含む複数の項目のそれぞれの内容を決定するとともに、前記決定された種別に応じて、前記テーブルに登録された複数のキーワードのうち前記比較に用いるキーワードを絞り込む判定部と、
前記テーブルに登録されたキーワードまたは前記絞り込まれたキーワードに基づいて決定された前記複数の項目のそれぞれの内容を用いて、前記相談内容の要約レポートを生成する生成部と、を備える、
音声認識データ処理システム。
A voice recognition unit that recognizes voice data input from a microphone that collects speech of a consultant,
A memory that holds a table in which a plurality of items including the type of consultation content from the consultant and a keyword corresponding to each of the items are registered in association with each other;
According to the comparison between the voice recognition result of the voice data and the keyword registered in the table, the content of each of the plurality of items including the type of the consultation content is determined, and according to the determined type, A determination unit that narrows down keywords used for the comparison among a plurality of keywords registered in the table;
A generating unit that generates a summary report of the consultation content, using the content of each of the plurality of items determined based on the keyword registered in the table or the narrowed keyword,
Voice recognition data processing system.
相談者からの相談内容の種別を含む複数の項目とそれぞれの前記項目に対応するキーワードとが対応付けて登録されたテーブルを保持するメモリを有する音声認識データ処理システムにおいて、
前記相談者の発話音声を集音するマイクから入力された音声データを音声認識するステップと、
前記音声データの音声認識結果と前記テーブルに登録されたキーワードとの比較に応じて、前記相談内容の種別を含む複数の項目のそれぞれの内容を決定するステップと、
前記決定された種別に応じて、前記テーブルに登録された複数のキーワードのうち前記比較に用いるキーワードを絞り込むステップと、
前記テーブルに登録されたキーワードまたは前記絞り込まれたキーワードに基づいて決定された前記複数の項目のそれぞれの内容を用いて、前記相談内容の要約レポートを生成するステップと、を有する、
音声認識データ処理方法。
In a voice recognition data processing system having a memory that holds a table in which a plurality of items including a type of consultation content from a consultant and a keyword corresponding to each of the items are registered in association with each other,
Voice recognition of voice data input from a microphone that collects the utterance voice of the consultant;
Determining the content of each of a plurality of items including the type of the consultation content according to a comparison between the voice recognition result of the voice data and the keyword registered in the table;
Narrowing down a keyword used for the comparison among a plurality of keywords registered in the table according to the determined type;
Generating a summary report of the consultation content by using the content of each of the plurality of items determined based on the keyword registered in the table or the narrowed keyword,
Voice recognition data processing method.
JP2018137875A 2018-07-23 2018-07-23 Speech recognition data processing device, speech recognition data processing system and speech recognition data processing method Active JP7236669B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018137875A JP7236669B2 (en) 2018-07-23 2018-07-23 Speech recognition data processing device, speech recognition data processing system and speech recognition data processing method
PCT/JP2019/027461 WO2020022079A1 (en) 2018-07-23 2019-07-11 Speech recognition data processor, speech recognition data processing system, and speech recognition data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137875A JP7236669B2 (en) 2018-07-23 2018-07-23 Speech recognition data processing device, speech recognition data processing system and speech recognition data processing method

Publications (2)

Publication Number Publication Date
JP2020016949A true JP2020016949A (en) 2020-01-30
JP7236669B2 JP7236669B2 (en) 2023-03-10

Family

ID=69180996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137875A Active JP7236669B2 (en) 2018-07-23 2018-07-23 Speech recognition data processing device, speech recognition data processing system and speech recognition data processing method

Country Status (2)

Country Link
JP (1) JP7236669B2 (en)
WO (1) WO2020022079A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210114740A (en) * 2020-03-11 2021-09-24 삼성생명보험주식회사 Method to analyze consultation data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450796B (en) * 2021-06-29 2023-09-19 平安养老保险股份有限公司 Voice report generation method, device, equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240536A (en) * 1997-02-27 1998-09-11 Mitsubishi Electric Corp Device and method for instance retrieval and device and method for structuring instance base
JP2000259713A (en) * 1999-03-05 2000-09-22 Tadamitsu Ryu Typical document preparing system based on speech recognition of conversation
JP2011065304A (en) * 2009-09-16 2011-03-31 Oki Electric Industry Co Ltd Server for customer service operation, customer service system using the server and method for calculating prediction end time of customer service operation
JP2013037401A (en) * 2011-08-03 2013-02-21 Shiseido Co Ltd Counseling system, counseling device, client terminal and counseling program
JP2016021196A (en) * 2014-07-15 2016-02-04 パナソニックIpマネジメント株式会社 Order input system and order input method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240536A (en) * 1997-02-27 1998-09-11 Mitsubishi Electric Corp Device and method for instance retrieval and device and method for structuring instance base
JP2000259713A (en) * 1999-03-05 2000-09-22 Tadamitsu Ryu Typical document preparing system based on speech recognition of conversation
JP2011065304A (en) * 2009-09-16 2011-03-31 Oki Electric Industry Co Ltd Server for customer service operation, customer service system using the server and method for calculating prediction end time of customer service operation
JP2013037401A (en) * 2011-08-03 2013-02-21 Shiseido Co Ltd Counseling system, counseling device, client terminal and counseling program
JP2016021196A (en) * 2014-07-15 2016-02-04 パナソニックIpマネジメント株式会社 Order input system and order input method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210114740A (en) * 2020-03-11 2021-09-24 삼성생명보험주식회사 Method to analyze consultation data
KR102540562B1 (en) * 2020-03-11 2023-06-05 삼성생명보험주식회사 Method to analyze consultation data

Also Published As

Publication number Publication date
WO2020022079A1 (en) 2020-01-30
JP7236669B2 (en) 2023-03-10

Similar Documents

Publication Publication Date Title
US6895257B2 (en) Personalized agent for portable devices and cellular phone
US9245254B2 (en) Enhanced voice conferencing with history, language translation and identification
US9053096B2 (en) Language translation based on speaker-related information
JP5857090B2 (en) Information search device, information search program, and information search system
US20130144619A1 (en) Enhanced voice conferencing
US9483582B2 (en) Identification and verification of factual assertions in natural language
JP2001273283A (en) Method for identifying language and controlling audio reproducing device and communication device
US11501764B2 (en) Apparatus for media entity pronunciation using deep learning
CN106713111B (en) Processing method for adding friends, terminal and server
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
KR101891498B1 (en) Method, computer device and computer readable recording medium for multi domain service resolving the mixture of multi-domain intents in interactive ai agent system
US20180068659A1 (en) Voice recognition device and voice recognition method
CN111063355A (en) Conference record generation method and recording terminal
WO2020022079A1 (en) Speech recognition data processor, speech recognition data processing system, and speech recognition data processing method
JP2018197924A (en) Information processing apparatus, interactive processing method, and interactive processing program
JP2014232258A (en) Coordination business supporting device, method and program
JP6576847B2 (en) Analysis system, analysis method, and analysis program
JP2012168349A (en) Speech recognition system and retrieval system using the same
US20230163988A1 (en) Computer-implemented system and method for providing an artificial intelligence powered digital meeting assistant
KR20130116128A (en) Question answering system using speech recognition by tts, its application method thereof
CN108831473B (en) Audio processing method and device
JP2008022493A (en) Reception support system and its program
JP2021173988A (en) Voice analysis system
JP4622861B2 (en) Voice input system, voice input method, and voice input program
US11545138B1 (en) Voice review analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R151 Written notification of patent or utility model registration

Ref document number: 7236669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151