JP7088645B2 - Data converter - Google Patents
Data converter Download PDFInfo
- Publication number
- JP7088645B2 JP7088645B2 JP2017179920A JP2017179920A JP7088645B2 JP 7088645 B2 JP7088645 B2 JP 7088645B2 JP 2017179920 A JP2017179920 A JP 2017179920A JP 2017179920 A JP2017179920 A JP 2017179920A JP 7088645 B2 JP7088645 B2 JP 7088645B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- sound
- sound data
- section
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Document Processing Apparatus (AREA)
Description
本発明は、データ変換装置に関する。 The present invention relates to a data conversion device.
従来、人が話す音声等を含む音データを、テキストデータに変換する技術が研究されている。音データをテキストデータに変換する技術によれば、ある言語を用いて行われた会話やスピーチを録音して、その内容を文字に変換することができる。このような技術は、議事録の自動作成や翻訳の前処理に応用されている。 Conventionally, a technique for converting sound data including voice spoken by a person into text data has been studied. According to the technique of converting sound data into text data, it is possible to record conversations and speeches made in a certain language and convert the contents into characters. Such techniques have been applied to the automatic creation of minutes and the pre-processing of translations.
議事録の自動作成に関して、下記特許文献1には、複数の話者の音声を符号化した音声データを文字情報に変換して議事録を作成する議事録自動作成システムであって、文字情報への変換を終えた音声データの一部分が全体に占める割合である変換進捗度と仕上がり希望日から処理優先度をタスク毎に算出し、変換進捗度及び処理優先度に基づいて少なくとも1つの特定分野辞書とその収録語彙数を選択することで議事録の精度を調節する議事録自動作成システムが記載されている。 Regarding the automatic creation of minutes, the following Patent Document 1 describes an automatic minutes creation system that creates minutes by converting voice data in which voices of a plurality of speakers are encoded into text information, and to text information. The processing priority is calculated for each task from the conversion progress and the desired finish date, which is the ratio of a part of the converted voice data to the whole, and at least one specific field dictionary is calculated based on the conversion progress and the processing priority. And the minutes automatic creation system that adjusts the accuracy of the minutes by selecting the number of recorded vocabulary is described.
近年、音データからテキストデータへの変換を高精度で行うことのできる言語モデルがクラウドサービスの形態で提供されるようになり、音データをテキストデータに変換する技術が容易に利用できるようになりつつある。そのようなサービスでは、インターネットを介して音データの入力を受け付けて、サーバに記憶された言語モデルによって、入力された音データに基づいてテキストデータを生成し、得られたテキストデータを、インターネットを介してクライアントに返送する。 In recent years, a language model capable of converting sound data to text data with high accuracy has been provided in the form of a cloud service, and technology for converting sound data to text data has become easily available. It's getting better. Such services accept input of sound data via the Internet, generate text data based on the input sound data by the language model stored in the server, and use the obtained text data on the Internet. Send it back to the client via.
音データをテキストデータに変換するクラウドサービスは、利便性が高い反面、任意のユーザによって利用可能な場合があるため、秘密情報を含む音データをテキストデータに変換したい場合には利用しづらいことがあった。例えば、会議において外部に流出してはならない会話が行われた場合、会議の録音をクラウドサービスによってテキストデータに変換することは、セキュリティの観点から推奨されないことがある。 The cloud service that converts sound data to text data is highly convenient, but it may be available to any user, so it may be difficult to use if you want to convert sound data containing confidential information to text data. there were. For example, when a conversation that should not be leaked to the outside is held in a conference, it may not be recommended from the viewpoint of security to convert the recording of the conference into text data by a cloud service.
そこで、本発明は、利便性とセキュリティを両立させて、音データをテキストデータに変換することのできるデータ変換装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a data conversion device capable of converting sound data into text data while achieving both convenience and security.
本発明の一態様に係るデータ変換装置は、入力される一連の音に所定の音が含まれているか否かを判定する判定部と、少なくとも、一連の音のうち所定の音に基づいて特定される区間の音のデータを記憶する記憶部と、判定部により一連の音に所定の音が含まれていると判定された場合に、音データに基づいてテキストデータを生成するサーバに対して、区間の音のデータを送信する送信部と、サーバから、区間の音のデータに基づいて生成されたテキストデータを受信する受信部と、を備える。 The data conversion device according to one aspect of the present invention is specified based on a determination unit for determining whether or not a predetermined sound is included in a series of input sounds, and at least a predetermined sound among the series of sounds. For the storage unit that stores the sound data of the section to be processed and the server that generates text data based on the sound data when it is determined by the determination unit that the series of sounds contains a predetermined sound. , A transmitting unit for transmitting section sound data, and a receiving unit for receiving text data generated based on the section sound data from the server.
この態様によれば、所定の音に基づいて特定される区間の音のデータをサーバに送信し、入力される音のデータ全体をサーバに送信しないことで、外部に流出してはならない音が入力された場合であっても、テキストデータに変換する区間を限定することができ、クラウドサービスの利便性とセキュリティを両立させて、音データをテキストデータに変換することができる。 According to this aspect, the sound data of the specified section based on a predetermined sound is transmitted to the server, and the entire input sound data is not transmitted to the server, so that the sound that should not be leaked to the outside is produced. Even if it is input, the section to be converted into text data can be limited, and the sound data can be converted into text data while achieving both convenience and security of the cloud service.
また、上記態様において、記憶部は、判定部により一連の音に所定の音が含まれていると判定された場合に、所定の音より後に入力される一連の音の少なくとも一部を区間の音のデータとして記憶してもよい。 Further, in the above embodiment, when the determination unit determines that the series of sounds contains a predetermined sound, the storage unit may use at least a part of the series of sounds input after the predetermined sound in the section. It may be stored as sound data.
この態様によれば、所定の音より後に入力される一連の音の少なくとも一部を区間の音のデータとして記憶することで、記憶部に記憶すべき音データの容量を少なくすることができ、記憶された音のデータに所定の音が含まれているか否かを処理する必要が無いため、演算負荷を減らすことができる。 According to this aspect, by storing at least a part of a series of sounds input after a predetermined sound as sound data of a section, the capacity of sound data to be stored in the storage unit can be reduced. Since it is not necessary to process whether or not a predetermined sound is included in the stored sound data, the calculation load can be reduced.
また、上記態様において、記憶部は、一連の音のデータを記憶し、記憶部に記憶された一連の音のデータから、所定の音より後に入力された一連の音の少なくとも一部を区間の音のデータとして抽出する抽出部をさらに備えてもよい。 Further, in the above aspect, the storage unit stores data of a series of sounds, and at least a part of the series of sounds input after the predetermined sound is set as a section from the data of the series of sounds stored in the storage unit. Further, an extraction unit for extracting as sound data may be provided.
この態様によれば、入力される一連の音のデータを記憶し、所定の音より後に入力された一連の音の少なくとも一部を抽出することで、抽出された区間の音のデータ以外のデータであっても事後的に選択してサーバに送信し、テキストに変換することができるようになる。 According to this aspect, data other than the sound data of the extracted section is stored by storing the data of the input series of sounds and extracting at least a part of the series of sounds input after the predetermined sound. Even so, you will be able to select it after the fact, send it to the server, and convert it to text.
また、上記態様において、区間の音のデータを、複数の音データに分割する分割部をさらに備え、送信部は、複数の音データの順序を入れ替えて、複数の音データをサーバに送信し、受信部は、複数の音データに基づいて生成された複数のテキストデータを受信し、送信部による複数の音データの順序の入れ替えに基づいて、複数のテキストデータを一つのテキストデータに合成する合成部をさらに備えてもよい。 Further, in the above embodiment, a division unit for dividing the sound data of the section into a plurality of sound data is further provided, and the transmission unit rearranges the order of the plurality of sound data and transmits the plurality of sound data to the server. The receiver receives a plurality of text data generated based on a plurality of sound data, and synthesizes the plurality of text data into one text data based on the rearrangement of the order of the plurality of sound data by the transmitter. Further units may be provided.
この態様によれば、所定の音に基づいて特定された区間の音のデータを、複数の音データに分割して、その順序を入れ替えてサーバに送信することで、送信した音データの内容が第三者に読み取られることを防止することができる。 According to this aspect, the sound data of the section specified based on a predetermined sound is divided into a plurality of sound data, and the order is changed and transmitted to the server, so that the content of the transmitted sound data can be obtained. It is possible to prevent it from being read by a third party.
また、上記態様において、送信部は、複数の音データを、音データに基づいてテキストデータを生成する複数のサーバに分配して送信してもよい。 Further, in the above aspect, the transmission unit may distribute and transmit a plurality of sound data to a plurality of servers that generate text data based on the sound data.
この態様によれば、所定の音に基づいて特定された区間の音のデータを、複数の音データに分割して、複数のサーバに分配して送信することで、それぞれのサーバに送信した音データの内容から全体の内容を再現することが困難となり、音データの内容が第三者に読み取られるおそれをさらに低減させることができる。 According to this aspect, sound data in a section specified based on a predetermined sound is divided into a plurality of sound data, distributed to a plurality of servers, and transmitted to each server. It becomes difficult to reproduce the entire content from the content of the data, and the possibility that the content of the sound data is read by a third party can be further reduced.
本発明によれば、利便性とセキュリティを両立させて、音データをテキストデータに変換することのできるデータ変換装置を提供することができる。 According to the present invention, it is possible to provide a data conversion device capable of converting sound data into text data while achieving both convenience and security.
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 An embodiment of the present invention will be described with reference to the accompanying drawings. In each figure, those with the same reference numerals have the same or similar configurations.
図1は、本発明の実施形態に係るデータ変換装置10のネットワーク構成を示す図である。データ変換装置10は、マイクロフォン等の入力部によって入力される一連の音から所定の区間の音のデータを切り出して、当該区間の音のデータを、通信ネットワークNを介して第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40の少なくともいずれかに送信する。第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40は、受信した音データに基づいてテキストデータを生成するサーバであり、生成したテキストデータをデータ変換装置10に返送する。
FIG. 1 is a diagram showing a network configuration of a
ここで、通信ネットワークNは、有線又は無線の通信網であり、例えばインターネットであってよい。第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40は、通信ネットワークNを介して、いわゆるパブリッククラウドの形態で、音声データをテキストデータに変換するサービスを提供するサーバであってよい。すなわち、第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40は、利用者を限定せずに、音声データをテキストデータに変換するサービスを提供するサーバであってよい。なお、本例では、仮に3台のサーバが通信ネットワークNに接続されている場合を示しているが、パブリッククラウドとして利用可能な音声認識サーバの台数は3台に限られず、任意である。また、データ変換装置10は、パブリッククラウドのみならず、プライベートクラウドの形態(すなわち利用者を限定する形態)で、音声データをテキストデータに変換するサービスを提供するサーバに接続されてもよい。
Here, the communication network N is a wired or wireless communication network, and may be, for example, the Internet. The first
データ変換装置10は、例えば、会議において録音された音のデータから、議事録として記録すべき内容が含まれる区間の音のデータを切り出す。データ変換装置10は、会議において録音された音のデータ全体を第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40に送信することはせず、議事録として記録すべき内容が含まれる区間の音のデータを切り出して、当該区間の音のデータを第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40の少なくともいずれかに送信する。このように、会議において録音された音のデータ全体をサーバに送信せず、テキスト化すべき区間の音のデータを切り出してサーバに送信することで、会議において外部に流出してはならない会話が行われた場合であっても、テキストデータに変換する区間を限定することができ、クラウドサービスの利便性とセキュリティを両立させて、音データをテキストデータに変換することができる。
The
図2は、本発明の実施形態に係るデータ変換装置10の物理的な構成を示す図である。データ変換装置10は、ハードウェアプロセッサに相当するCPU(Central Processing Unit)10aと、メモリに相当するRAM(Random Access Memory)10bと、メモリに相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fとを有する。これら各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例ではデータ変換装置10が一台のコンピュータで構成される場合について説明するが、データ変換装置10は、複数のコンピュータを用いて実現されてもよい。
FIG. 2 is a diagram showing a physical configuration of the
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、音データからテキストデータへの変換の制御に関するプログラム(データ変換プログラム)を実行する演算装置である。CPU10aは、入力部10eや通信部10dから種々の入力データを受け取り、入力データの演算結果を表示部10fに表示したり、RAM10bやROM10cに格納したりする。
The
RAM10bは、データの書き換えが可能な記憶部であり、例えば半導体記憶素子で構成される。RAM10bは、CPU10aが実行するアプリケーション等のプログラムやデータを記憶する。
The
ROM10cは、データの読み出しのみが可能な記憶部であり、例えば半導体記憶素子で構成される。ROM10cは、例えばファームウェア等のプログラムやデータを記憶する。
The
通信部10dは、データ変換装置10を通信ネットワークNに接続するインターフェースであり、例えば、有線又は無線回線のデータ伝送路により構成されたLAN(Local Area Network)、WAN(Wide Area Network)、インターネット等の通信ネットワークNに接続される。
The
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、マイクロフォン、キーボード、マウス及びタッチパネルを含む。
The
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成される。
The
データ変換プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。データ変換装置10では、CPU10aがデータ変換プログラムを実行することにより、次図を用いて説明する様々な機能が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、データ変換装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
The data conversion program may be stored in a storage medium readable by a computer such as
図3は、本実施形態に係るデータ変換装置10の機能ブロックを示す図である。データ変換装置10は、判定部11、音データ記憶部12、送信部13、抽出部14、分割部15、受信部16、合成部17、修正部18及び議事録記憶部19を備える。なお、本例では、これらの機能部が一台のコンピュータで実現される場合について説明するが、これらの機能部は、複数のコンピュータによって実現されていてもよい。
FIG. 3 is a diagram showing a functional block of the
判定部11は、入力部10eにより入力される一連の音に所定の音が含まれているか否かを判定する。ここで、所定の音は、予め設定された音であればどのような音であってもよいが、例えば、物理的なベルを鳴らした音であったり、電子的に合成された音であったりしてよい。判定部11は、所定の音を認識できるように予め学習されたRNN(Recurrent Neural Network)等の学習済みモデルであってよい。会議においてデータ変換装置10を利用するユーザは、議事録に記録すべき発言が行われる前に、所定の音を鳴らして、その後に発言される内容をテキスト化するように指定することができる。
The
また、所定の音は、所定の規則に従った発言であってもよい。例えば、判定部11は、約2秒間の沈黙に続いて「議事録お願いします」と発言されたか否かによって、所定の音が含まれているか否かを判定してもよい。このような場合も、判定部11は、所定の音を認識できるように予め学習されたRNN等であってよい。そして、所定の音は、ユーザ毎に設定できる構成であってもよく、話者別若しくはシステム利用者別に所定の音を設定でき、各ユーザが任意のタイミングで議事録対象を特定する動作を行うことができる構成であってもよい。また、後説する議事録に音声認識結果後のテキストを挿入する例においても、ユーザ毎に議事録を記憶し、所定の音を発話したユーザ用に音声認識を実施して対象ユーザ用の音声認識結果を対象ユーザ用の議事録に挿入する構成にすることもでき、ユーザ個別の議事録を個別に保有することとしてもよい。そして、議事録担当者のみが自己が保有する議事録を編集した後に、共有用に当該議事録をファイルサーバにアップロードすることも可能である。
Further, the predetermined sound may be a statement according to a predetermined rule. For example, the
音データ記憶部12は、少なくとも、入力部10eにより入力される一連の音のうち所定の音に基づいて特定される区間の音のデータを記憶する。音データ記憶部12は、判定部11により一連の音に所定の音が含まれていると判定された場合に、所定の音より後に入力される一連の音の少なくとも一部を、所定の音に基づいて特定される区間の音のデータとして記憶してもよい。例えば、音データ記憶部12は、所定の音より後に入力され、再度所定の音が入力されるまでの区間の音のデータを記憶してもよい。この場合、音データ記憶部12は、所定の音が録音区間に含まれないように、音データを記憶してもよい。このように、所定の音より後に入力される一連の音の少なくとも一部を区間の音のデータとして記憶することで、記憶部に記憶すべき音データの容量を少なくすることができ、記憶された音のデータに所定の音が含まれているか否かを事後的に判定する必要が無いため、演算負荷を減らすことができる。なお、区間の開始を特定するための音と、区間の終了を特定するための音は、同じ音であってもよいし、別の音であってもよい。また、区間の終了は、区間の開始を特定するための所定の音が入力された時からの経過時間によって定めてもよい。
The sound
また、音データ記憶部12は、入力部10eにより入力される一連の音のデータを記憶してもよい。抽出部14は、音データ記憶部12に記憶された一連の音のデータから、所定の音より後に入力された一連の音の少なくとも一部を、所定の音に基づいて特定される区間の音のデータとして抽出する。抽出部14は、所定の音より後に入力され、再度所定の音が入力されるまでの区間の音のデータを抽出してもよい。この場合、抽出部14は、所定の音が抽出する区間に含まれないように、音データを抽出してもよい。このように、入力される一連の音のデータを記憶し、所定の音より後に入力された一連の音の少なくとも一部を抽出することで、抽出された区間の音のデータ以外のデータも記憶部に記憶されることとなり、抽出された区間の音のデータ以外のデータを事後的にテキストに変換することができるようになり、より柔軟な音データのテキスト化が可能となる。
Further, the sound
送信部13は、判定部11により一連の音に所定の音が含まれていると判定された場合に、音データに基づいてテキストデータを生成するサーバ(第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40)に対して、所定の音に基づいて特定される区間の音のデータを送信する。なお、図3では、サーバを図示せず、通信ネットワークNを図示している。
When the
受信部16は、サーバから、所定の音に基づいて特定される区間の音のデータに基づいて生成されたテキストデータを受信する。
The receiving
分割部15は、所定の音に基づいて特定される区間の音のデータを、複数の音データに分割する。送信部13は、複数の音データの順序を入れ替えて、複数の音データをサーバに送信してもよい。この場合、受信部16は、複数の音データに基づいて生成された複数のテキストデータを受信する。そして、合成部17は、送信部13による複数の音データの順序の入れ替えに基づいて、受信した複数のテキストデータを一つのテキストデータに合成する。このように、所定の音に基づいて特定された区間の音のデータを、複数の音データに分割して、その順序を入れ替えてサーバに送信することで、送信した音データの内容が第三者に読み取られることを防止することができる。
The division unit 15 divides sound data in a section specified based on a predetermined sound into a plurality of sound data. The
また、送信部13は、分割部15により得られた複数の音データを、音データに基づいてテキストデータを生成する複数のサーバに分配して送信してもよい。本実施形態の場合、送信部13は、分割した複数の音データを、第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40に分配して送信してもよい。所定の音に基づいて特定された区間の音のデータを、複数の音データに分割して、複数のサーバに分配して送信することで、それぞれのサーバに送信した音データの一部から全体の内容を再現することが困難となり、音データの内容が第三者に読み取られるおそれをさらに低減させることができる。分割した音データを複数のサーバに分配する方法としては、ランダムに分配する方法の他、過去の音声データを音声認識した結果、品質の良いサーバに優先的に分配を行う構成であってもよい。品質の良いサーバに基づき優先的に分配を行う場合、発話者であるユーザ毎にサーバを決定して分配してもよい。具体的には、あるユーザAの過去の音声認識結果の品質が、サーバαが最も優れている場合には、当該ユーザAに関する音データはサーバαに優先的に分配し、他のユーザBの過去の音声認識結果の品質が、サーバβが最も優れている場合には、当該ユーザBに関する音データはサーバβに優先的に分配することとしてよい。
Further, the
修正部18は、得られたテキストデータに含まれる各単語について、テキスト化の処理を実行したサーバにより出力されたテキスト化の信頼度に基づいて、単語の修正を行う。第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40は、一般的な用語について音データをテキストデータに変換することができるものであり、社内用語等、一般には用いられていない単語が音データに含まれていると、音データを正しくテキストデータに変換することが困難な場合がある。修正部18は、議事録記憶部19に記憶された過去の議事録を学習用データとして学習されたRNN等の言語モデルを含み、テキスト化の信頼度が低い単語について、正しい単語への修正を行う。これにより、社内用語等の一般には用いられていない単語が音データに含まれており、サーバによって音データを正しくテキスト化することが困難な場合であっても、より正確な内容の議事録が作成できるようになる。
The
議事録記憶部19は、音データを変換して得られたテキストデータを、議事録の形式で記憶する。データ変換装置10は、音データを変換して得られたテキストデータに含まれる議題を表す文字又は記号を検出し、議事録記憶部19に記憶された議事録の適切な箇所に新たなテキストデータを追記する。また、データ変換装置10は、音データを変換して得られたテキストデータに含まれる人名を表す文字を検出し、議事録記憶部19に記憶された議事録の適切な議題に担当者名を追記する。これらの処理については、後に図6を用いて詳細に説明する。
The
図4は、本実施形態に係るデータ変換装置10により特定される音データの区間の一例を示す図である。同図では、会議において録音された音データの波形を示している。本例の音データは、第1区間A1、第2区間A2及び第3区間A3を含む。第1区間A1は、議事録に記録する必要の無い発言に対応する区間であり、第2区間A2は、所定の音として予め設定されているベルの音に対応する区間であり、第3区間A3は、議事録に記録する必要がある発言に対応する区間である。
FIG. 4 is a diagram showing an example of a section of sound data specified by the
データ変換装置10は、判定部11によって、入力される一連の音に所定の音が含まれているか否かを判定する。ここで、所定の音が含まれているか否かは、所定の音の波形が含まれているか否かによって判定してよい。本例では、判定部11は、第2区間A2の波形が入力されることで、所定の音が含まれていると判定する。
The
判定部11により一連の音に所定の音が含まれていると判定されると、音データ記憶部12は、所定の音より後に入力される第3区間A3の音を、所定の音に基づいて特定される区間の音のデータとして記憶する。その後、データ変換装置10は、第3区間A3の音データを第1音声認識サーバ20等に送信し、その内容に対応するテキストデータを受信する。
When the
また、データ変換装置10は、第3区間A3の音データを第1音声認識サーバ20等に送信する前に、第3区間A3の音データを複数の音データに分割して、その順序を変えてサーバに送信したり、複数のサーバに分配したりしてもよい。この場合、分割の方法を幾つか変えて、第1音声認識サーバ20等によるテキストデータへの変換の信頼度が良好となる分割方法を採用することとしてもよい。例えば、第3区間A3の音データを等間隔で3分割して第1音声認識サーバ20等にそれぞれの音データを認識させた場合と、第3区間A3の音データを等間隔で10分割して第1音声認識サーバ20等にそれぞれの音データを認識させた場合と、におけるテキスト化の信頼度を比較して、より信頼度の高い分割数を採用することとしてもよい。これにより、サーバによる音声認識精度を向上させることができ、より正確なテキスト化が行えるようになり、テキスト化の精度とセキュリティを両立することができる。
Further, the
また、音データの分割箇所を、波形の振幅に応じて決定することとしてもよい。例えば、音データの振幅が所定値以下となる区間の中央で音データを分割することとしてもよい。これにより、音データを所定の区間数に分割したり、所定の区間幅で分割したりする場合よりも、サーバによる音声認識精度を向上させることができ、より正確なテキスト化が行えるようになり、テキスト化の精度とセキュリティを両立することができる。 Further, the division point of the sound data may be determined according to the amplitude of the waveform. For example, the sound data may be divided at the center of a section where the amplitude of the sound data is equal to or less than a predetermined value. As a result, the voice recognition accuracy by the server can be improved and more accurate text conversion can be performed as compared with the case where the sound data is divided into a predetermined number of sections or a predetermined section width. , It is possible to achieve both accuracy and security of text conversion.
図5は、本実施形態に係るデータ変換装置10により実行される第1処理のフローチャートである。第1処理は、入力される一連の音に所定の音が含まれていると判定された場合に、所定の音に基づいて特定される区間の音のデータを記憶し、テキスト化して議事録を更新する処理である。
FIG. 5 is a flowchart of the first process executed by the
データ変換装置10は、入力部10eにより、入力される音のデータを取得する(S10)。判定部11は、入力される一連の音に所定の音が含まれているか否かを判定する(S11)。入力される一連の音に所定の音が含まれていない場合(S11:No)、音データの取得と、所定の音が含まれているか否かの判定を継続する。
The
一方、入力される一連の音に所定の音が含まれている場合(S11:Yes)、音データ記憶部12は、所定の音の後に入力される一連の音を、所定の音に基づいて特定される区間の音のデータとして記憶する(S12)。
On the other hand, when a predetermined series of sounds is included in the input series of sounds (S11: Yes), the sound
分割部15は、特定された区間の音のデータを、複数の音データに分割する(S13)。送信部13は、複数の音データの順序を入れ替えて、第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40のうち1又は複数のサーバに送信する(S14)。すなわち、送信部13は、複数の音データの順序を入れ替え、且つ、複数の音データを複数のサーバに分配して送信してもよい。
The division unit 15 divides the sound data of the specified section into a plurality of sound data (S13). The
受信部16は、1又は複数のサーバから、複数の音データをテキスト化した複数のテキストデータを受信する(S15)。合成部17は、複数の音データの順序の入れ替え及びサーバへの分配に基づいて、複数のテキストデータの順序を入れ替えて、一つのテキストデータに合成する(S16)。
The receiving
修正部18は、1又は複数のサーバによるテキスト化の信頼度に基づいて、信頼度が低い単語を、適切と推定される単語に修正する(S17)。なお、修正部18による単語の修正は、合成部17によって一つのテキストデータが合成された後に行われることが望ましい。分割された複数の音データに対応する複数のテキストデータの状態で単語の修正を行うこととすると、文章の前後関係が不明となり、適切な修正が困難になる場合があるからである。
The
データ変換装置10は、得られたテキストデータの中の所定の文字に基づいて、議事録への追記箇所を特定する(S18)。例えば、特定の議題を表す文字列や記号を認識して、議事録のうちその議題を記載した箇所に、得られたテキストデータを追記する。また、データ変換装置10は、得られたテキストデータの中の人名に基づいて、担当者を特定する(S19)。データ変換装置10は、特定された担当者の名前を、対応する議題の担当者として議事録に追記してよい。
The
最後に、データ変換装置10は、当日の日付を記載日として議事録に付加して、議事録を更新する(S20)。なお、日付のみならず、会議が行われた時刻を付加することとしてもよい。以上で第1処理が終了する。
Finally, the
図6は、本実施形態に係るデータ変換装置10により更新された議事録Dの一例を示す図である。本例の議事録Dは、7月1日と7月3日に記載された内容を含み、さらに7月4日に最新の更新が行われたものである。議事録Dは、「#1000」と名付けられた第1議題D1と、「#2517 正しい在り方での証明書の検証」と名付けられた第2議題D2と、に関する記載を含む。
FIG. 6 is a diagram showing an example of minutes D updated by the
第1議題D1について、「→まずは設計書に記載する(7/1記載)」、「→明日議論する(7/3記載)」という記載を含む。このことから、7月3日の時点で、翌日の7月4日に第1議題D1について議論することが決定していたことがわかる。そして、第1議題D1には、「→ABCパラメータは1000とする(7/4記載)」と追記されている。 Regarding the first agenda item D1, the description includes "→ first described in the design document (described on 7/1)" and "→ discussed tomorrow (described on 7/3)". From this, it can be seen that as of July 3, it was decided to discuss the first agenda item D1 on July 4, the following day. Then, in the first agenda item D1, it is added that "→ ABC parameter is 1000 (described on 7/4)".
このような記載は、例えば以下のようにして追記される。まず、会議において様々な議論がなされ、「ABCパラメータ」をどのような値とするかについて結論が得られたとする。そのような段階で、所定の音に相当するベルが鳴らされると、データ変換装置10は、所定の音が入力された後に発言された「シャープ1000、ABCパラメータは1000とする」という音データを記憶し、第1音声認識サーバ20等に送信して、その内容をテキスト化したテキストデータを受信する。そして、「シャープ1000」という文字列に基づいて、「#1000」と名付けられた第1議題D1の記載箇所に、「ABCパラメータは1000とする」というテキストデータを追記する。この際、会議が行われた当日の日付である7月4日(7/4)を付加する。
Such a description is added, for example, as follows. First, it is assumed that various discussions were held at the meeting and a conclusion was reached on what value the "ABC parameter" should be. At such a stage, when the bell corresponding to the predetermined sound is ringed, the
第2議題D2は、「→7/12リリース予定。手順をアプリTに連携済み。(7/1記載)」、「→[Aさん宿題]品質管理委員のリリース予定に書く(7/3記載)」、「→記載済み、本日実行をお願いします。(7/4追記)」という記載を含む。 The second agenda item D2 is "→ 7/12 release schedule. The procedure has been linked to the application T. (7/1 description)", "→ [Mr. A's homework] Write in the release schedule of the quality control committee (7/3 description) ) ”,“ → Already described, please execute today. (7/4 postscript) ”is included.
このような記載は、例えば以下のようにして追記される。まず、会議において様々な議論がなされ、「品質管理委員のリリース予定に書く」というタスクを実行する必要があることが決定され、その担当者を「Aさん」とすることが決定されたとする。そのような段階で、所定の音に相当するベルが鳴らされると、データ変換装置10は、所定の音が入力された後に発言された「シャープ2517、Aさん宿題、品質管理委員のリリース予定に書く」という音データを記憶し、第1音声認識サーバ20等に送信して、その内容をテキスト化したテキストデータを受信する。そして、「シャープ2517」という文字列に基づいて、「#2517」と名付けられた第2議題D2の記載箇所に、「品質管理委員のリリース予定に書く」というテキストデータを追記する。また、「Aさん宿題」という文字列に基づいて、そのタスクの担当者を明らかにするように「[Aさん宿題]」と追記する。そして、会議が行われた当日の日付である7月3日(7/3)を付加する。
Such a description is added, for example, as follows. First, it is assumed that various discussions were held at the meeting, and it was decided that it was necessary to carry out the task of "writing in the release schedule of the quality control committee", and it was decided that the person in charge would be "Mr. A". At such a stage, when the bell corresponding to the predetermined sound is ringed, the
このように、本実施形態に係るデータ変換装置10によれば、会議がどのような議題に関するものであるかを識別して、議事録の適切な箇所に追記を行うことができる。これにより、議事録作成者の作業負担が低減する。また、担当者名を識別して、議事録の適切な箇所に担当者を追記することができ、作業の円滑な進行を支援することができる。
As described above, according to the
図7は、本実施形態に係るデータ変換装置10により実行される第2処理のフローチャートである。第2処理は、入力される一連の音を記憶し、記憶された一連の音に所定の音が含まれていると判定された場合に、所定の音に基づいて特定される区間の音のデータを抽出し、テキスト化して議事録を更新する処理である。
FIG. 7 is a flowchart of the second process executed by the
データ変換装置10は、入力部10eにより入力される音のデータを音データ記憶部12に記憶する(S30)。ここで、音データ記憶部12への音データの記憶は、会議中連続的に行われてよい。判定部11は、記憶された一連の音に所定の音が含まれているか否かを判定する(S31)。一連の音に所定の音が含まれていない場合(S31:No)、第2処理は終了する。
The
一方、一連の音に所定の音が含まれている場合(S31:Yes)、抽出部14は、所定の音の後に入力される一連の音を、所定の音に基づいて特定される区間の音のデータとして抽出する(S32)。
On the other hand, when a predetermined sound is included in the series of sounds (S31: Yes), the
分割部15は、特定された区間の音のデータを、複数の音データに分割する(S33)。送信部13は、複数の音データの順序を入れ替えて、第1音声認識サーバ20、第2音声認識サーバ30及び第3音声認識サーバ40のうち1又は複数のサーバに送信する(S34)。すなわち、送信部13は、複数の音データの順序を入れ替え、且つ、複数の音データを複数のサーバに分配して送信してもよい。
The division unit 15 divides the sound data of the specified section into a plurality of sound data (S33). The
受信部16は、1又は複数のサーバから、複数の音データをテキスト化した複数のテキストデータを受信する(S35)。合成部17は、複数の音データの順序の入れ替え及びサーバへの分配に基づいて、複数のテキストデータの順序を入れ替えて、一つのテキストデータに合成する(S36)。
The receiving
修正部18は、1又は複数のサーバによるテキスト化の信頼度に基づいて、信頼度が低い単語を、適切と推定される単語に修正する(S37)。
The
データ変換装置10は、得られたテキストデータの中の所定の文字に基づいて、議事録への追記箇所を特定する(S38)。例えば、特定の議題を表す文字列や記号を認識して、議事録のうちその議題を記載した箇所に、得られたテキストデータを追記する。また、データ変換装置10は、得られたテキストデータの中の人名に基づいて、担当者を特定する(S39)。データ変換装置10は、特定された担当者の名前を、対応する議題の担当者として議事録に追記してよい。
The
最後に、データ変換装置10は、当日の日付を記載日として議事録に付加して、議事録を更新する(S40)。なお、日付のみならず、会議が行われた時刻を付加することとしてもよい。以上で第2処理が終了する。
Finally, the
図8は、本実施形態に係るデータ変換装置10により特定される音データの区間の他の例を示す図である。同図では、会議において録音された音データの波形の他の例を示している。本例の音データは、第5区間A5、第6区間A6、第7区間A7及び第8区間A8を含む。第5区間A5は、議事録に記録する必要の無い発言に対応する区間であり、第6区間A6は、約2秒間のほとんど無音の区間であり、第7区間A7は、所定の発言として設定された「議事録お願いします」という発言に対応する区間であり、第8区間A8は、議事録に記録する必要がある発言に対応する区間である。
FIG. 8 is a diagram showing another example of a section of sound data specified by the
データ変換装置10は、判定部11によって、入力される一連の音に所定の音が含まれているか否かを判定する。ここで、所定の音が含まれているか否かは、所定の音の波形が含まれているか否かによって判定してよい。本例では、判定部11は、第6区間A6及び第7区間A7の波形が入力されることで、所定の音が含まれていると判定する。すなわち、判定部11は、約2秒間の沈黙の後に、「議事録お願いします」と発言されたか否かによって、一連の音に所定の音が含まれているか否かを判定する。
The
判定部11により一連の音に所定の音が含まれていると判定されると、音データ記憶部12は、所定の音より後に入力される第8区間A8の音を、所定の音に基づいて特定される区間の音のデータとして記憶する。その後、データ変換装置10は、第8区間A8の音データを第1音声認識サーバ20等に送信し、その内容に対応するテキストデータを受信する。
When the
このように、所定の規則に従った発言が行われたか否かによって、入力される一連の音に所定の音が含まれているか否かを判定することで、所定の音として特殊な音(例えば、物理的なベルの音や電子的に合成したベルの音)を鳴らすための用意が不要となり、より手軽に議事録作成の指示を出すことができるようになる。 In this way, by determining whether or not a predetermined sound is included in a series of input sounds depending on whether or not a statement is made in accordance with a predetermined rule, a special sound (a special sound as a predetermined sound) is determined. For example, it becomes unnecessary to prepare for ringing a physical bell sound or an electronically synthesized bell sound, and it becomes possible to give an instruction to create minutes more easily.
図9は、本実施形態に係るデータ変換装置10により音データの区間を指定する例を示す図である。同図では、図8で示した第5区間A5、第6区間A6、第7区間A7及び第8区間A8を含む音データについて、第9区間A9及び第10区間A10を指定した例を示している。
FIG. 9 is a diagram showing an example in which a section of sound data is designated by the
データ変換装置10は、録音した音データの波形と、認識された音データの区間(本例の場合、第5区間A5、第6区間A6、第7区間A7及び第8区間A8)を表示部10fに表示して、入力部10eに含まれるポインティングデバイス等によって、ユーザから区間の修正や追加を受け付けてよい。例えば、会議を行った当初は、所定の音を発生させた後の発言、すなわち第8区間A8における発言のみを議事録に記録すれば十分だと考えていたところ、事後的に第5区間A5で話し合った内容の一部も議事録に残したいと考える場合があり得る。このような場合に、ユーザは、ポインタPT等によって抽出する音データの区間を指定することができる。本例では、ユーザは、第9区間A9及び第10区間A10を新たに抽出する区間として指定している。
The
データ変換装置10は、新たに指定された第9区間A9及び第10区間A10の音データを第1音声認識サーバ20等に送信し、テキスト化したテキストデータを受信し、議事録の適切な箇所に当該テキストデータを追記する。
The
このように、テキスト化する音データの区間を視覚的に確認できるように表示して、修正や追加を行えるようにすることで、より柔軟にテキスト化する音データを選択することができるようになり、データ変換装置10の利便性が向上する。
In this way, by displaying the section of the sound data to be converted into text so that it can be visually confirmed and making corrections and additions, it is possible to select the sound data to be converted into text more flexibly. Therefore, the convenience of the
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating the understanding of the present invention, and are not for limiting the interpretation of the present invention. Each element included in the embodiment and its arrangement, material, condition, shape, size, and the like are not limited to those exemplified, and can be appropriately changed. Further, it is possible to partially replace or combine the configurations shown in the embodiments.
10…データ変換装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、11…判定部、12…音データ記憶部、13…送信部、14…抽出部、15…分割部、16…受信部、17…合成部、18…修正部、19…議事録記憶部、20…第1音声認識サーバ、30…第2音声認識サーバ、40…第3音声認識サーバ、N…通信ネットワーク 10 ... Data conversion device, 10a ... CPU, 10b ... RAM, 10c ... ROM, 10d ... Communication unit, 10e ... Input unit, 10f ... Display unit, 11 ... Judgment unit, 12 ... Sound data storage unit, 13 ... Transmission unit, 14 ... extraction unit, 15 ... division unit, 16 ... reception unit, 17 ... synthesis unit, 18 ... correction unit, 19 ... minutes storage unit, 20 ... first voice recognition server, 30 ... second voice recognition server, 40 ... Third voice recognition server, N ... Communication network
Claims (5)
少なくとも、前記一連の音のうち前記所定の音に基づいて特定される区間の音のデータを記憶する記憶部と、
前記区間の音のデータを、複数の音データに分割する分割部と、
前記判定部により前記一連の音に前記所定の音が含まれていると判定された場合に、音データに基づいてテキストデータを生成する複数のサーバに対して、前記複数の音データの順序を入れ替えて、前記複数の音データのそれぞれを、前記複数の音データのそれぞれの発話者の情報に基づいて選択される少なくとも一つのサーバに分配して送信する送信部と、
前記少なくとも一つのサーバから、前記複数の音のデータのそれぞれに基づいて生成された複数のテキストデータのそれぞれであって、各単語の信頼度を含む前記複数のテキストデータのそれぞれを受信する受信部と、
前記送信部による前記複数の音データの順序の入れ替えに基づいて、前記複数のテキストデータを一つのテキストデータに合成する合成部と、
過去の文書を学習用データとして学習された言語モデルに基づいて、前記信頼度が一定値以下の前記単語を修正する修正部と、
を備えるデータ変換装置。 A determination unit that determines whether or not a predetermined sound is included in a series of input sounds,
At least, a storage unit that stores sound data of a section specified based on the predetermined sound in the series of sounds, and a storage unit.
A division unit that divides the sound data in the section into a plurality of sound data,
When the determination unit determines that the series of sounds contains the predetermined sound , the order of the plurality of sound data is assigned to a plurality of servers that generate text data based on the sound data. A transmission unit that is interchanged and distributes and transmits each of the plurality of sound data to at least one server selected based on the information of the speaker of each of the plurality of sound data .
Receiving each of the plurality of text data generated based on each of the plurality of sound data from the at least one server, including the reliability of each word. Department and
A compositing unit that synthesizes the plurality of text data into one text data based on the rearrangement of the order of the plurality of sound data by the transmitting unit.
Based on a language model learned from past documents as learning data, a correction unit that corrects the word whose reliability is below a certain value, and a correction unit.
A data conversion device equipped with.
請求項1に記載のデータ変換装置。 When the determination unit determines that the series of sounds includes the predetermined sound, the storage unit may use at least a part of the series of sounds input after the predetermined sound in the section. Store as sound data,
The data conversion device according to claim 1.
前記記憶部に記憶された前記一連の音のデータから、前記所定の音より後に入力された一連の音の少なくとも一部を前記区間の音のデータとして抽出する抽出部をさらに備える、
請求項1に記載のデータ変換装置。 The storage unit stores the series of sound data and stores it.
Further provided is an extraction unit that extracts at least a part of a series of sounds input after the predetermined sound as sound data of the section from the data of the series of sounds stored in the storage unit.
The data conversion device according to claim 1.
請求項1~3のいずれか一項に記載のデータ変換装置。 The correction unit is a word included in the one text data synthesized by the synthesis unit, and corrects the word whose reliability is a certain value or less.
The data conversion device according to any one of claims 1 to 3.
請求項1~4のいずれか一項に記載のデータ変換装置。
The division unit divides the sound data in the section into the plurality of sound data based on the amplitude of the waveform of the sound data in the section.
The data conversion device according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017179920A JP7088645B2 (en) | 2017-09-20 | 2017-09-20 | Data converter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017179920A JP7088645B2 (en) | 2017-09-20 | 2017-09-20 | Data converter |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019056746A JP2019056746A (en) | 2019-04-11 |
JP7088645B2 true JP7088645B2 (en) | 2022-06-21 |
Family
ID=66107358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017179920A Active JP7088645B2 (en) | 2017-09-20 | 2017-09-20 | Data converter |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7088645B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022744A (en) | 1999-07-05 | 2001-01-26 | Olympus Optical Co Ltd | Voice processor and recording medium where voice processing program is recorded |
JP2003177776A (en) | 2001-12-12 | 2003-06-27 | Seiko Instruments Inc | Minutes recording system |
JP2004177777A (en) | 2002-11-28 | 2004-06-24 | Minolta Co Ltd | Minute preparation system |
WO2006097975A1 (en) | 2005-03-11 | 2006-09-21 | Gifu Service Co., Ltd. | Voice recognition program |
WO2011052412A1 (en) | 2009-10-28 | 2011-05-05 | 日本電気株式会社 | Speech recognition system, speech recognition request device, speech recognition method, speech recognition program, and recording medium |
JP2016029468A (en) | 2014-07-16 | 2016-03-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Speech information control method and terminal apparatus |
JP2017090716A (en) | 2015-11-11 | 2017-05-25 | 株式会社フュートレック | Transcription text creation support system, transcription text creation support method, and transcription text creation support program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4709887B2 (en) * | 2008-04-22 | 2011-06-29 | 株式会社エヌ・ティ・ティ・ドコモ | Speech recognition result correction apparatus, speech recognition result correction method, and speech recognition result correction system |
-
2017
- 2017-09-20 JP JP2017179920A patent/JP7088645B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022744A (en) | 1999-07-05 | 2001-01-26 | Olympus Optical Co Ltd | Voice processor and recording medium where voice processing program is recorded |
JP2003177776A (en) | 2001-12-12 | 2003-06-27 | Seiko Instruments Inc | Minutes recording system |
JP2004177777A (en) | 2002-11-28 | 2004-06-24 | Minolta Co Ltd | Minute preparation system |
WO2006097975A1 (en) | 2005-03-11 | 2006-09-21 | Gifu Service Co., Ltd. | Voice recognition program |
WO2011052412A1 (en) | 2009-10-28 | 2011-05-05 | 日本電気株式会社 | Speech recognition system, speech recognition request device, speech recognition method, speech recognition program, and recording medium |
JP2016029468A (en) | 2014-07-16 | 2016-03-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Speech information control method and terminal apparatus |
JP2017090716A (en) | 2015-11-11 | 2017-05-25 | 株式会社フュートレック | Transcription text creation support system, transcription text creation support method, and transcription text creation support program |
Also Published As
Publication number | Publication date |
---|---|
JP2019056746A (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107516511B (en) | Text-to-speech learning system for intent recognition and emotion | |
US5943648A (en) | Speech signal distribution system providing supplemental parameter associated data | |
US9196241B2 (en) | Asynchronous communications using messages recorded on handheld devices | |
TWI249729B (en) | Voice browser dialog enabler for a communication system | |
CN111599343B (en) | Method, apparatus, device and medium for generating audio | |
CN1675681A (en) | Client-server voice customization | |
US20100114579A1 (en) | System and Method of Controlling Sound in a Multi-Media Communication Application | |
KR20060055313A (en) | Centralized method and system for clarifying voice commands | |
CN107705782B (en) | Method and device for determining phoneme pronunciation duration | |
US20140019137A1 (en) | Method, system and server for speech synthesis | |
US20160371234A1 (en) | Reconciliation of transcripts | |
JP7230145B2 (en) | Context Denormalization for Automatic Speech Recognition | |
US20060224385A1 (en) | Text-to-speech conversion in electronic device field | |
US10276150B2 (en) | Correction system, method of correction, and computer program product | |
US8676578B2 (en) | Meeting support apparatus, method and program | |
JP2017090716A (en) | Transcription text creation support system, transcription text creation support method, and transcription text creation support program | |
JP7200533B2 (en) | Information processing device and program | |
JP7088645B2 (en) | Data converter | |
CN109033163A (en) | A kind of method and device for adding diary in calendar | |
JP5818753B2 (en) | Spoken dialogue system and spoken dialogue method | |
JP7117228B2 (en) | karaoke system, karaoke machine | |
JP2005062420A (en) | System, method, and program for content generation | |
US20010042082A1 (en) | Information processing apparatus and method | |
CN111739510A (en) | Information processing method, information processing apparatus, vehicle, and computer storage medium | |
CN111768755A (en) | Information processing method, information processing apparatus, vehicle, and computer storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220411 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220419 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220609 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7088645 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |