JP7435740B2 - 音声認識装置、制御方法、及びプログラム - Google Patents
音声認識装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7435740B2 JP7435740B2 JP2022508617A JP2022508617A JP7435740B2 JP 7435740 B2 JP7435740 B2 JP 7435740B2 JP 2022508617 A JP2022508617 A JP 2022508617A JP 2022508617 A JP2022508617 A JP 2022508617A JP 7435740 B2 JP7435740 B2 JP 7435740B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate text
- candidate
- text
- pair
- groups
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 26
- 230000005236 sound signal Effects 0.000 claims description 12
- 239000013598 vector Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
<概要>
図1は、実施形態1に係る音声認識装置2000の動作を概念的に例示する図である。ここで、図1を用いて説明する音声認識装置2000の動作は、音声認識装置2000の理解を容易にするための例示であり、音声認識装置2000の動作を限定するものではない。音声認識装置2000の動作の詳細やバリエーションについては後述する。
本実施形態の音声認識装置2000によれば、音声認識によってソースデータ10から複数の文章が得られる場合において、文章ごとに複数の候補(候補テキスト群30)が生成される。そして、候補間の比較(候補テキスト群30間の比較)に基づいて、文章ごとに、複数の候補の中から認識結果とする1つの文章が特定される。よって、候補間の比較を行わない場合と比較し、高い精度で音声認識を行うことができる。言い換えれば、ソースデータ10によって表される発話の内容が、より高い精度でテキスト化される。
図2は、音声認識装置2000の機能構成を例示するブロック図である。候補生成部2020は、ソースデータ10から得られた複数の音声データ20それぞれについて、候補テキスト群30を生成する。選択部2040は、各音声データ20について得られた候補テキスト群30を比較し、その比較結果に基づいて、各音声データ20に対応する発話の内容を表すテキストを、その音声データ20について生成された候補テキスト32の中から選択する。
音声認識装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、音声認識装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図4は、実施形態1の音声認識装置2000によって実行される処理の流れを例示するフローチャートである。候補生成部2020はソースデータ10を取得する(S102)。候補生成部2020はソースデータ10から複数の音声データ20を生成する(S104)。候補生成部2020は各音声データ20について候補テキスト群30を生成する(S106)。選択部2040は、候補テキスト群30の比較結果に基づいて、各音声データ20に対応する発話の内容を表すテキストを、各音声データ20について生成された候補テキスト32の中から選択する(S108)。
候補生成部2020はソースデータ10を取得する(S102)。候補生成部2020がソースデータ10を取得する方法は任意である。例えば候補生成部2020は、ユーザが操作するユーザ端末から送信されるソースデータ10を受信することで、ソースデータ10を取得する。その他にも例えば、候補生成部2020は、候補生成部2020からアクセス可能な記憶装置に格納されているソースデータ10を取得してもよい。この場合、例えば音声認識装置2000は、ユーザ端末から、取得すべきソースデータ10の指定(ファイル名などの指定)を受け付ける。その他にも例えば、候補生成部2020は、上記記憶装置に格納されている1つ以上のデータをそれぞれソースデータ10として取得してもよい。すなわちこの場合、記憶装置に予め格納しておいた複数のソースデータ10についてバッチ処理が行われる。
候補生成部2020は、ソースデータ10から複数の音声データ20を生成する(S104)。ここで、複数の文章が含まれる音声データ(本発明ではソースデータ10)を、文章ごとの音声データ(本発明では音声データ20)に分割する技術には、既存の技術を利用できる。例えば候補生成部2020は、ソースデータ10について音声区間検出を行うことで、ソースデータ10を音声区間ごとに分割する。そして、この分割により得られた複数の音声データそれぞれを、音声データ20として扱う。すなわち、1つの音声データ20は、ソースデータ10から得られる1つの音声区間に対応する。
候補生成部2020は、音声データ20ごとに候補テキスト群30を生成する(S106)。候補テキスト群30は、音声データ20に対して音声認識処理を行うことで生成される。例えば候補生成部2020は、音声データ20に対して音声認識処理を行うことで、その音声データ20に対応する発話の内容を表す可能性があるテキストと、そのテキストが音声データ20に対応する発話の内容を表す確率(以下、確度とも表記する)とのペアを示す情報を生成する。そして候補生成部2020は、生成した複数のテキストの中から、確度の大きさで上位 N 個のテキストを抽出し、当該抽出されたテキストで構成される候補テキスト群30を生成する。言い換えれば、音声データ20に対して音声認識処理を行うことで得られる N-best の認識結果が、候補テキスト群30として扱われる。なお、発話が含まれる音声データに対して音声認識処理を行うことで、その発話の内容を表す可能性があるテキストを複数生成する技術、及び各テキストがその発話の内容を表す確率を算出する技術には、既存の技術を利用することができる。
選択部2040は、候補テキスト群30の比較を行うことで、各候補テキスト群30から選択する候補テキスト32を特定する(S108)。具体的には、選択部2040は、比較する2つの候補テキスト群30について、各候補テキスト群30に含まれる候補テキスト32の間の関連度を表す指標値(以下、関連度指標値)を算出する。このように候補テキスト32間の関連度合いを考慮することにより、各候補テキスト群30から選択される候補テキスト32の間の関連度合いが高くなるようにする。
音声認識装置2000によれば、ソースデータ10から得られた音声データ20それぞれについて、その内容を表す文章(テキスト)が特定される。すなわち、ソースデータ10によって表される発話の内容を表す文章列が得られる。このようにして得られた文章列の利用方法は任意である。例えば音声認識装置2000は、生成された文章列を出力する。文章列の出力先は任意である。例えば音声認識装置2000は、文章列を記憶装置に格納したり、文章列をディスプレイ装置に表示させたり、文章列を他の任意の装置(例えば、ソースデータ10の送信元)へ送信したりする。
1. 発話が含まれるソース音声信号から得られた複数の音声データそれぞれについて、その音声データに対応する発話の内容を表すテキストの候補である候補テキストを複数含む候補テキスト群を生成する候補生成部と、
複数の前記候補テキスト群の間の比較結果に基づいて、各前記音声データについて、その音声データについて生成された前記候補テキスト群の中から、その音声データによって表される発話の内容を表す候補テキストを選択する選択部と、を有し、
前記候補テキストは文章を表す、音声認識装置。
2. 前記選択部は、少なくとも、時系列上で互いに隣接していない2つの音声データそれぞれについて生成された前記候補テキスト群の間の比較を行う、1.に記載の音声認識装置。
3. 前記選択部は、互いに異なる前記候補テキスト群から得られる前記候補テキストの間の関連度合いを算出し、算出される前記関連度合いの和が最大になるように、各候補テキスト群から前記候補テキストを選択する、1.又は2.に記載の音声認識装置。
4. 前記選択部は、前記候補テキストの間の関連度合いを表す指標値として、前記候補テキストの間の文章間距離を算出する、3.に記載の音声認識装置。
5. 前記選択部は、
前記指標値として、値が小さいほど前記候補テキストの間の関連度合いが大きいことを表す文章間距離を算出し、算出される前記文章間距離の和が最大となるように、各候補テキスト群から前記候補テキストを選択するか、又は、
前記指標値として、値が大きいほど前記候補テキストの間の関連度合いが大きいことを表す文章間距離を算出し、算出される前記文章間距離の和が最小となるように、各候補テキスト群から前記候補テキストを選択する、4.に記載の音声認識装置。
6. 前記選択部は、文章間距離の和として、各文章間距離に重みを付した重み付き和を算出する、5.に記載の音声認識装置。
7. 前記選択部は、生成された複数の前記候補テキスト群から得られる前記候補テキスト群のペア全てについて、前記候補テキスト間の関連度合いを算出する、3.から6いずれか一つに記載の音声認識装置。
8. 前記選択部は、生成された複数の前記候補テキスト群のうち、時系列順で隣接する前記候補テキスト群のペア全てについて、前記候補テキスト間の関連度合いを算出する、3.から6いずれか一つに記載の音声認識装置。
9. コンピュータによって実行される制御方法であって、
発話が含まれるソース音声信号から得られた複数の音声データそれぞれについて、その音声データに対応する発話の内容を表すテキストの候補である候補テキストを複数含む候補テキスト群を生成する候補生成ステップと、
複数の前記候補テキスト群の間の比較結果に基づいて、各前記音声データについて、その音声データについて生成された前記候補テキスト群の中から、その音声データによって表される発話の内容を表す候補テキストを選択する選択ステップと、を有し、
前記候補テキストは文章を表す、制御方法。
10. 前記選択ステップにおいて、少なくとも、時系列上で互いに隣接していない2つの音声データそれぞれについて生成された前記候補テキスト群の間の比較を行う、9.に記載の音声認識装置。
11. 前記選択ステップにおいて、互いに異なる前記候補テキスト群から得られる前記候補テキストの間の関連度合いを算出し、算出される前記関連度合いの和が最大になるように、各候補テキスト群から前記候補テキストを選択する、9.又は10.に記載の制御方法。
12. 前記選択ステップにおいて、前記候補テキストの間の関連度合いを表す指標値として、前記候補テキストの間の文章間距離を算出する、11.に記載の制御方法。
13. 前記選択ステップにおいて、
前記指標値として、値が小さいほど前記候補テキストの間の関連度合いが大きいことを表す文章間距離を算出し、算出される前記文章間距離の和が最大となるように、各候補テキスト群から前記候補テキストを選択するか、又は、
前記指標値として、値が大きいほど前記候補テキストの間の関連度合いが大きいことを表す文章間距離を算出し、算出される前記文章間距離の和が最小となるように、各候補テキスト群から前記候補テキストを選択する、12.に記載の制御方法。
14. 前記選択ステップにおいて、文章間距離の和として、各文章間距離に重みを付した重み付き和を算出する、13.に記載の制御方法。
15. 前記選択ステップにおいて、生成された複数の前記候補テキスト群から得られる前記候補テキスト群のペア全てについて、前記候補テキスト間の関連度合いを算出する、11.から14いずれか一つに記載の制御方法。
16. 前記選択ステップにおいて、生成された複数の前記候補テキスト群のうち、時系列順で隣接する前記候補テキスト群のペア全てについて、前記候補テキスト間の関連度合いを算出する、11.から14いずれか一つに記載の制御方法。
17. 9.から16いずれか一つに記載の制御方法をコンピュータに実行させるプログラム。
20 音声データ
30 候補テキスト群
32 候補テキスト
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 音声認識装置
2020 候補生成部
2040 選択部
Claims (10)
- 発話が含まれるソース音声信号から得られた複数の音声データそれぞれについて、その音声データに対応する発話の内容を表すテキストの候補である候補テキストを複数含む候補テキスト群を生成する候補生成部と、
複数の前記候補テキスト群の間の比較結果に基づいて、各前記音声データについて、その音声データについて生成された前記候補テキスト群の中から、その音声データによって表される発話の内容を表す候補テキストを選択する選択部と、を有し、
前記候補テキストは文章を表し、
前記複数の候補テキスト群は、互いに異なる第1の前記候補テキスト群および第2の前記候補テキスト群を含み、
前記第1の候補テキスト群は、互いに異なる第1の前記候補テキストおよび第2の前記候補テキストを含み、
前記第2の候補テキスト群は、互いに異なる第3の前記候補テキストおよび第4の前記候補テキストを含み、
前記選択部は、前記第1の候補テキストと前記第3の候補テキストとの候補テキストペア、前記第1の候補テキストと前記第4の候補テキストとの候補テキストペア、前記第2の候補テキストと前記第3の候補テキストとの候補テキストペア、および前記第2の候補テキストと前記第4の候補テキストとの候補テキストペアを少なくとも含む、4つ以上の候補テキストペアのそれぞれに対し、互いに同じ候補テキストペアに属する前記候補テキストの間の関連度合いを表す指標値を算出することで、前記比較結果を得る
音声認識装置。 - 前記選択部は、少なくとも、時系列上で互いに隣接していない2つの音声データそれぞれについて生成された前記候補テキスト群の間の比較を行う、請求項1に記載の音声認識装置。
- 前記選択部は、互いに異なる前記候補テキスト群から得られる前記4つ以上の候補テキストペアについて算出される前記関連度合いの和が最大になるように、各前記候補テキスト群から前記候補テキストを選択する、請求項1又は2に記載の音声認識装置。
- 前記選択部は、前記関連度合いを表す前記指標値として、互いに同じ候補テキストペアに属する前記候補テキストの間の文章間距離を算出する、請求項3に記載の音声認識装置。
- 前記選択部は、
前記関連度合いを表す前記指標値として、値が小さいほど前記候補テキストの間の関連度合いが大きいことを表す文章間距離を算出し、算出される前記文章間距離の和が最小となるように、各前記候補テキスト群から前記候補テキストを選択するか、又は、
前記関連度合いを表す前記指標値として、値が大きいほど前記候補テキストの間の関連度合いが大きいことを表す文章間距離を算出し、算出される前記文章間距離の和が最大となるように、各前記候補テキスト群から前記候補テキストを選択する、請求項4に記載の音声認識装置。 - 前記選択部は、文章間距離の和として、各文章間距離に重みを付した重み付き和を算出する、請求項5に記載の音声認識装置。
- 前記選択部は、生成された複数の前記候補テキスト群から得られる前記候補テキスト群のペア全てについて、前記候補テキスト間の関連度合いを算出する、請求項3から6いずれか一項に記載の音声認識装置。
- 前記選択部は、生成された複数の前記候補テキスト群のうち、時系列順で隣接する前記候補テキスト群のペア全てについて、前記候補テキスト間の関連度合いを算出する、請求項3から6いずれか一項に記載の音声認識装置。
- コンピュータによって実行される制御方法であって、
発話が含まれるソース音声信号から得られた複数の音声データそれぞれについて、その音声データに対応する発話の内容を表すテキストの候補である候補テキストを複数含む候補テキスト群を生成する候補生成ステップと、
複数の前記候補テキスト群の間の比較結果に基づいて、各前記音声データについて、その音声データについて生成された前記候補テキスト群の中から、その音声データによって表される発話の内容を表す候補テキストを選択する選択ステップと、を有し、
前記候補テキストは文章を表し、
前記複数の候補テキスト群は、互いに異なる第1の前記候補テキスト群および第2の前記候補テキスト群を含み、
前記第1の候補テキスト群は、互いに異なる第1の前記候補テキストおよび第2の前記候補テキストを含み、
前記第2の候補テキスト群は、互いに異なる第3の前記候補テキストおよび第4の前記候補テキストを含み、
前記選択ステップでは、前記第1の候補テキストと前記第3の候補テキストとの候補テキストペア、前記第1の候補テキストと前記第4の候補テキストとの候補テキストペア、前記第2の候補テキストと前記第3の候補テキストとの候補テキストペア、および前記第2の候補テキストと前記第4の候補テキストとの候補テキストペアを少なくとも含む、4つ以上の候補テキストペアのそれぞれに対し、互いに同じ候補テキストペアに属する前記候補テキストの間の関連度合いを表す指標値を算出することで、前記比較結果を得る
制御方法。 - 制御方法をコンピュータに実行させるプログラムであって、
前記制御方法は、
発話が含まれるソース音声信号から得られた複数の音声データそれぞれについて、その音声データに対応する発話の内容を表すテキストの候補である候補テキストを複数含む候補テキスト群を生成する候補生成ステップと、
複数の前記候補テキスト群の間の比較結果に基づいて、各前記音声データについて、その音声データについて生成された前記候補テキスト群の中から、その音声データによって表される発話の内容を表す候補テキストを選択する選択ステップと、を有し、
前記候補テキストは文章を表し、
前記複数の候補テキスト群は、互いに異なる第1の前記候補テキスト群および第2の前記候補テキスト群を含み、
前記第1の候補テキスト群は、互いに異なる第1の前記候補テキストおよび第2の前記候補テキストを含み、
前記第2の候補テキスト群は、互いに異なる第3の前記候補テキストおよび第4の前記候補テキストを含み、
前記選択ステップでは、前記第1の候補テキストと前記第3の候補テキストとの候補テキストペア、前記第1の候補テキストと前記第4の候補テキストとの候補テキストペア、前記第2の候補テキストと前記第3の候補テキストとの候補テキストペア、および前記第2の候補テキストと前記第4の候補テキストとの候補テキストペアを少なくとも含む、4つ以上の候補テキストペアのそれぞれに対し、互いに同じ候補テキストペアに属する前記候補テキストの間の関連度合いを表す指標値を算出することで、前記比較結果を得る
プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/011466 WO2021186501A1 (ja) | 2020-03-16 | 2020-03-16 | 音声認識装置、制御方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021186501A1 JPWO2021186501A1 (ja) | 2021-09-23 |
JPWO2021186501A5 JPWO2021186501A5 (ja) | 2022-11-15 |
JP7435740B2 true JP7435740B2 (ja) | 2024-02-21 |
Family
ID=77770746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022508617A Active JP7435740B2 (ja) | 2020-03-16 | 2020-03-16 | 音声認識装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230076709A1 (ja) |
JP (1) | JP7435740B2 (ja) |
WO (1) | WO2021186501A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012179A (ja) | 2005-07-19 | 2006-01-12 | Sony Corp | 自然言語処理装置および自然言語処理方法 |
JP2013101204A (ja) | 2011-11-08 | 2013-05-23 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識装置とその方法とプログラム |
JP2014521115A (ja) | 2011-07-01 | 2014-08-25 | 日本電気株式会社 | 信頼度計算の方法及び装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7058574B2 (ja) * | 2018-09-10 | 2022-04-22 | ヤフー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
-
2020
- 2020-03-16 US US17/800,616 patent/US20230076709A1/en active Pending
- 2020-03-16 JP JP2022508617A patent/JP7435740B2/ja active Active
- 2020-03-16 WO PCT/JP2020/011466 patent/WO2021186501A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012179A (ja) | 2005-07-19 | 2006-01-12 | Sony Corp | 自然言語処理装置および自然言語処理方法 |
JP2014521115A (ja) | 2011-07-01 | 2014-08-25 | 日本電気株式会社 | 信頼度計算の方法及び装置 |
JP2013101204A (ja) | 2011-11-08 | 2013-05-23 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識装置とその方法とプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021186501A1 (ja) | 2021-09-23 |
US20230076709A1 (en) | 2023-03-09 |
WO2021186501A1 (ja) | 2021-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108959246B (zh) | 基于改进的注意力机制的答案选择方法、装置和电子设备 | |
CN109408526B (zh) | Sql语句生成方法、装置、计算机设备及存储介质 | |
JP6638480B2 (ja) | 類似文書検索プログラム、類似文書検索装置、及び類似文書検索方法 | |
US8712779B2 (en) | Information retrieval system, information retrieval method, and information retrieval program | |
JP5257071B2 (ja) | 類似度計算装置及び情報検索装置 | |
CN107180084B (zh) | 词库更新方法及装置 | |
US11693854B2 (en) | Question responding apparatus, question responding method and program | |
WO2021189951A1 (zh) | 文本搜索方法、装置、计算机设备和存储介质 | |
WO2020244065A1 (zh) | 基于人工智能的字向量定义方法、装置、设备及存储介质 | |
JP2015094848A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN110795572B (zh) | 一种实体对齐方法、装置、设备及介质 | |
WO2020232898A1 (zh) | 文本分类方法、装置、电子设备及计算机非易失性可读存储介质 | |
JP2006301920A (ja) | 文書分類プログラム、文書分類方法および文書分類装置 | |
JP2004070959A (ja) | 適応型文脈依存解析 | |
CN111368037A (zh) | 基于Bert模型的文本相似度计算方法和装置 | |
WO2019093172A1 (ja) | 類似性指標値算出装置、類似検索装置および類似性指標値算出用プログラム | |
CN110941951A (zh) | 文本相似度计算方法、装置、介质及电子设备 | |
CN112818091A (zh) | 基于关键词提取的对象查询方法、装置、介质与设备 | |
WO2020170881A1 (ja) | 質問応答装置、学習装置、質問応答方法及びプログラム | |
JP6433937B2 (ja) | キーワード評価装置、類似度評価装置、検索装置、評価方法、検索方法、及びプログラム | |
US10978076B2 (en) | Speaker retrieval device, speaker retrieval method, and computer program product | |
JP7435740B2 (ja) | 音声認識装置、制御方法、及びプログラム | |
CN111694933A (zh) | 对话控制系统、对话控制方法以及存储介质 | |
US20220283776A1 (en) | Display system and method of interacting with display system | |
JP4567025B2 (ja) | テキスト分類装置、テキスト分類方法及びテキスト分類プログラム並びにそのプログラムを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220908 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7435740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |