JP6852167B2 - コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム - Google Patents
コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム Download PDFInfo
- Publication number
- JP6852167B2 JP6852167B2 JP2019539388A JP2019539388A JP6852167B2 JP 6852167 B2 JP6852167 B2 JP 6852167B2 JP 2019539388 A JP2019539388 A JP 2019539388A JP 2019539388 A JP2019539388 A JP 2019539388A JP 6852167 B2 JP6852167 B2 JP 6852167B2
- Authority
- JP
- Japan
- Prior art keywords
- arc
- confusion network
- word
- distributed representation
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 27
- 239000013598 vector Substances 0.000 claims description 41
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000010354 integration Effects 0.000 claims description 10
- 239000006185 dispersion Substances 0.000 claims description 6
- 230000006870 function Effects 0.000 description 30
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 12
- 238000010801 machine learning Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000011389 fruit/vegetable juice Nutrition 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Description
(参考非特許文献1:Lidia Mangu, Eric Brill, Andreas Stolcke,“Finding consensus in speech recognition: word error minimization and other applications of confusion networks”, Computer Speech and Language, vol.14, pp.373-400, 2000.)
以下、図2〜図3を参照してコンフュージョンネットワーク分類装置100について説明する。図2は、コンフュージョンネットワーク分類装置100の構成を示すブロック図である。図3は、コンフュージョンネットワーク分類装置100の動作を示すフローチャートである。図2に示すように、コンフュージョンネットワーク分類装置100は、コンフュージョンネットワーク分散表現系列生成部110、クラスラベル推定部120、記録部190を含む。記録部190は、コンフュージョンネットワーク分類装置100の処理に必要な情報を適宜記録する構成部である。
入力:コンフュージョンネットワーク(アーク単語集合系列、アーク重み集合系列)
出力:コンフュージョンネットワーク分散表現系列
コンフュージョンネットワーク分散表現系列生成部110は、アーク単語集合系列W1, W2, …, WTとアーク重み集合系列C1, C2, …, CTから、コンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成する(S110)。ただし、Tは1以上の整数である。なお、アーク単語集合系列の長さとアーク重み集合系列の長さはいずれもTであり、2つの系列の長さは同一となる。
入力:アーク単語集合系列
出力:アーク単語分散表現集合系列
アーク単語分散表現集合系列変換部112は、アーク単語集合Wtに含まれるアーク単語wtnを単語分散表現ωtnに変換することによりアーク単語分散表現集合Ωt=(ωt1, ωt2,…, ωtN_t)を得、アーク単語分散表現集合系列Ω1, Ω2, …, ΩTを生成する(S112)。t番目のアーク単語集合Wt(1≦t≦T)の各アーク単語wtn(1≦n≦Nt)に対して、次式によりシンボルであるアーク単語wtnをベクトルである単語分散表現ωtnに変換する。
入力:アーク単語分散表現集合系列、アーク重み集合系列
出力:コンフュージョンネットワーク分散表現系列
アーク単語分散表現集合重み付け統合部114は、アーク単語分散表現集合系列Ω1, Ω2, …, ΩTとアーク重み集合系列C1, C2, …, CTから、コンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成する(S114)。アーク単語分散表現集合重み付け統合部114は、各t(1≦t≦T)について、アーク単語分散表現集合Ωtとアーク重み集合Ctからコンフュージョンネットワーク分散表現Utを生成する。具体的には、次式により単語分散表現ωtn(1≦n≦Nt)を重み付けで統合することにより、コンフュージョンネットワーク分散表現Utを生成する。
入力:コンフュージョンネットワーク分散表現系列
出力:クラスラベル
クラスラベル推定部120は、コンフュージョンネットワーク分散表現系列U1, U2, …, UTから、クラスラベルLを推定する(S120)。コンフュージョンネットワーク分散表現系列U1, U2, …, UTに対して、以下のような処理を実行することにより、クラスラベルLを推定する。
先述の通り、クラスラベル推定部120の機能の一部であるNN(・)は、ニューラルネットワークとして構成することができるが、クラスラベル推定部120そのものもニューラルネットワークとして構成することができる。つまり、クラスラベル推定部120は、コンフュージョンネットワーク分散表現系列を入力とし、クラスラベルを出力する(例えば、RNNやCNNのような)ニューラルネットワークとして構成することができる。
ここまで、音声認識の過程で得られるコンフュージョンネットワークを用いてクラス分類器を学習し、当該クラス分類器を用いてコンフュージョンネットワーク分類装置を構成することを念頭に説明してきた。1段目の推定器に相当する音声認識器と2段目の推定器に相当するクラス分類器の組合せのように、1段目の推定過程においてコンフュージョンネットワークが生成される場合は、同様の枠組みで2段目の推定器を学習することができる。1段目の推定器と2段目の推定器の組合せとして、例えば、テキスト基本解析器とクラス分類器、音声認識器とテキスト検索器、テキスト基本解析器とテキスト検索器のような組み合わせも可能である。
第1実施形態で説明したコンフュージョンネットワーク分散表現生成装置101では、コンフュージョンネットワークを入力としたが、単語系列であるテキストを入力としてもよい。そこで、ここでは、単語系列であるテキストを入力とし、コンフュージョンネットワーク分散表現系列を生成するコンフュージョンネットワーク分散表現生成装置200について説明する。
入力:テキスト(単語系列)
出力:コンフュージョンネットワーク(アーク単語集合系列、アーク重み集合系列)
テキスト変換部210は、単語系列w1, w2, …, wTから、当該単語系列を表現するコンフュージョンネットワークを構成するアーク単語集合系列W1, W2, …, WTとアーク重み集合系列C1, C2, …, CTを生成する(S210)。ここで、単語系列w1, w2, …, wTは、例えば、形態素解析を用いて入力テキストを分割することにより得ることができる。アーク単語集合Wtは次式により生成される。
第3実施形態では、コンフュージョンネットワーク分散表現系列を用いて、コンフュージョンネットワーク間の類似度を計算する方法について説明する。
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
Claims (7)
- Tを1以上の整数とし、
Wt=(wt1, wt2, …, wtN_t) (1≦t≦T)をコンフュージョンネットワークを構成するt番目のアーク単語集合(ただし、wtn(1≦n≦Nt、Ntは1以上の整数)はアーク単語集合Wtに含まれるアーク単語)、Ct=(ct1, ct2, …, ctN_t) (1≦t≦T)を前記コンフュージョンネットワークを構成するt番目のアーク重み集合(ただし、ctn(1≦n≦Nt)はアーク単語wtnに対応するアーク重み)とし、
前記コンフュージョンネットワークを構成するアーク単語集合系列W1, W2, …, WTとアーク重み集合系列C1, C2, …, CTから、ベクトルの系列であるコンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するコンフュージョンネットワーク分散表現系列生成部と
を含むコンフュージョンネットワーク分散表現生成装置であって、
前記コンフュージョンネットワーク分散表現系列生成部は、
前記アーク単語集合Wtに含まれるアーク単語wtnを単語分散表現ωtnに変換することによりアーク単語分散表現集合Ωt=(ωt1, ωt2,…, ωtN_t)を得、アーク単語分散表現集合系列Ω1, Ω2, …, ΩTを生成するアーク単語分散表現集合系列変換部と、
前記アーク単語分散表現集合系列Ω1, Ω2, …, ΩTと前記アーク重み集合系列C1, C2,…, CTから、前記コンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するアーク単語分散表現集合重み付け統合部と
を含むコンフュージョンネットワーク分散表現生成装置。 - Tを1以上の整数とし、
Wt=(wt1, wt2, …, wtN_t) (1≦t≦T)をコンフュージョンネットワークを構成するt番目のアーク単語集合(ただし、wtn(1≦n≦Nt、Ntは1以上の整数)はアーク単語集合Wtに含まれるアーク単語)、Ct=(ct1, ct2, …, ctN_t) (1≦t≦T)を前記コンフュージョンネットワークを構成するt番目のアーク重み集合(ただし、ctn(1≦n≦Nt)はアーク単語wtnに対応するアーク重み)とし、
前記コンフュージョンネットワークを構成するアーク単語集合系列W1, W2, …, WTとアーク重み集合系列C1, C2, …, CTから、ベクトルの系列であるコンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するコンフュージョンネットワーク分散表現系列生成部と
前記コンフュージョンネットワーク分散表現系列U1, U2, …, UTから、前記コンフュージョンネットワークのクラスを示すクラスラベルを推定するクラスラベル推定部と
を含むコンフュージョンネットワーク分類装置であって、
前記コンフュージョンネットワーク分散表現系列生成部は、
前記アーク単語集合Wtに含まれるアーク単語wtnを単語分散表現ωtnに変換することによりアーク単語分散表現集合Ωt=(ωt1, ωt2,…, ωtN_t)を得、アーク単語分散表現集合系列Ω1, Ω2, …, ΩTを生成するアーク単語分散表現集合系列変換部と、
前記アーク単語分散表現集合系列Ω1, Ω2, …, ΩTと前記アーク重み集合系列C1, C2,…, CTから、前記コンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するアーク単語分散表現集合重み付け統合部と
を含むコンフュージョンネットワーク分類装置。 - 請求項3に記載のコンフュージョンネットワーク分類装置であって、
前記コンフュージョンネットワーク分散表現系列生成部と前記クラスラベル推定部は、ニューラルネットワークとして構成され、
前記コンフュージョンネットワーク分散表現系列生成部を構成するニューラルネットワークのパラメータと前記クラスラベル推定部を構成するニューラルネットワークのパラメータは、2つのニューラルネットワークを結合して得られる1つのニューラルネットワークとして学習したものである
ことを特徴とするコンフュージョンネットワーク分類装置。 - Tを1以上の整数とし、
Wt=(wt1, wt2, …, wtN_t) (1≦t≦T)をコンフュージョンネットワークを構成するt番目のアーク単語集合(ただし、wtn(1≦n≦Nt、Ntは1以上の整数)はアーク単語集合Wtに含まれるアーク単語)、Ct=(ct1, ct2, …, ctN_t) (1≦t≦T)を前記コンフュージョンネットワークを構成するt番目のアーク重み集合(ただし、ctn(1≦n≦Nt)はアーク単語wtnに対応するアーク重み)とし、
コンフュージョンネットワーク分散表現生成装置が、前記コンフュージョンネットワークを構成するアーク単語集合系列W1, W2, …, WTとアーク重み集合系列C1, C2, …, CTから、ベクトルの系列であるコンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するコンフュージョンネットワーク分散表現系列生成ステップと
を含むコンフュージョンネットワーク分散表現生成方法であって、
前記コンフュージョンネットワーク分散表現系列生成ステップは、
前記アーク単語集合Wtに含まれるアーク単語wtnを単語分散表現ωtnに変換することによりアーク単語分散表現集合Ωt=(ωt1, ωt2,…, ωtN_t)を得、アーク単語分散表現集合系列Ω1, Ω2, …, ΩTを生成するアーク単語分散表現集合系列変換ステップと、
前記アーク単語分散表現集合系列Ω1, Ω2, …, ΩTと前記アーク重み集合系列C1, C2,…, CTから、前記コンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するアーク単語分散表現集合重み付け統合ステップと
を含むコンフュージョンネットワーク分散表現生成方法。 - Tを1以上の整数とし、
Wt=(wt1, wt2, …, wtN_t) (1≦t≦T)をコンフュージョンネットワークを構成するt番目のアーク単語集合(ただし、wtn(1≦n≦Nt、Ntは1以上の整数)はアーク単語集合Wtに含まれるアーク単語)、Ct=(ct1, ct2, …, ctN_t) (1≦t≦T)を前記コンフュージョンネットワークを構成するt番目のアーク重み集合(ただし、ctn(1≦n≦Nt)はアーク単語wtnに対応するアーク重み)とし、
コンフュージョンネットワーク分類装置が、前記コンフュージョンネットワークを構成するアーク単語集合系列W1, W2, …, WTとアーク重み集合系列C1, C2, …, CTから、ベクトルの系列であるコンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するコンフュージョンネットワーク分散表現系列生成ステップと
前記コンフュージョンネットワーク分類装置が、前記コンフュージョンネットワーク分散表現系列U1, U2, …, UTから、前記コンフュージョンネットワークのクラスを示すクラスラベルを推定するクラスラベル推定ステップと
を含むコンフュージョンネットワーク分類方法であって、
前記コンフュージョンネットワーク分散表現系列生成ステップは、
前記アーク単語集合Wtに含まれるアーク単語wtnを単語分散表現ωtnに変換することによりアーク単語分散表現集合Ωt=(ωt1, ωt2,…, ωtN_t)を得、アーク単語分散表現集合系列Ω1, Ω2, …, ΩTを生成するアーク単語分散表現集合系列変換ステップと、
前記アーク単語分散表現集合系列Ω1, Ω2, …, ΩTと前記アーク重み集合系列C1, C2,…, CTから、前記コンフュージョンネットワーク分散表現系列U1, U2, …, UTを生成するアーク単語分散表現集合重み付け統合ステップと
を含むコンフュージョンネットワーク分類方法。 - 請求項1もしくは2に記載のコンフュージョンネットワーク分散表現生成装置または請求項3もしくは4に記載のコンフュージョンネットワーク分類装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017169325 | 2017-09-04 | ||
JP2017169325 | 2017-09-04 | ||
PCT/JP2018/030776 WO2019044583A1 (ja) | 2017-09-04 | 2018-08-21 | コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019044583A1 JPWO2019044583A1 (ja) | 2020-10-08 |
JP6852167B2 true JP6852167B2 (ja) | 2021-03-31 |
Family
ID=65525508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019539388A Active JP6852167B2 (ja) | 2017-09-04 | 2018-08-21 | コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11556783B2 (ja) |
JP (1) | JP6852167B2 (ja) |
WO (1) | WO2019044583A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8386264B2 (en) * | 2007-04-13 | 2013-02-26 | Nippon Telegraph And Telephone Corporation | Speech data retrieval apparatus, speech data retrieval method, speech data retrieval program and computer usable medium having computer readable speech data retrieval program embodied therein |
JP5980142B2 (ja) * | 2013-02-20 | 2016-08-31 | 日本電信電話株式会社 | 学習データ選択装置、識別的音声認識精度推定装置、学習データ選択方法、識別的音声認識精度推定方法、プログラム |
JP6486789B2 (ja) * | 2015-07-22 | 2019-03-20 | 日本電信電話株式会社 | 音声認識装置、音声認識方法、プログラム |
-
2018
- 2018-08-21 US US16/641,779 patent/US11556783B2/en active Active
- 2018-08-21 WO PCT/JP2018/030776 patent/WO2019044583A1/ja active Application Filing
- 2018-08-21 JP JP2019539388A patent/JP6852167B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11556783B2 (en) | 2023-01-17 |
US20200218975A1 (en) | 2020-07-09 |
WO2019044583A1 (ja) | 2019-03-07 |
JPWO2019044583A1 (ja) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11106714B2 (en) | Summary generating apparatus, summary generating method and computer program | |
JP3768205B2 (ja) | 形態素解析装置、形態素解析方法及び形態素解析プログラム | |
CN108475262A (zh) | 用于文本处理的电子设备和方法 | |
JP6812381B2 (ja) | 音声認識精度劣化要因推定装置、音声認識精度劣化要因推定方法、プログラム | |
JP7070653B2 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
US11587553B2 (en) | Appropriate utterance estimate model learning apparatus, appropriate utterance judgement apparatus, appropriate utterance estimate model learning method, appropriate utterance judgement method, and program | |
JP2016224483A (ja) | モデル学習装置、方法、及びプログラム | |
US20190129948A1 (en) | Generating method, generating device, and recording medium | |
JP7211103B2 (ja) | 系列ラベリング装置、系列ラベリング方法、およびプログラム | |
JP6852167B2 (ja) | コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム | |
JP6549064B2 (ja) | 音声認識装置、音声認識方法、プログラム | |
JP4328362B2 (ja) | 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 | |
JP6558856B2 (ja) | 形態素解析装置、モデル学習装置、及びプログラム | |
JP6486789B2 (ja) | 音声認識装置、音声認識方法、プログラム | |
JP6353408B2 (ja) | 言語モデル適応装置、言語モデル適応方法、プログラム | |
JP2022185799A (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
JP6728083B2 (ja) | 中間特徴量計算装置、音響モデル学習装置、音声認識装置、中間特徴量計算方法、音響モデル学習方法、音声認識方法、プログラム | |
JP5342574B2 (ja) | トピックモデリング装置、トピックモデリング方法、及びプログラム | |
JP6441203B2 (ja) | 音声認識結果圧縮装置、音声認識結果圧縮方法、プログラム | |
JP5780516B2 (ja) | モデル縮減装置とその方法とプログラム | |
WO2022162767A1 (ja) | 誤り訂正装置、誤り訂正方法、プログラム | |
JP5700566B2 (ja) | スコアリングモデル生成装置、学習データ生成装置、検索システム、スコアリングモデル生成方法、学習データ生成方法、検索方法及びそのプログラム | |
JP7017176B2 (ja) | 学習装置、識別装置、それらの方法、およびプログラム | |
US11462212B2 (en) | Document identification device, document identification method, and program | |
Brunet et al. | ICL Markup: Structuring In-Context Learning using Soft-Token Tags |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200303 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6852167 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |