JP7364512B2 - ラベル付与モデル生成装置、及びラベル付与モデル生成方法 - Google Patents

ラベル付与モデル生成装置、及びラベル付与モデル生成方法 Download PDF

Info

Publication number
JP7364512B2
JP7364512B2 JP2020054490A JP2020054490A JP7364512B2 JP 7364512 B2 JP7364512 B2 JP 7364512B2 JP 2020054490 A JP2020054490 A JP 2020054490A JP 2020054490 A JP2020054490 A JP 2020054490A JP 7364512 B2 JP7364512 B2 JP 7364512B2
Authority
JP
Japan
Prior art keywords
word
feature
deviation
labeling model
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054490A
Other languages
English (en)
Other versions
JP2021157282A (ja
Inventor
琢也 小田
美智子 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020054490A priority Critical patent/JP7364512B2/ja
Priority to US17/072,268 priority patent/US11610062B2/en
Publication of JP2021157282A publication Critical patent/JP2021157282A/ja
Application granted granted Critical
Publication of JP7364512B2 publication Critical patent/JP7364512B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、ラベル付与モデル生成装置、及びラベル付与モデル生成方法に関する。
特許文献1には、文書に含まれる名称を分類する分類器の学習データを生成する学習データ生成方法に関して記載されている。上記学習データ生成方法では、抽出する処理と、評価する処理と、置換する処理とをコンピュータが実行する。抽出する処理は、分類にかかる名称の判別候補に正例または負例が付与された学習データについて、判別候補に含まれる特徴素を抽出する。評価する処理は、正例または負例における、抽出した特徴素の偏り度合いを評価する。置換する処理は、評価した偏り度合いに応じて判別候補の名称を、名称に対応付けて記憶部に記憶された別名称に置換する。
特開2019-160236号公報
特許文献1に記載されているように、文書検索における検索精度の向上等を目的として、検索対象となる文書に含まれている単語にラベルを付与することが行われている。ラベルの付与を効率よく行うためには、機械学習モデルを利用することが有効であるが、その場合、モデルの精度を確保するために質のよい学習データを用意する必要がある。
特許文献1では、分類にかかる名称の判別候補に正例または負例が付与された学習データについて、判別候補に含まれる特徴素を抽出し、正例または負例における、抽出した特徴素の偏り度合いを評価し、評価した偏り度合いに応じて判別候補の名称を、名称に対応付けて記憶部に記憶された別名称に置換している。
しかし特許文献1では、分類器の特性に影響を与える可能性のある因子である、共通の特徴素を有する単語が複数存在する場合における各単語の数の偏りについては考慮されていない。
本発明は、上記事情に鑑みなされたものであり、その目的は、文書に含まれている単語に適切なラベルを付与することが可能な、ラベル付与モデル生成装置及びラベル付与モデル生成方法を提供することにある。
上記目的を達成するための本発明の一つは、対象とする文書である対象文書に含まれている単語にラベルを付与する機械学習モデルであるラベル付与モデルを生成する情報処理装置であるラベル付与モデル生成装置であって、前記ラベル付与モデルは、付与しようとする複数のラベルの夫々について、ラベルと、当該ラベルの付与対象となるために単語が有するべき特徴量である特徴量と、前記特徴量を有する単語に対して当該ラベルを付与するか否かの判断指標であるスコアとを対応づけた情報を含み、対象文書に含まれている単語へのラベルの付与は、前記文書から抽出される単語と当該単語について抽出される特徴量との組合せを前記ラベル付与モデルに与えることにより取得される前記スコアに基づき行われ、前記ラベル付与モデルの生成に用いる複数の学習用文書を記憶し、各前記学習用文書において共通の前記特徴量を有する単語の出現頻度の偏差である単語数偏差に基づき前記学習用文書単位で前記スコアを求めることにより前記ラベル付与モデルを生成する。
その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄、及び図面により明らかにされる。
本発明によれば、文書に含まれている単語に適切なラベルを付与することができる。
文書検索システムの概略的な構成を示すブロック図である。 文書検索システムの概略的な機能を説明するシステムフロー図である。 文書検索装置等の構成に用いる情報処理装置の一例を示すブロック図である。 モデル生成装置が備える主な機能を説明するシステムフロー図である。 ラベル対象単語リストの一例である。 特徴量テーブルの一例である。 特徴量偏差テーブルの一例である。 単語数偏差テーブルの一例である。 偏差調整テーブルの一例である。 偏差確認画面の一例である。 調整設定画面の一例である。 ラベル付与モデルの一例である。 ラベル付与装置が備える主な機能を説明するシステムフロー図である。 単語/特徴量テーブルの一例である。 単語/ラベルテーブルの一例である。 文書検索装置が備える主な機能を説明するシステムフロー図である。
以下、実施形態について図面を参照しつつ説明する。以下の説明において、同一のまたは類似する構成について同一の符号を付して重複した説明を省略することがある。また以下の記載および図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。また本発明は、他の種々の形態でも実施する事が可能である。とくに限定しない限り、各構成要素は単数でも複数でも構わない。また以下の説明では、「テーブル」という表現にて各種情報を説明するが、各種情報は、これら以外のデータ構造で表現されていてもよい。また識別情報について説明する際、「識別子」、「ID」等の表現を適宜用いるが、これらについてはお互いに置換可能である。
図1は、一実施形態として示す情報処理システム(以下、「文書検索システム1」と称する。)の概略的な構成を示す図である。同図に示すように、文書検索システム1は、モデル生成装置100、ラベル付与装置200、文書検索装置300、ユーザ装置2、及び管理装置3を含む。これらの装置はいずれも情報処理装置(コンピュータ)を用いて構成されている。尚、これら装置の全部または一部を共通の情報処理装置によって実現してもよい。例えば、モデル生成装置100、ラベル付与装置200、及び管理装置3を、共通の情報処理装置で実現してもよい。また文書検索装置300とユーザ装置2を、共通の情報処理装置で実現してもよい。
モデル生成装置100、ラベル付与装置200、文書検索装置300、及び管理装置3は、第1通信ネットワーク5を介して通信可能に接続されている。文書検索装置300とユーザ装置2は、第2通信ネットワーク6を介して通信可能に接続されている。第1通信ネットワーク5と第2通信ネットワーク6は共通の通信ネットワークであってもよい。
第1通信ネットワーク及び第2通信ネットワーク6は、有線方式または無線方式の通信基盤であり、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、
WiFi(登録商標)、インターネット、専用線、各種データ通信網等である。第1通信
ネットワーク及び第2通信ネットワーク6は、種類の異なる通信基盤を組み合わせたものでもよい。
ユーザ装置2は、文書検索装置300を利用するユーザが操作する情報処理装置である。また管理装置3は、文書検索システム1の管理者が操作する情報処理装置である。ユーザと管理者は共通でもよい。
図2は、文書検索システム1の概略的な機能を説明するシステムフロー図である。同図に示すように、文書検索装置300は、テキストデータ等の所定のデータ形式で記述された多数の文書群である文書データ(ラベル付与済)215を検索対象として、ユーザ装置2から送られてくる検索条件(クエリ)による検索処理を実行し、検索結果をユーザ装置2に返す。
文書データ(ラベル付与済)215は、ラベルの付与対象の文書データである文書データ(ラベル無し)211に含まれている単語についてラベル付与装置200がラベルを付与することにより生成される。ラベル付与装置200は、機械学習モデルであるラベル付与モデル117を用いて文書データ(ラベル無し)211に含まれている単語にラベルを付与することにより、単語とラベルを対応付けた情報が付帯する文書データ(ラベル付与済)215を生成する。
モデル生成装置100は、ラベル付与モデル117を生成する情報処理装置である。モデル生成装置100は、付与しようとするラベルと、当該ラベルの付与対象となる一つ以上の単語のセットを含む情報である、ラベル対象単語リスト111と、学習用に用意される、特徴量の抽出元の文書データである学習用文書データ(ラベル無し)112とに基づき、ラベル付与モデル117を生成する。具体的には、モデル生成装置100は、ラベル対象単語リスト111の各単語について、例えば、公知の特徴量抽出アルゴリズムにより学習用文書データ(ラベル無し)112から特徴量を抽出し、抽出した各特徴量について夫々の文書中における出現頻度をスコアリングすることにより得られる確率モデルをラベル付与モデル117として生成する。
ラベル対象単語リスト111及び学習用文書データ(ラベル無し)112は、例えば、管理者が管理装置3を介して入力する。ラベル対象単語リスト111は、例えば、管理者やユーザ等の人が作成してもよいし、公知のラベル抽出手法(トピックモデルを用いる方法等)によって自動生成してもよい。後者の学習用文書データ(ラベル無し)112は、例えば、文書検索装置300のユーザが従事する業務分野に関連する文書の文書データである。
図3に、モデル生成装置100、ラベル付与装置2000、文書検索装置300、ユーザ装置2、及び管理装置3の夫々の実現に用いる情報処理装置のハードウェア構成の一例を示す。同図に示すように、例示する情報処理装置10は、プロセッサ11、主記憶装置12、補助記憶装置13、入力装置14、出力装置15、及び通信装置16を備える。
尚、情報処理装置10は、その全部または一部が、例えば、クラウドシステムによって提供される仮想サーバのように、仮想化技術やプロセス空間分離技術等を用いて提供される仮想的な情報処理資源を用いて実現されるものであってもよい。また情報処理装置10によって提供される機能の全部または一部を、例えば、クラウドシステムがAPI(Application Programming Interface)等を介して提供するサービスによって実現してもよい
プロセッサ11は、例えば、CPU(Central Processing Unit)、MPU(Micro Pro
cessing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable
Gate Array)、ASIC(Application Specific Integrated Circuit)、AI(Artificial Intelligence)チップ等を用いて構成されている。
主記憶装置12は、プログラムやデータを記憶する装置であり、例えば、ROM(Read
Only Memory)、RAM(Random Access Memory)、不揮発性メモリ(NVRAM(Non Volatile RAM))等である。
補助記憶装置13は、例えば、ハードディスクドライブ、SSD(Solid State Drive
)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDカードや光学式記録媒体等の記録媒体の読取/書込装置、クラウドサーバの記憶領域等である。補助記憶装置13には、記録媒体の読取装置や通信装置16を介してプログラムやデータを読み込むことができる。補助記憶装置13に格納(記憶)されているプログラムやデータは主記憶装置12に随時読み込まれる。
入力装置14は、外部からの入力を受け付けるインタフェースであり、例えば、キーボード、マウス、タッチパネル、カードリーダ、ペン入力方式のタブレット、音声入力装置等である。
出力装置15は、処理経過や処理結果等の各種情報を出力するインタフェースである。出力装置15は、例えば、上記の各種情報を可視化する表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、上記の各種情報を音声化する装置(音声出力装置(スピーカ等))、上記の各種情報を文字化する装置(印字装置等)である。尚、例えば、情報処理装置10が通信装置16を介して他の装置との間で情報の入力や出力を行う構成としてもよい。
通信装置16は、他の装置との間の通信を実現する装置である。通信装置16は、第1通信ネットワーク5や第2通信ネットワーク6を介した他の装置との間の通信を実現する、有線方式または無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール、USBモジュール等である。
モデル生成装置100、ラベル付与装置200、文書検索装置300、ユーザ装置2、及び管理装置3の夫々には、例えば、オペレーティングシステム、ファイルシステム、DBMS(DataBase Management System)(リレーショナルデータベース、NoSQL等)、KVS(Key-Value Store)等が導入されていてもよい。
モデル生成装置100、ラベル付与装置200、文書検索装置300、ユーザ装置2、及び管理装置3の夫々の機能は、プロセッサ11が、主記憶装置12に格納されているプログラムを読み出して実行することにより、もしくは、これらの装置を構成するハードウェア(FPGA、ASIC、AIチップ等)によって実現される。
図4は、モデル生成装置100が備える主な機能を説明するシステムフロー図である。同図に示すように、モデル生成装置100は、記憶部110、情報受付部120、自然言語解析部125、単語検出/特徴量抽出部130、偏差調整テーブル生成部135、偏差調整部140、ラベル付与モデル生成部150、及びモデル送信部160の各機能を備える。
記憶部110は、ラベル対象単語リスト111、学習用文書データ(ラベル無し)112、中間テーブル(特徴量テーブル113、特徴量偏差テーブル114、単語数偏差テーブル115)、偏差調整テーブル116、及びラベル付与モデル117を記憶する。記憶
部110は、例えば、DBMSが提供するデータベースのテーブルや、ファイルシステムが提供するファイルとして、これらの情報(データ)を記憶する。
情報受付部120は、管理装置3を介して管理者からラベル対象単語リスト111及び学習用文書データ(ラベル無し)112の入力を受け付け、受け付けたこれらの情報を記憶部110が記憶する。
図5にラベル対象単語リスト111の一例を示す。同図に示すように、ラベル対象単語リスト111は、ラベルID1111、ラベル1112、単語ID1113、及び単語1114の各項目を対応づけた複数のエントリ(レコード)で構成される。
上記項目のうち、ラベルID1111には、単語に付与するラベルの識別子であるラベルIDが設定される。ラベル1112には、ラベルが設定される。単語ID1113には、単語の識別子である単語IDが設定される。単語1114には、ラベルの付与対象となる単語が設定される。
図4に戻り、自然言語解析部125は、学習用文書データ(ラベル無し)112に含まれている文書(文章)を、形態素解析(文節構造モデルや確率的言語モデルによる方法、点予測による等)等の自然言語解析処理を行うことにより形態素に分割し、各形態素に品詞等の情報を割り当てることにより、単語検出/特徴量抽出部130による単語検出が可能な状態とする。
単語検出/特徴量抽出部130は、ラベル対象単語リスト111に含まれている各単語を学習用文書データ(ラベル無し)112から検出し、検出した各単語について、公知の特徴量抽出アルゴリズムを適用することにより、学習用文書データ(ラベル無し)112から各単語に関する特徴量を抽出する。抽出する特徴量は、例えば、当該単語の接頭辞や接尾辞に関するもの、当該単語の周辺に表れる単語(共起語)に関するもの、当該単語の周辺の文脈や文構造に関するもの等である。尚、以上の検出及び抽出は、ラベル単位かつ文書単位で行われる。記憶部110は、上記抽出の結果を、中間テーブル(特徴量テーブル113、特徴量偏差テーブル114、単語数偏差テーブル115)として記憶する。
図6に上記中間テーブルの一つである特徴量テーブル113の一例を示す。特徴量テーブル113には、ラベル対象単語リスト111の各単語について特徴量を抽出した結果が管理される。
同図に示すように、特徴量テーブル113は、ラベルID1131、文書ID1132、頁番号1133、文ID1134、単語ID1135、単語1136、特徴量ID1137、及び特徴量1138の各項目を対応づけた複数のエントリ(レコード)で構成される。
上記項目のうち、ラベルID1131には、ラベルIDが設定される。文書ID1132には、文書(文書データ)の識別子である文書IDが設定される。頁番号1133には、当該文書における頁番号が設定される。文ID1134には、当該文書を構成する各文に付与される識別子である文IDが設定される。単語ID1135には、単語IDが設定される。単語1136には、当該ラベルが付与される単語が設定される。特徴量1137には、当該単語について当該文書から抽出された特徴量の識別子である特徴量IDが設定される。特徴量1138には、当該文書から抽出された特徴量が設定される。
図7に上記中間テーブルの一つである特徴量偏差テーブル114の一例を示す。特徴量偏差テーブル114には、ラベル毎、文書毎の、各特徴量の偏差(当該文書中の当該ラベ
ルについて抽出された各特徴量の出現回数の偏差)が管理される。
同図に示すように、特徴量偏差テーブル114は、ラベルID1141、文書ID1142、特徴量ID1143、出現回数1144、及び特徴量偏差1145の各項目を対応づけた複数のエントリ(レコード)で構成される。
上記項目のうち、ラベルID1141には、ラベルIDが設定される。文書ID1142には、文書IDが設定される。特徴量ID1143には、特徴量IDが設定される。出現回数1144には、当該文書中の当該特徴量の出現回数が設定される。特徴量偏差1145には、当該ラベル、当該文書についての、各特徴量の偏差(当該文書中の当該ラベルについて抽出された各特徴量の出現回数の偏差。以下、「特徴量偏差」と称する。)が設定される。本例では、特徴量偏差の基準値を「60」に設定している。尚、本実施形態では、特徴量のラベル付与モデル117への影響度を示す指標として出現回数1144を用いるが、特徴量の影響度は、他の因子(例えば、特徴量の抽出に用いた単語と共起語の類似度等)に基づく値としてもよい。
図8に上記中間テーブルの一つである単語数偏差テーブル115の一例を示す。単語数偏差テーブル115には、ラベル毎、文書毎、特徴量毎の、単語数の偏差(当該文書において当該特徴量を有する当該ラベルの各単語のヒット件数の偏差)が管理される。
同図に示すように、単語数偏差テーブル115は、ラベルID1151、文書ID1152、特徴量ID1153、単語ID1154、ヒット件数1155、及び単語数偏差1156の各項目を対応づけた複数のエントリ(レコード)で構成される。
上記項目のうち、ラベルID1151には、ラベルIDが設定される。文書ID1152には、文書IDが設定される。特徴量ID1153には、特徴量IDが設定される。単語ID1154には、単語IDが設定される。ヒット件数1155には、当該文書において当該特徴量を有する当該ラベルの各単語のヒット件数が設定される。単語数偏差1156には、各単語の上記ヒット件数の偏差(当該文書中の当該特徴量を有する当該ラベルの各単語のヒット件数の偏差。以下、「単語数偏差」と称する。)が設定される。本例では、単語数偏差の基準値を「5」に設定している。
図4に戻り、偏差調整テーブル生成部135は、中間テーブル(特徴量テーブル113、特徴量偏差テーブル114、単語数偏差テーブル115)に基づき、偏差調整テーブル116を生成する。
図9に偏差調整テーブル116の一例を示す。偏差調整テーブル116には、ラベル毎、文書毎、特徴量毎、単語毎に設定される、特徴量の重み(以下、「特徴量重み」と称する。)と単語数の重み(以下、「単語数重み」と称する。)と、これらの重みを反映して求めた、ラベル毎、文書毎、特徴量毎、単語毎のスコアが管理される。
同図に示すように、偏差調整テーブル116は、ラベルID1161、文書ID1162、特徴量ID1163、単語ID1164、特徴量偏差1165、特徴量重み1166、単語数偏差1167、単語数重み1168、及びスコア1169の各項目を対応づけた複数のエントリ(レコード)で構成される。
上記項目のうち、ラベルID1161には、ラベルIDが設定される。文書ID1162には、文書IDが設定される。特徴量ID1163には、特徴量IDが設定される。単語ID1164には、単語IDが設定される。
特徴量偏差1165には、特徴量偏差テーブル114の特徴量偏差1145の値(特徴量偏差)が設定される。特徴量重み1166には、当該特徴量について設定される(特徴量単位で設定される)特徴量重みが設定される。尚、後述するように、特徴量重みは管理者が手動で調節することもできる。特徴量偏差1165には、例えば、デフォルト値として「1.0」が設定される。
単語数偏差1167には、単語数偏差テーブル115の単語数偏差1156の値(単語数偏差)が設定される。単語数重み1168には、当該特徴量の当該単語について設定される(単語単位で設定される)単語数重みが設定される。尚、後述するように、単語数重みは管理者が手動で調節することもできる。単語数偏差1167には、例えば、デフォルト値として「1.0」が設定る。
スコア1169には、特徴量偏差1165の値を「a」、特徴量重み1166の値を「b」、単語数偏差1167の値を「c」、単語数重み1168の値を「d」として、a×b+c×dから求められる値(以下、「スコア」と称する。)が設定される。尚、このスコアは、前述した確率モデル(ラベル付与モデル)の生成に用いられる。
図4に戻り、偏差調整部140は、偏差調整テーブル116の内容を調整する。偏差調整部140は、まず次の判定基準(判定条件)に基づき、調整の要否をラベル毎に判定する。
判定基準1:共通の特徴量を有する単語が抽出元の文書に複数存在し、それら複数の単語の数に大きな偏りがあるか(共通の特徴量を有する単語のうち単語数偏差が第1閾値を超えるもの(以下、「特定の単語」と称する。)が第2閾値以下の割合で存在するか)。
判定基準2:複数の特徴量の夫々の出現頻度に大きな偏りがあるか(特徴量偏差が第3閾値を超える特徴量(以下、「特定の特徴量」と称する。)が第4閾値以下の割合で存在するか)。
尚、上記の各判定基準における各閾値は、例えば、管理者によって予め設定されているものとする。続いて、偏差調整部140は、上記いずれかの判定基準を満たすラベルがあれば、当該ラベルについて以下のいずれかの方法により偏差調整テーブル116の内容を調整する。
調整方法1:上記いずれかの判定基準を満たす要因となっている文書を除外して偏差調整テーブル116を生成し直す。尚、要因となっている文書は、判定基準1の場合は、例えば、特定の単語の抽出元の文書であり、判定基準2の場合は、例えば、特定の特徴量の抽出元の文書である。
調整方法2:判定基準1を満たすラベルについて、共通の特徴量を有する単語の単語数重みを調整する(例えば、上記特定の単語の単語数重みを減らす)。
調整方法3:判定基準2を満たすラベルについて、抽出された特徴量の特徴量重みを調整する(例えば、上記特定の特徴量の特徴量重みを減らす)。
尚、以上に示した偏差調整テーブル116の調整は、例えば、ソフトウェアにより自動的に行ってもよい。また例えば、以下に説明するように、管理者との間での対話処理により偏差調整テーブル116の内容を調整するようにしてもよい。
図10は、対話処理で偏差調整テーブル116の調整を行う場合に偏差調整部140が
管理装置3に表示する画面(以下、「偏差確認画面1000」と称する。)の一例である。同図に示すように、例示する偏差確認画面1000は、ラベル指定欄1011、単語数/特徴量偏差表示欄1012、及び偏差調整ボタン1014を含む。
このうちラベル指定欄1011には、管理者が、内容を確認しようとする偏差調整テーブル116のラベルを指定する。指定されたラベルのことを以下、「指定ラベル」と称する。
単語数/特徴量偏差表示欄1012には、指定ラベルについての偏差調整テーブル116の内容が視覚的に表示される。本例では、単語数/特徴量偏差表示欄1012に、偏差調整テーブル116の内容が、文書(文書ID)毎に、夫々から検出された単語数又は抽出された特徴量数を示す棒グラフ1013が表示されている。また各棒グラフ1013には、文書毎の、抽出した複数の特徴量の夫々の出現頻度と各特徴量を有する単語の数が、夫々の割合に応じた面積で視覚的に描画されている。管理者は、この棒グラフ1013から、単語数偏差や特徴量偏差の様子を容易に把握することができる。例えば、例示する棒グラフ1013の場合、管理者は、文書IDが「1」の文書は「特徴量1」の特徴量偏差が他の文書に比べて大きいことや、文書IDが「1」の文書は「特徴量1」における「単語A」の単語数偏差が当該特徴量における他の単語の偏差よりも大きいこと等を容易に把握することができる。尚、偏差確認画面1000に、偏差調整テーブル116の内容をテーブル形式で表示するようにしてもよい。
管理者は、偏差調整テーブル116の内容を調整する場合、偏差調整ボタン1014を操作する。
図11は、管理者が偏差調整ボタン1014を操作した場合に偏差調整部140が管理装置3に表示する画面(以下、「調整設定画面1100」と称する。)の一例である。同図に示すように、例示する調整設定画面1100は、指定ラベル表示欄1101、文書除外指定欄1110、単語数偏差調整欄1120、特徴量偏差調整欄1130、スコア表示欄1140、決定ボタン1191、及びキャンセルボタン1192を含む。
指定ラベル表示欄1101には、偏差確認画面1000で指定されたラベル(指定ラベル)が表示される。
文書除外指定欄1110は、特定の文書を除外することにより偏差調整テーブル116の内容を調整する場合(前述した調整方法1で調整する場合)に用いられる。同図に示すように、文書除外指定欄1110は、除外有無設定欄1111及び文書指定欄1115を含む。
管理者は、文書を除外することにより偏差調整テーブル116の内容を調整する場合、文書除外指定欄1110の「しない」をチェックし、文書指定欄1115を利用して除外する文書の文書IDを指定する。管理者は、例えば、前述の第1閾値を超えるような単語数偏差を生じさせている要因となっている文書や、前記の第3閾値を超えるような特徴量偏差を生じさせている要因となっている文書を文書指定欄1115に指定する。尚、除外する文書は複数指定することもできる。
単語数偏差調整欄1120は、単語数偏差を調整することにより偏差調整テーブル116の内容を調整する場合(前述した調整方法2で調整を行う場合)に用いられる。同図に示すように、単語数偏差調整欄1120は、特徴量指定欄1121、単語指定欄1122、及び単語数重み調整欄1124を含む。管理者は、特徴量指定欄1121に特徴量(特徴量ID)を指定し、単語指定欄1122に単語(単語ID)を指定し、当該単語につい
ての当該特徴量における単語数重みを単語数重み調整欄1124に指定する。単語数偏差調整欄1120には、特徴量(特徴量ID)と単語(単語ID)の一つ以上の組み合わせの夫々について、単語数偏差の調整量を個別に指定することができる。単語数重み調整欄1124は、逆三角形のアイコン1123をスライドさせることで単語数重みを容易に指定できるようになっている。アイコン1123を右に置くほど単語数重みは大きくなる。アイコン1123を左端に置くと単語数重みは「0.0」に設定され、アイコン1123を
右端に置くと単語数重みは「1.0」に設定される。
特徴量偏差調整欄1130は、特徴量偏差を調整することにより偏差調整テーブル116の内容を調整する場合(前述した調整方法3で調整を行う場合)に用いられる。同図に示すように、特徴量偏差調整欄1130は、文書指定欄1131、特徴量指定欄1132、及び特徴量重み調整欄1133を含む。管理者は、文書指定欄1131に文書(文書ID)を指定し、特徴量指定欄1132に特徴量(特徴量ID)を指定し、当該文書についての当該特徴量の特徴量重みを特徴量重み調整欄1133に指定する。特徴量偏差調整欄1130には、文書(文章ID)と特徴量(特徴量ID)の一つ以上の組み合わせの夫々について、特徴量偏差の調整量を個別に指定することができる。特徴量重み調整欄1133は、逆三角形のアイコン1134をスライドさせることで特徴量重みを容易に指定できるようになっている。アイコン1123を右に置くほど単語数重みは大きくなる。アイコン1134を左端に置くと特徴量重みは「0.0」に設定され、アイコン1134を右端に
置くと特徴量重みは「1.0」に設定される。
以上のように、管理者は、調整設定画面1100を利用して、調整方法1~3のいずれかによる方法で偏差調整テーブル116の内容を容易かつ柔軟に調整することができる。尚、文書除外指定欄1110、単語数偏差調整欄1120、及び特徴量偏差調整欄1130は、内容に矛盾が生じない範囲でこれらの2つ以上を同時に併用することも可能である。その場合、各欄に設定された内容がアンド(&)条件で適用された上でスコアが算出される。
図11のスコア表示欄1140には、文書除外指定欄1110、単語数偏差調整欄1120、及び特徴量偏差調整欄1130に指定された内容に基づき求められた、当該ラベルの文書(文書ID)毎のスコアが棒グラフ1141で表示される。棒グラフ1141には、当該スコアにおける各特徴量や各単語の貢献度を示す情報が視覚的に表示される。
以上のようにして調整された内容は、偏差調整部140によって偏差調整テーブル116に反映される。
図4に戻り、続いて、ラベル付与モデル生成部150が、偏差調整テーブル116に基づきラベル付与モデル117を生成する。
図12に、ラベル付与モデル117の一例を示す。例示するラベル付与モデル117は、ラベルID1171、ラベル1172、特徴量ID1173、特徴量1174、及びスコア1175の各項目からなる複数のエントリ(レコード)で構成される。例示するラベル付与モデル117は、ラベルID1171で特定される各ラベルについての複数のラベル付与モデルを含む。
上記項目のうち、ラベルID1171には、ラベルIDが設定される。ラベル1172には、ラベルが設定される。特徴量ID1173には、特徴量IDが設定される。特徴量1174には、特徴量が設定される。スコア1175には、偏差調整テーブル116のスコア1169の値を当該特徴量について合計した値が設定される。
図4に戻り、続いて、モデル送信部160が、生成されたラベル付与モデル117をラベル付与装置200に送信する。
図13は、図1に示したラベル付与装置200が備える主な機能を説明するシステムフロー図である。同図に示すように、ラベル付与装置200は、記憶部210、情報受付部220、自然言語解析部225、単語検出/特徴量抽出部230、モデル受信部235、ラベル付与部240、ラベル編集部250、及び文書データ(ラベル付与済)生成送信部260の各機能を備える。
記憶部210は、文書データ(ラベル無し)211、ラベル付与モデル117、単語/特徴量テーブル213、単語/ラベルテーブル214、及び文書データ(ラベル付与済)215を記憶する。記憶部210は、例えば、DBMSが提供するデータベースのテーブルや、ファイルシステムが提供するファイルとして、これらの情報(データ)を記憶する。
情報受付部220は、管理装置3を介して管理者から文書データ(ラベル付与対象)を受け付ける。受け付けた文書データ(ラベル付与対象)は、記憶部210が文書データ(ラベル無し)211として記憶する。
自然言語解析部225は、文書データ(ラベル無し)211に含まれている文書(文章)を、形態素解析(文節構造モデルや確率的言語モデルによる方法、点予測による等)等の自然言語解析処理を行って形態素に分割し、各形態素に品詞等の情報を割り当て、単語検出/特徴量抽出部230による単語検出が可能な状態にする。
単語検出/特徴量抽出部230は、自然言語解析部225による解析結果に基づき、文書データ(ラベル無し)211に含まれている単語を検出し、検出した単語について、例えば、公知の特徴量抽出アルゴリズムにより文書データ(ラベル無し)211から当該単語に関する特徴量を抽出する。抽出する特徴量は、例えば、当該単語の接頭辞や接尾辞に関するもの、当該単語の周辺に表れる単語(共起語)に関するもの、当該単語の周辺の文脈や文構造に関するもの等である。単語検出/特徴量抽出部230が抽出した特徴量は、記憶部210が単語/特徴量テーブル213として記憶する。
図14に単語/特徴量テーブル213の一例を示す。同図に示すように、単語/特徴量テーブル213は、単語2131及び特徴量2132の各項目を有する複数のエントリ(レコード)で構成される。上記項目のうち、単語2131には、単語検出/特徴量抽出部230が文書データ(ラベル無し)211から検出した単語が設定される。特徴量2132には、単語検出/特徴量抽出部230が当該単語について文書データ(ラベル無し)211から抽出した特徴量が設定される。
図13に戻り、ラベル付与部240は、単語/特徴量テーブル213にラベル付与モデル117を適用することにより、単語検出/特徴量抽出部230が文書データ(ラベル無し)211から検出した単語にラベルを付与し、単語とラベルとの対応を示すデータである単語/ラベルテーブルを生成する。ラベル付与部240が生成した単語/ラベルテーブルは、記憶部210が単語/ラベルテーブル214として記憶する。
例えば、ラベル付与モデル117が図12に示す内容であり、単語/特徴量テーブル213が図14に示す内容である場合、単語/特徴量テーブル213の単語2131「M加工機」は、特徴量2132「終端文字=”機”」、「先頭文字=”M”」がラベル付与モデルのラベルID1171「L0001」の特徴量1174と一致している。この場合、ラベ
ル付与部240は、ラベル付与モデル117のスコア「0.3024」と「0.0901」を合計し
た値「0.4105」が、予め設定された閾値を超えるか否かにより、当該単語「M加工機」にラベルを設定するか否かを判定し、上記閾値を超えていれば、ラベル1172「工作機械」を設定する。
図15に単語/ラベルテーブル214の一例を示す。同図に示すように、単語/ラベルテーブル214は、単語2141及びラベル2142の各項目を有する複数のエントリ(レコード)で構成される。上記項目のうち単語2141には、単語検出/特徴量抽出部230が文書データ(ラベル無し)211から検出した単語が設定される。ラベル2142には、ラベル付与部240が当該単語に付与したラベルが設定される。
図13に戻り、ラベル編集部250は、管理装置3を介して、単語/ラベルテーブル214の編集環境を管理者に提供する。管理者は、上記編集環境を利用して対話形式で単語/ラベルテーブル214の内容の調整を容易に行うことができる。
文書データ(ラベル付与済)生成送信部260は、文書データ(ラベル無し)211に単語/ラベルテーブル214を付帯させたデータ(文書データ(ラベル付与済)215)を生成し、生成した文書データ(ラベル付与済)215を文書検索装置300に送信する。
図16は、図1に示した文書検索装置300が備える主な機能を説明するシステムフロー図である。同図に示すように、文書検索装置300は、記憶部310、文書データ(ラベル付与済)受信部320、検索条件受付部330、検索処理部340、及び検索結果出力部350の各機能を備える。
記憶部310は、文書データ(ラベル付与済)215を記憶する。記憶部310は、例えば、DBMSが提供するデータベースのテーブルや、ファイルシステムが提供するファイルとして、文書データ(ラベル付与済)215を記憶する。
文書データ(ラベル付与済)受信部320は、ラベル付与装置200から送られてくる、単語/ラベルテーブル214が付帯する文書データ(ラベル付与済)215を受信し、記憶部310が、単語/ラベルテーブル214とともに文書データ(ラベル付与済)215として記憶する。
検索条件受付部330は、ユーザ装置2を介してユーザが入力する検索条件(クエリ)を受け付ける。
検索処理部340は、上記検索条件(クエリ)に該当する情報を文書データ(ラベル付与済)215から検索する。このとき、検索処理部340は、文書データ(ラベル付与済)215に付帯する単語/ラベルテーブル214を利用して上記の検索を行う。例えば、検索条件としてある単語が指定されている場合、当該単語が属するラベルと同じラベルに属する単語を含む情報を、文書データ(ラベル付与済)215から検索する。このようにユーザが指定した検索語だけでなく、ユーザが指定した検索語と同じラベルが付与された単語(同じカテゴリに属する単語)についても検索キーワードに含めることで、多面的な観点に基づく検索結果をユーザに提供することができる。
以上に説明したように、本実施形態の文書検索システム1は、偏差調整テーブル116において共通の特徴量を有する単語が複数存在する場合における各単語の数の偏りを考慮してラベル付与モデル117を生成するので、例えば、学習用文書データ(ラベル無し)112の態様に応じて、ラベル付与モデル117が目的とする性能や精度になるように調整することができる。そして、調整されたラベル付与モデル117を用いて文書データ(
ラベル付与済)215を生成することで、例えば、文書検索装置300を利用するユーザのニーズに即した文書検索環境を提供することができる。
また本実施形態の文書検索システム1によれば、ユーザは、調整設定画面1100を利用して、前述した調整方法1~3の少なくともいずれかを用いて、ラベル付与モデル117を容易に調整することができる。
また本実施形態の文書検索システム1においては、少ない学習データ(学習用文書データ(ラベル無し)112を用いてラベル付与モデル117を適切に学習させることができ、膨大な文書データ(ラベル無し)211に含まれている単語に対して効率よく適切なラベルを付与することができる。
以上、本発明の一実施形態について説明したが、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加や削除、置換をすることが可能である。
例えば、本実施形態の文書検索システム1は、例えば、鉄道システムや医療機器、建設機械等におけるシステムや装置の障害発生時における、原因特定に用いる過去の類似案件に関する文書の検索、既存の特許文献からの新材料開発に利用可能な実験データの自動抽出、金融分野における財務諸表等の帳票からの与信情報の自動抽出等の様々な分野に適用することが可能であり、各種システムの検索負荷の軽減や検索作業の効率化を図ることができる。
また上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、IC
カード、SDカード、DVD等の記録媒体に置くことができる。
また上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際には殆ど全ての構成が相互に接続されていると考えてもよい。
また以上に説明した各情報処理装置の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、これらの装置が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。
また前述した各種のデータを格納するデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。
1 文書検索システム、2 ユーザ装置、3 管理装置、5 第1通信ネットワーク、6
第2通信ネットワーク、100 モデル生成装置、110 記憶部、111 ラベル対象単語リスト、112 学習用文書データ(ラベル無し)、113 特徴量テーブル、114 特徴量偏差テーブル、115 単語数偏差テーブル、116 偏差調整テーブル、
117 ラベル付与モデル、125 自然言語解析部、130 単語検出/特徴量抽出部、135 偏差調整テーブル生成部、140 偏差調整部、150 ラベル付与モデル生成部、160 モデル送信部、200 ラベル付与装置、210 記憶部、211 文書データ(ラベル無し)、213 単語/特徴量テーブル、214 単語/ラベルテーブル、215 文書データ(ラベル付与済)、225 自然言語解析部、230 単語検出/特徴量抽出部、240 ラベル付与部、250 ラベル編集部、260 文書データ(ラベル付与済)生成送信部、300 文書検索装置、310 記憶部、330 検索条件受付部、340 検索処理部、350 検索結果出力部、1000 偏差確認画面、1100 調整設定画面

Claims (15)

  1. 対象とする文書である対象文書に含まれている単語にラベルを付与する機械学習モデルであるラベル付与モデルを生成する情報処理装置であるラベル付与モデル生成装置であって、
    前記ラベル付与モデルは、付与しようとする複数のラベルの夫々について、ラベルと、当該ラベルの付与対象となるために単語が有するべき特徴量である特徴量と、前記特徴量を有する単語に対して当該ラベルを付与するか否かの判断指標であるスコアとを対応づけた情報を含み、
    対象文書に含まれている単語へのラベルの付与は、前記文書から抽出される単語と当該単語について抽出される特徴量との組合せを前記ラベル付与モデルに与えることにより取得される前記スコアに基づき行われ、
    前記ラベル付与モデルの生成に用いる複数の学習用文書を記憶し、
    各前記学習用文書において共通の前記特徴量を有する単語の出現頻度の偏差である単語数偏差に基づき前記学習用文書単位で前記スコアを求めることにより前記ラベル付与モデルを生成する、
    ラベル付与モデル生成装置。
  2. 請求項1に記載のラベル付与モデル生成装置であって、
    前記単語数偏差が予め設定された第1閾値を超える単語が前記複数の学習用文書に第2閾値以下の割合で存在する前記共通の特徴量を有する場合に、前記第1閾値を超える前記単語である特定の単語の前記単語数偏差の前記スコアへの影響度である単語数重みを調整し、
    前記特定の単語の前記単語数偏差の前記スコアへの影響を前記単語数重みに応じて調整する、
    ラベル付与モデル生成装置。
  3. 請求項2に記載のラベル付与モデル生成装置であって、
    前記単語数偏差が予め設定された第1閾値を超える単語が前記複数の学習用文書に第2閾値以下の割合で存在する前記共通の特徴量を有する場合に前記単語数重みを減らすことにより、前記特定の単語の前記単語数偏差の前記スコアへの影響を減らす、
    ラベル付与モデル生成装置。
  4. 請求項1に記載のラベル付与モデル生成装置であって、
    ユーザインタフェースを介して入力される、前記単語数偏差の前記スコアへの影響度である単語数重みを受け付け、受け付けた前記単語数重みに応じて、前記単語数偏差の前記スコアへの影響を調整する、
    ラベル付与モデル生成装置。
  5. 請求項1に記載のラベル付与モデル生成装置であって、
    前記単語数偏差と、同じ前記学習用文書における前記特徴量の出現頻度の偏差である特徴量偏差とに基づき、前記スコアを求めることにより前記ラベル付与モデルを生成する、
    ラベル付与モデル生成装置。
  6. 請求項5に記載のラベル付与モデル生成装置であって、
    前記特徴量偏差が予め設定された第3閾値を超える前記特徴量が前記複数の学習用文書に第4閾値以下の割合で抽出される場合に、前記第3閾値を超える前記特徴量である特定の特徴量の前記特徴量偏差の前記スコアへの影響度である特徴量重みを調整し、
    前記特定の特徴量の前記特徴量偏差の前記スコアへの影響を前記特徴量重みに応じて調整する、
    ラベル付与モデル生成装置。
  7. 請求項6に記載のラベル付与モデル生成装置であって、
    前記特徴量偏差が予め設定された第3閾値を超える前記特徴量が前記複数の学習用文書に第4閾値以下の割合で抽出される場合に前記特徴量重みを減らすことにより、前記特定の特徴量の前記特徴量偏差の前記スコアへの影響を減らす、
    ラベル付与モデル生成装置。
  8. 請求項5に記載のラベル付与モデル生成装置であって、
    ユーザインタフェースを介して入力される、前記特徴量偏差の前記スコアへの影響度である特徴量重みを受け付け、受け付けた前記特徴量重みに応じて、前記特徴量偏差の前記スコアへの影響を調整する、
    ラベル付与モデル生成装置。
  9. 請求項1に記載のラベル付与モデル生成装置であって、
    前記単語数偏差が予め設定された第1閾値を超える単語が前記複数の学習用文書に第2閾値以下の割合で存在する前記共通の特徴量を有する場合に、前記第1閾値を超える前記単語である特定の単語を含む前記学習用文書を前記複数の学習用文書から除外する、
    ラベル付与モデル生成装置。
  10. 請求項5に記載のラベル付与モデル生成装置であって、
    前記特徴量偏差が予め設定された第3閾値を超える前記特徴量が前記複数の学習用文書に第4閾値以下の割合で抽出される場合に、前記第3閾値を超える前記特徴量である特定の特徴量の抽出元の前記学習用文書を前記複数の学習用文書から除外する、
    ラベル付与モデル生成装置。
  11. 請求項5に記載のラベル付与モデル生成装置であって、
    前記学習用文書ごとに、前記特徴量の出現頻度と、前記特徴量を有する単語の数とを、夫々が占める割合に応じた面積で視覚的に描画した棒グラフを表示するユーザインタフェースを備える、
    ラベル付与モデル生成装置。
  12. 対象とする文書である対象文書に含まれている単語にラベルを付与する機械学習モデルであるラベル付与モデルを生成する方法であって、
    前記ラベル付与モデルは、付与しようとする複数のラベルの夫々について、ラベルと、当該ラベルの付与対象となるために単語が有するべき特徴量である特徴量と、前記特徴量を有する単語に対して当該ラベルを付与するか否かの判断指標であるスコアとを対応づけた情報を含み、
    対象文書に含まれている単語へのラベルの付与は、前記文書から抽出される単語と当該単語について抽出される特徴量との組合せを、前記ラベル付与モデルに与えることにより取得される前記スコアに基づき行われ、
    情報処理装置が、
    前記ラベル付与モデルの生成に用いる複数の学習用文書を記憶するステップと、
    各前記学習用文書において共通の前記特徴量を有する単語の出現頻度の偏差である単語数偏差に基づき前記学習用文書単位で前記スコアを求めることにより前記ラベル付与モデルを生成するステップと、
    を実行する、ラベル付与モデル生成方法。
  13. 請求項12に記載のラベル付与モデル生成方法であって、
    前記情報処理装置が、
    前記単語数偏差が予め設定された第1閾値を超える単語が前記複数の学習用文書に第2閾値以下の割合で存在する前記共通の特徴量を有する場合に、前記第1閾値を超える前記単語である特定の単語の前記単語数偏差の前記スコアへの影響度である単語数重みを調整するステップと、
    前記特定の単語の前記単語数偏差の前記スコアへの影響を前記単語数重みに応じて調整するステップと、
    を更に実行する、ラベル付与モデル生成方法。
  14. 請求項12に記載のラベル付与モデル生成方法であって、
    前記情報処理装置が、前記単語数偏差と、同じ前記学習用文書における前記特徴量の出現頻度の偏差である特徴量偏差とに基づき、前記スコアを求めることにより前記ラベル付与モデルを生成するステップ、
    を更に実行する、ラベル付与モデル生成方法。
  15. 請求項12に記載のラベル付与モデル生成方法であって、
    前記情報処理装置が、前記単語数偏差が予め設定された第1閾値を超える単語が前記複数の学習用文書に第2閾値以下の割合で存在する前記共通の特徴量を有する場合に、前記第1閾値を超える前記単語である特定の単語を含む前記学習用文書を前記複数の学習用文書から除外するステップ、
    を更に実行する、ラベル付与モデル生成方法。
JP2020054490A 2020-03-25 2020-03-25 ラベル付与モデル生成装置、及びラベル付与モデル生成方法 Active JP7364512B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020054490A JP7364512B2 (ja) 2020-03-25 2020-03-25 ラベル付与モデル生成装置、及びラベル付与モデル生成方法
US17/072,268 US11610062B2 (en) 2020-03-25 2020-10-16 Label assignment model generation device and label assignment model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054490A JP7364512B2 (ja) 2020-03-25 2020-03-25 ラベル付与モデル生成装置、及びラベル付与モデル生成方法

Publications (2)

Publication Number Publication Date
JP2021157282A JP2021157282A (ja) 2021-10-07
JP7364512B2 true JP7364512B2 (ja) 2023-10-18

Family

ID=77857483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054490A Active JP7364512B2 (ja) 2020-03-25 2020-03-25 ラベル付与モデル生成装置、及びラベル付与モデル生成方法

Country Status (2)

Country Link
US (1) US11610062B2 (ja)
JP (1) JP7364512B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220180244A1 (en) * 2020-12-08 2022-06-09 Vmware, Inc. Inter-Feature Influence in Unlabeled Datasets

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072787A (ja) 2004-09-03 2006-03-16 Advanced Telecommunication Research Institute International 自動質問解答方法、そのためのモデル作成方法、およびコンピュータプログラム
JP2008176489A (ja) 2007-01-17 2008-07-31 Toshiba Corp テキスト判別装置およびテキスト判別方法
JP2011170786A (ja) 2010-02-22 2011-09-01 Nomura Research Institute Ltd 文書分類システムおよび文書分類プログラムならびに文書分類方法
JP2013246795A (ja) 2012-05-29 2013-12-09 Nippon Telegr & Teleph Corp <Ntt> 固有表現抽出装置、方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1669896A3 (en) * 2004-12-03 2007-03-28 Panscient Pty Ltd. A machine learning system for extracting structured records from web pages and other text sources
US8019594B2 (en) * 2006-06-30 2011-09-13 Robert Bosch Corporation Method and apparatus for progressively selecting features from a large feature space in statistical modeling
US8549016B2 (en) * 2008-11-14 2013-10-01 Palo Alto Research Center Incorporated System and method for providing robust topic identification in social indexes
US9367526B1 (en) * 2011-07-26 2016-06-14 Nuance Communications, Inc. Word classing for language modeling
US11195057B2 (en) * 2014-03-18 2021-12-07 Z Advanced Computing, Inc. System and method for extremely efficient image and pattern recognition and artificial intelligence platform
WO2014040169A1 (en) * 2012-09-14 2014-03-20 Broadbandtv, Corp. Intelligent supplemental search engine optimization
US10423650B1 (en) * 2014-03-05 2019-09-24 Hrl Laboratories, Llc System and method for identifying predictive keywords based on generalized eigenvector ranks
US20150309987A1 (en) * 2014-04-29 2015-10-29 Google Inc. Classification of Offensive Words
JP7091742B2 (ja) * 2018-03-16 2022-06-28 富士通株式会社 学習データ生成方法および学習データ生成プログラム
US20190349320A1 (en) * 2018-05-08 2019-11-14 Mz Ip Holdings, Llc System and method for automatically responding to user requests
JP7189068B2 (ja) * 2019-04-05 2022-12-13 株式会社日立製作所 モデル作成支援方法、及びモデル作成支援システム
US11551030B2 (en) * 2019-10-11 2023-01-10 Perceptive Automata, Inc. Visualizing machine learning predictions of human interaction with vehicles
US11036925B2 (en) * 2019-11-18 2021-06-15 International Business Machines Corporation Managing the distinctiveness of multimedia
US11734360B2 (en) * 2019-12-18 2023-08-22 Catachi Co. Methods and systems for facilitating classification of documents
US11449556B2 (en) * 2020-02-04 2022-09-20 Accenture Global Solutions Limited Responding to user queries by context-based intelligent agents

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072787A (ja) 2004-09-03 2006-03-16 Advanced Telecommunication Research Institute International 自動質問解答方法、そのためのモデル作成方法、およびコンピュータプログラム
JP2008176489A (ja) 2007-01-17 2008-07-31 Toshiba Corp テキスト判別装置およびテキスト判別方法
JP2011170786A (ja) 2010-02-22 2011-09-01 Nomura Research Institute Ltd 文書分類システムおよび文書分類プログラムならびに文書分類方法
JP2013246795A (ja) 2012-05-29 2013-12-09 Nippon Telegr & Teleph Corp <Ntt> 固有表現抽出装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2021157282A (ja) 2021-10-07
US11610062B2 (en) 2023-03-21
US20210303789A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US9864741B2 (en) Automated collective term and phrase index
US20200320086A1 (en) Method and system for content recommendation
US10489439B2 (en) System and method for entity extraction from semi-structured text documents
JP5512489B2 (ja) ファイル管理装置及びファイル管理方法
US9495358B2 (en) Cross-language text clustering
JP5241828B2 (ja) 辞書の単語及び熟語の判定
JP2014106665A (ja) 文書検索装置、文書検索方法
US20200387667A1 (en) Information processing device and information processing method
JP2020113129A (ja) 文書評価装置、文書評価方法及びプログラム
JP5836893B2 (ja) ファイル管理装置、ファイル管理方法、及びプログラム
US8892423B1 (en) Method and system to automatically create content for dictionaries
JPH0484271A (ja) 文書内情報検索装置
Das et al. Sentiment analysis: what is the end user's requirement?
JP7364512B2 (ja) ラベル付与モデル生成装置、及びラベル付与モデル生成方法
US20160085850A1 (en) Knowledge brokering and knowledge campaigns
JP7122773B2 (ja) 辞書構築装置、辞書の生産方法、およびプログラム
JP2007128224A (ja) 文書インデキシング装置、文書インデキシング方法及び文書インデキシングプログラム
JP2021196798A (ja) 対話システム、及び対話システムの制御方法
JP2022050011A (ja) 情報処理装置及びプログラム
Luong et al. Word graph-based multi-sentence compression: Re-ranking candidates using frequent words
JP2002251401A (ja) 文書検索装置および方法ならびに記憶媒体
JP7425662B2 (ja) ラベル設計支援装置、及びラベル設計支援方法
JP6565565B2 (ja) 情報処理装置、名称決定方法、および名称決定プログラム
JP2020149539A (ja) 対話型システムの支援装置、及び対話型システムの支援方法
JP7488207B2 (ja) 将来事象推定システム、および将来事象推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231005

R150 Certificate of patent or registration of utility model

Ref document number: 7364512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150