JP7454156B1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7454156B1
JP7454156B1 JP2023579770A JP2023579770A JP7454156B1 JP 7454156 B1 JP7454156 B1 JP 7454156B1 JP 2023579770 A JP2023579770 A JP 2023579770A JP 2023579770 A JP2023579770 A JP 2023579770A JP 7454156 B1 JP7454156 B1 JP 7454156B1
Authority
JP
Japan
Prior art keywords
name
target
inference
description
name matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023579770A
Other languages
English (en)
Inventor
将人 藤武
雄輝 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fast Accounting Inc
Original Assignee
Fast Accounting Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fast Accounting Inc filed Critical Fast Accounting Inc
Application granted granted Critical
Publication of JP7454156B1 publication Critical patent/JP7454156B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

推論用のデータセットであって、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられた推論用データを入力すると、第1の名寄せ対象と、第2の名寄せ対象と、が一致するか否かを示す情報を出力する学習済みモデルMであって、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを出力するタスクである名寄せタスクと、推定対象の説明を入力として推定対象の名称を出力するタイトル推論タスクと、を学習した学習済みモデルMを記憶する記憶部12と、推論用データを取得する取得部131と、取得した推論用データを学習済みモデルMに入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定する判定部132と、判定部132が判定した結果を出力する出力部133と、を有する情報処理装置1である。

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
事前学習済みの言語モデルをファインチューニングした機械学習モデルを用いて名寄せを判定する技術が知られている(例えば非特許文献1)。
Yuliang Li, Jinfeng Li, Yoshihiko Suhara, AnHai Doan, and Wang-Chiew Tan. 2020. Deep entity matching with pre-trained language models. Proceedings of the VLDB Endowment, 14(1):50-60. Stephanie Lin, Jacob Hilton, and Owain Evans. 2021. Truthfulqa: Measuring how models mimic human falsehoods. arXiv preprint arXiv:2109.07958.
既存の手法によっては精度を向上させるためにタスク又は名寄せの対象ごとに機械学習モデルを学習させる必要があり、他のタスクや名寄せ対象について名寄せを行う場合に再学習が必要となり、学習コストが大きくなる問題があった。
そこで、本発明はこれらの点に鑑みてなされたものであり、汎用性を維持しながら名寄せタスクの判定精度を向上させることを目的とする。
本発明の第1の態様の情報処理装置においては、推論用のデータセットであって、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられた推論用データを入力すると、入力された推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを示す情報を出力する学習済みモデルであって、(1)第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明、第2の名寄せ対象の説明及び第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示すラベルが関連付けられた第1の学習用データセットに基づいて、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明を入力すると、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示す情報を出力するタスクである名寄せタスクと、(2)推定対象の名称と推定対象の説明とが関連付けられた第2の学習用データセットに基づいて、推定対象の説明を入力として前記推定対象の名称を出力するタイトル推論タスクと、を学習した前記学習済みモデルを記憶する記憶部と、前記推論用データを取得する取得部と、取得した前記推論用データを前記学習済みモデルに入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定する判定部と、前記判定部が判定した結果を出力する出力部と、を有する。
前記推論用データ及び前記第1の学習用データセットにおいて関連付けられた第1の名寄せ対象の説明においては、商品である第1の名寄せ対象の詳細を示す情報と、第1の名寄せ対象の金額とを含み、前記推論用データ及び前記第1の学習用データセットにおいて関連付けられた第2の名寄せ対象の説明においては、商品である第2の名寄せ対象の詳細を示す情報と、第2の名寄せ対象の金額とを含み、前記第2の学習用データセットにおいて関連付けられた推定対象の説明においては、推定対象の詳細を示す情報を含んでもよい。
前記学習済みモデルは、汎用的な言語モデルに対して前記第1の学習用データセットに基づく前記名寄せタスクの学習と、前記第2の学習用データセットに基づく前記タイトル推論タスクと、を学習していてもよい。
前記取得部は、前記第1の学習用データセット及び前記第2の学習用データセットを取得し、前記情報処理装置は、(1)前記取得部が取得した前記第1の学習用データセットに基づいて前記名寄せタスクと、(2)前記第2の学習用データセットに基づいて前記タイトル推論タスクと、を学習させた前記学習済みモデルを生成するとともに、学習させた前記学習済みモデルを前記記憶部に記憶する、学習部をさらに有してもよい。
前記学習部は、単一の学習プロセスにおいて、前記第1の学習用データセットに基づく前記名寄せタスクと、前記第2の学習用データセットに基づく前記タイトル推論タスクと、を並行して学習させてもよい。
本発明の第2の態様の情報処理方法においては、コンピュータが実行する、推論用のデータセットであって、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられた推論用データを取得する取得部と、記憶部が記憶する学習済みモデルであって、前記推論用データを入力すると、推論用データにおける第1の名寄せ対象と、前記推論用データにおける第2の名寄せ対象と、が一致するか否かを示す情報を出力する学習済みモデルであって、(1)第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明、第2の名寄せ対象の説明及び第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示すラベルが関連付けられた第1の学習用データセットに基づいて、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明を入力すると、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示す情報を出力するタスクである名寄せタスクと、(2)推定対象の名称と推定対象の説明とが関連付けられた第2の学習用データセットに基づいて、前記推定対象の説明を入力として前記推定対象の名称を出力するタイトル推論タスクと、を学習した前記学習済みモデルに、前記推論用データを入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定するステップと、前記判定するステップにおいて判定された結果を出力するステップと、を有する。
本発明の第3の態様のプログラムにおいては、コンピュータに、推論用のデータセットであって、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられた推論用データを取得する取得部と、記憶部が記憶する学習済みモデルであって、前記推論用データを入力すると、推論用データにおける第1の名寄せ対象と、前記推論用データにおける第2の名寄せ対象と、が一致するか否かを示す情報を出力する学習済みモデルであって、(1)第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明、第2の名寄せ対象の説明及び第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示すラベルが関連付けられた第1の学習用データセットに基づいて、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明を入力すると、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示す情報を出力するタスクである名寄せタスクと、(2)推定対象の名称と推定対象の説明とが関連付けられた第2の学習用データセットに基づいて、前記推定対象の説明を入力として前記推定対象の名称を出力するタイトル推論タスクと、を学習した前記学習済みモデルに、前記推論用データを入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定するステップと、前記判定するステップにおいて判定された結果を出力するステップと、を実行させる。
本発明によれば、汎用性を維持しながら名寄せタスクの判定精度を向上させることができる。
情報処理システムSの概要を説明するための図である。 学習用データセットの一例を示す図である。 情報処理装置1の構成を示すブロック図である。 学習部134における学習フローを説明するためのフローチャートである。 取得部131が取得するプロンプトの一例を示す図である。 情報処理装置1における処理の流れを示すフローチャートである。
[情報処理システムSの概要]
図1は、情報処理システムSの概要を説明するための図である。図1(a)は、情報処理システムSの構成を示す。情報処理システムSは、名寄せを行うためのシステムである。名寄せは機械学習モデルが実行するタスクであり、与えられた複数の対象が一致するか否かを判定するタスクである。
情報処理装置システムSが名寄せする対象は、一例として商品又はサービスの名称であるがこれに限られない。情報処理システムSは、法人名、人名又はこれら以外の名称を対象に名寄せを行ってもよい。情報処理システムSは、情報処理装置1及び情報端末2を有する。情報処理装置1及び情報端末2はネットワークを介して通信可能に接続される。
情報処理装置1は、名寄せを行うための装置である。情報処理装置1は、一例としてサーバである。情報処理装置1は、機械学習モデルを学習させ、名寄せ対象のデータが与えられると、機械学習モデルを用いて与えられたデータにおける対象が一致するか否かを判定する。
情報端末2は、情報処理システムSのユーザが利用する端末である。情報端末2は、一例として、情報処理装置1に学習又は推論に使用するデータセットを送信し、学習又は推論の実行を情報処理装置1に指示し、情報処理装置1から推論結果を受信し、表示部に表示させる。なお、情報処理装置1と情報端末2とは一体に構成されてもよい。すなわち、情報処理装置1が入出力インターフェースを備え、ユーザからの操作を受け付け、推論結果を表示する。
図1(b)を参照して情報処理システムSにおける処理について説明する。情報処理装置1は、事前学習済みモデルM1を記憶している。事前学習済みモデルM1は、汎用的な言語モデルであり、大量のデータセットに基づいて自然言語処理タスクを実行可能に学習させた学習済みモデルである。情報処理装置1は、事前学習済みモデルM1に名寄せタスクとタイトル推論タスクとを学習させ、学習済みモデルM2を生成する。
名寄せタスクは、名寄せを行う対象の複数の名寄せ対象の名称と、それぞれの名寄せ対象についての説明を示すテキストと、が与えられ、与えられた複数の名寄せ対象が一致するか否かを判定するタスクである。名寄せ対象の名称は、名寄せ対象の商品、自然人、法人等の名称を示す。名寄せ対象の説明は、当該名寄せ対象の性質を示す。例えば、名寄せ対象が商品である場合、名寄せ対象の説明には、当該商品の大きさ、色、機能、製造地、製造者、販売者、型番、動作環境、原材料、セールスポイント、価格等を含む。
なお、名寄せ対象が自然人である場合、名寄せ対象の説明は、例えば、生年月日、出身地、出身校、職業、業績等の情報を含む。また、名寄せ対象が法人である場合、名寄せ対象の説明は、法人の住所、従業員数や設立年度等、沿革、役員の構成、売上高等の情報を含む。
具体的には、情報処理装置1は、第1の学習用データセットに基づいて、事前学習済みモデルM1に名寄せタスクを学習させる。第1の学習用データセットの一例を図2(a)に示す。第1の学習用データセットにおいては、第1の学習用データセットにおいては、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明、第2の名寄せ対象の説明及び第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示すラベルが関連付けられている。
タイトル推論タスクは、タイトルを推定する対象についての説明を示すテキストが与えられ、与えられたテキストが示す対象のタイトルを生成するタスクである。具体的には、情報処理装置1は、第2の学習用データセットに基づいて、事前学習済みモデルM1にタイトル推論タスクを学習させる。第2の学習用データセットの一例を図2(b)に示す。第2の学習用データセットにおいては、推定対象の名称と推定対象の説明とが関連付けられている。
第2の学習用データセットにおいては、様々な商品、型番、ブランド、地名又は法人の名称等の固有表現を説明又はタイトルとして含むデータセットに基づいて学習させると特に好適である。タイトル推論タスクを学習させることにより、説明中に使用される、タイトルに影響を与えうる固有表現を学習済みモデルM2に学習させることができる。これにより、名寄せの結果に影響を与える本文中の重要な表現をモデルが認識できるようになる。その結果、モデルの汎用性を損なうことなく名寄せタスクの精度が向上するという効果を期待できる。
学習済みモデルM2は、推論用データD1を入力すると、入力された推論用データに対応する判定結果D2を出力するよう学習されている。推論用データD1は、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられている。判定結果D2は、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを示す。
情報処理装置1は、推論用データD1を学習済みモデルM2に入力し、判定結果D2を出力させる。
情報処理システムSがこのように構成されることで、汎用性を維持しながら名寄せタスクの判定精度を向上させることができるという効果を奏する。
[情報処理装置1の構成]
図3は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、通信部11、記憶部12及び制御部13を有する。制御部13は、取得部131、判定部132、出力部133及び学習部134を有する。
通信部11は、ネットワークを介して他の装置とデータの送受信をするための通信インターフェースである。記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、SSD(Solid State Drive)、ハードディスクドライブ等を含む記憶媒体である。記憶部12は、制御部13が実行するプログラムを予め記憶している。記憶部12は、事前学習済みモデルM1及び学習済みモデルM2を記憶する。
制御部13は、例えばCPU(Central Processing Unit)等のプロセッサである。制御部13は、記憶部12に記憶されたプログラムを実行することにより、取得部131、判定部132、出力部133及び学習部134として機能する。
取得部131は、推論用データD1を取得する。取得部131は、一例として情報端末2から推論用データD1を取得する。取得部131は、推論用データD1を記憶部12から取得してもよいし、不図示の外部装置から取得してもよい。取得部131は、第1の学習用データセット及び第2の学習用データセットを取得し、学習部134に出力してもよい。
判定部132は、取得した推論用データを学習済みモデルM2に入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定する。出力部133は、判定部132が判定した判定結果D2を出力する。出力部133は、一例として、判定結果D2を情報端末2の表示部に表示させる。
情報処理装置1が名寄せする対象が商品である場合には、商品の金額を含むデータセット基づいて名寄せが行われてもよい。
推論用データ及び第1の学習用データセットにおいて関連付けられた第1の名寄せ対象の説明においては、商品である第1の名寄せ対象の詳細を示す情報と、第1の名寄せ対象の金額とを含む。推論用データ及び第1の学習用データセットにおいて関連付けられた第2の名寄せ対象の説明においては、商品である第2の名寄せ対象の詳細を示す情報と、第2の名寄せ対象の金額とを含む。
なお、名寄せタスクにおいて商品の金額を含むデータセットを使用する場合であってもタイトル推論タスクにおいては商品の金額を学習に用いなくてもよい。すなわち、第2の学習用データセットにおいて関連付けられた推定対象の説明においては、推定対象の詳細を示す情報を含む。これは、商品の金額が名寄せタスクの結果に与える影響が大きい一方で、商品の金額がタイトル推論タスクの結果に与える影響が相対的に小さいためである。
このように名寄せ対象の商品の金額を含む情報に基づいて名寄せを行うことにより、名寄せの精度を向上させることができる。
学習部134は、取得部131が取得した第1の学習用データセット及び第2の学習用データセットに基づいて、事前学習済みモデルM1を学習させ、事前学習済みモデルM1のパラメータを更新することにより学習済みモデルM2を生成し、生成した学習済みモデルM2を記憶部12に記憶させる。なお、学習部134は、学習済みモデルM2に名寄せタスク又はタイトル推論タスクを追加学習させてもよい。
具体的には、学習部134は、第1の学習用データセットに基づいて事前学習済みモデルM1を学習させる。具体的には、学習部134は、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明を事前学習済みモデルM1に入力し、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示す判定結果を出力させる。学習部134は、事前学習済みモデルM1が出力した判定結果と、第1の学習用データセットに含まれるラベルと、に基づいて損失を計算し、計算した損失に基づいて事前学習済みモデルM1のパラメータを更新し、事前学習済みモデルM1を学習させる。
学習部134は、第2の学習用データセットに含まれる推定対象の説明を事前学習済みモデルM1に入力し、入力した説明に対応する推定対象の名称を出力させる。学習部134は、事前学習済みモデルM1が出力した推定対象の名称と、第2の学習用データセットに含まれる教師データとしての推定対象の名称と、のに基づいて損失を計算し、計算した損失に基づいて事前学習済みモデルM1のパラメータを更新し、事前学習済みモデルM1を学習させる。
名寄せタスクの学習とタイトル推論タスクの学習は同時に実行されてもよい。学習部134は、単一の学習プロセスにおいて、第1の学習用データセットに基づく名寄せタスクと、第2の学習用データセットに基づくタイトル推論タスクと、を並行して学習させてもよい。図4は、この場合における学習フローを説明するためのフローチャートである。図4に示すフローチャートは、情報処理装置1が情報端末2から学習を開始する指示を取得した時点から開始している。
取得部131は、第1の学習用データセットを取得する(S01)。取得部131は、第2の学習用データセットを取得する(S02)。学習部134は、終了条件を判定する(S03)。終了条件は、例えば所定の回数学習を行ったことである。
終了条件を満たさない場合(S03におけるNO)、学習部134は、第1の学習用データセットに基づいて事前学習済みモデルM1に名寄せタスクを実行させ、結果を出力させる(S04)。学習部134は、第2の学習用データセットに基づいて事前学習済みモデルM1にタイトル推論タスクを実行させ、結果を出力させる(S05)。
学習部134は、事前学習済みモデルM1が名寄せタスクにおいて出力した結果と、第1の学習用データセットにおいて関連付けられたラベルに基づいて損失を計算する(S06)。また、学習部134は、事前学習済みモデルM1がタイトル推論タスクにおいて出力した結果と、第2の学習用データセットにおいて関連付けられた教師データとしての推定対象の名称と、に基づいて損失を計算する(S06)。
学習部134は、計算した損失に基づいて事前学習済みモデルM1のパラメータを更新する(S07)。一例として、学習部134は、計算した損失に基づいてタイトル推論タスクにおける勾配と名寄せタスクにおける勾配とを計算し、タイトル推論タスクにおける勾配と名寄せタスクにおける勾配の平均値に基づいてパラメータを更新する。
なお、1ステップ当たりにパラメータをどの程度更新するかは、タイトル推論タスクと名寄せタスクとで異なっていてもよい。すなわち、それぞれの勾配にそれぞれ異なる所定の係数を乗じてパラメータの更新量を算出してもよいし、タイトル推論タスクと名寄せタスクとで異なる学習率が設定されていてもよい。情報処理装置1は、処理をS03に進める。
終了条件を満たす場合(S03におけるYES)、パラメータの更新が完了した事前学習済みモデルM1である学習済みモデルM2を記憶部12に記憶させる(S08)。そして、情報処理装置1は、処理を終了する。
自然言語により記述されたプロンプト(命令)に含まれる推論用データを取得するよう取得部131が構成されてもよい。一例として、取得部131は、情報端末2にプロンプトを受付けるための画面を表示し、情報端末2から自然言語で記述されたプロンプトを取得する。図5は、取得部131が取得するプロンプトの一例を示す。図5に示すようにプロンプトにおいては、実行するタスクの内容の指示(P1)、第1の名寄せ対象(P2)、第2の名寄せ対象(P3)を含む。第1の名寄せ対象(P2)及び第2の名寄せ対象はそれぞれ、名称(P21、P31)及び説明(P22及びP32)を含む。
この場合、学習済みモデルM2は、プロンプトを入力として、プロンプトに含まれる実行すべきタスク内容を特定し、特定したタスクの内容が名寄せタスクである場合にプロンプトに含まれる推論用データに基づいて名寄せタスクを実行するよう学習されている。
[情報処理装置1における処理の流れ]
図6は、情報処理装置1における処理の流れを示すフローチャートである。図6に示すフローチャートは、情報端末2から推論を行う指示を受付けた時点から開始している。
取得部131は、推論データを取得する(S11)。取得部131は、推論データを学習済みモデルM2に入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定する(S12)。出力部133は、学習済みモデルM2が出力した判定結果を出力する(S13)。一例として、出力部133は、学習済みモデルM2が出力した判定結果を情報端末2に表示させる。そして、情報処理装置1は処理を終了する。
[本実施の形態における効果]
以上説明したとおり、情報処理装置1は、タイトル推論タスクと名寄せタスクを学習させることにより、特定のタスクに特化させることなく、汎用性を維持しながら名寄せタスクの判定精度を向上させることができる。
以上、実施の形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 情報処理装置
2 情報端末
11 通信部
12 記憶部
13 制御部
131 取得部
132 判定部
133 出力部
134 学習部

Claims (7)

  1. 推論用のデータセットであって、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられた推論用データを入力すると、入力された推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを示す情報を出力する学習済みモデルであって、
    (1)第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明、第2の名寄せ対象の説明及び第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示すラベルが関連付けられた第1の学習用データセットに基づいて、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明を入力すると、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示す情報を出力するタスクである名寄せタスクと、
    (2)推定対象の名称と推定対象の説明とが関連付けられた第2の学習用データセットに基づいて、推定対象の説明を入力として前記推定対象の名称を出力するタイトル推論タスクと、
    を学習した前記学習済みモデルを記憶する記憶部と、
    前記推論用データを取得する取得部と、
    取得した前記推論用データを前記学習済みモデルに入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定する判定部と、
    前記判定部が判定した結果を出力する出力部と、
    を有する情報処理装置。
  2. 前記推論用データ及び前記第1の学習用データセットにおいて関連付けられた第1の名寄せ対象の説明においては、商品である第1の名寄せ対象の詳細を示す情報と、第1の名寄せ対象の金額とを含み、
    前記推論用データ及び前記第1の学習用データセットにおいて関連付けられた第2の名寄せ対象の説明においては、商品である第2の名寄せ対象の詳細を示す情報と、第2の名寄せ対象の金額とを含み、
    前記第2の学習用データセットにおいて関連付けられた推定対象の説明においては、推定対象の詳細を示す情報を含む、
    請求項1に記載の情報処理装置。
  3. 前記学習済みモデルは、汎用的な言語モデルに対して前記第1の学習用データセットに基づく前記名寄せタスクの学習と、前記第2の学習用データセットに基づく前記タイトル推論タスクと、を学習した学習済みモデルである、
    請求項1に記載の情報処理装置。
  4. 前記取得部は、前記第1の学習用データセット及び前記第2の学習用データセットを取得し、
    前記情報処理装置は、
    (1)前記取得部が取得した前記第1の学習用データセットに基づいて前記名寄せタスクと、
    (2)前記第2の学習用データセットに基づいて前記タイトル推論タスクと、
    を学習させた前記学習済みモデルを生成するとともに、学習させた前記学習済みモデルを前記記憶部に記憶する、学習部をさらに有する、
    請求項1に記載の情報処理装置。
  5. 前記学習部は、単一の学習プロセスにおいて、前記第1の学習用データセットに基づく前記名寄せタスクと、前記第2の学習用データセットに基づく前記タイトル推論タスクと、を並行して学習させる、
    請求項4に記載の情報処理装置。
  6. コンピュータが実行する、
    推論用のデータセットであって、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられた推論用データを取得する取得部と、
    記憶部が記憶する学習済みモデルであって、前記推論用データを入力すると、推論用データにおける第1の名寄せ対象と、前記推論用データにおける第2の名寄せ対象と、が一致するか否かを示す情報を出力する学習済みモデルであって、
    (1)第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明、第2の名寄せ対象の説明及び第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示すラベルが関連付けられた第1の学習用データセットに基づいて、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明を入力すると、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示す情報を出力するタスクである名寄せタスクと、
    (2)推定対象の名称と推定対象の説明とが関連付けられた第2の学習用データセットに基づいて、前記推定対象の説明を入力として前記推定対象の名称を出力するタイトル推論タスクと、
    を学習した前記学習済みモデルに、前記推論用データを入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定するステップと、
    前記判定するステップにおいて判定された結果を出力するステップと、
    を有する情報処理方法。
  7. コンピュータに、
    推論用のデータセットであって、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明が関連付けられた推論用データを取得する取得部と、
    記憶部が記憶する学習済みモデルであって、前記推論用データを入力すると、推論用データにおける第1の名寄せ対象と、前記推論用データにおける第2の名寄せ対象と、が一致するか否かを示す情報を出力する学習済みモデルであって、
    (1)第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明、第2の名寄せ対象の説明及び第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示すラベルが関連付けられた第1の学習用データセットに基づいて、第1の名寄せ対象の名称、第2の名寄せ対象の名称、第1の名寄せ対象の説明及び第2の名寄せ対象の説明を入力すると、第1の名寄せ対象と第2の名寄せ対象とが一致するか否かを示す情報を出力するタスクである名寄せタスクと、
    (2)推定対象の名称と推定対象の説明とが関連付けられた第2の学習用データセットに基づいて、前記推定対象の説明を入力として前記推定対象の名称を出力するタイトル推論タスクと、
    を学習した前記学習済みモデルに、前記推論用データを入力し、推論用データにおける第1の名寄せ対象と、推論用データにおける第2の名寄せ対象と、が一致するか否かを判定するステップと、
    前記判定するステップにおいて判定された結果を出力するステップと、
    を実行させるプログラム。
JP2023579770A 2023-12-26 2023-12-26 情報処理装置、情報処理方法及びプログラム Active JP7454156B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023046681 2023-12-26

Publications (1)

Publication Number Publication Date
JP7454156B1 true JP7454156B1 (ja) 2024-03-22

Family

ID=90273385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023579770A Active JP7454156B1 (ja) 2023-12-26 2023-12-26 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7454156B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185244A (ja) 2018-04-05 2019-10-24 富士通株式会社 学習プログラム及び学習方法
WO2023132029A1 (ja) 2022-01-06 2023-07-13 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
WO2023162206A1 (ja) 2022-02-28 2023-08-31 日本電気株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185244A (ja) 2018-04-05 2019-10-24 富士通株式会社 学習プログラム及び学習方法
WO2023132029A1 (ja) 2022-01-06 2023-07-13 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
WO2023162206A1 (ja) 2022-02-28 2023-08-31 日本電気株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PEETERS, Ralph et al.,Entity Matching using Large Language Models,arXiv [online],2023年10月17日,pp.1-9,[検索日 2024.01.30]、インターネット:<URL:https://arxiv.org/pdf/2310.11244v1.pdf>

Similar Documents

Publication Publication Date Title
US11430013B2 (en) Configurable relevance service test platform
US20170076249A1 (en) Managing food inventory via item tracking to reduce food waste
JP6443858B2 (ja) 算出装置、算出方法、学習装置、学習方法、及びプログラム
CN109523342A (zh) 服务策略生成方法及装置、电子设备、存储介质
US11115359B2 (en) Method and apparatus for importance filtering a plurality of messages
CN107316082A (zh) 用于确定机器学习样本的特征重要性的方法及系统
CN112424748A (zh) 源代码文件推荐通知
US20180240037A1 (en) Training and estimation of selection behavior of target
US20200286151A1 (en) Background Content Suggestion for Combination with Identified Items
CN114663198A (zh) 基于用户画像的产品推荐方法、装置、设备及存储介质
JP6516406B2 (ja) 処理装置、処理方法、およびプログラム
US11869050B2 (en) Facilitating responding to multiple product or service reviews associated with multiple sources
US10922219B2 (en) A/B test apparatus, method, program, and system
JP7235119B2 (ja) 処理装置、会計装置、処理方法及びプログラム
JP7454156B1 (ja) 情報処理装置、情報処理方法及びプログラム
US20170046801A1 (en) Managing the size of food portions
CN107209763A (zh) 指定和应用数据的规则
JP7450190B2 (ja) 特許情報処理装置、特許情報処理方法、およびプログラム
US20230385887A1 (en) Techniques for automatic filling of an input form to generate a listing
JP5950284B2 (ja) 処理装置、処理方法、およびプログラム
US20180121978A1 (en) User-Assisted Processing of Receipts and Invoices
JP7094909B2 (ja) 推定装置、推定方法及び推定プログラム
JP6894461B2 (ja) 情報処理装置、プログラム、及び情報処理方法
CN111199287A (zh) 一种特征工程实时推荐方法、装置及电子设备
US11983554B2 (en) Automating semantically-related computing tasks across contexts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7454156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150