JP2020038570A - 推定装置、システム、方法及びプログラム、並びに、学習装置及び方法 - Google Patents

推定装置、システム、方法及びプログラム、並びに、学習装置及び方法 Download PDF

Info

Publication number
JP2020038570A
JP2020038570A JP2018166307A JP2018166307A JP2020038570A JP 2020038570 A JP2020038570 A JP 2020038570A JP 2018166307 A JP2018166307 A JP 2018166307A JP 2018166307 A JP2018166307 A JP 2018166307A JP 2020038570 A JP2020038570 A JP 2020038570A
Authority
JP
Japan
Prior art keywords
slip data
estimation
attribute information
data
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018166307A
Other languages
English (en)
Inventor
睦 渡部
Mutsumi Watabe
睦 渡部
中山 淳也
Junya Nakayama
淳也 中山
富志夫 斎藤
Toshio Saito
富志夫 斎藤
伸介 山口
Shinsuke Yamaguchi
伸介 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2018166307A priority Critical patent/JP2020038570A/ja
Publication of JP2020038570A publication Critical patent/JP2020038570A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】入力内容に応じた情報を推定する精度を向上させること。【解決手段】推定装置は、所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、処理済みの伝票データにおける説明文字列から前処理部により変換された特徴ベクトルと、当該処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する属性情報を推定するために機械学習された推定モデルを記憶する記憶部と、推定対象の伝票データにおける説明文字列から、前処理部及び機械学習された推定モデルを用いて当該推定対象の伝票データに対応する属性情報を推定する推定部と、を備える。【選択図】図3

Description

本発明は、推定装置、システム、方法及びプログラム、並びに、学習装置、方法及びプログラムに関し、特に、伝票データに対応する情報を推定するための推定装置、システム、方法及びプログラム、並びに、学習装置、方法及びプログラムに関する。
企業や自治体等では、部署内の経費精算のために経理担当者が会計システムに対して伝票入力を行い、その際、伝票に応じた勘定科目の選択を行い、後に、選択された勘定科目の適切さの審査が審査部門により行われる。
ここで、特許文献1には、会計処理装置に関する技術が開示されている。特許文献1にかかる会計処理装置は、ウェブ明細データの取引内容の記載に基づいて、勘定科目とキーワードとを予め対応付けた対応テーブルを参照して、特定の勘定科目を自動的に仕訳し、作成した仕訳データをユーザのコンピュータに送信するものである。
特開2014−182787号公報
しかしながら、特許文献1では、対応テーブルに登録するキーワードの選出に依存しており、仕訳の精度に限界があるという問題点がある。例えば、取引内容の記載にキーワードが含まれていない場合には、対応テーブルから適切な勘定科目に仕訳できない。そして、対応テーブルのメンテナンスは、負荷が大きく、キーワードを適切なものに維持しにくい。
本開示は、このような問題点を解決するためになされたものであり、入力内容に応じた情報を推定する精度を向上させるための推定装置、システム、方法及びプログラム、並びに、学習装置、方法及びプログラムを提供することを目的とする。
本開示の第1の態様にかかる推定装置は、
所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
処理済みの伝票データにおける前記説明文字列から前記前処理部により変換された前記特徴ベクトルと、当該処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを記憶する記憶部と、
推定対象の伝票データにおける前記説明文字列から、前記前処理部及び前記機械学習された推定モデルを用いて当該推定対象の伝票データに対応する前記属性情報を推定する推定部と、
を備える。
本開示の第2の態様にかかる学習装置は、
処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する学習部と、
を備える。
本開示の第3の態様にかかる推定システムは、
所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
処理済みの伝票データにおける前記説明文字列から前記前処理部により変換された前記特徴ベクトルと、当該処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する学習部と、
推定対象の伝票データにおける前記説明文字列から、前記前処理部及び前記機械学習された推定モデルを用いて当該推定対象の伝票データに対応する前記属性情報を推定する推定部と、
を備える。
本開示の第4の態様にかかる推定方法は、
コンピュータが、
推定対象の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換し、
処理済みの伝票データにおける前記説明文字列から前記所定の文字コードに基づき変換された前記特徴ベクトルと当該処理済みの伝票データに対応する属性情報とに基づいて任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを用いて、前記推定対象の伝票データにおける前記特徴ベクトルから、当該推定対象の伝票データに対応する前記属性情報を推定する。
本開示の第5の態様にかかる推定プログラムは、
推定対象の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する処理と、
処理済みの伝票データにおける前記説明文字列から前記所定の文字コードに基づき変換された前記特徴ベクトルと当該処理済みの伝票データに対応する属性情報とに基づいて任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを用いて、前記推定対象の伝票データにおける前記特徴ベクトルから、当該推定対象の伝票データに対応する前記属性情報を推定する処理と、
をコンピュータに実行させる。
本開示の第6の態様にかかる学習方法は、
コンピュータが、
処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換し、
前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する。
本開示の第7の態様にかかる学習プログラムは、
処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する処理と、
前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する処理と、
をコンピュータに実行させる。
本開示により、入力内容に応じた情報を推定する精度を向上させるための推定装置、システム、方法及びプログラム、並びに、学習装置、方法及びプログラムを提供することができる。
本実施の形態1にかかる学習装置の構成を示すブロック図である。 本実施の形態1にかかる学習方法の流れを示すフローチャートである。 本実施の形態2にかかる推定装置の構成を示すブロック図である。 本実施の形態2にかかる推定方法の流れを示すフローチャートである。 本実施の形態3にかかる会計システムの構成を示すブロック図である。 本実施の形態3にかかる処理済み伝票データの内部構成の概念を示す図である。 本実施の形態3にかかる学習装置の構成を示すブロック図である。 本実施の形態3にかかる推定モデルの概念を示す図である。 本実施の形態3にかかる推定装置の構成を示すブロック図である。 本実施の形態3にかかる学習方法の流れを示すフローチャートである。 本実施の形態3にかかる説明変数生成処理の流れを示すフローチャートである。 本実施の形態3にかかるバイト列データ(特徴ベクトル)の例を示す図である。 本実施の形態3にかかる機械学習の流れを示すフローチャートである。 本実施の形態3にかかる起票時の推定処理の流れを示すフローチャートである。 本実施の形態3にかかる伝票起票画面の例を示す図である。 本実施の形態3にかかる推定結果の画面表示の例を示す図である。 本実施の形態3にかかる審査時の推定比較処理の流れを示すフローチャートである。
以下では、本開示の実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<実施の形態1>
図1は、本実施の形態1にかかる学習装置1の構成を示すブロック図である。学習装置1は、処理済みの伝票データに関する情報を用いて、任意の伝票データに対応する属性情報を推定する推定モデルを機械学習するための情報処理装置である。尚、学習装置1は、複数台のコンピュータにより実現したものであってもよい。学習装置1は、前処理部11と、学習部12とを備える。
前処理部11は、処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する。ここで、伝票データは、金銭や物品の出納や取引内容等が記録されたデータであり、例えば、日付、金額、取引相手、勘定科目、件名等が含まれる。そして、処理済みの伝票データとは、過去に起票済みであり、勘定科目等のデータ内容について承認を受けており、データ内容が確定したものを指すものとする。そして、説明文字列とは、例えば、件名等の文字列情報である。また、所定の文字コードとは、コンピュータ上で扱う文字に割り当てられた数値データを指す。そして、所定の文字コードに基づく特徴ベクトルとは、特徴ベクトルの要素の集合が所定の文字コードに対応することを指す。つまり、前処理部11は、説明文字列内の各文字を文字コードに起因するに特徴ベクトルに変換するものである。
学習部12は、特徴ベクトルと、処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する属性情報を推定するための推定モデルを機械学習する。ここで、属性情報とは、対応する伝票データにおける分類項目や支払情報を指す。分類項目とは、例えば、勘定科目、支払区分等である。支払情報とは、支払金額、支払予定日等である。また、推定モデルとは、所定のパラメータ(重み付け係数)を用いて表現される数学モデルであり、例えば、ニューラルネットワーク等で表現されたものである。そして、学習部12は、例えば、処理済みの伝票データにおける特徴ベクトルを推定モデルの入力とし、処理済みの伝票データに対応する属性情報を正解ラベルとした教師あり学習を機械学習として行う。つまり、学習部12は、推定モデルに所定のパラメータが設定された場合に、特徴ベクトルを推定モデルに入力して求められた出力値が正解ラベルに近付くように、パラメータを調整(更新)する。尚、機械学習はこれに限定されない。また、学習部12は、機械学習済みの推定モデルを外部又は内部の記憶装置に保存してもよい。
尚、前処理部11及び学習部12は、学習装置1内の制御部(不図示)が、後述する本実施の形態にかかる学習方法が実装されたコンピュータプログラムをメモリ(不図示)に読み込み実行することにより、実現される。
図2は、本実施の形態1にかかる学習方法の流れを示すフローチャートである。まず、前処理部11は、処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する(S11)。次に、学習部12は、ステップS11で変換された特徴ベクトルと、処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する属性情報を推定するための推定モデルを機械学習する(S12)。
このようにして学習された推定モデルを用いることで、任意の伝票データの説明文字列又は特徴ベクトルから当該任意の伝票データに対応する属性情報を推定することができる。よって、入力内容に応じた情報の推定精度を向上させることができる。特に、起票者や承認者が件名等から該当する勘定科目を選択するには、長年の勘や経験を必要とし、分類の誤り等を防ぐための負担が大きいといえる。よって、本実施形態により、起票者や承認者の負担を軽減することができる。
<実施の形態2>
図3は、本実施の形態2にかかる推定装置2の構成を示すブロック図である。推定装置2は、実施の形態1と同等の方法により学習された推定モデルを用いて、推定対象の伝票データに対応する属性情報を推定するための情報処理装置である。尚、推定装置2は、複数台のコンピュータにより実現したものであってもよい。推定装置2は、前処理部21と、記憶部22と、推定部23とを備える。
前処理部21は、所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する。よって、前処理部21は、対象が処理済みの伝票データに限らず、上述した前処理部11と同等の処理を行うものである。
記憶部22は、推定モデル220を記憶する揮発性又は不揮発性の記憶装置である。ここで、本実施の形態2にかかる推定モデル220は、任意の伝票データに対応する属性情報を推定するものである。そして、推定モデル220は、処理済みの伝票データにおける特徴ベクトルと、属性情報とに基づいて機械学習されたものである。ここで、処理済みの伝票データにおける特徴ベクトルは、処理済みの伝票データにおける説明文字列から前処理部21により変換されたものである。そのため、本実施の形態2にかかる推定モデル220は、上述した実施形態1において学習済みの推定モデルを用いても構わない。また、属性情報は、実施の形態1と同等である。
推定部23は、推定対象の伝票データにおける説明文字列から、前処理部21及び記憶部22に記憶され、機械学習された推定モデル220を用いて、当該推定対象の伝票データに対応する属性情報を推定する。つまり、推定部23は、推定対象の伝票データにおける説明文字列から、前処理部21により特徴ベクトルに変換し、変換された特徴ベクトルを推定モデル220に入力し、その出力値を推定対象の伝票データに対応する属性情報、つまり推定結果とする。
尚、前処理部21、記憶部22及び推定部23は、推定装置2内の制御部(不図示)が、後述する本実施の形態にかかる推定方法が実装されたコンピュータプログラムをメモリ(不図示)に読み込み実行することにより、実現される。
図4は、本実施の形態2にかかる推定方法の流れを示すフローチャートである。まず、前処理部21は、推定対象の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する(S21)。次に、推定部23は、記憶部22に記憶された推定モデル220を用いて、推定対象の伝票データにおける特徴ベクトルから、当該推定対象の伝票データに対応する属性情報を推定する(S22)。ここで、推定モデル220は、処理済みの伝票データにおける特徴ベクトルと当該処理済みの伝票データに対応する属性情報とに基づいて任意の伝票データに対応する前記属性情報を推定するために機械学習されたものである。そして、この場合の処理済みの伝票データにおける特徴ベクトルは、処理済みの伝票データにおける説明文字列から所定の文字コードに基づき前処理部21等により変換された特徴ベクトルである。
このように、処理済みの伝票データに基づき事前に学習された推定モデルを用いることで、推定対象の伝票データの説明文字列から当該伝票データに対応する属性情報を推定することができる。よって、入力内容に応じた情報の推定精度を向上させることができる。また、上記同様、起票者や承認者の負担を軽減することができる。
<実施の形態3>
本実施の形態3は、上述した実施の形態1及び2を組み合わせて、推定システムとして実現した実施例である。本実施の形態3にかかる推定システムは、少なくとも前処理部と、学習部と、推定部と、を備える情報システムである。ここで、前処理部は、上述した前処理部11又は前処理部21に相当する。また、学習部は、上述した学習部12に相当する。そして、推定部は、上述した推定部23に相当する。これにより、上述した通り、入力内容に応じた情報の推定精度を向上させることができる。
また、前記推定モデルは、前記処理済みの伝票データの起票時に特定された特定情報をさらに用いて機械学習されたものであることが望ましい。そして、この場合、前記推定部は、前記推定対象の伝票データの起票時に特定された前記特定情報をさらに用いて当該推定対象の伝票データに対応する前記属性情報を推定することが望ましい。これにより、起票に関係する情報を用いて、高精度な推定が可能となる。
さらに、前記前処理部は、前記処理済みの伝票データから前記特定情報を抽出してもよい。この場合、前記推定モデルは、次のような第1、第2及び第3のニューラルネットワークを含んでいてもよい。すなわち、第1のニューラルネットワークは、前記特徴ベクトルに対して畳み込み演算を行うためのものである。第2のニューラルネットワークは、前記特定情報を入力とするものである。第3のニューラルネットワークは、前記第1のニューラルネットワークと前記第2のニューラルネットワークの出力を連結するものである。これにより、ニューラルネットワークによる高次元かつ大量の学習データにより、推定モデルの機械学習が容易に実現可能であり、高精度に推定可能となる。
また、前記特定情報は、前記推定対象の伝票データの起票時の起票日情報を含むことが望ましい。これにより、起票時期の傾向(例えば、毎年又は毎月決まった時期に発生する支払等)に応じた高精度な推定が可能となる。例えば、20日締めの場合、16日から20日頃に入力される伝票の勘定科目には共通性があるため、このような伝票の推定精度が向上する。
また、前記特定情報は、前記推定対象の伝票データの起票者の所属情報を含むことが望ましい。これにより、起票者の所属部署の傾向に応じた高精度な推定が可能となる。
また、前記特定情報は、前記推定対象の伝票データが属する会計年度を含むことが望ましい。これにより、例年、起票日が会計年度をまたぐような場合であっても適切な推定が可能となる。
また、前記推定部は、前記推定対象の伝票データの分類項目を前記属性情報として推定してもよい。つまり、前記推定モデルは、前記任意の伝票データの分類項目を前記属性情報として推定するためのものとしてもよい。これにより、勘定科目や支払方法区分等の分類先を適切に推定できる。
または、前記推定部は、前記推定対象の伝票データの支払情報を前記属性情報として推定してもよい。つまり、前記推定モデルは、前記任意の伝票データの支払情報を前記属性情報として推定するためのものとしてもよい。これにより、支払予定日や支払金額を精度良く推定できる。
また、前記推定部は、ユーザの要求に応じて前記属性情報を推定し、当該推定した属性情報を出力することが望ましい。これにより、ユーザの伝票データに対応する属性情報の選択作業を支援できる。さらに、前記推定部は、前記推定対象の伝票データの起票者を前記ユーザとして、前記推定した属性情報を出力するとよい。これにより、起票者の伝票入力業務を効率化できる。また、前記推定部は、前記ユーザが前記推定対象の伝票データの承認者である場合、前記承認者の要求に応じて推定した前記属性情報により、前記推定対象の伝票データの起票者により事前に選択された前記属性情報の妥当性の判定結果を前記承認者に出力するようにしてもよい。これにより、承認者の承認(審査)業務を効率化できる。さらに、前記推定部は、前記推定した属性情報の信頼度をさらに推定し、当該信頼度をさらに出力してもよい。これにより、ユーザの選択作業をより効果的に支援できる。さらに、前記推定部は、前記推定した属性情報及び信頼度を出力先で表示させるために出力してもよい。これにより、ユーザが出力先の装置等において推定結果の属性情報とその信頼度を視認して、推定結果の判別を容易に行うことができる。
図5は、本実施の形態3にかかる会計システム1000の構成を示すブロック図である。会計システム1000は、例えば、企業や自治体等で運用される財務会計システムである。会計システム1000は、伝票DB(DataBase)100と、推定システム200と、端末610及び620とを備え、これらが通信ネットワークNを介して接続されている。ここで、通信ネットワークNは、LAN(Local Area Network)、インターネット又は専用線等の通信回線である。
伝票DB100は、伝票データを記憶するデータベースである。ここでは、伝票DB100は、会計システム1000上で管理される多数の伝票データを管理する。すなわち、伝票DB100は、処理済み伝票データ111〜11n(nは2以上の自然数。)と、推定対象伝票データ120とを記憶する。処理済み伝票データ111〜11nは、上述した通り、過去に起票者U1等により起票済みであり、承認者U2等により承認済みの伝票データである。また、推定対象伝票データ120は、起票者U1等により入力済み(承認前)又は入力中の伝票データである。
図6は、本実施の形態3にかかる処理済み伝票データ111の内部構成の概念を示す図である。処理済み伝票データ111は、件名1111、起票日1112、所属コード1113、会計年度1114、科目コード1115、区分コード1116、支払金額1117及び支払予定日1118を含む。ここで、起票日1112、所属コード1113及び会計年度1114は、処理済み伝票データ111の起票時に特定された特定情報の一例である。また、科目コード1115、区分コード1116、支払金額1117及び支払予定日1118は、処理済み伝票データ111に対応する属性情報の一例である。
件名1111は、説明文字列の一例であり、例えば、処理済み伝票データ111のタイトルである50文字以内の文字列データである。但し、文字数はこれに限定されない。また、件名1111は、説明文字列が50文字以上の場合には文字列のうち50文字以上を切り捨てたもの、説明文字列が50文字未満の場合には50文字に足りない部分に「0」を埋めたものとしてもよい。起票日1112は、処理済み伝票データ111が会計システム1000上で起票(作成)された年月日を示し、起票日情報の一例である。尚、年については、西暦と元号の変換は適宜なされるものとする。所属コード1113は、処理済み伝票データ111を起票した起票者が属する部署の所属情報(部門コード等)の一例である。会計年度1114は、処理済み伝票データ111が属する会計年度である。例えば、会計年度の締めが毎年3月末の場合、起票日1112が例えば、2018年4月某日であったとしても、会計年度1114が前年度の2017年度であることが有り得る。
科目コード1115は、処理済み伝票データ111に該当する勘定科目のコードである。区分コード1116は、処理済み伝票データ111に該当する支払方法区分等のカテゴリー値である各種区分コードである。ここで、科目コード1115及び区分コード1116は、分類項目の一例である。支払金額1117は、処理済み伝票データ111において発生した支払金額の数値情報であり、連続値である。支払予定日1118は、処理済み伝票データ111における決済の支払予定日である。尚、支払予定日1118は、支払期日等であってもよい。支払金額1117及び支払予定日1118は、支払情報の一例である。
尚、処理済み伝票データ11nの構成は、処理済み伝票データ111と同様であり、推定対象伝票データ120の構成は、処理済み伝票データ111の一部を含むものであれば良いため、図示及び説明を省略する。
図5に戻り説明を続ける。推定システム200は、学習装置300と、推定装置400とを含む情報システムである。尚、学習装置300と推定装置400とは同一の情報処理装置で実現してもよい。または、学習装置300及び推定装置400のそれぞれ、又は、一方は、複数台のコンピュータにより冗長化、分散して実現されてもよい。
学習装置300は、上述した学習装置1の一例であり、少なくとも学習対象である推定モデル313を保持していることを示す。推定装置400は、上述した推定装置2の一例であり、少なくとも学習済み推定モデル411を保持していることを示す。
図7は、本実施の形態3にかかる学習装置300の構成を示すブロック図である。学習装置300は、記憶部310と、制御部320と、IF(InterFace)部330とを備える。記憶部310は、ハードディスク、フラッシュメモリ等の記憶装置である。記憶部310は、説明変数311と、正解ラベル312と、推定モデル313と、学習プログラム314とを記憶する。
説明変数311は、推定モデル313の入力として用いられるデータを示す。説明変数311は、例えば、件名バイト列3111、起票日情報3112、所属コード3113及び出納整理期間フラグ3114を含む。
件名バイト列3111は、説明文字列(件名1111等)から変換された所定の文字コードに基づくバイト列データ、又は、所定の文字コードに基づく特徴ベクトルの一例である。件名バイト列3111の詳細は後述する。
起票日情報3112は、起票日1112から変換された情報であり、ここでは、月31121、日31122、曜日31123、週番号31124を含む。月31121は、月を示す数値(1〜12)、日31122は、日付を示す数値(1〜31)、曜日31123は、曜日を1〜7に変換した数値、週番号31124は、年初からの週の数を示す数値(1〜53)である。所属コード3113は、所属コード1113から1から始まる連番に変換された数値である。出納整理期間フラグ3114は、会計年度1114が起票日1112の属する年度であるか否かを示すフラグ情報である。ここで、起票日情報3112、所属コード3113及び出納整理期間フラグ3114は、離散値の説明変数である。
正解ラベル312は、推定モデル313を機械学習する際の教師データとなる情報である。ここでは、正解ラベル312は、科目コード3121、区分コード3122、支払金額3123、支払予定日3124を含む。これらは、処理済み伝票データ111内の科目コード1115、区分コード1116、支払金額1117、支払予定日1118と同等である。尚、正解ラベル312の内容は、推定内容に応じて適宜、変更可能である。
推定モデル313は、任意の伝票データに対応する属性情報を推定するための推定モデルの一例である。ここでは、推定モデル313は、パラメータ3130を含み、パラメータ3130は、複数のパラメータの集合を示すものとする。つまり、推定モデル313は、パラメータ3130の設定値に応じて、同じ入力値に対する出力値が変化するものである。
図8は、本実施の形態3にかかる推定モデル313の概念を示す図である。推定モデル313は、深層学習ネットワークである。推定モデル313は、件名バイト列ネットワーク3131、エンティティエンベッティングネットワーク3132、全結合層3133及び出力層3134で構成される。件名バイト列ネットワーク3131は、第1のニューラルネットワークの一例であり、一次元の畳み込みネットワーク(畳み込み層ブロックCNN1)により構成される。ここで、畳み込み層ブロックCNN1は、例えば、9層程度であるがこれに限定されない。件名バイト列ネットワーク3131は、説明変数311内の件名バイト列3111を入力とし、複数回の畳み込み演算を繰り返し、最終的に1024次元程度の実数値の特徴ベクトルを出力する。
エンティティエンベッティングネットワーク3132は、第2のニューラルネットワークの一例であり、入力された離散値をインデックスとして学習可能な特徴ベクトルへの変換を行うネットワークである。エンティティエンベッティングネットワーク3132は、説明変数311のうち件名バイト列3111以外の離散値を入力対象とする。エンティティエンベッティングネットワーク3132は、それぞれの入力離散値を1次元から最大50次元程度の実数値ベクトルに変換して出力する。そして、エンティティエンベッティングネットワーク3132は、特定情報の種類ごとにそれぞれ対応する複数のネットワークを有する。具体的には、エンティティエンベッティングネットワーク3132は、月用EEN1、日用EEN2、曜日用EEN3、週番号用EEN4、所属コード用EEN5及び出納整理期間フラグ用EEN6を有する。
全結合層3133は、第3のニューラルネットワークの一例であり、件名バイト列ネットワーク3131の出力とエンティティエンベッティングネットワーク3132の出力を連結し、2000次元程度の特徴ベクトルとする。そして、全結合層3133は、当該特徴ベクトルを入力層として隠れ層を2層程度有する多層パーセプトロンを用意する。
出力層3134は、全結合層3133の出力を受け取り、最終的な推定結果315を出力する。出力層3134は、推定する内容に応じて、分類クラス数と同数のノード数を持つ分類用出力層と、金額等の実数値を予測する場合の回帰分析用出力の2種類を用意し、タスクにより使い分けるようにしてもよい。
図7に戻り説明を続ける。学習プログラム314は、本実施の形態3にかかる学習方法が実装されたコンピュータプログラムである。
制御部320は、CPU等のプロセッサ及びメモリを含むものであり、学習装置300の各構成を制御する。制御部320のプロセッサは、記憶部310から学習プログラム314をメモリへ読み込み、学習プログラム314を実行する。これにより、制御部320は、前処理部321及び学習部322の機能を実現する。
前処理部321は、前処理部11の一例であり、件名1111を所定の文字コード(例えばUTF−8)に基づくバイト列データに変換し、当該バイト列データから特徴ベクトル(件名バイト列3111)に変換する。例えば、前処理部321は、件名1111の文字数が所定数以上の場合、文字数が所定数となるように調整してバイト列データ及び特徴ベクトルに変換する。例えば、前処理部321は、件名1111の文字数が50文字以上の場合、50文字以上の文字を切り捨てて1文字目から50文字目までをバイト列データに変換してもよい。また、前処理部321は、件名1111の文字数が50文字未満の場合、最後の文字から50文字目までに「0」を埋めて50文字の文字列データとしてからバイト列データに変換してもよい。または、文字数が所定数以上又は未満の文字列についてそのままバイト列データに変換し、後述する特徴ベクトルへの変換時に文字数を調整してもよい。つまり、特徴ベクトルが単語単位ではないため、形態素解析や単語辞書から特徴量に変換する処理が不要となり、前処理及び推定処理全体を高速化できる。また、単語辞書のメンテナンスが不要となる。
さらに、前処理部321は、前記バイト列データをバイト単位でワンホットエンコーディングして特徴ベクトルに変換することが望ましい。これにより、未学習の単語であっても隣接する文字間の関係から精度良く推定が可能となる。尚、上述したようにバイト列データが50文字未満又は50文字以上の場合、前処理部321は、バイト列データのうち50文字分を対象として特徴ベクトルへの変換を行っても良い。
また、前処理部321は、処理済み伝票データ111〜11nから特定情報(起票日1112、所属コード1113、会計年度1114)を抽出する。
学習部322は、学習部12の一例であり、前処理部321により変換された特徴ベクトル及び特定情報並びに正解ラベル312に基づいて、推定モデル313のパラメータ3130を機械学習する。
IF部330は、学習装置300の外部との通信等を行うインタフェースである。
図9は、本実施の形態3にかかる推定装置400の構成を示すブロック図である。推定装置400は、記憶部410と、制御部420と、IF部430とを備える。記憶部410は、記憶部22の一例であり、ハードディスク、フラッシュメモリ等の記憶装置である。記憶部410は、学習済み推定モデル411と、ユーザ情報412と、ログインユーザ情報413と、推定対象伝票データ414と、推定結果415と、判定結果416と、推定プログラム417とを記憶する。
学習済み推定モデル411は、上述した推定モデル220の一例であり、学習装置300において推定モデル313のパラメータ3130が機械学習された推定モデルである。例えば、学習装置300が出力結果として学習済み推定モデル411を記憶部410に格納してもよい。学習済み推定モデル411は、パラメータ4110を含む。そして、パラメータ4110は、複数のパラメータの集合を示し、特に、学習装置300において機械学習済みのパラメータである。
ユーザ情報412は、会計システム1000に登録されたユーザに関する情報である。例えば、ユーザ情報412には、起票者U1及び承認者U2の情報が含まれるものとする。ユーザ情報412は、認証情報4121と、所属コード4122とを含む。認証情報4121は、ユーザID及びパスワードの組等である。所属コード4122は、認証情報4121と対応付けられており、認証情報4121に含まれるユーザIDのユーザが所属する部署のコードである。
ログインユーザ情報413は、会計システム1000にログインされたユーザの接続情報を管理する情報である。ログインユーザ情報413は、少なくとも所属コード4131、ログイン日4132、会計年度4133を含む。所属コード4131は、ログインが認められたユーザIDに対応づけられた所属コード4122である。ログイン日4132は、当該ユーザがログインした日時等である。会計年度4133は、当該ユーザがログイン時に起票対象とする伝票データが属する会計年度である。
推定対象伝票データ414は、起票者U1が入力中の伝票データ、又は、承認者U2が承認のために審査対象としている伝票データである。推定対象伝票データ414は、入力状態に応じて件名4141、起票日4142、所属コード4143及び会計年度4144を含む。これらは、件名1111、起票日1112、所属コード1113、会計年度1114と同等の情報である。
推定結果415は、推定対象伝票データ414に対して学習済み推定モデル411を用いて推定された属性情報やその信頼度等である。判定結果416は、推定対象伝票データ414に対して起票者U1が事前に選択した属性情報と、推定対象伝票データ414から学習済み推定モデル411により推定された属性情報との比較結果である。推定プログラム417は、本実施の形態3にかかる推定方法が実装されたコンピュータプログラムである。
制御部420は、CPU等のプロセッサ及びメモリを含むものであり、推定装置400の各構成を制御する。制御部420のプロセッサは、記憶部410から推定プログラム417をメモリへ読み込み、推定プログラム417を実行する。これにより、制御部420は、画面入出力部421、前処理部422及び推定部423の機能を実現する。
画面入出力部421は、通信ネットワークNを介した端末610又は620等からの要求に応じて、画面を生成し、要求元へ返信する。具体的には、画面入出力部421は、ログイン画面、伝票起票画面、伝票審査画面等を生成する。また、画面入出力部421は、端末610又は620等からのログイン要求に応じて認証処理を行い、認証された場合にログインユーザ情報413を生成し、記憶部410へ保存する。また、画面入出力部421は、端末610又は620等からの推定指示又は推定比較指示を受け付けた場合、前処理部422を呼び出し、推定結果415及び判定結果416を返信する。
前処理部422は、前処理部21の一例であり、前処理部321と同等の処理を行う。推定部423は、推定部23の一例であり、前処理部422により変換された特徴ベクトル及び特定情報を学習済み推定モデル411に入力し、学習済み推定モデル411の出力を推定結果とする。また、推定部423は、学習済み推定モデル411を用いて分類項目を推定するか、または、回帰分析により支払情報を推定してもよい。また、推定部423は、推定対象伝票データ414に対して起票者U1が事前に選択した属性情報と、推定対象伝票データ414から学習済み推定モデル411により推定された属性情報との比較を行っても良い。
IF部430は、推定装置400の外部との通信等を行うインタフェースである。
図5に戻り説明を続ける。端末610は、伝票データの起票者U1が起票作業に必要となる操作を行う端末装置であり、例えば、パーソナルコンピュータ等である。端末610は、通信ネットワークN等を介して伝票DB100及び推定システム200と通信可能に接続されており、起票者U1の操作に応じて推定装置400へアクセスし、伝票データの入力等を行う。
端末620は、伝票データの承認者U2が承認作業に必要となる操作を行う端末装置であり、例えば、パーソナルコンピュータ等である。端末620は、通信ネットワークN等を介して伝票DB100及び推定システム200と通信可能に接続されており、承認者U2の操作に応じて推定装置400へアクセスし、伝票データの審査等を行う。
図10は、本実施の形態3にかかる学習方法の流れを示すフローチャートである。まず、学習装置300の前処理部321は、処理済み伝票データ111〜11nのそれぞれから、説明変数元データ及び正解ラベルを抽出する(S31)。すなわち、前処理部321は、伝票DB100から処理済み伝票データ111〜11nのそれぞれを加工前データとして読み出し、1件ずつ処理を行う。例えば、前処理部321は、処理済み伝票データ111から件名1111、起票日1112、所属コード1113及び会計年度1114を抽出し、説明変数元データとしてメモリ等に保持する。また、前処理部321は、処理済み伝票データ111から科目コード1115、区分コード1116、支払金額1117及び支払予定日1118を抽出し、処理済み伝票データ111の正解ラベル312として記憶部310に保存する。
次に、前処理部321は、説明変数生成処理を行う(S32)。図11は、本実施の形態3にかかる説明変数生成処理の流れを示すフローチャートである。説明変数生成処理では、以下のステップS321〜S324の4つの処理の順序を問わず、適宜、並列実行してもよい。
まず、前処理部321は、説明変数元データに含まれる件名1111から件名バイト列3111に変換する(S321)。具体的には、前処理部321は、件名1111の1文字をUTF−8によるバイト表現(1バイト〜4バイト)に変換する(S3211)。ここで、1バイト(8ビット)は0から255までの整数である。次に、前処理部321は、1バイトごとにワンホットエンコーディング化し、256次元ベクトルに変換する(S3212)。これにより、256次元×(件名の元の文字数×(1〜4))の二次元配列が得られる。例えば、UTF−8文字単位(ユニコード文字単位)でワンホットエンコーディングを行った場合、ユニコード文字が数万種あるため数万次元のエンコード表現となり、情報量の低下、使用メモリ量の増大、計算時間の増大を招いてしまう。一方、本実施形態では、最大でも「256次元×(1〜4)」で済むバイト単位の処理とすることで、これらの文字単位処理の問題を解決できる。また、UTF−8で表現できる文字列であれば処理可能なため、日本語、英語、各種記号などが混在した文字列をそのまま使用することができる。
図12は、本実施の形態3にかかるバイト列データ(特徴ベクトル)の例を示す図である。ここでは、件名が「日本」であるものとする。この場合、前処理部321は、ステップS3211により件名「日本」を文字「日」及び「本」に分割し、さらに各文字をUTF−8による文字コード(3バイト等)の表現に変換する。例えば、文字「日」が文字コード「0xE697A5」、文字「本」が文字コード「0xE69CAC」に変換されたことを示す。
そして、前処理部321は、ステップS3212により、例えば、1バイト目の「0xE6」について256次元の特徴ベクトルに変換する。ここで、「0xE6」は10進数表記では「230」であるため、ワンホットエンコーディング化すると、特徴ベクトルは、1番目から256番目の要素のうち230番目の要素のみ「1」、他の要素が「0」となる。他のバイトデータについても同様に、ワンホットエンコーディング化される。
図11に戻り説明を続ける。また、前処理部321は、説明変数元データに含まれる所属コード1113を1から始まる連番(所属コード3113)に変換する(S322)。また、前処理部321は、説明変数元データに含まれる起票日1112から月、日、曜日、週番号をそれぞれ1から始まる連番(月31121、日31122、曜日31123、週番号31124)に変換する(S323)。また、前処理部321は、説明変数元データに含まれる起票日1112及び会計年度1114から出納整理期間フラグ3114に変換する(S324)。例えば、起票日1112の属する年度が会計年度1114と一致せず、会計年度1114より大きい場合、前処理部321は、出納整理期間フラグ3114に「1」をセットする。この場合、処理済み伝票データ111が翌年度の出納整理期間中に作成された伝票であることを示す。一方、起票日1112の属する年度が会計年度1114と一致する場合、前処理部321は、出納整理期間フラグ3114に「0」をセットする。この場合、処理済み伝票データ111が年度内に起票された伝票であることを示す。尚、起票日1112の属する年度が会計年度1114より小さい場合、エラーとしてもよい。
ステップS321、S322、S323及びS324の後、図10のステップS33へ進む。前処理部321は、ステップS33の各変換結果を対応付けて説明変数311とし、ステップS31で抽出された正解ラベル312と説明変数311とを対応付けて学習用データとして生成し、記憶部310へ保存する(S33)。尚、ステップS31からS33は、処理済み伝票データ111〜11nの全てに対して行われる。つまり、処理済み伝票データの1レコードごとに、説明変数と正解ラベルの組である学習用データが作成される。
続いて、学習部322は、推定モデル313の機械学習を行う(S34)。図13は、本実施の形態3にかかる機械学習の流れを示すフローチャートである。まず、学習部322は、説明変数311のうち件名バイト列3111を件名バイト列ネットワーク3131に入力する(S341)。次に、学習部322は、件名バイト列ネットワーク3131で畳み込み演算を行う(S342)。例えば、学習部322は、9層程度の畳み込み層ブロックCNN1を繰り返し、最終的に1024次元程度の実数値の特徴ベクトルを出力する。
また、ステップS341及びS342と前後又は並行して、学習部322は、説明変数311のうち起票日情報3112を、エンティティエンベッティングネットワーク3132に入力する(S343)。具体的には、学習部322は、月31121を月用EEN1へ、日31122を日用EEN2へ、曜日31123を曜日用EEN3へ、週番号31124を週番号用EEN4へ、所属コード3113を所属コード用EEN5へ、出納整理期間フラグ3114を出納整理期間フラグ用EEN6へ入力する。
そして、学習部322は、各エンティティエンベッティングネットワークを実数値ベクトルに変換する(S344)。例えば、学習部322は、特定情報ごとに、1次元から最大50次元程度の実数値ベクトルを出力する。
ステップS342及びS344の後、学習部322は、件名バイト列ネットワーク3131の出力とエンティティエンベッティングネットワーク3132の出力とを全結合層3133で連結する(S345)。そして、学習部322は、全結合層3133の出力を出力層3134へ入力し、推定結果315を出力する(S346)。
その後、学習部322は、推定結果315と正解ラベル312を比較し、誤差が最小となるようにパラメータ3130(重み付け係数)を更新する(S347)。例えば、学習部322は、確率的勾配降下法等を用いることができるが、これに限定されない。そして、学習部322は、ステップS341〜S347の処理の繰り返し回数が指定回数を超えたか否かを判定する(S348)。繰り返し回数が指定回数を超えていない場合、学習部322は、ステップS347の更新後のパラメータ3130を件名バイト列ネットワーク3131、エンティティエンベッティングネットワーク3132、全結合層3133及び出力層3134、つまり、推定モデル313に設定する(S349)。そして、ステップS341及びS343へ戻る。また、処理済み伝票データと正解ラベルの組の全てについてこれらが行われる。
そして、ステップS348において、繰り返し回数が指定回数を超えた場合、ステップS35へ進む。学習部322は、学習済みのパラメータ3130が設定された推定モデル313を出力する(S35)。例えば、学習部322は、学習済みの推定モデル313を推定装置400の記憶部410内に学習済み推定モデル411として保存する。
続いて、未処理の伝票データを起票又は承認のための審査の際に、学習済み推定モデル411を用いて推定する場合について説明する。まず、起票時について説明する。
図14は、本実施の形態3にかかる起票時の推定処理の流れを示すフローチャートである。まず、推定装置400は、起票者U1についての会計システム1000へのログイン処理を行う(S410)。例えば、まず、端末610は、起票者U1の操作によりログイン要求を通信ネットワークNを介して推定装置400へ送信する。そして、推定装置400の画面入出力部421は、ログイン画面を生成し、通信ネットワークNを介して端末610へ返信する。端末610は、受信したログイン画面を表示し、起票者U1からのユーザID及びパスワードの認証情報の入力に応じて、認証情報を推定装置400へ送信する。画面入出力部421は、受信した認証情報と記憶部410内の認証情報4121とが照合されれば、起票者U1のログインを認め、会計年度の入力画面を生成し、端末610へ送信する。
続いて、端末610は、受信した会計年度の入力画面を表示し、起票者U1から、起票対象の伝票データが属する会計年度の指定を受け付け(S411)、指定された会計年度を推定装置400へ送信する。画面入出力部421は、受信した会計年度を会計年度4144の値の指定として記憶部410に保存する。
ここで、ステップS411の後、画面入出力部421は、ログインした起票者U1についてのログインユーザ情報413を生成する(S415)。すなわち、画面入出力部421は、起票者U1の認証情報4121に対応付けられた所属コード4122を特定し、所属コード4131としてログインユーザ情報413に含めて保存する。また、画面入出力部421は、現在の日付をログイン日4132としてログインユーザ情報413に含めて保存する。さらに、画面入出力部421は、ステップS411で指定された会計年度を会計年度4133としてログインユーザ情報413に含めて保存する。
また、ステップS411の後、画面入出力部421は、伝票起票画面を生成し、伝票起票画面を端末610へ送信する。端末610は、受信した伝票起票画面を表示し(S412)、起票者U1から起票対象の伝票データにおける件名の入力を受け付け(S413)、入力された件名を推定装置400へ送信する。画面入出力部421は、入力された件名を件名4141として記憶部410に保存する。
図15は、本実施の形態3にかかる伝票起票画面500の例を示す図である。伝票起票画面500は、例えば、ログイン情報501、会計年度502、起票日503、件名504は、推定指示ボタン505等が表示される。ログイン情報501は、ステップS410でログインした起票者U1の所属及び氏名等が表示されることを示す。会計年度502は、ステップS411で指定された会計年度が表示されることを示す。起票日503は、ステップS410でログインした日付が起票日として表示されることを示す。
また、件名504は、ステップS413で入力された件名を示す。推定指示ボタン505は、伝票起票画面500に表示及び入力された伝票データについて、学習済み推定モデル411を用いて属性情報を推定する指示を行うものである。
図14に戻り説明を続ける。その後、端末610は、起票者U1の操作により、入力中の伝票データに対して属性情報の推定指示を受け付け、属性情報の推定指示を推定装置400へ送信する(S414)。例えば、起票者U1は、端末610を操作して推定指示ボタン505を押下したものとする。
ステップS414に応じて、画面入出力部421は、端末610から属性情報の推定指示を受信し、前処理を行う(S416)。具体的には、画面入出力部421は、件名4141、及び、ログインユーザ情報413を入力として、前処理部422を呼び出す。前処理部422は、件名4141及びログインユーザ情報413内の所属コード4131、ログイン日4132、会計年度4133を上述した説明変数元データとする。そして、前処理部422は、これらの説明変数元データを対象に、図11と同様に、説明変数生成処理を行う。
そして、推定部423は、前処理部422により生成された説明変数を学習済み推定モデル411に入力し、属性情報を推定する(S417)。具体的には、推定部423は、ステップS341及びS342と同様に、説明変数のうち件名バイト列を件名バイト列ネットワーク3131に入力し、件名バイト列ネットワーク3131で畳み込み演算を行う。また、推定部423は、ステップS343及びS344と同様に、説明変数のうち月、日、曜日、週番号、所属コード、出納整理期間フラグのそれぞれを、エンティティエンベッティングネットワーク3132に入力し、実数値ベクトルに変換する。
続いて、推定部423は、ステップS345及びS346と同様に、件名バイト列ネットワーク3131の出力とエンティティエンベッティングネットワーク3132の出力とを全結合層3133で連結し、全結合層3133の出力を出力層3134へ入力し、属性情報(推定結果415)を推定する。ここで、推定結果415は、推定対象伝票データ414に対応する勘定科目、支払方法区分等の分類項目か、支払金額、支払予定日等の支払情報である。尚、推定部423は、2以上の属性情報を推定してもよい。その場合、推定結果415は、2以上の推定結果のリストとなる。
併せて、推定部423は、推定結果415の信頼度を算出する(S418)。例えば、推定部423は、伝票DB100の処理済み伝票データ111〜11nを参照し、件名4141、起票日4142、所属コード4143、会計年度4144の組合せに合致する伝票データにおいて、推定結果415と同様の属性情報が過去に承認された比率を信頼度として算出してもよい。尚、推定結果415がリストの場合、推定部423は、各属性情報について信頼度を算出するものとする。
そして、推定部423は、推定結果415及び信頼度を端末610へ送信する。尚、推定結果415がリストの場合、推定部423は、全ての信頼度を送信する必要はない。例えば、推定部423は、推定結果415の全てを送信すると共に、送信する推定結果415の全ての信頼度のうちより高い一部の信頼度に絞って送信してもよい。端末610は、受信した推定結果415及び信頼度を画面に表示する(S419)。
図16は、本実施の形態3にかかる推定結果の画面表示の例を示す図である。推定結果表示画面500aは、伝票起票画面500の件名504等に基づいて推定された推定結果リスト510を表示する。推定結果リスト510は、複数の推定結果(推定支出区分)(例えば、「資金前途」「概算」「前金(工事)・・・「分割」)を含み、そのうち推定支出区分511(「概算」)が最も信頼度が高い(信頼度512が96%)ことを示す。尚、信頼度512をパーセント表示に代えて、信頼度が他の推定結果と比べて高いこと又は低いことを示す表示を用いても良い。例えば、信頼度512に代えて、「○」を表示するか、複数の推定結果の間で色の濃さを変えてグラデーション表現(例えば、同じ緑色でも信頼度が高い方が濃いなど)を用いて表示してもよい。
その後、起票者U1は、推定結果表示画面500aを確認し、推定結果リスト510の中から推定結果を選択する。端末610は、選択された推定結果を推定装置400へ送信する。画面入出力部421は、受信した推定結果を属性情報として推定対象伝票データ414に対応付けて、伝票DB100の推定対象伝票データ120として保存する。
以上のことから、起票者U1は、伝票データを入力する際に、(会計年度及び)件名(説明文字列)を入力するだけで、推定装置400は、複数の属性情報の候補を推定して提示する。そのため、起票者U1は、自身で属性情報(分類項目や支払情報)を判断して入力する必要がなく、推定結果のリストの中から選択するだけで、自動入力することができる。そのため、伝票入力に伴う作業時間の削減と、入力内容の正確性の向上を図ることが可能になる。
次に、審査時について説明する。図17は、本実施の形態3にかかる審査時の推定比較処理の流れを示すフローチャートである。前提として、事前に起票者U1は、伝票入力を終えており、その際、推定指示ボタン505を押下せず、自身の判断で属性情報を事前に入力(選択)し、その結果が伝票DB100に推定対象伝票データ120として保存されているものとする。
まず、推定装置400は、承認者U2についての会計システム1000へのログイン処理を行う(S420)。尚、ログイン処理は、概ね、ステップS410と同様であるが、会計年度の入力は不要であるものとする。その代りに、端末620は、承認者U2の操作により審査対象伝票の指定を受け付け(S421)、指定された審査対象伝票のID等を推定装置400へ送信する。画面入出力部421は、受信した審査対象伝票のID等に基づき伝票DB100を検索し、ここでは、推定対象伝票データ120がヒットしたものとする。そこで、画面入出力部421は、伝票DB100から推定対象伝票データ120を読み出す。
ここで、ステップS421の後、画面入出力部421は、推定対象伝票データ120から件名、所属コード、起票日、会計年度、(起票者U1により事前に選択された)属性情報を抽出し、推定対象伝票データ414として記憶部410に保存する(S424)。
また、ステップS421の後、画面入出力部421は、推定対象伝票データ120を表示するための表示画面を生成し、端末620へ送信する。そして、端末620は、受信した表示画面を表示する(S422)。尚、表示画面は、伝票起票画面500と同等である。但し、表示内容は、推定対象伝票データ120の保存内容となる。また、推定指示ボタン505は、推定比較指示ボタンとなり、表示画面に表示された伝票データについて、学習済み推定モデル411を用いて属性情報を推定する処理と、当該伝票データに対して事前に起票者U1に入力された属性情報と推定結果とを比較する処理とを指示するものである。
その後、端末620は、承認者U2の操作により、表示中の伝票データに対して属性情報の推定比較指示を受け付け、属性情報の推定比較指示を推定装置400へ送信する(S423)。例えば、承認者U2は、端末620を操作して推定比較指示ボタンを押下したものとする。
ステップS423に応じて、画面入出力部421は、端末620から属性情報の推定比較指示を受信し、前処理を行う(S425)。具体的には、画面入出力部421は、件名4141、起票日4142、所属コード4143、会計年度4144を入力として、前処理部422を呼び出す。前処理部422は、件名4141、起票日4142、所属コード4143、会計年度4144を上述した説明変数元データとする。そして、前処理部422は、これらの説明変数元データを対象に、図11と同様に、説明変数生成処理を行う。
そして、推定部423は、ステップS417と同様に、前処理部422により生成された説明変数を学習済み推定モデル411に入力し、属性情報を推定する(S426)。併せて、推定部423は、ステップS418と同様に、推定結果415の信頼度を算出する(S427)。
さらに、推定部423は、推定結果415(属性情報)と、ステップS424で抽出された推定対象伝票データ120に含まれる(起票者U1により事前に選択された)属性情報とを比較する(S428)。つまり、推定部423は、当該比較により、起票者U1により事前に選択された属性情報の妥当性を判定する。そして、比較結果が一致する場合に、推定部423は判定結果416を妥当、例えば「○」とする。一方、比較結果が不一致の場合、推定部423は判定結果416を不当、例えば推定結果415を正解候補として判定結果416に含める。
その後、推定部423は、推定結果415、信頼度及び判定結果416を端末620へ送信する。端末620は、受信した推定結果415、信頼度及び判定結果416を画面に表示する(S429)。
以上のことから、承認者U2は、起票者U1により起票された伝票データを承認のために審査する際に、対象の伝票データを指定し、推定比較指示ボタンを押下するだけで、推定装置400は、起票者U1により事前選択された属性情報の妥当性の判定結果を表示する。そのため、承認者U2は、対象の伝票データにおける属性情報の妥当性を容易に判断することができ、また、妥当でない場合には、学習済み推定モデル411による推定結果の提示を受けることで、妥当な属性情報を把握し、起票者U1へのフィードバック等を行うことができる。よって、審査及び承認に伴う作業時間の削減と、審査の正確性の向上を図ることが可能になる。
<その他の実施の形態>
尚、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、DVD(Digital Versatile Disc)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施の形態を適宜組み合わせて実施されてもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記A1)
所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
処理済みの伝票データにおける前記説明文字列から前記前処理部により変換された前記特徴ベクトルと、当該処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを記憶する記憶部と、
推定対象の伝票データにおける前記説明文字列から、前記前処理部及び前記機械学習された推定モデルを用いて当該推定対象の伝票データに対応する前記属性情報を推定する推定部と、
を備える推定装置。
(付記A2)
前記前処理部は、前記説明文字列を前記所定の文字コードに基づくバイト列データに変換し、当該バイト列データから前記特徴ベクトルに変換する
付記A1に記載の推定装置。
(付記A3)
前記前処理部は、前記バイト列データをバイト単位でワンホットエンコーディングして前記特徴ベクトルに変換する
付記A2に記載の推定装置。
(付記A4)
前記推定モデルは、前記処理済みの伝票データの起票時に特定された特定情報をさらに用いて機械学習されたものであり、
前記推定部は、
前記推定対象の伝票データの起票時に特定された前記特定情報をさらに用いて当該推定対象の伝票データに対応する前記属性情報を推定する
付記A1乃至A3のいずれか1項に記載の推定装置。
(付記A5)
前記推定モデルは、
前記特徴ベクトルに対して畳み込み演算を行うための第1のニューラルネットワークと、
前記特定情報を入力とする第2のニューラルネットワークと、
前記第1のニューラルネットワークと前記第2のニューラルネットワークの出力を連結する第3のニューラルネットワークと、
を含む付記A4に記載の推定装置。
(付記A6)
前記特定情報は、前記推定対象の伝票データの起票時の起票日情報を含む、
付記A4又はA5に記載の推定装置。
(付記A7)
前記特定情報は、前記推定対象の伝票データの起票者の所属情報を含む、
付記A4乃至A6のいずれか1項に記載の推定装置。
(付記A8)
前記特定情報は、前記推定対象の伝票データが属する会計年度を含む、
付記A4乃至A7のいずれか1項に記載の推定装置。
(付記A9)
前記推定部は、
前記推定対象の伝票データの分類項目を前記属性情報として推定する
付記A1乃至A8のいずれか1項に記載の推定装置。
(付記A10)
前記推定部は、
前記推定対象の伝票データの支払情報を前記属性情報として推定する
付記A1乃至A8のいずれか1項に記載の推定装置。
(付記A11)
前記推定部は、
ユーザの要求に応じて前記属性情報を推定し、当該推定した属性情報を出力する
付記A1乃至A10のいずれか1項に記載の推定装置。
(付記A12)
前記推定部は、
前記推定対象の伝票データの起票者を前記ユーザとして、前記推定した属性情報を出力する
付記A11に記載の推定装置。
(付記A13)
前記推定部は、
前記ユーザが前記推定対象の伝票データの承認者である場合、前記承認者の要求に応じて推定した前記属性情報により、前記推定対象の伝票データの起票者により事前に選択された前記属性情報の妥当性の判定結果を前記承認者に出力する
付記A11に記載の推定装置。
(付記A14)
前記推定部は、
前記推定した属性情報の信頼度をさらに推定し、当該信頼度をさらに出力する
付記A11乃至A13のいずれか1項に記載の推定装置。
(付記A15)
前記推定部は、
前記推定した属性情報及び信頼度を出力先で表示させるために出力する
付記A14に記載の推定装置。
(付記B1)
処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する学習部と、
を備える学習装置。
(付記B2)
前記前処理部は、前記説明文字列を前記所定の文字コードに基づくバイト列データに変換し、当該バイト列データから前記特徴ベクトルに変換する
付記B1に記載の学習装置。
(付記B3)
前記前処理部は、前記バイト列データをバイト単位でワンホットエンコーディングして前記特徴ベクトルに変換する
付記B2に記載の学習装置。
(付記B4)
前記学習部は、前記処理済みの伝票データの起票時に特定された特定情報にさらに基づいて、前記推定モデルを機械学習する
付記B1乃至B3のいずれか1項に記載の学習装置。
(付記B5)
前記前処理部は、前記処理済みの伝票データから前記特定情報を抽出し、
前記推定モデルは、
前記特徴ベクトルに対して畳み込み演算を行うための第1のニューラルネットワークと、
前記特定情報を入力とする第2のニューラルネットワークと、
前記第1のニューラルネットワークと前記第2のニューラルネットワークの出力を連結する第3のニューラルネットワークと、
を含む付記B4に記載の学習装置。
(付記B6)
前記特定情報は、前記処理済みの伝票データの起票時の起票日情報を含む、
付記B4又はB5に記載の学習装置。
(付記B7)
前記特定情報は、前記処理済みの伝票データの起票者の所属情報を含む、
付記B4乃至B6のいずれか1項に記載の学習装置。
(付記B8)
前記特定情報は、前記処理済みの伝票データが属する会計年度を含む、
付記B4乃至B7のいずれか1項に記載の学習装置。
(付記B9)
前記推定モデルは、前記任意の伝票データの分類項目を前記属性情報として推定するためのものである
付記B1乃至B8のいずれか1項に記載の学習装置。
(付記B10)
前記推定モデルは、前記任意の伝票データの支払情報を前記属性情報として推定するためのものである
付記B1乃至B8のいずれか1項に記載の学習装置。
(付記C1)
所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
処理済みの伝票データにおける前記説明文字列から前記前処理部により変換された前記特徴ベクトルと、当該処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する学習部と、
推定対象の伝票データにおける前記説明文字列から、前記前処理部及び前記機械学習された推定モデルを用いて当該推定対象の伝票データに対応する前記属性情報を推定する推定部と、
を備える推定システム。
(付記C2)
前記前処理部は、前記説明文字列を前記所定の文字コードに基づくバイト列データに変換し、当該バイト列データから前記特徴ベクトルに変換する
付記C1に記載の推定システム。
(付記C3)
前記前処理部は、前記バイト列データをバイト単位でワンホットエンコーディングして前記特徴ベクトルに変換する
付記C2に記載の推定システム。
(付記D1)
コンピュータが、
推定対象の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換し、
処理済みの伝票データにおける前記説明文字列から前記所定の文字コードに基づき変換された前記特徴ベクトルと当該処理済みの伝票データに対応する属性情報とに基づいて任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを用いて、前記推定対象の伝票データにおける前記特徴ベクトルから、当該推定対象の伝票データに対応する前記属性情報を推定する
推定方法。
(付記E1)
推定対象の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する処理と、
処理済みの伝票データにおける前記説明文字列から前記所定の文字コードに基づき変換された前記特徴ベクトルと当該処理済みの伝票データに対応する属性情報とに基づいて任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを用いて、前記推定対象の伝票データにおける前記特徴ベクトルから、当該推定対象の伝票データに対応する前記属性情報を推定する処理と、
をコンピュータに実行させる推定プログラム。
(付記F1)
コンピュータが、
処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換し、
前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する
学習方法。
(付記G1)
処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する処理と、
前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する処理と、
をコンピュータに実行させる学習プログラム。
1 学習装置
11 前処理部
12 学習部
2 推定装置
21 前処理部
22 記憶部
220 推定モデル
23 推定部
1000 会計システム
100 伝票DB
111 処理済み伝票データ
1111 件名
1112 起票日
1113 所属コード
1114 会計年度
1115 科目コード
1116 区分コード
1117 支払金額
1118 支払予定日
11n 処理済み伝票データ
120 推定対象伝票データ
200 推定システム
300 学習装置
310 記憶部
311 説明変数
3111 件名バイト列
3112 起票日情報
31121 月
31122 日
31123 曜日
31124 週番号
3113 所属コード
3114 出納整理期間フラグ
312 正解ラベル
3121 科目コード
3122 区分コード
3123 支払金額
3124 支払予定日
313 推定モデル
3130 パラメータ
3131 件名バイト列ネットワーク
CNN1 畳み込み層ブロック
3132 エンティティエンベッティングネットワーク
EEN1 月用
EEN2 日用
EEN3 曜日用
EEN4 週番号用
EEN5 所属コード用
EEN6 出納整理期間フラグ用
3133 全結合層
3134 出力層
314 学習プログラム
315 推定結果
320 制御部
321 前処理部
322 学習部
330 IF部
400 推定装置
410 記憶部
411 学習済み推定モデル
4110 パラメータ
412 ユーザ情報
4121 認証情報
4122 所属コード
413 ログインユーザ情報
4131 所属コード
4132 ログイン日
4133 会計年度
414 推定対象伝票データ
4141 件名
4142 起票日
4143 所属コード
4144 会計年度
415 推定結果
416 判定結果
417 推定プログラム
420 制御部
421 画面入出力部
422 前処理部
423 推定部
430 IF部
610 端末
620 端末
U1 起票者
U2 承認者
N 通信ネットワーク
500 伝票起票画面
500a 推定結果表示画面
501 ログイン情報
502 会計年度
503 起票日
504 件名
505 推定指示ボタン
510 推定結果リスト
511 推定支出区分
512 信頼度

Claims (10)

  1. 所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
    処理済みの伝票データにおける前記説明文字列から前記前処理部により変換された前記特徴ベクトルと、当該処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを記憶する記憶部と、
    推定対象の伝票データにおける前記説明文字列から、前記前処理部及び前記機械学習された推定モデルを用いて当該推定対象の伝票データに対応する前記属性情報を推定する推定部と、
    を備える推定装置。
  2. 前記前処理部は、前記説明文字列を前記所定の文字コードに基づくバイト列データに変換し、当該バイト列データから前記特徴ベクトルに変換する
    請求項1に記載の推定装置。
  3. 前記前処理部は、前記バイト列データをバイト単位でワンホットエンコーディングして前記特徴ベクトルに変換する
    請求項2に記載の推定装置。
  4. 前記推定モデルは、前記処理済みの伝票データの起票時に特定された特定情報をさらに用いて機械学習されたものであり、
    前記推定部は、
    前記推定対象の伝票データの起票時に特定された前記特定情報をさらに用いて当該推定対象の伝票データに対応する前記属性情報を推定する
    請求項1乃至3のいずれか1項に記載の推定装置。
  5. 前記推定部は、
    前記推定対象の伝票データの分類項目を前記属性情報として推定する
    請求項1乃至4のいずれか1項に記載の推定装置。
  6. 処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
    前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する学習部と、
    を備える学習装置。
  7. 所定の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する前処理部と、
    処理済みの伝票データにおける前記説明文字列から前記前処理部により変換された前記特徴ベクトルと、当該処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する学習部と、
    推定対象の伝票データにおける前記説明文字列から、前記前処理部及び前記機械学習された推定モデルを用いて当該推定対象の伝票データに対応する前記属性情報を推定する推定部と、
    を備える推定システム。
  8. コンピュータが、
    推定対象の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換し、
    処理済みの伝票データにおける前記説明文字列から前記所定の文字コードに基づき変換された前記特徴ベクトルと当該処理済みの伝票データに対応する属性情報とに基づいて任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを用いて、前記推定対象の伝票データにおける前記特徴ベクトルから、当該推定対象の伝票データに対応する前記属性情報を推定する
    推定方法。
  9. 推定対象の伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換する処理と、
    処理済みの伝票データにおける前記説明文字列から前記所定の文字コードに基づき変換された前記特徴ベクトルと当該処理済みの伝票データに対応する属性情報とに基づいて任意の伝票データに対応する前記属性情報を推定するために機械学習された推定モデルを用いて、前記推定対象の伝票データにおける前記特徴ベクトルから、当該推定対象の伝票データに対応する前記属性情報を推定する処理と、
    をコンピュータに実行させる推定プログラム。
  10. コンピュータが、
    処理済みの伝票データの内容を説明する説明文字列を所定の文字コードに基づく特徴ベクトルに変換し、
    前記特徴ベクトルと前記処理済みの伝票データに対応する属性情報とに基づいて、任意の伝票データに対応する前記属性情報を推定するための推定モデルを機械学習する
    学習方法。
JP2018166307A 2018-09-05 2018-09-05 推定装置、システム、方法及びプログラム、並びに、学習装置及び方法 Pending JP2020038570A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018166307A JP2020038570A (ja) 2018-09-05 2018-09-05 推定装置、システム、方法及びプログラム、並びに、学習装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166307A JP2020038570A (ja) 2018-09-05 2018-09-05 推定装置、システム、方法及びプログラム、並びに、学習装置及び方法

Publications (1)

Publication Number Publication Date
JP2020038570A true JP2020038570A (ja) 2020-03-12

Family

ID=69738125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166307A Pending JP2020038570A (ja) 2018-09-05 2018-09-05 推定装置、システム、方法及びプログラム、並びに、学習装置及び方法

Country Status (1)

Country Link
JP (1) JP2020038570A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102265947B1 (ko) * 2020-11-23 2021-06-17 주식회사 엠로 기계 학습 기반 정보 제공 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281190A (ja) * 2002-03-22 2003-10-03 Fumiyoshi Adachi 汎用データ検索方法
JP6342583B1 (ja) * 2017-04-12 2018-06-13 ファーストアカウンティング株式会社 自動仕訳装置、会計処理装置、会計処理システム、会計処理方法、及び会計処理プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281190A (ja) * 2002-03-22 2003-10-03 Fumiyoshi Adachi 汎用データ検索方法
JP6342583B1 (ja) * 2017-04-12 2018-06-13 ファーストアカウンティング株式会社 自動仕訳装置、会計処理装置、会計処理システム、会計処理方法、及び会計処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ミュラー アンドレアス・C, PYTHONではじめる機械学習, vol. 第1版, JPN6022027759, pages 207, ISSN: 0004953368 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102265947B1 (ko) * 2020-11-23 2021-06-17 주식회사 엠로 기계 학습 기반 정보 제공 방법 및 장치

Similar Documents

Publication Publication Date Title
US11720615B2 (en) Self-executing protocol generation from natural language text
US11210300B2 (en) System and methods of generating structured data from unstructured data
US20190205636A1 (en) Artificial Intelligence Based Smart Data Engine
US11610271B1 (en) Transaction data processing systems and methods
CN107517251A (zh) 信息推送方法和装置
CN114549241A (zh) 合同审查方法、装置、系统与计算机可读存储介质
JP2019144978A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111274779A (zh) 基于用户体验预测的法律文书生成系统及方法
JP2021033902A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP6576728B2 (ja) 会計処理システム、会計処理方法、プログラム及び指導レポート
JP2020038570A (ja) 推定装置、システム、方法及びプログラム、並びに、学習装置及び方法
CN114898389B (zh) 一种会计凭证摘要智能审核方法及系统
CN111415138A (zh) 一种创意处理方法和系统、客户端以及服务端
JP2012018503A (ja) 承認システム、承認用端末、サーバ、承認方法、情報管理方法、及びプログラム
CN112330402B (zh) 信息推荐方法、装置、计算机设备和存储介质
JP6993032B2 (ja) 会計処理装置、会計処理システム、会計処理方法及びプログラム
JP7564659B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN114529309A (zh) 一种信息审核方法、装置、电子设备及计算机可读介质
CN113538057A (zh) 一种纸质票据转化方法、装置、设备及可读存储介质
KR20210068649A (ko) 보험금 청구 서류 입력 시스템 및 방법
JP6858420B1 (ja) 会計処理装置、会計処理システム、会計処理方法及びプログラム
JP6777907B1 (ja) 業務支援装置、及び業務支援システム
Apostu Using machine learning algorithms to detect frauds in telephone networks
CN107643835A (zh) 下拉词确定方法、装置、电子设备及存储介质
US20220261575A1 (en) Prediction device, prediction method, prediction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221227