JP2023049152A - 書類記載内容検査システム - Google Patents
書類記載内容検査システム Download PDFInfo
- Publication number
- JP2023049152A JP2023049152A JP2021158721A JP2021158721A JP2023049152A JP 2023049152 A JP2023049152 A JP 2023049152A JP 2021158721 A JP2021158721 A JP 2021158721A JP 2021158721 A JP2021158721 A JP 2021158721A JP 2023049152 A JP2023049152 A JP 2023049152A
- Authority
- JP
- Japan
- Prior art keywords
- information
- description
- image information
- document
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005516 engineering process Methods 0.000 claims abstract description 20
- 238000003384 imaging method Methods 0.000 claims abstract description 17
- 238000007689 inspection Methods 0.000 claims description 29
- 238000013473 artificial intelligence Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 238000013210 evaluation model Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 235000019645 odor Nutrition 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】記載内容の正否を人手に頼ることなく高精度かつ自動的に推定する。【解決手段】ユーザ端末を介して検査対象の書類の記載を撮像した画像情報に含まれる文字列をOCR技術に基づいて生成したテキストデータを取得すると共に、撮像した書類の記載欄に関する第1記載欄情報を取得する情報取得手段と、過去において書類の記載を撮像した参照用画像情報と、記載内容の正否との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を記載内容の正否とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、記載内容の正否を推定する推定手段とを備え、上記推定手段は、取得した第1記載欄情報に応じた製品の記載欄の上記連関度を読み出して記載内容の正否を推定する。【選択図】図10
Description
本発明は、書類の記載内容の検査を行うためのモデルを生成するための書類記載内容検査モデル構築システムに関する。
従来、司法、行政、立法の各府に加え、民間企業、公共団体において、様々な書類が作成され、その内容が確認、検査される。このような書類の確認、検査は、従来より人手により行われていた。
しかしながら、このような書類の検査の作業を人手により都度行うのは労力の負担が大きく、また作業工数が増大してしまうという問題点があった。これに加えて、人手による作業を都度行うことになれば、確認、検査の見落としも発生することから、このような見落としを防ぎつつ、労力を負担できるシステムが従来より望まれていた。
しかしながら、従来の書類記載内容検査システムでは、このような要望に応えることができる技術が未だ提案されていないのが現状であった。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、書類の内容の検査や確認の作業を人手に頼ることなく高精度かつ自動的に推定することが可能な書類記載内容検査モデル構築システムを提供することにある。
本発明に係る書類記載内容検査システムは、書類の記載内容の検査を行うための書類記載内容検査システムにおいて、ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して検査対象の書類の記載を撮像した画像情報を取得すると共に、撮像した製品の記載欄に関する第1記載欄情報を取得する情報取得手段と、過去において書類の記載を撮像した参照用画像情報と、記載内容の正否との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を記載内容の正否とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、記載内容の正否を推定する推定手段と、上記参照用画像情報に含まれる製品の記載欄に関する第2記載欄情報を当該参照用画像情報に紐付けて記録する記録手段とを備え、上記ユーザ端末は、上記情報取得手段により取得された第1記載欄情報と、上記情報取得手段により取得された画像情報に応じた参照用画像情報に紐付けられて上記記録手段に記録されている第2記載欄情報とに基づいて、上記ユーザに対して撮影方法についての示唆を透過状態で表示する表示部を有することを特徴とする。
特段のスキルや経験が無くても、誰でも手軽に書類の内容の検査や確認を高精度に行うことができる。
以下、本発明を適用した書類記載内容検査プログラムについて、図面を参照しながら詳細に説明をする。
第1実施形態
図1は、本発明を適用した書類記載内容検査プログラムが実装される書類記載内容検査システム1の全体構成を示すブロック図である。書類記載内容検査システム1は、情報取得部9と、情報取得部9に接続された推定装置2と、推定装置2に接続されたデータベース3とを備えている。
図1は、本発明を適用した書類記載内容検査プログラムが実装される書類記載内容検査システム1の全体構成を示すブロック図である。書類記載内容検査システム1は、情報取得部9と、情報取得部9に接続された推定装置2と、推定装置2に接続されたデータベース3とを備えている。
情報取得部9は、本システムを活用する者が各種コマンドや情報を入力するためのデバイスであり、具体的にはキーボードやボタン、タッチパネル、マウス、スイッチ等により構成される。情報取得部9は、テキスト情報を入力するためのデバイスに限定されるものではなく、マイクロフォン等のような音声を検知してこれをテキスト情報に変換可能なデバイスで構成されていてもよい。また情報取得部9は、カメラ等の画像を撮影可能な撮像装置として構成されていてもよい。情報取得部9は、紙媒体の書類から文字列を認識できる機能を備えたスキャナで構成されていてもよい。また情報取得部9は、後述する推定装置2と一体化されていてもよい。情報取得部9は、検知した情報を推定装置2へと出力する。また情報取得部9は地図情報をスキャニングすることで位置情報を特定する手段により構成されていてもよい。また情報取得部9は、温度センサ、湿度センサ、風向センサ、を測るための照度センサで構成されていてもよい。また情報取得部9は、天候についてのデータを気象庁や民間の天気予報会社から取得する通信インターフェースで構成されていてもよい。また情報取得部9は身体に装着して身体のデータを検出するための身体センサで構成されていてもよく、この身体センサは、例えば体温、心拍数、血圧、歩数、歩く速度、加速度を検出するためのセンサで構成されていてもよい。また情報取得部9は図面等の情報をスキャニングしたり、或いはデータベースから読み出すことで取得するデバイスとして構成されていてもよい。情報取得部9は、これら以外に臭気や香りを検知する臭気センサにより構成されていてもよい。
データベース3は、書類記載内容検査を行う上で必要な様々な情報が蓄積される。書類記載内容検査を行う上で必要な情報としては、書類の過去において製品の外観を撮像した製品の外観の画像を撮像した参照用画像情報等と、これらに対して実際に判断がなされた記載内容の正否とのデータセットが記憶されている。
つまり、データベース3には、このような参照用画像情報と他の参照用情報等の何れか1以上と、記載内容の正否が互いに紐づけられた学習データ記憶されている。なお、データベース3にこのような学習データを記憶する代わりに、判別装置2や情報取得部9側に学習データを記憶させるようにしてもよい。即ち、判別装置2や情報取得部9をいわゆるエッジデバイスとし、このエッジデバイスに、人工知能を搭載し、学習データを蓄積させて推論を行うようにしてもよい。
推定装置2は、例えば、パーソナルコンピュータ(PC)等を始めとした電子機器で構成されているが、PC以外に、携帯電話、スマートフォン、タブレット型端末、ウェアラブル端末等、他のあらゆる電子機器で具現化されるものであってもよい。ユーザは、この推定装置2による探索解を得ることができる。
図2は、推定装置2の具体的な構成例を示している。この推定装置2は、推定装置2全体を制御するための制御部24と、操作ボタンやキーボード等を介して各種制御用の指令を入力するための操作部25と、有線通信又は無線通信を行うための通信部26と、各種判断を行う推定部27と、ハードディスク等に代表され、実行すべき検索を行うためのプログラムを格納するための記憶部28とが内部バス21にそれぞれ接続されている。さらに、この内部バス21には、実際に情報を表示するモニタとしての表示部23が接続されている。
制御部24は、内部バス21を介して制御信号を送信することにより、推定装置2内に実装された各構成要素を制御するためのいわゆる中央制御ユニットである。また、この制御部24は、操作部25を介した操作に応じて各種制御用の指令を内部バス21を介して伝達する。
操作部25は、キーボードやタッチパネルにより具現化され、プログラムを実行するための実行命令がユーザから入力される。この操作部25は、上記実行命令がユーザから入力された場合には、これを制御部24に通知する。この通知を受けた制御部24は、推定部27を始め、各構成要素と協調させて所望の処理動作を実行していくこととなる。この操作部25は、前述した情報取得部9として具現化されるものであってもよい。
推定部27は、探索解を推定する。この推定部27は、推定動作を実行するに当たり、必要な情報として記憶部28に記憶されている各種情報や、データベース3に記憶されている各種情報を読み出す。この推定部27は、人工知能により制御されるものであってもよい。この人工知能はいかなる周知の人工知能技術に基づくものであってもよい。
表示部23は、制御部24による制御に基づいて表示画像を作り出すグラフィックコントローラにより構成されている。この表示部23は、例えば、液晶ディスプレイ(LCD)等によって実現される。
記憶部28は、ハードディスクで構成される場合において、制御部24による制御に基づき、各アドレスに対して所定の情報が書き込まれるとともに、必要に応じてこれが読み出される。また、この記憶部28には、本発明を実行するためのプログラムが格納されている。このプログラムは制御部24により読み出されて実行されることになる。
上述した構成からなる書類記載内容検査システム1における動作について説明をする。以下でいう書類とは、司法、行政、立法の各府に加え、民間企業、公共団体において提出され、作成され、或いは検査・確認がされるあらゆる書類が含まれる。
書類記載内容検査システム1は、上述した書類についてその記載の内容を検査・確認する者である。ここでいう記載内容の正否とは、単に誤記に限らず、本来その記載欄に記載すべきであるか、その適正さをチェックすることをいう。また、記載内容が正しいか否かの2値で示す場合に加え、その適正さの度合いを3段階以上で評価するものであってもよい。記載の正否に加え、その記載について正しいものの、さらに改善の余地があるか否かを示すものであってもよい。
書類記載内容検査システム1は、例えば図3に示すように、参照用画像情報と、記載内容の正否との3段階以上の連関度が予め設定されていることが前提となる。参照用画像情報とは、書類の記載について、記載がなされている書類の書面を撮像することにより得られた画像情報から得られるものであり、画像情報を解析することで得ることができる。参照用画像情報とは、書類の記載を構成する画像であればいかなるものも含まれる。この参照用画像情報は、書類について撮像した画像を解析することで、書類に記載されている文字列に基づいて、実際に記載されているテキストデータを得るようにしてもよい。これらの書類の記載は、OCR技術を利用して文字列を読み取ることにより生成したテキストデータを判別し、この判別したテキストデータと、以前において学習させた特徴量に基づいて記載内容の正否を判別するようにしてもよい。このとき、図5に示すように、人工知能を活用し、過去において取得した書類の記載を撮像した画像情報に含まれる文字列をOCR技術に基づいて生成した参照用テキストデータと、記載内容の正否を学習させておくようにしてもよい。
かかる場合において、紙媒体の書類は、画像を撮像してOCR技術を利用してテキストデータの抽出を行うが、書類自体が既に電子化されている場合には、この電子化された書類から直接参照用テキストデータを取得するようにしてもよい。このテキストデータは、実際には周知の形態素解析、自然言語解析、構文解析を行い、実際にそのテキストデータが示そうとする意図を抽出するようにしてもよい。また、動詞とこれに係り受けする格成分との組み合わせの関係を利用し、その意図を抽出してもよい。そして、この抽出した意図と記載内容の正否とをデータセットとして学習させるようにしてもよい。
記載内容の正否は、その参照用画像情報として撮像した書類の実際の完成度合、その書類に求められる要件の充足度合い、品質である。この記載内容の正否は、都度手入力により入力するようにしてもよい。また、記載内容の正否は、実際に専門家や当業者によって、あるいは業者によって評価されたものであってもよく、その鑑定書に記載の内容に基づいてもよいし、評価者によって評価され、例えば、100点満点、或いは1000点満点でランク付けされたものであってもよい。あるいは正しい、誤っている、の2段階で、或いは2段階以上で評価されたものであってもよい。
このような参照用画像情報と、記載内容の正否からなるデータセットを取得しておき、これを学習させる。
図3の例では、入力データとして例えば参照用画像情報P01~P03であるものとする。このような入力データとしての参照用画像情報P01~P03は、出力としての記載内容の正否に連結している。この出力においては、出力解としての、記載内容の正否が表示されている。
参照用画像情報は、この出力解としての記載内容の正否A~Dに対して3段階以上の連関度を通じて互いに連関しあっている。記載内容の正否は、その書類が同一種類の書類であると仮定した場合に、例えば記載内容の正否Aは、正しい、記載内容の正否Bは、やや改善の余地あり、記載内容の正否Cは、ふつう、記載内容の正否Dは、誤っている等のように配列している。参照用画像情報がこの連関度を介して左側に配列し、各記載内容の正否が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報に対して、何れの記載内容の正否と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報が、いかなる記載内容の正否に紐付けられる可能性が高いかを示す指標であり、参照用画像情報から最も確からしい記載内容の正否を選択する上での的確性を示すものである。図3の例では、連関度としてw13~w19が示されている。このw13~w19は以下の表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力としての記載内容の正否と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力としての値段と互いに関連度合いが低いことを示している。
推定装置2は、このような図3に示す3段階以上の連関度w13~w19を予め取得しておく。つまり推定装置2は、実際の探索解の判別を行う上で、参照用画像情報と、その場合の記載内容の正否の何れが採用、評価されたか、過去のデータセットを蓄積しておき、これらを分析、解析することで図3に示す連関度を作り上げておく。
例えば、参照用画像情報がαであるものとする。このような参照用画像情報に対する記載内容の正否としては記載内容の正否Aが多く評価されたものとする。このようなデータセットを集めて分析することにより、参照用画像情報との連関度が強くなる。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01である場合に、過去の記載内容の正否の評価を行った結果の各種データから分析する。こ参照用画像情報P01である場合に、記載内容の正否Aの事例が多い場合には、この記載内容の正否の評価につながる連関度をより高く設定し、記載内容の正否Bの事例が多い場合には、この記載内容の正否の評価につながる連関度をより高く設定する。例えば参照用画像情報P01の例では、記載内容の正否Aと、記載内容の正否Cにリンクしているが、以前の事例から記載内容の正否Aにつながるw13の連関度を7点に、記載内容の正否Cにつながるw14の連関度を2点に設定している。
また、この連関度は、図4に示すように、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを、以前の評価対象の書類の記載の画像等と実際に推定・評価した記載内容の正否とのデータセットを通じて作った後に、実際にこれから新たに記載内容の正否の判別を行う上で、上述した学習済みデータを利用して記載内容の正否を探索することとなる。かかる場合には、実際に判別対象の領域において画像情報を新たに取得する。新たに取得する画像情報は、上述した情報取得部9により入力される。画像情報は、記載内容の正否を判別しようとする書類の書面を撮像することで取得する。この判別方法は、上述した参照用画像情報と同様の手法で行うようにしてもよい。
このようにして新たに取得した画像情報に基づいて、記載内容の正否を判別する。かかる場合には、予め取得した図3(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合には、連関度を介して記載内容の正否Bがw15、記載内容の正否Cが連関度w16で関連付けられている。かかる場合には、連関度の最も高い記載内容の正否Bを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる記載内容の正否Cを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。なお、連関度は3段階以上のものを利用する場合に限定されるものではなく、2段階の連関性、即ち、1か0か、関係があるか否かを示すもので構成されるものであってもよい。かかる場合には、入力側の参照用画像情報と、出力側の記載内容の正否とが互いに紐付けられたテーブルを参照するようにしてもよい。そしてある画像情報が入力された場合、これに対応する参照用画像情報に紐付けられた記載内容の正否を出力することとなる。
このようにして、新たに取得する画像情報から、最も好適な記載内容の正否を探索し、推定表示することができる。
なお、上述した参照用画像情報の代わりに、参照用テキストデータを同様に図3に示すような記載の正否との間で連関度を形成させて学習させるようにしてもよい。かかる場合における詳細な説明は、上述した図3の説明において参照用画像情報を参照テキストデータに読み替えることで以下での説明を省略する。かかる場合には、図5に示すように参照用テキストデータを、記載の正否との間で、互いに教師データを機械学習させた予想モデルを用いてもよい。解探索時には、検査対象の書類からテキストデータを取得する。検査対象の書類が既に電子データされている場合には、直接そこからテキストデータを取得してもよいし、検査対象の書類が紙媒体であればOCR技術を利用してテキストデータを抽出してもよい。そして、この図3、5に示す連関度を参照し、取得したテキストデータに基づいて記載の正否を判別する。
なお本発明によれば、参照用画像情報又は参照用テキストデータと、記載内容の正否との3段階以上の連関度を予め学習させ、その連関度を利用して記載内容の正否を探索する場合に限定されるものではない。つまり画像情報又はテキストデータと、記載内容の正否は、3段階以上の連関度ではなく、2段階以上の連関性に基づいていればよい。2段階以上の連関性とは、各参照用画像情報又は参照用テキストデータに、いかなる記載内容の正否が紐づいているか否かを示すものであってもよい。
図6の例では、参照用画像情報と、他の参照用情報との他の参照用情報組み合わせが形成されていることが前提となる。他の参照用情報とは、参照用種類情報、参照用作成者情報、参照用提出先情報、参照用法律情報等が含まれる。
参照用種類情報とは、書類の書類に関する情報である。この書類の書類は、例えば、助成金の申請書類か、何らかの団体への申し込み書か、融資の申込書か、会社に応募した者の履歴書、広告掲載するためのフォーマットに記載された書類か、等、種類ごとに類型化されていてもよい。参照用種類情報、種類情報の取得方法は、都度手入力で取得してもよいし、いかなる書類の種類ごとに学習させた特徴量に基づいて判別するようにしてもよく、例えば各書類の書面の画像と、適用される法律とを、ディープラーニング技術を利用して、人工知能を通じて抽出することで判別するようにしてもよい。
参照用作成者情報は、実際にその書類を作成した作成者に関する情報である。この参照用作成者情報、作成者情報は、手入力により取得してもよいが、文責や差出人、申込者、サイン等から実際にOCR技術を利用して抽出するか、或いは書類自体が電子データ化されているのであれば、テキスト情報として直接取得するようにしてもよい。
参照用提出先情報は、実際にその書類の提出先に関する情報である。この参照用提出先情報、提出先情報は、手入力により取得してもよいが、宛名や提出先の記載等から実際にOCR技術を利用して抽出するか、或いは書類自体が電子データ化されているのであれば、テキスト情報として直接取得するようにしてもよい。
参照用法律情報は、書類が関係する法律に関する情報である。その書類が金融融資に関する者であれば、金融法が、また行政に関する書類であればそれに見合う行政法が、また裁判に関する書類であれば六法やその他特別法が関係することとなる。参照用法律情報、法律情報の取得方法は、都度手入力で取得してもよいし、いかなる法律に関係するか、法律ごとに学習させた特徴量に基づいて判別するようにしてもよく、例えば各書類の書面の画像と、適用される法律を、ディープラーニング技術を利用して、人工知能を通じて抽出することで判別するようにしてもよい。
図6の例では、入力データとして例えば参照用画像情報P01~P03、他の参照用情報P14~17であるものとする。このような入力データとしての、参照用画像情報に対して、他の参照用情報が組み合わさったものが、図6に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、記載内容の正否が表示されている。
参照用画像情報と他の参照用情報との各組み合わせ(中間ノード)は、この出力解としての、記載内容の正否に対して3段階以上の連関度を通じて互いに連関しあっている。参照用画像情報と他の参照用情報がこの連関度を介して左側に配列し、記載内容の正否が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報と他の参照用情報に対して、記載内容の正否と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報と他の参照用情報が、いかなる記載内容の正否に紐付けられる可能性が高いかを示す指標であり、参照用画像情報と他の参照用情報から最も確からしい記載内容の正否を選択する上での的確性を示すものである。このため、これらの参照用画像情報と他の参照用情報の組み合わせで、最適な記載内容の正否を探索していくこととなる。
図6の例では、連関度としてw13~w22が示されている。このw13~w22は表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力と互いに関連度合いが低いことを示している。
推定装置2は、このような図6に示す3段階以上の連関度w13~w22を予め取得しておく。つまり推定装置2は、実際の探索解の判別を行う上で、参照用画像情報と他の参照用情報、並びにその場合の記載内容の正否が何れが見合うものであったか、過去のデータを蓄積しておき、これらを分析、解析することで図6に示す連関度を作り上げておく。
例えば、過去にあった実際の事例における参照用画像情報がαであるものとする。また他の参照用情報が、ある参照用時期情報である、時期Wであるものとする。かかる場合に、実際にその記載内容の正否がいくらであったかを示す記載内容の正否をデータセットとして学習させ、上述した連関度という形で定義しておく。なお、このような参照用画像情報や、他の参照用情報は、業者等が管理する管理データベースから抽出するようにしてもよい。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01で、他の参照用情報P16である場合に、その記載内容の正否を過去のデータから分析する。記載内容の正否がAの事例が多い場合には、この記載内容の正否Aにつながる連関度をより高く設定し、記載内容の正否Bの事例が多く、記載内容の正否Aの事例が少ない場合には、記載内容の正否Bにつながる連関度を高くし、記載内容の正否Aにつながる連関度を低く設定する。例えば中間ノード61aの例では、記載内容の正否Aと記載内容の正否Bの出力にリンクしているが、以前の事例から記載内容の正否Aにつながるw13の連関度を7点に、記載内容の正否Bにつながるw14の連関度を2点に設定している。
また、この図6に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
図6に示す連関度の例で、ノード61bは、参照用画像情報P01に対して、他の参照用情報P14の組み合わせのノードであり、記載内容の正否Cの連関度がw15、記載内容の正否Eの連関度がw16となっている。ノード61cは、参照用画像情報P02に対して、参照用位置情報P15、P17の組み合わせのノードであり、記載内容の正否Bの連関度がw17、記載内容の正否Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから記載内容の正否を判別する際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、実際に画像情報と、参照用情報に応じた情報とを取得する。参照用情報に応じた情報とは、例えば参照用情報が参照用種類情報であれば、検査対象の書類の種類に関する種類情報に相当する。参照用情報が参照用作成者情報であれば、検査対象の書類の作製者に関する作成者情報が参照用情報に応じた情報に相当する。参照用情報が参照用提出先情報であれば、検査対象の書類の提出先に関する提出先情報が参照用情報に応じた情報に相当する。参照用情報が参照用法律情報であれば、検査対象の書類に関係する法律情報が参照用情報に応じた情報に相当する。
このようにして新たに取得した画像情報、参照用情報に応じた情報に基づいて、最適な記載内容の正否を探索する。かかる場合には、予め取得した図6(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合であって、参照用情報に応じた情報がP17である場合には、連関度を介してノード61dが関連付けられており、このノード61dは、記載内容の正否Cがw19、記載内容の正否Dが連関度w20で関連付けられている。かかる場合には、連関度の最も高い記載内容の正否Cを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる記載内容の正否Dを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。
また、入力から伸びている連関度w1~w12の例を以下の表2に示す。
この入力から伸びている連関度w1~w12に基づいて中間ノード61が選択されていてもよい。つまり連関度w1~w12が大きいほど、中間ノード61の選択における重みづけを重くしてもよい。しかし、この連関度w1~w12は何れも同じ値としてもよく、中間ノード61の選択における重みづけは何れも全て同一とされていてもよい。
なお、上述した図6、7の例では、参照用画像情報と、他の参照用情報との組み合わせに対する記載内容の正否に関する連関度を適用する場合を例にとり説明をしたが、これに限定されるものではなく、上述した参照用テキスト情報と他の参照用情報との組み合わせに対する記載内容の正否に関する連関度を形成するものであってもよい。かかる場合における解探索の方法は、上述と同様であるため、以下での説明を省略する。
上述した連関度においては、10段階評価で連関度を表現しているが、これに限定されるものではなく、3段階以上の連関度で表現されていればよく、逆に3段階以上であれば100段階でも1000段階でも構わない。一方、この連関度は、2段階、つまり互いに連関しているか否か、1又は0の何れかで表現されるものは含まれない。
上述した構成からなる本発明によれば、特段のスキルや経験が無くても、誰でも手軽に記載内容の正否の探索を行うことができる。また本発明によれば、この探索解の判断を、人間が行うよりも高精度に行うことが可能となる。更に、上述した連関度を人工知能(ニューラルネットワーク等)で構成することにより、これを学習させることでその判別精度を更に向上させることが可能となる。
なお、上述した入力データ、及び出力データは、学習させる過程で完全に同一のものが存在しない場合も多々あることから、これらの入力データと出力データを類型別に分類した情報であってもよい。つまり、入力データを構成する情報P01、P02、・・・・P15、16、・・・は、その情報の内容に応じて予めシステム側又はユーザ側において分類した基準で分類し、その分類した入力データと出力データとの間でデータセットを作り、学習させるようにしてもよい。
なお、上述した連関度では、参照用画像情報又は参照用テキスト情報に加え、上述した各参照用情報の何れかとの組み合わせで構成されている場合を例にとり説明をしたが、これに限定されるものではない。つまり連関度は、参照用画像情報又は参照用テキスト情報に加え、上述した各参照用情報の何れか2以上との組み合わせで構成されていてもよい。また連関度は、参照用画像情報又は参照用テキスト情報に加え、上述した各参照用情報の何れか1以上に加え、他のファクターがこの組み合わせに加わって連関度が形成されていてもよい。
また、本発明によれば、3段階以上に設定されている連関度を介して最適な解探索を行う点に特徴がある。連関度は、上述した10段階以外に、例えば0~100%までの数値で記述することができるが、これに限定されるものではなく3段階以上の数値で記述できるものであればいかなる段階で構成されていてもよい。
このような3段階以上の数値で表される連関度に基づいて最も確からしい記載内容の正否を判別することで、探索解の可能性の候補として複数考えられる状況下において、当該連関度の高い順に探索して表示することも可能となる。このように連関度の高い順にユーザに表示できれば、より確からしい探索解を優先的に表示することも可能となる。
これに加えて、本発明によれば、連関度が1%のような極めて低い出力の判別結果も見逃すことなく判断することができる。連関度が極めて低い判別結果であっても僅かな兆候として繋がっているものであり、何十回、何百回に一度は、その判別結果として役に立つ場合もあることをユーザに対して注意喚起することができる。
更に本発明によれば、このような3段階以上の連関度に基づいて探索を行うことにより、閾値の設定の仕方で、探索方針を決めることができるメリットがある。閾値を低くすれば、上述した連関度が1%のものであっても漏れなく拾うことができる反面、より適切な判別結果を好適に検出できる可能性が低く、ノイズを沢山拾ってしまう場合もある。一方、閾値を高くすれば、最適な探索解を高確率で検出できる可能性が高い反面、通常は連関度は低くてスルーされるものの何十回、何百回に一度は出てくる好適な解を見落としてしまう場合もある。いずれに重きを置くかは、ユーザ側、システム側の考え方に基づいて決めることが可能となるが、このような重点を置くポイントを選ぶ自由度を高くすることが可能となる。
更に本発明では、上述した連関度を更新させるようにしてもよい。この更新は、例えばインターネットを始めとした公衆通信網を介して提供された情報を反映させるようにしてもよい。また参照用画像情報、参照用テキスト情報、他の参照用情報を取得し、これらに対する記載内容の正否、改善施策に関する知見、情報、データを取得した場合、これらに応じて連関度を上昇させ、或いは下降させる。
つまり、この更新は、人工知能でいうところの学習に相当する。新たなデータを取得し、これを学習済みデータに反映させることを行っているため、学習行為といえるものである。
また、この連関度の更新は、公衆通信網から取得可能な情報に基づく場合以外に、専門家による研究データや論文、学会発表や、新聞記事、書籍等の内容に基づいてシステム側又はユーザ側が人為的に、又は自動的に更新するようにしてもよい。これらの更新処理においては人工知能を活用するようにしてもよい。
また学習済モデルを最初に作り上げる過程、及び上述した更新は、教師あり学習のみならず、教師なし学習、ディープラーニング、強化学習等を用いるようにしてもよい。教師なし学習の場合には、入力データと出力データのデータセットを読み込ませて学習させる代わりに、入力データに相当する情報を読み込ませて学習させ、そこから出力データに関連する連関度を自己形成させるようにしてもよい。
なお図3に示す連関度が、人工知能におけるニューラルネットワークのノードで構成されるものである場合には、入力データとして参照用画像情報が入力され、出力データとして記載内容の正否が出力され、入力ノードと出力ノードの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。
また本発明は、図7に示すように参照用情報Uと参照用情報Vという2種類以上の情報の組み合わせの連関度に基づいて記載内容の正否を判別するものである。この参照用画像情報Uが参照用画像情報であり、参照用情報Vが他の参照用情報の何れかであるものとする。
このとき、図7に示すように、参照用情報Uについて得られた出力をそのまま入力データとして、参照用情報Vとの組み合わせの中間ノード61を介して出力(記載内容の正否)と関連付けられていてもよい。例えば、参照用情報U(参照用画像情報)について、図3に示すように出力解を出した後、これをそのまま入力として、他の参照用情報Vとの間での連関度を利用し、出力(記載内容の正否)を探索するようにしてもよい。
また、本発明は、上述した実施の形態に限定されるものでは無く、例えば図8に示すように、基調となる参照用情報(参照用画像情報又は参照用テキスト情報)と、記載内容の正否との3段階以上の連関度を利用するようにしてもよい。かかる場合には、新たに取得した情報に応じた記載内容の正否との3段階以上の連関度に基づき、解探索を行うことになる。基調となる参照用情報は、上述した参照用画像情報又は参照用テキスト情報であるが、他の参照用情報も適用可能である。
これらの場合も同様に、学習用データとして用いられた参照用情報に応じた情報が入力された場合に、上述した方法に基づいて解探索が行われることとなる。
連関度を通じて求められる探索解は、更に、他の参照用情報に基づいて修正され、或いは重み付けを変化させるようにしてもよい。
ここでいう他の参照用情報とは、上述した参照用情報の何れかを基調となる参照用情報とした場合、当該基調となる参照用情報以外のいかなる参照用情報に該当する。
例えば、他の参照用情報の一つとして、ある参照用種類情報P14において、以前において記載内容の正否としてBが判別される経緯が多かったものとする。このような参照用種類情報P14に応じた記載内容の正否を新たに取得したとき、記載内容の正否の探索解Bに対して、重み付けを上げる処理を行い、換言すれば記載内容の正否の探索解Bにつながるようにする処理を行うように予め設定しておく。
例えば、他の参照用情報Gが、より記載内容の正否の探索解Cを示唆するような分析結果であり、参照用情報Fが、より記載内容の正否の探索解Dを示唆するような分析結果であるものとする。このように参照用情報との間での設定の後、実際に取得した情報が参照用情報Gと同一又は類似する場合には、記載内容の正否の探索解Cの重み付けを上げる処理を行う。これに対して、実際に取得した情報が参照用情報Fと同一又は類似する場合には、記載内容の正否の探索解Dの重み付けを上げる処理を行う。つまり、記載内容の正否につながる連関度そのものを、この参照用情報F~Hに基づいてコントロールするようにしてもよい。或いは、記載内容の正否を上述した連関度のみで決定した後、この求めた探索解に対して参照用情報F~Hに基づいて修正を加えるようにしてもよい。後者の場合において、参照用情報F~Hに基づいてどのように探索解としての記載内容の正否にいかなるウェートで修正を加えるかは、都度システム側において設計したものを反映させることとなる。
また他の参照用情報は、何れか1種で構成される場合に限定されるものではなく、2種以上の参照用情報に基づいて解探索するようにしてもよい。かかる場合も同様に、参照用情報の示唆する記載内容の正否につながるケースほど、連関度を介して求められた探索解としての当該判別類型をより高く修正するようにしてもよい。
なお、上述した実施の形態においては、書類記載内容の正否や販売価格を探索する場合を例に挙げて説明をしたが、これに限定されるものではない。
第2実施形態
第2実施形態においては、判別装置2、又はこの判別装置2及び情報取得部9をウェアラブル端末の中でも特に眼鏡型端末、ヘッドマウントディスプレイ(HMD)を利用するものである。このHMDは、ユーザの頭部又は眼鏡に一体又は部分的に装着され、拡張現実(AR:Augmented Reality)或いは複合現実(MR:Mixed Reality)といった技術を利用し、取得した各種の映像情報に基づいて生成された情報を透過状態で表示する表示部を備える。ユーザは、表示すべき情報をHMD上において透過して表示する表示部を介して、視認し、理解することができる。これによりユーザは、目の前の状況を見つつ、取得された各種の映像情報に基づいて生成された情報や各種コンテンツを合わせて確認することが可能となる。
第2実施形態においては、判別装置2、又はこの判別装置2及び情報取得部9をウェアラブル端末の中でも特に眼鏡型端末、ヘッドマウントディスプレイ(HMD)を利用するものである。このHMDは、ユーザの頭部又は眼鏡に一体又は部分的に装着され、拡張現実(AR:Augmented Reality)或いは複合現実(MR:Mixed Reality)といった技術を利用し、取得した各種の映像情報に基づいて生成された情報を透過状態で表示する表示部を備える。ユーザは、表示すべき情報をHMD上において透過して表示する表示部を介して、視認し、理解することができる。これによりユーザは、目の前の状況を見つつ、取得された各種の映像情報に基づいて生成された情報や各種コンテンツを合わせて確認することが可能となる。
このため、本発明においては、例えば、画像情報をこのHMDに実装された情報取得部9を介して取得する。そして、HMD内において実装された判別装置2により解探索を行い、得られた探索解(記載内容の正否)を、表示部を介して透過状態で表示するようにしてもよい。
このような第2実施形態において学習用データとして学習させる参照用画像情報は、実際にHMD等を始めとする眼鏡型端末で撮像したものであってもよいが、これに限定されるものではなく、通常のデジタルカメラやスマートフォン等で撮像したものであってもよい。
また、この参照用画像情報を実際に得る上で、書類のいかなる記載欄を撮像しているかを紐づけるようにしてもよい。
例えば参照用画像情報を得る上で、記載内容の正否を評価する熟練のベテランの鑑定者や当業者が、書類のいかなる部位(記載欄)を見ているかを検出する。仮にベテラン鑑定者が、書類の底面の記載欄を中心に視認しているか、或いは書類の斜め上の記載欄を中心に視認しているか、或いは書類の側面の記載欄を中心に視認しているのかを検出する。
この検出は、例えばベテラン鑑定者に眼鏡型端末を装着させて実際に書類を手に取って検出する作業を行わせ、その間において眼鏡型端末に実装されている情報取得部9を介して随時ベテラン鑑定者が視認している方向の画像を撮像し続ける。そして、事後的にその録画した画像を解析し、或いは画像を再生することにより、実際にベテラン鑑定者が書類の記載画像情報を介して記載内容の正否を評価する作業を行う上で、書類のいかなる記載欄を視認しているかを検知することが可能となる。
かかる場合において、図9に示すように、眼鏡型端末で撮像された動画像を時系列的に並べた場合に、書類の記載欄αの画像(P1)、書類の記載欄βの画像(P2)、書類の記載欄βの拡大画像(P3)、書類の記載欄γの画像(P4)であったものとする。このようにして時系列的に得られた画像から、記載欄情報を検出するようにしてもよい。ここでいう記載欄情報とは、眼鏡型端末で撮像された画像が書類のいかなる記載欄を撮像しているかに関する情報である。この記載欄情報は、図9に示すように、実際に撮像している記載欄の名称で構成されていてもよいし、当該記載欄を特定するための記号や数値、番号等で表現されるものであってもよい。また記載欄情報は、例えば、撮影が拡大画像であるか縮小画像であるか否か、また撮影する際の撮影方向や画角等の情報も盛り込むようにしてもよい。
この記載欄情報の取得は、撮影対象となる記載欄を都度人間が判別して手入力してもよいが、取得した画像を周知の画像解析技術を利用することで得るようにしてもよい。この記載欄情報の取得は、以前において学習させた特徴量に基づいて判別するようにしてもよい。例えば書類の記載欄α、記載欄β、記載欄γ等の各部の画像を、ディープラーニング技術を利用して、人工知能を通じて抽出することで判別するようにしてもよい。かかる場合には、参照用画像情報に含まれる書類の記載欄と、記載欄情報とを教師データとして用い、入力を参照用画像情報とし、出力を記載欄情報とした機械学習モデルを利用する。そして、新たにユーザ端末を介して撮像された参照用画像情報に基づいて記載欄情報を取得する。また、記載欄情報の取得は、これ以外に、HMDや眼鏡型端末において搭載されている、アイトラッキング機能を利用して検出した視線の方向、加速度センサやジャイロセンサを利用して検出した頭部の向き、操作デバイスやハンドトラッキング機能を利用したユーザの手の動き等を介して、記載欄情報を取得するようにしてもよい。
このようにして得られた記載欄情報を上述した各画像P1~P4等と紐付けて記録しておくことにより、各画像P1~P4が書類のいかなる記載欄を撮像した画像であるかをセットで取得することができる。仮にベテランの鑑定者からこのような参照用画像情報を構成する画像P1~P4と、記載欄情報を取得することで、ベテランの鑑定者が実際に書類の検査を行う上でいかなる記載欄をいかなる順番で確認しているのか、また拡大画像であるか否か、また撮影角度等のような撮影環境も取得することができる。
第2実施形態においては、記載欄情報を活用することで、実際の解探索時の利便性を高めることができる。上述した学習データを予め構築した上で、HMDを装着したユーザが本発明を実施する場合、探索解(記載内容の正否)の探索は、上述した第1実施形態において説明した方法に基づいて実行する。このとき、HMDを装着したユーザが自ら視認している書類について撮像した画像情報を取得する過程で、同様に記載欄情報を得るようにしてもよい。画像情報からこの記載欄情報を取得する方法としては、上述したように学習させた特徴量に基づいて判別するようにしてもよく、例えば画像情報中の書類の記載欄α、記載欄β、記載欄γ等の書類の各部の画像を、ディープラーニング技術を利用して、人工知能を通じて抽出することで判別するようにしてもよい。かかる場合には、画像情報に含まれる書類の記載欄と、記載欄情報とを教師データとして用い、入力を画像情報とし、出力を記載欄情報とした機械学習モデルを利用する。そして、新たにユーザ端末を介して撮像された画像情報に基づいて記載欄情報を取得する。
以下、画像情報等を始めとする情報から取得した記載欄情報を第1記載欄情報ともいい、参照用画像情報等を始めとする参照用情報から取得した記載欄情報を第2記載欄情報ともいう。
画像情報を取得する過程で、このような第1記載欄情報を都度取得することで以下に説明する優れた効果がある。撮像した画像情報の第1記載欄情報と、参照用画像情報の第2記載欄情報が一致しているかを都度確認することが可能となる。撮像した画像情報の第1記載欄情報と、参照用画像情報の第2記載欄情報が不一致の場合には、HMDの表示部を介してユーザに注意喚起の表示をすることができる。
例えば、撮像した画像情報の第1記載欄情報が“記載欄α”であり、これに対応させるための参照用画像情報の第2記載欄情報が“記載欄β”である場合には、HMDを装着するユーザが画像情報を撮影する書類の部位(記載欄)が誤った部位を撮影していることとなる。かかる場合には、上述のように注意喚起をすることで正しい部位(記載欄)に撮影対象を合わせることをユーザに促すことが可能となる。また、参照用画像情報に紐付けられた第2記載欄情報が、記載欄βを拡大して視認するものであるのに対して、画像情報に紐付けられた第1記載欄情報が同じ記載欄βの画像であるが拡大して視認していない場合には、同様にユーザに対して、画像を拡大して視認するように促すことが可能となる。
このようにして、撮像した画像情報の第1記載欄情報と、参照用画像情報の第2記載欄情報との一致度、HMDを装着したユーザに対して、実際に画像情報の撮影方法について様々な示唆を行い、又は様々な修正を促すことが可能となる。このとき、このような示唆や修正の促進を、HMDや眼鏡型端末の表示部を介して透過状態で表示する、上述したARやMRを実現するようにしてもよい。なお、この撮影方法についての示唆は、第1記載欄情報と、第2記載欄情報とに基づいたものであればいかなる示唆を表示するものであってもよい。
なお、上述した図9の例において書類について複数箇所を順次撮影対象を切り替える場合を例にとり説明をしたが、これに限定されるものではなく、参照用画像情報等が1箇所の書類について得られたものである場合においても同様に記載欄情報を取得して紐付けておくことで、実際に画像情報等を取得するユーザに対して上述した誘導を行うことが可能となる。
なお本発明は、図10に示すように、参照用画像情報と、記載内容の正否との3段階以上の連関度を上記書類の記載欄毎に予め取得するようにしてもよい。かかる場合には、記載欄α、記載欄β、記載欄γ等の書類の各記載欄毎に、独立して参照用画像情報と、記載内容の正否との連関度を学習させて保存しておく。
そして、取得した第1記載欄情報に応じた書類の記載欄の連関度を読み出し、上述と同様に解探索する。仮に第1記載欄情報が書類の記載欄αであれば、その記載欄α用の連関度からなる評価モデルを選択し、書類記載内容の検査を行う。これにより、書類の記載欄毎に特化した評価モデルを選択することができ、より高精度な書類記載内容の検査を行うことができる。
なお、本発明は、図11に示すように、連関度を上述したように書類の各記載欄について構築するとともに、その連関度を他の参照用情報毎に分類されていてもよい。ここでいう他の参照用情報とは、第1実施形態において説明したあらゆる参照用情報が含まれる。このうち、参照用種類情報に着目した場合、例えば図11に示すように、他の参照用情報Aとして、書類についてそれぞれ側記載欄α、記載欄β、記載欄γ用等の書類の各記載欄毎の連関度が形成されており、他の参照用情報Bとして書類についてそれぞれ側記載欄α、記載欄β、記載欄γ用等の書類の各記載欄毎の連関度が形成されている。このような各参照用情報毎に分類された、各記載欄毎の連関度を準備しておく。そして、新たに解探索を行う場合には、上述した記載欄情報を取得すると共に、他の情報を取得する。この取得する他の情報とは、上述した他の参照用情報に対応したものである。仮に他の参照用情報が、参照用種類情報であれば、種類情報を取得することになる。取得した他の情報に応じた参照用情報における書類の記載欄毎に分類された評価モデルを選択し、同様に解探索を行う。上述した図11の例の場合、取得したものが他の情報B(種類情報B)である場合、これに応じた他の参照用情報B(参照用種類情報B)における書類の記載欄毎に分類された何れかの評価モデルを選択し解探索することとなる。
なお、書類の各記載欄について構築する連関度は、上述した参照用種類情報毎に構築する場合以外に、他のいかなる参照用情報毎に構築してもよい。かかる場合も同様に参照用情報に応じた情報を取得し、取得した情報に応じて連関度を選択することとなる。
学習済みモデルを構築する過程では、上述した参照用画像情報を取得する際に、同様に第2記載欄情報を取得しておく。また撮像した書類についての実際の記載内容の正否を取得することで上述と同様にデータセットを得て、図3、4に示すような連関度を形成しておく。解探索時には、取得した画像情報から参照用画像情報を構成すると共に、同様に第1記載欄情報を取得する。
そして取得した第1記載欄情報と、取得した画像情報と同一又は類似の参照用画像情報に紐付けられて記録されている第2記載欄情報とに基づいて、上述と同様にユーザに対して撮影方法についての示唆を表示する。
なお本発明は、図12に示すように、参照用画像情報と、記載内容の正否との3段階以上の連関度をモデル選択情報毎に予め取得するようにしてもよい。ここでいうモデル選択情報とは、第1実施形態において説明した参照用情報としての、参照用種類情報に応じた種類情報、参照用作成者情報に応じた作成者情報、参照用提出先情報に応じた提出先情報、参照用法律情報に応じた法律情報である。これらの情報の詳細は、第1実施形態の説明を引用することにより、以下での説明は省略する。モデル選択情報は、この第1実施形態において説明した種類情報、作成者情報、提出先情報、法律情報等のうち何れか1種から選択され、選択されたモデル選択情報の内訳(選択情報1、2、3、・・・)毎に独立して参照用画像情報と、記載内容の正否との連関度を学習させて保存しておく。モデル選択情報が種類情報であれば、選択情報1として種類〇〇、選択情報2として種類▲▲、選択情報3として種類◇◇等が挙げられ、これらの選択情報毎に連関度が設けられている。
そして、推定時には、推定対象の書類におけるモデル選択情報を取得する。そして、取得したモデル選択情報に応じた書類の選択情報1、2、3、・・・の何れかの連関度を読み出し、上述と同様に解探索する。仮にモデル選択情報が選択情報2であれば、その選択情報2用の連関度からなる評価モデルを選択し、書類記載内容の検査を行う。これにより、書類の選択情報1、2、3、・・・毎に特化した評価モデルを選択することができ、より高精度な書類記載内容の検査を行うことができる。
なお、本発明は、図13に示すように、連関度を上述したように選択情報1、2、3、・・・について構築するとともに、その連関度を他の参照用情報毎に分類されていてもよい。ここでいう他の参照用情報とは、第1実施形態において説明したあらゆる参照用情報(参照用種類情報、参照用作成者情報、参照用提出先情報、参照用法律情報等)が含まれる。このうち、参照用作成者情報に着目した場合、例えば図13に示すように、他の参照用情報Aとして、作成者〇〇についてそれぞれ選択情報1、2、3、・・・用毎の連関度が形成されており、他の参照用情報Bとして作成者▲▲についてそれぞれ選択情報1、2、3、・・・用毎の連関度が形成されている。このような各参照用情報毎に分類された、各選択情報1、2、3、・・・毎の連関度を準備しておく。そして、新たに解探索を行う場合には、上述したモデル選択情報を取得すると共に、モデル選択情報以外の他の情報を取得する。この取得する他の情報とは、上述した他の参照用情報に対応したものである。仮に他の参照用情報が、参照用作成者情報であれば、作成者情報を取得することになる。取得した他の情報に応じた参照用情報における選択情報1、2、3、・・・毎に分類された評価モデルを選択し、同様に解探索を行う。上述した図13の例の場合、取得したものが他の情報B(作成者情報B)である場合、これに応じた他の参照用情報B(参照用作成者情報B)における選択情報1、2、3、・・・毎に分類された何れかの評価モデルを選択し解探索することとなる。
なお、各モデル選択情報について構築する連関度は、上述した参照用作成者情報毎に構築する場合以外に、他のいかなる参照用情報毎に構築してもよい。かかる場合も同様に参照用情報に応じた情報を取得し、取得した情報に応じて連関度を選択することとなる。
1 書類記載内容検査システム
2 推定装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 推定部
28 記憶部
61 ノード
2 推定装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 推定部
28 記憶部
61 ノード
Claims (10)
- 書類の記載内容の検査を行うためのモデルを生成するための書類記載内容検査モデル構築システムにおいて、
書類の記載内容を撮像した参照用画像情報と、当該記載内容の正否とを取得する情報取得手段と、
上記情報取得手段により取得された参照用画像情報と、記載内容の正否とを教師データとして用い、入力を参照用画像情報とし、出力を記載内容の正否とした推定モデルを機械学習により生成するモデル生成手段を備え、
上記情報取得手段は、頭部又は眼鏡に装着されるユーザ端末に含まれ、上記ユーザ端末を介して上記参照用画像情報を撮像した書類の記載欄に関する記載欄情報を取得し、これを当該参照用画像情報に紐付けて記録すること
を特徴とする書類記載内容検査モデル構築システム。 - 上記情報取得手段は、参照用画像情報に含まれる文字列と、記載欄情報とを教師データとして用い、入力を参照用画像情報とし、出力を記載欄情報とした機械学習モデルを利用し、新たに上記ユーザ端末を介して撮像された参照用画像情報に基づいて記載欄情報を取得すること
を特徴とする請求項1記載の書類記載内容検査モデル構築システム。 - 上記情報取得手段は、参照用画像情報に含まれる文字列をOCR技術に基づいて生成したテキストデータと、記載欄情報とを教師データとして用い、入力を上記テキストデータとし、出力を記載欄情報とした機械学習モデルを利用し、新たに上記ユーザ端末を介して撮像された参照用画像情報に基づいて記載欄情報を取得すること
を特徴とする請求項1記載の書類記載内容検査モデル構築システム。 - 書類の記載内容の検査を行うための書類記載内容検査システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して検査対象の書類の記載を撮像した画像情報を取得すると共に、撮像した製品の記載欄に関する第1記載欄情報を取得する情報取得手段と、
過去において書類の記載を撮像した参照用画像情報と、記載内容の正否との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を記載内容の正否とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、記載内容の正否を推定する推定手段と、
上記参照用画像情報に含まれる製品の記載欄に関する第2記載欄情報を当該参照用画像情報に紐付けて記録する記録手段とを備え、
上記ユーザ端末は、上記情報取得手段により取得された第1記載欄情報と、上記情報取得手段により取得された画像情報に応じた参照用画像情報に紐付けられて上記記録手段に記録されている第2記載欄情報とに基づいて、上記ユーザに対して撮影方法についての示唆を透過状態で表示する表示部を有すること
を特徴とする書類記載内容検査システム。 - 上記情報取得手段は、参照用画像情報に含まれる製品の記載欄と、第1記載欄情報とを教師データとして用い、入力を参照用画像情報とし、出力を第1記載欄情報とした機械学習モデルを利用し、新たに上記ユーザ端末を介して撮像された画像情報に基づいて第1記載欄情報を取得すること
を特徴とする請求項4記載の書類記載内容検査システム。 - 上記情報取得手段は、画像情報に含まれる文字列をOCR技術に基づいて生成したテキストデータと、第1記載欄情報とを教師データとして用い、入力を画像情報とし、出力を第1記載欄情報とした機械学習モデルを利用し、新たに上記ユーザ端末を介して撮像された画像情報に基づいて第1記載欄情報を取得すること
を特徴とする請求項4記載の書類記載内容検査システム。 - 書類の記載内容の検査を行うための書類記載内容検査システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して検査対象の書類の記載を撮像した画像情報に含まれる文字列をOCR技術に基づいて生成したテキストデータを取得すると共に、撮像した書類の記載欄に関する第1記載欄情報を取得する情報取得手段と、
過去において書類の記載を撮像した参照用画像情報に含まれる文字列をOCR技術に基づいて生成した参照用テキストデータと、記載内容の正否との3段階以上の連関度が規定され、入力を参照用テキストデータとし、出力を記載内容の正否とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報から生成されたテキストデータに応じた参照用画像情報から生成された参照用テキストデータに基づき、上記連関度のより高いものを優先させて、記載内容の正否を推定する推定手段と、
上記参照用画像情報に含まれる書類の記載欄に関する第2記載欄情報を当該参照用画像情報に紐付けて記録する記録手段とを備え、
上記ユーザ端末は、上記情報取得手段により取得された第1記載欄情報と、上記情報取得手段により取得された画像情報に応じた参照用画像情報に紐付けられて上記記録手段に記録されている第2記載欄情報とに基づいて、上記ユーザに対して撮影方法についての示唆を透過状態で表示する表示部を有すること
を特徴とする書類記載内容検査システム。 - 上記連関度は、人工知能におけるニューラルネットワークのノードで構成されること
を特徴とする請求項4~6のうち何れか1項記載の書類記載内容検査システム。 - 記載内容の正否を検査する書類記載内容検査システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して検査対象の書類の記載を撮像した画像情報に含まれる文字列をOCR技術に基づいて生成したテキストデータを取得すると共に、撮像した書類の記載欄に関する第1記載欄情報を取得する情報取得手段と、
過去において書類の記載を撮像した参照用画像情報と、記載内容の正否との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を記載内容の正否とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、記載内容の正否を推定する推定手段とを備え、
上記推定手段は、上記参照用画像情報と、記載内容の正否との3段階以上の連関度を上記書類の記載欄毎に予め取得しておき、上記情報取得手段により取得された上記第1記載欄情報に応じた製品の記載欄の上記連関度を読み出して記載内容の正否を推定し、
上記ユーザ端末は、上記ユーザに対して上記推定手段により推定された記載内容の正否を透過状態で表示する表示部を有すること
を特徴とする書類記載内容検査システム。 - 記載内容の正否を検査する書類記載内容検査システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して検査対象の書類の記載を撮像した画像情報を取得すると共に、撮像した書類の記載欄に関する第1記載欄情報を取得する情報取得手段と、
過去において書類の記載を撮像した参照用画像情報に含まれる文字列をOCR技術に基づいて生成した参照用テキストデータと、記載内容の正否との3段階以上の連関度が規定され、入力を参照用テキストデータとし、出力を記載内容の正否とした学習済みモデルを利用し、上記情報取得手段により取得されたテキストデータに応じた参照用テキストデータに基づき、上記連関度のより高いものを優先させて、記載内容の正否を推定する推定手段とを備え、
上記推定手段は、上記参照用テキストデータと、記載内容の正否との3段階以上の連関度を上記書類の記載欄毎に予め取得しておき、上記情報取得手段により取得された上記第1記載欄情報に応じた製品の記載欄の上記連関度を読み出して記載内容の正否を推定し、
上記ユーザ端末は、上記ユーザに対して上記推定手段により推定された記載内容の正否を透過状態で表示する表示部を有すること
を特徴とする書類記載内容検査システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021158721A JP2023049152A (ja) | 2021-09-29 | 2021-09-29 | 書類記載内容検査システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021158721A JP2023049152A (ja) | 2021-09-29 | 2021-09-29 | 書類記載内容検査システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023049152A true JP2023049152A (ja) | 2023-04-10 |
Family
ID=85802065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021158721A Pending JP2023049152A (ja) | 2021-09-29 | 2021-09-29 | 書類記載内容検査システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023049152A (ja) |
-
2021
- 2021-09-29 JP JP2021158721A patent/JP2023049152A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102365645B (zh) | 通过关联面部来组织数字图像 | |
CN112270533A (zh) | 一种数据处理方法、装置、电子设备以及存储介质 | |
KR102232880B1 (ko) | 인공지능 학습데이터 생성을 위한 이미지 또는 동영상 수집을 위한 크라우드소싱 기반 프로젝트의 검수자 평가 방법 | |
Aydoğdu | Educational data mining studies in Turkey: A systematic review | |
JP6696654B1 (ja) | 疲労度判別プログラム | |
AU2017393949A1 (en) | System and method for determining rank | |
JP2021144357A (ja) | 不動産ローン借り換え融資条件提案プログラム | |
JP2023049152A (ja) | 書類記載内容検査システム | |
JP2023049153A (ja) | 書類記載内容検査システム | |
WO2021210460A1 (ja) | 認知症兆候判別プログラム | |
JP2023046777A (ja) | 設備保守検査システム | |
JP2023043625A (ja) | 製品品質検査システム | |
JP2020184132A (ja) | 融資先信用度判定プログラム及びシステム | |
JP2023043626A (ja) | 製品品質検査システム | |
Inagaki et al. | Visualization Method of Important Regions by Combination of Webpage Structures and Saliency Maps. | |
JP2023055381A (ja) | トラブル対応訓練システム | |
CN118552167A (zh) | 基于hrai驱动的智能化审核系统及方法 | |
JP2023055382A (ja) | 対応能力推定システム | |
JP2023067617A (ja) | キノコの毒性判別プログラム | |
JP2023055380A (ja) | トラブル対応能力推定システム | |
WO2022050342A1 (ja) | 中古車販売価格推定プログラム | |
JP2023067616A (ja) | キノコの毒性判別プログラム | |
US20240311918A1 (en) | Recording medium, information processing system, and data processing system | |
JP2022158823A (ja) | 売買価格推定システム | |
JP2021140800A (ja) | 不動産融資可否判断プログラム |