JP2022096379A - 画像出力プログラム,画像出力方法および画像出力装置 - Google Patents

画像出力プログラム,画像出力方法および画像出力装置 Download PDF

Info

Publication number
JP2022096379A
JP2022096379A JP2020209443A JP2020209443A JP2022096379A JP 2022096379 A JP2022096379 A JP 2022096379A JP 2020209443 A JP2020209443 A JP 2020209443A JP 2020209443 A JP2020209443 A JP 2020209443A JP 2022096379 A JP2022096379 A JP 2022096379A
Authority
JP
Japan
Prior art keywords
image
estimation result
machine learning
learning model
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020209443A
Other languages
English (en)
Inventor
航太 穴田
Kota Anada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020209443A priority Critical patent/JP2022096379A/ja
Priority to US17/507,833 priority patent/US20220198216A1/en
Publication of JP2022096379A publication Critical patent/JP2022096379A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】機械学習モデルによる推定結果が画像のどの領域に基づいて行なわれたかを提示できるようにする。【解決手段】第1の画像を機械学習モデルに入力し、第1の画像の特徴量と機械学習モデルの第1の推定結果とを取得し、第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、第2の画像を前記機械学習モデルに入力し、機械学習モデルの第2の推定結果を取得し、第1の画像と第1の推定結果とに基づいて、第1の画像のうち第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、第2の画像と第2の推定結果とに基づいて、第2の画像のうち第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、第3の画像と第4の画像とを出力する。【選択図】図1

Description

本発明は、画像出力プログラム,画像出力方法および画像出力装置に関する。
例えば、システムの運用保守開発において見積書の作成や設計を行なうために、既存の設計資料等を参照する場合がある。
従来においては、ユーザは、サーバ等の共有フォルダに対して、フォルダ構成やファイル名等に基づいて探索を行なうことで、設計資料等の目的のドキュメントを取得する。
また、近年においては、ドキュメントをクロールして自然文検索を行なうことで、共有フォルダにおける置き場やフォルダ構成の知識がなくても、検索文を含むドキュメントの取得を可能とする手法も知られている。
特開2007-317131号公報 特開2008-83898号公報 特開2008-146602号公報
このような従来のドキュメント検索手法においては、自然文を検索文として入力する必要があるので、例えば、特定の画面データ(例えば、ユーザインタフェース画面やグラフ)を含むドキュメントを検索したい場合に、容易に検索することができない。そこで、画像を検索キーとして用いて類似する画像を検索することが考えられる。
しかしながら、画像を検索キーとする検索により類似の画像を特定しても、画像のどの領域に基づいて類似と判断したのか提示できないという課題がある。
1つの側面では、本発明は、機械学習モデルによる推定結果が画像のどの領域に基づいて行なわれたかを提示できるようにすることを目的とする。
このため、この画像出力プログラムは、第1の画像を機械学習モデルに入力し、前記第1の画像の特徴量と前記機械学習モデルの第1の推定結果とを取得し、前記第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、前記第2の画像を前記機械学習モデルに入力し、前記機械学習モデルの第2の推定結果を取得し、前記第1の画像と前記第1の推定結果とに基づいて、前記第1の画像のうち前記第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、前記第2の画像と前記第2の推定結果とに基づいて、前記第2の画像のうち前記第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、前記第3の画像と第4の画像とを出力する、処理をコンピュータに実行させる。
一実施形態によれば、機械学習モデルによる推定結果が画像のどの領域に基づいて行なわれたかを提示できるようにすることができる。
実施形態の一例としての情報処理装置の構成を模式的に示す図である。 実施形態の一例としての情報処理装置のハードウェア構成を例示する図である。 実施形態の一例としての情報処理装置の画像DBが管理する情報を例示する図である。 実施形態の一例としての情報処理装置における提示情報を例示する図である。 実施形態の一例としての情報処理装置におけるドキュメント登録処理部の処理を説明するためのフローチャートである。 実施形態の一例としての情報処理装置におけるドキュメント検索処理を説明するためのフローチャートである。 実施形態の一例としての情報処理装置における説明可能AI部による処理を説明するためのフローチャートである。
以下、図面を参照して画像出力プログラム,画像出力方法および画像出装置にかかる実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
(A)構成
図1は実施形態の一例としての情報処理装置1の構成を模式的に示す図である。
情報処理装置1は、入力されたデータ(入力データ)に類似するデータを含むデータを検索して提示する。すなわち、情報処理装置1は、入力データを検索キーとする検索機能を実現する。また、情報処理装置1は、類似判断の根拠を説明する情報をユーザに提示するXAI(Explainable Artificial Intelligence:説明可能なAI)を実現する。
以下、検索キーとして入力される入力データが画像データであり、情報処理装置1が、入力された画像データと類似する画像データを含むドキュメントを検索する例について示す。
図2は実施形態の一例としての情報処理装置1のハードウェア構成を例示する図である。
情報処理装置1は、例えば、プロセッサ11,メモリ12,記憶装置13,グラフィック処理装置14,入力インタフェース15,光学ドライブ装置16,機器接続インタフェース17およびネットワークインタフェース18を構成要素として有する。これらの構成要素11~18は、バス19を介して相互に通信可能に構成される。
プロセッサ(処理部)11は、情報処理装置1全体を制御する。プロセッサ11は、マルチプロセッサであってもよい。プロセッサ11は、例えばCPU,MPU(Micro Processing Unit),DSP(Digital Signal Processor),ASIC(Application Specific Integrated Circuit),PLD(Programmable Logic Device),FPGA(Field Programmable Gate Array)のいずれか一つであってもよい。また、プロセッサ11は、CPU,MPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。
そして、プロセッサ11が情報処理装置1用の制御プログラム(画像出力プログラム:図示省略)を実行することにより、図1に例示する、入力受付処理部101,ニューラルネットワーク(Neural Network:NN)102,ドキュメント登録処理部103,検索部104,説明可能AI(Artificial Intelligence)部105,提示情報作成部106および画像データベース(Data Base:DB)107としての機能が実現される。これにより、情報処理装置1は、画像出力装置として機能する。
情報処理装置1に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、情報処理装置1に実行させるプログラムを記憶装置13に格納しておくことができる。プロセッサ11は、記憶装置13内のプログラムの少なくとも一部をメモリ12にロードし、ロードしたプログラムを実行する。
また、情報処理装置1(プロセッサ11)に実行させるプログラムを、光ディスク16a,メモリ装置17a,メモリカード17c等の非一時的な可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ11からの制御により、記憶装置13にインストールされた後、実行可能になる。また、プロセッサ11が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
メモリ12は、ROM(Read Only Memory)およびRAM(Random Access Memory)を含む記憶メモリである。メモリ12のRAMは情報処理装置1の主記憶装置として使用される。RAMには、プロセッサ11に実行させるプログラムの少なくとも一部が一時的に格納される。また、メモリ12には、プロセッサ11による処理に必要な各種データが格納される。
記憶装置13は、ハードディスクドライブ(Hard Disk Drive:HDD)、SSD(Solid State Drive)、ストレージクラスメモリ(Storage Class Memory:SCM)等の記憶装置であって、種々のデータを格納するものである。記憶装置13は、情報処理装置1の補助記憶装置として使用される。記憶装置13には、OS(Operating System)プログラム,制御プログラムおよび各種データが格納される。制御プログラムには画像出力プログラムが含まれる。
制御プログラム(画像出力プログラム)は、コンピュータ読み取り可能な非一時的な記録媒体に記録されたプログラムに相当する。
なお、補助記憶装置としては、SCMやフラッシュメモリ等の半導体記憶装置を使用することもできる。また、複数の記憶装置13を用いてRAID(Redundant Arrays of Inexpensive Disks)を構成してもよい。
また、記憶装置13には、上述した入力受付処理部101,ニューラルネットワーク102,ドキュメント登録処理部103,検索部104,説明可能AI部105および提示情報作成部106が各処理を実行する際に生成される各種データを格納してもよい。
グラフィック処理装置14には、モニタ14aが接続されている。グラフィック処理装置14は、プロセッサ11からの命令に従って、画像をモニタ14aの画面に表示させる。モニタ14aとしては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置等が挙げられる。
入力インタフェース15には、キーボード15aおよびマウス15bが接続されている。入力インタフェース15は、キーボード15aやマウス15bから送られてくる信号をプロセッサ11に送信する。なお、マウス15bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル,タブレット,タッチパッド,トラックボール等が挙げられる。
光学ドライブ装置16は、レーザ光等を利用して、光ディスク16aに記録されたデータの読み取りを行なう。光ディスク16aは、光の反射によって読み取り可能にデータを記録された可搬型の非一時的な記録媒体である。光ディスク16aには、DVD(Digital Versatile Disc),DVD-RAM,CD-ROM(Compact Disc Read Only Memory),CD-R(Recordable)/RW(ReWritable)等が挙げられる。
機器接続インタフェース17は、情報処理装置1に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース17には、メモリ装置17aやメモリリーダライタ17bを接続することができる。メモリ装置17aは、機器接続インタフェース17との通信機能を搭載した非一時的な記録媒体、例えばUSB(Universal Serial Bus)メモリである。メモリリーダライタ17bは、メモリカード17cへのデータの書き込み、またはメモリカード17cからのデータの読み出しを行なう。メモリカード17cは、カード型の非一時的な記録媒体である。
ネットワークインタフェース18は、ネットワークに接続される。ネットワークインタフェース18は、ネットワークを介してデータの送受信を行なう。ネットワークには他の情報処理装置や通信機器等が接続されてもよい。
情報処理装置1は、図1に示すように、入力受付処理部101,ニューラルネットワーク102,ドキュメント登録処理部103,検索部104,説明可能AI部105,提示情報作成部106および画像DB107を備える。
ドキュメント登録処理部103は、画像データを含むドキュメントに関する情報を画像DB107に登録する。
ドキュメント登録処理部103は、ドキュメントから画像データを抽出し、抽出した画像データに対してニューラルネットワーク102の機械学習モデルを用いて特徴量(特徴量ベクトル)を算出させる。ドキュメントからの画像データの抽出は、既知の手法を用いて実現することができ、その説明は省略する。
ドキュメント登録処理部103は、画像DB107に、算出された特徴量と、画像を含むドキュメントのファイル名や格納位置等の情報とを記憶させる。
画像DB107は、画像データに関する情報を管理するデータベースである。
図3は実施形態の一例としての情報処理装置1の画像DB107が管理する情報を例示する図である。
図3に示す例においては、画像DB107が画像データ毎に管理するエントリを示している。図3に例示するエントリは、fess_id,site,filename,feature_vector,image_data,page_number,label,categoryおよびfile_formatを備える。画像DB107は、これらの情報によって構成されるエントリを画像データ毎に管理する。
fess_idは、当該画像データが含まれるドキュメントを管理する識別情報であり、例えば、検索エンジンによって設定される。siteは、ドキュメントの保存場所であり、例えば、ファイルパスが用いられる。filenameは、ドキュメントのファイル名である。feature_vectorは、当該画像の特徴量(特徴量ベクトル)であり、ニューラルネットワーク102によって算出された値が用いられる。
image_dataは、画像データのバイナリデータである。page_numberは、ドキュメント内における当該画像データの位置(例えば、ページ番号)を示す情報である。labelは、当該画像に対してニューラルネットワーク102が設定したラベル(予測結果)である。例えば、問題の有無を表す値が用いられる。
categoryは、当該画像データの画像種別を示すキーワードである。file_formatは、当該画像データのデータフォーマット(例えば、jpeg,png)である。
ニューラルネットワーク102は、機械学習モデルを用いて、入力される画像データに対して推定を行なう。
ニューラルネットワークは、例えば、入力層と出力層との間に複数の隠れ層を含むディープニューラルネットワークである。例えば、隠れ層は、畳み込み層、プーリング層または全結合層等である。
ニューラルネットワークは、入力データ(本実施形態では画像データ)を入力層に入力し、畳み込み層やプーリング層などで構成される隠れ層にて所定の計算を順次実行することで、演算により得られる情報を入力側から出力側に順次伝えるフォーワッド方向の処理(順伝播処理)を実行する。フォーワッド方向の処理の実行後、出力層から出力される出力データと正解データとから得られる誤差関数の値を小さくするために、フォーワッド方向の処理で使用するパラメータを決定するバックワード方向の処理(逆伝播処理)を実行する。そして、逆伝播処理の結果に基づいて重み等の変数を更新する更新処理が実行される。例えば、逆伝播処理の計算に使用される重みの更新幅を決定するアルゴリズムとして、勾配降下法が使用される。
機械学習モデルは、例えば、既知の機械学習済みモデルを用いてもよい。また、この機械学習済みモデルに対して、予め、画像データと正解データとを備える訓練データを用いた再訓練を行なうことで、ファインチューニングを行なってもよい。
また、ニューラルネットワーク102は、入力された画像データに対して特徴量(特徴量ベクトル)を算出する。ニューラルネットワーク102は、算出した画像データの特徴量等をメモリ12や記憶装置13の所定の記憶領域に記憶させる。
ニューラルネットワークは、ハードウェア回路であってもよいし、プロセッサ11等によりコンピュータプログラム上で仮想的に構築される階層間を接続するソフトウェアによる仮想的なネットワークであってもよい。
入力受付処理部101は、ドキュメントを検索するための検索キーとなる画像データを受け付ける。以下、入力受付処理部101が受け付ける検索キーとなる画像データを検索画像データという場合がある。検索画像データは、第1の画像に相当する。検索画像データは、例えば、ユーザがキーボード15aやマウス15bを用いて入力(指定)してもよい。
入力受付処理部101は、入力された検索画像データに対してニューラルネットワーク102の機械学習モデルを用いて特徴量(特徴量ベクトル)を算出させる。また、入力受付処理部101は、ニューラルネットワーク102に算出させた検索画像データの特徴量を検索部104に受け渡す。入力受付処理部101は、例えば、メモリ12や記憶装置13の所定の記憶領域を介して検索部104に検索画像データの特徴量を受け渡してよい。
検索部104は、画像DB107に登録された複数の画像データの中から検索画像データの特徴量と類似する画像データを検索し、この画像データを含むドキュメントを検索結果として出力する。
例えば、検索部104は、検索画像データの特徴量と、画像DB107に登録された各画像データの特徴量とのコサイン類似度を算出することで、検索画像データの特徴量と、画像DB107に登録された各画像データの特徴量との類似判断を行なう。以下、検索画像データの特徴量と、画像DB107に登録された各画像データの特徴量との類似判断を行なうことを、画像類似判断という場合がある。
検索部104は、画像類似判断の結果、類似性が高い複数(例えば、類似性が上位の3つ)の画像データ(類似画像データ群)を決定する。なお、検索部104により決定された、検索画像データとの類似度が高い画像データを類似画像データという場合がある。類似画像データは第2の画像に相当する。なお、検索画像データとの類似度が閾値以上の画像データを類似画像データとしてもよく、類似画像データは適宜変更して実施することができる。
検索部104は、決定した複数の類似画像データに関する情報を説明可能AI部105に通知する。例えば、検索部104は、これらの類似画像データを含む各ドキュメントの保存場所(ドキュメントパス)を説明可能AI部105に通知する。検索部104は、各類似画像に関する画像DB107のエントリの各情報を説明可能AI部105に通知してもよい。説明可能AI部105への情報通知は、メモリ12や記憶装置13の所定の記憶領域を介して行なってもよい。
説明可能AI部105は、ニューラルネットワーク102の機械学習モデルにおける予測結果や推定結果に至るプロセスについて、人に説明可能な状態とする情報(可視化情報)を作成する。すなわち、説明可能AI部105は、ニューラルネットワーク102の機械学習モデルにおける予測結果や推定結果の判断根拠説明機能を実現する。
説明可能AI部105は、既知の種々のXAI手法を用いて可視化情報を作成してよい。本実施形態においては、説明可能AI部105は、Grad-CAM(Gradient-weighted Class Activation Mapping)を用いて可視化情報を作成する。
説明可能AI部105は、検索画像データをニューラルネットワーク102に入力することで得られる推定(分類)結果および中間層の特徴量を取得する。また、説明可能AI部105は、得られた分類結果と中間層の特徴量から勾配を求めることで判断基準を定量化し、画像化する。
同様に、説明可能AI部105は、各類似画像データをニューラルネットワーク102に入力することで得られる推定(分類結果)および中間層の特徴量をそれぞれ取得する。また、説明可能AI部105は、得られた分類結果と中間層の特徴量とから勾配を求めることで判断基準を定量化し、画像化する。
説明可能AI部105は、検索画像データをニューラルネットワーク102の機械学習モデルに入力して第1推定結果(第1の推定結果)を取得する。そして、説明可能AI部105は、第1推定結果に基づいて、Grad-CAMにより、検索画像データにおける第1推定結果の根拠を表す第1ヒートマップ(第3の画像)を生成する。説明可能AI部105は、生成した第1ヒートマップをメモリ12や記憶装置13の所定の記憶領域に記憶させる。
第1ヒートマップにおいては、検索画像データにおいて、上述した第1推定結果に他の領域と比べて寄与が大きい領域を、目立つ色を用いたハイライト表示で示す。このハイライト表示は、ニューラルネットワーク102におけるCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)が着目している特徴箇所を表す。なお、Grad-CAMによるヒートマップの生成手法は既知であり、その説明は省略する。
また、説明可能AI部105は、検索部104によって選択された複数の類似画像データを、それぞれニューラルネットワーク102の機械学習モデルに入力して第2推定結果(第2の推定結果)をそれぞれ取得する。
そして、説明可能AI部105は、第2推定結果に基づいて、Grad-CAMにより、複数の類似画像データのそれぞれについて、対応する第2推定結果の根拠を表す第2ヒートマップ(第4の画像)を生成する。説明可能AI部105は、生成した第2ヒートマップをメモリ12や記憶装置13の所定の記憶領域に記憶させる。
第2ヒートマップにおいても、検索画像データにおいて、上述した第2推定結果に他の領域と比べて寄与が大きい領域を、目立つ色を用いたハイライト表示で示す。
説明可能AI部105は、検索画像データと、その推定結果に対する第1ヒートマップ(第3の画像)とを提示情報作成部106に受け渡す。
また、説明可能AI部105は、複数の類似画像データと、それらの推定結果に対する第2ヒートマップ(第4の画像)とを提示情報作成部106に受け渡す。
提示情報作成部106は、入力された検索画像データに類似する類似画像データを含むドキュメントの情報を提示するとともに、類似判断の根拠を説明するヒートマップ画像をユーザに提示する提示情報200を作成する。
提示情報200は、検索キーとして入力された検索画像データに類似する類似画像データを含むドキュメントの検索結果を表す。以下、提示情報200を検索結果出力画面200といってもよい。また、提示情報200は、各類似画像データを決定(推定)するに際して行なわれた類似判断の根拠を示す情報を表す。
図4は実施形態の一例としての情報処理装置1における提示情報200を例示する図である。
この図4に例示する提示情報200は、検索画像201,ヒートマップ202および類似候補画像情報203―1~203-3を備える。
検索画像201は、検索画像データ(第1の画像)を示す。ヒートマップ202は、検索画像データに対して作成された第1ヒートマップ(第3の画像)である。
類似候補画像情報203―1~203-3は、それぞれ検索画像データに類似する類似画像データに関する情報であり、本情報処理装置1においては、3つの類似画像データを類似候補1~3として表す。
図4に示す例においては、類似候補1(類似候補画像情報203―1)が最も検索画像データに類似度が高い類似画像データを表す。次いで、類似候補2(類似候補画像情報203―2),類似候補3(類似候補画像情報203―3)の順で類似度が低くなるものとする。すなわち、提示情報200においては、検索画像データに類似する複数の類似画像データに対して、類似度に応じたランキング付けをして表す。
以下、類似候補画像情報203―1~20―3を特に区別しない場合には、類似候補画像情報203と表す。
類似候補画像情報203―1は、類似画像204―1,ヒートマップ205―1およびドキュメントパス206―1を備える。同様に、類似候補画像情報203―2は、類似画像204―2,ヒートマップ205―2およびドキュメントパス206―2を備える。さらに、類似候補画像情報203―3は、類似画像204―3,ヒートマップ205―3およびドキュメントパス206―3を備える。
以下、類似画像204―1~204―3を特に区別しない場合には、類似画像204と表す。また、ヒートマップ205-1~205-3を特に区別しない場合には、ヒートマップ205と表す。さらに、ドキュメントパス206―1~206―3を特に区別しない場合には、ドキュメントパス206と表す。
類似画像204―1~204-3は、検索部104により決定された3つの類似画像データの画像(第2の画像)である。
ヒートマップ205は、それぞれ、説明可能AI部105により生成された、各類似画像データに対応する第2ヒートマップ(第4の画像)である。検索結果出力画面200において、ヒートマップ202,205は、ニューラルネットワーク102の機械学習モデルによる類似判断の根拠を表す。
ドキュメントパス206は、それぞれ、類似画像データが含まれるドキュメントの格納位置を示す情報である。
類似候補画像情報203においては、類似画像204に対して、対応するヒートマップ205およびドキュメントパス206が並べて配置されている。また、ドキュメントパス206をクリックすることで、当該ドキュメントを開くことができるようにしてもよい。
作成された検索結果出力画面200は、例えば、モニタ14a等に表示され、ユーザに提供される。
提示情報作成部106は、検索結果出力画面200を、例えば、構造化文書を用いてウェブページとして作成してもよく、適宜変更して実施することができる。
ユーザは、類似候補画像情報203を参照することで、検索部104が検索画像201に類似すると判断した類似画像データについて、そのヒートマップ205とドキュメントパス206とを視認することで、機械学習モデルによる推定の妥当性等を判断することができる。
(B)動作
上述の如く構成された実施形態の一例としての情報処理装置1におけるドキュメント登録処理部103の処理を、図5に示すフローチャート(ステップA1~A4)に従って説明する。
この図5に示す処理は、システムの運用開始前やドキュメントが新規に作成される度に実行される。
ステップA1において、例えば、ドキュメント登録処理部103は、画像データを含むドキュメントを受け付ける。例えば、ユーザやシステム管理者等がドキュメントが保存されたフォルダやドキュメントそのものをキーボード15aやマウス15bを用いて入力すると、ドキュメント登録処理部103は指定されたドキュメントを読み込むことで受け付ける。
ステップA2において、ドキュメント登録処理部103は、ステップA1において受け付けたドキュメントから画像データを抽出する。
ステップA3において、ドキュメント登録処理部103は、抽出した画像データに対してニューラルネットワーク102の機械学習モデルを用いて特徴量を算出させる。
ステップA4において、ドキュメント登録処理部103は、画像DB107に、画像データ毎にfess_id,site,filename,feature_vector,image_data,page_number,label,categoryおよびfile_formatを登録する(エントリ登録)。その後、処理を終了する。
次に、実施形態の一例としての情報処理装置1におけるドキュメント検索処理を、図6に示すフローチャート(ステップB1~B6)に従って説明する。
ステップB1において、ユーザは、キーボード15aやマウス15bを用いて、検索画像データを本情報処理装置1に入力する。入力受付処理部101は、入力された検索画像データをメモリ12等の所定の記憶領域に記憶させる。
ステップB2において、入力受付処理部101は、入力された検索画像データに対してニューラルネットワーク102の機械学習モデルを用いて特徴量(特徴量ベクトル)を算出させる。これに従って、ニューラルネットワーク102は、検索画像データの特徴量を算出する。
ステップB3において、検索部104は、算出された検索画像データの特徴量と、画像DB107に登録された複数の画像データの各特徴量との類似度をそれぞれ求める。
ステップB4において、検索部104は、画像DB107に登録された複数の画像データの中から、特徴量が検索画像データの特徴量と類似する複数の画像データ(類似画像データ)を検索する。これらの類似画像データを類似候補といってもよい。
ステップB5において、説明可能AI部105は、ニューラルネットワーク102を用いたXAI手法により可視化情報を生成する。なお、この説明可能AI部105による処理は図7を用いて後述する。
ステップB6において、提示情報作成部106が、説明可能AI部105によって生成された可視化情報(第1推定結果,第1ヒートマップ,第2推定結果および第2ヒートマップ)を用いて、提示情報(検索結果出力画面)200を作成し、ユーザに提供する。その後、処理を終了する。
次に、実施形態の一例としての情報処理装置1における説明可能AI部105による処理を、図7に示すフローチャート(ステップC1~C4)に従って説明する。
ステップC1において、説明可能AI部105は、検索画像データをニューラルネットワーク102の機械学習モデルに入力して第1推定結果(第1の推定結果)を取得する。
ステップC2において、説明可能AI部105は、第1推定結果に基づいて、Grad-CAMとしての機能を用いて、第1推定結果の根拠を表す第1ヒートマップ(第3の画像)を生成する。
ステップC3において、説明可能AI部105は、検索部104によって選択された複数の類似画像データを、それぞれニューラルネットワーク102の機械学習モデルに入力して第2推定結果(第2の推定結果)をそれぞれ取得する。
ステップC4において説明可能AI部105は、各第2推定結果に基づいて、Grad-CAMとしての機能を用いて、各第2推定結果の根拠を表す第2ヒートマップ(第4の画像)をそれぞれ生成する。その後、処理を終了する。
(C)効果
このように、本発明の一実施形態としての情報処理装置1によれば、ユーザが検索画像データを入力すると、入力受付処理部101がニューラルネットワーク102に、検索画像データの特徴量を算出させる。そして、検索部104が、当該検索画像データの特徴量に基づき、画像DB107から検索画像データに類似する類似画像データを含むドキュメントを検索する。
これにより、自然文での検索が困難な画像データを含むドキュメントを容易に検索することができる。
また、説明可能AI部105が、XAI手法を用いて可視化情報を作成する。具体的には、説明可能AI部105は、検索画像データをニューラルネットワーク102の機械学習モデルに入力して第1推定結果を取得する。そして、説明可能AI部105は、第1推定結果に基づいて、Grad-CAMとしての機能を用いて、第1推定結果の根拠を表す第1ヒートマップを生成する。
さらに、説明可能AI部105は、検索部104によって選択された複数の類似画像データを、それぞれニューラルネットワーク102の機械学習モデルに入力して第2推定結果をそれぞれ取得する。そして、説明可能AI部105は、第2推定結果に基づいて、Grad-CAMにより、複数の類似画像データのそれぞれについて、対応する第2推定結果の根拠を表す第2ヒートマップを生成する。
そして、提示情報作成部106がこれらの情報を含む検索結果出力画面(提示情報)200を作成する。これにより、機械学習モデルによる推定結果が画像のどの領域に基づいて行なわれたかを提示でき、AIの判断根拠が可視化され、ユーザ(運用者)が、AIの判断を信頼することができる。
説明可能AI部105が、画像DB107に格納する画像データの特徴量ベクトルや検索画像データの特徴量ベクトルの算出に用いたニューラルネットワーク102を用いて可視化情報(第1ヒートマップ,第2ヒートマップ)を作成する。すなわち、ニューラルネットワーク102を類似画像データの検索と可視化情報の作成とで共用することで、類似画像データの検索と可視化情報の作成とを組み合わせる。これにより、システム設計コストを低減することができる。
(D)その他
開示の技術は上述した実施 形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成および各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
例えば、上述した実施形態においては、説明可能AI部105がGrad-CAMを用いて推定結果の根拠を示す第1ヒートマップや第2ヒートマップを作成しているが、これに限定されるものではない。例えば、Grad-CAMを拡張したGuided Grad-CAMを用いて第1ヒートマップや第2ヒートマップを作成してもよく、種々変更して実施することができる。
また、上述した実施形態においては、入力データが画像データである例を示したが、これに限定されるものではなく、種々変形して実施することができる。例えば、入力データが音声データや動画データであってもよく、適宜変更して実施することができる。
また、上述した実施形態においては、情報処理装置1が画像DB107としての機能を備えているが、これに限定されるものではない。例えば、画像DB107はネットワークを介して接続された外部のDBサーバに構築されてもよく、種々変形して実施することができる。
また、上述した開示により本実施形態を当業者によって実施・製造することが可能である。
(E)付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
第1の画像を機械学習モデルに入力し、前記第1の画像の特徴量と前記機械学習モデルの第1の推定結果とを取得し、
前記第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、
前記第2の画像を前記機械学習モデルに入力し、前記機械学習モデルの第2の推定結果を取得し、
前記第1の画像と前記第1の推定結果とに基づいて、前記第1の画像のうち前記第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、
前記第2の画像と前記第2の推定結果とに基づいて、前記第2の画像のうち前記第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、
前記第3の画像と前記第4の画像とを出力する、
処理をコンピュータに実行させることを特徴とする画像出力プログラム。
(付記2)
前記第2の画像を含むドキュメントのドキュメントパスを出力する
処理を前記コンピュータに実行させることを特徴とする、付記1記載の画像出力プログラム。
(付記3)
前記選択する処理は、前記第1の画像の特徴量に基づいて、前記複数の画像から前記第1の画像に対する類似度が上位の複数の前記第2の画像を選択する処理を含み、
前記第4の画像を生成する処理は、複数の前記第2の画像のそれぞれに対して、前記第4の画像を生成する処理を含み、
前記出力する処理は、前記第3の画像と複数の前記第4の画像とを出力する処理を含む、
ことを特徴とする、付記1または2に記載の画像出力プログラム。
(付記4)
第1の画像を機械学習モデルに入力し、前記第1の画像の特徴量と前記機械学習モデルの第1の推定結果とを取得し、
前記第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、
前記第2の画像を前記機械学習モデルに入力し、前記機械学習モデルの第2の推定結果を取得し、
前記第1の画像と前記第1の推定結果とに基づいて、前記第1の画像のうち前記第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、
前記第2の画像と前記第2の推定結果とに基づいて、前記第2の画像のうち前記第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、
前記第3の画像と前記第4の画像とを出力する、
処理をコンピュータが実行することを特徴とする画像出力方法。
(付記5)
前記第2の画像を含むドキュメントのドキュメントパスを出力する
処理を前記コンピュータが実行することを特徴とする、付記4記載の画像出力方法。
(付記6)
前記選択する処理は、前記第1の画像の特徴量に基づいて、前記複数の画像から前記第1の画像に対する類似度が上位の複数の前記第2の画像を選択する処理を含み、
前記第4の画像を生成する処理は、複数の前記第2の画像のそれぞれに対して、前記第4の画像を生成する処理を含み、
前記出力する処理は、前記第3の画像と複数の前記第4の画像とを出力する処理を含む、
ことを特徴とする、付記4または5に記載の画像出力方法。
(付記7)
第1の画像を機械学習モデルに入力し、前記第1の画像の特徴量と前記機械学習モデルの第1の推定結果とを取得し、
前記第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、
前記第2の画像を前記機械学習モデルに入力し、前記機械学習モデルの第2の推定結果を取得し、
前記第1の画像と前記第1の推定結果とに基づいて、前記第1の画像のうち前記第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、
前記第2の画像と前記第2の推定結果とに基づいて、前記第2の画像のうち前記第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、
前記第3の画像と前記第4の画像とを出力する、
処理部を有することを特徴とする画像出力装置。
(付記8)
前記処理部が、
前記第2の画像を含むドキュメントのドキュメントパスを出力する
ことを特徴とする、付記7記載の画像出力装置。
(付記9)
前記処理部が、
前記選択する処理に、前記第1の画像の特徴量に基づいて、前記複数の画像から前記第1の画像に対する類似度が上位の複数の前記第2の画像を選択する処理を含み、
前記第4の画像を生成する処理に、複数の前記第2の画像のそれぞれに対して、前記第4の画像を生成する処理を含み、
前記出力する処理に、前記第3の画像と複数の前記第4の画像とを出力する処理を含む、
ことを特徴とする、付記7または8に記載の画像出力装置。
1 情報処理装置
10 コンピュータ
11 プロセッサ(処理部)
12 メモリ
13 記憶装置
14 グラフィック処理装置
14a モニタ
15 入力インタフェース
15a キーボード
15b マウス
16 光学ドライブ装置
16a 光ディスク
17 機器接続インタフェース
17a メモリ装置
17b メモリリーダライタ
17c メモリカード
18 ネットワークインタフェース
18a ネットワーク
19 バス
101 入力受付処理部
102 ニューラルネットワーク
103 ドキュメント登録処理部
104 検索部
105 説明可能AI部
106 提示情報作成部
107 ドキュメントデータベース
200 検索結果出力画面(提示情報)
201 検索画像(第1の画像)
202 ヒートマップ(第3の画像)
203ー1~203ー3,203 類似候補画像情報
204ー1~204-3,204 類似画像(第2の画像)
202 ヒートマップ(第3の画像)
205ー1~205-3,205 ヒートマップ(第4の画像)
206ー1,206-3,206 ドキュメントパス

Claims (5)

  1. 第1の画像を機械学習モデルに入力し、前記第1の画像の特徴量と前記機械学習モデルの第1の推定結果とを取得し、
    前記第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、
    前記第2の画像を前記機械学習モデルに入力し、前記機械学習モデルの第2の推定結果を取得し、
    前記第1の画像と前記第1の推定結果とに基づいて、前記第1の画像のうち前記第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、
    前記第2の画像と前記第2の推定結果とに基づいて、前記第2の画像のうち前記第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、
    前記第3の画像と前記第4の画像とを出力する、
    処理をコンピュータに実行させることを特徴とする画像出力プログラム。
  2. 前記第2の画像を含むドキュメントのドキュメントパスを出力する
    処理を前記コンピュータに実行させることを特徴とする、請求項1記載の画像出力プログラム。
  3. 前記選択する処理は、前記第1の画像の特徴量に基づいて、前記複数の画像から前記第1の画像に対する類似度が上位の複数の前記第2の画像を選択する処理を含み、
    前記第4の画像を生成する処理は、複数の前記第2の画像のそれぞれに対して、前記第4の画像を生成する処理を含み、
    前記出力する処理は、前記第3の画像と複数の前記第4の画像とを出力する処理を含む、
    ことを特徴とする、請求項1または2に記載の画像出力プログラム。
  4. 第1の画像を機械学習モデルに入力し、前記第1の画像の特徴量と前記機械学習モデルの第1の推定結果とを取得し、
    前記第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、
    前記第2の画像を前記機械学習モデルに入力し、前記機械学習モデルの第2の推定結果を取得し、
    前記第1の画像と前記第1の推定結果とに基づいて、前記第1の画像のうち前記第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、
    前記第2の画像と前記第2の推定結果とに基づいて、前記第2の画像のうち前記第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、
    前記第3の画像と前記第4の画像とを出力する、
    処理をコンピュータが実行することを特徴とする画像出力方法。
  5. 第1の画像を機械学習モデルに入力し、前記第1の画像の特徴量と前記機械学習モデルの第1の推定結果とを取得し、
    前記第1の画像の特徴量に基づいて、複数の画像から第2の画像を選択し、
    前記第2の画像を前記機械学習モデルに入力し、前記機械学習モデルの第2の推定結果を取得し、
    前記第1の画像と前記第1の推定結果とに基づいて、前記第1の画像のうち前記第1の推定結果に他の領域と比べて寄与が大きい領域を示す第3の画像を生成し、
    前記第2の画像と前記第2の推定結果とに基づいて、前記第2の画像のうち前記第2の推定結果に他の領域と比べて寄与が大きい領域を示す第4の画像を生成し、
    前記第3の画像と前記第4の画像とを出力する、
    処理部を有することを特徴とする画像出力装置。
JP2020209443A 2020-12-17 2020-12-17 画像出力プログラム,画像出力方法および画像出力装置 Withdrawn JP2022096379A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020209443A JP2022096379A (ja) 2020-12-17 2020-12-17 画像出力プログラム,画像出力方法および画像出力装置
US17/507,833 US20220198216A1 (en) 2020-12-17 2021-10-22 Computer-readable recording medium storing image output program, image output method, and image output apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020209443A JP2022096379A (ja) 2020-12-17 2020-12-17 画像出力プログラム,画像出力方法および画像出力装置

Publications (1)

Publication Number Publication Date
JP2022096379A true JP2022096379A (ja) 2022-06-29

Family

ID=82023158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020209443A Withdrawn JP2022096379A (ja) 2020-12-17 2020-12-17 画像出力プログラム,画像出力方法および画像出力装置

Country Status (2)

Country Link
US (1) US20220198216A1 (ja)
JP (1) JP2022096379A (ja)

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10361802B1 (en) * 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
JP2004254101A (ja) * 2003-02-20 2004-09-09 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP2006174415A (ja) * 2004-11-19 2006-06-29 Ntt Docomo Inc 画像復号装置、画像復号プログラム、画像復号方法、画像符号化装置、画像符号化プログラム及び画像符号化方法
WO2007023993A1 (en) * 2005-08-23 2007-03-01 Ricoh Company, Ltd. Data organization and access for mixed media document system
JP2008146602A (ja) * 2006-12-13 2008-06-26 Canon Inc 文書検索装置、文書検索方法、プログラム及び記憶媒体
JP5341010B2 (ja) * 2010-04-15 2013-11-13 オリンパス株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
US9165188B2 (en) * 2012-01-12 2015-10-20 Kofax, Inc. Systems and methods for mobile image capture and processing
US20180025303A1 (en) * 2016-07-20 2018-01-25 Plenarium Inc. System and method for computerized predictive performance analysis of natural language
JP6942488B2 (ja) * 2017-03-03 2021-09-29 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6487493B2 (ja) * 2017-05-18 2019-03-20 ファナック株式会社 画像処理システム
JP6693938B2 (ja) * 2017-11-17 2020-05-13 ファナック株式会社 外観検査装置
DE112019003022T5 (de) * 2018-06-15 2021-03-18 Canon Kabushiki Kaisha Medizinische Bildverarbeitungsvorrichtung, medizinisches Bildverarbeitungsverfahren und Programm
JP7014129B2 (ja) * 2018-10-29 2022-02-01 オムロン株式会社 推定器生成装置、モニタリング装置、推定器生成方法及び推定器生成プログラム
JP2020087224A (ja) * 2018-11-29 2020-06-04 富士ゼロックス株式会社 情報処理装置、及び情報処理プログラム
JP7148078B2 (ja) * 2019-03-04 2022-10-05 日本電信電話株式会社 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム
US20220189151A1 (en) * 2019-04-05 2022-06-16 Nec Corporation Processing system, estimation apparatus, processing method, and non-transitory storage medium
WO2020240809A1 (ja) * 2019-05-31 2020-12-03 楽天株式会社 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
WO2020240808A1 (ja) * 2019-05-31 2020-12-03 楽天株式会社 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
JP7341736B2 (ja) * 2019-06-06 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20220284702A1 (en) * 2019-08-20 2022-09-08 Nippon Telegraph And Telephone Corporation Estimation program, estimation device, generation method of detection model, learning method, and learning device
WO2021039339A1 (ja) * 2019-08-30 2021-03-04 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP7118934B2 (ja) * 2019-09-04 2022-08-16 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
US11100643B2 (en) * 2019-09-11 2021-08-24 Nvidia Corporation Training strategy search using reinforcement learning
WO2021065265A1 (ja) * 2019-09-30 2021-04-08 日本電気株式会社 大きさ推定装置、大きさ推定方法および記憶媒体
JP7434829B2 (ja) * 2019-11-21 2024-02-21 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
JP7334801B2 (ja) * 2019-12-25 2023-08-29 日本電気株式会社 学習装置、学習方法および学習プログラム
JP7459949B2 (ja) * 2020-08-27 2024-04-02 日本電気株式会社 学習装置、学習方法、追跡装置及びプログラム

Also Published As

Publication number Publication date
US20220198216A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
US10963691B2 (en) Platform for document classification
US10726208B2 (en) Consumer insights analysis using word embeddings
US10685183B1 (en) Consumer insights analysis using word embeddings
US11182806B1 (en) Consumer insights analysis by identifying a similarity in public sentiments for a pair of entities
US10509863B1 (en) Consumer insights analysis using word embeddings
US10558759B1 (en) Consumer insights analysis using word embeddings
US10803248B1 (en) Consumer insights analysis using word embeddings
US20220058340A1 (en) Systems and methods for generating text descriptive of digital images
JP2022500808A (ja) 文生成方法と装置、電子機器及びプログラム
US20220075961A1 (en) Automatic Content Labeling
WO2021188702A1 (en) Systems and methods for deploying computerized conversational agents
KR20210149530A (ko) 이미지 분류 모델 학습 방법 및 이를 수행하기 위한 장치
US11030539B1 (en) Consumer insights analysis using word embeddings
US11308146B2 (en) Content fragments aligned to content criteria
CN114003758B (zh) 图像检索模型的训练方法和装置以及检索方法和装置
JP2019204214A (ja) 学習装置、学習方法、プログラム及び推定装置
US10685184B1 (en) Consumer insights analysis using entity and attribute word embeddings
US11176311B1 (en) Enhanced section detection using a combination of object detection with heuristics
EP3667547B1 (en) User interface (ui) design compliance determination
JP2022096379A (ja) 画像出力プログラム,画像出力方法および画像出力装置
US20230143430A1 (en) Image Localizability Classifier
US20220366133A1 (en) Training a Model in a Data-Scarce Environment Using Added Parameter Information
US20230289594A1 (en) Computer-readable recording medium storing information processing program, information processing method, and information processing apparatus
JP7502081B2 (ja) 解析手法検索装置及び解析手法検索方法
US20240104951A1 (en) Image and semantic based table recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230804

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20240129