JP7161979B2 - 説明支援装置、および、説明支援方法 - Google Patents

説明支援装置、および、説明支援方法 Download PDF

Info

Publication number
JP7161979B2
JP7161979B2 JP2019138154A JP2019138154A JP7161979B2 JP 7161979 B2 JP7161979 B2 JP 7161979B2 JP 2019138154 A JP2019138154 A JP 2019138154A JP 2019138154 A JP2019138154 A JP 2019138154A JP 7161979 B2 JP7161979 B2 JP 7161979B2
Authority
JP
Japan
Prior art keywords
data
image
explanation
caution point
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019138154A
Other languages
English (en)
Other versions
JP2021022159A (ja
Inventor
一則 和久井
博章 三沢
博基 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2019138154A priority Critical patent/JP7161979B2/ja
Publication of JP2021022159A publication Critical patent/JP2021022159A/ja
Application granted granted Critical
Publication of JP7161979B2 publication Critical patent/JP7161979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、説明支援装置、および、説明支援方法に関する。
深層学習(DL:Deep Learning)などの学習アルゴリズムを画像認識技術に用いることで、高精度な画像判定モデルを機械学習させる試みが行われている。画像判定モデルが出力した判定結果は、例えば、画像データに記載されている数字である。
なお、機械学習された画像判定モデルによる認識演算の具体的な中身は、ブラックボックス(人間が理解困難)である。よって、画像データのどの部分に影響されて判定結果を導き出したのかという根拠情報を知りたいという要望がある。そこで、説明可能な人工知能(XAI:Explainable Artificial Intelligence)により、ブラックボックス部分の解明が行われている。
例えば、非特許文献1には、「ブラックボックスの判定結果をどのように説明できますか?影響関数を使用することで、ロバスト統計からモデルの認識を追跡します。線形モデルと畳み込みニューラルネットワークでは、影響関数が複数の目的に役立つことを示します。」と記載されている。
なお、影響関数とは、非構造化データに対して、特定の学習データの有無や学習データに加える摂動が判定結果に与える影響を定式化したものである。つまり、ブラックボックスになっている画像判定モデルが出力した判定結果の根拠情報として、影響関数が有用である。
Pang Wei Koh, Percy Liang著、"Understanding Black-box Predictions via Influence Functions"、[online]、2017年3月、[令和1年7月5日検索]、インターネット〈URL:https://arxiv.org/abs/1703.04730〉
複数の画像判定モデルから1つを採用するときなど、画像判定モデルの良し悪しを選別するときに、前記したXAIが出力する判定結果の根拠情報は有用である。
例えば、「画像に写っているのは7である」と正解した2つの画像判定モデルがあったときに、数字の上側に注意して(影響されて)「7」と出力した第1モデルを、数字の下側に注意して「7」と出力した第2モデルよりもユーザは信用する。第2モデルは「7」と「1」との区別ができずに、当てずっぽうに「7」と正解したかもしれないからである。
図22は、画像判定システム1zの一例を示す構成図である。
画像判定システム1zは、画像格納部101zと、画像判定部10zと、注意箇所抽出部11zと、出力部16zとを有する。
画像判定部10zは、画像格納部101zに格納された各画像データ内に写っている対象物の種類などを判定し、その判定結果を出力する。
注意箇所抽出部11zは、画像判定部10zによる判定結果の根拠情報として、画像判定部10zが判定処理に用いた画像データ内の注意箇所データを抽出する。
出力部16zは、画像格納部101zの画像データと、その画像データに対する画像判定部10zの判定結果と、その判定結果に対する注意箇所抽出部11zの注意箇所データとを出力する。注意箇所データは、画像判定部10zが画像を判定する際に影響があった箇所であり、例えば、画像データ上の一部の範囲として表示される。
このように、画像データ内のどの部分を根拠情報として、正解の判定結果を導き出せたかをユーザに知らせるため、画像判定時の注意箇所データを画像データ上に重ねて表示することで、注意箇所データの良し悪しをユーザに目視確認させるようなXAIを検討する。
このような目視確認のシステムでは、画像データが大量に存在する場合や、画像データ内の注意箇所データが大量に存在する場合では、ユーザへの負担が大きくなってしまう。
そこで、本発明は、認識モデルによる判定結果に対する根拠情報の妥当性を、効率的に確認させることを、主な課題とする。
前記課題を解決するために、本発明の説明支援装置は、以下の特徴を有する。
本発明は、データベースに登録されている各物体の認識モデルが写っている画像データ内の位置情報の認識結果を画像内物体データとする物体認識部と、
画像データを対象とする物体の判定結果の根拠情報としての画像データ内の注意箇所データを受け、前記注意箇所データと前記画像内物体データとを同一平面上にマッピングし、マッピングされた双方のデータの重なりを求める根拠変換部と、
前記注意箇所データと重なる前記画像内物体データについての情報をもとに、各前記注意箇所データの根拠説明情報を生成して出力する説明生成部とを有することを特徴とする。
その他の手段は、後記する。
本発明によれば、認識モデルによる判定結果に対する根拠情報の妥当性を、効率的に確認させることができる。
本発明の一実施形態に関する説明支援装置の構成図である。 本発明の一実施形態に関する画像格納部に格納された画像データを示す図である。 本発明の一実施形態に関する認識モデルDBを示す図である。 本発明の一実施形態に関する図3の認識モデルDBに登録された車認識モデルの詳細を示す図である。 本発明の一実施形態に関する説明支援装置のメイン処理を示すフローチャートである。 本発明の一実施形態に関する根拠変換部の処理の詳細を示すフローチャートである。 本発明の一実施形態に関する注意箇所抽出部が抽出した注意箇所データを示す図である。 本発明の一実施形態に関する図7の注意箇所データの詳細を示すテーブルである。 本発明の一実施形態に関するで物体認識部が認識した画像内物体データを示す図である。 本発明の一実施形態に関する図9の画像内物体データの詳細を示すテーブルである。 本発明の一実施形態に関する根拠変換部による図7の注意箇所データと図9の画像内物体データとのマッピング処理を示す図である。 本発明の一実施形態に関する図11において根拠変換部が作成した説明候補データを示すテーブルである。 本発明の一実施形態に関する図12の説明候補データから集計部が計算した説明集計情報を示すテーブルである。 本発明の一実施形態に関する図12の説明候補データから説明生成部が作成した根拠説明情報の表示画面図である。 本発明の一実施形態に関する注意箇所抽出部が抽出した注意箇所データを示す図である。 本発明の一実施形態に関する図15の注意箇所データの詳細を示すテーブルである。 本発明の一実施形態に関する物体認識部が認識した画像内物体データを示す図である。 本発明の一実施形態に関する図17の画像内物体データの詳細を示すテーブルである。 本発明の一実施形態に関する根拠変換部による図15の注意箇所データと図17の画像内物体データとのマッピング処理を示す図である。 本発明の一実施形態に関する図19において根拠変換部が作成した説明候補データを示すテーブルである。 本発明の一実施形態に関する図13の状態から、さらに図20の説明候補データを加味して集計部が計算した説明集計情報を示すテーブルである。 画像判定システムの一例を示す構成図である。
以下、本発明の一実施形態を、図面を参照して詳細に説明する。
図1は、説明支援装置1の構成図である。
説明支援装置1は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
なお、説明支援装置1は、ローカル環境として構成してもよいし、クラウド環境として構成してもよい。ローカル環境の説明支援装置1は、各構成要素が1台の筐体に収容されるような一般的なPCの構成である。クラウド環境の説明支援装置1は、各構成要素が複数台の筐体に分散して収容され、構成要素間のメッセージがネットワーク経由でやりとりされる構成である。
説明支援装置1は、画像格納部101と、画像判定部10と、注意箇所抽出部11と、物体認識部12と、認識モデルDB13と、根拠変換部14と、説明生成部15と、出力部16と、集計部17とを有する。
以下、図2~図4を参照して画像格納部101および認識モデルDB13のデータ内容を説明し、その他の処理部は図5,図6のフローチャートを用いて説明する。
図2は、画像格納部101に格納された画像データを示す図である。図2の画像データには、下部に車101aが大きく写っており、上部に建物101bが小さく写っている。よって、この画像データに対する画像判定部10による判定結果は、「車101aが写っている」こととして説明する。
図3は、認識モデルDB13を示す図である。認識モデルDB13には、画像データ内の認識対象となる物体を示す「判定対象」ごとに、その認識モデルの名称である「モデル名」と、その認識モデルを構成する各パーツの名称である「パーツ名」とが対応づけられて事前に登録されている。例えば判定対象「車」は、4つのパーツ「フロントグリル、リアグリル、窓、タイヤ」それぞれについて個別に認識モデルが分かれている。よって、画像データ内に存在する車の窓と、車のタイヤとを区別して認識することができる。
一方、判定対象「一般」は、複数のパーツに分割されず、全体で1つの物体として一般認識モデルにより認識される。例えば、図2の建物101bも、一般認識モデルにより認識される対象である。管理者は、認識モデルDB13に登録される認識モデルについて、適宜増やしてもよい。
図4は、図3の認識モデルDB13に登録された車認識モデルの詳細を示す図である。1台の車を構成する4つのパーツ「フロントグリル301、リアグリル302、窓303、タイヤ304」の外観形状データが、個別に車認識モデルとして認識モデルDB13に登録されている。
図5は、説明支援装置1のメイン処理を示すフローチャートである。
S11として、画像判定部10は、画像格納部101に格納された各画像データ内に写っている対象物の種類などを判定し、その判定結果を出力する。
S12として、注意箇所抽出部11は、S11による判定結果の根拠情報として、画像判定部10が判定処理に用いた画像データ内の注意箇所データを抽出する。
S13として、物体認識部12は、認識モデルDB13に登録されている各物体の認識モデルが、画像データのどの位置に写っているかを認識する。この認識結果を、画像内物体データとする。
S14として、根拠変換部14は、S12の注意箇所データと、S13の画像内物体データとを説明候補データに変換する(詳細は図6)。
S15として、説明生成部15は、S14の説明候補データをもとに、各注意箇所データの根拠説明情報を生成する。根拠説明情報は、例えば、説明候補データに含まれる注意箇所データと画像内物体データとのマッピングを示す情報を、人間が読みやすいようにテキストデータに変換した説明文である。
S16として、集計部17は、S15で出力される1つ以上の根拠説明情報を対象として、集計処理や分析処理を行った結果の説明集計情報を作成する。
S17として、出力部16は、各注意箇所データの根拠情報に対して、説明生成部15の根拠説明情報を付加して出力する。また、出力部16は、S16の説明集計情報を出力してもよいし、出力しなくてもよい(S16の省略も可)。
図6は、根拠変換部14の処理(S14)の詳細を示すフローチャートである。
根拠変換部14は、S12で抽出された注意箇所データごとに処理対象とし、未処理の注意箇所データが存在しない場合(S141,No)、図6の処理を終了してS15に遷移する。
根拠変換部14は、処理対象の注意箇所データと、S13の画像内物体データとを同一の画像データ内に(同一平面上に)マッピングした後、注意箇所データと重なる画像内物体データが存在するか否かを判定する(S142)。重なる画像内物体データが存在する場合(S142,Yes)、根拠変換部14は、双方の重なり度合いを示す重なり率を計算する(S143)。
注意箇所データと重なっている画像内物体データが存在しない場合、または、注意箇所データと重なっているが重なり率が未計算となる画像内物体データが存在しない場合(S142,No)、処理をS144に進める。
根拠変換部14は、処理対象の注意箇所データに対して重なる画像内物体データごとの重なり率をソートし、例えば、重なり率が最大の画像内物体データを抽出する(S144,Yes)。そして、根拠変換部14は、抽出した画像内物体データを処理対象の注意箇所データに対する説明候補データとする(S145)。
以上説明した各フローチャートの処理を明らかにするために、以下の2つの事例を用いて詳細な説明を行う。
・正しい判定結果に対して、正しい根拠情報を認識できたときの事例(図7~図14)
・正しい判定結果であるが、誤った根拠情報を認識してしまったときの事例(図15~図21)
この2つの事例は、ともに画像判定部10が図2の画像データ内に写っている対象物が「車」であるという正解の判定結果を出力したとする(S11)。
図7は、S11で注意箇所抽出部11が抽出した注意箇所データを示す図である。画像格納部101の画像データ内に、横軸(X軸)と縦軸(Y軸)とで区切られたセルを、格子状の破線で示す。「車」であるという正解の判定結果に対して、その車の一部である妥当な注意箇所データ201a~201cが抽出されている。
図8は、図7の注意箇所データの詳細を示すテーブルである。各注意箇所データは、注意箇所のID(ここでは図7の符号)と、その画像内での大きさ(セルいくつ分か)と、座標とを対応づける。注意箇所データの座標は、例えば、注意箇所データ201aの左上のセル位置(X4,Y5)と、右下のセル位置(X5,Y4)との組み合わせで表現される。
図9は、S13で物体認識部12が認識した画像内物体データを示す図である。例えば、図4のフロントグリル301の形状データを検索キーとして、物体認識部12は、画像データ内に類似または一致する箇所を検索し、左上のセル位置(X2,Y4)から右下のセル位置(X2,Y2)までの領域に存在するフロントグリル401を検索結果の画像内物体データとする。
このように、図9の画像格納部101の画像データ内に、物体認識部12が認識した画像内物体データ(フロントグリル401、リアグリル402、窓403、タイヤ404)を四角形で記載した。
図10は、図9の画像内物体データの詳細を示すテーブルである。画像内物体データは、認識に用いられた検索キーの認識モデルと、その検索キーが合致した認識結果のID(図9の画像内物体データを示す各符号)と、その認識位置(左上のセル位置~右下のセル位置)との対応データである。
図11は、S142で根拠変換部14による図7の注意箇所データと図9の画像内物体データとのマッピング処理を示す図である。
根拠変換部14は、注意箇所データ201a~201cと、画像内物体データ(フロントグリル401、リアグリル402、窓403、タイヤ404)とを同一平面上にマッピングする。これにより、マッピングされた双方のデータに、重なりが発生する。
根拠変換部14は、例えば、重なり率の判定はIOU(Intersectin over Union)を用いて重なり率を計算し(S143)、重なり率が大きい画像内物体データを注意箇所データに対応づける(S144,S145)。例えば、注意箇所データ201bとフロントグリル401とは重なり率が「高」と判定される。
図12は、図11において根拠変換部14が作成した説明候補データを示すテーブルである。
説明候補データは、注意箇所データと、その大きさと、その座標(左上のセル位置~右下のセル位置)と、重なる物体の画像内物体データと、重なり対象の判定結果とを対応づけて構成される。
重なり対象の判定結果とは、「正」または「否」のいずれかの値を取る。例えば、注意箇所データ201aは、重なる物体(窓403)が存在し、かつ、その重なる物体は画像データの判定結果「車」の一部(パーツ)であるので、重なり対象の判定結果「正」となる。同様に、他の注意箇所データ201b,201cも、「車」の一部(パーツ)と重なるので、重なり対象の判定結果「正」となる。
このように、根拠変換部14は、説明候補データとして重なる物体の有無だけでなく、重なる物体の正否も自動的に求めることで、ユーザの目視確認作業の負担を軽減する。
図13は、図12の説明候補データから集計部17が計算した説明集計情報を示すテーブルである。
前記した図12の説明候補データは合計3行(3つの注意箇所データ201a~201c)が存在するので、注意箇所は「3」である。そのうち、重なり対象の判定結果「正」となる正解箇所は「3」であり、判定結果「否」となる間違い箇所は「0」である。
このような集計処理を集計部17が行うことで、個々の重なり対象だけでなく、画像データ全体での大まかな認識モデルの精度を求めることができる。例えば、集計部17は、注意箇所は「3」÷正解箇所は「3」=正解率100%を求める。
図14は、図12の説明候補データから説明生成部15が作成した根拠説明情報の表示画面図である。
表示画面の上欄501には、図2の画像データの上に、図11のマッピング内容が重ねて表示されている。
表示画面の下欄502には、図12で示した説明候補データをテキストデータに変換した説明文が表示されている。
これにより、ユーザは、3つの注意箇所データ201a~201cそれぞれについて、個別に「車」の一部と正しくマッピングされていることを容易に把握できる。
以上、図7~図14を参照して、正しい根拠情報の事例を説明した。
以下、図15~図21は、誤った根拠情報の事例である。
図15は、S11で注意箇所抽出部11が抽出した注意箇所データを示す図である。図7の事例とは異なり、「車」であるという正解の判定結果に対して、車とは関係ない部分の注意箇所データ202a,202bが抽出されている。
図16は、図15の注意箇所データの詳細を示すテーブルである。このテーブルは図8と同じ形式である。
図17は、S13で物体認識部12が認識した画像内物体データを示す図である。物体認識部12は、図9と同様に、車の認識モデルから車101aの画像内物体データ(フロントグリル401、リアグリル402、窓403、タイヤ404)を認識する。さらに、物体認識部12は、一般認識モデルから建物101bの画像内物体データ(建物410)を認識する。
図18は、図17の画像内物体データの詳細を示すテーブルである。このテーブルは図10と同じ形式である。
図19は、S142で根拠変換部14による図15の注意箇所データと図17の画像内物体データとのマッピング処理を示す図である。
図11の場合(注意箇所データ201a~201c)とは異なり、図19の注意箇所データ202aはどの画像内物体データとも重なっておらず、図19の注意箇所データ202bは建物410と重なっている。一方、車のパーツ(フロントグリル401、リアグリル402、窓403、タイヤ404)と重なる注意箇所データは存在しない。
図20は、図19において根拠変換部14が作成した説明候補データを示すテーブルである。このテーブルは図12と同じ形式である。
ここで、図12の場合とは異なり、重なり対象の判定結果は2つの注意箇所データ202a,202bでともに「否」である。注意箇所データ202aは重なる物体が検出されなかったので「否」となり、注意箇所データ202bは車ではない建物410(誤った物体)との重なりが検出されたので「否」となる。
図21は、図13の状態から、さらに図20の説明候補データを加味して集計部17が計算した説明集計情報を示すテーブルである。
まず、図20の説明候補データは、単体では注意箇所=2,正解箇所=0,間違い箇所=2である。そして、集計部17は、図13の状態(注意箇所=3,正解箇所=3,間違い箇所=0)に、図20の状態を加算することで、図21に示す説明集計情報を作成する。
このように、複数の根拠説明情報を集計することで、判定結果の根拠情報の精度を大まかに把握できる。
以上説明した本実施形態では、説明生成部15は、注意箇所データと画像内物体データとの関係をもとに、根拠情報に対応する根拠説明情報を作成する。これにより、根拠説明情報をユーザに容易に理解させるとともに、集計部17に対して集計処理のための有益な入力データを提供する。
さらに、図14に示した表示画面のように、根拠情報に対応する根拠説明情報が人が解るような説明文で表示されるので、非構造化データである画像データに対する分析処理において、ユーザの目視確認作業の負担を軽減することができる。
なお、本発明は前記した実施例に限定されるものではなく、検査対象物の種類、サイズ、実行される検査項目などの様々な変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
1 説明支援装置
10 画像判定部
11 注意箇所抽出部
12 物体認識部
13 認識モデルDB(データベース)
14 根拠変換部
15 説明生成部
16 出力部
17 集計部
101 画像格納部

Claims (5)

  1. データベースに登録されている各物体の認識モデルが写っている画像データ内の位置情報の認識結果を画像内物体データとする物体認識部と、
    画像データを対象とする物体の判定結果の根拠情報としての画像データ内の注意箇所データを受け、前記注意箇所データと前記画像内物体データとを同一平面上にマッピングし、マッピングされた双方のデータの重なりを求める根拠変換部と、
    前記注意箇所データと重なる前記画像内物体データについての情報をもとに、各前記注意箇所データの根拠説明情報を生成して出力する説明生成部とを有することを特徴とする
    説明支援装置。
  2. 前記説明生成部は、前記根拠説明情報として、前記注意箇所データごとに重なる前記画像内物体データを示す説明文を生成することを特徴とする
    請求項1に記載の説明支援装置。
  3. 前記データベースには、前記判定結果として認識された物体を構成するパーツごとに、認識モデルが登録されていることを特徴とする
    請求項1に記載の説明支援装置。
  4. 前記説明支援装置は、さらに、前記根拠説明情報の集計結果を計算して出力する集計部を有することを特徴とする
    請求項1に記載の説明支援装置。
  5. 説明支援装置は、物体認識部と、根拠変換部と、説明生成部とを有しており、
    前記物体認識部は、データベースに登録されている各物体の認識モデルが写っている画像データ内の位置情報の認識結果を画像内物体データとし、
    前記根拠変換部は、画像データを対象とする物体の判定結果の根拠情報としての画像データ内の注意箇所データを受け、前記注意箇所データと前記画像内物体データとを同一平面上にマッピングし、マッピングされた双方のデータの重なりを求め、
    前記説明生成部は、前記注意箇所データと重なる前記画像内物体データについての情報をもとに、各前記注意箇所データの根拠説明情報を生成して出力することを特徴とする
    説明支援方法。
JP2019138154A 2019-07-26 2019-07-26 説明支援装置、および、説明支援方法 Active JP7161979B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019138154A JP7161979B2 (ja) 2019-07-26 2019-07-26 説明支援装置、および、説明支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019138154A JP7161979B2 (ja) 2019-07-26 2019-07-26 説明支援装置、および、説明支援方法

Publications (2)

Publication Number Publication Date
JP2021022159A JP2021022159A (ja) 2021-02-18
JP7161979B2 true JP7161979B2 (ja) 2022-10-27

Family

ID=74573302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019138154A Active JP7161979B2 (ja) 2019-07-26 2019-07-26 説明支援装置、および、説明支援方法

Country Status (1)

Country Link
JP (1) JP7161979B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7092228B1 (ja) * 2021-03-30 2022-06-28 沖電気工業株式会社 学習装置、学習方法およびプログラム
WO2023032317A1 (ja) * 2021-09-02 2023-03-09 ソニーグループ株式会社 プログラム、情報処理装置、情報処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256568A (zh) 2018-01-12 2018-07-06 宁夏智启连山科技有限公司 一种植物种类识别方法以及装置
WO2019130974A1 (ja) 2017-12-25 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043132A1 (ja) * 2015-09-08 2017-03-16 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム
JP7032623B2 (ja) * 2017-10-31 2022-03-09 株式会社デンソー 推論装置、推論方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130974A1 (ja) 2017-12-25 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN108256568A (zh) 2018-01-12 2018-07-06 宁夏智启连山科技有限公司 一种植物种类识别方法以及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ramprasaath R. Selvaraju et al.,Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization,2017 IEEE International Conference on Computer Vision,米国,IEEE,2017年10月22日,p. 618 -626
RICCARDO GUIDOTTI et al.,A Survey of Methods for Explaining Black Box Models,ACM Computing Surveys,2018年08月22日,Volume 51, Issue 5,p. 93:1 - 93:42

Also Published As

Publication number Publication date
JP2021022159A (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
CN107610770B (zh) 用于自动化诊断的问题生成系统和方法
JP7161979B2 (ja) 説明支援装置、および、説明支援方法
US10482180B2 (en) Generating ground truth for questions based on data found in structured resources
JP2017111601A (ja) 調査対象特定プログラム、および調査対象特定方法
JP6201792B2 (ja) 情報処理装置及び情報処理プログラム
JP2020095398A (ja) モデルの予測根拠提示システム及びモデルの予測根拠提示方法
US20180336477A1 (en) Information processing apparatus and non-transitory computer readable medium
CN111310912A (zh) 机器学习系统、域变换装置、及机器学习方法
US9626433B2 (en) Supporting acquisition of information
WO2022051996A1 (zh) 知识图谱构建方法和装置
JP2010198308A (ja) 文字認識プログラム、文字認識方法および文字認識装置
JP2016110256A (ja) 情報処理装置及び情報処理プログラム
US9996606B2 (en) Method for determining condition of category division of key performance indicator, and computer and computer program therefor
JP2017173993A (ja) 情報処理装置、情報処理方法、及び、プログラム
US10318568B2 (en) Generation of classification data used for classifying documents
JP6831307B2 (ja) 解算出装置、解算出方法及び解算出プログラム
JP6511942B2 (ja) 情報処理装置および情報処理プログラム
JP2021135782A (ja) 文書解析装置、文書解析方法およびプログラム
JP6413597B2 (ja) 分析プログラム、分析方法及び分析装置
US20180307669A1 (en) Information processing apparatus
JP6065657B2 (ja) 電子データ承認方法、及び電子データ承認サーバ
JP6056541B2 (ja) 三次元モデルの空間認識方法及び装置、並びに画像処理システム
US20220253529A1 (en) Information processing apparatus, information processing method, and computer readable medium
JPWO2018110327A1 (ja) 異常識別システム、方法及びプログラム
JP7240252B2 (ja) ソフトウェア開発文書検索装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7161979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150