JP2021022159A - 説明支援装置、および、説明支援方法 - Google Patents
説明支援装置、および、説明支援方法 Download PDFInfo
- Publication number
- JP2021022159A JP2021022159A JP2019138154A JP2019138154A JP2021022159A JP 2021022159 A JP2021022159 A JP 2021022159A JP 2019138154 A JP2019138154 A JP 2019138154A JP 2019138154 A JP2019138154 A JP 2019138154A JP 2021022159 A JP2021022159 A JP 2021022159A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- explanation
- information
- basis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
なお、機械学習された画像判定モデルによる認識演算の具体的な中身は、ブラックボックス(人間が理解困難)である。よって、画像データのどの部分に影響されて判定結果を導き出したのかという根拠情報を知りたいという要望がある。そこで、説明可能な人工知能(XAI:Explainable Artificial Intelligence)により、ブラックボックス部分の解明が行われている。
なお、影響関数とは、非構造化データに対して、特定の学習データの有無や学習データに加える摂動が判定結果に与える影響を定式化したものである。つまり、ブラックボックスになっている画像判定モデルが出力した判定結果の根拠情報として、影響関数が有用である。
例えば、「画像に写っているのは7である」と正解した2つの画像判定モデルがあったときに、数字の上側に注意して(影響されて)「7」と出力した第1モデルを、数字の下側に注意して「7」と出力した第2モデルよりもユーザは信用する。第2モデルは「7」と「1」との区別ができずに、当てずっぽうに「7」と正解したかもしれないからである。
画像判定システム1zは、画像格納部101zと、画像判定部10zと、注意箇所抽出部11zと、出力部16zとを有する。
画像判定部10zは、画像格納部101zに格納された各画像データ内に写っている対象物の種類などを判定し、その判定結果を出力する。
注意箇所抽出部11zは、画像判定部10zによる判定結果の根拠情報として、画像判定部10zが判定処理に用いた画像データ内の注意箇所データを抽出する。
出力部16zは、画像格納部101zの画像データと、その画像データに対する画像判定部10zの判定結果と、その判定結果に対する注意箇所抽出部11zの注意箇所データとを出力する。注意箇所データは、画像判定部10zが画像を判定する際に影響があった箇所であり、例えば、画像データ上の一部の範囲として表示される。
このような目視確認のシステムでは、画像データが大量に存在する場合や、画像データ内の注意箇所データが大量に存在する場合では、ユーザへの負担が大きくなってしまう。
本発明は、データベースに登録されている各物体の認識モデルが写っている画像データ内の位置情報の認識結果を画像内物体データとする物体認識部と、
画像データを対象とする物体の判定結果の根拠情報としての画像データ内の注意箇所データを受け、前記注意箇所データと前記画像内物体データとを同一平面上にマッピングし、マッピングされた双方のデータの重なりを求める根拠変換部と、
前記注意箇所データと重なる前記画像内物体データについての情報をもとに、各前記注意箇所データの根拠説明情報を生成して出力する説明生成部とを有することを特徴とする。
その他の手段は、後記する。
説明支援装置1は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
以下、図2〜図4を参照して画像格納部101および認識モデルDB13のデータ内容を説明し、その他の処理部は図5,図6のフローチャートを用いて説明する。
一方、判定対象「一般」は、複数のパーツに分割されず、全体で1つの物体として一般認識モデルにより認識される。例えば、図2の建物101bも、一般認識モデルにより認識される対象である。管理者は、認識モデルDB13に登録される認識モデルについて、適宜増やしてもよい。
S11として、画像判定部10は、画像格納部101に格納された各画像データ内に写っている対象物の種類などを判定し、その判定結果を出力する。
S12として、注意箇所抽出部11は、S11による判定結果の根拠情報として、画像判定部10が判定処理に用いた画像データ内の注意箇所データを抽出する。
S13として、物体認識部12は、認識モデルDB13に登録されている各物体の認識モデルが、画像データのどの位置に写っているかを認識する。この認識結果を、画像内物体データとする。
S15として、説明生成部15は、S14の説明候補データをもとに、各注意箇所データの根拠説明情報を生成する。根拠説明情報は、例えば、説明候補データに含まれる注意箇所データと画像内物体データとのマッピングを示す情報を、人間が読みやすいようにテキストデータに変換した説明文である。
S16として、集計部17は、S15で出力される1つ以上の根拠説明情報を対象として、集計処理や分析処理を行った結果の説明集計情報を作成する。
S17として、出力部16は、各注意箇所データの根拠情報に対して、説明生成部15の根拠説明情報を付加して出力する。また、出力部16は、S16の説明集計情報を出力してもよいし、出力しなくてもよい(S16の省略も可)。
根拠変換部14は、S12で抽出された注意箇所データごとに処理対象とし、未処理の注意箇所データが存在しない場合(S141,No)、図6の処理を終了してS15に遷移する。
根拠変換部14は、処理対象の注意箇所データと、S13の画像内物体データとを同一の画像データ内に(同一平面上に)マッピングした後、注意箇所データと重なる画像内物体データが存在するか否かを判定する(S142)。重なる画像内物体データが存在する場合(S142,Yes)、根拠変換部14は、双方の重なり度合いを示す重なり率を計算する(S143)。
根拠変換部14は、処理対象の注意箇所データに対して重なる画像内物体データごとの重なり率をソートし、例えば、重なり率が最大の画像内物体データを抽出する(S144,Yes)。そして、根拠変換部14は、抽出した画像内物体データを処理対象の注意箇所データに対する説明候補データとする(S145)。
・正しい判定結果に対して、正しい根拠情報を認識できたときの事例(図7〜図14)
・正しい判定結果であるが、誤った根拠情報を認識してしまったときの事例(図15〜図21)
この2つの事例は、ともに画像判定部10が図2の画像データ内に写っている対象物が「車」であるという正解の判定結果を出力したとする(S11)。
図8は、図7の注意箇所データの詳細を示すテーブルである。各注意箇所データは、注意箇所のID(ここでは図7の符号)と、その画像内での大きさ(セルいくつ分か)と、座標とを対応づける。注意箇所データの座標は、例えば、注意箇所データ201aの左上のセル位置(X4,Y5)と、右下のセル位置(X5,Y4)との組み合わせで表現される。
このように、図9の画像格納部101の画像データ内に、物体認識部12が認識した画像内物体データ(フロントグリル401、リアグリル402、窓403、タイヤ404)を四角形で記載した。
図10は、図9の画像内物体データの詳細を示すテーブルである。画像内物体データは、認識に用いられた検索キーの認識モデルと、その検索キーが合致した認識結果のID(図9の画像内物体データを示す各符号)と、その認識位置(左上のセル位置〜右下のセル位置)との対応データである。
根拠変換部14は、注意箇所データ201a〜201cと、画像内物体データ(フロントグリル401、リアグリル402、窓403、タイヤ404)とを同一平面上にマッピングする。これにより、マッピングされた双方のデータに、重なりが発生する。
根拠変換部14は、例えば、重なり率の判定はIOU(Intersectin over Union)を用いて重なり率を計算し(S143)、重なり率が大きい画像内物体データを注意箇所データに対応づける(S144,S145)。例えば、注意箇所データ201bとフロントグリル401とは重なり率が「高」と判定される。
説明候補データは、注意箇所データと、その大きさと、その座標(左上のセル位置〜右下のセル位置)と、重なる物体の画像内物体データと、重なり対象の判定結果とを対応づけて構成される。
重なり対象の判定結果とは、「正」または「否」のいずれかの値を取る。例えば、注意箇所データ201aは、重なる物体(窓403)が存在し、かつ、その重なる物体は画像データの判定結果「車」の一部(パーツ)であるので、重なり対象の判定結果「正」となる。同様に、他の注意箇所データ201b,201cも、「車」の一部(パーツ)と重なるので、重なり対象の判定結果「正」となる。
このように、根拠変換部14は、説明候補データとして重なる物体の有無だけでなく、重なる物体の正否も自動的に求めることで、ユーザの目視確認作業の負担を軽減する。
前記した図12の説明候補データは合計3行(3つの注意箇所データ201a〜201c)が存在するので、注意箇所は「3」である。そのうち、重なり対象の判定結果「正」となる正解箇所は「3」であり、判定結果「否」となる間違い箇所は「0」である。
このような集計処理を集計部17が行うことで、個々の重なり対象だけでなく、画像データ全体での大まかな認識モデルの精度を求めることができる。例えば、集計部17は、注意箇所は「3」÷正解箇所は「3」=正解率100%を求める。
表示画面の上欄501には、図2の画像データの上に、図11のマッピング内容が重ねて表示されている。
表示画面の下欄502には、図12で示した説明候補データをテキストデータに変換した説明文が表示されている。
これにより、ユーザは、3つの注意箇所データ201a〜201cそれぞれについて、個別に「車」の一部と正しくマッピングされていることを容易に把握できる。
以上、図7〜図14を参照して、正しい根拠情報の事例を説明した。
図15は、S11で注意箇所抽出部11が抽出した注意箇所データを示す図である。図7の事例とは異なり、「車」であるという正解の判定結果に対して、車とは関係ない部分の注意箇所データ202a,202bが抽出されている。
図16は、図15の注意箇所データの詳細を示すテーブルである。このテーブルは図8と同じ形式である。
図18は、図17の画像内物体データの詳細を示すテーブルである。このテーブルは図10と同じ形式である。
図11の場合(注意箇所データ201a〜201c)とは異なり、図19の注意箇所データ202aはどの画像内物体データとも重なっておらず、図19の注意箇所データ202bは建物410と重なっている。一方、車のパーツ(フロントグリル401、リアグリル402、窓403、タイヤ404)と重なる注意箇所データは存在しない。
図20は、図19において根拠変換部14が作成した説明候補データを示すテーブルである。このテーブルは図12と同じ形式である。
ここで、図12の場合とは異なり、重なり対象の判定結果は2つの注意箇所データ202a,202bでともに「否」である。注意箇所データ202aは重なる物体が検出されなかったので「否」となり、注意箇所データ202bは車ではない建物410(誤った物体)との重なりが検出されたので「否」となる。
まず、図20の説明候補データは、単体では注意箇所=2,正解箇所=0,間違い箇所=2である。そして、集計部17は、図13の状態(注意箇所=3,正解箇所=3,間違い箇所=0)に、図20の状態を加算することで、図21に示す説明集計情報を作成する。
このように、複数の根拠説明情報を集計することで、判定結果の根拠情報の精度を大まかに把握できる。
さらに、図14に示した表示画面のように、根拠情報に対応する根拠説明情報が人が解るような説明文で表示されるので、非構造化データである画像データに対する分析処理において、ユーザの目視確認作業の負担を軽減することができる。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
10 画像判定部
11 注意箇所抽出部
12 物体認識部
13 認識モデルDB(データベース)
14 根拠変換部
15 説明生成部
16 出力部
17 集計部
101 画像格納部
Claims (5)
- データベースに登録されている各物体の認識モデルが写っている画像データ内の位置情報の認識結果を画像内物体データとする物体認識部と、
画像データを対象とする物体の判定結果の根拠情報としての画像データ内の注意箇所データを受け、前記注意箇所データと前記画像内物体データとを同一平面上にマッピングし、マッピングされた双方のデータの重なりを求める根拠変換部と、
前記注意箇所データと重なる前記画像内物体データについての情報をもとに、各前記注意箇所データの根拠説明情報を生成して出力する説明生成部とを有することを特徴とする
説明支援装置。 - 前記説明生成部は、前記根拠説明情報として、前記注意箇所データごとに重なる前記画像内物体データを示す説明文を生成することを特徴とする
請求項1に記載の説明支援装置。 - 前記データベースには、前記判定結果として認識された物体を構成するパーツごとに、認識モデルが登録されていることを特徴とする
請求項1に記載の説明支援装置。 - 前記説明支援装置は、さらに、前記根拠説明情報の集計結果を計算して出力する集計部を有することを特徴とする
請求項1に記載の説明支援装置。 - 説明支援装置は、物体認識部と、根拠変換部と、説明生成部とを有しており、
前記物体認識部は、データベースに登録されている各物体の認識モデルが写っている画像データ内の位置情報の認識結果を画像内物体データとし、
前記根拠変換部は、画像データを対象とする物体の判定結果の根拠情報としての画像データ内の注意箇所データを受け、前記注意箇所データと前記画像内物体データとを同一平面上にマッピングし、マッピングされた双方のデータの重なりを求め、
前記説明生成部は、前記注意箇所データと重なる前記画像内物体データについての情報をもとに、各前記注意箇所データの根拠説明情報を生成して出力することを特徴とする
説明支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019138154A JP7161979B2 (ja) | 2019-07-26 | 2019-07-26 | 説明支援装置、および、説明支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019138154A JP7161979B2 (ja) | 2019-07-26 | 2019-07-26 | 説明支援装置、および、説明支援方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022159A true JP2021022159A (ja) | 2021-02-18 |
JP7161979B2 JP7161979B2 (ja) | 2022-10-27 |
Family
ID=74573302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019138154A Active JP7161979B2 (ja) | 2019-07-26 | 2019-07-26 | 説明支援装置、および、説明支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7161979B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7092228B1 (ja) * | 2021-03-30 | 2022-06-28 | 沖電気工業株式会社 | 学習装置、学習方法およびプログラム |
WO2023032317A1 (ja) * | 2021-09-02 | 2023-03-09 | ソニーグループ株式会社 | プログラム、情報処理装置、情報処理方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018049655A (ja) * | 2015-09-08 | 2018-03-29 | 日本電気株式会社 | 顔認識装置、顔認識方法、顔認識プログラム、表示制御装置、表示制御方法および表示制御プログラム |
CN108256568A (zh) * | 2018-01-12 | 2018-07-06 | 宁夏智启连山科技有限公司 | 一种植物种类识别方法以及装置 |
JP2019082883A (ja) * | 2017-10-31 | 2019-05-30 | 株式会社デンソー | 推論装置、推論方法及びプログラム |
WO2019130974A1 (ja) * | 2017-12-25 | 2019-07-04 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2019
- 2019-07-26 JP JP2019138154A patent/JP7161979B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018049655A (ja) * | 2015-09-08 | 2018-03-29 | 日本電気株式会社 | 顔認識装置、顔認識方法、顔認識プログラム、表示制御装置、表示制御方法および表示制御プログラム |
JP2019082883A (ja) * | 2017-10-31 | 2019-05-30 | 株式会社デンソー | 推論装置、推論方法及びプログラム |
WO2019130974A1 (ja) * | 2017-12-25 | 2019-07-04 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN108256568A (zh) * | 2018-01-12 | 2018-07-06 | 宁夏智启连山科技有限公司 | 一种植物种类识别方法以及装置 |
Non-Patent Citations (2)
Title |
---|
RAMPRASAATH R. SELVARAJU ET AL.: "Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, JPN6022042845, 22 October 2017 (2017-10-22), US, pages 618 - 626, ISSN: 0004892606 * |
RICCARDO GUIDOTTI ET AL.: "A Survey of Methods for Explaining Black Box Models", ACM COMPUTING SURVEYS, vol. Volume 51, Issue 5, JPN7022004796, 22 August 2018 (2018-08-22), pages 93 - 1, ISSN: 0004892607 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7092228B1 (ja) * | 2021-03-30 | 2022-06-28 | 沖電気工業株式会社 | 学習装置、学習方法およびプログラム |
WO2023032317A1 (ja) * | 2021-09-02 | 2023-03-09 | ソニーグループ株式会社 | プログラム、情報処理装置、情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7161979B2 (ja) | 2022-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107610770B (zh) | 用于自动化诊断的问题生成系统和方法 | |
Lin et al. | What do you see? Evaluation of explainable artificial intelligence (XAI) interpretability through neural backdoors | |
AU2017322386B2 (en) | Updating attribute data structures to indicate joint relationships among attributes and predictive outputs for training automated modeling systems | |
CN112507646B (zh) | 计算机实施的方法 | |
US20150242761A1 (en) | Interactive visualization of machine-learning performance | |
US10482180B2 (en) | Generating ground truth for questions based on data found in structured resources | |
CN111310912B (zh) | 机器学习系统、域变换装置、及机器学习方法 | |
Chen et al. | 3D-equivariant graph neural networks for protein model quality assessment | |
US20160247092A1 (en) | Information processing apparatus, storage medium, and information processing method | |
JP2021022159A (ja) | 説明支援装置、および、説明支援方法 | |
JP2020095398A (ja) | モデルの予測根拠提示システム及びモデルの予測根拠提示方法 | |
Aghamirmohammadali et al. | Modelling of retinal vasculature based on genetically tuned parametric L-system | |
CN109597392A (zh) | 有助于故障诊断的方法、装置和设备以及机器可读介质 | |
CN116467111A (zh) | 根因定位方法、装置、电子设备及存储介质 | |
CN114446393B (zh) | 用于预测肝癌特征类型的方法、电子设备和计算机存储介质 | |
US12100101B2 (en) | Generating 2D mapping using 3D data | |
US12099580B2 (en) | Information processing apparatus, control method for information processing apparatus, and storage medium | |
CN110738318A (zh) | 网络结构运行时间评估及评估模型生成方法、系统和装置 | |
US10318568B2 (en) | Generation of classification data used for classifying documents | |
JP7480920B2 (ja) | 学習装置、推定装置、学習方法、推定方法及びプログラム | |
US10489437B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
WO2023188354A1 (ja) | モデル訓練方法,モデル訓練プログラムおよび情報処理装置 | |
KR102236802B1 (ko) | 진단 모델용 데이터의 특징 추출 장치 및 방법 | |
EP4242987A1 (en) | Pedestrian detection via a boundary cylinder model | |
JP7240252B2 (ja) | ソフトウェア開発文書検索装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7161979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |