JP2019082883A - 推論装置、推論方法及びプログラム - Google Patents

推論装置、推論方法及びプログラム Download PDF

Info

Publication number
JP2019082883A
JP2019082883A JP2017210178A JP2017210178A JP2019082883A JP 2019082883 A JP2019082883 A JP 2019082883A JP 2017210178 A JP2017210178 A JP 2017210178A JP 2017210178 A JP2017210178 A JP 2017210178A JP 2019082883 A JP2019082883 A JP 2019082883A
Authority
JP
Japan
Prior art keywords
inference
feature
basis
feature quantity
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017210178A
Other languages
English (en)
Other versions
JP7032623B2 (ja
JP2019082883A5 (ja
Inventor
洋 桑島
Hiroshi Kuwajima
洋 桑島
正行 田中
Masayuki Tanaka
正行 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Denso Corp
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, National Institute of Advanced Industrial Science and Technology AIST filed Critical Denso Corp
Priority to JP2017210178A priority Critical patent/JP7032623B2/ja
Priority to PCT/JP2018/032689 priority patent/WO2019087561A1/ja
Priority to DE112018005089.0T priority patent/DE112018005089T5/de
Publication of JP2019082883A publication Critical patent/JP2019082883A/ja
Priority to US16/860,843 priority patent/US11625561B2/en
Publication of JP2019082883A5 publication Critical patent/JP2019082883A5/ja
Application granted granted Critical
Publication of JP7032623B2 publication Critical patent/JP7032623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】深層学習を用いた機械学習の過程を説明する推論装置を提供する。【解決手段】画像認識装置1は、ニューラルネットワークによる推論によって、入力された画像が所定のクラスのいずれに属するかを推論する推論装置であって、入力部10と、ニューラルネットワークにおける推論過程において、頻出する頻出特徴量をクラスごとに記憶した頻出特徴量データベース16と、入力された画像がどのクラスに属するかを、ニューラルネットワークによって推論する推論部11と、推論部11における推論過程で現れた特徴量を抽出し、特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出する代表特徴量抽出部13と、頻出特徴量と代表特徴量とに基づいて根拠特徴量を抽出する根拠特徴量抽出部14と、推論されたクラスと共に根拠特徴量を出力する出力部12とを備える。【選択図】図1

Description

本発明は、推論装置、推論方法及びプログラムに関する。
大規模視覚認識チャレンジ(スタンフォード大学が運営するImageNetデータベース)という画像認識コンテストにおいて、深層学習を用いた機械学習システムが圧勝したことを契機として、機械学習システムの研究が盛んに行われている。近年では、機械学習システムは非常に高性能化しており、例えば、セキュリティや自動運転車等へのアプリケーションが検討されている。
しかし、機械学習システムは、認識結果に至った過程がブラックボックス化されているという課題が指摘されている。この課題を解決すべくいくつかの研究がスタートしている(非特許文献1〜4)。
David Gunning、「Explainable Artificial Intelligence (XAI)」、[online] DARPA、[平成29年10月12日検索]、インターネット(URL:https://www.darpa.mil/program/explainable-artificial-intelligence) 「Bosch、『説明可能なディープラーニング』を目指す」、[online] 日経テクノロジーonline、2017/6/9 [平成29年10月12日検索]、インターネット(URL:http://techon.nikkeibp.co.jp/atcl/news/16/060807893/?rt=nocnt) Victor Escorcia1他、「On the Relationship between Visual Attributes and Convolutional Networks」、CVPR2015 1256-1264頁 Lisa Anne Hendricks他、「Generating Visual Explanations」、[online]、[平成29年10月12日検索]、インターネット(URL: https://arxiv.org/pdf/1603.08507.pdf)
本発明は、上記背景に鑑み、機械学習や深層学習を用いた推論の過程を説明する推論装置を提供することを目的とする。
本発明は上記課題を解決するために以下の技術的手段を採用する。特許請求の範囲及びこの項に記載した括弧内の符号は、ひとつの態様として後述する実施の形態に記載の具体的手段との対応関係を示す一例であって、本発明の技術的範囲を限定するものではない。
本発明の推論装置(1)は、機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論する推論装置(1)であって、情報を入力する入力部(10)と、前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベース(16)と、入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論する推論部(11)と、前記推論部(11)における推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出する代表特徴量抽出部(13)と、前記頻出特徴量データベース(16)から、推論されたクラスに対応する頻出特徴量を読み出し、前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出する根拠特徴量抽出部(14)と、推論されたクラスと共に前記根拠特徴量を出力する出力部(12)とを備える。ここで、根拠特徴量とは、入力された情報が所定のクラスに属すると判定された根拠となったと考えられる特徴量である。本発明の構成により、推論を行う過程で現れた代表特徴量と、推論されたクラスの情報が有する頻出特徴量とに基づいて、推論結果を導き出した根拠となる根拠特徴量を求めることができる。
本発明の推論装置(1)は、前記特徴量を表す概念のデータを記憶したアノテーションデータベース(17)と、前記アノテーションデータベース(17)から、前記根拠特徴量に対応する概念のデータを読み出して説明情報を生成する説明情報生成部(15)とを備え、前記出力部(12)は、推論されたクラスと共に前記説明情報を出力してもよい。根拠特徴量に対応する概念のデータに基づいて生成した説明情報を、推論結果であるクラスと共に表示することにより、ユーザが、推論結果に至った根拠を容易に把握できる。
本発明の推論装置(1)において、前記入力部(10)は情報として画像の入力を受け付け、前記根拠特徴量抽出部(14)は、前記根拠特徴量と共に前記根拠特徴量に対応する前記画像中の受容野のデータを抽出し、前記出力部(12)は、前記根拠特徴量に対応する受容野を前記画像中で特定する表示を行ってもよい。このように、根拠特徴量に対応する受容野を画像中で特定する表示を行うことにより、根拠特徴量が画像のどの部分についての特徴を述べたものかを容易に理解でき、推論結果に至った根拠を具体的に把握できる。
本発明の推論装置(1)において、前記根拠特徴量抽出部(14)は、前記受容野のデータを用いて、異なる領域の受容野に関する根拠特徴量を求めてもよい。この構成により、異なる領域の受容野についての根拠特徴量が示されるので、画像を広く捉えて推論がなされたことをユーザに理解させることができる。
本発明の推論装置(1)において、前記出力部(12)は、前記根拠特徴量に対応する前記代表特徴量が強い順に、前記根拠特徴量を並べて表示してもよい。この構成により、推論の根拠として、画像にマッチした特徴量が上位に表示されやすくなる。
本発明の推論装置(1)において、前記出力部(12)は、前記根拠特徴量に対応する前記頻出特徴量と前記代表特徴量の強さに基づいて、前記根拠特徴量を並べて表示してもよい。この構成により、推論されたクラスの画像に頻出する特徴量も用いて根拠特徴量を並べるので、そのクラスによく見られる特徴が上位に表示される。
本発明の推論装置(1)の前記アノテーションデータベース(17)には、前記概念のデータに関連付けて属性のデータが記憶されており、前記根拠特徴量抽出部(14)は、前記属性のデータを用いて、異なる属性に関する根拠特徴量を求めてもよい。この構成により、異なる属性についての根拠特徴量が示されるので、情報を多面的に捉えて推論がなされたことをユーザに理解させることができる。
本発明の推論装置(1)において、前記出力部(12)は、根拠特徴量の個数が所定の閾値以下の場合に、その旨を出力してもよい。根拠特徴量の個数が所定の閾値以下の場合には、推論結果が誤っているおそれがあるが、本発明の構成により、推論結果について注意を促すことができる。
本発明の推論装置(2)は、前記根拠特徴量抽出部(14)にて算出した前記根拠特徴量のデータをクラスごとに記憶する根拠特徴量記憶部(18)と、前記根拠特徴量記憶部(18)に記憶された根拠特徴量をクラスタリングするクラスタリング部(19)とを備え、前記出力部(12)は、前記クラスタリング部(19)にて根拠特徴量を分類できた場合に、その旨を出力してもよい。この構成により、新たなクラスが存在する可能性についての気付きを与えることができる。
本発明の推論装置(1)は、機械学習で生成した推論モデルを用いた推論によって、入力された画像が所定のクラスのいずれに属するかを推論する推論装置(1)であって、画像を入力する入力部(10)と、入力された画像がどのクラスに属するかを、前記推論モデルを用いて推論する推論部(11)と、推論されたクラスと共に、前記画像が前記クラスに属すると判定した根拠となった特徴量を出力する出力部(12)とを備える。ここで、前記出力部(12)は、特徴量に対応する概念を表す文言を出力してもよい。この構成により、推論結果に至った根拠を容易に把握することができる。
本発明の推論装置(1)において、前記出力部(12)は、前記特徴量と共に、前記特徴量に対応する受容野を前記画像中で特定する表示を行ってもよい。この構成により、画像のどの部分についての特徴を述べたものかを容易に理解でき、推論結果に至った根拠を具体的に把握できる。
本発明の推論装置(1)において、前記出力部(12)は、異なる領域の受容野についての根拠特徴量を出力してもよい。この構成により、画像を広く捉えて推論がなされたことをユーザに理解させることができる。
本発明の推論方法は、推論装置(1)が、機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれかに属するかを推論する推論方法であって、前記推論装置(1)が、入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップ(S11)と、前記推論装置(1)が、推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップ(S12)と、前記推論装置(1)が、前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベース(16)から、推論されたクラスに対応する頻出特徴量を読み出すステップ(S13)と、前記推論装置(1)が、前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップ(S14)と、前記推論装置(1)が、推論されたクラスと共に前記根拠特徴量を出力するステップ(S16)とを備える。
本発明のプログラムは、機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれかに属するかを推論するためのプログラムであって、コンピュータに、入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップと、推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップと、前記推論モデルを用いた推論過程において、頻出する頻出特徴量をクラスごとに記憶した頻出特徴量データベースから、推論されたクラスに対応する頻出特徴量を読み出すステップと、前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップと、推論されたクラスと共に前記根拠特徴量を出力するステップとを実行させる。
本発明によれば、推論結果と共に、推論の根拠となった特徴量を出力することができる。
第1の実施の形態の画像認識装置の構成を示す図である。 代表特徴量抽出部と根拠特徴量抽出部による処理の内容を模式的に示す図である。 画像認識結果が「雄鶏」の場合の根拠特徴量の例を示す図である。 アノテーションDBに記憶されたデータの例を示す図である。 認識結果の表示例を示す図である。 頻出特徴量の求め方を模式的に示す図である。 第1の実施の形態の画像認識装置の動作を示す図である。 第2の実施の形態の画像認識装置の構成を示す図である。
以下、本発明の実施の形態の推論装置について図面を参照しながら説明する。以下に説明する実施の形態では、推論装置として、画像を分類するニューラルネットワークの画像認識装置を取り上げて説明するが、本発明の推論装置は、画像認識に限らず、例えば、ニューラルネットワークを用いた音声認識、天気や渋滞の推定等に幅広く適用可能である。また、実施の形態では、機械学習としてニューラルネットワークを用いる例を取り上げるが、本発明の推論装置は、特徴量の強さが分かる機械学習の方法に適用することが可能である。
(第1の実施の形態)
図1は、第1の実施の形態の画像認識装置1の構成を示す図である。画像認識装置1は、入力された画像が、複数のクラスのうちのいずれのクラスに分類されるかを推論する装置である。画像認識装置1は、処理対象の画像を入力する入力部10と、画像のクラスを推論する推論部11と、推論結果を表示して出力する出力部12とを有している。推論部11は、複数の畳み込みニューラルネットワークの層を有する、いわゆるディープラーニングのニューラルネットワークモデルを用いる。一例としては、Alex Krizhevsky他「AlexNet」と称される公知のニューラルネットワークシステムを用いてもよい。ここまでに説明した画像認識装置1の構成は、従来のニューラルネットワークによる推論装置の構成と同じである。
第1の実施の形態の画像認識装置1は、代表特徴量抽出部13と、根拠特徴量抽出部14と、説明情報生成部15とを備えている。代表特徴量抽出部13は、推論部11における推論過程で現れた特徴量を取得し、特徴量から代表特徴量を抽出する機能を有する。好ましい態様としては、ディープラーニングの出力層に最も近い層に現れた特徴量を取得する。ディープラーニングのモデルにおいては、出力層に近くなるにしたがって特徴量の抽象度が高くなるので、出力層に最も近い層に現れた特徴量を取得することで、ユーザが容易に理解できる推論結果に至った根拠を示す理由を適切に表せると考えられるからである。ここでは、出力層に最も近い層に現れた特徴量を取得する例を挙げたが、変形例として、別の層の特徴量を取得してもよい。
根拠特徴量抽出部14は、代表特徴量抽出部13にて抽出した代表特徴量と、頻出特徴量データベース(以下、「頻出特徴量DB」という)16に記憶されたデータとに基づいて、推論部11が推論結果を導くに至った根拠特徴量を抽出する機能を有する。代表特徴量抽出部13と根拠特徴量抽出部14についてさらに詳しく説明する。
図2は、代表特徴量抽出部13と根拠特徴量抽出部14による処理の内容を模式的に示す図である。代表特徴量抽出部13は、推論部11から抽出したCNN(畳込みニューラルネットワーク)の特徴マップから発火特徴量を抽出する。発火特徴量は、活性化したニューロンの特徴量である。
代表特徴量抽出部13は、推論部11のニューラルネットワークモデルの生成に用いられた多数の画像の平均特徴量のデータを有している。例えば、「犬」「馬」「雄鶏」といったクラスが1000クラスあり、各クラスに1300枚の画像が含まれているとすると、130万枚の画像がニューラルネットワークモデルの学習に用いられることになる。この場合、平均特徴量のデータとは、全クラスの130万枚の画像の平均の特徴量である。
代表特徴量抽出部13は、発火特徴量と平均特徴量とを比較して、発火特徴量の中でも特に大きな特徴量を持つ特徴量を抽出する。ここで抽出される特徴量を、本明細書では「代表特徴量」という。代表特徴量であると判定するための条件は、例えば、平均特徴量の2倍以上の大きさを有することである。ここでは、代表特徴量として抽出する条件を平均特徴量の2倍以上としているが、代表特徴量を抽出する条件は、平均特徴量の2倍に限られず、3倍や5倍であってもよい。代表特徴量抽出部13は、抽出した代表特徴量を根拠特徴量抽出部14に渡す。
なお、代表特徴量抽出部13は、推論部11から特徴量のデータを受け取る際に、当該特徴量に対応する受容野のデータを受け取る。受容野のデータとは、本実施の形態のように分析対象が画像の場合には、その特徴量を有する画像中の領域を特定するデータであってもよい。
根拠特徴量抽出部14は、まず、頻出特徴量DB16から、画像の認識結果にかかるクラスの頻出特徴量を読み出す。すなわち、画像認識の結果、入力された画像が、「雄鶏」と判断された場合には、「雄鶏」が持つ頻出特徴量を読み出す。ここで、頻出特徴量とは、そのクラスの画像に頻出する特徴量であり、そのクラスの特性を表す特徴量であるといえる。例えば、「雄鶏」というクラスの頻出特徴量は、「鮮やかな赤」「トゲトゲ」「くちばし」等である。根拠特徴量抽出部14は、代表特徴量と頻出特徴量とに共通する特徴量を根拠特徴量として抽出する。
図3は、画像認識結果が「雄鶏」の場合の根拠特徴量の例を示す図である。図3において左側の集合は、分析対象の画像、すなわち、入力部10より入力された画像で観測された代表特徴量を示す。図3において右側の集合は、「雄鶏」というクラスの画像でよく見られる特徴量、すなわち、「雄鶏」の頻出特徴量を示す。根拠特徴量は、2つの集合の重なる部分である。根拠特徴量抽出部14は、2つの集合の重なり部分の特徴量を根拠特徴量として抽出し、抽出した根拠特徴量を説明情報生成部15に渡す。このとき、根拠特徴量抽出部14は、根拠特徴量に対応する受容野のデータを説明情報生成部15に渡す。
図1に戻って、画像認識装置1の説明を続ける。説明情報生成部15は、根拠特徴量抽出部14から根拠特徴量を受け取ると、アノテーションデータベース(以下、「アノテーションDB」という)17のデータから、根拠特徴量に対応する概念データを読み出して、説明情報を生成する。
図4は、アノテーションDB17に記憶されたデータの例を示す図である。アノテーションDB17には、特徴量を特定する識別番号と、その特徴量に対応する概念のデータが関連付けて記憶されている。例えば、特徴量の識別番号「#1」には「空」という概念データが関連付けられている。また、特徴量の識別番号「#2」には「突起物」「凹凸」という2つの概念データが関連付けられている。このように1つの特徴量に対して複数の概念データが関連付けられている場合もある。また、逆に、特徴量の「#4」「#5」には、いずれも「草原」という概念データが関連付けられている。このように複数の記号が1つの概念に対応している場合もある。
説明情報生成部15は、根拠特徴量の識別番号に対応する概念データを、アノテーションDB17から読み出し、読み出した概念データを用いて、推論結果に至った根拠を説明する文を生成する。例えば、識別番号「#1」「#4」「#9」の根拠特徴量から、「空」「草原」「小動物」という概念データを読み出した場合には、「この画像は、〇〇である。なぜならば、『空』と『草原』と『小動物』が含まれているからである。」といった説明文を生成する。例えば、識別番号「#2」「#7」のように一つの根拠特徴量に対して、複数の概念データが関連付けられている場合には、複数の概念を、「または」で接続した説明文を生成する。例えば、「この画像は、〇〇である。なぜならば、『突起物』または『凹凸』と、『しましま』または『ギザギザ』が含まれているからである。」という説明文を生成する。なお、ここで示した説明情報の表現方法は一例であり、概念データを表現する方法は、提示される状況や提示される対象者の属性等に応じて、適宜に変更してもよい。また、例えば、概念ごとに箇条書きにして、視認性を高めることも考えられる。説明情報生成部15は、生成した説明情報と、説明情報に対応する受容野のデータを出力部12に渡す。
なお、説明情報生成部15は、代表特徴量と頻出特徴量で共通する特徴量が多数ある場合には、出力部12に表示する説明情報の個数(例えば3つ)に合わせて、説明情報に用いる根拠特徴量を選択する。本実施の形態では、説明情報生成部15は、共通する特徴量の中で、代表特徴量の大きい方から所定の個数の根拠特徴量を選択する。
出力部12は、推論部11にて推論された画像の認識結果と、説明情報生成部15にて生成された説明情報とを合わせて画面上に表示する。
図5は、出力部12にて、画面上に表示された認識結果の例を示す図である。図5に示すように、認識結果の出力画面においては、画面のほぼ中央に大きく認識対象の画像D1が表示され、その上に認識結果D2、画像D1の下に、認識結果に至った根拠となる説明情報D3が表示されている。
また、認識対象の画像D1の右側に、3つの画像D4〜D6が表示されている。これらの画像D4〜D6は、説明情報に対応する受容野を示す画像であり、マスクがかかっていない部分が受容野である。例えば、一番上の画像D4は、「タイヤまたは物の端っこ」が含まれているという説明情報に対応し、そのように判断される画像中の領域を示している。3つの画像D4〜D6は、根拠特徴量の強い順に上から並べることが好ましい。ここでは、根拠特徴量の強さとして、代表特徴量の強さを用いる。このように、画像認識装置1は、認識対象の画像D1の認識結果D2を示すのみならず、その認識結果D2の根拠D3,D4〜D6を表示する。
ここで、頻出特徴量DB16に記憶する頻出特徴量データの生成の仕方について説明する。図6は、頻出特徴量の求め方を模式的に示す図である。ここでは、「犬」の頻出特徴量を求める例を挙げている。クラスごとの頻出特徴量を求めるときには、推論部11で用いられるニューラルネットワークの学習に使った画像(上で説明した例では、クラスの情報を有する130万枚の画像)を用いる。
「犬」のクラスが付された全画像について、発火特徴量と平均特徴量とを比較し、上述した代表特徴量抽出部13にて説明した方法と同じ方法で代表特徴量を求める。「犬」のクラスについて計算を行うためには、図6に示すように、画像に付与されたラベルが「犬」の場合に、その特徴量に対して「1」を乗じ、それ以外の場合には「0」を乗じる処理を行なえばよい。以上の処理により、「犬」のクラスの画像のそれぞれについて、特徴量(例えば、256個の特徴量)のうち、代表特徴量と判定される特徴量を求めることができる。
次に、特徴量(例えば、256個の特徴量)のそれぞれが、「犬」のクラスの全画像のうちの、いくつの画像において代表特徴量として判定されたかをカウントする。このようにして求めたカウント数から、例えば、多い方から5つの特徴量を頻出特徴量として求める。
なお、頻出特徴量を求める際にも、代表特徴量抽出部13にて説明した方法と同様に代表特徴量を判定しているのは、単に、特徴量の大きさだけを基準として頻出特徴量を求めると、クラスにかかわらず頻出する特徴量を、「犬」のクラスの特徴量と判断してしまう可能性があるためである。
以上、本実施の形態の画像認識装置1の構成について説明したが、上記した画像認識装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたコンピュータである。上記した各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した画像認識装置1が実現される。このようなプログラムも本発明の範囲に含まれる。
図7は、第1の実施の形態の画像認識装置1の動作を示すフローチャートである。第1の実施の形態の画像認識装置1は、入力部10にて認識対象の画像の入力を受け付ける(S10)。画像認識装置1は、推論部11を動作させて推論を行い、画像がどのクラスに属するのかの画像認識を行い(S11)、その認識結果を出力部12に渡す。
画像認識装置1の代表特徴量抽出部13は、推論部11より、推論過程において現れた特徴量を取得し、取得した特徴量の中から代表特徴量を抽出する(S12)。代表特徴量抽出部13は、平均特徴量の2倍以上の大きさを有する特徴量を代表特徴量として抽出する。代表特徴量抽出部13は、抽出した代表特徴量のデータを根拠特徴量抽出部14に渡す。
次に、画像認識装置1の根拠特徴量抽出部14は、推論部11にて推論されたクラスに対応する頻出特徴量を読み出し(S13)、頻出特徴量と代表特徴量とで共通する特徴量を根拠特徴量として抽出する(S14)。根拠特徴量抽出部14は、求めた根拠特徴量のデータを説明情報生成部15に渡す。画像認識装置1の説明情報生成部15は、根拠特徴量に対応する概念データをアノテーションDB17から読み出し、説明情報を生成し(S15)、生成した説明情報を出力部12に渡す。出力部12は、推論部11から受け取った推論結果と、説明情報生成部15にて生成された説明情報とを出力する(S16)。
以上、第1の実施の形態の画像認識装置1の構成および動作について説明した。第1の実施の形態の画像認識装置1は、実際の推論の過程で現れた特徴量に基づいて生成された説明情報を表示するので、推論過程がブラックボックスであるというニューラルネットワークの課題を解決できる。
また、第1の実施の形態の画像認識装置1は、説明情報に対応する画像の領域を表示するので、説明情報が画像のどの部分のことを説明したものかを把握することができ、推論の根拠を容易に理解できる。
なお、第1の実施の形態の画像認識装置1は、推論結果に至った根拠と考えられる説明情報を出力するが、推論結果が正しいにもかかわらず、説明情報が推論結果とマッチしていない場合には、得られた説明情報をもとにニューラルネットワークの再学習を行うというユースケースも考えられる。推論結果とマッチしない説明情報に類似する状況の画像を用いてニューラルネットワークを学習することにより、これまでになかったタイプの画像についての推論精度を高めることができる。
第1の実施の形態の画像認識装置1の変形例として、説明情報として表示される推論の根拠特徴量を、受容野が異なる領域となるように選択してもよい。すなわち、出力部12に表示する根拠特徴量を選択する際に、単に、特徴量の大きさで選択するのではなく、同じ受容野について根拠特徴量を選択しないように処理を行う。これにより、画像中の異なる領域についての根拠が表示されることになるので、推論の根拠に対する納得感が高まる。
(第2の実施の形態)
図8は、第2の実施の形態の画像認識装置2の構成を示す図である。第2の実施の形態の画像認識装置2において推論結果に至った説明情報を生成する構成は、第1の実施の形態の画像認識装置1と同じである。第2の実施の形態の画像認識装置2は、根拠特徴量抽出部14にて求めた根拠特徴量のデータを根拠特徴量記憶部18に記憶しておき、根拠特徴量の分析を行う点が構成を備えている。
根拠特徴量記憶部18には、推論によって求められたクラスごとに、根拠特徴量のデータが記憶される。所定のクラス(例えば、「犬」)について、所定数の推論結果のデータが集まったら、クラスタリング部19は、根拠特徴量のクラスタリングを行う。これにより、根拠特徴量が、複数のクラスタ(例えば2つのクラスタ)に分類された場合には、そのクラスタのデータを出力部12に渡し、出力部12がクラスタリングの結果を表示する。
これにより、それまで1つのクラスとして扱っていたクラスが、実は複数のクラスに分類できる可能性があるという気付きが得られる。例えば、それまでは「犬」という1つのクラスで扱っていたものが、「小型犬」「大型犬」の2つのクラスに分類できる可能性を知らせることができる。
以上、本発明の推論装置について、画像認識装置1,2を例として説明したが、本発明の推論装置は、上記した実施の形態に限定されるものではない。
上記した実施の形態では、説明情報生成部15を備えた画像認識装置1,2を例として説明したが、説明情報生成部15は必須ではなく、根拠特徴量抽出部14にて抽出した根拠特徴量の識別番号を出力することとしてもよい。根拠特徴量の識別番号が出力されれば、その識別番号を用いて、後から推論過程を評価することが可能となる。
また、上記した実施の形態の画像認識装置1,2において、説明情報を選択する際に、異なる属性に関する説明情報を選択してもよい。ここで属性とは、例えば、色に関する属性、形状に関する属性、質感に関する属性、動物/無生物等のカテゴリに関する属性等である。同じ属性についての説明情報を並べるより、異なる属性の説明情報を表示する方が、推論の根拠を見たユーザの納得感が高まる。
このように異なる属性の説明情報を出力するための構成としては、例えば、次の構成が考えられる。頻出特徴量DB16に、概念データに関連づけて属性のデータを記憶しておく。根拠特徴量抽出部14は、頻出特徴量と代表特徴量とに共通する根拠特徴量を抽出した後、代表特徴量の大きい順に、説明情報として用いるべき根拠特徴量を選択する際に、既に選択した根拠特徴量と同じ属性を有する根拠特徴量を選択しないこととする。例えば、代表特徴量の1位が「鮮やかな赤」(色に関する属性)、2位が「黒」(色に関する属性)、3位が「ギザギザ」(形状に関する属性)である場合には、2位の「黒」は1位の「鮮やかな赤」と同じ色に関する属性なので説明情報として選択せず、3位の「ギザギザ」を選択する。
また、上記した実施の形態の画像認識装置1,2において、根拠特徴量の個数が所定の閾値以下(例えば2個以下)の場合に、出力部12によってその旨を出力してもよい。根拠特徴量の個数が少ない場合には、推論結果が誤りであるか、または、推論結果が正しいがその推論過程に頻出特徴量があまり現れていない特殊なケースである等の状況が考えられる。このように根拠特徴量の個数が少ない旨の出力がなされることにより、ユーザは推論結果が本当に正しいのか、注意することができる。なお、所定の閾値は、クラスごとに変動する値であってもよい。クラスによっては、頻出特徴量が少ないこともあり、その場合には根拠特徴量の個数が少なくても正常であるからである。
上記した実施の形態において頻出特徴量DB16の生成の仕方について説明した。その中で各画像について、発火特徴量と平均特徴量とを比較して代表特徴量を求め、これらの総和を求める例を挙げたが、先に、「犬」のクラスの全画像の特徴量を加算し、加算した結果と平均特徴量とを比較することとしてもよい。このような処理を行うことにより、頻出特徴量の強さのデータを持つことができる。
このように頻出特徴量の強さのデータを有することにより、上記した実施の形態において、説明情報を並べて表示する際に、頻出特徴量の強さのデータをも用いて、説明情報を並べることができる。例えば、根拠特徴量に対応する代表特徴量の強さと頻出特徴量の強さに基づいて、例えば、両方の特徴量の合計が高い順に、説明情報(根拠特徴量)を並べて表示してもよい。
上記した実施の形態では、機械学習の一例としてニューラルネットワークを取り上げたが、本発明は特徴量の強さが分かる機械学習に適用することができる。例えば、非線形カーネルを用いた非線形SVM(Support Vector Machine)やロジスティック回帰を用いた推論においても、推論結果が得られた理由を、その推論過程で出てくる特徴量に基づいて求めることができる。これらの推論では、別の手法で計算された特徴量を入力として用いるので、以下のようにして根拠特徴量を求めることができる。まず、入力データそのものやHOGやSIFT等の特徴抽出アルゴリズムによって得られる特徴ベクトルにおいて、頻出する特徴量を頻出特徴量として求めておく。次に、入力された情報についても、上記と同様のアルゴリズムを用いてその特徴量を求め、求めた特徴量のうち所定の条件を満たす特徴量を代表特徴量として用いる。これにより、両者に共通する特徴量を根拠特徴量として求めることができる。
本発明の推論装置の1つのユースケースとして、自動運転車への適用が考えられる。自動運転車が各種のセンサ情報に基づいて運転行動を決定する推論過程から根拠特徴量を求め、根拠特徴量に対応する説明情報を継続的に記録しておく構成を採用することにより、自動運転車が所定の運転行動をとった理由を把握できる。これにより、自動運転車が事故を起こしたときのデバッグに活用することができる。
1、2・・・画像認識装置、10・・・入力部、11・・・推論部、
12・・・出力部、13・・・代表特徴量抽出部、14・・・根拠特徴量抽出部、
15・・・説明情報生成部、16・・・頻出特徴量DB、
17・・・アノテーションDB、18・・・根拠特徴量記憶部、
19・・・クラスタリング部

Claims (15)

  1. 機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論する推論装置(1)であって、
    情報を入力する入力部(10)と、
    前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベース(16)と、
    入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論する推論部(11)と、
    前記推論部(11)における推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出する代表特徴量抽出部(13)と、
    前記頻出特徴量データベース(16)から、推論されたクラスに対応する頻出特徴量を読み出し、前記頻出特徴量と前記代表特徴量とに基づいて1または複数の根拠特徴量を抽出する根拠特徴量算出部(14)と、
    推論されたクラスと共に前記根拠特徴量を出力する出力部(12)と、
    を備える推論装置。
  2. 前記特徴量を表す概念のデータを記憶したアノテーションデータベース(17)と、
    前記アノテーションデータベースから、前記根拠特徴量に対応する概念のデータを読み出して説明情報を生成する説明情報生成部(15)と、
    を備え、
    前記出力部(12)は、推論されたクラスと共に前記説明情報を出力する請求項1に記載の推論装置。
  3. 前記入力部(11)は、情報として画像の入力を受け付け、
    前記根拠特徴量抽出部(14)は、前記根拠特徴量と共に前記根拠特徴量に対応する前記画像中の受容野のデータを抽出し、
    前記出力部(12)は、前記画像において前記根拠特徴量に対応する受容野を前記画像中で特定する表示を行う請求項1または2に記載の推論装置。
  4. 前記根拠特徴量算出部(14)は、前記受容野のデータを用いて、異なる領域の受容野に関する根拠特徴量を求める請求項3に記載の推論装置。
  5. 前記出力部(12)は、前記根拠特徴量に対応する前記代表特徴量が強い順に、前記根拠特徴量を並べて表示する請求項1または2に記載の推論装置。
  6. 前記出力部(12)は、前記根拠特徴量に対応する前記頻出特徴量と前記代表特徴量とに基づいて、前記根拠特徴量を並べて表示する請求項1または2に記載の推論装置。
  7. 前記アノテーションデータベース(17)には、前記概念のデータに関連付けて属性のデータが記憶されており、
    前記根拠特徴量算出部(14)は、前記属性のデータを用いて、異なる属性に関する根拠特徴量を求める請求項2に記載の推論装置。
  8. 前記出力部(12)は、根拠特徴量の個数が所定の閾値以下の場合に、その旨を出力する請求項1乃至7のいずれかに記載の推論装置。
  9. 前記根拠特徴量算出部(14)にて算出した前記根拠特徴量のデータをクラスごとに記憶する根拠特徴量記憶部(18)と、
    前記根拠特徴量記憶部(18)に記憶された根拠特徴量をクラスタリングするクラスタリング部(19)と、
    を備え、
    前記出力部(12)は、前記クラスタリング部(19)にて根拠特徴量を分類できた場合に、その旨を出力する請求項1乃至8のいずれかに記載の推論装置。
  10. 機械学習で生成した推論モデルを用いた推論によって、入力された画像が所定のクラスのいずれに属するかを推論する推論装置(1)であって、
    画像を入力する入力部(10)と、
    入力された画像がどのクラスに属するかを、前記推論モデルを用いて推論する推論部(11)と、
    推論されたクラスと共に、前記画像が前記クラスに属すると判定した根拠となった特徴量を出力する出力部(12)と、
    を備える推論装置。
  11. 前記出力部(12)は、特徴量に対応する概念を表す文言を出力する請求項10に記載の推論装置。
  12. 前記出力部(12)は、前記特徴量と共に、前記特徴量に対応する受容野を前記画像中で特定する表示を行う請求項10または11に記載の推論装置。
  13. 前記出力部(12)は、異なる領域の受容野についての根拠特徴量を出力する請求項12に記載の推論装置。
  14. 推論装置(1)が、機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論する推論方法であって、
    前記推論装置(1)が、入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップ(S11)と、
    前記推論装置(1)が、推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップ(S12)と、
    前記推論装置(1)が、前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベースから、推論されたクラスに対応する頻出特徴量を読み出すステップ(S13)と、
    前記推論装置(1)が、前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップ(S14)と、
    前記推論装置(1)が、推論されたクラスと共に前記根拠特徴量を出力するステップ(S16)と、
    を備える推論方法。
  15. 機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論するためのプログラムであって、コンピュータに、
    入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップと、
    推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップと、
    前記推論モデルを用いた推論過程において、頻出する頻出特徴量をクラスごとに記憶した頻出特徴量データベースから、推論されたクラスに対応する頻出特徴量を読み出すステップと、
    前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップと、
    推論されたクラスと共に前記根拠特徴量を出力するステップと、
    を実行させるプログラム。
JP2017210178A 2017-10-31 2017-10-31 推論装置、推論方法及びプログラム Active JP7032623B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017210178A JP7032623B2 (ja) 2017-10-31 2017-10-31 推論装置、推論方法及びプログラム
PCT/JP2018/032689 WO2019087561A1 (ja) 2017-10-31 2018-09-04 推論装置、推論方法、プログラムおよび持続的有形コンピュータ読み取り媒体
DE112018005089.0T DE112018005089T5 (de) 2017-10-31 2018-09-04 Inferenzvorrichtung, Inferenzverfahren, Programm und nicht transitorisches greifbares computerlesbares Medium
US16/860,843 US11625561B2 (en) 2017-10-31 2020-04-28 Inference device, inference method, and non-transitory tangible computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017210178A JP7032623B2 (ja) 2017-10-31 2017-10-31 推論装置、推論方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2019082883A true JP2019082883A (ja) 2019-05-30
JP2019082883A5 JP2019082883A5 (ja) 2020-05-07
JP7032623B2 JP7032623B2 (ja) 2022-03-09

Family

ID=66331662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017210178A Active JP7032623B2 (ja) 2017-10-31 2017-10-31 推論装置、推論方法及びプログラム

Country Status (4)

Country Link
US (1) US11625561B2 (ja)
JP (1) JP7032623B2 (ja)
DE (1) DE112018005089T5 (ja)
WO (1) WO2019087561A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035103A (ja) * 2018-08-28 2020-03-05 富士通株式会社 学習プログラム、画像分類プログラム、学習方法、画像分類方法、学習装置および画像分類装置
WO2021020273A1 (ja) * 2019-07-26 2021-02-04 国立大学法人横浜国立大学 説明生成装置、説明生成方法およびプログラム
JP2021022159A (ja) * 2019-07-26 2021-02-18 株式会社 日立産業制御ソリューションズ 説明支援装置、および、説明支援方法
JP2021105807A (ja) * 2019-12-26 2021-07-26 株式会社日立製作所 計算機システム及び業務システムの運用環境の解析方法
JP2021140396A (ja) * 2020-03-04 2021-09-16 株式会社日立製作所 推測根拠分析装置及び推測根拠分析方法
JP2022035010A (ja) * 2020-08-20 2022-03-04 株式会社医療情報技術研究所 分類システム
WO2022065276A1 (ja) 2020-09-25 2022-03-31 富士フイルム株式会社 構造物の補修支援装置、方法及びプログラム
WO2022249927A1 (ja) 2021-05-28 2022-12-01 株式会社医療情報技術研究所 分類システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021090897A1 (ja) * 2019-11-08 2021-05-14
FR3113155B1 (fr) * 2020-07-28 2022-11-25 Adventive Procédé d’identification d’un implant dentaire visible sur une image d’entrée au moyen d’au moins un réseau de neurones à convolution.

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043007A (ja) * 2004-08-02 2006-02-16 Fujitsu Ltd 診断支援プログラムおよび診断支援装置
JP2016114592A (ja) * 2014-12-12 2016-06-23 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624594B2 (ja) * 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
JP4247362B2 (ja) * 2002-04-15 2009-04-02 グローリー株式会社 特徴抽出装置
JP2005037992A (ja) * 2003-07-15 2005-02-10 Seiko Epson Corp 画像ファイルの分類
JP5934653B2 (ja) * 2010-11-29 2016-06-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
CN105740842B (zh) * 2016-03-01 2018-10-19 浙江工业大学 基于快速密度聚类算法的无监督人脸识别方法
JP6750307B2 (ja) 2016-05-27 2020-09-02 三菱自動車工業株式会社 車外給電装置
WO2018189795A1 (ja) * 2017-04-10 2018-10-18 富士通株式会社 認識装置、認識方法および認識プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043007A (ja) * 2004-08-02 2006-02-16 Fujitsu Ltd 診断支援プログラムおよび診断支援装置
JP2016114592A (ja) * 2014-12-12 2016-06-23 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
RIBEIRO, MARCO TULIO ET AL.: "「"Why Should I Trust You?" Explaining the Predictions of Any Classifier」", ARXIV.ORG [オンライン], vol. arXiv:1602.04938v3, JPN6018047885, 9 August 2016 (2016-08-09), US, ISSN: 0004528274 *
小林 雅幸 ほか: "「進化的条件判断ネットワークの画像分類過程の可視化」", 情報処理学会研究報告 数理モデル化と問題解決(MPS) [オンライン], vol. 第2016-MPS-108巻, 第1号, JPN6018047884, 27 June 2016 (2016-06-27), pages 1 - 7, ISSN: 0004528272 *
崎津 実穂 ほか: "「決定木および決定ネットワークによる画像分類過程の説明文の自動生成」", 情報処理学会論文誌 数理モデル化と応用(TOM) [オンライン], vol. 第9巻, 第1号, JPN6018047883, 8 February 2016 (2016-02-08), pages 43 - 52, ISSN: 0004528273 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035103A (ja) * 2018-08-28 2020-03-05 富士通株式会社 学習プログラム、画像分類プログラム、学習方法、画像分類方法、学習装置および画像分類装置
WO2021020273A1 (ja) * 2019-07-26 2021-02-04 国立大学法人横浜国立大学 説明生成装置、説明生成方法およびプログラム
JP2021022159A (ja) * 2019-07-26 2021-02-18 株式会社 日立産業制御ソリューションズ 説明支援装置、および、説明支援方法
JP2021105807A (ja) * 2019-12-26 2021-07-26 株式会社日立製作所 計算機システム及び業務システムの運用環境の解析方法
JP2021140396A (ja) * 2020-03-04 2021-09-16 株式会社日立製作所 推測根拠分析装置及び推測根拠分析方法
US11544600B2 (en) 2020-03-04 2023-01-03 Hitachi, Ltd. Prediction rationale analysis apparatus and prediction rationale analysis method
JP2022035010A (ja) * 2020-08-20 2022-03-04 株式会社医療情報技術研究所 分類システム
WO2022065276A1 (ja) 2020-09-25 2022-03-31 富士フイルム株式会社 構造物の補修支援装置、方法及びプログラム
WO2022249927A1 (ja) 2021-05-28 2022-12-01 株式会社医療情報技術研究所 分類システム

Also Published As

Publication number Publication date
WO2019087561A1 (ja) 2019-05-09
DE112018005089T5 (de) 2020-06-25
JP7032623B2 (ja) 2022-03-09
US20200257925A1 (en) 2020-08-13
US11625561B2 (en) 2023-04-11

Similar Documents

Publication Publication Date Title
WO2019087561A1 (ja) 推論装置、推論方法、プログラムおよび持続的有形コンピュータ読み取り媒体
Furnari et al. Rolling-unrolling lstms for action anticipation from first-person video
CN111667049B (zh) 量化深度学习计算系统对对抗性扰动的脆弱性
Dieber et al. Why model why? Assessing the strengths and limitations of LIME
Jefferson et al. Fuzzy approach for sentiment analysis
Saleem et al. Explaining deep neural networks: A survey on the global interpretation methods
Abdelzad et al. Detecting out-of-distribution inputs in deep neural networks using an early-layer output
Heimerl et al. Unraveling ml models of emotion with nova: Multi-level explainable ai for non-experts
US10949653B2 (en) Intelligent persona generation
Abdulrahman et al. Comparative study for 8 computational intelligence algorithms for human identification
Stathopoulou et al. On assisting a visual-facial affect recognition system with keyboard-stroke pattern information
JP2020109631A (ja) 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ
Dieber et al. A novel model usability evaluation framework (MUsE) for explainable artificial intelligence
Shukla et al. An Efficient Approach of Face Detection and Prediction of Drowsiness Using SVM
CN112016493A (zh) 图像描述方法、装置、电子设备及存储介质
CN113724898B (zh) 智能问诊方法、装置、设备及存储介质
Tschaepe Pragmatic Ethics for Generative Adversarial Networks: Coupling, Cyborgs, and Machine Learning
GB2607135A (en) Method and system for scene graph generation
CN114022698A (zh) 一种基于二叉树结构的多标签行为识别方法及装置
Wang Interpreting and diagnosing deep learning models: a visual analytics approach
WO2016006021A1 (ja) データ分析装置、データ分析装置の制御方法、およびデータ分析装置の制御プログラム
CN111563522A (zh) 用于识别图像中的干扰的方法和设备
KR20210046178A (ko) 전자 장치 및 그 제어 방법
Ghori et al. Automatic Driver Drowsiness Detection System
Melo et al. Experimental Insights Towards Explainable and Interpretable Pedestrian Crossing Prediction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220204

R150 Certificate of patent or registration of utility model

Ref document number: 7032623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150