JP2019082883A - 推論装置、推論方法及びプログラム - Google Patents
推論装置、推論方法及びプログラム Download PDFInfo
- Publication number
- JP2019082883A JP2019082883A JP2017210178A JP2017210178A JP2019082883A JP 2019082883 A JP2019082883 A JP 2019082883A JP 2017210178 A JP2017210178 A JP 2017210178A JP 2017210178 A JP2017210178 A JP 2017210178A JP 2019082883 A JP2019082883 A JP 2019082883A
- Authority
- JP
- Japan
- Prior art keywords
- inference
- feature
- basis
- feature quantity
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、第1の実施の形態の画像認識装置1の構成を示す図である。画像認識装置1は、入力された画像が、複数のクラスのうちのいずれのクラスに分類されるかを推論する装置である。画像認識装置1は、処理対象の画像を入力する入力部10と、画像のクラスを推論する推論部11と、推論結果を表示して出力する出力部12とを有している。推論部11は、複数の畳み込みニューラルネットワークの層を有する、いわゆるディープラーニングのニューラルネットワークモデルを用いる。一例としては、Alex Krizhevsky他「AlexNet」と称される公知のニューラルネットワークシステムを用いてもよい。ここまでに説明した画像認識装置1の構成は、従来のニューラルネットワークによる推論装置の構成と同じである。
図8は、第2の実施の形態の画像認識装置2の構成を示す図である。第2の実施の形態の画像認識装置2において推論結果に至った説明情報を生成する構成は、第1の実施の形態の画像認識装置1と同じである。第2の実施の形態の画像認識装置2は、根拠特徴量抽出部14にて求めた根拠特徴量のデータを根拠特徴量記憶部18に記憶しておき、根拠特徴量の分析を行う点が構成を備えている。
12・・・出力部、13・・・代表特徴量抽出部、14・・・根拠特徴量抽出部、
15・・・説明情報生成部、16・・・頻出特徴量DB、
17・・・アノテーションDB、18・・・根拠特徴量記憶部、
19・・・クラスタリング部
Claims (15)
- 機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論する推論装置(1)であって、
情報を入力する入力部(10)と、
前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベース(16)と、
入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論する推論部(11)と、
前記推論部(11)における推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出する代表特徴量抽出部(13)と、
前記頻出特徴量データベース(16)から、推論されたクラスに対応する頻出特徴量を読み出し、前記頻出特徴量と前記代表特徴量とに基づいて1または複数の根拠特徴量を抽出する根拠特徴量算出部(14)と、
推論されたクラスと共に前記根拠特徴量を出力する出力部(12)と、
を備える推論装置。 - 前記特徴量を表す概念のデータを記憶したアノテーションデータベース(17)と、
前記アノテーションデータベースから、前記根拠特徴量に対応する概念のデータを読み出して説明情報を生成する説明情報生成部(15)と、
を備え、
前記出力部(12)は、推論されたクラスと共に前記説明情報を出力する請求項1に記載の推論装置。 - 前記入力部(11)は、情報として画像の入力を受け付け、
前記根拠特徴量抽出部(14)は、前記根拠特徴量と共に前記根拠特徴量に対応する前記画像中の受容野のデータを抽出し、
前記出力部(12)は、前記画像において前記根拠特徴量に対応する受容野を前記画像中で特定する表示を行う請求項1または2に記載の推論装置。 - 前記根拠特徴量算出部(14)は、前記受容野のデータを用いて、異なる領域の受容野に関する根拠特徴量を求める請求項3に記載の推論装置。
- 前記出力部(12)は、前記根拠特徴量に対応する前記代表特徴量が強い順に、前記根拠特徴量を並べて表示する請求項1または2に記載の推論装置。
- 前記出力部(12)は、前記根拠特徴量に対応する前記頻出特徴量と前記代表特徴量とに基づいて、前記根拠特徴量を並べて表示する請求項1または2に記載の推論装置。
- 前記アノテーションデータベース(17)には、前記概念のデータに関連付けて属性のデータが記憶されており、
前記根拠特徴量算出部(14)は、前記属性のデータを用いて、異なる属性に関する根拠特徴量を求める請求項2に記載の推論装置。 - 前記出力部(12)は、根拠特徴量の個数が所定の閾値以下の場合に、その旨を出力する請求項1乃至7のいずれかに記載の推論装置。
- 前記根拠特徴量算出部(14)にて算出した前記根拠特徴量のデータをクラスごとに記憶する根拠特徴量記憶部(18)と、
前記根拠特徴量記憶部(18)に記憶された根拠特徴量をクラスタリングするクラスタリング部(19)と、
を備え、
前記出力部(12)は、前記クラスタリング部(19)にて根拠特徴量を分類できた場合に、その旨を出力する請求項1乃至8のいずれかに記載の推論装置。 - 機械学習で生成した推論モデルを用いた推論によって、入力された画像が所定のクラスのいずれに属するかを推論する推論装置(1)であって、
画像を入力する入力部(10)と、
入力された画像がどのクラスに属するかを、前記推論モデルを用いて推論する推論部(11)と、
推論されたクラスと共に、前記画像が前記クラスに属すると判定した根拠となった特徴量を出力する出力部(12)と、
を備える推論装置。 - 前記出力部(12)は、特徴量に対応する概念を表す文言を出力する請求項10に記載の推論装置。
- 前記出力部(12)は、前記特徴量と共に、前記特徴量に対応する受容野を前記画像中で特定する表示を行う請求項10または11に記載の推論装置。
- 前記出力部(12)は、異なる領域の受容野についての根拠特徴量を出力する請求項12に記載の推論装置。
- 推論装置(1)が、機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論する推論方法であって、
前記推論装置(1)が、入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップ(S11)と、
前記推論装置(1)が、推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップ(S12)と、
前記推論装置(1)が、前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベースから、推論されたクラスに対応する頻出特徴量を読み出すステップ(S13)と、
前記推論装置(1)が、前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップ(S14)と、
前記推論装置(1)が、推論されたクラスと共に前記根拠特徴量を出力するステップ(S16)と、
を備える推論方法。 - 機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論するためのプログラムであって、コンピュータに、
入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップと、
推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップと、
前記推論モデルを用いた推論過程において、頻出する頻出特徴量をクラスごとに記憶した頻出特徴量データベースから、推論されたクラスに対応する頻出特徴量を読み出すステップと、
前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップと、
推論されたクラスと共に前記根拠特徴量を出力するステップと、
を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017210178A JP7032623B2 (ja) | 2017-10-31 | 2017-10-31 | 推論装置、推論方法及びプログラム |
PCT/JP2018/032689 WO2019087561A1 (ja) | 2017-10-31 | 2018-09-04 | 推論装置、推論方法、プログラムおよび持続的有形コンピュータ読み取り媒体 |
DE112018005089.0T DE112018005089T5 (de) | 2017-10-31 | 2018-09-04 | Inferenzvorrichtung, Inferenzverfahren, Programm und nicht transitorisches greifbares computerlesbares Medium |
US16/860,843 US11625561B2 (en) | 2017-10-31 | 2020-04-28 | Inference device, inference method, and non-transitory tangible computer-readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017210178A JP7032623B2 (ja) | 2017-10-31 | 2017-10-31 | 推論装置、推論方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019082883A true JP2019082883A (ja) | 2019-05-30 |
JP2019082883A5 JP2019082883A5 (ja) | 2020-05-07 |
JP7032623B2 JP7032623B2 (ja) | 2022-03-09 |
Family
ID=66331662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017210178A Active JP7032623B2 (ja) | 2017-10-31 | 2017-10-31 | 推論装置、推論方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11625561B2 (ja) |
JP (1) | JP7032623B2 (ja) |
DE (1) | DE112018005089T5 (ja) |
WO (1) | WO2019087561A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020035103A (ja) * | 2018-08-28 | 2020-03-05 | 富士通株式会社 | 学習プログラム、画像分類プログラム、学習方法、画像分類方法、学習装置および画像分類装置 |
WO2021020273A1 (ja) * | 2019-07-26 | 2021-02-04 | 国立大学法人横浜国立大学 | 説明生成装置、説明生成方法およびプログラム |
JP2021022159A (ja) * | 2019-07-26 | 2021-02-18 | 株式会社 日立産業制御ソリューションズ | 説明支援装置、および、説明支援方法 |
JP2021105807A (ja) * | 2019-12-26 | 2021-07-26 | 株式会社日立製作所 | 計算機システム及び業務システムの運用環境の解析方法 |
JP2021140396A (ja) * | 2020-03-04 | 2021-09-16 | 株式会社日立製作所 | 推測根拠分析装置及び推測根拠分析方法 |
JP2022035010A (ja) * | 2020-08-20 | 2022-03-04 | 株式会社医療情報技術研究所 | 分類システム |
WO2022065276A1 (ja) | 2020-09-25 | 2022-03-31 | 富士フイルム株式会社 | 構造物の補修支援装置、方法及びプログラム |
WO2022249927A1 (ja) | 2021-05-28 | 2022-12-01 | 株式会社医療情報技術研究所 | 分類システム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021090897A1 (ja) * | 2019-11-08 | 2021-05-14 | ||
FR3113155B1 (fr) * | 2020-07-28 | 2022-11-25 | Adventive | Procédé d’identification d’un implant dentaire visible sur une image d’entrée au moyen d’au moins un réseau de neurones à convolution. |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006043007A (ja) * | 2004-08-02 | 2006-02-16 | Fujitsu Ltd | 診断支援プログラムおよび診断支援装置 |
JP2016114592A (ja) * | 2014-12-12 | 2016-06-23 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4624594B2 (ja) * | 2000-06-28 | 2011-02-02 | パナソニック株式会社 | 物体認識方法および物体認識装置 |
JP4247362B2 (ja) * | 2002-04-15 | 2009-04-02 | グローリー株式会社 | 特徴抽出装置 |
JP2005037992A (ja) * | 2003-07-15 | 2005-02-10 | Seiko Epson Corp | 画像ファイルの分類 |
JP5934653B2 (ja) * | 2010-11-29 | 2016-06-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 |
CN105740842B (zh) * | 2016-03-01 | 2018-10-19 | 浙江工业大学 | 基于快速密度聚类算法的无监督人脸识别方法 |
JP6750307B2 (ja) | 2016-05-27 | 2020-09-02 | 三菱自動車工業株式会社 | 車外給電装置 |
WO2018189795A1 (ja) * | 2017-04-10 | 2018-10-18 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
-
2017
- 2017-10-31 JP JP2017210178A patent/JP7032623B2/ja active Active
-
2018
- 2018-09-04 DE DE112018005089.0T patent/DE112018005089T5/de active Pending
- 2018-09-04 WO PCT/JP2018/032689 patent/WO2019087561A1/ja active Application Filing
-
2020
- 2020-04-28 US US16/860,843 patent/US11625561B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006043007A (ja) * | 2004-08-02 | 2006-02-16 | Fujitsu Ltd | 診断支援プログラムおよび診断支援装置 |
JP2016114592A (ja) * | 2014-12-12 | 2016-06-23 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
Non-Patent Citations (3)
Title |
---|
RIBEIRO, MARCO TULIO ET AL.: "「"Why Should I Trust You?" Explaining the Predictions of Any Classifier」", ARXIV.ORG [オンライン], vol. arXiv:1602.04938v3, JPN6018047885, 9 August 2016 (2016-08-09), US, ISSN: 0004528274 * |
小林 雅幸 ほか: "「進化的条件判断ネットワークの画像分類過程の可視化」", 情報処理学会研究報告 数理モデル化と問題解決(MPS) [オンライン], vol. 第2016-MPS-108巻, 第1号, JPN6018047884, 27 June 2016 (2016-06-27), pages 1 - 7, ISSN: 0004528272 * |
崎津 実穂 ほか: "「決定木および決定ネットワークによる画像分類過程の説明文の自動生成」", 情報処理学会論文誌 数理モデル化と応用(TOM) [オンライン], vol. 第9巻, 第1号, JPN6018047883, 8 February 2016 (2016-02-08), pages 43 - 52, ISSN: 0004528273 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020035103A (ja) * | 2018-08-28 | 2020-03-05 | 富士通株式会社 | 学習プログラム、画像分類プログラム、学習方法、画像分類方法、学習装置および画像分類装置 |
WO2021020273A1 (ja) * | 2019-07-26 | 2021-02-04 | 国立大学法人横浜国立大学 | 説明生成装置、説明生成方法およびプログラム |
JP2021022159A (ja) * | 2019-07-26 | 2021-02-18 | 株式会社 日立産業制御ソリューションズ | 説明支援装置、および、説明支援方法 |
JP2021105807A (ja) * | 2019-12-26 | 2021-07-26 | 株式会社日立製作所 | 計算機システム及び業務システムの運用環境の解析方法 |
JP2021140396A (ja) * | 2020-03-04 | 2021-09-16 | 株式会社日立製作所 | 推測根拠分析装置及び推測根拠分析方法 |
US11544600B2 (en) | 2020-03-04 | 2023-01-03 | Hitachi, Ltd. | Prediction rationale analysis apparatus and prediction rationale analysis method |
JP2022035010A (ja) * | 2020-08-20 | 2022-03-04 | 株式会社医療情報技術研究所 | 分類システム |
WO2022065276A1 (ja) | 2020-09-25 | 2022-03-31 | 富士フイルム株式会社 | 構造物の補修支援装置、方法及びプログラム |
WO2022249927A1 (ja) | 2021-05-28 | 2022-12-01 | 株式会社医療情報技術研究所 | 分類システム |
Also Published As
Publication number | Publication date |
---|---|
WO2019087561A1 (ja) | 2019-05-09 |
DE112018005089T5 (de) | 2020-06-25 |
JP7032623B2 (ja) | 2022-03-09 |
US20200257925A1 (en) | 2020-08-13 |
US11625561B2 (en) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019087561A1 (ja) | 推論装置、推論方法、プログラムおよび持続的有形コンピュータ読み取り媒体 | |
Furnari et al. | Rolling-unrolling lstms for action anticipation from first-person video | |
CN111667049B (zh) | 量化深度学习计算系统对对抗性扰动的脆弱性 | |
Dieber et al. | Why model why? Assessing the strengths and limitations of LIME | |
Jefferson et al. | Fuzzy approach for sentiment analysis | |
Saleem et al. | Explaining deep neural networks: A survey on the global interpretation methods | |
Abdelzad et al. | Detecting out-of-distribution inputs in deep neural networks using an early-layer output | |
Heimerl et al. | Unraveling ml models of emotion with nova: Multi-level explainable ai for non-experts | |
US10949653B2 (en) | Intelligent persona generation | |
Abdulrahman et al. | Comparative study for 8 computational intelligence algorithms for human identification | |
Stathopoulou et al. | On assisting a visual-facial affect recognition system with keyboard-stroke pattern information | |
JP2020109631A (ja) | 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ | |
Dieber et al. | A novel model usability evaluation framework (MUsE) for explainable artificial intelligence | |
Shukla et al. | An Efficient Approach of Face Detection and Prediction of Drowsiness Using SVM | |
CN112016493A (zh) | 图像描述方法、装置、电子设备及存储介质 | |
CN113724898B (zh) | 智能问诊方法、装置、设备及存储介质 | |
Tschaepe | Pragmatic Ethics for Generative Adversarial Networks: Coupling, Cyborgs, and Machine Learning | |
GB2607135A (en) | Method and system for scene graph generation | |
CN114022698A (zh) | 一种基于二叉树结构的多标签行为识别方法及装置 | |
Wang | Interpreting and diagnosing deep learning models: a visual analytics approach | |
WO2016006021A1 (ja) | データ分析装置、データ分析装置の制御方法、およびデータ分析装置の制御プログラム | |
CN111563522A (zh) | 用于识别图像中的干扰的方法和设备 | |
KR20210046178A (ko) | 전자 장치 및 그 제어 방법 | |
Ghori et al. | Automatic Driver Drowsiness Detection System | |
Melo et al. | Experimental Insights Towards Explainable and Interpretable Pedestrian Crossing Prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200403 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7032623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |