JP7322358B2 - 情報処理プログラム、情報処理方法、及び情報処理装置 - Google Patents
情報処理プログラム、情報処理方法、及び情報処理装置 Download PDFInfo
- Publication number
- JP7322358B2 JP7322358B2 JP2020014107A JP2020014107A JP7322358B2 JP 7322358 B2 JP7322358 B2 JP 7322358B2 JP 2020014107 A JP2020014107 A JP 2020014107A JP 2020014107 A JP2020014107 A JP 2020014107A JP 7322358 B2 JP7322358 B2 JP 7322358B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- image
- index value
- unit
- pixels corresponding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30044—Fetus; Embryo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
〔1-1〕比較例
まず、一実施形態の比較例について説明する。図1及び図2は、それぞれ、比較例に係る異常検知処理を説明するための図である。
図4は、一実施形態に係る情報処理装置1による情報処理のうちの学習処理の一例を説明するための図である。なお、以下の説明では、「対象物」は、例えば、釘等の物体であるものとする。また、「画像」は、対象物及び背景を含む画像であるものとする。
以下の説明では、情報処理装置1による判定処理が、超音波画像診断における胎児心臓の心室中隔と呼ばれる部位の異常検知に利用される場合を例に挙げる。
(B)超音波画像内における心室中隔の位置がプローブの操作に応じて変化する。
(C)心室中隔に異常がある場合、心室中隔の形状が大きく変形する。
次に、図18及び図19を参照して、上述の如く構成されたサーバ10の動作例を説明する。
図18は、物体検知部12及びセグメンテーション部13の学習フェーズの動作例を説明するためのフローチャートである。
図19は、物体検知部12及びセグメンテーション部13の判定フェーズの動作例を説明するためのフローチャートである。
図20は、情報処理装置1及びサーバ10の機能を実現するコンピュータ20のハードウェア(HW)構成例を示すブロック図である。情報処理装置1及びサーバ10の機能を実現するHWリソースとして、複数のコンピュータが用いられる場合は、各コンピュータが図20に例示するHW構成を備えてよい。
上述した一実施形態に係る技術は、以下のように変形、変更して実施することができる。
以上の実施形態に関し、さらに以下の付記を開示する。
訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
処理をコンピュータに実行させ、
訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
情報処理プログラム。
前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
付記1に記載の情報処理プログラム。
前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出し、
算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する、
処理を前記コンピュータに実行させる、
付記1又は付記2に記載の情報処理プログラム。
前記判定処理において、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
処理を前記コンピュータに実行させる、
付記3に記載の情報処理プログラム。
前記判定処理において、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
処理を前記コンピュータに実行させる、
付記1~付記4のいずれか1項に記載の情報処理プログラム。
前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
付記1~付記5のいずれか1項に記載の情報処理プログラム。
訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
処理をコンピュータが実行し、
訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
情報処理方法。
前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
付記7に記載の情報処理方法。
前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出し、
算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する、
処理を前記コンピュータが実行する、
付記7又は付記8に記載の情報処理方法。
前記判定処理において、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
処理を前記コンピュータが実行する、
付記9に記載の情報処理方法。
前記判定処理において、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
処理を前記コンピュータが実行する、
付記7~付記10のいずれか1項に記載の情報処理方法。
前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
付記7~付記11のいずれか1項に記載の情報処理方法。
訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得する取得部と、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練する訓練実行部と、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する第1指標値算出部と、
判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理を実行する、判定処理部と、
を備える情報処理装置。
前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
付記13に記載の情報処理装置。
前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出する算出部と、
算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する閾値算出部と、を備える、
付記13又は付記14に記載の情報処理装置。
前記判定処理部は、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
付記15に記載の情報処理装置。
前記判定処理部は、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
付記13~付記16のいずれか1項に記載の情報処理装置。
前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
付記13~付記17のいずれか1項に記載の情報処理装置。
2、110 訓練データ
3 学習実行部
4、12 物体検知部
5、13 セグメンテーション部
6、21、111、114 画像
6a、6b、21a、111a、114a 対象物
7、8 推定結果
7a、7b、22a、112a、120a 矩形領域
8a、8b、23a、113a、130a ピクセル
9 判定処理部
10 サーバ
11 メモリ部
11a モデル情報
11b 訓練データセット
11c 入力データ
11d 出力データ
12a 検知画像
13a セグメンテーション画像
14 取得部
15 学習部
16 閾値算出部
17 実行部
17a 合成画像
18 判定部
19 出力部
20 コンピュータ
22、112 第1アノテーション画像
23、113 第2アノテーション画像
115 出力画像
116 メッセージ
Claims (8)
- 訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
処理をコンピュータに実行させ、
訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
情報処理プログラム。 - 前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
請求項1に記載の情報処理プログラム。 - 前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出し、
算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する、
処理を前記コンピュータに実行させる、
請求項1又は請求項2に記載の情報処理プログラム。 - 前記判定処理において、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
処理を前記コンピュータに実行させる、
請求項3に記載の情報処理プログラム。 - 前記判定処理において、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
処理を前記コンピュータに実行させる、
請求項1~請求項4のいずれか1項に記載の情報処理プログラム。 - 前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
請求項1~請求項5のいずれか1項に記載の情報処理プログラム。 - 訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
処理をコンピュータが実行し、
訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
情報処理方法。 - 訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得する取得部と、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練する訓練実行部と、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する第1指標値算出部と、
判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理を実行する、判定処理部と、
を備える情報処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020014107A JP7322358B2 (ja) | 2020-01-30 | 2020-01-30 | 情報処理プログラム、情報処理方法、及び情報処理装置 |
EP21150700.9A EP3859607B1 (en) | 2020-01-30 | 2021-01-08 | Information processing program, method for processing information, and information processing apparatus |
US17/144,162 US11508064B2 (en) | 2020-01-30 | 2021-01-08 | Computer-readable recording medium having stored therein information processing program, method for processing information, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020014107A JP7322358B2 (ja) | 2020-01-30 | 2020-01-30 | 情報処理プログラム、情報処理方法、及び情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021120816A JP2021120816A (ja) | 2021-08-19 |
JP7322358B2 true JP7322358B2 (ja) | 2023-08-08 |
Family
ID=74125084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020014107A Active JP7322358B2 (ja) | 2020-01-30 | 2020-01-30 | 情報処理プログラム、情報処理方法、及び情報処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11508064B2 (ja) |
EP (1) | EP3859607B1 (ja) |
JP (1) | JP7322358B2 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019061710A (ja) | 2015-08-15 | 2019-04-18 | セールスフォース ドット コム インコーポレイティッド | 3dバッチ正規化を伴う三次元(3d)畳み込み |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3982646B2 (ja) * | 1997-04-28 | 2007-09-26 | 財団法人くまもとテクノ産業財団 | 画像識別装置および方法および画像識別装置を備えた画像検出識別装置ならびに画像識別用プログラムを記録した媒体 |
JP2008172441A (ja) * | 2007-01-10 | 2008-07-24 | Omron Corp | 検出装置および方法、並びに、プログラム |
JP6639113B2 (ja) * | 2015-06-05 | 2020-02-05 | キヤノン株式会社 | 画像認識装置、画像認識方法及びプログラム |
US9858525B2 (en) * | 2015-10-14 | 2018-01-02 | Microsoft Technology Licensing, Llc | System for training networks for semantic segmentation |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US10733722B2 (en) * | 2017-06-27 | 2020-08-04 | Nec Corporation | Reconstructor and contrastor for anomaly detection |
US10679351B2 (en) * | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
JP7250653B2 (ja) * | 2018-10-10 | 2023-04-03 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP7278088B2 (ja) * | 2019-01-31 | 2023-05-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2020
- 2020-01-30 JP JP2020014107A patent/JP7322358B2/ja active Active
-
2021
- 2021-01-08 US US17/144,162 patent/US11508064B2/en active Active
- 2021-01-08 EP EP21150700.9A patent/EP3859607B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019061710A (ja) | 2015-08-15 | 2019-04-18 | セールスフォース ドット コム インコーポレイティッド | 3dバッチ正規化を伴う三次元(3d)畳み込み |
Non-Patent Citations (2)
Title |
---|
Wenyuan Li et al,Path R-CNN for Prostate Cancer Diagnosis and Gleason Grading of Histological Images,IEEE Transactions on Medical Imaging,Year: 2019, Volume: 38, Issue: 4,IEEE,2019年04月,https://ieeexplore.ieee.org/document/8490855 |
村松 千左子 Chisako MURAMATSU,緑内障診断のための網膜神経線維層欠損の検出 Detection of Retinal Nerve Fiber Layer Defect for Glaucoma Diagnosis,電子情報通信学会技術研究報告 Vol.117 No.117 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,第117巻 |
Also Published As
Publication number | Publication date |
---|---|
US20210241452A1 (en) | 2021-08-05 |
JP2021120816A (ja) | 2021-08-19 |
EP3859607B1 (en) | 2023-10-25 |
EP3859607A1 (en) | 2021-08-04 |
US11508064B2 (en) | 2022-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10360465B2 (en) | Liveness testing methods and apparatuses and image processing methods and apparatuses | |
US11676361B2 (en) | Computer-readable recording medium having stored therein training program, training method, and information processing apparatus | |
US11429806B2 (en) | Devices, systems, and methods for anomaly detection | |
JP7453813B2 (ja) | 検査装置、検査方法、プログラム、学習装置、学習方法、および学習済みデータセット | |
JP2022014776A (ja) | アクティビティ検出装置、アクティビティ検出システム及びアクティビティ検出方法 | |
CN113592769B (zh) | 异常图像的检测、模型的训练方法、装置、设备及介质 | |
JP7519232B2 (ja) | 異常検知方法、異常検知装置および異常検知プログラム | |
KR20230139257A (ko) | 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치 | |
Çiftçi et al. | Deepfake source detection in a heart beat | |
JP7322358B2 (ja) | 情報処理プログラム、情報処理方法、及び情報処理装置 | |
Lee et al. | Diagnosis of scoliosis using chest radiographs with a semi-supervised generative adversarial network | |
JP2024054904A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20200143957A (ko) | 제품 검사를 위한 자동 학습 방법 및 시스템 | |
JP7323235B2 (ja) | 画像追跡装置、画像追跡方法、及びプログラム | |
JP2020003879A (ja) | 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム | |
JP7330521B2 (ja) | 信号処理方法,信号処理装置および信号処理プログラム | |
KR20220154576A (ko) | 위변조 이미지 판정 모델의 학습 방법 및 그 장치 | |
JP7316611B2 (ja) | 推定処理プログラム、推定処理方法、及び情報処理装置 | |
US20240144729A1 (en) | Generation method and information processing apparatus | |
US11636577B2 (en) | Method and apparatus with blur estimation | |
JP7415611B2 (ja) | 計算プログラム、計算方法及び計算装置 | |
Dong et al. | Research on an improved medical image enhancement algorithm based on pm model | |
JP7540500B2 (ja) | グループ特定装置、グループ特定方法、及びプログラム | |
KR20230069506A (ko) | 인공신경망을 이용한 안면 인증 방법 및 이를 수행하기 위한 컴퓨팅 장치 | |
Pooshideh et al. | Presentation Attack Detection: A Systematic Literature Review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220801 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7322358 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |