JP2020086479A - 計算機、ニューラルネットワークの構築方法、および計算機システム - Google Patents
計算機、ニューラルネットワークの構築方法、および計算機システム Download PDFInfo
- Publication number
- JP2020086479A JP2020086479A JP2018214275A JP2018214275A JP2020086479A JP 2020086479 A JP2020086479 A JP 2020086479A JP 2018214275 A JP2018214275 A JP 2018214275A JP 2018214275 A JP2018214275 A JP 2018214275A JP 2020086479 A JP2020086479 A JP 2020086479A
- Authority
- JP
- Japan
- Prior art keywords
- detection layer
- setting
- neural network
- boundary
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 44
- 238000010276 construction Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims abstract description 165
- 238000012545 processing Methods 0.000 claims abstract description 117
- 238000000034 method Methods 0.000 claims abstract description 106
- 230000008569 process Effects 0.000 claims description 59
- 238000013527 convolutional neural network Methods 0.000 abstract description 114
- 238000010586 diagram Methods 0.000 description 38
- 230000006870 function Effects 0.000 description 29
- 230000008878 coupling Effects 0.000 description 19
- 238000010168 coupling process Methods 0.000 description 19
- 238000005859 coupling reaction Methods 0.000 description 19
- 230000009467 reduction Effects 0.000 description 17
- 210000004204 blood vessel Anatomy 0.000 description 11
- 238000013523 data management Methods 0.000 description 11
- 230000003902 lesion Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000002591 computed tomography Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 201000011510 cancer Diseases 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000036210 malignancy Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 210000000779 thoracic wall Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 201000005202 lung cancer Diseases 0.000 description 1
- 208000020816 lung neoplasm Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、実施例1の計算機の構成例を示す図である。
図2Aおよび図2Bは、実施例1におけるCNN200の構造の一例を示す図である。
境界検出層210は、オブジェクトの輪郭に対応する境界を検出する。図3は、実施例1の入力画像250に含まれる結節と出力画像260に含まれるROI280の一例を示す図である。図4は、実施例1の入力画像250に含まれる結節の輪郭を検出する線分の一例を示す図である。
移動層211は、境界検出層210によって検出されたオブジェクトの境界に基づいて、任意の形状のオブジェクトを検出する。
結合層212は、基準点に移動させた境界線分の値の合計値を算出し、ROI280の検出結果を出力する。具体的には、結合層212のノード220では、移動層211の出力に重み係数を乗算した値の総和を算出する演算が行われる。すなわち、移動層211の各ノードの出力を受け付け、1(=1×1)画素の畳み込み演算を行う一つのノード220から構成される。
実施例1のCNN200は以下のような特性を有する。境界検出層210において、結節の境界上からは正値が出力され、境界以外の部分ではゼロが出力される。そのため、境界線分502を基準点501に移動させ、境界の値を加算した結果、基準点501では極めて大きな正値が出力され、基準点501以外の点では、ゼロまたは小さい値が出力される。
次に、実施例1のCNN200を構築するための学習処理について説明する。
図1から図11では、オブジェクト(結節)を検出するCNN200について説明したが、本発明は、他の画像処理を行うCNN200を構築する場合にも適用することができる。例えば、画像に含まれるノイズを低減する画像処理、および低解像度の画像を高解像度の画像に変換する画像処理を実行するCNN200を構築する場合に、本発明を適用できる。
実施例1のROI280を抽出するための層を含むCNNを構築する場合、検出精度およびROI280の特徴等に基づく情報を入力することによって、当該層のハイパーパラメータを自動的に算出できる。したがって、経験および知識がないユーザでもCNNの構築を容易に行うことができる。
図13Aおよび図13Bは、実施例2におけるCNN200の構造の一例を示す図である。
第1境界検出層1310は、真のオブジェクトの輪郭に対応する境界を検出する。第2境界検出層1311は、ノイズとなるオブジェクトの輪郭に対応する境界を検出する。
移動層1312は、境界検出層210によって検出されたオブジェクトの境界に基づいて、任意の形状のオブジェクト(結節および血管)を検出する。
結合層1313は、実施例1の結合層212を3次元に拡張したものである。
CNN200が境界検出層、移動層1312、および結合層1313の3層構造である場合、孤立点状の誤検出陰影(FP−ROI)が検出される場合がある。誤検出削減層1314は、FP−ROIを削減する。
<学習処理>
次に、実施例2のCNN200を構築するための学習処理について説明する。
実施例2のROI1400を抽出するための層を含むCNNを構築する場合、検出精度およびROI1400の特徴等に基づく情報を入力することによって、CNNのハイパーパラメータを自動的に算出できる。したがって、CNNの構築を容易に行うことができる。また、ハイパーパラメータを容易に調整することができる。
図21は、実施例3のシステムの構成例を示す図である。
様々なシステム形態またはサービス形態で、実施例1および実施例2で説明したCNNの構築方法を利用できる。
(i)本発明によれは、ユーザが検出精度およびROIの特徴等に基づく情報を入力することによって、自動的にCNNのハイパーパラメータが算出される。したがって、CNNの構築を容易に行うことができる。また、ハイパーパラメータを容易に調整することができる。
101 演算装置
102 メモリ
103 ストレージ装置
104 通信インタフェース
105 出力インタフェース
106 入力インタフェース
107 バス
110 設定部
111 学習部
112 画像処理部
120 学習データ管理情報
121 モデル情報
150 ネットワーク
160 ディスプレイ
170 キーボード
180 マウス
200 CNN
250 入力画像
260 出力画像
700 設定画面
2000 性能評価画面
2100 画像取得装置
2110 設定装置
2120 学習装置
2130 画像処理装置
2140 データ管理装置
2150 ネットワーク
Claims (12)
- 少なくとも一つのノードを含む複数の層から構成され、画像処理を実行するためのニューラルネットワークを構築する計算機であって、
前記ニューラルネットワークは、画像からオブジェクトを検出するための処理を実現する検出層を含み、
前記計算機は、演算装置および前記演算装置に接続される記憶装置を備え、
前記演算装置は、
前記検出層のハイパーパラメータを算出するため値であって、前記オブジェクトの境界および前記オブジェクトの形状の特性に関する設定値を含む、前記ニューラルネットワークを構築するための設定情報を取得する第1の処理と、
前記設定情報に基づいて、前記ニューラルネットワークを構築する第2の処理と、
前記構築されたニューラルネットワークの構造を管理するモデル情報を生成する第3の処理と、を実行し、
前記第2の処理は、前記設定値に基づいて、前記検出層のハイパーパラメータを算出する処理を含むことを特徴とする計算機。 - 請求項1に記載の計算機であって、
前記ニューラルネットワークは、前記オブジェクトの境界を検出する第1の検出層および任意の形状の前記オブジェクトを検出する第2の検出層を含み、
前記設定値は、前記第1の検出層の設定値および前記第2の検出層の設定値を含み、
前記第2の処理は、
前記演算装置が、前記第1の検出層の設定値に基づいて、前記第1の検出層の前記ノードの数および前記ノードに設定する重み係数を算出する第4の処理と、
前記演算装置が、前記第2の検出層の設定値に基づいて、前記第2の検出層の前記ノードの数および前記ノードに設定する重み係数を算出する第5の処理と、を含むことを特徴とする計算機。 - 請求項2に記載の計算機であって、
前記第2の検出層は、前記第1の検出層によって検出された前記オブジェクトの境界を任意の移動に移動させることによって前記任意の形状のオブジェクトを検出し、
前記第1の検出層の設定値は、前記画像の周波数特性に基づいて設定された第1のフィルタおよび前記オブジェクトの境界の種類を規定する第1の角度を含み、
前記第1の検出層の設定値は、前記オブジェクトの境界の任意の移動方向を規定する第2のフィルタおよび前記移動方向を規定する第2の角度を含み、
前記第4の処理では、
前記演算装置が、前記第1の角度に基づいて前記第1の検出層の前記ノードの数を算出し、
前記演算装置が、前記第1の角度および前記第1のフィルタを用いて、前記第1のフィルタの次元に対応する回転操作を実行することによって、前記第1の検出層のノードに設定する重み係数を算出し、
前記第5の処理では、
前記演算装置が、前記第2の角度に基づいて前記第2の検出層の前記ノードの数を算出し、
前記演算装置が、前記第2の角度および前記第2のフィルタを用いて、前記第2のフィルタの次元に対応する回転操作を実行することによって、前記第2の検出層のノードに設定する重み係数を算出することを特徴とする計算機。 - 請求項2に記載の計算機であって、
前記構築されたニューラルネットワークおよび学習データを用いた学習処理を実行し、前記学習処理の結果に基づいてモデル情報を更新する第6の処理を実行することを特徴とする計算機。 - 請求項2に記載の計算機であって、
前記演算装置は、前記モデル情報に基づいて、入力された画像から前記オブジェクトを検出するための処理を実行することを特徴とする計算機。 - 演算装置および前記演算装置に接続される記憶装置を有する計算機が実行するニューラルネットワークの構築方法であって、
前記ニューラルネットワークは、
少なくとも一つのノードを含む複数の層から構成され、画像処理を実行するためのニューラルネットワークであり、
画像からオブジェクトを検出するための処理を実現する検出層を含み、
前記ニューラルネットワークの構築方法は、
前記演算装置が、前記検出層のハイパーパラメータを算出するため値であって、前記オブジェクトの境界および前記オブジェクトの形状の特性に関する設定値を含む、前記ニューラルネットワークを構築するための設定情報を取得する第1のステップと、
前記演算装置が、前記設定情報に基づいて、前記ニューラルネットワークを構築する第2のステップと、
前記演算装置が、前記構築されたニューラルネットワークの構造を管理するモデル情報を生成する第3のステップと、を含み、
前記第2のステップは、前記演算装置が、前記設定値に基づいて、前記検出層のハイパーパラメータを算出するステップを含むことを特徴とするニューラルネットワークの構築方法。 - 請求項6に記載のニューラルネットワークの構築方法であって、
前記ニューラルネットワークは、前記オブジェクトの境界を検出する第1の検出層および任意の形状の前記オブジェクトを検出する第2の検出層を含み、
前記設定値は、前記第1の検出層の設定値および前記第2の検出層の設定値を含み、
前記第2のステップは、
前記演算装置が、前記第1の検出層の設定値に基づいて、前記第1の検出層の前記ノードの数および前記ノードに設定する重み係数を算出する第4のステップと、
前記演算装置が、前記第2の検出層の設定値に基づいて、前記第2の検出層の前記ノードの数および前記ノードに設定する重み係数を算出する第5のステップと、を含むことを特徴とするニューラルネットワークの構築方法。 - 請求項7に記載のニューラルネットワークの構築方法であって、
前記第2の検出層は、前記第1の検出層によって検出された前記オブジェクトの境界を任意の移動に移動させることによって前記任意の形状のオブジェクトを検出し、
前記第1の検出層の設定値は、前記画像の周波数特性に基づいて設定された第1のフィルタおよび前記オブジェクトの境界の種類を規定する第1の角度を含み、
前記第1の検出層の設定値は、前記オブジェクトの境界の任意の移動方向を規定する第2のフィルタおよび前記移動方向を規定する第2の角度を含み、
前記第4のステップは、
前記演算装置が、前記第1の角度に基づいて前記第1の検出層の前記ノードの数を算出するステップと、
前記演算装置が、前記第1の角度および前記第1のフィルタを用いて、前記第1のフィルタの次元に対応する回転操作を実行することによって、前記第1の検出層のノードに設定する重み係数を算出するステップと、を含み、
前記第5のステップは、
前記演算装置が、前記第2の角度に基づいて前記第2の検出層の前記ノードの数を算出するステップと、
前記演算装置が、前記第2の角度および前記第2のフィルタを用いて、前記第2のフィルタの次元に対応する回転操作を実行することによって、前記第2の検出層のノードに設定する重み係数を算出するステップと、を含むことを特徴とするニューラルネットワークの構築方法。 - 請求項7に記載のニューラルネットワークの構築方法であって、
前記演算装置が、前記構築されたニューラルネットワークおよび学習データを用いた学習処理を実行するステップと、
前記演算装置が、前記学習処理の結果に基づいてモデル情報を更新するステップを、を含むことを特徴とするニューラルネットワークの構築方法。 - 複数の計算機を備える計算機システムであって、
画像処理を実行するためのニューラルネットワークを構築する設定部と、前記ニューラルネットワークの学習処理を実行する学習部と、前記ニューラルネットワークを用いて前記画像処理を実行する画像処理部と、を備え、
前記ニューラルネットワークは、
少なくとも一つのノードを含む複数の層から構成され、
画像からオブジェクトを検出するための処理を実現する検出層を含み、
前記設定部は、
前記検出層のハイパーパラメータを算出するため値であって、前記オブジェクトの境界および前記オブジェクトの形状の特性に関する設定値を含む、前記ニューラルネットワークを構築するための設定情報を取得する第1の処理と、
前記設定情報に基づいて、前記ニューラルネットワークを構築する第2の処理と、
前記構築されたニューラルネットワークの構造を管理するモデル情報を生成する第3の処理と、を実行し、
前記第2の処理は、前記設定値に基づいて、前記検出層のハイパーパラメータを算出する処理を含むことを特徴とする計算機システム。 - 請求項10に記載の計算機システムであって、
前記複数の層は、前記オブジェクトの境界を検出する第1の検出層および任意の形状の前記オブジェクトを検出する第2の検出層を含み、
前記設定値は、前記第1の検出層の設定値および前記第2の検出層の設定値を含み、
前記第2の処理は、
前記設定部が、前記第1の検出層の設定値に基づいて、前記第1の検出層の前記ノードの数および前記ノードに設定する重み係数を算出する第4の処理と、
前記設定部が、前記第2の検出層の設定値に基づいて、前記第2の検出層の前記ノードの数および前記ノードに設定する重み係数を算出する第5の処理と、を含むことを特徴とする計算機システム。 - 請求項11に記載の計算機システムであって、
前記第2の検出層は、前記第1の検出層によって検出された前記オブジェクトの境界を任意の移動に移動させることによって前記任意の形状のオブジェクトを検出し、
前記第1の検出層の設定値は、前記画像の周波数特性に基づいて設定された第1のフィルタおよび前記オブジェクトの境界の種類を規定する第1の角度を含み、
前記第1の検出層の設定値は、前記オブジェクトの境界の任意の移動方向を規定する第2のフィルタおよび前記移動方向を規定する第2の角度を含み、
前記第4の処理では、
前記設定部が、前記第1の角度に基づいて前記第1の検出層の前記ノードの数を算出し、
前記設定部が、前記第1の角度および前記第1のフィルタを用いて、前記第1のフィルタの次元に対応する回転操作を実行することによって、前記第1の検出層のノードに設定する重み係数を算出し、
前記第5の処理では、
前記設定部が、前記第2の角度に基づいて前記第2の検出層の前記ノードの数を算出し、
前記設定部が、前記第2の角度および前記第2のフィルタを用いて、前記第2のフィルタの次元に対応する回転操作を実行することによって、前記第2の検出層のノードに設定する重み係数を算出することを特徴とする計算機システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018214275A JP2020086479A (ja) | 2018-11-15 | 2018-11-15 | 計算機、ニューラルネットワークの構築方法、および計算機システム |
US16/669,726 US11157775B2 (en) | 2018-11-15 | 2019-10-31 | Computer, neural network construction method, and computer system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018214275A JP2020086479A (ja) | 2018-11-15 | 2018-11-15 | 計算機、ニューラルネットワークの構築方法、および計算機システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020086479A true JP2020086479A (ja) | 2020-06-04 |
Family
ID=70727938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018214275A Pending JP2020086479A (ja) | 2018-11-15 | 2018-11-15 | 計算機、ニューラルネットワークの構築方法、および計算機システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11157775B2 (ja) |
JP (1) | JP2020086479A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019215907A1 (ja) * | 2018-05-11 | 2019-11-14 | オリンパス株式会社 | 演算処理装置 |
US11637710B2 (en) * | 2019-12-10 | 2023-04-25 | Jpmorgan Chase Bank, N.A. | Systems and methods for federated privacy management |
US11410083B2 (en) * | 2020-01-07 | 2022-08-09 | International Business Machines Corporation | Determining operating range of hyperparameters |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018014060A (ja) * | 2016-07-22 | 2018-01-25 | ファナック株式会社 | 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6192010B2 (ja) | 2013-09-05 | 2017-09-06 | 国立大学法人 東京大学 | 重み設定装置および方法 |
EP3607503B1 (en) * | 2017-04-17 | 2022-03-09 | Cerebras Systems Inc. | Task activating for accelerated deep learning |
US10679129B2 (en) * | 2017-09-28 | 2020-06-09 | D5Ai Llc | Stochastic categorical autoencoder network |
-
2018
- 2018-11-15 JP JP2018214275A patent/JP2020086479A/ja active Pending
-
2019
- 2019-10-31 US US16/669,726 patent/US11157775B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018014060A (ja) * | 2016-07-22 | 2018-01-25 | ファナック株式会社 | 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 |
Non-Patent Citations (1)
Title |
---|
LIANDONG LI, ET AL.: "Edge Convolutional Network for Facial Action Intensity Estimation", 2018 13TH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE & GESTURE RECOGNITION (FG 2018), JPN6022023869, 15 May 2018 (2018-05-15), US, ISSN: 0004942228 * |
Also Published As
Publication number | Publication date |
---|---|
US11157775B2 (en) | 2021-10-26 |
US20200160118A1 (en) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6932182B2 (ja) | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 | |
US20210272030A1 (en) | Systems and methods for using geometry sensitivity information for guiding workflow | |
JP6884853B2 (ja) | ニューラルネットワーク法を用いた画像セグメンテーション | |
US8073227B2 (en) | System and method for geometric modeling of tubular structures | |
EP3295374B1 (en) | Method and system for landmark detection in medical images using deep neural networks | |
US7990379B2 (en) | System and method for coronary segmentation and visualization | |
WO2018000564A1 (zh) | 血管中心线提取方法及系统 | |
US10210612B2 (en) | Method and system for machine learning based estimation of anisotropic vessel orientation tensor | |
US11013495B2 (en) | Method and apparatus for registering medical images | |
JP2020520005A (ja) | 画像解析における解剖学的構造のセグメンテーションのためのシステム及び方法 | |
US20110262015A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US11157775B2 (en) | Computer, neural network construction method, and computer system | |
US10395380B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN109949349B (zh) | 一种多模态三维图像的配准及融合显示方法 | |
JP2018139693A (ja) | 画像分類装置、方法およびプログラム | |
CN109635630B (zh) | 手部关节点检测方法、装置及存储介质 | |
US20190362548A1 (en) | Apparatus and method for creating biological model | |
US7689018B2 (en) | Anomaly detection in volume data structure information | |
Zhou et al. | Interactive medical image segmentation using snake and multiscale curve editing | |
CN114387317B (zh) | Ct图像和mri三维图像的配准方法、装置 | |
Lim et al. | Automatic 4D reconstruction of patient-specific cardiac mesh with 1-to-1 vertex correspondence from segmented contours lines | |
US10354349B2 (en) | Systems and methods for using geometry sensitivity information for guiding workflow | |
US20170169569A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20220277457A1 (en) | Segmentating a tubular feature | |
US20200218942A1 (en) | Computer and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210219 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210617 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20211027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221213 |