JP2019082978A - スキップアーキテクチャ・ニューラルネットワーク装置及び改良されたセマンティックセグメンテーションのための方法 - Google Patents
スキップアーキテクチャ・ニューラルネットワーク装置及び改良されたセマンティックセグメンテーションのための方法 Download PDFInfo
- Publication number
- JP2019082978A JP2019082978A JP2017214985A JP2017214985A JP2019082978A JP 2019082978 A JP2019082978 A JP 2019082978A JP 2017214985 A JP2017214985 A JP 2017214985A JP 2017214985 A JP2017214985 A JP 2017214985A JP 2019082978 A JP2019082978 A JP 2019082978A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- pooling
- image
- output
- weighting factor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/422—Technical drawings; Geographical maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
Description
CNNシステムに対する畳み込みでは、入力空間の全ボリューム(行列)に対し、2次元フィルタ(行列)の使用と、ドット積(スカラー積としても知られる)の取得と、が行われる。これが入力空間の全画素に対して繰り返され、この演算の結果が特徴マップと呼ばれる。
ハイパーパラメータとは、解析される特定のデータに応じて設定されるCNNシステムの変数である。これらの変数については、許容される最善の設定方法が常に存在するわけではない。ハイパーパラメータの一例として、CNNシステムにおいて使用されるフィルタの数がある。フィルタの数は、CNNシステムに処理されるパラメータの数に直接的に関連することがある。CNNシステムは、何百万ものパラメータを含むことができるので、畳み込み層の数の設定は、CNNシステムアーキテクチャを実行させているコンピュータのメモリの制約が考慮されることがある。
一般的に、ReLUと略称される修正線形ユニットは、負の値を0にするように、特徴マップの出力を修正する。フィルタは負の値を含むことがあるので、活性化マップもまた負のデータ値を含むことがある。具体的には、ReLU層は、要素に対し、値に対して閾値を0にする要素活性化関数を適用する。このため、いかなる負の値も0に設定される。他の値に対しては1を乗算し、単に元の数字を戻す。例えば、−6は0に修正され、6は6のままである。そして、0は0のままである。
図6は、プーリングの一例を示す。プーリング層は、データ(例えば、活性化マップ)のサイズを減らすが、最も重要な情報は保持する。プーリング技術としては、種々の技術が知られている。プーリング技術の1つとしては、最大フィルタリング又は最大プーリングと呼ばれるものがある。この技術は、プーリングフィルタの中の最大値を出力する。例えば、よくあるプーリングフィルタは、2×2のサイズでありストライド2であり、そのウィンドウ内の修正特徴マップから最大の要素を選択する。別の言い方をすれば、2×2フィルタが活性化マップ(フィルタリングされた画像)上にある場合、2×2フィルタ内の4つの画素のうち、最大値のみがプーリング後の画像に示される。フィルタリングを受けるデータの実際の位置は、プーリングに影響しない。フィルタリングされた画像のプーリングにより、重大なデータ損失をすることなく、画像のサイズを効果的に減らすことができる。
スコアプーリング層は、プーリング層から対応するアッププーリング層に対するチャネルマッピング機能を提供する。スコアプーリング層は、ネットワークにおいて互いに異なる大きさのプーリング層からの各プーリング層の出力ボリュームを使用する。より下の層(例えば、最後の畳み込み層より下にある全ての層)における出力ボリュームは、スケーリングされ対応するアッププーリング層に入力された際、画像内のフィンガーグレイン構造を特定するのに役立つ。これは、より下の層の出力ボリュームが、より小さなレセプティブフィールドを有するためである。このため、スコアプーリング層は、画像の詳細、とりわけ画像内のオブジェクトの境界の改善に役立つ。このため、セマンティックセグメンテーションのラベルに対する出力ボリュームの影響を判定することは、出力画像のフィンガー構造を認識することの影響力を判定することである。つまり、出力ボリュームの影響は、各プーリング層の出力ボリュームから導かれる追加的な重み付けによる、セマンティックセグメンテーションの改善と相関関係がある。
先述したように、一般的に、アッププーリング層は、処理された画像のサイズを、オリジナルの入力ボリュームサイズへと増加させる。図7は、アップサンプリング、デコンボリューション、又はフラクショナルサンプリングとも呼ばれるアッププーリングの一例を示す。図7は、スコアプーリング層からの影響が全くない単純な例を示す。図7に示すように、2×2の入力730が、2のストライドの2×2のフィルタ720によって、4×4の出力710へとスケーリングされる。ここに示されているように、入力ボリュームの左上の値である6が伝播し、4×4の出力ボリュームのうち、左上の2×2のボリュームに格納される。残りの入力値も同様に拡大される。実際の応用では、アッププーリングは、実質的にプーリングの逆演算ということができる。例として、3×3のフィルタが代わりに使われた場合、出力空間における重複した領域となる。この場合、重複した領域の値は、互いに加算される。
訓練は、ニューラルネットワークの生成において重要な部分である。本開示においては、フィルタマップを訓練するためのスタンダードな訓練も適用される。しかし、フィルタマップの調整によるCNNシステムの訓練に加えて、CNNシステムは、訓練プロセスを通して更なる変数λを発見する。変数λは、プーリング層に接続されたゲートの一部である。変数λの訓練については後述する。
学習率は、訓練プロセスにおいて、フィルタの重みに対し、どれだけ速くの変化が与えられたかにより決定される。一般的な技術としては、誤差逆伝播法/勾配降下法を利用したり、損失関数を最小化するためにフィルタの重みを変化させたりすることがある。学習率が高すぎると、フィルタの重み値は、多くのステップを要することがあり、最小コストが得られる重みがスキップすされることがある。しかし、学習率が低すぎる場合は、CNNは素早く訓練されない。CNNシステムの学習率は、ハイパーパラメータによって決まる。
ゲート層の役割は、訓練中において、ネットワーク構造を自動的に最適化することである。これは、特徴を追加することは、より良い性能を保証するとは限らないからである。後述するコスト関数に基づいて、訓練プロセスは、他のスコアプーリング層を加えることがより良い結果に結びつくか否かを決定する。
図11は、CNNシステムの訓練が完了した後に、CNNシステムアーキテクチャがどのように選択されるかの例を示す。ステップ1010において、CNNシステムの訓練が完了し、ステップ1012において、特定のゲートのλ値が取得される。ステップ1014においては、λ値は、閾値θと比較され、ゲートのλ値がこの閾値より大きいかを判定する。ゲートのλ値が閾値θより大きくなければ、ステップ1016で特定のプーリング層及びそれに対応するアッププーリング層の間の接続が除去される。ゲートのλ値が閾値θより大きければ、ステップ1018で各プーリング層及びそれらに対応するアッププーリング層の間の接続が維持される。この工程が全てのゲートに対して繰り返される。ステップ1020において、全てのゲートについてチェックが実行されたか否かが判定される。全てのゲートがチェック済みであれば、CNNシステムアーキテクチャについての判定がなされ、プロセスがストップする。全てのゲートについてチェックされたわけではない場合、ステップ1022において、ゲートが1つインクリメントされ、次のゲートが確認される。プロセスは、全てのゲートがチェックされるまで繰り返される。
図12は、本発明の実施形態の例を示す。図12において、図4のCNNシステムの構成要素と同一のものについては説明を省略する。この例においては、224×224の画素サイズを有するサンプル画像が入力となる。また、入力画像は、3の深さ(又は3チャネル)を有し、3つの性質を表現し、それぞれの性質は赤、青、又は緑の原色である。入力画像の深さは、ネットワークの深さとは異なる。CNNシステムの目標は、入力画像を取得し、当該画像のセマンティックセグメンテーションを行うことである。この場合、ラベルの数は、壁であるか壁ではないかを示すために、2に設定される。
本開示のCNNシステムの評価のために、500の間取図画像のデータセットが、不動産業者が公開するウェブサイトから集められた。この画像訓練データセットは、辺の長さが156画素〜1427画素の範囲にあり、異なるサイズの画像を含む。画像は、不動産業者のツールであって、色彩や濃淡についての異なるスキームや装飾要素の使用といった、間取図作成にあたってのある程度の美術的自由さを許容する形で描かれたものである。他の公開画像データセットと比較すると、この画像データセットは、著しい差異を示す。図13A,13B,及び13Cには、本発明の訓練されたCNNシステムに入力される例示画像が、CNNシステムによって出力された対応するセグメント化画像及び作成された教師画像に並べて表示されている。図が示すように、本CNNシステムのセグメント化画像は教師画像と良く合っている。
図15は、本発明のCNNシステムを実行することができるデバイスの例を示している。CNNシステムは、コンピュータ、携帯デバイス、又はあらゆる処理プラットフォームに実装が可能である。CNNは、ウェブブラウザ、携帯電話アプリケーション、大型スケーラブルネットワークにおいて動作することが可能である。高い処理負荷が生じることもあるが、訓練前のCNNシステムが、家庭用計算システムや携帯デバイスにおいてもセグメンテーション出力の計算が可能なこともある。勿論、CNNシステムの訓練は、ネットワークの深さ、フィルタのサイズ、入力画像のサイズ等の多数の要素によっては時として数日や数週間かかることもあり得る。
Claims (20)
- 畳み込みニューラルネットワークシステムを使用して画像のセマンティックセグメンテーションを行うためのコンピュータを使用する方法であって、
プロセッサが、
第1の複数フィルタで入力画像を畳み込み、第1の畳み込み層により第1の出力ボリュームを出力し、
前記第1の出力ボリュームをプーリングし、第1のプーリング層により第1の活性化マップを生成し、
前記第1の出力ボリュームを第2の複数フィルタで畳み込み、第2の畳み込み層により第2の出力ボリュームを出力し、
前記第2の出力ボリュームをプーリングし、第2のプーリング層により第2の活性化マップを生成し、
前記第1の活性化マップを使用して重み係数を生成し、
前記第2の活性化マップを使用して重み係数を生成し、
前記第2の活性化マップをアッププーリングし、
前記第1の活性化マップをアッププーリングし、前記重み係数を適用して出力画像を形成し、
確率的セグメンテーションの結果を出力し、各画素に対し特定のラベルが貼られる確率をラベリングし、及び
前記セマンティックセグメンテーションに対する前記重み係数の影響のレベルを判定し、
前記セマンティックセグメンテーションに対する前記重み係数の前記影響のレベルについての前記判定は、プーリング層とアッププーリング層の間に位置するゲート層を用いて行われる、方法。 - 前記ゲート層は、前記重み係数が前記セマンティックセグメンテーションに対して閾値よりも大きい影響を持つかを判定する閾値化回路を含む、
請求項1に記載の方法。 - 前記重み係数が前記セマンティックセグメンテーションに対して前記閾値よりも小さい影響を持つと判定されると、前記ゲート層は、前記重み係数が計算され対応する前記アッププーリング層に入力されることを許可せず、前記第1のプーリング層と前記第1のアッププーリング層の間の接続を除去する、
請求項2に記載の方法。 - 前記重み係数が前記セマンティックセグメンテーションに対して前記閾値よりも大きい影響を持つと判定されると、前記ゲート層は、前記重み係数が計算され対応する前記アッププーリング層に入力されることを許可する、
請求項2に記載の方法。 - 前記重み係数の前記影響のレベルが、λ値を計算することで判定され、前記λ値は訓練プロセスの際に決定された学習パラメータである、
請求項1に記載の方法。 - 各プーリング層は、対応するゲート層を有し、各ゲート層は、固有のλ値を有する、
請求項5に記載の方法。 - 前記出力画像は、前記入力画像の画素数と同じ画素数を持つ、
請求項1に記載の方法。 - 前記重み係数は、より精細な出力画像をもたらす、
請求項7に記載の方法。 - 前記重み係数は、各活性化マップについて生成される、
請求項8に記載の方法。 - 前記λ値の各々は、誤差逆伝播法を用いて決定される、
請求項5に記載の方法。 - プロセッサと、
メモリと、を含む、
セマンティック画像セグメント化システムであって、
前記プロセッサは、
第1の複数フィルタで入力画像を畳み込み、第1の畳み込み層により第1の出力ボリュームを出力し、
前記第1の出力ボリュームをプーリングし、第1のプーリング層により第1の活性化マップを生成し、
前記第1の出力ボリュームを第2の複数フィルタで畳み込み、第2の畳み込み層により第2の出力ボリュームを出力し、
前記第2の出力ボリュームをプーリングし、第2のプーリング層により第2の活性化マップを生成し、
前記第1の活性化マップを使用して重み係数を生成し、
前記第2の活性化マップを使用して重み係数を生成し、
前記第2の活性化マップをアッププーリングし、
前記第1の活性化マップをアッププーリングし、前記重み係数を適用して出力画像を形成し、
確率的セグメンテーションの結果を出力し、各画素に対し特定のラベルが貼られる確率をラベリングし、及び
前記セマンティックセグメンテーションに対する前記重み係数の影響のレベルを判定するよう、構成され、
前記セマンティックセグメンテーションに対する前記重み係数の前記影響のレベルについての前記判定は、プーリング層とアッププーリング層の間に位置するゲート層を用いて行われる、
システム。 - 前記ゲート層は、前記重み係数が前記セマンティックセグメンテーションに対して閾値よりも大きい影響を持つかを判定するよう構成された閾値化回路を含む、
請求項11に記載のシステム。 - 前記プロセッサは、前記重み係数が前記セマンティックセグメンテーションに対して前記閾値よりも小さい影響を持つと判定された場合に、前記ゲート層が前記重み係数を計算し対応する前記アッププーリング層に入力することを許可せず、前記第1のプーリング層と前記第1のアッププーリング層の間の接続を除去するよう構成されている、
請求項12に記載のシステム。 - 前記プロセッサは、前記重み係数が前記セマンティックセグメンテーションに対して前記閾値よりも大きい影響を持つと判定された場合に、前記ゲート層に対し、前記重み係数が計算され対応する前記アッププーリング層に入力されることを許可させるよう構成されている、
請求項12に記載のシステム。 - 前記重み係数の前記影響のレベルが、λ値を計算することで判定され、前記λ値は訓練プロセスの際に決定され、学習されたパラメータである、
請求項11に記載のシステム。 - 各プーリング層は、対応するゲート層を有し、各ゲート層は固有のλ値を有する、
請求項15に記載のシステム。 - 前記出力画像は、前記入力画像の画素数と同じ画素数を持つ、
請求項11に記載のシステム。 - 前記重み係数は、より精細な出力画像をもたらす、
請求項17に記載のシステム。 - 前記重み係数は、各活性化マップについて生成される、
請求項18に記載のシステム。 - 各λ値は誤差逆伝播法を用いて決定される、
請求項15に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/798,349 US10410350B2 (en) | 2017-10-30 | 2017-10-30 | Skip architecture neural network machine and method for improved semantic segmentation |
US15/798,349 | 2017-10-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019082978A true JP2019082978A (ja) | 2019-05-30 |
JP6584477B2 JP6584477B2 (ja) | 2019-10-02 |
Family
ID=66244087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017214985A Active JP6584477B2 (ja) | 2017-10-30 | 2017-11-07 | スキップアーキテクチャ・ニューラルネットワーク装置及び改良されたセマンティックセグメンテーションのための方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10410350B2 (ja) |
JP (1) | JP6584477B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020204863A (ja) * | 2019-06-17 | 2020-12-24 | 富士フイルム株式会社 | 学習装置、学習装置の作動方法、および学習装置の作動プログラム |
JP2021005846A (ja) * | 2019-06-27 | 2021-01-14 | オリンパス株式会社 | 積層型撮像デバイス、撮像装置、撮像方法、学習方法及び画像読み出し回路 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10395147B2 (en) * | 2017-10-30 | 2019-08-27 | Rakuten, Inc. | Method and apparatus for improved segmentation and recognition of images |
EP3506211B1 (en) | 2017-12-28 | 2021-02-24 | Dassault Systèmes | Generating 3d models representing buildings |
EP3506160B1 (en) * | 2017-12-28 | 2022-06-01 | Dassault Systèmes | Semantic segmentation of 2d floor plans with a pixel-wise classifier |
US11636665B2 (en) * | 2018-01-15 | 2023-04-25 | Shenzhen Corerain Technologies Co., Ltd. | Streaming image semantic segmentation method, logical integrated circuit system and electronic device |
CN110119507A (zh) * | 2018-02-05 | 2019-08-13 | 阿里巴巴集团控股有限公司 | 词向量生成方法、装置以及设备 |
US10535141B2 (en) * | 2018-02-06 | 2020-01-14 | Google Llc | Differentiable jaccard loss approximation for training an artificial neural network |
CN110188865B (zh) * | 2019-05-21 | 2022-04-26 | 深圳市商汤科技有限公司 | 信息处理方法及装置、电子设备和存储介质 |
US11586918B2 (en) | 2019-06-06 | 2023-02-21 | Bluebeam, Inc. | Methods and systems for automatically detecting design elements in a two-dimensional design document |
CN110298320B (zh) * | 2019-07-01 | 2021-06-22 | 北京百度网讯科技有限公司 | 一种视觉定位方法、装置及存储介质 |
CN110555847B (zh) * | 2019-07-31 | 2021-04-02 | 瀚博半导体(上海)有限公司 | 一种基于卷积神经网络的图像处理方法及装置 |
CN110569851B (zh) * | 2019-08-28 | 2022-03-15 | 广西师范大学 | 门控多层融合的实时语义分割方法 |
CN110659653A (zh) * | 2019-09-12 | 2020-01-07 | 复旦大学 | 一种可充分保留图像特征的特征提取模型及特征提取方法 |
CN112836554A (zh) * | 2019-11-25 | 2021-05-25 | 广东博智林机器人有限公司 | 图像校验模型的构建方法、图像校验方法和装置 |
CN111179160A (zh) * | 2020-01-02 | 2020-05-19 | 广东博智林机器人有限公司 | 一种信息过滤方法、装置、电子设备及存储介质 |
CN111612803B (zh) * | 2020-04-30 | 2023-10-17 | 杭州电子科技大学 | 一种基于图像清晰度的车辆图像语义分割方法 |
CN111882565B (zh) * | 2020-07-28 | 2023-07-07 | 深圳市雨滴科技有限公司 | 一种图像二值化方法、装置、设备及存储介质 |
CN112036408B (zh) * | 2020-07-31 | 2022-04-12 | 北京航空航天大学 | 一种复杂场景底层视觉信息提取方法 |
US11699001B2 (en) * | 2020-10-13 | 2023-07-11 | Flyreel, Inc. | Generating measurements of physical structures and environments through automated analysis of sensor data |
US20230153377A1 (en) * | 2021-11-12 | 2023-05-18 | Covera Health | Re-weighted self-influence for labeling noise removal in medical imaging data |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5988862A (en) | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
WO2009080034A2 (en) | 2007-12-20 | 2009-07-02 | 3Djam Aps | System and method for conversion and distribution of graphical objects |
US8229176B2 (en) | 2008-07-25 | 2012-07-24 | Navteq B.V. | End user image open area maps |
US8099237B2 (en) | 2008-07-25 | 2012-01-17 | Navteq North America, Llc | Open area maps |
US8339417B2 (en) | 2008-07-25 | 2012-12-25 | Navteq B.V. | Open area maps based on vector graphics format images |
US8774525B2 (en) | 2012-02-03 | 2014-07-08 | Eagle View Technologies, Inc. | Systems and methods for estimation of building floor area |
WO2016205246A1 (en) | 2015-06-15 | 2016-12-22 | Knit Health, Inc. | Remote biometric monitoring system |
CN106548127B (zh) | 2015-09-18 | 2022-11-04 | 松下电器(美国)知识产权公司 | 图像识别方法 |
US10426364B2 (en) | 2015-10-27 | 2019-10-01 | Cardiologs Technologies Sas | Automatic method to delineate or categorize an electrocardiogram |
US9965705B2 (en) | 2015-11-03 | 2018-05-08 | Baidu Usa Llc | Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering |
US10115032B2 (en) | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
US10192129B2 (en) | 2015-11-18 | 2019-01-29 | Adobe Systems Incorporated | Utilizing interactive deep learning to select objects in digital visual media |
US9881234B2 (en) | 2015-11-25 | 2018-01-30 | Baidu Usa Llc. | Systems and methods for end-to-end object detection |
CN108475415B (zh) * | 2015-12-21 | 2022-05-27 | 商汤集团有限公司 | 用于图像处理的方法和系统 |
US10402700B2 (en) * | 2016-01-25 | 2019-09-03 | Deepmind Technologies Limited | Generating images using neural networks |
EP3596659A4 (en) * | 2017-03-17 | 2021-01-27 | Magic Leap, Inc. | SPACE LAYOUT APPRAISAL METHODS AND TECHNIQUES |
-
2017
- 2017-10-30 US US15/798,349 patent/US10410350B2/en active Active
- 2017-11-07 JP JP2017214985A patent/JP6584477B2/ja active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020204863A (ja) * | 2019-06-17 | 2020-12-24 | 富士フイルム株式会社 | 学習装置、学習装置の作動方法、および学習装置の作動プログラム |
JP7195220B2 (ja) | 2019-06-17 | 2022-12-23 | 富士フイルム株式会社 | 学習装置、学習装置の作動方法、および学習装置の作動プログラム |
JP2021005846A (ja) * | 2019-06-27 | 2021-01-14 | オリンパス株式会社 | 積層型撮像デバイス、撮像装置、撮像方法、学習方法及び画像読み出し回路 |
Also Published As
Publication number | Publication date |
---|---|
JP6584477B2 (ja) | 2019-10-02 |
US20190130573A1 (en) | 2019-05-02 |
US10410350B2 (en) | 2019-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6584477B2 (ja) | スキップアーキテクチャ・ニューラルネットワーク装置及び改良されたセマンティックセグメンテーションのための方法 | |
Huang et al. | Architectural drawings recognition and generation through machine learning | |
RU2720070C1 (ru) | Системы и способы сегментации изображения с использованием свёрточной нейронной сети | |
RU2720440C1 (ru) | Способ сегментации изображения с использованием нейронной сети | |
JP6843086B2 (ja) | 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体 | |
Patravali et al. | 2D-3D fully convolutional neural networks for cardiac MR segmentation | |
JP7102531B2 (ja) | コンピュータ断層撮影血管造影における解剖学的構造のセグメンテーションのための方法、コンピュータ・プログラム、コンピュータ可読記憶媒体、および装置 | |
JP6584478B2 (ja) | 画像の改良されたセグメンテーション及び認識のための方法と装置 | |
US20180211157A1 (en) | Image processing method and device | |
CN110276402B (zh) | 一种基于深度学习语义边界增强的盐体识别方法 | |
EP3867883A1 (en) | 3d scene synthesis techniques using neural network architectures | |
CN105917354A (zh) | 用于图像处理的空间金字塔池化网络 | |
JP2018513507A (ja) | 人工ニューラルネットワークの関連性スコア割当て | |
CN104484886B (zh) | 一种mr图像的分割方法及装置 | |
US20220335600A1 (en) | Method, device, and storage medium for lesion segmentation and recist diameter prediction via click-driven attention and dual-path connection | |
Cheng et al. | Building simplification using backpropagation neural networks: a combination of cartographers' expertise and raster-based local perception | |
JP2023533907A (ja) | 自己注意ベースのニューラルネットワークを使用した画像処理 | |
WO2021064585A1 (en) | Method and system for predicting permeability of hydrocarbon reservoirs using artificial intelligence | |
Song et al. | Pixel-level crack detection in images using SegNet | |
CN111091010A (zh) | 相似度确定、网络训练、查找方法及装置和存储介质 | |
JP2021096850A (ja) | 視差推定システムと方法、電子機器及びコンピュータ可読記憶媒体 | |
JP2022185144A (ja) | 対象検出方法、対象検出モデルのレーニング方法および装置 | |
Karadag et al. | EDU-AI: a twofold machine learning model to support classroom layout generation | |
CN113435461B (zh) | 一种点云局部特征提取方法、装置、设备及存储介质 | |
CN113554653A (zh) | 基于互信息校准点云数据长尾分布的语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20171204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6584477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |