JP6861249B2 - 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 - Google Patents
畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 Download PDFInfo
- Publication number
- JP6861249B2 JP6861249B2 JP2019147185A JP2019147185A JP6861249B2 JP 6861249 B2 JP6861249 B2 JP 6861249B2 JP 2019147185 A JP2019147185 A JP 2019147185A JP 2019147185 A JP2019147185 A JP 2019147185A JP 6861249 B2 JP6861249 B2 JP 6861249B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- convolutional
- training
- recurrent
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000306 recurrent effect Effects 0.000 title claims description 131
- 238000013528 artificial neural network Methods 0.000 title claims description 96
- 230000011218 segmentation Effects 0.000 title claims description 78
- 238000012549 training Methods 0.000 claims description 152
- 238000013527 convolutional neural network Methods 0.000 claims description 124
- 238000000034 method Methods 0.000 claims description 67
- 230000003287 optical effect Effects 0.000 claims description 64
- 230000006870 function Effects 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 12
- 230000002441 reversible effect Effects 0.000 claims description 8
- 230000006403 short-term memory Effects 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 241000271897 Viperidae Species 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000007787 long-term memory Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 101150071716 PCSK1 gene Proteins 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012956 testing procedure Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Description
ot,ht=RNN(xt,ht−1) ・・・(1)
(b)「活性化関数」を適用することによって結果の適切性が改善されるようにする非線形レイヤ(校正レイヤとも称される)。
(c)複数のニューロンを1つの単一のニューロンにグルーピングするようにするプーリングレイヤ。
(d)レイヤのすべてのニューロンを以前のレイヤのすべてのニューロンと連結する、全層連結のレイヤ。
(b’1)推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が対をなすフレーム間のピクセルのモーションに適応するように(adapt)、ワーピングする段階、および
(b’2)畳み込み回帰型ニューラルネットワークによって各フレームをセマンティックセグメンテーションする段階。
Claims (24)
- ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練する方法であって、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、および
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替される段階
を含み、
前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対について、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(b2)少なくとも前記回帰型モジュールのパラメータを学習する段階
を含み、
前記回帰型モジュールによって代替される前記第1畳み込みニューラルネットワークの畳み込みレイヤは、最後から2番目の畳み込みレイヤである、
畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記連続するフレームの対は、以前のフレームおよび現在のフレームを含み、前記推定されたオプティカルフローは、前記現在のフレームから前記以前のフレームへの逆方向オプティカルフローであり、
前記(b1)は、前記以前のフレームと関連する内部状態に対応する前記以前のフレームと関連するワーピングされた内部状態を取得するために、ワーピング関数を前記内部状態に適用する段階であり、各ピクセルは、前記逆方向オプティカルフローによる変位を経たものである、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記(b1)は、第2畳み込みニューラルネットワークを使用して実行される、前記連続するフレームの対のフレーム間のオプティカルフローを推定する段階を含み、前記第2畳み込みニューラルネットワークは、オプティカルフローが既知である連続するフレームの訓練対のセットを使用して訓練される、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetSimpleネットワークである、
請求項4に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetCorrelationネットワークである、
請求項4に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記回帰型モジュールの前の前記畳み込み回帰型ニューラルネットワークの各レイヤのパラメータは、前記(b2)の間に固定される、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記(b2)で学習された畳み込み回帰型ニューラルネットワークのパラメータは、前記回帰型モジュールおよび前記第1畳み込みニューラルネットワークの最後の畳み込みレイヤのパラメータである、
請求項7に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記(b2)は、前記第2畳み込みニューラルネットワークのパラメータを学習する段階
をさらに含む、
請求項4に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記第1畳み込み回帰型ニューラルネットワークは、最後から2番目の畳み込みレイヤの前に、Atrous空間的ピラミッドプーリングモジュールを含む、
請求項7に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記回帰型モジュールは、畳み込みゲート付き回帰型ユニットを含む、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記回帰型モジュールは、畳み込み長短期記憶を含む、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練する方法であって、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、および
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替される段階
を含み、
前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対について、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(b2)少なくとも前記回帰型モジュールのパラメータを学習する段階
を含み、
前記回帰型モジュールの前の前記畳み込み回帰型ニューラルネットワークの各レイヤのパラメータは、前記(b2)の間に固定され、
前記(b2)で学習された畳み込み回帰型ニューラルネットワークのパラメータは、前記回帰型モジュールおよび前記第1畳み込みニューラルネットワークの最後の畳み込みレイヤのパラメータである、
畳み込み回帰型ニューラルネットワークを訓練する方法。 - ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練する方法であって、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、および
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替される段階
を含み、
前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対について、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(b2)少なくとも前記回帰型モジュールのパラメータを学習する段階
を含み、
前記回帰型モジュールの前の前記畳み込み回帰型ニューラルネットワークの各レイヤのパラメータは、前記(b2)の間に固定され、
前記第1畳み込み回帰型ニューラルネットワークは、最後から2番目の畳み込みレイヤの前に、Atrous空間的ピラミッドプーリングモジュールを含む、
畳み込み回帰型ニューラルネットワークを訓練する方法。 - セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、およびセマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階によって訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替され、前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および少なくとも前記回帰型モジュールのパラメータを学習する段階を含み、当該方法は、
(a)前記入力されたビデオの連続するフレームの各対に対し、前記対のフレーム間のオプティカルフローを推定する段階、
(b)前記入力されたビデオの連続するフレームの各対に対し、前記推定されたオプティカルフローによって前記回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(c)前記入力されたビデオの連続するフレームの各対に対し、前記畳み込み回帰型ニューラルネットワークによって各フレームをセマンティックセグメンテーションする段階
を含み、
前記回帰型モジュールによって代替される前記第1畳み込みニューラルネットワークの畳み込みレイヤは、最後から2番目の畳み込みレイヤである、
入力されたビデオのセマンティックセグメンテーション方法。 - 前記畳み込み回帰型ニューラルネットワークを訓練する段階は、オプティカルフローが既知である連続するフレームの訓練対のセットを使用して第2畳み込みニューラルネットワークを訓練する段階を含み、前記(a)は、前記第2畳み込みニューラルネットワークを使用して実行される、
請求項15に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetSimpleネットワークである、
請求項16に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetCorrelationネットワークである、
請求項16に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法であって、
(a)前記入力されたビデオの連続するフレームの各対に対し、前記対のフレーム間のオプティカルフローを推定する段階、
(b)前記入力されたビデオの連続するフレームの各対に対し、前記推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(c)前記入力されたビデオの連続するフレームの各対に対し、前記畳み込み回帰型ニューラルネットワークによって各フレームをセマンティックセグメンテーションする段階
を含み、
前記畳み込みニューラルネットワークは、セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、およびセマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階によって訓練され、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替され、前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および少なくとも前記回帰型モジュールのパラメータを学習する段階を含み、
前記回帰型モジュールによって代替される前記第1畳み込みニューラルネットワークの畳み込みレイヤは、最後から2番目の畳み込みレイヤである、
入力されたビデオのセマンティックセグメンテーション方法。 - 前記畳み込み回帰型ニューラルネットワークを訓練する段階は、オプティカルフローが既知である連続するフレームの訓練対のセットを使用して第2畳み込みニューラルネットワークを訓練する段階を含み、前記(a)は、前記第2畳み込みニューラルネットワークを使用して実行される、
請求項19に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetSimpleネットワークである、
請求項20に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetCorrelationネットワークである、
請求項20に記載の入力されたビデオのセマンティックセグメンテーション方法。 - ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練するシステムであって、
当該システムは、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練し、
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練し、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替され、
前記畳み込み回帰型ニューラルネットワークを訓練することは、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングし、
(b2)少なくとも前記回帰型モジュールのパラメータを学習すること
を含み、
前記回帰型モジュールによって代替される前記第1畳み込みニューラルネットワークの畳み込みレイヤは、最後から2番目の畳み込みレイヤである、
畳み込み回帰型ニューラルネットワークを訓練するシステム。 - ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練させる方法をコンピュータに実行させるためのプログラムであって、
前記方法は、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、および
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替される、段階
を含み、
前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(b2)少なくとも前記回帰型モジュールのパラメータを学習する段階
を含み、
前記回帰型モジュールによって代替される前記第1畳み込みニューラルネットワークの畳み込みレイヤは、最後から2番目の畳み込みレイヤである、
プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18306104.3A EP3608844A1 (en) | 2018-08-10 | 2018-08-10 | Methods for training a crnn and for semantic segmentation of an inputted video using said crnn |
EP18306104.3 | 2018-08-10 | ||
US16/517,942 US11182620B2 (en) | 2018-08-10 | 2019-07-22 | Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network |
US16/517,942 | 2019-07-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020027659A JP2020027659A (ja) | 2020-02-20 |
JP6861249B2 true JP6861249B2 (ja) | 2021-04-21 |
Family
ID=69620226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019147185A Active JP6861249B2 (ja) | 2018-08-10 | 2019-08-09 | 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6861249B2 (ja) |
KR (1) | KR102235745B1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369430B (zh) * | 2020-03-09 | 2023-04-07 | 中山大学 | 基于移动深度学习引擎的移动端人像智能背景替换方法 |
KR20210117623A (ko) * | 2020-03-19 | 2021-09-29 | 삼성전자주식회사 | 컴퓨팅 장치 및 그 동작 방법 |
CN111476781B (zh) * | 2020-04-08 | 2023-04-07 | 浙江大学 | 一种基于视频语义分割技术的混凝土裂缝识别方法和装置 |
CN111507408B (zh) * | 2020-04-17 | 2022-11-04 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
KR102339011B1 (ko) * | 2020-04-27 | 2021-12-14 | 계명대학교 산학협력단 | 자율차량에서 주야간 보행자 감지를 위한 적응적 스위처 및 이를 이용한 보행자 감지 장치 |
CN111579243B (zh) * | 2020-06-17 | 2021-04-20 | 大连理工大学 | 一种基于深度迁移学习的滚动轴承智能诊断系统 |
CN111915573A (zh) * | 2020-07-14 | 2020-11-10 | 武汉楚精灵医疗科技有限公司 | 一种基于时序特征学习的消化内镜下病灶跟踪方法 |
US20220046180A1 (en) * | 2020-08-07 | 2022-02-10 | Nanotronics Imaging, Inc. | Deep Learning Model for Auto-Focusing Microscope Systems |
CN112084923B (zh) * | 2020-09-01 | 2023-12-22 | 西安电子科技大学 | 一种遥感图像语义分割方法、存储介质及计算设备 |
CN112085717B (zh) * | 2020-09-04 | 2024-03-19 | 厦门大学 | 一种用于腹腔镜手术的视频预测方法及其系统 |
CN112418481A (zh) * | 2020-10-21 | 2021-02-26 | 上海眼控科技股份有限公司 | 雷达回波图预测方法、装置、计算机设备和存储介质 |
KR102639807B1 (ko) * | 2021-02-23 | 2024-02-22 | 인하대학교 산학협력단 | 시계열 데이터에 기반한 알츠하이머병 진행감지를 위한 멀티모드 멀티테스크 딥 러닝 모델 |
CN114118236A (zh) * | 2021-11-10 | 2022-03-01 | 杭州海康威视数字技术股份有限公司 | 训练智能模型的方法及装置 |
CN114742917B (zh) * | 2022-04-25 | 2024-04-26 | 桂林电子科技大学 | 一种基于卷积神经网络的ct图像分割方法 |
CN114565880B (zh) * | 2022-04-28 | 2022-07-19 | 武汉大学 | 一种基于光流追踪的伪造视频检验方法、系统及设备 |
CN116129375B (zh) * | 2023-04-18 | 2023-07-21 | 华中科技大学 | 一种基于多曝光生成融合的弱光车辆检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10157309B2 (en) | 2016-01-14 | 2018-12-18 | Nvidia Corporation | Online detection and classification of dynamic gestures with recurrent convolutional neural networks |
US10242266B2 (en) * | 2016-03-02 | 2019-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for detecting actions in videos |
JP6867153B2 (ja) * | 2016-12-21 | 2021-04-28 | ホーチキ株式会社 | 異常監視システム |
-
2019
- 2019-08-02 KR KR1020190094417A patent/KR102235745B1/ko active IP Right Grant
- 2019-08-09 JP JP2019147185A patent/JP6861249B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020027659A (ja) | 2020-02-20 |
KR20200018283A (ko) | 2020-02-19 |
KR102235745B1 (ko) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6861249B2 (ja) | 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 | |
US11182620B2 (en) | Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network | |
US11003923B2 (en) | Spatial and temporal information for semantic segmentation | |
CN108537746B (zh) | 一种基于深度卷积网络的模糊可变图像盲复原方法 | |
Von Stumberg et al. | Gn-net: The gauss-newton loss for multi-weather relocalization | |
US20190005360A1 (en) | Method and apparatus for joint image processing and perception | |
CN105095862B (zh) | 一种基于深度卷积条件随机场的人体动作识别方法 | |
US20210326638A1 (en) | Video panoptic segmentation | |
JP7536893B2 (ja) | 自己注意ベースのニューラルネットワークを使用した画像処理 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
Zhang et al. | Attention-based interpolation network for video deblurring | |
Dewan et al. | Deeptemporalseg: Temporally consistent semantic segmentation of 3d lidar scans | |
CN111079507B (zh) | 一种行为识别方法及装置、计算机装置及可读存储介质 | |
CN111325784A (zh) | 一种无监督位姿与深度计算方法及系统 | |
CN112634296A (zh) | 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端 | |
CN112766062B (zh) | 一种基于双流深度神经网络的人体行为识别方法 | |
Das et al. | Tiledsoilingnet: Tile-level soiling detection on automotive surround-view cameras using coverage metric | |
CN112164130A (zh) | 基于深度对抗网络的视频-动画风格迁移方法 | |
Hwang et al. | Adversarial structure matching for structured prediction tasks | |
CN112686952A (zh) | 一种图像光流计算系统、方法及应用 | |
CN112053290A (zh) | 基于卷积去噪自编码器的无监督事件相机去噪方法及装置 | |
CN113850135A (zh) | 一种基于时间移位框架的动态手势识别方法及系统 | |
CN111462132A (zh) | 一种基于深度学习的视频物体分割方法及系统 | |
CN112115786B (zh) | 基于注意力U-net的单目视觉里程计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200923 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6861249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |