JP2020027659A - 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 - Google Patents
畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 Download PDFInfo
- Publication number
- JP2020027659A JP2020027659A JP2019147185A JP2019147185A JP2020027659A JP 2020027659 A JP2020027659 A JP 2020027659A JP 2019147185 A JP2019147185 A JP 2019147185A JP 2019147185 A JP2019147185 A JP 2019147185A JP 2020027659 A JP2020027659 A JP 2020027659A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- training
- convolutional
- regression
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 153
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 105
- 230000000306 recurrent effect Effects 0.000 title claims abstract description 80
- 230000011218 segmentation Effects 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 94
- 230000003287 optical effect Effects 0.000 claims abstract description 64
- 230000006870 function Effects 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 11
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000007787 long-term memory Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 6
- 241000271897 Viperidae Species 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 241000294754 Macroptilium atropurpureum Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012956 testing procedure Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
ot,ht=RNN(xt,ht−1) ・・・(1)
(b)「活性化関数」を適用することによって結果の適切性が改善されるようにする非線形レイヤ(校正レイヤとも称される)。
(c)複数のニューロンを1つの単一のニューロンにグルーピングするようにするプーリングレイヤ。
(d)レイヤのすべてのニューロンを以前のレイヤのすべてのニューロンと連結する、全層連結のレイヤ。
(b’1)推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が対をなすフレーム間のピクセルのモーションに適応するように(adapt)、ワーピングする段階、および
(b’2)畳み込み回帰型ニューラルネットワークによって各フレームをセマンティックセグメンテーションする段階。
Claims (23)
- ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練する方法であって、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、および
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替される段階
を含み、
前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対について、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(b1)少なくとも前記回帰型モジュールのパラメータを学習する段階
を含む、
畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記連続するフレームの対は、以前のフレームおよび現在のフレームを含み、前記推定されたオプティカルフローは、前記現在のフレームから前記以前のフレームへの逆方向オプティカルフローであり、
前記(b1)は、前記以前のフレームと関連する内部状態に対応する前記以前のフレームと関連するワーピングされた内部状態を取得するために、ワーピング関数を前記内部状態に適用する段階であり、各ピクセルは、前記逆方向オプティカルフローによる変位を経たものである、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記ワーピング関数は
請求項2に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記(b1)は、第2畳み込みニューラルネットワークを使用して実行される、前記連続するフレームの対のフレーム間のオプティカルフローを推定する段階を含み、前記第2畳み込みニューラルネットワークは、オプティカルフローが既知である連続するフレームの訓練対のセットを使用して訓練される、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetSimpleネットワークである、
請求項4に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetCorrelationネットワークである、
請求項4に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記回帰型モジュールの前の前記畳み込み回帰型ニューラルネットワークの各レイヤのパラメータは、前記(b2)の間に固定される、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 回帰型モジュールによって代替される前記第1畳み込みニューラルネットワークの畳み込みレイヤは、最後から2番目の畳み込みレイヤである、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記(b2)で学習された畳み込み回帰型ニューラルネットワークのパラメータは、前記回帰型モジュールおよび前記第1畳み込みニューラルネットワークの最後の畳み込みレイヤのパラメータである、
請求項7に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記(b2)は、前記第2畳み込みニューラルネットワークのパラメータを学習する段階
をさらに含む、
請求項4に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記第1畳み込み回帰型ニューラルネットワークは、最後から2番目の畳み込みレイヤの前に、Atrous空間的ピラミッドプーリングモジュールを含む、
請求項7に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記回帰型モジュールは、畳み込みゲート付き回帰型ユニットを含む、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - 前記回帰型モジュールは、畳み込み長短期記憶を含む、
請求項1に記載の畳み込み回帰型ニューラルネットワークを訓練する方法。 - セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、およびセマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階によって訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替され、前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および少なくとも前記回帰型モジュールのパラメータを学習する段階を含み、当該方法は、
(a)前記入力されたビデオの連続するフレームの各対に対し、前記対のフレーム間のオプティカルフローを推定する段階、
(b)前記入力されたビデオの連続するフレームの各対に対し、前記推定されたオプティカルフローによって前記回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(c)前記入力されたビデオの連続するフレームの各対に対し、前記畳み込み回帰型ニューラルネットワークによって各フレームをセマンティックセグメンテーションする段階
を含む、入力されたビデオのセマンティックセグメンテーション方法。 - 前記畳み込み回帰型ニューラルネットワークを訓練する段階は、オプティカルフローが既知である連続するフレームの訓練対のセットを使用して第2畳み込みニューラルネットワークを訓練する段階を含み、前記(a)は、前記第2畳み込みニューラルネットワークを使用して実行される、
請求項14に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetSimpleネットワークである、
請求項15に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetCorrelationネットワークである、
請求項15に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法であって、
(a)前記入力されたビデオの連続するフレームの各対に対し、前記対のフレーム間のオプティカルフローを推定する段階、
(b)前記入力されたビデオの連続するフレームの各対に対し、前記推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(c)前記入力されたビデオの連続するフレームの各対に対し、前記畳み込み回帰型ニューラルネットワークによって各フレームをセマンティックセグメンテーションする段階
を含み、
前記畳み込みニューラルネットワークは、セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、およびセマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階によって訓練され、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替され、前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および少なくとも前記回帰型モジュールのパラメータを学習する段階を含む、入力されたビデオのセマンティックセグメンテーション方法。 - 前記畳み込み回帰型ニューラルネットワークを訓練する段階は、オプティカルフローが既知である連続するフレームの訓練対のセットを使用して第2畳み込みニューラルネットワークを訓練する段階を含み、前記(a)は、前記第2畳み込みニューラルネットワークを使用して実行される、
請求項18に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetSimpleネットワークである、
請求項19に記載の入力されたビデオのセマンティックセグメンテーション方法。 - 前記第2畳み込みニューラルネットワークは、FlowNetCorrelationネットワークである、請求項19に記載の入力されたビデオのセマンティックセグメンテーション方法。
- ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練するシステムであって、
当該システムは、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練し、
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練し、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替され、
前記畳み込み回帰型ニューラルネットワークを訓練することは、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングし、
(b1)少なくとも前記回帰型モジュールのパラメータを学習すること
を含む、
畳み込み回帰型ニューラルネットワークを訓練するシステム。 - ビデオのセマンティックセグメンテーションのための畳み込み回帰型ニューラルネットワークを訓練させる方法をコンピュータに実行させるためのプログラムであって、
前記方法は、
(a)セマンティックセグメンテーションされた訓練イメージのセットを使用して第1畳み込みニューラルネットワークを訓練する段階、および
(b)セマンティックセグメンテーションされた訓練ビデオのセットを使用して前記第1畳み込みニューラルネットワークに対応する畳み込み回帰型ニューラルネットワークを訓練する段階であって、畳み込みレイヤは、隠れ状態を有する回帰型モジュールによって代替される、段階
を含み、
前記畳み込み回帰型ニューラルネットワークを訓練する段階は、前記セマンティックセグメンテーションされた訓練ビデオのセットのうちの1つのビデオの連続するフレームの各対に対し、
(b1)連続するフレームの対のフレーム間の推定されたオプティカルフローによって回帰型レイヤの内部状態を、前記内部状態が前記対のフレーム間のピクセルのモーションに適応するようにワーピングする段階、および
(b1)少なくとも前記回帰型モジュールのパラメータを学習する段階
を含む、
プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18306104.3A EP3608844A1 (en) | 2018-08-10 | 2018-08-10 | Methods for training a crnn and for semantic segmentation of an inputted video using said crnn |
EP18306104.3 | 2018-08-10 | ||
US16/517,942 | 2019-07-22 | ||
US16/517,942 US11182620B2 (en) | 2018-08-10 | 2019-07-22 | Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020027659A true JP2020027659A (ja) | 2020-02-20 |
JP6861249B2 JP6861249B2 (ja) | 2021-04-21 |
Family
ID=69620226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019147185A Active JP6861249B2 (ja) | 2018-08-10 | 2019-08-09 | 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6861249B2 (ja) |
KR (1) | KR102235745B1 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476781A (zh) * | 2020-04-08 | 2020-07-31 | 浙江大学 | 一种基于视频语义分割技术的混凝土裂缝识别方法和装置 |
CN111579243A (zh) * | 2020-06-17 | 2020-08-25 | 大连理工大学 | 一种基于深度迁移学习的滚动轴承智能诊断系统 |
CN111915573A (zh) * | 2020-07-14 | 2020-11-10 | 武汉楚精灵医疗科技有限公司 | 一种基于时序特征学习的消化内镜下病灶跟踪方法 |
CN112085717A (zh) * | 2020-09-04 | 2020-12-15 | 厦门大学 | 一种用于腹腔镜手术的视频预测方法及其系统 |
CN112418481A (zh) * | 2020-10-21 | 2021-02-26 | 上海眼控科技股份有限公司 | 雷达回波图预测方法、装置、计算机设备和存储介质 |
CN114565880A (zh) * | 2022-04-28 | 2022-05-31 | 武汉大学 | 一种基于光流追踪的伪造视频检验方法、系统及设备 |
CN114742917A (zh) * | 2022-04-25 | 2022-07-12 | 桂林电子科技大学 | 一种基于卷积神经网络的ct图像分割方法 |
JP2022532322A (ja) * | 2020-04-17 | 2022-07-14 | シェンチェン センスタイム テクノロジー カンパニー リミテッド | 画像処理方法及び装置、電子機器並びに記憶媒体 |
CN116129375A (zh) * | 2023-04-18 | 2023-05-16 | 华中科技大学 | 一种基于多曝光生成融合的弱光车辆检测方法 |
WO2023083240A1 (zh) * | 2021-11-10 | 2023-05-19 | 杭州海康威视数字技术股份有限公司 | 训练智能模型的方法、装置、电子设备及存储介质 |
JP2023537892A (ja) * | 2020-08-07 | 2023-09-06 | ナノトロニクス イメージング インコーポレイテッド | 自動焦点合わせ顕微鏡システムのための深層学習モデル |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369430B (zh) * | 2020-03-09 | 2023-04-07 | 中山大学 | 基于移动深度学习引擎的移动端人像智能背景替换方法 |
KR20210117623A (ko) * | 2020-03-19 | 2021-09-29 | 삼성전자주식회사 | 컴퓨팅 장치 및 그 동작 방법 |
KR102339011B1 (ko) * | 2020-04-27 | 2021-12-14 | 계명대학교 산학협력단 | 자율차량에서 주야간 보행자 감지를 위한 적응적 스위처 및 이를 이용한 보행자 감지 장치 |
CN112084923B (zh) * | 2020-09-01 | 2023-12-22 | 西安电子科技大学 | 一种遥感图像语义分割方法、存储介质及计算设备 |
KR102639807B1 (ko) * | 2021-02-23 | 2024-02-22 | 인하대학교 산학협력단 | 시계열 데이터에 기반한 알츠하이머병 진행감지를 위한 멀티모드 멀티테스크 딥 러닝 모델 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101317A (ja) * | 2016-12-21 | 2018-06-28 | ホーチキ株式会社 | 異常監視システム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10157309B2 (en) * | 2016-01-14 | 2018-12-18 | Nvidia Corporation | Online detection and classification of dynamic gestures with recurrent convolutional neural networks |
US10242266B2 (en) * | 2016-03-02 | 2019-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for detecting actions in videos |
-
2019
- 2019-08-02 KR KR1020190094417A patent/KR102235745B1/ko active IP Right Grant
- 2019-08-09 JP JP2019147185A patent/JP6861249B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101317A (ja) * | 2016-12-21 | 2018-06-28 | ホーチキ株式会社 | 異常監視システム |
Non-Patent Citations (1)
Title |
---|
DAVID NILSSON ET AL.: "Semantic Video Segmentation by Gated Recurrent Flow Propagation", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6020034985, June 2018 (2018-06-01), pages 6819 - 6828, XP033473600, ISSN: 0004349312, DOI: 10.1109/CVPR.2018.00713 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476781A (zh) * | 2020-04-08 | 2020-07-31 | 浙江大学 | 一种基于视频语义分割技术的混凝土裂缝识别方法和装置 |
CN111476781B (zh) * | 2020-04-08 | 2023-04-07 | 浙江大学 | 一种基于视频语义分割技术的混凝土裂缝识别方法和装置 |
JP2022532322A (ja) * | 2020-04-17 | 2022-07-14 | シェンチェン センスタイム テクノロジー カンパニー リミテッド | 画像処理方法及び装置、電子機器並びに記憶媒体 |
CN111579243A (zh) * | 2020-06-17 | 2020-08-25 | 大连理工大学 | 一种基于深度迁移学习的滚动轴承智能诊断系统 |
CN111915573A (zh) * | 2020-07-14 | 2020-11-10 | 武汉楚精灵医疗科技有限公司 | 一种基于时序特征学习的消化内镜下病灶跟踪方法 |
JP2023537892A (ja) * | 2020-08-07 | 2023-09-06 | ナノトロニクス イメージング インコーポレイテッド | 自動焦点合わせ顕微鏡システムのための深層学習モデル |
CN112085717A (zh) * | 2020-09-04 | 2020-12-15 | 厦门大学 | 一种用于腹腔镜手术的视频预测方法及其系统 |
CN112085717B (zh) * | 2020-09-04 | 2024-03-19 | 厦门大学 | 一种用于腹腔镜手术的视频预测方法及其系统 |
CN112418481A (zh) * | 2020-10-21 | 2021-02-26 | 上海眼控科技股份有限公司 | 雷达回波图预测方法、装置、计算机设备和存储介质 |
WO2023083240A1 (zh) * | 2021-11-10 | 2023-05-19 | 杭州海康威视数字技术股份有限公司 | 训练智能模型的方法、装置、电子设备及存储介质 |
CN114742917B (zh) * | 2022-04-25 | 2024-04-26 | 桂林电子科技大学 | 一种基于卷积神经网络的ct图像分割方法 |
CN114742917A (zh) * | 2022-04-25 | 2022-07-12 | 桂林电子科技大学 | 一种基于卷积神经网络的ct图像分割方法 |
CN114565880B (zh) * | 2022-04-28 | 2022-07-19 | 武汉大学 | 一种基于光流追踪的伪造视频检验方法、系统及设备 |
CN114565880A (zh) * | 2022-04-28 | 2022-05-31 | 武汉大学 | 一种基于光流追踪的伪造视频检验方法、系统及设备 |
CN116129375B (zh) * | 2023-04-18 | 2023-07-21 | 华中科技大学 | 一种基于多曝光生成融合的弱光车辆检测方法 |
CN116129375A (zh) * | 2023-04-18 | 2023-05-16 | 华中科技大学 | 一种基于多曝光生成融合的弱光车辆检测方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6861249B2 (ja) | 2021-04-21 |
KR20200018283A (ko) | 2020-02-19 |
KR102235745B1 (ko) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6861249B2 (ja) | 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法 | |
US11182620B2 (en) | Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network | |
US11003923B2 (en) | Spatial and temporal information for semantic segmentation | |
Athar et al. | Stem-seg: Spatio-temporal embeddings for instance segmentation in videos | |
Huang et al. | Efficient uncertainty estimation for semantic segmentation in videos | |
Wang et al. | Deepvo: Towards end-to-end visual odometry with deep recurrent convolutional neural networks | |
Li et al. | Unsupervised video object segmentation with motion-based bilateral networks | |
Ebert et al. | Self-Supervised Visual Planning with Temporal Skip Connections. | |
Von Stumberg et al. | Gn-net: The gauss-newton loss for multi-weather relocalization | |
EP3832534B1 (en) | Video action segmentation by mixed temporal domain adaptation | |
US10339421B2 (en) | RGB-D scene labeling with multimodal recurrent neural networks | |
US20210326638A1 (en) | Video panoptic segmentation | |
CN113378600B (zh) | 一种行为识别方法及系统 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
Dewan et al. | Deeptemporalseg: Temporally consistent semantic segmentation of 3d lidar scans | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN111325784A (zh) | 一种无监督位姿与深度计算方法及系统 | |
WO2020088766A1 (en) | Methods for optical flow estimation | |
CN111079507B (zh) | 一种行为识别方法及装置、计算机装置及可读存储介质 | |
CN114511751B (zh) | 视频特征提取器的无监督训练 | |
Choi et al. | Future trajectory prediction via RNN and maximum margin inverse reinforcement learning | |
Zhao et al. | Interpretable deep feature propagation for early action recognition | |
Schmeckpeper et al. | Object-centric video prediction without annotation | |
Ciamarra et al. | FLODCAST: Flow and depth forecasting via multimodal recurrent architectures | |
Liu et al. | Weakly but deeply supervised occlusion-reasoned parametric road layouts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200923 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6861249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |