JP2018181124A - エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム - Google Patents
エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム Download PDFInfo
- Publication number
- JP2018181124A JP2018181124A JP2017082412A JP2017082412A JP2018181124A JP 2018181124 A JP2018181124 A JP 2018181124A JP 2017082412 A JP2017082412 A JP 2017082412A JP 2017082412 A JP2017082412 A JP 2017082412A JP 2018181124 A JP2018181124 A JP 2018181124A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- feature map
- decoder
- stage
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013527 convolutional neural network Methods 0.000 title abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000008878 coupling Effects 0.000 abstract 1
- 238000010168 coupling process Methods 0.000 abstract 1
- 238000005859 coupling reaction Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
また、「畳み込みニューラルネットワーク」とは、複数のユニットを持つ層が入力段から出力段へ向けて一方向に連結されており、出力層側のユニットが、隣接する入力層側の特定のユニットに結合された畳み込み層を有する順伝播型ネットワークをいう。
また、完全畳み込み構造を用いた技術もある(例えば非特許文献2参照)。この技術によれば、画像をエンコードし、スキップ構造によってある層を統合して位置を推測する。このとき、スキップ構造の後に合併させる技術もある(例えば非特許文献3参照)。
エンコーダ:物体検出における特徴抽出処理
デコーダ :物体検出における位置検出処理
図1によれば、複数の人が映る写真画像が入力されている(非特許文献4から引用)。尚、入力画像は、スマートフォンやカメラなどで撮影した自然画像に限られず、CG(computer Graphics)画像であってもよい。
出力された物体認識画像からは、人や、テーブル、椅子のような物体が検出されると共に、その物体の位置が特定されている。
尚、U字型ネットワークの段層を深くすることによって、演算量は増加するが、表現力の高い特徴に対する位置を検出することができる。
そして、同じ重みフィルタを、入力データに対して移動させて、1枚の特徴マップを生成する。ここで、移動させる要素の数(移動量)を「ストライド(stride)」と称す。
プーリング層は、入力データから重要な特徴要素のみに縮小した特徴マップを生成する。
アップサンプリング層は、入力された特徴マップの要素(画素)を、例えば縦2倍・横2倍の4個の要素に同じ値で埋めて、拡大した特徴マップを生成する。
図2によれば、画像は、入力層(input layer)に入力され、入力層の出力データは、エンコード側の第1段の畳み込み層へ入力される。第1段の畳み込み層から出力された特徴マップは、第2段のプーリング層に入力されると共に、第1段のデコーダ側の畳み込み層へも入力される。
エンコード側の第2段のプーリング層によって要素数が縮小された特徴マップは、第2段の畳み込み層に入力される。第2段の畳み込み層から出力された特徴マップは、第3段のプーリング層に入力されると共に、第2段のデコーダ側の畳み込み層へも入力される。
エンコード側の第3段のプーリング層によって要素数が縮小された特徴マップは、第3段の畳み込み層に入力される。
図2によれば、第3段の畳み込み層から出力された特徴マップは、第3段のアップサンプリング層に入力される。
第3段のアップサンプリング層によって要素数が拡大された特徴マップは、デコーダ側の第2段の畳み込み層に入力される。
ここで、エンコード側の第2段の畳み込み層から出力された特徴マップと、第3段のアップサンプリング層から出力された特徴マップとをマージした特徴マップが、デコーダ側の第2段の畳み込み層へ入力される。そして、第2段の畳み込み層から出力された特徴マップは、第2段のアップサンプリング層に入力される。
デコーダ側の第2段のアップサンプリング層によって要素数が拡大された特徴マップは、デコーダ側の第1段の畳み込み層に入力される。
ここで、エンコード側の第1段の畳み込み層から出力された特徴マップと、第2段のアップサンプリング層から出力された特徴マップとをマージした特徴マップが、デコーダ側の第1段の畳み込み層へ入力される。そして、第1段の畳み込み層から出力された特徴マップは、活性化層へ入力される。
活性化層は、例えばReLU(Rectified Linear Unit)の場合、信号の強いニューロンを増強し、弱いニューロンを抑圧することができる。活性化層から出力されたデータは、各ピクセルに物体がマッピングされた画像データとなる(例えば図1の参照)。
そして、デコーダ側の第n段のアップサンプリング層から出力されたS×S×Nのサイズの特徴マップと、エンコード側の第n−1段の畳み込み層から出力されたS×S×Nのサイズの特徴マップとは、同じサイズとなって、マージされる。
ここでのマージとは、2つの特徴マップを単に連結して(線形に合併させて)、2Nとしたものである。S×S×2Nのサイズの特徴マップが、デコーダ側の第n−1段の畳み込み層へ入力される。
デコーダ側の第n段のアップサンプリング層から出力された特徴マップを入力する第n段の補間用畳み込み層を更に有し、
前記マージ機能は、第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する
ようにコンピュータを機能させることを特徴とする。
第n段の補間用畳み込み層は、前記アップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させるために、第n−1段の畳み込み層から誤差逆伝播によって重みを更新する
ようにコンピュータを機能させることも好ましい。
エンコーダ側の第n−1段の畳み込み層から出力された特徴マップのサイズ及び枚数と、
デコーダ側の第n段のアップサンプリング層及び補間用畳み込み層から出力された特徴マップのサイズ及び枚数と、
前記マージ機能から出力される特徴マップのサイズ及び枚数と
は、全て同一となる
ようにコンピュータを機能させることも好ましい。
前記エンコーダデコーダ畳み込みネットワークは、U字型のショートカット構造を有する
ようにコンピュータを機能させることも好ましい。
前記エンコーダデコーダ畳み込みネットワークは、入力画像における物体検出に適用されており、
前記エンコーダは、物体検出における特徴抽出処理であり、
前記デコーダは、物体検出における位置検出処理である
ようにコンピュータを機能させることも好ましい。
デコーダ側の第n段のアップサンプリング層から出力された特徴マップを、第n段の補間用畳み込み層へ入力する第1のステップと、
第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する第2のステップと
をコンピュータに実行させることを特徴とする。
具体的には、デコーダ側の第n段のアップサンプリング層から出力された特徴マップを入力する第n段の「補間用畳み込み層」を更に有する。
第n段の「補間用畳み込み層」は、学習時に、デコーダ側の第n−1段の畳み込み層から誤差逆伝播によって重みを更新する。これによって、第n段のアップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させることができる。
ここで、第n−1段におけるマージ機能は、従来技術のように連結(線形合併)ではなく、要素毎に加算するものである。即ち、特徴マップのサイズをS×S×2Nとすることなく、要素毎に加算して、S×S×Nとする。これによって、更に、アップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させることができる。
第3段のアップサンプリング層によって要素数が拡大された特徴マップは、補間用畳み込み層に入力される。
ここで、エンコード側の第2段の畳み込み層から出力された特徴マップと、第3段の補間用畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップが、デコーダ側の第2段の畳み込み層へ入力される。そして、第2段の畳み込み層から出力された特徴マップは、第2段のアップサンプリング層に入力される。
デコーダ側の第2段のアップサンプリング層によって要素数が拡大された特徴マップは、補間用畳み込み層に入力される。
ここで、エンコード側の第1段の畳み込み層から出力された特徴マップと、第2段の補間用畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップが、デコーダ側の第1段の畳み込み層へ入力される。そして、第1段の畳み込み層から出力された特徴マップは、活性化層へ入力される。活性化層から出力されたデータは、各ピクセルに物体がマッピングされた画像データとなる。
そして、デコーダ側の第n段の補間用畳み込み層から出力されたS×S×Nのサイズの特徴マップと、エンコード側の第n−1段の畳み込み層から出力されたS×S×Nのサイズの特徴マップとは、同じサイズとなって、マージされる。
ここでのマージとは、2つの特徴マップの要素毎に加算して、Nとしたものである。S×S×Nのサイズの特徴マップが、デコーダ側の第n−1段の畳み込み層へ入力される。
即ち、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップのサイズS×S及び枚数Nと、デコーダ側の第n段のアップサンプリング層及び補間用畳み込み層から出力された特徴マップのサイズS×S及び枚数Nと、マージ機能から出力される特徴マップのサイズS×S及び枚数Nとは、全て同一となる。
左側:従来技術の図2におけるプログラムコード
右側:本発明の図4によって更新されたプログラムコードのみ
up1 = merge([UpSampling2D(size=(2,2))(conv3), conv2],
mode='concat', concat_axis=1)
#conv3(第3段の畳み込み層から出力された特徴マップ)を、size=(2,2)(縦2倍・横2倍)にUpSamplingし、conv2(第2段の畳み込み層から出力された特徴マップ)とconcat(連結)によってmergeし、その特徴マップをup1とする。
(図4の本発明)
up1=UpSampling2D(size=(2,2))(conv3)
conv3 = Convolution2D(64, 3, 3, activation='relu',
border_mode='same')(up1)
up1 = merge([conv3, conv2], mode='sum', axis=1)
# conv3(第3段の畳み込み層から出力された特徴マップ)を、size=(2,2)(縦2倍・横2倍)倍にUpSamplingし、その特徴マップをup1とする。
# Convolution(補間用畳み込み層)に、up1の特徴マップを入力し、その出力となる特徴マップをconv3とする。
# conv3(補間用畳み込み層から出力された特徴マップ)と、conv2(第2段の畳み込み層から出力された特徴マップ)とをsum(要素毎の加算)によってmergeし、その特徴マップをup1とする。
up2 = merge([UpSampling2D(size=(2,2))(conv4), conv1],
mode='concat', concat_axis=1)
#conv4(第2段の畳み込み層)から出力された特徴マップを、size=(2,2)(縦2倍・横2倍)にUpSamplingし、conv1(第1段の畳み込み層)から出力された特徴マップとconcat(連結)によってmergeし、その特徴マップをup2とする。
(図4の本発明)
up2=UpSampling2D(size=(2,2))(conv4)
conv4 = Convolution2D(32, 3, 3, activation='relu',
border_mode='same')(up2)
up2 = merge([conv4, conv1], mode='sum', axis=1)
# conv4(第2段の畳み込み層から出力された特徴マップ)を、size=(2,2)(縦2倍・横2倍)にUpSamplingし、その特徴マップをup2とする。
# Convolution(補間用畳み込み層)に、up2の特徴マップを入力し、その出力となる特徴マップをconv4とする。
# conv4(補間用畳み込み層から出力された特徴マップ)と、conv1(第1段の畳み込み層から出力された特徴マップ)とをsum(要素毎の加算)によってmergeし、その特徴マップをup2とする。
Claims (6)
- エンコーダデコーダ畳み込みネットワークについて、デコーダ側の入れ子状の第n段のアップサンプリング層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを連結して、デコーダ側の第n−1段の畳み込み層へ入力するマージ機能を有するようにコンピュータを機能させるプログラムにおいて、
デコーダ側の第n段のアップサンプリング層から出力された特徴マップを入力する第n段の補間用畳み込み層を更に有し、
前記マージ機能は、第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する
ようにコンピュータを機能させることを特徴とするプログラム。 - 第n段の補間用畳み込み層は、前記アップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させるために、第n−1段の畳み込み層から誤差逆伝播によって重みを更新する
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。 - エンコーダ側の第n−1段の畳み込み層から出力された特徴マップのサイズ及び枚数と、
デコーダ側の第n段のアップサンプリング層及び補間用畳み込み層から出力された特徴マップのサイズ及び枚数と、
前記マージ機能から出力される特徴マップのサイズ及び枚数と
は、全て同一となる
ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。 - 前記エンコーダデコーダ畳み込みネットワークは、U字型のショートカット構造を有する
ようにコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のプログラム。 - 前記エンコーダデコーダ畳み込みネットワークは、入力画像における物体検出に適用されており、
前記エンコーダは、物体検出における特徴抽出処理であり、
前記デコーダは、物体検出における位置検出処理である
ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。 - エンコーダデコーダ畳み込みネットワークについて、デコーダ側の入れ子状の第n段のアップサンプリング層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを連結して、デコーダ側の第n−1段の畳み込み層へ入力することによってマージするべくコンピュータに実行させるプログラムにおいて、
デコーダ側の第n段のアップサンプリング層から出力された特徴マップを、第n段の補間用畳み込み層へ入力する第1のステップと、
第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する第2のステップと
をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017082412A JP6744838B2 (ja) | 2017-04-18 | 2017-04-18 | エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017082412A JP6744838B2 (ja) | 2017-04-18 | 2017-04-18 | エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018181124A true JP2018181124A (ja) | 2018-11-15 |
JP6744838B2 JP6744838B2 (ja) | 2020-08-19 |
Family
ID=64276798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017082412A Expired - Fee Related JP6744838B2 (ja) | 2017-04-18 | 2017-04-18 | エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6744838B2 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223254A (zh) * | 2019-06-10 | 2019-09-10 | 大连民族大学 | 一种基于对抗生成网络的图像去噪方法 |
CN110852199A (zh) * | 2019-10-28 | 2020-02-28 | 中国石化销售股份有限公司华南分公司 | 一种基于双帧编码解码模型的前景提取方法 |
JP2020113055A (ja) * | 2019-01-11 | 2020-07-27 | セコム株式会社 | 画像認識装置、画像認識方法、及び画像認識プログラム |
CN111462131A (zh) * | 2019-01-22 | 2020-07-28 | 斯特拉德视觉公司 | 一种注意力驱动图像分割的方法和设备 |
CN111476247A (zh) * | 2019-01-23 | 2020-07-31 | 斯特拉德视觉公司 | 利用了1xK或Kx1卷积运算的CNN方法及装置 |
KR20200092839A (ko) * | 2019-01-25 | 2020-08-04 | 주식회사 스트라드비젼 | 라플라시안 피라미드 네트워크를 이용하여 자율 주행 자동차 레벨 4 및 레벨 5를 만족시키기 위해 요구되는 도로 장애물 검출에 있어서의 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 및 이를 이용한 테스팅 방법 및 테스팅 장치 |
JP2020119518A (ja) * | 2019-01-23 | 2020-08-06 | 株式会社ストラドビジョン | ハードウェア最適化を通じてモバイル装置または高精度の小型ネットワークに使用されるcnnパラメータ量子化を最適化するためにcnnレイヤを変換する方法及び装置 |
JP2020119312A (ja) * | 2019-01-24 | 2020-08-06 | キヤノンメディカルシステムズ株式会社 | データ処理装置、データ処理方法、およびデータ処理プログラム |
JP2020187721A (ja) * | 2019-05-14 | 2020-11-19 | ユニバーシティ−インダストリー コーポレーション グループ オブ キョンヒ ユニバーシティ | 画像セグメンテーション方法、装置およびコンピュータプログラム |
JP2021009026A (ja) * | 2019-06-28 | 2021-01-28 | 国立大学法人東京農工大学 | プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 |
KR20210074902A (ko) * | 2019-12-12 | 2021-06-22 | 경북대학교 산학협력단 | 사용자 맞춤형 영상 밝기 및 대비 조절 장치 및 방법 |
WO2021176566A1 (ja) * | 2020-03-03 | 2021-09-10 | 日本電気株式会社 | 特徴変換装置、画像認識システム、特徴変換方法および非一時的なコンピュータ可読媒体 |
JP2021528778A (ja) * | 2019-04-30 | 2021-10-21 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | 特徴マップ拡大方法、装置、機器及びコンピュータ可読記憶媒体 |
JP2021533430A (ja) * | 2019-07-18 | 2021-12-02 | 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. | 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム |
JP2022507144A (ja) * | 2018-11-27 | 2022-01-18 | レイセオン カンパニー | 人工画像生成用コンピュータアーキテクチャ |
JP7501125B2 (ja) | 2019-06-18 | 2024-06-18 | 富士通株式会社 | 深層学習ネットワークに基づく対象検出方法、装置及び電子機器 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016115248A (ja) * | 2014-12-17 | 2016-06-23 | 株式会社デンソー | 演算処理装置 |
-
2017
- 2017-04-18 JP JP2017082412A patent/JP6744838B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016115248A (ja) * | 2014-12-17 | 2016-06-23 | 株式会社デンソー | 演算処理装置 |
Non-Patent Citations (1)
Title |
---|
DINESH NAIK, DINESH NAIK: "'Image segmentation using encoder-decoder architecture and region consistency activation'", 2016 11TH INTERNATIONAL CONFERENCE ON INDUSTRIAL AND INFORMATION SYSTEMS (ICIIS), JPN6020027417, 3 December 2016 (2016-12-03), US, pages 724 - 729, XP033302656, ISSN: 0004315356, DOI: 10.1109/ICIINFS.2016.8263033 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022507144A (ja) * | 2018-11-27 | 2022-01-18 | レイセオン カンパニー | 人工画像生成用コンピュータアーキテクチャ |
JP7214863B2 (ja) | 2018-11-27 | 2023-01-30 | レイセオン カンパニー | 人工画像生成用コンピュータアーキテクチャ |
JP2020113055A (ja) * | 2019-01-11 | 2020-07-27 | セコム株式会社 | 画像認識装置、画像認識方法、及び画像認識プログラム |
CN111462131A (zh) * | 2019-01-22 | 2020-07-28 | 斯特拉德视觉公司 | 一种注意力驱动图像分割的方法和设备 |
JP2020119533A (ja) * | 2019-01-22 | 2020-08-06 | 株式会社ストラドビジョン | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 |
JP2020119535A (ja) * | 2019-01-23 | 2020-08-06 | 株式会社ストラドビジョン | Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置 |
CN111476247A (zh) * | 2019-01-23 | 2020-07-31 | 斯特拉德视觉公司 | 利用了1xK或Kx1卷积运算的CNN方法及装置 |
CN111476247B (zh) * | 2019-01-23 | 2023-09-26 | 斯特拉德视觉公司 | 利用了1xK或Kx1卷积运算的CNN方法及装置 |
JP2020119518A (ja) * | 2019-01-23 | 2020-08-06 | 株式会社ストラドビジョン | ハードウェア最適化を通じてモバイル装置または高精度の小型ネットワークに使用されるcnnパラメータ量子化を最適化するためにcnnレイヤを変換する方法及び装置 |
JP2020119312A (ja) * | 2019-01-24 | 2020-08-06 | キヤノンメディカルシステムズ株式会社 | データ処理装置、データ処理方法、およびデータ処理プログラム |
JP7210301B2 (ja) | 2019-01-24 | 2023-01-23 | キヤノンメディカルシステムズ株式会社 | データ処理装置、データ処理方法、およびデータ処理プログラム |
KR102246326B1 (ko) | 2019-01-25 | 2021-04-29 | 주식회사 스트라드비젼 | 라플라시안 피라미드 네트워크를 이용하여 자율 주행 자동차 레벨 4 및 레벨 5를 만족시키기 위해 요구되는 도로 장애물 검출에 있어서의 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 및 이를 이용한 테스팅 방법 및 테스팅 장치 |
JP2020119500A (ja) * | 2019-01-25 | 2020-08-06 | 株式会社ストラドビジョン | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 |
KR20200092839A (ko) * | 2019-01-25 | 2020-08-04 | 주식회사 스트라드비젼 | 라플라시안 피라미드 네트워크를 이용하여 자율 주행 자동차 레벨 4 및 레벨 5를 만족시키기 위해 요구되는 도로 장애물 검출에 있어서의 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 및 이를 이용한 테스팅 방법 및 테스팅 장치 |
JP2021528778A (ja) * | 2019-04-30 | 2021-10-21 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | 特徴マップ拡大方法、装置、機器及びコンピュータ可読記憶媒体 |
JP7133045B2 (ja) | 2019-04-30 | 2022-09-07 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | 特徴マップ拡大方法、装置、機器及びコンピュータ可読記憶媒体 |
JP2020187721A (ja) * | 2019-05-14 | 2020-11-19 | ユニバーシティ−インダストリー コーポレーション グループ オブ キョンヒ ユニバーシティ | 画像セグメンテーション方法、装置およびコンピュータプログラム |
CN110223254A (zh) * | 2019-06-10 | 2019-09-10 | 大连民族大学 | 一种基于对抗生成网络的图像去噪方法 |
JP7501125B2 (ja) | 2019-06-18 | 2024-06-18 | 富士通株式会社 | 深層学習ネットワークに基づく対象検出方法、装置及び電子機器 |
JP2021009026A (ja) * | 2019-06-28 | 2021-01-28 | 国立大学法人東京農工大学 | プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 |
JP7446570B2 (ja) | 2019-06-28 | 2024-03-11 | 国立大学法人東京農工大学 | プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 |
JP7106679B2 (ja) | 2019-07-18 | 2022-07-26 | 北京市商▲湯▼科技▲開▼▲発▼有限公司 | 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム |
JP2021533430A (ja) * | 2019-07-18 | 2021-12-02 | 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. | 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム |
CN110852199A (zh) * | 2019-10-28 | 2020-02-28 | 中国石化销售股份有限公司华南分公司 | 一种基于双帧编码解码模型的前景提取方法 |
KR102359138B1 (ko) | 2019-12-12 | 2022-02-07 | 경북대학교 산학협력단 | 사용자 맞춤형 영상 밝기 및 대비 조절 장치 및 방법 |
KR20210074902A (ko) * | 2019-12-12 | 2021-06-22 | 경북대학교 산학협력단 | 사용자 맞춤형 영상 밝기 및 대비 조절 장치 및 방법 |
JPWO2021176566A1 (ja) * | 2020-03-03 | 2021-09-10 | ||
WO2021176566A1 (ja) * | 2020-03-03 | 2021-09-10 | 日本電気株式会社 | 特徴変換装置、画像認識システム、特徴変換方法および非一時的なコンピュータ可読媒体 |
JP7444235B2 (ja) | 2020-03-03 | 2024-03-06 | 日本電気株式会社 | 注意機構、画像認識システム、特徴変換方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6744838B2 (ja) | 2020-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018181124A (ja) | エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム | |
CN108876792B (zh) | 语义分割方法、装置和系统及存储介质 | |
CN110998604A (zh) | 有局部外观的对象的识别与重构 | |
JP2016153984A (ja) | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両 | |
CN106845631B (zh) | 一种流执行方法及装置 | |
WO2019071433A1 (en) | METHOD, SYSTEM AND APPARATUS FOR RECOGNIZING PATTERNS | |
CN103279936A (zh) | 基于画像的人脸伪照片自动合成及修正方法 | |
EP3570220A1 (en) | Information processing method, information processing device, and computer-readable storage medium | |
JP2019101519A (ja) | 画素に基づく画像セグメンテーション用のプログラム | |
CN110992367B (zh) | 对带有遮挡区域的图像进行语义分割的方法 | |
CN110705430A (zh) | 基于深度学习的多人面部表情识别方法和识别系统 | |
CN115170622A (zh) | 基于transformer的医学图像配准方法及系统 | |
Raksarikorn et al. | Facial expression classification using deep extreme inception networks | |
Xu et al. | Infrared and visible image fusion using a deep unsupervised framework with perceptual loss | |
CN111539349A (zh) | 姿态识别模型的训练方法及装置、姿态识别方法及其装置 | |
Wang et al. | Msfnet: multistage fusion network for infrared and visible image fusion | |
Zhou | Video expression recognition method based on spatiotemporal recurrent neural network and feature fusion | |
JP7344023B2 (ja) | 顔認識装置、学習装置及びプログラム | |
CN109035318B (zh) | 一种图像风格的转换方法 | |
CN116665300A (zh) | 基于时空自适应特征融合图卷积网络的骨架动作识别方法 | |
Wang et al. | [Retracted] Convolution‐Based Design for Real‐Time Pose Recognition and Character Animation Generation | |
CN115761377A (zh) | 基于上下文注意力机制的吸烟者脑部磁共振影像分类方法 | |
JP7008388B2 (ja) | 画素に基づく画像セグメンテーション用のプログラム | |
Mendoza et al. | Neural networks recognition rate as index to compare the performance of fuzzy edge detectors | |
Sadoghi Yazdi et al. | Gait Recognition Based on Invariant Leg Classification Using a Neuro‐Fuzzy Algorithm as the Fusion Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6744838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |