JP2018181124A - エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム - Google Patents

エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム Download PDF

Info

Publication number
JP2018181124A
JP2018181124A JP2017082412A JP2017082412A JP2018181124A JP 2018181124 A JP2018181124 A JP 2018181124A JP 2017082412 A JP2017082412 A JP 2017082412A JP 2017082412 A JP2017082412 A JP 2017082412A JP 2018181124 A JP2018181124 A JP 2018181124A
Authority
JP
Japan
Prior art keywords
layer
feature map
decoder
stage
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017082412A
Other languages
English (en)
Other versions
JP6744838B2 (ja
Inventor
仁武 高
Renwu Gao
仁武 高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017082412A priority Critical patent/JP6744838B2/ja
Publication of JP2018181124A publication Critical patent/JP2018181124A/ja
Application granted granted Critical
Publication of JP6744838B2 publication Critical patent/JP6744838B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラムを提供する。【解決手段】エンコーダデコーダ畳み込みネットワークについて、デコーダ側の入れ子状の第n段のアップサンプリング層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを連結して、デコーダ側の第n−1段の畳み込み層へ入力するマージ機能を有するプログラムにおいて、デコーダ側の第n段のアップサンプリング層から出力された特徴マップを入力する第n段の補間用畳み込み層を更に有し、マージ機能は、第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する。【選択図】図4

Description

本発明は、画像に映る物体を認識する技術に関する。
画像に映る物体を認識するために、画像の領域セグメンテーションの処理が必要となる。この処理は、画像の各ピクセルが、何の物体に属するのかを検出するものであり、従来、ランダムフォレスト(random forest)や、サポートベクターマシン(support vector machine, SVM)、エイダブースト(adaboost)などが用いられてきた。
近年、画像の領域セグメンテーションに、深層学習(deep learning)における畳み込みニューラルネットワーク(convolutional neural network)が適用されてきている。畳み込みニューラルネットワークに画像を入力することによって、特徴を抽出し、その特徴が現れた位置を検出することができる。
「ニューラルネットワーク」とは、生体の脳における特性を計算機上のシミュレーションによって表現することを目指した数学モデルをいう。シナプスの結合によってネットワークを形成した人工ニューロン(ユニット)が、学習によってシナプスの結合強度を変化させ、問題解決能力を持つようなモデル全般をいう。
また、「畳み込みニューラルネットワーク」とは、複数のユニットを持つ層が入力段から出力段へ向けて一方向に連結されており、出力層側のユニットが、隣接する入力層側の特定のユニットに結合された畳み込み層を有する順伝播型ネットワークをいう。
前方層のユニットから後方層のユニットへつなぐ関数のパラメータを、「重み(weight)」と称す。学習とは、この関数のパラメータとして、適切な「重み」を算出することにある。教師データの入力データに対する出力層からの出力データと、教師データの正解ラベルとの誤差を用いて、各層の重みを最適に更新される。誤差は、「誤差逆伝播法」によって、出力層側から入力層側へ向けて次々に伝播し、各層の重みを少しずつ更新していく。最終的に、誤差が小さくなるように、各層の重みを適切な値に調整する収束計算を実行する。
従来、画像の物体認識用の畳み込みニューラルネットワークとして、エンコーダデコーダ構造を用いた技術がある(例えば非特許文献1参照)。この技術によれば、エンコーダは、画像から物体の特徴を抽出し、デコーダは、その特徴を物体の位置にマッピングする。
また、完全畳み込み構造を用いた技術もある(例えば非特許文献2参照)。この技術によれば、画像をエンコードし、スキップ構造によってある層を統合して位置を推測する。このとき、スキップ構造の後に合併させる技術もある(例えば非特許文献3参照)。
図1は、エンコーダデコーダ畳み込みニューラルネットワークの概説図である。
図1によれば、エンコーダデコーダ畳み込みニューラルネットワーク(encoder-decoder convolutional neural network)は、入力された画像から物体が検出されると共に、その画像の各ピクセルが何の物体に属するか、を認識する。エンコーダデコーダ畳み込みニューラルネットワークは、エンコーダ及びデコーダの2つのステップを実行する。
エンコーダ:物体検出における特徴抽出処理
デコーダ :物体検出における位置検出処理
エンコーダデコーダ畳み込みニューラルネットワークは、入力された画像と同じサイズの物体認識画像を出力する。
図1によれば、複数の人が映る写真画像が入力されている(非特許文献4から引用)。尚、入力画像は、スマートフォンやカメラなどで撮影した自然画像に限られず、CG(computer Graphics)画像であってもよい。
出力された物体認識画像からは、人や、テーブル、椅子のような物体が検出されると共に、その物体の位置が特定されている。
図2は、従来技術のエンコーダデコーダ畳み込みネットワークにおける層の構造図である。
エンコーダデコーダ畳み込みネットワークは、U字型のショートカット構造(入れ子状構造)を有する。U字型ネットワークによれば、エンコーダは、畳み込み層及びプーリング層(pooling layer)によって要素数(画素数)を減少させながら特徴マップ(feature map)を作成していく。一方で、デコーダは、畳み込み層及びアップサンプリング層(upsampling layer)によって要素数を増加させながら特徴マップを作成していく。
尚、U字型ネットワークの段層を深くすることによって、演算量は増加するが、表現力の高い特徴に対する位置を検出することができる。
畳み込み層は、入力データに重みフィルタを充てて、その各要素の積の和を、特徴マップの1個の要素の値とする。そして、入力データに対して重みフィルタをスライディングさせながら、局所特徴を増強した特徴マップを生成する。畳み込み層から出力される特徴マップについて、サイズはS×Sとなり、その枚数はNとなる。特徴マップの枚数Nは、重みフィルタの個数Nと一致する。
そして、同じ重みフィルタを、入力データに対して移動させて、1枚の特徴マップを生成する。ここで、移動させる要素の数(移動量)を「ストライド(stride)」と称す。
プーリング層は、入力データから重要な特徴要素のみに縮小した特徴マップを生成する。
アップサンプリング層は、入力された特徴マップの要素(画素)を、例えば縦2倍・横2倍の4個の要素に同じ値で埋めて、拡大した特徴マップを生成する。
<エンコーダ>
図2によれば、画像は、入力層(input layer)に入力され、入力層の出力データは、エンコード側の第1段の畳み込み層へ入力される。第1段の畳み込み層から出力された特徴マップは、第2段のプーリング層に入力されると共に、第1段のデコーダ側の畳み込み層へも入力される。
エンコード側の第2段のプーリング層によって要素数が縮小された特徴マップは、第2段の畳み込み層に入力される。第2段の畳み込み層から出力された特徴マップは、第3段のプーリング層に入力されると共に、第2段のデコーダ側の畳み込み層へも入力される。
エンコード側の第3段のプーリング層によって要素数が縮小された特徴マップは、第3段の畳み込み層に入力される。
<デコーダ>
図2によれば、第3段の畳み込み層から出力された特徴マップは、第3段のアップサンプリング層に入力される。
第3段のアップサンプリング層によって要素数が拡大された特徴マップは、デコーダ側の第2段の畳み込み層に入力される。
ここで、エンコード側の第2段の畳み込み層から出力された特徴マップと、第3段のアップサンプリング層から出力された特徴マップとをマージした特徴マップが、デコーダ側の第2段の畳み込み層へ入力される。そして、第2段の畳み込み層から出力された特徴マップは、第2段のアップサンプリング層に入力される。
デコーダ側の第2段のアップサンプリング層によって要素数が拡大された特徴マップは、デコーダ側の第1段の畳み込み層に入力される。
ここで、エンコード側の第1段の畳み込み層から出力された特徴マップと、第2段のアップサンプリング層から出力された特徴マップとをマージした特徴マップが、デコーダ側の第1段の畳み込み層へ入力される。そして、第1段の畳み込み層から出力された特徴マップは、活性化層へ入力される。
活性化層は、例えばReLU(Rectified Linear Unit)の場合、信号の強いニューロンを増強し、弱いニューロンを抑圧することができる。活性化層から出力されたデータは、各ピクセルに物体がマッピングされた画像データとなる(例えば図1の参照)。
図3は、従来技術のアップサンプリング層及びマージ機能における特徴マップの処理を表す説明図である。
デコーダ側の第n段のアップサンプリング層は、S/2×S/2×Nのサイズの特徴マップを入力した場合、例えば縦2倍・横2倍にしたS×S×Nのサイズの特徴マップを出力する。
そして、デコーダ側の第n段のアップサンプリング層から出力されたS×S×Nのサイズの特徴マップと、エンコード側の第n−1段の畳み込み層から出力されたS×S×Nのサイズの特徴マップとは、同じサイズとなって、マージされる。
ここでのマージとは、2つの特徴マップを単に連結して(線形に合併させて)、2Nとしたものである。S×S×2Nのサイズの特徴マップが、デコーダ側の第n−1段の畳み込み層へ入力される。
前述した入れ子型のニューラルネットワークとして、例えばResNet(residual network)やU-Netがある。これらは、デコーダ側で特徴マップを連結させることによって、第n−1段と第n段との層間の差を混ぜて、ネットワークのオーバーフィット(overfitting, 過剰適合)を防ごうとするものである。
SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation、[online]、[平成29年4月17日検索]、インターネット<URL: https://arxiv.org/pdf/1511.00561v3.pdf> Fully Convolutional Networks for Semantic Segmentation、[online]、[平成29年4月17日検索]、インターネット<URL:https://arxiv.org/pdf/1605.06211.pdf> Deep Residual Learning for Compressed Sensing CT Reconstruction via Persistent Homology Analysis、[online]、[平成29年4月17日検索]、インターネット<URL:https://arxiv.org/pdf/1611.06391.pdf> Pascal VOC、[online]、[平成29年4月17日検索]、インターネット<URL:http://host.robots.ox.ac.uk/pascal/VOC/voc2012/index.html>
前述したエンコーダデコーダ畳み込みニューラルネットワークによれば、アップサンプリング層における特徴マップのサイズ拡大(ブロック化)によって、画像の領域セグメンテーションの解像感が低下するという副作用がある。
そこで、本発明は、エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラムを提供することを目的とする。
本発明によれば、エンコーダデコーダ畳み込みネットワークについて、デコーダ側の入れ子状の第n段のアップサンプリング層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを連結して、デコーダ側の第n−1段の畳み込み層へ入力するマージ機能を有するようにコンピュータを機能させるプログラムにおいて、
デコーダ側の第n段のアップサンプリング層から出力された特徴マップを入力する第n段の補間用畳み込み層を更に有し、
前記マージ機能は、第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する
ようにコンピュータを機能させることを特徴とする。
本発明のプログラムにおける他の実施形態によれば、
第n段の補間用畳み込み層は、前記アップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させるために、第n−1段の畳み込み層から誤差逆伝播によって重みを更新する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
エンコーダ側の第n−1段の畳み込み層から出力された特徴マップのサイズ及び枚数と、
デコーダ側の第n段のアップサンプリング層及び補間用畳み込み層から出力された特徴マップのサイズ及び枚数と、
前記マージ機能から出力される特徴マップのサイズ及び枚数と
は、全て同一となる
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
前記エンコーダデコーダ畳み込みネットワークは、U字型のショートカット構造を有する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
前記エンコーダデコーダ畳み込みネットワークは、入力画像における物体検出に適用されており、
前記エンコーダは、物体検出における特徴抽出処理であり、
前記デコーダは、物体検出における位置検出処理である
ようにコンピュータを機能させることも好ましい。
本発明によれば、エンコーダデコーダ畳み込みネットワークについて、デコーダ側の入れ子状の第n段のアップサンプリング層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを連結して、デコーダ側の第n−1段の畳み込み層へ入力することによってマージするべくコンピュータに実行させるプログラムにおいて、
デコーダ側の第n段のアップサンプリング層から出力された特徴マップを、第n段の補間用畳み込み層へ入力する第1のステップと、
第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する第2のステップと
をコンピュータに実行させることを特徴とする。
本発明のプログラムによれば、エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善することができる。
エンコーダデコーダ畳み込みニューラルネットワークの概説図である。 従来技術のエンコーダデコーダ畳み込みネットワークにおける層の構造図である。 従来技術のアップサンプリング層及びマージ機能における特徴マップの処理を表す説明図である。 本発明のエンコーダデコーダ畳み込みネットワークにおける層の構造図である。 本発明のアップサンプリング層及びマージ機能における特徴マップの処理を表す説明図である。 従来技術の図2と本発明の図4とを比較したプログラムコードである。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
図4は、本発明のエンコーダデコーダ畳み込みネットワークにおける層の構造図である。
図4によれば、従来技術の図2と比較して、位置検出のデコーダのみが相違する。
具体的には、デコーダ側の第n段のアップサンプリング層から出力された特徴マップを入力する第n段の「補間用畳み込み層」を更に有する。
第n段の「補間用畳み込み層」は、学習時に、デコーダ側の第n−1段の畳み込み層から誤差逆伝播によって重みを更新する。これによって、第n段のアップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させることができる。
そして、デコーダ側の第n段の補間用畳み込み層から出力された特徴マップは、エンコード側の第n−1段の畳み込み層から出力された特徴マップとマージされる。
ここで、第n−1段におけるマージ機能は、従来技術のように連結(線形合併)ではなく、要素毎に加算するものである。即ち、特徴マップのサイズをS×S×2Nとすることなく、要素毎に加算して、S×S×Nとする。これによって、更に、アップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させることができる。
図4によれば、第3段の畳み込み層から出力された特徴マップは、第3段のアップサンプリング層に入力される。
第3段のアップサンプリング層によって要素数が拡大された特徴マップは、補間用畳み込み層に入力される。
ここで、エンコード側の第2段の畳み込み層から出力された特徴マップと、第3段の補間用畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップが、デコーダ側の第2段の畳み込み層へ入力される。そして、第2段の畳み込み層から出力された特徴マップは、第2段のアップサンプリング層に入力される。
デコーダ側の第2段のアップサンプリング層によって要素数が拡大された特徴マップは、補間用畳み込み層に入力される。
ここで、エンコード側の第1段の畳み込み層から出力された特徴マップと、第2段の補間用畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップが、デコーダ側の第1段の畳み込み層へ入力される。そして、第1段の畳み込み層から出力された特徴マップは、活性化層へ入力される。活性化層から出力されたデータは、各ピクセルに物体がマッピングされた画像データとなる。
図5は、本発明のアップサンプリング層及びマージ機能における特徴マップの処理を表す説明図である。
デコーダ側の第n段のアップサンプリング層は、S/2×S/2×Nのサイズの特徴マップを入力した場合、例えば縦2倍・横2倍に拡大したS×S×Nのサイズの特徴マップを出力する。その特徴マップは、補間用畳み込み層へ入力される。第n段の「補間用畳み込み層」は、デコーダ側の第n−1段の畳み込み層から誤差逆伝播によって重みが更新されたものである。
そして、デコーダ側の第n段の補間用畳み込み層から出力されたS×S×Nのサイズの特徴マップと、エンコード側の第n−1段の畳み込み層から出力されたS×S×Nのサイズの特徴マップとは、同じサイズとなって、マージされる。
ここでのマージとは、2つの特徴マップの要素毎に加算して、Nとしたものである。S×S×Nのサイズの特徴マップが、デコーダ側の第n−1段の畳み込み層へ入力される。
即ち、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップのサイズS×S及び枚数Nと、デコーダ側の第n段のアップサンプリング層及び補間用畳み込み層から出力された特徴マップのサイズS×S及び枚数Nと、マージ機能から出力される特徴マップのサイズS×S及び枚数Nとは、全て同一となる。
図6は、従来技術の図2と本発明の図4とを比較したプログラムコードである。
図6によれば、以下のように表されている。
左側:従来技術の図2におけるプログラムコード
右側:本発明の図4によって更新されたプログラムコードのみ
(図2の従来技術)
up1 = merge([UpSampling2D(size=(2,2))(conv3), conv2],
mode='concat', concat_axis=1)
#conv3(第3段の畳み込み層から出力された特徴マップ)を、size=(2,2)(縦2倍・横2倍)にUpSamplingし、conv2(第2段の畳み込み層から出力された特徴マップ)とconcat(連結)によってmergeし、その特徴マップをup1とする。
(図4の本発明)
up1=UpSampling2D(size=(2,2))(conv3)
conv3 = Convolution2D(64, 3, 3, activation='relu',
border_mode='same')(up1)
up1 = merge([conv3, conv2], mode='sum', axis=1)
# conv3(第3段の畳み込み層から出力された特徴マップ)を、size=(2,2)(縦2倍・横2倍)倍にUpSamplingし、その特徴マップをup1とする。
# Convolution(補間用畳み込み層)に、up1の特徴マップを入力し、その出力となる特徴マップをconv3とする。
# conv3(補間用畳み込み層から出力された特徴マップ)と、conv2(第2段の畳み込み層から出力された特徴マップ)とをsum(要素毎の加算)によってmergeし、その特徴マップをup1とする。
(図2の従来技術)
up2 = merge([UpSampling2D(size=(2,2))(conv4), conv1],
mode='concat', concat_axis=1)
#conv4(第2段の畳み込み層)から出力された特徴マップを、size=(2,2)(縦2倍・横2倍)にUpSamplingし、conv1(第1段の畳み込み層)から出力された特徴マップとconcat(連結)によってmergeし、その特徴マップをup2とする。
(図4の本発明)
up2=UpSampling2D(size=(2,2))(conv4)
conv4 = Convolution2D(32, 3, 3, activation='relu',
border_mode='same')(up2)
up2 = merge([conv4, conv1], mode='sum', axis=1)
# conv4(第2段の畳み込み層から出力された特徴マップ)を、size=(2,2)(縦2倍・横2倍)にUpSamplingし、その特徴マップをup2とする。
# Convolution(補間用畳み込み層)に、up2の特徴マップを入力し、その出力となる特徴マップをconv4とする。
# conv4(補間用畳み込み層から出力された特徴マップ)と、conv1(第1段の畳み込み層から出力された特徴マップ)とをsum(要素毎の加算)によってmergeし、その特徴マップをup2とする。
以上、詳細に説明したように、本発明のプログラムによれば、エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善することができる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。

Claims (6)

  1. エンコーダデコーダ畳み込みネットワークについて、デコーダ側の入れ子状の第n段のアップサンプリング層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを連結して、デコーダ側の第n−1段の畳み込み層へ入力するマージ機能を有するようにコンピュータを機能させるプログラムにおいて、
    デコーダ側の第n段のアップサンプリング層から出力された特徴マップを入力する第n段の補間用畳み込み層を更に有し、
    前記マージ機能は、第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する
    ようにコンピュータを機能させることを特徴とするプログラム。
  2. 第n段の補間用畳み込み層は、前記アップサンプリング層に基づく要素サイズの拡大による解像感低下の副作用を軽減させるために、第n−1段の畳み込み層から誤差逆伝播によって重みを更新する
    ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。
  3. エンコーダ側の第n−1段の畳み込み層から出力された特徴マップのサイズ及び枚数と、
    デコーダ側の第n段のアップサンプリング層及び補間用畳み込み層から出力された特徴マップのサイズ及び枚数と、
    前記マージ機能から出力される特徴マップのサイズ及び枚数と
    は、全て同一となる
    ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。
  4. 前記エンコーダデコーダ畳み込みネットワークは、U字型のショートカット構造を有する
    ようにコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のプログラム。
  5. 前記エンコーダデコーダ畳み込みネットワークは、入力画像における物体検出に適用されており、
    前記エンコーダは、物体検出における特徴抽出処理であり、
    前記デコーダは、物体検出における位置検出処理である
    ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。
  6. エンコーダデコーダ畳み込みネットワークについて、デコーダ側の入れ子状の第n段のアップサンプリング層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを連結して、デコーダ側の第n−1段の畳み込み層へ入力することによってマージするべくコンピュータに実行させるプログラムにおいて、
    デコーダ側の第n段のアップサンプリング層から出力された特徴マップを、第n段の補間用畳み込み層へ入力する第1のステップと、
    第n段の補間用畳み込み層から出力された特徴マップと、エンコーダ側の第n−1段の畳み込み層から出力された特徴マップとを、要素毎に加算した特徴マップを、デコーダ側の第n−1段の畳み込み層へ入力する第2のステップと
    をコンピュータに実行させることを特徴とするプログラム。

JP2017082412A 2017-04-18 2017-04-18 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム Expired - Fee Related JP6744838B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017082412A JP6744838B2 (ja) 2017-04-18 2017-04-18 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017082412A JP6744838B2 (ja) 2017-04-18 2017-04-18 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム

Publications (2)

Publication Number Publication Date
JP2018181124A true JP2018181124A (ja) 2018-11-15
JP6744838B2 JP6744838B2 (ja) 2020-08-19

Family

ID=64276798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017082412A Expired - Fee Related JP6744838B2 (ja) 2017-04-18 2017-04-18 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム

Country Status (1)

Country Link
JP (1) JP6744838B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223254A (zh) * 2019-06-10 2019-09-10 大连民族大学 一种基于对抗生成网络的图像去噪方法
CN110852199A (zh) * 2019-10-28 2020-02-28 中国石化销售股份有限公司华南分公司 一种基于双帧编码解码模型的前景提取方法
JP2020113055A (ja) * 2019-01-11 2020-07-27 セコム株式会社 画像認識装置、画像認識方法、及び画像認識プログラム
CN111462131A (zh) * 2019-01-22 2020-07-28 斯特拉德视觉公司 一种注意力驱动图像分割的方法和设备
CN111476247A (zh) * 2019-01-23 2020-07-31 斯特拉德视觉公司 利用了1xK或Kx1卷积运算的CNN方法及装置
KR20200092839A (ko) * 2019-01-25 2020-08-04 주식회사 스트라드비젼 라플라시안 피라미드 네트워크를 이용하여 자율 주행 자동차 레벨 4 및 레벨 5를 만족시키기 위해 요구되는 도로 장애물 검출에 있어서의 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 및 이를 이용한 테스팅 방법 및 테스팅 장치
JP2020119518A (ja) * 2019-01-23 2020-08-06 株式会社ストラドビジョン ハードウェア最適化を通じてモバイル装置または高精度の小型ネットワークに使用されるcnnパラメータ量子化を最適化するためにcnnレイヤを変換する方法及び装置
JP2020119312A (ja) * 2019-01-24 2020-08-06 キヤノンメディカルシステムズ株式会社 データ処理装置、データ処理方法、およびデータ処理プログラム
JP2020187721A (ja) * 2019-05-14 2020-11-19 ユニバーシティ−インダストリー コーポレーション グループ オブ キョンヒ ユニバーシティ 画像セグメンテーション方法、装置およびコンピュータプログラム
JP2021009026A (ja) * 2019-06-28 2021-01-28 国立大学法人東京農工大学 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置
KR20210074902A (ko) * 2019-12-12 2021-06-22 경북대학교 산학협력단 사용자 맞춤형 영상 밝기 및 대비 조절 장치 및 방법
WO2021176566A1 (ja) * 2020-03-03 2021-09-10 日本電気株式会社 特徴変換装置、画像認識システム、特徴変換方法および非一時的なコンピュータ可読媒体
JP2021528778A (ja) * 2019-04-30 2021-10-21 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 特徴マップ拡大方法、装置、機器及びコンピュータ可読記憶媒体
JP2021533430A (ja) * 2019-07-18 2021-12-02 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム
JP2022507144A (ja) * 2018-11-27 2022-01-18 レイセオン カンパニー 人工画像生成用コンピュータアーキテクチャ
JP7501125B2 (ja) 2019-06-18 2024-06-18 富士通株式会社 深層学習ネットワークに基づく対象検出方法、装置及び電子機器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115248A (ja) * 2014-12-17 2016-06-23 株式会社デンソー 演算処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115248A (ja) * 2014-12-17 2016-06-23 株式会社デンソー 演算処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DINESH NAIK, DINESH NAIK: "'Image segmentation using encoder-decoder architecture and region consistency activation'", 2016 11TH INTERNATIONAL CONFERENCE ON INDUSTRIAL AND INFORMATION SYSTEMS (ICIIS), JPN6020027417, 3 December 2016 (2016-12-03), US, pages 724 - 729, XP033302656, ISSN: 0004315356, DOI: 10.1109/ICIINFS.2016.8263033 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022507144A (ja) * 2018-11-27 2022-01-18 レイセオン カンパニー 人工画像生成用コンピュータアーキテクチャ
JP7214863B2 (ja) 2018-11-27 2023-01-30 レイセオン カンパニー 人工画像生成用コンピュータアーキテクチャ
JP2020113055A (ja) * 2019-01-11 2020-07-27 セコム株式会社 画像認識装置、画像認識方法、及び画像認識プログラム
CN111462131A (zh) * 2019-01-22 2020-07-28 斯特拉德视觉公司 一种注意力驱动图像分割的方法和设备
JP2020119533A (ja) * 2019-01-22 2020-08-06 株式会社ストラドビジョン 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP2020119535A (ja) * 2019-01-23 2020-08-06 株式会社ストラドビジョン Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
CN111476247A (zh) * 2019-01-23 2020-07-31 斯特拉德视觉公司 利用了1xK或Kx1卷积运算的CNN方法及装置
CN111476247B (zh) * 2019-01-23 2023-09-26 斯特拉德视觉公司 利用了1xK或Kx1卷积运算的CNN方法及装置
JP2020119518A (ja) * 2019-01-23 2020-08-06 株式会社ストラドビジョン ハードウェア最適化を通じてモバイル装置または高精度の小型ネットワークに使用されるcnnパラメータ量子化を最適化するためにcnnレイヤを変換する方法及び装置
JP2020119312A (ja) * 2019-01-24 2020-08-06 キヤノンメディカルシステムズ株式会社 データ処理装置、データ処理方法、およびデータ処理プログラム
JP7210301B2 (ja) 2019-01-24 2023-01-23 キヤノンメディカルシステムズ株式会社 データ処理装置、データ処理方法、およびデータ処理プログラム
KR102246326B1 (ko) 2019-01-25 2021-04-29 주식회사 스트라드비젼 라플라시안 피라미드 네트워크를 이용하여 자율 주행 자동차 레벨 4 및 레벨 5를 만족시키기 위해 요구되는 도로 장애물 검출에 있어서의 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 및 이를 이용한 테스팅 방법 및 테스팅 장치
JP2020119500A (ja) * 2019-01-25 2020-08-06 株式会社ストラドビジョン ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置
KR20200092839A (ko) * 2019-01-25 2020-08-04 주식회사 스트라드비젼 라플라시안 피라미드 네트워크를 이용하여 자율 주행 자동차 레벨 4 및 레벨 5를 만족시키기 위해 요구되는 도로 장애물 검출에 있어서의 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 및 이를 이용한 테스팅 방법 및 테스팅 장치
JP2021528778A (ja) * 2019-04-30 2021-10-21 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 特徴マップ拡大方法、装置、機器及びコンピュータ可読記憶媒体
JP7133045B2 (ja) 2019-04-30 2022-09-07 北京市商▲湯▼科技▲開▼▲發▼有限公司 特徴マップ拡大方法、装置、機器及びコンピュータ可読記憶媒体
JP2020187721A (ja) * 2019-05-14 2020-11-19 ユニバーシティ−インダストリー コーポレーション グループ オブ キョンヒ ユニバーシティ 画像セグメンテーション方法、装置およびコンピュータプログラム
CN110223254A (zh) * 2019-06-10 2019-09-10 大连民族大学 一种基于对抗生成网络的图像去噪方法
JP7501125B2 (ja) 2019-06-18 2024-06-18 富士通株式会社 深層学習ネットワークに基づく対象検出方法、装置及び電子機器
JP2021009026A (ja) * 2019-06-28 2021-01-28 国立大学法人東京農工大学 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置
JP7446570B2 (ja) 2019-06-28 2024-03-11 国立大学法人東京農工大学 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置
JP7106679B2 (ja) 2019-07-18 2022-07-26 北京市商▲湯▼科技▲開▼▲発▼有限公司 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム
JP2021533430A (ja) * 2019-07-18 2021-12-02 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム
CN110852199A (zh) * 2019-10-28 2020-02-28 中国石化销售股份有限公司华南分公司 一种基于双帧编码解码模型的前景提取方法
KR102359138B1 (ko) 2019-12-12 2022-02-07 경북대학교 산학협력단 사용자 맞춤형 영상 밝기 및 대비 조절 장치 및 방법
KR20210074902A (ko) * 2019-12-12 2021-06-22 경북대학교 산학협력단 사용자 맞춤형 영상 밝기 및 대비 조절 장치 및 방법
JPWO2021176566A1 (ja) * 2020-03-03 2021-09-10
WO2021176566A1 (ja) * 2020-03-03 2021-09-10 日本電気株式会社 特徴変換装置、画像認識システム、特徴変換方法および非一時的なコンピュータ可読媒体
JP7444235B2 (ja) 2020-03-03 2024-03-06 日本電気株式会社 注意機構、画像認識システム、特徴変換方法およびプログラム

Also Published As

Publication number Publication date
JP6744838B2 (ja) 2020-08-19

Similar Documents

Publication Publication Date Title
JP2018181124A (ja) エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム
CN108876792B (zh) 语义分割方法、装置和系统及存储介质
CN110998604A (zh) 有局部外观的对象的识别与重构
JP2016153984A (ja) ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両
CN106845631B (zh) 一种流执行方法及装置
WO2019071433A1 (en) METHOD, SYSTEM AND APPARATUS FOR RECOGNIZING PATTERNS
CN103279936A (zh) 基于画像的人脸伪照片自动合成及修正方法
EP3570220A1 (en) Information processing method, information processing device, and computer-readable storage medium
JP2019101519A (ja) 画素に基づく画像セグメンテーション用のプログラム
CN110992367B (zh) 对带有遮挡区域的图像进行语义分割的方法
CN110705430A (zh) 基于深度学习的多人面部表情识别方法和识别系统
CN115170622A (zh) 基于transformer的医学图像配准方法及系统
Raksarikorn et al. Facial expression classification using deep extreme inception networks
Xu et al. Infrared and visible image fusion using a deep unsupervised framework with perceptual loss
CN111539349A (zh) 姿态识别模型的训练方法及装置、姿态识别方法及其装置
Wang et al. Msfnet: multistage fusion network for infrared and visible image fusion
Zhou Video expression recognition method based on spatiotemporal recurrent neural network and feature fusion
JP7344023B2 (ja) 顔認識装置、学習装置及びプログラム
CN109035318B (zh) 一种图像风格的转换方法
CN116665300A (zh) 基于时空自适应特征融合图卷积网络的骨架动作识别方法
Wang et al. [Retracted] Convolution‐Based Design for Real‐Time Pose Recognition and Character Animation Generation
CN115761377A (zh) 基于上下文注意力机制的吸烟者脑部磁共振影像分类方法
JP7008388B2 (ja) 画素に基づく画像セグメンテーション用のプログラム
Mendoza et al. Neural networks recognition rate as index to compare the performance of fuzzy edge detectors
Sadoghi Yazdi et al. Gait Recognition Based on Invariant Leg Classification Using a Neuro‐Fuzzy Algorithm as the Fusion Method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200731

R150 Certificate of patent or registration of utility model

Ref document number: 6744838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees