JP7042092B2 - 画像情報変換器およびそのプログラム - Google Patents

画像情報変換器およびそのプログラム Download PDF

Info

Publication number
JP7042092B2
JP7042092B2 JP2018011613A JP2018011613A JP7042092B2 JP 7042092 B2 JP7042092 B2 JP 7042092B2 JP 2018011613 A JP2018011613 A JP 2018011613A JP 2018011613 A JP2018011613 A JP 2018011613A JP 7042092 B2 JP7042092 B2 JP 7042092B2
Authority
JP
Japan
Prior art keywords
image information
feature amount
converter
resolutions
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018011613A
Other languages
English (en)
Other versions
JP2019128889A (ja
Inventor
伶 遠藤
吉彦 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2018011613A priority Critical patent/JP7042092B2/ja
Publication of JP2019128889A publication Critical patent/JP2019128889A/ja
Application granted granted Critical
Publication of JP7042092B2 publication Critical patent/JP7042092B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、ニューラルネットワークにより画像情報を、目的とする画像情報に変換する画像情報変換器およびそのプログラムに関する。
近年、ディープラーニングやディープニューラルネットワーク(DNN)と呼ばれる機械学習技術が活発に研究開発されている。
DNNは、1つまたは複数の値を入力して、1つの値を出力するニューロンと呼ばれる単純なユニットを大量に組み合わせることで、複雑な数値情報を変換する変換器(ネットワーク)である。ニューロンは、それぞれの内部に変更可能なパラメータを持ち、そのパラメータを適切に調整することで、目的に応じた変換器を構築することができる。例えば、白黒画像の画素値を入力して、カラー画像の画素値を出力するカラー変換器等である。このパラメータの調整を学習と呼び、この学習は、一般的に誤差逆伝搬法と呼ばれる手法により行われる。
誤差逆伝搬法は、予めネットワーク構造を定義した変換器の出力の誤差(例えば、カラー変換器が出力したカラー画像の画素値と、人間が与えた正解カラー画像の画素値との差)をなるべく小さくするようにパラメータを更新する手法である。この手法で求められるパラメータは、最適解ではなく局所解であるため、ネットワーク構造をどのように決定するかが、変換器の最終的な性能に大きく影響を与える。なぜなら、一般にニューロンの組み合わせ方を複雑にすればするほど、より優れた変換性能が得られる可能性が高まるが、その代わりに、局所解を最適解に近づけるパラメータの学習が難しくなるからである。
そこで、近年よく用いられるのが、コンボリューション(畳み込み)層と呼ばれるニューロン構造を多数重ねたコンボリューションネットワークである。一般に、コンボリューション層では、画像のように3次元(縦×横×チャンネル)の配列でニューロンを配置し、第N番目の層であるニューロンは、第(N-1)番目の層のニューロンの中で空間的位置が近いニューロンとのみ接続関係を持つため、学習対象のパラメータ数を削減することができる。このコンボリューション層の構造を多層化することで、少ないパラメータ数であっても高い性能の変換器を構成することができる。
例えば、画像を入力して変換後の画像を出力するネットワーク構造として、図15に示すネットワーク(FCN:Fully Convolutional Networks)により、高精度な変換器を構築できることが報告されている(非特許文献1参照)。
図15に示すFCNは、コンボリューション層(Conv)Cにおける畳み込みにより、画像の空間的サイズを徐々に浅い層から深い層に向かって縮小していくことで特徴を抽出し、その後、深い層から浅い層に向かって徐々に拡大することで画像内の領域を抽出する構造を有している。ここでは、画像の空間的サイズがより小さいコンボリューション層Cを、深い層と呼ぶ。
また、例えば、画像を入力して変換後の画像を出力する他のネットワーク構造として、図16に示すネットワーク(U-Net)により、さらに高精度な変換器を構築できることが報告されている(非特許文献2参照)。
図16に示すU-Netは、FCNと同様に、コンボリューション層Cにおける畳み込みにより、画像の空間的サイズを徐々に浅い層から深い層に向かって縮小し、その後、徐々に拡大するネットワークである。しかし、U-Netは、縮小される前のコンボリューション層(例えば、C)の出力を、中間のコンボリューション層を飛ばして、直接後方の同じ画像の空間的サイズを対象とするコンボリューション層(例えば、C)に伝達する(スキップ・コネクション)。これによって、局所的特徴(例えば、入力画像のエッジ特徴等)を劣化させずに直接後方に伝達している。
Evan Shelhamer, Jonathan Long, and Trevor Darrell,"Fully Convolutional Networks for Semantic Segmentation", IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 39 Issue 4, April 2017, pp640-651. Olaf Ronneberger,Philipp Fischer,Thomas Brox, "U-Net: Convolutional Networks for Biomedical Image Segmentation", Medical Image Computing and Computer-Assisted Intervention -MICCAI 2015, pp234-241.
従来のFCNのネットワーク構造では、コンボリューション層の空間的サイズを徐々に深い層に向かって縮小するため、画像の局所的な特徴(エッジの位置情報等)が曖昧になり、出力画像の細部の精度が落ちるという問題がある。
一方、従来のU-Netは、スキップ・コネクションにより、コンボリューション層の空間的サイズの大きい特徴から小さい特徴まで段階的に後方に伝達することができる。しかし、U-Netが浅い層で伝達する空間的サイズのより大きい画像の特徴ほど、画像の大域的特徴(形状等)が十分に抽出されていない。そのため、U-Netは、浅い層において有効な特徴を抽出できておらず、出力画像の細部の精度を高めるためにさらなる改善の余地があった。
本発明は、以上のような問題に鑑みてなされたものであり、画像の局所的特徴に大域的特徴を対応付けることで、大域的特徴と局所的特徴とをバランスよく伝達して、精度よく画像情報の変換を行うことが可能なニューラルネットワークの画像情報変換器およびそのプログラムを提供することを課題とする。
前記課題を解決するため、本発明に係る画像情報変換器は、m(mは1以上の整数)個の解像度の画像情報を入力し、n(nは1以上の整数)個の解像度の画像情報に変換する複数のマルチスケール変換器を、入力側から出力側に向かって連結した畳み込みニューラルネットワークの画像情報変換器であって、マルチスケール変換器が、特徴量生成部と、画像情報生成部と、画像合成部と、を備える構成とした。
かかる構成において、画像情報変換器は、マルチスケール変換器の特徴量生成部によって、m個の解像度の画像情報から、学習済みのパラメータを用いた畳み込み演算により予め定めた1個の解像度分の特徴量を生成する。そして、画像情報変換器は、マルチスケール変換器の画像情報生成部によって、特徴量生成部で生成された特徴量から、学習済みのパラメータを用いた畳み込み演算によりn個の解像度の画像情報を生成する。
画像情報変換器は、複数のマルチスケール変換器を連結することで、特徴量生成部および画像情報生成部において、畳み込み演算によるスケールの異なる解像度における特徴量の抽出と異なるスケールへの振り分けとを繰り返し実行する。これによって、画像情報変換器は、異なるスケールの特徴の組み合わせにより、画像情報の複雑な特徴をより正確に抽出可能な構成となる。
また、画像情報変換器は、マルチスケール変換器の画像合成部によって、画像情報生成部で生成された画像情報に対して、入力した画像情報の中で解像度が同じ画像情報を合成する。
マルチスケール変換器に画像合成部を備えることで、画像情報変換器は、マルチスケール変換器が順次後段のマルチスケール変換器に出力する画像情報に対して、畳み込み演算を行わない画像情報をさらに合成して後段に伝達する。これによって、画像情報変換器は、畳み込み演算による空間的な縮小により失われる可能性のある情報を後段に伝達することが可能になる。
また、本発明は、コンピュータを、前記画像情報変換器として機能させるための画像情報変換プログラムで実現することもできる。
本発明は、以下に示す優れた効果を奏するものである。
本発明に係る画像情報変換器によれば、複数のマルチスケール変換器によって、逐次、画像情報の畳み込み演算による複数の解像度における特徴量の抽出を繰り返すとともに、畳み込み演算を行わない画像情報と畳み込み演算を行った画像情報とを直接合成することができる。
これによって、本発明に係る画像情報変換器は、曖昧性を抑えた局所的特徴を大域的特徴とともに伝達することができ、出力画像情報における細部の精度の劣化を抑えることができる。
本発明の第1実施形態に係る画像情報変換器の全体構成の例を示す構成図である。 本発明の第1実施形態に係る画像情報変換器のマルチスケール変換器の概要を説明するための説明図である。 本発明の第1実施形態に係る画像情報変換器のマルチスケール変換器の構成例を示すブロック構成図である。 図3のマルチスケール変換器の個別特徴計算部および合成特徴計算部の動作内容を説明するための説明図である。 図3のマルチスケール変換器の特徴合成部の動作内容を説明するための説明図である。 図3のマルチスケール変換器の個別情報振分部の動作内容を説明するための説明図である。 1入力2出力のマルチスケール変換器の構成例を示すブロック構成図である。 2入力3出力のマルチスケール変換器の構成例を示すブロック構成図である。 3入力2出力のマルチスケール変換器の構成例を示すブロック構成図である。 2入力1出力のマルチスケール変換器の構成例を示すブロック構成図である。 マルチスケール変換器の変形例の構成を示すブロック構成図である。 本発明の第1実施形態に係る画像情報変換器の動作を示すフローチャートである。 本発明の第2実施形態に係る画像情報変換器の全体構成の例を示す構成図である。 本発明の実施形態に係る画像情報変換器を適用したカラー化装置の構成を示すブロック構成図である。 従来の画像情報変換器(FCN)のネットワーク構造を示す図である。 従来の画像情報変換器(U-Net)のネットワーク構造を示す図である。
以下、本発明の実施形態について図面を参照して説明する。
≪第1実施形態≫
<画像情報変換器の構成>
まず、図1を参照して、本発明の第1実施形態に係る画像情報変換器1の構成について説明する。
画像情報変換器1は、予め学習したニューラルネットワークにより、画像情報を変換対象の情報に変換するものである。
入力する画像情報は、空間的構造を有する画像データであって、1チャンネルの白黒画像、3チャンネル(RGB)のカラー画像等である。また、出力する変換対象の情報は、空間的構造を有する画像データ、画像に類似する高次元の数値情報等である。
例えば、画像情報変換器1は、白黒画像の画素値を入力し、カラー画像の画素値(RGB)を出力する変換器として構成することができる。また、例えば、画像情報変換器1は、白黒画像の画素値やカラー画像の画素値(RGB)を入力し、画像内の被写体の領域を分類(領域分割)した情報を出力する変換器として構成することができる。
ここでは、入力する画像情報の次元を、縦H〔画素〕、横W〔画素〕の解像度(フル解像度)とし、チャンネル数をCとする。また、変換後の画像情報の次元も、縦H、横W、チャンネル数Cの画像情報とする。
図1に示すように、画像情報変換器1は、入力側から出力側に向かって、複数のマルチスケール変換器10(10,…1015)を、入出力を対応付けて連結して構成する。
マルチスケール変換器10(MSNB:Multi-Scale Neural Block)は、m(mは1以上の整数)個の解像度の画像情報を入力し、ニューラルネットワークの畳み込み演算により、n(nは1以上の整数)個の解像度の画像情報に変換するものである。以下、マルチスケール変換器をMSNBと呼ぶ。
入力側から予め定めた中間のMSNB10までのMSNB10~10については、出力する画像情報の解像度の数(種類)を段階的に増加させた構成とする。また、予め定めた中間のMSNB10から出力側までのMSNB10~1015については、出力する画像情報の解像度の数(種類)を段階的に減少させた構成とする。
なお、図1に示すように、入出力が同じMSNB10(例えば、MSNB10,10等)を続けて連結してもよい。また、なお、中間のMSNB10は、複数のMSNB10の厳密な中間(前段のMSNB10の数と後段のMSNB10の数とが同じ)に位置する必要はない。
さらに、MSNB10は、入力した画像情報を、畳み込み演算を行わない状態で、畳み込み演算により生成した画像情報と合成することで、縮小を伴わない画像情報の特徴を後段に伝達する経路を有する。図1の例では、Rがフル解像度の画像情報を後段に伝達する経路、Rが1/2解像度の画像情報を後段に伝達する経路、Rが1/4解像度の画像情報を後段に伝達する経路、Rが1/8解像度の画像情報を後段に伝達する経路である。
なお、画像情報変換器1を構成するMSNB10の畳み込み演算に用いるフィルタの重み等のパラメータは、予め変換前の画像情報と変換後の既知の正解情報である画像情報とから、誤差逆伝搬法等により、学習しておく。
このように、画像情報変換器1は、複数のMSNB10によって、畳み込み演算によりスケールの異なる段階的な解像度で生成される画像情報と、畳み込み演算を行わない画像情報とを合成して伝達する。
これによって、画像情報変換器1は、MSNB10単位で、畳み込みを行っていない画像情報(曖昧性を抑えた局所的特徴)を、畳み込みを行って生成された特徴が抽出された画像情報(大域的特徴)に合成して後段に伝達することができる。
以下、画像情報変換器1の基本構成であるMSNB10について説明する。なお、MSNB10は、入力側から出力側に向かって、必ずしも入出力数が同じではない。そこで、ここでは、基本的な構成をすべて含む入力数3、出力数3のMSNB10(例えば、MSNB10)を例として、その概要と構成について説明を行う。
<マルチスケール変換器(MSNB)の概要>
まず、図2を参照して、MSNB10(10)の概要について説明する。図2に示すように、MSNB10は、入力系統が3つ(入力1~3)である画像情報を出力系統が3つ(出力1~3)の画像情報に変換するものである。MSNB10は、入力1として、縦H〔画素〕、横W〔画素〕の空間的サイズ、チャンネル数Cのフル解像度[H×W×C]の画像情報を入力する。また、MSNB10は、入力2として、縦H/2〔画素〕、横W/2〔画素〕の空間的サイズ、チャンネル数Cの1/2解像度[H/2×W/2×C]の画像情報を入力する。また、MSNB10は、入力3として、縦H/4〔画素〕、横W/4〔画素〕の空間的サイズ、チャンネル数Cの1/4解像度[H/4×W/4×C]の画像情報を入力する。なお、出力1~3は、入力1~3と同じ空間的サイズの画像情報である。ただし、チャンネル数は入出力で同じである必要はない。
MSNB10は、入力1~3で入力されるそれぞれの画像情報の次元(チャンネル数、空間的サイズ)を畳み込み演算(Co1)により揃える。ここでは、MSNB10は、空間的サイズの最も小さい入力3の画像情報に次元を揃える。そして、MSNB10は、畳み込み演算(Co1)後の特徴量を合成し(Su1)、畳み込み演算(Co2)により特徴量を抽出する。これによって、MSNB10は、3つの画像情報から1つの解像度(1/4解像度)分の特徴量を抽出する。
そして、MSNB10は、1つの解像度(1/4解像度)分の特徴量から、畳み込み演算(Co2)により、出力1~3のチャンネル数に変換し、拡大処理Ex1により、出力1,2の空間的サイズに変換する。
そして、MSNB10は、出力1~3の次元(チャンネル数、空間的サイズ)に変換された画像情報と、経路Sk1(スキップ・コネクション)により入力される畳み込み演算を行わない画像情報とを合成し(Su2)、出力する。
これによって、MSNB10は、空間的サイズの大きい画像情報であっても、有効に特徴量が抽出された画像情報とともに、後段に伝達することができる。
<マルチスケール変換器(MSNB)の構成>
次に、図3を参照して、MSNB10(10)の構成について説明する。
図3に示すように、MSNB10は、特徴量生成部20と、画像情報生成部30と、画像合成部40と、を備える。
特徴量生成部20は、複数(ここでは“3”)の解像度の画像情報から畳み込み演算により予め定めた1個の解像度分の特徴量を生成するものである。
特徴量生成部20は、解像度ごとの個別特徴計算部21(21,21,21)と、特徴合成部22と、合成特徴計算部23と、を備える。
個別特徴計算部21は、画像情報から、畳み込み演算により特徴量を計算するものである。なお、入力側のMSNB10(図1のMSNB10)以外のMSNB10に入力される画像情報は、前段のMSNB10から出力される特徴量(画像情報)である。
個別特徴計算部21は、フル解像度[H×W×C]の画像情報を入力し、学習済みのパラメータを用いた畳み込み演算により特徴量を計算する。
個別特徴計算部21は、1/2解像度[H/2×W/2×C]の画像情報を入力し、学習済みのパラメータを用いた畳み込み演算により特徴量を計算する。
個別特徴計算部21は、1/4解像度[H/4×W/4×C]の画像情報を入力し、学習済みのパラメータを用いた畳み込み演算により特徴量を計算する。
個別特徴計算部21(21,21,21)は、例えば、図4に示すように、カーネル(kernel)“3”(3×3の畳み込みフィルタ)、パディング(padding)“1”、ストライド(stride)“1”で畳み込み演算を行うことで、画像情報Dから、特徴量Dを生成する。なお、畳み込み後のチャンネル数は任意の数でよいが、例えば、入力した画像情報と同じとする。また、畳み込みフィルタの値(重み)は、ニューラルネットワークの学習により求められるパラメータである。
個別特徴計算部21(21,21,21)は、計算した特徴量を特徴合成部22に出力する。
特徴合成部22は、個別特徴計算部21(21,21,21)で計算された特徴量を合成するものである。特徴合成部22は、それぞれの個別特徴計算部21,21,21で計算された特徴量の次元(チャンネル数、空間的サイズ)を予め定めた解像度に揃え、要素ごとに加算することで、特徴量を生成する。なお、ここで予め定めた解像度は、MSNB10の入力側および出力側のスケールで最小の解像度(ここでは、1/4解像度)であることが好ましい。また、特徴合成部22は、個別特徴計算部21,21,21で計算された特徴量の次元を揃え、連結することとしてもよい。
特徴合成部22は、合成した特徴量を合成特徴計算部23に出力する。
ここで、図5を参照して、特徴合成部22の処理内容の例について説明する。
図5に示すように、特徴合成部22は、カーネル(kernel)“3”(3×3の畳み込みフィルタ)、パディング(padding)“1”、ストライド(stride)“4”、チャンネル(channel)“C”で畳み込み演算を行うことで、フル解像度の画像情報Dから、最小の解像度(ここでは、1/4解像度)と同じ次元(チャンネル数、空間的サイズ)の特徴量Dを生成する。
また、特徴合成部22は、カーネル“3”、パディング“1”、ストライド“2”、チャンネル“C”で畳み込み演算を行うことで、1/2解像度の画像情報Dから、最小の解像度(ここでは、1/4解像度)と同じ次元の特徴量Dを生成する。
また、特徴合成部22は、カーネル“3”、パディング“1”、ストライド“1”、チャンネル“C”で畳み込み演算を行うことで、1/4解像度の画像情報Dから、最小の解像度(ここでは、1/4解像度)と同じ次元の特徴量Dを生成する。
そして、特徴合成部22は、同じ次元の特徴量D、特徴量Dおよび特徴量Dを要素ごとに加算(または連結)することで、特徴量Dを生成する。
この各解像度の画像情報の畳み込み演算に使用する畳み込みフィルタの値は、ニューラルネットワークの学習により求められるパラメータである。
なお、特徴合成部22は、特徴量を連結して生成する場合、個別の特徴量(ここでは、特徴量D,D,D)の空間的サイズさえ揃えればよく、チャンネル数を揃える必要はない。その場合、特徴合成部22は、図5に示すようなコンボリューション層による畳み込みではなく、単に最大値や平均値を演算するプーリング層によるプーリングを行えばよい。例えば、ニューラルネットワークを学習するコンピュータのメモリ量に制限がある場合、学習を要しないプーリング層を用いる方が適している。
図5に示した例の場合、特徴合成部22は、フル解像度の画像情報Dに対して、カーネル“4”、ストライド“4”の最大プーリング(Max Pooling)または平均プーリング(Average Pooling)を行うことで、1/4解像度[H/4×W/4×C]の特徴量Dを生成する。同様に、特徴合成部22は、1/2解像度の画像情報Dに対して、カーネル“2”、ストライド“2”の最大プーリングまたは平均プーリングを行うことで、1/4解像度[H/4×W/4×C]の特徴量Dを生成する。
そして、特徴合成部22は、生成した特徴量Dおよび特徴量Dを、1/4解像度の特徴量Dと連結することで、[H/4×W/4×(C+C+C)]の特徴量Dを生成する。
図3に戻って、MSNB10の構成について説明を続ける。
合成特徴計算部23は、特徴合成部22で合成された特徴量に対して、畳み込み演算を行うことで、合成特徴量を抽出するものである。この合成特徴計算部23は、個別特徴計算部21と同様の演算であって、図4で説明した例と同様の畳み込み演算により合成特徴量を抽出する。なお、畳み込みフィルタの値は、ニューラルネットワークの学習により求められるパラメータである。
合成特徴計算部23は、計算した合成特徴量を、画像情報生成部30に出力する。
画像情報生成部30は、特徴量生成部20で生成された特徴量(合成特徴量)から、畳み込み演算により、出力の解像度に応じた複数(ここでは“3”)のスケールの画像情報(特徴量)を生成するものである。
画像情報生成部30は、個別情報振分部31と、スケールの異なる解像度ごとの個別特徴計算部32(32,32,32)と、を備える。
個別情報振分部31は、合成特徴計算部23で計算された合成特徴量を、出力系統の解像度に応じた次元(チャンネル数、空間的サイズ)の画像情報に振り分けるものである。
個別情報振分部31は、合成特徴量のチャンネル数を、出力する画像情報のチャンネル数と同じにするため、畳み込み演算を行い、さらに、空間的サイズを同じにするために、拡大処理を行う。なお、個別情報振分部31は、合成特徴量から、出力の解像度に応じた次元(チャンネル数、空間的サイズ)の画像情報を生成するために、逆畳み込み(デコンボリューション)演算を行ってもよい。
個別情報振分部31は、解像度別の画像情報を、それぞれの解像度に対応する個別特徴計算部32(32,32,32)に出力する。
ここで、図6を参照して、個別情報振分部31の処理内容の例について説明する。
図6に示すように、個別情報振分部31は、カーネル“3”、パディング“1”、ストライド“2”、チャンネル“C”で畳み込み演算を行うことで、空間的サイズがH/4×W/4で、チャンネル数Cの1/4解像度の画像情報(特徴量)Dから、空間的サイズが同じ(H/4×W/4)で、チャンネル数をCとした画像情報Dを生成する。
そして、個別情報振分部31は、画像情報Dの空間的サイズをチャンネル単位で縦横4倍に拡大することで、空間的サイズがH×Wで、チャンネル数Cのフル解像度の画像情報Dを生成する。なお、個別情報振分部31が行う拡大には、バイリニア拡大、ニアレストネイバー拡大等の一般的な手法を用いればよい。
また、個別情報振分部31は、カーネル“3”、パディング“1”、ストライド“1”、チャンネル “C”で畳み込み演算を行うことで、1/4解像度の画像情報(特徴量)Dから、空間的サイズが同じ(H/4×W/4)で、チャンネル数をCとした画像情報Dを生成する。
そして、個別情報振分部31は、画像情報Dの空間的サイズをチャンネル単位で縦横2倍に拡大することで、空間的サイズがH/2×W/2で、チャンネル数Cの1/2解像度の画像情報Dを生成する。
また、個別情報振分部31は、カーネル“3”、パディング“1”、ストライド“1”、チャンネル “C”で畳み込み演算を行うことで、1/4解像度の画像情報(特徴量)Dから、空間的サイズが同じ(H/4×W/4)で、チャンネル数をCとした画像情報Dを生成する。なお、画像情報Dは、出力する1/4解像度と空間的サイズが同じであるため、拡大を行わない。
なお、各解像度の画像情報の畳み込み演算に使用する畳み込みフィルタの値は、ニューラルネットワークの学習により求められるパラメータである。
これによって、個別情報振分部31は、1つの合成特徴量から、出力する解像度に合わせた次元の画像情報を生成することができる。
図3に戻って、MSNB10の構成について説明を続ける。
個別特徴計算部32は、個別情報振分部31で生成された解像度別の画像情報に対して、畳み込み演算を行うことで、特徴量を計算するものである。この個別特徴計算部32は、個別特徴計算部21と同様の演算であって、図4で説明した例と同様の畳み込み演算により特徴量を抽出する。なお、畳み込みフィルタの値は、ニューラルネットワークの学習により求められるパラメータである。
個別特徴計算部32は、計算した特徴量を、画像合成部40に出力する。
画像合成部40は、個別特徴計算部32(32,32,32)で計算された解像度別の特徴量(画像情報)に、MSNB10に入力された画像情報の中で同じ解像度の画像情報を合成するものである。
画像合成部40は、出力する画像情報(特徴量)の解像度に応じて、複数のスキップ合成部41(41,41,41)を備える。
スキップ合成部41は、画像情報生成部30(個別特徴計算部32)で生成された解像度別の画像情報に、MSNB10に入力され、MSNB10内で畳み込み演算を行っていない同じ解像度の画像情報を合成するものである。
スキップ合成部41は、個別特徴計算部32で畳み込み演算により生成されたフル解像度の画像情報(特徴量)と、MSNB10に入力されたフル解像度の画像情報(特徴量)とを、要素ごとに加算(または連結)し、後段に出力する。
スキップ合成部41は、個別特徴計算部32で畳み込み演算により生成された1/2解像度の画像情報(特徴量)と、MSNB10に入力された1/2解像度の画像情報(特徴量)とを、要素ごとに加算(または連結)し、後段に出力する。
スキップ合成部41は、個別特徴計算部32で畳み込み演算により生成された1/4解像度の画像情報(特徴量)と、MSNB10に入力された1/4解像度の画像情報(特徴量)とを、要素ごとに加算(または連結)し、後段に出力する。
以上説明したようにMSNB10(10)を構成することで、MSNB10は、各解像度の画像情報の特徴量を他の解像度の特徴量を利用して複雑な特徴を学習したモデルとなる。また、MSNB10は、空間的に縮小されることにより失われる特徴を、スキップ・コネクションにより保持したままで伝達することができる。
以上、基本構成をすべて含むMSNB10の構成について説明したが、MSNB10以外のMSNB10については、各基本構成を増減させて構成すればよい。
以下、代表的な構成について説明する。
<マルチスケール変換器(MSNB)の他の構成>
(1入力2出力のMSNB)
図7を参照して、1つの解像度の画像情報を2つの解像度の画像情報に変換する非対称なMSNB10(10)の構成について説明する。
図7に示すように、1入力2出力のMSNB10は、図3で説明したMSNB10から、個別特徴計算部21,21,32およびスキップ合成部41,41を省略して構成することができる。
ここで、特徴合成部22は、個別特徴計算部21で計算されたフル解像度の特徴量から、出力側の最小の解像度(ここでは、1/2解像度)と同じ次元(チャンネル数、空間的サイズ)の特徴量を畳み込み演算により生成する。例えば、特徴合成部22は、カーネル“3”、パディング“1”、ストライド“2”、チャンネル“C”で畳み込み演算を行うことで、フル解像度の特徴量から、1/2解像度の特徴量を生成する。
なお、個別特徴計算部21は1つであるため、特徴合成部22は合成を行わず、生成した1/2解像度の特徴量を合成特徴量として、合成特徴計算部23に出力する。他の構成は、図3で説明したMSNB10の構成と同じであるため、説明を省略する。
(2入力3出力のMSNB)
図8に、2つの解像度の画像情報を3つの解像度の画像情報に変換する非対称なMSNB10(10)の構成例を示す。
図8に示すように、2入力3出力のMSNB10は、図3で説明したMSNB10から、個別特徴計算部21およびスキップ合成部41を省略して構成することができる。
(3入力2出力のMSNB)
図9に、3つの解像度の画像情報を2つの解像度の画像情報に変換する非対称なMSNB1012(10)の構成例を示す。
図9に示すように、3入力2出力のMSNB1012は、図3で説明したMSNB10から、個別特徴計算部32およびスキップ合成部41を省略して構成することができる。
(2入力1出力のMSNB)
図10に、2つの解像度の画像情報を1つの解像度の画像情報に変換する非対称なMSNB1015(10)の構成例を示す。
図10に示すように、2入力1出力のMSNB1015は、図3で説明したMSNB10から、個別特徴計算部21,32,32およびスキップ合成部41,41を省略して構成することができる。
以上、MSNB10の構成例について説明したが、例示したMSNB10よりも多くの入力および出力とする場合、個別特徴計算部21,32およびスキップ合成部41を、入出力の数に応じて備える構成とすればよい。
また、MSNB10において、特徴量生成部20は、必ずしもすべての解像度の経路に個別特徴計算部21を設ける必要はない。例えば、入出力の数が同じ、あるいは、出力数が入力数よりも少ないMSNB10(例えば、図1の10,1012等)においては、すでに前段のMSNB10において特徴量を計算しているため、最小解像度の特徴量を抽出する個別特徴計算部21以外を省略しても構わない。
例えば、図3で説明したMSNB10を、図11に示すMSNB10Bとして構成してもよい。なお、図11に示したMSNB10Bは、個別特徴計算部21,21を省略したことに伴い特徴合成部22および合成特徴計算部23も省略している。
以上説明したMSNB10を、画像情報の入力側から出力側に連結することで、画像情報変換器1は、大域的特徴を後段に伝達する際に、併せて、スキップ・オペレーションにより、畳み込みを行っていない局所的特徴を後段に伝達することができる。
これによって、画像情報変換器1は、エッジの位置情報等の局所的特徴の曖昧性を抑えることができ、出力画像の細部の精度を高めることができる。
なお、画像情報変換器1は、図示を省略したコンピュータを、MSNB10を連結したニューラルモデルネットワークとして機能するためのプログラムで動作させることができる。
<画像情報変換器の動作>
次に、図12を参照(構成については、適宜図1,図3参照)して、本発明の第1実施形態に係る画像情報変換器1の動作について説明する。
ステップS1において、MSNB10の個別特徴計算部21は、入力系統の数だけ、畳み込み演算により、特徴量を計算する。
ステップS2において、MSNB10の特徴合成部22は、ステップS1で計算した入力系統数分の特徴量を、次元(チャンネル数、空間的サイズ)を揃えるように畳み込み演算により変換する。このとき、特徴合成部22は、次元をMSNB10の出力となる最小の解像度と同じにする。
ステップS3において、MSNB10の特徴合成部22は、さらに、ステップS2で変換した次元(チャンネル数、空間的サイズ)が揃った特徴量を、要素ごとに加算または連結することで合成する。
ステップS4において、MSNB10の合成特徴計算部23は、ステップS3で合成された特徴量に対して、畳み込み演算を行うことで、合成特徴量を生成する。
ステップS5において、MSNB10の個別情報振分部31は、ステップS4で生成された合成特徴量を、出力系統のそれぞれのチャンネル数に合わせて畳み込み演算を行って出力系統ごとに振り分ける。
ステップS6において、MSNB10の個別情報振分部31は、さらに、ステップS5で出力系統に振り分けたそれぞれの画像情報を、出力系統のそれぞれの空間的サイズに合わせて拡大する。
なお、個別情報振分部31は、ステップS5およびS6において、ステップS4で生成された合成特徴量を、出力系統のそれぞれの次元(チャンネル数、空間的サイズ)となるように逆畳み込み(デコンボリューション)演算を行ってもよい。
ステップS7において、MSNB10のスキップ合成部41は、ステップS6で生成した出力系統分の画像情報に対して、同じ系統の入力系統の画像情報を合成する。これによって、出力系統の畳み込み演算を行った各解像度の画像情報には、MSNB10に入力された画像情報がそのまま合成されることになる。
ステップS8において、後段にMSNB10が接続されている場合(Yes)、画像情報変換器1は、ステップS1に戻って、後段のMSNB10において、ステップS1からS7までの動作を繰り返す。
一方、ステップS8において、後段にMSNB10が接続されていない場合(No)、画像情報変換器1は、動作を終了する。
以上の動作によって、画像情報変換器1は、画像情報の畳み込み演算によるスケールの異なる解像度における特徴量の抽出(合成)と振り分けを繰り返すとともに、畳み込み演算を行わない画像情報と畳み込み演算を行った画像情報と逐次合成する。
これによって、画像情報変換器1は、局所的特徴に対して大局的特徴を対応付けた精度の高い特徴量を抽出することができ、変換精度の高いニューラルネットワークとして動作することができる。
≪第2実施形態≫
次に、図13を参照して、本発明の第2実施形態に係る画像情報変換器1Bについて説明する。
図1で説明した画像情報変換器1は、予め定めた中間のMSNB10から出力側までのMSNB10については、出力する画像情報の解像度の数(種類)を段階的に減少させた構成としている。この解像度の数の減少は、中間のMSNB10からの出力を合成することで実現してもよい。
図13に示すように、画像情報変換器1Bは、入力側から出力側に向かって、複数のMSNB10を、出力する画像情報の解像度の数(種類)を段階的に増加させるとともに、入出力を対応付けて連結して構成する。さらに、画像情報変換器1Bは、スケール統合部50を備える。MSNB10は、図1で説明した画像情報変換器1と同じ構成であるため説明を省略する。なお、最後段のMSNB10の出力は、2以上とする。
スケール統合部50は、複数のMSNB10で生成した複数の画像情報(特徴量)を、1つの画像情報に統合するものである。
図13に示すように、スケール統合部50は、スケール変換部51と、合成部52と、特徴計算部53と、を備える。
スケール変換部51は、最後段のMSNB10(10)の最大解像度(フル解像度)を除く他の解像度の画像情報を最大解像度にスケール変換するものである。ここでは、スケール変換部51は、1/2解像度、1/4解像度、1/8解像度に応じた3つのスケール変換部51(51,51,51)を備える。
スケール変換部51は、解像度をフル解像度の空間サイズに揃えるため、拡大処理を行う。このスケール変換部51における拡大には、バイリニア拡大、ニアレストネイバー拡大等の一般的な手法を用いればよい。
スケール変換部51は、1/2解像度の画像情報を縦2倍、横2倍に拡大することで、フル解像度の画像情報に変換し、合成部52に出力する。
スケール変換部51は、1/4解像度の画像情報を縦4倍、横4倍に拡大することで、フル解像度の画像情報に変換し、合成部52に出力する。
スケール変換部51は、1/8解像度の画像情報を縦8倍、横8倍に拡大することで、フル解像度の画像情報に変換し、合成部52に出力する。
合成部52は、複数の経路で伝達された画像情報(特徴量)を合成するものである。
合成部52は、最後段のMSNB10(10)の出力であるフル解像度の画像情報と、スケール変換部51(51,51,51)でフル解像度にスケール変換された画像情報とを合成する。合成部52の合成処理は、例えば、すべてのフル解像度の画像情報を連結することで行うことができる。
合成部52は、合成した画像情報を、特徴計算部53に出力する。
なお、合成部52の合成処理は、すべてのフル解像度の画像情報を要素ごとに加算することとしてもよい。その場合、すべてのフル解像度の画像情報においてチャンネル数を揃える必要がある。具体的には、スケール変換部51において、フル解像度の画像情報に拡大する前に、チャンネル数を揃える畳み込み演算を行えばよい。もちろん、スケール変換部51は、それぞれ入力した画像情報を、フル解像度の次元(チャンネル数、空間的サイズ)となるように逆畳み込み(デコンボリューション)演算を行ってもよい。
特徴計算部53は、合成部52で合成された画像情報(特徴量)を、変換対象の次元の画像情報に変換するものである。
特徴計算部53は、入力された画像情報に対して、畳み込み演算を行うことで、変換対象の画像情報に変換する。また、畳み込みフィルタの値は、ニューラルネットワークの学習により求められるパラメータである。
以上説明したように画像情報変換器1Bを構成することで、画像情報変換器1Bは、画像情報変換器1と同様に、局所的特徴に対して大局的特徴を対応付けた精度の高い特徴量を抽出することができ、変換精度の高いニューラルネットワークとして動作することができる。
なお、画像情報変換器1Bは、図示を省略したコンピュータを、複数のMSNB10とスケール統合部50とで構成されたニューラルモデルネットワークとして機能するためのプログラムで動作させることができる。
以上、本発明の実施形態に係る画像情報変換器1,1Bについて説明したが、本発明は、これらの実施形態に限定されるものではない。
例えば、MSNB10の前後、あるいは、MSNB10の内部の伝達経路において、他の演算処理、例えば、ノーマライゼーション層を設け、画像情報の全体の数値を正規化することとしてもよい。
また、ここでは、画像情報変換器1ではMSNB10を15個、画像情報変換器1BではMSNB10を8個連結し、4つのスケールの解像度(フル解像度~1/8解像度)で画像情報を変換するものとして例示した。しかし、これらの数はこの実施形態に限定されず、変換対象の画像の解像度によって、数十から数百のMSNB10を連結してもよいし、スケールの数も2、3あるいは5以上であっても構わない。
また、ここでは、画像情報変換器1,1Bは、MSNB10の画像情報の伝達経路において直列に連結した構成とした。しかし、画像情報変換器1,Bは、MSNB10を並列に連結する構成としてもよい。例えば、図1の画像情報変換器1において、MSNB10の出力を2つのMSNB10に出力し、それぞれMSNB10を直列に連結した後、最後段のMSNB10(例えば、図1の1015)に連結する構成としてもよい。
また、ここでは、画像情報変換器1,1Bは、1つの画像情報を入力し、1つの変換後の画像情報を出力することとしたが、入出力は、1つに限定されない。例えば、入力として、白黒画像と、白黒画像が属するジャンル(例えば、スポーツ、アニメーション等)の2つとしてもよい。その場合、ジャンルは、例えば、白黒画像と同じ空間的サイズの1つのチャンネルに1つのジャンルを対応付け、該当ジャンルに対応するチャンネルのみにジャンルが設定されていることを示す値(例えば、“1”)、それ以外のチャンネルにはジャンルが設定されていないことを示す値(例えば“0”)を設定すればよい。
また、例えば、出力として、3チャンネルのカラー画像と、カラー画像の画素に対応した色の確率分布(例えば、xクラスに量子化した色の確率分布〔xチャンネル分〕)の2つとしてもよい。
<画像情報変換器の適用例>
次に、本発明の実施形態に係る画像情報変換器1,1Bの適用例について説明する。
図14は、画像情報変換器1,Bを、カラー化装置として構成した例を示す構成図である。図14に示すカラー化装置100は、縦H〔画素〕、横W〔画素〕、1チャンネルの白黒画像BWを、縦H〔画素〕、横W〔画素〕、3チャンネル(RGB)のカラー画像CLに変換するものである。
図14に示すように、カラー化装置100は、情報入力手段110と、情報変換手段120と、情報出力手段130と、を備える。
情報入力手段110は、外部から変換対象の白黒画像BWを入力するものである。なお、情報入力手段110は、白黒動画像をフレーム単位で入力することとしてもよい。
情報入力手段110は、入力した白黒画像BWを情報変換手段120に出力する。
情報変換手段120は、情報入力手段110で入力した画像情報である白黒画像を、予め学習した学習モデルにより変換するものである。情報変換手段120は、予め学習した学習モデルとして、画像情報変換器1または画像情報変換器1Bを用いて、白黒画像BWをカラー画像CLに変換する。情報変換手段120は、変換後のカラー画像CLを情報出力手段130に出力する。
情報出力手段130は、情報変換手段120で変換された画像情報であるカラー画像CLを外部に出力するものである。例えば、情報出力手段130は、カラー画像CLを、図示を省略した記憶装置に記憶する。
これによって、カラー化装置100は、画像情報変換器1,1Bにより、例えば、エッジの色の区分等、精度の高いカラー画像を生成することができる。
なお、画像情報変換器1,1Bの適用は、白黒画像のカラー化以外にも、種々適用することができる。例えば、3チャンネルのカラー画像を入力し、その画像に含まれる被写体の領域を区分した1チャンネルの領域情報を出力する領域分割装置として構成することも可能である。
1,1B 画像情報変換器
10 マルチスケール変換器(MSNB)
20 特徴量生成部
21 個別特徴計算部
22 特徴合成部
23 合成特徴計算部
30 画像情報生成部
31 個別情報振分部
32 個別特徴計算部
40 画像合成部
41 スキップ合成部
50 スケール統合部
51 スケール変換部
52 合成部
53 特徴計算部
100 カラー化装置
110 情報入力手段
120 情報変換手段
130 情報出力手段

Claims (6)

  1. m(mは1以上の整数)個の解像度の画像情報を入力し、n(nは1以上の整数)個の解像度の画像情報に変換する複数のマルチスケール変換器を、入力側から出力側に向かって連結した畳み込みニューラルネットワークの画像情報変換器であって、
    前記マルチスケール変換器は、
    前記m個の解像度の画像情報から、学習済みのパラメータを用いた畳み込み演算により予め定めた1個の解像度分の特徴量を生成する特徴量生成部と、
    前記特徴量生成部で生成された特徴量から、学習済みのパラメータを用いた畳み込み演算により前記n個の解像度の画像情報を生成する画像情報生成部と、
    前記画像情報生成部で生成された画像情報に対して、当該マルチスケール変換器に入力された画像情報の中で解像度が同じ画像情報を合成する画像合成部と、を備え
    前記mが2以上である前記マルチスケール変換器の前記特徴量生成部は、前記m個の解像度の画像情報を、当該マルチスケール変換器の入出力の中で最小の解像度の画像情報に畳み込み演算し、演算結果を加算または連結することで、前記特徴量を生成することを特徴とする画像情報変換器。
  2. m(mは1以上の整数)個の解像度の画像情報を入力し、n(nは1以上の整数)個の解像度の画像情報に変換する複数のマルチスケール変換器を、入力側から出力側に向かって連結した畳み込みニューラルネットワークの画像情報変換器であって、
    前記マルチスケール変換器は、
    前記m個の解像度の画像情報から、学習済みのパラメータを用いた畳み込み演算により予め定めた1個の解像度分の特徴量を生成する特徴量生成部と、
    前記特徴量生成部で生成された特徴量から、学習済みのパラメータを用いた畳み込み演算により前記n個の解像度の画像情報を生成する画像情報生成部と、
    前記画像情報生成部で生成された画像情報に対して、当該マルチスケール変換器に入力された画像情報の中で解像度が同じ画像情報を合成する画像合成部と、を備え
    前記nが2以上である前記マルチスケール変換器の前記画像情報生成部は、前記特徴量に対してn個分の畳み込み演算を行い、演算結果を前記n個の解像度に応じて拡大することで前記n個の解像度の画像情報を生成することを特徴とする画像情報変換器。
  3. m(mは1以上の整数)個の解像度の画像情報を入力し、n(nは1以上の整数)個の解像度の画像情報に変換する複数のマルチスケール変換器を、入力側から出力側に向かって連結した畳み込みニューラルネットワークの画像情報変換器であって、
    前記マルチスケール変換器は、
    前記m個の解像度の画像情報から、学習済みのパラメータを用いた畳み込み演算により予め定めた1個の解像度分の特徴量を生成する特徴量生成部と、
    前記特徴量生成部で生成された特徴量から、学習済みのパラメータを用いた畳み込み演算により前記n個の解像度の画像情報を生成する画像情報生成部と、
    前記画像情報生成部で生成された画像情報に対して、当該マルチスケール変換器に入力された画像情報の中で解像度が同じ画像情報を合成する画像合成部と、を備え
    前記nが2以上である前記マルチスケール変換器の前記画像情報生成部は、前記特徴量に対してn個分の逆畳み込み演算を行い、前記n個の解像度の画像情報を生成することを特徴とする画像情報変換器。
  4. m(mは1以上の整数)個の解像度の画像情報を入力し、n(nは1以上の整数)個の解像度の画像情報に変換する複数のマルチスケール変換器を、入力側から出力側に向かって連結した畳み込みニューラルネットワークの画像情報変換器であって、
    前記マルチスケール変換器は、
    前記m個の解像度の画像情報から、学習済みのパラメータを用いた畳み込み演算により予め定めた1個の解像度分の特徴量を生成する特徴量生成部と、
    前記特徴量生成部で生成された特徴量から、学習済みのパラメータを用いた畳み込み演算により前記n個の解像度の画像情報を生成する画像情報生成部と、
    前記画像情報生成部で生成された画像情報に対して、当該マルチスケール変換器に入力された画像情報の中で解像度が同じ画像情報を合成する画像合成部と、を備え
    前記入力側から予め定めた中間のマルチスケール変換器までの前記マルチスケール変換器が出力する画像情報の解像度の数を段階的に増加させ、
    前記中間のマルチスケール変換器から前記出力側までの前記マルチスケール変換器が出力する画像情報の解像度の数を段階的に減少させて構成したことを特徴とする画像情報変換器。
  5. m(mは1以上の整数)個の解像度の画像情報を入力し、n(nは1以上の整数)個の解像度の画像情報に変換する複数のマルチスケール変換器を、入力側から出力側に向かって連結した畳み込みニューラルネットワークの画像情報変換器であって、
    前記マルチスケール変換器は、
    前記m個の解像度の画像情報から、学習済みのパラメータを用いた畳み込み演算により予め定めた1個の解像度分の特徴量を生成する特徴量生成部と、
    前記特徴量生成部で生成された特徴量から、学習済みのパラメータを用いた畳み込み演算により前記n個の解像度の画像情報を生成する画像情報生成部と、
    前記画像情報生成部で生成された画像情報に対して、当該マルチスケール変換器に入力された画像情報の中で解像度が同じ画像情報を合成する画像合成部と、
    最後段のマルチスケール変換器の出力を統合するスケール統合部と、を備え、
    前記マルチスケール変換器は、
    前記m個の解像度の画像情報から畳み込み演算により予め定めた1個の解像度分の特徴量を生成する特徴量生成部と、
    前記特徴量生成部で生成された特徴量から、前記n個の解像度の画像情報を畳み込み演算により生成する画像情報生成部と、
    前記画像情報生成部で生成された画像情報に対して、入力した画像情報の中で解像度が同じ画像情報を合成する画像合成部と、を備え、
    前記スケール統合部は、
    前記最後段のマルチスケール変換器で生成された複数の解像度の画像情報の解像度を揃えるスケール変換部と、
    前記スケール変換部で解像度を揃えた複数の画像情報を合成する合成部と、
    前記合成部で合成された画像情報から畳み込み演算により変換後の画像情報を生成する特徴計算部と、
    を備えることを特徴とする画像情報変換器。
  6. コンピュータを、請求項1から請求項のいずれか一項に記載の画像情報変換器として機能させるための画像情報変換プログラム。
JP2018011613A 2018-01-26 2018-01-26 画像情報変換器およびそのプログラム Active JP7042092B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018011613A JP7042092B2 (ja) 2018-01-26 2018-01-26 画像情報変換器およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011613A JP7042092B2 (ja) 2018-01-26 2018-01-26 画像情報変換器およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2019128889A JP2019128889A (ja) 2019-08-01
JP7042092B2 true JP7042092B2 (ja) 2022-03-25

Family

ID=67473173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011613A Active JP7042092B2 (ja) 2018-01-26 2018-01-26 画像情報変換器およびそのプログラム

Country Status (1)

Country Link
JP (1) JP7042092B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110392264B (zh) * 2019-08-26 2022-10-28 中国科学技术大学 一种基于神经网络的对齐外插帧方法
JPWO2021070000A1 (ja) * 2019-10-11 2021-04-15
JPWO2021130593A1 (ja) 2019-12-27 2021-07-01
JP7365697B2 (ja) 2020-01-17 2023-10-20 国立大学法人東京農工大学 プログラム及びクラスタリング装置
JP7351358B2 (ja) * 2020-02-13 2023-09-27 日本電気株式会社 画像処理システム、画像処理方法および画像処理プログラム
US20230059499A1 (en) * 2020-02-13 2023-02-23 Nec Corporation Image processing system, image processing method, and non-transitory computer readable medium
CN111402140B (zh) * 2020-03-25 2023-08-22 中国计量大学 单张图像超分辨率重建系统及方法
JP7166415B1 (ja) 2021-09-28 2022-11-07 Pciソリューションズ株式会社 特徴量抽出装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093816A (ja) 2008-10-09 2010-04-22 Samsung Electronics Co Ltd 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法
JP2016168046A (ja) 2015-03-09 2016-09-23 学校法人法政大学 植物病診断システム、植物病診断方法、及びプログラム
JP2017045430A (ja) 2015-08-28 2017-03-02 パナソニックIpマネジメント株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093816A (ja) 2008-10-09 2010-04-22 Samsung Electronics Co Ltd 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法
US20100266198A1 (en) 2008-10-09 2010-10-21 Samsung Electronics Co., Ltd. Apparatus, method, and medium of converting 2D image 3D image based on visual attention
JP2016168046A (ja) 2015-03-09 2016-09-23 学校法人法政大学 植物病診断システム、植物病診断方法、及びプログラム
JP2017045430A (ja) 2015-08-28 2017-03-02 パナソニックIpマネジメント株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岡谷 貴之,画像認識のための深層学習の研究動向 -畳込みニューラルネットワークとその利用法の発展-,人工知能 第31巻 第2号,(一社)人工知能学会,2016年,第31巻 第2号,169~179

Also Published As

Publication number Publication date
JP2019128889A (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
JP7042092B2 (ja) 画像情報変換器およびそのプログラム
CN109905624B (zh) 一种视频帧插值方法、装置及设备
KR102061408B1 (ko) 가상 3차원 심층 신경망을 이용하는 영상 분석 장치 및 방법
US10970600B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
Gao et al. Pixel transposed convolutional networks
EP3678059B1 (en) Image processing method, image processing apparatus, and a neural network training method
CN110059598B (zh) 基于姿态关节点的长时程快慢网络融合的行为识别方法
CN109308679A (zh) 一种图像风格转换方及装置、设备、存储介质
JP2022500734A (ja) 畳み込みニューラルネットワークを利用したコンピュータ実現方法、合成画像生成用の装置及びコンピュータプログラム製品
CN114549731A (zh) 视角图像的生成方法、装置、电子设备及存储介质
CN110136067B (zh) 一种针对超分辨率b超影像的实时影像生成方法
US20180137665A1 (en) Facial feature adding method, facial feature adding apparatus, and facial feature adding device
Wan et al. Learning dense and continuous optical flow from an event camera
KR20210056149A (ko) 깊이 영상 생성 방법 및 깊이 영상 생성 장치
Karmouni et al. Image analysis using separable Krawtchouk-Tchebichef's moments
CN113298717A (zh) 基于多注意力残差特征融合的医学图像超分辨率重建方法
CN109447897B (zh) 一种真实场景图像合成方法及系统
CN112132741A (zh) 一种人脸照片图像和素描图像的转换方法及系统
CN113066475B (zh) 一种基于生成式对抗网络的语音合成方法
JP7010783B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
CN112785498B (zh) 一种基于深度学习的病理图像超分建模方法
Liu et al. Hyperspectral image super-resolution employing nonlocal block and hybrid multiscale three-dimensional convolution
Zhang et al. Lightweight Portrait Segmentation Via Edge-Optimized Attention
Rubio-Ibáñez et al. Efficient VHDL Implementation of an Upscaling Function for Real Time Video Applications
TWI748426B (zh) 單視角影像深度圖序列生成方法、系統與電腦程式產品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7042092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150