JP2016031747A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2016031747A
JP2016031747A JP2014155452A JP2014155452A JP2016031747A JP 2016031747 A JP2016031747 A JP 2016031747A JP 2014155452 A JP2014155452 A JP 2014155452A JP 2014155452 A JP2014155452 A JP 2014155452A JP 2016031747 A JP2016031747 A JP 2016031747A
Authority
JP
Japan
Prior art keywords
output
layer
neural network
hierarchical neural
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014155452A
Other languages
English (en)
Inventor
千尋 田嶋
Chihiro Tajima
千尋 田嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014155452A priority Critical patent/JP2016031747A/ja
Publication of JP2016031747A publication Critical patent/JP2016031747A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 画像の一般的な特徴に対してのみならず特定の特徴に対しても、特徴を保持しながら適切な処理を実現するための技術を提供すること。【解決手段】 第2の階層型ニューラルネットワークのM層目(2≦M≦N−1)からの出力を第1の階層型ニューラルネットワークの入力層に入力することで、該第1の階層型ニューラルネットワークの出力層からの出力と注目ニューロンからの出力とを求める。第1の階層型ニューラルネットワークの出力層からの出力を注目ニューロンからの出力を用いて重み付けした結果と第2の階層型ニューラルネットワークのM層目からの出力との統合結果を、第2の階層型ニューラルネットワークの(M+1)層目に入力する。【選択図】 図3

Description

本発明は、ニューラルネットワークを用いた情報処理技術に関するものである。
従来から、ニューラルネットワークを用いてノイズ低減処理を行うものとして、Hintonらの多層ニューラルネットを用いたものが知られている(非特許文献1)。非特許文献1では、大量の画像から一般的な特徴を学習したニューラルネットワークを用いてノイズ低減を行うことが開示されている。
G.E. Hinton and R.R. Salakhutdinov, Science, Vol. 313, no. 5786, pp. 504 - 507, 2006
ニューラルネットワークを用いてノイズ低減を行うと、平坦部やエッジ部といった様々な画像でよく現れる一般的な特徴に対しては適切にノイズ低減されやすい。しかし、限られた対象や状況で現れる繊維や茂みのような特定の特徴に対しては適切にノイズ低減されない場合があった。一方で、特定の特徴のみを学習した場合、それ以外の特徴に対してノイズ低減効果が小さくなる可能性があるという課題があった。
本発明はこのような問題に鑑みてなされたものであり、画像の一般的な特徴に対してのみならず特定の特徴に対しても、特徴を保持しながら適切な処理を実現するための技術を提供する。
本発明の一様態は、第1の学習対象を学習したニューロン群と、該第1の学習対象及び第2の学習対象を学習した注目ニューロンと、から成る第1の階層型ニューラルネットワークと、第3の学習対象を学習したニューロン群から成るN(Nは4以上の自然数)層の第2の階層型ニューラルネットワークと、を動作させて情報処理を行う処理手段を備え、前記処理手段は、前記第2の階層型ニューラルネットワークにおけるM層目(2≦M≦N−1)からの出力を前記第1の階層型ニューラルネットワークの入力層に入力して該第1の階層型ニューラルネットワークを動作させることで、該第1の階層型ニューラルネットワークの出力層からの出力と、前記注目ニューロンからの出力と、を求める手段と、前記第1の階層型ニューラルネットワークの出力層からの出力を前記注目ニューロンからの出力を用いて重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、を統合させた結果を、前記第2の階層型ニューラルネットワークにおける(M+1)層目に入力して該(M+1)層目以降の各層を動作させることで、前記第2の階層型ニューラルネットワークの出力層からの出力を前記情報処理の結果として求める計算手段とを備えることを特徴とする。
本発明の構成によれば、画像の一般的な特徴に対してのみならず特定の特徴に対しても、特徴を保持しながら適切な処理を実現することができる。
情報処理装置のハードウェア構成例を示すブロック図。 階層型ニューラルネットワークを示す図。 情報処理装置の機能構成例を示すブロック図。 ノイズ低減処理のフローチャート。 情報処理装置の機能構成例を示すブロック図。 ノイズ低減処理のフローチャート。 情報処理装置の機能構成例を示すブロック図。 ノイズ低減処理のフローチャート。 情報処理装置の機能構成例を示すブロック図。 デモザイク処理及びノイズ低減処理のフローチャート。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、第1の学習対象を学習したニューロン群と、該第1の学習対象及び第2の学習対象を学習した注目ニューロンと、から成る第1の階層型ニューラルネットワークと、第3の学習対象を学習したニューロン群から成るN(Nは4以上の自然数)層の第2の階層型ニューラルネットワークと、を動作させて情報処理を行う情報処理装置の一例について説明する。
より詳しくは、本実施形態は、第2の階層型ニューラルネットワークにおけるM層目(2≦M≦N−1)からの出力を第1の階層型ニューラルネットワークの入力層に入力して該第1の階層型ニューラルネットワークを動作させることで、該第1の階層型ニューラルネットワークの出力層からの出力と、注目ニューロンからの出力と、を求め、第1の階層型ニューラルネットワークの出力層からの出力を注目ニューロンからの出力を用いて重み付けした結果と、第2の階層型ニューラルネットワークにおけるM層目からの出力と、を統合させた結果を、第2の階層型ニューラルネットワークにおける(M+1)層目に入力して該(M+1)層目以降の各層を動作させることで、第2の階層型ニューラルネットワークの出力層からの出力を、上記の情報処理の結果として求める構成の一例である。
先ず、本実施形態に係る情報処理装置のハードウェア構成例について、図1のブロック図を用いて説明する。なお、本実施形態に係る情報処理装置は、一般のPC(パーソナルコンピュータ)であっても良いし、携帯電話やタブレット端末装置などの携帯端末装置であっても良い。また、本実施形態に係る情報処理装置は、ディジタルカメラなどの機器に組み込まれる電子回路の一部の構成であっても構わない(その場合は撮像装置105は除く)。すなわち、本実施形態に係る情報処理装置は、上記のような階層型ニューラルネットワークを用いて情報処理を行う機能を使用する機器であれば、如何なる機器に適用しても構わない。
CPU101は、RAM102に格納されているコンピュータプログラムやデータを用いて処理を実行することで、情報処理装置全体の動作制御を行うと共に、情報処理装置が行うものとして後述する各処理を実行若しくは制御する。
RAM102は、記憶装置103からロードされたコンピュータプログラムやデータ、汎用I/F(インターフェース)104を介して外部メモリ107からロードされたコンピュータプログラムやデータ、汎用I/F104を介して撮像装置105から送出された撮像画像のデータ、を記憶するためのエリアを有する。更にRAM102は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このように、RAM102は、各種のエリアを適宜提供することができる。
記憶装置103には、OS(オペレーティングシステム)や、情報処理装置が行うものとして後述する各処理をCPU101に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、階層型ニューラルネットワークの動作を実行する為のプログラムや階層型ニューラルネットワークに特徴量を学習させるための学習プログラム等が含まれている。また、このデータには、階層間の重み係数やニューロンのバイアス値、学習時に用いる入力データ及び教師データのセット、各種のパラメータ、などが含まれている。記憶装置103に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM102にロードされ、CPU101による処理対象となる。なお、RAM102に格納するものとして説明したデータの一部若しくは全部を記憶装置103に格納するようにしても構わない。
モニタ108は、CRTや液晶画面などにより構成されており、CPU101による処理結果を、画像や文字などでもって表示することができる。例えば、階層型ニューラルネットワークの学習用のGUI(学習時に使用する入力データ及び教師データを選択するための選択画面や、学習結果を表示する表示画面等を含む)や、学習済みの階層型ニューラルネットワークを用いて情報処理を行わせるためのGUI(情報処理対象のデータを選択するための選択画面や、情報処理の結果を表示する表示画面等を含む)、等を表示することができる。
CPU101、RAM102、記憶装置103、モニタ108は何れも、共通のバス109に接続されている。
撮像装置105は、外界の光を電気信号に変換し、該電気信号をA/D変換して各種の処理を施すことで撮像画像を生成するものである。撮像装置105により生成された撮像画像は、汎用I/F104を介してRAM102や記憶装置103に送出される。
入力装置106は、キーボードやマウス、タッチパネル画面などにより構成されており、本装置のユーザが操作することで各種の指示をCPU101に対して入力することができる。
外部メモリ107は、メモリカードなどの本装置に着脱可能なメモリ装置である。なお、記憶装置103に保存若しくは格納するものとして説明するデータの一部は外部メモリ107に保存若しくは格納するようにしても構わない。外部メモリ107に格納されているコンピュータプログラムやデータもまた、CPU101による制御に従って適宜RAM102にロードされ、CPU101による処理対象となる。
撮像装置105、入力装置106、外部メモリ107は何れも汎用I/F104に接続されており、汎用I/F104は上記のバス109に接続されている。なお、汎用I/F104にはこれ以外にも、例えば、赤外線通信や無線LAN等を用いて外部機器との通信を行うための通信部を接続しても構わない。
なお、図1に示した構成は、以下に説明する処理を実現可能な構成の一例であり、同等以上の機能を実現可能な構成であれば、如何なる構成を採用しても構わない。また、本実施形態では、図1に示した構成を有する1台の情報処理装置を用いて、以下に説明する情報処理を実行するが、2台以上の装置で処理を分散させて該情報処理を実現させても構わない。
次に、階層型ニューラルネットワークについて、図2を用いて説明する。図2では説明を簡単にするために中間層を1層としているが、2層以上で中間層を構成しても構わない。図2では、入力層はMi個のニューロン(n11、n12、…、n1Mi)を有し、中間層はMh個のニューロン(n21、n22、…、n2Mh)を有し、出力層(最終層)はMo個のニューロン(n31、n32、…、n3Mo)を有している。そして、各層のニューロンは隣接する層の全てのニューロンと結合しており、階層間で情報伝達を行う3層の階層型ニューラルネットワークを構成している。
入力層におけるニューロンの数は、入力データの数に対応している。例えば、入力層に画像を入力する場合、該入力層には、入力する特徴量(例えば画素値)とニューロンとが1対1となるように、特徴量分のニューロンを設ける。そして入力層における各ニューロンには、対応する画素の画素値(若しくはその周辺の画素の画素値の平均値など)を特徴量として入力することになる。
図2の場合、入力層における各ニューロンは、中間層における全てのニューロンと結合しており、中間層における各ニューロンは、出力層における全てのニューロンと結合している(図2ではニューロン間の結合を結線で示している)。
また、ニューロン間の結合はそれぞれ重みを持っており、一方のニューロンから結合を通して他方のニューロンに伝達される出力値はその結合の重みによって増強あるいは減衰される。図2においてW1,b1はそれぞれ、入力層と中間層との間の重み係数の行列、中間層におけるバイアス値を表している。また、W2,b2はそれぞれ、中間層と出力層との間の重み係数の行列、出力層におけるバイアス値を表している。例えば、図2の中間層におけるニューロンn21の出力値an21は、以下の式(1)によって与えられる。
Figure 2016031747
式(1)において、wn1kn21は、入力層におけるニューロンn1kと中間層におけるニューロンn21との間の結合の重みを表す重み係数である。an1kは、入力層におけるニューロンn1kの出力値である。b1は、中間層に属するニューロンにおけるバイアス値である。fは活性化関数であり、例えば、以下の式(2)で表される。
Figure 2016031747
p、qは任意に設定可能なパラメータである。本実施形態では説明を簡単にするために、p、qは全てのニューロンで同じ値とする。なお、活性化関数fは式(2)で示すようなシグモイド関数に限るものではなく、引数(式(2)の場合はa)の値が閾値以上であれば1を返し、閾値未満であれば0を返す二値化関数であっても良い。また、活性化関数fはtanhや、二次関数などの曲線や、一次関数で近似した関数であっても構わない。
また、階層型ニューラルネットワークには、それぞれのニューロンが自己結合を有するものがあったり、同層内で結合を有するものがあったりするが、このような階層型ニューラルネットワークを用いても構わない。
このように、各層のそれぞれのニューロンは、上記の式(1)、式(2)に従って動作して出力値aを出力している。そしてその出力値a(出力層を除く)は次の層との間の重み係数に応じて重み付けされて該次の層におけるそれぞれのニューロンに入力される。
次に、このような階層型ニューラルネットワークにおける学習処理について説明する。従来から、入力層に入力データを入力して階層型ニューラルネットワークを動作させた場合に出力層から教師データに近い出力が得られるように、ニューロン間における重み係数や各層のバイアスを調整することで、該階層型ニューラルネットワークに「入力データと教師データとの対」を学習させる(学習処理を行う)技術が存在する。このような入力データと教師データのセットを複数セット用意し、それぞれのセットについて学習処理を行うことで、様々なデータに対して汎用性がある重み係数及びバイアス値を得ることができる。ここで、教師データは、ニューロンの出力値と比較するのであるから、ニューロンの出力可能範囲の値に正規化しておくことが好ましい。
このように、従来の階層型ニューラルネットワークにおける学習処理では、入力層に入力データを入力して階層型ニューラルネットワークを動作させた場合に出力層から得られる出力と、該入力データに予め対応づけられている教師データと、の差分を計算し、該差分を極小化するように、重み係数及びバイアス値を調整することで、この入力データと教師データとの対を学習していた。本実施形態では、このような学習則に基づいて学習した階層型ニューラルネットワークを、第2の階層型ニューラルネットワークとして用いる。また、本実施形態では、入力層に入力データを入力して階層型ニューラルネットワークを動作させた場合に出力層から得られる出力と、該入力データに予め対応づけられている教師データと、の差分(第1の差分)を計算し、更に、中間層における注目ニューロンの出力と該注目ニューロン用の教師データとの差分(第2の差分)を計算し、第1の差分と第2の差分との合計(線形和とは限らない)を極小化するように、重み係数及びバイアス値を調整する、という学習則に基づいて学習した階層型ニューラルネットワークを、第1の階層型ニューラルネットワークとして用いる。
更に、第2の階層型ニューラルネットワークにおけるM層目(2≦M≦N−1:ここでは第2の階層型ニューラルネットワークがN(Nは4以上の自然数)層の階層型ニューラルネットワークであるとしている)は、第2の階層型ニューラルネットワークにおける(M+1)層目だけでなく、第1の階層型ニューラルネットワークの入力層とも結合しており、第2の階層型ニューラルネットワークにおける(M+1)層目は、第2の階層型ニューラルネットワークにおけるM層目だけでなく、第1の階層型ニューラルネットワークの出力層及び注目ニューロンとも結合している。
本実施形態では、第1の階層型ニューラルネットワークと第2の階層型ニューラルネットワークとを用いてこのようなネットワーク構成を想定し、第2の階層型ニューラルネットワークにおける(M+1)層目への入力を、第2の階層型ニューラルネットワークにおけるM層目からの出力、注目ニューロンからの出力、第1の階層型ニューラルネットワークにおける出力層からの出力、に基づいて決定する。そしてこの決定した入力を第2の階層型ニューラルネットワークにおける(M+1)層目に与えて、(M+1)層目以降の各層を動作させることで、結果として、第2の階層型ニューラルネットワークにおける出力層からの出力を得ることができる。
本実施形態では、このように構成された第1の階層型ニューラルネットワーク及び第2の階層型ニューラルネットワークを用いてノイズ低減処理を行うため、第2の階層型ニューラルネットワークにおける出力層からの出力を、ノイズ低減処理の結果として得ることになる。
もちろん、階層型ニューラルネットワークを用いてノイズ低減処理を実現させるためには、第1の階層型ニューラルネットワーク及び第2の階層型ニューラルネットワークのそれぞれに対して予め次のような入力データ及び教師データを与えて学習処理を行っておく必要がある。
第2の階層型ニューラルネットワークに対する学習処理では、入力データ及び教師データのセットとして、ノイズが付加された画像であるノイズ画像、十分にノイズが低減された画像、のセットを多数用意し、それぞれのセットを第2の階層型ニューラルネットワークに与えて学習させる。
第1の階層型ニューラルネットワークに対する学習処理では、入力データ及び教師データのセットとして、ノイズが付加された画像であるノイズ画像、十分にノイズが低減された画像と、のセットを多数用意するだけでなく、注目ニューロン用の教師データとして、繊維のもつ統計量等の特定の特徴を多数用意する。そして、入力層には入力データ、出力層には教師データ、注目ニューロンには注目ニューロン用の教師データ、を与えて学習させることで、第1の階層型ニューラルネットワークに、汎用的な特徴だけでなく特定の特徴に基づく画像処理を学習させる。なお、注目ニューロンの数は1であっても複数であっても構わない。また、注目ニューロンは、同じ層に1以上設けても良いし、2以上の層に1以上設けても良い。
なお、以下では、第1の階層型ニューラルネットワークを専門NN、第2の階層型ニューラルネットワークを一般NNと呼称する場合がある。また、以下では説明を簡単にするために、専門NN及び一般NNの各層におけるニューロンの数は同じとする。しかし、入力層、中間層、出力層のそれぞれの層のニューロンの数は処理の内容や目的に合わせて適宜変更しても構わない。例えば、入力を受けないニューロンを設定したり、2つのニューロンから1画素へ入力したりするなどニューラルネットワークの形態によっては等しくならなくてもよい。また、本実施形態では、1画素と1ニューロンが対応しているとしたが、他の方法でも良く、例えば複数画素の平均や分散などの特徴量と1ニューロンが対応しているとしても良い。
次に、以上説明した、専門NNと一般NNとを用いて情報処理を実行する際の情報処理装置の機能構成例について、図3のブロック図を用いて説明する。図3において、パラメタ保持部303以外の各機能部は何れもコンピュータプログラムとして実装され、記憶装置103に保存されているものとする。以下では、これらの機能部を処理の主体として説明する場合もあるが、実際にはCPU101が該機能部に対応するコンピュータプログラムを実行することで、対応する処理が実現される。しかし、これらの機能部の全てをコンピュータプログラムで実装することに限るものではなく、一部をハードウェアで実装しても構わない。また、パラメタ保持部303は、記憶装置103や外部メモリ107が有するメモリ領域の一部として実装されるものとする。なお、図3に示した全ての機能部をハードウェアで構成しても構わない。
画像データ入力部301は、撮像装置105や記憶装置103から得られる画像を入力画像として、一般NN前段処理部302に入力する。
パラメタ保持部303は、一般NN及び専門NNの各層間の重み係数及び各層のバイアス値(学習済みの値)を保持する。また、パラメタ保持部303は、本実施形態に係る処理で用いられる各種のパラメータも保持している。
一般NN前段処理部302は、一般NNにおける入力層からM層目(一般NNにおける(M+1)層目及び専門NNにおける入力層に出力を行う層)までの各層の処理を実行する機能部である。一般NN前段処理部302は先ず、パラメタ保持部303に格納されている「一般NNの入力層からM層目までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける入力層からM層目までの各層間及び各層を確定させる。そして一般NN前段処理部302は、画像データ入力部301からの入力画像を入力層に入力し、入力層からM層目までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、M層目からの出力(M層目を構成する各ニューロンの出力)を求める。以下では、一般NNにおける入力層からM層目までを「前段」と呼称する。そして一般NN前段処理部302は、M層目の出力として求めたものを、一般NN後段処理部306及び専門NN前段処理部304に対して送出する。
専門NN前段処理部304は、専門NNにおける入力層の処理を実行する機能部である。専門NN前段処理部304は先ず、パラメタ保持部303に格納されている「専門NNの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNにおける入力層と2層目との間及び入力層を確定させる。そして専門NN前段処理部304は、一般NN前段処理部302からの出力を専門NNの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部304は、入力層の出力として求めたものを、専門NN後段処理部305に対して送出する。
専門NN後段処理部305は、専門NNにおける2層目から出力層までの各層の処理を実行する機能部である。2層目から出力層までの間には、特定の特徴を学習したニューロンである注目ニューロンが属する層も含まれている。専門NN後段処理部305は先ず、パラメタ保持部303に格納されている「専門NNの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNにおける2層目から出力層までの各層間及び各層を確定させる。そして専門NN後段処理部305は、専門NN前段処理部304からの出力を2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして専門NN後段処理部305は、出力層からの出力として求めた結果と、注目ニューロンの出力と、を一般NN後段処理部306に対して送出する。
一般NN後段処理部306は、一般NNにおける(M+1)層目から出力層までの各層の処理を実行する機能部である。一般NN後段処理部306は先ず、パラメタ保持部303に格納されている「一般NNの(M+1)層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける(M+1)層目から出力層までの各層間及び各層を確定させる。そして一般NN後段処理部306は、一般NN前段処理部302からの出力(一般NNのM層目からの出力)と専門NN後段処理部305からの出力(専門NNの出力層からの出力)とを、専門NN後段処理部305からの出力(注目ニューロンの出力)を用いた後述の処理により統合した結果を求め、該統合した結果を(M+1)層目に入力し、(M+1)層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。以下では、一般NNにおける(M+1)層目から出力層までを「後段」と呼称する。そして一般NN後段処理部306は、出力層からの出力として求めた結果を、上記の入力画像に対する結果、即ち、ノイズ低減処理が施された画像として、画像データ出力部307に対して送出する。
画像データ出力部307は、一般NN後段処理部306から受けた画像を、モニタ108に表示させる。なお、一般NN後段処理部306から受けた画像の出力先はモニタ108に限るものではなく、記憶装置103であっても良いし、外部メモリ107であっても良いし、不図示のネットワークインターフェースを介して外部の装置に対して送信しても構わない。
次に、一般NN後段処理部306が、一般NNのM層目からの出力と、専門NNの出力層からの出力と、を注目ニューロンの出力を用いて統合する処理について説明する。上記では、注目ニューロンは、注目する特徴(例えば繊維の持つ特定の統計量)に相関する値を出力するよう学習すると述べた。つまり学習済みの注目ニューロンからの出力は、処理領域中に注目する特徴がどの程度含まれるかを反映するものである。例えば、処理領域に繊維が含まれていれば注目ニューロンからの出力値は大きくなる可能性が高い。この場合、専門NNの処理結果をより重点的に用いることで注目する特徴に応じたノイズ低減が可能になる。一方で、処理領域に繊維が含まれていなければ、注目ニューロンからの出力値は小さくなる可能性が高い。この場合、一般NNの処理結果をより重点的に用いることで一般的な特徴に応じたノイズ低減を行う。このような注目ニューロンからの出力値の性質を利用し、上記の統合を以下の式に従って行う。
Figure 2016031747
ここで、dは、一般NNのM層目からの出力と専門NNの出力層からの出力との統合結果、kは注目ニューロンの数、anciはi番目の注目ニューロンの出力値、dgは一般NNのM層目からの出力、dsは専門NNの出力層からの出力、Mは適当なパラメータで、例えば一般NNと専門NNの合計数、即ち、M=2である。なお、この「M」の代わりに、第1項目に乗じるM1と第2項目に乗じるM2とを用いても構わない。然るに一般NN後段処理部306は、このような式に従って統合を行った結果dを、一般NNの(M+1)層目に入力する。学習段階でも、注目ニューロンに応じて最適な統合量になるよう学習は行われているが、本実施形態のような統合により、意図をより反映して統合量の調整を行うことで、特定の特徴(注目ニューロンが学習した特徴)に注目しながらノイズを低減した画像が、一般NNの出力層から出力されることになる。
なお、一般NNのM層目からの出力と専門NNの出力層からの出力との統合方法は、上記の式(3)に示した方法に限るものではなく、例えば、以下に示した式(4)に従って統合しても構わない。本例では統合結果は常に0から1の範囲に収まる例を説明したが、この統合はNNの途中で行われるので、統合結果の値の範囲は0から1に限るものではなく、マイナス値や1以上の値であってもよい。
Figure 2016031747
ここで、rは、右辺の1項目及び2項目のそれぞれに対する信頼度を表すパラメータで、0〜1の実数値をとる。この信頼度rは、例えば、各専門NNが事前に様々な画像を処理した結果の画質を評価して求めることができる。もちろん、この信頼度rは、他の方法で求めても構わないし、ユーザが入力装置106を操作して入力した値を信頼度rとして用いても構わない。
以上説明した、一般NNと専門NNとを用いて行うノイズ低減処理について、同処理のフローチャートを示す図4を用いて説明する。なお、上記の通り、以下では、図3に示した各機能部を処理の主体として説明するが、実際には、CPU101が該機能部に対応するコンピュータプログラムを実行することで、対応する処理が実現される。然るに、実際には、図4のフローチャートに従った処理をCPU101に実行させるためのコンピュータプログラムやデータが記憶装置103に保存されており、CPU101がこのコンピュータプログラムやデータをRAM102に読み出して実行することで、図4のフローチャートに従った処理が実現される。
<ステップS401>
画像データ入力部301は、撮像装置105や記憶装置103から得られる画像を入力画像として取得し、該取得した入力画像を一般NN前段処理部302に入力する。
<ステップS402>
一般NN前段処理部302は、パラメタ保持部303に格納されている「一般NNの入力層からM層目までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける入力層からM層目までの各層間及び各層を確定させる。
一般NN後段処理部306は、パラメタ保持部303に格納されている「一般NNの(M+1)層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける(M+1)層目から出力層までの各層間及び各層を確定させる。
専門NN前段処理部304は、パラメタ保持部303に格納されている「専門NNの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNにおける入力層と2層目との間及び入力層を確定させる。
専門NN後段処理部305は、パラメタ保持部303に格納されている「専門NNの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNにおける2層目から出力層までの各層間及び各層を確定させる。
<ステップS403>
一般NN前段処理部302は、画像データ入力部301からの入力画像を一般NNの入力層に入力し、入力層からM層目までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、M層目からの出力(M層目を構成する各ニューロンの出力)を求める。そして一般NN前段処理部302は、M層目の出力として求めたものを、一般NN後段処理部306及び専門NN前段処理部304に対して送出する。
<ステップS404>
専門NN前段処理部304は、一般NN前段処理部302からの出力を専門NNの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部304は、入力層の出力として求めたものを、専門NN後段処理部305に対して送出する。
<ステップS405>
専門NN後段処理部305は、専門NN前段処理部304からの出力を専門NNの2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして専門NN後段処理部305は、出力層からの出力として求めた結果と、注目ニューロンの出力と、を一般NN後段処理部306に対して送出する。
<ステップS406>
一般NN後段処理部306は、ステップS403で求めた一般NNのM層目からの出力と、ステップS405で求めた専門NNの出力層からの出力と、ステップS405で求めた注目ニューロンの出力と、を用いて上記の式(3)や式(4)に従った計算を行うことで、一般NNのM層目からの出力と専門NNの出力層からの出力との統合結果を求める。そして一般NN後段処理部306は、この統合結果を一般NNの(M+1)層目に入力し、(M+1)層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、一般NNの出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして一般NN後段処理部306は、出力層からの出力として求めた結果を、画像データ出力部307に対して送出する。
<ステップS407>
画像データ出力部307は、一般NN後段処理部306から受けた画像を、モニタ108、記憶装置103、外部メモリ107、等の適当な出力先に対して出力する。なお、出力先は2以上であっても構わない。
このように、本実施形態では、特定の特徴に対応した注目ニューロンの出力に基づいて一般NNの前段からの出力と専門NNからの出力とを統合して用いることで、一般的な特徴に対してのみならず特定の特徴に対しても、特徴を保持したままノイズ低減させることが可能となる。なお、本実施形態では1ニューロンに1つの画素値が入力される例を説明したが、学習時に設定済みであれば5×5画素の特徴量(分散など)を複数入力してノイズ低減に用いるなどの方法でもよい。その場合、特徴量が10あれば入力層のニューロンも10必要である。また、画像サイズとニューラルネットワークのサイズ(入力層におけるニューロン数)が一致しない場合は、画像の一部を入力として処理を行い、順次処理範囲を変更して画像全体を処理することもできる。また、本実施形態では、一般NN及び専門NNのそれぞれの数を1としているが、1に限るものではなく複数であっても構わない。
なお、本実施形態では、一般NNと専門NNとの間の結合には重み係数を設定していなかったが、設けても構わない。その場合(その場合でなくても)、一般NN及び専門NNのそれぞれにおいて上記の通り学習を完了させた後、全体で再度学習を行うことで、一般NNと専門NNとの間の結合における重み係数も学習することができる。なお、注目ニューロンと一般NNとの間の結合に対する重み係数は固定値とする。
[第2の実施形態]
第1の実施形態では、専門NNの数を1としたが、2以上であっても構わない。その場合、一般NNのM層目からの出力を、一般NNの(M+1)層目及びそれぞれの専門NNの入力層に入力することになる。そして、一般NNのM層目からの出力とそれぞれの専門NNの出力層からの出力とを、それぞれの専門NNにおける注目ニューロンの出力に応じて統合し、その統合結果を、一般NNの(M+1)層目に入力する。例えば、3つの専門NNを用いる場合、1つ目の専門NNには「空」を学習させ、2つ目の専門NNには「文字」を学習させ、3つ目の専門NNには「地面」を学習させる。そして、それぞれの専門NNにおける注目ニューロンには、「空」に関連する特定の特徴、「文字」に関連する特定の特徴、「地面」に関連する特定の特徴、を学習させる。
以下では、1つの一般NNと2つの専門NNとを用いて情報処理を行う場合について説明する。以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
本実施形態に係る情報処理装置の機能構成例について、図5のブロック図を用いて説明する。図5において、図3に示した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
図5において、パラメタ保持部502以外の各機能部は何れもコンピュータプログラムとして実装され、記憶装置103に保存されているものとする。以下では、これらの機能部を処理の主体として説明する場合もあるが、実際にはCPU101が該機能部に対応するコンピュータプログラムを実行することで、対応する処理が実現される。しかし、これらの機能部の全てをコンピュータプログラムで実装することに限るものではなく、一部をハードウェアで実装しても構わない。また、パラメタ保持部502は、記憶装置103や外部メモリ107が有するメモリ領域の一部として実装されるものとする。なお、図5に示した全ての機能部をハードウェアで構成しても構わない。
パラメタ保持部502は、一般NN及び専門NN(2つの専門NNのそれぞれ)の各層間の重み係数及び各層のバイアス値(学習済みの値)を保持する。また、パラメタ保持部502は、本実施形態に係る処理で用いられる各種のパラメータも保持している。
一般NN前段処理部501は、パラメタ保持部502に格納されている「一般NNの入力層からM層目までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける入力層からM層目までの各層間及び各層を確定させる。そして一般NN前段処理部501は、一般NN前段処理部302と同様に動作し、M層目からの出力(M層目を構成する各ニューロンの出力)を求める。そして一般NN前段処理部501は、M層目の出力として求めたものを、一般NN後段処理部508、専門NN前段処理部503、専門NN前段処理部505に対して送出する。
専門NN前段処理部503は、上記2つの専門NNのうちの一方(専門NNAと呼称する)における入力層の処理を実行する機能部である。専門NN前段処理部503は先ず、パラメタ保持部502に格納されている「専門NNAの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNAにおける入力層と2層目との間及び入力層を確定させる。そして専門NN前段処理部503は、一般NN前段処理部501からの出力を専門NNAの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部503は、入力層の出力として求めたものを、専門NN後段処理部504に対して送出する。
専門NN後段処理部504は、専門NNAにおける2層目から出力層までの各層の処理を実行する機能部である。2層目から出力層までの間には、特定の特徴(ここでは特徴Aとする)を学習したニューロンである注目ニューロンが属する層も含まれている。専門NN後段処理部504は先ず、パラメタ保持部502に格納されている「専門NNAの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNAにおける2層目から出力層までの各層間及び各層を確定させる。そして専門NN後段処理部504は、専門NN前段処理部503からの出力を2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして専門NN後段処理部504は、出力層からの出力として求めた結果と、注目ニューロンの出力と、を一般NN後段処理部508に対して送出する。また、専門NN後段処理部504は、注目ニューロンの出力を、専門ニューロン活動統合部507に対して送出する。
専門NN前段処理部505は、上記2つの専門NNのうちの他方(専門NNBと呼称する)における入力層の処理を実行する機能部である。専門NN前段処理部505は先ず、パラメタ保持部502に格納されている「専門NNBの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNBにおける入力層と2層目との間及び入力層を確定させる。そして専門NN前段処理部505は、一般NN前段処理部501からの出力を専門NNBの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部505は、入力層の出力として求めたものを、専門NN後段処理部506に対して送出する。
専門NN後段処理部506は、専門NNBにおける2層目から出力層までの各層の処理を実行する機能部である。2層目から出力層までの間には、特定の特徴(ここでは特徴B(≠特徴A)とする)を学習したニューロンである注目ニューロンが属する層も含まれている。専門NN後段処理部506は先ず、パラメタ保持部502に格納されている「専門NNBの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNBにおける2層目から出力層までの各層間及び各層を確定させる。そして専門NN後段処理部506は、専門NN前段処理部505からの出力を2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして専門NN後段処理部506は、出力層からの出力として求めた結果と、注目ニューロンの出力と、を一般NN後段処理部508に対して送出する。また、専門NN後段処理部506は、注目ニューロンの出力を、専門ニューロン活動統合部507に対して送出する。
一般NN後段処理部508は、一般NNにおける(M+1)層目から出力層までの各層の処理を実行する機能部である。一般NN後段処理部508は先ず、パラメタ保持部502に格納されている「一般NNの(M+1)層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける(M+1)層目から出力層までの各層間及び各層を確定させる。そして一般NN後段処理部508は、一般NN前段処理部501からの出力、専門NN後段処理部504からの出力、専門NN後段処理部506からの出力、を専門NN後段処理部504及び専門NN後段処理部506からの出力(注目ニューロンの出力)を用いた後述の処理により統合した結果を求め、該統合した結果を(M+1)層目に入力し、(M+1)層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして一般NN後段処理部508は、出力層からの出力として求めた結果を、上記の入力画像に対する結果、即ち、ノイズ低減処理が施された画像として、画像データ出力部307に対して送出する。
専門ニューロン活動統合部507は、専門NN後段処理部504からの出力(注目ニューロンの出力)及び専門NN後段処理部506からの出力(注目ニューロンの出力)に基づいて、専門NN後段処理部504や専門NN後段処理部506の動作制御を行う。
次に、一般NN後段処理部508が、一般NN前段処理部501からの出力、専門NN後段処理部504からの出力、専門NN後段処理部506からの出力、を専門NN後段処理部504及び専門NN後段処理部506からの出力(注目ニューロンの出力)を用いて統合する処理について説明する。この統合は、例えば、以下の式に従って行う。
Figure 2016031747
ここで、dmultiは、一般NN後段処理部508による統合結果である。また、dslは、l番目の専門NNにおける出力層からの出力、kは、l番目の専門NNにおける注目ニューロンの数、anlcilは、l番目の専門NNにおけるil番目の注目ニューロンの出力値、である。また、Mは適当なパラメータで、例えば一般NNと専門NNとの合計数、即ちM=3である。然るに一般NN後段処理部508は、このような式に従って統合を行った結果dmultiを、一般NNの(M+1)層目に入力する。このような統合により、特定の特徴(注目ニューロンが学習した特徴)に注目しながらノイズを低減した画像が、一般NNの出力層から出力されることになる。なお、第1の実施形態と同様に、rを信頼度として、式(5)の第1項目に(1−r)を乗じ、第2項目にrを乗じた式を、式(5)の代わりに用いても構わない。また、統合結果は0から1の範囲に限るものではなく、マイナス値や1以上の値であっても問題ない。
以上説明した、一般NNと専門NNとを用いて行うノイズ低減処理について、同処理のフローチャートを示す図6を用いて説明する。
<ステップS601>
画像データ入力部301は、撮像装置105や記憶装置103から得られる画像を入力画像として取得し、該取得した入力画像を一般NN前段処理部501に入力する。
<ステップS602>
一般NN前段処理部501は、パラメタ保持部502に格納されている「一般NNの入力層からM層目までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける入力層からM層目までの各層間及び各層を確定させる。
一般NN後段処理部508は、パラメタ保持部502に格納されている「一般NNの(M+1)層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける(M+1)層目から出力層までの各層間及び各層を確定させる。
専門NN前段処理部503は、パラメタ保持部502に格納されている「専門NNAの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNAにおける入力層と2層目との間及び入力層を確定させる。
専門NN後段処理部504は、パラメタ保持部502に格納されている「専門NNAの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNAにおける2層目から出力層までの各層間及び各層を確定させる。
専門NN前段処理部505は、パラメタ保持部502に格納されている「専門NNBの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNBにおける入力層と2層目との間及び入力層を確定させる。
専門NN後段処理部506は、パラメタ保持部502に格納されている「専門NNBの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNBにおける2層目から出力層までの各層間及び各層を確定させる。
<ステップS603>
一般NN前段処理部501は、一般NN前段処理部302と同様に動作し、M層目からの出力(M層目を構成する各ニューロンの出力)を求める。そして一般NN前段処理部501は、M層目の出力として求めたものを、一般NN後段処理部508、専門NN前段処理部503、専門NN前段処理部505に対して送出する。
<ステップS604>
専門NN前段処理部503は、一般NN前段処理部501からの出力を専門NNAの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部503は、入力層の出力として求めたものを、専門NN後段処理部504に対して送出する。
専門NN前段処理部505は、一般NN前段処理部501からの出力を専門NNBの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部505は、入力層の出力として求めたものを、専門NN後段処理部506に対して送出する。
<ステップS605>
この時点で、専門NN前段処理部503及び専門NN前段処理部505の処理が完了していれば、処理はステップS607に進み、何れか一方でも完了していなければ、処理はステップS604に戻って、完了を待機する。
<ステップS607>
専門NN後段処理部504は、専門NN前段処理部503からの出力を専門NNAの2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。なお、専門NN後段処理部504は、注目ニューロンの出力を求めた時点で、該求めた注目ニューロンの出力を、一般NN後段処理部508及び専門ニューロン活動統合部507に対して送出する。そしてその後、専門NN後段処理部504は、出力層からの出力を求めると、出力層からの出力を一般NN後段処理部508に対して送出する。
また、専門NN後段処理部506は、専門NN前段処理部505からの出力を専門NNBの2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。なお、専門NN後段処理部506は、注目ニューロンの出力を求めた時点で、該求めた注目ニューロンの出力を、一般NN後段処理部508及び専門ニューロン活動統合部507に対して送出する。そしてその後、専門NN後段処理部506は、出力層からの出力を求めると、出力層からの出力を一般NN後段処理部508に対して送出する。
<ステップS608>
この時点で、専門NN後段処理部504及び専門NN後段処理部506の処理が完了していれば、処理はステップS609に進み、何れか一方でも完了していなければ、処理はステップS607に戻って、完了を待機する。
なお、図6のフローチャートに従った処理は、専門ニューロン活動統合部507が動作しない場合の処理であるが、専門ニューロン活動統合部507が動作する場合、ステップS607では、次のような処理が行われる。
専門ニューロン活動統合部507は、専門NN後段処理部504からの出力(注目ニューロンの出力)及び専門NN後段処理部506からの出力(注目ニューロンの出力)を参照して、専門NNA及び専門NNBのうち注目ニューロンの出力が最も大きい方を選択する。ここで、専門NNAが選択された場合には、専門NNBの動作を停止させるべく、専門NN後段処理部506の動作を停止させる。また、専門NNBが選択された場合には、専門NNAの動作を停止させるべく、専門NN後段処理部504の動作を停止させる。
例えば、専門NNAは空を専門的に処理し、専門NNBは文字を専門的に処理する機能を持つとする。もし専門NNAの注目ニューロンの出力が十分に高い(閾値以上の値である、若しくは専門NNBにおける注目ニューロンの出力と比べて十分に高い)、つまり入力画像が空の特徴を十分に持っていれば、他の特徴である文字の専門NNBをこれ以上動作させる必要はないので、専門NNBの動作を停止させる。
このような動作制御の場合、専門NNA及び専門NNBのうち何れか一方しか出力がないため、この場合、一般NNの(M+1)層目へは、専門NNA及び専門NNBのうち選択された一方の出力層からの出力と、一般NNのM層目の出力と、を第1の実施形態で説明した統合方法でもって統合した結果を入力することになる。
また、専門NNを3以上設けた場合、ステップS607では、専門ニューロン活動統合部507は、それぞれの専門NNからの注目ニューロンの出力を参照し、最も大きい出力の注目ニューロンが属する専門NNを選択すると共に、該専門NNと関連する他の専門NNを選択するようにしても良い。
例えば、専門NNCは地面を専門的に処理する機能を持つとする。そしてこの場合において、専門NNAの注目ニューロンの出力が最も高かったら、専門NNAだけでなく、空と比較的似ている地面の特徴を専門的に処理する専門NNCの動作も継続させる。
このような動作制御の場合、一般NNの(M+1)層目へは、専門NNA及び専門NNCの出力層からの出力と、一般NNのM層目の出力と、を本実施形態で説明した統合方法でもって統合した結果を入力することになる。
ここでは専門ニューロン活動統合部507による動作制御として2つの例を挙げたが、この2つの例を統合しても構わないし、他の例を実装しても構わない。何れにせよ、専門ニューロン活動統合部507による動作制御は、効率的に全体の処理を行うことに加えて、一般NNの後段への不要な情報の混入にさせないことにもつながる。
<ステップS609>
一般NN後段処理部508は、一般NN前段処理部501からの出力、専門NN後段処理部504からの出力、専門NN後段処理部506からの出力、を上記の統合方法でもって統合した結果を求め、該統合した結果を(M+1)層目に入力し、(M+1)層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして一般NN後段処理部508は、出力層からの出力として求めた結果を、画像データ出力部307に対して送出する。
<ステップS610>
画像データ出力部307は、一般NN後段処理部508から受けた画像を、モニタ108、記憶装置103、外部メモリ107、等の適当な出力先に対して出力する。なお、出力先は2以上であっても構わない。
なお、本実施形態では、一般NNの前段に入力画像が入力され、一般NNの前段からの出力をそれぞれの専門NNの入力層に入力する構成となっていたが、この構成に限るものではない。例えば、一般NNと専門NNのそれぞれが入力画像を受け取って出力層からの出力を求める処理を並列に行い、最後に一般NN及び専門NNのそれぞれの出力層からの出力を統合するようにしても構わない。
このように、本実施形態によれば、注目ニューロンの出力に基づいて、一般NNと複数の専門NNの出力を合成して用いたり、特定の専門NNの動作を停止させたりすることで、一般的な特徴に対してのみならず特定の特徴に対しても特徴を保持したまま効率の良いノイズ低減することが可能となる。
[第3の実施形態]
本実施形態では、第1の実施形態で説明した、1つの一般NNと1つの専門NNとから成る複合ニューラルネットワークを用いるのであるが、一般NNの入力層には、入力画像全体を入力するのではなく、入力画像よりもサイズの小さい画像を入力する。例えば、入力画像を複数の画素ブロックに分割し、それぞれの画素ブロックを入力する。若しくは、入力画像上を該入力画像よりもサイズの小さいウィンドウをラスタスキャン順に移動させながら、該ウィンド内の画像を入力する。何れにせよ、一般NNの入力層に入力するものは、入力画像から切り取った部分画像であることには変わらない。
ここで、入力画像から部分画像を切り取るときに問題となるのが、部分画像の切り取り方によっては、入力画像にとって重要な特徴が分断されて別の特徴として扱われてしまい、このような部分画像を一般NNに入力しても、適切なノイズ低減がなされた部分画像が出力されない可能性がある。例えば、ノイズが付加された入力画像中のウサギを適切に処理するためには、目と鼻と口と耳を含めた一匹のウサギ全体を含む部分画像を一般NNに入力する必要がある。このような部分画像を一般NNに入力することで、目と鼻と口と耳などがそれぞれ異なる処理領域として入力されるよりもウサギの特徴をふまえて適切に処理されやすい。
本実施形態では、注目ニューロンの出力が比較的高い部分画像及びその周辺の部分画像を探し、探したそれぞれの部分画像を一般NNの入力層に入力して一般NNの出力層から得られる出力画像を、そのときに注目ニューロンから得られる出力で重み付けしてから合成して出力する。これにより、適切なノイズ低減効果を得る。
以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態に係る情報処理装置の機能構成例について、図7のブロック図を用いて説明する。図7において、図3に示した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
図7において、パラメタ保持部303を除く各機能部は何れもコンピュータプログラムとして実装され、記憶装置103に保存されているものとする。以下では、これらの機能部を処理の主体として説明する場合もあるが、実際にはCPU101が該機能部に対応するコンピュータプログラムを実行することで、対応する処理が実現される。しかし、これらの機能部の全てをコンピュータプログラムで実装することに限るものではなく、一部をハードウェアで実装しても構わない。また、パラメタ保持部303は、記憶装置103や外部メモリ107が有するメモリ領域の一部として実装されるものとする。なお、図7に示した全ての機能部をハードウェアで構成しても構わない。
領域設定部701は、画像データ入力部301から入力された入力画像から部分画像単位で切り出し、切り出した部分画像を一般NN前段処理部302に入力する。なお、入力画像から部分画像単位で切り出す方法は、特定の方法に限るものではなく、上記のように、入力画像を部分画像単位で分割してそれぞれの部分画像を取得する方法であっても構わないし、入力画像上をラスタスキャン順でウィンドを移動させながら該ウィンド内の画像を部分画像として取得する方法であっても構わない。あるいは、部分画像から取得した特徴量を入力として用いても構わない。また、領域設定部701は、複数回処理判定部702からの指示に応じて切り出し位置を変更して、変更後の切り出し位置における部分画像を切り出して一般NN前段処理部302に入力する。
一般NN前段処理部302、一般NN後段処理部306、専門NN前段処理部304、専門NN後段処理部305は何れも第1の実施形態と同様であるが、処理単位が入力画像ではなく、部分画像である点が第1の実施形態と異なる。
複数回処理判定部702は、領域設定部701を制御して、注目ニューロンの出力が比較的高くなる部分画像を探す。合成部703は、注目ニューロンの出力が比較的高かった部分画像を合成して画像データ出力部307に対して出力する。
以上説明した、一般NNと専門NNとを用いて行うノイズ低減処理について、同処理のフローチャートを示す図8を用いて説明する。
<ステップS801>
画像データ入力部301は、撮像装置105や記憶装置103から得られる画像を入力画像として取得し、該取得した入力画像を領域設定部701に入力する。
<ステップS802>
一般NN前段処理部302は、パラメタ保持部303に格納されている「一般NNの入力層からM層目までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける入力層からM層目までの各層間及び各層を確定させる。
一般NN後段処理部306は、パラメタ保持部303に格納されている「一般NNの(M+1)層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける(M+1)層目から出力層までの各層間及び各層を確定させる。
専門NN前段処理部304は、パラメタ保持部303に格納されている「専門NNの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNにおける入力層と2層目との間及び入力層を確定させる。
専門NN後段処理部305は、パラメタ保持部303に格納されている「専門NNの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNにおける2層目から出力層までの各層間及び各層を確定させる。
<ステップS803>
領域設定部701は、画像データ入力部301から入力された入力画像から部分画像単位で切り出す。そして領域設定部701は、切り出したそれぞれの部分画像のうち未選択の部分画像を1つ、選択画像として選択する。
<ステップS804>
一般NN前段処理部302は、ステップS803において領域設定部701が選択した選択画像を一般NNの入力層に入力し、入力層からM層目までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、M層目からの出力(M層目を構成する各ニューロンの出力)を求める。そして一般NN前段処理部302は、M層目の出力として求めたものを、一般NN後段処理部306及び専門NN前段処理部304に対して送出する。
<ステップS805>
専門NN前段処理部304は、一般NN前段処理部302からの出力を専門NNの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部304は、入力層の出力として求めたものを、専門NN後段処理部305に対して送出する。
<ステップS806>
専門NN後段処理部305は、専門NN前段処理部304からの出力を専門NNの2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして専門NN後段処理部305は、出力層からの出力として求めた結果と、注目ニューロンの出力と、を一般NN後段処理部306に対して送出する。専門NN後段処理部305は更に、注目ニューロンの出力を、複数回処理判定部702に対しても送出する。
<ステップS807>
一般NN後段処理部306は、ステップS804で求めた一般NNのM層目からの出力と、ステップS806で求めた専門NNの出力層からの出力と、ステップS806で求めた注目ニューロンの出力と、を用いて上記の式(3)や式(4)に従った計算を行うことで、一般NNのM層目からの出力と専門NNの出力層からの出力との統合結果を求める。そして一般NN後段処理部306は、この統合結果を一般NNの(M+1)層目に入力し、(M+1)層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして一般NN後段処理部306は、出力層からの出力として求めた結果を、合成部703に対して送出する。
<ステップS808>
複数回処理判定部702は、専門NN後段処理部305から受けた注目ニューロンの出力が規定値以上であるか否かを判断する。この判断の結果、閾値未満であれば、領域設定部701に未選択の部分画像を選択させるべく、処理はステップS803に戻る。一方、閾値以上であれば、処理はステップS808aに進む。
<ステップS808a>
複数回処理判定部702は、選択画像の周辺から選択画像と同サイズの画像(検索画像と呼称する)を検索すべく、領域設定部701に検索指示を行う。領域設定部701は、該検索指示を受けると、選択画像の周辺、例えば、選択画像(水平M画素×垂直N画素とする)の領域を上方にN/2画素ずらした領域内の画像、選択画像の領域を下方にN/2画素ずらした領域内の画像、選択画像の領域を左方にM/2画素ずらした領域内の画像、選択画像の領域を右方にM/2画素ずらした領域内の画像、を検索画像として特定する。そして領域設定部701は、特定した検索画像のうち未選択の検索画像を1つ選択して一般NN前段処理部302に入力する。
<ステップS808b>
ステップS808aにて選択された検索画像を一般NN前段処理部302への入力として、上記のステップS804〜S807の処理を行うことで、一般NNの出力層から、該検索画像に対する出力画像を得ると共に、該検索画像に対する注目ニューロンからの出力を得る。
<ステップS808c>
複数回処理判定部702は、ステップS808bで得た注目ニューロンの出力が閾値以上であるか否かを判断する。この判断の結果、閾値以上であれば、処理はステップS808aに戻り、未選択の検索画像について処理を行うことになる。一方、閾値未満である場合、若しくはステップS808a及びステップS808bの処理を規定回数以上行った場合(例えば全ての検索画像を選択した場合)には、処理はステップS809に進む。
<ステップS809>
合成部703は、選択画像を一般NNの入力層に入力した場合に一般NNの出力層から得られる出力画像(D1)、該選択画像に対するそれぞれの検索画像を一般NNの入力層に入力した場合に一般NNの出力層から得られる出力画像(D2,…,DM)、を合成して1枚の合成画像を生成する。該合成では、選択画像を一般NNの入力層に入力した場合の注目ニューロンの出力をanc1、該選択画像に対するそれぞれの検索画像を一般NNの入力層に入力した場合の注目ニューロンの出力をanc2,…,ancMとすると、以下の式でもって合成画像Dを生成する。
Figure 2016031747
ここで、「anct×Dt」とは、画像Dtにおける画素値にanctを乗じていることを示している。また、出力画像同士を合成する場合、出力画像同士で位置合わせを行いながら合成する。例えば、それぞれの出力画像は、元の入力画像上における位置が異なる領域内の画像であるから、ずれている位置を合わせながら合成する。なお、どの出力画像の位置に合わせるのかについては別段特定の取り決めがあるわけではなく、例えば、注目ニューロンの出力が最も高かった出力画像の位置に合わせて合成しても良い。
<ステップS810>
領域設定部701は、入力画像における全ての部分画像を選択画像として選択したか否かを判断する。この判断の結果、全ての部分画像を選択画像として選択した場合には、処理はステップS811に進み、未だ選択画像として選択してない部分画像が残っている場合には、該部分画像を選択すべく、処理はステップS803に戻る。
<ステップS811>
画像データ出力部307は、合成部703による合成画像群を、モニタ108、記憶装置103、外部メモリ107、等の適当な出力先に対して出力する。なお、出力先は2以上であっても構わない。なお、合成画像群は、入力画像上における元の並び順で並べてから出力しても構わない。
なお、入力画像上の全ての部分画像について注目ニューロンの出力を得た後、注目ニューロンの出力が規定値以上となった部分画像を特定し、該特定した部分画像から成る領域を対象として、図8のフローチャートに従った処理を行うようにしても構わない。
このように、本実施形態によれば、ニューラルネットワークで処理を行うために入力画像に領域を設定する場合であっても、適切な領域を設定して一般的な特徴のみならず特定の特徴に対しても、特徴を保持しながらノイズを低減させることが可能となる。
[第4の実施形態]
本実施形態では、第1の実施形態で説明した、1つの一般NNと1つの専門NNとから成る複合ニューラルネットワークを用いて、撮像装置105から得られるRAW画像からRGB等の多チャンネルの画像を生成する処理、所謂デモザイク処理を行うと共に、上記のようなノイズ低減処理をも行う。以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
従来では、ノイズ低減処理及びデモザイク処理はどちらか一方から順に処理を行っていたが、デモザイク処理をノイズ低減より先に行った場合、ノイズの影響で適切に補間されないという問題があった。一方、ノイズ低減をデモザイク処理より先に行った場合、色同士の相関情報など画像の情報を考慮したノイズ低減処理ができないという問題があった。この点に関し、特開2012−244449号公報には、色差信号や輝度信号を生成してデモザイク処理を行う方法が提案されている。この方法では、入力画像を色差・輝度などの色空間に変換するが、その処理で画素の平均化や補間を少なくとも一部行うため、ボケやアーティファクトを生じうるという問題があった。
本実施形態では、第1の実施形態で説明した、1つの一般NNと1つの専門NNとから成る複合ニューラルネットワークを用いて、RAW画像からデモザイク処理及びノイズ低減処理を同時に行い、詳細な特徴が適切に保持された現像画像を生成する。
そこで、このような構成を実現させるために、本実施形態では、入力データとしてRAW画像、教師データとしてノイズが低減された多チャンネル画像、を与えて学習した階層型ニューラルネットワークを一般NNとして使用する。また、入力データとしてRAW画像、出力層用の教師データとしてノイズが低減された多チャンネル画像、注目ニューロン用の教師データとして、各チャンネル情報、色同士の相関などの量、を与えて学習した階層型ニューラルネットワークを専門NNとして使用する。
また、入力層用の入力データとして、RAW画像を複数の部分RAW画像に分割した場合のそれぞれを用いるのであるが、RAW画像からどのような方法で部分画像を抽出するのかについては、撮像装置105のセンサ上のチャンネルの並び方などに応じて決まる。例えば、どの部分画像の左上隅にもベイヤ配列におけるR(赤)の画素が位置するように、RAW画像から複数の部分画像を抽出する(すなわち、どの部分画像も、同様の色成分配列となるようにする)。これは、学習済みの複合ニューラルネットワークに入力する部分画像についても同様で、入力画像としてのRAW画像から、どの部分画像の左上隅にもR(赤)の画素が位置するように、RAW画像から複数の部分画像を抽出し、該抽出したそれぞれの部分画像を入力する。
なお、多チャンネル画像とは、RAW画像から生成することができる複数のチャンネル情報に関する画像とし、RAW画像に依存してRGB画像やRGBY画像、YCbCr画像、RGBIr画像など様々な形態を取りうる。また、正規化したデータで学習を行った場合は、RAW画像に対しても同様の正規化処理を行った結果を一般NNの入力層に入力する。
このような学習を行うことで、注目ニューロンの出力を通じて特定の特徴がどの程度部分画像に含まれているかを知ることが可能になる。例えば、平坦部・エッジ部・テクスチャ部などの画像上の空間情報に注目することで、特徴ごとに適切なデモザイクが可能になる。
本実施形態に係る情報処理装置の機能構成例について、図9のブロック図を用いて説明する。図9において、図3に示した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
図9において、パラメタ保持部303を除く各機能部は何れもコンピュータプログラムとして実装され、記憶装置103に保存されているものとする。以下では、これらの機能部を処理の主体として説明する場合もあるが、実際にはCPU101が該機能部に対応するコンピュータプログラムを実行することで、対応する処理が実現される。しかし、これらの機能部の全てをコンピュータプログラムで実装することに限るものではなく、一部をハードウェアで実装しても構わない。また、パラメタ保持部303は、記憶装置103や外部メモリ107が有するメモリ領域の一部として実装されるものとする。なお、図9に示した全ての機能部をハードウェアで構成しても構わない。
RAW画像データ入力部901は、RAW画像と、該RAW画像上におけるそれぞれの画素の色成分を表す色成分情報(例えばベイヤ配列を表す情報)と、を領域設定部902に入力する。
領域設定部902は色成分情報を参照し、RAW画像から、上記の如く、学習時に部分画像を切り出した条件と同じ条件で部分画像を切り出して一般NN前段処理部302に入力する。
多チャンネル画像データ出力部903は、それぞれの部分画像に対応する一般NN後段処理部306からの出力画像を連結させて1枚の出力画像を形成し、該形成した出力画像をモニタ108に表示させる。なお、出力画像の出力先はモニタ108に限るものではなく、記憶装置103であっても良いし、外部メモリ107であっても良いし、不図示のネットワークインターフェースを介して外部の装置に対して送信しても構わない。
以上説明した、一般NNと専門NNとを用いて行うデモザイク処理及びノイズ低減処理について、同処理のフローチャートを示す図10を用いて説明する。
<ステップS1001>
RAW画像データ入力部901は、RAW画像と、該RAW画像上におけるそれぞれの画素の色成分を表す色成分情報(例えばベイヤ配列を表す情報)と、を領域設定部902に入力する。
<ステップS1002>
一般NN前段処理部302は、パラメタ保持部303に格納されている「一般NNの入力層からM層目までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける入力層からM層目までの各層間及び各層を確定させる。
一般NN後段処理部306は、パラメタ保持部303に格納されている「一般NNの(M+1)層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、一般NNにおける(M+1)層目から出力層までの各層間及び各層を確定させる。
専門NN前段処理部304は、パラメタ保持部303に格納されている「専門NNの入力層と2層目との間の重み係数及び入力層のバイアス値」を読み出して設定することで、専門NNにおける入力層と2層目との間及び入力層を確定させる。
専門NN後段処理部305は、パラメタ保持部303に格納されている「専門NNの2層目から出力層までの各層間の重み係数及び各層のバイアス値」を読み出して設定することで、専門NNにおける2層目から出力層までの各層間及び各層を確定させる。
<ステップS1003>
領域設定部902は色成分情報を参照し、RAW画像から、上記の如く、学習時に部分画像を切り出した条件と同じ条件で部分画像を切り出すことで、複数の部分画像を切り出し、該複数の部分画像のうち未選択の部分画像を1つ選択して、一般NN前段処理部302に入力する。
<ステップS1004>
一般NN前段処理部302は、ステップS1003で領域設定部902によって入力された部分画像を一般NNの入力層に入力し、入力層からM層目までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、M層目からの出力(M層目を構成する各ニューロンの出力)を求める。そして一般NN前段処理部302は、M層目の出力として求めたものを、一般NN後段処理部306及び専門NN前段処理部304に対して送出する。
<ステップS1005>
専門NN前段処理部304は、一般NN前段処理部302からの出力を専門NNの入力層に入力して、入力層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、入力層からの出力(入力層を構成する各ニューロンの出力)を求める。そして専門NN前段処理部304は、入力層の出力として求めたものを、専門NN後段処理部305に対して送出する。
<ステップS1006>
専門NN後段処理部305は、専門NN前段処理部304からの出力を専門NNの2層目に入力し、2層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして専門NN後段処理部305は、出力層からの出力として求めた結果と、注目ニューロンの出力と、を一般NN後段処理部306に対して送出する。
<ステップS1007>
一般NN後段処理部306は、ステップS1004で求めた一般NNのM層目からの出力と、ステップS1006で求めた専門NNの出力層からの出力と、ステップS1006で求めた注目ニューロンの出力と、を用いて上記の式(3)や式(4)に従った計算を行うことで、一般NNのM層目からの出力と専門NNの出力層からの出力との統合結果を求める。そして一般NN後段処理部306は、この統合結果を一般NNの(M+1)層目に入力し、(M+1)層目から出力層までの各層における各ニューロンについて、上記の式(1)、(2)に従った処理を実行することで、出力層からの出力(出力層を構成する各ニューロンの出力)を求める。そして一般NN後段処理部306は、出力層からの出力として求めた結果を、多チャンネル画像データ出力部903に対して送出する。
<ステップS1008>
領域設定部902は、RAW画像における全ての部分画像を選択したか否かを判断する。この判断の結果、全ての部分画像を選択した場合には、処理はステップS1009に進み、未だ選択してない部分画像が残っている場合には、該部分画像を選択すべく、処理はステップS1003に戻る。
<ステップS1009>
多チャンネル画像データ出力部903は、それぞれの部分画像に対応する一般NN後段処理部306からの出力画像を連結させて1枚の出力画像を形成し、該形成した出力画像をモニタ108に表示させる。上記の通り、出力画像の出力先はモニタ108に限るものではない。
このように、本実施形態によれば、ニューラルネットワークを用いて特定の特徴に注目しながらデモザイクとノイズ低減を同時に行い、特徴を保持した現像画像を生成することが可能となる。
なお、本実施形態を含め、一般NNの入力層にデータを入力するまでの前処理(例えば一般NNの入力層に入力するデータの準備)は、情報処理装置以外の装置で行っても良い。また、上記の情報処理装置をクラウドサービスを行うネットワーク上の機器として用いても良く、その場合、クライアント端末側でこの前処理を行い、該前処理により用意されたデータをこの情報処理装置に送信し、該情報処理装置側でこのデータを一般NNの入力層に入力することで一般NNの出力層から出力されたデータをクライアント端末に返信するようなシステムも考え得る。
(その他の実施例)
なお、本発明は、音声やテキストデータなど画像以外のデータにも適用することができる。例えば音声データの場合は、数秒などの時間で区切った音声データを入力データとすることで、同様に処理することができる。また、テキストデータの場合も、あるまとまりをもったテキストデータを入力データとして本発明を適用することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
302:一般NN前段処理部 306:一般NN後段処理部 304:専門NN前段処理部 305:専門NN後段処理部

Claims (11)

  1. 第1の学習対象を学習したニューロン群と、該第1の学習対象及び第2の学習対象を学習した注目ニューロンと、から成る第1の階層型ニューラルネットワークと、第3の学習対象を学習したニューロン群から成るN(Nは4以上の自然数)層の第2の階層型ニューラルネットワークと、を動作させて情報処理を行う処理手段を備え、
    前記処理手段は、
    前記第2の階層型ニューラルネットワークにおけるM層目(2≦M≦N−1)からの出力を前記第1の階層型ニューラルネットワークの入力層に入力して該第1の階層型ニューラルネットワークを動作させることで、該第1の階層型ニューラルネットワークの出力層からの出力と、前記注目ニューロンからの出力と、を求める手段と、
    前記第1の階層型ニューラルネットワークの出力層からの出力を前記注目ニューロンからの出力を用いて重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、を統合させた結果を、前記第2の階層型ニューラルネットワークにおける(M+1)層目に入力して該(M+1)層目以降の各層を動作させることで、前記第2の階層型ニューラルネットワークの出力層からの出力を前記情報処理の結果として求める計算手段と
    を備えることを特徴とする情報処理装置。
  2. 前記計算手段は、
    前記第1の階層型ニューラルネットワークの出力層からの出力を前記注目ニューロンからの出力で重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、の平均を、前記統合の結果として求める
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記計算手段は、
    前記第1の階層型ニューラルネットワークの出力層からの出力を前記注目ニューロンからの出力で重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、のそれぞれに予め定められた信頼度を乗じた結果の重みづけ和を、前記統合の結果として求める
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記計算手段は、
    複数の第1の階層型ニューラルネットワークのそれぞれについて、該第1の階層型ニューラルネットワークの出力層からの出力を該第1の階層型ニューラルネットワークにおける注目ニューロンからの出力で重み付けした結果を求め、該重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、の重みづけ和を、前記統合の結果として求める
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記計算手段は、
    複数の第1の階層型ニューラルネットワークのそれぞれにおける注目ニューロンの出力値に基づいて、該複数の第1の階層型ニューラルネットワークの動作制御を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記計算手段は、
    前記複数の第1の階層型ニューラルネットワークのうち注目ニューロンの出力が最も大きい第1の階層型ニューラルネットワークを特定し、該特定した第1の階層型ニューラルネットワークの出力層からの出力を該特定した第1の階層型ニューラルネットワークにおける注目ニューロンからの出力で重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、の重みづけ和を、前記統合の結果として求める
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記計算手段は、
    前記複数の第1の階層型ニューラルネットワークのうち注目ニューロンの出力が最も大きい第1の階層型ニューラルネットワーク及び該第1の階層型ニューラルネットワークと関連する第1の階層型ニューラルネットワークを特定し、該特定した第1の階層型ニューラルネットワークの出力層からの出力を該特定した第1の階層型ニューラルネットワークにおける注目ニューロンからの出力で重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、の重みづけ和を、前記統合の結果として求める
    ことを特徴とする請求項5に記載の情報処理装置。
  8. 更に、
    入力画像中の各部分画像を前記第2の階層型ニューラルネットワークにおける入力層に入力したことで前記注目ニューロンから得られるそれぞれの出力のうち規定値以上の出力が得られた部分画像を特定する特定手段と、
    前記特定手段が特定した部分画像及びその周辺の部分画像のそれぞれを前記第2の階層型ニューラルネットワークにおける入力層に入力したことで前記第2の階層型ニューラルネットワークにおける出力層から得られる出力画像を前記注目ニューロンから得られる出力で重み付けして合成した結果を出力する手段と
    を備えることを特徴とする請求項1に記載の情報処理装置。
  9. 更に、
    RAW画像を、同様の色成分配列となるように分割した場合のそれぞれの部分画像を前記第2の階層型ニューラルネットワークにおける入力層に入力し、該それぞれの部分画像に対応する前記第2の階層型ニューラルネットワークにおける出力層からの出力を用いて出力画像を形成して出力する手段
    を備えることを特徴とする請求項1に記載の情報処理装置。
  10. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の処理手段が、第1の学習対象を学習したニューロン群と、該第1の学習対象及び第2の学習対象を学習した注目ニューロンと、から成る第1の階層型ニューラルネットワークと、第3の学習対象を学習したニューロン群から成るN(Nは4以上の自然数)層の第2の階層型ニューラルネットワークと、を動作させて情報処理を行う処理工程を備え、
    前記処理工程は、
    前記第2の階層型ニューラルネットワークにおけるM層目(2≦M≦N−1)からの出力を前記第1の階層型ニューラルネットワークの入力層に入力して該第1の階層型ニューラルネットワークを動作させることで、該第1の階層型ニューラルネットワークの出力層からの出力と、前記注目ニューロンからの出力と、を求める工程と、
    前記第1の階層型ニューラルネットワークの出力層からの出力を前記注目ニューロンからの出力を用いて重み付けした結果と、前記第2の階層型ニューラルネットワークにおけるM層目からの出力と、を統合させた結果を、前記第2の階層型ニューラルネットワークにおける(M+1)層目に入力して該(M+1)層目以降の各層を動作させることで、前記第2の階層型ニューラルネットワークの出力層からの出力を前記情報処理の結果として求める計算工程と
    を備えることを特徴とする情報処理方法。
  11. コンピュータを、請求項1乃至9の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2014155452A 2014-07-30 2014-07-30 情報処理装置、情報処理方法 Pending JP2016031747A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014155452A JP2016031747A (ja) 2014-07-30 2014-07-30 情報処理装置、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014155452A JP2016031747A (ja) 2014-07-30 2014-07-30 情報処理装置、情報処理方法

Publications (1)

Publication Number Publication Date
JP2016031747A true JP2016031747A (ja) 2016-03-07

Family

ID=55442060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014155452A Pending JP2016031747A (ja) 2014-07-30 2014-07-30 情報処理装置、情報処理方法

Country Status (1)

Country Link
JP (1) JP2016031747A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045679A (ja) * 2016-09-08 2018-03-22 公立大学法人会津大学 携帯端末を用いた察知エージェントシステム、察知エージェントシステムにおける機械学習方法、及びこれを実施するためのプログラム
JP2019032654A (ja) * 2017-08-07 2019-02-28 キヤノン株式会社 画像処理装置、及び、画像処理方法、コンピュータプログラム
JP2019106140A (ja) * 2017-12-14 2019-06-27 アイシン精機株式会社 機械学習のモデルパラメータの学習装置
EP3582149A1 (en) 2018-06-15 2019-12-18 Panasonic Intellectual Property Corporation of America Information processing device and information processing method
JP2020014042A (ja) * 2018-07-13 2020-01-23 日本放送協会 画質評価装置、学習装置及びプログラム
US10922799B2 (en) 2018-01-10 2021-02-16 Canon Kabushiki Kaisha Image processing method that performs gamma correction to update neural network parameter, image processing apparatus, and storage medium
JP2021530789A (ja) * 2018-09-27 2021-11-11 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 動作認識方法、電子機器及び記憶媒体
US11526963B2 (en) 2019-06-03 2022-12-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US11915414B2 (en) 2018-09-14 2024-02-27 Fujifilm Corporation Medical image processing apparatus, method, and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045679A (ja) * 2016-09-08 2018-03-22 公立大学法人会津大学 携帯端末を用いた察知エージェントシステム、察知エージェントシステムにおける機械学習方法、及びこれを実施するためのプログラム
JP2019032654A (ja) * 2017-08-07 2019-02-28 キヤノン株式会社 画像処理装置、及び、画像処理方法、コンピュータプログラム
JP7005215B2 (ja) 2017-08-07 2022-01-21 キヤノン株式会社 画像処理装置、及び、画像処理方法、コンピュータプログラム
JP2019106140A (ja) * 2017-12-14 2019-06-27 アイシン精機株式会社 機械学習のモデルパラメータの学習装置
US10922799B2 (en) 2018-01-10 2021-02-16 Canon Kabushiki Kaisha Image processing method that performs gamma correction to update neural network parameter, image processing apparatus, and storage medium
JP2019219765A (ja) * 2018-06-15 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置及び情報処理方法
US10997493B2 (en) 2018-06-15 2021-05-04 Panasonic Intellectual Property Corporation Of America Information processing device and information processing method
EP3582149A1 (en) 2018-06-15 2019-12-18 Panasonic Intellectual Property Corporation of America Information processing device and information processing method
JP7113674B2 (ja) 2018-06-15 2022-08-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置及び情報処理方法
JP2020014042A (ja) * 2018-07-13 2020-01-23 日本放送協会 画質評価装置、学習装置及びプログラム
US11915414B2 (en) 2018-09-14 2024-02-27 Fujifilm Corporation Medical image processing apparatus, method, and program
JP2021530789A (ja) * 2018-09-27 2021-11-11 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 動作認識方法、電子機器及び記憶媒体
JP7295936B2 (ja) 2018-09-27 2023-06-21 北京市商▲湯▼科技▲開▼▲発▼有限公司 動作認識方法、電子機器及び記憶媒体
US11526963B2 (en) 2019-06-03 2022-12-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
JP2016031747A (ja) 情報処理装置、情報処理方法
US11610082B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
US20210327088A1 (en) Eye tracking method and system
US11501563B2 (en) Image processing method and system
US9344690B2 (en) Image demosaicing
US20170132785A1 (en) Method and system for evaluating the quality of a surgical procedure from in-vivo video
US10282868B2 (en) Method and system for generating accurate graphical chromophore maps
CN110136056A (zh) 图像超分辨率重建的方法和装置
US12039732B2 (en) Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications
JP7370922B2 (ja) 学習方法、プログラム及び画像処理装置
JP2021034009A (ja) 電子装置及びその制御方法
JP7463186B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10540735B2 (en) Information processing device, information processing method, and recording medium
WO2020194378A1 (ja) 画像処理システム、画像処理装置、画像処理方法、及びコンピュータ可読媒体
JPWO2017077680A1 (ja) 画像処理システム、画像処理方法、および画像処理プログラム
Ayunts et al. No-Reference Quality Metrics for Image Decolorization
US20220309612A1 (en) Image processing apparatus, image processing method, and storage medium
JP7451465B2 (ja) 学習方法、プログラム及び画像処理装置
US20220164658A1 (en) Method, device, and computer program
JPWO2016208142A1 (ja) 画像処理システム、画像処理方法、およびコンピュータ読取可能な記録媒体
CN113542699A (zh) 用于生成数字彩色图像的数字成像装置和方法
EP2517172A1 (en) Filter setup learning for binary sensor
JP7446985B2 (ja) 学習方法、プログラム及び画像処理装置
WO2024110799A1 (ko) 전자 장치 및 그 제어 방법
JP7402552B2 (ja) 学習装置及び推論装置