JP5513960B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP5513960B2
JP5513960B2 JP2010091233A JP2010091233A JP5513960B2 JP 5513960 B2 JP5513960 B2 JP 5513960B2 JP 2010091233 A JP2010091233 A JP 2010091233A JP 2010091233 A JP2010091233 A JP 2010091233A JP 5513960 B2 JP5513960 B2 JP 5513960B2
Authority
JP
Japan
Prior art keywords
image
input
output
value
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010091233A
Other languages
English (en)
Other versions
JP2011221840A (ja
Inventor
太造 梅崎
基康 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2010091233A priority Critical patent/JP5513960B2/ja
Publication of JP2011221840A publication Critical patent/JP2011221840A/ja
Application granted granted Critical
Publication of JP5513960B2 publication Critical patent/JP5513960B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置に関し、特に、階層型ニューラルネットワークを用いた画像処理装置に関する。
画像内に含まれる人物の顔を検知するための、階層型ニューラルネットワークを用いた画像処理装置の開発が進められている。当該画像処理装置においては、ニューラルネットワークの入力層に入力画像が入力され、出力層からは、入力画像に含まれる人物の顔の中心位置を示す出力画像(例えば、顔の中心位置に対応する画素が白く表示され、その他の領域の画素が黒く表示された画像)が出力される。
なお、階層型ニューラルネットワークを用いた顔検知技術については、例えば下記特許文献1,2に開示されている。
特開2006−31440号公報 特開2006−11978号公報
階層型ニューラルネットワークは、それぞれが複数のニューロン(以下「ユニット」と称す)を含む複数の処理層(入力層、中間層、及び出力層)を有する。入力層に含まれる各ユニットと中間層に含まれる各ユニットとの間には、ユニット間の結合強度を示す重み付け値が設定され、同様に、中間層に含まれる各ユニットと出力層に含まれる各ユニットとの間には、ユニット間の結合強度を示す重み付け値が設定される。ニューラルネットワークの学習においては、人物の顔の位置が既知である教師画像を入力層に入力し、その顔の位置が反映された適切な出力画像が出力層から出力されるように、各ユニット間の重み付け値が設定される。
一般的にニューラルネットワークにおいては、より多くの画像を用いて学習を行うことによって、各ユニット間の重み付け値がより良く設定され、顔検知の精度が向上する。しかしながら、多くの画像を収集することは現実的に困難を伴うことがあり、準備できた画像の数が少ない場合には、各ユニット間の重み付け値の設定が不十分となって、顔検知の精度が低下する。
本発明はかかる事情に鑑みて成されたものであり、準備できた画像の数が少ない場合であっても、顔検知の精度を向上することが可能な画像処理装置を得ることを目的とするものである。
本発明の第の態様に係る画像処理装置は、入力層及び出力層を含む複数の処理層を有し、各前記処理層が複数のユニットを含み、前記入力層に入力された入力画像に含まれる人物の顔の位置を示す出力画像を前記出力層から出力する、ニューラルネットワークと、人物の顔を含む第1の画像を取得する取得手段と、前記第1の画像を前記入力層に入力することにより、前記第1の画像を教師画像として用いた学習によって、異なる前記処理層に属する各前記ユニット間の重み付け値を設定する設定手段と、を備え、各前記ユニットの出力値Yは、パラメータμ(≧1)と自身のユニット値Xとを用いて、
Figure 0005513960
と定義され、前記設定手段は、パラメータμの値が互いに異なる値に設定された複数の処理系統によって、前記重み付け値の組をそれぞれ求め、得られた複数の組の中から最適な組を選択し、前記設定手段は、前記複数の組のうち、学習回数の増加に伴って教師信号と出力信号との誤差が低下し、かつ人物の顔の検知率が最も高い組を、前記最適な組として選択することを特徴とするものである。
の態様に係る画像処理装置によれば、設定手段は、パラメータμの値が互いに異なる値に設定された複数の処理系統によって、各ユニット間の重み付け値の組をそれぞれ求める。そして、得られた複数の組の中から最適な組を選択する。従って、パラメータμの値が固定された一つの処理系統のみによって重み付け値を設定する場合と比較すると、より良い重み付け値を設定することが可能となる。
また、第1の態様に係る画像処理装置によれば、設定手段は、複数の組のうち、学習回数の増加に伴って教師信号と出力信号との誤差が低下し、かつ人物の顔の検知率が最も高い組を、最適な組として選択する。これにより、顔検知の精度を向上することが可能となる。
本発明の第の態様に係る画像処理装置は、入力層及び出力層を含む複数の処理層を有し、各前記処理層が複数のユニットを含み、前記入力層に入力された入力画像に含まれる人物の顔の位置を示す出力画像を前記出力層から出力する、ニューラルネットワークと、人物の顔を含む第1の画像を取得する取得手段と、前記第1の画像を前記入力層に入力することにより、前記第1の画像を教師画像として用いた学習によって、異なる前記処理層に属する各前記ユニット間の重み付け値を設定する設定手段と、第2の画像を記憶する記憶手段と、を備え、前記設定手段は、学習回数の増加に伴う教師信号と出力信号との誤差の低下の度合いが所定値未満となった場合に、前記記憶手段から読み出した前記第2の画像を前記入力層に入力することにより、前記重み付け値の設定処理を継続することを特徴とするものである。
の態様に係る画像処理装置によれば、設定手段は、学習回数の増加に伴う教師信号と出力信号との誤差の低下の度合いが所定値未満となった場合に、記憶手段から読み出した第2の画像を入力層に入力することにより、重み付け値の設定処理を継続する。このように、誤差特性が収束してきた場合に新たな教師画像を自動で追加することによって、学習をさらに進めることができ、その結果、さらに適切な重み付け値を設定することが可能となる。
本発明によれば、準備できた画像の数が少ない場合であっても、顔検知の精度を向上することが可能な画像処理装置を得ることができる。
本発明の実施の形態に係る画像処理装置の構成を示すブロック図である。 図1に示した加工部を示す図である。 図1に示したニューラルネットワークの構成を示す図である。 入力層に入力される画像と、出力層から出力される画像とを示す図である。 ニューラルネットワークにおける複数の入力ユニットと一つの中間ユニットとを抜き出して示す図である。 図5に示したユニット値と出力値との関係を示す図である。 ニューラルネットワークの構成を示す図である。 学習回数に応じた誤差の変化状況の一例を示す図である。 学習回数に応じた誤差の変化状況の一例を示す図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、異なる図面において同一の符号を付した要素は、同一又は相応する要素を示すものとする。
図1は、本発明の実施の形態に係る画像処理装置1の構成を示すブロック図である。図1の接続関係で示すように、画像処理装置1は、ニューラルネットワーク2、記憶部3、取得部4、加工部5、設定部6、及び検知率算出部7を備えて構成されている。
ニューラルネットワーク2は、入力画像S6に人物の顔が含まれている場合に、その顔の位置を示す出力画像S7を出力する。記憶部3には、複数の画像が記憶されている。記憶部3には、人物の顔を含む画像のほか、人物の顔を含まない画像も記憶されている。取得部4は、記憶部3に記憶されている画像を画像データS1として読み出し、読み出した画像を画像データS2として加工部5に入力する。加工部5は、取得部4から入力された画像に対して所定の加工処理(詳細は後述する)を施すことにより、複数の画像を画像データS3として設定部6に入力する。ここで、加工部5は、取得部4から入力された画像自身も設定部6に入力してもよい。設定部6は、加工部5から入力された画像に基づいて、ニューラルネットワーク2の学習のために用いる教師画像を、画像データS5としてニューラルネットワーク2に入力する。検知率算出部7は、複数の入力画像S6をニューラルネットワーク2に入力し、入力画像S6の総数に対する、人物の顔の位置を正しく検知できた出力画像S7の数の割合(検知率)を求め、その検知率に関するデータS4を設定部6に入力する。
図2は、図1に示した加工部5を示す図である。加工部5には、図1に示した取得部4から画像データS2が入力される。加工部5は、人物の顔が含まれる画像データS2に対して様々な加工処理(ランダマイズ)を施すことにより、人物の顔が含まれる複数の画像データS31,S32,S33,・・・,S3M(図1に示した画像データS3に相当する)を出力する。ランダマイズには、例えば、画像を拡大又は縮小する処理(アスペクト比の変更や解像度の変更を含む)、画像を任意の角度で回転させる処理、画像内における顔位置を変更する処理(トリミング領域の位置や大きさの変更を含む)、画像においてレンズ歪みを恣意的に付与する処理、画像においてノイズを恣意的に付与する処理、及び、画像において光源を恣意的に変更する処理(照度の変更や色温度の変更を含む)が含まれる。これらの各処理は、周知の画像処理技術によって実現することが可能である。
図3は、図1に示したニューラルネットワーク2の構成を示す図である。ニューラルネットワーク2は、複数の処理層を有する階層型のニューラルネットワークであり、複数の入力ユニットを含む入力層10と、複数の中間ユニットを含む中間層11と、複数の出力ユニットを含む出力層12とを備えている。各入力ユニットには、設定部6から入力された画像データS5の各画素値(例えば輝度値)が入力される。各出力ユニットは、画像データS7の各画素値(例えば白又は黒)を出力する。
図4は、入力層10に入力される画像20と、出力層12から出力される画像21とを示す図である。画像20には人物の顔が含まれている。画像21は、画像20に含まれる人物の顔の中心位置を示している。図4に示した画像21の例では、顔の中心位置に対応する画素が白く表示され、その他の領域の画素が黒く表示されている。
図5は、ニューラルネットワーク2における複数の入力ユニット401,402,・・・,40Nと一つの中間ユニット50とを抜き出して示す図である。中間ユニット50には、各入力ユニット401,402,・・・,40Nからの出力値Y1,Y2,・・・,YNが入力される。また、中間ユニット50と各入力ユニット401,402,・・・,40Nとの間には、重み付け値W1,W2,・・・,WNがそれぞれ設定されている。
中間ユニット50は、
Figure 0005513960

なる演算を実行することにより、自身のユニット値Xを求める。ここで、θは、各中間ユニット50に設定されたオフセット値である。
また、中間ユニット50は、
Figure 0005513960

なる演算を実行することにより、自身の出力値Yを求めて出力する。ここで、μは、ニューラルネットワーク2に設定されたパラメータである。なお、図5では複数の入力ユニットと一つの中間ユニットとの関係を示したが、複数の中間ユニットと一つの出力ユニットとの関係もこれと同様である。
画像処理装置1では、教師画像内に含まれる人物の顔の位置は既知であるため、その顔の位置を教師信号として与えることにより、各教師画像から適切な出力画像(図4参照)が得られるように、ニューラルネットワーク2の学習(つまり各ユニット間の重み付け値Wの設定)が行われる。
つまり、各出力ユニットに関して、教師信号と出力信号との誤差E(二乗誤差)を、
Figure 0005513960

なる演算によって求める。ここで、Tは教師信号の値であり、Yは出力信号の値である。そして、誤差Eを用いて、重み付け値Wの修正量を、
Figure 0005513960

なる演算によって求める。ここで、αは修正係数である。
図6は、図5に示したユニット値Xと出力値Yとの関係を示す図である。パラメータμ(≧1)の値の大小に応じて、ユニット値Xに対する出力値Yの反応の度合いが異なる。パラメータμの値が大きいほど、ユニット値Xが「0」の付近における曲線の傾斜は緩くなる。つまり、曲線の傾斜は、特性L1>特性L2>特性L3である。ニューラルネットワークにおいては、パラメータμの値を大きく設定するほど、学習に要する時間は増加するものの、汎化能力を高めることができる。
そこで、本実施の形態に係る画像処理装置1では、パラメータμの値が異なる複数の処理系統をニューラルネットワーク2に設け、それぞれの処理系統において並列に学習を行う。図7は、ニューラルネットワーク2の構成を示す図である。この例において、ニューラルネットワーク2は、パラメータμの値が「3」に設定された処理部30Aと、パラメータμの値が「9」に設定された処理部30Bと、パラメータμの値が「11」に設定された処理部30Cとを備える。処理部30A〜30Cは、図3に示した入力層10、中間層11、及び出力層12をそれぞれ有する。処理部30A〜30Cは、設定部6から画像データS5をそれぞれ入力し、画像データS7A〜S7Cをそれぞれ出力する。そして、図1に示した設定部6は、処理部30A〜30Cによって重み付け値Wの組をそれぞれ求め、得られた複数の組の中から最適な組を選択する。
一例として設定部6は、得られた複数の組のうち、学習回数の増加に伴って誤差Eが低下し、かつ人物の顔の検知率が最も高い組を、最適な組として選択する。
図8は、学習回数に応じた誤差Eの変化状況の一例を示す図である。図8に示した例では、パラメータμの値が「9」,「11」に設定された処理部30B,30Cに対応する誤差特性K2,K3に関しては、学習回数Pの増加に伴って誤差Eが低下している。一方、パラメータμの値が「3」に設定された処理部30Aに対応する誤差特性K1に関しては、学習回数Pが増加しても誤差Eは低下していない。従って、設定部6は、処理部30Aによって求めた重み付け値Wの組を、選択の候補から除外する。なお、実際には誤差特性K1〜K3は小刻みに振動しているが、図面の簡略化のため、図8ではその振動の図示を省略している。
次に、図1に示した検知率算出部7は、学習回数Pが所定値(例えば1000回)に達した時点で、複数の入力画像S6(望ましくは既に使用した教師画像とは異なる画像)を、処理部30B,30Cにそれぞれ入力する。そして、各処理部30B,30Cに関して、入力画像S6の総数に対する、人物の顔の位置を正しく検知できた出力画像S7の数の割合(検知率)を求める。そして、検知率算出部7は、各処理部30B,30Cの検知率に関するデータS4を設定部6に入力する。
設定部6は、処理部30B,30Cのうち検知率が高いほうの重み付け値Wの組を、上記最適な組として選択し、ニューラルネットワーク2に設定する。なお、この段階で選択の候補が三つ以上残っている場合には、三つ以上の組のうち検知率が最も高い組を上記最適な組として選択する。
また、本実施の形態に係る画像処理装置1は、ニューラルネットワーク2(又は図7に示した処理部30A〜30C)の学習が進んで誤差特性が収束してきた場合に、新たな教師画像を自動的に追加することにより、ニューラルネットワーク2の学習をさらに継続させる機能を有する。
図9は、学習回数に応じた誤差Eの変化状況の一例を示す図である。図1,9を参照して、学習が進んで誤差特性Kが収束してきた場合(つまり、学習回数Pの増加に伴う誤差Eの低下の度合いΔEが所定値未満となった場合)には、その旨の情報が取得部4に入力されることにより、取得部4は、既に教師画像として使用した画像とは異なる新たな画像を記憶部3から読み出す。ここで、取得部4が記憶部3から読み出す画像は、人物の顔を含まない画像であることが望ましい。これにより、顔でないパターンを顔でないと認識させる抑制学習を行うことができる。抑制学習を行う場合の教師信号は、全ての出力ユニットに関して例えば「0」となる。また、上述した検知率の算出のために使用した複数の入力画像S6のうち、顔でないのに顔であると誤検知されたパターンを含む画像を記憶部3に記憶しておき、その画像を抑制学習に使用してもよい。さらに、人物の顔に類似するが顔でないパターンを含む画像を記憶部3に記憶しておき、その画像を抑制学習に使用してもよい。
取得部4は、記憶部3から読み出した画像を新たな教師画像としてニューラルネットワーク2に入力し、ニューラルネットワーク2は、取得部4から入力された新たな教師画像に基づいて学習を継続する。
図9を参照して、学習回数PがP1〜P3の各時点で、新たな教示画像が追加されている。新たな教師画像が追加された直後において誤差Eは上昇するが、学習が進むにつれて誤差Eは徐々に低下し、やがて追加前の値よりも小さくなる。誤差特性Kが収束する度に新たな教師画像を追加して学習を継続させることにより、全体として誤差Eは徐々に低下する。
このように本実施の形態に係る画像処理装置1によれば、加工部5は、取得部4から入力された画像(画像データS2)に対して所定の加工処理を施すことにより、人物の顔を含む複数の画像(画像データS3)を生成する。そして、設定部6は、加工部5が生成した複数の画像(画像データS3)をニューラルネットワーク2の入力層10に入力することにより、当該複数の画像を教師画像として用いた学習によって、各ユニット間の重み付け値Wを設定する。従って、準備できた画像(つまり記憶部3に記憶された画像)の数が少ない場合であっても、その画像を元に生成した複数の画像を教師画像として用いて学習を行うことができる。従って、各ユニット間の重み付け値Wを適切に設定することができ、その結果、顔検知の精度を向上することが可能となる。
また、本実施の形態に係る画像処理装置1によれば、取得部4から入力された画像(画像データS2)に対して加工部5が行う加工処理として、画像の拡大又は縮小、画像の回転、画像内における顔位置の変更、レンズ歪みの付与、ノイズの付与、及び光源変更等の加工処理を行うことにより、入力された画像(画像データS2)を元に複数の画像(画像データS3)を生成することが可能となる。
また、本実施の形態に係る画像処理装置1によれば、設定部6は、パラメータμの値が互いに異なる値に設定された複数の処理部30A〜30C(図7参照)によって、各ユニット間の重み付け値Wの組をそれぞれ求める。そして、得られた複数の組の中から最適な組を選択する。従って、パラメータμの値が固定された一つの処理系統のみによって重み付け値Wを設定する場合と比較すると、より良い重み付け値Wを設定することが可能となる。
また、本実施の形態に係る画像処理装置1によれば、設定部6は、複数の組のうち、学習回数Pの増加に伴って教師信号と出力信号との誤差Eが低下し、かつ人物の顔の検知率が最も高い組を、最適な組として選択する。これにより、顔検知の精度を向上することが可能となる。
また、本実施の形態に係る画像処理装置1によれば、設定部6は、学習回数Pの増加に伴う教師信号と出力信号との誤差Eの低下の度合いが所定値未満となった場合に、記憶部3から読み出した新たな画像をニューラルネットワーク2の入力層10に入力することにより、重み付け値Wの設定処理を継続する。このように、誤差特性Kが収束してきた場合に新たな教師画像を自動で追加することによって、学習をさらに進めることができ、その結果、さらに適切な重み付け値Wを設定することが可能となる。
また、本実施の形態に係る画像処理装置1によれば、誤差特性Kが収束してきた場合に新たに追加される画像は、人物の顔を含まない画像である。人物の顔を含まない画像を用いることにより、抑制学習を行うことができる。また、人物の顔を含まない画像に関しては、画像内における人物の顔の位置を教師信号として教示する処理が不要であるため、新たな画像の追加に伴う処理の負荷を軽減することが可能となる。
1 画像処理装置
2 ニューラルネットワーク
3 記憶部
4 取得部
5 加工部
6 設定部
7 検知率算出部
10 入力層
11 中間層
12 出力層
30A〜30C 処理部

Claims (2)

  1. 入力層及び出力層を含む複数の処理層を有し、各前記処理層が複数のユニットを含み、前記入力層に入力された入力画像に含まれる人物の顔の位置を示す出力画像を前記出力層から出力する、ニューラルネットワークと、
    人物の顔を含む第1の画像を取得する取得手段と、
    前記第1の画像を前記入力層に入力することにより、前記第1の画像を教師画像として用いた学習によって、異なる前記処理層に属する各前記ユニット間の重み付け値を設定する設定手段と、
    を備え、
    各前記ユニットの出力値Yは、パラメータμ(≧1)と自身のユニット値Xとを用いて、
    Figure 0005513960
    と定義され、
    前記設定手段は、パラメータμの値が互いに異なる値に設定された複数の処理系統によって、前記重み付け値の組をそれぞれ求め、得られた複数の組の中から最適な組を選択し、
    前記設定手段は、前記複数の組のうち、学習回数の増加に伴って教師信号と出力信号との誤差が低下し、かつ人物の顔の検知率が最も高い組を、前記最適な組として選択する、画像処理装置。
  2. 入力層及び出力層を含む複数の処理層を有し、各前記処理層が複数のユニットを含み、前記入力層に入力された入力画像に含まれる人物の顔の位置を示す出力画像を前記出力層から出力する、ニューラルネットワークと、
    人物の顔を含む第1の画像を取得する取得手段と、
    前記第1の画像を前記入力層に入力することにより、前記第1の画像を教師画像として用いた学習によって、異なる前記処理層に属する各前記ユニット間の重み付け値を設定する設定手段と、
    第2の画像を記憶する記憶手段と、
    を備え、
    前記設定手段は、学習回数の増加に伴う教師信号と出力信号との誤差の低下の度合いが所定値未満となった場合に、前記記憶手段から読み出した前記第2の画像を前記入力層に入力することにより、前記重み付け値の設定処理を継続する、画像処理装置。
JP2010091233A 2010-04-12 2010-04-12 画像処理装置 Active JP5513960B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010091233A JP5513960B2 (ja) 2010-04-12 2010-04-12 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010091233A JP5513960B2 (ja) 2010-04-12 2010-04-12 画像処理装置

Publications (2)

Publication Number Publication Date
JP2011221840A JP2011221840A (ja) 2011-11-04
JP5513960B2 true JP5513960B2 (ja) 2014-06-04

Family

ID=45038739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010091233A Active JP5513960B2 (ja) 2010-04-12 2010-04-12 画像処理装置

Country Status (1)

Country Link
JP (1) JP5513960B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
WO2023149649A1 (ko) * 2022-02-07 2023-08-10 삼성전자 주식회사 전자 장치 및 이미지 화질 개선 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6897335B2 (ja) 2017-05-31 2021-06-30 富士通株式会社 学習プログラム、学習方法および物体検知装置
JP6954219B2 (ja) * 2018-04-09 2021-10-27 トヨタ自動車株式会社 機械学習装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04266153A (ja) * 1991-02-20 1992-09-22 Honda Motor Co Ltd ニューラルネットワーク
JP2000048187A (ja) * 1998-07-29 2000-02-18 Fuji Photo Film Co Ltd 画像変換方法
JP2005253031A (ja) * 2004-02-04 2005-09-15 Sharp Corp 画像印刷装置、画像印刷装置の制御方法、画像印刷装置の制御プログラム、および画像印刷装置の制御プログラムを記録した記録媒体
JP2006065447A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム
JP4799104B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2007122362A (ja) * 2005-10-27 2007-05-17 Toyota Motor Corp ニューラルネットワークを用いた状態推定方法及びニューラルネットワークを用いた状態推定装置
JP4983682B2 (ja) * 2008-03-25 2012-07-25 セイコーエプソン株式会社 オブジェクト検出方法、オブジェクト検出装置、オブジェクト検出プログラムおよび印刷装置
JP2009282699A (ja) * 2008-05-21 2009-12-03 Seiko Epson Corp 画像における顔の器官の画像に対応する器官領域の検出

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
WO2023149649A1 (ko) * 2022-02-07 2023-08-10 삼성전자 주식회사 전자 장치 및 이미지 화질 개선 방법

Also Published As

Publication number Publication date
JP2011221840A (ja) 2011-11-04

Similar Documents

Publication Publication Date Title
JP6946831B2 (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
US11809975B2 (en) System and method for end-to-end-differentiable joint image refinement and perception
WO2013089265A1 (ja) 辞書作成装置、画像処理装置、画像処理システム、辞書作成方法、画像処理方法及びプログラム
WO2019176993A1 (ja) 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置
US9432596B2 (en) Image processing apparatus and image processing method
US11508038B2 (en) Image processing method, storage medium, image processing apparatus, learned model manufacturing method, and image processing system
JP5513960B2 (ja) 画像処理装置
JP2020060879A (ja) 学習装置、画像生成装置、学習方法、及び学習プログラム
JP2021179833A (ja) 情報処理装置、情報処理方法及びプログラム
JP4978227B2 (ja) 画像検出装置
CN104134189B (zh) 一种图像放大的方法及装置
US20110091097A1 (en) Apparatus of learning recognition dictionary, and method of learning recognition dictionary
JPWO2019188573A1 (ja) 演算装置、演算方法およびプログラム
JP7403995B2 (ja) 情報処理装置、制御方法およびプログラム
JP2021089493A (ja) 情報処理装置およびその学習方法
JPWO2011033744A1 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
CN116385369A (zh) 深度图像质量评价方法、装置、电子设备及存储介质
JPWO2019188578A1 (ja) 演算装置、演算方法、プログラムおよび判別システム
CN114885112B (zh) 基于数据融合的高帧率视频生成方法及装置
JP2007004721A (ja) 対象物検出装置、及び対象物検出方法
JPWO2020261568A5 (ja)
JP2020057224A (ja) 検出装置、識別器、コンピュータプログラム及び検出方法
JP2011113360A (ja) 物体識別装置
JP7305509B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2022150562A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140328

R150 Certificate of patent or registration of utility model

Ref document number: 5513960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250