JP2019139618A - 情報処理装置、被写体の判別方法及びコンピュータプログラム - Google Patents
情報処理装置、被写体の判別方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2019139618A JP2019139618A JP2018023792A JP2018023792A JP2019139618A JP 2019139618 A JP2019139618 A JP 2019139618A JP 2018023792 A JP2018023792 A JP 2018023792A JP 2018023792 A JP2018023792 A JP 2018023792A JP 2019139618 A JP2019139618 A JP 2019139618A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- likelihood
- image
- region
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
情報処理装置は、ストレージを有するコンピュータとコンピュータプログラムとを用いて実施することができる。
[第1実施形態]
図1は第1実施形態に係る情報処理装置のハードウェア構成図である。この情報処理装置は、コンピュータ10とその周辺デバイスとを有する。コンピュータ10は、システムバス19に接続されたCPU11、GPU12、ROM13、RAM14、外部記憶装置15を有する。システムバス19には、また、入力デバイスインタフェース16、出力デバイスインタフェース17、映像機器インタフェース18も接続される。
画像入力部101は、画像を取得する(S10)。本実施形態では、カメラで撮影した撮影画像を取り込むものとする。取り込んだ画像を「入力画像」と呼ぶ。カメラ情報入力部110は撮影時の条件などを表すカメラ情報の入力処理を行う。カメラ情報の内容については、後で詳しく説明する。
図3のS11の処理の内容を図4及び図8を参照して詳しく説明する。図4はベース特徴生成部108が実行する処理の詳細手順説明図であり、図8は処理の概念説明図である。ベース特徴は、例えばCNN(Convolutional Neural Network:畳み込みニューラルネットワーク、以下CNNと略す)を用いて生成することができる。ただし、S11の処理では、CNNの全結合層と呼ばれる層は用いず、畳み込み層と呼ばれる種類の層のみを用いる。図8中、「ch」が付された数字は、特徴マップの枚数である。
fL(x,y,z)
=θ(ΣCHINΣΔx,Δy=-K〜+K wL(Δx,Δy,CHIN,CHOUT)
×fL−1(x+Δx,y+Δx,CHIN)+BL CHOUT)
なお、上式では入力画像I(x,y)は、特徴マップf0(x,y,z)として扱うものとする。ここでは、畳み込み演算の前後で特徴マップのx,y方向のサイズが変化しないように、畳み込み演算の前に特徴マップfL−1の周囲の画素に0値を充填してから畳み込む。このようにして、CNNの各層において、それぞれ複数層となる特徴マップ403a、403b、403cが生成される。
[数2]
F(x,y)
=[f1(x,y)T,f2(x,y)T,・・・,fn(x,y)T]T
このような二つの性質により、ベース特徴F(x,y)は、様々な被写体の検出ないし認識のタスクに有効に用いることができるようになる。
次に、第1特徴生成部102による第1特徴を生成する処理(S12)の詳細手順について、図5(A)を参照して説明する。この処理は、S1208からS1211のループとなる。第1特徴生成部102は、所定の規則の例として、ベース特徴F(x,y)から第1解像度となる低層の特徴109lを抽出し、低層の特徴109lから領域ブロックxy(座標(x,y)の位置の画素群、以下同じ)ごとの局所特徴Fxyを生成し、これを記憶する。局所特徴Fxyは、入力画像401に判別の検出対象、例えば人物が映っている場合に、後段で人物の顔などの局所的な部分の特徴が各領域ブロックx,yに存在するか否かの判別に用いる。その特徴量は、後段において判別に必要なデータをコンパクトに表現したベクトルとなる。
[数3]
Fxy=[F(x-1,y-1)T,F(x,y-1)T,F(x+1,y-1)T,
F(x-1,y )T,F(x,y )T,F(x+1,y )T,
F(x-1,y+1)T,F(x,y+1)T,F(x+1,y+1)T,]T
次に、第2特徴生成部103による第2特徴を生成する処理(S13)の詳細について図5(B)及び図9を参照して説明する。この処理は、S1301からS1307の順に行われるが、S103から1305はループとなる。第2特徴は、入力画像の広域特徴を含む特徴であり、判別パラメータである閾値(θ)を推定する際の手掛かりに用いられる。第2特徴も第1特徴と同じくベース特徴F(x,y)に基づいて生成する。
次に、図3のS14に示した判別パラメータを設定する処理について詳細に説明する。ここでは、判別パラメータ設定部104が、判別パラメータとして人物の顔を検出する際に用いる閾値(θ)を算出し、領域ブロックごとに設定する場合の例を説明する。
判別パラメータ設定部104は、顔サイズsごとに、かつ、入力画像の領域ブロック(i,j)ごとに適切な閾値(θ)が設定されるように、図9に示される3つのパラメータ回帰器104a、104b、104cを備える。パラメータ回帰器104aは、小さい顔の閾値(顔(小)閾値)用の回帰器である。パラメータ回帰器104cは大きい顔の閾値(顔(大)閾値)用の回帰器である。パラメータ回帰器104bは、中間のサイズの顔の閾値(顔(中)閾値)用の回帰器である。領域ブロックの添え字を(i,j)とするのは、局所特徴の領域ブロック(x,y)よりも解像度を低くするためである。
[数4]
θijs=1/(1+exp{−Wijs T・G+bijs})
次に、図3のS15に示された判別処理の詳細な手順例を図7及び図9を参照して説明する。図7において、被写体判別部106は、人物の顔のサイズsごとにS1501からS1509のループ処理を行う。すなわち、被写体判別部106は、顔(小)尤度スコアを生成する尤度生成部106a、顔(中)尤度スコアを生成する尤度生成部106b、顔(大)尤度スコアを生成する尤度生成部106cとして機能する。
各尤度スコアは、各領域ブロック(x,y)について局所特徴Fxyを入力とし、サイズsの顔が被写体の候補としてその領域ブロックに存在する確度を表す評価情報である(S1501〜S1504)。具体的には、局所特徴Fxyを入力変数とし、例えばサポートベクトルマシン(SVM:support vector machine)を用いて、各領域ブロック(x,y)についてのサイズsの顔の尤度スコアLs(x,y)を以下の式により算出する。
[数5]
Ls(x,y)=R(Σk αsk vsk・Fxy+bs)
[数6]
規格化関数z’=R(z)の定義:
z’=1 if z≧τ
z’=z/τ if 0≦z<τ
z’=0 if z<0
[数7]
i’=δ1x+γ1
j’=δ2y+γ2
[数8]
Ls(x,y)≧θi'j's
各尤度スコアが生成されると、被写体判別部106は、閾値処理部106dで各領域ブロック(x,y)について条件判定を行う(S1506)。すなわち、閾値処理部106dは、尤度スコアLs(x,y)が8近傍の尤度スコアの中で最大の値か否かを判定する。また、閾値(θi'j's)以上かどうかを判定する。肯定的の場合(S1506:Yes)、条件を満たす領域ブロック(i番目の領域ブロック)の座標(x,y)を中心とする位置にサイズsの顔が存在すると判定する(S1507)。つまり、そのサイズsの顔を図9に示される被写体の候補と判定する。その後、S1505の処理に戻る。
一方、S1506の結果が否定的である場合(S1506:No)、ただちにS1505の処理に戻る。図3のS16では、上記の被写体判別部106による判定の結果が、最終検出結果121として結果出力部107に出力される。
次に、情報処理装置が行う学習処理について、図11から図14を参照して説明する。図11は、学習処理を行うときの情報処理装置の機能ブロック構成図である。図2の機能ブロック構成図に、カメラ情報保持部130、学習画像保持部131、教師値保持部132、尤度集計部133、判別パラメータ教師値保持部134が追加されている。なお、ベース特徴生成部108については、図示を省略してある。
まず、尤度生成部106a,106b,106cは、局所特徴に基づき被写体(顔)を正しく判別できるよう尤度判定用のSVMを次のように学習する(S113)。すなわち、尤度生成部106a,106b,106cは、与えられた顔についての教師値の“0”、“1”の値を目標変数、対応する領域ブロックの連結層特徴量Fxyを説明変数とし、顔の正事例と負事例が判別できるようにSVMを学習する。学習は、サイズsごとに行い、SVMのパラメータ([vsk,αsk,bs])を得る。以上が、尤度生成部106aの学習手順である。
尤度生成部106aは、このバッチセット501に対してSVMを用いて、各学習画像の被写体の尤度を並べた尤度マップを生成する(S1143)。
尤度集計部133は、尤度マップの局所的なピークの位置を抽出して記憶する(S1144)。そして、尤度集計部133は、ピークを集計して正事例(ピークの位置に顔があった)か負事例(ピークの位置に顔はなかった)の尤度のピークのスコアを領域ごとに集計して尤度スコアの分布を生成する(S1145)。このようにして集計された結果が図15に示す尤度スコア分布503a,503bである。尤度スコア分布503a,503bとして示されるように、尤度スコアは画像中の位置ごと、すなわち領域ブロック(i,j)ごとに集計する。なお、尤度スコア分布503a,503bの細線の曲線は、各画像のスコア分布、太線の曲線はバッチの平均のスコア分布である。
[数9]
Wij t+1=η∂E/∂Wij t+Wij t
bij t+1=η∂E/∂bij t+bij t
このようにして学習されたパラメータ回帰器Φijは、画像の広域特徴に応じて、領域ブロックごとに適切な目標閾値が設定できるように鍛えられたものとなる。
以上が被写体判別部106、判別パラメータ設定部104の学習処理の内容となる。
本実施形態の別の派生的形態として、第1特徴はCNNの低層の特徴マップ403aのみを用いて生成し、第2特徴は高層の特徴マップ403cのみを使って生成するといったベース特徴の使い分けをしてもよい。また、ニューラルネットワーク以外の特徴の形態として、色のヒストグラム、SIFT特徴といった従来の画像特徴も適応可能である。また、本実施形態の特徴は、矩形のブロック領域を要素単位として算出したが、第1特徴の生成単位は矩形ブロック形状に限定されない。例えば、色味の近さ等で画素をグループ分けして得られるスーパーピクセルと呼ばれる領域を単位とし、各領域について被写体の尤度スコアの計算を行ってもよい。
また、本実施形態では、判別パラメータ設定部104は、領域ブロック別かつ顔サイズ別に適切な閾値設定を行ったが、閾値の学習・推定を領域ブロックごとに行わない形態も考えられる。すなわち、領域ブロックに対してではなく、画像全体に対して顔サイズごとに一つの閾値を得てもよい。さらに顔サイズにも分けない、といった派生の形態も考えられる。また、判別パラメータ設定部104に与えた閾値の目標値は誤検出率が所定条件を満たすようにという基準で決定したが、この限りでない。他の派生として適合率(precision)が所定値以上であるという基準や、ベイズエラーを最小にする基準、といった形態を採用することも考えられる。
第2実施形態では、意味的領域分割などの他のタスクにも適応できることを説明する。この場合、判別パラメータとして、第1実施形態のような閾値(θ)ではなく、認識結果を統合する際のスコアバランスの重み係数βを設定する。第2実施形態の情報処理装置は、ハードウェア構成は第1実施形態と同じであるが、コンピュータプログラムにより実現される機能ブロック構成が第1実施形態と異なるものとなる。
領域カテゴリ判定部211は、領域カテゴリスコアマップを生成する(S24)。このS24の詳細な処理の手順を図17(B)に示す。すなわち、領域カテゴリ判定部211は、例えば上述のSVMを用いて、空、地面、建物、その他の物体の4種類の属性を表す領域ブロックのカテゴリの尤度スコアを算出する。そしてこれらの尤度スコアを並べて領域カテゴリスコアマップを生成する(S2401〜S2405)。第2特徴生成部203は、ベース特徴と領域カテゴリスコアマップとから、第2特徴を生成する(S25)。
[数10]
βc=1/(1+exp{−Wc T・G+bc}) (c=1,・・・,4)
[数11]
L' c(x,y)=βc・Lc(x,y) (c=1,・・・,4)
閾値処理部206dは、領域カテゴリを閾値処理する(S28)。結果出力部207は、判別結果を、例えばモニタ22に出力して表示させる(S29)。
第2実施形態の変形例として、重み係数を領域カテゴリごとに掛け算するのでなく、例えば4×4のパラメータを持つ行列βMATを用いて、全カテゴリのスコアマップの結果を混合して調整後の尤度スコアを求めてもよい。この場合の領域ブロック(x,y)の4つのカテゴリの尤度L(x,y)は、下式により算出することができる。この式は、領域ブロック(x,y)の4つのカテゴリの尤度を4×1サイズのベクトルとして並べたものに相当する。
[数12]
L'(x,y)=βMAT・L(x,y)
情報処理装置の第3実施形態について説明する。この実施形態では、これまで説明したような定形の領域ブロックに対してではなく、不定形の領域ブロックをベースとしたタスクに対しても適応可能であることを説明する。第3実施形態の情報処理装置のハードウェア構成は第1実施形態と同じであり、コンピュータプログラムによって実現される機能ブロック構成が異なる。第3実施形態の情報処理装置の機能ブロック構成図を図18に示す。第1及び第2実施形態と異なる点は、被写体の判別を領域ブロックではなく、人間が画像に注意を向ける関心領域(ROI:Region of Interest)に着目して判別する点である。
ROI選択部304は、「人物らしさ」の高いROIを複数選択し、それぞれ対応する候補領域を生成する(S33)。ROI特徴抽出部306は、ROIごとにその位置(座標(x,y))及びサイズsを検出するとともに、各ROIの特徴量を算出し、集計する(S34、ROIプーリング処理と呼ばれる)。被写体尤度生成部307は、第1及び第2実施形態と同様の手法で被写体尤度(人物の尤度)を算出し、算出結果を基に検出候補を生成する(S35)。
このようにして得られた閾値(θ^)のセットがSVRの学習時の教師値となる。SVRには、図20(C)に入力事例803として示すように、事例が存在しない位置に入力事例が入ってくる。そのため、ロバスト性を持たせて適切な閾値が推定できるように、マージン最大化の基準でSVRの係数の学習を行う。以上がSVRの学習方法になる。
また、操作者が選択する撮像モードに応じて学習データと教師値の複数のセットを用意し、それぞれ学習することもできる。これにより、追尾モードの時はそれ以外のモードの時よりも、大サイズの人物の検出が抑制される、といった学習を行うことも可能である。
Claims (18)
- 画像を取得する取得手段と、
前記画像の第1特徴を生成する第1特徴生成手段と、
前記画像の前記第1特徴と異なる第2特徴を生成する第2特徴生成手段と、
前記第2特徴から前記画像に存在する被写体を判別するための判別パラメータを前記画像に対して設定する設定手段と、
前記第1特徴と前記判別パラメータとに基づいて前記被写体を判別する判別手段と、
を備えることを特徴とする情報処理装置。 - 前記判別手段は、前記第1特徴から前記被写体の候補を検出するとともに検出された前記候補の尤度と前記判別パラメータとを比較することにより当該候補が前記被写体であるかどうかを判別することを特徴とする、請求項1に記載の情報処理装置。
- 前記判別手段は、前記第1特徴に基づいて前記画像中に前記被写体が存在する尤度を表す尤度スコアを前記画像を構成する領域ブロックごとに算出し、各尤度スコアを全ての領域ブロックについて統合することにより前記候補を検出することを特徴とする、請求項2に記載の情報処理装置。
- 前記画像の特徴抽出のベースとなるベース特徴を生成するベース特徴生成手段をさらに備えており、前記第1特徴生成手段は、前記ベース特徴を第1解像度で変換することにより前記第1特徴を生成し、前記第2特徴生成手段は、前記ベース特徴を前記第1解像度よりも粗い第2解像度で変換することにより前記第2特徴を生成することを特徴とする、請求項1から3のいずれか一項に記載の情報処理装置。
- 前記ベース特徴生成手段は、前記画像に対してニューラルネットワークで複数回の畳み込み演算を行うことにより、演算が進むに従って解像度が低くなる複数層の特徴マップを生成するとともに、これらの層の特徴マップを統合することにより前記ベース特徴を生成することを特徴とする、請求項4に記載の情報処理装置。
- 前記ベース特徴生成手段は、統合前に全ての層の特徴マップの解像度を合致させることを特徴とする、請求項5に記載の情報処理装置。
- 前記第1特徴生成手段は、前記複数層の特徴マップのうち前記第1解像度の層の特徴マップを変換することにより前記第1特徴を生成し、前記第2特徴生成手段は、前記第2解像度の層の特徴マップを変換することにより前記第2特徴を生成することを特徴とする、請求項5又は6に記載の情報処理装置。
- 前記第1特徴は、前記入力画像の局所領域の特徴である局所特徴を含み、
前記第2特徴は、前記局所特徴よりも広い領域の特徴である広域特徴を含むことを特徴とする、請求項7に記載の情報処理装置。 - 前記画像がカメラで撮像された画像であり、
前記取得手段は、前記画像の撮像時の条件を表すカメラ情報と共に取得し、
前記第2特徴生成手段は、前記第2解像度の層の特徴マップについて前記ニューラルネットワークの全結合層の演算を行うことにより、予め分類された画像特徴である画像分類特徴を生成するとともに、前記画像分類特徴と前記カメラ情報とを連結することにより前記広域特徴を生成することを特徴とする、請求項8に記載の情報処理装置。 - 前記設定手段は、前記第2特徴に含まれる前記画像分類特徴を用いて前記被写体のサイズを推定するとともに、前記被写体のサイズごと及び前記画像を構成する領域ブロックごとに前記判別パラメータを設定することを特徴とする、請求項9に記載の情報処理装置。
- 前記判別パラメータは、前記判別の誤りが所定値以下となるように予め学習により決定された閾値であることを特徴とする、請求項1ないし10のいずれか一項に記載の情報処理装置。
- 前記画像を構成する複数の領域ブロックのうち個々の領域ブロックの属性を表す領域カテゴリを予め保持されている学習データに基づいて判定するとともに、判定した領域カテゴリごとに当該領域カテゴリの尤度を表す尤度スコアを算出する領域カテゴリ判定手段を備えており、前記第2特徴生成手段は、前記領域カテゴリごとの尤度スコアに基づいて前記第2特徴を生成することを特徴とする、請求項1から3のいずれか一項に記載の情報処理装置。
- 前記設定手段は、予め領域カテゴリごとに学習された学習データに基づいてそれぞれの前記領域カテゴリの前記尤度スコアを重み付けし、重み付け後の前記尤度スコアを用いて前記判別パラメータを前記領域ブロックごとに設定することを特徴とする、請求項12に記載の情報処理装置。
- 画像を取得する取得手段と、
前記画像の局所領域の特徴を表す局所特徴を生成する特徴生成手段と、
前記局所特徴から前記画像を構成する複数の領域ブロックの各々が、予め定められたカテゴリの尤度を表す領域カテゴリ尤度を生成する領域尤度生成手段と、
前記領域カテゴリ尤度に基づいて複数の関心領域を選択する選択手段と、
前記局所特徴及び選択された前記複数の関心領域の各々の位置及びサイズを検出するとともに、各関心領域の特徴を抽出する特徴抽出手段と、
抽出された各関心領域の特徴に基づいて当該関心領域における被写体の尤度を生成する被写体尤度生成手段と、
前記特徴抽出手段で検出された各関心領域の位置及びサイズと前記領域尤度生成手段で生成された前記領域カテゴリ尤度とに基づいて前記被写体を判別するための判別パラメータを前記関心領域ごとに設定する設定手段と、
前記被写体尤度生成手段で生成された被写体の尤度と前記判別パラメータとを比較することにより前記被写体を判別する判別手段と、
を備えることを特徴とする情報処理装置。 - 画像を構成する第1解像度の領域ブロックごとに、前記入力画像に被写体が存在することの尤度を表す尤度スコアを算出するとともに、算出した各尤度スコアを評価することにより、前記被写体の候補を検出するステップと、
前記画像を構成する、前記第1解像度よりも粗い第2解像度の領域ブロックごとに、前記被写体を判別するための判別パラメータを設定するステップと、
前記候補の尤度と前記判別パラメータとを比較することにより当該候補が前記被写体であるかどうかを判別するステップと、を有する被写体の判別方法。 - 画像の第1特徴を生成するステップと、
前記第1特徴から前記画像を構成する領域ブロックごとに、当該領域ブロックのカテゴリの尤度を表す領域カテゴリスコアを算出し、各領域カテゴリスコアに基づいて前記画像に存在する被写体の尤度を生成するステップと、
算出した各領域カテゴリスコアと前記画像とに基づいて前記第1特徴と異なる第2特徴を生成し、生成した前記第2特徴に基づいて前記領域カテゴリスコアの重み係数を推定するとともに、前記各領域カテゴリスコアを前記重み係数で調整するステップと、
調整された前記各領域カテゴリスコアと前記被写体の尤度とを比較することにより前記被写体を判別するステップと、を有することを特徴とする被写体の判別方法。 - 画像の局所領域の特徴を表す局所特徴を生成するステップと、
前記局所特徴に含まれる複数の関心領域を選択し、選択した各関心領域の特徴を抽出することにより、前記各関心領域における被写体の尤度を生成するステップと、
前記局所特徴における領域カテゴリの尤度を生成し、生成した前記尤度と前記関心領域のサイズ及び位置に基づいて前記被写体を判別するための判別パラメータを前記関心領域ごとに設定するステップと、
前記被写体の尤度と前記判別パラメータとを前記関心領域ごとに比較することにより前記被写体を判別するステップと、を有することを特徴とする被写体の判別方法。 - コンピュータを請求項1から14のいずれか一項に記載された情報処理装置として機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018023792A JP7077046B2 (ja) | 2018-02-14 | 2018-02-14 | 情報処理装置、被写体の判別方法及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018023792A JP7077046B2 (ja) | 2018-02-14 | 2018-02-14 | 情報処理装置、被写体の判別方法及びコンピュータプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019139618A true JP2019139618A (ja) | 2019-08-22 |
JP2019139618A5 JP2019139618A5 (ja) | 2021-04-15 |
JP7077046B2 JP7077046B2 (ja) | 2022-05-30 |
Family
ID=67694180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018023792A Active JP7077046B2 (ja) | 2018-02-14 | 2018-02-14 | 情報処理装置、被写体の判別方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7077046B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070083A (zh) * | 2020-09-04 | 2020-12-11 | 北京灵汐科技有限公司 | 图像内容检测方法、装置、电子设备和存储介质 |
KR20210035369A (ko) * | 2019-09-23 | 2021-04-01 | 삼성전자주식회사 | 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치 |
US20210192772A1 (en) * | 2019-12-24 | 2021-06-24 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
WO2021193101A1 (ja) * | 2020-03-27 | 2021-09-30 | 株式会社日立国際電気 | 画像解析システム、画像解析方法及び画像解析プログラム |
WO2021260780A1 (ja) * | 2020-06-23 | 2021-12-30 | 日本電気株式会社 | 物体位置推定装置、物体位置推定方法、および記録媒体 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513468A (ja) * | 2003-01-06 | 2006-04-20 | 三菱電機株式会社 | 画像内のピクセルをセグメント化する方法 |
JP2013045433A (ja) * | 2011-08-26 | 2013-03-04 | Canon Inc | 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム |
JP2016018538A (ja) * | 2014-07-11 | 2016-02-01 | キヤノン株式会社 | 画像認識装置、方法及びプログラム |
JP2017005389A (ja) * | 2015-06-05 | 2017-01-05 | キヤノン株式会社 | 画像認識装置、画像認識方法及びプログラム |
JP2017097510A (ja) * | 2015-11-20 | 2017-06-01 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
JP2017102622A (ja) * | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2018
- 2018-02-14 JP JP2018023792A patent/JP7077046B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513468A (ja) * | 2003-01-06 | 2006-04-20 | 三菱電機株式会社 | 画像内のピクセルをセグメント化する方法 |
JP2013045433A (ja) * | 2011-08-26 | 2013-03-04 | Canon Inc | 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム |
JP2016018538A (ja) * | 2014-07-11 | 2016-02-01 | キヤノン株式会社 | 画像認識装置、方法及びプログラム |
JP2017005389A (ja) * | 2015-06-05 | 2017-01-05 | キヤノン株式会社 | 画像認識装置、画像認識方法及びプログラム |
JP2017097510A (ja) * | 2015-11-20 | 2017-06-01 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
JP2017102622A (ja) * | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210035369A (ko) * | 2019-09-23 | 2021-04-01 | 삼성전자주식회사 | 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치 |
KR102680342B1 (ko) | 2019-09-23 | 2024-07-03 | 삼성전자주식회사 | 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치 |
US20210192772A1 (en) * | 2019-12-24 | 2021-06-24 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
US11842509B2 (en) * | 2019-12-24 | 2023-12-12 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
WO2021193101A1 (ja) * | 2020-03-27 | 2021-09-30 | 株式会社日立国際電気 | 画像解析システム、画像解析方法及び画像解析プログラム |
WO2021260780A1 (ja) * | 2020-06-23 | 2021-12-30 | 日本電気株式会社 | 物体位置推定装置、物体位置推定方法、および記録媒体 |
JPWO2021260780A1 (ja) * | 2020-06-23 | 2021-12-30 | ||
JP7448006B2 (ja) | 2020-06-23 | 2024-03-12 | 日本電気株式会社 | 物体位置推定装置 |
CN112070083A (zh) * | 2020-09-04 | 2020-12-11 | 北京灵汐科技有限公司 | 图像内容检测方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7077046B2 (ja) | 2022-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7077046B2 (ja) | 情報処理装置、被写体の判別方法及びコンピュータプログラム | |
JP7149692B2 (ja) | 画像処理装置、画像処理方法 | |
US9824294B2 (en) | Saliency information acquisition device and saliency information acquisition method | |
Creusot et al. | A machine-learning approach to keypoint detection and landmarking on 3D meshes | |
De Carvalho et al. | Exposing digital image forgeries by illumination color classification | |
Su et al. | Preference-aware view recommendation system for scenic photos based on bag-of-aesthetics-preserving features | |
CN110619628B (zh) | 一种人脸图像质量评估方法 | |
Wong et al. | Saliency-enhanced image aesthetics class prediction | |
Levinshtein et al. | Optimal contour closure by superpixel grouping | |
CN104835175B (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
US8577099B2 (en) | Method, apparatus, and program for detecting facial characteristic points | |
US20100014758A1 (en) | Method for detecting particular object from image and apparatus thereof | |
JP2017033469A (ja) | 画像識別方法、画像識別装置及びプログラム | |
JP7142420B2 (ja) | 画像処理装置、学習方法、学習済モデル、画像処理方法 | |
CN102622589A (zh) | 一种基于gpu的多光谱人脸检测方法 | |
Jun et al. | Robust real-time face detection using face certainty map | |
CN104036284A (zh) | 基于Adaboost算法的多尺度行人检测方法 | |
JP5574033B2 (ja) | 画像認識システム及びその認識方法並びにプログラム | |
JP4795864B2 (ja) | 特徴点検出装置および方法並びにプログラム | |
JP2007511838A (ja) | 距離、局所線形構造およびアフィン対称を用いた画像クラスタリング | |
JPH0973544A (ja) | 形状認識装置及びその方法 | |
Zhou et al. | Visual robotic object grasping through combining rgb-d data and 3d meshes | |
Hassan et al. | Salient object detection based on CNN fusion of two types of saliency models | |
Estrada et al. | Appearance-based keypoint clustering | |
JP4185083B2 (ja) | 形状認識装置及びその方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220518 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7077046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |