JP2015099559A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2015099559A
JP2015099559A JP2013240175A JP2013240175A JP2015099559A JP 2015099559 A JP2015099559 A JP 2015099559A JP 2013240175 A JP2013240175 A JP 2013240175A JP 2013240175 A JP2013240175 A JP 2013240175A JP 2015099559 A JP2015099559 A JP 2015099559A
Authority
JP
Japan
Prior art keywords
image
candidate
area
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013240175A
Other languages
English (en)
Other versions
JP6351240B2 (ja
Inventor
矢野 光太郎
Kotaro Yano
光太郎 矢野
一郎 梅田
Ichiro Umeda
一郎 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013240175A priority Critical patent/JP6351240B2/ja
Priority to US14/533,394 priority patent/US9934446B2/en
Publication of JP2015099559A publication Critical patent/JP2015099559A/ja
Application granted granted Critical
Publication of JP6351240B2 publication Critical patent/JP6351240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Abstract

【課題】登録した物体に対して入力画像から精度良く物体を検出して物体領域を切り出すことができるようにする。
【解決手段】登録画像の物体領域から抽出した画像特徴と入力画像の候補領域から抽出した画像特徴との照合を行う際に、入力画像を分割した小領域または隣接する小領域を統合した領域を候補領域として複数照合を行うようにする。更に、マスクデータから形状特徴を抽出して、画像特徴だけでなく形状特徴も用いて照合するようにして、入力画像の候補領域の境界が物体境界と一致するときに照合時に背景画像の影響をなくし、高精度に認識を行うことができるようにする。
【選択図】図1

Description

本発明は、特に、物体を検出するために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。
従来、デジタルスチルカメラ、カムコーダ等において、撮影中の画像から人の顔を検出する機能が知られている。このような顔検出機能は、撮影対象の物体に自動的にピントや露出を合せるために非常に有用である。ここで、顔検出機能は、入力画像から抽出した数多くの検出ウインドウを予め膨大な数の顔画像を用いて学習した辞書データと照合することによって実現されている。
近年、このような顔検出機能に対して、二つの機能拡張が期待されている。一つは、検出対象を人の顔に限らず、例えば、犬や猫といったペットを検出する機能である。また、一方では、この機能を応用して検出した顔(あるいは、その他の物体)の領域を切り出したいという要望がある。
前者の要望に対しては、予め検出対象とする物体画像を登録して物体辞書データを更新する方法が特許文献1に開示されている。一方、後者の要望に対しては、特定の物体に対して、その物体領域を表すマスク(以下、マスクデータと称す)を画像データと共に事前に学習して物体領域を自動的に切り出す方法が非特許文献1に開示されている。
特開2011−86261号公報
Luca Bertelli, Tianli Yu, Diem Vu, and Burak Gokturk. Kernelized Structural SVM Learning for Supervised Object Segmentation. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2011 Radhakrishna Achanta, Appu Shaji, Kevin Smith, Aurelien Lucchi, Pascal Fua, and Sabine Susstrunk. SLIC Superpixels. EPFL Technical Report 149300, June 2010 P. Felzenszwalb and D. Huttenlocher, Efficient graph-based image segmentation. International Journal of Computer Vision. 2004 Dalal and Triggs. Histograms of Oriented Gradients for Human Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2005 D. Tax and R. Duin. Support Vector Data Description. Machine Learning, 54(1):45-66, 2004 D. G. Lowe. Distinctive image features from scale-invariant key points. Proc. of Int. Journal of Computer Vision , 2004
しかしながら、検出対象の形状は多種多様であり、従来の矩形の検出ウインドウでは検出対象の形状によっては検出ウインドウ中に背景の占める領域の割合が大きくなってしまう。そのため、単純に特許文献1の方法を適用すると背景画像の影響を受けて認識精度が低下する場合があるといった問題がある。これに対して、非特許文献1に開示されている方法では、物体領域を表すマスクを用いているが、予め特定の物体に対して物体の画像データおよびマスクデータを用いて学習しておく必要がある。このため、登録時に指定した物体に対して物体領域を切り出すことができない。
本発明は前述の問題点に鑑み、登録した物体に対して入力画像から精度良く物体を検出して物体領域を切り出すことができるようにすることを目的としている。
本発明に係る画像処理装置は、物体を含む画像を取得する画像取得手段と、前記画像取得手段によって取得された画像を複数の小領域に分割する分割手段と、前記分割手段によって分割された小領域から、前記物体の領域の候補となる複数の候補領域を取得する候補領域取得手段と、前記候補領域取得手段によって取得された候補領域から特徴量を抽出する抽出手段と、前記抽出手段によって抽出された特徴量を、候補領域ごとに予め登録されている物体情報と照合する照合手段と、前記照合手段による照合結果を出力する出力手段とを備えることを特徴とする。
本発明によれば、登録した物体に対して入力画像から精度良く物体を検出して物体領域を切り出すことができる。
本発明の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の実施形態に係る画像処理装置による認識対象の登録手順の一例を示すフローチャートである。 物体領域を入力する詳細な処理手順の一例を示すフローチャートである。 領域分割結果の境界を重畳した画像の一例を示す図である。 画像特徴を抽出する詳細な処理手順の一例を示すフローチャートである。 外接矩形を分割した複数のセルの一例を示す図である。 本発明の実施形態に係る画像処理装置による照合手順の一例を示すフローチャートである。 入力画像を分割した結果の一例を示す図である。 本発明の実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。
以下、本発明に係る実施形態について図面に基づいて説明する。
図9は、本実施形態に係る画像処理装置10のハードウェア構成例を示すブロック図である。
図9において、画像処理装置10は、CPU(Central Processing Unit)1、記憶装置2、入力装置3、及び出力装置4を含んで構成されている。なお、各装置は、互いに通信可能に構成され、バス等により接続されている。
CPU1は、画像処理装置10の動作をコントロールし、記憶装置2に格納されたプログラムの実行等を行う。記憶装置2は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、CPU1の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。本実施形態では、CPU1が、記憶装置2に格納されたプログラムの手順に従って処理を行うことによって、画像処理装置10における機能及び後述するフローチャートに係る処理が実現される。
入力装置3は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、各種の指示を入力する。出力装置4は、液晶パネル、外部モニタ等であり、各種の情報を出力する。なお、画像処理装置10のハードウェア構成は、上述した構成に限られるものではない。例えば、画像処理装置10は、各種の装置間で通信を行うためのI/O装置を備えてもよい。この場合、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線、無線等による送受信部である。また、例えば、画像処理装置10は、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有するカムコーダ等の撮像装置を備えてもよい。
図1は、本実施形態に係る画像処理装置10の機能構成例を示すブロック図である。本実施形態に係る画像処理装置10の処理及び機能は、図1に示す各部により実現される。
図1において、画像取得部100は、カメラ等の撮像装置で生成された画像データを取得する。領域分割部110は、画像取得部100で取得した画像データを隣接した類似画素からなる複数の小領域に分割する。領域統合部120は、領域分割部110で分割した隣接する複数の小領域を統合する。
候補領域取得部130は、領域分割部110で分割した小領域または領域統合部120で統合した領域から物体領域の候補となる領域を取得する。また、候補領域取得部130は後述する物体領域入力部200で入力した物体領域を候補領域として取得する。画像特徴抽出部140は、候補領域取得部130で取得した候補領域から画像データに係る物体を認識するための特徴量(以下、画像特徴と称す)を抽出する。形状特徴抽出部150は、候補領域取得部130で取得した候補領域のマスクデータに係る物体を認識するための特徴量(以下、形状特徴と称す)を抽出する。
物体情報学習部160は、画像特徴抽出部140で抽出した画像特徴および形状特徴抽出部150で抽出した形状特徴を用いて物体情報を学習する。物体情報記憶部170は、物体情報学習部160で学習した物体情報を記憶するメモリである。物体情報照合部180は、画像特徴抽出部140で抽出した画像特徴および形状特徴抽出部150で抽出した形状特徴を物体情報記憶部170に記憶されている物体情報と照合する。
結果統合出力部190は、物体情報照合部180で照合した複数の結果を統合して出力する。例えば、物体情報照合部180で認識対象の物体領域であると判別された候補領域を他の領域と区別できるように出力装置4に表示する。物体領域入力部200は、画像取得部100で取得した登録画像の物体領域を、入力装置3を介して入力する。
以下、本実施形態の動作について説明する。まず、図2を参照しながら、認識対象を登録する際の処理の流れを説明する。本実施形態では検出対象の登録を一連の動画像を用いて行う。
図2は、本実施形態に係る画像処理装置10による認識対象の登録手順の一例を示すフローチャートである。
まず、画像取得部100は、カメラ等の撮像装置で認識対象を撮像した動画像から1フレーム分の画像データを登録画像として取得する(S201)。ここで取得する画像データはRGBの3つの色成分から成るカラー画像である。さらに、本実施形態では、RGBデータを輝度データに変換し、輝度画像データを以後の処理に適用する。
次に、領域分割部110は、画像取得部100で取得した登録画像を隣接した類似画素からなる複数の小領域に分割する(S202)。ここで、登録画像を小領域に分割する方法としては、クラスタリングやグラフ表現による公知の方法を用いる(非特許文献2及び3参照)。
次に、物体領域入力部200は、画像取得部100で取得した登録画像の物体領域を、入力装置3を介して入力する(S203)。本実施形態では、ユーザが出力装置4に出力された画像データおよび領域分割部110の領域分割結果を見ながら、ユーザの操作により入力装置3を介して物体領域を入力する。詳細については後述する。
次に、候補領域取得部130は、物体領域入力部200で得た物体領域を所定のデータ形式に変換し、保存する(S204)。具体的には、S203で入力された物体領域を囲む外接矩形を設定し、矩形内のマスクデータを所定のサイズ(例えば、100×100画素)に変換し、2値データとして保存する。
次に、画像特徴抽出部140は、候補領域取得部130で取得した物体領域から画像特徴を抽出し、記憶装置2に記憶する(S205)。本実施形態では画像特徴としてHOG(Histogram of Oriented Gradients、非特許文献4参照)特徴量を抽出する。詳細については後述する。
次に、形状特徴抽出部150は、候補領域取得部130で取得した物体領域の形状特徴を抽出し、記憶装置2に記憶する(S206)。本実施形態では、候補領域取得部130で取得した2値のマスクデータを1次元配列とし、形状特徴を表す特徴ベクトルとして抽出する。この他、2値画像のモーメントを抽出し、形状特徴としてもよい。
続いて、S201〜S206の処理を動画像のフレーム数分行ったか否かを判定する(S207)。この判定の結果、まだ処理を行っていないフレームが存在する場合はS201へ戻り、処理を繰り返す。
一方、S207の判定の結果、動画像の数フレーム分の処理が終了した場合は、物体情報学習部160は、画像特徴抽出部140で抽出した画像特徴および形状特徴抽出部150で抽出した形状特徴を用いて物体情報を学習する(S208)。具体的には記憶装置2から画像特徴および形状特徴を読み出し、画像特徴および形状特徴の夫々について、SVDD(Support Vector Data Description、非特許文献5参照)による物体情報の学習を行う。SVDDは識別対象の複数サンプルから対象が属するクラスを、超球を用いて表現し、学習を行う方法である。詳細については後述する。そして、物体情報学習部160は、学習結果を物体情報記憶部170に保存する(S209)。
(物体領域入力処理の詳細)
図3は、S203において物体領域入力部200が物体領域を入力する詳細な処理手順の一例を示すフローチャートである。
まず、出力装置4に認識対象の物体が写っている画像データに領域分割結果の境界を重畳した画像を表示する(S301)。図4(a)に表示画像の一例を示す。
次に、物体境界がこれで良いかどうかを確認するための画面を出力装置4に表示し、ユーザの操作により「YES」の指示が入力装置3から入力されたか否かを判定する(S302)。この判定の結果、ユーザの操作により「NO」の指示が入力された場合は、その後のユーザの操作によって指示された物体境界を入力する(S304)。この処理では、ユーザが表示された画像を見ながら入力装置3によって物体境界を入力する。そして、領域分割部110は、ユーザによって入力された物体境界を領域分割結果に反映させる(S305)。この処理では、領域分割部110の処理結果のうち、ユーザが指定した境界を含む小領域が境界に沿って分割される。境界入力後、処理をS301に移し、所望の物体境界が得られるまで処理が繰り返される。
一方、S302の判定の結果、「YES」の指示が入力された場合は、物体領域がこれで良いかどうかを確認するための画面を出力装置4に表示し、ユーザの操作により「YES」の指示が入力装置3から入力されたか否かを判定する(S303)。表示画像では物体領域と背景領域とが区別して表示され、初期状態では全ての小領域が背景領域となっている。ユーザは表示された画像を見て物体領域が正しいか否かの判定結果を入力装置3によって入力する。
S303の判定の結果、ユーザの操作により「YES」の指示が入力された場合は、物体領域入力処理を終了する。一方、ユーザの操作により「NO」の指示が入力された場合は、処理をS306に移す。そして、ユーザの操作に応じて物体領域のうち背景領域として表示されている領域(すなわち、修正が必要な領域)を入力装置3によって指定する(S306)。そして、S306の入力に従ってマスクデータを作成する(S307)。マスクデータは画像データ、物体境界と共に出力装置4に表示される。図4(b)には、マスクデータを含む表示画像の一例を示す。その後、処理をS303に移し、物体領域が正しく入力されるまで処理が繰り返される。
(画像特徴抽出処理の詳細)
図5は、図2のS205における画像特徴抽出部140による画像特徴を抽出する詳細な処理手順の一例を示すフローチャートである。
まず、候補領域取得部130で設定した外接矩形を複数のセルに分割する(S501)。例えば、図6に示すように縦横4×4のセルに分割し、以降、ここで分割した各セルについて特徴抽出処理を行う。
次に、セル内の1つの画素を選択する(S502)。そして、選択した画素について、候補領域取得部130で取得したマスクデータを参照し、該当する画素が物体領域内の画素かどうかを判定する(S503)。この判定の結果、該当する画素が物体領域内の画素でない場合はS502に戻り、次の画素を選択する。一方、該当する画素が物体領域内の画素である場合は、以下のS504〜S505において特徴抽出処理を行う。
まず、画像特徴抽出部140は、物体領域内の画素について水平、垂直方向の輝度勾配を算出し、算出した輝度勾配から勾配強度および方向を求める(S504)。さらに、画像特徴抽出部140は、求めた勾配方向からヒストグラムの階級を求め、求めた階級に相当するビンに勾配強度を加算する(S505)。
次に、すべてのセル内のすべての画素について選択したか否かを判定する(S506)。この判定の結果、まだ選択していない画素がある場合はS502に戻り、処理を繰り返す。セル内の全画素について処理を繰り返すと、セル内の物体領域の画像データに対してヒストグラム特徴を得ることができる。このとき、例えば図6のセルCについては、斜線部で示した物体領域内の画素からのみ画像特徴が抽出される。
一方、S506の判定の結果、すべてのセル内のすべての画素について選択した場合、すなわち、全てのセルについてヒストグラム特徴を得た場合は、抽出したヒストグラム特徴をセルの数だけ結合して物体領域の画像特徴とする(S507)。なお、本実施形態では、HOG特徴量を抽出する例を示したが、他の方法によって画像特徴を抽出してもよい。また、マスクデータを参照して物体領域内の画素から特徴量を抽出するのであれば、HOG特徴量以外の、例えば、SIFT(非特許文献6参照)、色ヒストグラム等を抽出するようにしてもよい。
(物体情報学習処理の詳細)
以下、図2のS208における物体情報の学習処理のうち、画像特徴を学習する処理について説明する。画像特徴抽出部140で抽出した複数の特徴量はSVDDにおける訓練サンプルの集合であり、訓練サンプルをxi(i=1,・・・,N:Nはサンプル数)とする。SVDDでは、以下の(1)式に示す2次計画問題を解いて、訓練サンプルを包含する最小半径の超球を求める。
Figure 2015099559
ここで、Rは超球の半径、aは超球の中心、ξiはスラック変数、Φは高次元特徴空間への非線形写像、Cは超球の体積と超球の外側のサンプル数とのトレードオフを制御するパラメータである。ラグランジュ乗数αi≧0を導入すると、(1)式は以下の(2)式を解く問題として表すことができる。
Figure 2015099559
ここで、K(xi,xj)=(Φ(xi),Φ(xj))はカーネル関数である。(2)式を満たす係数αiのうち、非ゼロの係数に対応するサンプルで球体を表すことができ、SVDDではこれらの訓練サンプルをサポートベクター(境界サンプル)として抽出する。このとき、入力サンプルzの超球の中心からの距離をRzとすると、以下の(3)式が成り立つ。
Figure 2015099559
但し、NSVは抽出したサポートベクターの数、Σは抽出したサポートベクターに対する総和を表す。
次に、画像特徴を学習する場合の具体的な処理手順を以下に示す。まず、画像特徴抽出部140が抽出した複数のヒストグラム特徴からHIK(Histogram Intersection Kernel)を計算する。HIKは以下の(4)式により求める。
Figure 2015099559
ここで、xil,xjlは夫々、特徴量xi,xjのl番目の特徴、dは特徴量の次元、min()は小さい方の値を返す関数である。本実施形態ではこのようにSVDDのカーネル関数としてHIKを用いる。
次に、求めた特徴量同士のHIKの値からSVDDによって境界サンプルを判別する。すなわち、前記(2)式を満たす係数αiのうち非ゼロの係数に対応する訓練サンプルをサポートベクター(境界サンプル)として判別する。図2のS209の物体情報保存処理においては、境界サンプルとして判別した訓練サンプルxi、および、係数αiを物体情報として物体情報記憶部170に保存する。なお、形状特徴を学習する場合には前記訓練サンプルxiに形状特徴を割り当てるものとする。
次に、図7を参照しながら、登録した物体を認識した後に入力画像から物体領域を切り出す際の処理の流れについて説明する。
図7は、本実施形態に係る画像処理装置10による照合手順の一例を示すフローチャートである。
まず、画像取得部100は、認識対象を撮像した画像を入力画像として取得する(S701)。そして、領域分割部110は画像取得部100で取得した入力画像を隣接した類似画素からなる複数の小領域に分割する(S702)。S701およびS702の処理は、それぞれ登録時の処理である図2のS201、S202に準じる。
次に、領域統合部120は、領域分割部110で分割した隣接する複数の小領域を統合する(S703)。以下、領域統合部120の処理内容について図8を用いて説明する。
図8(a)は、領域分割部110で入力画像を分割した結果の一例を示す図である。領域統合部120では、例えば、図8(a)に示す領域A0に対して隣接する領域A1を統合して一つの領域A01とする。この他、領域A0に領域A2を統合して一つの領域A02としたり、統合した領域A01に領域A2を統合して一つの領域A012としたりするなど、統合する小領域の数、統合後の領域のサイズに限定を設けて様々な組合せで領域を統合する。これらの統合した領域には、図8(b)に示すような、登録時に図4(b)で指定した物体領域に相当する領域も含まれる。
次に、候補領域取得部130は、領域分割部110で分割した小領域または領域統合部120で統合した領域から物体領域の候補となる領域を一つ取得する(S704)。このS704の処理は、登録時の処理である図2のS204に準じる。そして、画像特徴抽出部140は、候補領域取得部130で取得した物体領域から画像特徴を抽出し(S705)、形状特徴抽出部150は、候補領域取得部130で取得した物体領域の形状特徴を抽出する(S706)。このS705およびS706の処理は、それぞれ登録時の処理である図2のS205、S206に準じる。
次に、物体情報照合部180は、画像特徴抽出部140で抽出した画像特徴および形状特徴抽出部150で抽出した形状特徴を、物体情報記憶部170に記憶されている物体情報と照合する(S707)。抽出した画像特徴をzとし、物体情報記憶部170に記憶されている登録画像の画像特徴から得た物体情報xiおよびαiを用いて前記(3)式によって左辺の値Rz 2を得る。同様に、抽出した形状特徴と物体情報記憶部170に記憶されている登録画像の形状特徴から得た物体情報とから前記(3)式によって左辺の値Rz 2を得る。そして、求めた2つの値を夫々画像特徴の照合度Sg、形状特徴の照合度SSとして、以下の(5)式によって登録物体との照合度Sを得る。
Figure 2015099559
但し、wgおよびwSは適切な照合結果を得るための重み係数である。
次に、すべての候補領域について照合を終了したか否かを判定する(S708)。この判定の結果、まだ終了していない場合はS704に戻り、処理を繰り返す。一方、すべての候補領域について照合を終了した場合は、結果統合出力部190は、物体情報照合部180で照合した複数の結果を統合して出力する(S709)。具体的には、S707で求めた照合度Sのうち、所定の値以上かつ最も高い照合度に対応する候補領域を求める。そして、求めた候補領域のマスクデータを利用して物体領域を切り出し、出力する。
以上説明したように本実施形態によれば、登録画像の物体領域から抽出した画像特徴と入力画像の候補領域から抽出した画像特徴との照合を行うようにした。このとき、入力画像を分割した小領域または隣接する小領域を統合した領域を候補領域として複数照合を行うようにした。これにより、入力画像の候補領域の境界が物体境界と一致するときに照合時に背景画像の影響をなくすることができ、精度良く物体を検出することができる。また、候補領域のマスクデータを利用して検出時に物体領域を切り出すことができる。更に、マスクデータから形状特徴を抽出して、画像特徴だけでなく形状特徴も用いて照合できるので高精度に認識を行うことが可能である。また、本実施形態では、動画像から複数の画像データおよび物体領域を入力して物体情報を学習するので高精度に認識することが可能である。
(その他の実施形態)
前述した実施形態では、物体情報を学習する際のカーネル関数としてHIKを用いるようにしたが、その他のカーネル関数、例えばガウシアンカーネルを用いてもよいし、線形カーネルを用いてもよい。また、HIKや線形カーネルを用いる場合には、学習した物体情報として、そのまま境界サンプルとして判別した訓練サンプルでなく、訓練サンプルを集約した統計量を保存するようにしてもよい。この場合、物体情報照合処理において訓練サンプルごとのカーネル関数の計算((3)式右辺の第二項)を、統計量を用いての計算に置き換え可能となり、処理量が削減できる。
また、前述した実施形態では物体情報を学習する際に1クラス学習の一つであるSVDDを用いるようにしたが、SVM(Support Vector Machine)のような2クラス判別を行う学習方法を用いてもよい。この場合、登録時に物体領域として入力した領域以外の領域から画像特徴および形状特徴を抽出して学習するようにする。また、入力画像で照合処理を行った結果を用いて物体情報の追加学習を行うようにしてもよい。例えば、物体情報照合部180で求めた画像特徴の照合度が所定値以上のものをSVDDの訓練サンプルに追加して再学習を行う。同様にして形状特徴の照合度が所定値以上のものをSVDDの訓練サンプルに追加して再学習を行う。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 画像取得部
110 領域分割部
130 候補領域取得部
140 画像特徴抽出部
180 物体情報照合部
190 結果統合出力部

Claims (9)

  1. 物体を含む画像を取得する画像取得手段と、
    前記画像取得手段によって取得された画像を複数の小領域に分割する分割手段と、
    前記分割手段によって分割された小領域から、前記物体の領域の候補となる複数の候補領域を取得する候補領域取得手段と、
    前記候補領域取得手段によって取得された候補領域から特徴量を抽出する抽出手段と、
    前記抽出手段によって抽出された特徴量を、候補領域ごとに予め登録されている物体情報と照合する照合手段と、
    前記照合手段による照合結果を出力する出力手段とを備えることを特徴とする画像処理装置。
  2. 前記分割手段によって分割された隣接する複数の小領域を統合する統合手段をさらに備え、
    前記候補領域取得手段は、前記分割手段によって分割された小領域または前記統合手段によって統合された領域を候補領域とすることを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像取得手段によって取得された画像の物体領域を入力する入力手段と、
    前記入力手段によって入力された物体領域に基づいて前記物体情報を学習する学習手段とをさらに備え、
    前記抽出手段は、前記入力手段によって入力された物体領域から特徴量を抽出し、
    前記学習手段は、前記入力された物体領域から抽出された特徴量を用いて前記物体情報を学習することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記物体情報は、特徴量または該特徴量の統計量を含むことを特徴とする請求項3に記載の画像処理装置。
  5. 前記画像取得手段は、動画像から複数の画像を取得し、
    前記学習手段は、前記複数の画像を用いて学習することを特徴とする請求項3又は4に記載の画像処理装置。
  6. 前記抽出手段は、前記候補領域の画像特徴及び形状特徴を含む特徴量を抽出することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
  7. 前記物体情報を記憶する記憶手段をさらに備えることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
  8. 物体を含む画像を取得する画像取得工程と、
    前記画像取得工程において取得された画像を複数の小領域に分割する分割工程と、
    前記分割工程において分割された小領域から、前記物体の領域の候補となる複数の候補領域を取得する候補領域取得工程と、
    前記候補領域取得工程において取得された候補領域から特徴量を抽出する抽出工程と、
    前記抽出工程において抽出された特徴量を、候補領域ごとに予め登録されている物体情報と照合する照合工程と、
    前記照合工程による照合結果を出力する出力工程とを備えることを特徴とする画像処理方法。
  9. 物体を含む画像を取得する画像取得工程と、
    前記画像取得工程において取得された画像を複数の小領域に分割する分割工程と、
    前記分割工程において分割された小領域から、前記物体の領域の候補となる複数の候補領域を取得する候補領域取得工程と、
    前記候補領域取得工程において取得された候補領域から特徴量を抽出する抽出工程と、
    前記抽出工程において抽出された特徴量を、候補領域ごとに予め登録されている物体情報と照合する照合工程と、
    前記照合工程による照合結果を出力する出力工程とをコンピュータに実行させることを特徴とするプログラム。
JP2013240175A 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム Active JP6351240B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013240175A JP6351240B2 (ja) 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム
US14/533,394 US9934446B2 (en) 2013-11-20 2014-11-05 Object detecting apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013240175A JP6351240B2 (ja) 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015099559A true JP2015099559A (ja) 2015-05-28
JP6351240B2 JP6351240B2 (ja) 2018-07-04

Family

ID=53172923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013240175A Active JP6351240B2 (ja) 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9934446B2 (ja)
JP (1) JP6351240B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093266A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2019198701A1 (ja) * 2018-04-13 2019-10-17 日本電気株式会社 分析装置および分析方法
JP2021504796A (ja) * 2017-11-21 2021-02-15 ズークス インコーポレイテッド センサーデータセグメンテーション
WO2021176553A1 (ja) * 2020-03-03 2021-09-10 三菱電機株式会社 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
EP4198925A1 (en) 2021-12-16 2023-06-21 Canon Kabushiki Kaisha Image processing apparatus and method for controlling the same, and computer program

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6126437B2 (ja) 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6532190B2 (ja) 2014-03-26 2019-06-19 キヤノン株式会社 画像検索装置、画像検索方法
US9582890B2 (en) * 2014-05-19 2017-02-28 Ricoh Company, Ltd. Superpixel-based image segmentation using shading and albedo decomposition
CN105654094B (zh) * 2015-11-25 2019-11-29 小米科技有限责任公司 特征提取方法及装置
CN107923737B (zh) * 2015-12-13 2019-12-17 富通尼奥有限责任公司 用于超像素调制和环境光抑制的方法和设备
KR20180047367A (ko) 2016-10-31 2018-05-10 삼성전자주식회사 영상 처리 장치 및 방법
JP7085812B2 (ja) 2017-08-02 2022-06-17 キヤノン株式会社 画像処理装置およびその制御方法
JP6767432B2 (ja) * 2018-06-11 2020-10-14 ファナック株式会社 縫い目検査装置
KR20210007276A (ko) 2019-07-10 2021-01-20 삼성전자주식회사 영상 생성 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008018398A1 (fr) * 2006-08-10 2008-02-14 Nec Corporation dispositif d'extraction de région d'objet
JP2011100459A (ja) * 2010-11-10 2011-05-19 Olympus Corp 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体撮影装置
JP2012238119A (ja) * 2011-05-10 2012-12-06 Canon Inc 物体認識装置、物体認識装置の制御方法、およびプログラム
JP2013114596A (ja) * 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282846A (ja) * 2000-03-29 2001-10-12 Canon Inc 画像検索方法及び装置
KR100415266B1 (ko) * 2000-05-11 2004-01-16 가부시끼가이샤 도시바 물체영역정보 기술방법과 물체영역정보 생성장치 및 기록매체
JP4564634B2 (ja) * 2000-08-14 2010-10-20 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
KR100421221B1 (ko) * 2001-11-05 2004-03-02 삼성전자주식회사 조명에 강인한 객체 추적 방법 및 이를 응용한 영상 편집장치
JP4366318B2 (ja) * 2005-01-11 2009-11-18 キヤノン株式会社 画像処理装置及びその方法、プログラム
CN101491075B (zh) * 2006-07-07 2013-01-30 佳能株式会社 图像处理设备和图像处理方法
JP5077956B2 (ja) * 2008-04-23 2012-11-21 Kddi株式会社 情報端末装置
RU2395787C2 (ru) * 2008-05-19 2010-07-27 Государственный Научный Центр России "Государственное Научное Учреждение "Центральный Научно-Исследовательский И Опытно-Конструкторский Институт Робототехники И Технической Кибернетики"(Цнии Ртк) Способ обнаружения объектов
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
JP5366756B2 (ja) 2009-10-19 2013-12-11 キヤノン株式会社 情報処理装置及び情報処理方法
JP5675233B2 (ja) * 2010-09-09 2015-02-25 キヤノン株式会社 情報処理装置、その認識方法及びプログラム
JP5701005B2 (ja) * 2010-10-15 2015-04-15 キヤノン株式会社 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
JP5755012B2 (ja) * 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
JP5801601B2 (ja) * 2011-05-10 2015-10-28 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5907593B2 (ja) * 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US8577170B2 (en) * 2011-09-15 2013-11-05 Microsoft Corporation Shadow detection in a single image
JP5913940B2 (ja) * 2011-12-01 2016-05-11 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
GB2497516A (en) * 2011-12-05 2013-06-19 Univ Lincoln Generating training data for automation of image analysis
JP5836095B2 (ja) * 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
JP6192271B2 (ja) * 2012-08-22 2017-09-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9684959B2 (en) * 2012-08-24 2017-06-20 Agency For Science, Technology And Research Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation
US10248868B2 (en) * 2012-09-28 2019-04-02 Nec Corporation Information processing apparatus, information processing method, and information processing program
WO2014071060A2 (en) * 2012-10-31 2014-05-08 Environmental Systems Research Institute Scale-invariant superpixel region edges
JP6341650B2 (ja) * 2013-11-20 2018-06-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6255944B2 (ja) * 2013-11-27 2018-01-10 株式会社リコー 画像解析装置、画像解析方法及び画像解析プログラム
JP6232982B2 (ja) * 2013-12-02 2017-11-22 オムロン株式会社 画像処理装置、画像処理方法およびプログラム
US9430499B2 (en) * 2014-02-18 2016-08-30 Environmental Systems Research Institute, Inc. Automated feature extraction from imagery
JP6368149B2 (ja) * 2014-06-04 2018-08-01 キヤノン株式会社 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008018398A1 (fr) * 2006-08-10 2008-02-14 Nec Corporation dispositif d'extraction de région d'objet
JP2011100459A (ja) * 2010-11-10 2011-05-19 Olympus Corp 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体撮影装置
JP2012238119A (ja) * 2011-05-10 2012-12-06 Canon Inc 物体認識装置、物体認識装置の制御方法、およびプログラム
JP2013114596A (ja) * 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093266A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2021504796A (ja) * 2017-11-21 2021-02-15 ズークス インコーポレイテッド センサーデータセグメンテーション
US11798169B2 (en) 2017-11-21 2023-10-24 Zoox, Inc. Sensor data segmentation
JP7433227B2 (ja) 2017-11-21 2024-02-19 ズークス インコーポレイテッド センサーデータセグメンテーション
WO2019198701A1 (ja) * 2018-04-13 2019-10-17 日本電気株式会社 分析装置および分析方法
JPWO2019198701A1 (ja) * 2018-04-13 2021-05-13 日本電気株式会社 分析装置、分析方法、プログラムおよび水中生物監視システム
JP7006776B2 (ja) 2018-04-13 2022-01-24 日本電気株式会社 分析装置、分析方法、プログラムおよび水中生物監視システム
WO2021176553A1 (ja) * 2020-03-03 2021-09-10 三菱電機株式会社 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
JPWO2021176553A1 (ja) * 2020-03-03 2021-09-10
JP7199593B2 (ja) 2020-03-03 2023-01-05 三菱電機株式会社 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
EP4198925A1 (en) 2021-12-16 2023-06-21 Canon Kabushiki Kaisha Image processing apparatus and method for controlling the same, and computer program

Also Published As

Publication number Publication date
US20150138386A1 (en) 2015-05-21
US9934446B2 (en) 2018-04-03
JP6351240B2 (ja) 2018-07-04

Similar Documents

Publication Publication Date Title
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10726244B2 (en) Method and apparatus detecting a target
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
US9824294B2 (en) Saliency information acquisition device and saliency information acquisition method
KR101964397B1 (ko) 정보처리장치 및 정보처리방법
JP6112801B2 (ja) 画像認識装置及び画像認識方法
US8929595B2 (en) Dictionary creation using image similarity
US10706557B2 (en) Methods and systems for providing fast semantic proposals for image and video annotation
US20210133980A1 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
JP5366756B2 (ja) 情報処理装置及び情報処理方法
US20100014758A1 (en) Method for detecting particular object from image and apparatus thereof
US11450087B2 (en) System and method for multimedia analytic processing and display
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
US11380010B2 (en) Image processing device, image processing method, and image processing program
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
CN113361495A (zh) 人脸图像相似度的计算方法、装置、设备及存储介质
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
CN111160169A (zh) 人脸检测方法、装置、设备及计算机可读存储介质
JP5335554B2 (ja) 画像処理装置及び画像処理方法
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
CN114445916A (zh) 一种活体检测方法、终端设备及存储介质
Abraham et al. HOG descriptor based registration (A new image registration technique)
CN105760881A (zh) 基于Haar分类器方法的人脸建模检测方法
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180605

R151 Written notification of patent or utility model registration

Ref document number: 6351240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151