JP5385752B2 - 画像認識装置、その処理方法及びプログラム - Google Patents

画像認識装置、その処理方法及びプログラム Download PDF

Info

Publication number
JP5385752B2
JP5385752B2 JP2009241887A JP2009241887A JP5385752B2 JP 5385752 B2 JP5385752 B2 JP 5385752B2 JP 2009241887 A JP2009241887 A JP 2009241887A JP 2009241887 A JP2009241887 A JP 2009241887A JP 5385752 B2 JP5385752 B2 JP 5385752B2
Authority
JP
Japan
Prior art keywords
recognition
image data
image
area
negative case
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009241887A
Other languages
English (en)
Other versions
JP2011090413A (ja
Inventor
直嗣 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009241887A priority Critical patent/JP5385752B2/ja
Priority to US12/902,876 priority patent/US8643739B2/en
Publication of JP2011090413A publication Critical patent/JP2011090413A/ja
Application granted granted Critical
Publication of JP5385752B2 publication Critical patent/JP5385752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Description

本発明は、所定パターンを認識する画像認識装置、その処理方法及びプログラムに関する。
画像データ内の所定パターン(例えば、物体)を認識する技術(画像認識技術)が知られている。例えば、デジタルカメラにおいては、当該技術により認識した物体領域に露出やフォーカスを合わせる。また、例えば、パソコン機器においては、画像認識処理を実施し、自動的に画像を分類したり、画像を効果的に編集・補正したりする(非特許文献1及び2)。
このような技術では、正解パターンである正事例画像と不正解パターンである負事例画像とを学習用画像として複数用意し、これらのパターン判別に有用な画像特徴に基づいて機械学習し、正解パターンを認識するための辞書を生成する。
認識精度に影響を与える要因としては、パターン判別に用いる画像特徴と、機械学習に用いる学習用画像とが挙げられる。画像特徴については、認識対象に応じて有用な画像特徴が研究されている。例えば、認識対象が顔であれば、Haar−like特徴、認識対象が人体であれば、HOG(HistgramsOfOrientedGradients)特徴がそれぞれ有用な画像特徴であることが知られている。
学習用画像については、正事例画像及び負事例画像の数や種類を多くし、これにより、精度の向上を図っている。また、検出し難いパターンや間違って検出してしまうパターンが予め分かっている場合には、これらの画像を重点的に学習させることで、特定のパターンに対する精度を向上させている。
一方、これらの認識技術の応用として、非特許文献3では、機器内で機械学習用の画像(学習用画像)を自動的に収集し、その学習用画像を追加学習させる技術が開示されている。これにより、元の辞書を機器内で更新させ、辞書の精度の向上を実現している。
Viola and Jones, "Rapid Object Detection using Boosted Cascade of Simple Features", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01) Navneet Dalal and Bill Triggs, "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition. Vol.1, pp.886-893, 2005. Grabner and Bischof, "On-line Boosting and Vision", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'06) Nikunj C.Oza. and Stuart Russell. "Online Bagging and Boosting", Eighth International Workshop on Artificial Intelligence and Statistics, pp. 105-112, Morgan Kaufmann, Key West, Florida. USA, January 2001.
このような追加学習においては、学習用画像を機器内で自動収集させる。正事例画像については、非特許文献3に記載されるように、連続画像フレームに対して所望の物体を追尾させ、自動収集する方法が知られている。この方法では、所望の物体の向き・大きさ等の変動を含む学習用画像を効果的に収集させられるため、追加学習を行なう度にそれまで検出できなかった画像パターンが徐々に検出できるようになる。
これに対し、負事例画像については、単に、正事例画像以外の画像を収集するという方法が考えられる。しかし、この方法で収集できる負事例画像は、正事例ではないパターンということしかいえず、特に、類似するパターンだけを集中的に収集することはできない。このため、追加学習を行なったとしても、所望の物体と類似してはいるが、実際は正解でないパターンを誤って検出してしまうことがある。
そこで、本発明は、上記課題に鑑みてなされたものであり、学習用画像を収集する技術、特に、所定パターンとして誤認識し易い類似パターンを含む負事例画像を効率的に収集できるようにした技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様による画像認識装置は、所定パターンの認識に用いる辞書を記憶する記憶手段と、画像を撮像する撮像手段と、前記辞書を用いて認識処理を実施し、前記撮像手段を介して入力される画像データ内から前記所定パターンを含む尤度が所定の閾値以上の部分領域を認識結果として複数検出する認識手段と、前記画像データを表示するとともに、前記認識手段により検出された前記部分領域のうち尤度が最大の部分領域を示す情報を表示する表示手段と、前記情報の表示中に、ユーザによる撮影指示が検出されると、前記最も尤度の高い領域以外の前記部分領域負事例領域と判定し、前記ユーザによる撮影キャンセル指示が検出されると、前記最も尤度の高い部分領域を前記負事例領域と判定する判定手段と、前記判定手段により判定された前記負事例領域に基づいて学習用画像を生成する生成手段と、前記生成手段により生成された学習用画像に基づいて前記辞書を更新する更新手段とを具備することを特徴とする。
本発明によれば、特に、所定パターンとして誤認識し易い類似パターンを含む負事例画像を効率的に収集できる。
本実施形態に係わるデジタルカメラの構成の一例を示す図。 図1に示すデジタルカメラ10の動作の一例を示すフローチャート。 図1に示す表示操作部13における表示の一例を示す図。 図1に示す記憶部18に記憶される辞書の一例を示す図。 図2のS102に示す認識処理の流れの一例を示すフローチャート。 図5に示す認識処理時に行なわれる処理の概要の一例を示す図。 図2のS108に示す追加学習処理の流れの一例を示すフローチャート。 実施形態2に係わるデジタルカメラ10の動作の一例を示すフローチャート。 図1に示す表示操作部13における表示の一例を示す図。 実施形態3に係わるデジタルカメラ10の動作の一例を示すフローチャート。
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。なお、本実施形態においては、本発明の一実施の形態に係わる画像認識装置をデジタルカメラに適用した場合を例に挙げて説明する。
(実施形態1)
図1は、本実施形態に係わるデジタルカメラの構成の一例を示す図である。
デジタルカメラ10は、コンピュータを内蔵して構成される。コンピュータには、例えば、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶手段が具備される。また、コンピュータには、ネットワークカードや赤外線等の通信手段、ディスプレイ又はタッチパネル等の入出力手段、等が具備されていてもよい。なお、これら各構成手段は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
ここで、デジタルカメラ10は、機能的な構成として、画像撮像部11と、認識部12と、表示操作部13と、表示制御部14と、判定部15と、学習用画像生成部16と、辞書更新部17と、記憶部18とを具備して構成される。
ここで、画像撮像部11は、例えば、CCD(Charge-Coupled Devices)やCMOS(Complimentary Metal Oxide Semiconductor)等で実現され、画像を撮影する。認識部12は、画像撮像部11により撮影された画像データから所定パターン(本実施形態においては犬の顔とする)を認識する。なお、本実施形態においては、複数の局所領域における特徴量に基づいて所定パターンを認識する方式を採る場合を例に挙げて説明する。
表示操作部13は、ユーザからの指示を装置内に入力する機能を果たす入力手段と、ユーザに各種情報を表示する機能を果たす表示手段とを具備して構成される。本実施形態においては、表示操作部13がタッチパネルにより実現される場合を例に挙げて説明する。なお、表示操作部13は、必ずしもタッチパネルにより実現される必要はなく、例えば、ディスプレイや各種ボタン(十字キー、決定ボタン等)により実現されてもよい。
表示制御部14は、表示操作部(表示手段)13に各種画面を表示制御する。表示制御部14では、例えば、画像データを含む画面を表示するとともに、認識部12による認識結果に基づいて当該画像データ内で所定パターンとしての尤度の高い1又は複数の領域(部分領域)を矩形枠等で囲って表示する(後述する図3)。
判定部15は、表示操作部(入力手段)13を介したユーザによる指示入力に基づいて1又は複数の部分領域の中から負事例領域(不正解パターン)を判定する。学習用画像生成部16は、判定部15により負事例領域である旨判定された領域の画像に基づいて学習用画像を生成する。
記憶部18は、認識部12による認識処理時に使用される辞書や、正事例画像(正解パターン)を記憶する。辞書は、所定パターンを認識するために用いられる。辞書更新部17は、学習用画像生成部16により生成された学習用画像に基づいて辞書データを更新する。
次に、図2を用いて、図1に示すデジタルカメラ10の動作の一例について説明する。ここでは、トレーニングモード設定時の動作について説明する。トレーニングモードとは、辞書を更新するためのモードである。
デジタルカメラ10は、まず、画像撮像部11において、画像を撮影し、画像データを装置内に入力する(S101)。なお、画像データは、必ずしも撮影により入力される必要はなく、例えば、装置内に予め格納された画像データであってもよい。
画像データが入力されると、デジタルカメラ10は、認識部12において、認識処理を実施し、当該画像データ内から犬の顔を認識する(S102)。この認識は、記憶部18に記憶された犬認識用の辞書を用いて行なわれる。なお、認識処理の詳細については後述する。
認識処理が済むと、デジタルカメラ10は、表示制御部14において、画像撮像部11により撮影された画像データを表示操作部13(表示手段)上に表示する。このとき、S102における認識結果として、例えば、犬の顔を含む可能性のある領域(部分領域)を矩形枠で囲って表示操作部13(表示手段)上に表示する(S103)。また、表示制御部14は、認識結果の正否を示す指示入力をユーザに促すため、例えば、その旨を示すメッセージを表示する。なお、音声メッセージを用いて、指示入力をユーザに促してもよい(S104)。
ここで、表示操作部13(表示手段)には、例えば、図3に示す画面が表示される。図3の場合、認識結果として5つの矩形枠22〜26が表示されており、更に、認識結果の正否を示す指示入力をユーザに促す情報(メッセージ:認識物を正しく検出している枠をタッチして下さい)21が表示されている。なお、認識結果の正否を示す指示入力をユーザに促す情報は、メッセージではなく、例えば、アイコンやアニメーション等で表現されてもよい。
ここで、ユーザは、認識結果の正否を示す指示入力を行なう。本実施形態においては、正しく認識が行なわれた部分領域(矩形枠)をユーザが指示するものとする。ここで、ユーザは、正確に認識が行なわれている矩形枠(正事例領域)をタッチする。なお、表示操作部13がタッチパネルではなく、例えば、ディスプレイと、各種ボタン(十字キー、決定ボタン等)とで構成されている場合、ユーザは、十字キーでいずれかの部分領域を選択し、決定ボタンで正確に認識が行なわれている領域を選ぶ。このとき、操作性を向上させるため、例えば、選択中の矩形枠を他の矩形枠と色を変えて表示する等してもよい。
ユーザによる指示入力が行なわれると(S105でYES)、デジタルカメラ10は、判定部15において、当該指示入力に基づいて不正解パターンである部分領域(矩形枠)を負事例領域として判定する。すなわち、S105で指示されなかった矩形枠(部分領域22〜25)を負事例領域である旨判定する(S106)。ここで、図3に示す5つの部分領域22〜26は、S102の認識処理において、犬としての尤度が高いと判定された領域である。そのため、これら領域の中でユーザに正解である旨の入力指示を受けなかった4つの部分領域22〜25は、犬の顔としての尤度が高いが犬の顔ではない領域となる。これら4つの部分領域22〜25は、犬に形状や輪郭が類似するパターンであり、誤認識し易いパターンであるといえる。
負事例領域の判定が済むと、デジタルカメラ10は、学習用画像生成部16において、当該負事例領域の画像に基づいて学習用画像を生成する(S107)。例えば、図3の場合であれば、部分領域22〜25の画像に基づいて学習用画像を生成する。本実施形態においては、このように誤認識し易いパターンを負事例領域として判定し、その領域に基づいて学習用画像を生成する。なお、学習用画像は、サイズが決まっているため、学習用画像生成部16においては、画像データから負事例領域を抽出し、当該抽出した画像のサイズを正規化して学習用画像用のサイズに調整する。大量の学習用画像を効率的に生成するために、1つの学習用画像から角度、位置、サイズなどを微変動させた複数の変動画像を生成してもよい。この場合、学習用画像生成部16においては、負事例領域を抽出とともに、回転、拡大・縮小、アフィン変換等の画像処理を実施し、様々な画像変動を含む学習用画像を生成する。
学習用画像の生成が済むと、デジタルカメラ10は、辞書更新部17において、当該生成された学習用画像を用いて追加学習する。これにより、記憶部18に記憶された辞書データを更新する(S108)。なお、追加学習の詳細については後述する。
次に、図2のS102に示す認識処理の詳細について説明する。ここでは、認識処理の説明に先立ってまず、記憶部18に記憶される辞書について説明する。
辞書は、図4に示すように、その辞書データとして、「処理領域サイズ」と、「尤度閾値」と、「局所領域数」と、「局所領域位置」と、「尤度テーブル」とを有する。「処理領域サイズ」は、パターン認識を行なうために画像から抽出する部分領域(矩形状)の縦及び横の画素数を示す。「尤度閾値」は、部分領域の尤度を評価するのに用いられる閾値である。「局所領域数」は、部分領域内における局所領域の数を示す。局所領域各々は、「局所領域位置(局所領域の左上、右下の縦横座標)」、「尤度テーブル」、等の処理パラメータを持つ。「局所領域位置」は、部分領域内における局所領域の位置を示す。「尤度テーブル」は、所定の特徴量に対応する認識対象及び非認識対象の確率分布を保持する。なお、「尤度テーブル」に保持された値は、機械学習によって予め求められたものであり、追加学習により更新される。
ここで、図5を用いて、図2のS102に示す認識処理の流れの一例について説明する。なお、この処理は、主に、認識部12において実施される。
認識処理が開始すると、認識部12は、まず、記憶部18に記憶される犬認識用の辞書の辞書データを取得する(S201)。そして、図2のS101で入力された画像データ(入力画像データ)を所定の割合に縮小する(S202)。すなわち、入力画像データ内における所定パターンの大きさが種々想定されるため、画像データを所定の割合で縮小した縮小画像を複数生成する。これにより、抽出対象となる部分領域のサイズが、辞書データに規定される「処理領域サイズ(図4参照)」になるべく縮小する。
ここで、例えば、入力画像データのサイズが640×680画素であれば、その画像データに対して0.8倍の縮小を繰り返し行なう。640×480画素の画像データを512×384画素の画像データに縮小した後、当該縮小した512×384画素の画像データを更に410×307画素の画像データに縮小する。これを繰り返し、異なる大きさの画像データを複数生成する。例えば、図6に示すように、入力画像データ31を縮小した結果が画像データ32であり、更に、画像データ32を縮小した結果が画像データ33である。そして、部分領域34〜36は、画像データ各々における切り出し矩形を示している。部分領域は、図中37の矢印に示すように、例えば、画像データ内の左上から右下に向けて順番に走査して探索される。このように認識部12においては、各縮小画像データ内を走査してパターン認識を行なう。これにより、所定パターン(犬の顔)がどのような大きさであっても認識が行なえる。
縮小した複数の画像データが生成されると、認識部12は、当該複数の画像データから部分領域を抽出する(S203)。このとき、認識部12は、所定パターンを認識するため、抽出した部分領域の特徴量を求める(S204)。この処理では、まず、S201で取得した辞書データ内の「局所領域の位置」に基づき各局所領域内の特徴量を算出する。特徴量は、公知のHaar−like特徴や方向ヒストグラムなどを用いればよい。
特徴量の算出が済むと、認識部12は、S201で取得した辞書データ内の「尤度テーブル」を参照し、S204で算出した特徴量の値に対応する尤度を算出する(S205)。ここで、ある局所領域内の特徴量の値がfであれば、その局所領域が認識物体(所定パターン)の一部である確率をPr(f|I)、非認識物体の一部である確率をPr(f|I)とする。これらの確率Pr(f|I)及びPr(f|I)は、大量の学習用画像を機械学習することにより予め求めておく。局所領域内の尤度Cは、式(1)のように定義される。すなわち、確率Pr(f|I)と確率Pr(f|I)との比率を算出し、その対数を尤度Cとする。
Figure 0005385752
局所領域内の尤度を算出するため、「尤度テーブル」は、上記(式1)のCk+(f)の値とCk−(f)の値とを参照できる構成としておく。つまり、事前の機械学習により、Pr(f|I)、Pr(f|I)を求めておき、これらの対数を求めた値が「尤度テーブル」に保持されていればよい。
部分領域の尤度は、当該領域内における局所領域の尤度の総和となる。すなわち、最終的な認識物体としての尤度Cは、以下の式(2)で求められる。
Figure 0005385752
次に、認識部12は、部分領域の尤度に基づいて、以下に示す条件を満たす部分領域を認識結果として複数検出する。一般的な認識処理では、所定の閾値に対してその閾値以上の尤度を持つ部分領域を認識結果として検出する。そのため、仮に、所定の閾値を超える尤度を持つ部分領域がなかった場合には、認識結果は0個となる。これに対して、本実施形態においては、必ず1個以上の部分領域を検出できるようにする。そこで、認識部12では、まず、S205で算出した尤度に基づき各部分領域を尤度の大きい順番に並べ変え、尤度が最大となる部分領域から所定個数分の部分領域を認識結果として検出する。これにより、1又は複数の部分領域が必ず検出されることになる(S206)。なお、図6に示す縮小画像データ32及び33から取得された部分領域は、位置座標が縮小画像の座標系となっているため、縮小率の逆数をその座標値にかけ、オリジナル画像における座標値に変換する。
次に、図7を用いて、図2のS108に示す追加学習処理の流れの一例について説明する。追加学習には、例えば、非特許文献3及び非特許文献4に提案されている方法を用いればよい。なお、この処理は、主に、辞書更新部17において実施される。
追加学習処理が開始すると、辞書更新部17には、学習用画像生成部16により生成された負事例画像を学習用画像として取得する(S301)。すなわち、図2のS107の処理で生成された画像を取得する。そして、当該取得した負事例画像と、記憶部18に記憶された正事例画像とから特徴量を算出する(S302)。この処理では、図4に示す辞書データ内の局所領域全てについて特徴量を算出する。
次に、辞書更新部17は、当該算出した特徴量に基づき、図5のS204の処理で説明した確率分布(Pr(f|I)、Pr(f|I))を更新する(S303)。この更新により、各局所領域の判別性能が変化する。そのため、辞書更新部17は、各局所領域の判別性能を評価し直し、最適な性能になるよう再度、学習処理を行なう。これにより、辞書を更新する(S304)。この学習処理は、公知の手法を用いればよい。例えば、非特許文献4には、更新された確率分布と学習用画像とに基づき局所領域に対する重みも含めた性能評価を行なう技術について言及されている。
なお、辞書の更新とは、例えば、図4に示す辞書データのうち、局所領域情報(局所領域位置、尤度テーブル)の並びを判別性能が良い順番に並び替え、更に、S303の確率分布の更新に従って尤度テーブルを更新することである。
以上説明したように実施形態1によれば、複数の認識結果(部分領域)を検出し、当該認識結果に対するユーザの入力指示に基づいて不正解パターンである認識結果(負事例領域)を判定する。そして、当該負事例領域に基づいて生成した学習用画像を用いて追加学習を行なう。すなわち、認識対象となる所定パターンによく似た形状や輪郭を含む画像を負事例画像として効果的に収集し、当該収集した負事例画像に基づいて追加学習を行なう。これにより、認識精度を向上させることができる。
(実施形態2)
次に、実施形態2について説明する。実施形態1においては、トレーニングモードを設定し、そのモード時に上述した処理を行なう場合について説明したが、実施形態2においては、通常の撮影モード時に上述した処理を行なう場合について説明する。なお、実施形態2に係わるデジタルカメラ10の構成は、実施形態1を説明した図1と同一であるため、ここでは、その説明については省略する。
図8は、実施形態2に係わるデジタルカメラ10における動作の一例を示すフローチャートである。
デジタルカメラ10は、まず、画像撮像部11を介して画像データを装置内に入力する(S401)。画像データが入力されると、デジタルカメラ10は、認識部12において、当該画像データ内から犬の顔を認識する(S402)。なお、この認識では、実施形態1同様の処理が行なわれる。
認識処理が済むと、デジタルカメラ10は、表示制御部14において、画像撮像部11を介して入力された画像データを表示操作部13(表示手段)上に表示する。このとき、S402における認識結果として、例えば、犬の顔を含む可能性のある領域(部分領域)を矩形枠で囲って表示操作部13(表示手段)上に表示する(S403)。このとき、実施形態1とは異なり、図9に示すように、S402の認識処理により検出された部分領域の内、尤度が最大の領域27を1つ矩形枠で囲って表示する。このとき、デジタルカメラ10内部では、認識処理により検出された複数の部分領域の位置情報を保持しておく。例えば、S402の認識処理の結果、図3の部分領域22〜26が検出され、その中で部分領域26の尤度が最大であれば、当該領域に対してのみ矩形枠を表示し、残りの領域については位置情報を保持する。
ここで、デジタルカメラ10は、ユーザがシャッターボタンを押下したか否か(又はキャンセルボタンの押下)を検出する。シャッターボタンの押下を検出した場合(S404でYES)、デジタルカメラ10は、判定部15において、表示中の矩形枠に対応する部分領域を正事例領域と判定する。また、それ以外の部分領域(矩形枠非表示)を負事例領域と判定する(S405)。ここで、ユーザが、シャッターボタンを押下する場合とは、表示中の矩形枠に対応する部分領域が正解パターン(正事例領域)であることを意味する場合が多い。そのため、その領域以外の部分領域が不正解パターンであることが分かり、これらの領域を負事例領域として判定する。
また、ユーザによるシャッターボタンの押下が検出されない場合又はキャンセルボタンの押下が検出された場合(S404でNO)、デジタルカメラ10は、判定部15において、表示中の矩形枠に対応する部分領域を不正解領域として判定する(S406)。
その後、デジタルカメラ10は、実施形態1同様に、学習用画像生成部16において、当該負事例領域の画像に基づいて学習用画像を生成し(S407)、辞書更新部17において、当該生成された学習用画像を用いて追加学習を行なう。これにより、記憶部18に記憶された辞書を更新する(S408)。
以上説明したように実施形態2においては、通常の撮影モード時におけるユーザの指示入力に応じて負事例領域を判定する。このため、追加学習するためにモードを切り替えずに、学習用画像(正事例画像、負事例画像)を収集できる。
(実施形態3)
次に、実施形態3について説明する。実施形態3においては、動画像データに応用した場合について説明する。なお、実施形態3に係わるデジタルカメラ10の構成は、実施形態1を説明した図1と同一であるため、ここでは、その説明については省略する。
図10は、実施形態3に係わるデジタルカメラ10における動作の一例を示すフローチャートである。ここでは、トレーニングモード設定時の動作について説明する。トレーニングモードとは、辞書を更新するためのモードである。
デジタルカメラ10は、まず、画像撮像部11において、動画像データを装置内に入力する(S501)。動画像データ(時間的に連続する複数の画像データ)が入力されると、デジタルカメラ10は、認識部12において、動画像データの先頭フレームに対して、実施形態1同様の認識処理を実行する(S502)。そして、実施形態1を説明した図2におけるS103〜S107の処理を、当該先頭フレームに対して実施し、学習用画像を生成する(S503〜S507)。ここで、生成した学習用画像は、以降の処理で使用するため、例えば、RAM等に保持する。
ここで、デジタルカメラ10は、次フレームに処理を進める。具体的には、デジタルカメラ10は、次フレーム(以下、現フレーム)を取得し(S508)、前フレームで検出された負事例領域の追尾処理を行なう(S509)。これにより、現フレームにおいて、前フレームの負事例領域に対応する領域の位置を取得する。追尾処理については、公知の技術を用いればよいため、ここでは、詳細な説明については省略する。例えば、特開平5−298591号公報に記載されるパターンマッチング手法や、また、特開2003−44860号公報に記載される特徴点の動きベクトルを検出する手法等を用いればよい。
次に、デジタルカメラ10は、追尾した負事例領域に基づいて、実施形態1同様の方法で学習用画像を生成する(S510)。ここで、生成した学習用画像は、以降の処理で使用するため、例えば、RAM等に保持する。
その後、デジタルカメラ10は、現フレームが最終フレームであるか否か判定する。最終フレームでなければ(S511でNO)、再度、S508の処理に戻り、最終フレームになるまで上述した処理を繰り返す。最終フレームであれば(S511でYES)、デジタルカメラ10は、S507及びS510の処理でRAM等に保持した学習用画像を用いて、実施形態1同様の方法で追加学習を行なう(S512)。
以上説明したように実施形態3によれば、ユーザに指示された負事例領域を、時間的に連続するフレームで追尾する。これにより、動画像データにおける各フレームの負事例領域を取得できる。そのため、負事例領域に基づく大量の学習用画像を効率的に収集できる。
なお、実施形態3においては、負事例領域を追尾処理し、それにより、負事例領域に基づく学習用画像を収集する場合を例に挙げて説明したが、これに限られない。例えば、正事例領域に対しても同様に処理できる。
また、図10のS502の処理においては、動画像データの先頭フレームに対して認識処理を行なっているが、これに限られない。例えば、動画像データの任意のフレームに対して認識処理を行なうようにしてもよい。この場合、S508の処理において、時間的に後方に連続するフレームを取得してもよいし、時間的に前に連続するフレームを取得してもよい。
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
例えば、実施形態1〜3においては、記憶部18に記憶されている辞書の数については言及していないが、辞書は、1つであっても複数であってもよい。例えば、別のパターンを認識するための複数の辞書が記憶されていてもよい。その場合、複数の辞書の内の1つをユーザに選択させる手段等を設け、動作中の辞書をユーザに認識させる必要がある。
また、実施形態1〜3においては、正事例画像に基づく追加学習は、記憶部18に予め記憶された正事例画像を用いていたが、これに限られない。正事例画像の場合にも、負事例画像同様に、ユーザの指示に基づいて正事例領域を検出し、当該検出した正事例領域に基づいて追加学習を行なうようにしてもよい。
また、実施形態1〜3においては、正事例領域をユーザに指示させる場合を例に挙げて説明したが、これに限られず、負事例領域をユーザに指示させるようにしてもよい。この場合、当該指示された負事例領域に基づいて学習用画像を生成し、当該画像に基づいて辞書を更新すればよい。
また、実施形態1〜3においては、認識処理による認識結果(部分領域)を示す情報として、当該領域を矩形枠で囲う場合を例に挙げて説明したが、これに限られない。例えば、矢印や丸枠等で部分領域を指し示してもよい。
また、上述した実施形態2及び3を組み合わせて実施してもよい。すなわち、動画撮影モード時に、上述した実施形態3で説明した処理を実施するようにしてもよい。この場合、シャッターボタンの押下を検出する代わりに、動画撮影開始ボタンの押下を検出するように構成すればよい。
なお、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (6)

  1. 所定パターンの認識に用いる辞書を記憶する記憶手段と、
    画像を撮像する撮像手段と、
    前記辞書を用いて認識処理を実施し、前記撮像手段を介して入力される画像データ内から前記所定パターンを含む尤度が所定の閾値以上の部分領域を認識結果として複数検出する認識手段と、
    前記画像データを表示するとともに、前記認識手段により検出された前記部分領域のうち尤度が最大の部分領域を示す情報を表示する表示手段と、
    前記情報の表示中に、ユーザによる撮影指示が検出されると、前記最も尤度の高い領域以外の前記部分領域負事例領域と判定し、前記ユーザによる撮影キャンセル指示が検出されると、前記最も尤度の高い部分領域を前記負事例領域と判定する判定手段と、
    前記判定手段により判定された前記負事例領域に基づいて学習用画像を生成する生成手段と、
    前記生成手段により生成された学習用画像に基づいて前記辞書を更新する更新手段と
    を具備することを特徴とする画像認識装置。
  2. 所定パターンの認識に用いる辞書を記憶する記憶手段と、
    時間的に連続する複数の画像データの内の少なくとも1つに対して前記辞書を用いて認識処理を実施し、前記所定パターンを含む尤度が所定の閾値以上の部分領域を認識結果として複数検出する認識手段と、
    前記画像データを表示するとともに、前記認識手段により検出された前記部分領域を示す情報を表示する表示手段と、
    前記情報の表示中に、ユーザによる入力により指示された領域以外の前記部分領域を前記負事例領域として判定するとともに、前記時間的に連続する複数の画像データの内、前記認識処理された画像データと時間的に連続する画像データ内の前記負事例領域を追尾して該画像データ内における前記負事例領域を判定する判定手段と、
    前記判定手段により前記時間的に連続する複数の画像データから判定された前記負事例領域に基づいて前記学習用画像を生成する生成手段と、
    前記生成手段により生成された学習用画像に基づいて前記辞書を更新する更新手段と
    を具備することを特徴とする画像認識装置。
  3. 画像認識装置における処理方法であって、
    撮像手段が、画像を撮像する工程と、
    認識手段が、所定パターンの認識に用いる辞書を用いて認識処理を実施し、前記撮像手段を介して入力される画像データ内から前記所定パターンを含む尤度が所定の閾値以上の部分領域を認識結果として複数検出する工程と、
    表示手段が、前記画像データを表示するとともに、前記認識手段により検出された前記部分領域のうち尤度が最大の部分領域を示す情報を表示する工程と、
    判定手段が、前記情報の表示中に、ユーザによる撮影指示が検出されると、前記最も尤度の高い領域以外の前記部分領域負事例領域と判定し、前記ユーザによる撮影キャンセル指示が検出されると、前記最も尤度の高い部分領域を前記負事例領域と判定する工程と、
    生成手段が、前記判定手段により判定された前記負事例領域に基づいて学習用画像を生成する工程と、
    更新手段が、前記生成手段により生成された学習用画像に基づいて前記辞書を更新する工程と
    を含むことを特徴とする処理方法。
  4. コンピュータを、
    所定パターンの認識に用いる辞書を記憶する記憶手段、
    画像を撮像する撮像手段、
    前記辞書を用いて認識処理を実施し、前記撮像手段を介して入力される画像データ内から前記所定パターンを含む尤度が所定の閾値以上の部分領域を認識結果として複数検出する認識手段、
    前記画像データを表示するとともに、前記認識手段により検出された前記部分領域のうち尤度が最大の部分領域を示す情報を表示する表示手段、
    前記情報の表示中に、ユーザによる撮影指示が検出されると、前記最も尤度の高い領域以外の前記部分領域負事例領域と判定し、前記ユーザによる撮影キャンセル指示が検出されると、前記最も尤度の高い部分領域を前記負事例領域と判定する判定手段、
    前記判定手段により判定された前記負事例領域に基づいて学習用画像を生成する生成手段、
    前記生成手段により生成された学習用画像に基づいて前記辞書を更新する更新手段
    として機能させるためのプログラム。
  5. 画像認識装置における処理方法であって、
    認識手段が、時間的に連続する複数の画像データの内の少なくとも1つに対して所定パターンの認識に用いる辞書を用いて認識処理を実施し、前記所定パターンを含む尤度が所定の閾値以上の部分領域を認識結果として複数検出する工程と、
    表示手段が、前記画像データを表示するとともに、前記認識手段により検出された前記部分領域を示す情報を表示する工程と、
    判定手段が、前記情報の表示中に、ユーザによる入力により指示された領域以外の前記部分領域を前記負事例領域として判定するとともに、前記時間的に連続する複数の画像データの内、前記認識処理された画像データと時間的に連続する画像データ内の前記負事例領域を追尾して該画像データ内における前記負事例領域を判定する工程と、
    生成手段が、前記判定手段により前記時間的に連続する複数の画像データから判定された前記負事例領域に基づいて前記学習用画像を生成する工程と、
    更新手段が、前記生成手段により生成された学習用画像に基づいて前記辞書を更新する工程と
    を含むことを特徴とする処理方法。
  6. コンピュータを、
    所定パターンの認識に用いる辞書を記憶する記憶手段、
    時間的に連続する複数の画像データの内の少なくとも1つに対して前記辞書を用いて認識処理を実施し、前記所定パターンを含む尤度が所定の閾値以上の部分領域を認識結果として複数検出する認識手段、
    前記画像データを表示するとともに、前記認識手段により検出された前記部分領域を示す情報を表示する表示手段、
    前記情報の表示中に、ユーザによる入力により指示された領域以外の前記部分領域を前記負事例領域として判定するとともに、前記時間的に連続する複数の画像データの内、前記認識処理された画像データと時間的に連続する画像データ内の前記負事例領域を追尾して該画像データ内における前記負事例領域を判定する判定手段、
    前記判定手段により前記時間的に連続する複数の画像データから判定された前記負事例領域に基づいて前記学習用画像を生成する生成手段、
    前記生成手段により生成された学習用画像に基づいて前記辞書を更新する更新手段、
    として機能させるためのプログラム。
JP2009241887A 2009-10-20 2009-10-20 画像認識装置、その処理方法及びプログラム Active JP5385752B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009241887A JP5385752B2 (ja) 2009-10-20 2009-10-20 画像認識装置、その処理方法及びプログラム
US12/902,876 US8643739B2 (en) 2009-10-20 2010-10-12 Image recognition apparatus, processing method thereof, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009241887A JP5385752B2 (ja) 2009-10-20 2009-10-20 画像認識装置、その処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011090413A JP2011090413A (ja) 2011-05-06
JP5385752B2 true JP5385752B2 (ja) 2014-01-08

Family

ID=43879002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009241887A Active JP5385752B2 (ja) 2009-10-20 2009-10-20 画像認識装置、その処理方法及びプログラム

Country Status (2)

Country Link
US (1) US8643739B2 (ja)
JP (1) JP5385752B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102890785A (zh) * 2011-07-19 2013-01-23 上海上大海润信息系统有限公司 一种服务机器人目标识别与定位的方法
JP5907593B2 (ja) 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
CN102436584B (zh) * 2011-11-04 2013-09-25 西安电子科技大学 基于字典学习的胃部ct图像感兴趣区域检测系统
JP5880454B2 (ja) * 2013-01-11 2016-03-09 富士ゼロックス株式会社 画像識別装置及びプログラム
JP2014215877A (ja) * 2013-04-26 2014-11-17 株式会社デンソー 物体検出装置
JP5794255B2 (ja) * 2013-05-21 2015-10-14 株式会社デンソー 物体検出装置
US9679224B2 (en) * 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
JP6613687B2 (ja) * 2015-07-30 2019-12-04 株式会社リコー 画像処理装置、画像処理方法及びプログラム
US9727800B2 (en) * 2015-09-25 2017-08-08 Qualcomm Incorporated Optimized object detection
JP2019505149A (ja) * 2015-11-17 2019-02-21 バヤニ, エマンBAYANI, Eman デジタル画像撮影装置システム及び方法
US10963063B2 (en) * 2015-12-18 2021-03-30 Sony Corporation Information processing apparatus, information processing method, and program
JP6639523B2 (ja) * 2015-12-22 2020-02-05 オリンパス株式会社 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
TWI628601B (zh) * 2016-05-11 2018-07-01 國立高雄應用科技大學 人臉影像處理方法及其系統
JP6912890B2 (ja) * 2017-01-13 2021-08-04 キヤノン株式会社 情報処理装置、情報処理方法、システム
JP6830656B2 (ja) * 2017-03-30 2021-02-17 株式会社エクォス・リサーチ 対象物判定装置および対象物判定プログラム
JP6857537B2 (ja) * 2017-04-11 2021-04-14 株式会社Nttドコモ 情報処理装置
JP6936957B2 (ja) * 2017-11-07 2021-09-22 オムロン株式会社 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム
US10607108B2 (en) 2018-04-30 2020-03-31 International Business Machines Corporation Techniques for example-based affine registration
CN109409319A (zh) * 2018-11-07 2019-03-01 北京旷视科技有限公司 一种宠物图像美化方法、装置及其存储介质
CN109274891B (zh) * 2018-11-07 2021-06-22 北京旷视科技有限公司 一种图像处理方法、装置及其存储介质
CN111488759A (zh) * 2019-01-25 2020-08-04 北京字节跳动网络技术有限公司 动物脸部的图像处理方法和装置
JP7262232B2 (ja) * 2019-01-29 2023-04-21 東京エレクトロン株式会社 画像認識システムおよび画像認識方法
CN110472728B (zh) * 2019-07-30 2023-05-23 腾讯科技(深圳)有限公司 目标信息确定方法、目标信息确定装置、介质及电子设备
JP6995258B2 (ja) * 2019-12-05 2022-01-14 三菱電機株式会社 レーダ信号処理器、レーダセンサシステム及び信号処理方法
JP2023163443A (ja) * 2022-04-28 2023-11-10 キヤノン株式会社 画像処理装置、撮像装置及びそれらの制御方法

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475766A (en) * 1991-09-05 1995-12-12 Kabushiki Kaisha Toshiba Pattern inspection apparatus with corner rounding of reference pattern data
EP0567059B1 (en) * 1992-04-24 1998-12-02 Hitachi, Ltd. Object recognition system using image processing
JP3200950B2 (ja) 1992-04-24 2001-08-20 株式会社日立製作所 物体認識装置
JPH1011292A (ja) * 1996-06-25 1998-01-16 Fuji Xerox Co Ltd 知識発見システム
US6421463B1 (en) * 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
US5969753A (en) * 1998-04-24 1999-10-19 Medar, Inc. Method and system for detecting errors in a sample image
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
WO2001071663A1 (fr) * 2000-03-23 2001-09-27 Japan Science And Technology Corporation Methode d'extraction de lignee cellulaire
US6804391B1 (en) * 2000-11-22 2004-10-12 Microsoft Corporation Pattern detection methods and systems, and face detection methods and systems
US6931596B2 (en) * 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
JP2003044860A (ja) 2001-08-01 2003-02-14 Nippon Hoso Kyokai <Nhk> 映像オブジェクト追跡装置
AUPR824401A0 (en) * 2001-10-15 2001-11-08 Silverbrook Research Pty. Ltd. Methods and systems (npw002)
WO2003070102A2 (en) * 2002-02-15 2003-08-28 The Regents Of The University Of Michigan Lung nodule detection and classification
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
GB2395853A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Association of metadata derived from facial images
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images
US6956469B2 (en) * 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
EP1658579B1 (en) * 2003-08-15 2016-09-28 Scape A/S Method for for classification and spatial localization of bounded 3d-objects
US20050195076A1 (en) * 2004-02-05 2005-09-08 Caretouch Communications, Inc. Intelligent message delivery system
JP4373828B2 (ja) * 2004-03-22 2009-11-25 富士フイルム株式会社 特定領域検出方法、特定領域検出装置、およびプログラム
JP3834041B2 (ja) * 2004-03-31 2006-10-18 オリンパス株式会社 学習型分類装置及び学習型分類方法
JP2006031440A (ja) * 2004-07-16 2006-02-02 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置、画像処理プログラム及び画像処理システム
US7561740B2 (en) * 2004-12-10 2009-07-14 Fuji Xerox Co., Ltd. Systems and methods for automatic graphical sequence completion
US7980707B2 (en) * 2005-03-17 2011-07-19 Patrick Murphy Audience scanning laser display projector and associated methods
JP2006301779A (ja) * 2005-04-18 2006-11-02 Konica Minolta Photo Imaging Inc 画像処理システム、画像処理方法及び画像処理プログラム
US8306284B2 (en) * 2005-07-18 2012-11-06 Hysterical Sunset Limited Manually-assisted automated indexing of images using facial recognition
JP2007066010A (ja) * 2005-08-31 2007-03-15 Fujifilm Corp 判別器学習方法および対象判別装置ならびにプログラム
JP2007094633A (ja) * 2005-09-28 2007-04-12 Fujifilm Corp 顔検出装置ならびにプログラム
US7889892B2 (en) * 2005-10-13 2011-02-15 Fujifilm Corporation Face detecting method, and system and program for the methods
US20100171826A1 (en) * 2006-04-12 2010-07-08 Store Eyes, Inc. Method for measuring retail display and compliance
JP4757116B2 (ja) * 2006-06-30 2011-08-24 キヤノン株式会社 パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム
DE102006031937A1 (de) * 2006-07-06 2008-01-10 Friedrich-Schiller-Universität Jena Verfahren und Vorrichtung zur Bewertung eines Bildes und/oder einer zeitlichen Bildsequenz von Gewebe oder Gewebeproben
DE102006043910B4 (de) * 2006-09-19 2010-02-25 Siemens Ag Ergebnisfilter und Verfahren zur Selektion der Ergebnisdaten einer Applikation zur automatischen Mustererkennung
JP4305672B2 (ja) * 2006-11-21 2009-07-29 ソニー株式会社 個人識別装置、個人識別方法、識別用辞書データの更新方法および識別用辞書データの更新プログラム
JP4884251B2 (ja) * 2007-02-09 2012-02-29 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP4389956B2 (ja) * 2007-04-04 2009-12-24 ソニー株式会社 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法
JP4772756B2 (ja) * 2007-06-29 2011-09-14 オリンパス株式会社 撮像装置及び撮像プログラム
WO2009004901A1 (ja) * 2007-06-29 2009-01-08 Olympus Corporation 顔検出装置、デジタルカメラ及び顔検出プログラム
JP4853425B2 (ja) * 2007-08-14 2012-01-11 ソニー株式会社 撮像装置、撮像方法およびプログラム
JP5383017B2 (ja) * 2007-09-04 2014-01-08 ヤフー株式会社 Webページに対して適合する画像を提示するシステム
US8116533B2 (en) * 2007-12-05 2012-02-14 Burroughs Payment Systems, Inc. Operator interactive document image processing system
US8160309B1 (en) * 2007-12-21 2012-04-17 Csr Technology Inc. Method, apparatus, and system for object recognition and classification
CA2711143C (en) * 2007-12-31 2015-12-08 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
KR101592889B1 (ko) * 2008-03-03 2016-02-11 아비길론 페이턴트 홀딩 2 코포레이션 트래킹, 인덱싱 및 서치를 위한 물체 매칭 방법 및 장치
JP5138431B2 (ja) * 2008-03-17 2013-02-06 富士フイルム株式会社 画像解析装置および方法並びにプログラム
US8666198B2 (en) * 2008-03-20 2014-03-04 Facebook, Inc. Relationship mapping employing multi-dimensional context including facial recognition
US8855360B2 (en) * 2008-07-23 2014-10-07 Qualcomm Technologies, Inc. System and method for face tracking
US8238604B2 (en) * 2008-08-18 2012-08-07 Kabushiki Kaisha Toshiba System and method for validation of face detection in electronic images
US8548257B2 (en) * 2009-01-05 2013-10-01 Apple Inc. Distinguishing between faces and non-faces

Also Published As

Publication number Publication date
JP2011090413A (ja) 2011-05-06
US8643739B2 (en) 2014-02-04
US20110090359A1 (en) 2011-04-21

Similar Documents

Publication Publication Date Title
JP5385752B2 (ja) 画像認識装置、その処理方法及びプログラム
JP5675233B2 (ja) 情報処理装置、その認識方法及びプログラム
US9036917B2 (en) Image recognition based on patterns of local regions
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4929109B2 (ja) ジェスチャ認識装置及びその方法
JP5662670B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP5366756B2 (ja) 情報処理装置及び情報処理方法
CN110348270B (zh) 影像物件辨识方法与影像物件辨识系统
US20110211233A1 (en) Image processing device, image processing method and computer program
CN108810406B (zh) 人像光效处理方法、装置、终端及计算机可读存储介质
JP6639523B2 (ja) 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
JP5235691B2 (ja) 情報処理装置及び情報処理方法
JP2009211311A (ja) 画像処理装置及び方法
JP2007034723A (ja) 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
JP5578816B2 (ja) 画像処理装置
US11842569B2 (en) Eye state detection-based image processing method and apparatus, and storage medium
WO2017096861A1 (zh) 拍摄照片的方法及装置
CN111242074A (zh) 一种基于图像处理的证件照背景替换方法
JP5523053B2 (ja) 物体識別装置及び物体識別方法
JP2005149370A (ja) 画像撮影装置、個人認証装置及び画像撮影方法
JP2005134966A (ja) 顔画像候補領域検索方法及び検索システム並びに検索プログラム
KR20130098675A (ko) 얼굴 검출 처리 회로 및 이를 포함하는 촬상 장치
JP4789526B2 (ja) 画像処理装置、画像処理方法
JP4781248B2 (ja) 撮像装置、撮像装置の制御方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131004

R151 Written notification of patent or utility model registration

Ref document number: 5385752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151