JP2009116400A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2009116400A
JP2009116400A JP2007285401A JP2007285401A JP2009116400A JP 2009116400 A JP2009116400 A JP 2009116400A JP 2007285401 A JP2007285401 A JP 2007285401A JP 2007285401 A JP2007285401 A JP 2007285401A JP 2009116400 A JP2009116400 A JP 2009116400A
Authority
JP
Japan
Prior art keywords
processing
weak
data
weak classifiers
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007285401A
Other languages
Japanese (ja)
Other versions
JP5101993B2 (en
JP2009116400A5 (en
Inventor
Masami Kato
政美 加藤
Takahisa Yamamoto
貴久 山本
Yoshinori Ito
嘉則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007285401A priority Critical patent/JP5101993B2/en
Priority to PCT/JP2008/070158 priority patent/WO2009057815A1/en
Priority to US12/682,028 priority patent/US8655057B2/en
Priority to CN2008801136711A priority patent/CN101842809B/en
Publication of JP2009116400A publication Critical patent/JP2009116400A/en
Publication of JP2009116400A5 publication Critical patent/JP2009116400A5/ja
Application granted granted Critical
Publication of JP5101993B2 publication Critical patent/JP5101993B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To flexibly change a combination between extraction processing speed and extraction accuracy when extracting a specific object from image data by use of a plurality of weak discriminators connected in cascade. <P>SOLUTION: An information processor for processing the data by use of the weak discriminators connected in cascade includes: a ROM (Read Only Memory) 205 storing information for prescribing processing contents of each of the plurality of weak discriminators; a means 201 selecting the weak discriminator to be used for the processing of the data from the plurality of weak discriminators by referring to a table prescribed with information for determining the weak discriminator to be used among the plurality of weak discriminators; and a means 203 extracting the object from the data by use of an evaluation value of the weak discriminator obtained by processing the data based on the information for prescribing the processing contents corresponding to the selected weak discriminator. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カスケードに接続される複数の弱判別器を用いてデータを処理する情報処理技術に関するものである。   The present invention relates to an information processing technique for processing data using a plurality of weak classifiers connected in cascade.

近年、画像データから人物の顔等の特定オブジェクトを抽出する様々な手法が提案され、実用に供されている。   In recent years, various methods for extracting a specific object such as a human face from image data have been proposed and put into practical use.

その中でも、非特許文献1に開示されている手法はその高速性から注目を集めている。当該手法は、Boosting(ブースティング)学習アルゴリズム(詳細は、非特許文献2に開示)により生成された複数の弱判別器群からなる判別器をカスケードに接続し、判別器毎に打ち切り判定を行いながら処理を進める手法である。   Among them, the technique disclosed in Non-Patent Document 1 has attracted attention because of its high speed. This method connects a discriminator composed of a plurality of weak discriminator groups generated by a boosting learning algorithm (details are disclosed in Non-Patent Document 2) in a cascade, and performs an abort determination for each discriminator. It is a method of proceeding while processing.

図24に非特許文献1に開示されている手法の概要構成を示す。2401〜240n(nは自然数)は学習によって生成される判別器(ステージともいう)であり、各判別器は、例えば、処理負荷の低い複数の矩形フィルタ等で構成されている。このとき用いられる1つ1つの矩形フィルタは、判別能力がそれほど高く無いことから、一般に“弱判別器”と呼ばれている。   FIG. 24 shows a schematic configuration of the technique disclosed in Non-Patent Document 1. 2401 to 240n (n is a natural number) are discriminators (also referred to as stages) generated by learning, and each discriminator is composed of, for example, a plurality of rectangular filters having a low processing load. Each rectangular filter used at this time is generally called a “weak classifier” because it has a low discrimination capability.

図25は特定のオブジェクトを抽出するための矩形フィルタの例を示す図である。2501a〜2501cは、矩形フィルタにより抽出しようとする画像ブロックの一例であり、画像データ全体から切り出した所定サイズの部分画像である。   FIG. 25 is a diagram illustrating an example of a rectangular filter for extracting a specific object. 2501a to 2501c are examples of image blocks to be extracted by a rectangular filter, and are partial images of a predetermined size cut out from the entire image data.

図26は処理対象の画像データを表わす図である。このうち、2601は処理対象の画像データ1フレーム分を表わしている。また、2602は処理対象の画像データ1フレーム分を処理する際の処理単位である処理ブロックを表わしており、矩形フィルタ2502a〜2501cのサイズに対応するサイズの部分画像である。当該矩形フィルタ2502a〜2502cを用いて、白領域と黒領域で示す領域データ総和の差分を算出することで部分画像内の局所領域の特徴を抽出する。   FIG. 26 shows image data to be processed. Of these, 2601 represents one frame of image data to be processed. Reference numeral 2602 denotes a processing block which is a processing unit when processing one frame of image data to be processed, and is a partial image having a size corresponding to the size of the rectangular filters 2502a to 2501c. Using the rectangular filters 2502a to 2502c, the feature of the local area in the partial image is extracted by calculating the difference between the total area data indicated by the white area and the black area.

当該部分画像2602により所定のステップサイズで画像データ2601全体を順次走査し、当該処理単位で処理を行うことで、画像データ2601中の特定オブジェクトを抽出する。   The entire image data 2601 is sequentially scanned by the partial image 2602 with a predetermined step size, and a specific object in the image data 2601 is extracted by performing processing in the processing unit.

判別器2401〜240nでは、それぞれ、矩形フィルタ毎の判定結果の出力である評価値を累積し、識別閾値により閾値処理することで特定オブジェクトが存在するか否かの判定を行う。上述のように各判別器2401〜240nはカスケードに接続されており、各判別器は、処理単位の部分画像2602に特定オブジェクトが存在すると判定された場合のみ、後段の判別器による処理に進む。   Each of the discriminators 2401 to 240n accumulates evaluation values, which are output of determination results for each rectangular filter, and determines whether or not a specific object exists by performing threshold processing using an identification threshold. As described above, the discriminators 2401 to 240n are connected in cascade, and each discriminator proceeds to processing by the subsequent discriminator only when it is determined that the specific object exists in the partial image 2602 of the processing unit.

当該手法はこのようにステージと呼ばれる判別器毎に、処理単位の部分画像が、特定オブジェクトであるか非特定オブジェクトであるかの判定を行い、非特定オブジェクトと判定された場合には、直ちに演算を終了することを特徴とする。実際の画像データでは、ステージの初期の段階で非特定オブジェクトであると判定される場合が多いため、高速な抽出処理を実現することができる。
Viola,P.;Jones,M.“Rapid object detection using a boosted cascade of simple features”.Proc. of Computer Vision and Pattern Recognition, 2001−12,IEEE Computer Society.p.511−518. Yoav Freund and Robert E.Schapire.A decision−theoretic generalization of on−line learning and an application to boosting.In Computational Learning Theory:Eurocolt’95, pages 23−37. Springer−Verlag,1995. 特開2005−100121号公報
This method determines whether the partial image of the processing unit is a specific object or a non-specific object for each discriminator called a stage in this way, and if it is determined as a non-specific object, it immediately calculates. It is characterized by ending. In actual image data, since it is often determined that the object is a non-specific object at an early stage of the stage, high-speed extraction processing can be realized.
Viola, P.M. Jones, M .; “Rapid object detection using a boosted cascade of simple features”. Proc. of Computer Vision and Pattern Recognition, 2001-12, IEEE Computer Society. p. 511-518. Yoav Freund and Robert E. Shapire. A decision-theoretic generation of on-line learning and an application to boosting. In Computational Learning Theory: Eurocolt '95, pages 23-37. Springer-Verlag, 1995. JP 2005-100121 A

ここで、非特許文献1のような手法を用いて、特定のオブジェクトを抽出する機能を、組み込み機器等において実現する場合について考える。このような場合、抽出目的や組み込み機器の演算性能に応じて抽出精度と抽出処理速度とのトレードオフの調整が必要なケースがある。   Here, consider a case where the function of extracting a specific object is realized in an embedded device or the like using a technique such as that described in Non-Patent Document 1. In such a case, there are cases where it is necessary to adjust the trade-off between the extraction accuracy and the extraction processing speed in accordance with the extraction purpose and the calculation performance of the embedded device.

一例として、共通デバイスとしてハードウェア化したユニット(或いは集積回路)を互いに仕様の異なる複数の組み込み機器に搭載する場合が挙げられる。このような場合、搭載する組み込み機器の動作クロックや使用条件等に応じて抽出精度と抽出処理速度とのトレードオフを調整しておくことが望ましい。   As an example, a case where a hardware unit (or integrated circuit) as a common device is mounted on a plurality of embedded devices having different specifications can be cited. In such a case, it is desirable to adjust the trade-off between the extraction accuracy and the extraction processing speed in accordance with the operation clock, usage conditions, and the like of the embedded device to be mounted.

また、同一の組み込み機器に対して実装する場合であっても、組み込み機器に搭載されたアプリケーションの種類によっては、必要とする抽出精度及び抽出処理時間が異なることがある。このような場合も、抽出精度と抽出処理速度とのトレードオフを調整することが出来れば、組み込み機器のパフォーマンスを最適化することができる。   Further, even when mounting on the same embedded device, the required extraction accuracy and extraction processing time may differ depending on the type of application mounted on the embedded device. Even in such a case, if the trade-off between the extraction accuracy and the extraction processing speed can be adjusted, the performance of the embedded device can be optimized.

一方で、従来は、このようなケースに対して処理対象となる画像データの解像度を下げたり、部分画像により処理対象となる画像データを走査する際のステップサイズを粗くしたりするなどして、対応していた。例えば、ステップサイズを変更する手法に関しては、非特許文献1にも開示されている。   On the other hand, conventionally, for such cases, the resolution of image data to be processed is lowered, or the step size when scanning image data to be processed by a partial image is coarsened. It corresponded. For example, Non-Patent Document 1 discloses a method for changing the step size.

しかしながら、このような対応の場合、抽出精度と抽出処理速度との柔軟なトレードオフを実現することができないという問題がある。例えば、解像度を変更することで抽出処理速度をコントロールしようとすると、入力された画像データを対応する解像度に変換しておかなければならない。また、解像度毎に対応する複数の判別器を予め用意しておく必要もある。   However, in such a case, there is a problem that a flexible trade-off between the extraction accuracy and the extraction processing speed cannot be realized. For example, in order to control the extraction processing speed by changing the resolution, the input image data must be converted into a corresponding resolution. It is also necessary to prepare a plurality of discriminators corresponding to each resolution in advance.

また、ステップサイズを変更する場合であっても、トレードオフ点(抽出精度と抽出処理速度との適切な組み合わせ)の種類(ステップサイズをn画素単位にする等)には限りがあり、柔軟なコントロールができないという問題がある。   Even when the step size is changed, the types of trade-off points (appropriate combination of extraction accuracy and extraction processing speed) are limited (eg, the step size is set to n pixels) and are flexible. There is a problem that control is not possible.

一方で、上記特許文献1のように、適用しようとする組み込み機器での計算量を考慮して、予め複数の判別器により学習を行っておき、抽出処理を行う際に複数の判別器群の中から、組み込み機器に応じた判別機器群を選択することで対応することが考えられる。しかし、その場合、トレードオフ点毎に異なる複数の判別器群を用意しておく必要があり、メモリ等のリソースが増大してしまうという問題がある。特に、構成する判別器の数が多く必要となるようなパラメータ情報が多い場合にあっては、この問題が大きい。   On the other hand, as in Patent Document 1, learning is performed in advance using a plurality of discriminators in consideration of the amount of calculation in an embedded device to be applied, and a plurality of discriminator groups are subjected to extraction processing. It is conceivable to cope by selecting a discriminating device group corresponding to the embedded device. However, in that case, it is necessary to prepare a plurality of different discriminator groups for each trade-off point, and there is a problem that resources such as a memory increase. This problem is particularly serious when there is a large amount of parameter information that requires a large number of classifiers.

本発明は上記課題に鑑みてなされたものであり、カスケードに接続される複数の弱判別器を用いて、入力されたデータより特定のオブジェクトを抽出するにあたり、抽出処理速度と抽出精度との組み合わせを柔軟に変更できるようにすることを目的とする。   The present invention has been made in view of the above problems, and a combination of extraction processing speed and extraction accuracy in extracting a specific object from input data using a plurality of weak classifiers connected in cascade. The purpose is to be able to change flexibly.

上記の目的を達成するために本発明に係る情報処理装置は以下のような構成を備える。即ち、
カスケードに接続されてデータを処理する複数の弱判別器と、
前記複数の弱判別器それぞれの処理内容を規定する情報を格納する第1の格納手段と、
前記データを処理するにあたっての前提条件と、前記複数の弱判別器のうち前記データの処理に使用すべき弱判別器を決定するための情報とが、該前提条件ごとに規定されたテーブルを格納する第2の格納手段と、
前記テーブルを参照することにより、前記データの処理に使用すべき弱判別器を前記複数の弱判別器から選択する選択手段と、
前記選択手段により選択された前記弱判別器に対応する前記処理内容を規定する情報に基づいて、該弱判別器が前記データを処理することで得られた評価値を用いて、前記データよりオブジェクトを抽出する抽出手段とを備える。
In order to achieve the above object, an information processing apparatus according to the present invention comprises the following arrangement. That is,
A plurality of weak classifiers connected to the cascade to process the data,
First storage means for storing information defining the processing content of each of the plurality of weak classifiers;
Preconditions for processing the data and information for determining weak classifiers to be used for processing the data among the plurality of weak classifiers are stored in a table defined for each precondition. Second storage means for
Selecting means for selecting, from the plurality of weak classifiers, weak classifiers to be used for processing the data by referring to the table;
Based on the information that defines the processing content corresponding to the weak classifier selected by the selection means, an evaluation value obtained by processing the data by the weak classifier is used. Extraction means for extracting.

本発明によれば、カスケードに接続される複数の弱判別器を用いて、入力されたデータより特定のオブジェクトを抽出するにあたり、抽出処理速度と抽出精度との組み合わせを柔軟に変更することが可能となる。   According to the present invention, when a specific object is extracted from input data using a plurality of weak classifiers connected in cascade, the combination of the extraction processing speed and the extraction accuracy can be flexibly changed. It becomes.

以下、図面を参照しながら各実施形態の詳細について説明する。   Details of each embodiment will be described below with reference to the drawings.

[第1の実施形態]
<パターン識別装置のハードウェア構成>
図1は本発明の第1の実施形態にかかる情報処理装置(パターン識別装置100)のハードウェア構成例を示す図である。当該パターン識別装置100は画像データ中の特定のオブジェクト(画像パターン)を抽出する機能を有する。
[First Embodiment]
<Hardware configuration of pattern identification device>
FIG. 1 is a diagram illustrating a hardware configuration example of an information processing apparatus (pattern identification apparatus 100) according to the first embodiment of the present invention. The pattern identification device 100 has a function of extracting a specific object (image pattern) in image data.

図1において、101は画像入力部であり、光学系、光電変換デバイス及び光電変換デバイスを制御するドライバ回路/ADコンバータ/各種画像補正を司る信号処理回路/フレームバッファ等により構成される。なお、ここでいう光電変換デバイスには、CCD(Charge−Coupled Devices)又はCMOS(Complimentary Metal Oxide Semiconductor)センサ等が含まれる。   In FIG. 1, an image input unit 101 includes an optical system, a photoelectric conversion device, a driver circuit that controls the photoelectric conversion device, an AD converter, a signal processing circuit that manages various image corrections, a frame buffer, and the like. Here, the photoelectric conversion device includes a charge-coupled devices (CCD) or a complementary metal oxide semiconductor (CMOS) sensor.

102は前処理部であり、抽出処理を効果的に行うための各種前処理を行う。具体的には、色変換テーブルやコントラスト補正情報に基づいて、色変換処理/コントラスト補正処理等の画像データ変換をハードウェアにて処理する。   Reference numeral 102 denotes a preprocessing unit that performs various types of preprocessing for effectively performing the extraction processing. Specifically, image data conversion such as color conversion processing / contrast correction processing is processed by hardware based on the color conversion table and contrast correction information.

103は識別処理部であり、本実施形態にかかる情報処理方法を実現するための中心的な処理を実行するハードウェアブロックである。なお、識別処理部103の詳細は図2を用いて後述する。   An identification processing unit 103 is a hardware block that executes central processing for realizing the information processing method according to the present embodiment. Details of the identification processing unit 103 will be described later with reference to FIG.

106はDMAC(Direct Memory Access Controller)である。DMAC106は、画像バス104上の各処理部間及び画像バス104上のデバイスとCPU(Central Processing Unit)バス107上のRAM110/ROM109間のデータ転送等を司る。   Reference numeral 106 denotes a DMAC (Direct Memory Access Controller). The DMAC 106 manages data transfer between processing units on the image bus 104 and between devices on the image bus 104 and a RAM 110 / ROM 109 on a CPU (Central Processing Unit) bus 107.

105はブリッジであり、画像バス104とCPUバス107のブリッジ機能を提供する。108はCPUであり、パターン識別装置100全体の動作を制御するものである。109はROM(Read Only Memory)であり、CPU108の動作を規定する命令や各種演算に必要なデータを格納する。   A bridge 105 provides a bridge function between the image bus 104 and the CPU bus 107. Reference numeral 108 denotes a CPU that controls the overall operation of the pattern identification apparatus 100. Reference numeral 109 denotes a ROM (Read Only Memory), which stores instructions that define the operation of the CPU 108 and data necessary for various calculations.

110はCPU108の動作に必要なメモリ(RAM:Random Access Memory)である。RAM110はDRAM(Dynamic RAM)等の比較的容量の大きいメモリで構成する。   Reference numeral 110 denotes a memory (RAM: Random Access Memory) necessary for the operation of the CPU 108. The RAM 110 is configured by a memory having a relatively large capacity such as a DRAM (Dynamic RAM).

CPU108はブリッジ105を介して画像バス104上の各処理部にアクセスすることが可能である。画像バス104とCPUバス107とを分離することで、ハードウェアによる各処理部(101〜103)とCPU108とは同時に動作させることが可能である。   The CPU 108 can access each processing unit on the image bus 104 via the bridge 105. By separating the image bus 104 and the CPU bus 107, the hardware processing units (101 to 103) and the CPU 108 can be operated simultaneously.

111はインタフェース部であり、操作者がパターン識別装置100の動作を指定する為の入出力インタフェースである。   An interface unit 111 is an input / output interface for the operator to specify the operation of the pattern identification apparatus 100.

<識別処理部103の詳細構成>
図2は識別処理部103の詳細を説明する図である。201は矩形フィルタ演算部であり、RAM204に格納された処理対象の画像データ210に対して、所定の矩形フィルタ演算処理を実行する。RAM204は処理対象の画像データ210を格納するメモリであり、レイテンシの低い高速なメモリで構成する。205はROMであり、各矩形フィルタの演算内容を規定するパラメータ情報211を格納する(第1の格納手段)。
<Detailed Configuration of Identification Processing Unit 103>
FIG. 2 is a diagram for explaining the details of the identification processing unit 103. A rectangular filter calculation unit 201 executes a predetermined rectangular filter calculation process on the processing target image data 210 stored in the RAM 204. A RAM 204 is a memory for storing the image data 210 to be processed, and is composed of a high-speed memory with low latency. Reference numeral 205 denotes a ROM that stores parameter information 211 that defines the calculation contents of each rectangular filter (first storage means).

矩形フィルタ演算部201はROM205に格納するパラメータ情報211の矩形座標情報(詳細は後述)に従って、RAM204上の画像データ210にアクセスし、予め学習によって生成された矩形フィルタによる演算処理と弱判別処理とを順次実行する。   The rectangular filter calculation unit 201 accesses the image data 210 on the RAM 204 according to rectangular coordinate information (details will be described later) of the parameter information 211 stored in the ROM 205, and performs calculation processing and weak discrimination processing using a rectangular filter generated by learning in advance. Are executed sequentially.

202は処理数カウンタであり、処理中の矩形フィルタ番号及び処理中のステージ番号をカウントするカウンタ等からなる。203は処理実行判定部であり、処理数カウンタ202が具備する矩形フィルタ処理数カウンタ及びステージ処理数カウンタと、外部から指定される矩形フィルタの実行の有無及び終了条件に従って矩形フィルタ演算部201を制御する。   Reference numeral 202 denotes a processing number counter, which includes a counter for counting a rectangular filter number being processed and a stage number being processed. A processing execution determination unit 203 controls the rectangular filter arithmetic unit 201 according to the rectangular filter processing number counter and the stage processing number counter included in the processing number counter 202 and whether or not the rectangular filter specified from the outside is executed and the end condition. To do.

即ち、予め学習によって得られた複数の矩形フィルタの中から、処理実行判定部203で指定する矩形フィルタが矩形フィルタ演算部201で実際の処理に使用される。   In other words, a rectangular filter designated by the processing execution determination unit 203 is used for actual processing by the rectangular filter calculation unit 201 from among a plurality of rectangular filters obtained by learning in advance.

206は識別処理部103の内部ローカルバスであり、図示しないブリッジを介して画像バス104に接続されているものとする。CPU108はブリッジを介して内部ローカルバス206上の各種デバイス(201〜205)にアクセスする。   Reference numeral 206 denotes an internal local bus of the identification processing unit 103, which is connected to the image bus 104 via a bridge (not shown). The CPU 108 accesses various devices (201 to 205) on the internal local bus 206 via the bridge.

<矩形フィルタ演算部201の詳細構成>
図3は矩形フィルタ演算部201の詳細構成を示す図である。図3は図24における2401〜240nのそれぞれの内容を説明する図に相当する。311〜31kはそれぞれ判別器であり、ROM205に格納されたパラメータ情報211に従って複数の矩形フィルタが演算処理と弱判別処理とを実行する。320は判別処理部であり、各矩形フィルタ311〜31kの弱判別処理の結果である評価値の累積値を識別閾値により閾値処理し、抽出対象のオブジェクトが存在するか否かを判定する。
<Detailed Configuration of Rectangular Filter Operation Unit 201>
FIG. 3 is a diagram showing a detailed configuration of the rectangular filter calculation unit 201. FIG. 3 corresponds to a diagram for explaining the contents of 2401 to 240n in FIG. 311 to 31k are discriminators, and a plurality of rectangular filters execute arithmetic processing and weak discrimination processing according to the parameter information 211 stored in the ROM 205. Reference numeral 320 denotes a discrimination processing unit, which performs threshold processing on an accumulated value of evaluation values, which is a result of the weak discrimination processing of each of the rectangular filters 311 to 31k, using an identification threshold, and determines whether or not an object to be extracted exists.

<パラメータ情報211の構成>
図4はROM205に格納されたパラメータ情報211の一例を示す図である。図4は1つのステージ処理に必要なパラメータ情報の一例を表わしている。
<Configuration of Parameter Information 211>
FIG. 4 is a diagram illustrating an example of the parameter information 211 stored in the ROM 205. FIG. 4 shows an example of parameter information necessary for one stage process.

図4において、矩形座標402は1つの矩形ブロックに対応する4つの頂点座標データである。ここでの座標データは抽出対象のオブジェクト内の座標値に相当する。矩形座標402は矩形数401に応じた組の座標データを有する。   In FIG. 4, rectangular coordinates 402 are four vertex coordinate data corresponding to one rectangular block. The coordinate data here corresponds to the coordinate value in the object to be extracted. The rectangular coordinates 402 have a set of coordinate data corresponding to the number of rectangles 401.

フィルタ閾値404は対象の矩形フィルタ出力を弱判別するための閾値である。信頼度は対象とする矩形フィルタの結果である評価値に対する信頼度(寄与率)を示す。矩形フィルタ311〜31kは矩形フィルタ演算処理の結果をフィルタ閾値で弱判別した結果(1又は−1)に信頼度を乗じた値をその出力とする。識別閾値405は判別処理部320で識別処理を実行するための閾値である。   The filter threshold 404 is a threshold for weakly determining the target rectangular filter output. The reliability indicates the reliability (contribution rate) to the evaluation value that is the result of the target rectangular filter. Each of the rectangular filters 311 to 31k outputs, as its output, a value obtained by multiplying the result (1 or -1) obtained by weakly discriminating the result of the rectangular filter calculation processing with the filter threshold value. The identification threshold value 405 is a threshold value for executing identification processing by the discrimination processing unit 320.

以上のパラメータ情報211を矩形フィルタの数(図4ではk個)だけ格納し、更にステージ数だけ格納する。   The above parameter information 211 is stored for the number of rectangular filters (k in FIG. 4), and further stored for the number of stages.

<パターン識別装置100における処理の流れ>
以下、図5に示すフローチャートを用いて本実施形態にかかるパターン識別装置100の動作を詳細に説明する。図5はCPU108の動作と識別処理部103の動作を1つのフローチャート上に記述している。図中「識別処理」と明記したフロー(ステップS508〜S518)が識別処理部103の動作に相当する。
<Processing Flow in Pattern Identification Device 100>
Hereinafter, the operation of the pattern identification apparatus 100 according to the present embodiment will be described in detail with reference to the flowchart shown in FIG. FIG. 5 describes the operation of the CPU 108 and the operation of the identification processing unit 103 on one flowchart. A flow (steps S <b> 508 to S <b> 518) specified as “identification processing” in the drawing corresponds to the operation of the identification processing unit 103.

まず、ステップS501では識別処理の開始に先立ち、CPU108が各種初期化処理を実行する。各処理部(101〜103)はCPU108の初期化指示に従って内部のレジスタ・メモリ等を初期化する。   First, in step S501, the CPU 108 executes various initialization processes prior to the start of the identification process. Each processing unit (101 to 103) initializes an internal register, memory, and the like in accordance with an initialization instruction from the CPU.

次にステップS502で実際の処理に使用する矩形フィルタを指定し、各ステージ内の矩形フィルタ処理の内容を決定する。具体的には、処理する矩形フィルタの数をステージ毎に指定する。   In step S502, a rectangular filter to be used for actual processing is specified, and the contents of the rectangular filter processing in each stage are determined. Specifically, the number of rectangular filters to be processed is designated for each stage.

ステップS503では、実際に処理するステージを指定する。具体的には処理するステージの数を指定する。ここでは、パターン識別装置100の動作クロックに従って処理する矩形フィルタの数やステージの数を決定する。   In step S503, the stage to be actually processed is designated. Specifically, the number of stages to be processed is specified. Here, the number of rectangular filters and the number of stages to be processed are determined according to the operation clock of the pattern identification apparatus 100.

図6は弱判別器(矩形フィルタ)の総数と抽出精度との関係を模式的に示した図である。弱判別器の総数は各ステージに含まれる弱判別器の総和であり、誤検出は検出誤りの程度を示す。   FIG. 6 is a diagram schematically showing the relationship between the total number of weak classifiers (rectangular filters) and the extraction accuracy. The total number of weak classifiers is the sum of the weak classifiers included in each stage, and erroneous detection indicates the degree of detection error.

図6に示すように、一般的に弱判別器の総数を増やすに従って誤検出が減り、抽出精度は向上する。一方で、弱判別器の総数は概ね抽出処理時間に比例すると考えられることから、弱判別器の総数を制御することで抽出処理速度と抽出精度とのトレードオフを極めて簡単に調整することができる。   As shown in FIG. 6, in general, as the total number of weak classifiers is increased, false detections are reduced and the extraction accuracy is improved. On the other hand, since the total number of weak classifiers is considered to be roughly proportional to the extraction processing time, the trade-off between extraction processing speed and extraction accuracy can be adjusted very easily by controlling the total number of weak classifiers. .

図7は、動作クロックと使用する弱判別器の総数とを関連付けるテーブルの一例である。図7中、N1〜N3はそれぞれ動作クロック1〜動作クロック3の場合のステージ数を示し、Sxy(x:クロック種別、y:ステージ番号)は各ステージ内の弱判別器の数を示す。 FIG. 7 is an example of a table that associates the operation clock with the total number of weak classifiers to be used. In FIG. 7, N1 to N3 indicate the number of stages when the operation clock is 1 to 3, respectively, and S xy (x: clock type, y: stage number) indicates the number of weak classifiers in each stage.

N1〜N3及びSxyは、それぞれ、学習によって生成したステージ数及び弱判別器数以下の値が設定される。また、Thxy(x:クロック種別、y:ステージ番号)は各ステージの識別閾値である。ブースティング学習アルゴリズムにより生成される判別器は、式(1)に示す累積値を使用して識別を行う。 N1~N3 and S xy, respectively, the number of stages and the weak discriminator number following values generated by learning is set. Th xy (x: clock type, y: stage number) is an identification threshold value for each stage. The discriminator generated by the boosting learning algorithm performs identification using the accumulated value shown in Expression (1).

Figure 2009116400
Figure 2009116400

ここでTは実際に使用する弱判別器の数であり、弱判別器の数を削減した場合にあっては、削減後の数になる。Tの値はステージ毎に異なる場合もある。   Here, T is the number of weak classifiers that are actually used. When the number of weak classifiers is reduced, the number is the number after reduction. The value of T may be different for each stage.

αは弱判別器に対する信頼度であり、弱判別器の学習によって決定する値である。αは判別器に対する該当弱判別器の寄与率と言うこともできる。 α i is the reliability of the weak classifier and is determined by learning of the weak classifier. α i can also be said to be the contribution ratio of the corresponding weak classifier to the classifier.

(x)は弱判別器の出力である評価値であり、図25に示す矩形フィルタ2502a〜2502cの出力をフィルタ閾値で弱判別した結果(±1を出力)である。弱判別器の数を削減した場合、式(1)に示すTの値が学習時と比較して変わることから、所定条件毎に新たな識別閾値Thxyを用意する必要がある。なお、Tの値が学習時と実行時とで同じ場合には、図4に示す識別閾値がそのまま使用される。 h i (x) is an evaluation value that is an output of the weak discriminator and is a result of weakly discriminating the outputs of the rectangular filters 2502a to 2502c shown in FIG. When the number of weak discriminators is reduced, the value of T shown in Equation (1) changes compared to that at the time of learning. Therefore, it is necessary to prepare a new discrimination threshold Th xy for each predetermined condition. When the value of T is the same at the time of learning and at the time of execution, the identification threshold shown in FIG. 4 is used as it is.

図7に示すテーブルは予め外部のワークステーション等により作成しておき、ROM109等(第2の格納手段)に格納しておくものとする。即ち動作クロックが高い場合は数多くの弱判別器が使用され、動作クロックが低い場合は少ない数の弱判別器が使用されるように、テーブルを作成しておく。   The table shown in FIG. 7 is created in advance by an external workstation or the like and stored in the ROM 109 or the like (second storage means). That is, the table is created so that many weak classifiers are used when the operation clock is high, and a small number of weak classifiers are used when the operation clock is low.

なお、ステージ数の削減とステージ内の弱判別器の削減との組み合わせは従来より提案されている最適化手法等により決定すれば良い。例えば、事前に検定用のデータセットを使用し、抽出精度と抽出処理時間との関係から所望の組み合わせを作成しておく。ステージの数とステージ内の弱判別器の数とを独立に設定することで、より柔軟にトレードオフ点を決定することができる。   Note that the combination of the reduction in the number of stages and the reduction in weak classifiers in the stage may be determined by a conventionally proposed optimization method or the like. For example, a test data set is used in advance, and a desired combination is created from the relationship between extraction accuracy and extraction processing time. By setting the number of stages and the number of weak classifiers in the stage independently, the trade-off point can be determined more flexibly.

更に、弱判別器の数を決定する際に、弱判別器に対する信頼度を利用することで抽出精度の低下を抑えつつ、弱判別器の数を削減することも可能である。信頼度が低い弱判別器は識別に対する影響が小さく、また概ね後段になる程、信頼度が低下する。このため、例えば連続する判別器に含まれる弱判別器のうち、後段の判別器に含まれる弱判別器の信頼度が所定値以下である場合には、当該複数の判別器を全て削減する等の方法を用いても良い。信頼度を利用することで最適化が容易になるという効果が得られる。   Furthermore, when determining the number of weak classifiers, it is possible to reduce the number of weak classifiers while suppressing a decrease in extraction accuracy by using the reliability of the weak classifiers. A weak discriminator having a low reliability has a small influence on the discrimination, and the reliability decreases as the latter stage is reached. For this reason, for example, among the weak discriminators included in the continuous discriminators, when the reliability of the weak discriminators included in the subsequent stage discriminators is a predetermined value or less, all of the plurality of discriminators are reduced, etc. The method may be used. The effect that optimization becomes easy by using the reliability is obtained.

ステップS502及びS503では図7に示すテーブルを参照して、実際の処理に使用する矩形フィルタ数、ステージ数及び識別閾値等を処理実行判定部203が内蔵するレジスタ(図示しない)に設定する。   In steps S502 and S503, the table shown in FIG. 7 is referred to, and the number of rectangular filters, the number of stages, the identification threshold value, and the like used for actual processing are set in a register (not shown) built in the processing execution determination unit 203.

識別処理のための各種設定を終了すると、ステップS504では画像入力部101を起動し、ステップS506では前処理部102を起動する。そして、それぞれ以下の処理を実行する。   When various settings for the identification processing are completed, the image input unit 101 is activated in step S504, and the preprocessing unit 102 is activated in step S506. Then, the following processes are executed respectively.

まず、画像入力部101では、光電変換デバイスにおいて取得した1フレーム分の画像データを、図示しない内部バッファに格納する。   First, the image input unit 101 stores image data for one frame acquired by the photoelectric conversion device in an internal buffer (not shown).

格納を終了するとCPU108に対して画像データの取得を終了した旨の割り込みを発生する。CPU108では割り込みを検知すると、DMAC106を起動して取得した画像データを前処理部102の内部メモリ(図示しない)に転送する。   When the storage is finished, an interrupt to the effect that the acquisition of image data is finished is generated for the CPU 108. When detecting an interrupt, the CPU 108 activates the DMAC 106 and transfers the acquired image data to an internal memory (not shown) of the preprocessing unit 102.

画像データを受信した前処理部102では、前処理を開始する。具体的には、予め指定された色変換テーブルやコントラスト補正情報に基づいて画像データの色変換処理及びコントラスト補正処理等の画像データ変換処理を実行する。更に、前処理部102では、画像データ変換処理を終了するとCPU108に対して割り込み信号を送信する。   The preprocessing unit 102 that has received the image data starts preprocessing. Specifically, image data conversion processing such as color conversion processing of image data and contrast correction processing is executed based on a color conversion table and contrast correction information designated in advance. Further, the preprocessing unit 102 transmits an interrupt signal to the CPU 108 when the image data conversion process is completed.

続いて、ステップS506では、CPU108が、前処理部102より送信された割り込み信号を検知し、画像データ変換処理後の画像データに基づいてSammed Area Tableデータ(以下SATデータと呼ぶ)を生成する。SATデータは図25に示すような矩形型フィルタを高速に処理するために好適なデータ形式である。なお、SATデータに関しては、上記非特許文献1に開示されており、本発明の特徴に関連するものでもないため、ここでは詳細な説明を省略する。   Subsequently, in step S506, the CPU 108 detects the interrupt signal transmitted from the preprocessing unit 102, and generates Samed Area Table data (hereinafter referred to as SAT data) based on the image data after the image data conversion process. The SAT data is a data format suitable for processing a rectangular filter as shown in FIG. 25 at high speed. Note that the SAT data is disclosed in Non-Patent Document 1 and is not related to the features of the present invention, and thus detailed description thereof is omitted here.

図8はSATデータから矩形ブロックを算出する方法を説明するための図である。入力データ領域801内の矩形領域802内のデータ総和は、SATデータ領域内の4つの点の値S1〜S4(入力データと同一座標位置)を使用して、S4+S1−(S2+S3)により算出することができる。SATデータを参照することで、例えば図25の2502aに示す矩形フィルタの場合、6点のデータリードで矩形フィルタ演算処理をすることができる。   FIG. 8 is a diagram for explaining a method of calculating a rectangular block from SAT data. The sum of data in the rectangular area 802 in the input data area 801 is calculated by S4 + S1- (S2 + S3) using the values S1 to S4 (same coordinate positions as the input data) of the four points in the SAT data area. Can do. By referring to the SAT data, for example, in the case of the rectangular filter indicated by 2502a in FIG. 25, the rectangular filter calculation processing can be performed with 6 points of data read.

ステップS507では、CPU108が、生成したSATデータを転送し、処理対象の画像データとして識別処理部103のRAM204に格納する。SATデータのRAM204への転送を終了すると識別処理部103による識別処理を開始する。   In step S507, the CPU 108 transfers the generated SAT data and stores it in the RAM 204 of the identification processing unit 103 as image data to be processed. When the transfer of the SAT data to the RAM 204 is completed, the identification processing by the identification processing unit 103 is started.

<識別処理部103における識別処理の流れ>
以下、ステップS508〜S518に示す識別処理部103の識別処理(ハードウェア処理)の流れについて説明する。
<Flow of identification processing in identification processing unit 103>
Hereinafter, a flow of identification processing (hardware processing) of the identification processing unit 103 shown in steps S508 to S518 will be described.

ステップS508では、RAM204に格納された画像データのうち、処理単位となる処理ブロックを決定する。処理ブロックは図26の2602に示す部分画像であり、当該ウインドウを1画素或いは1ライン単位で走査させながら抽出を行うことで、1フレームの画像データに含まれる抽出対象オブジェクトを抽出する。   In step S508, a processing block serving as a processing unit is determined from the image data stored in the RAM 204. The processing block is a partial image indicated by reference numeral 2602 in FIG. 26, and an extraction target object included in one frame of image data is extracted by performing extraction while scanning the window in units of one pixel or one line.

ステップS509では、矩形フィルタ演算部201がROM205上のパラメータ情報211を読み出す。更に、ステップS510では、処理ブロック上の所定の画像データを参照して矩形フィルタ演算処理を実行する。矩形フィルタ演算処理は前述したように、処理ブロックに対する複数の矩形ブロックの差分値を算出する。   In step S509, the rectangular filter calculation unit 201 reads the parameter information 211 on the ROM 205. Furthermore, in step S510, rectangular filter calculation processing is executed with reference to predetermined image data on the processing block. As described above, the rectangular filter calculation process calculates difference values of a plurality of rectangular blocks with respect to the processing block.

次に、ステップS511では、ステップS509における矩形フィルタの出力とROM205に格納された当該フィルタに対する矩形フィルタ閾値とを比較する。そして、矩形フィルタの出力がフィルタ閾値を超えていた場合には、当該矩形フィルタ出力に対して、当該矩形フィルタの信頼度を積算することで得られた評価値を累積値に加算する。   In step S511, the output of the rectangular filter in step S509 is compared with the rectangular filter threshold for the filter stored in the ROM 205. If the output of the rectangular filter exceeds the filter threshold value, the evaluation value obtained by integrating the reliability of the rectangular filter is added to the accumulated value for the rectangular filter output.

一方、矩形フィルタの出力がフィルタ閾値以下であった場合には、当該矩形フィルタの出力に対して当該矩形フィルタの信頼度を積算することで得られた評価値を累積値から減算する。   On the other hand, when the output of the rectangular filter is equal to or less than the filter threshold, the evaluation value obtained by integrating the reliability of the rectangular filter with respect to the output of the rectangular filter is subtracted from the accumulated value.

1つの矩形フィルタ演算(弱判別器演算)処理を完了すると、ステップS512では、処理数カウンタ202が、矩形フィルタ処理数カウンタを更新する。   When one rectangular filter calculation (weak discriminator calculation) process is completed, in step S512, the processing number counter 202 updates the rectangular filter processing number counter.

次に、ステップS513では、1つのステージ内のすべての弱判別器列の矩形フィルタ演算処理を終了したか否か判定する。ここでは、処理実行判定部203がステップS502で指定した矩形フィルタの数と処理数カウンタ202から出力された矩形フィルタ処理数カウンタの値とを比較し、ステージ内の矩形フィルタ演算処理が終了したか否かを判定する。   Next, in step S513, it is determined whether or not the rectangular filter calculation processing for all weak discriminator rows in one stage has been completed. Here, the processing execution determination unit 203 compares the number of rectangular filters specified in step S502 with the value of the rectangular filter processing number counter output from the processing number counter 202, and whether the rectangular filter calculation processing in the stage is completed. Determine whether or not.

ステップS513において、すべての矩形フィルタによる矩形フィルタ演算処理を終了していないと判定された場合には、ステップS509に戻って、次の矩形フィルタによる矩形フィルタ演算処理を実行する。   If it is determined in step S513 that the rectangular filter calculation processing using all the rectangular filters has not been completed, the process returns to step S509 to execute the rectangular filter calculation processing using the next rectangular filter.

一方、ステップS513において、すべての矩形フィルタによる矩形フィルタ演算処理を終了したと判定された場合には、ステップS514に進み、判別処理部320が、累積値の識別を行い、ステージの打ち切りを行うか否かを決定する。   On the other hand, if it is determined in step S513 that the rectangular filter calculation processing for all rectangular filters has been completed, the process proceeds to step S514, where the discrimination processing unit 320 identifies the accumulated value and cancels the stage. Decide whether or not.

ここではステップS502で設定した識別閾値405と比較することで抽出対象オブジェクトが処理ブロック内に存在するか否かを判別する。判別処理部320による識別の結果、抽出対象オブジェクトは存在しないと識別した場合には、識別処理を打ち切る。   Here, it is determined whether or not the extraction target object exists in the processing block by comparing with the identification threshold value 405 set in step S502. As a result of identification by the discrimination processing unit 320, when it is identified that there is no extraction target object, the identification process is terminated.

識別処理を打ち切る場合、ステップS517では、当該処理ブロックには、抽出対象オブジェクトが存在しないこと(非抽出対象オブジェクトであること)を記録する。   When the identification process is terminated, in step S517, it is recorded that no extraction target object exists in the processing block (that it is a non-extraction target object).

一方、判別処理部320による識別の結果、抽出対象オブジェクトがあると識別した場合には、ステップS515に進み、処理数カウンタ202のステージ数カウンタを更新する。   On the other hand, as a result of identification by the discrimination processing unit 320, when it is identified that there is an object to be extracted, the process proceeds to step S515, and the stage number counter of the processing number counter 202 is updated.

ステップS516では、処理実行判定部203が、ステージ処理数カウンタとステップS503で指定したステージ数とを比較する。ステップS516における比較の結果、指定のステージ数に達していないと判断された場合には、ステップS509に戻り、次のステージに含まれる矩形フィルタ演算処理を開始する。   In step S516, the process execution determination unit 203 compares the stage process number counter with the number of stages specified in step S503. As a result of the comparison in step S516, if it is determined that the specified number of stages has not been reached, the process returns to step S509 to start rectangular filter calculation processing included in the next stage.

一方、ステップS516における比較の結果、指定のステージ数に達したと判断された場合には、ステップS517に進み、当該処理ブロックには、抽出対象オブジェクトが存在することを記録する。   On the other hand, if it is determined that the specified number of stages has been reached as a result of the comparison in step S516, the process proceeds to step S517 to record that the extraction target object exists in the processing block.

ステップS518では、処理対象の画像データ内のすべての処理ブロックについて識別処理を実行したか否かを判定する。処理対象の画像データ内の処理ブロックすべてについて識別処理が完了していないと判定された場合には、ステップS508に戻りで1画素または1ライン隣接する処理ブロックを決定し、同様の処理を繰り返す。   In step S518, it is determined whether identification processing has been executed for all processing blocks in the image data to be processed. If it is determined that the identification processing has not been completed for all the processing blocks in the image data to be processed, the process returns to step S508 to determine a processing block adjacent to one pixel or one line, and the same processing is repeated.

一方、ステップS518において、処理対象の画像データ内のすべての処理ブロックについて識別処理が完了したと判定された場合には、ステップS519に進み、次のフレームの画像データに対して識別処理を実行するか否かを判定する。次のフレームの画像データに対して識別処理を実行する場合には、ステップS504に戻り、ステップS504〜ステップS518の処理を繰り返す。一方、次のフレームの画像データに対して識別処理を実行しないと判定された場合には、処理を終了する。   On the other hand, if it is determined in step S518 that the identification process has been completed for all the processing blocks in the image data to be processed, the process proceeds to step S519, where the identification process is performed on the image data of the next frame. It is determined whether or not. When the identification process is executed for the image data of the next frame, the process returns to step S504, and the processes of steps S504 to S518 are repeated. On the other hand, when it is determined that the identification process is not performed on the image data of the next frame, the process ends.

以上説明したように、本実施形態では、識別処理を実行するパターン識別装置の動作クロックに応じて、使用する弱判別器の数及びステージの数(処理する順番を示す番号に相当する)を指定する構成とした。これにより、識別処理を実行するパターン識別装置では、識別処理に際して、指定するステージ数以降のステージにおいて矩形フィルタ演算処理が実行されない。   As described above, in the present embodiment, the number of weak discriminators to be used and the number of stages (corresponding to numbers indicating the order of processing) are designated according to the operation clock of the pattern identification device that performs the identification processing. It was set as the structure to do. Thereby, in the pattern identification device that executes the identification process, the rectangular filter calculation process is not executed in the stages after the designated number of stages in the identification process.

つまり、動作クロックに応じて弱判別器の数を制御可能な構成とすることで、識別処理部を互いに仕様の異なる複数の組み込み機器に搭載する場合でも、組み込み機器の動作クロックに応じた、抽出精度と抽出処理速度に調整することが可能となる。   In other words, by configuring the number of weak classifiers according to the operation clock, even when the identification processing unit is installed in multiple embedded devices with different specifications, extraction is performed according to the operation clock of the embedded device. It is possible to adjust the accuracy and the extraction processing speed.

[第2の実施形態]
上記第1の実施形態では、使用する弱判別器の数またはステージ数を指定することで、抽出精度と抽出処理速度とのトレードオフを調整する構成について説明したが、本発明はこれに限られない。例えば、弱判別器の実行有無を、信頼度に基づいて個別に指定することで、抽出精度と抽出処理速度とのトレードオフを調整する構成としてもよい。
[Second Embodiment]
In the first embodiment, the configuration for adjusting the trade-off between the extraction accuracy and the extraction processing speed by specifying the number of weak classifiers or the number of stages to be used has been described. However, the present invention is not limited to this. Absent. For example, a configuration may be adopted in which the trade-off between the extraction accuracy and the extraction processing speed is adjusted by individually specifying whether or not the weak classifier is executed based on the reliability.

以下、抽出精度と抽出処理速度とのトレードオフを調整するための本実施形態にかかるパターン識別装置の詳細について説明する。なお、本実施形態にかかるパターン識別装置のハードウェア構成や矩形フィルタ演算部201の詳細構成、パラメータ情報211の構成等は、上記第1の実施形態と同様であるため、ここでは説明を省略する。   Hereinafter, the details of the pattern identification apparatus according to the present embodiment for adjusting the trade-off between the extraction accuracy and the extraction processing speed will be described. Note that the hardware configuration of the pattern identification apparatus according to the present embodiment, the detailed configuration of the rectangular filter calculation unit 201, the configuration of the parameter information 211, and the like are the same as those in the first embodiment, and thus description thereof is omitted here. .

図9は、本発明の第2の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。ここでは第1の実施形態との違いのみについて説明する。   FIG. 9 is a flowchart showing the operation of the pattern identification apparatus 100 according to the second exemplary embodiment of the present invention. Here, only the differences from the first embodiment will be described.

ステップS902では、使用する弱判別器を決定する。図10はブースティング学習にアルゴリズムによって得られる弱判別器数と、対応する弱判別器の信頼度との関係を模式的に示した図である。   In step S902, a weak classifier to be used is determined. FIG. 10 is a diagram schematically showing the relationship between the number of weak classifiers obtained by an algorithm for boosting learning and the reliability of the corresponding weak classifiers.

弱判別器の数が増加するに従って対応する弱判別器の信頼度は概ね低下していくが、常に一様に低下していくわけではなく、上下を繰り返しながら平均的に低下していく。   As the number of weak classifiers increases, the reliability of the corresponding weak classifiers generally decreases, but does not always decrease uniformly, but decreases on average while repeating up and down.

そこで、ステップS902において、使用する弱判別器を決定するにあたっては、弱判別器を所定の信頼度に基づいて判別することで決定する。例えば、図10に示す例の場合、閾値Thを超える信頼度を有する弱判別器を実際の処理に使用し、Th以下の弱判別器は矩形フィルタ演算処理には使用しない。   Therefore, in step S902, when determining the weak classifier to be used, the weak classifier is determined based on a predetermined reliability. For example, in the case of the example shown in FIG. 10, a weak classifier having a reliability exceeding the threshold Th is used for actual processing, and a weak classifier equal to or less than Th is not used for rectangular filter calculation processing.

このようにして使用する弱判別器を指定することで、上記第1の実施形態のように処理数によって一律に使用する弱判別器を決定する場合に比べて、より信頼度の高い弱判別器(寄与率の高い判別器)を指定することが可能となる。   By specifying the weak discriminator to be used in this way, the weak discriminator having higher reliability than the case of determining the weak discriminator to be uniformly used according to the number of processes as in the first embodiment. It is possible to specify (a classifier having a high contribution rate).

ここでは、学習によって生成した弱判別器列の信頼度を判定し、所定の条件を具備する弱判別器を“使用する弱判別器”とし、所定の条件を具備しない弱判別器を“使用しない弱判別器”とするマスク情報を予め生成しておく。つまり、ここでいうマスク情報とは、弱判別器の使用有無を記載した情報である。   Here, the reliability of the weak discriminator string generated by learning is determined, the weak discriminator having a predetermined condition is set as “weak discriminator to be used”, and the weak discriminator not having the predetermined condition is not used. Mask information for “weak classifier” is generated in advance. That is, the mask information here is information that describes whether or not the weak classifier is used.

図11は、動作クロックと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。図11中、N1〜N3及びThxy(x:クロック種別、y:ステージ番号)は第1の実施形態と同様の変数である。Mxy(x:クロック種別、y:ステージ番号)は各弱判別器の実行有無を指定するマスク情報であり、バイナリビット列で表現される。以下にMxyの一例を示す。ここでは32個の弱判別器の実行有無をMSB(Most Sigificant Bit)から昇順に割り当てた場合の例を示している。
M11=11111111111111111010100101010000
各ビットで1が割り当てられた弱判別器は矩形フィルタ演算処理時に実際に使用し、0が割り当てられた弱判別器は矩形フィルタ演算処理時に使用しない。例えば1番目の弱判別器は矩形フィルタ演算処理に使用し、32番目の弱判別器は使用しない。
FIG. 11 is a diagram illustrating an example of a table that associates the operation clock with the total number of weak classifiers to be used. In FIG. 11, N1 to N3 and Th xy (x: clock type, y: stage number) are the same variables as in the first embodiment. M xy (x: clock type, y: stage number) is mask information for designating whether or not each weak discriminator is executed, and is represented by a binary bit string. An example of Mxy is shown below. Here, an example is shown in which 32 weak discriminators are assigned in ascending order from MSB (Most Significant Bit).
M11 = 11111111111111111010100101010000
The weak classifier assigned 1 in each bit is actually used during the rectangular filter calculation process, and the weak classifier assigned 0 is not used during the rectangular filter calculation process. For example, the first weak classifier is used for the rectangular filter calculation process, and the 32nd weak classifier is not used.

ステップS902では、動作クロックに従って所定のMxyを選択し、処理実行判定部203内の図示しないレジスタに設定する。 In step S902, a predetermined M xy is selected according to the operation clock, and is set in a register (not shown) in the process execution determination unit 203.

ステップS903〜ステップS907に示す処理は、図7におけるステップS703〜ステップS707に示す処理と同じであるため説明は省略する。   The processing shown in steps S903 to S907 is the same as the processing shown in steps S703 to S707 in FIG.

また、識別処理部103の動作であるステップS908〜ステップS919の処理についても、図7におけるステップS708〜ステップS719の処理との違いのみ説明する。   Further, only the difference from the processing of step S708 to step S719 in FIG. 7 will be described for the processing of step S908 to step S919 as the operation of the identification processing unit 103.

ステップS920では、処理実行判定部203が、使用する弱判別器を判定する。処理実行判定部203では処理数カウンタ202にてカウントされた矩形フィルタ処理数カウンタとステップS902で設定されたマスク情報Mxyとに基づいて、矩形フィルタ演算処理に使用するか否かを判定する。 In step S920, the process execution determination unit 203 determines a weak classifier to be used. Based on the rectangular filter processing number counter counted by the processing number counter 202 and the mask information M xy set in step S902, the processing execution determination unit 203 determines whether or not to use for the rectangular filter calculation processing.

即ち、矩形フィルタ処理数カウンタの値からMxyの対応するビット位置を決定し、その値が0であるか1であるかを判定する。矩形フィルタ処理数カウンタの値に対応するビット位置の値が、1であると判定された場合には、当該弱判別器を“使用する弱判別器”であると判定し、ステップS909〜S911で矩形フィルタ演算処理及び弱判別処理を実行する。 That is, the corresponding bit position of Mxy is determined from the value of the rectangular filter processing number counter, and it is determined whether the value is 0 or 1. When it is determined that the value of the bit position corresponding to the value of the rectangular filter processing number counter is 1, it is determined that the weak classifier is a “weak classifier to be used”, and steps S909 to S911 are performed. A rectangular filter calculation process and a weak discrimination process are executed.

ステップS912では、弱判別器を使用したか否かに関わらず矩形フィルタ処理数カウンタを更新する。ステップS913では1つのステージ内のすべての弱判別器列の矩形フィルタ演算処理を終了したか否か判定する。ここでの判定は、予め学習によって生成した弱判別器の数と矩形フィルタ処理数カウンタとの比較に基づいて行う。   In step S912, the rectangular filter processing number counter is updated regardless of whether the weak classifier is used. In step S913, it is determined whether or not the rectangular filter calculation processing for all weak discriminator rows in one stage has been completed. This determination is made based on a comparison between the number of weak classifiers generated by learning in advance and a rectangular filter processing number counter.

続くステップS913〜ステップS919の処理は、図5におけるステップS513〜ステップS519の処理と同じであるため説明を省略する。   The subsequent processing in steps S913 to S919 is the same as the processing in steps S513 to S519 in FIG.

以上説明したように、本実施形態では、識別処理を実行するパターン識別装置の動作クロックに応じて、使用する弱判別器数を変更する構成とした。これにより、共通デバイスとしてハードウェア化した識別処理部を、互いに仕様の異なる複数の組み込み機器に搭載する場合でも、組み込み機器の動作クロックに応じた、抽出精度と抽出処理速度に調整することが可能となる。   As described above, in the present embodiment, the number of weak classifiers to be used is changed in accordance with the operation clock of the pattern identification apparatus that executes the identification process. This makes it possible to adjust the extraction accuracy and extraction processing speed according to the operation clock of the embedded device even when the identification processing unit that has been implemented as hardware as a common device is mounted on multiple embedded devices with different specifications. It becomes.

更に、本実施形態では、使用する弱判別器を指定するにあたり、弱判別器の信頼度に応じて指定する構成とした。これにより、上記第1の実施形態に比べ、抽出精度の劣化を抑えることが可能となる。   Furthermore, in the present embodiment, when the weak classifier to be used is specified, it is specified according to the reliability of the weak classifier. Thereby, compared with the said 1st Embodiment, it becomes possible to suppress degradation of extraction accuracy.

[第3の実施形態]
上記第1及び第2の実施形態では、パターン識別装置の動作クロックに応じて使用する弱判別器の数を変化させることで抽出精度と抽出処理速度とのトレードオフを調整することとしたが、本発明はこれに限られない。例えば、抽出対象のオブジェクトの抽出状況に応じて、使用する弱判別器の数を動的に変化させることで、抽出精度と抽出処理速度とのトレードオフを調整するようにしてもよい。
[Third Embodiment]
In the first and second embodiments, the tradeoff between the extraction accuracy and the extraction processing speed is adjusted by changing the number of weak classifiers used according to the operation clock of the pattern identification device. The present invention is not limited to this. For example, the trade-off between the extraction accuracy and the extraction processing speed may be adjusted by dynamically changing the number of weak classifiers to be used according to the extraction status of the object to be extracted.

以下、抽出精度と抽出処理速度とのトレードオフを調整するための本実施形態にかかるパターン識別装置の詳細について説明する。なお、本実施形態にかかるパターン識別装置のハードウェア構成や矩形フィルタ演算部201の詳細構成、パラメータ情報21の構成等は、上記第1の実施形態と同様であるため、ここでは説明を省略する。   Hereinafter, the details of the pattern identification apparatus according to the present embodiment for adjusting the trade-off between the extraction accuracy and the extraction processing speed will be described. Note that the hardware configuration of the pattern identification apparatus according to the present embodiment, the detailed configuration of the rectangular filter calculation unit 201, the configuration of the parameter information 21, and the like are the same as those in the first embodiment, and a description thereof will be omitted here. .

図12は、本発明の第3の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。以下、説明の簡略化のため、第2の実施形態との違いについてのみ説明する。   FIG. 12 is a flowchart showing the operation of the pattern identification apparatus 100 according to the third embodiment of the present invention. Hereinafter, only the differences from the second embodiment will be described for the sake of simplicity.

ステップS1201〜ステップS1220の処理は、図9のステップS901〜ステップS920の処理と同じである。但し、ステップS1202、S1203及びS1217の処理は、それぞれ図9におけるステップS902、S903及びS917の処理とは処理内容が異なる。   The processing from step S1201 to step S1220 is the same as the processing from step S901 to step S920 in FIG. However, the processing contents of steps S1202, S1203, and S1217 are different from those of steps S902, S903, and S917 in FIG. 9, respectively.

ステップS1221では、前のフレームで抽出された抽出対象オブジェクトの数を読み出す。次にステップS1202及びステップS1203では、ここで読み出した前フレームにおける抽出対象オブジェクトの数に基づいて、使用する弱判別器の数及びステージ数を決定する。例えば、前フレームにおいて抽出された抽出対象オブジェクトの数が多い場合には、使用する弱判別器の数を減少させる。   In step S1221, the number of extraction target objects extracted in the previous frame is read. Next, in steps S1202 and S1203, the number of weak discriminators to be used and the number of stages are determined based on the number of objects to be extracted in the previous frame read here. For example, when the number of extraction target objects extracted in the previous frame is large, the number of weak classifiers to be used is decreased.

図13は、本実施形態におけるパターン識別装置が有する、前フレームの抽出対象オブジェクト抽出数と使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。図13中、N1〜N3、Thxy(x:クロック種別、y:ステージ番号)及びMxy(x:クロック種別、y:ステージ番号)は第2の実施形態の図11に示す変数に対応する。 FIG. 13 is a diagram illustrating an example of a table associated with the number of extraction target object extractions of the previous frame and the total number of weak discriminators to be used, which the pattern identification apparatus according to the present embodiment has. In FIG. 13, N1 to N3, Th xy (x: clock type, y: stage number) and M xy (x: clock type, y: stage number) correspond to the variables shown in FIG. 11 of the second embodiment. .

図13に示すテーブルの場合、前フレームにおける抽出対象オブジェクトの抽出数に対応して3つのパラメータが格納されている。図13の中でD1、D2は抽出された抽出対象オブジェクトの数に相当する。本実施形態の場合、抽出された抽出対象オブジェクトの数が多い場合、弱判別器の総数が減少するように設定される。なお、図13に示すテーブルはROM109に格納されているものとする。   In the case of the table shown in FIG. 13, three parameters are stored corresponding to the number of extraction target objects extracted in the previous frame. In FIG. 13, D1 and D2 correspond to the number of extracted objects to be extracted. In this embodiment, when the number of extracted extraction target objects is large, the total number of weak classifiers is set to decrease. 13 is stored in the ROM 109.

ステップS1202及びステップS1203では、前フレームで抽出された抽出対象オブジェクトの数(ステップS1221)とテーブルに記載された条件(D1、D2)とを比較する。これにより、使用するステージ数等を変更する。   In step S1202 and step S1203, the number of extraction target objects extracted in the previous frame (step S1221) is compared with the conditions (D1, D2) described in the table. As a result, the number of stages used is changed.

即ち、抽出対象オブジェクトの数が変化した場合、ステップS1202、ステップS1203では、これに対応する弱判別器の総数及びパラメータ(N1〜N3、Thxy及びMxy)を処理実行判定部203内のレジスタに設定する。 That is, when the number of objects to be extracted changes, in steps S1202 and S1203, the total number of weak discriminators and parameters (N1 to N3, Th xy and M xy ) corresponding thereto are registered in the processing execution determination unit 203. Set to.

ここで設定したパラメータに従って、ステップS1204〜ステップS1220では、識別処理を実行する。   In step S1204 to step S1220, identification processing is executed according to the parameters set here.

ステップS1204〜S1220の処理は、第2の実施形態に示すステップS904〜S920の処理と等価であるが、本実施形態の場合、抽出された抽出対象オブジェクトの数をステップS1217においてカウントしていく点が異なる。   The processing of steps S1204 to S1220 is equivalent to the processing of steps S904 to S920 shown in the second embodiment, but in this embodiment, the number of extracted extraction target objects is counted in step S1217. Is different.

ステップS1217では、記録した抽出対象オブジェクトの数(フレーム処理終了後のカウント値)を、次フレームの識別処理時にステップS1221で読み出し、利用する。当該カウンタはステップS1221で読み出した後、初期化するものとする。   In step S1217, the number of extracted objects to be extracted (count value after completion of frame processing) is read out in step S1221 and used in the next frame identification processing. It is assumed that the counter is initialized after being read in step S1221.

以上説明したように、本実施形態では前フレームにおける抽出結果に従って使用する弱判別器の数を動的に変更する構成とした。これにより、前フレームで抽出された抽出対象オブジェクトの数が少なかった場合には、多くの弱判別器で高精度な抽出が実行されることとなる。また、前フレームで抽出された抽出対象オブジェクトの数が多かった場合には、弱判別器の数を減少させて抽出処理速度優先の処理が実行されることとなる。この結果、動画像に対して所定の時間内にリアルタイムに抽出処理を実行する必要がある場合であっても、適正に抽出処理を実現させることが可能となる。   As described above, in the present embodiment, the number of weak classifiers to be used is dynamically changed according to the extraction result in the previous frame. As a result, when the number of extraction target objects extracted in the previous frame is small, high-precision extraction is executed by many weak classifiers. Further, when the number of extraction target objects extracted in the previous frame is large, the number of weak classifiers is reduced and the extraction processing speed priority process is executed. As a result, even when it is necessary to execute the extraction process on the moving image in real time within a predetermined time, the extraction process can be appropriately realized.

[第4の実施形態]
上記第3の実施形態では、前フレームにおける抽出結果に応じて使用する弱判別器の数を変化させることで抽出精度と抽出処理速度とのトレードオフを調整することとしたが、本発明はこれに限られない。例えば、処理中の現フレームにおける抽出状況に応じて、使用する弱判別器の数を変化させることで、抽出精度と抽出処理速度とのトレードオフを調整するようにしてもよい。
[Fourth Embodiment]
In the third embodiment, the trade-off between the extraction accuracy and the extraction processing speed is adjusted by changing the number of weak classifiers used according to the extraction result in the previous frame. Not limited to. For example, the tradeoff between the extraction accuracy and the extraction processing speed may be adjusted by changing the number of weak discriminators to be used according to the extraction situation in the current frame being processed.

以下、本実施形態にかかるパターン識別装置の構成について説明する。なお、本実施形態にかかるパターン識別装置のハードウェア構成や矩形フィルタ演算部201の詳細構成、パラメータ情報21の構成等は、上記第1の実施形態と同様であるため、ここでも説明は省略する。   Hereinafter, the configuration of the pattern identification device according to the present embodiment will be described. Note that the hardware configuration of the pattern identification apparatus according to the present embodiment, the detailed configuration of the rectangular filter calculation unit 201, the configuration of the parameter information 21, and the like are the same as those in the first embodiment, and a description thereof will be omitted here. .

図14は、本発明の第4の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。以下、説明の簡略化のため、第3の実施形態との違いについてのみ説明する。   FIG. 14 is a flowchart showing the operation of the pattern identification apparatus 100 according to the fourth embodiment of the present invention. Hereinafter, only the differences from the third embodiment will be described for the sake of simplicity.

ステップS1401〜ステップS1421の処理は、図12のステップS1201〜ステップS1221の処理と概ね等価であるが、本実施形態の場合、処理の順序及びステップS1421における処理内容が異なる。   The processing in steps S1401 to S1421 is substantially equivalent to the processing in steps S1201 to S1221 in FIG. 12, but in this embodiment, the processing order and the processing contents in step S1421 are different.

ステップS1404〜ステップS1407でSATデータを処理対象の画像データとしてRAM204に格納すると、処理対象フレームに対する識別処理を開始する。   When the SAT data is stored in the RAM 204 as processing target image data in steps S1404 to S1407, identification processing for the processing target frame is started.

ステップS1421では現在までに抽出された抽出対象オブジェクトの数を読み出す。読み出される値はステップS1417で抽出対象オブジェクトを抽出する毎にカウントアップするカウンタの値である。なお、ステップS1421では、フレーム内の最初の処理ブロックを処理する際に当該カウンタを初期化する。   In step S1421, the number of extraction target objects extracted so far is read. The read value is a counter value that is counted up every time the extraction target object is extracted in step S1417. In step S1421, the counter is initialized when the first processing block in the frame is processed.

ステップS1402及びステップS1403では読み出されたカウント値(フレーム内で抽出された抽出対象オブジェクトの数)に従って、使用する弱判別器を決定する。弱判別器の決定は第3の実施形態と同様に図13に示すテーブルを参照して決定する。   In steps S1402 and S1403, the weak classifier to be used is determined according to the read count value (the number of extraction target objects extracted in the frame). The weak classifier is determined with reference to the table shown in FIG. 13 as in the third embodiment.

即ち、テーブルに示す条件に変化が生じたか否かを判定し、変化が生じたと判定された場合には、対応するパラメータをステップS1402、S1403で設定する。   That is, it is determined whether or not a change has occurred in the conditions shown in the table. If it is determined that a change has occurred, the corresponding parameters are set in steps S1402 and S1403.

ステップS1408〜ステップS1418では、処理ブロックに対する識別処理を実行し、抽出対象オブジェクトが抽出された場合、ステップS1417で抽出数をカウントするカウンタを更新する。部分画像である処理ブロックの処理を終了すると、ステップS1421、ステップS1402及びステップS1403では、再び、テーブルに基づいて、使用する弱判別器の数を再設定する。   In steps S1408 to S1418, identification processing for the processing block is executed, and when an extraction target object is extracted, a counter that counts the number of extractions is updated in step S1417. When the processing of the processing block that is a partial image is completed, in step S1421, step S1402, and step S1403, the number of weak classifiers to be used is reset again based on the table.

以上説明したように、本実施形態では部分画像となる処理ブロック単位で弱判別器の数を再設定する。即ち、現在処理中のフレームにおいて抽出された抽出対象オブジェクトの数に応じて弱判別器の数を処理ブロック単位で動的に変更する。これにより、現在処理中のフレーム内の抽出対象オブジェクトの数が増加し、抽出処理時間に余裕が無くなる可能性が生じた場合には、以降の処理ブロックを処理する際に、弱判別器数を減少させ、抽出処理時間の短縮を優先させることが可能となる。   As described above, in the present embodiment, the number of weak classifiers is reset for each processing block serving as a partial image. That is, the number of weak classifiers is dynamically changed in units of processing blocks according to the number of extraction target objects extracted in the frame currently being processed. As a result, if the number of objects to be extracted in the frame currently being processed increases and there is a possibility that the extraction processing time may run out, the number of weak classifiers is reduced when processing subsequent processing blocks. It is possible to give priority to shortening the extraction processing time.

この結果、動画像に対して所定の時間内にリアルタイムに識別処理を実行する必要がある場合であっても、適正に識別処理を実行することが可能となる。   As a result, even when it is necessary to execute the identification process on the moving image in real time within a predetermined time, the identification process can be appropriately executed.

[第5の実施形態]
上記第1の実施形態及び第2の実施形態では、動作クロックに応じて、使用する弱判別器の数を変化させることで抽出精度と抽出処理速度とのトレードオフを調整することとしたが、本発明はこれに限られない。例えば、ユーザの指定する撮影モードに応じて処理する弱判別器の数を変更するように構成してもよい。
[Fifth Embodiment]
In the first embodiment and the second embodiment, the tradeoff between the extraction accuracy and the extraction processing speed is adjusted by changing the number of weak classifiers to be used according to the operation clock. The present invention is not limited to this. For example, the number of weak classifiers to be processed may be changed according to the shooting mode designated by the user.

以下、抽出精度と抽出処理速度とのトレードオフを調整するための本実施形態にかかるパターン識別装置の構成について説明する。なお、本実施形態にかかるパターン識別装置のハードウェア構成や矩形フィルタ演算部201の詳細構成、パラメータ情報21の構成等は、上記第1の実施形態と同様であるため、ここでは説明を省略する。   Hereinafter, the configuration of the pattern identification device according to the present embodiment for adjusting the trade-off between the extraction accuracy and the extraction processing speed will be described. Note that the hardware configuration of the pattern identification apparatus according to the present embodiment, the detailed configuration of the rectangular filter calculation unit 201, the configuration of the parameter information 21, and the like are the same as those in the first embodiment, and a description thereof will be omitted here. .

また、パターン識別装置100の動作を説明するにあたっては、上記第2の実施形態におけるフローチャート(図9)を用いて行うこととする。   The operation of the pattern identification apparatus 100 will be described using the flowchart (FIG. 9) in the second embodiment.

一般にカメラ等の場合、撮影したい対象に応じて複数の撮影モードが設定可能となっている。図15は撮影モードの例を説明するための図であり、(a)はポートレートモード、(b)は標準モードで撮影する典型的な構図を示す図である。   In general, in the case of a camera or the like, a plurality of shooting modes can be set according to an object to be shot. FIG. 15 is a diagram for explaining an example of the shooting mode, where (a) is a portrait mode and (b) is a diagram showing a typical composition for shooting in the standard mode.

1501、1502は被写体を模式的に表したものである。ポートレートモードでは数少ない被写体1501を比較的大きめに撮影し、被写体以外の背景はぼかして撮影する(例えば画像入力部101の光学系を制御して被写界深度を浅くする)。   Reference numerals 1501 and 1502 schematically represent subjects. In the portrait mode, a few subjects 1501 are photographed relatively large, and the background other than the subject is blurred (for example, the optical system of the image input unit 101 is controlled to reduce the depth of field).

このように、撮影モードに応じてある程度構図を予測することが可能である。即ち、構図中から被写体の検出を行う場合、抽出対象オブジェクトの数を予測することができる。例えばポートレートモードでは被写体の数が少なくかつ背景領域がぼかされることから、抽出される抽出対象オブジェクトの数は少ない。   In this way, it is possible to predict the composition to some extent according to the shooting mode. That is, when the subject is detected from the composition, the number of extraction target objects can be predicted. For example, in the portrait mode, since the number of subjects is small and the background area is blurred, the number of extraction target objects to be extracted is small.

本実施形態ではこのような観点で抽出精度と抽出処理速度とのトレードオフを調整する。具体的にはI/F部111でユーザが撮影モードを指定した場合、ステップS902及びステップS903では指定された撮影モードに応じて実際に使用する弱判別器の数を決定する。   In this embodiment, the trade-off between extraction accuracy and extraction processing speed is adjusted from such a viewpoint. Specifically, when the user designates a shooting mode in the I / F unit 111, the number of weak classifiers to be actually used is determined in step S902 and step S903 according to the designated shooting mode.

図16は、撮影モードと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図であり、ステップS902及びステップS903において、使用する弱判別器を決定する際に使用される。   FIG. 16 is a diagram illustrating an example of a table associating a shooting mode with the total number of weak classifiers to be used, and is used when determining weak classifiers to be used in steps S902 and S903.

N1〜N2、Thxy(x:クロック種別、y:ステージ番号)及びMxy(x:クロック種別、y:ステージ番号)は第2の実施形態において説明したテーブル(図11)と同様である。この場合、N1>N2、またM1yの各ビットは全て1等に指定する。 N1 to N2, Th xy (x: clock type, y: stage number) and M xy (x: clock type, y: stage number) are the same as those in the table (FIG. 11) described in the second embodiment. In this case, each bit of N1> N2 and M1y is designated as 1 or the like.

即ち、ポートレートモードの場合は、より多くの弱判別器(予め学習によって生成した全ての弱判別器)を使用して識別を行い、それ以外の場合は弱判別器の数を削減する。当該テーブルはROM109に格納されているものとする。他のステップでは、ここで設定する条件に従って識別処理を行う。なお、その他のステップは第2の実施形態と同様であるため説明は省略する。   That is, in the portrait mode, identification is performed using more weak classifiers (all weak classifiers generated in advance by learning), and in other cases, the number of weak classifiers is reduced. Assume that the table is stored in the ROM 109. In other steps, identification processing is performed according to the conditions set here. Since other steps are the same as those in the second embodiment, description thereof is omitted.

以上説明したとおり、本実施形態では、ポートレートモードでは学習時に決定した全ての弱判別器を使用して高精度な識別処理を行い、標準モードでは弱判別器の数を減少させて高速な処理を行う構成とした。   As described above, in this embodiment, in the portrait mode, all weak classifiers determined at the time of learning are used to perform high-precision discrimination processing, and in the standard mode, the number of weak classifiers is reduced and high-speed processing is performed. It was set as the structure which performs.

これにより、撮影モードに応じて使用する弱判別器の数を制御することが可能となり、抽出精度と抽出処理速度とのトレードオフを好適に調整することが可能となる。   This makes it possible to control the number of weak classifiers used in accordance with the shooting mode, and to suitably adjust the trade-off between extraction accuracy and extraction processing speed.

[第6の実施形態]
上記第7の実施形態では、撮影モードに応じて使用する弱判別器の数を制御する構成としたが、本発明はこれに限られない。例えば、ユーザの指定する動作モードに応じて使用する弱判別器の数を変更する構成としてもよい。
[Sixth Embodiment]
In the seventh embodiment, the number of weak classifiers to be used is controlled according to the shooting mode. However, the present invention is not limited to this. For example, it is good also as a structure which changes the number of weak discriminators used according to the operation mode which a user designates.

撮像装置の動作モードによっては、画像データの生成と並行してリアルタイムに抽出対象オブジェクトを抽出する場合と、画像データの生成が完了し撮像装置の記録部に保持された画像データから非リアルタイムに抽出対象オブジェクトを抽出する場合とがある。一般に、前者をオンラインモード、後者をオフラインモードと呼ぶ。オンラインモードは撮影動作に対応し、オフラインモードは、例えば、撮影後の画像データに対して何らかの加工・検索等を行いたい場合の動作モードに対応する。   Depending on the operation mode of the imaging device, the extraction target object is extracted in real time in parallel with the generation of the image data, and the non-real time extraction is performed from the image data that has been generated and stored in the recording unit of the imaging device. Sometimes the target object is extracted. In general, the former is called an online mode and the latter is called an offline mode. The online mode corresponds to the shooting operation, and the offline mode corresponds to the operation mode when, for example, it is desired to perform some processing / search on the image data after shooting.

このためオンラインモードでは抽出処理速度が優先され、オフラインモードでは抽出精度が優先される。本実施形態ではこのようにパターン識別装置の動作モードに応じて使用する弱判別器の数を制御する。なお、本実施形態の動作についても第2の実施形態のフローチャート(図9)を使用して説明する。   For this reason, the extraction processing speed has priority in the online mode, and the extraction accuracy has priority in the offline mode. In this embodiment, the number of weak discriminators to be used is controlled according to the operation mode of the pattern discriminating apparatus. The operation of this embodiment will also be described using the flowchart (FIG. 9) of the second embodiment.

具体的にはI/F部111でユーザが動作モードを指定した場合、ステップS902及びステップS903では指定された動作モードに応じて使用する弱判別器の数を決定する。   Specifically, when the user designates an operation mode in the I / F unit 111, the number of weak classifiers to be used is determined in accordance with the designated operation mode in steps S902 and S903.

図17は、動作モードと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図であり、ステップS902及びステップS903で使用する弱判別器を決定する際に使用すされる。   FIG. 17 is a diagram illustrating an example of a table that associates the operation mode with the total number of weak classifiers to be used, and is used when determining weak classifiers to be used in step S902 and step S903.

N1〜N2、Thxy(x:クロック種別、y:ステージ番号)及びMxy(x:クロック種別、y:ステージ番号)は第2の実施形態において説明したテーブル(図11)と同様である。 N1 to N2, Th xy (x: clock type, y: stage number) and M xy (x: clock type, y: stage number) are the same as those in the table (FIG. 11) described in the second embodiment.

図17は、オフラインモード時は学習時に生成した全ての弱判別器を使用して識別処理を行い、オンラインモード時は弱判別器の数を削減して識別処理を行うようにパラメータが設定されている。当該テーブルはROM109に格納されているものとする。他のステップでは、ここで設定する条件に従って識別処理を行う。なお、その他のステップは第2の実施形態と同様であるため説明は省略する。   In FIG. 17, the parameters are set so that the discrimination processing is performed using all weak classifiers generated during learning in the offline mode, and the classification processing is performed by reducing the number of weak classifiers in the online mode. Yes. Assume that the table is stored in the ROM 109. In other steps, identification processing is performed according to the conditions set here. Since other steps are the same as those in the second embodiment, description thereof is omitted.

以上説明したとおり、本実施形態では、オフラインモードでは学習時に決定した全ての弱判別器を使用して高精度な識別処理を行い、オンラインモードでは弱判別器の数を減少させて高速な識別処理を行う構成とした。   As described above, in the present embodiment, in the offline mode, all weak discriminators determined at the time of learning are used to perform high-precision discrimination processing, and in the online mode, the number of weak discriminators is reduced and high-speed discrimination processing is performed. It was set as the structure which performs.

これにより、動作モードに応じて使用する弱判別器の数を制御することが可能となり、抽出精度と抽出処理速度とのトレードオフを好適に調整することが可能となる。   This makes it possible to control the number of weak classifiers to be used according to the operation mode, and to suitably adjust the tradeoff between extraction accuracy and extraction processing speed.

[第7の実施形態]
上記第1〜第6の実施形態では、抽出精度と抽出処理速度とのトレードオフを調整するにあたり、弱判別器の動作を規定するパラメータ情報211を、ROM205に格納する構成とした。しかしながら、本発明はこれに限られない。
[Seventh Embodiment]
In the first to sixth embodiments, the parameter information 211 that defines the operation of the weak discriminator is stored in the ROM 205 when adjusting the trade-off between the extraction accuracy and the extraction processing speed. However, the present invention is not limited to this.

本実施形態では弱判別器の動作を規定するパラメータ情報を、変更不可能な記録部(例えばROM)と変更可能な記録部(例えばRAM)とに混在して格納する場合について説明する。   In the present embodiment, a case will be described in which parameter information that defines the operation of the weak classifier is stored in a mixed recording unit (for example, ROM) and a changeable recording unit (for example, RAM).

図18はROM205及びRAM204に格納する弱判別器の動作を規定するパラメータ情報とその使用状況を模式的に説明する図である。図18(a)は学習によって生成した弱判別器のパラメータ情報をROM205に格納した状態を示している。   FIG. 18 is a diagram schematically illustrating parameter information that defines the operation of the weak classifier stored in the ROM 205 and the RAM 204 and the usage status thereof. FIG. 18A shows a state where the parameter information of the weak classifier generated by learning is stored in the ROM 205.

1つの箱がROM205上の所定の領域に格納する1つの矩形フィルタを規定するパラメータ情報のデータセットである。即ち、図4に示す1つの矩形フィルタに関するパラメータ情報が1つの箱に格納されているものとする。また、左から箱の並び順に、順番に処理する複数の矩形フィルタに関するパラメータ情報が格納されている。   One box is a data set of parameter information that defines one rectangular filter stored in a predetermined area on the ROM 205. That is, it is assumed that parameter information regarding one rectangular filter shown in FIG. 4 is stored in one box. In addition, parameter information regarding a plurality of rectangular filters to be processed in order is stored in the order of boxes from the left.

図18(b)は第1の実施形態で説明した弱判別器の実際の動作を示す。網掛け部の箱に相当する矩形フィルタが実際の処理に使用する矩形フィルタであることを示している。この場合、学習によって生成した矩形フィルタ列を早期に終了することで弱判別器(矩形フィルタ)の数を制御している。   FIG. 18B shows the actual operation of the weak classifier described in the first embodiment. This indicates that the rectangular filter corresponding to the shaded box is a rectangular filter used for actual processing. In this case, the number of weak classifiers (rectangular filters) is controlled by ending the rectangular filter row generated by learning at an early stage.

図18(c)は第2の実施形態で説明した弱判別器の実際の動作を示す。この場合、信頼度が低い特定の矩形フィルタをスキップするように処理することで、実際に使用する弱判別器(矩形フィルタ)の数を制御している。   FIG. 18C shows the actual operation of the weak classifier described in the second embodiment. In this case, the number of weak classifiers (rectangular filters) actually used is controlled by performing processing so as to skip a specific rectangular filter having low reliability.

本実施形態は図18(d)及び図18(e)に示すように動作することを特徴とする。即ち、矩形フィルタを構成するパラメータ情報をROM205(第1の記憶手段)だけでなく、RAM204(第2の記憶手段)にも保持するように構成する。更に、所定位置(以下分岐点と呼ぶ)以降、或いは所定区間はRAM204に格納するパラメータ情報を使用して矩形フィルタ演算処理を実行することを特徴とする。   This embodiment is characterized in that it operates as shown in FIGS. 18 (d) and 18 (e). In other words, the parameter information constituting the rectangular filter is held not only in the ROM 205 (first storage means) but also in the RAM 204 (second storage means). Further, after the predetermined position (hereinafter referred to as a “branch point”) or for a predetermined section, the rectangular filter arithmetic processing is executed using the parameter information stored in the RAM 204.

図19は矩形フィルタ演算部201から見たROM205、RAM204のメモリマップの一例を示す図である。ADR0から(ADR1―1)の範囲に予め学習により作成するパラメータ情報が格納されている。   FIG. 19 is a diagram showing an example of a memory map of the ROM 205 and RAM 204 viewed from the rectangular filter calculation unit 201. Parameter information created by learning in advance is stored in the range of ADR0 to (ADR1-1).

一方、ADR1以上のアドレスはRAM204として確保されており、これによりパターン識別装置の出荷後に性能改善用の追加パラメータ情報等を格納することが出来る。分岐点で、参照するパラメータ情報をROM205からRAM204に変更する場合には、後述するポインタレジスタにRAM204領域のアドレス値(=ADR1以降の値)を設定する。   On the other hand, addresses above ADR1 are secured in the RAM 204, so that additional parameter information for performance improvement can be stored after shipment of the pattern identification device. When the parameter information to be referred to is changed from the ROM 205 to the RAM 204 at the branch point, an address value (= value after ADR1) of the RAM 204 area is set in a pointer register described later.

以下、図20に示すフローチャートを使用して本実施形態の詳細について説明する。なお、説明の簡略化のため、ここでは、第1の実施形態との違いについてのみ説明する。   Hereinafter, the details of this embodiment will be described with reference to the flowchart shown in FIG. For simplification of description, only the difference from the first embodiment will be described here.

ステップS2002では動作クロックに基づいて処理する矩形フィルタ列を指定するための条件を設定する。具体的には分岐が発生する矩形フィルタ数(矩形フィルタ番号と等価)と、対応するパラメータ情報を格納するアドレスとを処理実行判定部203内のレジスタに設定する。なお、以下では、物理的に異なる格納先からパラメータ情報のロードを開始するポイントを分岐と呼ぶこととする。   In step S2002, a condition for designating a rectangular filter row to be processed is set based on the operation clock. Specifically, the number of rectangular filters where the branch occurs (equivalent to the rectangular filter number) and the address for storing the corresponding parameter information are set in the register in the process execution determination unit 203. In the following, a point at which loading of parameter information starts from a physically different storage destination is referred to as a branch.

図21は本実施形態に特有の処理実行判定部203の一部を説明する図である。2111〜211nはポインタアドレスであり、矩形フィルタを規定するパラメータ情報を参照する先頭アドレスを格納するレジスタである。2121〜212nは矩形フィルタ列の分岐点を指定するレジスタであり、矩形フィルタの番号に対応する。   FIG. 21 is a diagram illustrating a part of the processing execution determination unit 203 unique to the present embodiment. Reference numerals 2111 to 211n denote pointer addresses, which are registers that store head addresses that refer to parameter information that defines the rectangular filter. 2121 to 212n are registers for designating branch points of the rectangular filter row, and correspond to the rectangular filter numbers.

2130は比較器であり、分岐点レジスタと処理済みレジスタカウンタとを比較し分岐点を決定する。分岐点に達したと判定した場合、アドレスロード信号とアドレスとを出力する。   Reference numeral 2130 denotes a comparator which compares the branch point register with the processed register counter to determine the branch point. If it is determined that the branch point has been reached, an address load signal and an address are output.

2140は選択器であり、比較器の出力に従って、分岐点に対応する分岐先のアドレスをポインタアドレス2111〜211nの中から選択する。ステップS2002では分岐点レジスタ2121〜212n及びポインタアドレス2111〜211nを設定することとなる。   Reference numeral 2140 denotes a selector that selects a branch destination address corresponding to the branch point from pointer addresses 2111 to 211n according to the output of the comparator. In step S2002, branch point registers 2121 to 212n and pointer addresses 2111 to 211n are set.

図18(d)又は図18(e)に示す例の場合、ステージ毎に1つの分岐点レジスタと1つのポインタアドレスを設定する。   In the case of the example shown in FIG. 18D or 18E, one branch point register and one pointer address are set for each stage.

図22は本実施形態における動作クロックと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。図22中、N1〜N3及びThxy(x:クロック種別、y:ステージ番号)は第1の実施形態と同様の変数である。 FIG. 22 is a diagram showing an example of a table that associates the operation clock and the total number of weak classifiers to be used in this embodiment. In FIG. 22, N1 to N3 and Th xy (x: clock type, y: stage number) are the same variables as in the first embodiment.

ADxy(x:クロック種別、y:ステージ番号)は分岐先のアドレスを指定するポインタ情報であり、Pxy(x:クロック種別、y:ステージ番号)は分岐する矩形フィルタ番号である。 AD xy (x: clock type, y: stage number) is pointer information for designating a branch destination address, and P xy (x: clock type, y: stage number) is a rectangular filter number for branching.

ステップS2002では、動作クロックに従って当該テーブルを参照し、ADxyをポインタアドレス2111〜211nに設定し、Pxyを分岐点レジスタ2121〜212nに設定する。 In step S2002, the table is referenced according to the operation clock, AD xy is set to pointer addresses 2111 to 211n, and P xy is set to branch point registers 2121 to 212n.

図18(d)に示す例の場合、予め学習によって生成し、ROM205としてハード化された矩形フィルタのパラメータ情報に更に矩形フィルタのパラメータ情報を追加する。ステップS2021ではステップS2002で指定する分岐先のアドレスであるRAM204に抽出精度を向上させるための追加の矩形フィルタのパラメータ情報をロードする。   In the case of the example shown in FIG. 18D, the parameter information of the rectangular filter is further added to the parameter information of the rectangular filter that is generated by learning in advance and hardened as the ROM 205. In step S2021, parameter information of an additional rectangular filter for improving the extraction accuracy is loaded into the RAM 204, which is the branch destination address specified in step S2002.

当該追加の矩形フィルタのパラメータ情報はROM205等に格納されたデータであり、CPU108が当該ステップでRAM204に転送する。   The parameter information of the additional rectangular filter is data stored in the ROM 205 or the like, and is transferred to the RAM 204 by the CPU 108 in this step.

識別処理部103を高速な動作クロックで動作させる場合、処理時間に余裕が生じるため、このように矩形フィルタ数を増加させて抽出精度の向上を図る。   When the identification processing unit 103 is operated with a high-speed operation clock, there is a margin in processing time. Thus, the number of rectangular filters is increased in this way to improve extraction accuracy.

図18(e)に示す例の場合、予め学習によって生成し、ROMとしてハード化された矩形フィルタのパラメータ情報の一部を入れ替える。ステップS2021ではステップS2002で指定する分岐先のアドレスであるRAM204に抽出精度或いは抽出処理速度させるための交換矩形フィルタのパラメータ情報をロードする。当該パラメータ情報はROM109等に格納されたデータであり、CPU108が当該ステップでRAM204に転送する。   In the case of the example shown in FIG. 18E, a part of the parameter information of the rectangular filter generated by learning in advance and hardened as a ROM is replaced. In step S2021, parameter information of the exchange rectangular filter for increasing the extraction accuracy or the extraction processing speed is loaded into the RAM 204 that is the branch destination address designated in step S2002. The parameter information is data stored in the ROM 109 or the like, and is transferred to the RAM 204 by the CPU 108 in this step.

このような構成により、識別処理部103がハードウェア化されROM205の内容が固定的に決定された後であっても、矩形フィルタのパラメータ情報の一部を入れ替えることが可能となる。ここで入れ替えるパラメータ情報は性能向上のために新たに学習したパラメータ情報でも良いし、抽出処理速度を拘束条件として加えて新たに学習したパラメータ情報でも良い。このように、パラメータ情報を一部入れ替えることで抽出精度と抽出処理速度時間のトレードオフを調整することが可能となる。   With such a configuration, even after the identification processing unit 103 is implemented as hardware and the contents of the ROM 205 are fixedly determined, part of the parameter information of the rectangular filter can be replaced. The parameter information to be replaced here may be parameter information newly learned for improving performance, or may be parameter information newly learned by adding the extraction processing speed as a constraint condition. In this way, it is possible to adjust the tradeoff between extraction accuracy and extraction processing speed time by partially replacing the parameter information.

ステップS2003では動作クロックに基づいてステージ数を決定する。ここでの処理はステップS503と同じである。   In step S2003, the number of stages is determined based on the operation clock. The process here is the same as step S503.

次に、ステップS2004〜ステップS2007では、処理対象の画像データをRAM204に転送する。ステップS2008では処理ブロックを決定し、ステップS2009では、パラメータ情報の読み出しを開始する。   Next, in step S2004 to step S2007, the image data to be processed is transferred to the RAM 204. In step S2008, a processing block is determined, and in step S2009, reading of parameter information is started.

所定の矩形フィルタ演算処理の結果である評価値に基づいて累積値を算出する(ステップS2010〜ステップS2011)。ステップS2012では処理済みの矩形フィルタ数を更新する。   A cumulative value is calculated based on an evaluation value that is a result of a predetermined rectangular filter calculation process (steps S2010 to S2011). In step S2012, the number of processed rectangular filters is updated.

ステップS2020では矩形フィルタ列の分岐を判断する。具体的には、前述した図21に示す比較器2130でフィルタ処理数カウンタと指定する分岐点フィルタ番号とを比較することで判定する。   In step S2020, the branch of the rectangular filter row is determined. Specifically, the determination is made by comparing the filter processing number counter with the designated branch point filter number by the comparator 2130 shown in FIG.

分岐点であると判断した場合、ステップS2021でパラメータ情報の参照先先頭アドレスを新規に設定する。具体的には、図21に示すポインタアドレス2111をアドレスロード信号に従って矩形フィルタ演算部201のメモリアクセスアドレスカウンタ(図示しない)にロードする。   If it is determined that it is a branch point, in step S2021, the parameter information reference destination head address is newly set. Specifically, the pointer address 2111 shown in FIG. 21 is loaded into a memory access address counter (not shown) of the rectangular filter arithmetic unit 201 according to the address load signal.

以後、矩形フィルタ演算処理に必要なパラメータ情報は、ここで設定した領域を参照して処理する。ここではポインタアドレス2111にRAM204の先頭アドレスが格納(ステップS2002)されているものとする。   Thereafter, parameter information necessary for the rectangular filter calculation processing is processed with reference to the area set here. Here, it is assumed that the head address of the RAM 204 is stored in the pointer address 2111 (step S2002).

矩形フィルタ演算部201はここで再設定したアドレスを先頭アドレスとして矩形フィルタを規定するパラメータ情報を順に読み出しながら処理を続行する(ステップS2009〜ステップS2013)。   The rectangular filter calculation unit 201 continues the processing while sequentially reading out parameter information that defines the rectangular filter with the reset address as the head address (steps S2009 to S2013).

なお、図18(d)、図18(e)に示すタイプの何れであるかは予め生成しROM205に格納する弱判別器の数と抽出に使用するために指定する弱判別器の数の関係で決まり、構成上は同じである。   Note that the type shown in FIGS. 18D and 18E is the relationship between the number of weak classifiers generated in advance and stored in the ROM 205 and the number of weak classifiers specified for use in extraction. The structure is the same.

以下、ステップS2013〜ステップS2019は第1の実施形態のステップS513〜S519と等価であるため説明を省略する。   Hereinafter, step S2013 to step S2019 are equivalent to step S513 to S519 of the first embodiment, and thus description thereof is omitted.

以上、本実施形態では、所定の前提条件に従って弱判別器の系列を柔軟に入れ替えることが可能になる。   As described above, in the present embodiment, it is possible to flexibly replace the weak discriminator series in accordance with a predetermined precondition.

なお、本実施形態ではステップS2021で追加変更するパラメータ情報をロードする場合について説明したが、ステージ毎にロードするように構成しても良い。その場合、1つのステージ終了を判断した時点で(ステップS2013)RAM204にパラメータ情報をロードする。この場合、ステージが複数ある場合に、ステージごとにRAM204を共有するため、より少ないRAM204で本実施形態を実現することができる。   In the present embodiment, the case of loading parameter information to be added and changed in step S2021 has been described. However, the parameter information may be loaded for each stage. In that case, parameter information is loaded into the RAM 204 when it is determined that one stage has ended (step S2013). In this case, when there are a plurality of stages, the RAM 204 is shared for each stage. Therefore, the present embodiment can be realized with a smaller number of RAMs 204.

また、図18(d)、図18(e)に示す例では分岐点が1つの場合について説明したが、分岐点は1つに限られず、複数有っても良い。また、本実施形態ではステージ内の弱判別器単位で弱判別器列を分岐させる場合について説明したが、これに限られず、ステージ単位に分岐するように構成してもよい。すなわち、特定のステージにおけるすべての矩形フィルタ演算処理に必要な全てのパラメータ情報の格納先をRAM204上としても良い。   Moreover, although the case where there is one branch point has been described in the examples illustrated in FIGS. 18D and 18E, the number of branch points is not limited to one, and a plurality of branch points may be provided. In this embodiment, the case where the weak discriminator string is branched in units of weak classifiers in the stage has been described. However, the present invention is not limited to this, and it may be configured to branch in units of stages. That is, the storage destination of all parameter information necessary for all rectangular filter calculation processes in a specific stage may be stored in the RAM 204.

以上本実施形態によれば、識別処理部103をハードウェアデバイスとして作成した後にも性能の向上やトレードオフの調整を図ることが可能となる。更に、全てのパラメータ情報をRAMとして保持する構成に比べて少ない規模で実現することが可能となる。   As described above, according to the present embodiment, it is possible to improve performance and adjust trade-offs even after the identification processing unit 103 is created as a hardware device. Further, it can be realized on a smaller scale than a configuration in which all parameter information is stored as a RAM.

[第8の実施形態]
上記第5及び第6の実施形態では撮影モードや動作モードに連動して、使用する弱判別器の数を決定する構成について説明したが、本発明はこれに限られず、ユーザが抽出条件を直接選択するように構成としてもよい。その場合、ユーザはI/F部111を介して抽出モードを指定することとなる。
[Eighth Embodiment]
In the fifth and sixth embodiments, the configuration in which the number of weak classifiers to be used is determined in conjunction with the shooting mode and the operation mode has been described. However, the present invention is not limited to this, and the user directly sets the extraction condition. It is good also as a structure to select. In that case, the user designates the extraction mode via the I / F unit 111.

図23は2つの抽出モードを有する場合の抽出条件決定のためのテーブル例を示す。N1〜N2、Thxy(x:クロック種別、y:ステージ番号)及びMxy(x:クロック種別、y:ステージ番号)は第2の実施形態と同様である。このようなテーブルを予め作成しておくことでユーザが直接抽出精度と抽出処理速度とのトレードオフを調整することができる。 FIG. 23 shows an example of a table for determining extraction conditions when there are two extraction modes. N1 to N2, Th xy (x: clock type, y: stage number) and M xy (x: clock type, y: stage number) are the same as those in the second embodiment. By creating such a table in advance, the user can directly adjust the trade-off between extraction accuracy and extraction processing speed.

また、上記各実施形態では非特許文献1に開示されている手法を、本発明に適用した場合について説明したが、本発明はこれに限られない。カスケードに接続する複数の弱判別器に基づいて識別を行う様々な識別処理に適用可能である。   Moreover, although each said embodiment demonstrated the case where the method currently disclosed by the nonpatent literature 1 was applied to this invention, this invention is not limited to this. The present invention can be applied to various identification processes for performing identification based on a plurality of weak classifiers connected in cascade.

また、上記各実施形態では弱判別器として矩形フィルタを用いた場合について説明したが、本発明はこれに限られず、他の様々な弱判別器を適用可能である。   Further, although cases have been described with the above embodiments where a rectangular filter is used as the weak classifier, the present invention is not limited to this, and other various weak classifiers can be applied.

また、上記各実施形態ではステージの数とステージ内の矩形フィルタの数とを変更する場合について説明したが、本発明はこれに限られない。ステージ数は固定でステージ内の弱判別器の数のみを変更する構成としてもよい。また、アルゴリズムによってはステージが1つの場合もあるが本発明はそのような方式にも適用可能である。   Further, although cases have been described with the above embodiments where the number of stages and the number of rectangular filters in the stage are changed, the present invention is not limited to this. The number of stages may be fixed and only the number of weak classifiers in the stage may be changed. Also, depending on the algorithm, there may be one stage, but the present invention is also applicable to such a system.

また、上記各実施形態では画像データから特定のオブジェクトを抽出する場合について説明したが、本発明はこれに限られず、音声信号等の1次元信号から特定のオブジェクト(パターン)を識別する装置に適用することも可能である。   In each of the above embodiments, the case where a specific object is extracted from image data has been described. However, the present invention is not limited to this, and the present invention is applied to an apparatus that identifies a specific object (pattern) from a one-dimensional signal such as an audio signal. It is also possible to do.

また、上記第2の実施形態では信頼度に基づいて使用する弱判別器を予め指定するマスク情報を作成する構成としたが、本発明はこれに限定されない。例えば、図11に示すマスク情報Mxyを処理実行判定部203に設定する代わりに、信頼度閾値を処理実行判定部203に直接設定する構成としてもよい。更に、ステップS902でパラメータ情報の信頼度と設定する信頼度とを毎回比較して、対応する矩形フィルタを使用するか否かを判定する構成としても良い。 In the second embodiment, the mask information for preliminarily specifying the weak classifier to be used is created based on the reliability. However, the present invention is not limited to this. For example, instead of setting the mask information M xy shown in FIG. 11 in the process execution determination unit 203, a reliability threshold may be directly set in the process execution determination unit 203. Furthermore, it is good also as a structure which determines whether the reliability of parameter information is compared with the reliability set in step S902 each time, and a corresponding rectangular filter is used.

なお、上記各実施形態では識別処理部103をハードウェアデバイスにより実現する場合について説明したが、DSP(Digital Signal Processor)等でソフトウェアにより実現する構成としてもよい。   In each of the above embodiments, the case where the identification processing unit 103 is realized by a hardware device has been described. However, a configuration in which the identification processing unit 103 is realized by software such as a DSP (Digital Signal Processor) may be used.

[他の実施形態]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
[Other Embodiments]
Note that the present invention can be applied to a system (for example, a copier, a facsimile machine, etc.) consisting of a single device even when applied to a system composed of a plurality of devices (for example, a host computer, interface device, reader, printer, etc.). You may apply.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給するよう構成することによっても達成されることはいうまでもない。この場合、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読出し実行することにより、上記機能が実現されることとなる。なお、この場合、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Needless to say, the object of the present invention can also be achieved by supplying a system or apparatus with a recording medium that records a program code of software that implements the functions of the above-described embodiments. In this case, the function is realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the recording medium. In this case, the recording medium on which the program code is recorded constitutes the present invention.

プログラムコードを供給するための記録媒体としては、例えば、フロッピ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As a recording medium for supplying the program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like is used. be able to.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合に限られない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, the present invention is not limited to the case where the functions of the above-described embodiments are realized by executing the program code read by the computer. For example, an OS (operating system) running on a computer performs part or all of actual processing based on an instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.

さらに、記録媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、前述した実施形態の機能が実現される場合も含まれる。つまり、プログラムコードがメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって実現される場合も含まれる。   Further, when the program code read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the functions of the above-described embodiments are realized. Is also included. That is, after the program code is written in the memory, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and is realized by the processing. This is also included.

本発明の第1の実施形態にかかる情報処理装置(パターン識別装置100)の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus (pattern identification device 100) concerning the 1st Embodiment of this invention. 識別処理部103の詳細を説明する図である。5 is a diagram for explaining details of an identification processing unit 103. FIG. 矩形フィルタ演算部201の詳細構成を示す図である。3 is a diagram illustrating a detailed configuration of a rectangular filter calculation unit 201. FIG. パラメータ情報211の一例を示す図である。It is a figure which shows an example of the parameter information 211. 本発明の第1の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pattern identification apparatus 100 concerning the 1st Embodiment of this invention. 弱判別器(矩形フィルタ)の総数と抽出精度との関係を模式的に示す図である。It is a figure which shows typically the relationship between the total number of weak discriminators (rectangular filter) and extraction accuracy. 動作クロックと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。It is a figure which shows an example of the table which associates an operation clock and the total number of weak discriminators to be used. SATデータから矩形ブロックを算出する方法を説明するための図である。It is a figure for demonstrating the method to calculate a rectangular block from SAT data. 本発明の第2の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pattern identification apparatus 100 concerning the 2nd Embodiment of this invention. ブースティング学習にアルゴリズムによって得られる弱判別器数と、対応する弱判別器の信頼度との関係を模式的に示した図である。It is the figure which showed typically the relationship between the number of weak classifiers obtained by an algorithm for boosting learning, and the reliability of a corresponding weak classifier. 動作クロックと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。It is a figure which shows an example of the table which associates an operation clock and the total number of weak discriminators to be used. 本発明の第3の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pattern identification apparatus 100 concerning the 3rd Embodiment of this invention. 前フレームの抽出対象オブジェクト抽出数と使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。It is a figure which shows an example of the table which correlates the extraction object extraction number of the previous frame, and the total number of weak discriminators to be used. 本発明の第4の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pattern identification apparatus 100 concerning the 4th Embodiment of this invention. 撮影モードを説明するための図である。It is a figure for demonstrating imaging | photography mode. 撮影モードと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。It is a figure which shows an example of the table which associates imaging | photography mode and the total number of weak discriminators to be used. 動作モードと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。It is a figure which shows an example of the table which associates an operation mode and the total number of weak discriminators to be used. ROM205及びRAM204に格納する弱判別器の動作を規定するパラメータ情報とその使用状況を模式的に説明する図である。It is a figure which illustrates typically the parameter information which prescribes | regulates the operation | movement of the weak discriminator stored in ROM205 and RAM204, and its use condition. ROM205、RAM204のメモリマップの一例を示す図である。3 is a diagram illustrating an example of a memory map of a ROM 205 and a RAM 204. FIG. 本発明の第7の実施形態にかかるパターン識別装置100の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pattern identification apparatus 100 concerning the 7th Embodiment of this invention. 本発明の第7の実施形態にかかるパターン識別装置100の処理実行判定部203の一部を説明するための図である。It is a figure for demonstrating a part of process execution determination part 203 of the pattern identification device 100 concerning the 7th Embodiment of this invention. 動作クロックと使用する弱判別器の総数とを関連付けるテーブルの一例を示す図である。It is a figure which shows an example of the table which associates an operation clock and the total number of weak discriminators to be used. 2つの抽出モードを有する場合の抽出条件決定のためのテーブルの一例を示す図である。It is a figure which shows an example of the table for extraction condition determination in the case of having two extraction modes. ブースティング学習アルゴリズムにより生成された複数の弱判別器群からなる判別器をカスケードに接続し、判別器毎に打ち切り判定を行いながら処理を進める手法を説明するための図である。It is a figure for demonstrating the method of connecting a discriminator which consists of a some weak discriminator group produced | generated by the boosting learning algorithm to a cascade, and advancing a process, performing an abort determination for every discriminator. 特定のオブジェクトを抽出するための矩形フィルタの例を示す図である。It is a figure which shows the example of the rectangular filter for extracting a specific object. 処理対象の画像データを表わす図である。It is a figure showing the image data of a process target.

Claims (11)

カスケードに接続されてデータを処理する複数の弱判別器と、
前記複数の弱判別器それぞれの処理内容を規定する情報を格納する第1の格納手段と、
前記データを処理するにあたっての前提条件と、前記複数の弱判別器のうち前記データの処理に使用すべき弱判別器を決定するための情報とが、該前提条件ごとに規定されたテーブルを格納する第2の格納手段と、
前記テーブルを参照することにより、前記データの処理に使用すべき弱判別器を前記複数の弱判別器から選択する選択手段と、
前記選択手段により選択された前記弱判別器に対応する前記処理内容を規定する情報に基づいて、該弱判別器が前記データを処理することで得られた評価値を用いて、前記データよりオブジェクトを抽出する抽出手段と
を備えることを特徴とする情報処理装置。
A plurality of weak classifiers connected to the cascade to process the data,
First storage means for storing information defining the processing content of each of the plurality of weak classifiers;
Preconditions for processing the data and information for determining weak classifiers to be used for processing the data among the plurality of weak classifiers are stored in a table defined for each precondition. Second storage means for
Selecting means for selecting, from the plurality of weak classifiers, weak classifiers to be used for processing the data by referring to the table;
Based on the information that defines the processing content corresponding to the weak classifier selected by the selection means, an evaluation value obtained by processing the data by the weak classifier is used. An information processing apparatus comprising: extraction means for extracting
前記テーブルには、
前記抽出手段の処理速度に応じて、使用すべき弱判別器の数が、複数の弱判別器をカスケードに接続してなるステージ単位に規定されていることを特徴とする請求項1に記載の情報処理装置。
In the table,
The number of weak classifiers to be used is defined in units of stages formed by connecting a plurality of weak classifiers in cascade according to the processing speed of the extraction unit. Information processing device.
前記テーブルには、
前記抽出手段の処理速度に応じて、使用すべき弱判別器を指定する情報が、複数の弱判別器をカスケードに接続してなるステージ単位に規定されていることを特徴とする請求項1に記載の情報処理装置。
In the table,
2. The information for designating weak classifiers to be used according to the processing speed of the extraction means is defined for each stage formed by connecting a plurality of weak classifiers in cascade. The information processing apparatus described.
前記使用すべき弱判別器を指定する情報は、前記処理内容を規定する情報に含まれる、前記弱判別器の信頼度に基づいて生成されることを特徴とする請求項3に記載の情報処理装置。   4. The information processing according to claim 3, wherein the information specifying the weak classifier to be used is generated based on a reliability of the weak classifier included in the information defining the processing content. apparatus. 前記データが複数のフレームから構成される画像データである場合において、
前記テーブルには、
前記抽出手段により前フレームの画像データから抽出されたオブジェクトの数に応じて、使用すべき弱判別器の数が、複数の弱判別器をカスケードに接続してなるステージ単位に規定されていることを特徴とする請求項1に記載の情報処理装置。
In the case where the data is image data composed of a plurality of frames,
In the table,
The number of weak classifiers to be used is defined in units of stages formed by connecting a plurality of weak classifiers in cascade according to the number of objects extracted from the image data of the previous frame by the extraction means. The information processing apparatus according to claim 1.
前記データが撮像装置により生成された画像データである場合において、
前記テーブルには、
該撮像装置が画像データを生成した際の撮影モードに応じて、使用すべき弱判別器を指定する情報が、複数の弱判別器をカスケードに接続してなるステージ単位に規定されていることを特徴とする請求項1に記載の情報処理装置。
In the case where the data is image data generated by an imaging device,
In the table,
Information specifying the weak discriminator to be used is specified for each stage formed by connecting a plurality of weak discriminators in cascade according to the shooting mode when the imaging device generates image data. The information processing apparatus according to claim 1.
前記データが撮像装置により生成される画像データである場合において、
前記テーブルには、
該撮像装置による画像データを生成する動作と並行して画像データの処理を行うモードであるか、該撮像装置による画像データを生成する動作が完了した後に画像データの処理を行うモードであるかに応じて、使用すべき弱判別器の数が、複数の弱判別器をカスケードに接続してなるステージ単位に規定されていることを特徴とする請求項1に記載の情報処理装置。
In the case where the data is image data generated by an imaging device,
In the table,
Whether it is a mode for processing image data in parallel with an operation for generating image data by the imaging device, or a mode for processing image data after the operation for generating image data by the imaging device is completed Accordingly, the number of weak classifiers to be used is defined in units of stages formed by connecting a plurality of weak classifiers in cascade.
前記テーブルには、使用すべきステージの数が規定され、
前記抽出手段は、該規定されたステージの数のもとで前記データを処理することで各ステージごとに得られた前記弱判別器の評価値の累積値を用いて、前記データよりオブジェクトを抽出することを特徴とする請求項2乃至7のいずれか1項に記載の情報処理装置。
The table defines the number of stages to be used,
The extraction means extracts an object from the data by using the accumulated value of the evaluation values of the weak classifiers obtained for each stage by processing the data under the specified number of stages. The information processing apparatus according to claim 2, wherein the information processing apparatus is an information processing apparatus.
前記第1の格納手段は、書き換え不可能な第1の記憶手段と、書き換え可能な第2の記憶手段とを備え、
前記抽出手段は、前記前提条件に応じて、前記第1の記憶手段または前記第2の記憶手段のいずれかに格納された前記処理内容を規定する情報に基づいて前記データよりオブジェクトを抽出することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
The first storage means includes a non-rewritable first storage means and a rewritable second storage means,
The extraction unit extracts an object from the data based on information defining the processing content stored in either the first storage unit or the second storage unit according to the precondition. The information processing apparatus according to any one of claims 1 to 8.
カスケードに接続される複数の弱判別器を用いてデータを処理する情報処理装置における情報処理方法であって、
前記複数の弱判別器それぞれの処理内容を規定する情報を格納する第1の格納工程と、
前記データを処理するにあたっての前提条件と、前記複数の弱判別器のうち前記データの処理に使用すべき弱判別器を決定するための情報とが、該前提条件ごとに規定されたテーブルを格納する第2の格納工程と、
前記テーブルを参照することにより、前記データの処理に使用すべき弱判別器を前記複数の弱判別器から選択する選択工程と、
前記選択工程において選択された前記弱判別器に対応する前記処理内容を規定する情報に基づいて、前記データを処理することで得られた該弱判別器の評価値を用いて、前記データよりオブジェクトを抽出する抽出工程と
を備えることを特徴とする情報処理方法。
An information processing method in an information processing apparatus that processes data using a plurality of weak classifiers connected in cascade,
A first storage step of storing information defining the processing content of each of the plurality of weak classifiers;
Preconditions for processing the data and information for determining weak classifiers to be used for processing the data among the plurality of weak classifiers are stored in a table defined for each precondition. A second storing step,
By selecting the weak discriminator to be used for processing the data from the plurality of weak discriminators by referring to the table,
Using the evaluation value of the weak classifier obtained by processing the data based on the information defining the processing content corresponding to the weak classifier selected in the selection step, the object from the data An information processing method comprising: an extraction step for extracting.
請求項10に記載の情報処理方法をコンピュータによって実行させるためのプログラム。 A program for causing a computer to execute the information processing method according to claim 10.
JP2007285401A 2007-11-01 2007-11-01 Information processing apparatus and information processing method Active JP5101993B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007285401A JP5101993B2 (en) 2007-11-01 2007-11-01 Information processing apparatus and information processing method
PCT/JP2008/070158 WO2009057815A1 (en) 2007-11-01 2008-10-29 Information processing apparatus and information processing method
US12/682,028 US8655057B2 (en) 2007-11-01 2008-10-29 Information processing apparatus and information processing method
CN2008801136711A CN101842809B (en) 2007-11-01 2008-10-29 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007285401A JP5101993B2 (en) 2007-11-01 2007-11-01 Information processing apparatus and information processing method

Publications (3)

Publication Number Publication Date
JP2009116400A true JP2009116400A (en) 2009-05-28
JP2009116400A5 JP2009116400A5 (en) 2010-12-16
JP5101993B2 JP5101993B2 (en) 2012-12-19

Family

ID=40591189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007285401A Active JP5101993B2 (en) 2007-11-01 2007-11-01 Information processing apparatus and information processing method

Country Status (4)

Country Link
US (1) US8655057B2 (en)
JP (1) JP5101993B2 (en)
CN (1) CN101842809B (en)
WO (1) WO2009057815A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008704A (en) * 2009-06-29 2011-01-13 Canon Inc Image processing apparatus, image processing method and program
JP2011086263A (en) * 2009-10-19 2011-04-28 Canon Inc Data processing apparatus, and processing method therefor
JP2011086207A (en) * 2009-10-16 2011-04-28 Canon Inc Apparatus and method for processing information and computer program
JP2011242898A (en) * 2010-05-14 2011-12-01 Canon Inc Data processing device and data processing method
JP2012027620A (en) * 2010-07-21 2012-02-09 Canon Inc Data processing apparatus and control method thereof
JP2012048323A (en) * 2010-08-24 2012-03-08 Canon Inc Information processor, information processing method and program
JP2013020352A (en) * 2011-07-08 2013-01-31 Fujifilm Corp Object detection device, method and program
US8700860B2 (en) 2009-10-16 2014-04-15 Canon Kabushiki Kaisha Information processing apparatus, method and computer program
JP2016012302A (en) * 2014-06-30 2016-01-21 株式会社デンソー Object detector

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010272004A (en) * 2009-05-22 2010-12-02 Sony Corp Discriminating apparatus, discrimination method, and computer program
JP5340088B2 (en) * 2009-09-07 2013-11-13 キヤノン株式会社 Information processing method and apparatus
JP5451302B2 (en) * 2009-10-19 2014-03-26 キヤノン株式会社 Image processing apparatus and method, program, and storage medium
JP5336995B2 (en) * 2009-10-19 2013-11-06 キヤノン株式会社 Feature point positioning device, image recognition device, processing method thereof, and program
JP2011128990A (en) * 2009-12-18 2011-06-30 Canon Inc Image processor and image processing method
JP5406705B2 (en) * 2009-12-28 2014-02-05 キヤノン株式会社 Data correction apparatus and method
JP5778983B2 (en) * 2011-05-17 2015-09-16 キヤノン株式会社 Data processing apparatus, data processing apparatus control method, and program
US8873112B2 (en) 2011-10-21 2014-10-28 Canon Kabushiki Kaisha Image processing apparatus and determination method
JP7402623B2 (en) 2019-06-17 2023-12-21 キヤノン株式会社 Filter processing device and its control method
CN111339749B (en) * 2020-03-02 2022-05-20 乐山师范学院 Unconditional text generating method, text generating device and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163827A (en) * 2001-11-22 2003-06-06 Minolta Co Ltd Object extracting device and photographing device
JP2005100121A (en) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd Device and program for determination of type and discrimination condition of feature quantity used in discrimination processing, recording medium with program recorded, and device for selection of data of specific content
JP2007109229A (en) * 2005-10-09 2007-04-26 Omron Corp Apparatus and method for detecting prescribed subject

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5508823A (en) * 1991-08-28 1996-04-16 Canon Kabushiki Kaisha Image processing method and apparatus
KR100682906B1 (en) * 2004-12-09 2007-02-15 삼성전자주식회사 Apparatus and method for detecting face in image using boost algorithm
JP5008269B2 (en) * 2005-04-08 2012-08-22 キヤノン株式会社 Information processing apparatus and information processing method
CN100336071C (en) * 2005-08-19 2007-09-05 清华大学 Method of robust accurate eye positioning in complicated background image
JP4624889B2 (en) * 2005-08-30 2011-02-02 富士フイルム株式会社 Face detection method, apparatus and program
CN101491075B (en) * 2006-07-07 2013-01-30 佳能株式会社 Image processing device, and image processing method
JP4948379B2 (en) * 2007-12-18 2012-06-06 キヤノン株式会社 Pattern discriminator generation method, information processing apparatus, program, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163827A (en) * 2001-11-22 2003-06-06 Minolta Co Ltd Object extracting device and photographing device
JP2005100121A (en) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd Device and program for determination of type and discrimination condition of feature quantity used in discrimination processing, recording medium with program recorded, and device for selection of data of specific content
JP2007109229A (en) * 2005-10-09 2007-04-26 Omron Corp Apparatus and method for detecting prescribed subject

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008704A (en) * 2009-06-29 2011-01-13 Canon Inc Image processing apparatus, image processing method and program
US8849035B2 (en) 2009-06-29 2014-09-30 Canon Kabushiki Kaisha Image processing apparatus image processing method, and control program to perform face-detection processing
US8700860B2 (en) 2009-10-16 2014-04-15 Canon Kabushiki Kaisha Information processing apparatus, method and computer program
JP2011086207A (en) * 2009-10-16 2011-04-28 Canon Inc Apparatus and method for processing information and computer program
JP2011086263A (en) * 2009-10-19 2011-04-28 Canon Inc Data processing apparatus, and processing method therefor
JP2011242898A (en) * 2010-05-14 2011-12-01 Canon Inc Data processing device and data processing method
US9003167B2 (en) 2010-05-14 2015-04-07 Canon Kabushiki Kaisha Data processing apparatus and data processing method
JP2012027620A (en) * 2010-07-21 2012-02-09 Canon Inc Data processing apparatus and control method thereof
US8891877B2 (en) 2010-07-21 2014-11-18 Canon Kabushiki Kaisha Data processing apparatus and control method thereof
JP2012048323A (en) * 2010-08-24 2012-03-08 Canon Inc Information processor, information processing method and program
JP2013020352A (en) * 2011-07-08 2013-01-31 Fujifilm Corp Object detection device, method and program
US8644625B2 (en) 2011-07-08 2014-02-04 Fujifilm Corporation Object detection device, method and program
JP2016012302A (en) * 2014-06-30 2016-01-21 株式会社デンソー Object detector

Also Published As

Publication number Publication date
JP5101993B2 (en) 2012-12-19
US20100209010A1 (en) 2010-08-19
CN101842809A (en) 2010-09-22
US8655057B2 (en) 2014-02-18
CN101842809B (en) 2012-09-05
WO2009057815A1 (en) 2009-05-07

Similar Documents

Publication Publication Date Title
JP5101993B2 (en) Information processing apparatus and information processing method
JP5340088B2 (en) Information processing method and apparatus
US9021347B2 (en) Information processing method and apparatus, program, and storage medium
JP5675233B2 (en) Information processing apparatus, recognition method thereof, and program
EP3035241A1 (en) Performing object detection
JP6161266B2 (en) Information processing apparatus, control method therefor, electronic device, program, and storage medium
CN106469455B (en) Image processing method, image processing apparatus, and recording medium
US9600747B2 (en) Image forming apparatus and control method that execute a plurality of rendering processing units in parallel
JP4527674B2 (en) Motion detection processing apparatus and method
US9858293B2 (en) Image processing apparatus and image processing method
CN111767752B (en) Two-dimensional code identification method and device
JP2017182480A (en) Image processing device and image processing method
JP2015026117A (en) Image processing method, image processing apparatus, program, and recording medium
JP2010271792A (en) Image processing apparatus and method
JP5686548B2 (en) Information processing apparatus, information processing method, and program
CN114550062A (en) Method and device for determining moving object in image, electronic equipment and storage medium
JP2008269181A (en) Object detector
JP4253265B2 (en) Shadow detection apparatus, shadow detection method and shadow detection program, image processing apparatus using shadow detection apparatus, image processing method using shadow detection method, and image processing program using shadow detection program
JP4376577B2 (en) Image processing apparatus, image processing method, computer-readable recording medium storing program, and program
JPH08287221A (en) Processor and method for image processing
JP5868054B2 (en) Pattern identification apparatus, method and program
CN117373020A (en) Instance segmentation method and system based on geometric constraint dynamic convolution
CN111738920A (en) FPGA (field programmable Gate array) framework for panoramic stitching acceleration and panoramic image stitching method
JP2021047653A (en) Learning model generation device, image correction device, learning model generation program, and image correction program
JP2005204263A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5101993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3