JP2015204030A - 認識装置及び認識方法 - Google Patents
認識装置及び認識方法 Download PDFInfo
- Publication number
- JP2015204030A JP2015204030A JP2014083781A JP2014083781A JP2015204030A JP 2015204030 A JP2015204030 A JP 2015204030A JP 2014083781 A JP2014083781 A JP 2014083781A JP 2014083781 A JP2014083781 A JP 2014083781A JP 2015204030 A JP2015204030 A JP 2015204030A
- Authority
- JP
- Japan
- Prior art keywords
- image
- candidate
- attribute
- candidate area
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】画像から、被写体の候補領域を抽出する候補領域抽出手段と、前記候補領域抽出手段により抽出された被写体の候補領域から前記画像の属性に関する特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段で抽出された特徴量に基づいて、前記候補領域抽出手段により抽出された被写体の候補領域の属性を判定する属性判定手段と、前記属性判定手段の判定結果を統合することにより、画像の属性を同定する判定結果統合手段とを有する。
【選択図】図1
Description
本発明は前述の問題点に鑑み、様々な被写体を手掛かりにして処理負荷の低い方法で画像のシーンの判別を行うことができるようにすることを目的とする。
以下、図面を参照して本発明の認識装置を実施するための形態の例を説明する。本認識装置は、入力画像を受け取り、その画像があらかじめ定められた複数のシーンのクラスのいずれに属するかを正しく判別することを目的とする。
<認識フェーズ>
まず、認識処理の流れを図2のフローチャートを用いて説明する。
S201では、画像入力部101が画像データを受け取る。ここで、本発明の実施形態における画像データとは、カラー画像、動画、または距離画像といった様々な形式の映像情報、およびそれらの組み合わせを指す。本実施形態においては、画像入力部101には静止画のカラー画像が入力されるものとする。さらに、本ステップでは画像に応じてサイズの拡大縮小や輝度値の正規化等、以降の認識処理に必要な前処理を必要に応じて行う。
次に、S302では、隣接する全てのSPのペアについて、(1)テクスチャ特徴の類似度、および(2)サイズの類似度を算出する。これを数式1のように所定の係数α(0≦α≦1)で重み付け和した値をSPペアの類似度とする。
S203では、特徴量抽出部103が各候補領域から特徴量を抽出する。抽出する特徴量は複数の種類を含む。ここでは、図4のフローチャートのように、6種類の特徴量の抽出を行う。
(2)S402では、候補領域の面積と位置を出力する。ただし、ここで面積の値は画像全体を1として正規化した値とし、位置は画像の縦横の長さを1として正規化した領域の重心位置とする。
(4)S404では、候補領域内の色SIFT特徴と、候補領域の周囲の色SIFT特徴の頻度ヒストグラムの類似度を、特徴量として算出する。なお、ここで類似度としてはヒストグラム交差を用いる。
以上のような特徴を用いることで、候補領域がその周囲から独立した物体領域か否かをある程度判別することが可能となる。
S601で、候補領域をアンサンブル分類木に入力すると、判定処理をS603〜S607において、各々の分類木ごとに行う。
S604では、判別結果によって次の枝を決定して進む。
S605では、葉ノードに到達したか否かを判断し、到達していない場合はS604に戻り、各ノードでの判別と移動を葉ノードにたどり着くまで繰り返す。葉ノードに到達したら、葉ノードに格納されている学習データのシーンクラスの比率を参照する。これが入力候補領域のシーンクラスの尤度スコアになる。
なお、投票の方法はこれ以外にもいくつかバリエーションがある。例えば葉ノードの最大比率のシーンクラスを一つ選んで1票のみを投票するような形態でもよい。
次に、S206では、こうして得られた投票の合計数の最大のシーンクラスを入力画像のシーンクラスとして出力する。ただし、ここで別の形態として、いずれのシーンクラスの投票数も所定の閾値に未たない場合には、シーンクラスは不明であると出力してもよい。また逆に、複数のシーンクラスの投票数が同時に所定の閾値を超えている場合は、該当するシーンクラス全てを出力してもよい。
次に、学習フェーズと呼ばれる、アンサンブル分類木の学習の処理について説明する。
本処理の目的は、ユーザーから提供される(1)学習画像セット、およびそれに対応する(2)シーンクラスの教師値、および(3)物体の位置の教師値、の3つを属性判定部104に与えて訓練する。そして、入力画像に対して正しくシーンクラスの種別が出力できるようなアンサンブル分類木を作成することである。
まず、S901では、画像入力部101が学習画像を入力する。また同時に、画像属性データ入力部107が各学習画像に対応するシーンクラスの教師値を入力する。
ここでの物体位置データとは、学習画像1枚1枚について、図10(a)に示すように、画像に含まれる物体領域の位置をユーザーが教師値として用意しておいたものである。図10(a)では、物体領域の位置の教師値の形態の一例として物体の領域に外接する矩形で表している(教師値の矩形の一部に記号1002a〜1002dを付して示している)。
さらに、オーバーラップ値が所定の値未満(ここでは、0.2未満とする)だった候補領域を、非物体クラスの領域として以降の学習に用いる。但し非物体クラスの領域数は物体の領域の数よりも多数のため、適当にサンプリングして数を減らして用いる。
S1103では、根ノードから学習を開始する。まず学習データが存在するシーンクラスを2グループにランダムに分ける。更に、非物体領域も独立した一つのシーンクラスとして見なし、これも2グループのどちらかをランダムに選んでまとめて割り振る。
S1102〜S1106では、このようにしてランダムな2グループの定義と、SVMの学習と、SVMの判別結果の評価を所定の回数繰り返す。
S1108では、採用したSVMの学習パラメータを用いて学習データを改めて判別してSVMスコアが正か負かで2つに分割し、それぞれを右と左の枝のノードに割り当てる。そして、左右の各枝においてS1102からの処理を再帰的に繰り返す。
ここまでの説明では、被写体の存在位置を教師値として与える学習の方法について述べたが、学習時の被写体の位置の教示は本発明において必須の要件ではない。本発明の適用の範囲がこの形態に限定されないことを示すために、以下に被写体の教示方法の他の派生形態の説明を行う。
(1)ユーザーが被写体の位置を全ての画像について多数教示する。
(2)ユーザーが被写体の位置を一部のみ教示する。
(3)ユーザーが被写体の位置を教示しない。
(4)ユーザーがシーンクラスに特に関連が強いと考える被写体の位置のみ教示する。
形態例(2)は、半教師学習と呼ばれる公知の学習手法に類する。具体的には、まず物体位置が教示されている学習画像から物体領域の特徴量を抽出する。次に、教師値の与えられてない学習画像からも候補領域を抽出し、それらの特徴量を求める。次に、候補領域のうち、いずれかの教示された領域と所定値以上に特徴量が類似している領域があれば、それらも学習用の物体領域として優先的に採用する。所定値以下の領域は、非物体クラスの学習データとする。以上が形態例(2)の方法の説明である。
まず、第1の工夫として、データの数および分類木の数を増やし、認識時の投票の数を増やすことである。アンサンブル学習の一般的性質として、個々の弱識別器(分類木)の判別精度が低くても、バリエーションが大きければ弱識別器の数の増加につれて判別精度が漸近的に上がることは広く公知である。
即ち、S922で候補領域を抽出した後に、S923でオーバーラップ値を推定して物体度とし、S924で所定の値よりも物体度の低い領域を除いた上で、S925で学習および認識を行う。
次に、数式4の情報量を拡張し、学習データの重要性の重みを考慮した情報量基準として、数式3を拡張して以下のように定義する。これを用いて判別器の学習を行えばよい。
以上、ここまで学習フェーズにおける被写体領域の教示方法の派生の形態例(1)〜(4)について述べた。
以降では、本発明に係る認識装置の全体構成の派生の形態について述べる。
ここでは、本実施形態の派生の形態として、既存のシーン分類の方法で一度大まかにシーンを分けておいて、その後に本発明を適用して詳細なシーンを判別する形態について述べる。
図13に認識装置の構成図を示す。
画像入力部111には、カメラの画像が入力される。大分類判定部112は、非特許文献6のBag of Words手法により、パーティシーン、スポーツシーン、風景画像シーン、その他さまざまなシーンを分類する。
小分類判定部113a〜113cがそれぞれ備える属性判定部は大分類ごとに異なった学習データで学習した異なったパラメータ(判定辞書)を備える。
前述したように、第1の実施形態の認識装置によれば、画像中の物体を分析して詳細に画像のシーンを判別することができる。また、各シーンにおいてどのような被写体を識別するべきか予め教示することなくシーン判別の学習を行うことができる。
また、判別対象のシーン数が増えても、認識処理時間が著しく増加しない。また、被写体の有無のみならず被写体のバリエーションの差異に基づいて類似のシーンを判別することも可能である。
第2の実施形態は、第1の実施の形態を拡張した形態である。拡張であるので、ここでは相違点のみに絞って簡便に説明する。
第1の実施形態では、物体の領域を手掛かりとして、これを分類することでシーンクラスを推定した。この場合、物体が存在しないような画像シーン、例えば海や山といった風景のみのシーンでは判別の手掛かりが存在しない。
第3の実施形態の認識装置は、動画を用いて動画のシーンクラスを判別することを目的とするものである。本実施形態では特に監視カメラ画像の正常状態・異常状態について判別を行う形態について述べる。監視カメラ画像の異常状態としては複数のタイプが考えられるが、ここでは群衆の異常行動を判別するような認識装置について述べる。
画像入力部131には、監視カメラの動画像が入力される。人体候補領域抽出部132aは、第2の実施形態と同様にして非特許文献7等の人体検出器の手法によって人体を検出する部位である。ここで抽出された人体は、人体特徴量抽出部133aにて人体候補領域中の見えの特徴量を算出する。
まず、あらかじめ学習データとして様々な群衆の動画と、群衆は含まれていないが様々な動きのある動画とを用意する。これらの動画を16画素×16画素×16フレームといった一定サイズの時空間のブロックに分割し、それぞれのブロックからCHLAC特徴ベクトルを抽出する。
なお、物体候補領域の抽出の仕方はここで述べた方法に限定するものではなく、見えや動きの似たまとまった領域を抽出する方法であればいずれも適用可能である。
以降の物体特徴量抽出部133cと物体属性判定部134cでは、先の群衆領域に対するものと同一である。繰り返しになるので詳細な説明を省略する。
次いで、第2の実施形態と同様に判定結果統合部135で判別スコアを投票して各被写体タイプごとに集計する。次に得られたスコアを重み付け和する。さらに、1フレームごとの結果は安定しない場合があるので、前後の複数フレーム間で結果を移動平均し、最終結果とする。
以上で、動画から群衆およびシーンの異常状態を判別する形態の第3の実施形態の説明を終える。
第4の実施形態は、静止画像を入力として画像の構図のクラスを判別するものである。またさらに本実施形態では画像構図のクラスの判別と同時に、画像の主被写体の領域も推定する。本実施形態の開示によって、本発明はシーンクラスのような一変数の情報を判別するのみならず、適切な工夫によって主被写体領域のような複雑な画像属性の推定に用いることも可能であることを示すものである。
本実施形態で候補領域として抽出する被写体のタイプは物体、線分、人体の3タイプである。構図を推定するのに直接的な効果があると考えられる線分の情報が被写体として新たに用いられている点が大きな相違点である。
図18(b)に、記号1402bを付して線分候補領域の抽出結果の例を示す。更に線分特徴量抽出部143bでは、候補線分の所定の周囲の範囲から色SIFT特徴を抽出してこれを候補線分の見えの特徴量とする。この他に候補線分の重心位置、長さ、傾きなども算出して全て連結し、特徴量とする。
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 候補領域抽出部
103 特徴量抽出部
104 属性判定部
105 判定結果統合部
Claims (16)
- 画像から、被写体の候補領域を抽出する候補領域抽出手段と、
前記候補領域抽出手段により抽出された被写体の候補領域から前記画像の属性に関する特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段で抽出された特徴量に基づいて、前記候補領域抽出手段により抽出された被写体の候補領域の属性を判定する属性判定手段と、
前記属性判定手段の判定結果を統合することにより、画像の属性を同定する判定結果統合手段とを有することを特徴とする認識装置。 - 前記候補領域抽出手段は、所定の候補領域の基準に基づいて複数の被写体の候補領域を抽出することを特徴とする請求項1に記載の認識装置。
- 前記候補領域抽出手段は、複数の異なる前記基準に基づく複数の候補領域抽出手段とからなることを特徴とする請求項2に記載の認識装置。
- 前記属性判定手段は、複数の異なる前記候補領域抽出手段にそれぞれ対応する複数の属性判定手段とからなることを特徴とする請求項3に記載の認識装置。
- 前記候補領域抽出手段は、前記画像から人体候補領域を抽出する人体候補領域抽出手段を備えることを特徴とする請求項1〜4の何れか1項に記載の認識装置。
- 前記属性判定手段は、前記候補領域の属性を学習する際に前記候補領域がその画像の属性に応じて分かれるように分類することで前記学習を行うことを特徴とする請求項1〜5の何れか1項に記載の認識装置。
- 前記属性判定手段は、前記候補領域を分類する際に、重要な候補領域として教示された領域を優先して分類するように学習を行うことを特徴とする請求項6に記載の認識装置。
- 前記属性判定手段は、前記画像の属性に関連しない被写体の候補領域に基づいて学習を行うことを特徴とする請求項1〜7の何れか1項に記載の認識装置。
- 前記属性判定手段は、分類木に基づく手法で構成されることを特徴とする請求項1〜8の何れか1項に記載の認識装置。
- 前記属性判定手段は、類似事例データの探索に基づく手法で構成されることを特徴とする請求項1〜8の何れか1項に記載の認識装置。
- 前記属性判定手段は、ハッシュ法に基づく手法で構成されることを特徴とする請求項1〜8の何れか1項に記載の認識装置。
- 前記属性判定手段の判定する属性は、画像のシーン、画像中の群衆の行動、画像の構図の種類、画像の主被写体の情報、画像の光源の方向に関する情報の何れかであることを特徴とする請求項1〜11の何れか1項に記載の認識装置。
- 前記属性を判定する対象の画像は動画像であることを特徴とする請求項1〜12の何れか1項に記載の認識装置。
- 前記属性を判定する対象の画像は距離画像であることを特徴とする請求項1〜12の何れか1項に記載の認識装置。
- 画像から、被写体の候補領域を抽出する候補領域抽出工程と、
前記候補領域抽出工程において抽出された被写体の候補領域から前記画像の属性に関する特徴量を抽出する特徴量抽出工程と、
前記特徴量抽出工程で抽出された特徴量に基づいて、前記候補領域抽出工程において抽出された被写体の候補領域の属性を判定する属性判定工程と、
前記属性判定工程の判定結果を統合することにより、画像の属性を同定する判定結果統合工程とを有することを特徴とする認識方法。 - 画像から、被写体の候補領域を抽出する候補領域抽出工程と、
前記候補領域抽出工程において抽出された被写体の候補領域から前記画像の属性に関する特徴量を抽出する特徴量抽出工程と、
前記特徴量抽出工程で抽出された特徴量に基づいて、前記候補領域抽出工程において抽出された被写体の候補領域の属性を判定する属性判定工程と、
前記属性判定工程の判定結果を統合することにより、画像の属性を同定する判定結果統合工程とをコンピュータに実行させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014083781A JP6448212B2 (ja) | 2014-04-15 | 2014-04-15 | 認識装置及び認識方法 |
US14/685,427 US9773189B2 (en) | 2014-04-15 | 2015-04-13 | Recognition apparatus and recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014083781A JP6448212B2 (ja) | 2014-04-15 | 2014-04-15 | 認識装置及び認識方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015204030A true JP2015204030A (ja) | 2015-11-16 |
JP2015204030A5 JP2015204030A5 (ja) | 2017-05-25 |
JP6448212B2 JP6448212B2 (ja) | 2019-01-09 |
Family
ID=54597446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014083781A Expired - Fee Related JP6448212B2 (ja) | 2014-04-15 | 2014-04-15 | 認識装置及び認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6448212B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107443A (ja) * | 2015-12-10 | 2017-06-15 | 株式会社大林組 | 状況判定システム、状況判定方法及び状況判定プログラム |
JP2017157201A (ja) * | 2016-02-29 | 2017-09-07 | トヨタ自動車株式会社 | 人間を中心とした場所認識方法 |
JP2018169972A (ja) * | 2017-03-30 | 2018-11-01 | Kddi株式会社 | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 |
JP2019139468A (ja) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | 情報処理装置、情報処理方法およびプログラム |
JP2019139497A (ja) * | 2018-02-09 | 2019-08-22 | 株式会社日立ソリューションズ・クリエイト | 画像処理システム及び画像処理方法 |
JP2021056796A (ja) * | 2019-09-30 | 2021-04-08 | トッパン・フォームズ株式会社 | 構造認識システム、構造認識装置、構造認識方法、及びプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008009893A (ja) * | 2006-06-30 | 2008-01-17 | Canon Inc | パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム |
JP2008217589A (ja) * | 2007-03-06 | 2008-09-18 | Toshiba Corp | 学習装置及びパターン認識装置 |
JP2011221689A (ja) * | 2010-04-07 | 2011-11-04 | Sony Corp | 学習装置、学習方法、認識装置、認識方法、およびプログラム |
JP2012030042A (ja) * | 2010-06-30 | 2012-02-16 | Panasonic Electric Works Co Ltd | 監視装置、プログラム |
US20130058583A1 (en) * | 2011-09-07 | 2013-03-07 | Andrew Charles Gallagher | Event classification method using light source detection |
-
2014
- 2014-04-15 JP JP2014083781A patent/JP6448212B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008009893A (ja) * | 2006-06-30 | 2008-01-17 | Canon Inc | パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム |
JP2008217589A (ja) * | 2007-03-06 | 2008-09-18 | Toshiba Corp | 学習装置及びパターン認識装置 |
JP2011221689A (ja) * | 2010-04-07 | 2011-11-04 | Sony Corp | 学習装置、学習方法、認識装置、認識方法、およびプログラム |
JP2012030042A (ja) * | 2010-06-30 | 2012-02-16 | Panasonic Electric Works Co Ltd | 監視装置、プログラム |
US20130058583A1 (en) * | 2011-09-07 | 2013-03-07 | Andrew Charles Gallagher | Event classification method using light source detection |
Non-Patent Citations (3)
Title |
---|
古賀久志: "ハッシュを用いた類似検索技術とその応用", 電子情報通信学会 基礎・環境ソサイエティ FUNDAMENTALS REVIEW, vol. 7, no. 3, JPN6018007393, January 2014 (2014-01-01), JP, pages 256 - 268, ISSN: 0003751289 * |
柳井 啓司: "一般物体認識の現状と今後", 情報処理学会研究報告, vol. 2006, no. 93, JPN6018007395, 9 September 2006 (2006-09-09), JP, pages 121 - 134, ISSN: 0003751290 * |
相田 優、柳井 啓司、柴原 一友、藤本 浩司: "服飾画像マイニングのための衣類領域からの色情報抽出", 電子情報通信学会技術研究報告, vol. 111, no. 478, JPN6018007391, 5 March 2012 (2012-03-05), JP, pages 235 - 240, ISSN: 0003751288 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107443A (ja) * | 2015-12-10 | 2017-06-15 | 株式会社大林組 | 状況判定システム、状況判定方法及び状況判定プログラム |
JP2017157201A (ja) * | 2016-02-29 | 2017-09-07 | トヨタ自動車株式会社 | 人間を中心とした場所認識方法 |
US10049267B2 (en) | 2016-02-29 | 2018-08-14 | Toyota Jidosha Kabushiki Kaisha | Autonomous human-centric place recognition |
JP2018169972A (ja) * | 2017-03-30 | 2018-11-01 | Kddi株式会社 | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 |
JP2019139468A (ja) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | 情報処理装置、情報処理方法およびプログラム |
JP2019139497A (ja) * | 2018-02-09 | 2019-08-22 | 株式会社日立ソリューションズ・クリエイト | 画像処理システム及び画像処理方法 |
JP2021056796A (ja) * | 2019-09-30 | 2021-04-08 | トッパン・フォームズ株式会社 | 構造認識システム、構造認識装置、構造認識方法、及びプログラム |
JP7365835B2 (ja) | 2019-09-30 | 2023-10-20 | Toppanエッジ株式会社 | 構造認識システム、構造認識装置、構造認識方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6448212B2 (ja) | 2019-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9773189B2 (en) | Recognition apparatus and recognition method | |
KR101964397B1 (ko) | 정보처리장치 및 정보처리방법 | |
CN108446617B (zh) | 抗侧脸干扰的人脸快速检测方法 | |
JP6448212B2 (ja) | 認識装置及び認識方法 | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
CN110298297B (zh) | 火焰识别方法和装置 | |
CN102332092B (zh) | 一种基于视频分析的火焰检测方法 | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
KR100735549B1 (ko) | 영상의 피부색을 변환하는 영상 처리 방법 및 장치 | |
KR101872811B1 (ko) | 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법 | |
KR20070016849A (ko) | 얼굴 검출과 피부 영역 검출을 적용하여 피부의 선호색변환을 수행하는 방법 및 장치 | |
JP2016099734A (ja) | 画像処理装置、情報処理方法及びプログラム | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
CN112434647A (zh) | 一种人脸活体检测方法 | |
JP3962517B2 (ja) | 顔面検出方法及びその装置、コンピュータ可読媒体 | |
CN110046601B (zh) | 针对十字路口场景的行人检测方法 | |
JP2010146395A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び、電子機器 | |
CN113763418B (zh) | 一种基于头肩检测的多目标跟踪方法 | |
CN114627500A (zh) | 一种基于卷积神经网络的跨模态行人重识别方法 | |
JP6539720B1 (ja) | 画像処理装置 | |
Campadelli et al. | A color based method for face detection | |
CN105760881A (zh) | 基于Haar分类器方法的人脸建模检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170405 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6448212 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |