JP4719224B2 - マルチモーダル識別のための客観評価に基づいた識別器組み合わせ - Google Patents

マルチモーダル識別のための客観評価に基づいた識別器組み合わせ Download PDF

Info

Publication number
JP4719224B2
JP4719224B2 JP2007545535A JP2007545535A JP4719224B2 JP 4719224 B2 JP4719224 B2 JP 4719224B2 JP 2007545535 A JP2007545535 A JP 2007545535A JP 2007545535 A JP2007545535 A JP 2007545535A JP 4719224 B2 JP4719224 B2 JP 4719224B2
Authority
JP
Japan
Prior art keywords
class
weighting
classifier
classifiers
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007545535A
Other languages
English (en)
Other versions
JP2008525869A5 (ja
JP2008525869A (ja
Inventor
イワノフ,ユーリー
セレ,トーマス,アール.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2008525869A publication Critical patent/JP2008525869A/ja
Publication of JP2008525869A5 publication Critical patent/JP2008525869A5/ja
Application granted granted Critical
Publication of JP4719224B2 publication Critical patent/JP4719224B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Processing (AREA)

Description

本願は、米国特許仮出願番号第60/633,997号(出願日:2004年12月6日)発明の名称:「Using Component Features for Face Recognition」,米国特許出願番号第60/634,383号(出願日:2004年12月7日)発明の名称:「Error Weighted Classifier Combination for Multi-modal Human Identification」,および米国実用新案(出願番号不明)(出願日:2005年12月2日)考案の名称:「Confidence Weighted Classifier Combination for Multi-Modal Identification」の利益を請求するものであり、前記出願のすべての記載をここに引用するものである。
本発明は識別システムに関し、詳細には、信頼度による客観評価に基づいた識別器の組み合わせを用いたマルチモーダル識別を行う技術に関する。
近年、マルチモーダル識別システムはますます普及しつつあり、特に、不特定環境下で応用されている(ロボット工学やビデオ監視等)。ここでのマルチモーダルとは、識別に用いられる複数のデータ源のことをいい、データ源とは、識別対象物に関する異なる特徴となり得るものである。
例えば、人物の場合ならば、顔、背丈、体格、歩容、声等の各種特徴により特定が可能である。しかし、これらの特徴は、人物の認識全般への寄与(overall contribution)の仕方は互いに等しいものではない。例えば、識別作業においては、顔や声の特徴は極めて区別しやすく、歩容や体格などの他の特徴は区別し難い。区別しやすい特徴のみをクラス分けすることで高い識別率が達成可能であるにせよ、このような特徴だけを観察できる状況は比較的稀である。例えば、監視ビデオに写った顔の画像の場合、人物がカメラに十分に接近した場合のみで識別に利用可能である。同様に、人の音声の場合も、実際に人物が言葉をしゃべった場合のみで識別に利用可能であるのだが、むしろ、区別し難い特徴のほうが多く含まれているものである。
パターン認識では、所定のクラス分けシステムの認識率を向上させるために複数の識別器を設けることができる。総和則(sum rule)積分則(product rule)などの代替組み合せで用いられる各種規則について様々な比較が行われているが、特に、識別器が相互に組み合わされている場合は積分則が最適であり、そうでない場合は総和(あるいは平均)則が好ましい。順位統計の規則(例えば、最小/最大)は、はずれ値に対しては総和則よりもローバストであるため、誤差変動についてそれほど改善をもたらすものではない。
そこで求められるのが、識別器を組み合わせる構成を有するマルチモーダル認証システムである。
本発明の1つの実施形態は、複数のマルチクラス識別器の予測値を用いたマルチクラス識別器の組み合わせ方法に係る。この方法では、クラスごとの重み付けにより各マルチクラス識別器の予測値の重み付けを行い、2つ以上のマルチクラス識別器からの重み付けされた予測値を組み合わせることで共同予測を生成する。この方法は、対象シーンから1つ以上の音声ストリームおよび1つ以上の映像ストリームを含む特徴ストリームを生成し、1つ以上の特徴ストリームで捉えた第1の対象特徴を第1のマルチクラス識別器を使ってクラス分けし、1つ以上の特徴ストリームで捉えた第2の対象特徴を第2のマルチクラス識別器を使ってクラス分けする予備ステップをさらに含む。このような場合には、対象シーンに存在する対象物の検出に反応して特徴ストリームの生成が開始され、各特徴ストリームについて、タイムスタンプ、ファイル名、記録状態および現在のシステムのパラメータの少なくとも1つを含む記録を生成し、これを記憶装置に記憶する。特定の実施形態によっては、クラスごとの重み付けは、信頼度を使って各識別器の出力に重み付けをおこなうことで行われ、この信頼度は、所定のデータセットについて各識別器が有する固有誤差の分布の経験値を示す混同行列から求めたものである。
特定の構成によっては、クラスごとの重み付けは下式に基づいて行われる。
Figure 0004719224
Figure 0004719224
別の特定の構成によっては、クラスごとの重み付けは下式に基づいて行われる。
Figure 0004719224
Figure 0004719224
さらに、別の特定の構成によっては、トレーニング用データのサブセットについて1つ以上のマルチクラス識別器をトレーニングし、このトレーニング用データのサブセットの残りについて信頼度を算出するような予備ステップをさらに含んでもよい。この場合、クラスごとの重み付けは、さらに、算出した信頼度により1つ以上の識別器の出力についても重み付けを行う。識別器の予測値の組み合わせは、例えば、多数決、出力の総和、出力の積の1つ以上の組み合わせ規則を用いて行ってもよい。
本発明の別の実施形態は、プロセッサにより実行された場合に、前記プロセッサが、複数のマルチクラス識別器の予測値を使ってマルチクラス識別器の組み合わせ処理を実行するような指令が符号化されたマシン読み取り可能な媒体(例えば、CD、フレキシブルディスク、サーバ、メモリスティック、HDDなど)を提供する。この組み合わせ処理は、例えば、前記の方法に類似するもの、またはその変形であってもよい。
さらに、本発明の別の実施形態は、マルチクラス識別器の組み合わせシステムに係る。このシステムは、複数のマルチクラス識別器を備えており、各識別器において1つ以上の特徴ストリームで捉えた対象特徴を分類する。このシステムは、識別器の出力を組み合わせて共同予測を生成する組み合わせモジュールを備えており、このモジュールにおいて、各マルチクラス識別器の予測値を組み合わせる前に、クラスごとの重み付け手法に基づいて各マルチクラス識別器の予測値について重み付けを行う。このシステムは、さらに、対象シーンから1つ以上の音声ストリームおよび1つ以上の映像ストリームを含んでいる特徴ストリームを生成するデータログサブシステムを備えており、このデータログサブシステムは、この対象シーンに存在する対象物の検出に反応して特徴ストリームの生成を開始する。このデータログサブシステムは、このシステムにアクセス可能であり、記憶された特徴ストリームのラベル付けをするラベル付けサブシステムを備える。このシステムは、特徴ストリームを記憶するための記憶装置と、各特徴ストリームについて、タイムスタンプ、ファイル名、記録状態、現在のシステムのパラメータの1つ以上を含む記録を生成し、これを記憶装置に記憶するDB管理部を備えていてもよい。特定の構成によっては、トレーニング用データのサブセットについて識別器をトレーニングし、このトレーニング用データのサブセットの残りについて信頼度を算出し、組み合わせモジュールを用いたクラスごとの重み付けには、算出した信頼度により前記識別器の出力を重み付けるものも含む。別の特定の実施形態によっては、クラスごとの重み付けは、信頼度を使って各識別器の出力に重み付けをおこなうことで行われ、この信頼度は、所定のデータセットについて各識別器が有する固有誤差の分布の経験値を示す混同行列から求めたものである。
特定の構成によっては、組み合わせモジュールにより行われるクラスごとの重み付けは下式に基づいて行われる。
Figure 0004719224
Figure 0004719224
別の特定の構成によっては、組み合わせモジュールにより行われるクラスごとの重み付けは下式に基づいて行われる。
Figure 0004719224
Figure 0004719224
このシステムの機能は、ソフトウェア(例えば、1つ以上のコンピュータ読取り可能な媒体に符号化された実行可能な指令など)、ハードウェア(例えば、ゲートレベルなど)、ファームウェア(例えば、ルーチンを備えた1つ以上のマイクロコントローラなど)、あるいはこれらの組み合わせ、もしくはこの他の適当な手段により実装可能である。
ここに記載される特徴および特長はすべて包含される必要はなく、特に、当業者であれば図や説明に照らして、さらなる特徴および特長を追加することが可能であることは明らかである。さらに、本明細書中の説明で用いられた文言は、読みやすさや例示的な目的から主に用いられたものであり、本発明の主題の範囲を限定するものではない。
識別器の組み合わせを利用したマルチモーダル識別に関する技術について開示する。
[概 観]
前記の通り、(従来の認証技術を用いて)より区別しやすい特徴(例えば、顔や音声)をクラス分けすることで高い認識率を達成できたとしても、現実的にこのような特徴だけを観察できる状況は比較的稀である。本発明の各種実施形態によれば、識別器を組み合わせる構成のマルチモーダルな識別方法を利用することで、区別し難い特徴やその他の利用できない特徴などからも識別値を抽出することが可能となる。
識別器組み合わせ手法を、自律した対象物(例えば、人物やシステム)からのマルチモーダルな入力に応用することは、多数の非自明的な挑戦を意味する。図1は、ある人物のビデオクリップから抽出した音声特徴および映像特徴を集めたものであり、前記の非自明的な挑戦を示すものである。より詳細には、図1は、これらの特徴を時間軸に配置したストリームで示したものであり、ストリーム中に存在する特徴を色で表している。図に示すように、すべてのストリームにおいて、前記の特徴が結びついた状態で同時に出現することは比較的まれであるが、1つの流れを通じて少なくとも1つの特徴が間隔を置いて存在している。したがって、確かさの度合いに変動はあるものの、ほとんどの場合で人物(あるいはこの他の対象物)を識別することが可能である。
本発明の1つの実施形態では、音声およびまたは映像の情報源から取得した特徴ストリームを、複数の識別器を組み合わせてクラス分けを行うようなマルチモーダル識別システムを提供する。この識別器の組み合わせ手法を利用して信頼度に変動がある識別器からの出力を組み合わせる場合において、ローバストな方法により、従来の「識別器ごと」ではなく、(あるいは、これと組み合わせて)「クラスごと」に信頼度を組み込んだ客観評価(重み付け)を行うものである。この重み付け手法は、所定の時間に存在するすべての特徴を認識するのではなく、識別すべきか否かを判断するものである。このような特徴ストリームには、対象物(人物、車両、その他の物体など)を識別するのに区別し易い特徴と区別し難い特徴と含んでいるものである。本発明の実施形態の構成によっては、略ベイジアン法の組み合わせ手法を用いて個々の識別器からの出力を組み合わせる。
このようなシステムでは、測定可能なデータが使用可能であるならば、対象物の識別予測を瞬時に行うことができる。つまり、解析中の映像の画像フレームごとに最低でも1つの予測値を得ることができることになる。本発明の実施形態の構成によっては、システムを利用契約型の複数のマシンに分散して特徴識別器を個別に動作させる。かかる分散構成により、コンピュータのアーキテクチャやOS(Operating System)に関係なく異なるコンピュータネットワーク間で好適にシステムを運用することができる。
本発明の開示において明らかであるように、本システムは様々な用途において利用可能である。例えば、本システムを自律歩行ロボットに応用することも可能であり、これにより、ロボットに、やり取りをする人物(あるいは、やり取りや観察が可能な他の対象物)を識別する能力を付与できる。本システムでは、ロボットが対象者の顔を見たり、声を聞いたり、あるいは暗闇の部屋の隅に人物のシルエットを観察した場合など、様々な環境下で対象物を識別するために使用可能な情報を用いる。同様に、本システムは、オンラインの人物認証システムなどのバイオメトリック用途にも利用可能である。いずれにおいても、その状況で入手可能なあらゆる情報から対象物を識別できるシステムが可能となり、これにより人間の知覚・行動システムの持続性にアプローチすることが可能となる。
[システム構成]
図2は、本発明の1つの実施形態に係るマルチモーダル識別システムの構成を示すブロック図である。本システムは、データ収集、ラベル付け、トレーニング/クラス分けの3つのモードで動作するが、各々については順次後述する。
図2に示す通り、本システムは、データログサブシステム、クラス分けサブシステム、ラベル付けサブシステムから構成される。本システムは、カメラ210およびマイクロフォン215(例えば、従来型のビデオカメラやミッドレンジ型ワイドピックアップ対応マイクロフォンなど)からの入力を受ける。1つの実施形態においては、カメラ210とマイクロフォン215のどちらも(監視用途等で)固定された状態で備えられている。あるいは、カメラ210とマイクロフォン215を(自律歩行ロボット用途等で)移動可能としてもよい。さらに、複数台のカメラ210およびまたはマイクロフォン215を用いて、複数の入力ストリームを構成してもよい。このような実施形態の場合は、音声/映像のストリームペアにそれぞれクラス分けサブシステム(図2参照)を備えてもよい。あるいは、高速スイッチング技術(例えば、音声およびまたは映像の各ストリームと1つの識別器サブシステムの間のデジタルスイッチングを同時に行う)や、多重技術(例えば、音声およびまたは映像の各出力ストリームにタグを付与して多重化されたストリームを区別できるようにすることにより、識別器サブシステムが連続的に各ストリームを処理する)を用いることで、音声/映像のストリームペアのすべてが1つのクラス分けサブシステムを共有するようにしてもよい。
カメラ210からの入力は検出器205を介して行われるのだが、この検出器205は、フレーム内に人物や他の対象物が存在するか否かを判断するものである。検出器205は、従来の検出手段を組み合わせて判断を行う。例えば、検出モジュール205は、激しい動作の領域を示すバウンディング・ボックスのアスペクト比を見積もったり、この動作用域で顔の検出を行ったりするようにプログラムされているか、あるいはそのような構成を備えたものである。このような実施形態の1つに係る検出器205は、次の文献に記載されるような顔の検出を行うように構成されている:「Categorization by Learning and Combining Object Parts」, B. Heisele, T. Serre, M. Pontil, T. Vetter, T. Poggio (最新版「Neural Information Processing Systems」p1239−1245,バンクーバー,カナダ,2002年より)。なお、前記文献の全ての内容は、ここに、参照により取り入れられている。一方もしくは両方の検出状態が良好に報告されると、検出器205は、(図2に示すように、例えば、各ストリーミングパス(streaming pathway)のリレーやこの他のスイッチを起動させて)ストリーム処理を開始させる。
本実施形態では、ビデオクリップのストリーミングをビデオレコーダ225により記録し、オーディオクリップのストリーミングをオーディオレコーダ220により記録する(例えば、各レコーダは従来技術により実装してもよい)。記録したクリップはDB(database)管理部230を介して、記憶装置270(例えば、情報の記憶や検索のためのSQLデータベースやこの他の記憶設備)に記憶する。特定の実施形態によっては、オーディオクリップおよびまたはビデオクリップを同時に記憶して、DB管理部230において、タイムスタンプ、ファイル名、記録状態および現在のシステムのパラメータなどを含む記録を生成し、これを記憶装置270に記憶する。なお、DB管理部230および記憶装置270は、従来あるいはカスタムのDB技術を用いてそれぞれ実装してもよい。
図2に示す通り、各ストリームは、クラス分けサブシステムに含まれる各特徴識別器のセットに対してもそれぞれ送信される。これらの特徴識別器は、ストリーム内に取り込まれた入力データをクラス分けするように構成されており、例えば、既存のクラスモデルを用いてクラス分けしてもよいし、この他の適当なクラス分け手法を用いて行ってもよい。このような特定の実施形態では、これらの識別器は、人物を識別するのに用いられる。前記の識別器のセットには、(映像ストリームを検索する)高さ識別器235、衣服識別器240および顔面識別器245と、(音声ストリームを検索する)音声識別器250および話者識別器255が含まれる。前記の各識別器は、従来またはカスタムのクラス分け手法を用いて実装してもよい。
前記の各識別器からの出力は組み合わせモジュール260に送信される。1つの実施形態では、この組み合わせモジュール260は、後述する略ベイジアン法の識別器組み合わせ技術を用いて、各識別器からの出力を共同予測(joint prediction)にまとめるようにプログラムされているか、あるいはそのような構成を備えている。各識別器からの予測値によって、本システムの連続した出力が形成される。この出力には、映像の各フレーム内の既知対象物(本システムに係る個人や対象物など)のセットに関する事後確率分散も含まれる。通常、識別力の弱い特徴を扱う識別器の場合、精度が極めて低くなるものである。このように識別器の精度の低下は、雑音測定などの識別器の外部パラメータや、所定の方法で呈示される固有の不適切さ(intrinsic inadequacy)などで判定される。例えば、個々の対象物の高さを特徴区別の尺度とする場合、その中の何人かが同じ高さであれば、高さ識別器235にとっては、本質的に同じものに見えるはずである。本発明の実施形態では、このような固有の不適切さをトレーニング用データから測定し、識別器からの組み合わせ出力を重み付けする信頼度を割当てるのに用いるような識別に利用する。このような方法を用いれば、極めてローバストな識別システムではあるが、音声と映像の入力データの組み合わせに利用可能であり、これにより、マルチな識別機能をシステムにもたらすことができる。
オーディオクリップとビデオクリップはデータ量が大きくなる可能性があるため、ラベル付けサブシステムを用いて各クリップにラベルを付与して管理してもよい。図3は、ラベル付けサブシステムのユーザーインターフェース(User Interface、以下UIという)の画面の画像である。このラベル付けサブシステムは、ラベリングツール275とクエリエンジン280とを使って動作させる。図3に示す実施形態においては、ユーザは、ラベル付けサブシステムを使って記憶装置270からクリップを検索し、これをレビューすることができ、特定の「実験」(あるいはこの他にもグループ化など)を割り当てたりすることもできる。ここでいう「実験」や「グループ」とは、各クリップに付与されるラベルの集まりであり、クリップをトレーニング(Training:Trn)、テスト(Testing:Tst)、検証(Validating:VaI)、無視(Ignored:Ign)のいずれかに用いるように割り当てることができる。ユーザは、UI内の「グループビルダ」や「割り当てコントロール」をラベリングツール275とともに使って、ラベルが付与されたクリップのグループを構築したり、このようなクリップに所望のラベルを割り当てたりすることができる。UIの「DBアクセスコントロール」は、クエリエンジン280と共働して、DBアクセスUIが通常行うような処理を行う。「クリップパラメータ」はUIにおいて定義可能で、これにより記憶装置270に記憶されているクリップの特定のサブセットにアクセスすることができる。例えば、ユーザは、目的のクリップの日時範囲を検索するように設定でき、また、フラグを設定して所定の割り当て(トレーニング、検証、テスト、無視)がなされているクリップを検索することもできる。ユーザは、所望のクリップパラメータを設定すると、UIの「ロード(Load)」ボタンと「セーブ(Save)」ボタンによりクエリエンジン280を起動させて記憶装置270にアクセスし、所望のクリップパラメータを検索する。さらに、必要に応じて検索結果を保存する。検索したクリップは、各クリップを「再生コントロール」に関連付けた状態でUIに表示される。そして、ユーザは、この「再生コントロール」を使ってクリップを再生すると、ビデオクリップがレビュー画面に表示される。ラベル付けサブシステムの機能を実装する方法としては、多数存在する公知あるいはカスタムのUI技術およびDBアクセス技術を用いて行うことができるため、本発明においては、この方法を特定の構成に限定する意図はない(本発明の実施形態によってはUIを用いない場合もある)。
[信頼度を組み込んだベイジアン法による識別器組み合わせ]
前記の通り、組み合わせモジュール260は、本発明の実施形態に係る、略ベイジアン法による識別器組み合わせ手法を用いて複数の識別器からの出力を1つの共同予測にまとめるように構成されている。
通常、どんなによくトレーニングされた識別器であってもトレーニングデータのいくつかで誤ったクラス分けを犯すものである。このような分類ミスは混同行列(Confusion Matrix)の形で反映させることができる。混同行列は、特定の識別器におけるクラスの近似を表すものであり、トレーニングによって識別できるようになる。例えば、識別器245は、様々な顔クラスを識別できるようにトレーニングされているのだが、この場合の混同行列とは、顔識別器245における顔クラスの近似を示す。混同行列とは、あるデータセットにおいて識別器が有する固有誤差の分布に関する経験値を示すものである。この特定の実施形態によれば、組み合わせモジュール260により行われる識別器の組み合わせは、組み合わせ規則を適用する前に、まず、混同行列から求めた予測信頼度を用いて各識別器の出力に重み付けする。
より詳しく説明すると、あるシーンでの特徴xのセットは、複数の異なる観察チャンネルから入手できる予測値を示している。
Figure 0004719224
観察全体を示すxについての識別器システムの出力であるωは、周辺分布で表すことができる。
Figure 0004719224
Figure 0004719224
Figure 0004719224
Figure 0004719224
Figure 0004719224
Figure 0004719224
Figure 0004719224
式3が示す本質は、各識別器の予測値に対して、クラス全体での誤差分布に応じた重み付けがなされていることである。この処理が実際に意味することは、識別器のスコアに信頼度を掛けて、あるクラスについての識別器の確かさを考慮した補正スコアを求めることである。このような組み合わせ手法は、混同行列が実際の識別情報と近似するものであるのだから、精度が概ね良好な識別器の出力に著しい影響を及ぼすものであってはならない。反対に、識別器にシステム上の欠陥がある場合、例えば、クラス2のサンプルについてクラス1のサンプルに誤りがある場合には、検証セットにおける誤差の数に比例して、クラス1に関する識別器の予測値がクラス2に偏ることになる。精度のよい識別器であれば、他の識別器と組み合わせた場合であっても運用に影響を受けないだけでなく、クラス2により重い重み付けを行うとともに、他の識別器には重み付けを行わないようにして精度を確保する。これは、従来の「識別器ごと」に重み付けを行うパラダイム(つまり、個々のクラスの性能に関係なく、識別器すべてに対して重み付けを行う従来手法)によるものではなく、「クラスごと」に重み付けを行う手法によるものである。
Figure 0004719224
Figure 0004719224
かかる分布は、トレーニング用データの検証サブセットについて識別器をテストすることで求めることができる。そして、式3に示す個々の識別器の予測値を周辺化することで、組み合わせの規則を導くことが可能であり、式5のように示すことができる。
Figure 0004719224
Figure 0004719224
後者は、混同行列から求めることができる経験量である。したがって、経験誤差の分布に基づいて、識別器の出力を組み合わせる前に個々の出力について重み付けする方法が可能となる。
このモデルは、識別器の組み合わせ手法の一般的な枠組みを構築するものであるため、ここから識別器を組み合わせる方法を各種導くことも可能である。出力の組み合わせ方法の事例としては、多数決(voting)、出力総和(sum of outputs)、出力積(product of outputs)の3つがある。全体として、出力積が他の2つの方法を若干しのいでいる。なお、「Combining Multiple Classifiers by Averaging or by Multiplying ?」, D. M. J. Tax, M. V. Breukelen, R. P. W. Duin, およびJ. Kittler (Pattern Recognition 33: p1475−1478, 2000年)という文献には、総和則と積分則の有効性を示す構成が記載されている。なお、前記文献の全ての内容は、ここに、参照により取り入れられている。
Figure 0004719224
Figure 0004719224
例えば、重み付き積(weighted product)の規則は:
Figure 0004719224
ここで、Zは正規化定数である。
式3、4、5に表される重み付け手法では、各識別器からクラス確率を入手できることを前提としている。したがって、サポートベクタマシン(Support Vector Machine、以下SVM)などの識別モデルを用いる場合には小さな問題が存在する。つまり、前記式の直接法においては、SVMが出力するのは確率ではなく、むしろ、判別関数の値である。しかしながら、これらの値あるいは「スコア」に式7のsoftmax関数(Softmax Function)を適用することで確率に変換することができる。
Figure 0004719224
なお、前記の変換は、誤差率が最小の識別器のクラス分け決定に変更を加えるために用いるのではなく、このような識別器を、ここで述べるような確率の枠組み内で処理できるようにするために用いる。
[分散型マルチモーダル識別システム]
図4は、本発明の実施形態に係る構成を有する分散型マルチモーダル識別システムのブロック図である。この分散型システムはフルスケール化が可能であり、映像ストリームの入力を扱う多数の映像特徴抽出器(例えば、405や410など)と、音声ストリームの入力を扱う音声特徴抽出器(例えば、415など)とを備えている。1つ以上の識別器は、ネットワーク抽象化レイヤ(Network Abstraction Layer,以下NALという)420を介して、各特徴抽出器に接続されて動作する。特にこの実施形態では、映像特徴抽出器405が、識別器425および430に接続され、さらに映像特徴抽出器415が識別器440に接続される。
各識別器(425、430、435、440など)は、必要に応じて、ローカルまたはリモート装置上でプラグインモジュールとして実装・運用が可能である。このような構成では、システムが稼働中であっても、無限の特徴識別器を容易に取り込むことができる。本システムでは、UIを使って識別器(425、430、435、440など)を、トレーニング、検証、クラス分けなどの各種モードで動作させることが可能であり、このときに識別器をトレーニングしたり遠隔操作したりできる。なお、図4のネットワーク構成は「記入」方式に基づいている。
より詳細に説明すると、システムは、特定種類の特徴(例えば、鼻などの顔領域)を求める記入式のリクエストを受けると、動作していない場合にはこの特徴に対応する抽出モジュール(405、410、415など)をインスタンス化する。(例えば、音声およびまたは映像の入力ストリームから検出して)対応の特徴モジュールが入手できた場合には、特徴抽出器はただちにNAL420を介してすべてのユーザにこの特徴を配信する。なお、このNAL420は、従来のネットワーク技術により実装可能である。1つの実施形態において、NAL420は、PVMライブラリ(Parallel Virtual Machine Library)を用いて実装可能であることが、「A Users' Guide and Tutorial for Networked Parallel Computing」, A. Geist, A. Beguelin, J. Dongarra, W. Jiang, R. Manchek, および V. Sunderam (PVM: Parallel Virtual Machine, MIT Press, Cambridge, MA, 1994年)という文献に記載されている。なお、前記文献の全ての内容は、ここに、参照により取り入れられている。
1つ以上の識別器から結果が入手可能であり、(例えば、図2において説明したような)組み合わせモジュール260によりこれらの結果を収集できる場合には、結果の収集を行う。なお、各識別器からの出力は、ネットワーク420やこの他の適切な手段(例えば、各識別器から組み合わせモジュールへ直接接続するような手段)を介して組み合わせモジュールに提供するようにしてもよい。このように構成することで、システムを高いフレームレートで動作させることが可能となり、システム全体の出力が、セット内の識別器ごとに行われる煩雑な計算の影響を受けずにすむ。
図5は、本発明の実施形態に係る構成の分類器サブシステムの動作中のUI画面を示す例である。ユーザは「データ選択コントロール」を使って、ホストシステムの選択や、すでに動作中の(および記憶装置270に記憶された)ビデオクリップ群およびまたはオーディオクリップ群についてのグループの選択やテストの選択を行うことができる。また、本システムはライブ入力も可能であり、リアルタイムでクリップを識別することができる。図5の画面の例では、システムのモードはクラス分けモードであり、(UIの「特徴選択コントロール」に示されるように)高さ(Height)、色(Color)、声(Voice)および顔構成(Face Comp)の4つの特徴ストリームを受信中であることが分かる。UIの当該識別器のインジケータが有効になっていることで、ユーザが設定した「特徴選択コントロール」でどの識別器が有効になっているかが一目で分かるようになっている。左側の4つの棒グラフは、ユーザが選択した前記4つの特徴に対応する4つの識別器からの出力を示すものである。UIは各種コントロール(例えば、スライドつまみ等)を備えているため、識別器のパラメータを最適化するように調節ができる。右側の棒グラフは、組み合わせモジュール260による対象者の識別の共同予測をグラフ化したものである。さらに、UIには特徴を抽出したクリップを確認する「レビュー画面」や、解析目的から映像品質を最適に調整するための「映像フィルタパラメータ」(例えば、「動き閾値(Motion threshold)」や「背景減衰(Background decay)」など)を含んでいる。本発明の開示に照らして理解されるように、「ストリームコントロール」、「設定コントロール(カメラ(Camera)やフォーマット(Format)の設定など)」、「モードコントロール(トレーニング(Train)、ロード(Load)、検証(Validate)、停止(Stop)、終了(Exit)など)」あるいはこの他のUIの機能を使って、ユーザは、システムについてインタラクティブな制御を行うことができる。
[実 装]
前記の通り、本識別システムは、(例えば、映像およびまたは音声の入力ストリームからの)ライブ入力により動作するように構成されている。ここで、システムを評価するために、トレーニング、検証、テスト用の音声および映像のデータシーケンスを含む拡張データセットの収集を試みた。データは、オフィス環境の6人から数週間に渡って収集した。固定カメラ(一対のステレオカメラ)と遠距離マイクロフォンを用いた(システムを図2に示すような監視用セッティングのように実装してもよい)。前記の通り、(入力ストリームからの)特徴により数個のチャンネルを形成して、組み合わせモジュール260で識別器の出力を組み合わせる段階に至るまで、これらを個別に処理する。この実装例では、音声から入手可能な特徴と映像から入手可能な特徴の2つのグループからなる特徴を得た。ここでの対象物は、映像と音声のいずれにおいても捉えることのできた人物である。
音声の識別については、よく知られているメル周波数ケプストラム係数(Mel Frequency Cepstral Coefficients、以下MFCCという)を用いた。以下のプロセスによりこれらの係数を得た。まず、スライドウィンドウ(フレーム)を100Hzにてオーバーラッピングさせて、40個のメル周波数係数(Mel Frequency Coefficients、以下MFCという)を得た。次に、このMFCセットに離散コサイン変換を行って、ケプストラム係数(MFCC)に変換する。周波数スペクトラムの下半分にパワーの大半が集中して大きなエネルギーを有するフレームのみに映像特徴のタグを付与して後述の識別ステップに含まれるようにした。膨大な量の音声サンプルを取得した後、収集したメル・スケール・ケプストラム係数のセットについて、ガウス混合分布に基づく識別器をトレーニングしてもよい。
話者識別器255:音声特徴から人物をクラス分けするために、8つの構成を混合して人物をモデル化する。この話者識別器は、簡単なパワーテストをパスしたMFCCを収集することについてトレーニングとテストを行うことができる。特定の実施形態の例では、ガウスカーネルSVMを用いてオンラインの話者識別器255の実装を行った。
音声識別器250:顔の検出はできるものの、識別器からのスコアが一貫して低い場合には、名前や他の音声特徴などを手がかりに人物を積極的に導き出すようにシステムを構成することができる。所定の時間枠内で音声ストリーム中に大きなエネルギーを検出した場合、ユーザが名前やその他の音声例を発して返答したと想定する。1つの実施形態においては、このユーザの応答に対応するMFCCのシーケンスを取得し、単純な動的時間伸縮法(Dynamic Time Warp)のシーケンス一致アルゴリズムを用いて数10人分の名前を収めた話し言葉辞書と照合する。音声識別器250は、動作中に識別器の組み合わせに用いる必要はなく、ラベリングツール275を使って仮ラベルを付して、後の処理において用いるようにしてもよい。
映像の識別については、まず、映像の特徴を抽出するには、カメラの画像から人物を検出することから始まる。人物の検出は、一連の単純なルールにのっとって行われる。例えば、3つ以上のフレーム内に明確な動きが存在し、光源状態が十分に安定し、(図5に示すような)バウンディング・ボックスの囲みのアスペクト比が所定値であり、さらに、バウンディング・ボックス内に顔のようなオブジェクトが存在する、といったルールである。このような条件が満たされると、あらかじめ設定した通りに(オーディオレコーダ220やビデオレコーダ225による)録画、録音を開始するようにしてもよい。次に、抽出したデータを所定の識別器に送り、適応型背景差分処理によりバイナリマスク化して映像の特徴を抽出する。次のような手法を用いて、画像の人物を浮き上がらせ、家具や壁に映った人物の影を除去してもよい。まず、得られたバイナリマスクを縦に総和し、得られたノンゼロ値(non-zero value)のヒストグラムからピークを求めて、これを所定閾値未満の値になるまで外側に伸ばす。こうして求めた範囲を水平位置の目安やバウンディング・ボックスの範囲として使う。
顔識別器245:映像ストリームの各フレームについて、バウンディング・ボックス領域で顔の検出を行う。人物が存在する場合には、対象物を含んでいるバウンディング・ボックスをスキャンして顔の検出を行い、見つかった場合には、識別のために顔だけをさらに小さい枠で囲んで画像から抽出する。K人の顔からなるラベル付けされたデータセットについて、例えば、SVMFuのパッケージやこの他の適切な顔識別アルゴリズムを使って、K one−vs−all法の二次多項式SVM識別器をトレーニングすることもできる。
高さ識別器235:1対のステレオカメラを使うことで奥行きの区分化が可能となり、対象物との距離や寸法などを測定することができるため、特に移動用途において有用である。また、1台のカメラのみを用いてもよく、この場合はカメラをキャリブレーションした上で固定用途に用いる。いずれにせよ、人物の本当の背丈は、カメラ画像のバウンディング・ボックスの垂直方向の距離とボトム位置から算出することができる。キャリブレーションにより、内部パラメータA(焦点距離および原点)と、シーンの既知位置に関するカメラ座標系の回転と平行移動を決定する外部パラメータRおよびtとにアクセスできるようにする。
Figure 0004719224
カメラの傾斜角度に起因するバウンディング・ボックスの補正と、画像・地面の同形異義性パラメータの算出誤差に起因する基面補正を行うことができる。これらの算出から、対象者が観察されるトレーニング用画像のすべてからガウス分布を対象者ごとに算出し、これを後のクラス分け処理に用いる。高さの算出には従来の手法を用いてもよい。
衣服識別器240:1日のうちで、個々の人物は衣服を着替えないものと想定した上で、上半身と下半身それぞれ個別にヒストグラムを使って、個々の人物の衣服の好みを把握することができる。このような実施形態においては、HSV色空間の画像中に存在する人物の形の色調成分および色彩成分からヒストグラムを算出する。このような場合、色調成分と色彩成分とにそれぞれ32 binと24binを割り当てる。画像から人物のシルエットを抽出し、肌色のピクセルを除去して、区別できないようにする。それから、この画像を上下部分がそれぞれ重なり合うように2分割し、色調成分と色彩成分のヒストグラムをそれぞれ構築する。ヒストグラムは対象ごとにラベルが付され、毎日平均化して、人物ごとに上部分と下部分の平均ヒストグラムを1つずつ毎日作成する。ある人物についてのヒストグラムの集まりを、K−means法(K=5)により最終的にクラスター化して、Kのプロトタイプを含んだ衣服モデルを求める。クラス分けの段階で、正規化相互相関法を使って入力画像から算出したヒストグラムを、記憶してあるモデルと比較して、最近接モデルのラベルを用いて人物を識別する。なお、この他の衣服識別手法を用いてもよい。
Figure 0004719224
映像シーケンスの各フレームについて、現在のフレームに特徴が認められない識別器には確率0を割り当てる。残りの識別器には均等に重み付けを行う。加えて、顔識別器に対しては、顔検出器の出力の強さに比例して重み付けを行うようにする。なお、直接的な識別器の組み合わせ、および本発明の実施形態に係る信頼度による客観評価に基づく識別器の組み合わせで用いられる多数決、総和、積の組み合わせ規則による結果は、先の米国特許出願番号第60/634,383号仮出願の図6および7に例示されている。
ここに記載されるシステムは、多様な処理環境において実装可能である。1つの事例においては、PVMライブラリバージョン3.4.3を用いてシステムを実装しており、様々な構成からなる複数の装置を1つの大規模なバーチャル装置にシームレスに統合している。識別システムのモジュール(例えば、組み合わせモジュールやこの他の重み付けおよび組み合わせ手段、識別器、および特徴抽出器など)を、例えば、ソフトウェア(例えば、C、C++、この他のオブジェクト指向の指令セットなど)により実装することが可能である。
この実装事例では、組み合わせモジュール260をWindows XP(R)(あるいは、MAC(R) OSやLinux(R) OSなどのOS)搭載のデュアルプロセッサ(ペンティアム(R)4 1.3GHz以上など)コンピュータ上で毎秒15フレームで動作させた。所望する用途の特殊性(例えば、特徴ストリームの複雑さ、所望のfps、所望の実装コストなど)に応じて、この他の処理環境においても実装可能であることは、本発明の開示に照らして明らかである。ホストシステムは、音声・映像データの取得、バーチャル装置の管理およびデータベース運用のみならず、特徴抽出器のすべてを動作させる機能を有する。(ソフトウェア等に実装した)各識別器を、構成が類似する異なる装置上で個別に実行させることができるが、特定の構成によっては、話者識別器の実装が容易なLinux(R)OS上で動作させることも可能である。繰り返すが、本発明は(OSを含めた)多様かつ適切な処理環境で利用可能であり、特定のものに限定されない。前記した通り、識別結果は15fpsで出力され、対象物(例えば、人物など)がシステムの「ビュー」(視覚的ビューおよびまたは聴覚的ビューを含む)に存在したときの約98%の時間内において利用可能なものであった。
[方 法]
ここに記載される組み合わせ手法の性能はセット単位のテストで測定されるのだが、このようなテストは、通常、次のようなステップで構成される:トレーニング用データ、検証用データ、テスト用データをそれぞれ生成し;ベースとなる識別器をトレーニングし;識別器アンサンブルを生成し;誤差率を算出する。
トレーニング用データ、検証用データ、テスト用データの生成:トレーニング用データ、検証用データ、テスト用データは、従来の手法あるいはカスタム手法により生成できる。1つの具体事例としては、(音声およびまたは画像等の)入力ストリームからすべてのトレーニング用データおよびテスト用データを手動介入なしに自動抽出してもよい。トレーニング用データおよびテスト用データの事例については、先の米国特許出願番号第60/634,383号仮出願の図3および5に示されている。トレーニング用データのセットは、例えば(例えば、コンピュータモデル化された)合成データ、(人間の顔などの)実際の画像データ、あるいは合成データと実データとの組み合わせであってもよい。合成データを識別器のトレーニングに用い、実データを識別器のテストに用いることができる。別の特定の実装事例では、ランダムな方法および共分散的手法を使って、データセットを5つの2次元ガウス分布から取り出す。ランダム手法は正規分布N ([0, 0]T, 3 * I)から導かれ、共分散は、ウィッシャート分布W (I, 3)(単位共分散、自由度3度)から導かれたサンプルである。このようなサンプルデータのセットは、先の米国特許出願番号第60/634,383号仮出願に示されている。
基本識別器のトレーニング:本発明の開示において明らかであるように、識別器はこの他の構成(例えば、単クラスおよびまたは複クラスなど)であっても実装可能であるが、ここでは、5クラスの識別器について信頼度の重み付けによりトレーニングを行うものと仮定する。識別器は、トレーニング用データのセットおよび検証用データのセットの両方を用いてトレーニングできる。あるいは、トレーニング用データのセットのみで識別器をトレーニングすることも可能であり、この場合には、検証用データのセットは混同行列の算出のみに用いる。さらに、本開示において明らかであるように、特定の実施形態によっては、重み付けされた識別器N個を1セットとしてトレーニングする。これらの識別器のトレーニングに用いるトレーニング用データを90%と10%に分ける(本開示において明らかであるように、別の実施形態においては異なるパーセンテージでもよい)。より詳細には、まず、各識別器をトレーニング用データのうち90%のサブセットについてトレーニングさせる。次に、残り10%のトレーニング用データについて信頼度を算出する。テスト用データをクラス分けした後、(前記の式3または式4から)求めた分布により各スコアの重み付けを行う。これにより得られた出力を、多数決、積、総和などの組み合わせ規則に従って組み合わせてもよい。なお、ここでは識別器を二次の多項式カーネルを有するSVMとして実装すると仮定する。識別器は、例えば、SVMFuパッケージ等を用いてトレーニングやテストを行うことができる。
識別器アンサンブルの生成:識別器の平均値をランダムに摂動してアンサンブルを生成することができる。なお、この他にも識別器のアンサンブルを生成する方法が可能であることは本開示により明らかである。
誤差率の算出:テスト用データセットについて識別器アンサンブルの性能を算出する。前記のように、従来の「識別器ごと」ではなく、(あるいはこれを併用した)「クラスごと」の信頼度重み付けによる客観評価手法により、識別システムの性能を向上させることができる。識別器スコアのセット(事後確率)がある場合には、スコアが閾値未満のサンプルを除外した事後値の全範囲で閾値を変化させることができる。残りのポイントについての誤差率を算出し、これをデータセットの当該分数にプロットする。テスト用データセットは、前記の通り、対象物(人物や物など)の画像およびまたは音声を所定の記録装置を使って取得することで生成できる。テスト用データセットのサブセット(例えば10%)をトレーニング用データに割り当てて、当該セットの残りのサブセット(例えば90%)について再トレーニングさせたシステムを評価することで、従来の重み付け手法と比較して、識別率が向上した。さらに、個々の識別器を再トレーニングすることなく、当該テスト用データセットのサブセット(例えば10%)について識別器の重み付けを再算出した場合にも性能が向上した。つまり、トレーニング用データセットを拡張させたもの(例えば、トレーニング用データセット+対象のテスト用データセットのサブセット(顔識別器のトレーニング用の顔実画像やこの他の対象のテスト用データなど))について識別器を再トレーニングすることで、識別器システムの性能を向上させることができる。また、個別に識別器に変更を加えることなく識別器の重み付けを再算出することで性能が向上する。したがって、ここに記載するように、信頼度を組み込んだ重み付けアルゴリズム(confidence-based weighting algorithm)を用いて、例えば、識別器すべてを再トレーニングするには時間がかかりすぎて不可能な場合などの用途においても、オンライン学習を実施することが可能となる。
図6は、本発明の実施形態に係る客観評価に基づく識別器の組み合わせによるマルチモーダルな識別方法を示している。この方法は、例えば、図2から図5を参照して説明したシステムを用いて実施することができる。前記の通り、システムの機能は、プロセッサの適切な環境においてソフトウェアを実行させることにより実現される。しかしながら、この他の実施形態では、ハードウェア(例えば、ゲートレベルやASICなど)やファームウェア(例えば、マイクロフォンおよびまたはカメラからのデータを入力するためのI/O機能を備えたマイクロコントローラ、特徴抽出を実行するルーチン、クラス分け、信頼度を組み込んだ重み付け、あるいは前記の通りにこれらを組み合わせたもの)によっても実現可能である。
本方法では、まず、1つ以上の音声ストリームと1つ以上の映像ストリームを含んだ複数の特徴ストリームを生成する(S605)。この場合、生成された特徴ストリームは映像または音声のみであってもよい。映像(または他の画像)、音声のいずれから取得した特徴であっても本発明の実施形態によって多種多様なクラスに分けることが可能である。
次に、特徴ストリームを(例えばデータベースなどに)記憶する(S610)。前記で説明した通り、データベースシステムを用いて、タイムスタンプ、ファイル名、記録状態および現在のシステムのパラメータの少なくとも1つを含んだ記録を(特徴ストリームごとに)生成し、これを記憶装置に記憶する。次に、1つ以上の特徴ストリームにおいて捉えた複数の対象特徴をクラス分けする(S615)。このとき、あらゆるクラス分け手法を用いて対象物の予測や識別を行う。
さらに、前記で説明したようなクラスごとの重み付けの手法に従って各予測値について重み付けを行う(S620)。特定の実施形態によっては、まず、トレーニング用データのサブセットについて識別器をトレーニングし、それから、トレーニング用データの残りのサブセットに基づいて信頼度を算出してもよい。この場合、(例えば、組み合わせモジュール260により実行される)クラスごとの重み付け手法には、前記の算出で得られた信頼度により識別器を重み付けすることも含まれる。いずれの場合においても本方法では、さらに、個別に重み付けした予測を共同予測として組み合わせる(S625)。この共同予測を使って、対象物が人物、物、出来事のいずれであろうとも、特徴ストリームに含まれるこの対象物を特定することができる。
本発明の実施形態に関する前記の説明は、例示的に説明するためになされたものであり、本発明を開示されたままの形態に限定するものではなく、開示さらも分かるように、様々な修正や変更が可能である。本発明の範囲は、このような詳細な説明により限定されるものではなく、むしろ添付の特許請求の範囲により限定されるべきである。
ある人物のビデオクリップから抽出した音声特徴および映像特徴を集めて時間軸に配置したストリームで示したものであり、ストリーム中の特徴の存在を色で表している。 本発明の1つの実施形態に係るマルチモーダル識別システムの構成を示すブロック図である。 本発明の実施形態に係る構成を有するラベル付けサブシステムのユーザーインターフェースの画面画像を示す図である。 本発明の実施形態に係る構成を有する分散型マルチモーダル識別システムのブロック図である。 本発明の実施形態に係る構成を有する分類器サブシステムの動作中のUI画面を示す例である。 本発明の実施形態に係る客観評価に基づく識別器の組み合わせによるマルチモーダルな識別方法を示す図である。

Claims (18)

  1. 1つ以上のプロセッサと、
    各々が、前記1つ以上のプロセッサの1つで実行され、1つ以上の特徴ストリームにおいて捉えた対象の特徴をクラス分けする複数のマルチクラス識別器と、
    各識別器からの予測値にクラスごとの重み付け手法に従って重み付けを行った後に、前記識別器の出力を組み合わせて共同予測を生成する組み合わせモジュールと、
    を備え
    前記組み合わせモジュールによるクラスごとの重み付けは下式に基づいて行われることを特徴とするマルチクラス識別器の組み合わせシステム。
    Figure 0004719224
  2. 前記システムにアクセス可能であり、ユーザが選択したラベル付け手法に従って記憶された特徴ストリームにラベル付けを行うラベル付けサブシステムをさらに備えることを特徴とする請求項1に記載のマルチクラス識別器の組み合わせシステム。
  3. 前記特徴ストリームを記憶する記憶装置と、
    前記特徴ストリームの各々について、タイムスタンプ、ファイル名、記録状態および現在のシステムのパラメータの1つ以上を含む記録を生成し、この記録を前記記憶装置に記憶するデータベース管理部と、
    をさらに備えることを特徴とする請求項1に記載のマルチクラス識別器の組み合わせシステム。
  4. 対象のシーンから1つ以上の音声ストリームおよび1つ以上の映像ストリームを含む前記特徴ストリームを生成するデータログサブシステムをさらに備えることを特徴とする請求項1に記載のマルチクラス識別器の組み合わせシステム。
  5. 前記データログサブシステムは、前記対象のシーンに存在する対象物の検出に応答して、特徴ストリームの生成を開始するような検出器を備えることを特徴とする請求項1に記載のマルチクラス識別器の組み合わせシステム。
  6. トレーニング用データのサブセットについて識別器をトレーニングし、
    前記トレーニング用データのサブセットの残りに基づいて信頼度を算出し、さらに、
    前記組み合わせモジュールにより実行されるクラスごとの重み付けには、この算出した信頼度により前記識別器の出力を重み付けすることが含まれること
    を特徴とする請求項1に記載のマルチクラス識別器の組み合わせシステム。
  7. 組み合わせモジュールによるクラスごとの重み付けは、信頼度を使った各識別器の出力の重み付けに基づき、この信頼度は、所定のデータセットについて各識別器が有する固有誤差の分布の経験値を示す混同行列から求めたものである
    ことを特徴とする請求項1に記載のマルチクラス識別器の組み合わせシステム。
  8. クラスごとの重み付け手法により各マルチクラス識別器の予測値の重み付けを行い、
    複数のマルチクラス識別器からの重み付けした予測値を組み合わせ
    前記クラスごとの重み付けは下式に基づいて行われる、
    諸ステップを実行するプロセッサを使用することを特徴とする複数のマルチクラス識別器の予測値を用いたマルチクラス識別器の組み合わせ方法。
    Figure 0004719224
  9. 前記特徴ストリームを記憶し、
    タイムスタンプ、ファイル名、記録状態、現在のシステムのパラメータの少なくとも1つを含む記録を特徴ストリームごとに生成し、この記録を記憶装置に記憶する予備ステップをさらに備える
    ことを特徴とする請求項に記載のマルチクラス識別器の組み合わせ方法。
  10. 対象のシーンから1つ以上の音声ストリームおよび1つ以上の映像ストリームを含む特徴ストリームを生成し、
    第1のマルチクラス識別器を用いて1つ以上の特徴ストリームにおいて捉えた第1の対象の特徴をクラス分けし、
    第2のマルチクラス識別器を用いて1つ以上の特徴ストリームにおいて捉えた第2の対象の特徴をクラス分けする予備ステップをさらに備える
    ことを特徴とする請求項に記載のマルチクラス識別器の組み合わせ方法。
  11. 前記対象のシーンに存在する対象物の検出に応答して前記特徴ストリームの生成を開始すること
    を特徴とする請求項10に記載のマルチクラス識別器の組み合わせ方法。
  12. クラスごとの重み付けは、信頼度により各識別器の出力を重み付けすることに基づいて行われるとともに、この信頼度は、所定のデータセットについて各識別器が有する固有誤差の分布の経験値を示す混同行列から求めたものであること
    を特徴とする請求項に記載のマルチクラス識別器の組み合わせ方法。
  13. トレーニング用データのサブセットについて1つ以上のマルチクラス識別器をトレーニングし、
    前記トレーニング用データのサブセットの残りについて信頼度を算出し、さらに、前記クラスごとの重み付けには、この算出した信頼度により1つ以上の前記識別器の出力を重み付けすることが含まれる予備ステップをさらに備えること
    を特徴とする請求項に記載のマルチクラス識別器の組み合わせシステム。
  14. 第1のマルチクラス識別器を使って1つ以上の特徴ストリームにおいて捉えた第1の対象特徴をクラス分けする手段と、
    第2のマルチクラス識別器を使って1つ以上の特徴ストリームにおいて捉えた第2の対象特徴をクラス分けする手段と、
    クラスごとの重み付けにより各マルチクラス識別器の予測値を重み付けする手段と、
    第1および第2のマルチクラス識別器からの重み付けされた予測を組み合わせて共同予測を生成する手段を実行するプロセッサからなり、
    前記クラスごとの重み付けは下式に基づいて行われること
    を特徴とするマルチクラス識別器の組み合わせシステム。
    Figure 0004719224
  15. プロセッサにより実行された場合に、前記プロセッサが、複数のマルチクラス識別器の予測値を使ってマルチクラス識別器の組み合わせ処理を実行するような指令を符号化したコンピュータ読み取り可能な媒体であって、
    クラスごとの重み付け手法により各マルチクラス識別器の予測値の重み付けを行い、
    複数のマルチクラス識別器からの重み付けされた予測値を組み合わせて共同予測を生成し、
    前記クラスごとの重み付けは下式に基づいて行われること
    を特徴とするコンピュータ読み取り可能な媒体。
    Figure 0004719224
  16. 1つ以上のプロセッサと、
    各々が、前記1つ以上のプロセッサの1つで実行され、1つ以上の特徴ストリームにおいて捉えた対象の特徴をクラス分けする複数のマルチクラス識別器と、
    各識別器からの予測値にクラスごとの重み付け手法に従って重み付けを行った後に、前記識別器の出力を組み合わせて共同予測を生成する組み合わせモジュールと、
    を備え
    前記組み合わせモジュールによるクラスごとの重み付けは下式に基づいて行われることを特徴とするマルチクラス識別器の組み合わせシステム。
    Figure 0004719224
  17. クラスごとの重み付け手法により各マルチクラス識別器の予測値の重み付けを行い、
    複数のマルチクラス識別器からの重み付けした予測値を組み合わせ
    前記クラスごとの重み付けは下式に基づいて行われる、
    諸ステップを実行するプロセッサを使用することを特徴とする複数のマルチクラス識別器の予測値を用いたマルチクラス識別器の組み合わせ方法。
    Figure 0004719224
  18. プロセッサにより実行された場合に、前記プロセッサが、複数のマルチクラス識別器の予測値を使ってマルチクラス識別器の組み合わせ処理を実行するような指令を符号化したコンピュータ読み取り可能な媒体であって、
    クラスごとの重み付け手法により各マルチクラス識別器の予測値の重み付けを行い、
    複数のマルチクラス識別器からの重み付けされた予測値を組み合わせて共同予測を生成し、
    前記クラスごとの重み付けは下式に基づいて行われること
    を特徴とするコンピュータ読み取り可能な媒体。
    Figure 0004719224
JP2007545535A 2004-12-06 2005-12-05 マルチモーダル識別のための客観評価に基づいた識別器組み合わせ Expired - Fee Related JP4719224B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US63399704P 2004-12-06 2004-12-06
US60/633,997 2004-12-06
US63438304P 2004-12-07 2004-12-07
US60/634,383 2004-12-07
US11/293,465 2005-12-02
US11/293,465 US7742641B2 (en) 2004-12-06 2005-12-02 Confidence weighted classifier combination for multi-modal identification
PCT/US2005/043823 WO2006062863A2 (en) 2004-12-06 2005-12-05 Confidence weighted classifier combination for multi-modal identification

Publications (3)

Publication Number Publication Date
JP2008525869A JP2008525869A (ja) 2008-07-17
JP2008525869A5 JP2008525869A5 (ja) 2011-04-21
JP4719224B2 true JP4719224B2 (ja) 2011-07-06

Family

ID=36574272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007545535A Expired - Fee Related JP4719224B2 (ja) 2004-12-06 2005-12-05 マルチモーダル識別のための客観評価に基づいた識別器組み合わせ

Country Status (3)

Country Link
US (1) US7742641B2 (ja)
JP (1) JP4719224B2 (ja)
WO (1) WO2006062863A2 (ja)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US9137417B2 (en) 2005-03-24 2015-09-15 Kofax, Inc. Systems and methods for processing video data
WO2007107315A1 (de) * 2006-03-22 2007-09-27 Daimler Ag Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
US7937345B2 (en) * 2006-07-12 2011-05-03 Kofax, Inc. Data classification methods using machine learning techniques
US7761391B2 (en) * 2006-07-12 2010-07-20 Kofax, Inc. Methods and systems for improved transductive maximum entropy discrimination classification
US20080086432A1 (en) * 2006-07-12 2008-04-10 Schmidtler Mauritius A R Data classification methods using machine learning techniques
US7958067B2 (en) * 2006-07-12 2011-06-07 Kofax, Inc. Data classification methods using machine learning techniques
US20080089591A1 (en) * 2006-10-11 2008-04-17 Hui Zhou Method And Apparatus For Automatic Image Categorization
US20080112593A1 (en) * 2006-11-03 2008-05-15 Ratner Edward R Automated method and apparatus for robust image object recognition and/or classification using multiple temporal views
KR100804678B1 (ko) * 2007-01-04 2008-02-20 삼성전자주식회사 비디오 인물별 신 분류 방법 및 그 시스템
JP5273042B2 (ja) * 2007-05-25 2013-08-28 日本電気株式会社 画像音響区間群対応付け装置と方法およびプログラム
US7925645B2 (en) * 2007-07-19 2011-04-12 Microsoft Corporation Dynamic metadata filtering for classifier prediction
US9031843B2 (en) * 2007-09-28 2015-05-12 Google Technology Holdings LLC Method and apparatus for enabling multimodal tags in a communication device by discarding redundant information in the tags training signals
US20090099847A1 (en) * 2007-10-10 2009-04-16 Microsoft Corporation Template constrained posterior probability
JP5121681B2 (ja) * 2008-04-30 2013-01-16 株式会社日立製作所 生体認証システム、認証クライアント端末、及び生体認証方法
US8111923B2 (en) * 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation
JP4670976B2 (ja) * 2008-10-03 2011-04-13 ソニー株式会社 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
JP5232669B2 (ja) * 2009-01-22 2013-07-10 オリンパスイメージング株式会社 カメラ
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8774516B2 (en) 2009-02-10 2014-07-08 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9349046B2 (en) 2009-02-10 2016-05-24 Kofax, Inc. Smart optical input/output (I/O) extension for context-dependent workflows
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
US9123341B2 (en) * 2009-03-18 2015-09-01 Robert Bosch Gmbh System and method for multi-modal input synchronization and disambiguation
US8140450B2 (en) * 2009-03-27 2012-03-20 Mitsubishi Electric Research Laboratories, Inc. Active learning method for multi-class classifiers
US8992446B2 (en) 2009-06-21 2015-03-31 Holland Bloorview Kids Rehabilitation Hospital Procedure for denoising dual-axis swallowing accelerometry signals
US8379920B2 (en) * 2010-05-05 2013-02-19 Nec Laboratories America, Inc. Real-time clothing recognition in surveillance videos
EP2413265B1 (en) * 2010-07-29 2017-10-18 Tata Consultancy Services Ltd. A system and method for classification of moving object during video surveillance
CN103299324B (zh) * 2010-11-11 2016-02-17 谷歌公司 使用潜在子标记来学习用于视频注释的标记
WO2012103625A1 (en) * 2011-02-04 2012-08-09 Holland Bloorview Kids Rehabilitation Hospital Reputation-based classifier, classification system and method
US8953039B2 (en) * 2011-07-01 2015-02-10 Utc Fire & Security Corporation System and method for auto-commissioning an intelligent video system
US9691395B1 (en) 2011-12-31 2017-06-27 Reality Analytics, Inc. System and method for taxonomically distinguishing unconstrained signal data segments
US9165187B2 (en) 2012-01-12 2015-10-20 Kofax, Inc. Systems and methods for mobile image capture and processing
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9483794B2 (en) 2012-01-12 2016-11-01 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9058580B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
EP2648133A1 (fr) * 2012-04-04 2013-10-09 Biomerieux Identification de microorganismes par spectrometrie et classification structurée
US9307920B2 (en) 2012-04-17 2016-04-12 Cardiac Pacemakers, Inc. Method and apparatus for automatic arrhythmia classification with confidence estimation
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
CN105283884A (zh) 2013-03-13 2016-01-27 柯法克斯公司 对移动设备捕获的数字图像中的对象进行分类
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
WO2014179752A1 (en) 2013-05-03 2014-11-06 Kofax, Inc. Systems and methods for detecting and classifying objects in video captured using mobile devices
US9275331B2 (en) * 2013-05-22 2016-03-01 International Business Machines Corporation Document classification system with user-defined rules
US11080318B2 (en) * 2013-06-27 2021-08-03 Kodak Alaris Inc. Method for ranking and selecting events in media collections
US9892745B2 (en) 2013-08-23 2018-02-13 At&T Intellectual Property I, L.P. Augmented multi-tier classifier for multi-modal voice activity detection
WO2015073920A1 (en) 2013-11-15 2015-05-21 Kofax, Inc. Systems and methods for generating composite images of long documents using mobile video data
US9754192B2 (en) * 2014-06-30 2017-09-05 Microsoft Technology Licensing, Llc Object detection utilizing geometric information fused with image data
JP6361387B2 (ja) * 2014-09-05 2018-07-25 オムロン株式会社 識別装置および識別装置の制御方法
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10929774B2 (en) 2015-02-12 2021-02-23 Koninklijke Philips N.V. Robust classifier
CN104780386B (zh) * 2015-03-19 2017-12-19 内蒙古民族大学 基于LOF‑Co‑Forest算法的视频篡改检测方法
US20160366528A1 (en) * 2015-06-11 2016-12-15 Sony Mobile Communications, Inc. Communication system, audio server, and method for operating a communication system
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US10382804B2 (en) * 2015-08-31 2019-08-13 Orcam Technologies Ltd. Systems and methods for identifying exposure to a recognizable item
US10762440B1 (en) * 2015-09-24 2020-09-01 Apple Inc. Sensor fusion and deep learning
CN105224849B (zh) * 2015-10-20 2019-01-01 广州广电运通金融电子股份有限公司 一种多生物特征融合身份鉴别方法以及装置
CN107103271A (zh) * 2016-02-23 2017-08-29 芋头科技(杭州)有限公司 一种人脸检测方法
US9779296B1 (en) 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
TWI622938B (zh) * 2016-09-13 2018-05-01 創意引晴(開曼)控股有限公司 避免辨識結果混淆之影像辨識方法
US10671068B1 (en) 2016-09-21 2020-06-02 Apple Inc. Shared sensor data across sensor processing pipelines
US10671050B2 (en) * 2017-05-11 2020-06-02 Turing Video, Inc. Surveillance system with intelligent robotic surveillance device
US11475671B2 (en) * 2017-05-26 2022-10-18 Turing Video Multiple robots assisted surveillance system
US11138901B1 (en) 2017-06-28 2021-10-05 Amazon Technologies, Inc. Item recognition and analysis
US10540390B1 (en) 2017-08-07 2020-01-21 Amazon Technologies, Inc. Image-based item identification
US10521705B2 (en) * 2017-11-14 2019-12-31 Adobe Inc. Automatically selecting images using multicontext aware ratings
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US11630987B2 (en) 2018-04-30 2023-04-18 International Business Machines Corporation Neural belief reasoner
US10475468B1 (en) * 2018-07-12 2019-11-12 Honeywell International Inc. Monitoring industrial equipment using audio
US11099753B2 (en) * 2018-07-27 2021-08-24 EMC IP Holding Company LLC Method and apparatus for dynamic flow control in distributed storage systems
US11969898B2 (en) 2018-12-17 2024-04-30 Datalogic Ip Tech S.R.L. Multi-sensor optimization of automatic machines to prevent safety issues
CN109858569A (zh) * 2019-03-07 2019-06-07 中国科学院自动化研究所 基于目标检测网络的多标签物体检测方法、系统、装置
US20210034985A1 (en) * 2019-03-22 2021-02-04 International Business Machines Corporation Unification of models having respective target classes with distillation
US11610248B1 (en) * 2019-06-19 2023-03-21 Amazon Technologies, Inc. Type ambiguity detection system
CN110234018B (zh) * 2019-07-09 2022-05-31 腾讯科技(深圳)有限公司 多媒体内容描述生成方法、训练方法、装置、设备及介质
GB2586996B (en) * 2019-09-11 2022-03-09 Canon Kk A method, apparatus and computer program for acquiring a training set of images
CN110556099B (zh) * 2019-09-12 2021-12-21 出门问问信息科技有限公司 一种命令词控制方法及设备
CN111063162A (zh) * 2019-12-05 2020-04-24 恒大新能源汽车科技(广东)有限公司 静默报警方法、装置、计算机设备和存储介质
US11164042B2 (en) * 2020-01-14 2021-11-02 Microsoft Technology Licensing, Llc Classifying audio scene using synthetic image features
US11704539B2 (en) * 2020-03-30 2023-07-18 Ciena Corporation Forecasting routines utilizing a mixer to combine deep neural network (DNN) forecasts of multi-variate time-series datasets
CN111526405B (zh) * 2020-04-30 2022-02-22 网易(杭州)网络有限公司 媒体素材处理方法、装置、设备、服务器及存储介质
CN111783797B (zh) * 2020-06-30 2023-08-18 杭州海康威视数字技术股份有限公司 目标检测方法、装置及存储介质
CN112527374A (zh) * 2020-12-11 2021-03-19 北京百度网讯科技有限公司 标注工具生成方法、标注方法、装置、设备以及存储介质
US11805139B1 (en) 2021-01-25 2023-10-31 Trend Micro Incorporated Multiclass classification system with accumulator-based arbitration
US11922285B2 (en) 2021-06-09 2024-03-05 International Business Machines Corporation Dividing training data for aggregating results of multiple machine learning elements
WO2023059651A1 (en) * 2021-10-05 2023-04-13 Red Dirt Road Productions, Llc Determining impact of content on an audience

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169586A (ja) * 2000-09-19 2002-06-14 Atr Onsei Gengo Tsushin Kenkyusho:Kk 音声及び画像の合成モデル生成装置、音声及び画像の合成モデルのための環境適応化装置、並びに音声認識装置
JP2004523849A (ja) * 2001-03-15 2004-08-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 不定期的に補助を要する一人暮らしの人を監視する自動システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5537488A (en) * 1993-09-16 1996-07-16 Massachusetts Institute Of Technology Pattern recognition system with statistical classification
US5519786A (en) * 1994-08-09 1996-05-21 Trw Inc. Method and apparatus for implementing a weighted voting scheme for multiple optical character recognition systems
US20050047664A1 (en) * 2003-08-27 2005-03-03 Nefian Ara Victor Identifying a speaker using markov models
US7013005B2 (en) * 2004-02-11 2006-03-14 Hewlett-Packard Development Company, L.P. System and method for prioritizing contacts
US20050286772A1 (en) * 2004-06-24 2005-12-29 Lockheed Martin Corporation Multiple classifier system with voting arbitration

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169586A (ja) * 2000-09-19 2002-06-14 Atr Onsei Gengo Tsushin Kenkyusho:Kk 音声及び画像の合成モデル生成装置、音声及び画像の合成モデルのための環境適応化装置、並びに音声認識装置
JP2004523849A (ja) * 2001-03-15 2004-08-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 不定期的に補助を要する一人暮らしの人を監視する自動システム

Also Published As

Publication number Publication date
WO2006062863A3 (en) 2007-02-15
US7742641B2 (en) 2010-06-22
US20060120609A1 (en) 2006-06-08
WO2006062863A2 (en) 2006-06-15
JP2008525869A (ja) 2008-07-17

Similar Documents

Publication Publication Date Title
JP4719224B2 (ja) マルチモーダル識別のための客観評価に基づいた識別器組み合わせ
JP4543423B2 (ja) 対象物自動認識照合方法および装置
Salimi et al. Visual-based trash detection and classification system for smart trash bin robot
Erzin et al. Multimodal speaker identification using an adaptive classifier cascade based on modality reliability
US7447338B2 (en) Method and system for face detection using pattern classifier
JP3903783B2 (ja) 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
US9070041B2 (en) Image processing apparatus and image processing method with calculation of variance for composited partial features
KR20040037180A (ko) 학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법
US20050226509A1 (en) Efficient classification of three dimensional face models for human identification and other applications
JP2006268825A (ja) オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム
JP5214760B2 (ja) 学習装置、方法及びプログラム
JPH1055444A (ja) Dctをベースとするフィーチャー・ベクトルを使った顔の認識
US20030113002A1 (en) Identification of people using video and audio eigen features
JP4375570B2 (ja) 顔認識方法およびシステム
Chowdhury et al. Msu-avis dataset: Fusing face and voice modalities for biometric recognition in indoor surveillance videos
KR101016758B1 (ko) 인물 식별 방법 및 그 시스템
Besson et al. Extraction of audio features specific to speech production for multimodal speaker detection
JP4708835B2 (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP4375571B2 (ja) 顔類似度算出方法および装置
KR101208678B1 (ko) 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법
JP2008140093A (ja) 異常事象抽出装置、異常事象抽出方法、この方法のプログラム及びこのプログラムを記録した記録媒体
Luque et al. Audio, video and multimodal person identification in a smart room
JP3648199B2 (ja) カット検出装置およびそのプログラム
JP2010271787A (ja) 特徴量生成装置、特徴量生成方法および特徴量生成プログラム、ならびにクラス判別装置、クラス判別方法およびクラス判別プログラム
CN112464977A (zh) 一种物体分类方法、计算机设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110303

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110303

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110311

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees