JP5448758B2 - 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造 - Google Patents

情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造 Download PDF

Info

Publication number
JP5448758B2
JP5448758B2 JP2009272570A JP2009272570A JP5448758B2 JP 5448758 B2 JP5448758 B2 JP 5448758B2 JP 2009272570 A JP2009272570 A JP 2009272570A JP 2009272570 A JP2009272570 A JP 2009272570A JP 5448758 B2 JP5448758 B2 JP 5448758B2
Authority
JP
Japan
Prior art keywords
feature
filter
information processing
data
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009272570A
Other languages
English (en)
Other versions
JP2011113550A (ja
Inventor
大介 古川
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009272570A priority Critical patent/JP5448758B2/ja
Priority to US12/879,781 priority patent/US8909561B2/en
Publication of JP2011113550A publication Critical patent/JP2011113550A/ja
Application granted granted Critical
Publication of JP5448758B2 publication Critical patent/JP5448758B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像データから複数の特徴量を抽出し、それらと識別器に入力して画像データの特徴を識別する識別器に関する。
近年、顔検出や医療画像における病変部検出など、画像画像データから特定の領域のみを選択的に検出する識別処理技術が利用されている。
この技術では、複数の学習用画像の夫々に対して、最大・最小値フィルタやWavelet等、画像の部分領域を強調可能なフィルタを複数組み合わせて複数の特徴量を求め、所定の学習アルゴリズムに適用して識別器を訓練する。ここでいう識別器とは、未知画像に対して適用すべき複数のフィルタによる複数の特徴量データを入力とし、識別の結果を出力とする一連の計算方法を示している。また、ここでの学習アルゴリズムは、AdaboostやSupportVectorMachine等が考えられる。
これら識別処理を行うための識別器を作成するに当たっては、入力となる特徴量の選択が重要となる。これは学習段階における入力がその識別器の汎化能力即ち識別精度に大きく寄与するからである。また、画像に対するフィルタの適用処理が識別処理にかかる時間の大部分を占めるからである。特に、実用上は許容範囲内で適切な精度の識別を行うことが必要であり、フィルタの選択つまりは特徴量の選択が特に重要となる。
特許文献1では、学習時のフィルタの選択基準として、抽出精度に加えてフィルタの計算量も考慮してフィルタを選択することで、未知のデータに適用する際の計算時間を削減する技術が開示されている。
特開2005−100121号公報
識別器を訓練する場合において特徴量データを選択するときに、画像に対するフィルタ適用処理が重複する場合がある。例えば、ある特徴量Xを抽出するフィルタ群がA,B,A,Cであり、別の特徴量Yを抽出するためのフィルタ群がA,B,Dであるような場合である。このような場合に、フィルタA,Bを適用する処理は重複している。従来では、計算時間の評価を行う際にこのような重複を考慮せずに選択を行っていたため、結果として作成される識別器の処理に無駄があるか、または計算時間を正確に評価できていないこととなっていた。
本発明はかかる課題を解決するためになされたものであり、学習データに対する特徴量を逐次選択して識別器を生成する情報処理装置であって、前記学習データに対して適用する空間フィルタ及び計算時間をノードに関連付け空間フィルタの適用順序と計算時間を木構造として表現し、前記適用順序に従い前記空間フィルタを適用して得られる特徴量を前記木構造のノードに対応して取得する取得手段と、前記取得されたノードに対応する特徴量の夫々を、選択された特徴量を得るために前記木構造に従い適用したフィルタに対応する各ノードからの算出時間と前記学習データに対する識別精度とに基づき評価する評価手段と、前記評価に基づき前記ノードに対応する特徴量を逐次選択して識別器を生成する生成手段と、を有することを特徴とする。
かかる構成を有する本発明によれば、重複処理を回避して計算時間を評価し、識別器を作成するため、計算時間を正確に評価して識別器を作成することができる。
情報処理システムの構成図である。 記憶部102に格納される計算順序グラフを示した図である。 特徴量選択に伴う計算順序グラフの操作の概要を示した図である。 情報処理装置10による識別器の生成処理の流れを示すフローチャートである。 SVMを適用する特徴量画像群を示す図である。 情報処理装置10による未知データの識別処理の流れを示すフローチャートである。 実施例2に係る情報処理装置10による識別器の生成処理の流れを示すフローチャートである。
(実施例1) SVMによる識別器の学習と、識別処理
実施例1は、学習データから特徴量を逐次選択し、これにSVMを適用して識別器を生成する処理と、訓練された識別器を未知データに適用して特徴を識別する処理を行う情報処理システムについて説明する。識別器の生成処理においては、特徴量を算出する際の重複処理を考慮して計算時間を評価する。また、識別処理においては、重複処理を避けて未知データから特徴量を生成する。
本実施例における処理を実行する情報処理システムの構成について図1に従い説明する。情報処理システムは、情報処理装置10とデータサーバ20からなり、これらはインターフェイスを介してデータサーバ20と接続されている。接続に用いるインターフェイスは、ローカル・エリア・ネットワーク(LAN)、IEEE1394、光ファイバ、USB等のいずれでもよい。
データサーバ20は学習画像集合とフィルタ集合を蓄積する。学習画像集合とフィルタ集合は情報処理装置10の要求に応じて、情報処理装置10に送信される。またデータサーバ20は、情報処理装置10により選択されたフィルタの集合を蓄積する。ここでいう学習画像集合は、例えば人間の顔を含む撮影画像であり、これら画像から人間の顔画像を識別する識別器を生成するための学習データである。またフィルタ集合とは、画像データからエッジ、平均画素値、特定形状の個数等の特徴量を作成するための空間フィルタであり、変換行列等がある。
情報処理装置10は以下の各部から構成される。即ち、データ取得部101、記憶部102、計算順序グラフ生成部103、識別精度特定部104、計算量特定部105、フィルタ評価値計算部106、フィルタ選択部107、計算順序グラフ更新部108、データ出力部109、識別部110である。
かかる構成で、データ取得部101はデータサーバ20から学習画像集合とフィルタ集合を取得し、記憶部102に格納する。計算順序グラフ生成部103は、記憶部に格納されたフィルタ集合から計算順序グラフを構築する。計算順序グラフとは、原画像に対するフィルタの適用順序とそれにより順次得られる特徴量の関係を木構造で表現したデータである。このデータも記憶部102に格納される。計算順序グラフの詳細については後述する。
識別精度特定部104は、記憶部102に格納された学習データを利用して各フィルタの識別精度を計算する。識別精度は、既に選択済みの特徴量と、計算順序グラフに示された各特徴量の夫々とにより識別器を生成し、全学習データに適用し、識別が正解した数と誤った数から識別精度を算出する。
計算量特定部105は、計算順序グラフ生成部103で生成された計算順序グラフを利用して計算量を特定する。ここでいう計算量とは、原画像から特徴量を得るための計算にかかる時間のことを指す。画像の読み込み、特徴量の記憶部102への保存処理等は画像のフィルタ適用処理に対して十分に小さいため、計算量はフィルタの適用処理にかかる時間としてよい。
フィルタ評価値計算部106は、識別精度特定部104で特定された識別精度と計算量特定部105で特定された計算量から、特徴量及びフィルタの選択に利用する評価値を計算する。フィルタ選択部107は、特徴量及びフィルタ選択のための評価値に基づき、特徴量及びフィルタの選択を行う。選択された特徴量及びフィルタは記憶部102に格納される。計算順序グラフ更新部108は、フィルタ選択部107で選択されたフィルタに基づき、計算順序グラフに格納されている計算量の更新を行う。選択された特徴量と、その算出過程で得られる特徴量を計算順序グラフから特定し、これら特徴量の計算量を0とする。この計算量の評価に基づいて、フィルタ選択部107は更に特徴量及びフィルタを選択する。これは、二以上の特徴量の作成過程に共通部分がある場合には、その共通部分の処理の重複を避けることが可能であることによる。この処理についても後述する。
データ出力部109は記憶部102に格納されているフィルタに関する情報をデータサーバ20に送信する。これら空間フィルタとその適用時のパラメータが、識別器を構成する。
識別部110は、記憶部102から学習画像集合に含まれない未知の画像を取得する。同時に識別部110は、フィルタ選択部107が選択したフィルタの集合である選択フィルタ集合とその選択順序も取得する。その後、識別部110は選択フィルタ集合を利用して識別処理を行う。この際、例えば一の特徴量がフィルタをA,B,Cの順で適用して得られる特徴量であり、他の特徴量がフィルタをA,B,Dの順で適用して得られる特徴量である場合に、一の特徴量の算出時にフィルタA,Bまでの適用結果を記憶部102に保存する。そして、他の特徴量の算出にこの保存された適用結果の特徴量を用いる。このように二以上の特徴量の算出過程が一部共通している場合、一の特徴量の算出時に共通部分の特徴量を保存しておき、他の特徴量の算出に用いることで、処理の重複を避けることができる。これにより共通部分の特徴量の保存処理を行う必要が発生するが、この保存処理にかかる時間は画像への空間フィルタの適用処理に要する時間に対して十分に小さいため、識別処理にかかる時間を短縮することができる。
識別結果を記憶部102に格納する。データ出力部109は記憶部102に格納された識別結果に関する情報を、外部のデータサーバ20に出力する。
上述の情報処理システムのデータサーバ20に記憶される学習データの画像及び空間フィルタと特徴量のデータ構造について、図2に従い説明する。計算順序グラフは、フィルタの適用順序や既に計算されている特徴量画像の存在を考慮して計算量を特定する際に有効な構造を有する木構造データである。なお、以下の説明では、フィルタの選択とは、フィルタとその結果として得られる特徴量画像の選択を意味するものとする。
計算順序グラフとは、画像に対して適用するフィルタとフィルタの出力結果である特徴量画像の関係を木構造データで表現したものである(図2(a))。一つのグラフは画像を表すノードとフィルタを表すノードの2種類のノードからなる。図2(a)では、ノード201、203、205、207、209、211、213が画像ノードを表しており、ノード202、204、206、208、210、212がフィルタノードを表している。フィルタノードに向かう矢印はフィルタに対する入力を、またフィルタノードから出る矢印はフィルタの出力を表している。フィルタノード202の例でいえば、原画像がフィルタAの入力であり、その出力が特徴量画像A、すなわち原画像に対してフィルタAを適用することで特徴量画像Aが出力されることを意味している。あるフィルタから出力された画像は、更に他のフィルタの入力となることも可能である。更に画像ノード203とフィルタノード204、206との関係のように、一つの画像が複数のフィルタの入力となることもある。ここで、一つのフィルタノードは、入力となる特徴量画像または学習画像と、出力となる特徴量画像が等しい場合に同一のノードして取り扱っている。
フィルタノードは対応するフィルタの名前に加えて、そのフィルタの適用にかかる計算時間、つまり特徴量の算出時間が関連付けられ格納されている。図2(a)において、フィルタノード内の丸括弧で括られた数字が、計算量を表している。この計算量は、入力画像に対して最初のフィルタを適用してから、注目しているフィルタの計算が終了するまでに必要な全体の算出時間を示している。図2(b)を参照しながら、具体的に説明する。図2(b)は、図2(a)で示したそれぞれのフィルタについて、フィルタ単体での計算量を示している。例えば、原画像に対してフィルタAを適用し、特徴量画像Aを出力するまでに必要な算出時間は2であることが分かる。また、特徴量画像Aに対してフィルタBを適用し、特徴量画像Bを適用するのには算出時間が4だけ必要である。
それぞれのフィルタの単体での計算量から、計算順序グラフのフィルタノードが保持する計算量は容易に決定できる。例えば、フィルタノード204に格納する計算量は、原画像に対してフィルタAを適用するのに必要な計算量の2に、特徴量画像Aに対してフィルタBを適用するのに必要な計算量の4を加えた値2+4=6となる。同様に、フィルタノード208に格納する計算量は2+3+1=6、フィルタノード212に格納する計算量は3+2=5となる。このようにして構築した計算順序グラフを利用することにより、原画像が与えられてから注目するフィルタが特徴量画像を出力するまでに適用されるフィルタの順番と計算に必要な時間を、効率的に取得することが可能となる。なお、計算順序グラフはこれに限らず、特徴量画像のみをノードとし、空間フィルタをエッジ(リンク)とした木構造データであってもよい。また、フィルタのみをノードとした木構造データであってもよい。
フィルタ選択処理でフィルタが一つ選択されるたびに、計算された特徴量画像に応じて、フィルタノードに格納されている計算量が更新される。詳細は後述するが、本件では、フィルタは抽出精度と計算量の組み合わせからなる指標に基づいて選択される。しかし説明の便宜上、ここではフィルタ選択の詳細には触れず、フィルタが選択された際の計算量の更新に注目して説明を行う。
特徴量の算出時間に関するデータの操作の概要について、図3を用いて説明する。図3(a)は、フィルタが一つも選択されていない状況での計算順序グラフである。この状況において、1番目のフィルタとしてフィルタCが選択されたと仮定する。ここで、フィルタCの出力結果である特徴量画像Cを実際に生成する過程を考える。図3(a)の計算順序グラフを参照すると、フィルタCの入力画像は特徴量画像Aであることが分かる。そのため、フィルタCを計算するための前段階として、原画像に対してフィルタAを適用し、特徴量画像Aを取得しておかなければならない。これは逆に考えると、フィルタCの出力結果である特徴量画像Cを生成した段階で、フィルタAの計算はすでに完了しており、その出力である特徴量画像Aもすでに生成されていることを意味している。そこで、生成された特徴量画像Aを記憶領域等に格納しておき、フィルタAの計算が必要になった時に記憶領域等に格納された特徴量画像Aを利用すれば、フィルタAを今後計算する必要はないと考えられる。このような考えの下、計算順序グラフのフィルタノード302とフィルタノード305の計算量を0に設定する。
更に図3(a)の計算順序グラフから、フィルタBの入力画像も特徴量画像Aであることが分かる。上述の通り、フィルタCを適用する際に生成した特徴量画像Aは、フィルタBの入力画像としても利用可能である。そのため、フィルタBの計算量は減少するはずである。計算順序グラフからフィルタノード304に格納されている計算量は6であるが、これはフィルタB単体での計算量4にフィルタA単体での計算量2を加えた値である。今、特徴量画像Aが再利用可能なことから、フィルタAの計算量は0である。そのため、入力画像から特徴量画像Bを算出するのに要する算出時間は、フィルタB単体での計算量に等しい。そこで、フィルタノード304には、元々フィルタノード304に格納されていた計算量6からフィルタノード302に格納されていた計算量2を引いた値4を格納する。
以上をまとめると、1番目のフィルタとしてフィルタCが選択された時、計算順序グラフのフィルタノード302とフィルタノード306に計算量0を、またフィルタノード304に計算量4を格納する。図3(b)は、図3(a)のグラフにおいてフィルタCを選択した後のグラフを示している。フィルタAとフィルタCに対応するフィルタノード322、326の計算量が0に、またフィルタBに対応するフィルタノード304の計算量が4になっているのが分かる。
2番目以降のフィルタが選択された際にも、同様の考え方に基づき、計算順序グラフに格納されている計算量を更新していく。
このようにデータの更新処理を行うことで、特徴量またはフィルタ選択時の計算量の評価を適切に行うことができる。
上述の構成を有する情報処理装置10が実行する識別器の処理の詳細を図4のフローチャートに従い説明する。
ステップS401において、データ取得部101はデータサーバ20から学習画像集合と入力フィルタ集合を取得し、記憶部102に格納する。学習画像集合には、フィルタの抽出精度を評価するための複数の画像と、それぞれの画像について画像内の抽出すべき特定の領域のみをラベル付けしたラベル画像が含まれる。本実施例では、ラベル画像内の抽出すべき領域に含まれる画素には画素値1を、その他の領域の画素には画素値0を設定する。
入力フィルタ集合とは、情報処理装置10がフィルタを選択する際の元となる集合のことであり、ノイズ抑制のためのフィルタや抽出対象領域を強調するフィルタが多数含まれる。領域抽出に有効なフィルタは、入力画像や抽出すべき領域の性質に応じて異なる。そのため、入力フィルタ集合に格納するフィルタの種類は、適用する問題に応じて実験的に決定される。入力フィルタ集合に格納するフィルタには、入出力の画像を示す一意な数字を付与しておく。
ステップS402において、計算順序グラフ生成部103は計算順序グラフを構築する。はじめに、記憶部102から入力フィルタ集合を取得し、グラフを生成する。入力フィルタ集合に格納されているフィルタは、それぞれ入出力の画像を示す一意な数字を保持している。この数字を利用することで、公知のアルゴリズムにより容易にグラフを生成することが可能である。また、グラフ生成は全処理を通して一度だけ実行すればよいため、事前に手動でグラフを生成することも可能である。
次に生成されたグラフに基づいて、フィルタノードに格納する計算量を取得する。そのために、まずフィルタ単体での計算量を取得する。フィルタ単体での計算量とは、画像を入力してから、フィルタの適用結果を出力するまでに要する処理時間とする。これは、学習データに含まれている各画像に対してフィルタを実際に適用して、画像毎に処理時間を計測し、更にそれらを平均することで得られる。フィルタ単体での計算量を取得したら、構築した計算順序グラフとフィルタ単体での計算量から、グラフのフィルタノードに計算量を格納する。フィルタノードに格納する計算量の求め方はすでに説明を終えているため、ここで繰り返して説明はしない。
ステップS403において、識別精度特定部104は記憶部102に格納されている学習画像集合と入力フィルタ集合を読み込み、入力フィルタ集合に含まれている各フィルタについて識別精度を特定する。フィルタの識別精度は、学習画像集合の各画像について領域抽出を行い、抽出された領域を対応するラベル画像内の抽出対象領域と比較することで決定される。ここでは、Support Vector Machineを用いて領域抽出を行い、その結果を利用して識別精度を決定する手順を説明する。以下、ステップS203からS207までのt−1回の反復処理までに選択されたフィルタをf[1],…,f[t−1]と記述する。また、入力フィルタ集合内のある一つのフィルタをfと記述する。
Support Vector Machineは、d次元のベクトルxが2つのクラス(例えば1または−1)のうちどちらに属しているかという識別問題に対する学習アルゴリズムの一つである。Support Vector Machineの学習アルゴリズム自体は公知であるため説明は省略し、ここではその入力と出力の説明を行う。Support Vector Machineは、入力としてn個のd次元のベクトルxとそのベクトルが属するクラスyI{1,−1}の組と、識別時のカーネルの型とパラメータを必要とする。まず前者であるが、本実施例ではベクトルxはフィルタf[1],…,f[t−1] が出力した特徴量画像F[1],…,F[t−1],Fの画素値を要素に持つベクトルとする。図5を参照して具体的に説明すると、ベクトルxはそれぞれ、
とする。ここでF[i](x,y)は特徴量画像F[i]の座標値(x,y)での値を表している。学習画像データ1枚に対してベクトルが画像の画素数分作成される。これが、学習画像データの枚数Lだけ生成されるため、実際のベクトルの数はm×n×Lとなる。
SVMでは、各特徴量画像、識別に用いる識別関数の型とパラメータ、学習画像集合に含まれている前画像とそれらに対応する正解画像(ラベル画像)を入力とし、識別関数を出力として得ることができる。この識別関数を全学習画像データに対して適用し、正解画像と比較して識別精度を算出する。
なお、識別のための方法は、フィルタの出力結果である特徴量画像に対する単純なしきい値処理や、特徴量画像から計算されるマハラノビス距離値を利用した領域抽出法など、いずれの方法でもよい。また、fが出力する特徴量画像のみを利用した領域抽出法でも、f[1],…,f[t−1]とfが生成した特徴量画像を組み合わせて実行する領域抽出法でもよい。
上述の処理を入力フィルタ集合に含まれるすべてのフィルタについて行い、各フィルタまたは特徴量の識別精度として取得する。
ステップS704において、計算量特定部105は入力フィルタ集合の各フィルタfについて、計算順序グラフ内の対応するフィルタノードからフィルタの計算量T[t] を取得する。
ステップS705において、フィルタ評価値計算部106はステップS703とステップS704で特定されたフィルタの識別精度と計算量からフィルタ評価値を計算する。フィルタ評価値は識別精度と計算量から決定される値であり、この値が小さいほど識別精度と計算量の両方の観点から有効なフィルタであることを示している。フィルタ評価値としてはさまざまな値が利用可能であるが、本実施形態では次式のように計算精度と計算量の重みつき線形和で計算されるフィルタ評価値を利用する。
ここで、P[t] 、T[t] はフィルタfの識別精度と計算量である。また、wは識別精度と計算量の間の重み係数である。この値は識別精度と計算量のどちらを重視するかに応じて事前に決定する。
なお本件で利用可能なフィルタ評価値は式(1)に限定されるものではなく、例えば、
や、
等で定義されるフィルタ評価値であってもよい。
ステップS706において、フィルタ選択部107はステップS705で計算されたフィルタ評価値F[t] に基づき、フィルタを一つ選択する。ここでは単純に、F[t] が最も小さな値であるフィルタを選択する。選択されたフィルタf[t]は、記憶部102に格納される。
ステップS707において、計算順序グラフ更新部108はステップS707で選択されたフィルタに基づき、計算順序グラフのフィルタノードに格納されている計算量を更新する。計算量の更新方法については既に述べたためため省略する。
ステップS708において、フィルタ選択部107はステップS703からステップS707までのフィルタ選択処理を終了するかを判定する。選択されたフィルタの数tが反復回数に関するしきい値Niter1以上の場合には処理を終了し、ステップS709に移る。逆にフィルタ数tがNiter1より小さい場合には、tに1を加えた後、ステップS703に戻り、フィルタ選択処理を続行する。
ステップS709において、データ出力部109は選択フィルタ集合f[1],…,f[Niter1]を記憶部102から読み出し、外部のデータサーバ20に出力する。
上述の構成を有する情報処理装置10が実行する未知データの識別処理の詳細を図6のフローチャートに従い説明する。本実施例における情報処理装置は、選択フィルタ集合に加えて、フィルタの選択順番も出力する。識別部110は、学習画像集合に含まれない未知の画像に対してフィルタを順番通りに適用し、その出力結果である特徴量画像を利用して識別処理を行う。更に識別部110は、本装置の操作者により事前に指定された計算時間Tlimit2に基づき、フィルタの適用を終了する機能を有する。これにより、本実施例における情報処理装置は、学習画像集合に含まれない未知の画像に対して、事前に指定された計算時間の範囲内で、高い識別精度で識別が可能となる。
ステップS601において、識別部110は記憶部102から識別対象である画像I、選択フィルタ集合f[1],…,f[Niter1]、フィルタ選択処理において特定されたフィルタの計算量T[1],…,T[Niter1]を取得する。
ステップS602において、識別部110は記憶部102に保存すべき特徴量を判定する。ここでは、計算順序グラフを参照して、各特徴量の作成過程が共通する部分の有無を判定する。例えば、特徴量XがフィルタA,B,Cを適用して得られる特徴量であり、特徴量YがフィルタA,B,Dを適用して得られる特徴量である場合には、フィルタA,Bを適用して得られる特徴量Zを特徴量Xの作成過程において保存すべきと判定する。このように、全ての特徴量について保存すべき特徴量を判定する。判定結果を記憶部102に記憶し、特徴量の作成時に参照可能にしておく。
ステップS603では、フィルタ計算の処理時間に関する上限Tlimit2を設定する。この値は、ユーザの入力により定められても、既定値を用いても良い。次にフィルタの計算量をT[1]から順番に積算する。この積算値とTlimit2を比較し、Tlimit2を超えるようなフィルタf[Niter2]を探す。そしてこのようなフィルタが見つかった時点で、それ以降のフィルタf[Niter2+1],…,f[Niter1]を選択フィルタ集合から除く。
ステップS604において、識別部110は画像Iにフィルタf[1]を適用し、特徴量画像F[1]を生成する。この処理中は、作成過程で得られる特徴量を全て不図示の一時メモリに記憶しておく。ステップS605では、識別部110は作成過程にて保存すべき特徴量があると判定されているかを記憶部102の情報を参照して確認し、保存すべき特徴量を一時メモリから取り出して保存し、必要のない特徴量は破棄する。ステップS606では、識別部110は全ての特徴量画像を作成し終わったか否かを判定し、終わっていない場合にはステップS604の処理に進み次の特徴量画像を作成する。u回目の反復処理において、本ステップで生成した特徴量画像をF[u]と記述する。終了している場合にはステップS607の処理へと進む。以上の処理により識別部110は画像Iにフィルタf[1],…,f[Niter2]を適用し、特徴量画像F[1],…,F[Niter2]を生成する。
ステップS607では、識別部110は生成された特徴量画像F[1],…,F[Niter2]を利用して識別処理を行う。ここでは、図7に示したフローチャートの処理でAdaboost法を用いて訓練された識別器を適用して識別処理を行う。なお、識別の方法は、実施例1のステップS203で説明したマハラノビス距離値に基づく方法や、Support Vector Machine(SVM)による方法など、公知の識別方法のいずれでもよい。
ステップS608において、データ出力部109は識別部110が特定したデータを記憶部102から取得し、外部のデータサーバ20に出力する。
以上で述べた構成によれば、本実施例における情報処理装置10は、学習画像集合に含まれない未知の画像に対して、特徴画像の算出時間に関して事前に指定された条件の範囲内で精度の高い識別処理を実施することが可能となる。そのため、「精度は低いが短時間で識別を終了したい」や「ある程度の時間を要するが高精度な識別を期待する」というように、時間と精度に関する条件に合わせた識別処理を実施することが可能となる。
なお、本識別処理では計算順序グラフに格納されたフィルタの適用時間を用いて特徴量及びフィルタの数を制限したが、これに限らず、特徴量の作成処理を実行しながら時間の判定を行っても良い。この場合には、識別部110は、選択フィルタ集合に含まれるフィルタを実際に画像に適用することで、フィルタ適用処理に要する時間を取得する。そして取得した経過時間に基づいて、フィルタ適用を継続させるか終了させるかを判定する。これにより、本実施例における情報処理装置は、学習画像集合に含まれない未知の画像に対して、事前に指定された計算時間の範囲内で、高い識別精度で識別が可能となる。
即ち、ステップS603の実行が終了した時点で識別部110は時間のカウントを開始し、ステップS606にて識別部110はそれまでのフィルタの適用処理の時間を取得して時間閾値を超えているか否かを判定する。ここで超えていなければ(ステップS606でNo)ステップS604の処理に進み特徴量の作成を行う。超えていると判定した場合には(ステップS606でYes)、そこで特徴量の作成処理を終了し、そこまでで作成済みの特徴量を用いて識別を行うこととすればよい。また、ステップS606にてそれまでのフィルタの適用処理の時間と、次のフィルタの適用時間を計算順序グラフから取得して和を取り、その時間が閾値を超えているか否かで処理の分岐を決定しても良い。このように実際の処理時間を用いて足切りの処理を行うことにより、より現実の識別時間への要求に対応した識別処理を行うことができる。
(実施例2)
実施例2では、学習データから特徴量を逐次選択し、これにAdaboostを適用して識別器を生成する処理と、訓練された識別器を未知データに適用して特徴を識別する例を説明する。実施例1とは、生成処理において所定の時間閾値を設定し、この閾値を超えないように識別器の生成処理を行う。これにより、要求される識別時間を超えない識別器を生成することができる。これら処理を実行する情報処理システムの構成については図1と同様であるが、各機能ブロックにより実行される処理は異なる。
実施例2に係る情報処理装置10が実行する識別器の生成処理について、図7に従い説明する。なお、実施例1と重複する処理については説明を省略する。
本実施例における情報処理装置も実施例1の情報処理装置と同様に、フィルタの計算順序と計算量の双方を考慮したうえで最適なフィルタを選択する。これに加えて、本実施例では、入力フィルタ集合からフィルタを選択する際に、未知の画像に対して識別処理を実行する際にフィルタ計算に要する時間を推定する。そして、この推定計算時間の総和が事前に指定された時間Tlimit1を越えた時点で、フィルタ選択を終了する。これにより、未知の画像に対する識別処理に要する時間を、フィルタ選択段階で決定することが可能となる。また、本実施例では学習アルゴリズムとしてAdaboostを用い、特徴量の選択及び識別器の生成を行う。
ステップS703では、データ取得部101は、データサーバ20からTlimit1を設定し、記憶部102に格納する。この設定値は、ユーザの入力により定めることとしても、既定値を用いることとしても良い。
ステップS704において、識別精度特定部104は、フィルタの識別精度を特定する際に、学習画像集合に格納されている画像の各画素に付与されている重みD[t](x)に基づき、フィルタの識別精度を計算する。以下、具体的に説明する。
まず、fが生成する特徴量画像F(x)をしきい値S[t] で2値化し、2値画像h[t] (x)を生成する。
なお、h[t] (x)とF(x)は学習画像集合に格納されている画像毎に与えられる点、一方、S[t] は一つのフィルタについて一つ与えられる点に注意されたい。
次に、h[t] (x)と学習画像集合に格納されているラベル画像L(x)から、フィルタfの誤り率e[t] を計算する。
式(5)は学習画像集合に含まれる画像の画素のうち、h[t] (x)1L(x)である画素について、D[t](x)の和をとることを意味している。AdaBoostの場合、ラベル画像L(x)は、抽出すべき画素には値1が、その他の画素には値−1が格納されている。なお、D[1](x)は、学習画像集合に含まれる画像の全画素数Nvoxelsを用いて、
で初期化されているものとする。
誤り率e[t] から、識別精度P[t] は、
として計算される。以上の処理でフィルタの識別精度を特定する。
ステップS707において、フィルタ選択部107がフィルタを選択した後、選択されたフィルタに基づき、そのフィルタの信頼度と学習サンプルの重みを更新する。選択されたフィルタf[t]の信頼度a[t]は次式で計算される。
ここでe[t]は、フィルタf[t]の誤り率である。式(6)で計算された信頼度a[t]に基づき、学習サンプルの重みを更新する。
[t]は次式で計算される正規化項である。
ステップS709において、フィルタ選択部107はステップS704からステップS708までのフィルタ選択の反復処理の終了を判定するが、この終了条件としてTlimit1を利用する。t−1回目までの反復処理で選択されたフィルタの計算量の総和T[t−1] estimateに、t回目の反復処理で選択したフィルタf[t]の計算量T[t]を加え、T[t] estimateとする。T[t]として、計算順序グラフのフィルタノードに格納されている計算量を利用する。T[t] estimateとTlimit1を比較し、T[t] estimateがTlimit1を越えた時点で、フィルタ選択を終了する。もしそうでなければ、ステップS704に戻り、フィルタ選択を続行する。
以上の処理により、情報処理装置10は選択されたフィルタの信頼度と計算し、更に学習画像集合の各画素について、重みを更新する。
上述の処理により、本特許をAdaBoostと組み合わせてフィルタを選択することが可能となる。
最後に、上述の処理で選択されたフィルタf[1],…,f[Niter1]を利用して、学習画像集合に含まれていない未知の画像から領域を抽出する際の処理について述べる。
まず選択フィルタ集合のそれぞれのフィルタf[1],…,f[Niter1]を未知画像に適用し、特徴量画像G[1],…,G[Niter1]を生成し、更に特徴量画像から2値画像g[1],…,g[Niter1]を生成する。この計算の過程は、式(3)を用いて2値画像h[1],…,h[Niter1]を生成した時と同様である。なお2値画像を生成する際のしきい値は、h[1],…,h[Niter1]を生成する際に用いたしきい値S[1],…,S[Niter1]を用いる。生成した2値画像g[1],…,g[Niter1]を用いて、未知画像内の各画素について、次式を計算する。
ここでsign(p)はp30なら1を、そうでなければ-1を返す関数である。式(9)で計算された値が1ならばその画素は抽出対象の画素であり、-1であれば抽出対象外の画素を表す。
(その他の実施例)
上述の実施例では計算順序グラフを用いて特徴量の算出時間を求めたが、必ずしも計算順序グラフによる必要はない。フィルタの適用順序を参照することができるデータを有していれば同様の処理が可能であることは言うまでもない。
上述の実施例では、学習アルゴリズムとしてSVMやAdaboostを用いたが、これら以外のアルゴリズムを用いて識別器の生成処理を行っても良い。
上記のそれぞれの実施例は、本発明を情報処理装置として実現したものである。しかしながら、本発明の実施例は情報処理装置のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。情報処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、情報処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。
10 情報処理装置
20 データサーバ
101 データ取得部
102 記憶部
103 計算順序グラフ生成部
104 識別精度特定部
105 計算量特定部
106 フィルタ評価値計算部
107 フィルタ選択部
108 計算順序グラフ更新部
109 データ出力部

Claims (17)

  1. 学習データに対する特徴量を逐次選択して識別器を生成する情報処理装置であって、
    前記学習データに対して適用する空間フィルタ及び計算時間をノードに関連付け空間フィルタの適用順序と計算時間を木構造として表現し、前記適用順序に従い前記空間フィルタを適用して得られる特徴量を前記木構造のノードに対応して取得する取得手段と、
    前記取得されたノードに対応する特徴量の夫々を、選択された特徴量を得るために前記木構造に従い適用したフィルタに対応する各ノードからの算出時間と前記学習データに対する識別精度とに基づき評価する評価手段と、
    前記評価に基づき前記ノードに対応する特徴量を逐次選択して識別器を生成する生成手段と、
    を有することを特徴とする情報処理装置。
  2. 前記選択された特徴量の算出時間の総和が所定の閾値を超えるか否かに応じて前記選択を更に行うか否かの判定を行う判定手段を有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記生成手段は、前記特徴量の一つが選択されることより前記特徴量の算出時間の総和が所定の閾値を超える場合には該特徴量を選択しないことを特徴とする請求項1に記載の情報処理装置。
  4. 前記評価手段は、前記選択された特徴量と前記取得されたノードに対応する特徴量の夫々により生成される識別器の識別精度を、前記取得されたノードに対応する特徴量の識別精度として算出することを特徴とする請求項1に記載の情報処理装置。
  5. 前記選択された特徴量を得るために前記木構造に従い算出した各ノードに対応する特徴量とは、学習データに少なくとも一つのフィルタを順に適用する過程で得られる各特徴量であることを特徴とする請求項4に記載の情報処理装置。
  6. 前記識別器は、前記逐次選択された夫々の特徴量を作成するためのフィルタと、該フィルタから得られる複数の特徴量に基づいて決定される識別関数を有することを特徴とする請求項1に記載の情報処理装置。
  7. 前記識別器は、SVMまたはAdaboostのいずれかを用いて識別器を作成することを特徴とする請求項1に記載の情報処理装置。
  8. 学習データに複数の空間フィルタを適用する過程で順次得られる複数種類の特徴量から逐次選択して識別器を生成する情報処理装置であって、
    前記複数種類の特徴量の夫々を、既に前記選択された種類の特徴量を作成する過程で順次得られる特徴量からの算出時間と、前記学習データに対する識別精度とに基づき評価する評価手段と、
    前記評価に基づき前記複数種類の特徴量から少なくとも一種類の特徴量を選択する選択手段と、
    を有することを特徴とする情報処理装置。
  9. 未知データから特徴量を算出し、該算出される特徴量を用いて前記データの識別を行う情報処理装置であって、
    請求項8の情報処理装置により選択された種類の特徴量を未知データから算出する第一の算出手段と、
    前記特徴量の少なくとも一つが算出される過程で得られる特徴量を保存する保存手段と、
    前記保存された情報に基づいて前記特徴量の一つとは異なる前記特徴量を算出する第二の算出手段と、
    を有することを特徴とする情報処理装置。
  10. 前記特徴量の一つとは異なる前記特徴量の作成に利用されるか否かに応じて、前記特徴量の少なくとも一つを取得する過程で得られる特徴量を保存手段により保存するか否かを制御する制御手段と
    を有することを特徴とする請求項9に記載の情報処理装置。
  11. 前記算出手段が前記複数の特徴量を算出する際の算出時間が所定の閾値を超えるか否かに応じて前記特徴量の作成を止める制御を行う制御手段と
    を有することを特徴とする請求項9または10に記載の情報処理装置。
  12. 学習データに複数の空間フィルタを適用する過程で順次得られる複数種類の特徴量から逐次選択して識別器を生成し、未知データの識別を行う情報処理システムであって、
    前記複数種類の特徴量の夫々を、既に前記選択された種類の特徴量を作成する過程で順次得られる特徴量からの算出時間と、前記学習データに対する識別精度とに基づき評価する評価手段と、
    前記評価に基づき前記複数種類の特徴量から少なくとも一種類の特徴量を選択する選択手段と、
    前記選択された種類の特徴量を未知データから算出する第一の算出手段と、
    前記特徴量の少なくとも一つが算出される過程で得られる特徴量を保存する保存手段と、
    前記保存された情報に基づいて前記特徴量の一つとは異なる前記特徴量を算出する第二の算出手段と、
    を有することを特徴とする情報処理システム。
  13. 学習データに対する特徴量を逐次選択して識別器を生成する情報処理方法であって、
    前記学習データに対して適用する空間フィルタ及び計算時間をノードに関連付け空間フィルタの適用順序と計算時間を木構造として表現し、前記適用順序に従い前記空間フィルタを適用して得られる特徴量を前記木構造のノードに対応して取得するステップと、
    前記取得されたノードに対応する特徴量の夫々を、選択された特徴量を得るために前記木構造に従い適用したフィルタに対応する各ノードからの算出時間と前記学習データに対する識別精度とに基づき評価するステップと、
    前記評価に基づき前記ノードに対応する特徴量を逐次選択して識別器を生成するステップと、
    を有することを特徴とする情報処理方法。
  14. 学習データに複数の空間フィルタを適用する過程で順次得られる複数種類の特徴量から逐次選択して識別器を生成する情報処理方法であって、
    前記複数種類の特徴量の夫々を、既に前記選択された種類の特徴量を作成する過程で順次得られる特徴量からの算出時間と、前記学習データに対する識別精度とに基づき評価するステップと、
    前記評価に基づき前記複数種類の特徴量から少なくとも一種類の特徴量を選択するステップと、
    を有することを特徴とする情報処理方法。
  15. 学習データに対する特徴量を逐次選択して識別器を生成する情報処理をコンピュータに実行させるためのプログラムであって、
    前記学習データに対して適用する空間フィルタ及び計算時間をノードに関連付け空間フィルタの適用順序と計算時間を木構造として表現し、前記適用順序に従い前記空間フィルタを適用して得られる特徴量を前記木構造のノードに対応して取得する処理と、
    前記取得されたノードに対応する特徴量の夫々を、選択された特徴量を得るために前記木構造に従い適用したフィルタに対応する各ノードからの算出時間と前記学習データに対する識別精度とに基づき評価する処理と、
    前記評価に基づき前記ノードに対応する特徴量を逐次選択して識別器を生成する処理と、
    をコンピュータに実行させるためのプログラム。
  16. 学習データに複数の空間フィルタを適用する過程で順次得られる複数種類の特徴量から逐次選択して識別器を生成する情報処理をコンピュータに実行させるためのプログラムであって、
    前記複数種類の特徴量の夫々を、既に前記選択された種類の特徴量を作成する過程で順次得られる特徴量からの算出時間と、前記学習データに対する識別精度とに基づき評価する処理と、
    前記評価に基づき前記複数種類の特徴量から少なくとも一種類の特徴量を選択する処理と、
    をコンピュータに実行させるためのプログラム。
  17. 学習データに少なくとも一つのフィルタを適用して作成される特徴量を逐次選択する際に用いるデータ構造であって、
    学習データの特徴量を得るための複数のフィルタに含まれるフィルタとその順序を、前記複数のフィルタに含まれる入出力が等しいフィルタを同一のノードとする木構造で格納する木構造データと、
    前記木構造データのノードとして格納されたフィルタに関連付けられ、前記複数のフィルタの選択に用いる評価値である前記フィルタの計算時間のデータとを有し、
    選択された前記複数のフィルタに含まれるフィルタについての前記計算時間のデータは0である
    ことを特徴とするデータ構造。
JP2009272570A 2009-11-30 2009-11-30 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造 Active JP5448758B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009272570A JP5448758B2 (ja) 2009-11-30 2009-11-30 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造
US12/879,781 US8909561B2 (en) 2009-11-30 2010-09-10 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009272570A JP5448758B2 (ja) 2009-11-30 2009-11-30 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造

Publications (2)

Publication Number Publication Date
JP2011113550A JP2011113550A (ja) 2011-06-09
JP5448758B2 true JP5448758B2 (ja) 2014-03-19

Family

ID=44069583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009272570A Active JP5448758B2 (ja) 2009-11-30 2009-11-30 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造

Country Status (2)

Country Link
US (1) US8909561B2 (ja)
JP (1) JP5448758B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198781A (ja) * 2011-03-22 2012-10-18 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2017126046A1 (ja) * 2016-01-20 2017-07-27 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP3523752A4 (en) * 2016-11-08 2019-10-23 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND CONTROL METHOD THEREFOR
WO2018088804A1 (en) 2016-11-08 2018-05-17 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
EP3566177A1 (en) * 2017-02-03 2019-11-13 Siemens Aktiengesellschaft A method and apparatus for detecting objects of interest in images
WO2019049688A1 (ja) * 2017-09-06 2019-03-14 日本電信電話株式会社 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム
KR102476239B1 (ko) * 2018-07-17 2022-12-12 삼성전자주식회사 전자 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
IL264530B2 (en) * 2019-01-29 2024-07-01 Eyeway Vision Ltd Device for tracking eye movement and method therefor
CN110111192A (zh) * 2019-02-19 2019-08-09 西北大学 多过滤器结合nsd指标的信贷客户特征选择方法和系统
US11817216B2 (en) 2019-04-09 2023-11-14 Genomedia Inc. Search method and information processing system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638492A (en) * 1992-09-08 1997-06-10 Hitachi, Ltd. Information processing apparatus and monitoring apparatus
JP2001266142A (ja) * 2000-01-13 2001-09-28 Nikon Corp データ分類方法及びデータ分類装置、信号処理方法及び信号処理装置、位置検出方法及び位置検出装置、画像処理方法及び画像処理装置、露光方法及び露光装置、並びにデバイス製造方法
JP4023096B2 (ja) * 2001-02-05 2007-12-19 オムロン株式会社 画像処理方法およびその装置
JP2005100121A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
JP4573036B2 (ja) * 2005-03-16 2010-11-04 オムロン株式会社 検査装置および検査方法
JP4933186B2 (ja) * 2006-07-26 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2009134383A (ja) * 2007-11-29 2009-06-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP4948379B2 (ja) * 2007-12-18 2012-06-06 キヤノン株式会社 パターン識別器生成方法、情報処理装置、プログラム及び記憶媒体
JP5294798B2 (ja) * 2008-10-24 2013-09-18 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20110131158A1 (en) 2011-06-02
US8909561B2 (en) 2014-12-09
JP2011113550A (ja) 2011-06-09

Similar Documents

Publication Publication Date Title
JP5448758B2 (ja) 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造
EP3620979B1 (en) Learning method, learning device for detecting object using edge image and testing method, testing device using the same
JP5506785B2 (ja) 勾配ヒストグラムを用いた指紋表現
CN110349147B (zh) 模型的训练方法、眼底黄斑区病变识别方法、装置及设备
JP6226701B2 (ja) データ処理方法及び装置、データ識別方法及び装置、プログラム
KR102119057B1 (ko) 골절 진단모델의 학습 방법 및 장치
JP6603548B2 (ja) 改善されたデータ比較方法
JP6816481B2 (ja) 削減条件特定方法、削減条件特定プログラム及び削減条件特定装置
CN110809768B (zh) 数据清洗系统和方法
JP2015036939A (ja) 特徴抽出プログラム及び情報処理装置
CN109002758B (zh) 人脸特征点定位方法、装置、设备及存储介质
CN113160199B (zh) 影像识别方法、装置、计算机设备和存储介质
CN113762005B (zh) 特征选择模型的训练、对象分类方法、装置、设备及介质
KR101936947B1 (ko) 비디오 인식을 위한 영상 세그먼트 프레임별 특징점의 시간 정보 인코딩 방법
KR101506812B1 (ko) 랜덤 포레스트와 이진 패턴 반복 길이 행렬을 이용한 얼굴 자세 추정 방법
CN112102178A (zh) 一种点云保特征去噪方法、装置、电子设备及存储介质
JP6398991B2 (ja) モデル推定装置、方法およびプログラム
JP7120326B2 (ja) 情報処理装置、情報処理方法、記録媒体
KR101991186B1 (ko) 철근 검출 방법 및 그 장치
CN114119970B (zh) 目标跟踪方法及装置
US11881016B2 (en) Method and system for processing an image and performing instance segmentation using affinity graphs
US11721022B2 (en) Apparatus and method for automated analyses of ultrasound images
CN114463330B (zh) 一种ct数据归集系统、方法及存储介质
JP2018088093A (ja) 物体候補領域抽出装置、方法、及びプログラム
KR102636549B1 (ko) 노이즈 개선 네트워크 기반 보행 인식 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R151 Written notification of patent or utility model registration

Ref document number: 5448758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151