JP2007148820A - 画像処理方法、その装置およびプログラム - Google Patents

画像処理方法、その装置およびプログラム Download PDF

Info

Publication number
JP2007148820A
JP2007148820A JP2005342752A JP2005342752A JP2007148820A JP 2007148820 A JP2007148820 A JP 2007148820A JP 2005342752 A JP2005342752 A JP 2005342752A JP 2005342752 A JP2005342752 A JP 2005342752A JP 2007148820 A JP2007148820 A JP 2007148820A
Authority
JP
Japan
Prior art keywords
feature
image
pattern
predetermined
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005342752A
Other languages
English (en)
Inventor
Gyokuu Ryu
玉宇 劉
Ikoku Go
偉国 呉
Keisuke Yamaoka
啓介 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005342752A priority Critical patent/JP2007148820A/ja
Publication of JP2007148820A publication Critical patent/JP2007148820A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像内の特徴パターンの検出処理に伴う計算量を削減できる及びロバスト性を上げる画像処理方法を提供する。
【解決手段】探索対象の画像を走査して探索対象の画像内の所定の特徴パターンを探索する。このとき、探索対象の画像から、単数または複数の特徴点を抽出する第1の工程と、前記第1の工程で抽出した特徴点の各々と、前記所定の特徴パターンに対して予め決められた参照特徴点との位置関係に基づいて、前記特徴パターンを探索する第2の工程とを有する。
【選択図】図4

Description

本発明は、画像内の特徴パターンを探索する画像処理方法、その装置およびプログラムに関する。
例えば、撮像画像内に存在する手の像の姿勢を検出するシステムがある。このようなシステムでは、例えば、撮像画像内を複数の矩形領域に分割し、各矩形領域毎に、当該矩形領域内に映し出された像のパターンと、予め用意した複数の姿勢の各々に対応したテンプレートパターン(特徴パターン)とを比較して、当該像内に映し出された手の像の姿勢を検出している。
Verri, A., Uras, C., Frosini, P., Ferri, M.. On the Use of Size Functions for Shape-Analysis. Biological Cybernetics, Vol.70(2), pp.99-107, 1993
しかしながら、上述した従来のシステムでは、例えば、テンプレートパターンの比較処理に伴う計算負荷が大きいという問題がある。そして、どうやってロバストに照合するかという問題もある。
本発明は上述した従来技術の問題点を解決するために、画像内の特徴パターンの検出処理に伴う計算量を削減できる及びロバスト性を上げる画像処理方法、その装置およびプログラムを提供することを目的とする。
上述した従来技術の問題点を解決し、上述した目的を達成するため、第1の観点の発明の画像処理方法は、探索対象の画像を走査して探索対象の画像内の所定の特徴パターンを探索する画像処理方法であって、前記探索対象の画像から、単数または複数の特徴点を抽出する第1の工程と、前記第1の工程で抽出した特徴点の各々と、前記所定の特徴パターンに対して予め決められた参照特徴点との位置関係に基づいて、前記特徴パターンを探索する第2の工程とを有する。
また、本発明の画像処理装置は、探索対象の画像を走査して探索対象の画像内の所定の特徴パターンを探索する画像処理装置であって、前記探索対象の画像から、単数または複数の特徴点を抽出する抽出手段と、前記抽出手段が抽出した特徴点の各々と、前記所定の特徴パターンに対して予め決められた参照特徴点との位置関係に基づいて、前記特徴パターンを探索する探索手段とを有する。
また、本発明のプログラムは、探索対象の画像を走査して探索対象の画像内の所定の特徴パターンを探索するコンピュータが実行するプログラムであって、前記探索対象の画像から、単数または複数の特徴点を抽出する第1の手順と、前記第1の手順で抽出した特徴点の各々と、前記所定の特徴パターンに対して予め決められた参照特徴点との位置関係に基づいて、前記特徴パターンを探索する第2の手順とを前記コンピュータに実行させる。
本発明によれば、画像内の特徴パターンの検出処理に伴う計算量を削減できる画像処理方法、その装置およびプログラムを提供することができる。
以下、本発明の実施形態に係わる画像処理装置について説明する。
先ず、本実施形態の構成要素と本発明の構成要素との対応関係を説明する。
本実施形態の探索ウィンドウWが本発明の探索ウィンドウの一例である。また、画像データS18の画像が本発明の第1の画像の一例であり、図5等に示す検出対象データMの画像が本発明の第2の画像の一例である。また、図8に示すSFデータのSF値が本発明の特徴点の一例である。また、式(1)〜(4)に示す関係が本発明の位置関係の一例である。また、本実施形態のテンプレートパターンが本発明の特徴パターンの一例である。
また、本発明の画像処理装置の各手段は、処理回路43がプログラムに基づいて各ステップを実行することで実現される。
図1は、本発明の実施形態に係わる画像処理装置10の全体構成図である。
図1に示すように、画像処理装置10は、例えば、スキン・確率イメージ抽出部14、スキン・セグメンテーション16、演算部18および姿勢検出部20を有する。
カメラ12の撮像結果に応じたオリジナル画像データS12がスキン・確率イメージ抽出部14およびスキン・セグメンテーション16に出力される。
スキン・確率イメージ抽出部14は、オリジナル画像データS12からスキン確率イメージデータS14を生成し、これを演算部18に出力する。
スキン・確率イメージ抽出部14は、例えば、オリジナル画像データS12内の各画素データについて、それがスキン(人間の皮膚)に対応している確率(確率密度)を示す確率イメージデータS14を生成する。このとき、スキン・確率イメージ抽出部14は、例えば、予め色と確率とを対応付けテーブルを参照して、各画素データが示す色に基づいて上記確率を決定する。
スキン・セグメンテーション16は、オリジナル画像データS12のうちスキンの部分とスキン以外の部分とを区別したスキン・セグメンテーションデータS16を生成する。
当該手法は、例えば、米国特許出願20020048401に記載されている手法を用いる。
演算部18は、スキン・確率イメージ抽出部14からの確率イメージデータS14と、スキン・セグメンテーション16からのスキン・セグメンテーションデータS16とを乗じて(論理積を演算して)画像データS18を生成する。
姿勢検出部20は、演算部18から入力した画像データS18を基に、その画像内に映し出されている手の姿勢を検出する。本実施形態において、手の姿勢は、例えば、「グー」、「チョキ」、「パー」などの指の姿勢を含めた手全体の姿勢を意味する。
図2は、図1に示す姿勢検出部20の構成図である。
図2に示すように、姿勢検出部20は、例えば、インターフェース41、メモリ42および処理回路43を有する。
インターフェース41は、演算部18から画像データS18を入力する。
メモリ42は、処理回路43が実行するプログラムPRGを記憶する。
また、メモリ42は、予め直径が異なる複数の円パターンの探索ウィンドウWに関する情報を記憶している。
処理回路43は、メモリ42から読み出したプログラムPRGを実行して姿勢検出部20全体の動作を制御する。
処理回路43は、図3に示すように、上記複数の探索ウィンドウWのうち、半径が最小のものから順に選択を行う。
そして、処理回路43は、図3に示すように、選択した探索ウィンドウWを用いて、画像データS18に対応する画像をZ方向に走査し、各走査位置において画像データS18の画素データを用いて以下に示す演算を行う。
ここで、探索ウィンドウWの半径の最適な範囲およびピッチは、視差マップデータなどを用いて予め決定される。
処理回路43は、各走査位置で選択している探索ウィンドウWにおいて、図4に示すように、角度θを0〜360°の範囲で所定のピッチ(例えば、1°)で順に選択する。
姿勢検出部20は、上記選択した角度θにおいて、探索ウィンドウWの中心から周辺に向けて画素データを累積し、角度θを所定角度ピッチで0〜360°の間で更新することで図5に示す検出対象データMFを生成する。
処理回路43は、指と指以外の部分との凹凸を強調するフィルタ処理を上記検出対象データMFに施して検出対象データFを生成する。
処理回路43は、下記式(1)に示すフィルタ処理を検出対象データMFに施す。
下記式(1)において、「i」はフィルタ対象位置(角度)を示し、MF(i)は位置iにおける検出対象データMFの画素データを示す。fwは探索ウィンドウW内の指画像の半分の幅に対応する角度を示している。また、F(i)はフィルタ処理後の検出対象データFの位置iにおける画素データを示している。
(数1)
F(i)=2MF(i)−MF(i−fw)−MF(i+fw)
…(1)
処理回路43は、上記フィルタ処理後の検出対象データF内のピーク値PVを指領域の中心位置として特定する。
また、処理回路43は、図6に示すように、検出対象データMF内の上記特定した中心位置から所定の範囲内の領域に対応するデータを指領域FAの検出対象データMF_Fとして特定する。
処理回路43は、上記指領域の検出対象データMF_FからSF(Size Function)特徴を抽出する処理を行う。
具体的には、処理回路43は、図7(A)に示す検出対象データMF_Fの指の輪郭を示す線パターンLPに対して、図7(B),(C)に示すように、「y>x」という条件でx,yの全組み合わせを考える。
そして、処理回路43は、図7に示すように、線パターンLPのうち、MF_F(i)=xより下の閉じた領域のうち、MF_F(i)=yより下の閉じた領域においても独立している(水平、垂直方向で連結していない)領域の数を(x,y)のSF値としてSFデータを生成する(図7(D),図8)。
次に、処理回路43は、上記SFデータ内において、不連続点が水平・垂直方向に広がる点をAP(Angular Point)点(APi(x,y))として特定する。当該AP点がSF特徴である。
このAP点は、SFデータの全情報を含んでいる。また、APi(x,y)の数は、任意であるが、本実施形態では、例えば、「4」を想定する。
処理回路43は、APi(x,y)を、そのとき用いた探索ウィンドウWの半径rによって正規化してAPi(x/r,y/r)を生成する。
これにより、探索ウィンドウWのサイズに依存しないAPi(x/r,y/r)を生成できる。これにより、同じ動作をカメラ12を近づけて撮像した場合と遠ざけて撮像した場合とで同じAPi(x/r,y/r)が得られる。
なお、最大値を用いる方法では、カーブの鋭いトーンが正規化されたSF特徴に大きな変化を生じさせ、SF特徴が非常に不安定になる。半径を用いることにより、より安定化し、実際の環境に対するロバスト性を高めることができる。
処理回路43は、対象画像について上記生成した単数または複数のAPi(x/r,y/r)と、予め用意したテンプレートパターンのAP点とを1対1対応でマッチング処理を行う。
以下、N個のAPi(x/r,y/r)として集合{b,b,...b}が得られ、M個のAP点のテンプレートパターンとして集合{a,a,...a}が規定されている場合を考える。
ここで、下記式(2)の行列Mを定義する。行列MはM×Nの距離マトリックスである。下記式(2)において、d(a,b)はAP点であるaとbとの距離である。また、d(a)は、点aとNULL点との間の距離を示す。
Figure 2007148820
上記式(2)において、N>Mの場合は、y/xの順番でM個しか残らない。
処理回路43は、上記式(2)を基に、下記式(3)により、minD(M)を生成する。
Figure 2007148820
上記式(3)において、Mi1は、上記式(2)のMから、i行目と1列目とを取り除いた(M−1)×(N−1)行列である。
処理回路43は、上記式(2),(3)に示すd(a,b)およびd(a)を、それぞれ下記式(4),(5)に示すように演算する。これらの演算は、例えば、絶対値、ユークリッド幾何などを用いて行う。本実施形態では、2つのAP点の各々が2次元ガウス分布であることを前提とするマハラノビス距離を用いる。
式(4),(5)において、(x ,y )はトレーニングしたガウス分布aのxとyの平均値を示し、(x ,y )はAP点bの(x、y)を示す。また、σ xa 、σ ya は、それぞれガウス分布aの分散を示す。
テンプレートを検討する手順では、K法クラスタリングを用いて、AP点のMガウス分布をを検討する。本実施形態では、親指を考慮せずに、M=4として処理を行う。
Figure 2007148820
Figure 2007148820
(a)の定義は、AP点の物理的意味による。これは、処理対象の探索ウィンドウWに指画像が存在する場合としない場合との相違を示すためのものである。
すなわち、上記式(3)は以下のことを意味する。
処理回路43は、複数のテンプレートパターンのうち選択した一つのテンプレートパターンのM(Mは自然数)個の参照特徴点の集合{a,a,...a}のなかから未選択の一つを選択する。
そして、処理回路43は、上記選択した参照特徴点と、上記N個の特徴点の集合{b,b,...b}の予め決められた一つ「b」との第1の距離を計算する。
次に、処理回路43は、上記M個の参照特徴点のうち、上記選択した参照特徴点以外の特徴点と、上記N個の特徴点の集合{b,b,...b}のうち上記予め決められた一つ以外の特徴点との距離のうち最小の第2の距離を計算する。
次に、処理回路43は、上記M個の参照特徴点について、上記第1の距離と上記第2の距離との和を計算し、その和のうち最小のものを上記選択したテンプレートパターンの距離とし、当該距離に応じて当該テンプレートパターンTP(k)の確率Pr(k)を算出する。
ところで、上記行列Mの各要素の重要度が異なる場合がある。従って、各要素の重み付けを決めてもよい。すなわち、ベクトルw=(w,w,...,w)を、w〜wの総和が1となるように決定する。そして、これらをd(a,b)およびd(a)の対応する値に乗じる。
姿勢検出部20は、上記生成した行列Mi1からminD(Mi1)を特定する。
ここで、minD(Mi1)は、行列Mi1の各要素が示す距離のうち、最小の距離を示す。
姿勢検出部20は、上記複数のテンプレートのうち、上記式(3)において、minD(M)を最小にするテンプレートを特定する。
[画像処理装置1の全体動作例]
図9は、画像処理装置1の全体動作例を説明するためのフローチャートである。
ステップST1:
図2に示す処理回路43は、メモリ42に記憶している情報に基づいて、予め決めた異なる複数の半径の円パターンの探索ウィンドウWのなかで未選択の探索ウィンドウWのうち、半径が最小のものを選択する。
ステップST2:
処理回路43は、図3に示すZパターン上の位置を選択する。このとき、処理回路43は、演算部18から入力した画像データS18を、それに対応する画像の左上から右下に向けてZパターンに沿って順に位置を選択する。
ステップST3:
処理回路43は、ステップST2で選択した位置において、ステップST1で選択した半径の探索ウィンドウWにおいて、図4に示すように、角度θを0〜360°の範囲で所定のピッチ(例えば、1°)で順に選択する。
処理回路43は、上記選択した角度θにおいて、探索ウィンドウWの中心から周辺に向けて画素データを累積し、角度θを所定角度ピッチで0〜360°の間で更新することで図5に示す検出対象データMFを生成する。
ステップST4:
処理回路43は、上記ステップST3で生成した検出対象データMFに対して、指と指以外の部分との凹凸を強調するフィルタ処理を施して検出対象データFを生成する。
ステップST5:
処理回路43は、ステップST4で生成した上記フィルタ処理後の検出対象データF内のピーク値PVを指領域の中心位置として特定する。
そして、処理回路43は、図6に示すように、検出対象データMF内の上記特定した中心位置から所定の範囲内の領域に対応するデータを指領域FAの検出対象データMF_Fとして特定する。
ステップST6:
処理回路43は、ステップST5で特定した上記指領域の検出対象データMF_FからSF(Size Function)特徴を抽出する処理を行う。
すなわち、処理回路43は、図7を用いて説明したように、検出対象データMF_FからSFデータを生成する。
次に、処理回路43は、上記SFデータ内において、不連続点が水平・垂直方向に広がる点をAP(Angular Point)点(APi(x,y))として特定する。当該AP点がSF特徴である。
ステップST7:
処理回路43は、ステップST6で生成したAPi(x,y)を、そのとき用いた探索ウィンドウWの半径rによって正規化してAPi(x/r,y/r)を生成する。
ステップST8:
処理回路43は、対象画像内の選択した探索ウィンドウWの選択した位置についてステップST7で生成した単数または複数のAPi(x/r,y/r)と、予め用意した複数のテンプレートパターンのAP点とを1対1対応でマッチング処理を行う。当該1対1対応のマッチング処理の手順を図10に示す。
そして、処理回路43は、選択した探索ウィンドウWの選択した位置において、複数のテンプレートパターンTP(k)の各々に対応する画像が存在する確率Pr(k)をそれぞれ算出する。ここで、kは、1〜K(2以上の整数)の整数である。
ステップST9:
処理回路43は、対象画像内の選択した探索ウィンドウWの選択した位置に、K個のテンプレートパターンのうち、Pr(k)が最高値のテンプレートパターンに対応した手の像があると判断する。なお、このとき、当該最高値のPr(k)が所定のしきい値を超えていることを条件に、上記手の像があると判断してもよい。
ステップST10:
処理回路43は、選択したサイズの探索ウィンドウWにおいて、図3に示すZパターン上の全ての走査位置においてステップST3〜ST9の処理を行ったか否かを判断し、行っていないと判断するとステップST2に戻り、行ったと判断するとステップST11に進む。
ステップST11:
処理回路43は、探索ウィンドウWの全てのサイズについてステップST2〜ST10の処理を行ったか否かを判断し、行っていないと判断するとステップST1に戻り、行ったと判断すると処理を終了する。
[1対1対応のマッチング処理の動作例]
図10は、図9に示すステップST8において処理回路43が行うステップST7で生成した単数または複数のAPi(x/r,y/r)と、予め用意したテンプレートパターンのAP点とを1対1対応でのマッチング処理を説明するためのフローチャートである。
処理回路43は、複数のテンプレートパターンの各々について図10に示す処理を行う。
本動作例においても、選択した探索ウィンドウWの選択した走査位置において、N個のAPi(x/r,y/r)として集合{b,b,...b}が得られ、M個のAP点のテンプレートパターンとして集合{a,a,...a}が規定されている場合を考える。
ステップST11:
処理回路43は、変数iに初期値「1」を代入する。
ステップST12:
処理回路43は、上記式(1)のM×Nの行列Mを基に、i行目と1列目とを取り除いた(M−1)×(N−1)行列である行列Mi1を生成する。
ステップST13:
処理回路43は、ステップST12で生成した行列Mi1からminD(Mi1)を特定する。
ステップST14:
処理回路43は、「d(a,b)+minD(Mj1)」を計算する。
ステップST15:
処理回路43は、「i=M」の条件を満たすか否かを判断し、満たすと判断するとステップST17に進み、そうでない場合にはステップST16に進む。
ステップST16:
処理回路43は、iを「1」だけインクリメントする。
ステップST17:
処理回路43は、1〜Mの各々のiについてステップST14で計算した「d(a,b)+minD(Mj1)」のうち、最小のものをminD(M)として特定する。
ステップST18:
処理回路43は、選択した探索ウィンドウWの選択した走査位置に映し出された指の像が、ステップST17で特定した最小のminD(M)の生成に用いた変数i(i=kとする)のテンプレートパターンに対応した姿勢であると判断する。
また、処理回路43は、いろいろな手の姿勢のモデルに対して上記の処理で計算した距離minD(M)をD(k)で示す(kはテンプレートモデルの番号である)、下記式(6)により、選択した探索ウィンドウWの選択した走査位置に映し出された指の像が、テンプレートパターンTP(k)である確率Pr(k)を算出する。
(数6)
Pr(k)=exp(−D(k)/2)
…(6)
以上説明したように、画像処理装置10によれば、上述したように、探索ウィンドウW内の像とテンプレートパターンとのマッチング処理を、SFデータを基に行うため、従来に比べて、計算量を大幅に削減できる。
また、画像処理装置10によれば、上述したように、式(2)〜(5)に基づいて、各テンプレートパターンの確率を算出するため、例えば、下記式(7)によりSFデータの差異を示す距離Dを計算する場合に比べて演算量を大幅に削減できる。
Figure 2007148820
…(7)
また、画像処理装置10によれば、姿勢検出部20は、各走査位置で選択している探索ウィンドウWにおいて、図4に示すように、角度θを0〜360°の範囲で所定のピッチ(例えば、1°)で順に選択する。そして、姿勢検出部20は、上記選択した角度θにおいて、探索ウィンドウWの中心から周辺に向けて画素データを累積し、角度θを所定角度ピッチで0〜360°の間で更新することで図5に示す検出対象データMFを生成する。
これにより、中心から半径方向に延びる指で構成される手などの像の特徴を強調することができ、後に生成されるSFデータを手の姿勢を強調したものにできる。これにより、手の姿勢の検出精度を高めることができる。
また、画像処理装置10によれば、上述したように、異なる複数の半径の円形パターンである探索ウィンドウWを用いることで、広い範囲の手の像の大きさに適切に対応でき、手の姿勢の検出精度を高めることができる。また、この場合に、図9に示すステップST7で説明したように探索ウィンドウWの半径rを基にAPi(x,y)を正規化することで、異なる半径の探索ウィンドウWの間でステップST8、ST9の処理を共通化できる。
また、画像処理装置10によれば、確率イメージデータS14とスキン・セグメンテーションデータS16とを乗じて生成した画像データS18を対象に特徴パターンを検出するため、何れか一方のみを用いる場合に比べて手の姿勢を高精度に検出できる。
本発明は上述した実施形態には限定されない。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、上述した実施形態では、本発明の特徴パターンとして手(指)の姿勢を例示したが、特徴パターンは特に限定されず、例えば、顔の向きやその他のパターンでもよい。
また、上述した処理回路43の処理の一部を専用のハードウェアを用いて実行してもよい。
図1は、本発明の実施形態に係わる画像処理装置の全体構成図である。 図2は、図1に示す姿勢検出部の構成図である。 図3は、図2に示す姿勢検出部において、画像を走査するパターンを説明するための図である。 図4は、図2に示す姿勢検出部において、各走査位置においてウィンドウ内の画像を走査するパターンを説明するための図である。 図5は、図2に示す姿勢検出部が生成する検出対象データMF_Fを説明するための図である。 図6は、図5に示す検出対象データMF_Fから手領域を抽出する処理を説明するための図である。 図7は、検出対象データMF_FからSFデータを生成する手順を説明するための図である。 図8は、検出対象データMF_FからSFデータを生成する手順を説明するための図である。 図9は、本発明の実施形態の画像処理装置の全体動作例を説明するためのフローチャートである。 図10は、図9に示すステップST8において処理回路が行う1対1対応でのマッチング処理を説明するためのフローチャートである。
符号の説明
10…画像処理装置、12…カメラ、14…スキン・確率イメージ抽出部、16…スキン・セグメンテーション、20…姿勢検出部、41…インターフェース、42…メモリ、43…処理回路

Claims (9)

  1. 探索対象の画像を走査して探索対象の画像内の所定の特徴パターンを探索する画像処理方法であって、
    前記探索対象の画像から、単数または複数の特徴点を抽出する第1の工程と、
    前記第1の工程で抽出した特徴点の各々と、前記所定の特徴パターンに対して予め決められた参照特徴点との位置関係に基づいて、前記特徴パターンを探索する第2の工程と
    を有する画像処理方法。
  2. 複数の特徴パターンの各々について、それぞれ複数の参照特徴点を予め規定している場合に、
    前記第2の工程は、前記複数の特徴パターンを順に選択し、前記第1の工程で抽出した特徴点の各々について、前記選択した特徴パターンに規定された前記複数の参照特徴点との距離とを算出し、そのなかで最小の距離に応じて、前記選択した特徴パターンである確率を算出し、
    前記複数の特徴パターンのうち、前記算出した確率が最高の特徴パターンを特定する
    請求項1に記載の画像処理方法。
  3. 前記複数の特徴パターンのうち選択した一つの特徴パターンのM(Mは自然数)個の参照特徴点のなかから未選択の一つを選択する第3の工程と、
    前記選択した参照特徴点と、前記第1の工程で抽出した特徴点の予め決められた一つとの距離を計算する第4の工程と、
    前記M個の参照特徴点のうち前記第3の工程で選択した参照特徴点以外の特徴点と、前記第1の工程で抽出した特徴点のち前記予め決められた一つ以外の特徴点との距離のうち最小の距離を計算する第5の工程と、
    前記M個の参照特徴点について、前記第4の工程で計算した距離と前記第5の工程で計算した距離との和を計算し、その和のうち最小のものを前記選択した特徴パターンの距離とし、当該距離に応じて当該特徴パターンの確率を算出する第6の工程と
    を有する請求項2に記載の画像処理方法。
  4. 前記探索対象の第1の画像を円形パターンの前記探索ウィンドウで走査し、各走査位置において前記探索ウィンドウの中心位置から周縁位置に向けて半径方向に沿って走査を行って画素値を累積し、半径方向に走査する角度を順に更新して前記探索ウィンドウ全域を走査して第2の画像を生成する第7の工程
    をさらに有し、
    前記第2の工程は、各走査位置について前記第7の工程で生成した前記第2の画像から、単数または複数の特徴点を抽出する
    請求項1に記載の画像処理方法。
  5. 前記第7の工程は、前記探索対象の第1の画像上で前記探索ウィンドウをZパターンで移動させて走査を行う
    請求項4に記載の画像処理方法。
  6. 前記第7の工程は、各走査位置において、異なる半径の複数の円形パターンの前記探索ウィンドウを各々用いて複数の前記第2の画像を生成する
    請求項4に記載の画像処理方法。
  7. 前記第7の工程で生成した前記第2の画像から指画像を抽出する第8の工程
    をさらに有し、
    前記第1の工程は、前記第8の工程で抽出した前記指画像から、前記特徴点を抽出する
    請求項4に記載の画像処理方法。
  8. 探索対象の画像を走査して探索対象の画像内の所定の特徴パターンを探索する画像処理装置であって、
    前記探索対象の画像から、単数または複数の特徴点を抽出する抽出手段と、
    前記抽出手段が抽出した特徴点の各々と、前記所定の特徴パターンに対して予め決められた参照特徴点との位置関係に基づいて、前記特徴パターンを探索する探索手段と
    を有する画像処理装置。
  9. 探索対象の画像を走査して探索対象の画像内の所定の特徴パターンを探索するコンピュータが実行するプログラムであって、
    前記探索対象の画像から、単数または複数の特徴点を抽出する第1の手順と、
    前記第1の手順で抽出した特徴点の各々と、前記所定の特徴パターンに対して予め決められた参照特徴点との位置関係に基づいて、前記特徴パターンを探索する第2の手順と
    を前記コンピュータに実行させるプログラム。
JP2005342752A 2005-11-28 2005-11-28 画像処理方法、その装置およびプログラム Pending JP2007148820A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005342752A JP2007148820A (ja) 2005-11-28 2005-11-28 画像処理方法、その装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005342752A JP2007148820A (ja) 2005-11-28 2005-11-28 画像処理方法、その装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2007148820A true JP2007148820A (ja) 2007-06-14

Family

ID=38210161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005342752A Pending JP2007148820A (ja) 2005-11-28 2005-11-28 画像処理方法、その装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2007148820A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8610924B2 (en) 2009-11-24 2013-12-17 International Business Machines Corporation Scanning and capturing digital images using layer detection
US8650634B2 (en) 2009-01-14 2014-02-11 International Business Machines Corporation Enabling access to a subset of data

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222424A (ja) * 2001-01-29 2002-08-09 Nec Corp 指紋照合システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222424A (ja) * 2001-01-29 2002-08-09 Nec Corp 指紋照合システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8650634B2 (en) 2009-01-14 2014-02-11 International Business Machines Corporation Enabling access to a subset of data
US8610924B2 (en) 2009-11-24 2013-12-17 International Business Machines Corporation Scanning and capturing digital images using layer detection

Similar Documents

Publication Publication Date Title
JP5505409B2 (ja) 特徴点生成システム、特徴点生成方法および特徴点生成プログラム
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
US11017210B2 (en) Image processing apparatus and method
JP5206517B2 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
CN110688929B (zh) 一种人体骨架关节点定位方法及装置
JP5166102B2 (ja) 画像処理装置及びその方法
US20080260254A1 (en) Automatic 3-D Object Detection
CN111832383A (zh) 姿态关键点识别模型的训练方法、姿态识别方法及装置
JP2006350434A (ja) 手形状認識装置及びその方法
JP6487642B2 (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP6597914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2008146329A (ja) 顔特徴点検出装置及びその方法
JP5541426B1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Sethi et al. Signpro-An application suite for deaf and dumb
CN112287865B (zh) 一种人体姿态识别的方法及装置
CN108876776B (zh) 一种分类模型生成方法、眼底图像分类方法及装置
CN112613470A (zh) 一种人脸静默活体检测方法、装置、终端及存储介质
JP2007213433A (ja) 文字検索装置
JP2019012497A (ja) 部位認識方法、装置、プログラム、及び撮像制御システム
JP2003256850A (ja) 動き認識装置および画像処理装置並びにプログラム
JP2007148820A (ja) 画像処理方法、その装置およびプログラム
JP2011232845A (ja) 特徴点抽出装置および方法
JP2007148819A (ja) 画像処理方法、その装置およびプログラム
Marras et al. Deep globally constrained MRFs for human pose estimation
JPH10258044A (ja) 人体姿勢の推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110719