JPH09501234A - デジタル画像シーケンスにおいて、適切にマーキングされた対象物の空間位置および回転位置の識別方法 - Google Patents
デジタル画像シーケンスにおいて、適切にマーキングされた対象物の空間位置および回転位置の識別方法Info
- Publication number
- JPH09501234A JPH09501234A JP7506149A JP50614995A JPH09501234A JP H09501234 A JPH09501234 A JP H09501234A JP 7506149 A JP7506149 A JP 7506149A JP 50614995 A JP50614995 A JP 50614995A JP H09501234 A JPH09501234 A JP H09501234A
- Authority
- JP
- Japan
- Prior art keywords
- marking
- image
- moment
- spatial
- image sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
画像シーケンスの画像が閾値演算の適用によって2進化される。2しんが贈シーケンスの各個別2進画像の個々のセグメントのモーメントが所定の次元まで検出される。モーメントからパラメータが検出され、このパラメータはセグメントの空間位置および回転位置を表す。これらのパラメータとモーメントに基づいて、マーキングおよびその空間位置と回転位置が検出される。マークされた対象物におけるマーキングのキチン簿配置構成を適用して、引き続きマークされた対象物の空間位置と回転位置が求められる。
Description
【発明の詳細な説明】
デジタル画像シーケンスにおいて、適切にマーキングされた対象物の空間位置
および回転位置の識別方法
本発明は、デジタル画像シーメンスにおいて、適切にマーキングされた対象物
の空間位置および回転位置の識別方法に関し、とりわけ、ヒトの手の運動の検知
および追従方法に関する。そのために例えば専用に製造された手袋には適切なマ
ーキングが設けられている。このような方法は、身ぶり手振り(ゼスチュア)を
用いた種々の技術分野におけるデータ処理装置の制御および関連する装置の制御
に必要であり、このような装置では、できるだけ簡単なマン・マシン・インター
フェースが重要である。M.A.Clarksonの論文[Cla91]、An easier i
nterfacr,BYTE 16(2),Feb.1991,には“3D−ルーム”、3次元系の印象的
な例、公知の2次元“デスクトップ”ユーザーサーインターフェースの、グラフ
ィカルユーザーインターフェースを備えた今日通常のコンピュータに対する拡張
が記載されている。これは3次元入力装置にとって非常に重要である。
公知の文献[Kru91]、[Vin91]、[Wel91]そして[Seg92]を基礎とする画像処理
にはすべて次のような欠点がある。すなわち、2次元ゼスチュアしか識別するこ
と
ができず、所定の特性を有する均一の画像バックグランドを前提としなければな
らない。
本発明の課題は、デジタル画像シーケンスに適切にマーキングされた対象物の
空間位置および回転位置の識別方法を提供することであり、この方法は前記の制
限を受けず、任意の画像バックグランドで3次元ゼスチュアの識別を可能にする
ものである。
この課題は本発明により、請求項1に記載された構成を備えた、デジタル画像
シーケンスに適切にマーキングされた対象物の空間位置および回転位置の識別方
法によって解決される。
画像シーケンスの画像は、閾値演算の適用によって2進化される。2進画像シ
ーケンスの各個々の2進画像の個々のセグメントモーメントが所定の次元まで検
出される。これらのモーメントから、空間におけるセグメントの位置と回転位置
を表すパラメータが求められ、これらのパラメータとモーメントに基づいて、マ
ーキングとその空間における位置および回転位置が検出される。マークキングさ
れた対象物についてのマーキングの既知の配置構成を使用することで、引き続き
空間におけるマーキングされた対象物の位置と回転位置が求められる。
本発明の有利な改善実施例は従属請求項から明らかである。
図1は、CCDカメラにより撮影され、ラスタ化さ
れた白黒画像を示す。この画像は本発明の方法を実施するためマーキングの付さ
れた人の手である。
図2は、図1の画像を2進化した形態で示す。
図3は、2進セグメントの輪郭の輪郭追従を概略的に、どのようにこの輪郭追
従が本発明の方法の有利な実施例で適用されるかを示す。
図4は、図3に示された輪郭追従の結果を図2の画像の例で示す。
図5は、対象物マーキングの有利な実施形態を、これが本発明の方法と関連し
てどのように適用することができるかを示す。
図6は、本発明の方法の有利な実施例を明確にするためのスキーマを示す。
図7は、主軸と別のパラメータを有する投影楕円を概略的に示す。
図8は、2つの円形の投影マーキングを概略的に示す。
図9は、2つの円形投影マーキングの例で、適合閾値形成を概略的に示す。
図10は、運動予測による探索空間の制限を概略的に示す。
以下本発明を実施例に基づき、図面を用いて詳細に説明する。
ヒトの手のゼスチュアを用いたデータ処理装置の制御での画像処理の課題は、
ヒトの手の運動およびゼス
チュアを識別することである。しかしこのために以下に説明する方法は、ハンド
ゼスチュア識別の領域を超えてマーキングされた任意の対象物の空間位置および
位置の識別に適用することができる。ここで使用される画像処理方法はとりわけ
、画像シーケンス材料のノイズに依存してはならない。さらに、周囲明度の変動
や画像バックグランドにおける運動にも依存してはならない。またその際に、処
理速度は毎秒10から25フレームであるようにする。
ここで特に重要なことは画像処理の速度である。これが過度に低いと、ユーザ
ーの手の運動と、それぞれの制御適用に関連して、これにより制御される作用と
の間に大きな遅延が生じる。実験によって、1/10秒の応答時間を上回っては
ならないことが判明した。応答時間は1/25秒が最適と思われる。
使用されるハードウェアの処理速度へのこの制限的要求により、多くの刊行物
では、比較的コストのかかる専用ハードウェアがリアルタイムでの、または非常
に高速での画像処理に使用されるが、それでも高性能の画像処理アルゴリズムが
必要である。この特許出願に記載された画像処理アルゴリズムは適用固有の知識
を十分に利用するが、しかしこれによって一般的な適用性が制限されるものでは
ない。本発明の方法の有利な実施例では、白黒カメラによって撮影された画像で
ヒトの手およびその運動が識別される。ここではこの
手には黒の手袋が着用されており、これに設けられたマーキングにより特にマー
クされる。このマーキングの大きさと形状が既知であるという条件によって、本
発明の画像処理方法は非常に簡単になる。
バックグランドの変化する白黒画像においてヒトの手をリアルタイムで識別す
ることは一般的に非常に困難な問題である。この問題が次の場合には非常に簡単
になる。すなわち、手がバックグランドから顕著に際だち、手にマーキングが設
けられており、このマーキングの形状と大きさが識別される場合である。この理
由から本発明の方法と関連して、例えば黒の手袋とこれに設けられた白のマーキ
ングを使用し、この手袋を本発明の使用者が手に着用するのである。ヒトの手の
画像は本発明の方法では白黒カメラによって撮影され、適応閾値演算で処理され
、セグメント化された2進画像に変換される。引き続き、すべての画像対象物に
ついて特徴が算出され、この特徴に基づいてマーキングが識別され、その空間位
置が算出される。図6は本発明の経過を概略的に示すものである。
画像は例えばCCDカメラによって撮影される。CCDカメラは有利にはコン
ピュータモニタにあるかまたはその近傍にある。このカメラは、本発明の開始時
に、その撮影領域が使用者の手の運動にとって快適な空間領域と一致するように
調整される。これに対する実験で、ズーム対物レンズが有利であることが判明し
たが、必ずしも必要なものではない。
カメラから送出された画像はビデオ信号の形態で、例えばフレームキャプチャ
によりデジタル化され、続いて計算器のメモリにデジタル画像として例えば51
2×512画素の大きさで記憶される。ここで各画素(ピクセル)は、この画素
の明度値を表す8ビット幅の数により示される。
図1はラスタ化された白黒画像の例を示す。この白黒画像には黒い手と、これ
に設けられたマーキングが示されている。カメラは使用者により所望の方向に配
向されているから、その光軸の空間位置はすぐには既知でない。したがってカメ
ラの調整の後、較正ステップが必要である。この較正ステップでは、例えばカメ
ラの光軸の位置が検出され、例えばマーキングの大きさが対物レンズからの所定
の距離で測定される。これにより、後で手が離れてもマーキングの大きさにより
これを検知することができる。
ヒトの手または他の運動対象物をCCDカメラを用いて画像記録し、この画像
を引き続きコンピュータでデジタル化および記憶した後、データ圧縮のためにこ
の白黒画像の2進化が実行される。このために用いられる閾値は開始時に設定さ
れるか、またはインタラクティブに検出され、存在する光条件に適合される。閾
値の適合については後で説明する。
カメラにより記録された白黒画像は2進画像として
さらに処理され、対象物、例えば手に設けられたマーキングをセグメント化する
。これについてはそれ自体公知のアルゴリズム(T.Pavlidis著:“Al
gorthms for Graphics and Image Processing”,Springer 1982)が適用される
。ここでは2進画像がライン毎に走査される。ここで、0から1への跳躍、すな
わち暗から明への跳躍が検知され、瞬時の画素がまだ探索されていなければ輪郭
は時計方向に経過している。この場合、画素の座標がまず記憶され、その際に探
索された画素がすでに処理されたものとしてマークされる。1から0への跳躍の
際には、輪郭が時計とは反対方向に走査される。この処理ステップの終了時には
、コンピュータのメモリには対象物輪郭のリストが備わっており、ここでは付加
的に、白のバックグランドに黒の対象物があるのか、またはその反対かが既知で
ある。図3は、Pavlidisによる輪郭追従の実行を概略的に示すものであ
る。
図4は、図3により示された輪郭追従の結果を図2の画像の例で概略的に示す
ものである。
本発明の方法をさらに実施するためには、マークされた対象物の識別をその位
置、大きさ、および空間的配向に依存しないで行うことが必要である。画像処理
では、画像から特徴を抽出し、上記の変換に対して不変である方法が開発された
。この目的のためにはとくに、いわゆるモーメントが適する。このモーメントは
例えば、Zhou等著の“Morphological Skeleton Transforms for Determinin
g position and orientation of Pre-Marked Objects”,IEEE Pacific Rim Conf
erence on Communication,Computers and Signal Processing,pp.301-305,19
89に記載されている。関数f(x,y)の次元p,qのモーメントmp,qは次の
ように定義される。
ここでf(x,y)は例えば個所(x,y)における画素の明度値である。画像
処理に適した離散形態では、このモーメントの定義は次のとおりである。
ここでMとNはx方向およびy方向の画素の数、すなわち画像の大きさを表す。
上に定義したモーメントは明度値形成の場合に対して定義された。ここでは関数
fの値領域については制限的仮定は行われない。本発明の方法の場合、画像はす
でに2進化されている。これによりfは単に2進値1または0だけを取る。した
がってモーメントの定義が簡単になる。
低次のモーメントには容易に具体的な解釈を割り当てることができる。モーメ
ントm0,0は対象物の面に等しい。商m1,0/m0,0ないしm0,1/m0、0は対象物
重心のx座標ないしy座標を表す。この重心座標を用いて、各対象物の重心を原
点に変換することが考えられる。別のモーメントをこの座標原点選択を基準にし
て計算すれば、このモーメントは中心モーメントと称される。したがって中心モ
ーメントは次のように定義される。
モーメントを計算するためには、対象物の面積が画素を含むの同程度の多数の
演算が必要である。対象物の面積は一般的にはその大きさの二乗で増大する。し
かしグリーンの法則を用いて、モーメントの定義を次のように変形することがで
きる。すなわち、集合体D(内部穴なし)のモーメントはその輪郭線Uに基づい
て計算することができるのである。輪郭線状の画素の数は対象物の大きさと線形
にしか増大しない。したがって、モーメントを計算するための複雑性と計算コス
トはかなりの程度軽減される。対象物が穴を含んでいても、モーメントをグリー
ンの法則を用いて計算することができる。これは、穴の海岸線(対象物の外側輪
郭に対して反対方向に延在するという意味での海岸線)を対象物の輪郭線の別の
構成部として取り扱えばよ
いのである。
Dが集合体でUが輪郭線とすれば、集合体Dのモーメントはグリーンの法則に
従って次のように算出することができる。
ここでは、式の係数aとbが、
b(p+1)−a(q+1)=1
を満たさなければならない。この一般式の重要な例は
または
である。
ここで外側輪郭曲線は時計方向に経過し、内側輪郭線(穴の場合)は反時計方
向に経過する。本発明の方法では、最初の3つのモーメントが輪郭追従と関連し
て算出される。さらに対象物の最大広がりがx方向とy方向で検出される。第2
のステップでは、比較的に高次の中央モーメントが、必要であれば計算される。
マーキングされた対象物を同定するために、マーキングに相当する対象物が見
つけだされる。本発明の方法の有利な実施例では、マーキングとして相互に偏心
して配置された2つの円が使用される。これらのうちの一方は可能な限り明るく
(白)、他方は可能な限り暗い(黒)。マーキング構造体のこの構成は、全体の
配置構成が回転不変ではなく、この配置構成の射影を容易に計算することができ
る。対象物マーキングのこの有利な実施例の特質は、本発明の方法に特に適する
。これにより、マークされた対象物の回転位置をとくに確実に検知することがで
きる。
輪郭追従およびモーメントの計算が終わった後、マーキングを画像に同定する
ため種々の検査が順次実行される。
手の上の(または対象物上の)マーキングの大きさは既知であり、カメラから
の最大距離および最小距離は容易に設定することができるから(例えば20cm
から4000cm)、このマーキングの面に対して下側の制限を画像中に設定す
ることができる。しかしモーメントm0、0は対象物の面積を表す。したがって比
較的に大きくなったり、小さくなるすべての対象物を直ちに選別することができ
る。
円形状を検出するために大体のスタンドポイントとして、検出された対象物の
、x方向およびy方向の最大広がりを使用する。これはこの対象物と円との類似
性を計算するためである。さらに大きくて黒い対象物が探索される。この対象物
には小さくて白い対象物が存在し(またはその反対)、その面積比は所定の限界
内にある。当業者にとってはさらに別の、場合により改善された基準をマーキン
グ構造体の検知に使用することが容易にできる。しかし実験では、上記の基準に
よりほぼ常にマーキングを画像内で一義的に同定することができた。
マーキング構造体の同定の後、マーキング構造体の重心の位置、および対象物
(手)におけるマーキング構造体の既知の配置構成によって、空間における手の
位置をx方向およびy方向で検出することができる。マーキング構造体の大きさ
は、既知の面積により、カメラからの間隔つまりz方向の位置を表す。これによ
り空間における対象物の位置が既知となる。
マーキングの位置パラメータと対象物の重心がこのようにして検出された後、
次の角度の検出が行われる。この角度とは、対象物が3つの空間軸を基準にどれ
だけ回転して配置されているかの角度である。これらの回転角度を検出するため
には次の事実が利用される。すなわち、図5に示したマーキングの内側円の中心
と外側円の中心とが相互に同心ではなく、円は空間的投影では楕円に移行し、楕
円のパラメータから投影角度を知ることができるという事実である。したがって
楕円のパラメータを検出し、ここから画像面に対する
円形面の傾き角度が算出される。マーキングの円形面面接線ベクトルがn=(A
,B,C)であれば、空間における円上のすべての点(x,y,z)に対して次
式があてはまる。
Ax+By+Cz=0
ここで円の半径をRとすればRは
である。
図7は、投影円の幾何的パラメータを表す。すなわち、主軸MとN、角度θ(
この角度は主軸MがX軸と形成するものである)そして面接線ベクトルnを備え
た楕円を表す。楕円に相当する対象物の中心モーメントが既知であれば、この楕
円の主軸MとN、および主軸Mとx軸がなす角度θを次式にしたがって計算する
ことができる。
したがって、主軸と角度を計算するためには2次元に
対するモーメントが必要なだけである。前記のパラメータ間には次の有用な関係
が存在する。
そして、A=−B・tan(θ)
変形すると
が得られる。nは接線ベクトルであるから、
が当てはまる。
変形によって、接線ベクトルの要素A,B,Cは次のように計算される。
中心が(dx,dy)だけ相互にずれた2つの円形リングからなる円形マーキ
ングが存在すれば、Z軸を中心にした回転φを次のように計算することができる
。
パラメータAとBはZ軸の回転φに相応しなければ
ならないから、次のように変形することができる。
Z軸を中心にした回転を基準にすれば、楕円は変換後に通常位置になる。した
がって次にx軸を中心にした回転に対する角度αと、Y軸を中心にした回転に対
する角度βとを既知の面法線から算出することができる。
そのためには有利には、nにより定められた平面を次のように変換する。すなわ
ち、nがベクトル(0、0、1)に対して続いて平行になる、つまりZ軸に対し
て平行になるように変換する。まず最初にX軸を中心にした回転が行われ、次に
Y軸を中心にした回転が行われる。
対象物のモデルないし手を通常位置にもたらすため、すなわちXY面に対して
平行に円形マーキングの位置へもたらすためには、上記の回転を反対の順序で適
用しなければならない。すなわち、最初にY軸、次にX軸、そして最後にZ軸で
ある。
種々の理由から、本発明の有利な実施例では、撮影された白黒画像を2進化す
るために使用される閾値を本発明の方法を実施する間に連続的に新たに検出する
ことが必要な場合がある。ひとつには、空間照明に変動があるからである(例え
ば、雲、付加的照明)。また手の運動により局所的な明度変動がマーキング構造
体自体に生じることもある。後者のことは、例えば天井照明の場合に手がX軸を
中心に傾くと発生する。図は手平面に設けられたマーキング構造体への影を示す
。この困難性を解決するために、閾値を明度変動に適合させると有利である。
ここでは、マーキング構造体の2つの円の直径の比が既知であることが利用さ
れる。マーキング円の2つの中心を通る1つの直線が計算される。その始点は直
線と外側マーキング円との第1の交点であり、終点は第2の交点である。図9は
、幾何関係を概略的に示す。ここでthは適合すべき閾値、ICは内側マーキン
グ円(楕円として示されている)の中心、そしてUCは外側マーキング円の中心
である。Lは2つの中心を通る直線である。個の直線に沿った、画像のn個の明
度値が1つのフィールドに選別される。外側マーキング円が例えば白であれば、
閾値が理想的である場合、n×r個のポイントが閾値以下であり、n×(1−r
)個のポイントが閾値より上にある。ここでrは小さいマーキング円の直径と大
きいマーキング円の直径と
の比である。このような閾値は選別された明度値フィールドのちようどn番目の
要素である。しかしこの閾値を使用することは実際の適用では必ずしも常に最適
ではない。その代わりに、本発明の有利な実施例では、2つのクラスタの平均明
度値の中央値を新しい既知として使用することができる。古い2進閾値は新たに
計算された閾値の方向に変化される。
個々の画像においてマーキング構造体を発見することができないこともある。
これは例えば照明が非常に強く変化した場合である。したがって所定数の画像で
マーキング構造体が発見されない場合は、閾値形成は例えばランダム数によって
継続される。次にマーカがうまく検知されれば、上記の機構が閾値適合のために
再び開始される。マーキング構造体がいったん発見されれば、次の画像でそれぞ
れ全体画像面をマーキング構造体について探索する必要はほとんどない。その代
わりに、探索領域が定められ、この探索領域でだけ2進化、輪郭追従および対象
物同定のステップが実行される。探索領域は典型的には画像全体よりも小さいか
ら、探索すべき画素の数は格段に低減され、ひいては計算速度が上昇する。
図10は運動予測の簡単化された形態と関連して、制限された探索領域の適用
を概略的に示す。運動予測の課題は、次の画像に存在するマーキングの個所を予
測することである。これは新たな探索領域の中心をその個所に位置決めするため
である。本発明の方法にとっては簡単な運動予測の形式、いわゆる線形予測で十
分である。マーキング構造体の速度は最後の2つの画像から推定され、マーキン
グ構造体の速度はほぼ一定であると仮定される。これによりマーキング構造体の
新たな位置を次の画像で予測することができ、そこで探索領域をセンタリングす
ることができる。マーキング構造体の速度に応じて、探索領域が拡大される。な
ぜなら、手の速度が高い場合には突然方向を変える確率も高く、したがって小さ
な探索領域から消えてしまう確率の高いからであう。設定された探索領域内でマ
ーキング構造体を発見することができなければ、探索領域は複数のステップでマ
ーキングが再び発見されるまで拡大される。場合によっては探索領域は画像の大
きさ全体を含む。
もちろん本発明と関連して、他の運動予測方法を適用することもできる。この
運動予測方法は、例えば予測運動速度および加速度、並びに検知された対象物運
動に関する知識一般を新たな探索領域の検出に用いる。当業者には文献から、本
発明の方法と関連して有利に使用できる運動予測のための種々の方法が公知であ
る。
この特許出願の枠内で以下の刊行物を引用する。
【手続補正書】特許法第184条の8
【提出日】1995年6月12日
【補正内容】
ができず、所定の特性を有する均一の画像バックグランドを前提としなければな
らない。
ドイツ連邦共和国特許出願第3718620号公開公報から、いわゆる内部2
重心法を用いた回転角度検出が公知である。しかしこの方法は対象物の位置の知
識と他の2つの空間方向での空間位置を前提とする。したがって1つの軸を中心
にした回転位置を知ることはできるが、空間位置を知ることはできない。
本発明の課題は、デジタル画像シーケンスに適切にマーキングされた対象物の
空間位置および回転位置の識別方法を提供することであり、この方法は前記の制
限を受けず、任意の画像バックグランドで3次元ゼスチュアの識別を可能にする
ものである。
この課題は本発明により、請求項1に記載された構成を備えた、デジタル画像
シーケンスに適切にマーキングされた対象物の空間位置および回転位置の識別方
法によって解決される。
画像シーケンスの画像は、閾値演算の適用によって2進化される。2進画像シ
ーケンスの各個々の2進画像の個々のセグメントモーメントが所定の次元まで検
出される。これらのモーメントから、空間におけるセグメントの位置と回転位置
を表すパラメータが求められ、これらのパラメータとモーメントに基づいて、マ
ーキングとその空間における位置および回転位置が検出される。マークキングさ
れた対象物についてのマー
キングの既知の配置構成を使用することで、引き続き空間におけるマーキングさ
れた対象物の位置と回転位置が求められる。
本発明の有利な改善実施例は従属請求項から明らかである。
図1は、CCDカメラにより撮影され、ラスタ化さ
請求の範囲
1.デジタル画像シーメンスにおいて、マーキングされた対象物の空間位置お
よび回転位置の識別方法であって、前記対象物をマーキングするために相互に偏
心して配置された構造体を使用する方法において、
a)画像シーケンスの画像を閾値演算を用いて2進化し、これにより2進画像シ
ーケンスを形成し、
b)2進画像シーケンスの各個々の2進画像の個々のセグメントのモーメントを
所定の次元まで検出し、
c)前記モーメントからパラメータを検出し、当該パラメータはセグメントの空
間位置および回転位置を表し、当該パラメータとモーメントに基づいて、マーキ
ングおよびマーキングの空間位置と回転位置を検出し、
d)マークされた対象物におけるマーキングの既知の配置構成を利用して、マー
クされた対象物の空間位置と回転位置を検出することを特徴とする、対象物の空
間位置および回転位置の識別方法。
3.円形構造体を対象物のマーキングに使用する、請求項1または2記載の方
法。
─────────────────────────────────────────────────────
フロントページの続き
(81)指定国 EP(AT,BE,CH,DE,
DK,ES,FR,GB,GR,IE,IT,LU,M
C,NL,PT,SE),JP,US
Claims (1)
- 【特許請求の範囲】 1. デジタル画像シーメンスにおいて、適切にマーキングされた対象物の空 間位置および回転位置の識別方法であって、 a)画像シーケンスの画像を閾値演算を用いて2進化し、これにより2進画像シ ーケンスを形成し、 b)2進画像シーケンスの各個々の2進画像の個々のセグメントのモーメントを 所定の次元まで検出し、 c)前記モーメントからパラメータを検出し、当該パラメータはセグメントの空 間位置および回転位置を表し、当該パラメータとモーメントに基づいて、マーキ ングおよびマーキングの空間位置と回転位置を検出し、 d)マークされた対象物におけるマーキングの既知の配置構成を利用して、マー クされた対象物の空間位置と回転位置を検出することを特徴とする、対象物の空 間位置および回転位置の識別方法。 2. 2進画像シーケンスの各個々の2進画像の個々のセグメントの輪郭を検 出し、当該輪郭からこのセグメントのモーメントを検出する、請求項1記載の方 法。 3. 相互に偏心して配置された円形構造体を対象物のマーキングに使用する 、請求項1または2記載の方法。 4. 画像シーケンスの2進化に用いる閾値を、マーキング構造体の画像の連 続して測定された強度に依存して、当該構造体の変化する照明条件に適合する、 請求項1から3までのいずれか1項記載の方法。 5. 後続の画像におけるマーキングの位置を先行する画像での観察値から予 測し、当該マーキングをその予測された位置の適切に選択された環境の下で探索 する、請求項1から4までのいずれか1項記載の方法。 6. グラフィカルユーザーインターフェースのデータ処理装置を操作するヒ トのゼスチュアの自動識別のための装置に適用される、請求尾U1から5までの いずれか1項記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP93112720 | 1993-08-09 | ||
DE4339534 | 1993-11-19 | ||
DE93112720.3 | 1993-11-19 | ||
DE4339534.1 | 1993-11-19 | ||
PCT/DE1994/000893 WO1995004977A1 (de) | 1993-08-09 | 1994-08-01 | Verfahren zur erkennung der räumlichen lage und drehlage von in geeigneter weise markierten objekten in digitalen bildfolgen |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09501234A true JPH09501234A (ja) | 1997-02-04 |
Family
ID=25931364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7506149A Pending JPH09501234A (ja) | 1993-08-09 | 1994-08-01 | デジタル画像シーケンスにおいて、適切にマーキングされた対象物の空間位置および回転位置の識別方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US5751843A (ja) |
JP (1) | JPH09501234A (ja) |
DE (1) | DE59403321D1 (ja) |
WO (1) | WO1995004977A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014511608A (ja) * | 2011-02-25 | 2014-05-15 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 対象物のモデル変換に基づくモデルパラメータの決定 |
JP6085390B1 (ja) * | 2016-06-20 | 2017-02-22 | ヤフー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2017228273A (ja) * | 2017-01-27 | 2017-12-28 | ヤフー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19516664C1 (de) * | 1995-05-05 | 1996-08-29 | Siemens Ag | Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild |
US6009188A (en) * | 1996-02-16 | 1999-12-28 | Microsoft Corporation | Method and system for digital plenoptic imaging |
DE19612949C1 (de) * | 1996-04-01 | 1997-08-14 | Siemens Ag | Verfahren zur Erkennung mindestens eines fingerförmigen Objekts in einem ersten, handförmigen Objekt durch einen Rechner |
GB2317089B (en) * | 1996-09-06 | 2001-05-16 | Quantel Ltd | An electronic graphic system |
US6215494B1 (en) * | 1997-12-18 | 2001-04-10 | Mgi Software Corporation | Method and system for centering image objects |
US6292169B1 (en) * | 1998-02-13 | 2001-09-18 | Kabushiki Kaisha Toshiba | Information input apparatus |
US6219034B1 (en) * | 1998-02-23 | 2001-04-17 | Kristofer E. Elbing | Tactile computer interface |
US6178392B1 (en) | 1998-09-22 | 2001-01-23 | Intel Corporation | Method for combining the computer models of two surfaces in 3-D space |
JP4794708B2 (ja) * | 1999-02-04 | 2011-10-19 | オリンパス株式会社 | 3次元位置姿勢センシング装置 |
KR100413679B1 (ko) * | 2000-10-21 | 2003-12-31 | 삼성전자주식회사 | 형상 기술자 추출방법 |
DE10100615A1 (de) * | 2001-01-09 | 2002-07-18 | Siemens Ag | Handerkennung mit Positionsbestimmung |
DE10100616A1 (de) * | 2001-01-09 | 2002-07-18 | Siemens Ag | Authentisierung einer Person mittels Handerkennung |
US7436979B2 (en) * | 2001-03-30 | 2008-10-14 | Siemens Energy & Automation | Method and system for image processing |
DE10132013B4 (de) * | 2001-07-03 | 2004-04-08 | Siemens Ag | Multimodale Biometrie |
DE10132012B4 (de) * | 2001-07-03 | 2004-02-12 | Siemens Ag | Skalierung von Ähnlichkeitsmaßen für ein biometrisches Verfahren |
US7082225B2 (en) * | 2001-08-28 | 2006-07-25 | Nippon Telegraph And Telephone Corporation | Two dimensional image recording and reproducing scheme using similarity distribution |
FI111755B (fi) * | 2001-11-23 | 2003-09-15 | Mapvision Oy Ltd | Menetelmä ja järjestelmä konenäköjärjestelmän kalibroimiseksi |
JP2003196640A (ja) * | 2001-12-14 | 2003-07-11 | Ge Medical Systems Global Technology Co Llc | 画像処理方法および装置 |
US7415131B2 (en) * | 2002-12-24 | 2008-08-19 | Siemens Energy & Automation, Inc. | Method and system for image processing |
US20040123370A1 (en) * | 2002-12-30 | 2004-07-01 | Eric Polesuk | Dark protective disposable glove |
US20040123369A1 (en) * | 2002-12-30 | 2004-07-01 | Eric Polesuk | Professional haircoloring glove |
JP2006523345A (ja) * | 2003-04-03 | 2006-10-12 | ダブリン シティ ユニバーシティ | マルチメディアデータに索引付けをし、そして検索するための形状マッチング方法 |
TWI306591B (en) * | 2005-01-10 | 2009-02-21 | Himax Tech Inc | Overdrive gray level data modifier and method of looking up thereof |
EP1791080A1 (en) * | 2005-11-23 | 2007-05-30 | Neopost S.A. | Finding markings on a document |
US9317124B2 (en) * | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
KR101082285B1 (ko) * | 2010-01-29 | 2011-11-09 | 주식회사 팬택 | 증강 현실 제공 단말기 및 방법 |
US9195345B2 (en) * | 2010-10-28 | 2015-11-24 | Microsoft Technology Licensing, Llc | Position aware gestures with visual feedback as input method |
CN104718559B (zh) * | 2012-10-22 | 2018-05-01 | 诺基亚技术有限公司 | 用于图像处理的方法和设备 |
GB2534554B (en) * | 2015-01-20 | 2021-04-07 | Bae Systems Plc | Detecting and ranging cloud features |
WO2016116725A1 (en) | 2015-01-20 | 2016-07-28 | Bae Systems Plc | Cloud feature detection |
WO2016116724A1 (en) | 2015-01-20 | 2016-07-28 | Bae Systems Plc | Detecting and ranging cloud features |
US9934592B1 (en) * | 2016-11-15 | 2018-04-03 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and system for determining a 6-DOF-pose of an object in space |
US10922836B2 (en) | 2016-11-15 | 2021-02-16 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and system for determining a 3D position of an object in space |
CN107844292B (zh) * | 2017-10-31 | 2021-07-16 | 苏州乐米信息科技股份有限公司 | 一种跑酷游戏中相机曲线轨迹的控制方法及其系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4776464A (en) * | 1985-06-17 | 1988-10-11 | Bae Automated Systems, Inc. | Automated article handling system and process |
JPS62267610A (ja) * | 1986-05-16 | 1987-11-20 | Fuji Electric Co Ltd | 対象パタ−ンの回転角検出方式 |
JPH0810132B2 (ja) * | 1986-06-04 | 1996-01-31 | 富士電機株式会社 | 対象パタ−ンの回転角検出方式 |
GB8703931D0 (en) * | 1987-02-19 | 1993-05-05 | British Aerospace | Tracking systems |
US5072294A (en) * | 1989-06-07 | 1991-12-10 | Loredan Biomedical, Inc. | Method and apparatus for analyzing a body having a marker located thereon |
JPH04343178A (ja) * | 1991-05-20 | 1992-11-30 | Sony Corp | 画像処理装置 |
-
1994
- 1994-08-01 JP JP7506149A patent/JPH09501234A/ja active Pending
- 1994-08-01 WO PCT/DE1994/000893 patent/WO1995004977A1/de active IP Right Grant
- 1994-08-01 DE DE59403321T patent/DE59403321D1/de not_active Expired - Fee Related
- 1994-08-01 US US08/596,283 patent/US5751843A/en not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014511608A (ja) * | 2011-02-25 | 2014-05-15 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 対象物のモデル変換に基づくモデルパラメータの決定 |
JP6085390B1 (ja) * | 2016-06-20 | 2017-02-22 | ヤフー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2017227962A (ja) * | 2016-06-20 | 2017-12-28 | ヤフー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
US10083545B2 (en) | 2016-06-20 | 2018-09-25 | Yahoo Japan Corporation | Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data |
JP2017228273A (ja) * | 2017-01-27 | 2017-12-28 | ヤフー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO1995004977A1 (de) | 1995-02-16 |
DE59403321D1 (de) | 1997-08-14 |
US5751843A (en) | 1998-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH09501234A (ja) | デジタル画像シーケンスにおいて、適切にマーキングされた対象物の空間位置および回転位置の識別方法 | |
JP5837508B2 (ja) | 姿勢状態推定装置および姿勢状態推定方法 | |
US9330307B2 (en) | Learning based estimation of hand and finger pose | |
EP0849697A1 (en) | A hand gesture recognition system and method | |
CN110349207A (zh) | 一种复杂环境下的视觉定位方法 | |
EA018349B1 (ru) | Способ видеоанализа | |
JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
CN108647597B (zh) | 一种手腕识别方法、手势识别方法、装置和电子设备 | |
CN107968916A (zh) | 一种适用于非固定场景的快速视频稳像方法 | |
JPH03294976A (ja) | 基準マークパターン検出装置 | |
CN112861870B (zh) | 指针式仪表图像矫正方法、系统及存储介质 | |
JP2003178303A (ja) | 物体認識装置 | |
CN112907580A (zh) | 一种应用于弱纹理场景下的综合点线特征的图像特征提取和匹配算法 | |
CN115482556A (zh) | 关键点检测模型训练及虚拟角色驱动的方法和对应的装置 | |
CN109816628B (zh) | 人脸评价方法及相关产品 | |
CN107316318A (zh) | 基于多子区域背景拟合的空中目标自动检测方法 | |
CN108230366B (zh) | 一种目标物的追踪方法 | |
JP4550768B2 (ja) | 画像検出方法および画像検出装置 | |
JPH08315152A (ja) | 画像認識装置 | |
CN115223002B (zh) | 模型训练方法、开门动作检测方法、装置以及计算机设备 | |
Soundrapandiyan et al. | Robust pedestrian detection in infrared images using rotation and scale invariant-based structure element descriptor | |
Tsoi et al. | Real-time object tracking based on colour feature and perspective projection | |
WO2017045913A1 (en) | Detection of water droplets on a vehicle camera lens | |
JPWO2020208742A1 (ja) | 多角形検出装置、多角形検出方法、及び多角形検出プログラム | |
Zhang et al. | Mobile robot moving target detection and tracking system |