JP6240320B2 - 4つのledのパターンによるポーズの決定 - Google Patents

4つのledのパターンによるポーズの決定 Download PDF

Info

Publication number
JP6240320B2
JP6240320B2 JP2016518590A JP2016518590A JP6240320B2 JP 6240320 B2 JP6240320 B2 JP 6240320B2 JP 2016518590 A JP2016518590 A JP 2016518590A JP 2016518590 A JP2016518590 A JP 2016518590A JP 6240320 B2 JP6240320 B2 JP 6240320B2
Authority
JP
Japan
Prior art keywords
led
leds
pose
line
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016518590A
Other languages
English (en)
Other versions
JP2016528479A (ja
Inventor
カディル・ハカン・ビジェル
エルカン・オクヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aselsan Elektronik Sanayi ve Ticaret AS
Original Assignee
Aselsan Elektronik Sanayi ve Ticaret AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aselsan Elektronik Sanayi ve Ticaret AS filed Critical Aselsan Elektronik Sanayi ve Ticaret AS
Publication of JP2016528479A publication Critical patent/JP2016528479A/ja
Application granted granted Critical
Publication of JP6240320B2 publication Critical patent/JP6240320B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、計算の分野に関し、光学的オブジェクトトラッキングシステムにおいて、追跡されるオブジェクトの基準マーカーと、カメラによって撮像された画像平面への基準マーカーの投影との1対1のマッピングを探し出す方法をカバーする。
ある環境において三次元のオブジェクトを追跡し、所定の座標系に対する位置と方向(ポーズ)を計算する方法及びモデルがあることが知られている。これらの種類のトラッカーシステムは、例えば、航空機において、パイロットの頭の方向を判定するのに使用されている。例えば表示装置の座標系に関して、方向が取得されると、それに応じて、表示装置上でグラフィックスを生成することが可能になる。磁気的な、機械的な、又は光学的な手段を使用して、その場のオブジェクトを追跡する別の方法がある。現在、オブジェクトの空間関係は、磁気センサ又はレーザビームを使用して判定されているけれども、本発明は、特に、カメラベース(日中のテレビカメラ、熱、赤外線(IR)、TOF(Time-of-Flight)など)の追跡機を使用したシステムに関する。
光学的カメラベースのシステムの一つにおいて、パイロットは模様(基準マーカー)が付いたヘルメットを着用し、少なくとも1つのトラッカーカメラがこれらの模様に基づいた幾何学的計算を使用して、ヘルメットの位置と方向を判定する。カメラベースのトラッカーシステムにおいて使用される模様は、可視光カメラによって追跡されるグラフィカルな(一般的に、黒と白の)模様(パッシブ・マーカー)、又は光源アレイ(例えば、発光ダイオード、すなわちLED)(アクティブ・マーカー)である。これらの光源は、電磁スペクトルの赤外領域内になるように、カメラセンサとフィルタのセットの適当な選択により、選ばれる。他の配置も可能であるけれども、これらのシステムは不適当な照明条件下であっても動作できるため、赤外線LEDを使用したものが、それらの配置の中で最も便利である。それ故、追跡模様を持つオブジェクトとカメラとの空間関係の計算が、最先端において周知である。文書全体にわたって空間関係について述べているときはいつでも、エンティティの所定の基準系と他のものとの関係を意味していることが、理解されるべきである。目的は、カメラと3Dオブジェクトの回転と移動を探し出して、オブジェクトの3Dの位置と方向が分かるようにすることである。この基準系は、一般的に、検討中のオブジェクトの各模様に基づいている。トラッカーシステムにおいて、他の座標系に関するトラッカーカメラの位置と方向が知られている(又は計算可能、又は測定可能である)ため、トラッカーカメラのセンサとそれから他の座標系とを使用して、ヘルメットの空間関係を計算することもできる。この文脈において「追跡されるオブジェクト」は、追跡模様(基準マーカー)を持ち、トラッカーシステムによって追跡されるオブジェクトを意味する。それは、ヘルメットを搭載したトラッカーシステムのヘルメットであっても良いし、又は任意の他のオブジェクトであっても良い。
上記光学的カメラベースのトラッキングシステムについてのポーズ推定問題は、以下のように示される:オブジェクトの三次元(3D)の点とそのオブジェクトの画像平面への二次元(2D)の投影との間の、一連のN個の特徴の対応を与えられて、カメラの基準系に対するオブジェクトの回転と移動を探し出す。目的は、カメラと3Dオブジェクトの間の回転と移動を探し出して、オブジェクトの3Dの位置と方向を分かるようにすることである。ポーズ推定問題の正式な定義は、正しい解が二重であること、すなわち対応問題であることを必要とする。対応問題は、以下のように示される:カメラの基準系に対するオブジェクトの回転と移動が与えられて(又は与えられず)、オブジェクトの3Dの点とそのオブジェクトの画像平面への2Dの投影との間のN個の特徴の対応を探し出す。目的は、オブジェクトの3Dの点と、そのオブジェクトの画像平面への2Dの投影との間の対応を探し出し、これが使用されて、オブジェクトの3Dの位置と方向を探し出すことである。この問題は、最先端において周知である。しかし、我々は、解が正しく解決可能な二重のものであることを必要とする2つの問題を持つ。それ故、トラッカーシステムは、ポーズ推定問題と対応問題のいずれかに対する最初の解を必要とする。
カメラの基準系に対するオブジェクトの回転と移動が与えられない場合、対応問題は最初の対応問題と呼ばれる。最初の対応問題を解決することを選ぶ場合、対応問題を解決するための完了時間をできる限り短くする。追跡されるオブジェクトは、カメラの視錐台から離れ、その後そこに戻る可能性があるため、このような取り組みは必要である。このようなケースでは、追跡プロセスの再スタートが必要であり、それ故、最初の対応問題の速い解決は、起動時間を短くする。好ましい応用の一つにおいて、特にパイロットの頭が何回も視錐台から離れる場合、ヘルメットを追跡するために、速い起動は見えない時間を著しく断ち切る。
追跡されるオブジェクトの3Dの点と、そのオブジェクトの画像平面への2Dの投影との間の、最初の対応を決定する、現在使用されている方法がいくつかある。その方法の一つにおいて、多数の連続画像が使用されて、そこでは点灯されるLEDの数が反復毎に1つ増加する。それから、ポーズの変更は連続して撮像されたフレーム間で多くないと仮定して、3Dから2Dへのマッチングが近似計算により計算される。新たに点灯されるLEDは、合致リストに追加されている、いずれの2D点にも合致しなかったものである。追跡されるオブジェクトのポーズが小さな誤差だけで知られている場合には、対応問題の解決はより簡単である。それから、類似の近似計算が実行されて、3Dから2Dへのマッチングが探し出される。
現在の方法を用いた最初の対応問題の解決は、多くのフレームキャプチャを必要とするため、長い時間を要するが、最初は追跡されるオブジェクトの回転/移動のデータを利用できないため、追跡されるオブジェクトのポーズを使用する方法を利用できない。現在の方法は、最初の対応問題を解決する効果的な方法を提供していない。この問題の解決を提供するために、非常に効率的な方法で問題を解決する新しい手法が導入されるべきである。さらに、提案された方法は、対応問題を(最初のケースだけでなく)解決し、対応問題の全体的な解決を提供するのに使用されうる。
米国特許第005828770号の文献(Leis,Ristau)、最先端の出願は、多数の連続したフレームキャプチャを使用して最初の対応問題を解決する、近似計算に基づく方法を開示している。この文献では、追跡されるオブジェクトのポーズが分かっているときに対応問題を解決する、類似の近似に基づく方法もまた提供されている。
2005年のBoschetti他は、自由な外科的遠隔操作の任務の5レベルの実行中に、オペレータを導く問題に取り組んでいる。この研究は、触覚マスタ、スレーブロボット、光学追跡装置、及び主制御装置で構成される脊椎手術遠隔ロボットシステムの実現可能性に重点を置いている。このシステムを使用して、外科医は、遠隔ロボット装置を使用して、触覚フィードバックにより導かれながら、穴を開ける作業を実行する。脊椎骨が動くとすぐに、追跡装置は脊椎骨のポーズを測定する。適当な力がオペレータの手に与えられて、手術道具の位置と方向をオペレータに調整させる。さらに、触覚マスタは、遠隔操作に関連した力のフィードバックを生成する。この文書は、この触覚システムの設計と実施、特に制御システム構造に関し、重点を置いている。
2000年のDario他は、従来の関節鏡検査のための高性能の道具と、コンピュータを使用した関節鏡検査のためのシステムの主要構成要素の両方である、関節鏡検査のためのメカトロニクスの道具を記載している。メカトロニクスの関節鏡は、ケーブルで作動され、サーボモータで駆動される、多関節の機械的構造を持ち、先端の方向を測定するための位置センサと、膝の繊細な組織との可能性のある接触を検出するための力センサとを備えていて、センサの信号の処理と、モータの駆動と、外科医とインターフェースをとるための埋め込み式のマイクロコントローラ、及び/又はシステム制御部を組み込んでいる。コンピュータを使用した関節鏡検査システムは、術前のCT又はMR画像の分割と3Dの復元のための画像処理モジュールと、膝関節の位置を測定して、操作している道具の軌道を追跡し、術前と術中の画像をマッチングするための登録モジュールと、拡張現実のシナリオと、メカトロニクスの関節鏡からのデータを友好的及び直感的な方法で表示するヒューマン・マシン・インターフェースと、を含む。術前と術中の画像と、メカトロニクス関節鏡により提供される情報とを統合することにより、システムは、計画段階での膝関節の仮想ナビゲーションと、介入中の拡張現実によるコンピュータガイダンスとを可能にする。この文書は、メカトロニクス関節鏡の特性と、コンピュータを使用した関節鏡検査のためのシステムの特性とを詳細に記載していて、道具とシステムの暫定版を使用して得られた実験結果を論じている。
2000年のHoff/Vincentは、ヘッドマウントディスプレイを備えた拡張現実システムにおいて、オブジェクトに対する頭の相対的な位置と方向(ポーズ)の精度を分析するための方法が開発されたことを開示している。光学追跡センサのエラーの確率的推定から、共分散行列の形式で、オブジェクトに対する頭のポーズの不確実性が計算されうる。位置の不確実性は、3D楕円体として可視化されうる。不確実性の明確な表現を持つ一つの有用な利点は、全体的な登録の制度を改善するために、固定のセンサとヘッドマウントセンサの組み合わせにより、センサデータを結合できることである。方法は、光学透過ヘッドマウントディスプレイと、ヘッドマウントCCDカメラと、固定の光学追跡センサとを組み込む実験的な拡張現実システムの分析に適用された。ヘッドマウントディスプレイに対して移動可能なオブジェクトのポーズの不確実性が分析された。
米国特許第005828770号明細書
本発明の目的は、光学的オブジェクトトラッキングシステムにおいて、追跡されるオブジェクトの基準マーカーと、カメラによって撮像された画像平面への基準マーカーの投影との1対1のマッピングを探し出すことである。
本発明の目的を達成するために実現されるシステム及び方法が、添付の図に示されている。
提案した方法を使用して、ポーズを決定するために使用されるLEDの全てを識別することができる。また、提案した方法は、LEDの3Dの位置とそれらのそれぞれの2Dの投影との対応問題を解決するために使用されるLED群の選択の仕方に関する一連のステップを含む。
オブジェクトの可能性のある基準位置のメッシュのグラフを示す。 4つからなるLED群のサンプル配置を示す。 ポーズ不明瞭性の問題の例を示す。(a−1)(a−2)は、オブジェクトの仰角0度でのLED群の投影の例を示す。(b−1)(b−2)は、オブジェクトの仰角−45度でのLED群の投影の例を示す。(c−1)(c−2)は、オブジェクトの仰角+45度でのLED群の投影の例を示す。 対応問題を解決するための方法のフローチャートである。 対応問題を解決するために使用されるLED群を選択する方法のフローチャートである。
対応問題を解決する方法(100)は、本質的に、
現在のLED群を点灯するステップ(101)と、
現在のLED群のうちの4つのLEDの全てがカメラで見えるかどうかを判断するステップ(102)と、
現在のLED群のうちの全てのLEDが見える場合、中央LEDを識別するステップ(103)と、
中央LEDが不明瞭かどうかを判断するステップ(104)と、
中央LEDが不明瞭でない場合、側部LEDを識別するステップ(105)と、
上部LEDと下部LEDを識別するステップ(106)と、
計算された対応を使用して、追跡されるオブジェクトのポーズを計算するステップ(107)と、
計算されたポーズが不明瞭かどうかを判断するステップ(108)と、
現在のLED群のうちの全てのLEDが見えない、又は中央LEDが不明瞭である、又は計算されたポーズが不明瞭である場合、新しいLED群に切り替えるステップ(109)と、
を含む。
ステップ101において、現在のLED群のLEDを点灯し、2D空間へのLEDの投影が見えるようにする。好ましくは、各群は、追跡されるオブジェクト上の、特定のパターンの、選択された4つのLEDで構成される。点灯される4つのLEDの選択は、2つの主な要因から生じる。第1に、対応を探し出すために、いくつかの幾何学的ルールを定義する必要があり、より簡単なルールが定義されて、より少ないLEDを使用して実行されうる。第2に、オブジェクトのポーズを計算するのに必要な対応の理論的な最小数は4である。それ故、ステップ101において、できるだけ少ないLEDが点灯され、点灯されたLEDが追跡されるオブジェクトのポーズの計算を可能にする。
点灯されたLEDの2D空間の投影は領域の影響を及ぼし、いくつかの画素は高輝度の値を持ち、それ故、画像処理のいくつかの形態が適用される必要がある。これは、簡単な閾値化、接続要素の計算、近接要素の重心の計算などの形態であっても良い。これらのプロセスは最先端で周知であり、ここでは説明しない。この前処理の最後に、4組の(x,y)の値を持つことになる。各値は目に見えるLEDの一つに対応する。
ステップ102において、点灯されたLEDの全てがカメラの視点から見えるかどうかを判断する。追跡されるオブジェクトが、カメラから見えるLEDを遮断するポーズで配置されているか、又は追跡されるオブジェクト上のいくつかのLEDがカメラの視錐台の範囲外にある可能性がある。このようなケースでは、定義された幾何学的ルールは、適用できない。さらに、たとえ対応の計算が成功しても、理論的限界の4に対し、分かっている対応の数がより少ないため、ポーズ推定を実行できない。このようなケースでは、新しいLEDセットに切り替えて再試行する。
LED群のLEDは、特別なパターンで配置される。サンプルのパターンが図2に見られ、ここでは、3つのLEDが一直線に配置され、4つめのLEDが側部の位置に配置されている。最終的な配置は、「T」によく似ている。この特別な配置を使用して、特別な幾何学的ルールを生成して、中央、側部、上部、及び下部のLEDを識別する。
ステップ103において、中央LEDに関する対応を探し出す。中央LEDが他の点灯されたLEDまでの最小の総距離を持つと仮定して、中央LEDを識別する幾何学的ルールが生成される。中央LEDの3Dの位置は、おおよそ他のLEDの真ん中にあり、LEDの2Dの投影のために、そうであると仮定することは安全であるため、これは合理的な仮定である。2つのLED間の距離は、2D空間上でユークリッド距離として計算される。それから、他のLEDまでの最小の総距離を持つものとして、中央LEDの投影を識別する。
しかし、中央LEDを常に間違いなく識別することは難しい。2つのLEDが、互いに非常に近接している他のLEDまでの最小の総距離を持つ場合、中央LEDの決定の信頼性は低いと言える。カメラがLEDに対して横向きの位置に配置されている場合に、このようなケースは起こり、中央LEDを側部LEDと間違える可能性がある、又は中央LEDを上部LED/下部LEDと間違える可能性がある。理論的に、3Dから2Dへの投影が完璧で、LEDが同一平面上にある場合、このような信頼性の計量を必要としない。しかし、光学的ひずみと、あるエラーを引き起こす画像処理技術と、同一平面状にない形状で配置されたLEDは、このような計量を必要とする。このようなケースが、不明瞭な識別と名付けられる。ステップ104において、中央LEDの識別が不明瞭かどうかを判断する。このような判断は、簡単な相対的閾値化を使用して実現されうる(2番目に最小の総距離が、最小の総距離の所定の割合の範囲内であれば、LEDの識別は不明瞭であると言う)。不明瞭な判断が存在すれば、新しいLEDセットに切り替えて再試行する。
ステップ105において、側部LEDの識別が行われる。側部LEDを識別するために定義された幾何学的ルールは、画像内で中央LEDから他の3つのLEDまで線を描くことを必要とする。それから、各線について、残りの2つのLEDから線までの直交距離を計算し、全部で6(3×2)の値を計算する。計算された6つの値の中から最小値に対応するLEDが、上部/下部LEDのうちの一つとして識別される。6つの値の最小値を計算するのに使用された線を描くために、(中央LEDと共に)使用されたLEDは、他方の上部/下部のLEDとして識別される。中央LEDと上部/下部LEDが識別されるため、残りのLEDが側部LEDとなる。
この時点で、2つのLEDが上部/下部のLEDとして識別されたということに注目すべきである。しかし、2つのLED間の、上部と下部の位置への、1対1のマッピングはない。ステップ106において、上部と下部のLEDの計算が行われる。上部と下部のLEDを識別するために定義された幾何学的ルールは、側部LEDから中央LEDまで線を描くことを必要とする。それから、線の右側のLEDを上部LEDとして識別し、線の左側のLEDを下部LEDとして識別できる(側部LEDが右側で選択されると仮定する。そうでなければ、下部LEDを上部LEDと切り替える)。中央LEDの不明瞭性を除いて、LEDの特別な配置は対応の計算に関する混同を許可しないことに注目すべきである。それ故、説明した方法は、計算する対応の堅固な方法を提供する。
ステップ107において、計算された4つの対応を使用して、ポーズの計算が行われる。4つの対応を使用して、ポーズを計算することができる。しかし、いくつかのケースでは、LEDの2Dビューとポーズとの1対1のマッピングがない(すなわち、LEDの特定の2Dビューから、両方が正しい2つのポーズを計算することができる。)。このケースは、ポーズの不明瞭性と呼ばれ、ポーズ推定問題の継承問題である。ポーズの不明瞭性の問題の例が図3に示されている。図3において、左側のグラフは3D空間のLED群の位置を示し、右側のグラフは2D空間へのそれらの投影を示している。図3(a)は、LEDを回転させていない、標準投影であり、参照を取るためのものである。図3(b)において、LEDは仰角軸において−45度回転される。図3(c)において、LEDは仰角軸において+45度回転される。図からわかるように、結果として生じる画像は同一である。それ故、EL=45度とEL=−45度で探し出されたポーズは、数学的に両方正しい。しかし、実際には、これらのポーズのうちの一方のみが、結果として生じる画像をもたらす。しかし、ポーズ推定方法を使用して、正しいポーズを探し出す方法はない。完了するために、(各LEDについて単一の(x,y)の値を探し出すために)撮像された画像の前処理の後に、図3の右側のグラフが得られることに注目すべきである。撮像された原画像において、図3(b)では上部LEDがカメラにより近いため、下部LEDよりも大きい。図3(c)では、下部LEDがカメラにより近いため、上部LEDよりも大きい。問題は単一の軸に抑制されず、単一の2Dビューに対応するポーズが対称であるときに問題は存在することにも注目すべきである。
ステップ108において、ポーズの計算が不明瞭であるかどうかを判断する。不明瞭でなければ、計算された対応は正しく、ポーズを計算するのに、計算された対応を使用できる。ポーズ推定と対応の計算の標準の反復を開始できる。しかし、ポーズが不明瞭であれば、例え、対応の計算が正しかったとしても、ポーズ推定プロセスにおいてそれらを使用することができない。それ故、計算された対応は、ポーズの推定と対応の計算の標準の反復を開始するのに十分ではない。このようなケースでは、新しいLEDセットに切り替えて再試行する。
対応問題を解決する方法(100)が4つのLEDからなる一群のみを使用して実行される場合、ポーズの不明瞭性が原因で、対応を計算できない、又はオブジェクトのポーズが見つからないケースがある。このようなケースを避けるために、数個のLED群を使用することを提案する。しかし、LED群を注意深く選択し、オブジェクトが取ることができる、可能性があるポーズの全てをカバーしながら、選択するLED群を最小数にするべきである。対応問題を解決する(100)ために使用されるLED群を選択する方法(200)は、より良い形式で使用事例に適合する、より良いLED群の選択のために、動いている状況下で追跡されるオブジェクトのポーズを使用する、このような注意深い選択プロセスを特定する。
対応問題を解決する(100)ために使用されるLED群を選択する方法(200)は、本質的に、
アクティブなマーカーの位置を表すメッシュデータと、動いている状況下で追跡されるオブジェクトの可能性のあるポーズを表すポーズデータと、1つのカメラの位置及び方向とを取得するステップ(201)と、
カバーされていないポーズセットを取得したポーズデータに初期化するステップ(202)と、
「T」形のパターンの4つのLED群の全てを列挙し(生成し)、非選択のLED群のセットに追加するステップ(203)と、
現在のカバーされていないポーズセットのポーズ毎に、カメラ配置データを使用して、非選択のLED群を2D空間に投影するステップ(204)と、
(非選択のLED群、現在のカバーされていないポーズセットのポーズの)各ペアについて、4つ全てのLEDが見える場合、非選択のLED群にポーズを登録するステップと(205)、
非選択のLED群の中から、最もカバーされていないポーズをカバーするLED群を識別して、選択されたLED群に加えるステップ(206)と、
カバーされていないポーズセットからカバーされたポーズを除去し、且つ非選択のLED群のセットから選択されたLED群を除去するステップ(207)と、
終了条件が満たされたかどうかを判断し、そうであれば終了するステップ(208)と、
を含む。
追跡されるオブジェクト(例えば、赤外線LEDを備えたヘッドトラッキングシステムのためのヘルメット)のアクティブな基準の位置が、オブジェクトの各位置について三次元座標で表される。一般的な座標系に対して、メッシュ(モデル)に関するこれらの座標が判定され、カメラの場所に関連付けられるべきであることに注目することが重要である。それと同時に、動いている状況下で追跡されるオブジェクトの可能性のあるポーズを表すポーズデータも導入する必要がある。本発明の好ましい構成において、これらのデータは、実際のオブジェクト上に置かれた慣性計測装置(IMU)を使用して、実際の動いている状況下で取得され、オブジェクトの動作が記録されて、ポーズデータとして使用される。
ステップ202において、カバーされていないポーズセットの初期化が行われる。カバーされていないポーズセットとは、現在カバーされていないポーズの集まりである。ここで、「カバーされていない」とは、現在選択されているLED群のうちのいずれもが、そのポーズでは、完全には見えないことを意味する。このセットは、最初は、入力ポーズデータの全部である。しかし、方法が進むと、より多くのポーズがカバーされるため、このセットは空のセットに低減される。
ステップ203において、「T」形のパターンのLED群の全ての列挙(生成)が行われる。このステップは、追跡されるオブジェクトのアクティブな基準の位置に過度に依存する。しかし、LED群の生成はやや容易である。簡単な例が、n×nグリッドのLEDを使用して提供されうる。n×nグリッド上で、3×3グリッドのLEDを使用する場合、3×3グリッドの真ん中のLEDは、8つのLED群において使用されうる。真ん中のLEDは、「T」パターンの中央LEDである(3×3グリッドのサイズ3の、「+」と「×」の形状の4つの直線を作成でき、側部LEDを右側又は左側に配置することができる)。アクティブな基準位置についての特定の入力のために、同様の方略が探し出される。しかし、合理的に小さい数のLED群をもたらすように、任意の生成プロセスが予期されるべきである。
追跡されるオブジェクトとカメラの相対的な空間位置を知ることにより、入力ポーズデータを使用して、数学的に、LED群を移動し回転することができ、基準の可視性を計算できる。ステップ204において、カバーされていないポーズセットのポーズ毎に、入力カメラの位置/方向から、メッシュ上の各非選択LED群の可視性が計算される。ステップ205において、各非選択LED群を表す、可視性の値のリストが生成される。可視性の値は、LED群の全てのノードが、現在のカバーされていないポーズセットを考慮して、カメラのビューポートから何回見えたかを表す。
好ましい構成において、ポーズを与えられた3Dモデルの点(アクティブ・マーカー)の可視性を推定するのに、閉鎖モデルが使用される。それは、コンピュータグラフィックスにおいて開発された光線追跡技術に基づいている。LED基準のケースにおいて、可視性の計算は、オブジェクトの座標系に対するLEDの法線と、LED照明の円錐角と、オブジェクトの既知のポーズとに基づいている。カメラ座標系におけるLEDの法線とカメラ平面の法線との角度は、LEDがどの程度垂直にカメラ(LEDの方向角)に向けられているかを定義する。LED照明の円錐角は、カメラに対して可視のLEDについての、最小のLED方向角の閾値を定義する。与えられたポーズについて、LED方向角をLED毎に計算して、その可視性を決定できる。オブジェクトの座標系に対するマーカーの法線と、マーカー照明の円錐角と、オブジェクトの既知のポーズが、任意のアクティブマーカー追跡システムに同等に適用されうる。
それから、ステップ206において、最も高い可視性の数を持つ非選択のLED群が、対応問題を解決するための方法(100)で使用するために選択される。対応問題を解決するための方法(100)において使用されるLED群として以前に決定されなかった最も高い可視性の数を持つLED群が、決定されたポーズデータのほとんどにおいて完全に見えるため、選択される。ステップ207において、カバーされていないポーズセットから最近選択されたLED群によってカバーされたポーズを除去し、且つさらなる計算のために使用される非選択のLED群のセットから、最近選択されたLED群を削除する。この構成において、少なくとも一つのポーズが新しく選択されたLED群によってカバーされるため、カバーされていないポーズセットのエレメントの数は反復毎に減少する。また、この構成において、選択されたLED群の数は、反復毎に一つ増加する。
ステップ208において、終了条件がチェックされる。最初のポーズデータのすべてのポーズが、少なくとも1つの選択されたLED群によってカバーされるときに、主な終了条件が発生する。このケースは、入力ポーズデータに対するLED群の成功した熟練の選択に対応する。いくつかの特別なケースにおいて、入力ポーズデータ、カメラの位置、及びアクティブなマーカーの位置は、全てのポーズの範囲を許可しない。このケースでは、新しいLED群を追加しても、方法が少なくとも1つのポーズのカバーに失敗した場合に、終了できる。このケースにおいて、対応問題を解決するために使用されるLED群を選択する方法(200)によって生成されるLED群は、訓練セットにおけるすべてのポーズについて、対応問題を解決する方法(100)において使用されるときに、有効な対応結果を生じさせることができない。異なる終了条件が、所定数のLED群の選択として、特定されうる。この構成において、いくつかのポーズはカバーされない。しかし、対応問題を解決する方法(100)は、より少ないLED群を持ち、使用して動作する。
100 対応問題を解決する方法
200 対応問題を解決するために使用されるLED群を選択する方法
C カメラ
O0 オブジェクトの仰角(0)
O1 オブジェクトの仰角(−45)
O2 オブジェクトの仰角(45)
B0 オブジェクトの仰角0度での下部LEDの投影
B1 オブジェクトの仰角−45度での下部LEDの投影
B2 オブジェクトの仰角45度での下部LEDの投影
T0 オブジェクトの仰角0度での上部LEDの投影
T1 オブジェクトの仰角−45度での上部LEDの投影
T2 オブジェクトの仰角45度での上部LEDの投影
C0 オブジェクトの仰角0度での中央LEDの投影
C1 オブジェクトの仰角−45度での中央LEDの投影
C2 オブジェクトの仰角45度での中央LEDの投影
F0 オブジェクトの仰角0度での側部LEDの投影
F1 オブジェクトの仰角−45度での側部LEDの投影
F2 オブジェクトの仰角45度での側部LEDの投影

Claims (1)

  1. 「T」形のパターンで配置された、4つのLEDからなる現在のLED群を点灯するステップ(101)と、
    現在のLED群のうちの4つのLEDの全てがカメラで見えるかどうかを判断するステップ(102)と、
    現在のLED群のうちの全てのLEDが見える場合、全てのLEDについて他の残りの3つのLEDまでの距離を計算し、残りの3つのLEDまでの距離を合計することによって生成される最小の総距離を持つLEDを中央LEDとして選択することにより、中央LEDを識別するステップ(103)と、
    を含み、
    計算された最小の総距離と2番目に小さい総距離が、互いの所定の割合の範囲内である場合、中央LEDが不明瞭であると判断するステップ(104)と、
    中央LEDが不明瞭でない場合、中央LEDから残りのLEDまで3つの線を描き、その線上にまだないLEDの前記線までの直交距離を計算し、それからいずれかの線までの最小の直交距離を探し出し、最後に最小の直交距離を探し出すのに使用された線上にはなく且ついずれかの線までの最小でない直交距離を持つ1つのLEDを側部として選択することにより、側部LEDを識別するステップ(105)と、
    側部LEDから中央LEDまで線を描き、前記線の右側のLEDを上部LEDとして識別し、前記線の左側のLEDを下部LEDとして識別し、側部LEDがLED群の左側にある場合は、3D空間のLEDとそれらの2Dの投影との間で、上部LEDと下部LEDの対応を切り替えることにより、上部LEDと下部LEDを識別するステップ(106)と、
    4つ全てのLEDとそれらの2Dの投影との計算された対応を使用して、追跡されるオブジェクトのポーズを計算するステップ(107)と、
    追跡されるオブジェクトのポーズを計算するステップ107と同様に、同一の2Dの投影に対応するのポーズの計算が可能であるかどうかを判断するステップ(108)と、
    現在のLED群のうちの全てのLEDが見えない、又は中央LEDが不明瞭である、又は単一の2Dの投影に対応する可能性のあるポーズが2つあり、計算されたポーズが不明瞭である場合、新しいLED群に切り替えるステップ(109)と、
    を含むことを特徴とする、4つのLEDのパターンによりポーズを決定する方法(100)。
JP2016518590A 2013-06-11 2013-06-11 4つのledのパターンによるポーズの決定 Active JP6240320B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2013/054769 WO2014199196A1 (en) 2013-06-11 2013-06-11 Pose determination from a pattern of four leds

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016026243A Division JP6240234B2 (ja) 2016-02-15 2016-02-15 4つのledのパターンによるポーズの決定

Publications (2)

Publication Number Publication Date
JP2016528479A JP2016528479A (ja) 2016-09-15
JP6240320B2 true JP6240320B2 (ja) 2017-12-06

Family

ID=49029134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016518590A Active JP6240320B2 (ja) 2013-06-11 2013-06-11 4つのledのパターンによるポーズの決定

Country Status (5)

Country Link
US (1) US9495585B2 (ja)
EP (2) EP3008689B1 (ja)
JP (1) JP6240320B2 (ja)
KR (2) KR101723764B1 (ja)
WO (1) WO2014199196A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7440762B2 (ja) 2020-04-21 2024-02-29 日本製鉄株式会社 接合部材、接合継手、接合継手の製造方法、及び接合部材の製造方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
JP6364389B2 (ja) * 2015-08-24 2018-07-25 大豊精機株式会社 検査方法及び検査システム
EP3787543A4 (en) 2018-05-02 2022-01-19 Augmedics Ltd. REGISTRATION OF A REFERENCE MARK FOR AN AUGMENTED REALITY SYSTEM
CN112955930A (zh) 2018-10-30 2021-06-11 Alt有限责任公司 用于对移动对象进行反向光学跟踪的系统和方法
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
DE102019100660B4 (de) * 2019-01-11 2021-05-27 Lap Gmbh Laser Applikationen Verfahren zur Transformation zwischen Bildpunkten und Objektpunkten
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11315258B1 (en) * 2019-08-19 2022-04-26 Ag Leader Technology, Inc. Optical system for tracking the heading and position of an implement compared to the pulling tractor and other uses
CA3090634A1 (en) * 2019-08-20 2021-02-20 Lune Rouge Divertissement Inc. Machine vision system and method
US11605170B2 (en) * 2019-10-14 2023-03-14 INTERNATIONAL INSTITUTE OF EARTHQUAKE ENGINEERING AND SEISMOLOGYx Estimating a displacement sequence of an object
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US20230222689A1 (en) * 2022-01-11 2023-07-13 Rockwell Collins, Inc. High-confidence optical head pose correspondence mapping with multiple lower-density markers for high-integrity headtracking on a headworn display (hwd)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5828770A (en) * 1996-02-20 1998-10-27 Northern Digital Inc. System for determining the spatial position and angular orientation of an object
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
JP3470119B2 (ja) * 2002-02-14 2003-11-25 コナミ株式会社 コントローラ、コントローラの姿勢遠隔測定装置及びビデオゲーム装置
US7499828B2 (en) * 2005-11-29 2009-03-03 Mario Barton Position determining apparatus and related method
US20080013184A1 (en) * 2006-07-14 2008-01-17 Motorola, Inc. Head's up display ambiguity eliminator
KR101059748B1 (ko) * 2009-01-06 2011-08-26 국방과학연구소 특징점 패턴을 이용한 헤드 트랙커에서 특징점 배치 방법 및 헬멧의 위치 추정 방법
US8600166B2 (en) * 2009-11-06 2013-12-03 Sony Corporation Real time hand tracking, pose classification and interface control

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7440762B2 (ja) 2020-04-21 2024-02-29 日本製鉄株式会社 接合部材、接合継手、接合継手の製造方法、及び接合部材の製造方法

Also Published As

Publication number Publication date
EP3057064A1 (en) 2016-08-17
KR20160016914A (ko) 2016-02-15
JP2016528479A (ja) 2016-09-15
EP3057064B1 (en) 2017-12-27
EP3008689A1 (en) 2016-04-20
US9495585B2 (en) 2016-11-15
KR101723764B1 (ko) 2017-04-05
KR101723765B1 (ko) 2017-04-05
WO2014199196A1 (en) 2014-12-18
EP3008689B1 (en) 2017-04-12
US20160148045A1 (en) 2016-05-26
KR20160007666A (ko) 2016-01-20

Similar Documents

Publication Publication Date Title
JP6240320B2 (ja) 4つのledのパターンによるポーズの決定
Grasa et al. Visual SLAM for handheld monocular endoscope
Lin et al. Video‐based 3D reconstruction, laparoscope localization and deformation recovery for abdominal minimally invasive surgery: a survey
US7561733B2 (en) Patient registration with video image assistance
CN112652016B (zh) 点云预测模型的生成方法、位姿估计方法及其装置
KR101650161B1 (ko) 이미지 내에서 수술기기를 찾기 위한 기준 마커 디자인 및 탐지
US20190197770A1 (en) 3d model reconstruction method, electronic device, and non-transitory computer readable storage medium thereof
JP5803367B2 (ja) 自己位置推定装置、自己位置推定方法およびプログラム
US20130106833A1 (en) Method and apparatus for optical tracking of 3d pose using complex markers
Labbé et al. Single-view robot pose and joint angle estimation via render & compare
CN102341054A (zh) 用于器械跟踪的构造标记设计和检测
CN110782492B (zh) 位姿跟踪方法及装置
Gratal et al. Visual servoing on unknown objects
US10902610B2 (en) Moving object controller, landmark, and moving object control method
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6240234B2 (ja) 4つのledのパターンによるポーズの決定
KR20100107976A (ko) 3차원 사용자 인터페이스 장치 및 그 방법
US20220175473A1 (en) Using model data to generate an enhanced depth map in a computer-assisted surgical system
Watanabe et al. A new 2D depth-depth matching algorithm whose translation and rotation freedoms are separated
Roberti Medical SLAM in an autonomous robotic system
US20230005174A1 (en) Method and system for optically detecting the pose of at least one instrument in an operating theater
US20230274384A1 (en) Image alignment using corner and line features
Tukra et al. AI in Surgical Robotics
Jarvis Robot Vision
Heitzmann et al. Position-based visual servoing using a coded structured light sensor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171102

R150 Certificate of patent or registration of utility model

Ref document number: 6240320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250