JP6240320B2 - 4つのledのパターンによるポーズの決定 - Google Patents
4つのledのパターンによるポーズの決定 Download PDFInfo
- Publication number
- JP6240320B2 JP6240320B2 JP2016518590A JP2016518590A JP6240320B2 JP 6240320 B2 JP6240320 B2 JP 6240320B2 JP 2016518590 A JP2016518590 A JP 2016518590A JP 2016518590 A JP2016518590 A JP 2016518590A JP 6240320 B2 JP6240320 B2 JP 6240320B2
- Authority
- JP
- Japan
- Prior art keywords
- led
- leds
- pose
- line
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
2005年のBoschetti他は、自由な外科的遠隔操作の任務の5レベルの実行中に、オペレータを導く問題に取り組んでいる。この研究は、触覚マスタ、スレーブロボット、光学追跡装置、及び主制御装置で構成される脊椎手術遠隔ロボットシステムの実現可能性に重点を置いている。このシステムを使用して、外科医は、遠隔ロボット装置を使用して、触覚フィードバックにより導かれながら、穴を開ける作業を実行する。脊椎骨が動くとすぐに、追跡装置は脊椎骨のポーズを測定する。適当な力がオペレータの手に与えられて、手術道具の位置と方向をオペレータに調整させる。さらに、触覚マスタは、遠隔操作に関連した力のフィードバックを生成する。この文書は、この触覚システムの設計と実施、特に制御システム構造に関し、重点を置いている。
2000年のDario他は、従来の関節鏡検査のための高性能の道具と、コンピュータを使用した関節鏡検査のためのシステムの主要構成要素の両方である、関節鏡検査のためのメカトロニクスの道具を記載している。メカトロニクスの関節鏡は、ケーブルで作動され、サーボモータで駆動される、多関節の機械的構造を持ち、先端の方向を測定するための位置センサと、膝の繊細な組織との可能性のある接触を検出するための力センサとを備えていて、センサの信号の処理と、モータの駆動と、外科医とインターフェースをとるための埋め込み式のマイクロコントローラ、及び/又はシステム制御部を組み込んでいる。コンピュータを使用した関節鏡検査システムは、術前のCT又はMR画像の分割と3Dの復元のための画像処理モジュールと、膝関節の位置を測定して、操作している道具の軌道を追跡し、術前と術中の画像をマッチングするための登録モジュールと、拡張現実のシナリオと、メカトロニクスの関節鏡からのデータを友好的及び直感的な方法で表示するヒューマン・マシン・インターフェースと、を含む。術前と術中の画像と、メカトロニクス関節鏡により提供される情報とを統合することにより、システムは、計画段階での膝関節の仮想ナビゲーションと、介入中の拡張現実によるコンピュータガイダンスとを可能にする。この文書は、メカトロニクス関節鏡の特性と、コンピュータを使用した関節鏡検査のためのシステムの特性とを詳細に記載していて、道具とシステムの暫定版を使用して得られた実験結果を論じている。
2000年のHoff/Vincentは、ヘッドマウントディスプレイを備えた拡張現実システムにおいて、オブジェクトに対する頭の相対的な位置と方向(ポーズ)の精度を分析するための方法が開発されたことを開示している。光学追跡センサのエラーの確率的推定から、共分散行列の形式で、オブジェクトに対する頭のポーズの不確実性が計算されうる。位置の不確実性は、3D楕円体として可視化されうる。不確実性の明確な表現を持つ一つの有用な利点は、全体的な登録の制度を改善するために、固定のセンサとヘッドマウントセンサの組み合わせにより、センサデータを結合できることである。方法は、光学透過ヘッドマウントディスプレイと、ヘッドマウントCCDカメラと、固定の光学追跡センサとを組み込む実験的な拡張現実システムの分析に適用された。ヘッドマウントディスプレイに対して移動可能なオブジェクトのポーズの不確実性が分析された。
提案した方法を使用して、ポーズを決定するために使用されるLEDの全てを識別することができる。また、提案した方法は、LEDの3Dの位置とそれらのそれぞれの2Dの投影との対応問題を解決するために使用されるLED群の選択の仕方に関する一連のステップを含む。
現在のLED群を点灯するステップ(101)と、
現在のLED群のうちの4つのLEDの全てがカメラで見えるかどうかを判断するステップ(102)と、
現在のLED群のうちの全てのLEDが見える場合、中央LEDを識別するステップ(103)と、
中央LEDが不明瞭かどうかを判断するステップ(104)と、
中央LEDが不明瞭でない場合、側部LEDを識別するステップ(105)と、
上部LEDと下部LEDを識別するステップ(106)と、
計算された対応を使用して、追跡されるオブジェクトのポーズを計算するステップ(107)と、
計算されたポーズが不明瞭かどうかを判断するステップ(108)と、
現在のLED群のうちの全てのLEDが見えない、又は中央LEDが不明瞭である、又は計算されたポーズが不明瞭である場合、新しいLED群に切り替えるステップ(109)と、
を含む。
アクティブなマーカーの位置を表すメッシュデータと、動いている状況下で追跡されるオブジェクトの可能性のあるポーズを表すポーズデータと、1つのカメラの位置及び方向とを取得するステップ(201)と、
カバーされていないポーズセットを取得したポーズデータに初期化するステップ(202)と、
「T」形のパターンの4つのLED群の全てを列挙し(生成し)、非選択のLED群のセットに追加するステップ(203)と、
現在のカバーされていないポーズセットのポーズ毎に、カメラ配置データを使用して、非選択のLED群を2D空間に投影するステップ(204)と、
(非選択のLED群、現在のカバーされていないポーズセットのポーズの)各ペアについて、4つ全てのLEDが見える場合、非選択のLED群にポーズを登録するステップと(205)、
非選択のLED群の中から、最もカバーされていないポーズをカバーするLED群を識別して、選択されたLED群に加えるステップ(206)と、
カバーされていないポーズセットからカバーされたポーズを除去し、且つ非選択のLED群のセットから選択されたLED群を除去するステップ(207)と、
終了条件が満たされたかどうかを判断し、そうであれば終了するステップ(208)と、
を含む。
200 対応問題を解決するために使用されるLED群を選択する方法
C カメラ
O0 オブジェクトの仰角(0)
O1 オブジェクトの仰角(−45)
O2 オブジェクトの仰角(45)
B0 オブジェクトの仰角0度での下部LEDの投影
B1 オブジェクトの仰角−45度での下部LEDの投影
B2 オブジェクトの仰角45度での下部LEDの投影
T0 オブジェクトの仰角0度での上部LEDの投影
T1 オブジェクトの仰角−45度での上部LEDの投影
T2 オブジェクトの仰角45度での上部LEDの投影
C0 オブジェクトの仰角0度での中央LEDの投影
C1 オブジェクトの仰角−45度での中央LEDの投影
C2 オブジェクトの仰角45度での中央LEDの投影
F0 オブジェクトの仰角0度での側部LEDの投影
F1 オブジェクトの仰角−45度での側部LEDの投影
F2 オブジェクトの仰角45度での側部LEDの投影
Claims (1)
- 「T」形のパターンで配置された、4つのLEDからなる現在のLED群を点灯するステップ(101)と、
現在のLED群のうちの4つのLEDの全てがカメラで見えるかどうかを判断するステップ(102)と、
現在のLED群のうちの全てのLEDが見える場合、全てのLEDについて他の残りの3つのLEDまでの距離を計算し、残りの3つのLEDまでの距離を合計することによって生成される最小の総距離を持つLEDを中央LEDとして選択することにより、中央LEDを識別するステップ(103)と、
を含み、
計算された最小の総距離と2番目に小さい総距離が、互いの所定の割合の範囲内である場合、中央LEDが不明瞭であると判断するステップ(104)と、
中央LEDが不明瞭でない場合、中央LEDから残りのLEDまで3つの線を描き、その線上にまだないLEDの前記線までの直交距離を計算し、それからいずれかの線までの最小の直交距離を探し出し、最後に最小の直交距離を探し出すのに使用された線上にはなく且ついずれかの線までの最小でない直交距離を持つ1つのLEDを側部として選択することにより、側部LEDを識別するステップ(105)と、
側部LEDから中央LEDまで線を描き、前記線の右側のLEDを上部LEDとして識別し、前記線の左側のLEDを下部LEDとして識別し、側部LEDがLED群の左側にある場合は、3D空間のLEDとそれらの2Dの投影との間で、上部LEDと下部LEDの対応を切り替えることにより、上部LEDと下部LEDを識別するステップ(106)と、
4つ全てのLEDとそれらの2Dの投影との計算された対応を使用して、追跡されるオブジェクトのポーズを計算するステップ(107)と、
追跡されるオブジェクトのポーズを計算するステップ(107)と同様に、同一の2Dの投影に対応する別のポーズの計算が可能であるかどうかを判断するステップ(108)と、
現在のLED群のうちの全てのLEDが見えない、又は中央LEDが不明瞭である、又は単一の2Dの投影に対応する可能性のあるポーズが2つあり、計算されたポーズが不明瞭である場合、新しいLED群に切り替えるステップ(109)と、
を含むことを特徴とする、4つのLEDのパターンによりポーズを決定する方法(100)。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2013/054769 WO2014199196A1 (en) | 2013-06-11 | 2013-06-11 | Pose determination from a pattern of four leds |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016026243A Division JP6240234B2 (ja) | 2016-02-15 | 2016-02-15 | 4つのledのパターンによるポーズの決定 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016528479A JP2016528479A (ja) | 2016-09-15 |
JP6240320B2 true JP6240320B2 (ja) | 2017-12-06 |
Family
ID=49029134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016518590A Active JP6240320B2 (ja) | 2013-06-11 | 2013-06-11 | 4つのledのパターンによるポーズの決定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9495585B2 (ja) |
EP (2) | EP3008689B1 (ja) |
JP (1) | JP6240320B2 (ja) |
KR (2) | KR101723764B1 (ja) |
WO (1) | WO2014199196A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7440762B2 (ja) | 2020-04-21 | 2024-02-29 | 日本製鉄株式会社 | 接合部材、接合継手、接合継手の製造方法、及び接合部材の製造方法 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
JP6364389B2 (ja) * | 2015-08-24 | 2018-07-25 | 大豊精機株式会社 | 検査方法及び検査システム |
EP3787543A4 (en) | 2018-05-02 | 2022-01-19 | Augmedics Ltd. | REGISTRATION OF A REFERENCE MARK FOR AN AUGMENTED REALITY SYSTEM |
CN112955930A (zh) | 2018-10-30 | 2021-06-11 | Alt有限责任公司 | 用于对移动对象进行反向光学跟踪的系统和方法 |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
US10939977B2 (en) | 2018-11-26 | 2021-03-09 | Augmedics Ltd. | Positioning marker |
DE102019100660B4 (de) * | 2019-01-11 | 2021-05-27 | Lap Gmbh Laser Applikationen | Verfahren zur Transformation zwischen Bildpunkten und Objektpunkten |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
US11315258B1 (en) * | 2019-08-19 | 2022-04-26 | Ag Leader Technology, Inc. | Optical system for tracking the heading and position of an implement compared to the pulling tractor and other uses |
CA3090634A1 (en) * | 2019-08-20 | 2021-02-20 | Lune Rouge Divertissement Inc. | Machine vision system and method |
US11605170B2 (en) * | 2019-10-14 | 2023-03-14 | INTERNATIONAL INSTITUTE OF EARTHQUAKE ENGINEERING AND SEISMOLOGYx | Estimating a displacement sequence of an object |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
US11389252B2 (en) | 2020-06-15 | 2022-07-19 | Augmedics Ltd. | Rotating marker for image guided surgery |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
US20230222689A1 (en) * | 2022-01-11 | 2023-07-13 | Rockwell Collins, Inc. | High-confidence optical head pose correspondence mapping with multiple lower-density markers for high-integrity headtracking on a headworn display (hwd) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5227985A (en) * | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
US5828770A (en) * | 1996-02-20 | 1998-10-27 | Northern Digital Inc. | System for determining the spatial position and angular orientation of an object |
US6330356B1 (en) * | 1999-09-29 | 2001-12-11 | Rockwell Science Center Llc | Dynamic visual registration of a 3-D object with a graphical model |
JP3470119B2 (ja) * | 2002-02-14 | 2003-11-25 | コナミ株式会社 | コントローラ、コントローラの姿勢遠隔測定装置及びビデオゲーム装置 |
US7499828B2 (en) * | 2005-11-29 | 2009-03-03 | Mario Barton | Position determining apparatus and related method |
US20080013184A1 (en) * | 2006-07-14 | 2008-01-17 | Motorola, Inc. | Head's up display ambiguity eliminator |
KR101059748B1 (ko) * | 2009-01-06 | 2011-08-26 | 국방과학연구소 | 특징점 패턴을 이용한 헤드 트랙커에서 특징점 배치 방법 및 헬멧의 위치 추정 방법 |
US8600166B2 (en) * | 2009-11-06 | 2013-12-03 | Sony Corporation | Real time hand tracking, pose classification and interface control |
-
2013
- 2013-06-11 EP EP13752669.5A patent/EP3008689B1/en active Active
- 2013-06-11 KR KR1020157036803A patent/KR101723764B1/ko active IP Right Grant
- 2013-06-11 US US14/898,108 patent/US9495585B2/en active Active
- 2013-06-11 EP EP15203232.2A patent/EP3057064B1/en active Active
- 2013-06-11 JP JP2016518590A patent/JP6240320B2/ja active Active
- 2013-06-11 WO PCT/IB2013/054769 patent/WO2014199196A1/en active Application Filing
- 2013-06-11 KR KR1020157036924A patent/KR101723765B1/ko active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7440762B2 (ja) | 2020-04-21 | 2024-02-29 | 日本製鉄株式会社 | 接合部材、接合継手、接合継手の製造方法、及び接合部材の製造方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3057064A1 (en) | 2016-08-17 |
KR20160016914A (ko) | 2016-02-15 |
JP2016528479A (ja) | 2016-09-15 |
EP3057064B1 (en) | 2017-12-27 |
EP3008689A1 (en) | 2016-04-20 |
US9495585B2 (en) | 2016-11-15 |
KR101723764B1 (ko) | 2017-04-05 |
KR101723765B1 (ko) | 2017-04-05 |
WO2014199196A1 (en) | 2014-12-18 |
EP3008689B1 (en) | 2017-04-12 |
US20160148045A1 (en) | 2016-05-26 |
KR20160007666A (ko) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6240320B2 (ja) | 4つのledのパターンによるポーズの決定 | |
Grasa et al. | Visual SLAM for handheld monocular endoscope | |
Lin et al. | Video‐based 3D reconstruction, laparoscope localization and deformation recovery for abdominal minimally invasive surgery: a survey | |
US7561733B2 (en) | Patient registration with video image assistance | |
CN112652016B (zh) | 点云预测模型的生成方法、位姿估计方法及其装置 | |
KR101650161B1 (ko) | 이미지 내에서 수술기기를 찾기 위한 기준 마커 디자인 및 탐지 | |
US20190197770A1 (en) | 3d model reconstruction method, electronic device, and non-transitory computer readable storage medium thereof | |
JP5803367B2 (ja) | 自己位置推定装置、自己位置推定方法およびプログラム | |
US20130106833A1 (en) | Method and apparatus for optical tracking of 3d pose using complex markers | |
Labbé et al. | Single-view robot pose and joint angle estimation via render & compare | |
CN102341054A (zh) | 用于器械跟踪的构造标记设计和检测 | |
CN110782492B (zh) | 位姿跟踪方法及装置 | |
Gratal et al. | Visual servoing on unknown objects | |
US10902610B2 (en) | Moving object controller, landmark, and moving object control method | |
JP2018195070A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6240234B2 (ja) | 4つのledのパターンによるポーズの決定 | |
KR20100107976A (ko) | 3차원 사용자 인터페이스 장치 및 그 방법 | |
US20220175473A1 (en) | Using model data to generate an enhanced depth map in a computer-assisted surgical system | |
Watanabe et al. | A new 2D depth-depth matching algorithm whose translation and rotation freedoms are separated | |
Roberti | Medical SLAM in an autonomous robotic system | |
US20230005174A1 (en) | Method and system for optically detecting the pose of at least one instrument in an operating theater | |
US20230274384A1 (en) | Image alignment using corner and line features | |
Tukra et al. | AI in Surgical Robotics | |
Jarvis | Robot Vision | |
Heitzmann et al. | Position-based visual servoing using a coded structured light sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6240320 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |