JP7449400B2 - 空間位置決め方法、関連装置およびナビゲーションスティック - Google Patents

空間位置決め方法、関連装置およびナビゲーションスティック Download PDF

Info

Publication number
JP7449400B2
JP7449400B2 JP2022550861A JP2022550861A JP7449400B2 JP 7449400 B2 JP7449400 B2 JP 7449400B2 JP 2022550861 A JP2022550861 A JP 2022550861A JP 2022550861 A JP2022550861 A JP 2022550861A JP 7449400 B2 JP7449400 B2 JP 7449400B2
Authority
JP
Japan
Prior art keywords
marking point
marking
coordinate system
image
stick
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022550861A
Other languages
English (en)
Other versions
JP2023516930A (ja
Inventor
リウ,イシュン
チィン,チェンチェン
ヤオ,ジャンホア
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2023516930A publication Critical patent/JP2023516930A/ja
Application granted granted Critical
Publication of JP7449400B2 publication Critical patent/JP7449400B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

[関連出願への相互参照]
本願は、2020年07月21日に中国特許局へ出願された、出願番号が202010707497.6であり、発明の名称名称が「空間位置決め方法、装置、デバイス、記憶媒体およびナビゲーションスティック」である中国特許出願の優先権を主張しており、そのすべての内容が、参照により本願に組み込まれる。
[技術分野]
本願は、人工知能の技術分野に関し、特に、空間位置決めに関する。
手術ナビゲーションシステムは、患者の術前や術中の画像データと、手術ベッド上の患者の解剖構造とを正確に対応させ、手術ナビゲーションシステムにおいて、ターゲット位置に対して空間位置決めを行う必要があり、それにより、外科手術をより迅速、より正確、かつより安全にするものである。
従来の空間位置決め方法は、ホスト、トラッカーおよび追跡ツールに頼る必要がある。ここで、トラッカーは、ホストに接続され、トラッカーには、赤外線発光装置および3Dカメラが含まれる。赤外線発光装置は、赤外線を発射して、追跡ツールに固定されている反射球によって反射させた後、3Dカメラにおいてイメージングさせ、その後、追跡ツール上の反射球の位置を参照とすることにより、追跡ツール上の針先に対して位置特定を行う。ここで、追跡ツールは、臨床的には、ナビゲーションスティックとも呼ばれ、トラッカーの追跡範囲内でトラッカーに向かって移動する必要があり、それにより、空間位置決めを完成させる。
これに鑑みて、本願の実施例は、空間位置決め方法、関連装置およびナビゲーションスティックを提供し、空間位置決めの範囲を拡大させ、ナビゲーションスティックの移動の柔軟性を向上させ、空間位置決めのコストを低減させることができる。
上記の目的を達成するために、本願の実施例は、下記の技術的解決案を提供し、即ち、
一態様において、本願の実施例は、空間位置決め方法を提供し、当該方法は、
カメラによってターゲットシーンを撮影して得られた画像を取得するステップであって、前記画像内には、前記ターゲットシーン内に位置するナビゲーションスティックが含まれ、前記ナビゲーションスティックの外面には、前記ナビゲーションスティックに対して位置決めを行うために使用されるマーキングポイントアレイがある、ステップと、
前記画像におけるマーキングポイント情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系における、前記画像に含まれるマーキングポイントの3次元位置座標を決定するステップであって、前記マーキングポイント情報は、前記マーキングポイントアレイにおける、前記画像に含まれるマーキングポイントの位置を表すステップと、
前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定するステップと、
前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の空間変換関係を決定するステップと、
前記ナビゲーションスティックに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標と、前記空間変換関係とに基づいて、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を決定し、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を、前記ナビゲーションスティックの検出対象位置の空間位置情報とするステップと、を含む。
一方、本出願の実施形態は、空間位置決め装置を提供し、当該装置は、
カメラによってターゲットシーンを撮影して得られた画像を取得する画像取得モジュールであって、前記画像内には、前記ターゲットシーン内に位置するナビゲーションスティックが含まれ、前記ナビゲーションスティックの外面には、前記ナビゲーションスティックに対して位置決めを行うために使用されるマーキングポイントアレイがある画像取得モジュールと、
前記画像におけるマーキングポイント情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系における、前記画像に含まれるマーキングポイントの3次元位置座標を決定するマーキング決定モジュールであって、前記マーキングポイント情報は、前記マーキングポイントアレイにおける、前記画像に含まれるマーキングポイントの位置を表すマーキング決定モジュールと、
前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定するカメラ位置決めモジュールと、
前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の空間変換関係を決定する空間変換モジュールと、
前記ナビゲーションスティックに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標と、前記空間変換関係とに基づいて、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を決定し、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を、前記ナビゲーションスティックの検出対象位置の空間位置情報とする固定点位置決めモジュールと、を含む。
また、本出願の実施形態は、コンピュータデバイスを提供し、当該コンピュータデバイスは、プロセッサとメモリを含み、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセットまたは命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセットまたは命令セットは、前記プロセッサによってロードされて実行されることで、上記の空間位置決め方法を実現する。
また、本出願の実施形態は、コンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ読み取り可能な記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセットまたは命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセットまたは命令セットは、プロセッサによってロードされて実行されることで、上記の空間位置決め方法を実現する。
また、本出願の実施形態は、命令を含むコンピュータプログラムを提供し、前記コンピュータプログラムがコンピュータ上で実行されるとき、上記の空間位置決め方法を前記コンピュータに実行させる。
また、本出願の実施形態は、空間位置決め用のナビゲーションスティックを提供し、前記ナビゲーションスティックは、スティック本体と、プローブヘッドと、ハウジングとを含み、
前記プローブヘッドは、前記スティック本体の一端に接続され、空間位置決めの検出対象位置として、上記の空間位置決め方法によって、空間中の任意の1つの点の空間位置情報を決定するものである。
以上のように、本願の実施例によって提供される技術的解決手段は、カメラの撮影範囲を空間位置決め範囲とし、ナビゲーションスティックと端末とによって構成される空間位置決めシステムのみを採用して、カメラが任意の角度で撮影した画像におけるマーキングポイントのマーキングポイント分布形態のマーキングポイント情報を抽出することができ、マーキングポイント情報によって、ナビゲーションスティックに対応する3次元座標系における、この画像に含まれるマーキングポイントの3次元位置座標を決定し、この画像に対応する画像座標系における、マーキングポイントの2次元位置座標と、上記の決定された3次元位置座標とを基として、カメラの位置姿勢を推定し、ナビゲーションスティックに対応する3次元座標系と、画像に対応する画像座標系との間の空間変換関係を得て、上記の空間変換関係に従って、ナビゲーションスティックが所在する検出対象位置に対して空間位置決めを行い、カメラに対応する3次元座標系における検出対象位置の3次元位置座標を得る。これによって、ナビゲーションスティックに対応する3次元座標系と、カメラに対応する3次元座標系との間の空間変換関係を決定することにより、カメラもナビゲーションスティックは、いずれも、任意に移動することができ、これによって、ナビゲーションスティックの移動の柔軟性を向上させ、空間位置決め範囲が拡大され、空間位置決めの柔軟性を向上させ、空間位置決めのコストが低減される。
本願の実施例または既存技術における技術的解決案をより明確に説明するために、以下、実施例または既存技術の説明において必要とされる図面を簡単に説明し、明らかに、以下の説明における図面は、本願の実施例にすぎず、当業者にとって、創造的な努力なしに、これらの図面から他の図面を得ることもできる。
本願の一実施例によって提供される空間位置決めシステムの模式図である。 空間位置決めのためのユーザインターフェースの模式図を例示的に示す図である。 空間距離測定のためのユーザインターフェースの模式図を例示的に示す図である。 空間輪郭線描画のためのユーザインターフェースの模式図を例示的に示す図である。 本願の一実施例によって提供される空間位置決めのためのナビゲーションスティックの模式図である。 マーキングポイントアレイにおけるマーキングポイントの分布形態を示す模式図である。 本願の一実施例によって提供される空間位置決め方法のフローチャートである。 カメライメージングモデルの模式図を例示的に示す図である。 本願の他の実施例によって提供される空間位置決め方法のフローチャートである。 本願の一実施例によって提供される空間位置決め装置のブロック図である。 本願の他の実施例によって提供される空間位置決め装置のブロック図である。 本願の一実施例によって提供されるコンピュータデバイスの構造のブロック図である。
以下では、本願の実施例における図面を参照しながら、本願の実施例における技術的解決案を明確かつ完全に説明し、明らかに、記載された実施例は、全ての実施例ではなく、本願の一部の実施例にすぎない。本願における実施例に基づいて、当業者が創造的な労力をしない前提で取得される他のすべての実施例は、本願の保護の範囲に属するべきである。
人工知能(AI:Artificial Intelligence)は、デジタルコンピュータまたはデジタルコンピュータによって制御されるマシンを使用して、人間の知能をシミュレート、伸長および拡張し、環境を感知し、知識を獲得して、知識を利用することで最適な結果を得るために使用される理論、方法、技術およびオペレーティングシステムである。言い換えれば、人工知能は、コンピュータ科学の総合的な技術であり、知能の本質を理解することを企んで、人間の知能と似ている方式で応答することができる新しい知能マシンを作り出す。人工知能とは、様々な知能マシンの設計原理および実現方法を研究して、マシンに感知、推理および意思決定の機能を持たせることである。
人工知能技術は、総合的な学科であり、幅広い分野に関与しており、ハードウェアレベルの技術もあるし、ソフトウェアレベルの技術もある。人工知能の基礎技術には、一般的に、センサ、専用の人工知能チップ、クラウドコンピューティング、分散型ストレージ、ビッグデータ処理技術、オペレーティング/インタラクションシステム、機電一体化などの技術が含まれている。人工知能ソフトウェア技術には、主に、コンピュータビジョン技術、音声処理技術、自然言語処理技術、および機械学習/深層学習などのいくつかの方向性が含まれている。
コンピュータビジョン(CV:Computer Vision)技術は、どのようにマシンに「観察させる」か、を研究する科学であり、さらに言えば、人間の目の代わりに、カメラとコンピュータを使用して、ターゲットに対して識別したり、追跡したり、測定したりするマシンビジョン技術を指し、さらに、グラフィック処理を行うことにより、人間の目が観察するのにより適することができる画像、または機械に伝送して検出され得る画像としてコンピュータに処理させる。科学の一つ学部門として、コンピュータビジョンは、関連する理論および技術を研究して、画像または多次元データから情報を取得することができる人工知能システムを構築することを試みる。コンピュータビジョン技術には、一般的に、画像処理、画像識別、画像分割、画像意味理解、画像検索、OCR、ビデオ処理、ビデオ意味理解、ビデオコンテンツ/行為識別、三次元オブジェクト再構築、3D技術、仮想現実、強化現実、同期位置決め、地図構築などの技術が含まれており、さらに、よく見受けられる顔識別、指紋識別などの生体特徴識別技術が含まれている。
本願の実施例によって提供される解決案は、人工知能技術のコンピュータ視覚技術に関し、本願の目的、技術的解決案および利点をより明確にするために、以下、図面を参照しながら、本願の実施形態をさらに詳細に説明する。
図1を参照すると、この図は、本願の一実施例によって提供される空間位置決めシステムの模式図を示す。当該空間位置決めシステムは、端末10と、ナビゲーションスティック20とを含み得る。
端末10は、例えば携帯電話、タブレット、ゲームホスト、ウェアラブルデバイス、パーソナルコンピュータ(PC:Personal Computer)などの電子デバイスであり得る。オプションとして、端末10は、例えばAndroid(アンドロイド(登録商標))システムに基づく、タブレットなどのようなリムーバブル端末デバイスであり、従来の空間位置決めシステムに必要なPCやトラッカーの代わりに、上記のリムーバブル端末デバイスを使用することができ、これにより、空間位置決めシステム内のデバイスの数が低減される。オプションとして、上記のリムーバブル端末デバイスとナビゲーションスティック20との間には物理的接続がなくなることにより、従来のPCとトラッカーとの間の有線接続が代替され、例えば、図1に示すように、リムーバブル端末デバイスとナビゲーションスティック20は、無線ネットワークまたはモノインターネット(internet of things)30を介して接続され、しかも、上記のリムーバブル端末デバイスは、トラッカーを必要とせずに、ナビゲーションスティックに対して空間位置決めを行うことができる。
オプションとして、端末10には、アプリケーションプログラムのクライアントがインストールされている。本願の実施例では、上記のアプリケーションプログラムは、ユーザがターゲットシーンにおいてナビゲーションスティックの検出対象位置(例えば、針先位置)に対して空間位置決めを行うように、ターゲットシーンを撮影して得られた画像を表示することができる任意のアプリケーションプログラムであり得る。典型的には、当該アプリケーションプログラムは、神経外科手術ナビゲーションアプリケーションプログラムである。上記の神経外科手術ナビゲーションアプリケーションプログラムは、端末10にインストールされており、神経外科手術ナビゲーション機能を完成するために、ナビゲーションスティックも配置される必要があり、上記のナビゲーションスティックは、神経外科手術シーンにおいて空間位置決めを行うために使用される手術器具である。勿論、神経外科手術ナビゲーションアプリケーションプログラムに加えて、他のタイプのアプリケーションプログラムは、ユーザにターゲットシーンを表示して、空間位置決めの機能を完成することもでき、例えば、仮想現実(VR:Virtual Reality)類アプリケーションプログラム、拡張現実(AR:Augmented Reality)類アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、グラフィック描画類プログラム、モデル描画類アプリケーションプログラムなどであってもよいし、本願の実施例では、これについて限定しない。
また、異なるアプリケーションプログラムによって、そのプログラムによって提供されるターゲットシーンも異なり、また、対応する機能も異なり、これらは、いずれも、実際のニーズに応じて予め設定され得ており、本願の実施例では、これについて限定しない。
上記のナビゲーションスティック20は、空間位置決めのために使用される手術器具である。オプションとして、ナビゲーションスティックの外面には、ナビゲーションスティックに対して位置特定を行うために使用されるマーキングポイントアレイを有する。上記のマーキングポイントアレイは、マーキングポイントが、一定の特徴に従って分布して形成されたアレイであり、それに対応するマーキングポイントの分布形態は、上記の端末10におけるカメラによって撮影された画像内に表示され得ており、また、端末10によって認識され得て、マーキングポイントアレイにおけるマーキングポイントの分布形態によって、上記のナビゲーションスティック20の空間位置情報が取得され得る。
いくつかの実施例では、上記の神経外科手術ナビゲーションアプリケーションプログラムには、空間位置決め機能、空間距離測定機能および空間輪郭線描画機能という3つの機能が含まれている。
一例では、図2を参照すると、この図は、空間位置決めのためのユーザインターフェースの模式図を示す。ユーザインターフェース20には、ターゲットシーン21、オプションボタン22、開始ボタン23および機能切り替えボタン24が含まれている。ここで、ターゲットシーン21には、ナビゲーションスティック25が含まれており、ナビゲーションスティック25の外面には、マーキングポイント26が分布され、マーキングポイントの中心には、検出マーク27が表示されている。ナビゲーションスティックのスティック先28は、空間位置決め場合の検出対象位置であり、ナビゲーションスティックのスティック先28が所在する位置の隣に、ナビゲーションスティックのスティック先28の座標情報29が表示されている。上記の機能ボタン24は、上記の空間位置決め機能、空間距離測定機能および空間輪郭線描画機能を切り替えるために使用されるものである。オプションとして、切り替えボタン24がクリックされるたびに、上記の神経外科手術ナビゲーションアプリケーションプログラムは、機能を切り替える。例えば、機能切り替えボタン24が初回にクリックされると、対応する機能は、空間位置決め機能になり、機能切り替えボタン24が再度クリックされると、対応する機能は、空間距離測定機能になり、機能切り替えボタン24がさらにクリックされると、機能は空間輪郭線描画機能になり、これによって類推すればよい。
一例では、図3を参照すると、この図は、空間距離測定のためのユーザインターフェースの模式図を示す。ここで、ユーザインターフェース20には、ナビゲーションスティックのスティック先28が2つの位置の間を接続するための接続線31と、接続線31に対応する移動距離情報32とが表示されている。
一例では、図4を参照すると、この図は、空間輪郭線描画のためのユーザインターフェースの模式図を示す。ここで、ユーザインターフェース20には、ナビゲーションスティックのスティック先28によって形成された軌跡41が表示されている。オプションとして、ユーザインターフェース20には、軌跡41の長さ情報42が表示されている。
図2~図4では、ナビゲーションスティックの代わりにマーカーペン、ナビゲーションスティックのスティック先位置の代わりにマーカーペンのペン先位置を使用して模式的に説明し、本願では、ナビゲーションスティックの具体的な形状や様式については限定しない。
例示的な実施例では、図2に示すナビゲーションスティック25と、図1に示す端末10とは、神経外科手術ナビゲーションシステムを構成することができる。オプションとして、上記の機能切り替えボタン24は、ナビゲーションスティック25に設けられる。オプションとして、端末10とナビゲーションスティック25との間は、近距離無線通信を介して接続されて、相互に通信可能になる。例えば、ユーザが上記の機能切り替えボタン24を押す場合、ナビゲーションスティック25は、端末10へ機能切り替え信号を送信し、端末10は、上記の機能切り替え信号に応答して、切り替えられた機能に対応するプログラムを実行することにより、ユーザによって選択された機能を実行する。ナビゲーションスティック25に設けられた機能切り替えボタン24を操作することで、上記の3つの機能を切り替えることにより、上記の手術ナビゲーションシステムの使いやすさをさらに向上させる。本願の実施例では、上記の端末10とナビゲーションスティック25との間に使用されるモノインターネット接続技術について限定しない。
図5を参照すると、この図は、本願の実施例によって提供される空間位置決めのためのナビゲーションスティックの模式図を示す。該ナビゲーションスティック50は、スティック本体51と、プローブヘッド52と、ハウジング(図示せず)とを含む。
プローブヘッド52は、スティック本体51の一端に接続される。オプションとして、プローブヘッド52は、針状プローブヘッドであり、プローブヘッドの針先位置を、空間位置決めの検出対象位置として使用し、空間内の任意の1つの点に対して位置決めが実行され、これにより、空間位置決めの正確性を向上させる。オプションとして、プローブヘッド52の材質は、金属材質またはセラミック材質である。オプションとして、スティック本体51は、円柱体または角柱体である。スティック本体51は、円柱体である場合、その外面は、マーキングポイントの分布をより容易にし、マーキングポイントを任意の角度で表示効果を良好にさせ、これにより、マーキングポイントの識別可能性および識別正確性を向上させる。
スティック本体51の内部には、収納キャビティ(図示せず)があり、収納キャビティには、ナビゲーションスティック50を駆動するための回路コンポーネント(図示せず)が配置されている。オプションとして、スティック本体51の内部は、中空構造であり、収納キャビティを有し、上記の収納キャビティは、円柱状の中空空間であり、電源および上記の回路コンポーネントを収納することができる。オプションとして、上記の回路ンポーネントは、回路基板を含む。オプションとして、上記の回路基板は、印刷回路基板(PCB:Printed Circuit Board)またはフレキシブル回路基板(FPC:Flexible Printed Circuit)である。オプションとして、上記の回路コンポーネントには、回路素子または半導体素子、例えば処理チップ、RFアンテナ、抵抗、コンデンサなどの素子が含まれる。
ハウジングは、スティック本体51の外側に套設され、ハウジングの外面には、ナビゲーションスティック50に対して位置決めを行うために使用されるマーキングポイントアレイ54がある。オプションとして、上記のハウジングの形状は、上記のスティック本体51によって決定され、例えば、上記のスティック本体51が円柱状である場合、上記のハウジングは、円柱状のハウジングであり、上記のマーキングポイントアレイ54を分布させ、およびスティック本体51を保護するためのものである。
オプションとして、ハウジングとスティック本体51の間は、取り外し可能に接続される。オプションとして、条件が許容される場合には、ハウジングが別の手術器具の外側に套設され得て、この場合、新しいナビゲーションスティックが形成され得て、これにより、空間位置決めシステムにおけるデバイスの数が効果的に減少され、これによって、本願の実施例によって提供される空間位置決め方法の応用シーンをより豊富にするとともに、製造材料の消費を低減させ、環境保護効果を有する。
オプションとして、マーキングポイントアレイ54には、スティック本体51の軸方向に分布されているn個のマーキングポイント列が含まれ、nは、1よりも大きい整数である。上記のスティック本体51の軸方向とは、スティック本体の中心軸55と平行な方向を指す。オプションとして、マーキングポイントアレイ54におけるマーキングポイント列の数nは、上記のスティック本体51が所在する円柱の半径によって決定され、上記のナビゲーションスティック50を任意の角度で観察する際に少なくとも2列のマーキングポイント列が視認可能であることを保証するために使用される。オプションとして、上記のナビゲーションスティック50を任意の角度で観察する際に3列のマーキングポイント列が視認可能になり、そのうち、1列のマーキングポイント列は、予備のマーキングポイント列である。
オプションとして、任意の2つのマーキングポイント列におけるマーキングポイント53の分布も異なり、マーキングポイント53のマーキングポイント分布形態により、マーキングポイントアレイ54における、マーキングポイント53が所在するマーキングポイント列の位置を判定することができる。
オプションとして、各マーキングポイント列54には、同じ数量のマーキングポイント53が含まれ、かつ、任意の2つのマーキングポイント列54におけるマーキングポイント53の分布も異なる。オプションとして、上記のマーキングポイント53は、アクティブマーキングポイントまたはパッシブマーキングポイントである。上記のアクティブマーキングポイントとは、表示機能の実現に電源が必要とされるマーキングポイントを指す。上記のパッシブマーキングポイントは、電源によるエネルギー供給を必要とせずに、マーキングポイントのパターンやマーキングポイントの使用材料によりマーキング機能を実現する。オプションとして、異なるナビゲーションスティック50におけるマーキングポイント列54のマーキングポイント53の数は異なり、マーキングポイント列のマーキングポイントの数によって、画像における異なるナビゲーションスティック50が区別され得る。マーキングポイント列には、マーキングポイント位置と空席位置が含まれ、マーキングポイント位置には、マーキングポイント53があり、空席位置には、マーキングポイント53がない。任意の2つのマーキングポイント列54におけるマーキングポイント位置および空席位置の分布も異なる。
例示的な実施例では、図6に示すように、それは、マーキングポイントアレイにおけるマーキングポイント分布形態の模式図を示す。ここで、マーキングポイントアレイ60は、6列のマーキングポイント列61を含み、各マーキングポイント列61には、9個の位置62がある。各マーキングポイント列の9個の位置のうち、8個のマーキングポイント位置には、マーキングポイント63が分布されており、1個は、空席位置64であり、空席位置64には、マーキングポイント63が分布していない。マーキングポイント列61における上記の空席位置64の並べ替え位置は、マーキングポイントアレイ60におけるマーキングポイント列61の位置を決定することができ、図6では、1列目のマーキングポイント列の空席位置64は、2番目の位置であり、2列目のマーキングポイント列の空席位置64は、3番目の位置であり、これによって類推すればよい。空席位置64の並べ替え位置が既知であれば、上記の関係に基づいて、マーキングポイントアレイ60における、当該空席位置64が所在するマーキングポイント列61の位置を決定することができる。
オプションとして、上記のナビゲーションスティック50のスティック本体51には、ユーザ操作用のボタン(図示せず)が設けられている。オプションとして、上記のボタンは、機能切り替えボタンであり、上記の機能切り替えボタンは、上記のスティック本体51の他端に設けられており、これにより、空間位置決めシステムの使いやすさを向上させる。
図7を参照すると、この図は、本願の一実施例によって提供される空間位置決め方法のフローチャートを示す。該方法は、コンピュータデバイスに適用され得て、各ステップの実行主体は、図1に示す空間位置決めシステムの端末10であってもよい。該方法は、以下のステップ(701~705)を含み得る。
ステップ701で、カメラによってターゲットシーンを撮影して得られた画像を取得する。
カメラは、光学イメージングの原理を利用して映像を形成し、写真フィルムで映像を記録するデバイスであり、撮影のために使用される光学器具である。現代社会の生活では、例えば医療イメージングデバイスや天文観測デバイスなどのような、映像を記録することができるデバイスは多くあり、それらは、いずれも、カメラの特徴を有する。カメラの光学イメージングシステムは、幾何光学原理に従って設計され、レンズを通じて、背景/物の映像を光線の直線伝播、屈折または反射によって像平面に正確にフォーカスさせる。オプションとして、上記のカメラは、端末に取り付けられてもよい。オプションとして、上記のカメラは、単眼カメラである。本願では、カメラのタイプおよびカメラが取り付けられたコンピュータデバイスのタイプについて限定しない。
ターゲットシーンとは、特定の空間に表示されるシーンを指す。オプションとして、ターゲットシーンは、神経外科手術における実際の物理環境の空間シーンである。
上記の画像は、ターゲットシーンに対する客観的な反映であり、ターゲットシーンにおける物体に関する情報を含み、本実施によって提供される空間位置決め方法の情報ソースである。オプションとして、画像内には、ターゲットシーン内に位置するナビゲーションスティックが含まれており、上記のナビゲーションスティックは、空間位置決めのための手術器具である。オプションとして、ナビゲーションスティックの外面には、ナビゲーションスティックに対して位置決めを行うために使用されるマーキングポイントアレイが設けられている。上記のマーキングポイントアレイは、マーキングポイントが特定の特徴に従って分布し形成されたアレイであり、それに対応するマーキングポイントの分布形態は、上記の画像内に表示され、コンピュータデバイスによって認識され得て、上記のナビゲーションスティックの位置情報は、マーキングポイントアレイにおけるマーキングポイントの分布形態によって取得され得る。
カメラは、カメラモデルに従ってターゲットシーンを撮影して画像を得る。上記のカメラモデルは、カメラが、ターゲットシーンが所在する3次元立体空間を撮影することにより、ターゲットシーンが所在する3次元立体空間を2次元平面画像に投影し、3次元立体空間と2次元平面画像との間のマッピング関係を確立する、ということを指す。
オプションとして、3次元立体空間に対応する座標系は、世界(ワールド)座標系、ローカル座標系、およびカメラ座標系を含む。上記の世界座標系は、空間位置決めシステムの絶対座標系であり、ユーザ座標系が確立される前に画像内の全ての点の座標が、いずれも、この座標系の原点によってそれぞれの位置を決定し得られたものであり、上記のローカル座標系とは、物体の中心を座標原点とし、物体の回転や平行移動などの操作が、いずれも、ローカル座標系に準じて行われるものである、ということを指し、この場合、物体モデルが回転や平行移動などの操作を行う際に、ローカル座標系も、対応する回転や平行移動などの操作を実行する。オプションとして、上記のローカル座標系は、上記のナビゲーションスティックにおける特定の点を座標原点として確立された3次元デカルト座標系である。上記のカメラ座標系は、カメラのフォーカス中心を原点とし、カメラの光軸をZ軸として確立された3次元直交座標系である。
オプションとして、上記の2次元平面画像に対応する座標系は、画像座標系およびイメージング平面座標系を含む。上記の画像座標系とは、画像の左上隅を原点として確立された、画素を単位とする直交座標系u-vを指す。画素の横座標uおよび縦座標vは、それぞれ、画像配列における当該画素が所在する列番号および行番号である。画像座標系では、数字画像における画素が位置する列番号と行番号のみが表示され、画像におけるこの画素の物理的位置が物理単位で表示されておらず、そのため、物理単位(例えばcm)で表示されるイメージング平面座標系x-yを再確立する必要がある。ここで、(x,y)は、物理単位で計測されたイメージング平面座標系の座標を表す。イメージング平面座標系では、原点は、カメラ光軸とイメージング平面との交点において定義され、画像の主点(principal point)と呼ばれ、この点は、一般的には、画像の中心に位置する。
オプションとして、カメラ座標系の原点は、カメラの光心であり、イメージング平面座標系におけるx軸およびy軸は、カメラ座標系におけるX軸およびY軸と平行であり、z軸は、カメラの光軸であり、グラフィック平面と垂直である。カメラの光軸とイメージング平面との交点は、画像座標系の原点であり、画像座標系は、2次元直交座標系である。
図8を参照すると、この図は、カメライメージングモデルの模式図を示す。ナビゲーションスティックは、カメラの光軸中心点O1を通じてイメージング平面に投射され、ナビゲーションスティックに対応するローカル座標系、イメージング平面に対応する画像座標系およびカメラに対応するカメラ座標系を含むカメラモデル(ピンホールモデルとも呼ばれる)が確立される。上記のローカル座標系の座標原点O2は、ナビゲーションスティックにおける、1列目のマーキングポイント列における1番目のマーキングポイントの、円柱の軸心上での投影点であり、上記のカメラ座標系の座標原点は、O点であり、上記の画像座標系の座標原点は、カメラの光軸中心点O1であり、OからO1への距離は、焦点距離fである。ナビゲーションスティックに対応するローカル座標系における、ナビゲーションスティックにおけるマーキングポイントMの座標が(Xw,Yw,Zw)として示され、カメラに対応するカメラ座標系における座標が(Xc,Yc,Zc)として示され、イメージング平面に対応する画像座標系における座標が(x,y)として示される。
ステップ702、画像におけるマーキングポイント情報に基づいて、ナビゲーションスティックに対応する3次元座標系における、画像に含まれるマーキングポイントの3次元位置座標を決定する。
マーキングポイント情報は、マーキングポイントの位置情報を含む。オプションとして、マーキングポイント情報は、マーキングポイントの形状情報をさらに含み、上記のマーキングポイントの形状情報とは、マーキングポイントパターンの形状情報を指す。オプションとして、マーキングポイントのパターンには、円形、四角形、扇形などの1つまたは複数の形状の組み合わせパターンが含まれる。上記のマーキングポイントの位置情報とは、画像におけるマーキングポイントの位置およびマーキングポイントアレイにおけるマーキングポイントの位置を指す。オプションとして、マーキングポイント情報は、画像に含まれるマーキングポイントの、マーキングポイントアレイにおける位置を示すために使用され、ナビゲーションスティックに対応する3次元座標系における、画像に含まれるマーキングポイントの3次元位置座標は、画像におけるマーキングポイント情報に基づいて決定され得る。
ステップ703、画像に対応する画像座標系におけるマーキングポイントの2次元位置座標と、ナビゲーションスティックに対応する3次元座標系におけるマーキングポイントの3次元位置座標とに基づいて、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報を決定する。
オプションとして、画像に対応する画像座標系は、上記の2次元平面画像に対応する座標系に含まれる画像座標系またはイメージング平面座標系である。オプションとして、ナビゲーションスティックに対応する3次元座標系は、ナビゲーションスティックにおけるある点を座標原点として確立されたローカル座標系であり、ここで、マーキングポイントアレイにおける各マーキングポイント列の1番目のマーキングポイントの中心により囲まれた円の円心を座標原点として選出し、座標原点を、ナビゲーションスティックの軸心上に位置させる。
オプションとして、画像に対応する画像座標系におけるマーキングポイントの2次元位置座標、およびナビゲーションスティックに対応する3次元座標系におけるマーキングポイントの3次元位置座標は、マーキングポイントの位置情報である。ここで、画像に対応する画像座標系におけるマーキングポイントの2次元位置座標は、画像におけるマーキングポイントの位置情報であり、ナビゲーションスティックに対応する3次元座標系におけるマーキングポイントの3次元位置座標は、マーキングポイントアレイにおけるマーキングポイントの位置情報である。
オプションとして、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報には、上記のローカル座標系におけるカメラの座標が含まれる。
ステップ704、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報に基づいて、ナビゲーションスティックに対応する3次元座標系と、カメラに対応する3次元座標系との間の空間変換関係を決定する。
上記の空間変換関係とは、2つの座標系間の1対1で対応する関係を指す。オプションとして、ナビゲーションスティックに対応する3次元座標系とカメラに対応する3次元座標系との間の空間変換関係は、上記のローカル座標系と上記のカメラ座標系の間の1対1で対応する関係である。
上記の空間変換関係は、座標変換の根拠であり、座標変換は、空間エンティティに対する位置記述であり、1つの座標システムから別の座標システムに変換するプロセスである。例えば、1つの座標系における1つの点の(1組)座標は、空間変換関係に従って、新しい座標系の(別の組)座標に変換される。ここで、新しい座標系は、元の原座標系と同じタイプの座標系であってもよく、例えば、元の座標軸の平行移動や回転などによって新しい座標系が得られて、また、異なるタイプの座標系であってもよいし、例えば、直交座標系から極座標系などに変わる。
ステップ705で、ナビゲーションスティックに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標と、空間変換関係とに基づいて、カメラに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標を決定し、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を、ナビゲーションスティックの検出対象位置の空間位置情報とする。
ナビゲーションスティックの検出対象位置とは、ナビゲーションスティックに位置し、空間内のある点が所在する位置を表すために使用される検出点を指す。オプションとして、ナビゲーションスティックの検出対象位置は、ナビゲーションスティックの針先やスティック先である。
オプションとして、ナビゲーションスティックに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標は、上記のローカル座標系におけるナビゲーションスティックの針先の座標である。
上記の空間変換関係に従って、ナビゲーションスティックに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標に対して座標変換処理を行い、カメラに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標を得る。
オプションとして、カメラに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標は、上記のカメラ座標系におけるナビゲーションスティックの針先の座標である。
以上のように、本願の実施例によって提供される技術的解決手段は、カメラの撮影範囲を空間位置決め範囲とし、ナビゲーションスティックと端末とによって構成される空間位置決めシステムのみを採用して、カメラが任意の角度で撮影した画像におけるマーキングポイントのマーキングポイント分布形態のマーキングポイント情報を抽出することができ、マーキングポイント情報によって、ナビゲーションスティックに対応する3次元座標系における、この画像に含まれるマーキングポイントの3次元位置座標を決定し、この画像に対応する画像座標系における、マーキングポイントの2次元位置座標と、上記の決定された3次元位置座標とを基として、カメラの位置姿勢を推定し、ナビゲーションスティックに対応する3次元座標系と、画像に対応する画像座標系との間の空間変換関係を得て、上記の空間変換関係に従って、ナビゲーションスティックが所在する検出対象位置に対して空間位置決めを行い、カメラに対応する3次元座標系における検出対象位置の3次元位置座標を得る。これによって、ナビゲーションスティックに対応する3次元座標系と、カメラに対応する3次元座標系との間の空間変換関係を決定することにより、カメラもナビゲーションスティックは、いずれも、任意に移動することができ、これによって、ナビゲーションスティックの移動の柔軟性を向上させ、空間位置決め範囲が拡大され、空間位置決めの柔軟性を向上させ、空間位置決めのコストが低減される。
図9を参照すると、この図は、本願の別の実施例によって提供される空間位置決め方法のフローチャートを示す。該方法は、図1に示すアプリケーションプログラムの実行環境に適用され得る。該方法は、以下のステップ(901~910)を含み得る。
ステップ901で、カメラによってターゲットシーンを撮影して得られた画像を取得する。
ステップ902で、画像に含まれるマーキングポイントの中心を識別する。
画像に対して画像前処理を行う。オプションとして、画像前処理は、階調処理、二値化処理、フィルタリング処理およびノイズ除去処理を含む。
形状情報を利用して、例えば真円度(circularity)、凸性(convexity)、面積(area)、形状やサイズ、慣性比などの情報を利用して、ターゲットシーンにおける非マーキングポイントおよび投影方向からずれたマーキングポイントを除去する。ここで、ターゲットシーンにおける非マーキングポイントは、形状やサイズ、真円度、凸性によって除去され得て、例えば、正六角形の真円度は、正方形よりも高くて、円の真円度は、正六角形よりも高く、投影方向からずれたマーキングポイントは、形状の慣性比によって除去され得る。形状の延伸長さは、上記の慣性比によって計測され得て、例えば、円の場合、この値は1であり、楕円の場合、この値は0~1の間であり、ラインの場合、この値は0である。
オプションとして、画像に含まれるマーキングポイントの中心は、Blob解析によって識別される。上記のBlob解析の目的は、画像内のマーキングポイントに対して検出および解析を行うことで、例えばマーキングポイント位置、形状、方向およびマーキングポイント間のトポロジー関係(即ち、包含関係)などの情報を得る、ということである。マーキングポイントは、これらの情報に基づいて認識され得る。
Blob解析には、主に、以下の画像処理技術が含まれている。
1、画像分割:Blob解析は、実質的には、閉じた形状に対する特徴解析である。Blob解析の前に、画像は、ターゲットとバックグラウンドに分割される。画像分割は、画像処理技術の重要な1種であり、Blob解析では、分割技術として、直接入力、固定ハード閾値、相対ハード閾値、動的ハード閾値、固定ソフト閾値、相対ソフト閾値、画素マッピング、閾値画像を提供する予定である。このうち、固定ソフト閾値および相対ソフト閾値という方法は、空間量子化誤差をある程度で解消し、それにより、ターゲットの特徴量の計算精度を向上させることができる。
2、形態学的操作:形態学的操作の目的は、ノイズポイントによる影響を除去することである。
3、接続性解析:ターゲットを画素レベルから接続成分レベルに変換する。
4、特徴値計算:ターゲットごとに、面積、周長、重心座標などの特徴の特徴量計算を行う。
5、シーン記述:シーンにおけるターゲット間のトポロジー関係を記述する。
ステップ903で、マーキングポイントの中心を通るターゲット直線を検出する。
ターゲット直線は、マーキングポイントの中心を通る数が条件を満たす直線である。上記のマーキングポイントの中心を通る数が条件を満たすことは、マーキングポイントの中心を通る数が閾値を満たすことである。オプションとして、上記の閾値は、マーキングポイント列におけるマーキングポイントの数によって決定される。オプションとして、上記の閾値は、マーキングポイント列におけるマーキングポイントの数である。オプションとして、上記の閾値は、マーキングポイント列におけるマーキングポイントの数および合理的な誤差によって共に決定される。
オプションとして、マーキングポイントの中心を通るターゲット直線は、ハフ変換により検出される。ハフ変換は、特徴検出の1つであり、画像解析、コンピュータ視覚およびデジタル映像処理に広く使用されている。ハフ変換は、物体における特徴、例えば直線を見分けるために使用されるものである。ハフ変換は、画像平面におけるマーキングポイントから、パラメトリック平面におけるマーキングポイントに対応する線を算出し、パラメトリック平面におけるマーキングポイントに対応する線の交差点から、画像平面におけるターゲット直線を算出し、マーキングポイントアレイにおいて上記のターゲット直線は、1列のマーキングポイント列に対応する。
ステップ904で、ターゲット直線に対応するマーキングポイント列のマーキングポイント分布形態を取得する。
ターゲット直線に対応するマーキングポイント列とは、ターゲット直線が通るマーキングポイントによって構成される1列のマーキングポイントであり、上記の画像において、各マーキングポイント列におけるマーキングポイントの数は一定であり、上記のマーキングポイントの中心を通る数を検出することにより、数が条件を満たす直線は、ターゲット直線として決定され、これにより、このターゲット直線が通るマーキングポイントは、マーキングポイントアレイにおいて同一の列に位置すると認定でき、このため、上記の画像において該ターゲット直線は、1列のマーキングポイント列に対応し、該マーキングポイント列におけるマーキングポイントの中心は、該ターゲット直線上にある。
上記のマーキングポイント分布形態とは、マーキングポイントアレイにおいてマーキングポイントが属するマーキングポイント列、および当該マーキングポイント列におけるマーキングポイントの並べ替え位置を指す。
例示的な実施例では、上記のステップ604は、下記のステップによって実現され得る。
ステップ1で、ターゲット直線に対応するマーキングポイント列における第1マーキングポイントを決定する。
第1マーキングポイントとは、ターゲット直線に対応するマーキングポイント列においける、画像において最高または最低位置に位置するマーキングポイントを指す。
一例では、イメージング平面座標系における縦軸座標、即ちy軸座標に基づいて、マーキングポイント列における第1マーキングポイント、即ち、マーキングポイント列における1番目のマーキングポイントを決定する。神経外科手術シーンを例にして、患者の手術的入口切開口が上向きであるため、ナビゲーションスティックを切開口内に入れて空間位置決めを行う際に針先を下向きとし、このため、カメラがイメージングする際に、各マーキングポイント列上の1番目のマーキングポイントの、イメージング平面座標系におけるY値が最大であり、これにより、マーキングポイント列における第1マーキングポイントが判定され得る。
ステップ2で、残りのマーキングポイントと第1マーキングポイントとの間の第1距離を取得する。
上記の残りのマーキングポイントとは、ターゲット直線に対応するマーキングポイント列における、第1マーキングポイント以外の他のマーキングポイントを指す。
画像に対応する画像座標系における、マーキングポイント列におけるマーキングポイントの2次元位置座標に基づいて、第1距離を算出し、第1距離とは、画像座標系において残りのマーキングポイントと第1マーキングポイントとの間の距離を指す。第1距離に基づいて、マーキングポイント列における上記の残りのマーキングポイントの位置並べ替えを判断し、例えば、残りのマーキングポイントのうち、対応する第1距離が最も小さいマーキングポイントが、第1マーキングポイントに最も近い場合、この該マーキングポイントは、第2マーキングポイントとなり、残りの位置並べ替えについては、これによって類推すればよく、最終的に、マーキングポイント列におけるマーキングポイントの位置並べ替えが得られ、ここで、任意のマーキングポイントの所属するマーキングポイント列における並べ替え位置が含まれる。
ステップ3で、ターゲット直線に対応するマーキングポイント列における、隣接するマーキングポイント間の第2距離を取得する。
画像に対応する画像座標系における、マーキングポイント列におけるマーキングポイントの2次元位置座標に基づいて、第2距離を算出し、第2距離とは、画像座標系における、隣接するマーキングポイントの距離である。
第2距離に基づいて、マーキングポイント列における空席位置を判断する。例えば、1つの実施可能なマーキングポイントアレイでは、1列目のマーキングポイント列の空席位置は、マーキングポイント列における2番目の位置にあり、この場合、第1マーキングポイントは、マーキングポイント列の1番目の位置にあり、第2マーキングポイントは、マーキングポイント列の3番目の位置にあり、第1マーキングポイントと第2マーキングポイントとの間の第2距離は、他の隣接するマーキングポイントの間の第2距離よりも大きく、このため、第1マーキングポイントと第2マーキングポイントとの間の第2距離が他の隣接するマーキングポイントの間の第2距離よりも大きいことから、該マーキングポイント列が、図6に示すマーキングポイントアレイにおける1列目のマーキングポイント列であると判断できる。
ステップ905で、マーキングポイント分布形態に基づいて、ターゲット直線に対応するマーキングポイント列のマーキングポイント情報を決定する。
オプションとして、上記のマーキングポイント情報には、マーキングポイントアレイにおける、ターゲット直線に対応するマーキングポイント列の位置と、マーキングポイントアレイにおける、ターゲット直線が通るマーキングポイントの位置とが含まれる。
ステップ906で、マーキングポイント情報に基づいて、ナビゲーションスティックに対応する3次元座標系における、画像に含まれるマーキングポイントの3次元位置座標を決定する。
1つの可能な実施形態では、ナビゲーションスティックに対応する3次元座標系の座標原点は、ナビゲーションスティックが所在する円柱の中心軸上に位置し、z軸は、軸心方向に従って下向きになり、y軸は、マーキングポイントアレイにおける1列目のマーキングポイント列の第1マーキングポイントの中心を指し、x軸は、右手法則に従って決定され得る。この場合、マーキングポイントアレイにおける、マーキングポイントが属するマーキングポイント列の位置に基づいて、ナビゲーションスティックに対応する3次元座標系のx軸およびy軸方向における該マーキングポイントの座標は決定され得る。上記の第1距離と第2距離は、マーキングポイントアレイにおいて固定されているため、マーキングポイント列中におけるマーキングポイントの並べ替え位置に基づいて、ナビゲーションスティックに対応する3次元座標系のz軸方向におけるマーキングポイントの座標は決定され得る。即ち、マーキングポイント情報に基づいて、ナビゲーションスティックに対応する3次元座標系における、画像に含まれるマーキングポイントの3次元位置座標は決定される。
ステップ907で、画像に対応する画像座標系におけるマーキングポイントの2次元位置座標と、ナビゲーションスティックに対応する3次元座標系におけるマーキングポイントの3次元位置座標とに基づいて、カメラに対して姿勢推定処理を行うことで、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報を決定する。
上記の姿勢推定処理とは、ある3次元ターゲット物体の方位および向きを決定することを指し、本願の実施例では、カメラに対して姿勢推定処理を行うことで、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報を決定する。
オプションとして、PnP(Perspective n-Point)を採用してPnP問題の解を求める方法によって、カメラに対して姿勢推定処理を行う。上記のPnP(Perspective n-Point)を採用してPnP問題の解を求める方法とは、カメラに対応するパラメータ、物体点座標、および対応する画素値が既知である場合、3D-2Dマッチングに基づいて、カメラの位置や姿勢を推定することである。本願の実施例では、選出されるカメラによってカメラのパラメータが決定され得て、上記の物体点は、マーキングポイントであり、物体点座標は、ナビゲーションスティックに対応する3次元座標系におけるマーキングポイントの位置情報であり、物体点が対応する画素値は、画像に対応する2次元座標系におけるマーキングポイントの位置情報であり、ナビゲーションスティックに対応する3次元座標系におけるマーキングポイントの位置情報と、画像に対応する2次元座標系におけるマーキングポイントの位置情報とをマッチングさせることにより、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報は決定される。オプションとして、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報には、6個の自由度が含まれ、これらのうち、3つの自由度は、カメラの位置を表し、残りの3つの自由度は、カメラの角度を表す。
ステップ908で、カメラに対応する3次元座標系におけるカメラの位置情報を取得する。
カメラのパラメータ情報を取得する。オプションとして、上記のカメラのパラメータ情報は、カメラのフォーカス中心の情報を含み、カメラ座標系におけるカメラの位置情報、即ち、カメラに対応する3次元座標系におけるカメラの位置情報を決定するために使用されるものである。
ステップ909で、ナビゲーションスティックに対応する3次元座標系におけるカメラの位置情報と、カメラに対応する3次元座標系におけるカメラの位置情報とに基づいて、ナビゲーションスティックに対応する3次元座標系と、カメラに対応する3次元座標系との間の変換行列を得る。
一例では、ナビゲーションスティックによって決定されたローカル座標系におけるカメラの座標と、カメラ座標系におけるカメラの座標とが既知である場合、上記のローカル座標系と、上記のカメラ座標系との間の空間変換関係を求めることができ、上記の空間変換関係は、空間中の同一点に対して、上記のローカル座標系と上記のカメラ座標系の間で座標変換を行うために使用されるものである。オプションとして、空間変換関係には、変換行列が含まれる。
ステップ910で、ナビゲーションスティックに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標と、空間変換関係とに基づいて、カメラに対応する3次元座標系におけるナビゲーションスティックの検出対象位置の3次元位置座標を、ナビゲーションスティックの検出対象位置の空間位置情報として決定する。
以上のように、本願の実施例によって提供される技術的解決手段は、マーキングポイント中心を正確に認識して、マーキングポイント中心間の第1距離と第2距離を算出し、マーキングポイントアレイにおけるマーキングポイントの位置情報を取得し、さらに、マーキングポイントを2次元平面から3次元空間にマッピングさせ、これにより、カメラモデルにおける座標系間の空間変換関係を得るための良好な基礎が確立される。
また、本願の実施例によって提供される技術的解決手段は、マーキングポイントの2次元座標および3次元座標に基づいて、PnPアルゴリズムを利用して、カメラの位置姿勢を推定し、ローカル座標系におけるカメラの位置情報を正確に取得し、これにより、上記の空間変換関係はより正確になり、これによって、正確な空間位置の特定情報が得られる。
例示的な実施例では、上記の画像は、第1画像と第2画像を含み、第1画像および第2画像は、カメラが異なる時点でターゲットシーンを撮影して得られた画像である。上記のステップ910の実行が終了した後、さらに、以下のステップが実行される。
ステップ911で、第1画像におけるナビゲーションスティックの検出対象位置の空間位置情報と、第2画像におけるナビゲーションスティックの検出対象位置の空間位置情報とに基づいて、ナビゲーションスティックの移動距離を決定する。
上記の第1画像に対応する時点は、第1時点であり、第2画像に対応する時点は、第2時点である。
オプションとして、第1画像におけるナビゲーションスティックの針先の座標と、第2画像におけるナビゲーションスティックの針先の座標との間の距離を算出し、ナビゲーションスティックの針先が第1時点から第2時点に移動して生じた位置の変化の直線距離を決定する。
例示的な実施例では、上記の画像は、少なくとも2つの画像フレームを含む。上記のステップ910の実行が終了した後、さらに、以下のステップが実行される。
ステップ912で、画像フレームにおけるナビゲーションスティックの検出対象位置の空間位置情報に基づいて、隣接する画像フレームにおけるナビゲーションスティックの検出対象位置の間の接続線を決定する。
上記の画像フレームとは、ビデオを構成する最小単位を指す。上記の隣接する画像フレームにおけるナビゲーションスティックの検出対象位置の間の接続線は、ナビゲーションスティックの検出対象位置の、隣接する画像フレームの間での位置の変化、即ち、ナビゲーションスティックの検出対象位置の、隣接する画像フレームの間での軌跡を表す。
ステップ913で、隣接する画像フレームにおけるナビゲーションスティックの検出対象位置の間の接続線に基づいて、ナビゲーションスティックの検出対象位置が少なくとも2つの画像フレームにおいて形成された軌跡を得る。
開始画像フレームから終了画像フレームまでの間の隣接する画像フレームにおける、ナビゲーションスティックの検出対象位置の間の接続線の先頭と末尾を接続することにより、ナビゲーションスティックの検出対象位置が開始画像フレームから終了画像フレームまでの間を移動することによって形成された軌跡が得られる。
オプションとして、ステップ914~ステップ915およびステップ912~ステップ913の実行順番が特に限定されていない。例示的な実施例では、上記のステップ913の実行が終了した後、さらに、以下のステップが実行される。
ステップ914で、画像フレームにおけるナビゲーションスティックの検出対象位置の空間位置情報に基づいて、隣接する画像フレームにおけるナビゲーションスティックの検出対象位置の間の接続線の長さを決定する。
上記の隣接する画像フレームにおけるナビゲーションスティックの検出対象位置の間の接続線の長さは、ナビゲーションスティックの検出対象位置の、隣接する画像フレームの間での軌跡の長さである。
ステップ915で、隣接する画像フレームにおけるナビゲーションスティックの検出対象位置の間の接続線の長さに基づいて、ナビゲーションスティックの検出対象位置が少なくとも2つの画像フレームにおいて形成された軌跡の長さを得る。
開始画像フレームから終了画像フレームまでの、隣接する画像フレームにおけるナビゲーションスティックの検出対象位置の間の接続線の長さを加算することにより、ナビゲーションスティックの検出対象位置が開始画像フレームから終了画像フレームまでの間を移動することによって形成された軌跡の長さが得られる。
以上のように、本願の実施例によって提供される技術的解決手段は、検出対象位置に対して空間位置決めを行う方法に基づいて、それを拡張して、空間距離測定および空間輪郭線描画の機能を実現し、空間位置決め方法の応用を豊富にし、ユーザの多元化の需要を満たす。
以下は、本願の装置実施例であり、本願の方法実施例を実行するために使用され得る。本願の装置実施例において開示されていない詳細について、本願の方法実施例を参照する。
図10を参照すると、この図は、本願の一実施例によって提供される空間位置決め装置のブロック図を示す。この装置は、上記の空間位置決め方法を実現する機能を有し、前記機能は、ハードウェアによって実現されてもよく、ハードウェアによって対応するソフトウェアを実行することで実現されてもよい。この装置1000は、画像取得モジュール1010、マーキング決定モジュール1020、カメラ位置決めモジュール1030、空間変換モジュール1040、および固定点位置決めモジュール1050を含むことができる。
画像取得モジュール1010は、カメラによってターゲットシーンを撮影して得られた画像を取得するために使用され、前記画像には、前記ターゲットシーン内に位置するナビゲーションバーが含まれ、前記ナビゲーションバーの外面には、前記ナビゲーションバーに対して位置決めを行うために使用されるマークポイントアレイが設けられる。
マーキング決定モジュール1020は、前記画像におけるマーキングポイント情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系における、前記画像に含まれるマーキングポイントの3次元位置座標を決定するために使用され、前記マーキングポイント情報は、前記マーキングポイントアレイにおける、前記画像に含まれるマーキングポイントの位置を表すために使用される。
カメラ位置決めモジュール1030は、前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定するために使用される。
空間変換モジュール1040は、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の空間変換関係を決定するために使用される。
固定点位置決めモジュール1050は、前記ナビゲーションスティックに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標と、前記空間変換関係とに基づいて、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を、前記ナビゲーションスティックの検出対象位置の空間位置情報として決定するために使用される。
例示的な実施例では、図11を参照すると、前記マーキング決定モジュール1020は、
前記画像に含まれるマーキングポイントの中心を識別するために使用されるマーキング中心識別ユニット1021と、
前記マーキングポイントの中心を通るターゲット直線を検出するために使用されるターゲット直線検出ユニット1022であって、前記ターゲット直線が通る前記マーキングポイントの中心の数が条件を満たすターゲット直線検出ユニット1022と、
前記ターゲット直線に対応するマーキングポイント列のマーキングポイント分布形態を取得するために使用されるマーキング分布取得ユニット1023であって、前記ターゲット直線に対応するマーキングポイント列とは、前記ターゲット直線が通るマーキングポイントによって構成される1列のマーキングポイントを指すマーキング分布取得ユニット1023と、
前記マーキングポイント分布形態に基づいて、前記ターゲット直線に対応するマーキングポイント列のマーキングポイント情報を決定するために使用されるマーキング情報決定ユニット1024であって、前記マーキングポイント情報には、前記マーキングポイントアレイにおける、前記ターゲット直線に対応するマーキングポイント列の位置と、前記マーキングポイントアレイにおける、前記ターゲット直線が通るマーキングポイントの位置とが含まれるマーキング情報決定ユニット1024と、を含む。
例示的な実施例では、図11を参照すると、前記マーキング分布取得ユニット1023は、
前記ターゲット直線に対応するマーキングポイント列における第1マーキングポイントを決定するステップであって、前記第1マーキングポイントとは、前記ターゲット直線に対応するマーキングポイント列における、前記画像において最高または最低位置に位置するマーキングポイントを指すステップと、
残りのマーキングポイントと前記第1マーキングポイントとの間の第1距離を取得するステップであって、前記残りのマーキングポイントとは、前記ターゲット直線に対応するマーキングポイント列における、前記第1マーキングポイント以外の他のマーキングポイントを指し、前記第1間隔とは、前記残りのマーキングポイントと前記第1マーキングポイントとの前記画像座標系での距離を指すステップと、
前記ターゲット直線に対応するマーキングポイント列における、隣接するマーキングポイントの間の第2距離を取得するステップであって、前記第2間隔とは、前記隣接するマーキングポイントの前記画像座標系での距離を指すステップと、を実行するために使用される。
例示的な実施例では、図10を参照すると、前記カメラ位置決めモジュール1030は、
前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記カメラに対して姿勢推定処理を行うことで、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定するステップ、を実行するために使用される。
例示的な実施例では、図10を参照すると、前記空間変換モジュール1040は、
前記カメラに対応する3次元座標系における前記カメラの位置情報を取得するステップと、
前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報と、前記カメラに対応する3次元座標系における前記カメラの位置情報とに基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の変換行列を得るステップであって、前記空間変換関係には、前記変換行列が含まれるステップと、を実行するために使用される。
例示的な実施例では、図11を参照すると、前記画像は、第1画像と第2画像とを含み、前記第1画像および第2画像は、前記カメラが異なる時点で前記ターゲットシーンを撮影して得られた画像である。前記装置1000は、さらに、
前記第1画像における前記ナビゲーションスティックの検出対象位置の空間位置情報と、前記第2画像における前記ナビゲーションスティックの検出対象位置の空間位置情報とに基づいて、前記ナビゲーションスティックの移動距離を決定するために使用される距離位置決めモジュール1060、を含む。
例示的な実施例では、図11を参照すると、前記画像は、少なくとも2つの画像フレームを含み、前記装置1000は、さらに、
前記画像フレームにおける前記ナビゲーションスティックの検出対象位置の空間位置情報に基づいて、隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線を決定するステップと、前記隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線に基づいて、前記少なくとも2つの画像フレームにおいて前記ナビゲーションスティックの検出対象位置によって形成された軌跡を得るステップと、を実行するために使用される軌跡描画モジュール1070、を含む。
例示的な実施例では、図11を参照すると、前記装置1000は、さらに、
前記画像フレームにおける前記ナビゲーションスティックの検出対象位置の空間位置情報に基づいて、前記隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線の長さを決定するステップと、前記隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線の長さに基づいて、前記少なくとも2つの画像フレームにおいて前記ナビゲーションスティックの検出対象位置によって形成された軌跡の長さを得るステップと、を実行するために使用される軌跡算出モジュール1080、を含む。
以上のように、本願の実施例によって提供される技術案は、カメラの撮影範囲を空間位置決め範囲とし、ナビゲーションバーと端末デバイスのみを採用して空間位置決めシステムを構成し、カメラが任意の角度で撮影して得られた画像におけるマーキングポイントのマーキングポイント分布形態を抽出し、マーキングポイントに対応する2次元座標および3次元座標を決定し、それらを基にして、カメラの位置姿勢を推定し、ローカル座標系とカメラ座標系との間の空間変換関係を得て、前記空間変換関係に従って、検出対象位置に対して空間位置決めを行うことができ、これにより、空間位置決めの範囲を拡大させ、空間位置決めの柔軟性を向上させ、空間位置決めのコストを低減させる。
図12を参照すると、この図は、本願の一実施例によって提供される端末1200の構成のブロック図を示す。端末1200は、例えば、携帯電話、タブレット、ゲームホスト、電子書籍リーダー、マルチメディア再生デバイス、ウェアラブルデバイス、PCなどの電子デバイスであってもよい。この端末は、上記の実施例において提供された空間位置決め方法を実施するために使用される。この端末は、図1に示す空間位置決めシステムにおける端末10であってもよい。具体的には、
一般的に、コンピュータデバイス1200は、プロセッサ1201と、メモリ1202とを含む。
プロセッサ1201は、1つまたは複数の処理コアを備えるようにしてよく、例えば、4コアプロセッサ、8コアプロセッサなどである。プロセッサ1201は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Lplogic Array、プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェア形式を採用して実現するようにしてもよい。プロセッサ1201は、メインプロセッサとコプロセッサとを備えるようにしてもよく、メインプロセッサは、起動状態でのデータを処理するためのプロセッサであり、CPU(central processing unit、中央プロセッサ)とも呼ばれ、コプロセッサは、待機状態でのデータを処理するための低消費電力プロセッサである。いくつかの実施例では、プロセッサ1201は、GPU(Graphics Processing Unit、グラフィックスプロセッシングユニット)が集積されているようにしてもよく、GPUは、ディスプレイに表示する必要のあるコンテンツへのレンダリングおよび描画を担当するために使用される。いくつかの実施例では、プロセッサ1201は、AI(Artiphicial Intelligence、人工知能)プロセッサを備えるようにしてもよく、このAIプロセッサは、マシン学習に関するコンピューティング動作を処理するために使用される。
メモリ1202は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を備えるようにしてよく、当該コンピュータ読み取り可能な記憶媒体は、有形で非一時的なものであってもよい。メモリ1202はまた、高速ランダムアクセスメモリと、不揮発性メモリとを備えるようにしてもよく、例えば、1つまたは複数の磁気ディスク記憶デバイス、フラッシュメモリ記憶デバイスなどである。いくつかの実施例では、メモリ1202における非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令、少なくとも1つのプログラム、コードセット、または命令セットが記憶されており、前記少なくとも1つの命令、少なくとも1つのプログラム、コードセットまたは命令セットは、1つまたはプロセッサによってロードされて実行されて、上記の空間位置決め方法を実現する。
いくつかの実施形態では、端末1200は、オプションとして、周辺デバイスインターフェース1203と、少なくとも1つの周辺デバイスとを備えるようにしてもよい。プロセッサ1201、メモリ1202、および周辺デバイスインターフェース1203は、バスまたは信号線を介して接続され得る。各周辺デバイスは、バス、信号線または回路基板を介して周辺デバイスインターフェース1203に接続され得る。具体的には、周辺デバイスには、無線周波数回路1204と、ディスプレイ1205と、カメラコンポーネント1206と、オーディオ回路1207と、位置決めコンポーネント1208と、電源1209とのうちの少なくとも1つが含まれる。
当業者であれば、図12に示す構造は、端末1200に対する限定を構成するものではなく、図示のものより多いかまたは少ないコンポーネントを含んだり、またはいくつかのコンポーネントを組み合わせたり、あるいは異なるコンポーネントの配置を採用したりすることができる、ということを理解することができる。
本願の実施例は、また、コンピュータ読み取り可能な記憶媒体を提供し、前記記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセット、または命令セットが記憶されており、前記少なくとも1つの命令、少なくとも1つのプログラム、コードセットまたは命令セットは、プロセッサによって実行されるとき、上記の空間位置決め方法を実現する。
オプションとして、コンピュータ読み取り可能な記憶媒体は、読み取り専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、ソリッドステートドライブ(SSD:Solid State Drives)、または光ディスクなどを含み得る。ここで、ランダムアクセスメモリは、抵抗式ランダムアクセスメモリ(ReRAM:Resistance Random Access Memory)と、ダイナミックランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)と、を含み得る。
例示的な実施例では、コンピュータ読読み取り可能な記憶媒体に記憶されているコンピュータ命令を含むコンピュータプログラムまたはコンピュータプログラムも提供される。コンピュータデバイスのプロセッサは、コンピュータ読み取り可能な記憶媒体からコンピュータ命令を読み出し、プロセッサは、コンピュータデバイスが上記の空間位置決め方法を実行するようにコンピュータ命令を実行する。
本明細書において言及された「複数」は、2つ以上を意味することが理解されるべきである。「および/または」は、関連オブジェクトの関連関係を記述し、3つの関係が存在し得ることを示し、例えば、Aおよび/またはBは、Aが単独で存在し、AおよびBが同時に存在し、Bが単独で存在する3つの情況を表すことができる。文字“/”は、一般的に、前後の関連オブジェクトが“または”の関係であることを示す。なお、本明細書で説明するステップ番号は、ステップ間の可能な実行前後順の1つのみを例示しており、他の実施例では、上記ステップは、番号順に従って実行されなくてもよく、例えば、2つの異なる番号のステップが同時に実行されたり、2つの異なる番号のステップが図示とは逆の順序で実行されたりしてもよいし、本発明の実施形態では、これに限定されない。
上記は、本開示の例示的な実施例に過ぎず、本願を制限するものではなく、本願の精神および原則の範囲内に、実行されたいかなる修正、均等置換、改善などは、いずれも、本願の保護範囲内に含まれるべきである。

Claims (17)

  1. 端末が実行する空間位置決め方法であって、
    カメラによってターゲットシーンを撮影して得られた画像を取得するステップであって、前記画像内には、前記ターゲットシーン内に位置するナビゲーションスティックが含まれ、前記ナビゲーションスティックの外面には、前記ナビゲーションスティックに対して位置決めを行うために使用されるマーキングポイントアレイがある、ステップと、
    前記画像におけるマーキングポイント情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系における、前記画像に含まれるマーキングポイントの3次元位置座標を決定するステップであって、前記マーキングポイント情報は、前記マーキングポイントアレイにおける、前記画像に含まれるマーキングポイントの位置を表すステップと、
    前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定するステップと、
    前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の空間変換関係を決定するステップと、
    前記ナビゲーションスティックに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標と、前記空間変換関係とに基づいて、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を決定し、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を、前記ナビゲーションスティックの検出対象位置の空間位置情報とするステップと、
    を含み、
    前記方法は、さらに、
    前記画像に含まれるマーキングポイントの中心を識別するステップと、
    前記マーキングポイントの中心を通るターゲット直線を検出するステップであって、前記ターゲット直線が通る前記マーキングポイントの中心の数が条件を満たすステップと、
    前記ターゲット直線に対応するマーキングポイント列のマーキングポイント分布形態を取得するステップであって、前記ターゲット直線に対応するマーキングポイント列とは、前記ターゲット直線が通るマーキングポイントによって構成される1列のマーキングポイントを指すステップと、
    前記マーキングポイント分布形態に基づいて、前記ターゲット直線に対応するマーキングポイント列のマーキングポイント情報を決定するステップであって、前記マーキングポイント情報には、前記マーキングポイントアレイにおける、前記ターゲット直線に対応するマーキングポイント列の位置と、前記マーキングポイントアレイにおける、前記ターゲット直線が通るマーキングポイントの位置とが含まれるステップと、を含むことを特徴とする方法。
  2. 前記ターゲット直線に対応するマーキングポイント列のマーキングポイント分布形態を取得する前記ステップは、
    前記ターゲット直線に対応するマーキングポイント列における第1マーキングポイントを決定するステップであって、前記第1マーキングポイントとは、前記ターゲット直線に対応するマーキングポイント列における、前記画像において最高または最低位置に位置するマーキングポイントを指すステップと、
    残りのマーキングポイントと前記第1マーキングポイントとの間の第1距離を取得するステップであって、前記残りのマーキングポイントとは、前記ターゲット直線に対応するマーキングポイント列における、前記第1マーキングポイント以外の他のマーキングポイントを指し、第1間隔とは、前記残りのマーキングポイントと前記第1マーキングポイントとの前記画像座標系での距離を指すステップと、
    前記ターゲット直線に対応するマーキングポイント列における、隣接するマーキングポイントの間の第2距離を取得するステップであって、第2間隔とは、前記隣接するマーキングポイントの前記画像座標系での距離を指すステップと、を含む、
    ことを特徴とする請求項に記載の方法。
  3. 前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定する前記ステップは、
    前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記カメラに対して姿勢推定処理を行うことで、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定するステップ、を含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の空間変換関係を決定する前記ステップは、
    前記カメラに対応する3次元座標系における前記カメラの位置情報を取得するステップと、
    前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報と、前記カメラに対応する3次元座標系における前記カメラの位置情報とに基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の変換行列を得るステップと、を含み、
    ここで、前記空間変換関係には、前記変換行列が含まれる、
    ことを特徴とする請求項1に記載の方法。
  5. 第1画像および第2画像は、前記カメラが異なる時点で前記ターゲットシーンを撮影して得られた画像であり、前記方法は、さらに、
    前記第1画像における前記ナビゲーションスティックの検出対象位置の空間位置情報と、前記第2画像における前記ナビゲーションスティックの検出対象位置の空間位置情報とに基づいて、前記ナビゲーションスティックの移動距離を決定するステップ、を含む、
    ことを特徴とする請求項1~のいずれか1項に記載の方法。
  6. 前記画像は、少なくとも2つの画像フレームを含み、前記方法は、さらに、
    前記画像フレームにおける前記ナビゲーションスティックの検出対象位置の空間位置情報に基づいて、隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線を決定するステップと、
    前記隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線に基づいて、前記少なくとも2つの画像フレームにおいて前記ナビゲーションスティックの検出対象位置によって形成された軌跡を得るステップと、をさらに含む、
    ことを特徴とする請求項1~のいずれか1項に記載の方法。
  7. 前記方法は、さらに、
    前記画像フレームにおける前記ナビゲーションスティックの検出対象位置の空間位置情報に基づいて、前記隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線の長さを決定するステップと、
    前記隣接する画像フレームにおける前記ナビゲーションスティックの検出対象位置の間の接続線の長さに基づいて、前記少なくとも2つの画像フレームにおいて前記ナビゲーションスティックの検出対象位置によって形成された軌跡の長さを得るステップと、を含む、
    ことを特徴とする請求項に記載の方法。
  8. 前記カメラは、単眼カメラである、
    ことを特徴とする請求項1~のいずれか1項に記載の方法。
  9. 空間位置決め装置であって、
    カメラによってターゲットシーンを撮影して得られた画像を取得する画像取得モジュールであって、前記画像内には、前記ターゲットシーン内に位置するナビゲーションスティックが含まれ、前記ナビゲーションスティックの外面には、前記ナビゲーションスティックに対して位置決めを行うために使用されるマーキングポイントアレイがある画像取得モジュールと、
    前記画像におけるマーキングポイント情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系における、前記画像に含まれるマーキングポイントの3次元位置座標を決定するマーキング決定モジュールであって、前記マーキングポイント情報は、前記マーキングポイントアレイにおける、前記画像に含まれるマーキングポイントの位置を表すマーキング決定モジュールと、
    前記画像に対応する画像座標系における前記マーキングポイントの2次元位置座標と、前記ナビゲーションスティックに対応する3次元座標系における前記マーキングポイントの3次元位置座標とに基づいて、前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報を決定するカメラ位置決めモジュールと、
    前記ナビゲーションスティックに対応する3次元座標系における前記カメラの位置情報に基づいて、前記ナビゲーションスティックに対応する3次元座標系と、前記カメラに対応する3次元座標系との間の空間変換関係を決定する空間変換モジュールと、
    前記ナビゲーションスティックに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標と、前記空間変換関係とに基づいて、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を決定し、前記カメラに対応する3次元座標系における前記ナビゲーションスティックの検出対象位置の3次元位置座標を、前記ナビゲーションスティックの検出対象位置の空間位置情報とする固定点位置決めモジュールと、
    を含み、
    前記マーキング決定モジュールは、
    前記画像に含まれるマーキングポイントの中心を識別するために使用されるマーキング中心識別ユニットと、
    前記マーキングポイントの中心を通るターゲット直線を検出するために使用されるターゲット直線検出ユニットであって、前記ターゲット直線が通る前記マーキングポイントの中心の数が条件を満たす、ターゲット直線検出ユニットと、
    前記ターゲット直線に対応するマーキングポイント列のマーキングポイント分布形態を取得するために使用されるマーキング分布取得ユニットであって、前記ターゲット直線に対応するマーキングポイント列とは、前記ターゲット直線が通るマーキングポイントによって構成される1列のマーキングポイントを指す、マーキング分布取得ユニットと、
    前記マーキングポイント分布形態に基づいて、前記ターゲット直線に対応するマーキングポイント列のマーキングポイント情報を決定するために使用されるマーキング情報決定ユニットであって、前記マーキングポイント情報には、前記マーキングポイントアレイにおける、前記ターゲット直線に対応するマーキングポイント列の位置と、前記マーキングポイントアレイにおける、前記ターゲット直線が通るマーキングポイントの位置とが含まれるマーキング情報決定ユニットと、を含むことを特徴とする装置。
  10. コンピュータデバイスであって、
    前記コンピュータデバイスは、プロセッサとメモリを含み、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセットまたは命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセットまたは命令セットは、前記プロセッサによってロードされて実行されることで、請求項1~のいずれか1項に記載の空間位置決め方法を実現する、
    ことを特徴とするコンピュータデバイス。
  11. コンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ読み取り可能な記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセットまたは命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセットまたは命令セットは、プロセッサによってロードされて実行されることで、請求項1~のいずれか1項に記載の空間位置決め方法を実現する、
    ことを特徴とする記憶媒体。
  12. 命令を含むコンピュータプログラムであって、
    前記コンピュータプログラムがコンピュータ上で実行されるとき、請求項1~のいずれか1項に記載の空間位置決め方法を前記コンピュータに実行させる、
    ことを特徴とするコンピュータプログラム。
  13. 空間位置決め用のナビゲーションスティックであって、前記ナビゲーションスティックは、スティック本体と、プローブヘッドと、ハウジングとを含み、
    前記プローブヘッドは、前記スティック本体の一端に接続され、空間位置決めの検出対象位置として、請求項1~のいずれか1項に記載の空間位置決め方法によって、空間中の任意の1つの点の空間位置情報を決定するものである、
    ことを特徴とするナビゲーションスティック。
  14. 前記スティック本体の内部には、収納キャビティがあり、前記収納キャビティには、前記ナビゲーションスティックを駆動するための回路コンポーネントが配置されており、
    前記ハウジングは、前記スティック本体の外側に套設され、前記ハウジングの外面には、前記ナビゲーションスティックに対して位置決めを行うために使用されるマーキングポイントアレイがある、
    ことを特徴とする請求項13に記載のナビゲーションスティック。
  15. 前記マーキングポイントアレイには、前記スティック本体の軸方向に分布されているn個のマーキングポイント列が含まれ、前記nは、1よりも大きい整数であり、
    前記n個のマーキングポイント列には、同じ数量のマーキングポイントが含まれ、かつ、任意の2つのマーキングポイント列におけるマーキングポイントの分布も異なる、
    ことを特徴とする請求項13に記載のナビゲーションスティック。
  16. 前記マーキングポイント列には、マーキングポイント位置と空席位置とが含まれ、前記マーキングポイント位置には、前記マーキングポイントがあり、前記空席位置には、前記マーキングポイントがなく、
    任意の2つのマーキングポイント列における前記マーキングポイント位置および前記空席位置の分布も異なる、
    ことを特徴とする請求項15に記載のナビゲーションスティック。
  17. 前記ハウジングと前記スティック本体の間は、取り外し可能に接続される、
    請求項1316のいずれか1項に記載のナビゲーションスティック。

JP2022550861A 2020-07-21 2021-06-08 空間位置決め方法、関連装置およびナビゲーションスティック Active JP7449400B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010707497.6A CN111821025B (zh) 2020-07-21 2020-07-21 空间定位方法、装置、设备、存储介质以及导航棒
CN202010707497.6 2020-07-21
PCT/CN2021/098817 WO2022017022A1 (zh) 2020-07-21 2021-06-08 空间定位方法、相关装置以及导航棒

Publications (2)

Publication Number Publication Date
JP2023516930A JP2023516930A (ja) 2023-04-21
JP7449400B2 true JP7449400B2 (ja) 2024-03-13

Family

ID=72923901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550861A Active JP7449400B2 (ja) 2020-07-21 2021-06-08 空間位置決め方法、関連装置およびナビゲーションスティック

Country Status (5)

Country Link
US (1) US20220273376A1 (ja)
EP (1) EP4169471A4 (ja)
JP (1) JP7449400B2 (ja)
CN (1) CN111821025B (ja)
WO (1) WO2022017022A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111821025B (zh) * 2020-07-21 2022-05-13 腾讯科技(深圳)有限公司 空间定位方法、装置、设备、存储介质以及导航棒
CN112733840A (zh) * 2020-12-28 2021-04-30 歌尔光学科技有限公司 耳机定位方法、终端设备及存储介质
CN113133829B (zh) * 2021-04-01 2022-11-01 上海复拓知达医疗科技有限公司 一种手术导航系统、方法、电子设备和可读存储介质
CN114148096B (zh) * 2021-11-05 2023-04-28 武汉逸飞激光股份有限公司 圆柱电芯端盖打码方法、装置、电子设备及存储介质
CN114209433B (zh) * 2021-12-31 2023-09-05 杭州三坛医疗科技有限公司 一种手术机器人导航定位装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204739A (ja) 2000-01-27 2001-07-31 Olympus Optical Co Ltd 顕微鏡下手術支援システム
JP2001293007A (ja) 2000-04-12 2001-10-23 Olympus Optical Co Ltd 手術ナビゲーション装置
US20090325135A1 (en) 2008-06-27 2009-12-31 Eped Inc. Dental clinical and simulation training tracking system and its method of evaluation
CN101862220A (zh) 2009-04-15 2010-10-20 中国医学科学院北京协和医院 基于结构光图像的椎弓根内固定导航手术系统和方法
JP2014170374A (ja) 2013-03-04 2014-09-18 Kddi Corp 光学式シースルー型hmdを用いたarシステム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2652928B1 (fr) * 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
US5617857A (en) * 1995-06-06 1997-04-08 Image Guided Technologies, Inc. Imaging system having interactive medical instruments and methods
US9526587B2 (en) * 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
CN101697869B (zh) * 2009-10-19 2011-06-15 沈国芳 手术导航用固定支架
JP6159030B2 (ja) * 2013-08-23 2017-07-05 ストライカー ヨーロピアン ホールディングス I,エルエルシーStryker European Holdings I,Llc 外科ナビゲーションのための座標変換を決定するコンピュータ実施技術
CA2938359A1 (en) * 2014-02-10 2015-08-13 Navigate Surgical Technologies, Inc. System and method for determining the three-dimensional location and orientation of identification markers
JP6755461B2 (ja) * 2014-11-25 2020-09-16 株式会社NeU 計測システム、頭部装着装置、プログラム、およびサービス提供方法
WO2016154557A1 (en) * 2015-03-26 2016-09-29 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
CN105852970B (zh) * 2016-04-29 2019-06-14 北京柏惠维康科技有限公司 神经外科机器人导航定位系统及方法
US11071593B2 (en) * 2017-07-14 2021-07-27 Synaptive Medical Inc. Methods and systems for providing visuospatial information
CN207898557U (zh) * 2017-09-15 2018-09-25 苏州肯美特设备集成有限公司 一种镂空牙科导航定位器
CN107874832B (zh) * 2017-11-22 2020-03-10 合肥美亚光电技术股份有限公司 骨科手术器械导航系统及方法
CN109000582B (zh) * 2018-03-15 2021-07-02 杭州思看科技有限公司 跟踪式三维扫描装置的扫描方法及系统、存储介质、设备
CN108765494B (zh) * 2018-05-21 2021-12-24 南昌航空大学 一种基于圆柱体标定物的多相机标定方法
CN110547872B (zh) * 2019-09-23 2021-08-10 重庆博仕康科技有限公司 手术导航注册系统
CN111821025B (zh) * 2020-07-21 2022-05-13 腾讯科技(深圳)有限公司 空间定位方法、装置、设备、存储介质以及导航棒

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204739A (ja) 2000-01-27 2001-07-31 Olympus Optical Co Ltd 顕微鏡下手術支援システム
JP2001293007A (ja) 2000-04-12 2001-10-23 Olympus Optical Co Ltd 手術ナビゲーション装置
US20090325135A1 (en) 2008-06-27 2009-12-31 Eped Inc. Dental clinical and simulation training tracking system and its method of evaluation
CN101862220A (zh) 2009-04-15 2010-10-20 中国医学科学院北京协和医院 基于结构光图像的椎弓根内固定导航手术系统和方法
JP2014170374A (ja) 2013-03-04 2014-09-18 Kddi Corp 光学式シースルー型hmdを用いたarシステム

Also Published As

Publication number Publication date
EP4169471A1 (en) 2023-04-26
JP2023516930A (ja) 2023-04-21
CN111821025B (zh) 2022-05-13
CN111821025A (zh) 2020-10-27
EP4169471A4 (en) 2024-01-24
WO2022017022A1 (zh) 2022-01-27
US20220273376A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
JP7449400B2 (ja) 空間位置決め方法、関連装置およびナビゲーションスティック
Zhao et al. Tracking-by-detection of surgical instruments in minimally invasive surgery via the convolutional neural network deep learning-based method
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
Pintaric et al. Affordable infrared-optical pose-tracking for virtual and augmented reality
CN110807451B (zh) 人脸关键点检测方法、装置、设备及存储介质
WO2019179441A1 (zh) 智能设备的焦点跟随方法、装置、智能设备及存储介质
JP2021527877A (ja) 3次元人体姿勢情報の検出方法および装置、電子機器、記憶媒体
WO2015186436A1 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
CN106485735A (zh) 基于立体视觉技术的人体目标识别与跟踪方法
JP2009536731A (ja) 深度マップによるヒューマノイド形状のモデル化
US11170246B2 (en) Recognition processing device, recognition processing method, and program
CN113782159B (zh) 医学图像标记点匹配方法、装置、电子设备及存储介质
JP2016014954A (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
CN116051631A (zh) 光斑标注方法及系统
CN106650628A (zh) 一种基于三维k曲率的指尖检测方法
Li et al. A vision-based navigation system with markerless image registration and position-sensing localization for oral and maxillofacial surgery
Guler et al. Landmarks inside the shape: Shape matching using image descriptors
Watanabe et al. Parameter identification of depth-depth-matching algorithm for liver following
Wang et al. Real-time robust individual X point localization for stereoscopic tracking
CN115063607A (zh) 切割轮廓的确定方法、装置、设备、存储介质及程序产品
Nonaka et al. Capturing a surgical area using multiple depth cameras mounted on a robotic mechanical system
Itabashi et al. Smart Surgical Light: Identification of Surgical Field States Using Time of Flight Sensors
Wan et al. Research on Robot Monocular Vision-Based 6DOF Object Positioning and Grasping Approach Combined With Image Generation Technology
JP2006064585A (ja) 画像処理方法、画像処理装置
CN115222826B (zh) 结构光和相机相对位姿可改变的三维重建方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240301

R150 Certificate of patent or registration of utility model

Ref document number: 7449400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150