JP6095032B1 - Composite image presentation system - Google Patents
Composite image presentation system Download PDFInfo
- Publication number
- JP6095032B1 JP6095032B1 JP2016041611A JP2016041611A JP6095032B1 JP 6095032 B1 JP6095032 B1 JP 6095032B1 JP 2016041611 A JP2016041611 A JP 2016041611A JP 2016041611 A JP2016041611 A JP 2016041611A JP 6095032 B1 JP6095032 B1 JP 6095032B1
- Authority
- JP
- Japan
- Prior art keywords
- position information
- optical
- marker
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000002131 composite material Substances 0.000 title claims description 64
- 230000003287 optical effect Effects 0.000 claims abstract description 259
- 239000003550 marker Substances 0.000 claims abstract description 227
- 238000006243 chemical reaction Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims description 46
- 238000005259 measurement Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 abstract description 23
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 48
- 239000000523 sample Substances 0.000 description 28
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 230000005389 magnetism Effects 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Images
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】光学マーカ主体で、1台のカメラで撮像された現時点のカメラ画像に基づくデータを補完し、実空間内の光学マーカとHMDの全体座標系における3次元位置情報を簡易に且つ精度良く検出すること。【解決手段】合成画像提示システムは、HMD11に取り付けられたカメラ18を利用して、実空間内の所定部位に配置された光学マーカ24の局所座標系におけるローカル位置情報を検出する光学トラッキング手段21と、光学マーカ24とHMD11について、全体座標系におけるグローバル位置情報を求める座標変換手段32とを有している。座標変換手段32では、複数医師Dのカメラ18で同時撮像されたカメラ画像と、過去に撮像されたカメラ画像との少なくとも一方を利用し、各カメラ画像に撮像された複数の光学マーカ24のローカル位置情報から、全ての光学マーカ24間の相対位置関係を特定した上で、各光学マーカ24におけるグローバル位置情報が求められる。【選択図】 図1The present invention is an optical marker-based method that complements data based on the current camera image captured by a single camera, and enables easy and accurate three-dimensional position information in the entire coordinate system of the optical marker and HMD in real space. To detect. An optical tracking means for detecting local position information in a local coordinate system of an optical marker arranged at a predetermined site in real space using a camera attached to an HMD. In addition, the optical marker 24 and the HMD 11 have coordinate conversion means 32 for obtaining global position information in the entire coordinate system. The coordinate conversion unit 32 uses at least one of a camera image simultaneously captured by the cameras 18 of the plurality of doctors D and a camera image captured in the past, and localizes the plurality of optical markers 24 captured in each camera image. After specifying the relative positional relationship between all the optical markers 24 from the position information, global position information for each optical marker 24 is obtained. [Selection] Figure 1
Description
本発明は、外界の実空間の一部に他で取得した重畳画像を重ね合わせた合成画像を生成し、当該合成画像をユーザに視認させるための合成画像提示システムに関する。 The present invention relates to a composite image presentation system for generating a composite image obtained by superimposing a superposed image acquired elsewhere on a part of a real space in the outside world and allowing a user to visually recognize the composite image.
近年、仮想現実感(VR:Virtual Reality)や拡張現実感(AR:Augmented Reality)の技術について、他の様々な分野への応用が検討されている。AR技術の医療分野への応用としては、所定の重畳画像を外界の実空間を撮像したカメラ画像に重ね合わせてユーザに視認させるビデオシースルータイプのヘッドマウントディスプレイを利用し、医療教育支援や低侵襲手術支援等を行うシステムが研究されている。当該システムとしては、例えば、ヘッドマウントディスプレイを装着した医師が穿刺等を行う際に用いられ、ヘッドマウントディスプレイに取り付けられたビデオカメラにより撮像された医師の視野のカメラ画像に、超音波診断装置のプローブが当てられた患者の患部の超音波画像が重ね合わされた状態で医師に視認させるシステムがある(例えば、非特許文献1参照)。 In recent years, applications of various technologies such as virtual reality (VR) and augmented reality (AR) have been studied. As an application of AR technology to the medical field, a video see-through type head-mounted display that allows a user to visually superimpose a predetermined superimposed image on a camera image obtained by capturing a real space in the outside world is used to provide medical education support and minimal invasiveness. Systems that support surgery are being studied. As the system, for example, a doctor wearing a head-mounted display is used when performing puncture or the like, and a camera image of a doctor's field of view captured by a video camera attached to the head-mounted display is used for an ultrasonic diagnostic apparatus. There is a system in which a doctor visually recognizes an ultrasound image of an affected area of a patient to which a probe is applied (see, for example, Non-Patent Document 1).
この非特許文献1のシステムでは、プローブの位置や向きに応じ、カメラ画像に超音波画像が重畳される。この際に必要なプローブの3次元位置情報を取得するために、プローブに光学マーカを取り付け、当該光学マーカをビデオカメラで撮像することにより、カメラ画像内の光学マーカの状態から、ビデオカメラと光学マーカの相対的な位置関係を求める手法が非特許文献1に提案されている。
In the system of Non-Patent
当該非特許文献1の手法のように、光学マーカがプローブのみに取り付けられている場合、1つの光学マーカとビデオカメラとの相対位置関係しか分からず、実空間内の定点を原点とした全体座標系における光学マーカの3次元位置情報を把握することができない。そのため、患者の患部の所定範囲に沿ってプローブを動かしてビーム走査し、当該ビーム走査時におけるプローブの3次元位置情報を所定時間毎に計測し、各時刻の超音波画像データとその際のプローブの3次元位置情報を対応させたボリュームデータを取得するニーズ等がある場合に、非特許文献1の手法では、医師の頭部に装着されたビデオカメラの位置や姿勢を固定しながらビーム走査をする必要があり、一定精度のボリュームデータを取得することが困難になる。
When the optical marker is attached only to the probe as in the method of Non-Patent
そこで、非特許文献2には、ヘッドマウントディスプレイとプローブに磁気マーカをそれぞれ取り付け、様々な強さの磁界を発生する磁気基地局からの磁界の変化を磁気マーカで検知し、磁気基地局を基準とした座標系を全体座標系としてヘッドマウントディスプレイとプローブの3次元位置情報を検出する手法が提案されている。
Therefore, in
更に、非特許文献3には、非特許文献1の手法に対して、患者の周囲に複数の光学マーカを更に固定配置し、当該固定配置された光学マーカとプローブに設けられた光学マーカとを用いて、全体座標系における各光学マーカの3次元位置情報を検出する手法が提案されている。
Further, in
しかしながら、前記非特許文献2のように磁気を利用したシステムにおいては、周囲に存在する金属に非常に弱く、金属部品を多く含む環境下での使用では、検出誤差が大きくなり、頻繁なキャリブレーションが必要になる他、磁気基地局と磁気マーカとの距離が大きくなるほど誤差が大きくなる。また、前記非特許文献3の手法では、ヘッドマウントディスプレイを装着している医師自身のカメラで、実空間内を移動するプローブに設けられた光学マーカに加え、固定配置された光学マーカの少なくとも1つが常に撮像されていなければ、全体座標系におけるプローブの3次元位置を特定することができず、この際、カメラ画像に重畳画像を重畳できなくなる。従って、このような事態を回避するためには、プローブがどこに移動しても、プローブが撮像されたカメラ画像内に、固定配置された光学マーカの少なくとも1つが撮像されるように、多数の光学マーカを実空間の至る場所に配置する必要が生じる。そして、固定配置された各光学マーカの間の相対位置関係を特定するために、医師が装着している1台のカメラで、固定配置された全ての光学マーカを撮像する事前作業が必要となり煩雑である。
However, in the system using magnetism as described in Non-Patent
本発明は、このような課題に着目して案出されたものであり、その目的は、光学マーカを主体とし、1台のカメラで撮像された現時点のカメラ画像に基づくデータを補完し、実空間に存在する光学マーカとヘッドマウントディスプレイの全体座標系における3次元位置情報を簡易に且つ精度良く検出することで、所望の状態の合成画像を確実に生成できる合成画像提示システムを提供することにある。 The present invention has been devised by paying attention to such a problem. The object of the present invention is to supplement data based on the current camera image captured by one camera, mainly using an optical marker, and To provide a composite image presentation system capable of reliably generating a composite image in a desired state by easily and accurately detecting three-dimensional position information in an entire coordinate system of an optical marker and a head mounted display existing in space. is there.
前記目的を達成するため、本発明は、主として、ユーザに装着され、当該ユーザの視界に存在する実空間の画像を撮像するカメラが取り付けられたヘッドマウントディスプレイに対し、別途取得された重畳画像を実空間の一部領域に重ねた状態でユーザに視認させる合成画像を提示する合成画像提示システムにおいて、前記実空間内の所定部位の3次元位置情報を検出する位置情報検出装置と、当該位置情報検出装置によって検出された3次元位置情報に基づき、前記合成画像を生成して前記ヘッドマウントディスプレイに提示する処理装置とを備え、前記位置情報検出装置は、前記カメラで撮像されたカメラ画像を利用して前記所定部位における3次元位置情報を検出する光学トラッキング手段を備え、前記光学トラッキング手段は、複数存在する前記所定部位にそれぞれ設置される光学マーカと、前記カメラ画像に撮像された前記各光学マーカの画像状態を認識することにより、これら各光学マーカについて、前記カメラの定点を原点とした局所座標系における3次元位置情報であるローカル位置情報を検出する光学マーカ検出部とを備え、前記処理装置は、前記ローカル位置情報から、前記所定部位及び前記ヘッドマウントディスプレイについて、前記実空間内の定点を原点とした全体座標系における3次元位置情報であるグローバル位置情報を求める座標変換手段と、前記グローバル位置情報に基づき前記合成画像を生成する合成画像生成手段とを備え、前記座標変換手段では、前記カメラでの撮像位置及び/又は撮像タイミングの異なる複数の前記カメラ画像を利用し、当該各カメラ画像に撮像された複数の前記光学マーカの前記ローカル位置情報から、全ての前記光学マーカ間の相対位置関係を特定した上で、少なくとも1つの前記光学マーカと前記全体座標系の原点との相対位置関係に基づき、前記各光学マーカにおける前記グローバル位置情報を求める、という構成を採っている。 In order to achieve the above object, the present invention mainly provides a superimposed image acquired separately on a head mounted display attached to a user and attached with a camera that captures an image of real space existing in the user's field of view. In a composite image presentation system that presents a composite image to be visually recognized by a user in a state of being superimposed on a partial area of real space, a position information detection device that detects three-dimensional position information of a predetermined part in the real space, and the position information A processing device that generates the composite image based on the three-dimensional position information detected by the detection device and presents the composite image on the head-mounted display. The position information detection device uses a camera image captured by the camera. And optical tracking means for detecting three-dimensional position information at the predetermined part, and the optical tracking means includes a plurality of optical tracking means. By recognizing the image state of each optical marker imaged in the camera image and each optical marker installed at each of the predetermined portions, local coordinates with the camera fixed point as the origin for each of these optical markers An optical marker detection unit that detects local position information that is three-dimensional position information in the system, and the processing device determines a fixed point in the real space for the predetermined part and the head mounted display from the local position information. Coordinate conversion means for obtaining global position information which is three-dimensional position information in the global coordinate system as the origin, and composite image generation means for generating the composite image based on the global position information, in the coordinate conversion means, Using a plurality of the camera images having different imaging positions and / or imaging timings with the camera, After specifying the relative positional relationship between all the optical markers from the local position information of the plurality of optical markers captured in each camera image, at least one optical marker and the origin of the global coordinate system The global position information for each optical marker is obtained based on the relative positional relationship.
なお、本明細書及び特許請求の範囲において、「3次元位置情報」とは、所定の座標系における直交3軸における3次元位置に、当該直交3軸回りの回転角度である傾きを加えた情報を意味する。「3次元位置情報の座標成分」とは、3次元位置(x,y,z)と、回転角度(α,β,γ)の6成分を意味する。 In the present specification and claims, the “three-dimensional position information” is information obtained by adding a tilt, which is a rotation angle around the three orthogonal axes, to the three-dimensional position in the three orthogonal axes in a predetermined coordinate system. Means. The “coordinate component of the three-dimensional position information” means six components of a three-dimensional position (x, y, z) and a rotation angle (α, β, γ).
本発明によれば、過去のカメラ画像や他のユーザが撮像したカメラ画像をも用いて、1のカメラで撮像されたカメラ画像に基づくデータを補完し、実空間に存在する光学マーカとヘッドマウントディスプレイのグローバル位置情報を簡易に且つ精度良く検出することができる。これにより、ユーザが撮像したカメラ画像内の光学マーカの位置や向きに対応して、カメラ画像の所定位置に重畳画像を正確に重ね合わせることができる。また、光学マーカ主体で前記グローバル位置情報を検出することができ、事前準備として、磁気を用いたセンシングシステム等における原点位置のキャリブレーション作業が不要で、固定配置された光学マーカをユーザが事前にカメラで撮像するだけで、システムの使用が可能となる。更に、あるユーザのカメラ画像に撮像されていないが、他のユーザのカメラ画像に撮像された光学マーカの認識結果を共用することができ、必ずしも、一人のユーザのカメラで全ての光学マーカを撮像する必要がなく、事前作業の短縮化を図ることができるとともに、固定配置される光学マーカの数を極力抑えつつも、実空間内の光学マーカとヘッドマウントディスプレイのグローバル位置情報を確実に検出することができる。 According to the present invention, data based on a camera image captured by one camera is complemented using past camera images and camera images captured by other users, and optical markers and head mounts that exist in real space. The global position information of the display can be detected easily and accurately. Accordingly, the superimposed image can be accurately superimposed on a predetermined position of the camera image in accordance with the position and orientation of the optical marker in the camera image captured by the user. Also, the global position information can be detected mainly by the optical marker, and as a preliminary preparation, the calibration of the origin position in the sensing system using magnetism is not necessary, and the user can set the optical marker fixedly arranged in advance. The system can be used simply by imaging with a camera. Furthermore, the recognition result of the optical marker captured in the camera image of another user can be shared although it is not captured in the camera image of one user, and all the optical markers are necessarily captured by the camera of one user. It is possible to shorten the pre-work and reduce the number of fixed optical markers as much as possible, while reliably detecting global position information of optical markers and head mounted displays in real space. be able to.
また、光学マーカが多面体の複数面にそれぞれ固定配置された複合マーカを用いると、より広範な角度からカメラで光学マーカを撮像可能となり、光学マーカの認識精度を向上させることができる。 Further, when a composite marker in which optical markers are fixedly arranged on a plurality of surfaces of a polyhedron is used, the optical marker can be imaged with a camera from a wider range of angles, and the recognition accuracy of the optical marker can be improved.
更に、マーカ位置算出部において、位置情報検出装置での位置計測誤差に関する誤差特性を考慮して、前記光学マーカのグローバル位置情報を算出する構成によれば、光学マーカによる位置計測を非光学マーカによる位置計測に単に代替させるのではなく、これらマーカを総合的に利用し、3次元位置情報の座標成分毎に確率分布を用いながら優劣判断をすることで、位置計測誤差が少ないと思われる適切な位置のユーザのデータを効果的に利用可能となる。 Furthermore, according to the configuration in which the marker position calculation unit calculates the global position information of the optical marker in consideration of the error characteristic related to the position measurement error in the position information detection device, the position measurement by the optical marker is performed by the non-optical marker. Instead of simply substituting for position measurement, it is appropriate to use these markers comprehensively and make a superiority or inferiority judgment using the probability distribution for each coordinate component of 3D position information. The user data of the position can be used effectively.
以下、本発明の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1には、本発明の合成画像提示システムを含むAR表示システムの主たる構成を表す概念図が示され、図2には、当該AR表示システムの全体構成を表すブロック図が示されている。これらの図において、前記AR表示システム10は、医療現場で適用され、ユーザである複数(n人)の医師D(D1、D2、・・、Dn)がヘッドマウントディスプレイ11(以下、「HMD11」と称する。)を装着し、各医師Dの視界に存在する患者Sの実空間の画像(主に患部)に、対応する超音波画像等の診断画像を重畳画像として重ねた合成画像をHMD11に表示するシステムである。
FIG. 1 is a conceptual diagram showing the main configuration of an AR display system including the composite image presentation system of the present invention, and FIG. 2 is a block diagram showing the overall configuration of the AR display system. In these drawings, the
このAR表示システム10は、各医師Dの頭部に装着されるHMD11と、患者Pの患部等の診断画像を取得する画像診断装置13と、実空間内の所定部位の3次元位置情報を検出する位置情報検出装置14と、位置情報検出装置14の検出結果に基づいて前記合成画像を生成し、当該合成画像をHMD11に提示する処理装置16とを備えて構成されている。なお、位置情報検出装置14及び処理装置16は、HMD11に対し前記合成画像を提示する合成画像提示システムを構成する。
This
前記HMD11は、合成画像の背景となる実空間のカメラ画像を撮像するビデオカメラ18が取り付けられたビデオシースルー型のものが用いられており、カメラ画像に重畳画像を重ね合せた合成画像が装着者の目前に表示されるようになっている。なお、本実施形態では、HMD11として、前記合成画像を装着者の左右両眼に提示する複眼タイプのものが用いられている。
The
前記ビデオカメラ18は、HMD11を装着した各医師Dが、自身の目前の実空間を実際に直視したのとほぼ同一のカメラ画像を取得できるように配置されている。従って、各医師Dは、自身の目前に存在する患者Sやその患部の様子について、HMD11の表示部に表示されたカメラ画像を通じて視認可能となる。なお、本発明においては、前記カメラ画像を取得できる限りにおいて、他の種々のカメラを採用することもできる。
The
前記画像診断装置13としては、2次元超音波診断装置が適用される。この2次元超音波診断装置では、プローブ19(図1参照)によるビーム走査によって、ビーム走査面と同一断面における断層画像である2次元画像等の超音波画像が生成される。また、患部の所定範囲でビーム走査を行い、当該ビーム走査時におけるプローブ19の同一座標系での3次元位置情報の後述する計測結果を利用して、患部の所定範囲内における体内の臓器等の立体像の生成を可能にする機能が設けられている。これら超音波画像や立体像等の医療情報画像は、重畳画像として実空間のカメラ画像の所定位置に立体的に重ね合された状態で、HMD11を通じて医師Dが視認可能となる。なお、画像診断装置13としては、本実施形態の超音波診断装置に限らず、CT、MRI等の他の画像診断装置を適用することも可能である。
As the
前記位置情報検出装置14は、図2に示されるように、ビデオカメラ18を利用して、実空間の所定部位における3次元位置情報を検出する光学トラッキング手段21と、ビデオカメラ18を利用せずに、実空間内の所定部位における3次元位置情報を検出する非光学トラッキング手段22とにより構成される。
As shown in FIG. 2, the position
前記光学トラッキング手段21は、実空間内における複数の所定部位にそれぞれ設置される光学マーカ24と、カメラ画像に撮像された各光学マーカ24の画像状態を認識することにより、各設置部位の光学マーカ24について、ビデオカメラ18の中心を原点とした直交3軸の局所座標系における3次元位置情報を検出する光学マーカ検出部25とにより構成された光学トラッキングシステムからなる。つまり、この光学トラッキング手段21では、光学マーカ24を通じてその設置部位の3次元位置情報を検出可能となる。
The optical tracking means 21 recognizes the
前記光学マーカ24は、仰向けに寝た状態の患者Sの体表部分の複数箇所にそれぞれ固定配置されている。なお、特に限定されるものではないが、本実施形態では、図1に示されるように、患者Sの患部の周囲4箇所に固定配置されている。また、光学マーカ24の表面には、所定の模様が付されており、当該模様の異なる複数パターンの光学マーカ24が用意され、配置部位毎に模様の異なる光学マーカ24が使用される。
The
前記光学マーカ検出部25では、ビデオカメラ18で撮像されたカメラ画像に光学マーカ24が写ると、当該光学マーカ24を画像認識することにより、公知の手法による次の処理が行われる。すなわち、ここでは、光学マーカ24の模様、形状、及びサイズが既知であることから、カメラ画像内の光学マーカ24の模様から、どこに配置されている光学マーカ24かを表すIDが特定されるとともに、カメラ画像内における光学マーカ24のサイズや形状から、光学マーカ24の位置や向きが求められる。ここで、光学マーカ24の位置や向きは、前記局所座標系として、当該光学マーカ24を撮像したビデオカメラ18の中心を原点とするHMD座標系Hによる3次元位置情報として取得される。なお、光学マーカ24を用いて得られる3次元位置情報の単位は、位置(mm)、角度(度)である。
When the
従って、光学マーカ検出部25では、各医師Dにそれぞれ装着されたHMD11のビデオカメラ18で撮像された光学マーカ24について、各医師DのHMD11毎に設定されたHMD座標系Hによる3次元位置情報が逐次得られることになる。このHMD座標系Hは、医師Dがn人いると、HMD11の数と同一のn個存在する(H1、H2、・・、Hn)とともに、HMD11が装着される医師Dの頭部の動きに伴って移動する局所座標系として取り扱われる。
Therefore, the optical
前記非光学トラッキング手段22は、実空間の様々な方向に、様々な強さの磁界を発生させる磁気基地局27と、磁気基地局27からの磁気の大きさを検出するセンサとして機能する磁気マーカ28(非光学マーカ)と、磁気マーカ28での磁気の検出状態からその設置部位の3次元位置情報を検出する磁気マーカ検出部29とにより構成された磁気トラッキングシステムからなる。つまり、この磁気トラッキング手段22では、磁気マーカ28を通じてその設置部位の3次元位置情報を検出可能となる。なお、磁気マーカ28を用いて得られる3次元位置情報の単位は、位置(mm)、角度(度)である。
The non-optical tracking means 22 includes a
特に限定されるものではないが、本実施形態において、前記磁気マーカ28は、逐次移動するプローブ19の所定部位に固定されるとともに、固定配置された光学マーカ24のうちの2箇所に、相対移動不能且つ相対回転不能に取り付けられている。これら光学マーカ24と磁気マーカ28の一体型のマーカは、複数のマーカからなる複合マーカ30(図1参照)として機能し、光学マーカ検出部25及び磁気マーカ検出部29の双方で3次元位置情報を取得可能となる。
Although not particularly limited, in the present embodiment, the
前記磁気マーカ検出部29では、磁気基地局27から発生した磁界の方向や強さを計測することにより、プローブ19や光学マーカ24に取り付けられた磁気マーカ28について、当該磁気マーカ28のID毎に、磁気基地局27の所定部位を原点とした直交3軸の磁気座標系Mにおける3次元位置情報が逐次取得されるようになっている。この磁気座標系Mは、1箇所に存在するとともに、磁気基地局27が固定されることから、移動回転不能に固定される局所座標系として取り扱われる。
The magnetic
なお、非光学トラッキング手段22としては、ビデオカメラ18を利用しないで非光学マーカを追跡することにより、当該非光学マーカについて、予め設定された基準点を原点とした局所座標系における3次元位置情報を特定する3次元位置センサにより構成されたものであれば何でも良い。
As the non-optical tracking means 22, by tracking the non-optical marker without using the
図示省略しているが、他の非光学トラッキング手段22として、例えば、超音波を利用した超音波トラッキングシステムを採用し、磁気トラッキングシステムに代え、又は、磁気トラッキングシステムと併用することができる。この超音波トラッキングシステムは、様々な周波数、強さの超音波を発生する発信機を超音波マーカ(非光学マーカ)として実空間の所定部位に固定し、超音波受信局に設置された複数のマイクで超音波の周波数、強さを計測することにより、三角測量の原理などを用いて、超音波マーカの設置部位について、超音波受信局の所定点を原点とした直交3軸の超音波座標系における3次元位置情報を逐次取得するものである。この超音波座標系も、磁気座標系Mと同様、超音波基地局の固定配置によって固定される1の局所座標系として取り扱われる。この超音波トラッキングシステムを採用した場合においても、取得した3次元位置情報に基づいて、磁気トラッキングシステムで取得した3次元位置情報と同様に後述の処理が行われる。 Although not shown in the drawings, as the other non-optical tracking means 22, for example, an ultrasonic tracking system using ultrasonic waves is adopted, and the magnetic tracking system can be used instead of or in combination with the magnetic tracking system. In this ultrasonic tracking system, a transmitter that generates ultrasonic waves of various frequencies and strengths is fixed as an ultrasonic marker (non-optical marker) at a predetermined site in real space, and a plurality of ultrasonic tracking systems installed at an ultrasonic receiving station are used. By measuring the frequency and intensity of ultrasonic waves with a microphone, using the principle of triangulation, etc., the ultrasonic coordinate of the three orthogonal axes with the origin at the predetermined point of the ultrasonic receiving station for the ultrasonic marker installation site The three-dimensional position information in the system is acquired sequentially. Similar to the magnetic coordinate system M, this ultrasonic coordinate system is also handled as one local coordinate system fixed by a fixed arrangement of ultrasonic base stations. Even when this ultrasonic tracking system is employed, the processing described later is performed based on the acquired three-dimensional position information in the same manner as the three-dimensional position information acquired by the magnetic tracking system.
なお、以下の説明において、局所座標系であるHMD座標系H及び磁気座標系Mにおける3次元位置情報を適宜「ローカル位置情報」と称する。また、予め設定された実空間内に固定された定点を原点とした直交3軸の全体座標系である患者座標系Pにおける3次元位置情報を適宜「グローバル位置情報」と称する。 In the following description, the three-dimensional position information in the HMD coordinate system H and the magnetic coordinate system M, which are local coordinate systems, is appropriately referred to as “local position information”. In addition, the three-dimensional position information in the patient coordinate system P, which is an entire coordinate system of three orthogonal axes with a fixed point fixed in a preset real space as the origin, is appropriately referred to as “global position information”.
前記処理装置16は、CPU等の演算処理装置及びメモリやハードディスク等の記憶装置等からなるコンピュータによって構成され、当該コンピュータを以下の各手段や各部として機能させるためのプログラムがインストールされている。
The
この処理装置16は、図2に示されるように、画像診断装置13とビデオカメラ18で得られた各種の画像データを取り込む画像取込手段31と、位置情報検出装置14で検出された光学マーカ24及び磁気マーカ28のローカル位置情報をグローバル位置情報に変換する座標変換手段32と、グローバル位置情報に基づいて各医師DのHMD11に提示される合成画像を生成する合成画像生成手段33とを備えている。
As shown in FIG. 2, the
前記座標変換手段32は、位置情報検出装置14で検出された各光学マーカ24及び磁気マーカ28のローカル位置情報を記録するデータ記録部35と、各種処理を行う際に用いられる情報が予め記憶されたデータベース36と、各光学マーカ24及び磁気マーカ28のグローバル位置情報を算出するマーカ位置算出部37と、マーカ位置算出部37で算出された各光学マーカ24及び磁気マーカ28のグローバル位置情報から、各HMD11のグローバル位置情報を求めるHMD位置算出部38とを備えている。
The coordinate
前記データ記録部35は、各HMD11のビデオカメラ18で撮像された光学マーカ24について、当該光学マーカ24のローカル位置情報、すなわち、HMD座標系Hにおける位置(x,y,z)とそれら座標軸回りの回転角度(α,β,γ)とが、HMD11毎に記録される。例えば、ある光学マーカ24が、n人の医師D1〜Dnのビデオカメラ18で撮像されている場合、当該光学マーカ24について、異なるn個のHMD座標系H〜H1〜Hnにおけるローカル位置情報が記録されることになる。また、磁気マーカ28のローカル位置情報として、磁気座標系Mにおける位置(x,y,z)とそれら座標軸回りの回転角度(α,β,γ)とが記録される。これら光学マーカ24及び磁気マーカ28のローカル位置情報は、一定時間間隔(例えば、約数十mm/sec)でプールされ、一塊のデータの集合である1サイクル分のローカル位置データセットとして記録される。このローカル位置データセットは、1サイクル毎に記憶され、データ記録部35には、現在のローカル位置データセットと、それ以前のサイクルとなる過去のローカル位置データセットとが記憶されることになる。また、このデータ記録部35では、各光学マーカ24と磁気マーカ28について、移動可能性の有無に関する情報が予め登録され、当該情報とセットで記録される。図1の例では、プローブ19に取り付けられた磁気マーカ28のみが移動可能性「有」として登録され、その他の光学マーカ24と磁気マーカ28は移動可能性「無」として登録される。なお、当該登録内容は、状況に応じて逐次変更可能となっている。
The
前記データベース36は、光学トラッキング手段21及び非光学トラッキング手段22それぞれの位置計測誤差に関する情報が記憶された誤差データベース42と、光学マーカ24と磁気マーカ28を一体化した複合マーカ30について、各マーカ24,28の相対位置関係が記憶された相互位置関係データベース43とにより構成されている。
The
前記誤差データベース42には、図3に示されるように、光学トラッキングシステムによる位置検出法と磁気トラッキングシステムによる位置検出法のそれぞれについて、各座標系における3次元位置情報(位置(x,y,z)、向き(α,β,γ))の6成分を任意に組み合わせた多数のパターン毎に、それぞれの成分に見込まれる誤差の標準偏差(±Δx,±Δy,±Δz,±Δα,±Δβ,±Δγ)が記憶されている。
As shown in FIG. 3, the
前記相互位置関係データベース43は、本実施形態では、図1中「A」と表された光学マーカ24と、同図中「D」と表されたに光学マーカ24について、それぞれ磁気マーカ28が取り付けられた複合マーカ30となっているため、これら2つの複合マーカ30それぞれにつき、構成する光学マーカ24と磁気マーカ28の各IDと、これらマーカ24,28の間の相対位置(x,y,z)と相対回転角度(α,β,γ)とが記憶されている。
In the present embodiment, the mutual
前記マーカ位置算出部37では、各光学マーカ24及び磁気マーカ28の各ローカル位置情報について、グローバル位置情報に変換する処理が行われるが、ここでの処理目的としては、次の通りである。
The marker
位置情報検出装置14で検出された各マーカ24,28の3次元位置情報は、座標系が全て統一されたものでなく、HMD11と光学マーカ24との相対位置関係や、磁気基地局27と磁気マーカ28との相対位置関係を表したものに過ぎない。最終的には、合成画像生成手段33で、各医師DのHMD11に表示される背景画像となるカメラ画像内のプローブ19の部位に、当該プローブ19の位置や向きに応じた前記医療情報画像を重畳画像として重ね合わせて合成画像を生成する処理がなされる。この画像生成処理を行うためには、全ての光学マーカ24と磁気マーカ28の3次元位置情報を統一した患者座標系Pで表し、その結果を利用し、各医師Dの動作に伴って移動する各HMD11の3次元位置情報を統一した患者座標系Pで把握する必要がある。そこで、マーカ位置算出部37では、必ずしも、1人の医師Dのビデオカメラ18で全ての光学マーカ24を撮像していなくても、他の医師Dのビデオカメラ18での撮像結果や、データ記録部35で記録された過去のローカル位置データセットが相補的に利用され、光学マーカ24と磁気マーカ28のグローバル位置情報が求められる。
The three-dimensional position information of the
このマーカ位置算出部37での具体的な処理手順について、図4のフローチャートに沿って図5〜7にそれぞれ示す第1〜第3事例を用いながら以下に説明する。
A specific processing procedure in the marker
先ず、データ記録部35から、現在のローカル位置データセットが取得される(ステップS101)。次に、取得したローカル位置データセットの中から、複数の光学マーカ24が1つの画像内に撮像されているカメラ画像が探索され、同一のカメラ画像に撮像された各光学マーカ24が、相対位置関係が判明している組み合わせとして全て抽出される(ステップS102)。
First, the current local position data set is acquired from the data recording unit 35 (step S101). Next, a camera image in which a plurality of
ここで、第1事例として、光学マーカ24と磁気マーカ28を図1の配置状態とし、1人目の医師D1のビデオカメラ18で取得したカメラ画像には、図1中「A」、「B」で表した光学マーカ24が同時に撮像され、2人目の医師D2のビデオカメラ18で取得したカメラ画像には、同図中「C」、「D」で表した光学マーカ24が同時に撮像されているとする。この第1事例では、1人目の医師D1のHMD11におけるHMD座標系H1での「A」、「B」の光学マーカ24が、相対位置関係が判明している組み合わせとして抽出されるとともに、2人目の医師D2のHMD11におけるHMD座標系H2での「C」、「D」の光学マーカ24が、相対位置関係が判明している組み合わせとして抽出される。なお、図5では、本第1事例において同一の組み合わせを構成する光学マーカ24につき、同一の破線枠で囲んで表している。また、仮に、医師D2のビデオカメラ18で別途取得したカメラ画像にも、「A」、「B」の光学マーカが写っているような場合に、HMD座標系H2での「A」、「B」の光学マーカ24も、相対位置関係が判明している組み合わせとして更に抽出される。すなわち、同一の組み合わせの光学マーカ24が異なるHMD11のビデオカメラ18で撮像された場合にも、それぞれ別種の組み合わせとして抽出される。
Here, as a first example, the
次に、抽出された光学マーカ24の各組み合わせのみで、全ての光学マーカ24が連結されるか否かについて判定される(ステップS103)。第1事例では、「A」、「B」の光学マーカ24の組み合わせと、「C」、「D」の光学マーカ24の組み合わせとが有り、それらの組に共通する光学マーカ24が存在していないため、ここでは、各組み合わせ間について、全ての光学マーカ24は連結していないと判定される。一方、第1事例に対し、更に3人目の医師D3のビデオカメラ18で取得したカメラ画像に、「B」、「C」の光学マーカ24が同時に撮像されている図6の第2事例の場合、「B」の光学マーカ24は、1人目の医師D1のビデオカメラ18で撮像されており、「C」の光学マーカ24は、2人目の医師D2のビデオカメラ18で撮像されているため、全光学マーカ24について連結されていると判定される。
Next, it is determined whether or not all the
そして、第1事例のように、全ての光学マーカ24が連結していないと判定された場合、非光学トラッキング手段22での検出結果を用いて、各光学マーカ24の組み合わせ間における連結状態を確保できるか否かが確認される(ステップS104)。すなわち、ここでは、現在のローカル位置データセットの中から、磁気マーカ28が光学マーカ24に一体的に設けられた複合マーカ30を更に利用したときに、光学マーカ24の連結状態が確保できるか否かが確認される。図5の第1事例の場合、「A」、「D」の光学マーカ24は複合マーカ30であることから、相互位置関係データベース43の情報により、「A」の光学マーカ24とそれに付設された磁気マーカ28の相対位置関係と、「D」の光学マーカ24とそれに付設された磁気マーカ28の相対位置関係は判明している。従って、同一の磁気座標系Mでの各磁気マーカ28の3次元位置情報の検出結果から、各磁気マーカ28の相対位置関係を通じて「A」、「D」の光学マーカ24の相対位置関係が判明する。その結果、図5中1点鎖線で仮想的に表すように、「A」、「D」の光学マーカ24が非光学トラッキング手段22を通じて連結され、各光学マーカ24の連結状態が確保されたと判断される(ステップS105)。
When it is determined that all the
以上の処理を経ても、各光学マーカ24の連結状態が確保できない場合、データ記録部35から、1サイクル前の過去のローカル位置データセットが抽出され、現在のローカル位置データセットに追加され(ステップS107)、前述の処理が繰り返し行われる。それでも、各光学マーカ24の組み合わせの連結状態が確保されなければ、更に1サイクル過去のローカル位置データセットが、その前までのローカル位置データセットに追加され(ステップS107)、前述の処理が繰り返し行われる。そして、予め設定されたサイクル数の過去のローカル位置データセットを参照しても、各光学マーカ24の連結状態が確保されなければ(ステップS106)、座標変換処理不能と判断され(ステップS108)、合成画像生成手段33で後述する処理が行われる。
If the connected state of each
一方、全ての光学マーカ24について連結状態が確保されると、非光学トラッキング手段22での検出結果を利用し、光学マーカ24の他の連結状態が追加される(ステップS109)。例えば、前記第1事例に対し、「B」の光学マーカ24を更に複合マーカ30とした図7の第3事例の場合、「A」、「B」の光学マーカ24は、光学トラッキング手段21での検出結果の他に、それぞれに一体化された磁気マーカ28による非光学トラッキング手段22での検出結果によっても連結状態が確保でき、当該連結状態が光学トラッキング手段21での検出結果による連結状態の他に追加される。
On the other hand, when the connection state is secured for all the
そして、全ての光学マーカ24の患者座標系Pでの3次元位置情報であるグローバル位置情報が、誤差情報付きで全ての経路で計算される(ステップS110)。すなわち、全ての光学マーカ24の連結状態が確保されると、少なくとも1箇所の光学マーカ24と患者座標系Pの原点との相対位置関係を予め設定しておくことで、全ての光学マーカ24のグローバル位置情報を求めることができる。この際、各光学マーカ24の連結の辿り方により、複数の経路での座標計算が可能である。ここでは、全ての光学マーカ24について、全経路それぞれについてグローバル位置情報が求められるとともに、誤差データベース42からの誤差特性情報を用い、各経路それぞれについて、当該経路計算で利用した光学トラッキングシステムによる位置検出法と磁気トラッキングシステムによる位置検出法による誤差データが積算される。
Then, global position information, which is three-dimensional position information of all
ここでの処理について、図7の第3事例を用いて以下に詳述する。当該第3事例においては、患者座標系Pの原点Oが「A」の光学マーカ24のほぼ中央に設定されているとする。なお、患者座標系Pの原点としては、移動しない光学マーカ24または磁気マーカ28との相対位置関係が不変となる実空間内の定点であればどこでも良い。例えば、移動しない各光学マーカ28からの距離がそれぞれ等しくなる地点に、患者座標系Pの原点を設定することもできる。
This processing will be described in detail below using the third case of FIG. In the third case, it is assumed that the origin O of the patient coordinate system P is set substantially at the center of the
例えば、「C」の光学マーカ24のグローバル位置情報を求める際には、患者座標系Pの原点となる「A」の光学マーカ24と、「B」、「D」の光学マーカ24とがそれぞれ複合マーカ30であることから、次の第1〜第3の経路が存在する。
For example, when obtaining the global position information of the
第1の経路として、非光学トラッキング手段22における磁気マーカ28のローカル位置情報の検出結果による「A」、「D」の光学マーカ24の相対位置関係と、光学トラッキング手段21における光学マーカ24のローカル位置情報の検出結果による「C」、「D」の光学マーカ24の相対位置関係とにより、「C」の光学マーカ24のグローバル位置情報が求められる。
As a first path, the relative positional relationship between the
第2の経路として、光学マーカ24のローカル位置情報の検出結果による「A」、「B」の光学マーカ24の相対位置関係と、磁気マーカ28のローカル位置情報の検出結果による「B」、「D」の光学マーカ24の相対位置関係と、光学マーカ24のローカル位置情報の検出結果による「C」、「D」の光学マーカ24の相対位置関係とにより、「C」の光学マーカ24のグローバル位置情報が求められる。
As the second path, the relative positional relationship between the
第3の経路として、第2の経路に対し、「A」、「B」の光学マーカ24の相対位置関係につき、光学マーカ24による検出結果でなく磁気マーカ28の検出結果を利用し、「C」の光学マーカ24のグローバル位置情報が求められる。
As the third path, the detection result of the
この際、各経路について、光学トラッキングシステムや磁気トラッキングシステムの特性に起因する位置計測誤差に関する誤差情報が付加される。すなわち、光学トラッキングシステムは、視線奥行方向の位置や当該方向の回転角度の検出精度が他の2軸における位置や回転角度の検出精度に比べて悪いという特性があり、磁気トラッキングシステムは、距離に弱い、角度が不安定などの特性がある。そこで、これら特性に起因するトラッキングシステム毎の位置計測誤差に関する情報である標準偏差が、計測距離や回転角度単位でデータベース化された誤差データベース42から抽出され、当該誤標準偏差が経路毎に積算される。
At this time, error information regarding a position measurement error due to the characteristics of the optical tracking system or the magnetic tracking system is added to each path. In other words, the optical tracking system has a characteristic that the detection accuracy of the position in the line of sight depth direction and the detection accuracy of the rotation angle in that direction is worse than the detection accuracy of the position and rotation angle in the other two axes. There are characteristics such as weakness and unstable angle. Therefore, the standard deviation, which is information on the position measurement error for each tracking system due to these characteristics, is extracted from the
つまり、ここでは、各光学マーカ24について、グローバル位置情報を求める際の経路毎に、グローバル位置情報の各座標成分、すなわち、位置(x,y,z)と回転角度(α,β,γ)それぞれについて、経路内の各手順で積算された誤差の標準偏差情報が付加される。
That is, here, for each
例えば、「C」の光学マーカについて、前述の第1の経路については、誤差情報が付加されたグローバル位置情報(x1±Δx1,y1±Δy1,z1±Δz1,α1±Δα1,β1±Δβ1,γ1±Δγ1)が得られる。同様に、第2の経路については、誤差情報が付加されたグローバル位置情報(x2±Δx2,y2±Δy2,z2±Δz2,α2±Δα2,β2±Δβ2,γ2±Δγ2)が得られる。また、第3の経路については、誤差情報が付加されたグローバル位置情報(x3±Δx3,y3±Δy3,z3±Δz3,α3±Δα3,β4±Δβ3,γ3±Δγ3)が得られる、 For example, for the optical marker “C”, the global position information (x 1 ± Δx 1 , y 1 ± Δy 1 , z 1 ± Δz 1 , α 1 ±) to which the error information is added for the first path described above. Δα 1 , β 1 ± Δβ 1 , γ 1 ± Δγ 1 ) are obtained. Similarly, for the second route, global position information (x 2 ± Δx 2 , y 2 ± Δy 2 , z 2 ± Δz 2 , α 2 ± Δα 2 , β 2 ± Δβ 2 , to which error information is added, is added. γ 2 ± Δγ 2 ) is obtained. For the third route, global position information (x 3 ± Δx 3 , y 3 ± Δy 3 , z 3 ± Δz 3 , α 3 ± Δα 3 , β 4 ± Δβ 3 , γ with error information added is added. 3 ± Δγ 3 )
次に、各光学マーカ24それぞれに対し、グローバル位置情報の各座標成分について、経路毎に積算された標準偏差から、グローバル位置情報の算出値を平均とした正規分布が経路毎に計算され、当該経路毎の正規分布を重ね合わせたときに、全経路を考慮して出現確率の最も高い値が、最も誤差が少ないと思われるグローバル位置情報の最終推定値として決定される(ステップS111)。例えば、前述の例において、x座標については、図8に示されるように、前記第1〜第3の経路の確率分布の和の最大値であるxdが、最終推定値とされる。この処理が各光学マーカ24それぞれについて行われ、各光学マーカ24について、光学トラッキングシステムや磁気トラッキングシステムによる位置計測誤差が加味された調整後のグローバル位置情報が決定される。
Next, for each
このようにして求めた各光学マーカ24のグローバル位置情報から、相互位置関係データベース43により相対位置関係が特定できる複合マーカ30を通じて、プローブ19に取り付けられた単独の磁気マーカ28のグローバル位置情報が求められる(ステップS112)。
From the global position information of each
前記HMD位置検出部38では、マーカ位置算出部37で最終決定された各光学マーカ24と磁気マーカ28のグローバル位置情報から、光学トラッキング手段21で求められた各HMD11と各光学マーカ24の相対位置関係に基づき、各HMD11のグローバル位置情報が特定される。
In the HMD
前記合成画像生成手段33では、画像取込手段31により取り込まれたカメラ画像中のプローブ19の先端位置付近に、画像取込手段31により取り込まれた重畳画像が3次元的に重なって医師Dに視認可能な合成画像が生成される。当該合成画像は、座標変換手段32で特定された各HMD11とプローブ19のグローバル位置情報により、各HMD11のカメラ画像毎に生成される。このため、各医師Dは、自身の視界に存在するプローブ19の先端部分に、当該プローブ19の姿勢に対応した向きで立体的な医療情報画像等が重なった状態で視認可能となる。
In the composite
また、前記座標変換手段32において、各光学マーカ24と各磁気マーカ28のグローバル位置情報が取得不能と判断された場合には、合成画像生成手段33では、各HMD11に撮像されたプローブ19の先端位置に、予め指定された何等かの表示すべき情報が表示されるように合成画像が生成される。
When the coordinate
なお、図9に示されるように、複数の光学マーカ24が多面体の設置面を除く各面に取り付けた立体光学マーカ45を複合マーカとして採用することができる。この立体光学マーカ45では、様々な方向からビデオカメラ18で撮像しても、その中の何れかの光学マーカ24を面状態で撮像することができ、シート状の光学マーカ24では認識不能な横方向からの認識も可能になる。例えば、斜め45度以内の角度でのカメラ撮影が必要であれば、立体光学マーカ45を6面体以上にすると良い。このように、光学マーカ24が取り付けられる面を多くする程、立体光学マーカ45をどの位置から撮像しても、何れかの光学マーカ24を正面に近い形で撮像し易くなり、光学マーカ24を用いた光学トラッキング手段21での検出精度を高めることができる。なお、この立体光学マーカ45においても、相互位置関係データベース43において、当該立体光学マーカ45を構成する各光学マーカ24間の相対位置関係が記憶され、前述の処理に利用される。また、立体光学マーカ45に、磁気マーカ28等の非光学マーカを更に取り付けた複合マーカを採用することもできる。
As shown in FIG. 9, a three-dimensional
また、前記実施形態の座標変換手段32について、各医師DのHMD11のビデオカメラ18で撮像されたカメラ画像から、遠距離の視差画像を利用することで、光学マーカ24のグローバル位置情報を調整する調整部を更に設けることができる。すなわち、本発明のシステムでは、複数の医師DがHMD11を装着しており、各HMD11のビデオカメラ18で撮像されたカメラ画像から、各HMD11に撮像されている光学マーカ24のIDが判明し、そのカメラ画像上の位置も得られている。このため、ある1の光学マーカ24が、複数のHMD11でのカメラ画像内に共通して現れた場合、その視差画像から、当該光学マーカ24の位置を特定することができる。そこで、前記調整部では、同一の光学マーカ24が撮像されている複数のカメラ画像の中から、HMD11の位置が最も離れている1組のカメラ画像が選択され、これらカメラ画像における視差画像を利用し、マーカ位置算出部37で算出された各光学マーカ24のグローバル位置情報の精度を向上させる処理が行われる。この処理においては、前記データベース36に、カメラ画像による両眼視差の誤差データが記憶された視差データベースを更に設け、当該視差データベースからの情報から、視差画像によって特定された光学マーカ24の距離範囲に合致するように、マーカ位置算出部37で求められた各光学マーカ24のグローバル位置情報が調整される。そして、当該調整後に、前記実施形態での処理と同様に、磁気マーカ28及び各HMD11のグローバル位置情報が求められて前記合成画像が生成される。これによれば、距離の離れたHMD11間の視差画像を利用することができ、各光学マーカ24のグローバル位置情報を高精度に検出可能になる。
Moreover, about the coordinate conversion means 32 of the said embodiment, the global position information of the
更に、本実施形態では、複数ユーザによる適用例を図示説明したが、本発明はこれに限らず、単独ユーザにも適用可能である。このように単独ユーザに適用された場合、過去のローカル位置データセットが、単独ユーザの複数の視線に基づいて得られることにより、相補的なデータ処理が可能となる。また、単独ユーザに適用される場合であっても、前記実施形態と同様に、非光学マーカも併用可能で、誤差データベース36の利用も可能である。更に、前述した遠距離の視差画像を利用する際には、取得された時刻が異なるカメラ画像を用いることで、同様の処理を行うことができる。
Furthermore, in the present embodiment, the application example by a plurality of users has been illustrated and described, but the present invention is not limited to this and can be applied to a single user. When applied to a single user in this way, a past local position data set is obtained based on a plurality of lines of sight of the single user, thereby enabling complementary data processing. Further, even when applied to a single user, a non-optical marker can be used in combination as in the above embodiment, and the
また、本発明における光学マーカ主体の位置計測は、ビデオシースルー型のHMD11と相性が良く、この組み合わせにより、HMD11の重畳画像の表示誤差をほぼゼロにすることができる。しかしながら、本発明は、これに限定されるものではなく、カメラを備えていれば、HMDとして、光学シースルー型のものや、単願タイプのものを適用することも可能である。
In addition, the position measurement mainly of the optical marker in the present invention is compatible with the video see-through
また、前記実施形態では、AR表示システム10を医療現場で用いた場合を図示説明したが、本発明はこれに限らず、同様の構成で他の用途に適用することもできる。
Moreover, although the case where the
その他、本発明における装置各部の構成は図示構成例に限定されるものではなく、実質的に同様の作用を奏する限りにおいて、種々の変更が可能である。 In addition, the configuration of each part of the apparatus in the present invention is not limited to the illustrated configuration example, and various modifications are possible as long as substantially the same operation is achieved.
10 AR表示システム
11 ヘッドマウントディスプレイ
14 位置情報検出装置
16 処理装置
18 ビデオカメラ
21 光学トラッキング手段
22 非光学トラッキング手段
24 光学マーカ
25 光学マーカ検出部
30 複合マーカ
32 画像変換手段
33 合成画像生成手段
45 立体光学マーカ(複合マーカ)
D 医師(ユーザ)
H HMD座標系(局所座標系)
M 磁気座標系(局所座標系)
P 患者座標系(全体座標系)
DESCRIPTION OF
D Doctor (user)
H HMD coordinate system (local coordinate system)
M Magnetic coordinate system (local coordinate system)
P Patient coordinate system (overall coordinate system)
Claims (9)
前記実空間内の所定部位の3次元位置情報を検出する位置情報検出装置と、当該位置情報検出装置によって検出された3次元位置情報に基づき、前記合成画像を生成して前記ヘッドマウントディスプレイに提示する処理装置とを備え、
前記位置情報検出装置は、前記カメラで撮像されたカメラ画像を利用して前記所定部位における3次元位置情報を検出する光学トラッキング手段を備え、
前記光学トラッキング手段は、複数存在する前記所定部位にそれぞれ設置される光学マーカと、前記カメラ画像に撮像された前記各光学マーカの画像状態を認識することにより、これら各光学マーカについて、前記カメラの定点を原点とした局所座標系における3次元位置情報であるローカル位置情報を検出する光学マーカ検出部とを備え、
前記処理装置は、前記ローカル位置情報から、前記所定部位及び前記ヘッドマウントディスプレイについて、前記実空間内の定点を原点とした全体座標系における3次元位置情報であるグローバル位置情報を求める座標変換手段と、前記グローバル位置情報に基づき前記合成画像を生成する合成画像生成手段とを備え、
前記座標変換手段では、前記カメラでの撮像位置及び/又は撮像タイミングの異なる複数の前記カメラ画像を利用し、当該各カメラ画像に撮像された複数の前記光学マーカの前記ローカル位置情報から、全ての前記光学マーカ間の相対位置関係を特定した上で、少なくとも1つの前記光学マーカと前記全体座標系の原点との相対位置関係に基づき、前記各光学マーカにおける前記グローバル位置情報を求め、前記カメラを1台のみ用いる場合、前記カメラで撮像される現在の前記カメラ画像と、過去に撮像された前記カメラ画像とを利用し、前記カメラを複数台用いる場合、当該各カメラで同時に撮像される現在の前記カメラ画像と、過去に撮像された前記カメラ画像との少なくとも一方を利用することを特徴とする合成画像提示システム。 Is attached to the user of the medical field, to a head mounted display camera for capturing an image of the real space is attached to exist in the field of view of the user, in a part region of real space diagnostic images obtained separately as superimposed image In a medical composite image presentation system that presents a composite image to be visually recognized by a user in a superimposed state,
A position information detecting device for detecting three-dimensional position information of a predetermined part in the real space, and generating the composite image based on the three-dimensional position information detected by the position information detecting device and presenting it on the head mounted display And a processing device for
The position information detecting device includes an optical tracking unit that detects three-dimensional position information in the predetermined part using a camera image captured by the camera,
The optical tracking means recognizes the optical markers respectively installed at the plurality of the predetermined sites and the image states of the optical markers captured in the camera image, so that each of the optical markers An optical marker detection unit that detects local position information that is three-dimensional position information in a local coordinate system with a fixed point as an origin;
The processing device includes coordinate conversion means for obtaining global position information, which is three-dimensional position information in a global coordinate system with a fixed point in the real space as an origin, for the predetermined part and the head mounted display from the local position information. And a composite image generating means for generating the composite image based on the global position information,
In the coordinate conversion means, a plurality of the camera images having different imaging positions and / or imaging timings with the camera are used, and from the local position information of the plurality of optical markers captured in each camera image, After specifying the relative positional relationship between the optical markers, based on the relative positional relationship between at least one of the optical markers and the origin of the global coordinate system, the global position information in each of the optical markers is obtained , and the camera is When only one camera is used, the current camera image captured by the camera and the camera image captured in the past are used. When a plurality of cameras are used, the current camera image captured simultaneously by each camera is used. A composite image presentation system using at least one of the camera image and the camera image captured in the past .
前記非光学トラッキング手段は、前記所定部位の少なくとも1箇所に固定される非光学マーカを追跡することで、当該非光学マーカについて、予め設定された基準点を原点とした局所座標系における3次元位置情報であるローカル位置情報を特定する3次元位置センサにより構成され、
前記座標変換手段では、前記非光学マーカのローカル位置情報をも利用し、前記各光学マーカの前記グローバル位置情報を求めることを特徴とする請求項1記載の合成画像提示システム。 The position information detection device further includes non-optical tracking means for detecting three-dimensional position information at a predetermined site in the real space without using the camera,
The non-optical tracking unit tracks a non-optical marker fixed to at least one of the predetermined parts, thereby obtaining a three-dimensional position in the local coordinate system with a preset reference point as an origin for the non-optical marker. It is composed of a three-dimensional position sensor that identifies local position information that is information,
The coordinates conversion means, the non also utilize local location of the optical markers, the synthetic image presentation system according to claim 1 Symbol placement and the characteristic of obtaining the global position information of each optical marker.
前記マーカ位置算出部では、前記各光学マーカについて前記ローカル位置情報から前記グローバル位置情報を求める際に、前記各光学マーカの相対位置関係に基づき導出される複数の経路毎に発生し得る前記位置計測誤差を加味することを特徴とする請求項2記載の合成画像提示システム。 The coordinate conversion unit calculates the global position information of the optical marker and the non-optical marker in consideration of an error database in which information on position measurement errors in the position information detection apparatus is stored and the error characteristics. A marker position calculator,
In the marker position calculation unit, when the global position information is obtained from the local position information for each optical marker, the position measurement that can occur for each of a plurality of paths derived based on the relative positional relationship of the optical markers The composite image presentation system according to claim 2 , wherein an error is taken into account.
前記マーカ位置算出部では、前記各経路について、前記3次元位置情報の座標成分毎に、前記標準偏差を加味した数値範囲を特定し、前記各経路を総合して最も確率の高い値が、前記グローバル位置情報の最終推定値とされることを特徴とする請求項7記載の合成画像提示システム。 In the error database, for each of the position detection method by the optical tracking means and the position detection method by the non-optical tracking means, a standard deviation of error is stored for each of various values of the three-dimensional position information,
In the marker position calculation unit, for each of the paths, for each coordinate component of the three-dimensional position information, a numerical range in consideration of the standard deviation is specified, and the value having the highest probability is obtained by combining the paths. The composite image presentation system according to claim 7 , wherein the composite image presentation system is a final estimated value of global position information.
The coordinate conversion unit selects a set of the camera images in which the position of the head mounted display is farthest from a plurality of the camera images captured by the same optical marker, and each of the camera images based on said binocular parallax of the optical markers, claim 1 Symbol placement synthetic image presentation system and adjusting the global positional information in the optical markers that are imaged.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016041611A JP6095032B1 (en) | 2016-03-03 | 2016-03-03 | Composite image presentation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016041611A JP6095032B1 (en) | 2016-03-03 | 2016-03-03 | Composite image presentation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6095032B1 true JP6095032B1 (en) | 2017-03-15 |
JP2017153827A JP2017153827A (en) | 2017-09-07 |
Family
ID=58281096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016041611A Active JP6095032B1 (en) | 2016-03-03 | 2016-03-03 | Composite image presentation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6095032B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11055873B2 (en) | 2019-02-01 | 2021-07-06 | Tcc Media Lab Co., Ltd | Composite image generation system and position information correction system |
US11207142B2 (en) | 2019-02-01 | 2021-12-28 | Tcc Media Lab Co., Ltd | Composite image generation system and initial condition resetting system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3948800A4 (en) * | 2019-04-04 | 2023-05-10 | Centerline Biomedical, Inc. | Registration of spatial tracking system with augmented reality display |
JP7443440B1 (en) | 2022-09-01 | 2024-03-05 | ソフトバンク株式会社 | Wireless communication system, wireless communication method, wireless power supply system, and wireless power supply method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007136133A (en) * | 2005-11-18 | 2007-06-07 | Toshio Fukuda | System for presenting augmented reality |
JP2014131552A (en) * | 2013-01-07 | 2014-07-17 | Akira Takebayashi | Medical support device |
JP2014221175A (en) * | 2013-05-14 | 2014-11-27 | 健司 三木 | Ultrasonic diagnostic system, image processor and control method and control program therefor |
-
2016
- 2016-03-03 JP JP2016041611A patent/JP6095032B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007136133A (en) * | 2005-11-18 | 2007-06-07 | Toshio Fukuda | System for presenting augmented reality |
JP2014131552A (en) * | 2013-01-07 | 2014-07-17 | Akira Takebayashi | Medical support device |
JP2014221175A (en) * | 2013-05-14 | 2014-11-27 | 健司 三木 | Ultrasonic diagnostic system, image processor and control method and control program therefor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11055873B2 (en) | 2019-02-01 | 2021-07-06 | Tcc Media Lab Co., Ltd | Composite image generation system and position information correction system |
US11207142B2 (en) | 2019-02-01 | 2021-12-28 | Tcc Media Lab Co., Ltd | Composite image generation system and initial condition resetting system |
Also Published As
Publication number | Publication date |
---|---|
JP2017153827A (en) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6690041B2 (en) | Method and device for determining point of gaze on three-dimensional object | |
US11690686B2 (en) | Methods and systems for touchless control of surgical environment | |
US10881353B2 (en) | Machine-guided imaging techniques | |
US10013808B2 (en) | Surgeon head-mounted display apparatuses | |
CA2892554C (en) | System and method for dynamic validation, correction of registration for surgical navigation | |
US9237929B2 (en) | System for guiding a medical instrument in a patient body | |
JP6660659B1 (en) | Synthetic image generation system and position information correction system | |
JP6083103B2 (en) | Image complementation system for image occlusion area, image processing apparatus and program thereof | |
JP6095032B1 (en) | Composite image presentation system | |
EP3858280A1 (en) | Surgical navigation system with augmented reality device | |
US20210186355A1 (en) | Model registration system and method | |
JP2016202351A (en) | Medical support system, medical support method, image processing apparatus, control method and control program thereof | |
Wang et al. | The Kinect as an interventional tracking system | |
US20230065505A1 (en) | System and method for augmented reality data interaction for ultrasound imaging | |
JP6701438B1 (en) | Synthetic image generation system and initial condition reset system | |
JP7037810B2 (en) | Image processing device, image processing program, and image processing method | |
US20220215562A1 (en) | Registration method and setup | |
JP6795744B2 (en) | Medical support method and medical support device | |
KR101635731B1 (en) | Visualization system and method for visualizing inner objects of human | |
Octorina Dewi et al. | Position tracking systems for ultrasound imaging: a survey | |
Trevisan et al. | Augmented vision for medical applications | |
CN112545549A (en) | Ultrasonic imaging system | |
CN112336374A (en) | Accurate positioning device and method for carotid artery ultrasonic probe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6095032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |