JP6095032B1 - Composite image presentation system - Google Patents

Composite image presentation system Download PDF

Info

Publication number
JP6095032B1
JP6095032B1 JP2016041611A JP2016041611A JP6095032B1 JP 6095032 B1 JP6095032 B1 JP 6095032B1 JP 2016041611 A JP2016041611 A JP 2016041611A JP 2016041611 A JP2016041611 A JP 2016041611A JP 6095032 B1 JP6095032 B1 JP 6095032B1
Authority
JP
Japan
Prior art keywords
position information
optical
marker
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016041611A
Other languages
Japanese (ja)
Other versions
JP2017153827A (en
Inventor
張 博
博 張
俊一 田野
俊一 田野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Kikuchi Seisakusho Co Ltd
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Kikuchi Seisakusho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS, Kikuchi Seisakusho Co Ltd filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2016041611A priority Critical patent/JP6095032B1/en
Application granted granted Critical
Publication of JP6095032B1 publication Critical patent/JP6095032B1/en
Publication of JP2017153827A publication Critical patent/JP2017153827A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】光学マーカ主体で、1台のカメラで撮像された現時点のカメラ画像に基づくデータを補完し、実空間内の光学マーカとHMDの全体座標系における3次元位置情報を簡易に且つ精度良く検出すること。【解決手段】合成画像提示システムは、HMD11に取り付けられたカメラ18を利用して、実空間内の所定部位に配置された光学マーカ24の局所座標系におけるローカル位置情報を検出する光学トラッキング手段21と、光学マーカ24とHMD11について、全体座標系におけるグローバル位置情報を求める座標変換手段32とを有している。座標変換手段32では、複数医師Dのカメラ18で同時撮像されたカメラ画像と、過去に撮像されたカメラ画像との少なくとも一方を利用し、各カメラ画像に撮像された複数の光学マーカ24のローカル位置情報から、全ての光学マーカ24間の相対位置関係を特定した上で、各光学マーカ24におけるグローバル位置情報が求められる。【選択図】 図1The present invention is an optical marker-based method that complements data based on the current camera image captured by a single camera, and enables easy and accurate three-dimensional position information in the entire coordinate system of the optical marker and HMD in real space. To detect. An optical tracking means for detecting local position information in a local coordinate system of an optical marker arranged at a predetermined site in real space using a camera attached to an HMD. In addition, the optical marker 24 and the HMD 11 have coordinate conversion means 32 for obtaining global position information in the entire coordinate system. The coordinate conversion unit 32 uses at least one of a camera image simultaneously captured by the cameras 18 of the plurality of doctors D and a camera image captured in the past, and localizes the plurality of optical markers 24 captured in each camera image. After specifying the relative positional relationship between all the optical markers 24 from the position information, global position information for each optical marker 24 is obtained. [Selection] Figure 1

Description

本発明は、外界の実空間の一部に他で取得した重畳画像を重ね合わせた合成画像を生成し、当該合成画像をユーザに視認させるための合成画像提示システムに関する。   The present invention relates to a composite image presentation system for generating a composite image obtained by superimposing a superposed image acquired elsewhere on a part of a real space in the outside world and allowing a user to visually recognize the composite image.

近年、仮想現実感(VR:Virtual Reality)や拡張現実感(AR:Augmented Reality)の技術について、他の様々な分野への応用が検討されている。AR技術の医療分野への応用としては、所定の重畳画像を外界の実空間を撮像したカメラ画像に重ね合わせてユーザに視認させるビデオシースルータイプのヘッドマウントディスプレイを利用し、医療教育支援や低侵襲手術支援等を行うシステムが研究されている。当該システムとしては、例えば、ヘッドマウントディスプレイを装着した医師が穿刺等を行う際に用いられ、ヘッドマウントディスプレイに取り付けられたビデオカメラにより撮像された医師の視野のカメラ画像に、超音波診断装置のプローブが当てられた患者の患部の超音波画像が重ね合わされた状態で医師に視認させるシステムがある(例えば、非特許文献1参照)。   In recent years, applications of various technologies such as virtual reality (VR) and augmented reality (AR) have been studied. As an application of AR technology to the medical field, a video see-through type head-mounted display that allows a user to visually superimpose a predetermined superimposed image on a camera image obtained by capturing a real space in the outside world is used to provide medical education support and minimal invasiveness. Systems that support surgery are being studied. As the system, for example, a doctor wearing a head-mounted display is used when performing puncture or the like, and a camera image of a doctor's field of view captured by a video camera attached to the head-mounted display is used for an ultrasonic diagnostic apparatus. There is a system in which a doctor visually recognizes an ultrasound image of an affected area of a patient to which a probe is applied (see, for example, Non-Patent Document 1).

この非特許文献1のシステムでは、プローブの位置や向きに応じ、カメラ画像に超音波画像が重畳される。この際に必要なプローブの3次元位置情報を取得するために、プローブに光学マーカを取り付け、当該光学マーカをビデオカメラで撮像することにより、カメラ画像内の光学マーカの状態から、ビデオカメラと光学マーカの相対的な位置関係を求める手法が非特許文献1に提案されている。   In the system of Non-Patent Document 1, an ultrasonic image is superimposed on a camera image according to the position and orientation of the probe. In order to acquire the three-dimensional position information of the probe required at this time, an optical marker is attached to the probe, and the optical marker is imaged by the video camera, so that the video camera and the optical are detected from the state of the optical marker in the camera image. A method for obtaining the relative positional relationship between markers is proposed in Non-Patent Document 1.

当該非特許文献1の手法のように、光学マーカがプローブのみに取り付けられている場合、1つの光学マーカとビデオカメラとの相対位置関係しか分からず、実空間内の定点を原点とした全体座標系における光学マーカの3次元位置情報を把握することができない。そのため、患者の患部の所定範囲に沿ってプローブを動かしてビーム走査し、当該ビーム走査時におけるプローブの3次元位置情報を所定時間毎に計測し、各時刻の超音波画像データとその際のプローブの3次元位置情報を対応させたボリュームデータを取得するニーズ等がある場合に、非特許文献1の手法では、医師の頭部に装着されたビデオカメラの位置や姿勢を固定しながらビーム走査をする必要があり、一定精度のボリュームデータを取得することが困難になる。   When the optical marker is attached only to the probe as in the method of Non-Patent Document 1, only the relative positional relationship between one optical marker and the video camera is known, and the entire coordinates with the fixed point in real space as the origin The three-dimensional position information of the optical marker in the system cannot be grasped. Therefore, the beam is scanned by moving the probe along a predetermined range of the affected area of the patient, the three-dimensional position information of the probe at the time of the beam scanning is measured every predetermined time, and ultrasonic image data at each time and the probe at that time When there is a need to acquire volume data corresponding to the three-dimensional position information, the method of Non-Patent Document 1 performs beam scanning while fixing the position and posture of the video camera mounted on the head of the doctor. Therefore, it is difficult to obtain volume data with a certain accuracy.

そこで、非特許文献2には、ヘッドマウントディスプレイとプローブに磁気マーカをそれぞれ取り付け、様々な強さの磁界を発生する磁気基地局からの磁界の変化を磁気マーカで検知し、磁気基地局を基準とした座標系を全体座標系としてヘッドマウントディスプレイとプローブの3次元位置情報を検出する手法が提案されている。   Therefore, in Non-Patent Document 2, a magnetic marker is attached to each of the head mounted display and the probe, a change in magnetic field from a magnetic base station that generates a magnetic field of various strengths is detected by the magnetic marker, and the magnetic base station is used as a reference. A method for detecting the three-dimensional position information of the head mounted display and the probe using the coordinate system as a whole coordinate system has been proposed.

更に、非特許文献3には、非特許文献1の手法に対して、患者の周囲に複数の光学マーカを更に固定配置し、当該固定配置された光学マーカとプローブに設けられた光学マーカとを用いて、全体座標系における各光学マーカの3次元位置情報を検出する手法が提案されている。   Further, in Non-Patent Document 3, a plurality of optical markers are further fixedly arranged around the patient, and the fixedly arranged optical markers and the optical markers provided on the probe are compared with the technique of Non-Patent Document 1. A method for detecting the three-dimensional position information of each optical marker in the global coordinate system has been proposed.

Shun'ichi Tano, Keisuke Suzuki, Kenji Miki, Natsuko Watanabe, Mitsuru Iwata, Tomohiro Hashiyama, Junko Ichino, Ken Nakayama, Simple Augmented Reality System for 3D Ultrasonic Image by See-through HMD and Single Camera and Marker Combination, Proceedings of the IEEE-EMBS, International Conference on Biomedical and Health Informatics (BHI 2012), 2012.1, pp.464-467Shun'ichi Tano, Keisuke Suzuki, Kenji Miki, Natsuko Watanabe, Mitsuru Iwata, Tomohiro Hashiyama, Junko Ichino, Ken Nakayama, Simple Augmented Reality System for 3D Ultrasonic Image by See-through HMD and Single Camera and Marker Combination, Proceedings of the IEEE -EMBS, International Conference on Biomedical and Health Informatics (BHI 2012), 2012.1, pp.464-467 小杉 直史, 田野 俊一, 橋山 智訓, 三木 健司, 岩田 満, 超音波診断における医療ARシステムの分類, ファジィシステムシンポジウム2015, 2015.9, pp.588-593Naoshi Kosugi, Shunichi Tano, Tomonori Hashiyama, Kenji Miki, Mitsuru Iwata, Classification of Medical AR Systems in Ultrasound Diagnosis, Fuzzy System Symposium 2015, 2015.9, pp.588-593 渡部 夏子, 田野 俊一, 橋山 智訓, 市野 順子, 三木 健司, 岩田 満, 手術室内環境及び術者に柔軟に適応可能な超音波装置インターフェースの提案,ファジィシステムシンポジウム2012, 2012.9, pp.649-654Natsuko Watanabe, Shunichi Tano, Tomonori Hashiyama, Junko Ichino, Kenji Miki, Mitsuru Iwata, Proposal of an ultrasonic device interface that can be flexibly adapted to the operating room environment and the operator, Fuzzy System Symposium 2012, 2012.9, pp.649- 654

しかしながら、前記非特許文献2のように磁気を利用したシステムにおいては、周囲に存在する金属に非常に弱く、金属部品を多く含む環境下での使用では、検出誤差が大きくなり、頻繁なキャリブレーションが必要になる他、磁気基地局と磁気マーカとの距離が大きくなるほど誤差が大きくなる。また、前記非特許文献3の手法では、ヘッドマウントディスプレイを装着している医師自身のカメラで、実空間内を移動するプローブに設けられた光学マーカに加え、固定配置された光学マーカの少なくとも1つが常に撮像されていなければ、全体座標系におけるプローブの3次元位置を特定することができず、この際、カメラ画像に重畳画像を重畳できなくなる。従って、このような事態を回避するためには、プローブがどこに移動しても、プローブが撮像されたカメラ画像内に、固定配置された光学マーカの少なくとも1つが撮像されるように、多数の光学マーカを実空間の至る場所に配置する必要が生じる。そして、固定配置された各光学マーカの間の相対位置関係を特定するために、医師が装着している1台のカメラで、固定配置された全ての光学マーカを撮像する事前作業が必要となり煩雑である。   However, in the system using magnetism as described in Non-Patent Document 2, it is very weak to surrounding metal, and when used in an environment containing many metal parts, detection error becomes large and frequent calibration is required. In addition, the error increases as the distance between the magnetic base station and the magnetic marker increases. Further, according to the method of Non-Patent Document 3, at least one of the optical markers fixedly arranged in addition to the optical marker provided on the probe moving in the real space with the doctor's own camera wearing the head mounted display. If one is not always imaged, the three-dimensional position of the probe in the global coordinate system cannot be specified, and in this case, the superimposed image cannot be superimposed on the camera image. Therefore, in order to avoid such a situation, no matter where the probe is moved, a large number of optical markers are captured so that at least one of the optical markers fixedly arranged is captured in the camera image where the probe is captured. It is necessary to place the marker in the real space. In addition, in order to identify the relative positional relationship between the optical markers that are fixedly arranged, it is necessary to perform a prior work for imaging all the optical markers that are fixedly arranged with one camera worn by a doctor. It is.

本発明は、このような課題に着目して案出されたものであり、その目的は、光学マーカを主体とし、1台のカメラで撮像された現時点のカメラ画像に基づくデータを補完し、実空間に存在する光学マーカとヘッドマウントディスプレイの全体座標系における3次元位置情報を簡易に且つ精度良く検出することで、所望の状態の合成画像を確実に生成できる合成画像提示システムを提供することにある。   The present invention has been devised by paying attention to such a problem. The object of the present invention is to supplement data based on the current camera image captured by one camera, mainly using an optical marker, and To provide a composite image presentation system capable of reliably generating a composite image in a desired state by easily and accurately detecting three-dimensional position information in an entire coordinate system of an optical marker and a head mounted display existing in space. is there.

前記目的を達成するため、本発明は、主として、ユーザに装着され、当該ユーザの視界に存在する実空間の画像を撮像するカメラが取り付けられたヘッドマウントディスプレイに対し、別途取得された重畳画像を実空間の一部領域に重ねた状態でユーザに視認させる合成画像を提示する合成画像提示システムにおいて、前記実空間内の所定部位の3次元位置情報を検出する位置情報検出装置と、当該位置情報検出装置によって検出された3次元位置情報に基づき、前記合成画像を生成して前記ヘッドマウントディスプレイに提示する処理装置とを備え、前記位置情報検出装置は、前記カメラで撮像されたカメラ画像を利用して前記所定部位における3次元位置情報を検出する光学トラッキング手段を備え、前記光学トラッキング手段は、複数存在する前記所定部位にそれぞれ設置される光学マーカと、前記カメラ画像に撮像された前記各光学マーカの画像状態を認識することにより、これら各光学マーカについて、前記カメラの定点を原点とした局所座標系における3次元位置情報であるローカル位置情報を検出する光学マーカ検出部とを備え、前記処理装置は、前記ローカル位置情報から、前記所定部位及び前記ヘッドマウントディスプレイについて、前記実空間内の定点を原点とした全体座標系における3次元位置情報であるグローバル位置情報を求める座標変換手段と、前記グローバル位置情報に基づき前記合成画像を生成する合成画像生成手段とを備え、前記座標変換手段では、前記カメラでの撮像位置及び/又は撮像タイミングの異なる複数の前記カメラ画像を利用し、当該各カメラ画像に撮像された複数の前記光学マーカの前記ローカル位置情報から、全ての前記光学マーカ間の相対位置関係を特定した上で、少なくとも1つの前記光学マーカと前記全体座標系の原点との相対位置関係に基づき、前記各光学マーカにおける前記グローバル位置情報を求める、という構成を採っている。   In order to achieve the above object, the present invention mainly provides a superimposed image acquired separately on a head mounted display attached to a user and attached with a camera that captures an image of real space existing in the user's field of view. In a composite image presentation system that presents a composite image to be visually recognized by a user in a state of being superimposed on a partial area of real space, a position information detection device that detects three-dimensional position information of a predetermined part in the real space, and the position information A processing device that generates the composite image based on the three-dimensional position information detected by the detection device and presents the composite image on the head-mounted display. The position information detection device uses a camera image captured by the camera. And optical tracking means for detecting three-dimensional position information at the predetermined part, and the optical tracking means includes a plurality of optical tracking means. By recognizing the image state of each optical marker imaged in the camera image and each optical marker installed at each of the predetermined portions, local coordinates with the camera fixed point as the origin for each of these optical markers An optical marker detection unit that detects local position information that is three-dimensional position information in the system, and the processing device determines a fixed point in the real space for the predetermined part and the head mounted display from the local position information. Coordinate conversion means for obtaining global position information which is three-dimensional position information in the global coordinate system as the origin, and composite image generation means for generating the composite image based on the global position information, in the coordinate conversion means, Using a plurality of the camera images having different imaging positions and / or imaging timings with the camera, After specifying the relative positional relationship between all the optical markers from the local position information of the plurality of optical markers captured in each camera image, at least one optical marker and the origin of the global coordinate system The global position information for each optical marker is obtained based on the relative positional relationship.

なお、本明細書及び特許請求の範囲において、「3次元位置情報」とは、所定の座標系における直交3軸における3次元位置に、当該直交3軸回りの回転角度である傾きを加えた情報を意味する。「3次元位置情報の座標成分」とは、3次元位置(x,y,z)と、回転角度(α,β,γ)の6成分を意味する。   In the present specification and claims, the “three-dimensional position information” is information obtained by adding a tilt, which is a rotation angle around the three orthogonal axes, to the three-dimensional position in the three orthogonal axes in a predetermined coordinate system. Means. The “coordinate component of the three-dimensional position information” means six components of a three-dimensional position (x, y, z) and a rotation angle (α, β, γ).

本発明によれば、過去のカメラ画像や他のユーザが撮像したカメラ画像をも用いて、1のカメラで撮像されたカメラ画像に基づくデータを補完し、実空間に存在する光学マーカとヘッドマウントディスプレイのグローバル位置情報を簡易に且つ精度良く検出することができる。これにより、ユーザが撮像したカメラ画像内の光学マーカの位置や向きに対応して、カメラ画像の所定位置に重畳画像を正確に重ね合わせることができる。また、光学マーカ主体で前記グローバル位置情報を検出することができ、事前準備として、磁気を用いたセンシングシステム等における原点位置のキャリブレーション作業が不要で、固定配置された光学マーカをユーザが事前にカメラで撮像するだけで、システムの使用が可能となる。更に、あるユーザのカメラ画像に撮像されていないが、他のユーザのカメラ画像に撮像された光学マーカの認識結果を共用することができ、必ずしも、一人のユーザのカメラで全ての光学マーカを撮像する必要がなく、事前作業の短縮化を図ることができるとともに、固定配置される光学マーカの数を極力抑えつつも、実空間内の光学マーカとヘッドマウントディスプレイのグローバル位置情報を確実に検出することができる。   According to the present invention, data based on a camera image captured by one camera is complemented using past camera images and camera images captured by other users, and optical markers and head mounts that exist in real space. The global position information of the display can be detected easily and accurately. Accordingly, the superimposed image can be accurately superimposed on a predetermined position of the camera image in accordance with the position and orientation of the optical marker in the camera image captured by the user. Also, the global position information can be detected mainly by the optical marker, and as a preliminary preparation, the calibration of the origin position in the sensing system using magnetism is not necessary, and the user can set the optical marker fixedly arranged in advance. The system can be used simply by imaging with a camera. Furthermore, the recognition result of the optical marker captured in the camera image of another user can be shared although it is not captured in the camera image of one user, and all the optical markers are necessarily captured by the camera of one user. It is possible to shorten the pre-work and reduce the number of fixed optical markers as much as possible, while reliably detecting global position information of optical markers and head mounted displays in real space. be able to.

また、光学マーカが多面体の複数面にそれぞれ固定配置された複合マーカを用いると、より広範な角度からカメラで光学マーカを撮像可能となり、光学マーカの認識精度を向上させることができる。   Further, when a composite marker in which optical markers are fixedly arranged on a plurality of surfaces of a polyhedron is used, the optical marker can be imaged with a camera from a wider range of angles, and the recognition accuracy of the optical marker can be improved.

更に、マーカ位置算出部において、位置情報検出装置での位置計測誤差に関する誤差特性を考慮して、前記光学マーカのグローバル位置情報を算出する構成によれば、光学マーカによる位置計測を非光学マーカによる位置計測に単に代替させるのではなく、これらマーカを総合的に利用し、3次元位置情報の座標成分毎に確率分布を用いながら優劣判断をすることで、位置計測誤差が少ないと思われる適切な位置のユーザのデータを効果的に利用可能となる。   Furthermore, according to the configuration in which the marker position calculation unit calculates the global position information of the optical marker in consideration of the error characteristic related to the position measurement error in the position information detection device, the position measurement by the optical marker is performed by the non-optical marker. Instead of simply substituting for position measurement, it is appropriate to use these markers comprehensively and make a superiority or inferiority judgment using the probability distribution for each coordinate component of 3D position information. The user data of the position can be used effectively.

本発明の合成画像提示システムを含むAR表示システムの主たる構成を表す概念図である。It is a conceptual diagram showing the main structures of AR display system containing the composite image presentation system of this invention. 前記AR表示システムの全体構成を表すブロック図である。It is a block diagram showing the whole structure of the AR display system. 誤差データベースに記憶された誤差情報を説明するための図である。It is a figure for demonstrating the error information memorize | stored in the error database. マーカ位置算出部での処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence in a marker position calculation part. マーカ位置算出部での処理を説明するための第1事例における概念図である。It is a conceptual diagram in the 1st example for demonstrating the process in a marker position calculation part. マーカ位置算出部での処理を説明するための第2事例における概念図である。It is a conceptual diagram in the 2nd example for demonstrating the process in a marker position calculation part. マーカ位置算出部での処理を説明するための第3事例における概念図である。It is a conceptual diagram in the 3rd example for demonstrating the process in a marker position calculation part. 各経路における標準偏差と最終推定値との関係を表すグラフである。It is a graph showing the relationship between the standard deviation in each path | route and the last estimated value. 立体光学マーカの概略斜視図である。It is a schematic perspective view of a stereo optical marker.

以下、本発明の実施形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1には、本発明の合成画像提示システムを含むAR表示システムの主たる構成を表す概念図が示され、図2には、当該AR表示システムの全体構成を表すブロック図が示されている。これらの図において、前記AR表示システム10は、医療現場で適用され、ユーザである複数(n人)の医師D(D1、D2、・・、Dn)がヘッドマウントディスプレイ11(以下、「HMD11」と称する。)を装着し、各医師Dの視界に存在する患者Sの実空間の画像(主に患部)に、対応する超音波画像等の診断画像を重畳画像として重ねた合成画像をHMD11に表示するシステムである。   FIG. 1 is a conceptual diagram showing the main configuration of an AR display system including the composite image presentation system of the present invention, and FIG. 2 is a block diagram showing the overall configuration of the AR display system. In these drawings, the AR display system 10 is applied in a medical field, and a plurality of (n) doctors D (D1, D2,..., Dn) who are users are head mounted displays 11 (hereinafter referred to as “HMD11”). And a composite image obtained by superimposing a corresponding diagnostic image such as an ultrasound image as a superimposed image on an image (mainly affected area) of the patient S existing in the field of view of each doctor D. This is a display system.

このAR表示システム10は、各医師Dの頭部に装着されるHMD11と、患者Pの患部等の診断画像を取得する画像診断装置13と、実空間内の所定部位の3次元位置情報を検出する位置情報検出装置14と、位置情報検出装置14の検出結果に基づいて前記合成画像を生成し、当該合成画像をHMD11に提示する処理装置16とを備えて構成されている。なお、位置情報検出装置14及び処理装置16は、HMD11に対し前記合成画像を提示する合成画像提示システムを構成する。   This AR display system 10 detects the HMD 11 worn on the head of each doctor D, the image diagnostic device 13 for acquiring a diagnostic image of the affected part of the patient P, and the three-dimensional position information of a predetermined part in the real space. And a processing device 16 that generates the composite image based on the detection result of the position information detection device 14 and presents the composite image to the HMD 11. The position information detection device 14 and the processing device 16 constitute a composite image presentation system that presents the composite image to the HMD 11.

前記HMD11は、合成画像の背景となる実空間のカメラ画像を撮像するビデオカメラ18が取り付けられたビデオシースルー型のものが用いられており、カメラ画像に重畳画像を重ね合せた合成画像が装着者の目前に表示されるようになっている。なお、本実施形態では、HMD11として、前記合成画像を装着者の左右両眼に提示する複眼タイプのものが用いられている。   The HMD 11 is a video see-through type equipped with a video camera 18 that captures a real space camera image as a background of the composite image, and the composite image obtained by superimposing the superimposed image on the camera image is a wearer. It is displayed in front of. In the present embodiment, as the HMD 11, a compound eye type that presents the composite image to the left and right eyes of the wearer is used.

前記ビデオカメラ18は、HMD11を装着した各医師Dが、自身の目前の実空間を実際に直視したのとほぼ同一のカメラ画像を取得できるように配置されている。従って、各医師Dは、自身の目前に存在する患者Sやその患部の様子について、HMD11の表示部に表示されたカメラ画像を通じて視認可能となる。なお、本発明においては、前記カメラ画像を取得できる限りにおいて、他の種々のカメラを採用することもできる。   The video camera 18 is arranged so that each doctor D wearing the HMD 11 can acquire almost the same camera image as if he / she actually viewed the real space in front of himself / herself. Therefore, each doctor D can visually recognize the patient S existing in front of him or the state of the affected part through the camera image displayed on the display unit of the HMD 11. In the present invention, as long as the camera image can be acquired, other various cameras can be employed.

前記画像診断装置13としては、2次元超音波診断装置が適用される。この2次元超音波診断装置では、プローブ19(図1参照)によるビーム走査によって、ビーム走査面と同一断面における断層画像である2次元画像等の超音波画像が生成される。また、患部の所定範囲でビーム走査を行い、当該ビーム走査時におけるプローブ19の同一座標系での3次元位置情報の後述する計測結果を利用して、患部の所定範囲内における体内の臓器等の立体像の生成を可能にする機能が設けられている。これら超音波画像や立体像等の医療情報画像は、重畳画像として実空間のカメラ画像の所定位置に立体的に重ね合された状態で、HMD11を通じて医師Dが視認可能となる。なお、画像診断装置13としては、本実施形態の超音波診断装置に限らず、CT、MRI等の他の画像診断装置を適用することも可能である。   As the diagnostic imaging apparatus 13, a two-dimensional ultrasonic diagnostic apparatus is applied. In this two-dimensional ultrasonic diagnostic apparatus, an ultrasonic image such as a two-dimensional image which is a tomographic image on the same cross section as the beam scanning surface is generated by beam scanning with the probe 19 (see FIG. 1). Further, a beam scan is performed in a predetermined range of the affected part, and a measurement result to be described later of the three-dimensional position information in the same coordinate system of the probe 19 at the time of the beam scan is used. A function that enables generation of a stereoscopic image is provided. The medical information image such as an ultrasonic image and a three-dimensional image can be visually recognized by the doctor D through the HMD 11 in a state of being three-dimensionally superimposed on a predetermined position of the camera image in the real space as a superimposed image. Note that the diagnostic imaging apparatus 13 is not limited to the ultrasonic diagnostic apparatus of the present embodiment, and other diagnostic imaging apparatuses such as CT and MRI can be applied.

前記位置情報検出装置14は、図2に示されるように、ビデオカメラ18を利用して、実空間の所定部位における3次元位置情報を検出する光学トラッキング手段21と、ビデオカメラ18を利用せずに、実空間内の所定部位における3次元位置情報を検出する非光学トラッキング手段22とにより構成される。   As shown in FIG. 2, the position information detection device 14 uses a video camera 18 to detect three-dimensional position information in a predetermined part of real space, and does not use the video camera 18. And non-optical tracking means 22 for detecting three-dimensional position information at a predetermined site in the real space.

前記光学トラッキング手段21は、実空間内における複数の所定部位にそれぞれ設置される光学マーカ24と、カメラ画像に撮像された各光学マーカ24の画像状態を認識することにより、各設置部位の光学マーカ24について、ビデオカメラ18の中心を原点とした直交3軸の局所座標系における3次元位置情報を検出する光学マーカ検出部25とにより構成された光学トラッキングシステムからなる。つまり、この光学トラッキング手段21では、光学マーカ24を通じてその設置部位の3次元位置情報を検出可能となる。   The optical tracking means 21 recognizes the optical marker 24 installed at each of a plurality of predetermined sites in the real space and the image state of each optical marker 24 captured in the camera image, so that the optical marker at each site is installed. 24 includes an optical tracking system including an optical marker detection unit 25 that detects three-dimensional position information in a three-axis orthogonal coordinate system with the center of the video camera 18 as the origin. That is, the optical tracking means 21 can detect the three-dimensional position information of the installation site through the optical marker 24.

前記光学マーカ24は、仰向けに寝た状態の患者Sの体表部分の複数箇所にそれぞれ固定配置されている。なお、特に限定されるものではないが、本実施形態では、図1に示されるように、患者Sの患部の周囲4箇所に固定配置されている。また、光学マーカ24の表面には、所定の模様が付されており、当該模様の異なる複数パターンの光学マーカ24が用意され、配置部位毎に模様の異なる光学マーカ24が使用される。   The optical markers 24 are fixedly arranged at a plurality of locations on the body surface of the patient S lying on his / her back. Although not particularly limited, in the present embodiment, as shown in FIG. 1, they are fixedly arranged at four locations around the affected area of the patient S. In addition, a predetermined pattern is attached to the surface of the optical marker 24, and a plurality of patterns of optical markers 24 having different patterns are prepared, and the optical markers 24 having different patterns are used for each arrangement site.

前記光学マーカ検出部25では、ビデオカメラ18で撮像されたカメラ画像に光学マーカ24が写ると、当該光学マーカ24を画像認識することにより、公知の手法による次の処理が行われる。すなわち、ここでは、光学マーカ24の模様、形状、及びサイズが既知であることから、カメラ画像内の光学マーカ24の模様から、どこに配置されている光学マーカ24かを表すIDが特定されるとともに、カメラ画像内における光学マーカ24のサイズや形状から、光学マーカ24の位置や向きが求められる。ここで、光学マーカ24の位置や向きは、前記局所座標系として、当該光学マーカ24を撮像したビデオカメラ18の中心を原点とするHMD座標系Hによる3次元位置情報として取得される。なお、光学マーカ24を用いて得られる3次元位置情報の単位は、位置(mm)、角度(度)である。   When the optical marker 24 is captured in the camera image captured by the video camera 18, the optical marker detection unit 25 recognizes the image of the optical marker 24 and performs the following process using a known method. That is, here, since the pattern, shape, and size of the optical marker 24 are known, an ID that indicates where the optical marker 24 is located is specified from the pattern of the optical marker 24 in the camera image. The position and orientation of the optical marker 24 are determined from the size and shape of the optical marker 24 in the camera image. Here, the position and orientation of the optical marker 24 are acquired as three-dimensional position information by the HMD coordinate system H with the origin of the center of the video camera 18 that images the optical marker 24 as the local coordinate system. The unit of the three-dimensional position information obtained using the optical marker 24 is a position (mm) and an angle (degree).

従って、光学マーカ検出部25では、各医師Dにそれぞれ装着されたHMD11のビデオカメラ18で撮像された光学マーカ24について、各医師DのHMD11毎に設定されたHMD座標系Hによる3次元位置情報が逐次得られることになる。このHMD座標系Hは、医師Dがn人いると、HMD11の数と同一のn個存在する(H1、H2、・・、Hn)とともに、HMD11が装着される医師Dの頭部の動きに伴って移動する局所座標系として取り扱われる。   Therefore, the optical marker detection unit 25 uses the HMD coordinate system H set for each HMD 11 of each doctor D for the optical marker 24 captured by the video camera 18 of the HMD 11 attached to each doctor D. Will be obtained sequentially. In this HMD coordinate system H, when there are n doctors D, there are n (H1, H2,..., Hn) which are the same as the number of HMD11, and the movement of the head of the doctor D to which the HMD11 is attached It is treated as a local coordinate system that moves with it.

前記非光学トラッキング手段22は、実空間の様々な方向に、様々な強さの磁界を発生させる磁気基地局27と、磁気基地局27からの磁気の大きさを検出するセンサとして機能する磁気マーカ28(非光学マーカ)と、磁気マーカ28での磁気の検出状態からその設置部位の3次元位置情報を検出する磁気マーカ検出部29とにより構成された磁気トラッキングシステムからなる。つまり、この磁気トラッキング手段22では、磁気マーカ28を通じてその設置部位の3次元位置情報を検出可能となる。なお、磁気マーカ28を用いて得られる3次元位置情報の単位は、位置(mm)、角度(度)である。   The non-optical tracking means 22 includes a magnetic base station 27 that generates magnetic fields of various strengths in various directions in real space, and a magnetic marker that functions as a sensor that detects the magnitude of magnetism from the magnetic base station 27. 28 (non-optical marker) and a magnetic tracking system 29 configured to detect the three-dimensional position information of the installation site from the magnetic detection state of the magnetic marker 28. That is, the magnetic tracking means 22 can detect the three-dimensional position information of the installation site through the magnetic marker 28. The unit of the three-dimensional position information obtained using the magnetic marker 28 is a position (mm) and an angle (degree).

特に限定されるものではないが、本実施形態において、前記磁気マーカ28は、逐次移動するプローブ19の所定部位に固定されるとともに、固定配置された光学マーカ24のうちの2箇所に、相対移動不能且つ相対回転不能に取り付けられている。これら光学マーカ24と磁気マーカ28の一体型のマーカは、複数のマーカからなる複合マーカ30(図1参照)として機能し、光学マーカ検出部25及び磁気マーカ検出部29の双方で3次元位置情報を取得可能となる。   Although not particularly limited, in the present embodiment, the magnetic marker 28 is fixed to a predetermined portion of the probe 19 that moves sequentially, and is relatively moved to two of the optical markers 24 that are fixedly arranged. It is mounted so as not to be capable of relative rotation. The integrated marker of the optical marker 24 and the magnetic marker 28 functions as a composite marker 30 (see FIG. 1) composed of a plurality of markers, and the three-dimensional position information is obtained by both the optical marker detection unit 25 and the magnetic marker detection unit 29. Can be acquired.

前記磁気マーカ検出部29では、磁気基地局27から発生した磁界の方向や強さを計測することにより、プローブ19や光学マーカ24に取り付けられた磁気マーカ28について、当該磁気マーカ28のID毎に、磁気基地局27の所定部位を原点とした直交3軸の磁気座標系Mにおける3次元位置情報が逐次取得されるようになっている。この磁気座標系Mは、1箇所に存在するとともに、磁気基地局27が固定されることから、移動回転不能に固定される局所座標系として取り扱われる。   The magnetic marker detection unit 29 measures the direction and strength of the magnetic field generated from the magnetic base station 27, so that the magnetic marker 28 attached to the probe 19 or the optical marker 24 for each ID of the magnetic marker 28. The three-dimensional position information in the orthogonal three-axis magnetic coordinate system M with the predetermined part of the magnetic base station 27 as the origin is sequentially acquired. This magnetic coordinate system M exists at one place, and since the magnetic base station 27 is fixed, it is handled as a local coordinate system that is fixed so that it cannot move and rotate.

なお、非光学トラッキング手段22としては、ビデオカメラ18を利用しないで非光学マーカを追跡することにより、当該非光学マーカについて、予め設定された基準点を原点とした局所座標系における3次元位置情報を特定する3次元位置センサにより構成されたものであれば何でも良い。   As the non-optical tracking means 22, by tracking the non-optical marker without using the video camera 18, the three-dimensional position information in the local coordinate system with the reference point set in advance as the origin for the non-optical marker. As long as it is configured by a three-dimensional position sensor that identifies

図示省略しているが、他の非光学トラッキング手段22として、例えば、超音波を利用した超音波トラッキングシステムを採用し、磁気トラッキングシステムに代え、又は、磁気トラッキングシステムと併用することができる。この超音波トラッキングシステムは、様々な周波数、強さの超音波を発生する発信機を超音波マーカ(非光学マーカ)として実空間の所定部位に固定し、超音波受信局に設置された複数のマイクで超音波の周波数、強さを計測することにより、三角測量の原理などを用いて、超音波マーカの設置部位について、超音波受信局の所定点を原点とした直交3軸の超音波座標系における3次元位置情報を逐次取得するものである。この超音波座標系も、磁気座標系Mと同様、超音波基地局の固定配置によって固定される1の局所座標系として取り扱われる。この超音波トラッキングシステムを採用した場合においても、取得した3次元位置情報に基づいて、磁気トラッキングシステムで取得した3次元位置情報と同様に後述の処理が行われる。   Although not shown in the drawings, as the other non-optical tracking means 22, for example, an ultrasonic tracking system using ultrasonic waves is adopted, and the magnetic tracking system can be used instead of or in combination with the magnetic tracking system. In this ultrasonic tracking system, a transmitter that generates ultrasonic waves of various frequencies and strengths is fixed as an ultrasonic marker (non-optical marker) at a predetermined site in real space, and a plurality of ultrasonic tracking systems installed at an ultrasonic receiving station are used. By measuring the frequency and intensity of ultrasonic waves with a microphone, using the principle of triangulation, etc., the ultrasonic coordinate of the three orthogonal axes with the origin at the predetermined point of the ultrasonic receiving station for the ultrasonic marker installation site The three-dimensional position information in the system is acquired sequentially. Similar to the magnetic coordinate system M, this ultrasonic coordinate system is also handled as one local coordinate system fixed by a fixed arrangement of ultrasonic base stations. Even when this ultrasonic tracking system is employed, the processing described later is performed based on the acquired three-dimensional position information in the same manner as the three-dimensional position information acquired by the magnetic tracking system.

なお、以下の説明において、局所座標系であるHMD座標系H及び磁気座標系Mにおける3次元位置情報を適宜「ローカル位置情報」と称する。また、予め設定された実空間内に固定された定点を原点とした直交3軸の全体座標系である患者座標系Pにおける3次元位置情報を適宜「グローバル位置情報」と称する。   In the following description, the three-dimensional position information in the HMD coordinate system H and the magnetic coordinate system M, which are local coordinate systems, is appropriately referred to as “local position information”. In addition, the three-dimensional position information in the patient coordinate system P, which is an entire coordinate system of three orthogonal axes with a fixed point fixed in a preset real space as the origin, is appropriately referred to as “global position information”.

前記処理装置16は、CPU等の演算処理装置及びメモリやハードディスク等の記憶装置等からなるコンピュータによって構成され、当該コンピュータを以下の各手段や各部として機能させるためのプログラムがインストールされている。   The processing device 16 is configured by a computer including an arithmetic processing device such as a CPU and a storage device such as a memory and a hard disk, and a program for causing the computer to function as the following means and units is installed.

この処理装置16は、図2に示されるように、画像診断装置13とビデオカメラ18で得られた各種の画像データを取り込む画像取込手段31と、位置情報検出装置14で検出された光学マーカ24及び磁気マーカ28のローカル位置情報をグローバル位置情報に変換する座標変換手段32と、グローバル位置情報に基づいて各医師DのHMD11に提示される合成画像を生成する合成画像生成手段33とを備えている。   As shown in FIG. 2, the processing device 16 includes an image capturing means 31 for capturing various image data obtained by the image diagnostic device 13 and the video camera 18, and an optical marker detected by the position information detecting device 14. 24 and the coordinate conversion means 32 which converts the local position information of the magnetic marker 28 into the global position information, and the composite image generation means 33 which generates the composite image presented to the HMD 11 of each doctor D based on the global position information. ing.

前記座標変換手段32は、位置情報検出装置14で検出された各光学マーカ24及び磁気マーカ28のローカル位置情報を記録するデータ記録部35と、各種処理を行う際に用いられる情報が予め記憶されたデータベース36と、各光学マーカ24及び磁気マーカ28のグローバル位置情報を算出するマーカ位置算出部37と、マーカ位置算出部37で算出された各光学マーカ24及び磁気マーカ28のグローバル位置情報から、各HMD11のグローバル位置情報を求めるHMD位置算出部38とを備えている。   The coordinate conversion unit 32 stores in advance information used when performing various processes, and a data recording unit 35 that records local position information of each optical marker 24 and magnetic marker 28 detected by the position information detection device 14. From the database 36, the marker position calculation unit 37 for calculating the global position information of each optical marker 24 and magnetic marker 28, and the global position information of each optical marker 24 and magnetic marker 28 calculated by the marker position calculation unit 37, And an HMD position calculation unit 38 for obtaining global position information of each HMD 11.

前記データ記録部35は、各HMD11のビデオカメラ18で撮像された光学マーカ24について、当該光学マーカ24のローカル位置情報、すなわち、HMD座標系Hにおける位置(x,y,z)とそれら座標軸回りの回転角度(α,β,γ)とが、HMD11毎に記録される。例えば、ある光学マーカ24が、n人の医師D1〜Dnのビデオカメラ18で撮像されている場合、当該光学マーカ24について、異なるn個のHMD座標系H〜H1〜Hnにおけるローカル位置情報が記録されることになる。また、磁気マーカ28のローカル位置情報として、磁気座標系Mにおける位置(x,y,z)とそれら座標軸回りの回転角度(α,β,γ)とが記録される。これら光学マーカ24及び磁気マーカ28のローカル位置情報は、一定時間間隔(例えば、約数十mm/sec)でプールされ、一塊のデータの集合である1サイクル分のローカル位置データセットとして記録される。このローカル位置データセットは、1サイクル毎に記憶され、データ記録部35には、現在のローカル位置データセットと、それ以前のサイクルとなる過去のローカル位置データセットとが記憶されることになる。また、このデータ記録部35では、各光学マーカ24と磁気マーカ28について、移動可能性の有無に関する情報が予め登録され、当該情報とセットで記録される。図1の例では、プローブ19に取り付けられた磁気マーカ28のみが移動可能性「有」として登録され、その他の光学マーカ24と磁気マーカ28は移動可能性「無」として登録される。なお、当該登録内容は、状況に応じて逐次変更可能となっている。   The data recording unit 35, for the optical marker 24 imaged by the video camera 18 of each HMD 11, the local position information of the optical marker 24, that is, the position (x, y, z) in the HMD coordinate system H and their coordinate axes. The rotation angles (α, β, γ) are recorded for each HMD 11. For example, when a certain optical marker 24 is captured by the video cameras 18 of n doctors D1 to Dn, local position information in different n HMD coordinate systems H to H1 to Hn is recorded for the optical marker 24. Will be. Further, as the local position information of the magnetic marker 28, the position (x, y, z) in the magnetic coordinate system M and the rotation angles (α, β, γ) around these coordinate axes are recorded. The local position information of the optical marker 24 and the magnetic marker 28 is pooled at a constant time interval (for example, about several tens of mm / sec), and recorded as a local position data set for one cycle which is a set of data in a lump. . The local position data set is stored for each cycle, and the data recording unit 35 stores the current local position data set and the past local position data set that is the previous cycle. Further, in the data recording unit 35, information regarding the presence / absence of movement of each optical marker 24 and magnetic marker 28 is registered in advance and recorded as a set with the information. In the example of FIG. 1, only the magnetic marker 28 attached to the probe 19 is registered as “movable”, and the other optical markers 24 and the magnetic marker 28 are registered as “movable”. The registration contents can be changed sequentially according to the situation.

前記データベース36は、光学トラッキング手段21及び非光学トラッキング手段22それぞれの位置計測誤差に関する情報が記憶された誤差データベース42と、光学マーカ24と磁気マーカ28を一体化した複合マーカ30について、各マーカ24,28の相対位置関係が記憶された相互位置関係データベース43とにより構成されている。   The database 36 includes an error database 42 in which information on position measurement errors of the optical tracking unit 21 and the non-optical tracking unit 22 is stored, and a composite marker 30 in which the optical marker 24 and the magnetic marker 28 are integrated. , 28 and a mutual positional relationship database 43 in which the relative positional relationships are stored.

前記誤差データベース42には、図3に示されるように、光学トラッキングシステムによる位置検出法と磁気トラッキングシステムによる位置検出法のそれぞれについて、各座標系における3次元位置情報(位置(x,y,z)、向き(α,β,γ))の6成分を任意に組み合わせた多数のパターン毎に、それぞれの成分に見込まれる誤差の標準偏差(±Δx,±Δy,±Δz,±Δα,±Δβ,±Δγ)が記憶されている。   As shown in FIG. 3, the error database 42 includes three-dimensional position information (position (x, y, z) in each coordinate system for each of the position detection method using the optical tracking system and the position detection method using the magnetic tracking system. ), Orientation (α, β, γ)) for each of a large number of patterns in which six components are arbitrarily combined, the standard deviation (± Δx, ± Δy, ± Δz, ± Δα, ± Δβ) of errors expected for each component , ± Δγ) is stored.

前記相互位置関係データベース43は、本実施形態では、図1中「A」と表された光学マーカ24と、同図中「D」と表されたに光学マーカ24について、それぞれ磁気マーカ28が取り付けられた複合マーカ30となっているため、これら2つの複合マーカ30それぞれにつき、構成する光学マーカ24と磁気マーカ28の各IDと、これらマーカ24,28の間の相対位置(x,y,z)と相対回転角度(α,β,γ)とが記憶されている。   In the present embodiment, the mutual positional relationship database 43 is attached with the magnetic marker 28 for the optical marker 24 represented by “A” in FIG. 1 and the optical marker 24 represented by “D” in FIG. Therefore, for each of these two composite markers 30, the IDs of the optical marker 24 and the magnetic marker 28 constituting the two and the relative positions (x, y, z) between the markers 24, 28 are provided. ) And relative rotation angles (α, β, γ) are stored.

前記マーカ位置算出部37では、各光学マーカ24及び磁気マーカ28の各ローカル位置情報について、グローバル位置情報に変換する処理が行われるが、ここでの処理目的としては、次の通りである。   The marker position calculation unit 37 performs processing for converting each local position information of each optical marker 24 and each magnetic marker 28 into global position information. The processing purpose here is as follows.

位置情報検出装置14で検出された各マーカ24,28の3次元位置情報は、座標系が全て統一されたものでなく、HMD11と光学マーカ24との相対位置関係や、磁気基地局27と磁気マーカ28との相対位置関係を表したものに過ぎない。最終的には、合成画像生成手段33で、各医師DのHMD11に表示される背景画像となるカメラ画像内のプローブ19の部位に、当該プローブ19の位置や向きに応じた前記医療情報画像を重畳画像として重ね合わせて合成画像を生成する処理がなされる。この画像生成処理を行うためには、全ての光学マーカ24と磁気マーカ28の3次元位置情報を統一した患者座標系Pで表し、その結果を利用し、各医師Dの動作に伴って移動する各HMD11の3次元位置情報を統一した患者座標系Pで把握する必要がある。そこで、マーカ位置算出部37では、必ずしも、1人の医師Dのビデオカメラ18で全ての光学マーカ24を撮像していなくても、他の医師Dのビデオカメラ18での撮像結果や、データ記録部35で記録された過去のローカル位置データセットが相補的に利用され、光学マーカ24と磁気マーカ28のグローバル位置情報が求められる。   The three-dimensional position information of the markers 24 and 28 detected by the position information detection device 14 is not a unified coordinate system, but the relative positional relationship between the HMD 11 and the optical marker 24, the magnetic base station 27, and the magnetic field. It only represents the relative positional relationship with the marker 28. Finally, the synthesized image generation means 33 displays the medical information image corresponding to the position and orientation of the probe 19 on the site of the probe 19 in the camera image that is the background image displayed on the HMD 11 of each doctor D. A process of generating a composite image by superimposing it as a superimposed image is performed. In order to perform this image generation processing, the three-dimensional position information of all the optical markers 24 and magnetic markers 28 is represented by a unified patient coordinate system P, and the result is used to move with the operation of each doctor D. It is necessary to grasp the three-dimensional position information of each HMD 11 with the unified patient coordinate system P. Therefore, the marker position calculation unit 37 does not necessarily capture all the optical markers 24 with the video camera 18 of one doctor D, and does not necessarily capture the imaging results or data recording with the video camera 18 of the other doctor D. The past local position data sets recorded by the unit 35 are used complementarily, and global position information of the optical marker 24 and the magnetic marker 28 is obtained.

このマーカ位置算出部37での具体的な処理手順について、図4のフローチャートに沿って図5〜7にそれぞれ示す第1〜第3事例を用いながら以下に説明する。   A specific processing procedure in the marker position calculation unit 37 will be described below using first to third cases shown in FIGS. 5 to 7 along the flowchart of FIG.

先ず、データ記録部35から、現在のローカル位置データセットが取得される(ステップS101)。次に、取得したローカル位置データセットの中から、複数の光学マーカ24が1つの画像内に撮像されているカメラ画像が探索され、同一のカメラ画像に撮像された各光学マーカ24が、相対位置関係が判明している組み合わせとして全て抽出される(ステップS102)。   First, the current local position data set is acquired from the data recording unit 35 (step S101). Next, a camera image in which a plurality of optical markers 24 are captured in one image is searched from the acquired local position data set, and each optical marker 24 captured in the same camera image has a relative position. All combinations with known relationships are extracted (step S102).

ここで、第1事例として、光学マーカ24と磁気マーカ28を図1の配置状態とし、1人目の医師D1のビデオカメラ18で取得したカメラ画像には、図1中「A」、「B」で表した光学マーカ24が同時に撮像され、2人目の医師D2のビデオカメラ18で取得したカメラ画像には、同図中「C」、「D」で表した光学マーカ24が同時に撮像されているとする。この第1事例では、1人目の医師D1のHMD11におけるHMD座標系H1での「A」、「B」の光学マーカ24が、相対位置関係が判明している組み合わせとして抽出されるとともに、2人目の医師D2のHMD11におけるHMD座標系H2での「C」、「D」の光学マーカ24が、相対位置関係が判明している組み合わせとして抽出される。なお、図5では、本第1事例において同一の組み合わせを構成する光学マーカ24につき、同一の破線枠で囲んで表している。また、仮に、医師D2のビデオカメラ18で別途取得したカメラ画像にも、「A」、「B」の光学マーカが写っているような場合に、HMD座標系H2での「A」、「B」の光学マーカ24も、相対位置関係が判明している組み合わせとして更に抽出される。すなわち、同一の組み合わせの光学マーカ24が異なるHMD11のビデオカメラ18で撮像された場合にも、それぞれ別種の組み合わせとして抽出される。   Here, as a first example, the optical marker 24 and the magnetic marker 28 are arranged as shown in FIG. 1, and the camera images acquired by the video camera 18 of the first doctor D1 include “A” and “B” in FIG. The optical marker 24 represented by (2) is simultaneously imaged, and in the camera image acquired by the video camera 18 of the second doctor D2, the optical markers 24 represented by “C” and “D” in the same figure are simultaneously imaged. And In the first case, the optical markers 24 of “A” and “B” in the HMD coordinate system H1 in the HMD 11 of the first doctor D1 are extracted as a combination whose relative positional relationship is known, and the second person The optical markers 24 of “C” and “D” in the HMD coordinate system H2 in the HMD 11 of the doctor D2 are extracted as a combination whose relative positional relationship is known. In FIG. 5, the optical markers 24 constituting the same combination in the first example are shown surrounded by the same broken line frame. In addition, if the camera image separately acquired by the video camera 18 of the doctor D2 also includes the optical markers “A” and “B”, “A” and “B” in the HMD coordinate system H2 are used. "Is further extracted as a combination whose relative positional relationship is known. That is, even when the optical markers 24 of the same combination are captured by the video cameras 18 of different HMDs 11, they are extracted as different types of combinations.

次に、抽出された光学マーカ24の各組み合わせのみで、全ての光学マーカ24が連結されるか否かについて判定される(ステップS103)。第1事例では、「A」、「B」の光学マーカ24の組み合わせと、「C」、「D」の光学マーカ24の組み合わせとが有り、それらの組に共通する光学マーカ24が存在していないため、ここでは、各組み合わせ間について、全ての光学マーカ24は連結していないと判定される。一方、第1事例に対し、更に3人目の医師D3のビデオカメラ18で取得したカメラ画像に、「B」、「C」の光学マーカ24が同時に撮像されている図6の第2事例の場合、「B」の光学マーカ24は、1人目の医師D1のビデオカメラ18で撮像されており、「C」の光学マーカ24は、2人目の医師D2のビデオカメラ18で撮像されているため、全光学マーカ24について連結されていると判定される。   Next, it is determined whether or not all the optical markers 24 are connected only by each combination of the extracted optical markers 24 (step S103). In the first case, there are a combination of optical markers 24 of “A” and “B” and a combination of optical markers 24 of “C” and “D”, and there is an optical marker 24 common to these sets. Therefore, it is determined here that all the optical markers 24 are not connected between the combinations. On the other hand, in the case of the second case of FIG. 6, the “B” and “C” optical markers 24 are simultaneously captured in the camera image acquired by the video camera 18 of the third doctor D3 in addition to the first case. , The optical marker 24 of “B” is imaged by the video camera 18 of the first doctor D1, and the optical marker 24 of “C” is imaged by the video camera 18 of the second doctor D2, It is determined that all the optical markers 24 are connected.

そして、第1事例のように、全ての光学マーカ24が連結していないと判定された場合、非光学トラッキング手段22での検出結果を用いて、各光学マーカ24の組み合わせ間における連結状態を確保できるか否かが確認される(ステップS104)。すなわち、ここでは、現在のローカル位置データセットの中から、磁気マーカ28が光学マーカ24に一体的に設けられた複合マーカ30を更に利用したときに、光学マーカ24の連結状態が確保できるか否かが確認される。図5の第1事例の場合、「A」、「D」の光学マーカ24は複合マーカ30であることから、相互位置関係データベース43の情報により、「A」の光学マーカ24とそれに付設された磁気マーカ28の相対位置関係と、「D」の光学マーカ24とそれに付設された磁気マーカ28の相対位置関係は判明している。従って、同一の磁気座標系Mでの各磁気マーカ28の3次元位置情報の検出結果から、各磁気マーカ28の相対位置関係を通じて「A」、「D」の光学マーカ24の相対位置関係が判明する。その結果、図5中1点鎖線で仮想的に表すように、「A」、「D」の光学マーカ24が非光学トラッキング手段22を通じて連結され、各光学マーカ24の連結状態が確保されたと判断される(ステップS105)。   When it is determined that all the optical markers 24 are not connected as in the first case, the connection state between the combinations of the optical markers 24 is ensured using the detection result of the non-optical tracking means 22. It is confirmed whether or not it can be performed (step S104). That is, here, when the composite marker 30 in which the magnetic marker 28 is provided integrally with the optical marker 24 is further used from the current local position data set, whether or not the connection state of the optical marker 24 can be secured. Is confirmed. In the case of the first case of FIG. 5, since the optical markers 24 of “A” and “D” are composite markers 30, the optical marker 24 of “A” and the optical marker 24 attached thereto are added according to the information in the mutual positional relationship database 43. The relative positional relationship between the magnetic marker 28 and the relative positional relationship between the “D” optical marker 24 and the magnetic marker 28 attached thereto are known. Therefore, from the detection result of the three-dimensional position information of each magnetic marker 28 in the same magnetic coordinate system M, the relative positional relationship between the optical markers 24 of “A” and “D” is found through the relative positional relationship of each magnetic marker 28. To do. As a result, it is determined that the optical markers 24 of “A” and “D” are connected through the non-optical tracking means 22 and the connected state of each optical marker 24 is secured, as virtually indicated by a one-dot chain line in FIG. (Step S105).

以上の処理を経ても、各光学マーカ24の連結状態が確保できない場合、データ記録部35から、1サイクル前の過去のローカル位置データセットが抽出され、現在のローカル位置データセットに追加され(ステップS107)、前述の処理が繰り返し行われる。それでも、各光学マーカ24の組み合わせの連結状態が確保されなければ、更に1サイクル過去のローカル位置データセットが、その前までのローカル位置データセットに追加され(ステップS107)、前述の処理が繰り返し行われる。そして、予め設定されたサイクル数の過去のローカル位置データセットを参照しても、各光学マーカ24の連結状態が確保されなければ(ステップS106)、座標変換処理不能と判断され(ステップS108)、合成画像生成手段33で後述する処理が行われる。   If the connected state of each optical marker 24 cannot be secured even after the above processing, the past local position data set one cycle before is extracted from the data recording unit 35 and added to the current local position data set (step S107), the above-described processing is repeated. If the connection state of the combination of the optical markers 24 is still not secured, the local position data set in the previous cycle is added to the previous local position data set (step S107), and the above processing is repeated. Is called. If the connected state of each optical marker 24 is not ensured even when referring to a past local position data set having a preset number of cycles (step S106), it is determined that the coordinate conversion process is impossible (step S108). The composite image generation means 33 performs processing described later.

一方、全ての光学マーカ24について連結状態が確保されると、非光学トラッキング手段22での検出結果を利用し、光学マーカ24の他の連結状態が追加される(ステップS109)。例えば、前記第1事例に対し、「B」の光学マーカ24を更に複合マーカ30とした図7の第3事例の場合、「A」、「B」の光学マーカ24は、光学トラッキング手段21での検出結果の他に、それぞれに一体化された磁気マーカ28による非光学トラッキング手段22での検出結果によっても連結状態が確保でき、当該連結状態が光学トラッキング手段21での検出結果による連結状態の他に追加される。   On the other hand, when the connection state is secured for all the optical markers 24, another connection state of the optical marker 24 is added using the detection result of the non-optical tracking means 22 (step S109). For example, in the third case of FIG. 7 in which the optical marker 24 of “B” is further combined with the composite marker 30 with respect to the first case, the optical markers 24 of “A” and “B” are optical tracking means 21. In addition to the detection result, the connection state can be secured by the detection result of the non-optical tracking means 22 by the magnetic markers 28 integrated with each other, and the connection state is the connection state based on the detection result of the optical tracking means 21. Added to others.

そして、全ての光学マーカ24の患者座標系Pでの3次元位置情報であるグローバル位置情報が、誤差情報付きで全ての経路で計算される(ステップS110)。すなわち、全ての光学マーカ24の連結状態が確保されると、少なくとも1箇所の光学マーカ24と患者座標系Pの原点との相対位置関係を予め設定しておくことで、全ての光学マーカ24のグローバル位置情報を求めることができる。この際、各光学マーカ24の連結の辿り方により、複数の経路での座標計算が可能である。ここでは、全ての光学マーカ24について、全経路それぞれについてグローバル位置情報が求められるとともに、誤差データベース42からの誤差特性情報を用い、各経路それぞれについて、当該経路計算で利用した光学トラッキングシステムによる位置検出法と磁気トラッキングシステムによる位置検出法による誤差データが積算される。   Then, global position information, which is three-dimensional position information of all optical markers 24 in the patient coordinate system P, is calculated for all paths with error information (step S110). That is, when the connection state of all the optical markers 24 is secured, the relative positional relationship between at least one optical marker 24 and the origin of the patient coordinate system P is set in advance, so that all the optical markers 24 Global location information can be obtained. At this time, coordinate calculation in a plurality of paths is possible depending on how the optical markers 24 are linked. Here, for all the optical markers 24, global position information is obtained for each of all paths, and error characteristic information from the error database 42 is used to detect the position of each path by the optical tracking system used in the path calculation. Error data by the position detection method by the method and magnetic tracking system is integrated.

ここでの処理について、図7の第3事例を用いて以下に詳述する。当該第3事例においては、患者座標系Pの原点Oが「A」の光学マーカ24のほぼ中央に設定されているとする。なお、患者座標系Pの原点としては、移動しない光学マーカ24または磁気マーカ28との相対位置関係が不変となる実空間内の定点であればどこでも良い。例えば、移動しない各光学マーカ28からの距離がそれぞれ等しくなる地点に、患者座標系Pの原点を設定することもできる。   This processing will be described in detail below using the third case of FIG. In the third case, it is assumed that the origin O of the patient coordinate system P is set substantially at the center of the optical marker 24 of “A”. The origin of the patient coordinate system P may be any fixed point in real space where the relative positional relationship with the optical marker 24 or the magnetic marker 28 that does not move is unchanged. For example, the origin of the patient coordinate system P can be set at a point where the distances from the optical markers 28 that do not move are equal.

例えば、「C」の光学マーカ24のグローバル位置情報を求める際には、患者座標系Pの原点となる「A」の光学マーカ24と、「B」、「D」の光学マーカ24とがそれぞれ複合マーカ30であることから、次の第1〜第3の経路が存在する。   For example, when obtaining the global position information of the optical marker 24 of “C”, the optical marker 24 of “A” that is the origin of the patient coordinate system P, and the optical marker 24 of “B” and “D” are respectively Since it is the composite marker 30, the following first to third paths exist.

第1の経路として、非光学トラッキング手段22における磁気マーカ28のローカル位置情報の検出結果による「A」、「D」の光学マーカ24の相対位置関係と、光学トラッキング手段21における光学マーカ24のローカル位置情報の検出結果による「C」、「D」の光学マーカ24の相対位置関係とにより、「C」の光学マーカ24のグローバル位置情報が求められる。   As a first path, the relative positional relationship between the optical markers 24 of “A” and “D” based on the detection result of the local position information of the magnetic marker 28 in the non-optical tracking means 22, and the local of the optical marker 24 in the optical tracking means 21. The global position information of the optical marker 24 of “C” is obtained from the relative positional relationship between the optical markers 24 of “C” and “D” based on the detection result of the position information.

第2の経路として、光学マーカ24のローカル位置情報の検出結果による「A」、「B」の光学マーカ24の相対位置関係と、磁気マーカ28のローカル位置情報の検出結果による「B」、「D」の光学マーカ24の相対位置関係と、光学マーカ24のローカル位置情報の検出結果による「C」、「D」の光学マーカ24の相対位置関係とにより、「C」の光学マーカ24のグローバル位置情報が求められる。   As the second path, the relative positional relationship between the optical markers 24 of “A” and “B” based on the detection result of the local position information of the optical marker 24, and “B” and “ The global position of the optical marker 24 of “C” is determined by the relative positional relationship of the optical marker 24 of “D” and the relative positional relationship of the optical marker 24 of “C” and “D” based on the detection result of the local position information of the optical marker 24. Location information is required.

第3の経路として、第2の経路に対し、「A」、「B」の光学マーカ24の相対位置関係につき、光学マーカ24による検出結果でなく磁気マーカ28の検出結果を利用し、「C」の光学マーカ24のグローバル位置情報が求められる。   As the third path, the detection result of the magnetic marker 28 instead of the detection result of the optical marker 24 is used for the relative positional relationship of the optical markers 24 of “A” and “B” with respect to the second path. The global position information of the optical marker 24 is obtained.

この際、各経路について、光学トラッキングシステムや磁気トラッキングシステムの特性に起因する位置計測誤差に関する誤差情報が付加される。すなわち、光学トラッキングシステムは、視線奥行方向の位置や当該方向の回転角度の検出精度が他の2軸における位置や回転角度の検出精度に比べて悪いという特性があり、磁気トラッキングシステムは、距離に弱い、角度が不安定などの特性がある。そこで、これら特性に起因するトラッキングシステム毎の位置計測誤差に関する情報である標準偏差が、計測距離や回転角度単位でデータベース化された誤差データベース42から抽出され、当該誤標準偏差が経路毎に積算される。   At this time, error information regarding a position measurement error due to the characteristics of the optical tracking system or the magnetic tracking system is added to each path. In other words, the optical tracking system has a characteristic that the detection accuracy of the position in the line of sight depth direction and the detection accuracy of the rotation angle in that direction is worse than the detection accuracy of the position and rotation angle in the other two axes. There are characteristics such as weakness and unstable angle. Therefore, the standard deviation, which is information on the position measurement error for each tracking system due to these characteristics, is extracted from the error database 42 that is databased in units of measurement distance and rotation angle, and the erroneous standard deviation is integrated for each path. The

つまり、ここでは、各光学マーカ24について、グローバル位置情報を求める際の経路毎に、グローバル位置情報の各座標成分、すなわち、位置(x,y,z)と回転角度(α,β,γ)それぞれについて、経路内の各手順で積算された誤差の標準偏差情報が付加される。   That is, here, for each optical marker 24, each coordinate component of the global position information, that is, the position (x, y, z) and the rotation angle (α, β, γ) for each path when the global position information is obtained. For each, standard deviation information of the error accumulated in each procedure in the path is added.

例えば、「C」の光学マーカについて、前述の第1の経路については、誤差情報が付加されたグローバル位置情報(x±Δx,y±Δy,z±Δz,α±Δα,β±Δβ,γ±Δγ)が得られる。同様に、第2の経路については、誤差情報が付加されたグローバル位置情報(x±Δx,y±Δy,z±Δz,α±Δα,β±Δβ,γ±Δγ)が得られる。また、第3の経路については、誤差情報が付加されたグローバル位置情報(x±Δx,y±Δy,z±Δz,α±Δα,β±Δβ,γ±Δγ)が得られる、 For example, for the optical marker “C”, the global position information (x 1 ± Δx 1 , y 1 ± Δy 1 , z 1 ± Δz 1 , α 1 ±) to which the error information is added for the first path described above. Δα 1 , β 1 ± Δβ 1 , γ 1 ± Δγ 1 ) are obtained. Similarly, for the second route, global position information (x 2 ± Δx 2 , y 2 ± Δy 2 , z 2 ± Δz 2 , α 2 ± Δα 2 , β 2 ± Δβ 2 , to which error information is added, is added. γ 2 ± Δγ 2 ) is obtained. For the third route, global position information (x 3 ± Δx 3 , y 3 ± Δy 3 , z 3 ± Δz 3 , α 3 ± Δα 3 , β 4 ± Δβ 3 , γ with error information added is added. 3 ± Δγ 3 )

次に、各光学マーカ24それぞれに対し、グローバル位置情報の各座標成分について、経路毎に積算された標準偏差から、グローバル位置情報の算出値を平均とした正規分布が経路毎に計算され、当該経路毎の正規分布を重ね合わせたときに、全経路を考慮して出現確率の最も高い値が、最も誤差が少ないと思われるグローバル位置情報の最終推定値として決定される(ステップS111)。例えば、前述の例において、x座標については、図8に示されるように、前記第1〜第3の経路の確率分布の和の最大値であるxが、最終推定値とされる。この処理が各光学マーカ24それぞれについて行われ、各光学マーカ24について、光学トラッキングシステムや磁気トラッキングシステムによる位置計測誤差が加味された調整後のグローバル位置情報が決定される。 Next, for each optical marker 24, for each coordinate component of the global position information, a normal distribution with the calculated value of the global position information as an average is calculated for each path from the standard deviation accumulated for each path. When the normal distributions for each route are superimposed, the value having the highest appearance probability in consideration of all the routes is determined as the final estimated value of the global position information that seems to have the smallest error (step S111). For example, in the above-described example, with respect to the x coordinate, as shown in FIG. 8, x d that is the maximum value of the sum of the probability distributions of the first to third routes is set as the final estimated value. This process is performed for each optical marker 24, and for each optical marker 24, global position information after adjustment in consideration of a position measurement error by the optical tracking system or the magnetic tracking system is determined.

このようにして求めた各光学マーカ24のグローバル位置情報から、相互位置関係データベース43により相対位置関係が特定できる複合マーカ30を通じて、プローブ19に取り付けられた単独の磁気マーカ28のグローバル位置情報が求められる(ステップS112)。   From the global position information of each optical marker 24 thus obtained, the global position information of the single magnetic marker 28 attached to the probe 19 is obtained through the composite marker 30 whose relative positional relation can be specified by the mutual positional relation database 43. (Step S112).

前記HMD位置検出部38では、マーカ位置算出部37で最終決定された各光学マーカ24と磁気マーカ28のグローバル位置情報から、光学トラッキング手段21で求められた各HMD11と各光学マーカ24の相対位置関係に基づき、各HMD11のグローバル位置情報が特定される。   In the HMD position detection unit 38, the relative position of each HMD 11 and each optical marker 24 obtained by the optical tracking means 21 from the global position information of each optical marker 24 and magnetic marker 28 finally determined by the marker position calculation unit 37. Based on the relationship, the global position information of each HMD 11 is specified.

前記合成画像生成手段33では、画像取込手段31により取り込まれたカメラ画像中のプローブ19の先端位置付近に、画像取込手段31により取り込まれた重畳画像が3次元的に重なって医師Dに視認可能な合成画像が生成される。当該合成画像は、座標変換手段32で特定された各HMD11とプローブ19のグローバル位置情報により、各HMD11のカメラ画像毎に生成される。このため、各医師Dは、自身の視界に存在するプローブ19の先端部分に、当該プローブ19の姿勢に対応した向きで立体的な医療情報画像等が重なった状態で視認可能となる。   In the composite image generating unit 33, the superimposed image captured by the image capturing unit 31 is three-dimensionally superimposed on the doctor D in the vicinity of the tip position of the probe 19 in the camera image captured by the image capturing unit 31. A visible composite image is generated. The composite image is generated for each camera image of each HMD 11 based on the global position information of each HMD 11 and probe 19 specified by the coordinate conversion means 32. For this reason, each doctor D becomes visible in a state where a three-dimensional medical information image or the like is superimposed on the distal end portion of the probe 19 existing in his / her field of view in a direction corresponding to the posture of the probe 19.

また、前記座標変換手段32において、各光学マーカ24と各磁気マーカ28のグローバル位置情報が取得不能と判断された場合には、合成画像生成手段33では、各HMD11に撮像されたプローブ19の先端位置に、予め指定された何等かの表示すべき情報が表示されるように合成画像が生成される。   When the coordinate conversion unit 32 determines that the global position information of each optical marker 24 and each magnetic marker 28 cannot be acquired, the composite image generation unit 33 causes the tip of the probe 19 captured by each HMD 11 to be acquired. A composite image is generated so that some information to be displayed specified in advance is displayed at the position.

なお、図9に示されるように、複数の光学マーカ24が多面体の設置面を除く各面に取り付けた立体光学マーカ45を複合マーカとして採用することができる。この立体光学マーカ45では、様々な方向からビデオカメラ18で撮像しても、その中の何れかの光学マーカ24を面状態で撮像することができ、シート状の光学マーカ24では認識不能な横方向からの認識も可能になる。例えば、斜め45度以内の角度でのカメラ撮影が必要であれば、立体光学マーカ45を6面体以上にすると良い。このように、光学マーカ24が取り付けられる面を多くする程、立体光学マーカ45をどの位置から撮像しても、何れかの光学マーカ24を正面に近い形で撮像し易くなり、光学マーカ24を用いた光学トラッキング手段21での検出精度を高めることができる。なお、この立体光学マーカ45においても、相互位置関係データベース43において、当該立体光学マーカ45を構成する各光学マーカ24間の相対位置関係が記憶され、前述の処理に利用される。また、立体光学マーカ45に、磁気マーカ28等の非光学マーカを更に取り付けた複合マーカを採用することもできる。   As shown in FIG. 9, a three-dimensional optical marker 45 in which a plurality of optical markers 24 are attached to each surface excluding the installation surface of the polyhedron can be employed as a composite marker. With this stereoscopic optical marker 45, even if the video camera 18 captures images from various directions, any one of the optical markers 24 can be imaged in a plane state, and the horizontal optical marker 24 cannot recognize the horizontal direction. Recognition from the direction is also possible. For example, if camera shooting at an angle within 45 degrees is necessary, the stereoscopic optical marker 45 may be a hexahedron or more. Thus, as the number of surfaces to which the optical marker 24 is attached increases, it becomes easier to image any one of the optical markers 24 in a form close to the front, regardless of the position of the stereoscopic optical marker 45. The detection accuracy of the used optical tracking means 21 can be increased. Also in this stereoscopic optical marker 45, the relative positional relationship between the optical markers 24 constituting the stereoscopic optical marker 45 is stored in the mutual positional relationship database 43 and used for the above-described processing. Further, a composite marker in which a non-optical marker such as the magnetic marker 28 is further attached to the stereoscopic optical marker 45 can be adopted.

また、前記実施形態の座標変換手段32について、各医師DのHMD11のビデオカメラ18で撮像されたカメラ画像から、遠距離の視差画像を利用することで、光学マーカ24のグローバル位置情報を調整する調整部を更に設けることができる。すなわち、本発明のシステムでは、複数の医師DがHMD11を装着しており、各HMD11のビデオカメラ18で撮像されたカメラ画像から、各HMD11に撮像されている光学マーカ24のIDが判明し、そのカメラ画像上の位置も得られている。このため、ある1の光学マーカ24が、複数のHMD11でのカメラ画像内に共通して現れた場合、その視差画像から、当該光学マーカ24の位置を特定することができる。そこで、前記調整部では、同一の光学マーカ24が撮像されている複数のカメラ画像の中から、HMD11の位置が最も離れている1組のカメラ画像が選択され、これらカメラ画像における視差画像を利用し、マーカ位置算出部37で算出された各光学マーカ24のグローバル位置情報の精度を向上させる処理が行われる。この処理においては、前記データベース36に、カメラ画像による両眼視差の誤差データが記憶された視差データベースを更に設け、当該視差データベースからの情報から、視差画像によって特定された光学マーカ24の距離範囲に合致するように、マーカ位置算出部37で求められた各光学マーカ24のグローバル位置情報が調整される。そして、当該調整後に、前記実施形態での処理と同様に、磁気マーカ28及び各HMD11のグローバル位置情報が求められて前記合成画像が生成される。これによれば、距離の離れたHMD11間の視差画像を利用することができ、各光学マーカ24のグローバル位置情報を高精度に検出可能になる。   Moreover, about the coordinate conversion means 32 of the said embodiment, the global position information of the optical marker 24 is adjusted using a long-distance parallax image from the camera image imaged with the video camera 18 of each doctor D's HMD11. An adjustment part can be further provided. That is, in the system of the present invention, a plurality of doctors D wears the HMD 11, and the ID of the optical marker 24 imaged on each HMD 11 is found from the camera image captured by the video camera 18 of each HMD 11, The position on the camera image is also obtained. For this reason, when a certain one optical marker 24 appears in common in the camera images of the plurality of HMDs 11, the position of the optical marker 24 can be specified from the parallax image. Therefore, the adjustment unit selects a set of camera images in which the position of the HMD 11 is farthest from among a plurality of camera images captured by the same optical marker 24, and uses the parallax images in these camera images. And the process which improves the precision of the global position information of each optical marker 24 calculated by the marker position calculation part 37 is performed. In this process, the database 36 is further provided with a parallax database in which error data of binocular parallax due to the camera image is stored, and the distance from the information from the parallax database to the optical marker 24 specified by the parallax image. The global position information of each optical marker 24 obtained by the marker position calculation unit 37 is adjusted so as to match. Then, after the adjustment, as in the processing in the embodiment, global position information of the magnetic marker 28 and each HMD 11 is obtained, and the composite image is generated. According to this, a parallax image between the HMDs 11 at a distance can be used, and the global position information of each optical marker 24 can be detected with high accuracy.

更に、本実施形態では、複数ユーザによる適用例を図示説明したが、本発明はこれに限らず、単独ユーザにも適用可能である。このように単独ユーザに適用された場合、過去のローカル位置データセットが、単独ユーザの複数の視線に基づいて得られることにより、相補的なデータ処理が可能となる。また、単独ユーザに適用される場合であっても、前記実施形態と同様に、非光学マーカも併用可能で、誤差データベース36の利用も可能である。更に、前述した遠距離の視差画像を利用する際には、取得された時刻が異なるカメラ画像を用いることで、同様の処理を行うことができる。   Furthermore, in the present embodiment, the application example by a plurality of users has been illustrated and described, but the present invention is not limited to this and can be applied to a single user. When applied to a single user in this way, a past local position data set is obtained based on a plurality of lines of sight of the single user, thereby enabling complementary data processing. Further, even when applied to a single user, a non-optical marker can be used in combination as in the above embodiment, and the error database 36 can be used. Furthermore, when using the above-mentioned distant parallax images, the same processing can be performed by using camera images obtained at different times.

また、本発明における光学マーカ主体の位置計測は、ビデオシースルー型のHMD11と相性が良く、この組み合わせにより、HMD11の重畳画像の表示誤差をほぼゼロにすることができる。しかしながら、本発明は、これに限定されるものではなく、カメラを備えていれば、HMDとして、光学シースルー型のものや、単願タイプのものを適用することも可能である。   In addition, the position measurement mainly of the optical marker in the present invention is compatible with the video see-through type HMD 11, and by this combination, the display error of the superimposed image of the HMD 11 can be made almost zero. However, the present invention is not limited to this, and if a camera is provided, an optical see-through type or a single-application type can be applied as the HMD.

また、前記実施形態では、AR表示システム10を医療現場で用いた場合を図示説明したが、本発明はこれに限らず、同様の構成で他の用途に適用することもできる。   Moreover, although the case where the AR display system 10 is used in the medical field has been illustrated and described in the above embodiment, the present invention is not limited to this and can be applied to other uses with the same configuration.

その他、本発明における装置各部の構成は図示構成例に限定されるものではなく、実質的に同様の作用を奏する限りにおいて、種々の変更が可能である。   In addition, the configuration of each part of the apparatus in the present invention is not limited to the illustrated configuration example, and various modifications are possible as long as substantially the same operation is achieved.

10 AR表示システム
11 ヘッドマウントディスプレイ
14 位置情報検出装置
16 処理装置
18 ビデオカメラ
21 光学トラッキング手段
22 非光学トラッキング手段
24 光学マーカ
25 光学マーカ検出部
30 複合マーカ
32 画像変換手段
33 合成画像生成手段
45 立体光学マーカ(複合マーカ)
D 医師(ユーザ)
H HMD座標系(局所座標系)
M 磁気座標系(局所座標系)
P 患者座標系(全体座標系)
DESCRIPTION OF SYMBOLS 10 AR display system 11 Head mounted display 14 Position information detection apparatus 16 Processing apparatus 18 Video camera 21 Optical tracking means 22 Non-optical tracking means 24 Optical marker 25 Optical marker detection part 30 Composite marker 32 Image conversion means 33 Composite image generation means 45 Three-dimensional Optical marker (composite marker)
D Doctor (user)
H HMD coordinate system (local coordinate system)
M Magnetic coordinate system (local coordinate system)
P Patient coordinate system (overall coordinate system)

Claims (9)

医療現場のユーザに装着され、当該ユーザの視界に存在する実空間の画像を撮像するカメラが取り付けられたヘッドマウントディスプレイに対し、別途取得された診断画像を重畳画像として実空間の一部領域に重ねた状態でユーザに視認させる合成画像を提示する医療用の合成画像提示システムにおいて、
前記実空間内の所定部位の3次元位置情報を検出する位置情報検出装置と、当該位置情報検出装置によって検出された3次元位置情報に基づき、前記合成画像を生成して前記ヘッドマウントディスプレイに提示する処理装置とを備え、
前記位置情報検出装置は、前記カメラで撮像されたカメラ画像を利用して前記所定部位における3次元位置情報を検出する光学トラッキング手段を備え、
前記光学トラッキング手段は、複数存在する前記所定部位にそれぞれ設置される光学マーカと、前記カメラ画像に撮像された前記各光学マーカの画像状態を認識することにより、これら各光学マーカについて、前記カメラの定点を原点とした局所座標系における3次元位置情報であるローカル位置情報を検出する光学マーカ検出部とを備え、
前記処理装置は、前記ローカル位置情報から、前記所定部位及び前記ヘッドマウントディスプレイについて、前記実空間内の定点を原点とした全体座標系における3次元位置情報であるグローバル位置情報を求める座標変換手段と、前記グローバル位置情報に基づき前記合成画像を生成する合成画像生成手段とを備え、
前記座標変換手段では、前記カメラでの撮像位置及び/又は撮像タイミングの異なる複数の前記カメラ画像を利用し、当該各カメラ画像に撮像された複数の前記光学マーカの前記ローカル位置情報から、全ての前記光学マーカ間の相対位置関係を特定した上で、少なくとも1つの前記光学マーカと前記全体座標系の原点との相対位置関係に基づき、前記各光学マーカにおける前記グローバル位置情報を求め、前記カメラを1台のみ用いる場合、前記カメラで撮像される現在の前記カメラ画像と、過去に撮像された前記カメラ画像とを利用し、前記カメラを複数台用いる場合、当該各カメラで同時に撮像される現在の前記カメラ画像と、過去に撮像された前記カメラ画像との少なくとも一方を利用することを特徴とする合成画像提示システム。
Is attached to the user of the medical field, to a head mounted display camera for capturing an image of the real space is attached to exist in the field of view of the user, in a part region of real space diagnostic images obtained separately as superimposed image In a medical composite image presentation system that presents a composite image to be visually recognized by a user in a superimposed state,
A position information detecting device for detecting three-dimensional position information of a predetermined part in the real space, and generating the composite image based on the three-dimensional position information detected by the position information detecting device and presenting it on the head mounted display And a processing device for
The position information detecting device includes an optical tracking unit that detects three-dimensional position information in the predetermined part using a camera image captured by the camera,
The optical tracking means recognizes the optical markers respectively installed at the plurality of the predetermined sites and the image states of the optical markers captured in the camera image, so that each of the optical markers An optical marker detection unit that detects local position information that is three-dimensional position information in a local coordinate system with a fixed point as an origin;
The processing device includes coordinate conversion means for obtaining global position information, which is three-dimensional position information in a global coordinate system with a fixed point in the real space as an origin, for the predetermined part and the head mounted display from the local position information. And a composite image generating means for generating the composite image based on the global position information,
In the coordinate conversion means, a plurality of the camera images having different imaging positions and / or imaging timings with the camera are used, and from the local position information of the plurality of optical markers captured in each camera image, After specifying the relative positional relationship between the optical markers, based on the relative positional relationship between at least one of the optical markers and the origin of the global coordinate system, the global position information in each of the optical markers is obtained , and the camera is When only one camera is used, the current camera image captured by the camera and the camera image captured in the past are used. When a plurality of cameras are used, the current camera image captured simultaneously by each camera is used. A composite image presentation system using at least one of the camera image and the camera image captured in the past .
前記位置情報検出装置は、前記カメラを利用せずに前記実空間内の所定部位における3次元位置情報を検出する非光学トラッキング手段を更に備え、
前記非光学トラッキング手段は、前記所定部位の少なくとも1箇所に固定される非光学マーカを追跡することで、当該非光学マーカについて、予め設定された基準点を原点とした局所座標系における3次元位置情報であるローカル位置情報を特定する3次元位置センサにより構成され、
前記座標変換手段では、前記非光学マーカのローカル位置情報をも利用し、前記各光学マーカの前記グローバル位置情報を求めることを特徴とする請求項1記載の合成画像提示システム。
The position information detection device further includes non-optical tracking means for detecting three-dimensional position information at a predetermined site in the real space without using the camera,
The non-optical tracking unit tracks a non-optical marker fixed to at least one of the predetermined parts, thereby obtaining a three-dimensional position in the local coordinate system with a preset reference point as an origin for the non-optical marker. It is composed of a three-dimensional position sensor that identifies local position information that is information,
The coordinates conversion means, the non also utilize local location of the optical markers, the synthetic image presentation system according to claim 1 Symbol placement and the characteristic of obtaining the global position information of each optical marker.
前記光学マーカと前記非光学マーカとが相対移動不能且つ相対回転不能に一体的に設けられた複合マーカが前記所定部位に設置され、当該複合マーカも前記座標変換手段での前記グローバル位置情報の導出に利用されることを特徴とする請求項記載の合成画像提示システム。 A composite marker in which the optical marker and the non-optical marker are integrally provided so as not to be relatively movable and relatively unrotatable is installed at the predetermined portion, and the composite marker is also derived from the global position information by the coordinate conversion means. The composite image presenting system according to claim 2 , wherein the composite image presenting system is used. 前記光学マーカが多面体の複数面にそれぞれ固定配置されてなる複合マーカが前記所定部位に設置され、当該複合マーカも前記座標変換手段での前記グローバル位置情報の導出に利用されることを特徴とする請求項1記載の合成画像提示システム。 A composite marker in which the optical marker is fixedly arranged on a plurality of faces of a polyhedron is installed at the predetermined portion, and the composite marker is also used for deriving the global position information by the coordinate conversion means. claim 1 Symbol placement synthetic image presentation system. 前記座標変換手段では、前記各光学マーカについて移動可能性の有無が予め記憶されており、過去に撮像された前記カメラ画像のうち、移動不能な前記光学マーカが撮像された前記カメラ画像のみを利用することを特徴とする請求項記載の合成画像提示システム。 In the coordinate conversion means, whether or not there is a possibility of movement is stored in advance for each of the optical markers, and among the camera images captured in the past, only the camera image in which the optical marker that cannot be moved is captured is used. The composite image presentation system according to claim 1, wherein: 前記合成画像生成手段では、前記座標変換手段で前記グローバル位置情報が取得できずに、前記重畳画像を重ねることができない場合に、予め設定した表示情報を含む合成画像を生成することを特徴とする請求項1記載の合成画像提示システム。 The composite image generation unit generates a composite image including preset display information when the global position information cannot be acquired by the coordinate conversion unit and the superimposed image cannot be overlaid. claim 1 Symbol placement synthetic image presentation system. 前記座標変換手段は、前記位置情報検出装置での位置計測誤差に関する情報が記憶された誤差データベースと、当該誤差特性を考慮して、前記光学マーカ及び前記非光学マーカの前記グローバル位置情報を算出するマーカ位置算出部とを含み、
前記マーカ位置算出部では、前記各光学マーカについて前記ローカル位置情報から前記グローバル位置情報を求める際に、前記各光学マーカの相対位置関係に基づき導出される複数の経路毎に発生し得る前記位置計測誤差を加味することを特徴とする請求項記載の合成画像提示システム。
The coordinate conversion unit calculates the global position information of the optical marker and the non-optical marker in consideration of an error database in which information on position measurement errors in the position information detection apparatus is stored and the error characteristics. A marker position calculator,
In the marker position calculation unit, when the global position information is obtained from the local position information for each optical marker, the position measurement that can occur for each of a plurality of paths derived based on the relative positional relationship of the optical markers The composite image presentation system according to claim 2 , wherein an error is taken into account.
前記誤差データベースでは、前記光学トラッキング手段による位置検出手法と前記非光学トラッキング手段による位置検出手法のそれぞれの手法について、前記3次元位置情報の様々な値毎に誤差の標準偏差が記憶され、
前記マーカ位置算出部では、前記各経路について、前記3次元位置情報の座標成分毎に、前記標準偏差を加味した数値範囲を特定し、前記各経路を総合して最も確率の高い値が、前記グローバル位置情報の最終推定値とされることを特徴とする請求項記載の合成画像提示システム。
In the error database, for each of the position detection method by the optical tracking means and the position detection method by the non-optical tracking means, a standard deviation of error is stored for each of various values of the three-dimensional position information,
In the marker position calculation unit, for each of the paths, for each coordinate component of the three-dimensional position information, a numerical range in consideration of the standard deviation is specified, and the value having the highest probability is obtained by combining the paths. The composite image presentation system according to claim 7 , wherein the composite image presentation system is a final estimated value of global position information.
前記座標変換手段では、同一の前記光学マーカが撮像されている複数の前記カメラ画像の中から、前記ヘッドマウントディスプレイの位置が最も離れている1組の前記カメラ画像を選択し、当該各カメラ画像に撮像された前記光学マーカの両眼視差に基づき、当該光学マーカにおける前記グローバル位置情報を調整することを特徴とする請求項1記載の合成画像提示システム。
The coordinate conversion unit selects a set of the camera images in which the position of the head mounted display is farthest from a plurality of the camera images captured by the same optical marker, and each of the camera images based on said binocular parallax of the optical markers, claim 1 Symbol placement synthetic image presentation system and adjusting the global positional information in the optical markers that are imaged.
JP2016041611A 2016-03-03 2016-03-03 Composite image presentation system Active JP6095032B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016041611A JP6095032B1 (en) 2016-03-03 2016-03-03 Composite image presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016041611A JP6095032B1 (en) 2016-03-03 2016-03-03 Composite image presentation system

Publications (2)

Publication Number Publication Date
JP6095032B1 true JP6095032B1 (en) 2017-03-15
JP2017153827A JP2017153827A (en) 2017-09-07

Family

ID=58281096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016041611A Active JP6095032B1 (en) 2016-03-03 2016-03-03 Composite image presentation system

Country Status (1)

Country Link
JP (1) JP6095032B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055873B2 (en) 2019-02-01 2021-07-06 Tcc Media Lab Co., Ltd Composite image generation system and position information correction system
US11207142B2 (en) 2019-02-01 2021-12-28 Tcc Media Lab Co., Ltd Composite image generation system and initial condition resetting system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3948800A4 (en) * 2019-04-04 2023-05-10 Centerline Biomedical, Inc. Registration of spatial tracking system with augmented reality display
JP7443440B1 (en) 2022-09-01 2024-03-05 ソフトバンク株式会社 Wireless communication system, wireless communication method, wireless power supply system, and wireless power supply method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
JP2014131552A (en) * 2013-01-07 2014-07-17 Akira Takebayashi Medical support device
JP2014221175A (en) * 2013-05-14 2014-11-27 健司 三木 Ultrasonic diagnostic system, image processor and control method and control program therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
JP2014131552A (en) * 2013-01-07 2014-07-17 Akira Takebayashi Medical support device
JP2014221175A (en) * 2013-05-14 2014-11-27 健司 三木 Ultrasonic diagnostic system, image processor and control method and control program therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055873B2 (en) 2019-02-01 2021-07-06 Tcc Media Lab Co., Ltd Composite image generation system and position information correction system
US11207142B2 (en) 2019-02-01 2021-12-28 Tcc Media Lab Co., Ltd Composite image generation system and initial condition resetting system

Also Published As

Publication number Publication date
JP2017153827A (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6690041B2 (en) Method and device for determining point of gaze on three-dimensional object
US11690686B2 (en) Methods and systems for touchless control of surgical environment
US10881353B2 (en) Machine-guided imaging techniques
US10013808B2 (en) Surgeon head-mounted display apparatuses
CA2892554C (en) System and method for dynamic validation, correction of registration for surgical navigation
US9237929B2 (en) System for guiding a medical instrument in a patient body
JP6660659B1 (en) Synthetic image generation system and position information correction system
JP6083103B2 (en) Image complementation system for image occlusion area, image processing apparatus and program thereof
JP6095032B1 (en) Composite image presentation system
EP3858280A1 (en) Surgical navigation system with augmented reality device
US20210186355A1 (en) Model registration system and method
JP2016202351A (en) Medical support system, medical support method, image processing apparatus, control method and control program thereof
Wang et al. The Kinect as an interventional tracking system
US20230065505A1 (en) System and method for augmented reality data interaction for ultrasound imaging
JP6701438B1 (en) Synthetic image generation system and initial condition reset system
JP7037810B2 (en) Image processing device, image processing program, and image processing method
US20220215562A1 (en) Registration method and setup
JP6795744B2 (en) Medical support method and medical support device
KR101635731B1 (en) Visualization system and method for visualizing inner objects of human
Octorina Dewi et al. Position tracking systems for ultrasound imaging: a survey
Trevisan et al. Augmented vision for medical applications
CN112545549A (en) Ultrasonic imaging system
CN112336374A (en) Accurate positioning device and method for carotid artery ultrasonic probe

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R150 Certificate of patent or registration of utility model

Ref document number: 6095032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250