JP2023104733A - Medical image display device, medical image display method, and program - Google Patents

Medical image display device, medical image display method, and program Download PDF

Info

Publication number
JP2023104733A
JP2023104733A JP2022005902A JP2022005902A JP2023104733A JP 2023104733 A JP2023104733 A JP 2023104733A JP 2022005902 A JP2022005902 A JP 2022005902A JP 2022005902 A JP2022005902 A JP 2022005902A JP 2023104733 A JP2023104733 A JP 2023104733A
Authority
JP
Japan
Prior art keywords
subject
medical image
image
content
bed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022005902A
Other languages
Japanese (ja)
Inventor
隆宏 養田
Takahiro Yoda
良 奥田
Makoto Okuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2022005902A priority Critical patent/JP2023104733A/en
Publication of JP2023104733A publication Critical patent/JP2023104733A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To robustly acquire the position of a subject when projecting a medical image on the subject, while suppressing complication of an inspection procedure.SOLUTION: A medical image display device according to embodiment comprises an acquisition unit, a mapping unit, a generation unit, and a display control unit. The acquisition unit acquires a medical image of a subject. The mapping unit maps the position of the bed of a medical image diagnostic device with the position of the medical image. The generation unit generates a content to superimpose on the subject, based on the medical image in which an anatomical portion is detected. The display control unit controls a display unit such that the content may be superimposed and displayed on the subject, based on the position of the bed and that of the anatomical portion mapped with each other.SELECTED DRAWING: Figure 4

Description

本明細書及び図面に開示の実施形態は、医用画像表示装置、医用画像表示方法、及びプログラムに関する。 The embodiments disclosed in the present specification and drawings relate to a medical image display device, a medical image display method, and a program.

プロジェクションマッピングやMixed Realityといった画像投影を用いて、CT(Computed Tomography)画像やMR(Magnetic Resonance)画像といった医用画像を被検体上にオーバーレイ表示することで、医師などのユーザが医用画像を直感的に観察するための表示方法が求められている。従来技術として、被検体に医用画像をオーバーレイ表示するために赤外線センサを用いて被検体の位置を計測するものや、被検体に光学マーカを取り付け当該光学マーカをカメラで撮影することにより被検体の位置を計測するものが知られている。しかしながら、従来技術では、赤外線センサやカメラを使用するため、照明条件や位置関係によってロバストに被検体の位置を取得することが難しい場合がある。また、検査前に被検体に光学マーカを取り付けることは検査手順を煩雑化させるため望ましくない。 By overlaying medical images such as CT (Computed Tomography) images and MR (Magnetic Resonance) images on the subject using image projection such as projection mapping and mixed reality, users such as doctors can intuitively view medical images. There is a need for a display method for observation. As a conventional technique, an infrared sensor is used to measure the position of a subject in order to overlay a medical image on the subject. It is known to measure position. However, since the conventional technology uses an infrared sensor or a camera, it may be difficult to robustly acquire the position of the subject depending on lighting conditions and positional relationships. Moreover, it is not desirable to attach an optical marker to the subject before the inspection because it complicates the inspection procedure.

特開2020-110444号公報JP 2020-110444 A

本明細書及び図面に開示の実施形態が解決しようとする課題は、検査手順の複雑化を抑制しつつ、医用画像を被検体に投影する際に、ロバストに被検体の位置を取得することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 The problem to be solved by the embodiments disclosed in the present specification and drawings is to robustly acquire the position of a subject when projecting a medical image onto the subject while suppressing complication of examination procedures. be. However, the problems to be solved by the embodiments disclosed in this specification and drawings are not limited to the above problems. A problem corresponding to each effect of each configuration shown in the embodiments described later can be positioned as another problem.

実施形態の医用画像表示装置は、取得部と、対応付け部と、生成部と、表示制御部とを持つ。前記取得部は、被検体の医用画像を取得する。前記対応付け部は、前記被検体をスキャンして前記医用画像を生成する医用画像診断装置に据え付けられ、かつ前記被検体がスキャン時に載置される寝台の位置と、前記医用画像の位置とを対応付ける。前記生成部は、前記医用画像に基づいて、前記被検体に対して重畳させるコンテンツを生成する。前記表示制御部は、互いに対応付けられた前記寝台の位置及び前記医用画像の位置に基づいて、前記被検体に前記コンテンツが重畳表示されるように表示部を制御する。 A medical image display apparatus according to an embodiment has an acquisition unit, an association unit, a generation unit, and a display control unit. The acquisition unit acquires a medical image of a subject. The associating unit is installed in a medical image diagnostic apparatus that scans the subject and generates the medical image, and associates a position of a bed on which the subject is placed during scanning and a position of the medical image. Associate. The generation unit generates content to be superimposed on the subject based on the medical image. The display control unit controls the display unit so that the content is superimposed on the subject based on the position of the bed and the position of the medical image that are associated with each other.

第1実施形態における医用画像表示システム1の構成例を表す図。1 is a diagram showing a configuration example of a medical image display system 1 according to a first embodiment; FIG. 第1実施形態における医用画像表示システム1の利用場面の一例を表す図。FIG. 2 is a diagram showing an example of a usage scene of the medical image display system 1 according to the first embodiment; FIG. 第1実施形態におけるX線CT装置100の構成例を表す図。1 is a diagram showing a configuration example of an X-ray CT apparatus 100 according to a first embodiment; FIG. 第1実施形態におけるARゴーグル200の構成例を表す図。The figure showing the structural example of the AR goggles 200 in 1st Embodiment. 第1実施形態における医用画像表示システム1の一連の処理の流れの一例を表すフローチャート。4 is a flow chart showing an example of the flow of a series of processes of the medical image display system 1 according to the first embodiment; 被検体P2に重畳表示されるコンテンツCONTの一例を表す図。FIG. 4 is a diagram showing an example of content CONT superimposed and displayed on a subject P2; 被検体P2に重畳表示されるコンテンツCONTの他の例を表す図。FIG. 11 is a diagram showing another example of content CONT superimposed and displayed on the subject P2; 第2実施形態におけるARゴーグル200の構成例を表す図。The figure showing the structural example of the AR goggles 200 in 2nd Embodiment. 第2実施形態における医用画像表示システム1の一連の処理の流れの一例を表すフローチャート。FIG. 10 is a flow chart showing an example of a series of processes of the medical image display system 1 according to the second embodiment; FIG. 第3実施形態における医用画像表示システム1の一連の処理の流れの一例を表すフローチャート。FIG. 11 is a flow chart showing an example of a series of processes of the medical image display system 1 according to the third embodiment; FIG.

以下、図面を参照しながら、実施形態の医用画像表示装置、医用画像表示方法、及びプログラムについて説明する。 A medical image display apparatus, a medical image display method, and a program according to embodiments will be described below with reference to the drawings.

(第1実施形態)
[医用画像表示システムの構成]
図1は、第1実施形態における医用画像表示システム1の構成例を表す図である。第1実施形態における医用画像表示システム1は、例えば、医用画像診断装置100と、投影装置200と、カメラ300とを備える。医用画像診断装置100、投影装置200及びカメラ300は、通信ネットワークNWを介して通信可能に接続される。
(First embodiment)
[Configuration of medical image display system]
FIG. 1 is a diagram showing a configuration example of a medical image display system 1 according to the first embodiment. The medical image display system 1 according to the first embodiment includes, for example, a medical image diagnostic apparatus 100, a projection apparatus 200, and a camera 300. The medical image diagnostic apparatus 100, the projection apparatus 200, and the camera 300 are communicably connected via a communication network NW.

通信ネットワークNWは、電気通信技術を利用した情報通信網全般を意味する。通信ネットワークNWは、病院基幹LAN(Local Area Network)等の無線/有線LANやインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワーク等を含む。 The communication network NW means all information communication networks using telecommunication technology. The communication network NW includes a wireless/wired LAN such as a hospital backbone LAN (Local Area Network), an Internet network, a telephone communication network, an optical fiber communication network, a cable communication network, a satellite communication network, and the like.

医用画像診断装置100は、被検体P2をスキャンすることで医用画像を生成し、その医用画像に基づき被検体P2を診断する装置である。医用画像診断装置100は、例えば、X線CT装置であり、そのほかに、MRI装置や、一般X線撮影装置、超音波画像診断装置、核医学診断装置などであってもよい。以下、一例として、医用画像診断装置100がX線CT装置であるものとして説明する。 The medical image diagnostic apparatus 100 is an apparatus that scans a subject P2 to generate a medical image and diagnoses the subject P2 based on the medical image. The medical image diagnostic apparatus 100 is, for example, an X-ray CT apparatus, and may also be an MRI apparatus, a general X-ray imaging apparatus, an ultrasonic diagnostic imaging apparatus, a nuclear medicine diagnostic apparatus, or the like. As an example, the medical image diagnostic apparatus 100 will be described below as an X-ray CT apparatus.

投影装置200は、医用画像診断装置100によって生成された被検体P2の医用画像を投影し、医療関係者P1に被検体P2の身体内部を視認させる装置である。医療関係者P1は、例えば、医師、或いは技師や看護師といった医療従事者である。投影装置200は、例えば、AR(Augmented Reality)や、VR(Virtual Reality)、MR(Mixed Reality)、プロジェクションマッピングといった技術を用いた装置であってよい。以下、一例として投影装置200がAR技術を適用したウェアラブルなARゴーグルであるものとして説明する。医療関係者P1は「ユーザ」の一例である。 The projection device 200 is a device that projects a medical image of the subject P2 generated by the medical image diagnostic apparatus 100 and allows the medical staff P1 to visually recognize the inside of the body of the subject P2. The medical personnel P1 is, for example, a medical worker such as a doctor, an engineer, or a nurse. The projection device 200 may be, for example, a device using technologies such as AR (Augmented Reality), VR (Virtual Reality), MR (Mixed Reality), and projection mapping. As an example, the projection device 200 will be described below as wearable AR goggles to which AR technology is applied. Medical personnel P1 is an example of a "user."

カメラ300は、例えば、X線CT装置100が設置された検査室(以下、CT室と記載する)の天井や壁などに取り付けられる。カメラ300は、例えば、CT室に入室した被検体P2を撮影し、そのCT室内の画像を通信ネットワークNWを介してARゴーグル200に送信したり、或いはX線CT装置100に送信したりする。カメラ300の画像は、静止画像であってもよいし、動画像であってもよい。カメラ300は、撮像した画像を、直接的にARゴーグル200に送信してもよいし、X線CT装置100を中継して間接的にARゴーグル200に送信してもよい。 The camera 300 is attached, for example, to the ceiling or wall of an examination room (hereinafter referred to as a CT room) in which the X-ray CT apparatus 100 is installed. The camera 300 photographs, for example, the subject P2 entering the CT room, and transmits the image in the CT room to the AR goggles 200 or the X-ray CT apparatus 100 via the communication network NW. The image captured by camera 300 may be a still image or a moving image. The camera 300 may transmit the picked-up image directly to the AR goggles 200 or indirectly to the AR goggles 200 via the X-ray CT apparatus 100 .

[医用画像表示システムの利用場面]
図2は、第1実施形態における医用画像表示システム1の利用場面の一例を表す図である。ARゴーグル200が医療関係者P1に装着されると、X線CT装置100の寝台装置130に載置された被検体P2のCT画像がARゴーグル200に投影される。CT画像とは、X線CT装置100によってX線撮影(スキャン)されることによって得られた医用画像である。CT画像は、1枚の断層画像(つまり二次元画像)であってもよいし、複数枚の断層画像によって構成された三次元画像であってもよい。また、CT画像は、複数の時相の画像であってもよいし、キャプチャ画像であってもよい。
[Usage scene of medical image display system]
FIG. 2 is a diagram showing an example of a usage scene of the medical image display system 1 according to the first embodiment. When the medical personnel P1 wears the AR goggles 200, a CT image of the subject P2 placed on the bed device 130 of the X-ray CT apparatus 100 is projected onto the AR goggles 200. FIG. A CT image is a medical image obtained by X-ray imaging (scanning) by the X-ray CT apparatus 100 . A CT image may be a single tomographic image (that is, a two-dimensional image) or a three-dimensional image composed of a plurality of tomographic images. Also, the CT images may be images of a plurality of time phases, or may be captured images.

医療関係者P1がARゴーグル200を介して被検体P2を視認する際に、CT画像が被検体P2の身体に正確に重畳されることが望ましい。つまり、CT画像と被検体P2の位置合わせが重要となる。そこで、医用画像表示システム1では、被検体P2を検査するよりも前のタイミングにおいて、X線CT装置100のCT室に対する三次元位置が計測される。例えば、X線CT装置100の架台装置110に光学マーカMK1を取り付け、カメラ300a及び300bを用いて光学マーカMK1を撮像する。これにより、架台装置110のCT室に対する三次元位置が算出される。光学マーカMK1は、被検体P2を検査するタイミングやそれ以降において架台装置110から取り外されてよい。光学マーカMK1は、カメラ300a及び300bが赤外線を発光するストロボライトを内蔵している場合、赤外線を反射可能な反射体であってよい。また、光学マーカMK1は、カメラ300a及び300bが赤外線を発光するストロボライトを内蔵していない場合、赤外線を自発的に発光する発行体であってよい。 When the medical personnel P1 visually recognizes the subject P2 through the AR goggles 200, it is desirable that the CT image is accurately superimposed on the body of the subject P2. In other words, alignment between the CT image and the subject P2 is important. Therefore, in the medical image display system 1, the three-dimensional position of the X-ray CT apparatus 100 with respect to the CT room is measured before examining the subject P2. For example, an optical marker MK1 is attached to the gantry device 110 of the X-ray CT apparatus 100, and the optical marker MK1 is imaged using the cameras 300a and 300b. Thereby, the three-dimensional position of the gantry device 110 with respect to the CT room is calculated. The optical marker MK1 may be removed from the gantry 110 at or after the timing of inspecting the subject P2. The optical marker MK1 may be a reflector capable of reflecting infrared rays if the cameras 300a and 300b incorporate strobe lights that emit infrared rays. Also, the optical marker MK1 may be an emitter that spontaneously emits infrared rays when the cameras 300a and 300b do not incorporate a strobe light that emits infrared rays.

次に、医用画像表示システム1では、被検体P2を検査するタイミングにおいて、医療関係者P1に装着されたARゴーグル200のCT室に対する三次元位置が計測される。例えば、ARゴーグル200に光学マーカMK2を取り付け、カメラ300a及び300bを用いて光学マーカMK2を撮像する。これにより、ARゴーグル200のCT室に対する三次元位置が算出される。光学マーカMK2は、光学マーカMK1同様に、赤外線を反射可能な反射体であってよいし、赤外線を自発的に発光する発行体であってよい。 Next, in the medical image display system 1, the three-dimensional position of the AR goggles 200 worn by the medical personnel P1 with respect to the CT room is measured at the timing of examining the subject P2. For example, an optical marker MK2 is attached to the AR goggles 200, and an image of the optical marker MK2 is captured using the cameras 300a and 300b. Thereby, the three-dimensional position of the AR goggles 200 with respect to the CT room is calculated. Like the optical marker MK1, the optical marker MK2 may be a reflector capable of reflecting infrared rays, or may be an issuer that spontaneously emits infrared rays.

次に、医用画像表示システム1では、X線CT装置100のCT室に対する三次元位置を基に、CT画像上における心臓や肺といった各部位の位置(すなわち画像空間上の二次元又は三次元位置)をCT室に対する三次元位置に変換する。次に、医用画像表示システム1では、ARゴーグル200のCT室に対する三次元位置と、CT画像上における各部位のCT室に対する三次元位置とに基づいて、CT画像と被検体P2の位置合わせが行われる。これによって、医療関係者P1がARゴーグル200を介して被検体P2を見たときに、被検体P2の体内が透けて見えるかのように各部位の断層画像が被検体P2に重畳されて表示される。CT画像と被検体P2の位置合わせの詳細については後述する。 Next, in the medical image display system 1, based on the three-dimensional position of the X-ray CT apparatus 100 with respect to the CT room, the position of each part such as the heart and lungs on the CT image (that is, the two-dimensional or three-dimensional position on the image space) ) into 3D positions relative to the CT room. Next, in the medical image display system 1, the CT image and the subject P2 are aligned based on the three-dimensional position of the AR goggles 200 with respect to the CT room and the three-dimensional position of each region on the CT image with respect to the CT room. done. As a result, when the medical personnel P1 looks at the subject P2 through the AR goggles 200, the tomographic images of each part are superimposed and displayed on the subject P2 as if the body of the subject P2 can be seen through. be done. Details of alignment between the CT image and the subject P2 will be described later.

[X線CT装置の構成]
図3は、第1実施形態におけるX線CT装置100の構成例を表す図である。X線CT装置100は、例えば、架台装置110と、寝台装置130と、コンソール装置140とを備える。図3では、説明の都合上、架台装置110をZ軸方向から見た図とX軸方向から見た図の双方を掲載しているが、実際には、架台装置110は一つである。実施形態では、非チルト状態での回転フレーム117の回転軸または寝台装置130の天板133の長手方向をZ軸方向とし、Z軸方向に直交し、かつ床面に対して水平である軸をX軸方向とし、Z軸方向に直交し、かつ床面に対して垂直である方向をY軸方向とそれぞれ定義する。
[Configuration of X-ray CT apparatus]
FIG. 3 is a diagram showing a configuration example of the X-ray CT apparatus 100 according to the first embodiment. The X-ray CT apparatus 100 includes, for example, a gantry device 110, a bed device 130, and a console device 140. For convenience of explanation, FIG. 3 shows both a view of the gantry device 110 viewed from the Z-axis direction and a view of the gantry device 110 viewed from the X-axis direction. In the embodiment, the rotation axis of the rotating frame 117 in the non-tilt state or the longitudinal direction of the top plate 133 of the bed device 130 is defined as the Z-axis direction, and the axis perpendicular to the Z-axis direction and horizontal to the floor surface is defined as the Z-axis direction. The X-axis direction and the direction perpendicular to the Z-axis direction and perpendicular to the floor surface are defined as the Y-axis direction.

架台装置110は、例えば、X線管111と、ウェッジ112と、コリメータ113と、X線高電圧装置114と、X線検出器115と、データ収集システム(以下、DAS:Data Acquisition System)116と、回転フレーム117と、制御装置118とを有する。 The gantry device 110 includes, for example, an X-ray tube 111, a wedge 112, a collimator 113, an X-ray high voltage device 114, an X-ray detector 115, and a data acquisition system (DAS: Data Acquisition System) 116. , a rotating frame 117 and a controller 118 .

X線管111は、X線高電圧装置114からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生させる。X線管111は、真空管を含む。例えば、X線管111は、回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管である。 The X-ray tube 111 generates X-rays by applying a high voltage from the X-ray high voltage device 114 and irradiating thermal electrons from a cathode (filament) toward an anode (target). X-ray tube 111 includes a vacuum tube. For example, the X-ray tube 111 is a rotating anode type X-ray tube that generates X-rays by irradiating a rotating anode with thermal electrons.

ウェッジ112は、X線管111から被検体P2に照射されるX線量を調節するためのフィルタである。ウェッジ112は、X線管111から被検体P2に照射されるX線量の分布が予め定められた分布になるように、自身を透過するX線を減衰させる。ウェッジ112は、ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter)とも呼ばれる。ウェッジ112は、例えば、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したものである。 The wedge 112 is a filter for adjusting the dose of X-rays irradiated from the X-ray tube 111 to the subject P2. The wedge 112 attenuates the X-rays passing through itself so that the X-ray dose distribution irradiated from the X-ray tube 111 to the subject P2 becomes a predetermined distribution. Wedge 112 is also called a wedge filter or a bow-tie filter. The wedge 112 is, for example, processed aluminum so as to have a predetermined target angle and a predetermined thickness.

コリメータ113は、ウェッジ112を透過したX線の照射範囲を絞り込むための機構である。コリメータ113は、例えば、複数の鉛板の組み合わせによってスリットを形成することで、X線の照射範囲を絞り込む。コリメータ113は、X線絞りと呼ばれる場合もある。 The collimator 113 is a mechanism for narrowing down the irradiation range of X-rays transmitted through the wedge 112 . The collimator 113 narrows down the X-ray irradiation range by, for example, forming a slit by combining a plurality of lead plates. Collimator 113 is sometimes called an X-ray diaphragm.

X線高電圧装置114は、例えば、高電圧発生装置と、X線制御装置とを有する。高電圧発生装置は、変圧器(トランス)および整流器などを含む電気回路を有し、X線管111に印加する高電圧を発生させる。X線制御装置は、X線管111に発生させるべきX線量に応じて高電圧発生装置の出力電圧を制御する。高電圧発生装置は、上述した変圧器によって昇圧を行うものであってもよいし、インバータによって昇圧を行うものであってもよい。X線高電圧装置114は、回転フレーム117に設けられてもよいし、架台装置110の固定フレーム(不図示)の側に設けられてもよい。 The X-ray high voltage device 114 has, for example, a high voltage generator and an X-ray controller. The high voltage generator has an electric circuit including a transformer, a rectifier, etc., and generates a high voltage to be applied to the X-ray tube 111 . The X-ray controller controls the output voltage of the high voltage generator in accordance with the amount of X-rays to be generated by the X-ray tube 111 . The high voltage generator may be one that boosts the voltage with the transformer described above, or one that boosts the voltage with an inverter. The X-ray high-voltage device 114 may be provided on the rotating frame 117 or may be provided on the fixed frame (not shown) side of the gantry device 110 .

X線検出器115は、X線管111が発生させ、被検体P2を通過して入射したX線の強度を検出する。X線検出器115は、検出したX線の強度に応じた電気信号(光信号などでもよい)をDAS116に出力する。X線検出器115は、例えば、複数のX線検出素子列を有する。複数のX線検出素子列のそれぞれは、X線管111の焦点を中心とした円弧に沿ってチャネル方向に複数のX線検出素子が配列されたものである。複数のX線検出素子列は、スライス方向(列方向、row方向)に配列される。 The X-ray detector 115 detects the intensity of X-rays generated by the X-ray tube 111 and incident through the subject P2. The X-ray detector 115 outputs to the DAS 116 an electrical signal (which may be an optical signal or the like) corresponding to the intensity of the detected X-rays. The X-ray detector 115 has, for example, multiple X-ray detection element arrays. Each of the multiple X-ray detection element arrays has multiple X-ray detection elements arranged in the channel direction along an arc centered on the focal point of the X-ray tube 111 . A plurality of X-ray detection element arrays are arranged in a slice direction (column direction, row direction).

X線検出器115は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接型の検出器である。シンチレータアレイは、複数のシンチレータを有する。それぞれのシンチレータは、シンチレータ結晶を有する。シンチレータ結晶は、入射するX線の強度に応じた光量の光を発する。グリッドは、シンチレータアレイのX線が入射する面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドは、コリメータ(一次元コリメータまたは二次元コリメータ)と呼ばれる場合もある。光センサアレイは、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。光センサアレイは、シンチレータにより発せられる光の光量に応じた電気信号を出力する。X線検出器115は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であってもかまわない。 X-ray detector 115 is, for example, an indirect detector having a grid, a scintillator array, and a photosensor array. The scintillator array has a plurality of scintillators. Each scintillator has a scintillator crystal. The scintillator crystal emits an amount of light corresponding to the intensity of incident X-rays. The grid has an X-ray shielding plate arranged on the surface of the scintillator array on which X-rays are incident and having a function of absorbing scattered X-rays. Note that the grid may also be called a collimator (one-dimensional collimator or two-dimensional collimator). The photosensor array has photosensors such as, for example, photomultiplier tubes (photomultipliers: PMTs). The photosensor array outputs an electrical signal corresponding to the amount of light emitted by the scintillator. The X-ray detector 115 may be a direct conversion detector having a semiconductor element that converts incident X-rays into electrical signals.

DAS116は、例えば、増幅器と、積分器と、A/D変換器とを有する。増幅器は、X線検出器115の各X線検出素子により出力される電気信号に対して増幅処理を行う。積分器は、増幅処理が行われた電気信号をビュー期間(後述)に亘って積分する。A/D変換器は、積分結果を示す電気信号をデジタル信号に変換する。DAS116は、デジタル信号に基づく検出データをコンソール装置140に出力する。検出データは、生成元のX線検出素子のチャンネル番号、列番号、及び収集されたビューを示すビュー番号により識別されたX線強度のデジタル値である。ビュー番号は、回転フレーム117の回転に応じて変化する番号であり、例えば、回転フレーム117の回転に応じてインクリメントされる番号である。従って、ビュー番号は、X線管111の回転角度を示す情報である。ビュー期間とは、あるビュー番号に対応する回転角度から、次のビュー番号に対応する回転角度に到達するまでの間に収まる期間である。DAS116は、ビューの切り替わりを、制御装置118から入力されるタイミング信号によって検知してもよいし、内部のタイマーによって検知してもよいし、図示しないセンサから取得される信号によって検知してもよい。フルスキャンを行う場合においてX線管111によりX線が連続曝射されている場合、DAS116は、全周囲分(360度分)の検出データ群を収集する。ハーフスキャンを行う場合においてX線管111によりX線が連続曝射されている場合、DAS116は、半周囲分(180度分)の検出データを収集する。 DAS 116 includes, for example, amplifiers, integrators, and A/D converters. The amplifier amplifies the electrical signal output from each X-ray detection element of the X-ray detector 115 . The integrator integrates the amplified electrical signal over a view period (described later). The A/D converter converts an electrical signal representing the result of integration into a digital signal. The DAS 116 outputs detection data based on digital signals to the console device 140 . Detected data is a digital value of x-ray intensity identified by the channel number of the x-ray detector element from which it was generated, the row number, and the view number indicating the acquired view. The view number is a number that changes according to the rotation of the rotating frame 117, and is a number that is incremented according to the rotation of the rotating frame 117, for example. Therefore, the view number is information indicating the rotation angle of the X-ray tube 111 . A view period is a period that falls between the rotation angle corresponding to a certain view number and the rotation angle corresponding to the next view number. The DAS 116 may detect view switching by a timing signal input from the control device 118, by an internal timer, or by a signal obtained from a sensor (not shown). . When X-rays are continuously emitted from the X-ray tube 111 when performing a full scan, the DAS 116 collects detection data groups for the entire circumference (360 degrees). When X-rays are continuously emitted from the X-ray tube 111 when half scanning is performed, the DAS 116 collects detection data for a half circumference (180 degrees).

回転フレーム117は、X線管111、ウェッジ112、およびコリメータ113と、X線検出器115とを対向保持した状態で回転させる円環状の回転部材である。回転フレーム117は、固定フレームによって、内部に導入された被検体P2を中心として回転自在に支持される。回転フレーム117は、更にDAS116を支持する。DAS116が出力する検出データは、回転フレーム117に設けられた発光ダイオード(LED)を有する送信機から、光通信によって、架台装置110の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、受信機によってコンソール装置140に転送される。なお、回転フレーム117から非回転部分への検出データの送信方法として、前述の光通信を用いた方法に限らず、非接触型の任意の送信方法を採用してよい。回転フレーム117は、X線管111などを支持して回転させることができるものであれば、円環状の部材に限らず、アームのような部材であってもよい。 The rotating frame 117 is an annular rotating member that rotates the X-ray tube 111, the wedge 112, the collimator 113, and the X-ray detector 115 while holding them facing each other. The rotating frame 117 is rotatably supported by the stationary frame around the subject P2 introduced therein. Rotating frame 117 also supports DAS 116 . The detected data output by DAS 116 is transmitted by optical communication from a transmitter having a light emitting diode (LED) mounted on rotating frame 117 to a photodiode mounted on a non-rotating portion (e.g., fixed frame) of mounting assembly 110. It is sent to the receiver and transferred to the console device 140 by the receiver. The method of transmitting the detection data from the rotating frame 117 to the non-rotating portion is not limited to the above-described method using optical communication, and any non-contact transmission method may be employed. The rotating frame 117 is not limited to an annular member, and may be a member such as an arm as long as it can support and rotate the X-ray tube 111 or the like.

制御装置118は、例えば、CPU(Central Processing Unit)などのプロセッサを有する処理回路と、モータやアクチュエータなどを含む駆動機構とを有する。制御装置118は、コンソール装置140または架台装置110に取り付けられた入力インタフェース143からの入力信号を受け付けて、架台装置110および寝台装置130の動作を制御する。 The control device 118 has, for example, a processing circuit having a processor such as a CPU (Central Processing Unit), and a driving mechanism including a motor, an actuator, and the like. The control device 118 receives input signals from the console device 140 or the input interface 143 attached to the gantry device 110 and controls the operations of the gantry device 110 and the bed device 130 .

制御装置118は、例えば、回転フレーム117を回転させたり、架台装置110をチルトさせたり、寝台装置130の天板133を移動させたりする。架台装置110をチルトさせる場合、制御装置118は、入力インタフェース143に入力された傾斜角度(チルト角度)に基づいて、Z軸方向に平行な軸を中心に回転フレーム117を回転させる。制御装置118は、図示しないセンサの出力等によって回転フレーム117の回転角度を把握している。また、制御装置118は、回転フレーム117の回転角度を随時、処理回路150に提供する。制御装置118は、架台装置110に設けられてもよいし、コンソール装置140に設けられてもよい。 The control device 118 rotates the rotating frame 117, tilts the gantry device 110, and moves the top plate 133 of the bed device 130, for example. When tilting the gantry device 110 , the control device 118 rotates the rotating frame 117 about an axis parallel to the Z-axis direction based on the tilt angle (tilt angle) input to the input interface 143 . The control device 118 grasps the rotation angle of the rotating frame 117 from the output of a sensor (not shown) or the like. Controller 118 also provides the rotation angle of rotating frame 117 to processing circuit 150 at any time. The control device 118 may be provided in the gantry device 110 or may be provided in the console device 140 .

寝台装置130は、スキャン対象の被検体P2を載置して、架台装置110の回転フレーム117の内部に導入する装置である。寝台装置130は、例えば、基台131と、寝台駆動装置132と、天板133と、支持フレーム134とを有する。基台131は、支持フレーム134を鉛直方向(Y軸方向)に移動可能に支持する筐体を含む。寝台駆動装置132は、モータやアクチュエータを含む。寝台駆動装置132は、被検体P2が載置された天板133を、支持フレーム134に沿って、天板133の長手方向(Z軸方向)に移動させる。天板133は、被検体P2が載置される板状の部材である。 The bed device 130 is a device on which the subject P2 to be scanned is placed and introduced into the rotating frame 117 of the gantry device 110 . The bed device 130 has, for example, a base 131 , a bed driving device 132 , a top board 133 and a support frame 134 . The base 131 includes a housing that supports the support frame 134 so as to be movable in the vertical direction (Y-axis direction). The bed driving device 132 includes motors and actuators. The bed driving device 132 moves the tabletop 133 on which the subject P2 is placed in the longitudinal direction (Z-axis direction) of the tabletop 133 along the support frame 134 . The top plate 133 is a plate-like member on which the subject P2 is placed.

コンソール装置140は、例えば、メモリ141と、ディスプレイ142と、入力インタフェース143と、通信インタフェース144と、処理回路150とを有する。本実施形態では、コンソール装置140は架台装置110とは別体として説明するが、架台装置110にコンソール装置140の各構成要素の一部または全部が含まれてもよい。 Console device 140 has, for example, memory 141 , display 142 , input interface 143 , communication interface 144 , and processing circuitry 150 . In this embodiment, the console device 140 is described as being separate from the gantry device 110 , but the gantry device 110 may include part or all of each component of the console device 140 .

メモリ141は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。メモリ141は、例えば、検出データや投影データ、再構成画像、CT画像等を記憶する。これらのデータは、メモリ141ではなく(或いはメモリ141に加えて)、X線CT装置100が通信可能な外部メモリに記憶されてもよい。外部メモリは、例えば、外部メモリを管理するクラウドサーバが読み書きの要求を受け付けることで、クラウドサーバによって制御されるものである。メモリ141には、ROM(Read Only Memory)やレジスタ等の非一過性の記憶媒体が含まれてもよい。 The memory 141 is implemented by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. The memory 141 stores, for example, detection data, projection data, reconstructed images, CT images, and the like. These data may be stored in an external memory with which the X-ray CT apparatus 100 can communicate, instead of the memory 141 (or in addition to the memory 141). The external memory is controlled by the cloud server, for example, when the cloud server that manages the external memory receives a read/write request. The memory 141 may include non-transitory storage media such as ROM (Read Only Memory) and registers.

ディスプレイ142は、各種の情報を表示する。例えば、ディスプレイ142は、処理回路150によって生成されたCT画像や、操作者(例えば被検体P2)による各種操作を受け付けるGUI(Graphical User Interface)等を表示する。ディスプレイ142は、例えば、LCD(Liquid Crystal Display)や、CRT(Cathode Ray Tube)ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等である。ディスプレイ142は、架台装置110に設けられてもよい。ディスプレイ142は、デスクトップ型でもよいし、コンソール装置140の本体部と無線通信可能な表示装置(例えばタブレット端末)であってもよい。 The display 142 displays various information. For example, the display 142 displays a CT image generated by the processing circuit 150, a GUI (Graphical User Interface) for receiving various operations by an operator (for example, the subject P2), and the like. The display 142 is, for example, an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, an organic EL (Electro Luminescence) display, or the like. The display 142 may be provided on the gantry device 110 . The display 142 may be of a desktop type, or may be a display device capable of wireless communication with the main body of the console device 140 (for example, a tablet terminal).

入力インタフェース143は、操作者(例えば被検体P2)による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路150に出力する。例えば、入力インタフェース143は、検出データまたは投影データ(後述)を収集する際の収集条件、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件などの入力操作を受け付ける。例えば、入力インタフェース143は、マウスやキーボード、タッチパネル、ドラッグボール、スイッチ、ボタン、ジョイスティック、フットペダル、カメラ、赤外線センサ、マイク等により実現される。入力インタフェース143は、架台装置110に設けられてもよい。また、入力インタフェース143は、コンソール装置140の本体部と無線通信可能な表示装置(例えばタブレット端末)により実現されてもよい。なお、本明細書において入力インタフェース143はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース143の例に含まれる。 The input interface 143 receives various input operations by an operator (for example, the subject P2) and outputs an electrical signal indicating the content of the received input operation to the processing circuit 150 . For example, the input interface 143 accepts acquisition conditions for acquiring detection data or projection data (described later), reconstruction conditions for reconstructing CT images, image processing conditions for generating post-processed images from CT images, and the like. accepts the input operation of For example, the input interface 143 is implemented by a mouse, keyboard, touch panel, drag ball, switch, button, joystick, foot pedal, camera, infrared sensor, microphone, and the like. The input interface 143 may be provided on the gantry device 110 . Also, the input interface 143 may be realized by a display device (for example, a tablet terminal) capable of wireless communication with the main body of the console device 140 . It should be noted that the input interface 143 in this specification is not limited to those having physical operation parts such as a mouse and a keyboard. For example, the input interface 143 also includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the control circuit.

通信インタフェース144は、例えば、NIC(Network Interface Card)や無線通信モジュールなどを含む。通信インタフェース144は、通信ネットワークNWを介して、ARゴーグル200やカメラ300等の外部装置と通信する。 The communication interface 144 includes, for example, a NIC (Network Interface Card), a wireless communication module, and the like. The communication interface 144 communicates with external devices such as the AR goggles 200 and the camera 300 via the communication network NW.

処理回路150は、X線CT装置100の全体の動作を制御する。処理回路150は、例えば、システム制御機能151、前処理機能152、再構成処理機能153、画像処理機能154、スキャン制御機能155、出力制御機能156などを実行する。処理回路150は、例えば、ハードウェアプロセッサがメモリ141に記憶された各種プログラムを実行することにより、これらの機能を実現するものである。 Processing circuit 150 controls the overall operation of X-ray CT apparatus 100 . The processing circuitry 150 executes, for example, a system control function 151, a preprocessing function 152, a reconstruction processing function 153, an image processing function 154, a scan control function 155, an output control function 156, and the like. The processing circuit 150 implements these functions by executing various programs stored in the memory 141 by a hardware processor, for example.

ハードウェアプロセッサとは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA))等の回路(circuitry)を意味する。メモリ141にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは、回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ141に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体がコンソール装置140のドライブ装置(不図示)に装着されることで非一時的記憶媒体からメモリ141にインストールされてもよい。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。 A hardware processor includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), Field Programmable Gate Array (FPGA)) or other circuitry. Instead of storing the program in the memory 141, the program may be directly embedded in the circuitry of the hardware processor. In this case, the hardware processor implements its functions by reading and executing the program embedded in the circuit. The above program may be stored in the memory 141 in advance, or may be stored in a non-temporary storage medium such as a DVD or CD-ROM. ), it may be installed in the memory 141 from a non-transitory storage medium. The hardware processor is not limited to being configured as a single circuit, and may be configured as one hardware processor by combining a plurality of independent circuits to implement each function. Also, a plurality of components may be integrated into one hardware processor to realize each function.

コンソール装置140または処理回路150が有する各構成要素は、分散化されて複数のハードウェアにより実現されてもよい。処理回路150は、コンソール装置140が有する構成ではなく、コンソール装置140と通信可能な処理装置によって実現されてもよい。処理装置は、例えば、一つのX線CT装置と接続されたワークステーション、あるいは複数のX線CT装置に接続され、処理回路150と同等の処理を一括して実行する装置(例えばクラウドサーバ)である。 Each component of console device 140 or processing circuit 150 may be distributed and realized by a plurality of pieces of hardware. The processing circuit 150 may be realized by a processing device capable of communicating with the console device 140 instead of the configuration of the console device 140 . The processing device is, for example, a workstation connected to one X-ray CT device, or a device (eg, cloud server) connected to a plurality of X-ray CT devices and collectively executing processing equivalent to that of the processing circuit 150. be.

システム制御機能151は、入力インタフェース143が受け付けた入力操作に基づいて、処理回路150の各種機能を制御する。 The system control function 151 controls various functions of the processing circuit 150 based on input operations received by the input interface 143 .

前処理機能152は、DAS116により出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を行って、投影データを生成し、生成した投影データをメモリ141に記憶させる。 A preprocessing function 152 performs preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 116 to generate projection data. The projection data thus obtained are stored in the memory 141 .

再構成処理機能153は、前処理機能152によって生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等による再構成処理を行って、CT画像を生成し、生成したCT画像をメモリ141に記憶させる。 The reconstruction processing function 153 performs reconstruction processing on the projection data generated by the preprocessing function 152 using a filtered back projection method, an iterative reconstruction method, or the like, generates a CT image, and generates a CT image. The image is stored in memory 141 .

画像処理機能154は、入力インタフェース143が受け付けた入力操作に基づいて、CT画像を公知の方法により、三次元画像や任意断面の断面像データに変換する。三次元画像への変換は、前処理機能152によって行われてもよい。 The image processing function 154 converts the CT image into a three-dimensional image or cross-sectional image data of an arbitrary cross-section by a known method based on the input operation received by the input interface 143 . Conversion to a three-dimensional image may be performed by preprocessing function 152 .

スキャン制御機能155は、X線高電圧装置114、DAS116、制御装置118、および寝台駆動装置132に指示することで、架台装置110における検出データの収集処理を制御する。スキャン制御機能155は、本撮影やスキャノ撮影の際に各部の動作をそれぞれ制御する。 The scan control function 155 controls detection data collection processing in the gantry device 110 by instructing the X-ray high voltage device 114 , the DAS 116 , the control device 118 and the bed driving device 132 . A scan control function 155 controls the operation of each unit during main imaging and scano imaging.

例えば、スキャノ撮影を行う場合、スキャン制御機能155は、X線管111の位置を所定の回転角度に固定し、寝台装置130の天板133をZ軸方向に移動させながらX線管111よりX線を被検体P2に照射するよう制御装置118を制御する。スキャノ撮影の制御下において取得された検出データから前処理及び再構成処理を経て、被検体P2の2次元のスキャノ画像が生成される。また、ヘリカルスキャノ撮影を行う場合、スキャン制御機能155は、被検体P2の全周囲分の検出データを収集するよう制御装置118を制御してよい。ここで、スキャン制御機能155は、被検体P2の胸部全体、腹部全体、上半身全体、全身などの広範囲に対して本撮影よりも低線量でスキャンを実行する。ヘリカルスキャノ撮影の制御下において取得された被検体P2の全周囲分の検出データから前処理及び再構成処理を経て、被検体P2の3次元のスキャノ画像(ボリュームデータ)が生成される。 For example, when performing scanography, the scan control function 155 fixes the position of the X-ray tube 111 at a predetermined rotation angle, moves the top board 133 of the bed device 130 in the Z-axis direction, and scans the X-ray tube 111 through the X-ray tube. Control the controller 118 to irradiate the subject P2 with the rays. A two-dimensional scanogram of the subject P2 is generated from detection data acquired under the control of scanography through preprocessing and reconstruction processing. Further, when helical scan imaging is performed, the scan control function 155 may control the control device 118 to collect detection data for the entire periphery of the subject P2. Here, the scan control function 155 scans a wide range such as the entire chest, the entire abdomen, the entire upper body, and the whole body of the subject P2 with a dose lower than that of the actual imaging. A three-dimensional scanogram (volume data) of the subject P2 is generated through preprocessing and reconstruction processing from detection data of the entire periphery of the subject P2 acquired under the control of helical scan imaging.

出力制御機能156は、再構成処理機能153によって再構成処理を通じて生成されたCT画像や、画像処理機能154によってCT画像から生成された画像(例えば、三次元画像、断面画像、高解像画像)をディスプレイ142に表示させる。また、出力制御機能156は、これら画像を、通信インタフェース144を介してARゴーグル200に送信する。 The output control function 156 controls the CT image generated through the reconstruction processing by the reconstruction processing function 153 and the image generated from the CT image by the image processing function 154 (for example, a three-dimensional image, a cross-sectional image, a high-resolution image). is displayed on the display 142 . Also, the output control function 156 transmits these images to the AR goggles 200 via the communication interface 144 .

[ARゴーグルの構成]
図4は、第1実施形態におけるARゴーグル200の構成例を表す図である。ARゴーグル200は、例えば、通信インタフェース211と、入力インタフェース212と、ARディスプレイ213と、メモリ214と、処理回路220とを備える。
[Configuration of AR goggles]
FIG. 4 is a diagram showing a configuration example of the AR goggles 200 according to the first embodiment. AR goggles 200 includes, for example, a communication interface 211 , an input interface 212 , an AR display 213 , a memory 214 and processing circuitry 220 .

通信インタフェース211は、通信ネットワークNWを介してX線CT装置100やカメラ300等の外部装置と通信する。通信インタフェース211は、例えば、NIC等を含む。 The communication interface 211 communicates with external devices such as the X-ray CT apparatus 100 and the camera 300 via the communication network NW. The communication interface 211 includes, for example, a NIC.

入力インタフェース212は、操作者(例えば医療関係者P1)からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路220に出力する。例えば、入力インタフェース212は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパネル等を含む。入力インタフェース212は、例えば、マイク等の音声入力を受け付けるユーザインタフェースであってもよい。 The input interface 212 receives various input operations from an operator (for example, the medical staff member P1), converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 220 . For example, input interface 212 includes a mouse, keyboard, trackball, switch, button, joystick, touch panel, and the like. The input interface 212 may be, for example, a user interface that accepts voice input such as a microphone.

なお、本明細書において入力インタフェース212はマウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース212の例に含まれる。 It should be noted that the input interface 212 in this specification is not limited to having physical operation parts such as a mouse and a keyboard. For example, the input interface 212 also includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the control circuit.

ARディスプレイ213は、ARゴーグル200を装着した医療関係者P1に、バーチャルなコンテンツCONTを視認させるディスプレイである。コンテンツCONTは、典型的には本撮影時に得られたCT画像であるがこれに限られず、MPR(Multi-Planar Reconstruction)におけるコロナル断面画像やサジタル断面画像であってもよい。また、コンテンツCONTは、心拍や血圧といった被検体P2のバイタルを計測した何らかの数値やグラフ、図形であってもよいし、その他医用に関する何らかの情報であってよい。コンテンツCONTとして被検体P2に重畳表示されるCT画像は、今現在検査している被検体P2のCT画像であってもよいし、被検体P2が過去に検査を受けたときに得られたCT画像であってもよい。また、コンテンツCONTとして被検体P2に重畳表示されるCT画像は、今現在検査している被検体P2と異なる第三者のCT画像であってもよいし、不特定多数の被検体の平均化したCT画像であってもよい。ARディスプレイ213は、「表示部」の一例である。 The AR display 213 is a display that allows the medical staff member P1 wearing the AR goggles 200 to visually recognize the virtual content CONT. The content CONT is typically a CT image obtained during actual imaging, but is not limited to this, and may be a coronal cross-sectional image or a sagittal cross-sectional image in MPR (Multi-Planar Reconstruction). Also, the content CONT may be some numerical values, graphs, or graphics obtained by measuring the vitals of the subject P2 such as heart rate and blood pressure, or may be some other medical information. The CT image superimposed and displayed on the subject P2 as the content CONT may be a CT image of the subject P2 who is currently being examined, or a CT image obtained when the subject P2 was examined in the past. It may be an image. Further, the CT image superimposed and displayed on the subject P2 as the content CONT may be a CT image of a third party different from the subject P2 currently being examined, or may be a CT image of an unspecified number of subjects. It may be a CT image that has been processed. The AR display 213 is an example of a "display unit".

メモリ214は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスクによって実現される。これらの非一過性の記憶媒体は、NAS(Network Attached Storage)や外部ストレージサーバ装置といった通信ネットワークNWを介して接続される他の記憶装置によって実現されてもよい。また、メモリ214には、ROM(Read Only Memory)やレジスタ等の非一過性の記憶媒体が含まれてもよい。 The memory 214 is implemented by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, or an optical disk. These non-transitory storage media may be realized by other storage devices such as NAS (Network Attached Storage) and external storage server devices connected via the communication network NW. The memory 214 may also include non-transitory storage media such as ROM (Read Only Memory) and registers.

処理回路220は、例えば、取得機能221と、対応付け機能223と、生成機能224と、表示制御機能225とを備える。取得機能221は「取得部」の一例であり、対応付け機能223は「対応付け部」の一例であり、生成機能224は「生成部」の一例であり、表示制御機能225は「表示制御部」の一例である。 The processing circuitry 220 includes, for example, an acquisition function 221 , an association function 223 , a generation function 224 and a display control function 225 . The acquisition function 221 is an example of an “acquisition unit”, the association function 223 is an example of a “association unit”, the generation function 224 is an example of a “generation unit”, and the display control function 225 is an example of a “display control unit”. is an example of

処理回路220は、例えば、ハードウェアプロセッサ(コンピュータ)がメモリ214(記憶回路)に記憶されたプログラムを実行することにより、これらの機能を実現するものである。 The processing circuit 220 implements these functions by, for example, executing a program stored in the memory 214 (storage circuit) by a hardware processor (computer).

ハードウェアプロセッサとは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA))等の回路(circuitry)を意味する。メモリ214にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは、回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ214に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体がARゴーグルの接続端子に装着されることで非一時的記憶媒体からメモリ214にインストールされてもよい。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。 A hardware processor includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), Field Programmable Gate Array (FPGA)) or other circuitry. Instead of storing the program in memory 214, the program may be configured to be directly embedded within the circuitry of the hardware processor. In this case, the hardware processor implements its functions by reading and executing the program embedded in the circuit. The above program may be stored in the memory 214 in advance, or stored in a non-temporary storage medium such as a DVD or CD-ROM, and the non-temporary storage medium is attached to the connection terminal of the AR goggles. may be installed into memory 214 from non-transitory storage media. The hardware processor is not limited to being configured as a single circuit, and may be configured as one hardware processor by combining a plurality of independent circuits to implement each function. Also, a plurality of components may be integrated into one hardware processor to realize each function.

取得機能221は、通信インタフェース211を介してカメラ300a及び/又は300bからCT室の画像を取得したり、通信インタフェース211を介してX線CT装置100から制御情報やCT画像を取得したりする。制御情報は、被検体P2をスキャンするようにX線CT装置100を制御するための各種情報であり、具体的には、回転フレーム117の回転量や回転角度、架台装置110のチルト角度、寝台装置130の天板133の移動量などが含まれる。 The acquisition function 221 acquires images of the CT room from the cameras 300 a and/or 300 b via the communication interface 211 and acquires control information and CT images from the X-ray CT apparatus 100 via the communication interface 211 . The control information is various information for controlling the X-ray CT apparatus 100 so as to scan the subject P2. The amount of movement of the top plate 133 of the device 130 and the like are included.

対応付け機能223は、CT室に対する寝台装置130の三次元位置と、CT画像上の被検体P2の部位の位置(二次元又は三次元の画像空間上の位置)とを対応付ける。 The association function 223 associates the three-dimensional position of the couch device 130 with respect to the CT room and the position of the part of the subject P2 on the CT image (position on the two-dimensional or three-dimensional image space).

生成機能224は、取得機能221によって取得されたCT画像に基づいて、被検体P2に対して重畳表示させるコンテンツCONTを生成する。 The generation function 224 generates content CONT to be superimposed and displayed on the subject P2 based on the CT image acquired by the acquisition function 221 .

表示制御機能225は、対応付け機能223によって互いに対応付けられた寝台装置130の三次元位置と、CT画像上の被検体P2の部位の位置とに基づいて、ARゴーグル200を装着した医療関係者P1が被検体P2を見たときに、生成機能224によって生成されたコンテンツCONTが被検体P2に重畳されて見えるように、当該コンテンツCONTをARディスプレイ213に表示させる。 The display control function 225 controls medical personnel wearing the AR goggles 200 based on the three-dimensional position of the bed device 130 associated with each other by the association function 223 and the position of the part of the subject P2 on the CT image. The content CONT generated by the generation function 224 is displayed on the AR display 213 so that the content CONT generated by the generation function 224 can be seen superimposed on the subject P2 when the subject P1 looks at the subject P2.

[医用画像表示システムの全体フロー]
以下、第1実施形態における医用画像表示システム1の処理の流れを説明する。図5は、第1実施形態における医用画像表示システム1の一連の処理の流れの一例を表すフローチャートである。本フローチャートは、例えば、本撮影やスキャノ撮影の際に実行されるものであり、本フローチャートが実行されるタイミングでは、少なくともX線CT装置100(架台装置110)のCT室に対する三次元位置が計測されているものとする。
[Overall Flow of Medical Image Display System]
The flow of processing of the medical image display system 1 according to the first embodiment will be described below. FIG. 5 is a flowchart showing an example of the flow of a series of processes of the medical image display system 1 according to the first embodiment. This flowchart is executed, for example, at the time of main imaging or scanography. It shall be

まず、ARゴーグル200の取得機能221は、ARゴーグル200が医療関係者P1によって装着されるまで待機する(ステップS100)。例えば、取得機能221は、入力インタフェース212に対して、ARゴーグル200を装着したことを申告する操作が医療関係者P1によって入力された場合、ARゴーグル200が医療関係者P1によって装着されたと判定し、上記操作が入力されない場合、ARゴーグル200が医療関係者P1によって装着されていないと判定してよい。また、取得機能221は、ジャイロセンサやその他センサを用いて、ARゴーグル200が装着されたか否かを判定してもよい。 First, the acquisition function 221 of the AR goggles 200 waits until the AR goggles 200 are worn by the medical personnel P1 (step S100). For example, when medical personnel P1 inputs an operation to declare that they have worn the AR goggles 200 to the input interface 212, the acquisition function 221 determines that the AR goggles 200 have been worn by the medical personnel P1. , when the above operation is not input, it may be determined that the AR goggles 200 are not worn by the medical personnel P1. Also, the acquisition function 221 may use a gyro sensor or other sensors to determine whether the AR goggles 200 are worn.

取得機能221は、ARゴーグル200が医療関係者P1によって装着されると、通信インタフェース211を介してカメラ300a及び/又は300bからCT室の画像を取得し、その取得した画像をもとに、CT室に対するARゴーグル200の三次元位置を算出する(ステップS102)。 The acquisition function 221 acquires an image of the CT room from the cameras 300a and/or 300b via the communication interface 211 when the AR goggles 200 are worn by the medical staff member P1, and based on the acquired image, performs a CT scan. A three-dimensional position of the AR goggles 200 with respect to the room is calculated (step S102).

例えば、取得機能221は、ライトハウス方式と呼ばれるオブジェクトトラッキング方式を利用して、ベースステーションにあたるカメラ300a及び300bの其々の画像上においてARゴーグル200の光学マーカMK2をトラッキングし、ARゴーグル200の三次元位置を算出してよい。ARゴーグル200が医療関係者P1に装着されている間、ARゴーグル200の三次元位置は繰り返し算出される。 For example, the acquisition function 221 uses an object tracking method called the Lighthouse method to track the optical marker MK2 of the AR goggles 200 on the respective images of the cameras 300a and 300b corresponding to the base stations, The original position may be calculated. The three-dimensional position of the AR goggles 200 is repeatedly calculated while the AR goggles 200 are worn by the medical personnel P1.

一方、X線CT装置100のスキャン制御機能155は、寝台装置130の天板133に被検体P2が載置されるまで待機し(ステップS104)、天板133に被検体P2が載置されると、Z軸方向に沿って天板133を架台装置110側に移動させ、更に、その天板133の移動量を計測する(ステップS106)。 On the other hand, the scan control function 155 of the X-ray CT apparatus 100 waits until the subject P2 is placed on the tabletop 133 of the couch device 130 (step S104), and the subject P2 is placed on the tabletop 133. Then, the top plate 133 is moved toward the gantry device 110 along the Z-axis direction, and the amount of movement of the top plate 133 is measured (step S106).

次に、スキャン制御機能155は、スキャノ撮影として、天板133に載置された被検体P2をスキャンするように制御装置118を制御する(ステップS108)。スキャノ撮影によって得られた検出データから前処理及び再構成処理を経て、被検体P2のCT画像が生成される。 Next, the scan control function 155 controls the control device 118 to scan the subject P2 placed on the tabletop 133 as scanography (step S108). A CT image of the subject P2 is generated from detection data obtained by scanography through preprocessing and reconstruction processing.

次に、ARゴーグル200の取得機能221は、通信インタフェース211を介してX線CT装置100からスキャノ撮影により生成されたCT画像と、そのスキャノ撮影が行われた際の制御情報とを取得する。制御情報には、移動前の天板133の初期位置や、S0106で計測された天板133の移動量が含まれる。天板133の初期位置は、事前に計測された架台装置110のCT室に対する三次元位置から決定される。 Next, the acquisition function 221 of the AR goggles 200 acquires the CT image generated by the scanography from the X-ray CT apparatus 100 via the communication interface 211 and the control information when the scanography was performed. The control information includes the initial position of the tabletop 133 before movement and the amount of movement of the tabletop 133 measured in S0106. The initial position of the tabletop 133 is determined from the three-dimensional position of the gantry 110 with respect to the CT room that has been measured in advance.

次に、対応付け機能223は、移動前の天板133の初期位置と、天板133の移動量とに基づいて、移動後の天板133のCT室に対する三次元位置を算出する(ステップS112)。例えば、三次元位置が図3で説明したX、Y、Z座標で表される場合、天板133の移動前後でZ軸だけが変動した座標となる。 Next, the association function 223 calculates the three-dimensional position of the table 133 after movement with respect to the CT room based on the initial position of the table 133 before movement and the amount of movement of the table 133 (step S112). ). For example, when the three-dimensional position is represented by the X, Y, and Z coordinates described with reference to FIG.

次に、対応付け機能223は、算出した天板133のCT室に対する三次元位置と、CT画像の位置(CT画像上の被検体P2の部位の位置)とを対応付ける(ステップS114)。「対応付ける」とは、天板133のCT室に対する三次元位置を基に、CT画像の位置(CT画像上の被検体P2の部位の位置)を、CT室内の三次元位置に変換することを意味する。 Next, the association function 223 associates the calculated three-dimensional position of the tabletop 133 with respect to the CT room with the position of the CT image (the position of the part of the subject P2 on the CT image) (step S114). “Associating” means converting the position of the CT image (the position of the part of the subject P2 on the CT image) into the three-dimensional position in the CT room based on the three-dimensional position of the tabletop 133 with respect to the CT room. means.

次に、生成機能224は、取得機能221によって取得されたCT画像に基づいて、被検体P2に対して重畳表示させるコンテンツCONTを生成する。上述したように、コンテンツCONTは、典型的には、本撮影によって生成されたCT画像であってよいがこれに限られず、医用に関する情報であれば如何なる情報であってもよい。 Next, the generation function 224 generates content CONT to be superimposed and displayed on the subject P2 based on the CT image acquired by the acquisition function 221 . As described above, the content CONT may typically be a CT image generated by actual imaging, but is not limited to this, and may be any information as long as it is medical information.

次に、表示制御機能225は、対応付け機能223によって天板133の三次元位置に対応付けられたCT画像の位置(CT画像上の被検体P2の部位の位置)と、ARゴーグル200の三次元位置とに基づいて、ARゴーグル200を装着した医療関係者P1が被検体P2を見たときに、生成機能224によって生成されたコンテンツCONTが被検体P2に重畳されて見えるように、当該コンテンツCONTをARディスプレイ213に表示させる(ステップS116)。コンテンツCONTは、スキャノ撮影が終了したタイミングや、本撮影が終了したタイミングで重畳表示されてもよい。また、スキャノ撮影や本撮影が行われている期間にCT画像が逐次更新される場合、そのCT画像の更新に合わせてコンテンツCONTもまた逐次生成されてよい。そして、逐次生成されたコンテンツCONTは、リアルタイムで被検体P2に重畳表示されてよい。このような一連の処理によって、本フローチャートの処理が終了する。 Next, the display control function 225 associates the position of the CT image (the position of the part of the subject P2 on the CT image) associated with the three-dimensional position of the tabletop 133 by the association function 223 with the tertiary position of the AR goggles 200. Based on the original position, the content CONT generated by the generation function 224 is superimposed on the subject P2 when the medical personnel P1 wearing the AR goggles 200 looks at the subject P2. CONT is displayed on the AR display 213 (step S116). The content CONT may be displayed in a superimposed manner at the timing when the scanography is finished or when the actual photography is finished. Further, when CT images are sequentially updated while scanography or main imaging is being performed, the content CONT may also be sequentially generated in accordance with the update of the CT images. The sequentially generated content CONT may be superimposed and displayed on the subject P2 in real time. The processing of this flowchart is completed by such a series of processing.

図6は、被検体P2に重畳表示されるコンテンツCONTの一例を表す図である。図6のように、コンテンツCONTは、被検体P2の腹部をスキャンした三次元のCT画像(ボリュームデータ)であってよい。このようなコンテンツCONTは、天板133の三次元位置にもとに、CT室の三次元空間上において被検体P2の腹部が存在しているであろう三次元位置に対応付けられる。そのため、医療関係者P1は、ARゴーグル200を介して、被検体P2の腹部に重なったコンテンツCONTを視認することができる。 FIG. 6 is a diagram showing an example of the content CONT superimposed on the subject P2. As shown in FIG. 6, the content CONT may be a three-dimensional CT image (volume data) obtained by scanning the abdomen of the subject P2. Such content CONT is associated with the three-dimensional position where the abdomen of the subject P2 would exist in the three-dimensional space of the CT room, based on the three-dimensional position of the table top 133 . Therefore, the medical personnel P1 can visually recognize the content CONT overlapping the abdomen of the subject P2 through the AR goggles 200 .

図7は、被検体P2に重畳表示されるコンテンツCONTの他の例を表す図である。図7のように、コンテンツCONTとして重畳表示されるCT画像は、被検体P2の腹部を輪切りにしたような二次元画像であってもよい。例えば、ARゴーグル200を装着した医療関係者P1が、ARゴーグル200の入力インタフェース212を操作して、三次元のCT画像(ボリュームデータ)の中から、表示させたい一つの断面を選択すると、その選択された断面に相当する二次元のCT画像がコンテンツCONTとして重畳表示されてよい。このように、コンテンツCONTは、二次元のCT画像であってもよいし、三次元のCT画像であってもよい。 FIG. 7 is a diagram showing another example of the content CONT superimposed and displayed on the subject P2. As shown in FIG. 7, the CT image superimposed and displayed as the content CONT may be a two-dimensional image such as a slice of the abdomen of the subject P2. For example, when medical personnel P1 wearing the AR goggles 200 operates the input interface 212 of the AR goggles 200 to select one cross section to be displayed from the three-dimensional CT image (volume data), A two-dimensional CT image corresponding to the selected cross section may be superimposed and displayed as the content CONT. Thus, the content CONT may be a two-dimensional CT image or a three-dimensional CT image.

より具体的な利用場面について想定した場合、例えば、血液や体液、細胞などを採取するために被検体P2の体内に穿刺針を刺す「穿刺」という検査にコンテンツCONTの重畳表示を利用することが考えられる。この場合、穿刺針を刺す患部に、その患部のCT画像が重畳表示されるため、医療関係者P1は、あたかも被検体P2の体内を透視しながら穿刺することができる。 Assuming a more specific usage scene, for example, the superimposed display of the content CONT can be used for a test called "puncture" in which a puncture needle is inserted into the body of the subject P2 to collect blood, bodily fluids, cells, or the like. Conceivable. In this case, the CT image of the affected area is displayed superimposed on the affected area where the puncture needle is to be inserted, so the medical staff P1 can perform the puncture as if they were seeing through the body of the subject P2.

以上説明した第1実施形態によれば、ARゴーグル200の処理回路220は、被検体P2(「被検体」の一例)の医用画像を取得する。処理回路220は、CT室に対する寝台装置130の三次元位置と、医用画像の位置(医用画像上の被検体P2の部位の位置)とを対応付ける。処理回路220は、医用画像に基づいて、被検体P2に対して重畳させるコンテンツCONTを生成する。処理回路220は、互いに対応付けられた寝台装置130の位置及び医用画像の位置(医用画像上の被検体P2の部位の位置)に基づいて、被検体P2にコンテンツCONTが重畳表示されるように、ARディスプレイ213にコンテンツCONTを表示させる。このように、CT室に対する寝台装置130の三次元位置と、医用画像上における被検体P2の部位の位置とを対応付けるため、医用画像を被検体P2に投影する際に、ロバストに被検体P2の位置を取得することができる。更に、検査前に被検体P2に光学マーカを取り付けないため、検査手順の複雑化を抑制しつつ、医用画像を被検体P2に投影することができる。 According to the first embodiment described above, the processing circuit 220 of the AR goggles 200 acquires a medical image of the subject P2 (an example of the "subject"). The processing circuit 220 associates the three-dimensional position of the couch device 130 with respect to the CT room and the position of the medical image (the position of the part of the subject P2 on the medical image). The processing circuit 220 generates content CONT to be superimposed on the subject P2 based on the medical image. The processing circuit 220 superimposes the content CONT on the subject P2 based on the position of the couch device 130 and the position of the medical image (the position of the part of the subject P2 on the medical image) that are associated with each other. , causes the AR display 213 to display the content CONT. In this manner, since the three-dimensional position of the couch device 130 with respect to the CT room is associated with the position of the part of the subject P2 on the medical image, when the medical image is projected onto the subject P2, the image of the subject P2 can be robustly projected. position can be obtained. Furthermore, since no optical marker is attached to the subject P2 before the examination, a medical image can be projected onto the subject P2 while suppressing complication of the examination procedure.

(第1実施形態の変形例)
以下、第1実施形態の変形例について説明する。上述した第1実施形態では、(i)CT室に対する寝台装置130の三次元位置と、医用画像の位置とを対応付け、(ii)医用画像に基づいて、被検体P2に対して重畳させるコンテンツCONTを生成し、(iii)互いに対応付けられた寝台装置130の位置及び医用画像の位置に基づいて、被検体P2にコンテンツCONTが重畳表示されるように、ARディスプレイ213にコンテンツCONTを表示させる、という一連の処理を、ARゴーグル200の処理回路220が実行するものとして説明したがこれに限られない。例えば、X線CT装置100のコンソール装置140又は制御装置118が、(i)及び(ii)のうち一部又は全部を実行してもよい。つまり、X線CT装置100の処理回路150又は制御装置118が、ARゴーグル200の処理回路220の機能の一部又は全部を備えていてもよい。
(Modified example of the first embodiment)
Modifications of the first embodiment will be described below. In the above-described first embodiment, (i) the three-dimensional position of the bed device 130 with respect to the CT room is associated with the position of the medical image, and (ii) the content superimposed on the subject P2 is based on the medical image. (iii) display the content CONT on the AR display 213 so that the content CONT is superimposed on the subject P2 based on the position of the couch device 130 and the position of the medical image that are associated with each other; , is described as being executed by the processing circuit 220 of the AR goggles 200, but the present invention is not limited to this. For example, the console device 140 or the control device 118 of the X-ray CT apparatus 100 may perform some or all of (i) and (ii). That is, the processing circuitry 150 or the control device 118 of the X-ray CT apparatus 100 may have some or all of the functions of the processing circuitry 220 of the AR goggles 200 .

また、上述した第1実施形態では、図1~3に示すように、固定された架台装置110に対して寝台装置130が相対的に移動して、臥位状態の被検体P2をスキャンするX線CT装置100について説明したがこれに限られない。例えば、X線CT装置100は、固定された寝台装置130に対して架台装置110が相対的に移動して、立位状態の被検体P2をスキャンするものであってもよい。この場合、上述したフローチャートのS106の処理では、架台装置110の移動量が計測され、S112の処理では、移動前の架台装置110の初期位置と、計測された架台装置110の移動量とに基づいて、移動後の架台装置110のCT室に対する三次元位置が算出されてよい。 Further, in the first embodiment described above, as shown in FIGS. 1 to 3, the bed device 130 moves relative to the fixed gantry device 110, and the subject P2 in the supine position is scanned. Although the line CT apparatus 100 has been described, the present invention is not limited to this. For example, the X-ray CT apparatus 100 may move the gantry device 110 relative to the fixed bed device 130 to scan the subject P2 in an upright position. In this case, the amount of movement of the gantry device 110 is measured in the process of S106 of the flowchart described above, and the amount of movement of the gantry device 110 is measured in the process of S112 based on the initial position of the gantry device 110 before movement and the measured amount of movement of the gantry device 110. Then, the three-dimensional position of the gantry device 110 after movement with respect to the CT room may be calculated.

また、上述した第1実施形態では、医用画像診断装置100がX線CT装置であるものとして説明したがこれに限られない。被検体P2が載置される寝台の移動量を計測することができ、更に移動後の寝台の三次元位置を算出することが可能であれば、上述したように、医用画像診断装置100はMRI装置などであってもよい。 Further, in the first embodiment described above, the medical image diagnostic apparatus 100 is described as being an X-ray CT apparatus, but the present invention is not limited to this. If the amount of movement of the bed on which the subject P2 is placed can be measured and the three-dimensional position of the bed after movement can be calculated, the medical image diagnostic apparatus 100 can perform MRI as described above. It may be a device or the like.

(第2実施形態)
以下、第2実施形態について説明する。上述した第1実施形態では、(i)CT室に対する寝台装置130の三次元位置と、医用画像の位置とを対応付け、(ii)医用画像に基づいて、被検体P2に対して重畳させるコンテンツCONTを生成し、(iii)互いに対応付けられた寝台装置130の位置及び医用画像の位置に基づいて、被検体P2にコンテンツCONTが重畳表示されるように、ARディスプレイ213にコンテンツCONTを表示させるものとして説明した。
(Second embodiment)
A second embodiment will be described below. In the above-described first embodiment, (i) the three-dimensional position of the bed device 130 with respect to the CT room is associated with the position of the medical image, and (ii) the content superimposed on the subject P2 is based on the medical image. (iii) display the content CONT on the AR display 213 so that the content CONT is superimposed on the subject P2 based on the position of the couch device 130 and the position of the medical image that are associated with each other; described as a thing.

これに対して、第2実施形態では、(i)医用画像上において解剖学的部位を検出し、(ii)CT室に対する寝台装置130の三次元位置と、医用画像上における解剖学的部位の位置とを対応付け、(iii)解剖学的部位が検出された医用画像に基づいて、被検体P2に対して重畳させるコンテンツCONTを生成し、(iv)互いに対応付けられた寝台装置130の位置及び解剖学的部位の位置に基づいて、被検体P2にコンテンツCONTが重畳表示されるように、ARディスプレイ213にコンテンツCONTを表示させる点で上述した第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する点については説明を省略する。なお、第2実施形態の説明において、第1実施形態と同じ部分については同一符号を付して説明する。 In contrast, in the second embodiment, (i) an anatomical site is detected on a medical image, and (ii) the three-dimensional position of the couch device 130 with respect to the CT room and the anatomical site on the medical image are detected. (iii) generating a content CONT to be superimposed on the subject P2 based on the medical image in which the anatomical part is detected; (iv) the positions of the bed device 130 associated with each other; And the content CONT is displayed on the AR display 213 so that the content CONT is superimposed on the subject P2 based on the position of the anatomical part. In the following, differences from the first embodiment will be mainly described, and descriptions of common points with the first embodiment will be omitted. In addition, in description of 2nd Embodiment, the same code|symbol is attached|subjected and demonstrated about the same part as 1st Embodiment.

図8は、第2実施形態におけるARゴーグル200の構成例を表す図である。第2実施形態におけるARゴーグル200の処理回路220は、上述した取得機能221、対応付け機能223、生成機能224、及び表示制御機能225に加えて、更に検出機能222を備える。検出機能222は「検出部」の一例である。 FIG. 8 is a diagram showing a configuration example of AR goggles 200 in the second embodiment. The processing circuit 220 of the AR goggles 200 in the second embodiment further includes a detection function 222 in addition to the acquisition function 221, the association function 223, the generation function 224, and the display control function 225 described above. The detection function 222 is an example of a "detector".

検出機能222は、取得機能221によってX線CT装置100から取得されたCT画像(例えばスキャノ撮影やヘリカルスキャノ撮影によって得られたスキャノ画像)を解析することで、CT画像上において解剖学的ランドマーク(Anatomical landmark)を検出し、その解剖学的ランドマークに基づいて解剖学的部位(臓器等)を検出する。例えば、検出機能222は、ALD(Adaptive Layer Distribution)解析を行うことでCT画像上において一つ又は複数の解剖学的ランドマークを検出し、更にCT画像上において解剖学的ランドマークが点在する領域を、解剖学的部位(臓器等)として検出する。 The detection function 222 analyzes a CT image (for example, a scan image obtained by scanography or helical scanography) acquired from the X-ray CT apparatus 100 by the acquisition function 221, thereby detecting anatomical land on the CT image. Marks (anatomical landmarks) are detected, and anatomical sites (organs, etc.) are detected based on the anatomical landmarks. For example, the detection function 222 detects one or more anatomical landmarks on the CT image by performing ALD (Adaptive Layer Distribution) analysis, and the anatomical landmarks are scattered on the CT image. Regions are detected as anatomical parts (organs, etc.).

第2実施形態における対応付け機能223は、CT室に対する寝台装置130の三次元位置と、CT画像上における解剖学的部位の位置(二次元又は三次元の画像空間上の位置)とを対応付ける。 The association function 223 in the second embodiment associates the three-dimensional position of the couch device 130 with respect to the CT room and the position of the anatomical site on the CT image (position on the two-dimensional or three-dimensional image space).

第2実施形態における生成機能224は、解剖学的部位が検出されたCT画像に基づいて、被検体P2に対して重畳表示させるコンテンツCONTを生成する。 The generation function 224 in the second embodiment generates the content CONT to be superimposed and displayed on the subject P2 based on the CT image in which the anatomical part is detected.

第2実施形態における表示制御機能225は、対応付け機能223によって互いに対応付けられた寝台装置130の三次元位置と、CT画像上における解剖学的部位の位置とに基づいて、ARゴーグル200を装着した医療関係者P1が被検体P2を見たときに、生成機能224によって生成されたコンテンツCONTが被検体P2に重畳されて見えるように、当該コンテンツCONTをARディスプレイ213に表示させる。 The display control function 225 in the second embodiment wears the AR goggles 200 based on the three-dimensional position of the couch device 130 associated with each other by the association function 223 and the position of the anatomical part on the CT image. The content CONT generated by the generation function 224 is displayed on the AR display 213 so that the content CONT generated by the generation function 224 can be superimposed on the subject P2 when the medical staff member P1 looks at the subject P2.

図9は、第2実施形態における医用画像表示システム1の一連の処理の流れの一例を表すフローチャートである。本フローチャートは、例えば、本撮影やスキャノ撮影の際に実行されるものであり、本フローチャートが実行されるタイミングでは、少なくともX線CT装置100(架台装置110)のCT室に対する三次元位置が計測されているものとする。 FIG. 9 is a flow chart showing an example of the flow of a series of processes of the medical image display system 1 according to the second embodiment. This flowchart is executed, for example, at the time of main imaging or scanography. It shall be

まず、ARゴーグル200の取得機能221は、ARゴーグル200が医療関係者P1によって装着されるまで待機する(ステップS200)。 First, the acquisition function 221 of the AR goggles 200 waits until the AR goggles 200 are worn by the medical personnel P1 (step S200).

取得機能221は、ARゴーグル200が医療関係者P1によって装着されると、通信インタフェース211を介してカメラ300a及び/又は300bからCT室の画像を取得し、その取得した画像をもとに、CT室に対するARゴーグル200の三次元位置を算出する(ステップS202)。 The acquisition function 221 acquires an image of the CT room from the cameras 300a and/or 300b via the communication interface 211 when the AR goggles 200 are worn by the medical staff member P1, and based on the acquired image, performs a CT scan. A three-dimensional position of the AR goggles 200 with respect to the room is calculated (step S202).

一方、X線CT装置100のスキャン制御機能155は、寝台装置130の天板133に被検体P2が載置されるまで待機し(ステップS204)、天板133に被検体P2が載置されると、Z軸方向に沿って天板133を架台装置110側に移動させ、更に、その天板133の移動量を計測する(ステップS206)。 On the other hand, the scan control function 155 of the X-ray CT apparatus 100 waits until the subject P2 is placed on the tabletop 133 of the couch device 130 (step S204), and the subject P2 is placed on the tabletop 133. Then, the top plate 133 is moved toward the gantry device 110 along the Z-axis direction, and the amount of movement of the top plate 133 is measured (step S206).

次に、スキャン制御機能155は、スキャノ撮影として、天板133に載置された被検体P2をスキャンするように制御装置118を制御する(ステップS208)。スキャノ撮影によって得られた検出データから前処理及び再構成処理を経て、被検体P2のCT画像が生成される。 Next, the scan control function 155 controls the control device 118 to scan the subject P2 placed on the tabletop 133 as scanography (step S208). A CT image of the subject P2 is generated from detection data obtained by scanography through preprocessing and reconstruction processing.

次に、ARゴーグル200の取得機能221は、通信インタフェース211を介してX線CT装置100からスキャノ撮影により生成されたCT画像と、そのスキャノ撮影が行われた際の制御情報とを取得する。制御情報には、移動前の天板133の初期位置や、S0106で計測された天板133の移動量が含まれる。天板133の初期位置は、事前に計測された架台装置110のCT室に対する三次元位置から決定される。 Next, the acquisition function 221 of the AR goggles 200 acquires the CT image generated by the scanography from the X-ray CT apparatus 100 via the communication interface 211 and the control information when the scanography was performed. The control information includes the initial position of the tabletop 133 before movement and the amount of movement of the tabletop 133 measured in S0106. The initial position of the tabletop 133 is determined from the three-dimensional position of the gantry 110 with respect to the CT room that has been measured in advance.

次に、検出機能222は、取得機能221によって取得されたCT画像をALD解析することで、CT画像上において一つ又は複数の解剖学的ランドマークを検出し、その検出した一つ又は複数の解剖学的ランドマークに基づいて解剖学的部位を検出する(ステップS210)。 Next, the detection function 222 performs ALD analysis on the CT image acquired by the acquisition function 221 to detect one or more anatomical landmarks on the CT image, and the detected one or more An anatomical site is detected based on the anatomical landmarks (step S210).

次に、対応付け機能223は、移動前の天板133の初期位置と、天板133の移動量とに基づいて、移動後の天板133のCT室に対する三次元位置を算出する(ステップS212)。 Next, the association function 223 calculates the three-dimensional position of the table 133 after movement with respect to the CT room based on the initial position of the table 133 before movement and the amount of movement of the table 133 (step S212). ).

次に、対応付け機能223は、算出した天板133のCT室に対する三次元位置と、CT画像上における解剖学的部位の位置とを対応付ける(ステップS214)。ここでいう「対応付ける」とは、天板133のCT室に対する三次元位置を基に、CT画像上における解剖学的部位の位置を、CT室内の三次元位置に変換することを意味する。 Next, the association function 223 associates the calculated three-dimensional position of the tabletop 133 with respect to the CT room with the position of the anatomical site on the CT image (step S214). Here, "corresponding" means converting the position of the anatomical site on the CT image into the three-dimensional position in the CT room based on the three-dimensional position of the tabletop 133 with respect to the CT room.

次に、生成機能224は、解剖学的部位が検出されたCT画像に基づいて、被検体P2に対して重畳表示させるコンテンツCONTを生成する。上述したように、コンテンツCONTは、典型的には、本撮影によって生成されたCT画像であってよいがこれに限られず、医用に関する情報であれば如何なる情報であってもよい。 Next, the generation function 224 generates content CONT to be superimposed and displayed on the subject P2 based on the CT image in which the anatomical part is detected. As described above, the content CONT may typically be a CT image generated by actual imaging, but is not limited to this, and may be any information as long as it is medical information.

次に、表示制御機能225は、対応付け機能223によって天板133の三次元位置に対応付けられた解剖学的部位の位置と、ARゴーグル200の三次元位置とに基づいて、ARゴーグル200を装着した医療関係者P1が被検体P2を見たときに、生成機能224によって生成されたコンテンツCONTが被検体P2に重畳されて見えるように、当該コンテンツCONTをARディスプレイ213に表示させる(ステップS216)。このような一連の処理によって、本フローチャートの処理が終了する。 Next, the display control function 225 controls the AR goggles 200 based on the position of the anatomical part associated with the three-dimensional position of the tabletop 133 by the association function 223 and the three-dimensional position of the AR goggles 200. The content CONT generated by the generation function 224 is displayed on the AR display 213 so that the content CONT generated by the generation function 224 can be superimposed on the subject P2 when the medical personnel P1 wearing the device looks at the subject P2 (step S216). ). The processing of this flowchart is completed by such a series of processing.

以上説明した第2実施形態によれば、ARゴーグル200の処理回路220は、被検体P2(「被検体」の一例)の医用画像を取得し、その医用画像上において解剖学的部位を検出する。処理回路220は、CT室に対する寝台装置130の三次元位置と、医用画像上における解剖学的部位の位置とを対応付ける。処理回路220は、解剖学的部位が検出された医用画像に基づいて、被検体P2に対して重畳させるコンテンツCONTを生成する。処理回路220は、互いに対応付けられた寝台装置130の位置及び解剖学的部位の位置に基づいて、被検体P2にコンテンツCONTが重畳表示されるように、ARディスプレイ213にコンテンツCONTを表示させる。このように、CT室に対する寝台装置130の三次元位置と、医用画像上における解剖学的部位の位置とを対応付けるため、医用画像を被検体P2に投影する際に、ロバストに被検体P2の位置を取得することができる。更に、検査前に被検体P2に光学マーカを取り付けないため、検査手順の複雑化を抑制しつつ、医用画像を被検体P2に投影することができる。 According to the second embodiment described above, the processing circuit 220 of the AR goggles 200 acquires a medical image of the subject P2 (an example of the "subject") and detects an anatomical site on the medical image. . The processing circuitry 220 associates the three-dimensional position of the couch device 130 with respect to the CT room with the position of the anatomical site on the medical image. The processing circuit 220 generates content CONT to be superimposed on the subject P2 based on the medical image in which the anatomical part is detected. The processing circuit 220 causes the AR display 213 to display the content CONT so that the content CONT is superimposed on the subject P2 based on the position of the couch device 130 and the position of the anatomical part that are associated with each other. In this way, since the three-dimensional position of the couch device 130 with respect to the CT room is associated with the position of the anatomical part on the medical image, the position of the subject P2 can be robustly determined when projecting the medical image onto the subject P2. can be obtained. Furthermore, since no optical marker is attached to the subject P2 before the examination, a medical image can be projected onto the subject P2 while suppressing complication of the examination procedure.

(第2実施形態の変形例)
以下、第2実施形態の変形例について説明する。上述した第2実施形態では、(i)医用画像上において解剖学的部位を検出し、(ii)CT室に対する寝台装置130の三次元位置と、医用画像上における解剖学的部位の位置とを対応付け、(iii)解剖学的部位が検出された医用画像に基づいて、被検体P2に対して重畳させるコンテンツCONTを生成し、(iv)互いに対応付けられた寝台装置130の位置及び解剖学的部位の位置に基づいて、被検体P2にコンテンツCONTが重畳表示されるように、ARディスプレイ213にコンテンツCONTを表示させる、という一連の処理を、ARゴーグル200の処理回路220が実行するものとして説明したがこれに限られない。例えば、X線CT装置100のコンソール装置140又は制御装置118が、(i)~(iii)の処理のうち一部又は全部を実行してもよい。つまり、X線CT装置100の処理回路150又は制御装置118が、ARゴーグル200の処理回路220の機能の一部又は全部を備えていてもよい。
(Modification of Second Embodiment)
Modifications of the second embodiment will be described below. In the above-described second embodiment, (i) the anatomical site is detected on the medical image, and (ii) the three-dimensional position of the couch device 130 with respect to the CT room and the position of the anatomical site on the medical image are determined. (iii) generating content CONT to be superimposed on the subject P2 based on the medical image in which the anatomical region is detected; (iv) the position and anatomy of the couch device 130 that are associated with each other; It is assumed that the processing circuit 220 of the AR goggles 200 executes a series of processes of displaying the content CONT on the AR display 213 so that the content CONT is superimposed and displayed on the subject P2 based on the position of the target site. Although it was explained, it is not limited to this. For example, the console device 140 or the control device 118 of the X-ray CT apparatus 100 may perform some or all of the processes (i) to (iii). That is, the processing circuitry 150 or the control device 118 of the X-ray CT apparatus 100 may have some or all of the functions of the processing circuitry 220 of the AR goggles 200 .

(第3実施形態)
以下、第3実施形態について説明する。第3実施形態では、スキャン時に被検体P2が身体を動かした場合、その体動に伴う変位量に基づいて、解剖学的ランドマークの位置を補正する点で第1実施形態や第2実施形態と相違する。以下、第1実施形態や第2実施形態との相違点を中心に説明し、これら実施形態と共通する点については説明を省略する。なお、第3実施形態の説明において、第1実施形態又は第2実施形態と同じ部分については同一符号を付して説明する。
(Third Embodiment)
A third embodiment will be described below. In the third embodiment, when the subject P2 moves during scanning, the position of the anatomical landmarks is corrected based on the amount of displacement associated with the body movement. differ from In the following, differences from the first embodiment and the second embodiment will be mainly described, and descriptions of points common to these embodiments will be omitted. In addition, in the description of the third embodiment, the same parts as those in the first embodiment or the second embodiment are denoted by the same reference numerals.

図10は、第3実施形態における医用画像表示システム1の一連の処理の流れの一例を表すフローチャートである。 FIG. 10 is a flow chart showing an example of a series of processes of the medical image display system 1 according to the third embodiment.

まず、取得機能221は、天板133に載置された被検体P2を撮像可能なカメラ300から、通信インタフェース211を介して画像を取得し、その画像をもとに、CT室に対する被検体P2の三次元位置を算出する(ステップS300)。被検体P2を撮像可能なカメラ300とは、例えば、ARゴーグル200のベースステーションにあたるカメラ300a及び300bであってもよいし、視野内に天板133が含まれるように架台装置110の回転フレーム117の上部に設置された専用のカメラ300c(不図示)であってもよい。 First, the acquisition function 221 acquires an image via the communication interface 211 from the camera 300 capable of imaging the subject P2 placed on the top plate 133, and based on the image, the subject P2 in the CT room. is calculated (step S300). The camera 300 capable of imaging the subject P2 may be, for example, the cameras 300a and 300b corresponding to the base station of the AR goggles 200, or the rotating frame 117 of the gantry device 110 so that the top plate 133 is included in the field of view. It may be a dedicated camera 300c (not shown) installed on the top of the .

次に、対応付け機能223は、CT室に対する被検体P2の三次元位置をもとに、スキャン中に被検体P2が身体を動かしたか否かを判定する(ステップS302)。例えば、対応付け機能223は、天板133が初期位置にあるときの被検体P2の三次元位置Pと、天板133がスキャノ撮影又は本撮影が行われる位置に移動したときの被検体P2の三次元位置Pとの変動量(変位量)を算出する。言い換えれば、対応付け機能223は、スキャノ撮影又は本撮影が行われる前の被検体P2の三次元位置Pと、スキャノ撮影又は本撮影が行われるときの被検体P2の三次元位置Pとの変動量を算出する。対応付け機能223は、算出した変動量が許容範囲内である場合、被検体P2が身体を動かしていない(体動なし)と判定し、変動量が許容範囲外である場合、被検体P2が身体を動かした(体動あり)と判定してよい。 Next, the association function 223 determines whether or not the subject P2 has moved during scanning based on the three-dimensional position of the subject P2 with respect to the CT room (step S302). For example, the associating function 223 may be the three-dimensional position P0 of the subject P2 when the tabletop 133 is at the initial position, and the subject P2 when the tabletop 133 has moved to the position where scanography or main imaging is performed. is calculated from the three-dimensional position PS . In other words, the association function 223 associates the three-dimensional position P0 of the subject P2 before scanography or main imaging with the three-dimensional position PS of the subject P2 when scanography or main imaging is performed. Calculate the amount of change in The association function 223 determines that the subject P2 is not moving (no body movement) when the calculated amount of variation is within the allowable range, and determines that the subject P2 is not moving when the amount of variation is outside the allowable range. It may be determined that the body has been moved (there is body movement).

対応付け機能223は、被検体P2が身体を動かしていないと判定した場合、本フローチャートの処理を終了する。 When the association function 223 determines that the subject P2 is not moving, the processing of this flowchart ends.

一方、対応付け機能223は、被検体P2が身体を動かしたと判定した場合、算出した変動量に基づいて、天板133の三次元位置に対応付ける解剖学的部位の位置を補正する(ステップS304)。例えば、対応付け機能223は、X軸に関して許容範囲外の変動量があった場合、解剖学的部位の位置を天板133の三次元位置に対応付ける際に、X軸に関する変動量がキャンセルされるように解剖学的部位の位置を補正してよい。 On the other hand, when determining that the subject P2 has moved the body, the association function 223 corrects the position of the anatomical site associated with the three-dimensional position of the tabletop 133 based on the calculated amount of change (step S304). . For example, if the amount of variation in the X-axis is outside the allowable range, the association function 223 cancels the amount of variation in the X-axis when associating the position of the anatomical site with the three-dimensional position of the tabletop 133. The position of the anatomical part may be corrected as follows.

次に、表示制御機能225は、対応付け機能223によって補正された解剖学的部位の位置と、ARゴーグル200の三次元位置とに基づいて、コンテンツCONTをARディスプレイ213に再表示させる(ステップS306)。これによって本フローチャートの処理が終了する。 Next, the display control function 225 redisplays the content CONT on the AR display 213 based on the position of the anatomical part corrected by the association function 223 and the three-dimensional position of the AR goggles 200 (step S306). ). This completes the processing of this flowchart.

以上説明した第3実施形態によれば、スキャン時に被検体P2が身体を動かした場合、その体動に伴う変位に基づいて、解剖学的部位の位置を補正するため、コンテンツCONTと被検体P2の位置合わせの精度を向上させることができる。 According to the third embodiment described above, when the subject P2 moves during scanning, the content CONT and the subject P2 are corrected based on the displacement caused by the body movement. can improve the accuracy of the alignment.

(第3実施形態の変形例)
以下、第3実施形態の変形例について説明する。上述した第3実施形態では、カメラ300を用いて被検体P2の三次元位置を精度よく計測できている前提で被検体P2の体動の有無が判定され、被検体P2の体動がないときに解剖学的部位の位置の補正が省略されるものとして説明したがこれに限られない。例えば、被検体P2の三次元位置の計測精度が低下した場合、解剖学的部位の位置の補正が省略されてもよい。
(Modified example of the third embodiment)
Modifications of the third embodiment will be described below. In the third embodiment described above, the presence or absence of body movement of the subject P2 is determined on the premise that the three-dimensional position of the subject P2 can be accurately measured using the camera 300, and when there is no body movement of the subject P2 Although the correction of the position of the anatomical part is omitted in the above description, the present invention is not limited to this. For example, when the measurement accuracy of the three-dimensional position of the subject P2 is lowered, the correction of the position of the anatomical part may be omitted.

例えば、カメラ300を用いて被検体P2を撮像する際に、医療関係者P1が一時的にカメラ300と被検体P2との間に割って入り、被検体P2の撮像を妨げる場合がある。このような場合、ALD解析の際にカメラ300の画像から抽出される解剖学的ランドマーク(特徴点)の数が減少する。従って、図10のフローチャートの実行中に、ALD解析によりカメラ300の画像から抽出された解剖学的ランドマーク(特徴点)の数が閾値以下となった場合、対応付け機能223は、被検体P2の三次元位置の計測精度が低下したものとみなして、当フローチャートの処理は終了し、図9のフローチャートに切り替えてよい。 For example, when imaging the subject P2 using the camera 300, the medical personnel P1 may temporarily intervene between the camera 300 and the subject P2 and interfere with the imaging of the subject P2. In such cases, the number of anatomical landmarks (feature points) extracted from the image of camera 300 during ALD analysis is reduced. Therefore, when the number of anatomical landmarks (feature points) extracted from the image of the camera 300 by ALD analysis is equal to or less than the threshold during execution of the flowchart of FIG. It may be considered that the measurement accuracy of the three-dimensional position of is lowered, the processing of this flow chart may be terminated, and the flow may be switched to the flow chart of FIG.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1…医用画像表示システム、100…X線CT装置、110…架台装置、130…寝台装置、140…コンソール装置、141…メモリ、142…ディスプレイ、143…入力インタフェース、144…通信インタフェース、150…処理回路、151…システム制御機能、152…前処理機能、153…再構成処理機能、154…画像処理機能、155…スキャン制御機能、156…出力制御機能、200…ARゴーグル、211…通信インタフェース、212…入力インタフェース、213…ARディスプレイ、214…メモリ、220…処理回路、221…取得機能、222…検出機能、223…対応付け機能、224…生成機能、225…表示制御機能、300…カメラ、NW…通信ネットワーク DESCRIPTION OF SYMBOLS 1... Medical image display system 100... X-ray CT apparatus 110... Mounting apparatus 130... Bed apparatus 140... Console apparatus 141... Memory 142... Display 143... Input interface 144... Communication interface 150... Processing Circuit 151 System control function 152 Preprocessing function 153 Reconstruction processing function 154 Image processing function 155 Scan control function 156 Output control function 200 AR goggles 211 Communication interface 212 ... input interface, 213 ... AR display, 214 ... memory, 220 ... processing circuit, 221 ... acquisition function, 222 ... detection function, 223 ... correspondence function, 224 ... generation function, 225 ... display control function, 300 ... camera, NW … communication networks

Claims (10)

被検体の医用画像を取得する取得部と、
前記被検体をスキャンして前記医用画像を生成する医用画像診断装置に据え付けられ、かつ前記被検体がスキャン時に載置される寝台の位置と、前記医用画像の位置とを対応付ける対応付け部と、
前記医用画像に基づいて、前記被検体に対して重畳させるコンテンツを生成する生成部と、
互いに対応付けられた前記寝台の位置及び前記医用画像の位置に基づいて、前記被検体に前記コンテンツが重畳表示されるように表示部を制御する表示制御部と、
を備える医用画像表示装置。
an acquisition unit that acquires a medical image of a subject;
an associating unit that associates a position of a bed, which is installed in a medical image diagnostic apparatus that scans the subject and generates the medical image and on which the subject is placed during scanning, with the position of the medical image;
a generation unit that generates content to be superimposed on the subject based on the medical image;
a display control unit that controls a display unit so that the content is superimposed and displayed on the subject based on the position of the bed and the position of the medical image that are associated with each other;
A medical image display device comprising:
前記医用画像上において解剖学的部位を検出する検出部を更に備え、
前記対応付け部は、前記寝台の位置と、前記解剖学的部位の位置とを対応付け、
前記表示制御部は、互いに対応付けられた前記寝台の位置及び前記解剖学的部位の位置に基づいて、前記被検体に前記コンテンツが重畳表示されるように前記表示部を制御する、
請求項1に記載の医用画像表示装置。
Further comprising a detection unit that detects an anatomical site on the medical image,
The associating unit associates the position of the bed with the position of the anatomical site,
The display control unit controls the display unit so that the content is superimposed on the subject based on the position of the bed and the position of the anatomical part that are associated with each other.
The medical image display device according to claim 1.
前記取得部は、更に、カメラによって前記被検体が撮像された画像に基づいて、前記被検体の位置を取得し、
前記対応付け部は、前記被検体の位置に基づいて、前記寝台の位置に対応付ける前記解剖学的部位の位置を補正する、
請求項2に記載の医用画像表示装置。
The acquisition unit further acquires the position of the subject based on an image of the subject captured by a camera,
The associating unit corrects the position of the anatomical site associated with the position of the bed based on the position of the subject.
The medical image display device according to claim 2.
前記対応付け部は、前記被検体がスキャンされる前の前記被検体の位置と、前記被検体がスキャンされる時点の前記被検体の位置とに基づいて、前記被検体の体動に伴う変位量を算出し、前記変位量に応じて前記解剖学的部位の位置を補正する、
請求項3に記載の医用画像表示装置。
The associating unit, based on the position of the subject before the subject is scanned and the position of the subject at the time when the subject is scanned, displaces the subject due to body movement. calculating an amount and correcting the position of the anatomical site according to the amount of displacement;
The medical image display device according to claim 3.
前記対応付け部は、前記被検体の位置の精度に応じて、前記解剖学的部位の位置を補正するのか否かを決定する、
請求項3又は4に記載の医用画像表示装置。
The associating unit determines whether to correct the position of the anatomical part according to the accuracy of the position of the subject.
The medical image display device according to claim 3 or 4.
前記表示部は、拡張現実、仮想現実、複合現実、又はプロジェクションマッピングのいずれかの技術を適用したウェアラブルデバイスであり、
前記表示制御部は、前記ウェアラブルデバイスを装着したユーザに対して、前記コンテンツが前記被検体と重畳されて見えるように、前記コンテンツを前記ウェアラブルデバイスに表示させる、
請求項1から5のうちいずれか一項に記載の医用画像表示装置。
The display unit is a wearable device that applies any technology of augmented reality, virtual reality, mixed reality, or projection mapping,
The display control unit displays the content on the wearable device such that the content appears to be superimposed on the subject to a user wearing the wearable device.
The medical image display device according to any one of claims 1 to 5.
前記コンテンツには、前記医用画像診断装置によって前記被検体が過去にスキャンされたときに生成された前記医用画像が含まれる、
請求項1から6のうちいずれか一項に記載の医用画像表示装置。
The content includes the medical image generated when the subject was scanned in the past by the medical image diagnostic device.
The medical image display device according to any one of claims 1 to 6.
前記コンテンツには、スキャノ撮影又はヘリカルスキャノ撮影によって生成された前記医用画像が含まれる、
請求項1から7のうちいずれか一項に記載の医用画像表示装置。
the content includes the medical image generated by scanography or helical scanography;
The medical image display device according to any one of claims 1 to 7.
コンピュータが、
被検体の医用画像を取得し、
前記被検体をスキャンして前記医用画像を生成する医用画像診断装置に据え付けられ、かつ前記被検体がスキャン時に載置される寝台の位置と、前記医用画像の位置とを対応付け、
前記医用画像に基づいて、前記被検体に対して重畳させるコンテンツを生成し、
互いに対応付けられた前記寝台の位置及び前記医用画像の位置に基づいて、前記被検体に前記コンテンツが重畳表示されるように表示部を制御する、
医用画像表示方法。
the computer
obtaining a medical image of a subject;
A position of a bed installed in a medical image diagnostic apparatus that scans the subject and generates the medical image and on which the subject is placed during scanning is associated with the position of the medical image,
generating content to be superimposed on the subject based on the medical image;
controlling a display unit so that the content is superimposed and displayed on the subject based on the position of the bed and the position of the medical image that are associated with each other;
Medical image display method.
コンピュータに、
被検体の医用画像を取得すること、
前記被検体をスキャンして前記医用画像を生成する医用画像診断装置に据え付けられ、かつ前記被検体がスキャン時に載置される寝台の位置と、前記医用画像の位置とを対応付けること、
前記医用画像に基づいて、前記被検体に対して重畳させるコンテンツを生成すること、
互いに対応付けられた前記寝台の位置及び前記医用画像の位置に基づいて、前記被検体に前記コンテンツが重畳表示されるように表示部を制御すること、
を実行させるためのプログラム。
to the computer,
acquiring a medical image of a subject;
Correlating the position of a bed installed in a medical image diagnostic apparatus that scans the subject and generates the medical image and on which the subject is placed during scanning with the position of the medical image;
generating content to be superimposed on the subject based on the medical image;
controlling a display unit to superimpose and display the content on the subject based on the position of the bed and the position of the medical image that are associated with each other;
program to run the
JP2022005902A 2022-01-18 2022-01-18 Medical image display device, medical image display method, and program Pending JP2023104733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022005902A JP2023104733A (en) 2022-01-18 2022-01-18 Medical image display device, medical image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022005902A JP2023104733A (en) 2022-01-18 2022-01-18 Medical image display device, medical image display method, and program

Publications (1)

Publication Number Publication Date
JP2023104733A true JP2023104733A (en) 2023-07-28

Family

ID=87379526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022005902A Pending JP2023104733A (en) 2022-01-18 2022-01-18 Medical image display device, medical image display method, and program

Country Status (1)

Country Link
JP (1) JP2023104733A (en)

Similar Documents

Publication Publication Date Title
CN109464156B (en) Mobile X-ray imaging using detectors docked in spatially aligned compartments
US10918346B2 (en) Virtual positioning image for use in imaging
US20150320381A1 (en) Estimating apparatus, x-ray diagnosis apparatus, and estimating method
JP2014236798A (en) X-ray diagnostic apparatus, exposure management device, scattered ray dose distribution formation method, and scattered ray dose distribution formation program
CN108601571B (en) CT imaging system and method for CT imaging system
JP7325943B2 (en) MEDICAL IMAGE DIAGNOSTIC SYSTEM AND PARAMETER SELECTION METHOD
US20210393231A1 (en) Medical image diagnostic system, medical image diagnostic method, input device, and display device
JP2023104733A (en) Medical image display device, medical image display method, and program
US20210196221A1 (en) Medical image processing apparatus, recording medium, and system
US11344275B2 (en) Medical diagnostic-imaging apparatus
JP7278053B2 (en) X-ray CT system
US10806418B2 (en) X-ray CT apparatus and imaging condition calculating method
JP2021010623A (en) X-ray ct system and medical processing device
JP7437887B2 (en) Medical information processing equipment and X-ray CT equipment
EP4205655A1 (en) Medical image diagnosis apparatus and scanning-range setting method
JP2020043882A (en) X-ray ct apparatus and photography planning device
JP7362259B2 (en) Medical image diagnosis device, medical image diagnosis method, and bed device
US11944479B2 (en) Medical image diagnosis apparatus, x-ray computed tomography apparatus, and medical image diagnosis assisting method
JP7321846B2 (en) X-ray CT system and medical processing equipment
US20240127450A1 (en) Medical image processing apparatus and non-transitory computer readable medium
JP7244280B2 (en) MEDICAL IMAGE DIAGNOSTIC APPARATUS AND MEDICAL IMAGE DIAGNOSTIC METHOD
JP7140566B2 (en) X-ray CT device and imaging planning device
JP2022026261A (en) X-ray ct apparatus
JP2023114027A (en) Medical information processing device, medical information processing method, calibration information acquisition method, and program
JP2022161624A (en) Medical image diagnostic device