JP2018000943A - Medical image diagnostic apparatus and medical image processor - Google Patents

Medical image diagnostic apparatus and medical image processor Download PDF

Info

Publication number
JP2018000943A
JP2018000943A JP2017091215A JP2017091215A JP2018000943A JP 2018000943 A JP2018000943 A JP 2018000943A JP 2017091215 A JP2017091215 A JP 2017091215A JP 2017091215 A JP2017091215 A JP 2017091215A JP 2018000943 A JP2018000943 A JP 2018000943A
Authority
JP
Japan
Prior art keywords
display
image
parts
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2017091215A
Other languages
Japanese (ja)
Inventor
弘貴 氏家
Hiroki Ujiie
弘貴 氏家
賢人 若山
Yoshito Wakayama
賢人 若山
慎 米澤
Makoto Yonezawa
慎 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to US15/626,988 priority Critical patent/US20170372473A1/en
Priority to CN201710473471.8A priority patent/CN107518911A/en
Publication of JP2018000943A publication Critical patent/JP2018000943A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To display an image in which a desired section is easily visualized with an easy operation.SOLUTION: A medical image diagnostic apparatus has a storage part, an input/output control part, a detection part, a generation part, and a display control part. The storage part stores a display setting for each section of a subject. The input/output control part receives a setting of a section to be displayed on the basis of an input operation. The detection part detects the section of the subject received by the input/output control part on the basis of a structure of volume data of the subject. The generation part generates display image data of the section to be displayed by reading a display setting corresponding to the section detected by the detection part from the storage part and applying it to the volume data. The display control part causes a display part to display the display image data generated by the generation part.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、医用画像診断装置及び医用画像処理装置に関する。   Embodiments described herein relate generally to a medical image diagnostic apparatus and a medical image processing apparatus.

従来、医用画像診断装置において、3次元的に撮影されたボリュームデータから診断用の画像を表示するためには、いくつかの用手的な操作が行われている。例えば、X線CT(Computed Tomography)装置により撮影された全身のボリュームデータから、診断対象とする目的部位(臓器など)のSVR(Shaded Volume Rendering)画像を表示する場合には、読影医による以下の操作が行われる。   Conventionally, in a medical image diagnostic apparatus, in order to display a diagnostic image from volume data photographed three-dimensionally, several manual operations are performed. For example, when displaying an SVR (Shaded Volume Rendering) image of a target region (organ etc.) to be diagnosed from whole body volume data imaged by an X-ray CT (Computed Tomography) apparatus, The operation is performed.

まず、読影医は、ボリュームデータを構成する複数のスライス画像を素早く切り替えながら確認することで、目的部位が描出されるスライス位置を探し出す。そして、目的部位に応じた不透過度(Opacity)や色合いなどのレンダリング条件を設定の上、当該スライス位置を含む3次元領域のレンダリング処理を実行させることで、目的部位のSVR画像が表示される。なお、目的部位の中に特に注目すべき箇所がある場合には、読影医は、SVR画像のズーム、パン、及び回転などの操作を更に行って、注目箇所が見やすいように調整する。   First, the image interpretation doctor finds out the slice position where the target part is drawn by quickly switching and confirming a plurality of slice images constituting the volume data. Then, after setting rendering conditions such as opacity and hue according to the target site, a rendering process of the three-dimensional region including the slice position is executed, so that the SVR image of the target site is displayed. . When there is a particularly notable part in the target part, the image interpretation doctor further performs operations such as zooming, panning, and rotating the SVR image so as to make the attention part easy to see.

また、例えば、検査結果の一覧から所望の検査結果を選択する際に、それぞれの検査で撮影された部位を人体模式図上に表したサムネイル画像を表示することで、一覧からの選択作業を支援する技術が提案されている。また、医用画像から検出された解剖学的位置情報を人体模式図上にマッピングして表示することで、読影を支援する技術も提案されている。   In addition, for example, when selecting a desired test result from a list of test results, a thumbnail image showing the part imaged in each test on a schematic diagram of the human body is displayed to support the selection work from the list Techniques to do this have been proposed. In addition, a technique has been proposed that supports interpretation by mapping and displaying anatomical position information detected from a medical image on a human schematic diagram.

特開2008−264167号公報JP 2008-264167 A 特開2015−186567号公報JP-A-2015-186567

本発明が解決しようとする課題は、所望の部位が見やすく描出された画像を簡易な操作で表示することができる医用画像診断装置及び医用画像処理装置を提供することである。   The problem to be solved by the present invention is to provide a medical image diagnostic apparatus and a medical image processing apparatus capable of displaying an image in which a desired part is easily drawn and displayed with a simple operation.

実施形態の医用画像診断装置は、記憶部と、入出力制御部と、検出部と、生成部と、表示制御部とを備える。記憶部は、被検体の部位ごとの表示設定を記憶する。入出力制御部は、入力操作に基づいて表示対象の部位の設定を受け付ける。検出部は、前記被検体のボリュームデータの構造に基づいて、前記入出力制御部が受け付けた前記被検体の部位を検出する。生成部は、前記検出部によって検出された前記部位に対応する表示設定を前記記憶部から読み出して前記ボリュームデータに対して適用することにより、前記表示対象の部位の表示画像データを生成する。表示制御部は、前記生成部によって生成された前記表示画像データを表示部に表示させる。   The medical image diagnostic apparatus according to the embodiment includes a storage unit, an input / output control unit, a detection unit, a generation unit, and a display control unit. The storage unit stores display settings for each part of the subject. The input / output control unit receives the setting of the display target part based on the input operation. The detection unit detects the part of the subject received by the input / output control unit based on the structure of the volume data of the subject. The generation unit reads display settings corresponding to the part detected by the detection unit from the storage unit and applies the display settings to the volume data, thereby generating display image data of the display target part. The display control unit causes the display unit to display the display image data generated by the generation unit.

図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a medical information processing system according to the first embodiment. 図2は、第1の実施形態に係るX線CT装置の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the X-ray CT apparatus according to the first embodiment. 図3は、第1の実施形態に係るスキャン制御回路による3次元のスキャノ画像撮影を説明するための図である。FIG. 3 is a view for explaining three-dimensional scano image capturing by the scan control circuit according to the first embodiment. 図4Aは、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 4A is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図4Bは、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 4B is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図5は、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図6は、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図7は、第1の実施形態に係る記憶回路によって記憶される仮想患者画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a virtual patient image stored by the storage circuit according to the first embodiment. 図8は、第1の実施形態に係る位置照合機能による照合処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of collation processing by the position collation function according to the first embodiment. 図9は、第1の実施形態に係る座標変換によるスキャン範囲の変換例を示す図である。FIG. 9 is a diagram illustrating a scan range conversion example by coordinate conversion according to the first embodiment. 図10は、第1の実施形態に係る表示設定リストの一例を示す図である。FIG. 10 is a diagram illustrating an example of a display setting list according to the first embodiment. 図11は、第1の実施形態に係る入出力制御機能の処理を説明するための図である。FIG. 11 is a diagram for explaining processing of the input / output control function according to the first embodiment. 図12は、第1の実施形態に係る入出力制御機能の処理を説明するための図である。FIG. 12 is a diagram for explaining processing of the input / output control function according to the first embodiment. 図13Aは、第1の実施形態に係る表示制御機能の処理を説明するための図である。FIG. 13A is a diagram for explaining processing of the display control function according to the first embodiment. 図13Bは、第1の実施形態に係る表示制御機能の処理を説明するための図である。FIG. 13B is a diagram for explaining processing of the display control function according to the first embodiment. 図14は、第1の実施形態に係るX線CT装置による処理手順を示すフローチャートである。FIG. 14 is a flowchart illustrating a processing procedure performed by the X-ray CT apparatus according to the first embodiment. 図15は、第1の実施形態に係るX線CT装置による処理手順を示すフローチャートである。FIG. 15 is a flowchart illustrating a processing procedure performed by the X-ray CT apparatus according to the first embodiment. 図16Aは、第1の実施形態に係るX線CT装置の効果を説明するための図である。FIG. 16A is a diagram for explaining the effect of the X-ray CT apparatus according to the first embodiment. 図16Bは、第1の実施形態に係るX線CT装置の効果を説明するための図である。FIG. 16B is a diagram for explaining the effect of the X-ray CT apparatus according to the first embodiment. 図16Cは、第1の実施形態に係るX線CT装置の効果を説明するための図である。FIG. 16C is a diagram for explaining the effect of the X-ray CT apparatus according to the first embodiment. 図17は、第1の実施形態の変形例1に係る入出力制御機能の処理を説明するための図である。FIG. 17 is a diagram for explaining processing of the input / output control function according to the first modification of the first embodiment. 図18は、第1の実施形態の変形例2に係る入出力制御機能の処理を説明するための図である。FIG. 18 is a diagram for explaining processing of the input / output control function according to the second modification of the first embodiment. 図19は、第2の実施形態に係る入出力制御機能及び生成機能の処理を説明するための図である。FIG. 19 is a diagram for explaining processing of the input / output control function and the generation function according to the second embodiment. 図20は、第3の実施形態に係る処理回路の構成の一例を示す図である。FIG. 20 is a diagram illustrating an example of a configuration of a processing circuit according to the third embodiment. 図21は、第3の実施形態に係る記憶回路が記憶する部位ごとの後処理の一例を説明するための図である。FIG. 21 is a diagram for explaining an example of post-processing for each part stored in the storage circuit according to the third embodiment. 図22は、第3の実施形態に係る表示制御機能の機能の一例を説明するための図である。FIG. 22 is a diagram for explaining an example of the display control function according to the third embodiment. 図23は、第3の実施形態に係る動作の一例を示す図である。FIG. 23 is a diagram illustrating an example of an operation according to the third embodiment.

以下、添付図面を参照して、医用画像診断装置及び医用画像処理装置の実施形態を詳細に説明する。以下の実施形態では、医用画像診断装置の一例であるX線CT(Computed Tomography)装置を含む医用情報処理システムを例に挙げて説明する。なお、医用画像診断装置の他の例としては、X線診断装置、MRI(Magnetic Resonance Imaging)装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等が適用可能である。また、図1に示す医用情報処理システム100においては、サーバ装置と端末装置とがそれぞれ1台のみ示されているが、実際にはさらに複数のサーバ装置と端末装置とを含むことができる。   Hereinafter, embodiments of a medical image diagnostic apparatus and a medical image processing apparatus will be described in detail with reference to the accompanying drawings. In the following embodiments, a medical information processing system including an X-ray CT (Computed Tomography) apparatus which is an example of a medical image diagnostic apparatus will be described as an example. Other examples of the medical image diagnostic apparatus include an X-ray diagnostic apparatus, an MRI (Magnetic Resonance Imaging) apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, a PET (Positron Emission computed Tomography) apparatus, a SPECT apparatus and an X-ray. A SPECT-CT apparatus in which a CT apparatus is integrated, a PET-CT apparatus in which a PET apparatus and an X-ray CT apparatus are integrated, or a group of these apparatuses can be applied. Further, in the medical information processing system 100 shown in FIG. 1, only one server device and one terminal device are shown, but actually, a plurality of server devices and terminal devices can be further included.

(第1の実施形態)
図1は、第1の実施形態に係る医用情報処理システム100の構成の一例を示す図である。図1に示すように、第1の実施形態に係る医用情報処理システム100は、X線CT装置1と、サーバ装置2と、端末装置3とを備える。X線CT装置1と、サーバ装置2と、端末装置3とは、例えば、病院内に設置された院内のネットワーク4により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、医用情報処理システム100にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of a medical information processing system 100 according to the first embodiment. As illustrated in FIG. 1, the medical information processing system 100 according to the first embodiment includes an X-ray CT apparatus 1, a server apparatus 2, and a terminal apparatus 3. The X-ray CT apparatus 1, the server apparatus 2, and the terminal apparatus 3 are in a state in which they can communicate with each other directly or indirectly via, for example, a hospital network 4 installed in a hospital. For example, when a PACS (Picture Archiving and Communication System) is introduced in the medical information processing system 100, each device transmits and receives medical images and the like according to the DICOM (Digital Imaging and Communications in Medicine) standard.

また、医用情報処理システム100においては、例えば、HIS(Hospital Information System)や、RIS(Radiology Information System)などが導入され、各種情報が管理される。例えば、端末装置3は、上記したシステムに沿って作成された検査オーダーをX線CT装置1やサーバ装置2に送信する。X線CT装置1は、端末装置3から直接受信した検査オーダー、或いは、検査オーダーを受信したサーバ装置2によって作成されたモダリティごとの患者リスト(モダリティワークリスト)から患者情報を取得して、患者ごとのX線CT画像データを収集する。そして、X線CT装置1は、収集したX線CT画像データや、X線CT画像データに対して各種画像処理を行うことで生成した画像データをサーバ装置2に送信する。サーバ装置2は、X線CT装置1から受信したX線CT画像データ及び画像データを記憶するとともに、X線CT画像データから画像データの生成を行い、端末装置3からの取得要求に応じた画像データを端末装置3に送信する。端末装置3は、サーバ装置2から受信した画像データをモニタなどに表示する。以下、各装置について説明する。   Further, in the medical information processing system 100, for example, HIS (Hospital Information System), RIS (Radiology Information System), etc. are introduced to manage various information. For example, the terminal device 3 transmits an inspection order created along the above-described system to the X-ray CT apparatus 1 or the server apparatus 2. The X-ray CT apparatus 1 acquires patient information from an examination order received directly from the terminal apparatus 3 or a patient list (modality work list) for each modality created by the server apparatus 2 that has received the examination order. X-ray CT image data is collected every time. Then, the X-ray CT apparatus 1 transmits the collected X-ray CT image data and image data generated by performing various image processing on the X-ray CT image data to the server apparatus 2. The server apparatus 2 stores the X-ray CT image data and image data received from the X-ray CT apparatus 1, generates image data from the X-ray CT image data, and responds to an acquisition request from the terminal apparatus 3. Data is transmitted to the terminal device 3. The terminal device 3 displays the image data received from the server device 2 on a monitor or the like. Hereinafter, each device will be described.

端末装置3は、病院内の各診療科に配置され、各診療科に勤務する医師によって操作される装置であり、PC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。例えば、端末装置3は、医師によって患者の症状や医師の所見などのカルテ情報が入力される。また、端末装置3は、X線CT装置1による検査をオーダーするための検査オーダーが入力され、入力された検査オーダーをX線CT装置1やサーバ装置2に送信する。すなわち、診療科の医師は、端末装置3を操作して、来院した患者の受付情報と電子カルテの情報とを読み出し、該当する患者の診察を行い、読み出した電子カルテにカルテ情報を入力する。そして、診療科の医師は、X線CT装置1による検査の要否に応じて、端末装置3を操作して検査オーダーを送信する。   The terminal device 3 is a device that is arranged in each department in the hospital and is operated by a doctor who works in each department, such as a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, etc. It is. For example, in the terminal device 3, medical record information such as a patient's symptom and a doctor's findings is input by a doctor. Further, the terminal device 3 receives an inspection order for ordering an inspection by the X-ray CT apparatus 1, and transmits the input inspection order to the X-ray CT apparatus 1 and the server apparatus 2. That is, the doctor in the medical department operates the terminal device 3 to read the reception information of the patient who has visited the hospital and information on the electronic medical record, examines the corresponding patient, and inputs the medical record information to the read electronic medical record. Then, a doctor in the medical department operates the terminal device 3 to transmit an examination order according to whether or not the examination by the X-ray CT apparatus 1 is necessary.

サーバ装置2は、医用画像診断装置によって収集された医用画像(例えば、X線CT装置1によって収集されたX線CT画像データ及び画像データ)を記憶したり、医用画像に対して各種画像処理を行ったりする装置であり、例えば、PACSサーバなどである。例えば、サーバ装置2は、各診療科に配置された端末装置3から複数の検査オーダーを受信して、医用画像診断装置ごとに患者リストを作成して、作成した患者リストを各医用画像診断装置に送信する。一例を挙げると、サーバ装置2は、X線CT装置1による検査を実施するための検査オーダーを各診療科の端末装置3からそれぞれ受信して患者リストを作成し、作成した患者リストをX線CT装置1に送信する。そして、サーバ装置2は、X線CT装置1によって収集されたX線CT画像データ及び画像データを記憶し、端末装置3からの取得要求に応じて、X線CT画像データ及び画像データを端末装置3に送信する。   The server apparatus 2 stores medical images (for example, X-ray CT image data and image data collected by the X-ray CT apparatus 1) collected by the medical image diagnostic apparatus, and performs various image processing on the medical images. For example, a PACS server or the like. For example, the server device 2 receives a plurality of examination orders from the terminal device 3 arranged in each medical department, creates a patient list for each medical image diagnostic device, and uses the created patient list as each medical image diagnostic device. Send to. For example, the server apparatus 2 receives an examination order for performing an examination by the X-ray CT apparatus 1 from the terminal apparatus 3 of each clinical department, creates a patient list, and creates the created patient list as an X-ray. Transmit to the CT apparatus 1. And the server apparatus 2 memorize | stores the X-ray CT image data and image data which were collected by the X-ray CT apparatus 1, and according to the acquisition request from the terminal device 3, X-ray CT image data and image data are stored in the terminal apparatus. 3 to send.

X線CT装置1は、患者ごとのX線CT画像データを収集して、収集したX線CT画像データや、X線CT画像データに対して各種画像処理を行うことで生成した画像データをサーバ装置2に送信する。図2は、第1の実施形態に係るX線CT装置1の構成の一例を示す図である。図2に示すように、第1の実施形態に係るX線CT装置1は、架台10と、寝台装置20と、コンソール30とを有する。なお、図2において、X線発生装置12、検出器13、データ収集回路14、スキャン制御回路33、前処理回路34、及び画像再構成回路36は、被検体のボリュームデータを撮影する撮影部の一例である。   The X-ray CT apparatus 1 collects X-ray CT image data for each patient and uses the collected X-ray CT image data and image data generated by performing various image processing on the X-ray CT image data as a server. Transmit to device 2. FIG. 2 is a diagram illustrating an example of the configuration of the X-ray CT apparatus 1 according to the first embodiment. As shown in FIG. 2, the X-ray CT apparatus 1 according to the first embodiment includes a gantry 10, a bed apparatus 20, and a console 30. In FIG. 2, the X-ray generator 12, the detector 13, the data acquisition circuit 14, the scan control circuit 33, the preprocessing circuit 34, and the image reconstruction circuit 36 are included in an imaging unit that images the volume data of the subject. It is an example.

架台10は、被検体P(患者)にX線を照射し、被検体Pを透過したX線を検出して、コンソール30に出力する装置であり、X線照射制御回路11と、X線発生装置12と、検出器13と、データ収集回路(DAS:Data Acquisition System)14と、回転フレーム15と、架台駆動回路16とを有する。   The gantry 10 is a device that irradiates the subject P (patient) with X-rays, detects the X-rays transmitted through the subject P, and outputs them to the console 30. The gantry 10 and the X-ray irradiation control circuit 11 generate X-rays. The apparatus 12 includes a detector 13, a data acquisition circuit (DAS) 14, a rotating frame 15, and a gantry drive circuit 16.

回転フレーム15は、X線発生装置12と検出器13とを被検体Pを挟んで対向するように支持し、後述する架台駆動回路16によって被検体Pを中心した円軌道にて高速に回転する円環状のフレームである。   The rotating frame 15 supports the X-ray generator 12 and the detector 13 so as to face each other with the subject P interposed therebetween, and is rotated at a high speed in a circular orbit around the subject P by a gantry driving circuit 16 described later. An annular frame.

X線照射制御回路11は、高電圧発生部として、X線管12aに高電圧を供給する装置であり、X線管12aは、X線照射制御回路11から供給される高電圧を用いてX線を発生する。X線照射制御回路11は、後述するスキャン制御回路33の制御により、X線管12aに供給する管電圧や管電流を調整することで、被検体Pに対して照射されるX線量を調整する。   The X-ray irradiation control circuit 11 is a device that supplies a high voltage to the X-ray tube 12 a as a high voltage generator, and the X-ray tube 12 a uses the high voltage supplied from the X-ray irradiation control circuit 11 to Generate a line. The X-ray irradiation control circuit 11 adjusts the X-ray dose irradiated to the subject P by adjusting the tube voltage and tube current supplied to the X-ray tube 12a under the control of the scan control circuit 33 described later. .

また、X線照射制御回路11は、ウェッジ12bの切り替えを行う。また、X線照射制御回路11は、コリメータ12cの開口度を調整することにより、X線の照射範囲(ファン角やコーン角)を調整する。なお、本実施形態は、複数種類のウェッジを、操作者が手動で切り替える場合であっても良い。   The X-ray irradiation control circuit 11 switches the wedge 12b. The X-ray irradiation control circuit 11 adjusts the X-ray irradiation range (fan angle and cone angle) by adjusting the aperture of the collimator 12c. In addition, this embodiment may be a case where an operator manually switches a plurality of types of wedges.

X線発生装置12は、X線を発生し、発生したX線を被検体Pへ照射する装置であり、X線管12aと、ウェッジ12bと、コリメータ12cとを有する。   The X-ray generator 12 is an apparatus that generates X-rays and irradiates the subject P with the generated X-rays, and includes an X-ray tube 12a, a wedge 12b, and a collimator 12c.

X線管12aは、図示しない高電圧発生部により供給される高電圧により被検体PにX線ビームを照射する真空管であり、回転フレーム15の回転にともなって、X線ビームを被検体Pに対して照射する。X線管12aは、ファン角及びコーン角を持って広がるX線ビームを発生する。例えば、X線照射制御回路11の制御により、X線管12aは、フル再構成用に被検体Pの全周囲でX線を連続曝射したり、ハーフ再構成用にハーフ再構成可能な曝射範囲(180度+ファン角)でX線を連続曝射したりすることが可能である。また、X線照射制御回路11の制御により、X線管12aは、予め設定された位置(管球位置)でX線(パルスX線)を間欠曝射したりすることが可能である。また、X線照射制御回路11は、X線管12aから曝射されるX線の強度を変調させることも可能である。例えば、X線照射制御回路11は、特定の管球位置では、X線管12aから曝射されるX線の強度を強くし、特定の管球位置以外の範囲では、X線管12aから曝射されるX線の強度を弱くする。   The X-ray tube 12 a is a vacuum tube that irradiates the subject P with an X-ray beam with a high voltage supplied by a high voltage generator (not shown). The X-ray beam is applied to the subject P as the rotating frame 15 rotates. Irradiate. The X-ray tube 12a generates an X-ray beam that spreads with a fan angle and a cone angle. For example, under the control of the X-ray irradiation control circuit 11, the X-ray tube 12 a continuously exposes X-rays around the subject P for full reconstruction or exposure that can be reconfigured for half reconstruction. It is possible to continuously expose X-rays in the irradiation range (180 degrees + fan angle). Further, the X-ray irradiation control circuit 11 can control the X-ray tube 12a to intermittently emit X-rays (pulse X-rays) at a preset position (tube position). The X-ray irradiation control circuit 11 can also modulate the intensity of the X-rays emitted from the X-ray tube 12a. For example, the X-ray irradiation control circuit 11 increases the intensity of X-rays emitted from the X-ray tube 12a at a specific tube position, and exposes from the X-ray tube 12a at a range other than the specific tube position. Reduce the intensity of the emitted X-rays.

ウェッジ12bは、X線管12aから曝射されたX線のX線量を調節するためのX線フィルタである。具体的には、ウェッジ12bは、X線管12aから被検体Pへ照射されるX線が、予め定められた分布になるように、X線管12aから曝射されたX線を透過して減衰するフィルタである。例えば、ウェッジ12bは、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したフィルタである。なお、ウェッジ12bは、ウェッジフィルタ(wedge filter)や、ボウタイフィルタ(bow-tie filter)とも呼ばれる。   The wedge 12b is an X-ray filter for adjusting the X-ray dose of X-rays emitted from the X-ray tube 12a. Specifically, the wedge 12b transmits the X-rays exposed from the X-ray tube 12a so that the X-rays irradiated from the X-ray tube 12a to the subject P have a predetermined distribution. Attenuating filter. For example, the wedge 12b is a filter obtained by processing aluminum so as to have a predetermined target angle or a predetermined thickness. The wedge 12b is also called a wedge filter or a bow-tie filter.

コリメータ12cは、X線照射制御回路11の制御により、ウェッジ12bによってX線量が調節されたX線の照射範囲を絞り込むためのスリットである。   The collimator 12 c is a slit for narrowing the X-ray irradiation range in which the X-ray dose is adjusted by the wedge 12 b under the control of the X-ray irradiation control circuit 11.

架台駆動回路16は、回転フレーム15を回転駆動させることによって、被検体Pを中心とした円軌道上でX線発生装置12と検出器13とを旋回させる。   The gantry driving circuit 16 rotates the rotary frame 15 to rotate the X-ray generator 12 and the detector 13 on a circular orbit around the subject P.

検出器13は、被検体Pを透過したX線を検出する2次元アレイ型検出器(面検出器)であり、複数チャンネル分のX線検出素子を配してなる検出素子列がZ軸方向に沿って複数列配列されている。具体的には、第1の実施形態における検出器13は、Z軸方向に沿って320列など多列に配列されたX線検出素子を有し、例えば、被検体Pの肺や心臓を含む範囲など、広範囲に被検体Pを透過したX線を検出することが可能である。なお、Z軸方向は、架台10が非チルト時の状態における回転フレーム15の回転中心軸方向に対応する。   The detector 13 is a two-dimensional array type detector (surface detector) that detects X-rays that have passed through the subject P, and a detection element array in which X-ray detection elements for a plurality of channels are arranged has a Z-axis direction. Are arranged in multiple rows. Specifically, the detector 13 in the first embodiment includes X-ray detection elements arranged in multiple rows such as 320 rows along the Z-axis direction, and includes, for example, the lungs and heart of the subject P. It is possible to detect X-rays transmitted through the subject P over a wide range, such as a range. The Z-axis direction corresponds to the rotation center axis direction of the rotating frame 15 when the gantry 10 is not tilted.

データ収集回路14は、DASであり、検出器13が検出したX線の検出データから、投影データを収集する。例えば、データ収集回路14は、検出器13により検出されたX線強度分布データに対して、増幅処理やA/D変換処理、チャンネル間の感度補正処理等を行なって投影データを生成し、生成した投影データを後述するコンソール30に送信する。例えば、回転フレーム15の回転中に、X線管12aからX線が連続曝射されている場合、データ収集回路14は、全周囲分(360度分)の投影データ群を収集する。また、データ収集回路14は、収集した各投影データに管球位置を対応付けて、後述するコンソール30に送信する。管球位置は、投影データの投影方向を示す情報となる。なお、チャンネル間の感度補正処理は、後述する前処理回路34が行なっても良い。   The data collection circuit 14 is a DAS, and collects projection data from the X-ray detection data detected by the detector 13. For example, the data collection circuit 14 generates projection data by performing amplification processing, A / D conversion processing, inter-channel sensitivity correction processing, and the like on the X-ray intensity distribution data detected by the detector 13. The projected data is transmitted to the console 30 described later. For example, when X-rays are continuously emitted from the X-ray tube 12a while the rotary frame 15 is rotating, the data acquisition circuit 14 collects projection data groups for the entire circumference (for 360 degrees). Further, the data collection circuit 14 associates the tube position with each collected projection data and transmits it to the console 30 described later. The tube position is information indicating the projection direction of the projection data. Note that the sensitivity correction processing between channels may be performed by the preprocessing circuit 34 described later.

寝台装置20は、被検体Pを載せる装置であり、図2に示すように、寝台駆動装置21と、天板22とを有する。寝台駆動装置21は、天板22をZ軸方向へ移動して、被検体Pを回転フレーム15内に移動させる。天板22は、被検体Pが載置される板である。   The couch device 20 is a device on which the subject P is placed, and includes a couch driving device 21 and a top plate 22 as shown in FIG. The couch driving device 21 moves the subject P into the rotary frame 15 by moving the couchtop 22 in the Z-axis direction. The top plate 22 is a plate on which the subject P is placed.

なお、架台10は、例えば、天板22を移動させながら回転フレーム15を回転させて被検体Pをらせん状にスキャンするヘリカルスキャンを実行する。または、架台10は、天板22を移動させた後に被検体Pの位置を固定したままで回転フレーム15を回転させて被検体Pを円軌道にてスキャンするコンベンショナルスキャンを実行する。または、架台10は、天板22の位置を一定間隔で移動させてコンベンショナルスキャンを複数のスキャンエリアで行うステップアンドシュート方式を実行する。   For example, the gantry 10 executes a helical scan that rotates the rotating frame 15 while moving the top plate 22 to scan the subject P in a spiral shape. Alternatively, the gantry 10 performs a conventional scan in which the subject P is scanned in a circular orbit by rotating the rotating frame 15 while the position of the subject P is fixed after the top plate 22 is moved. Alternatively, the gantry 10 performs a step-and-shoot method in which the position of the top plate 22 is moved at regular intervals and a conventional scan is performed in a plurality of scan areas.

コンソール30は、操作者によるX線CT装置1の操作を受け付けるとともに、架台10によって収集された投影データを用いてX線CT画像データを再構成する装置である。コンソール30は、図2に示すように、入力回路31と、ディスプレイ32と、スキャン制御回路33と、前処理回路34と、記憶回路35と、画像再構成回路36と、処理回路37とを有する。   The console 30 is a device that accepts an operation of the X-ray CT apparatus 1 by an operator and reconstructs X-ray CT image data using projection data collected by the gantry 10. As shown in FIG. 2, the console 30 includes an input circuit 31, a display 32, a scan control circuit 33, a preprocessing circuit 34, a storage circuit 35, an image reconstruction circuit 36, and a processing circuit 37. .

入力回路31は、X線CT装置1の操作者が各種指示や各種設定の入力に用いるマウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック等を有し、操作者から受け付けた指示や設定の情報を、処理回路37に転送する。例えば、入力回路31は、操作者から、X線CT画像データの撮影条件や、X線CT画像データを再構成する際の再構成条件、X線CT画像データに対する画像処理条件等を受け付ける。また、入力回路31は、被検体Pに対する検査を選択するための操作を受け付ける。また、入力回路31は、画像上の部位を指定するための指定操作を受け付ける。   The input circuit 31 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, and the like that are used by the operator of the X-ray CT apparatus 1 to input various instructions and settings, and instructions and settings information received from the operator. Is transferred to the processing circuit 37. For example, the input circuit 31 receives imaging conditions for X-ray CT image data, reconstruction conditions for reconstructing X-ray CT image data, image processing conditions for X-ray CT image data, and the like from the operator. Further, the input circuit 31 receives an operation for selecting an examination for the subject P. Further, the input circuit 31 accepts a designation operation for designating a part on the image.

ディスプレイ32は、操作者によって参照されるモニタであり、処理回路37による制御のもと、X線CT画像データから生成された画像データを操作者に表示したり、入力回路31を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示したりする。また、ディスプレイ32は、スキャン計画の計画画面や、スキャン中の画面などを表示する。また、ディスプレイ32は、被曝情報を含む仮想患者画像や画像データなどを表示する。なお、ディスプレイ32によって表示される仮想患者画像については、後に詳述する。   The display 32 is a monitor that is referred to by the operator, and displays image data generated from the X-ray CT image data to the operator under the control of the processing circuit 37, or the operator via the input circuit 31. A GUI (Graphical User Interface) for accepting various instructions, various settings, and the like is displayed. The display 32 displays a plan screen for a scan plan, a screen being scanned, and the like. Further, the display 32 displays a virtual patient image, image data, and the like including exposure information. The virtual patient image displayed on the display 32 will be described in detail later.

スキャン制御回路33は、処理回路37による制御のもと、X線照射制御回路11、架台駆動回路16、データ収集回路14及び寝台駆動装置21の動作を制御することで、架台10における投影データの収集処理を制御する。具体的には、スキャン制御回路33は、位置決め画像(スキャノ画像)を収集する位置決め撮影及び診断に用いる画像を収集する本撮影(本スキャン)における投影データの収集処理をそれぞれ制御する。ここで、第1の実施形態に係るX線CT装置1においては、2次元のスキャノ画像及び3次元のスキャノ画像を撮影することができる。   The scan control circuit 33 controls the operations of the X-ray irradiation control circuit 11, the gantry driving circuit 16, the data acquisition circuit 14, and the bed driving device 21 under the control of the processing circuit 37, thereby Control the collection process. Specifically, the scan control circuit 33 controls projection data collection processing in positioning imaging for collecting positioning images (scano images) and main imaging (main scanning) for collecting images used for diagnosis. Here, in the X-ray CT apparatus 1 according to the first embodiment, a two-dimensional scanogram and a three-dimensional scanogram can be taken.

例えば、スキャン制御回路33は、X線管12aを0度の位置(被検体に対して正面方向の位置)に固定して、天板22を定速移動させながら連続的に撮影を行うことで2次元のスキャノ画像を撮影する。或いは、スキャン制御回路33は、X線管12aを0度の位置に固定して、天板22を断続的に移動させながら、天板移動に同期して断続的に撮影を繰り返すことで2次元のスキャノ画像を撮影する。ここで、スキャン制御回路33は、被検体に対して正面方向だけでなく、任意の方向(例えば、側面方向など)から位置決め画像を撮影することができる。   For example, the scan control circuit 33 fixes the X-ray tube 12a at a position of 0 degree (a position in the front direction with respect to the subject) and continuously performs imaging while moving the top plate 22 at a constant speed. Take a two-dimensional scano image. Alternatively, the scan control circuit 33 fixes the X-ray tube 12a at a position of 0 degree and moves the top plate 22 intermittently, while repeating the imaging intermittently in synchronization with the top plate movement. Take a scano image. Here, the scan control circuit 33 can capture a positioning image not only from the front direction but also from an arbitrary direction (for example, a side surface direction) with respect to the subject.

また、スキャン制御回路33は、スキャノ画像の撮影において、被検体に対する全周分の投影データを収集することで、3次元のスキャノ画像を撮影する。図3は、第1の実施形態に係るスキャン制御回路33による3次元のスキャノ画像撮影を説明するための図である。例えば、スキャン制御回路33は、図3に示すように、ヘリカルスキャン或いはノンヘリカルスキャンによって被検体に対する全周分の投影データを収集する。ここで、スキャン制御回路33は、被検体の胸部全体、腹部全体、上半身全体、全身などの広範囲に対して本撮影よりも低線量でヘリカルスキャン或いはノンヘリカルスキャンを実行する。ノンヘリカルスキャンとしては、例えば、上述のステップアンドシュート方式のスキャンが実行される。   The scan control circuit 33 captures a three-dimensional scanogram by collecting projection data for the entire circumference of the subject in the scanogram image capture. FIG. 3 is a view for explaining three-dimensional scano image shooting by the scan control circuit 33 according to the first embodiment. For example, as shown in FIG. 3, the scan control circuit 33 collects projection data for the entire circumference of the subject by a helical scan or a non-helical scan. Here, the scan control circuit 33 executes a helical scan or a non-helical scan with a lower dose than the main imaging over a wide range such as the entire chest, abdomen, the entire upper body, and the whole body of the subject. As the non-helical scan, for example, the above-described step-and-shoot scan is executed.

このように、スキャン制御回路33が被検体に対する全周分の投影データを収集することで、後述する画像再構成回路36が、3次元のX線CT画像データ(ボリュームデータ)を再構成することができ、図3に示すように、再構成したボリュームデータを用いて任意の方向から位置決め画像を生成することが可能になる。ここで、位置決め画像を2次元で撮影するか、或いは、3次元で撮影するかは、操作者によって任意に設定する場合でもよく、或いは、検査内容に応じて予め設定される場合でもよい。   As described above, the scan control circuit 33 collects projection data for the entire circumference of the subject, so that an image reconstruction circuit 36 described later reconstructs three-dimensional X-ray CT image data (volume data). As shown in FIG. 3, a positioning image can be generated from an arbitrary direction using the reconstructed volume data. Here, whether the positioning image is photographed two-dimensionally or three-dimensionally may be set arbitrarily by the operator, or may be preset according to the examination contents.

図2に戻って、前処理回路34は、データ収集回路14によって生成された投影データに対して、対数変換処理と、オフセット補正、感度補正及びビームハードニング補正等の補正処理とを行なって、補正済みの投影データを生成する。具体的には、前処理回路34は、データ収集回路14によって生成された位置決め画像の投影データ及び本撮影によって収集された投影データのそれぞれについて、補正済みの投影データを生成して、記憶回路35に格納する。   Returning to FIG. 2, the preprocessing circuit 34 performs logarithmic conversion processing and correction processing such as offset correction, sensitivity correction, and beam hardening correction on the projection data generated by the data acquisition circuit 14. Generate corrected projection data. Specifically, the preprocessing circuit 34 generates corrected projection data for each of the projection data of the positioning image generated by the data acquisition circuit 14 and the projection data acquired by the main photographing, and the storage circuit 35. To store.

記憶回路35は、前処理回路34により生成された投影データを記憶する。具体的には、記憶回路35は、前処理回路34によって生成された、位置決め画像の投影データ及び本撮影によって収集される診断用の投影データを記憶する。また、記憶回路35は、後述する画像再構成回路36によって生成された画像データや仮想患者画像を記憶する。また、記憶回路35は、後述する処理回路37による処理結果を適宜記憶する。なお、仮想患者画像及び処理回路37による処理結果については、後述する。   The storage circuit 35 stores the projection data generated by the preprocessing circuit 34. Specifically, the storage circuit 35 stores the projection data of the positioning image generated by the preprocessing circuit 34 and the diagnostic projection data collected by the main imaging. The storage circuit 35 stores image data and a virtual patient image generated by an image reconstruction circuit 36 described later. Further, the storage circuit 35 appropriately stores a processing result by a processing circuit 37 described later. The virtual patient image and the processing result by the processing circuit 37 will be described later.

例えば、記憶回路35は、検出機能37aによって被検体の複数の部位それぞれの位置が検出された3次元画像データ(ボリュームデータ)を記憶する。例えば、記憶回路35は、被検体の検査結果として、被検体の胴体が撮影されたボリュームデータと、ボリュームデータから複数の部位(臓器)それぞれの位置が検出された検出結果とを含む情報を記憶する。なお、検出機能37aによる処理については、後述する。   For example, the storage circuit 35 stores three-dimensional image data (volume data) in which the positions of the plurality of parts of the subject are detected by the detection function 37a. For example, the storage circuit 35 stores information including volume data obtained by imaging the body of the subject and detection results obtained by detecting positions of a plurality of parts (organs) from the volume data as the examination result of the subject. To do. The processing by the detection function 37a will be described later.

画像再構成回路36は、記憶回路35が記憶する投影データを用いてX線CT画像データを再構成する。具体的には、画像再構成回路36は、位置決め画像の投影データ及び診断に用いられる画像の投影データから、X線CT画像データをそれぞれ再構成する。ここで、再構成方法としては、種々の方法があり、例えば、逆投影処理が挙げられる。また、逆投影処理としては、例えば、FBP(Filtered Back Projection)法による逆投影処理が挙げられる。或いは、画像再構成回路36は、逐次近似法を用いて、X線CT画像データを再構成することもできる。なお、画像再構成回路36は、画像再構成部の一例である。   The image reconstruction circuit 36 reconstructs X-ray CT image data using the projection data stored in the storage circuit 35. Specifically, the image reconstruction circuit 36 reconstructs X-ray CT image data from the projection data of the positioning image and the projection data of the image used for diagnosis. Here, as the reconstruction method, there are various methods, for example, back projection processing. Further, as the back projection process, for example, a back projection process by an FBP (Filtered Back Projection) method can be cited. Alternatively, the image reconstruction circuit 36 can reconstruct the X-ray CT image data using a successive approximation method. The image reconstruction circuit 36 is an example of an image reconstruction unit.

また、画像再構成回路36は、X線CT画像データに対して各種画像処理を行うことで、画像データを生成する。そして、画像再構成回路36は、再構成したX線CT画像データや、各種画像処理により生成した画像データを記憶回路35に格納する。   Further, the image reconstruction circuit 36 generates image data by performing various image processing on the X-ray CT image data. Then, the image reconstruction circuit 36 stores the reconstructed X-ray CT image data and image data generated by various image processes in the storage circuit 35.

処理回路37は、架台10、寝台装置20及びコンソール30の動作を制御することによって、X線CT装置1の全体制御を行う。具体的には、処理回路37は、スキャン制御回路33を制御することで、架台10で行なわれるCTスキャンを制御する。また、処理回路37は、画像再構成回路36を制御することで、コンソール30における画像再構成処理や画像生成処理を制御する。また、処理回路37は、記憶回路35が記憶する各種画像データを、ディスプレイ32に表示するように制御する。   The processing circuit 37 performs overall control of the X-ray CT apparatus 1 by controlling operations of the gantry 10, the couch device 20, and the console 30. Specifically, the processing circuit 37 controls the CT scan performed on the gantry 10 by controlling the scan control circuit 33. The processing circuit 37 controls the image reconstruction circuit 36 and the image generation process in the console 30 by controlling the image reconstruction circuit 36. In addition, the processing circuit 37 controls the display 32 to display various image data stored in the storage circuit 35.

また、処理回路37は、図2に示すように、検出機能37a、位置照合機能37b、入出力制御機能37c、生成機能37d、及び表示制御機能37eを実行する。ここで、例えば、図2に示す処理回路37の構成要素である検出機能37a、位置照合機能37b、入出力制御機能37c、生成機能37d、及び表示制御機能37eが実行する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路35に記録されている。処理回路37は、各プログラムを記憶回路35から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路37は、図2の処理回路37内に示された各機能を有することとなる。なお、検出機能37aは、検出部の一例である。   Further, as shown in FIG. 2, the processing circuit 37 executes a detection function 37a, a position matching function 37b, an input / output control function 37c, a generation function 37d, and a display control function 37e. Here, for example, the detection function 37a, the position matching function 37b, the input / output control function 37c, the generation function 37d, and the display control function 37e, which are components of the processing circuit 37 shown in FIG. Is stored in the storage circuit 35 in the form of a program that can be executed. The processing circuit 37 is a processor that implements a function corresponding to each program by reading each program from the storage circuit 35 and executing the program. In other words, the processing circuit 37 in a state where each program is read has each function shown in the processing circuit 37 of FIG. The detection function 37a is an example of a detection unit.

検出機能37aは、被検体の3次元画像データ(ボリュームデータ)における被検体の複数の部位のそれぞれの位置を検出する。具体的には、検出機能37aは、画像再構成回路36によって再構成された3次元のX線CT画像データに含まれる臓器などの部位を検出する。例えば、検出機能37aは、位置決め画像のボリュームデータ及び診断に用いられる画像のボリュームデータのうち少なくとも一方について、解剖学的な特徴点(anatomical landmark)に基づいて臓器などの部位を検出する。ここで、解剖学的な特徴点とは、特定の骨や臓器、血管、神経、内腔などの部位の特徴を示す点である。すなわち、検出機能37aは、特定の臓器や骨などの解剖学的な特徴点を検出することによって、ボリュームデータに含まれる骨や臓器、血管、神経、内腔などを検出する。また、検出機能37aは、人体の特徴的な特徴点を検出することで、ボリュームデータに含まれる頭部、首、胸部、腹部、足などの位置を検出することもできる。なお、本実施形態で説明する部位は、骨や臓器、血管、神経、内腔などにこれらの位置も含めたものを意味する。以下、検出機能37aによる部位の検出の一例について説明する。   The detection function 37a detects the positions of a plurality of parts of the subject in the three-dimensional image data (volume data) of the subject. Specifically, the detection function 37 a detects a part such as an organ included in the three-dimensional X-ray CT image data reconstructed by the image reconstruction circuit 36. For example, the detection function 37a detects a site such as an organ based on anatomical landmarks in at least one of the volume data of the positioning image and the volume data of the image used for diagnosis. Here, the anatomical feature point is a point indicating a feature of a part such as a specific bone, organ, blood vessel, nerve, or lumen. That is, the detection function 37a detects bones, organs, blood vessels, nerves, lumens, and the like included in the volume data by detecting anatomical feature points such as specific organs and bones. The detection function 37a can also detect positions of the head, neck, chest, abdomen, feet, etc. included in the volume data by detecting characteristic feature points of the human body. In addition, the site | part demonstrated by this embodiment means what included these positions in bones, organs, blood vessels, nerves, lumens, and the like. Hereinafter, an example of detection of a part by the detection function 37a will be described.

例えば、検出機能37aは、位置決め画像のボリュームデータ、或いは、診断に用いられる画像のボリュームデータにおいて、ボリュームデータに含まれるボクセルの値から解剖学的な特徴点を抽出する。そして、検出機能37aは、教科書などの情報における解剖学的な特徴点の3次元的な位置と、ボリュームデータから抽出した特徴点の位置とを比較することによって、ボリュームデータから抽出した特徴点の中から不正確な特徴点を除去して、ボリュームデータから抽出した特徴点の位置を最適化する。これにより、検出機能37aは、ボリュームデータに含まれる被検体の各部位を検出する。一例を挙げると、検出機能37aは、まず、教師あり機械学習アルゴリズムを用いて、ボリュームデータに含まれる解剖学的な特徴点を抽出する。ここで、上記した教師あり機械学習アルゴリズムは、正しい解剖学的な特徴点が手動で配置された複数の教師画像を用いて構築されたものであり、例えば、ディシジョンフォレスト(decision forest)などが利用される。   For example, the detection function 37a extracts anatomical feature points from the voxel values included in the volume data in the volume data of the positioning image or the volume data of the image used for diagnosis. Then, the detection function 37a compares the three-dimensional position of the anatomical feature point in the information such as the textbook with the position of the feature point extracted from the volume data, thereby detecting the feature point extracted from the volume data. The inaccurate feature points are removed from the inside, and the positions of the feature points extracted from the volume data are optimized. Thereby, the detection function 37a detects each part of the subject included in the volume data. For example, the detection function 37a first extracts anatomical feature points included in the volume data using a supervised machine learning algorithm. Here, the above-described supervised machine learning algorithm is constructed using a plurality of supervised images in which correct anatomical feature points are manually arranged. For example, a decision forest is used. Is done.

そして、検出機能37aは、身体における解剖学的な特徴点の3次元的な位置関係を示すモデルと、抽出した特徴点とを比較することで、抽出した特徴点を最適化する。ここで、上記したモデルは、上述した教師画像を用いて構築されたものであり、例えば、点分布モデルなどが利用される。すなわち、検出機能37aは、正しい解剖学的な特徴点が手動で配置された複数の教師画像に基づいて部位の形状や位置関係、部位に固有な点などが定義されたモデルと、抽出した特徴点とを比較することで、不正確な特徴点を除去して、特徴点を最適化する。   Then, the detection function 37a optimizes the extracted feature points by comparing a model indicating the three-dimensional positional relationship of anatomical feature points in the body with the extracted feature points. Here, the above-described model is constructed using the above-described teacher image, and for example, a point distribution model is used. That is, the detection function 37a includes a model in which the shape and positional relationship of the part, points unique to the part, etc. are defined based on a plurality of teacher images in which correct anatomical feature points are manually arranged, and the extracted features. By comparing the points, the inaccurate feature points are removed and the feature points are optimized.

以下、図4A,4B,5,6を用いて、検出機能37aによる部位の検出処理の一例を説明する。図4A,4B,5,6は、第1の実施形態に係る検出機能37aによる部位の検出処理の一例を説明するための図である。なお、図4A,4Bにおいては、2次元上に特徴点を配置しているが、実際には、特徴点は3次元的に配置される。例えば、検出機能37aは、ボリュームデータに対して教師あり機械学習アルゴリズムを適用することで、図4Aに示すように、解剖学的な特徴点とみなすボクセルを抽出する(図中の黒点)。そして、検出機能37aは、抽出したボクセルの位置を、部位の形状や位置関係、部位に固有な点などが定義されたモデルにフィッティングさせることで、図4Bに示すように、抽出したボクセルのうち不正確な特徴点を除去して、より正確な特徴点に対応するボクセルのみを抽出する。   Hereinafter, an example of the part detection process by the detection function 37a will be described with reference to FIGS. 4A, 4B, 5 and 6. FIG. 4A, 4B, 5 and 6 are diagrams for explaining an example of a part detection process by the detection function 37a according to the first embodiment. 4A and 4B, feature points are arranged two-dimensionally. Actually, feature points are arranged three-dimensionally. For example, the detection function 37a extracts voxels regarded as anatomical feature points (black dots in the figure) by applying a supervised machine learning algorithm to the volume data as shown in FIG. 4A. Then, the detection function 37a fits the position of the extracted voxel to a model in which the shape and positional relationship of the part, a point unique to the part, etc. are defined, as shown in FIG. Incorrect feature points are removed, and only voxels corresponding to more accurate feature points are extracted.

ここで、検出機能37aは、抽出した特徴点(ボクセル)に対して、各部位の特徴を示す特徴点を識別するための識別コードを付与し、識別コードと各特徴点の位置(座標)情報とを対応づけた情報を画像データに付帯させて記憶回路35に格納する。例えば、検出機能37aは、図4Bに示すように、抽出した特徴点(ボクセル)に対して、C1、C2、C3などの識別コードを付与する。ここで、検出機能37aは、検出処理を行ったデータごとにそれぞれ識別コードを付帯させて、記憶回路35に格納する。具体的には、検出機能37aは、位置決め画像の投影データ、非造影下で収集された投影データ、及び、造影剤によって造影された状態で収集された投影データのうち、少なくとも1つの投影データから再構成されたボリュームデータに含まれる被検体の部位を検出する。   Here, the detection function 37a gives an identification code for identifying the feature point indicating the feature of each part to the extracted feature point (voxel), and the identification code and position (coordinate) information of each feature point Is associated with the image data and stored in the storage circuit 35. For example, as shown in FIG. 4B, the detection function 37a gives identification codes such as C1, C2, and C3 to the extracted feature points (voxels). Here, the detection function 37 a attaches an identification code to each data subjected to the detection process, and stores the identification code in the storage circuit 35. Specifically, the detection function 37a is obtained from at least one projection data among the projection data of the positioning image, the projection data collected under non-contrast, and the projection data collected in a state of being imaged by the contrast agent. A part of the subject included in the reconstructed volume data is detected.

例えば、検出機能37aは、図5に示すように、位置決め画像のボリュームデータ(図中、位置決め)から検出した各ボクセルの座標に識別コードを対応付けた情報をボリュームデータに付帯させて記憶回路35に格納する。一例を挙げると、検出機能37aは、位置決め画像のボリュームデータから標識点の座標を抽出して、図5に示すように、「識別コード:C1、座標(x1, y1, z1)」、「識別コード:C2、座標(x2, y2, z2)」などをボリュームデータに対応付けて格納する。これにより、検出機能37aは、位置決め画像のボリュームデータにおけるどの位置にどのような特徴点があるかを識別することができ、これらの情報に基づいて臓器などの各部位を検出することができる。 For example, as shown in FIG. 5, the detection function 37a attaches information in which the identification code is associated with the coordinates of each voxel detected from the volume data (positioning in the figure) of the positioning image to the volume data to store the storage circuit 35. To store. For example, the detection function 37a extracts the coordinates of the marker point from the volume data of the positioning image, and, as shown in FIG. 5, “identification code: C1, coordinates (x 1 , y 1 , z 1 )”. , “Identification code: C2, coordinates (x 2 , y 2 , z 2 )” and the like are stored in association with the volume data. Thereby, the detection function 37a can identify what kind of feature point is in which position in the volume data of the positioning image, and can detect each part such as an organ based on such information.

また、検出機能37aは、例えば、図5に示すように、診断用の画像のボリュームデータ(図中、スキャン)から検出した各ボクセルの座標に識別コードを対応付けた情報をボリュームデータに付帯させて記憶回路35に格納する。ここで、検出機能37aは、スキャンにおいて、造影剤によって造影されたボリュームデータ(図中、造影Phase)と、造影剤によって造影されていないボリュームデータ(図中、非造影Phase)とから、それぞれ標識点の座標を抽出して、抽出した座標に識別コードを対応付けることができる。   Further, for example, as shown in FIG. 5, the detection function 37a attaches to the volume data information in which the identification code is associated with the coordinates of each voxel detected from the volume data (scan in the figure) of the diagnostic image. And stored in the memory circuit 35. Here, in the scan, the detection function 37a performs labeling from volume data contrasted with the contrast medium (contrast phase in the figure) and volume data not contrasted with the contrast medium (non-contrast phase in the figure), respectively. The coordinates of the point can be extracted, and an identification code can be associated with the extracted coordinates.

一例を挙げると、検出機能37aは、診断用の画像のボリュームデータのうち、非造影Phaseのボリュームデータから標識点の座標を抽出して、図5に示すように、「識別コード:C1、座標(x’1, y’1, z’1)」、「識別コード:C2、座標(x’2, y’2, z’2)」などをボリュームデータに対応付けて格納する。また、検出機能37aは、診断用の画像のボリュームデータのうち、造影Phaseのボリュームデータから標識点の座標を抽出して、図5に示すように、「識別コード:C1、座標(x’1, y’1, z’1)」、「識別コード:C2、座標(x’2, y’2, z’2)」などをボリュームデータに対応付けて格納する。ここで、造影Phaseのボリュームデータから標識点を抽出する場合、造影されることで抽出可能となる標識点が含まれる。例えば、検出機能37aは、造影Phaseのボリュームデータから標識点を抽出する場合、造影剤によって造影された血管などを抽出することができる。従って、造影Phaseのボリュームデータの場合、検出機能37aは、図6に示すように、造影することで抽出された血管などの標識点の座標(x’31, y’31, z’31)〜座標(x’34, y’34, z’34)などに、それぞれの血管を識別するための識別コードC31、C32、C33及びC34などを対応付ける。 For example, the detection function 37a extracts the coordinates of the marker point from the volume data of the non-contrast phase out of the volume data of the diagnostic image, and as shown in FIG. (X ′ 1 , y ′ 1 , z ′ 1 ) ”,“ identification code: C2, coordinates (x ′ 2 , y ′ 2 , z ′ 2 ) ”and the like are stored in association with the volume data. Further, the detection function 37a extracts the coordinates of the marker point from the volume data of the contrast phase from the volume data of the diagnostic image, and, as shown in FIG. 5, “identification code: C1, coordinates (x ′ 1 , y ′ 1 , z ′ 1 ) ”,“ identification code: C2, coordinates (x ′ 2 , y ′ 2 , z ′ 2 ) ”and the like are stored in association with the volume data. Here, in the case where the marker points are extracted from the volume data of the contrast phase, the marker points that can be extracted by being contrasted are included. For example, the detection function 37a can extract a blood vessel or the like contrasted with a contrast agent when extracting a marker point from the volume data of the contrast phase. Therefore, in the case of contrast phase volume data, as shown in FIG. 6, the detection function 37a has coordinates (x ′ 31 , y ′ 31 , z ′ 31 ) to the coordinates of labeled points such as blood vessels extracted by contrast imaging. Identification codes C31, C32, C33 and C34 for identifying each blood vessel are associated with the coordinates (x ′ 34 , y ′ 34 , z ′ 34 ) and the like.

上述したように、検出機能37aは、位置決め用画像、或いは、診断用の画像のボリュームデータにおけるどの位置にどのような標識点があるかを識別することができ、これらの情報に基づいて臓器などの各部位を検出することができる。例えば、検出機能37aは、検出の対象となる対象部位と、対象部位の周辺の部位との解剖学的な位置関係の情報を用いて、対象部位の位置を検出する。一例を挙げると、検出機能37aは、対象部位を「肺」とした場合、肺の特徴を示す識別コードに対応付けられた座標情報を取得するとともに、「肋骨」や「鎖骨」、「心臓」、「横隔膜」など、「肺」の周囲の部位を示す識別コードに対応付けられた座標情報を取得する。そして、検出機能37aは、「肺」と周囲の部位との解剖学的な位置関係の情報と、取得した座標情報とを用いて、ボリュームデータにおける「肺」の領域を抽出する。   As described above, the detection function 37a can identify which mark point is in which position in the volume data of the positioning image or the diagnostic image, and based on such information, the organ or the like Each part of can be detected. For example, the detection function 37a detects the position of the target part using information on the anatomical positional relationship between the target part to be detected and parts around the target part. For example, when the target region is “lung”, the detection function 37a acquires coordinate information associated with an identification code indicating the characteristics of the lung, and “rib”, “clavicle”, “heart” , Coordinate information associated with an identification code indicating a region around the “lung”, such as “diaphragm”. Then, the detection function 37a uses the information on the anatomical positional relationship between the “lung” and the surrounding site and the acquired coordinate information to extract the “lung” region in the volume data.

例えば、検出機能37aは、「肺尖:鎖骨の2〜3cm上方」や、「肺の下端:第7肋骨の高さ」などの位置関係の情報と、各部位の座標情報とから、図6に示すように、ボリュームデータにおいて「肺」に相当する領域R1を抽出する。すなわち、検出機能37aは、ボリュームデータにおける領域R1のボクセルの座標情報を抽出する。検出機能37aは、抽出した座標情報を部位情報と対応付けてボリュームデータに付帯させて記憶回路35に格納する。同様に、検出機能37aは、図6に示すように、ボリュームデータにおいて「心臓」に相当する領域R2などを抽出することができる。   For example, the detection function 37a uses the positional information such as “pulmonary apex: 2 to 3 cm above the clavicle”, “lower end of the lung: height of the seventh rib”, and the coordinate information of each part in FIG. As shown in FIG. 5, a region R1 corresponding to “lung” is extracted from the volume data. That is, the detection function 37a extracts the coordinate information of the voxel of the region R1 in the volume data. The detection function 37a associates the extracted coordinate information with the part information, attaches it to the volume data, and stores it in the storage circuit 35. Similarly, as shown in FIG. 6, the detection function 37a can extract a region R2 corresponding to “heart” or the like in the volume data.

また、検出機能37aは、人体における頭部や胸部などの位置を定義する特徴点に基づいて、ボリュームデータに含まれる位置を検出する。ここで、人体における頭部や胸部などの位置は任意に定義することができる。例えば、第7頸椎から肺の下端までを胸部と定義すると、検出機能37aは、第7頸椎に対応する特徴点から肺の下端に対応する特徴点までを胸部として検出する。なお、検出機能37aは、上述した解剖学的な特徴点を用いた方法以外にも種々の方法により部位を検出することができる。例えば、検出機能37aは、ボクセル値に基づく領域拡張法などによりボリュームデータに含まれる部位を検出することができる。なお、検出機能37aは、被検体のボリュームデータの構造に基づいて、後述する入出力制御機能37cが受け付けた被検体の部位を検出してもよい。   The detection function 37a detects a position included in the volume data based on a feature point that defines the position of the head, chest, etc. in the human body. Here, the positions of the head and chest in the human body can be arbitrarily defined. For example, if the chest is defined from the seventh cervical vertebra to the lower end of the lung, the detection function 37a detects from the feature point corresponding to the seventh cervical vertebra to the feature point corresponding to the lower end of the lung as the chest. In addition, the detection function 37a can detect a site | part by various methods besides the method using the anatomical feature point mentioned above. For example, the detection function 37a can detect a part included in the volume data by a region expansion method based on a voxel value. Note that the detection function 37a may detect a part of the subject received by the input / output control function 37c described later based on the volume data structure of the subject.

位置照合機能37bは、3次元画像データに含まれる被検体における複数の部位それぞれの位置と、仮想患者データに含まれる人体における複数の部位それぞれの位置とを照合する。ここで、仮想患者データとは、人体における複数の部位それぞれの標準的な位置を表す情報である。すなわち、位置照合機能37bは、被検体の部位と標準的な部位の位置とを照合して、照合結果を記憶回路35に格納する。例えば、位置照合機能37bは、人体の部位が標準的な位置に配置された仮想患者画像と、被検体のボリュームデータとをマッチングする。   The position collation function 37b collates the positions of a plurality of parts in the subject included in the three-dimensional image data and the positions of the plurality of parts in the human body included in the virtual patient data. Here, virtual patient data is information representing the standard position of each of a plurality of parts in the human body. In other words, the position matching function 37b matches the position of the subject with the position of the standard part and stores the matching result in the storage circuit 35. For example, the position matching function 37b matches a virtual patient image in which a human body part is arranged at a standard position with volume data of the subject.

ここで、まず、仮想患者画像について説明する。仮想患者画像は、年齢、成人/子供、男性/女性、体重、身長などの体格などに関わるパラメータに関する複数の組み合わせに応じた標準的な体格などを有する人体について実際にX線で撮影した画像として予め生成されて、記憶回路35に格納される。すなわち、記憶回路35は、上述したパラメータの組み合わせに応じた複数の仮想患者画像のデータを記憶する。ここで、記憶回路35によって記憶される仮想患者画像には、解剖学的な特徴点(特徴点)が対応づけて記憶される。例えば、人体には、パターン認識等の画像処理により比較的容易にその形態的特徴等に基づいて画像から抽出できる多数の解剖学的な特徴点がある。これら多数の解剖学的な特徴点の身体におけるその位置や配置は年齢、成人/子供、男性/女性、体重、身長などの体格等に従っておおよそ決まっている。   Here, first, a virtual patient image will be described. The virtual patient image is an actual X-ray image of a human body having a standard physique corresponding to multiple combinations of parameters related to physique such as age, adult / child, male / female, weight, height, etc. It is generated in advance and stored in the storage circuit 35. That is, the storage circuit 35 stores data of a plurality of virtual patient images corresponding to the combination of parameters described above. Here, anatomical feature points (feature points) are stored in association with the virtual patient image stored by the storage circuit 35. For example, the human body has many anatomical feature points that can be extracted from an image based on morphological features and the like relatively easily by image processing such as pattern recognition. The positions and arrangements of these many anatomical feature points in the body are roughly determined according to age, adult / child, male / female, physique such as weight and height.

記憶回路35によって記憶される仮想患者画像は、これら多数の解剖学的な特徴点が予め検出され、検出された特徴点の位置データがそれぞれの特徴点の識別コードとともに仮想患者画像のデータに付帯又は関連付けされて記憶される。図7は、第1の実施形態に係る記憶回路35によって記憶される仮想患者画像の一例を示す図である。例えば、記憶回路35は、図7に示すように、臓器などの部位を含む3次元の人体に、解剖学的な特徴点と特徴点を識別するための識別コード「V1」、「V2」及び「V3」などとが関連付けられた仮想患者画像を記憶する。   In the virtual patient image stored by the storage circuit 35, these many anatomical feature points are detected in advance, and the position data of the detected feature points are attached to the virtual patient image data together with the identification codes of the respective feature points. Or it is stored in association. FIG. 7 is a diagram illustrating an example of a virtual patient image stored by the storage circuit 35 according to the first embodiment. For example, as shown in FIG. 7, the storage circuit 35 has an identification code “V1”, “V2”, and identification codes for identifying anatomical feature points and feature points on a three-dimensional human body including a part such as an organ. A virtual patient image associated with “V3” or the like is stored.

すなわち、記憶回路35は、3次元の人体画像における座標空間における特徴点の座標と対応する識別コードとを関連付けて記憶する。一例を挙げると、記憶回路35は、図7に示す識別コード「V1」に対応づけて、対応する特徴点の座標を記憶する。同様に、記憶回路35は、識別コードと特徴点の座標とを対応づけて記憶する。なお、図7においては、臓器として肺、心臓、肝臓、胃、腎臓などが示されているが、実際には、仮想患者画像は、さらに多数の臓器、骨、血管、神経などが含まれる。また、図7においては、識別コード「V1」、「V2」及び「V3」に対応する特徴点についてのみ示されているが、実際にはさらに多数の特徴点が含まれる。   That is, the storage circuit 35 stores the coordinates of the feature points in the coordinate space in the three-dimensional human body image and the corresponding identification codes in association with each other. For example, the storage circuit 35 stores the coordinates of the corresponding feature points in association with the identification code “V1” shown in FIG. Similarly, the storage circuit 35 stores the identification code and the feature point coordinates in association with each other. In FIG. 7, lungs, heart, liver, stomach, kidneys, and the like are shown as organs. However, in reality, a virtual patient image includes a larger number of organs, bones, blood vessels, nerves, and the like. In FIG. 7, only the feature points corresponding to the identification codes “V1”, “V2”, and “V3” are shown, but actually more feature points are included.

位置照合機能37bは、検出機能37aによって検出された被検体のボリュームデータ中の特徴点と、上述した仮想患者画像中の特徴点とを識別コードを用いてマッチングして、ボリュームデータの座標空間と仮想患者画像の座標空間とを関連付ける。図8は、第1の実施形態に係る位置照合機能37bによる照合処理の一例を説明するための図である。ここで、図8においては、スキャノ画像から検出した特徴点と仮想患者画像から検出された特徴点との間で同一の特徴点を示す識別コードが割り当てられた3組の特徴点を用いてマッチングを行う場合について示すが、実施形態はこれに限定されるものではなく、任意の組の特徴点を用いてマッチングを行うことができる。   The position matching function 37b matches the feature points in the volume data of the subject detected by the detection function 37a with the feature points in the virtual patient image described above using an identification code, and the coordinate space of the volume data Associate with the coordinate space of the virtual patient image. FIG. 8 is a diagram for explaining an example of collation processing by the position collation function 37b according to the first embodiment. Here, in FIG. 8, matching is performed using three sets of feature points assigned with identification codes indicating the same feature points between the feature points detected from the scanogram and the feature points detected from the virtual patient image. However, the embodiment is not limited to this, and matching can be performed using an arbitrary set of feature points.

例えば、位置照合機能37bは、図8に示すように、仮想患者画像において識別コード「V1」、「V2」及び「V3」で示される特徴点と、スキャノ画像において識別コード「C1」、「C2」及び「C3」で示される特徴点とをマッチングする場合、同一の特徴点間の位置ずれが最小となるように座標変換することにより、画像間の座標空間を関連付ける。例えば、位置照合機能37bは、図8に示すように、解剖学的に同じ特徴点「V1(x1,y1,z1)、C1(X1,Y1,Z1)」、「V2(x2,y2,z2)、C2(X2,Y2,Z2)」、「V3(x3,y3,z3)、C3(X3,Y3,Z3)」の間の位置ズレの合計「LS」を最小化するように、以下の座標変換行列「H」を求める。   For example, as shown in FIG. 8, the position matching function 37b includes feature points indicated by identification codes “V1”, “V2”, and “V3” in the virtual patient image, and identification codes “C1”, “C2” in the scanogram. When matching the feature points indicated by “C3” and “C3”, the coordinate space between the images is associated by performing coordinate conversion so that the positional deviation between the same feature points is minimized. For example, as shown in FIG. 8, the position matching function 37b has the same anatomically characteristic points “V1 (x1, y1, z1), C1 (X1, Y1, Z1)”, “V2 (x2, y2, z2). ), C2 (X2, Y2, Z2) "," V3 (x3, y3, z3), C3 (X3, Y3, Z3) ", so as to minimize the total" LS " A coordinate transformation matrix “H” is obtained.

LS = ((X1,Y1,Z1)-H(x1,y1,z1))
+((X2,Y2,Z2)-H(x2,y2,z2))
+((X3,Y3,Z3)-H(x3,y3,z3))
LS = ((X1, Y1, Z1) -H (x1, y1, z1))
+ ((X2, Y2, Z2) -H (x2, y2, z2))
+ ((X3, Y3, Z3) -H (x3, y3, z3))

位置照合機能37bは、求めた座標変換行列「H」により、仮想患者画像上に指定されたスキャン範囲を位置決め画像上のスキャン範囲に変換することができる。例えば、位置照合機能37bは、座標変換行列「H」を用いることで、図8に示すように、仮想患者画像上に指定されたスキャン範囲「SRV」を位置決め画像上のスキャン範囲「SRC」に変換することができる。図9は、第1の実施形態に係る座標変換によるスキャン範囲の変換例を示す図である。例えば、図9の仮想患者画像上に示すように、操作者が仮想患者画像上でスキャン範囲「SRV」を設定すると、位置照合機能37bは、上述した座標変換行列を用いて、設定されたスキャン範囲「SRV」をスキャノ画像上のスキャン範囲「SRC」に変換する。   The position matching function 37b can convert the scan range specified on the virtual patient image into the scan range on the positioning image by the obtained coordinate conversion matrix “H”. For example, the position matching function 37b uses the coordinate transformation matrix “H” to change the scan range “SRV” designated on the virtual patient image to the scan range “SRC” on the positioning image, as shown in FIG. Can be converted. FIG. 9 is a diagram illustrating a scan range conversion example by coordinate conversion according to the first embodiment. For example, as shown on the virtual patient image in FIG. 9, when the operator sets the scan range “SRV” on the virtual patient image, the position matching function 37b uses the above-described coordinate transformation matrix to set the scan The range “SRV” is converted into a scan range “SRC” on the scanogram.

これにより、例えば、仮想患者画像上で識別コード「Vn」に対応する特徴点を含むように設定されたスキャン範囲「SRV」は、スキャノ画像上で同一の特徴点に対応する識別コード「Cn」が含まれるスキャン範囲「SRC」に変換されて設定される。なお、上述した座標変換行列「H」は、被検体ごとに記憶回路35に記憶されて、適宜読み出されて使用される場合であってもよく、或いは、スキャノ画像が収集されるごとに算出される場合であってもよい。このように第1の実施形態によれば、プリセット時の範囲指定のために仮想患者画像を表示し、その上で位置・範囲を計画しておくことで、位置決め画像(スキャノ画像)の撮影後に、計画された位置・範囲に対応する位置決め画像上の位置・範囲を自動で数値設定することが可能である。   Thereby, for example, the scan range “SRV” set so as to include the feature point corresponding to the identification code “Vn” on the virtual patient image has the identification code “Cn” corresponding to the same feature point on the scanogram. Is converted and set to a scan range “SRC”. Note that the above-described coordinate transformation matrix “H” may be stored in the storage circuit 35 for each subject and read and used as appropriate, or calculated every time a scanogram is collected. It may be the case. As described above, according to the first embodiment, the virtual patient image is displayed for the range designation at the time of presetting, and the position / range is planned on the virtual patient image, so that the positioning image (scano image) is captured. It is possible to automatically set numerical values for the position / range on the positioning image corresponding to the planned position / range.

なお、位置照合機能37bは、上述した照合結果を、人体における複数の部位の位置を模式的に表す人体模式画像として出力しても良い。すなわち、位置照合機能37bは、上述した照合処理と同様の処理により、3次元画像データに含まれる被検体における複数の部位それぞれの位置と、人体模式画像において模式的に表された複数の部位の位置とを照合し、照合結果を記憶回路35に格納してもよい。   The position matching function 37b may output the above-described matching results as a human body schematic image that schematically represents the positions of a plurality of parts in the human body. That is, the position collation function 37b performs the same process as the collation process described above, and the position of each of the plurality of parts in the subject included in the three-dimensional image data and the plurality of parts schematically represented in the human body schematic image. The position may be collated, and the collation result may be stored in the storage circuit 35.

図2の説明に戻り、処理回路37は、入出力制御機能37cと、生成機能37dと、表示制御機能37eとを有し、記憶回路35に記憶された情報を用いて、所望の部位が見やすく描出された画像を簡易な操作で表示するための制御を行う。以下、かかる制御について説明する。   Returning to the description of FIG. 2, the processing circuit 37 has an input / output control function 37c, a generation function 37d, and a display control function 37e, and it is easy to see a desired part by using information stored in the storage circuit 35. Control is performed to display the rendered image with a simple operation. Hereinafter, such control will be described.

記憶回路35は、例えば、部位ごとの表示設定が登録された表示設定リスト35aを記憶する。表示設定リスト35aは、表示画像データの、不透過度(Opacity)、輝度、表示位置、表示方向、及び表示倍率のうち少なくとも一つを含む表示設定が部位ごとに登録された情報(プリセット)である。例えば、表示設定リスト35aは、操作者により予め登録される。言い換えると、記憶回路35は、被検体の部位ごとの表示設定を記憶する。一例としては、記憶回路35は、ボリュームデータの、輝度、不透過度、表示位置、表示方向、及び表示倍率のうち少なくとも一つを含む表示設定を部位ごとに記憶する。   The storage circuit 35 stores, for example, a display setting list 35a in which display settings for each part are registered. The display setting list 35a is information (preset) in which display settings including at least one of opacity (Opacity), luminance, display position, display direction, and display magnification of display image data are registered for each part. is there. For example, the display setting list 35a is registered in advance by the operator. In other words, the storage circuit 35 stores display settings for each part of the subject. As an example, the storage circuit 35 stores, for each part, display settings including at least one of luminance, opacity, display position, display direction, and display magnification of the volume data.

図10は、第1の実施形態に係る表示設定リスト35aの一例を示す図である。図10に例示する表示設定リスト35aは、SVR(Shaded Volume Rendering)画像を表示するための表示設定が部位ごとに登録された情報である。図10に示すように、表示設定リスト35aは、「部位」と、「表示設定」とが対応付けられている。   FIG. 10 is a diagram illustrating an example of the display setting list 35a according to the first embodiment. The display setting list 35a illustrated in FIG. 10 is information in which display settings for displaying an SVR (Shaded Volume Rendering) image are registered for each part. As shown in FIG. 10, in the display setting list 35 a, “part” and “display setting” are associated with each other.

なお、以下の実施形態では、複数の部位を含む広範囲な領域を撮影する場合を説明する。具体的には、被検体の心臓、肺、胃、肝臓、小腸、及び大腸を含む胴体部を全身撮影により撮影する場合を説明する。しかしながら、実施形態はこれに限定されるものではなく、単一の部位を撮影対象とする領域が撮影される場合にも適用可能である。   In the following embodiment, a case where a wide area including a plurality of parts is imaged will be described. Specifically, a case will be described in which the body part including the heart, lungs, stomach, liver, small intestine, and large intestine of the subject is imaged by whole body imaging. However, the embodiment is not limited to this, and can be applied to a case where a region where a single part is to be imaged is imaged.

「部位」は、ボリュームデータに含まれる部位のうち、表示対象となる目的部位(ターゲット部位)を示す情報である。例えば、部位としては、心臓や肝臓などの臓器(器官)の名称が登録される。なお、部位は、臓器の名称に限らず、例えば、頭部や腹部などのように複数の臓器を含む領域を表す情報が部位として登録されてもよいし、右心房、右心室、左心房、左心室などのように心臓を構成する領域(詳細な部位)を表す情報が部位として登録されてもよい。   “Part” is information indicating a target part (target part) to be displayed among parts included in the volume data. For example, the name of an organ (organ) such as the heart or liver is registered as the site. Note that the part is not limited to the name of the organ, for example, information indicating a region including a plurality of organs such as the head and abdomen may be registered as the part, or the right atrium, right ventricle, left atrium, Information representing a region (detailed part) constituting the heart such as the left ventricle may be registered as a part.

「表示設定」は、対応する目的部位が見やすく描出された画像を表示するための情報である。例えば、図10に例示する表示設定には、「不透過度」と、「輝度」と、「表示位置」と、「表示方向」と、「表示倍率」とが対応付けられている。   The “display setting” is information for displaying an image in which a corresponding target portion is easily drawn. For example, the display setting illustrated in FIG. 10 is associated with “opacity”, “luminance”, “display position”, “display direction”, and “display magnification”.

「不透過度(Opacity)」は、SVR画像において、目的部位を構成する各ボクセルの後方(画面から見て裏側)の領域がどの程度描出されるかを表す情報である。例えば、不透過度が「100%」とされた領域の後方の領域は画面上で描出されない。また、不透過度が「0%」とされた領域は画面上で描出されない。   “Opacity” is information representing how much the region behind each voxel (the back side as viewed from the screen) of the target site is depicted in the SVR image. For example, the area behind the area where the opacity is set to “100%” is not drawn on the screen. Also, the area where the opacity is “0%” is not drawn on the screen.

また、「輝度」は、目的部位が見やすく描出される明るさを表す情報である。例えば、人体の各部位の標準的なCT値に応じて適切な輝度が設定されることにより、目的部位の各ボクセルに対して適切な輝度を割り当てることができる。   “Luminance” is information representing the brightness with which the target portion is easily depicted. For example, appropriate brightness can be assigned to each voxel of the target part by setting appropriate brightness according to the standard CT value of each part of the human body.

また、「表示位置」は、目的部位が見やすく描出される位置(座標)を表す情報である。例えば、表示位置としては、各部位の中心位置(重心)が設定される。これにより、目的部位の中心を画面(若しくは表示領域)の中心に表示することができる。なお、表示位置は部位の中心に限らず、任意の位置を設定可能である。例えば、大動脈弓と心臓の境界位置の中心を表示位置として設定しても良い。   The “display position” is information representing a position (coordinates) where the target part is drawn in an easy-to-see manner. For example, the center position (center of gravity) of each part is set as the display position. Thereby, the center of the target part can be displayed at the center of the screen (or display area). The display position is not limited to the center of the part, and an arbitrary position can be set. For example, the center of the boundary position between the aortic arch and the heart may be set as the display position.

「表示方向」は、目的部位が見やすく描出される方向を表す情報である。例えば、表示方向としては、人体の前後方向(前側から後側へ向かう方向)が設定される。これにより、被検体に正対する方向で目的部位を表示することができる。なお、表示方向は人体の前後方向に限らず、任意の方向を設定可能である。例えば、心臓との境界位置における大動脈弓の接線方向を表示方向として設定しても良い。   “Display direction” is information representing the direction in which the target portion is drawn in an easy-to-see manner. For example, as the display direction, the front-rear direction of the human body (the direction from the front side to the rear side) is set. As a result, the target site can be displayed in the direction facing the subject. The display direction is not limited to the front-rear direction of the human body, and an arbitrary direction can be set. For example, the tangential direction of the aortic arch at the boundary position with the heart may be set as the display direction.

「表示倍率」は、目的部位が見やすく描出される倍率を表す情報である。例えば、表示倍率としては、画面(若しくは表示領域)に各部位が収まる大きさが設定される。これにより、目的部位の全体を表示することができる。なお、表示倍率は、画面に収まる大きさに限らず、任意の大きさ(倍率)を設定可能である。例えば、心臓と大動脈弓の境界位置付近の拡大像が表示されるように設定されても良い。   “Display magnification” is information indicating the magnification at which the target portion is drawn in an easy-to-see manner. For example, the display magnification is set such that each part fits on the screen (or display area). Thereby, the whole target part can be displayed. The display magnification is not limited to the size that can be displayed on the screen, and an arbitrary size (magnification) can be set. For example, an enlarged image near the boundary position between the heart and the aortic arch may be set to be displayed.

なお、図10は一例に過ぎず、図10の例に限定されるものではない。例えば、図10には、SVR画像を表示するための表示設定を例示したが、記憶回路35は、MPR画像を表示するための表示設定を記憶しても良い。また、例えば、表示設定の項目は、不透過度、輝度、表示位置、表示方向、及び表示倍率に限らず、任意の項目が設定されてよい。例えば、上記の項目とは異なる項目が更に設定されても良いし、上記の項目のうち一部の項目が設定されても良い。また、例えば、表示設定リスト35aは、必ずしも記憶回路35が記憶していなくても良い。例えば、表示設定リスト35aは、ネットワーク4に接続された任意の装置に記憶されていてもよい。すなわち、表示設定リスト35aは、処理回路37が読み出し可能に接続された格納場所に記憶されていればよい。   Note that FIG. 10 is only an example and is not limited to the example of FIG. For example, FIG. 10 illustrates display settings for displaying an SVR image, but the storage circuit 35 may store display settings for displaying an MPR image. Further, for example, the display setting item is not limited to opacity, luminance, display position, display direction, and display magnification, and any item may be set. For example, items different from the above items may be further set, or some of the above items may be set. For example, the display setting list 35a does not necessarily have to be stored in the storage circuit 35. For example, the display setting list 35 a may be stored in an arbitrary device connected to the network 4. That is, the display setting list 35a may be stored in a storage location where the processing circuit 37 is connected so as to be readable.

入出力制御機能37cは、検出機能37aによって検出された複数の部位のうち、所望の部位の選択操作(選択する操作)を操作者から受け付ける。例えば、入出力制御機能37cは、人体模式画像において、検出機能37aによって検出された複数の部位が選択可能に表示された画像を表示する。そして、入出力制御機能37cは、人体模式画像に選択可能に表示された部位のうち所望の部位を選択する選択操作を受け付ける。なお、入出力制御機能37cは、入出力制御部の一例である。   The input / output control function 37c receives, from the operator, a selection operation (selection operation) of a desired part among a plurality of parts detected by the detection function 37a. For example, the input / output control function 37c displays an image in which a plurality of parts detected by the detection function 37a are displayed in a selectable manner in the human body schematic image. Then, the input / output control function 37c accepts a selection operation for selecting a desired part from the parts displayed on the human body schematic image so as to be selectable. The input / output control function 37c is an example of an input / output control unit.

図11及び図12は、第1の実施形態に係る入出力制御機能37cの処理を説明するための図である。図11及び図12には、操作者により目的部位が選択される場合にディスプレイ32に表示される画面を例示する。   11 and 12 are diagrams for explaining processing of the input / output control function 37c according to the first embodiment. 11 and 12 exemplify screens displayed on the display 32 when a target site is selected by the operator.

図11に示すように、例えば、入出力制御機能37cは、診断を開始する旨の指示を受け付けると、ディスプレイ32に検査結果リスト(File Utility)40を表示させる。この検査結果リストは、例えば、検査ID、患者の氏名、性別、年齢、及び検査部位などの情報が対応づけられている。ここで、操作者が所望の患者の検査結果を選択する操作を行うと、入出力制御機能37cは、選択された検査結果に含まれるボリュームデータと部位の検出結果とを記憶回路35から読み出す。そして、入出力制御機能37cは、読み出した部位の検出結果に基づいて、部位選択用画面50をディスプレイ32に表示させる(図12参照)。   As shown in FIG. 11, for example, when receiving an instruction to start diagnosis, the input / output control function 37c displays a test result list (File Utility) 40 on the display 32. In this test result list, for example, information such as test ID, patient name, sex, age, and test site is associated. Here, when the operator performs an operation of selecting a desired patient test result, the input / output control function 37 c reads out the volume data and the site detection result included in the selected test result from the storage circuit 35. Then, the input / output control function 37c displays the part selection screen 50 on the display 32 based on the read detection result of the part (see FIG. 12).

図12に示すように、部位選択用画面50には、人体模式画像(人体模式図)51が表示される。この人体模式画像51には、各臓器の模式図が描出されている。また、各臓器の模式図には、検出機能37aによって検出された各部位の検出結果が対応づけられている。なお、各部位の検出結果と各臓器の模式図との対応づけ(位置照合)は、上述した位置照合機能37bにより実行される。   As shown in FIG. 12, a human body schematic image (human body schematic diagram) 51 is displayed on the part selection screen 50. In this human body schematic image 51, schematic diagrams of each organ are depicted. In addition, the schematic diagram of each organ is associated with the detection result of each part detected by the detection function 37a. Note that the correspondence (position matching) between the detection result of each part and the schematic diagram of each organ is executed by the position matching function 37b described above.

ここで、人体模式画像51は、検出機能37aによって検出された複数の部位が選択可能に表示される。図12の例では、人体模式画像51に含まれる心臓、肺、胃、肝臓、小腸、及び大腸の画像が色付けされた状態(on click)で表示される。これは、心臓、肺、胃、肝臓、小腸、及び大腸が検出機能37aによって検出されており、表示対象となる目的部位として操作者が選択可能であることを表す。そして、例えば、操作者が「心臓」の画像上にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、目的部位として「心臓」が選択されたものとして受け付ける。   Here, the human body schematic image 51 is displayed so that a plurality of parts detected by the detection function 37a can be selected. In the example of FIG. 12, the images of the heart, lungs, stomach, liver, small intestine, and large intestine included in the human schematic image 51 are displayed in a colored state (on click). This indicates that the heart, lungs, stomach, liver, small intestine, and large intestine are detected by the detection function 37a, and the operator can select the target site to be displayed. For example, when the operator moves the mouse cursor over the “heart” image and performs a click operation, the input / output control function 37c accepts that “heart” is selected as the target site.

また、入出力制御機能37cは、目的部位を3次元表示(SVR画像表示)させるか、2次元表示(MPR画像表示)させるかを選択する操作を受け付ける。この操作は、キーボード操作やマウス操作など、従来の如何なる操作によって行われてもよい。   Further, the input / output control function 37c accepts an operation for selecting whether to display the target part in a three-dimensional display (SVR image display) or a two-dimensional display (MPR image display). This operation may be performed by any conventional operation such as a keyboard operation or a mouse operation.

このように、入出力制御機能37cは、人体模式画像51上で目的部位を選択する操作を受け付ける。そして、入出力制御機能37cは、受け付けた情報を生成機能37dへ出力する。例えば、入出力制御機能37cは、目的部位「心臓」を3次元表示する旨の操作を受け付けた場合には、目的部位「心臓」を3次元表示する旨の情報を生成機能37dへ出力する。言い換えると、入出力制御機能37cは、入力操作に基づいて表示対象の部位の設定を受け付ける。   As described above, the input / output control function 37 c accepts an operation for selecting a target part on the human body schematic image 51. Then, the input / output control function 37c outputs the received information to the generation function 37d. For example, when the input / output control function 37c receives an operation for displaying the target part “heart” in a three-dimensional manner, the input / output control function 37c outputs information indicating that the target part “heart” is displayed in a three-dimensional manner to the generation function 37d. In other words, the input / output control function 37c receives the setting of the display target part based on the input operation.

なお、図11及び図12は一例に過ぎず、図11及び図12の例に限定されるものではない。例えば、図11及び図12では、人体模式画像51が2次元的に表示される場合を例示したが、3次元的に表示される場合であっても良い。また、部位を選択する操作は、人体模式画像51に限らず、例えば、実際に撮影された被検体のレンダリング画像や部位の一覧(リスト)、或いは上述した仮想患者画像上で受け付けられても良い。なお、他の実施形態については、後述する。   11 and 12 are merely examples, and the present invention is not limited to the examples in FIGS. For example, FIG. 11 and FIG. 12 illustrate the case where the human body schematic image 51 is displayed two-dimensionally, but it may be displayed three-dimensionally. Further, the operation for selecting a part is not limited to the human body schematic image 51, and may be accepted on, for example, a rendering image of an actually captured subject, a list of parts (list), or the above-described virtual patient image. . Other embodiments will be described later.

生成機能37dは、選択操作により選択された部位に対応する表示設定に基づいて、ボリュームデータから表示画像データを生成する。例えば、生成機能37dは、記憶回路35から、入出力制御機能37cが受け付けた操作により選択された部位に対応する表示設定を読み出す。そして、生成機能37dは、読み出した表示設定を用いてボリュームデータに対するレンダリング処理を行って、表示画像データを生成する。なお、生成機能37dは、生成部の一例である。   The generation function 37d generates display image data from the volume data based on the display setting corresponding to the part selected by the selection operation. For example, the generation function 37d reads the display setting corresponding to the part selected by the operation received by the input / output control function 37c from the storage circuit 35. Then, the generation function 37d performs a rendering process on the volume data using the read display setting, and generates display image data. The generation function 37d is an example of a generation unit.

例えば、生成機能37dは、目的部位「心臓」を3次元表示する旨の情報を入出力制御機能37cから受け付けた場合には、記憶回路35に記憶される表示設定リスト35aを参照し、心臓に対応する表示設定を読み出す(図10参照)。そして、生成機能37dは、読み出した心臓の表示設定を用いて、心臓のボリュームデータに対するレンダリング処理を行う。具体的には、生成機能37dは、被検体の全身のボリュームデータから、心臓の領域を含む一部のボリュームデータ(スライス画像)を抽出する。ここで、例えば、生成機能37dは、検出機能37aにより検出された心臓の位置(座標)に対してマージンを取って、心臓の領域を含むボリュームデータを抽出する。そして、生成機能37dは、抽出したボリュームデータに対してセグメンテーションを行い、セグメンテーションされた心臓の領域を構成する各ボクセルに対して心臓の不透過度を割り当ててSVR処理を行う。そして、生成機能37dは、SVR処理により得られたSVR画像データを、心臓の輝度、表示位置、表示方向、及び表示倍率を用いて加工する。この結果、生成機能37dは、心臓の表示設定に基づいて、被検体の心臓のSVR画像データを表示画像データとして生成する。   For example, the generation function 37d refers to the display setting list 35a stored in the storage circuit 35 when the information indicating that the target site “heart” is displayed in three dimensions is received from the input / output control function 37c. The corresponding display setting is read (see FIG. 10). Then, the generation function 37d performs a rendering process on the volume data of the heart using the read heart display setting. Specifically, the generation function 37d extracts a part of volume data (slice image) including the heart region from the whole body volume data of the subject. Here, for example, the generation function 37d takes a margin with respect to the position (coordinates) of the heart detected by the detection function 37a, and extracts volume data including the heart region. The generation function 37d performs segmentation on the extracted volume data, and performs SVR processing by assigning heart opacity to each voxel constituting the segmented heart region. Then, the generation function 37d processes the SVR image data obtained by the SVR processing using the heart brightness, the display position, the display direction, and the display magnification. As a result, the generation function 37d generates SVR image data of the subject's heart as display image data based on the display setting of the heart.

このように、生成機能37dは、目的部位に対応する表示設定に基づいて、被検体のボリュームデータから表示画像データを生成する。言い換えると、生成機能37dは、検出機能37aによって検出された部位に対応する表示設定を記憶回路35から読み出してボリュームデータに対して適用することにより、表示対象の部位の表示画像データを生成する。そして、生成機能37dは、生成した表示画像データを、表示制御機能37eへ出力する。   Thus, the generation function 37d generates display image data from the volume data of the subject based on the display setting corresponding to the target region. In other words, the generation function 37d reads display settings corresponding to the part detected by the detection function 37a from the storage circuit 35 and applies them to the volume data, thereby generating display image data of the display target part. Then, the generation function 37d outputs the generated display image data to the display control function 37e.

なお、上述した生成機能37dの説明は一例に過ぎず、上記の例に限定されるものではない。例えば、上記の例では、心臓のSVR画像データが表示画像データとして生成される場合を説明したが、実施形態はこれに限定されるものではない。例えば、生成機能37dは、心臓を2次元表示する旨の情報を受け付けた場合には、表示設定リスト35aを参照し、心臓の中心位置において直交するアキシャル像、サジタル像、及びコロナル像それぞれのMPR画像データ(直交三断面)を表示画像データとして生成する。すなわち、生成機能37dは、入出力制御機能37cが受け付けた操作の内容や、表示設定リスト35aに登録された表示設定の内容に応じて処理内容を適宜変更することで、目的部位が見やすく描出された表示画像データを生成するものである。   The description of the generation function 37d described above is merely an example, and the present invention is not limited to the above example. For example, in the above example, the case where the SVR image data of the heart is generated as the display image data has been described. However, the embodiment is not limited to this. For example, when the generation function 37d receives information indicating that the heart is two-dimensionally displayed, the generation function 37d refers to the display setting list 35a and MPRs of the axial image, the sagittal image, and the coronal image orthogonal to each other at the center position of the heart. Image data (three orthogonal cross sections) is generated as display image data. That is, the generation function 37d changes the processing contents as appropriate according to the contents of the operation accepted by the input / output control function 37c and the contents of the display settings registered in the display setting list 35a, so that the target part can be easily drawn. Display image data is generated.

表示制御機能37eは、生成機能37dによって生成された表示画像データを表示部に表示させる。例えば、表示制御機能37eは、心臓のSVR画像データを生成機能37dから受け付けると、受け付けたSVR画像データをディスプレイ32に表示させる。なお、表示制御機能37eは、表示制御部の一例である。   The display control function 37e displays the display image data generated by the generation function 37d on the display unit. For example, when receiving the SVR image data of the heart from the generation function 37d, the display control function 37e displays the received SVR image data on the display 32. The display control function 37e is an example of a display control unit.

図13A及び図13Bは、第1の実施形態に係る表示制御機能37eの処理を説明するための図である。図13Aには、目的部位「心臓」を3次元表示(SVR画像表示)する旨の操作が行われた場合にディスプレイ32に表示される表示画像60を例示する。図13Bには、目的部位「心臓」を2次元表示(MPR画像表示)する旨の操作が行われた場合にディスプレイ32に表示される表示画像61を例示する。   13A and 13B are diagrams for explaining processing of the display control function 37e according to the first embodiment. FIG. 13A illustrates a display image 60 displayed on the display 32 when an operation for displaying the target site “heart” three-dimensionally (SVR image display) is performed. FIG. 13B illustrates a display image 61 displayed on the display 32 when an operation for two-dimensionally displaying the target site “heart” (MPR image display) is performed.

図13Aに示すように、例えば、表示制御機能37eは、目的部位「心臓」を3次元表示する旨の操作が行われると、目的部位「心臓」に対応する表示設定に基づいて生成されたSVR画像データを生成機能37dから受け付ける。そして、表示制御機能37eは、受け付けた心臓のSVR画像データに基づいて、表示画像60をディスプレイ32に表示させる。図13Aに例示の表示画像60は、心臓と大動脈弓の境界位置付近の拡大像が描出されたSVR画像である。   As illustrated in FIG. 13A, for example, when an operation for displaying the target portion “heart” in three dimensions is performed, the display control function 37e generates an SVR generated based on the display setting corresponding to the target portion “heart”. Image data is received from the generation function 37d. Then, the display control function 37e displays the display image 60 on the display 32 based on the received SVR image data of the heart. The display image 60 illustrated in FIG. 13A is an SVR image in which an enlarged image near the boundary position between the heart and the aortic arch is depicted.

また、図13Bに示すように、例えば、表示制御機能37eは、目的部位「心臓」を2次元表示する旨の操作が行われると、目的部位「心臓」に対応する表示設定に基づいて生成された直交三断面の各MPR画像データを生成機能37dから受け付ける。そして、表示制御機能37eは、受け付けた直交三断面の各MPR画像データに基づいて、表示画像61をディスプレイ32に表示させる。図13Bに例示の表示画像61は、心臓の中心位置において直交するアキシャル像、サジタル像、及びコロナル像を含む画像である。   As shown in FIG. 13B, for example, the display control function 37e is generated based on the display setting corresponding to the target site “heart” when an operation for displaying the target site “heart” in two dimensions is performed. Each MPR image data of three orthogonal cross sections is received from the generation function 37d. Then, the display control function 37e displays the display image 61 on the display 32 based on the received MPR image data of three orthogonal cross sections. The display image 61 illustrated in FIG. 13B is an image including an axial image, a sagittal image, and a coronal image that are orthogonal to each other at the center position of the heart.

このように、表示制御機能37eは、生成機能37dによって生成された表示画像データを表示させる。   Thus, the display control function 37e displays the display image data generated by the generation function 37d.

図14及び図15は、第1の実施形態に係るX線CT装置1による処理手順を示すフローチャートである。図14には、被検体の撮影を行ってボリュームデータを生成する場合の処理手順を例示する。また、図15には、被検体のボリュームデータを用いて診断を行う場合の処理手順を例示する。   14 and 15 are flowcharts showing a processing procedure by the X-ray CT apparatus 1 according to the first embodiment. FIG. 14 illustrates a processing procedure in the case where volume data is generated by imaging a subject. FIG. 15 illustrates a processing procedure when diagnosis is performed using volume data of a subject.

図14に示すように、ステップS101において、処理回路37は、撮影が開始されたか否かを判定する。例えば、処理回路37は、撮影を開始する旨の指示が操作者によって入力されると、撮影を開始し、ステップS102以降の処理を実行する。なお、ステップS101が否定される場合には、処理回路37は、撮影を開始せず、待機状態である。   As shown in FIG. 14, in step S101, the processing circuit 37 determines whether or not shooting has started. For example, when an instruction to start shooting is input by the operator, the processing circuit 37 starts shooting and executes the processing from step S102 onward. If step S101 is negative, the processing circuit 37 does not start shooting and is in a standby state.

ステップS101が肯定されると、ステップS102において、スキャン制御回路33は、位置決め画像(スキャノ画像)を撮影する。なお、位置決め画像は、0度方向や90度方向からX線投影された2次元画像であってもよいし、ヘリカルスキャン或いはノンヘリカルスキャンによって被検体の全周分にわたって投影された3次元画像であってもよい。   If step S101 is positive, in step S102, the scan control circuit 33 captures a positioning image (scano image). The positioning image may be a two-dimensional image projected by X-ray from the 0 degree direction or the 90 degree direction, or a three-dimensional image projected over the entire circumference of the subject by a helical scan or a non-helical scan. There may be.

ステップS103において、スキャン制御回路33は、撮影条件を設定する。例えば、スキャン制御回路33は、管電圧、管電流、スキャン範囲、スライス厚、撮影時間等の各種の撮影条件を位置決め画像上で操作者から受け付けて、受け付けた撮影条件を設定する。   In step S103, the scan control circuit 33 sets shooting conditions. For example, the scan control circuit 33 accepts various photographing conditions such as tube voltage, tube current, scan range, slice thickness, and photographing time from the operator on the positioning image, and sets the accepted photographing conditions.

ステップS104において、スキャン制御回路33は、本撮影(本スキャン)を実行する。例えば、スキャン制御回路33は、ヘリカルスキャン或いはノンヘリカルスキャンにより被検体Pに対する全周分の投影データを収集する。   In step S104, the scan control circuit 33 performs main imaging (main scanning). For example, the scan control circuit 33 collects projection data for the entire circumference of the subject P by helical scanning or non-helical scanning.

ステップS105において、画像再構成回路36は、ボリュームデータを再構成する。例えば、画像再構成回路36は、本撮影により収集された全周分の投影データから、被検体のボリュームデータを再構成する。   In step S105, the image reconstruction circuit 36 reconstructs the volume data. For example, the image reconstruction circuit 36 reconstructs the volume data of the subject from the projection data for the entire circumference collected by the main imaging.

ステップS106において、検出機能37aは、再構成後のボリュームデータから被検体の複数の部位を検出する。例えば、検出機能37aは、被検体の全身(胴体)について撮影されたボリュームデータから、心臓、肺、胃、肝臓、小腸、及び大腸などの部位をそれぞれ検出する。   In step S106, the detection function 37a detects a plurality of parts of the subject from the volume data after reconstruction. For example, the detection function 37a detects parts such as the heart, lungs, stomach, liver, small intestine, and large intestine from the volume data captured for the whole body (body) of the subject.

ステップS107において、検出機能37aは、部位の検出結果とボリュームデータとを、被検体の検査結果として記憶回路35に格納する。例えば、検出機能37aは、被検体のボリュームデータをDICOM規格に則って管理する場合には、検出した部位の位置(座標)を示す情報(検出結果)をプライベートタグ(或いは検出結果管理用に新たに設定した専用タグ)に格納する。そして、X線CT装置1は、図14の処理手順を終了する。   In step S107, the detection function 37a stores the part detection result and the volume data in the storage circuit 35 as the examination result of the subject. For example, when the volume data of the subject is managed in accordance with the DICOM standard, the detection function 37a adds information (detection result) indicating the position (coordinates) of the detected part to the private tag (or detection result management). Stored in the dedicated tag set to. Then, the X-ray CT apparatus 1 ends the processing procedure of FIG.

図15に示すように、ステップS201において、処理回路37は、診断が開始されたか否かを判定する。例えば、処理回路37は、診断を開始する旨の指示が操作者によって入力されると、ステップS202以降の処理を実行する。なお、ステップS201が否定される場合には、処理回路37は、処理を開始せず、待機状態である。   As shown in FIG. 15, in step S201, the processing circuit 37 determines whether diagnosis has started. For example, when an instruction to start diagnosis is input by the operator, the processing circuit 37 executes the processes after step S202. If step S201 is negative, the processing circuit 37 does not start processing and is in a standby state.

ステップS201が肯定されると、ステップS202において、入出力制御機能37cは、検査結果リスト40から所望の検査結果を選択する操作を受け付ける。例えば、入出力制御機能37cは、ディスプレイ32に検査結果リスト40を表示させ、検査結果リスト40上で操作者が所望の検査結果を選択する操作を受け付ける。   If step S201 is affirmed, in step S202, the input / output control function 37c accepts an operation of selecting a desired test result from the test result list 40. For example, the input / output control function 37c displays the inspection result list 40 on the display 32, and accepts an operation in which the operator selects a desired inspection result on the inspection result list 40.

ステップS203において、入出力制御機能37cは、選択された検査結果に含まれるボリュームデータと部位の検出結果とを記憶回路35から読み出す。例えば、入出力制御機能37cは、選択された患者(被検体)の検査結果に含まれるボリュームデータと、ボリュームデータから検出された複数の部位の位置(座標)を示す情報(検出結果)とを記憶回路35から読み出す。   In step S <b> 203, the input / output control function 37 c reads volume data and a part detection result included in the selected examination result from the storage circuit 35. For example, the input / output control function 37c includes volume data included in the examination result of the selected patient (subject) and information (detection results) indicating the positions (coordinates) of a plurality of parts detected from the volume data. Read from the memory circuit 35.

ステップS204において、入出力制御機能37cは、読み出した部位の検出結果に基づいて、部位選択用画面50をディスプレイ32に表示させる。例えば、入出力制御機能37cは、検出機能37aによって検出された各部位が色付けされた人体模式画像51をディスプレイ32に表示させる。   In step S204, the input / output control function 37c causes the display 32 to display the part selection screen 50 based on the read part detection result. For example, the input / output control function 37c causes the display 32 to display the human body schematic image 51 in which each part detected by the detection function 37a is colored.

ステップS205において、入出力制御機能37cは、部位の選択を受け付ける。例えば、人体模式画像51に表示された「心臓」の位置において操作者がクリック操作を行うと、入出力制御機能37cは、目的部位として「心臓」が選択されたものとして受け付ける。   In step S205, the input / output control function 37c accepts selection of a part. For example, when the operator performs a click operation at the position of “heart” displayed in the human body schematic image 51, the input / output control function 37c accepts that “heart” is selected as the target site.

ステップS206において、生成機能37dは、選択された部位に対応する表示設定を読み出す。例えば、生成機能37dは、目的部位「心臓」を3次元表示する旨の情報を入出力制御機能37cから受け付けた場合には、記憶回路35に記憶される表示設定リスト35aを参照し、心臓に対応する表示設定を読み出す(図10参照)。   In step S206, the generation function 37d reads the display setting corresponding to the selected part. For example, the generation function 37d refers to the display setting list 35a stored in the storage circuit 35 when the information indicating that the target site “heart” is displayed in three dimensions is received from the input / output control function 37c. The corresponding display setting is read (see FIG. 10).

ステップS207において、生成機能37dは、読み出した部位の表示設定に基づいて、ボリュームデータから表示画像データを生成する。例えば、生成機能37dは、読み出した心臓の表示設定を用いて、心臓のボリュームデータに対するレンダリング処理を行う。この結果、生成機能37dは、心臓の表示設定に基づいて、被検体の心臓のSVR画像データを表示画像データとして生成する。   In step S207, the generation function 37d generates display image data from the volume data based on the read display setting of the part. For example, the generation function 37d performs rendering processing on heart volume data using the read heart display settings. As a result, the generation function 37d generates SVR image data of the subject's heart as display image data based on the display setting of the heart.

ステップS208において、表示制御機能37eは、表示画像データを表示させる。例えば、表示制御機能37eは、心臓のSVR画像データを生成機能37dから受け付けて、受け付けたSVR画像データをディスプレイ32に表示させる。   In step S208, the display control function 37e displays the display image data. For example, the display control function 37e receives the SVR image data of the heart from the generation function 37d and causes the display 32 to display the received SVR image data.

なお、図14及び図15の処理手順は一例に過ぎず、図14及び図15の例に限定されるものではない。例えば、上記の処理手順は、必ずしも上述した順序で実行されなくてもよい。例えば、ボリュームデータから複数の部位を検出する処理(ステップS106)は、必ずしも上記の順序で実行されなくてもよい。ステップS106の処理は、例えば、ステップS204の処理が開始される前であれば任意のタイミングで実行可能である。   Note that the processing procedures in FIGS. 14 and 15 are merely examples, and are not limited to the examples in FIGS. 14 and 15. For example, the above processing procedures do not necessarily have to be executed in the order described above. For example, the process of detecting a plurality of parts from the volume data (step S106) does not necessarily have to be executed in the above order. The process of step S106 can be executed at any timing, for example, before the process of step S204 is started.

また、ボリュームデータに含まれる全ての部位について、各部位の表示設定を用いて表示画像データを生成する処理(ステップS207)を予め実行しておき、全ての部位の表示画像データを記憶回路35に格納してもよい。この場合、部位の選択を受け付けると(ステップS205)、ステップS206及びステップS207の処理を実行することなく、表示画像データを表示する処理(ステップS208)を実行することができる。   In addition, a process of generating display image data (step S207) using the display settings of each part for all parts included in the volume data is executed in advance, and the display image data of all parts is stored in the storage circuit 35. It may be stored. In this case, when the selection of the part is received (step S205), the process of displaying the display image data (step S208) can be executed without executing the processes of step S206 and step S207.

また、例えば、検出機能37aは、部位の選択を受け付けた後に(ステップS205)、ボリュームデータから被検体の部位の位置を検出してもよい(ステップS106)。この場合、検出機能37aは、被検体のボリュームデータの構造に基づいて、入出力制御機能37cが受け付けた被検体の部位を検出することができる。なお、これらの例に限らず、図14及び図15に示した処理手順は、処理内容が矛盾しない範囲で適宜順序を変えて実行可能である。   For example, the detection function 37a may detect the position of the part of the subject from the volume data after accepting the selection of the part (step S205) (step S106). In this case, the detection function 37a can detect the part of the subject accepted by the input / output control function 37c based on the structure of the volume data of the subject. Note that the processing procedures shown in FIGS. 14 and 15 are not limited to these examples, and can be executed by appropriately changing the order as long as the processing contents do not contradict each other.

上述してきたように、第1の実施形態に係るX線CT装置1において、検出機能37aは、被検体のボリュームデータから、被検体の複数の部位それぞれの位置を検出する。そして、入出力制御機能37cは、検出された複数の部位のうち所望の部位を選択する操作を受け付ける。そして、生成機能37dは、選択された部位に対応する表示設定に基づいて、被検体のボリュームデータから表示画像データを生成する。そして、表示制御機能37eは、生成された表示画像データを表示させる。これによれば、X線CT装置1は、所望の部位が見やすく描出された画像を簡易な操作で表示することが可能となる。   As described above, in the X-ray CT apparatus 1 according to the first embodiment, the detection function 37a detects the positions of a plurality of parts of the subject from the volume data of the subject. Then, the input / output control function 37c receives an operation of selecting a desired part among the plurality of detected parts. Then, the generation function 37d generates display image data from the volume data of the subject based on the display setting corresponding to the selected part. The display control function 37e displays the generated display image data. According to this, the X-ray CT apparatus 1 can display an image in which a desired part is drawn in an easy-to-see manner with a simple operation.

図16A〜図16Cは、第1の実施形態に係るX線CT装置1の効果を説明するための図である。図16Aには、従来の表示画像(SVR画像)の表示手順を例示する。また、図16Bには、従来の表示画像(MRP画像)の表示手順を例示する。また、図16Cには、本実施形態に係るX線CT装置1における表示画像の表示手順を例示する。   16A to 16C are diagrams for explaining the effect of the X-ray CT apparatus 1 according to the first embodiment. FIG. 16A illustrates a display procedure of a conventional display image (SVR image). FIG. 16B illustrates a display procedure of a conventional display image (MRP image). FIG. 16C illustrates a display image display procedure in the X-ray CT apparatus 1 according to the present embodiment.

図16Aにおいて、操作者(医師或いは読影医)は、所望の患者(被検体)の検査結果を選択し(手順S10)、ボリュームデータを構成するスライス画像を表示させる(手順S11)。そして、操作者は、スライス画像を素早く切り替えながら確認することで、目的部位が描出されるスライス位置を探し出す(手順S12)。そして、操作者は、目的部位を含むボリュームデータ(スライス画像)を読み込み(手順S13)、目的部位に応じた不透過度(Opacity)をマニュアル操作で選択することで(手順S14)、SVR画像を表示させる。なお、ここで表示されるSVR画像は目的部位に関わらず一定の条件(デフォルト設定など)にしたがって表示されるものに過ぎず、必ずしも目的部位が見やすく表示されているとは限らない。このため、目的部位を見やすくするためには、操作者は、SVR画像上で目的部位のズーム、パン、及び回転などの操作を更に行う必要がある(手順S15)。   In FIG. 16A, the operator (physician or radiographer) selects a test result of a desired patient (subject) (procedure S10) and displays slice images constituting volume data (procedure S11). Then, the operator searches the slice position where the target site is drawn by checking the slice images while quickly switching them (step S12). Then, the operator reads the volume data (slice image) including the target region (step S13), and manually selects the opacity (Opacity) corresponding to the target region (step S14). Display. Note that the SVR image displayed here is merely displayed according to a certain condition (default setting or the like) regardless of the target portion, and the target portion is not always displayed in an easy-to-see manner. For this reason, in order to make it easy to see the target portion, the operator needs to further perform operations such as zooming, panning, and rotating the target portion on the SVR image (step S15).

また、図16Bにおいても、操作者は、図16Aの手順S10〜S13と同様に、手順S20〜S23を行うことで、例えば、直交三断面のMPR画像を表示させる。しかしながら、ここで表示されるMPR画像も目的部位に関わらず一定の条件にしたがって表示されるものに過ぎず、必ずしも目的部位が見やすく表示されているとは限らない。このため、目的部位を見やすくするためには、操作者は、MPR画像上で目的部位のズーム、パン、及び回転などの操作を更に行う必要がある(手順S24)。このように、従来の表示手順では、操作者は、多くのマニュアル操作を行う必要がある。   Also in FIG. 16B, the operator displays the MPR image of, for example, three orthogonal cross sections by performing steps S20 to S23 as in steps S10 to S13 of FIG. 16A. However, the MPR image displayed here is merely displayed according to certain conditions regardless of the target part, and the target part is not always displayed in an easy-to-see manner. For this reason, in order to make the target part easy to see, the operator needs to further perform operations such as zooming, panning, and rotating the target part on the MPR image (step S24). Thus, in the conventional display procedure, the operator needs to perform many manual operations.

また、近年、画像の高精細化に伴って処理対象となる画像データ(ボリュームデータ)のデータ量が増加傾向にあるため、図16A及び図16Bに示した各手順における画像データの読み込みにも時間を要してしまう傾向がある。このため、図16A及び図16Bに示した一連の表示手順によって目的部位を見やすく表示するためには、長い時間を要する場合があった。   In recent years, the amount of image data (volume data) to be processed tends to increase as the image becomes higher in definition, so that it takes time to read the image data in each procedure shown in FIGS. 16A and 16B. Tend to require. For this reason, it may take a long time to display the target site in an easy-to-see manner by the series of display procedures shown in FIGS. 16A and 16B.

これに対して、第1の実施形態に係るX線CT装置1においては、図16Cに示すように、操作者は、所望の患者の検査結果を選択し(手順S30)、選択した検査結果から目的部位を選択するだけで(手順S31)、表示設定に基づいて目的部位が見やすく描出された表示画像(SVR画像、若しくはMPR画像)を得ることができる(手順S32)。これによれば、例えば、被検体の心臓、肺、胃、肝臓、小腸、及び大腸を含む胴体部が全身撮影により撮影された場合においても、医師が所望の部位をその都度選択する操作を行うだけで、所望の部位が見やすく描出された画像を表示することができる。また、高精細な画像データを扱う場合においても表示手順が簡略化される結果、読み込みの回数を低減させることができるので、短時間で目的部位を見やすく表示することができる。   On the other hand, in the X-ray CT apparatus 1 according to the first embodiment, as shown in FIG. 16C, the operator selects a desired patient test result (step S30), and from the selected test result. By simply selecting the target part (procedure S31), a display image (SVR image or MPR image) in which the target part is drawn in an easily viewable manner based on the display settings can be obtained (procedure S32). According to this, for example, even when a torso including the heart, lungs, stomach, liver, small intestine, and large intestine of a subject is imaged by whole body imaging, a doctor performs an operation of selecting a desired part each time. With this, it is possible to display an image in which a desired part is easily drawn. In addition, when handling high-definition image data, the display procedure is simplified. As a result, the number of times of reading can be reduced, so that the target site can be displayed easily in a short time.

なお、上記の説明では、所望の部位として1つの部位を選択する操作を受け付ける場合を説明したが、実施形態はこれに限定されるものではない。入出力制御機能37cは、所望の部位として2以上の部位を選択する操作を受け付けてもよい。すなわち、入出力制御機能37cは、検出機能37aによって検出された複数の部位のうち少なくとも一つの部位を選択する操作を受け付ける。なお、複数の部位を選択する操作を受け付ける場合の生成機能37dの処理については、後述する。   In the above description, the case of accepting an operation for selecting one part as a desired part has been described, but the embodiment is not limited to this. The input / output control function 37c may accept an operation of selecting two or more parts as desired parts. That is, the input / output control function 37c accepts an operation for selecting at least one part among the plurality of parts detected by the detection function 37a. In addition, the process of the production | generation function 37d in the case of accepting operation which selects a some site | part is mentioned later.

(第1の実施形態の変形例1)
第1の実施形態では、人体模式画像51上で目的部位の選択を受け付ける場合を説明したが、実施形態はこれに限定されるものではない。例えば、X線CT装置1は、人体模式画像51に代えて、部位の名称の一覧であるリストを表示し、表示したリスト上で目的部位の選択を受け付けてもよい。
(Modification 1 of the first embodiment)
In the first embodiment, the case where the selection of the target part is received on the human body schematic image 51 has been described, but the embodiment is not limited to this. For example, instead of the human body schematic image 51, the X-ray CT apparatus 1 may display a list that is a list of part names and accept selection of a target part on the displayed list.

例えば、入出力制御機能37cは、検出機能37aによって検出された複数の部位それぞれの名称の一覧であるリストを表示する。そして、入出力制御機能37cは、表示したリストに含まれる部位のうち所望の部位を選択する操作を受け付ける。   For example, the input / output control function 37c displays a list that is a list of names of a plurality of parts detected by the detection function 37a. Then, the input / output control function 37c accepts an operation for selecting a desired part among the parts included in the displayed list.

図17は、第1の実施形態の変形例1に係る入出力制御機能37cの処理を説明するための図である。図17には、操作者により目的部位が選択される場合にディスプレイ32に表示されるリスト52を例示する。なお、図17に例示のリスト52は、図11に例示の検査結果リスト40において所望の患者の検査結果が選択された場合に表示される画面の一例である。   FIG. 17 is a diagram for explaining processing of the input / output control function 37c according to the first modification of the first embodiment. FIG. 17 illustrates a list 52 displayed on the display 32 when a target site is selected by the operator. The list 52 illustrated in FIG. 17 is an example of a screen displayed when a desired patient test result is selected in the test result list 40 illustrated in FIG.

図17に示すように、リスト52には、検出機能37aによって検出された各臓器の名称が選択可能に記載されている。図17の例では、心臓、肝臓、肺、小腸・・・が、操作者による選択操作を受付可能に表示されている。そして、例えば、操作者が「心臓」の欄にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、目的部位として「心臓」が選択されたものとして受け付ける。   As shown in FIG. 17, in the list 52, names of the respective organs detected by the detection function 37a are described in a selectable manner. In the example of FIG. 17, the heart, liver, lungs, small intestine,... Are displayed so that the selection operation by the operator can be accepted. For example, when the operator moves the mouse cursor to the “heart” column and performs a click operation, the input / output control function 37c accepts that “heart” is selected as the target site.

このように、入出力制御機能37cは、リスト52上で目的部位を選択する操作を受け付ける。そして、入出力制御機能37cは、受け付けた情報を生成機能37dへ出力する。なお、リスト52上で目的部位を選択する操作を受け付ける処理以外の処理については、第1の実施形態において説明した内容と同様である。   As described above, the input / output control function 37c accepts an operation of selecting a target part on the list 52. Then, the input / output control function 37c outputs the received information to the generation function 37d. Note that processes other than the process of accepting an operation of selecting a target part on the list 52 are the same as the contents described in the first embodiment.

(第1の実施形態の変形例2)
また、X線CT装置1は、人体模式画像51やリスト52以外にも、例えば、実際に撮影された撮影画像(実画像)上で目的部位の選択を受け付けてもよい。
(Modification 2 of the first embodiment)
In addition to the human body schematic image 51 and the list 52, the X-ray CT apparatus 1 may accept selection of a target region on, for example, an actually captured image (actual image).

例えば、入出力制御機能37cは、被検体のスキャノ画像(位置決め画像)及びボリュームデータのレンダリング画像の少なくとも一つの画像において、検出機能37aによって検出された複数の部位が選択可能に表示された画像を表示する。そして、入出力制御機能37cは、表示した画像に選択可能に表示された部位のうち所望の部位を選択する操作を受け付ける。   For example, the input / output control function 37c displays an image in which a plurality of parts detected by the detection function 37a are displayed in a selectable manner in at least one of a scanogram (positioning image) of a subject and a rendering image of volume data. indicate. Then, the input / output control function 37c accepts an operation for selecting a desired part among the parts displayed so as to be selectable in the displayed image.

図18は、第1の実施形態の変形例2に係る入出力制御機能37cの処理を説明するための図である。図18には、操作者により目的部位が選択される場合にディスプレイ32に表示されるMPR画像(コロナル像)53を例示する。なお、図18に例示のMPR画像53は、図11に例示の検査結果リスト40において所望の患者の検査結果が選択された場合に表示される画面の一例である。   FIG. 18 is a diagram for explaining processing of the input / output control function 37c according to the second modification of the first embodiment. FIG. 18 illustrates an MPR image (coronal image) 53 displayed on the display 32 when the operator selects a target site. The MPR image 53 illustrated in FIG. 18 is an example of a screen displayed when a desired patient test result is selected in the test result list 40 illustrated in FIG.

図18に示すように、被検体の胴体部のコロナル像であるMPR画像53には、各臓器の断面像が描出されている。ここで、MPR画像53は、検出機能37aによって検出された複数の部位が選択可能に表示される。図18の例では、MPR画像53に含まれる心臓、肺、胃、肝臓、及び小腸の断面像が色付けされた状態(或いは強調表示)で表示される。これは、心臓、肺、胃、肝臓、及び小腸が検出機能37aによって検出されており、表示対象となる目的部位として操作者が選択可能であることを表す。そして、例えば、操作者が「心臓」の断面像上にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、目的部位として「心臓」が選択されたものとして受け付ける。   As shown in FIG. 18, a cross-sectional image of each organ is depicted in an MPR image 53 that is a coronal image of the trunk of the subject. Here, the MPR image 53 is displayed so that a plurality of parts detected by the detection function 37a can be selected. In the example of FIG. 18, the cross-sectional images of the heart, lungs, stomach, liver, and small intestine included in the MPR image 53 are displayed in a colored state (or highlighted display). This means that the heart, lungs, stomach, liver, and small intestine are detected by the detection function 37a, and the operator can select the target site to be displayed. For example, when the operator moves the mouse cursor over the cross-sectional image of “heart” and performs a click operation, the input / output control function 37c accepts that “heart” is selected as the target site.

このように、入出力制御機能37cは、MPR画像53上で目的部位を選択する操作を受け付ける。そして、入出力制御機能37cは、受け付けた情報を生成機能37dへ出力する。なお、MPR画像53上で目的部位を選択する操作を受け付ける処理以外の処理については、第1の実施形態において説明した内容と同様である。   As described above, the input / output control function 37 c accepts an operation for selecting a target part on the MPR image 53. Then, the input / output control function 37c outputs the received information to the generation function 37d. Note that processes other than the process of accepting an operation for selecting a target region on the MPR image 53 are the same as those described in the first embodiment.

なお、図18では、実際に撮影された撮影画像としてMPR画像53が適用される場合を説明したが、実施形態はこれに限定されるものではない。実際に撮影された撮影画像としては、例えば、SVR画像などの他のレンダリング処理に基づく画像であってもよいし、本撮影に先だって撮影されるスキャノ画像(位置決め画像)であってもよい。   In FIG. 18, the case where the MPR image 53 is applied as a captured image that has been actually captured has been described, but the embodiment is not limited thereto. The actually captured image may be, for example, an image based on another rendering process such as an SVR image, or may be a scanogram (positioning image) captured prior to the actual capture.

また、第1の実施形態及び第1の実施形態の変形例1,2では、目的部位の選択を受け付けるために、人体模式画像51、リスト52、及び撮影画像(MPR画像53)を用いる場合をそれぞれ説明したが、これらは併用されてもよい。例えば、入出力制御機能37cは、人体模式画像51及びリスト52をディスプレイ32に並列表示させる。この場合、操作者は、人体模式画像51及びリスト52のうち任意の選択方法にて目的部位を選択可能である。つまり、操作者は、人体模式画像51上で所望の部位の画像を選択してもよいし、リスト52上で所望の部位の欄を選択してもよい。   In the first embodiment and the first and second modifications 1 and 2, the case where the human body schematic image 51, the list 52, and the captured image (MPR image 53) are used to accept selection of the target part. Although each explained, these may be used together. For example, the input / output control function 37c displays the human body schematic image 51 and the list 52 in parallel on the display 32. In this case, the operator can select the target part by any selection method from the human body schematic image 51 and the list 52. That is, the operator may select an image of a desired part on the human body schematic image 51 or may select a column of a desired part on the list 52.

(第2の実施形態)
第2の実施形態では、部位の選択を受け付けた後に、選択された部位を構成する詳細な部位の選択を受け付けたり、若しくは選択された部位の表示位置、表示方向、及び表示倍率を指定したりする場合について説明する。
(Second Embodiment)
In the second embodiment, after receiving the selection of the part, the selection of the detailed part constituting the selected part is accepted, or the display position, the display direction, and the display magnification of the selected part are specified. The case where it does is demonstrated.

なお、第2の実施形態に係るX線CT装置1は、図2に例示したX線CT装置1と同様の構成を備え、入出力制御機能37c及び生成機能37dの処理の一部が相違する。そこで、第2の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した機能と同様の機能を有する点については、説明を省略する。   Note that the X-ray CT apparatus 1 according to the second embodiment has the same configuration as that of the X-ray CT apparatus 1 illustrated in FIG. 2, and part of the processing of the input / output control function 37c and the generation function 37d is different. . Therefore, in the second embodiment, the description will focus on the points different from the first embodiment, and the description of the points having the same functions as the functions described in the first embodiment will be omitted.

入出力制御機能37cは、検出機能37aによって検出された複数の部位のうち所望の部位を選択する操作を受け付けた場合に、選択された部位に含まれる詳細な部位の名称の一覧である詳細リストを表示するためのリスト表示ボタンと、選択された部位の模式図を表す画像を表示するための画像表示ボタンとを表示させる。そして、リスト表示ボタンが選択された場合には、入出力制御機能37cは、詳細リストを表示させ、詳細リストに含まれる詳細な部位のうち所望の詳細な部位を選択する操作を受け付ける。一方、画像表示ボタンが選択された場合には、入出力制御機能37cは、部位の模式図の画像を表示させ、この画像に対する表示位置、表示方向、及び表示倍率の変更を受け付ける。   The input / output control function 37c is a detailed list that is a list of names of detailed parts included in the selected part when an operation for selecting a desired part among the plurality of parts detected by the detection function 37a is received. A list display button for displaying the image and an image display button for displaying an image representing a schematic diagram of the selected part are displayed. When the list display button is selected, the input / output control function 37c displays a detailed list, and accepts an operation of selecting a desired detailed part from the detailed parts included in the detailed list. On the other hand, when the image display button is selected, the input / output control function 37c displays an image of a schematic diagram of the part, and accepts changes in the display position, display direction, and display magnification with respect to this image.

生成機能37dは、リスト表示ボタンが選択された場合には、詳細リストにおいて選択された詳細な部位に対応する表示設定に基づいて、ボリュームデータから表示画像データを生成する。また、生成機能37dは、画像表示ボタンが選択された場合には、変更された表示位置、表示方向、及び表示倍率を用いて、ボリュームデータから表示画像データを生成する。   When the list display button is selected, the generation function 37d generates display image data from the volume data based on the display setting corresponding to the detailed part selected in the detailed list. In addition, when the image display button is selected, the generation function 37d generates display image data from the volume data using the changed display position, display direction, and display magnification.

図19は、第2の実施形態に係る入出力制御機能37c及び生成機能37dの処理を説明するための図である。図19には、目的部位の選択操作に伴って遷移する表示画面(User Interface)を例示する。なお、図19の手順S40において表示される人体模式画像51は、図12に示した人体模式画像51と同様である。   FIG. 19 is a diagram for explaining processing of the input / output control function 37c and the generation function 37d according to the second embodiment. FIG. 19 exemplifies a display screen (User Interface) that transitions with a target site selection operation. The human body schematic image 51 displayed in step S40 of FIG. 19 is the same as the human body schematic image 51 shown in FIG.

図19に示すように、操作者が「心臓」の画像上にマウスカーソルを移動させてクリック操作を行うと(手順S40)、入出力制御機能37cは、ミニウインドウ70をディスプレイ32に表示させる(手順S41)。このミニウインドウ70は、リスト表示ボタン71と、画像表示ボタン72とを含む。このうち、リスト表示ボタン71は、「心臓」に含まれる詳細な部位の名称の一覧である詳細リストを表示するためのボタンである。また、画像表示ボタン72は、「心臓」の模式図を表す画像を表示するためのボタンである。   As shown in FIG. 19, when the operator moves the mouse cursor over the “heart” image and performs a click operation (step S40), the input / output control function 37c displays the mini window 70 on the display 32 (see FIG. 19). Procedure S41). The mini window 70 includes a list display button 71 and an image display button 72. Among these, the list display button 71 is a button for displaying a detailed list that is a list of names of detailed parts included in the “heart”. The image display button 72 is a button for displaying an image representing a schematic diagram of “heart”.

ここで、操作者がリスト表示ボタン71上にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、ミニウインドウ70をミニウインドウ73に切り替える。このミニウインドウ73は、「左心房」、「右心室」、「大動脈付近」・・・など、心臓に含まれる詳細な部位の名称の一覧(リスト)である。このミニウインドウ73に表示される詳細な部位の名称の一覧は、部位ごとに設定されており、記憶回路35に予め記憶されている。ミニウインドウ73において、例えば、操作者が「大動脈付近」の欄にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、目的部位として「心臓の大動脈付近」が選択されたものとして受け付ける(手順S42)。そして、入出力制御機能37cは、目的部位「心臓の大動脈付近」を表示する旨の情報を、生成機能37dへ出力する。   Here, when the operator moves the mouse cursor onto the list display button 71 and performs a click operation, the input / output control function 37 c switches the mini window 70 to the mini window 73. This mini window 73 is a list of names of detailed parts included in the heart, such as “left atrium”, “right ventricle”, “near the aorta”, and so on. A list of detailed part names displayed in the mini window 73 is set for each part and is stored in the storage circuit 35 in advance. In the mini window 73, for example, when the operator moves the mouse cursor to the “near the aorta” field and performs a click operation, the input / output control function 37c has selected “near the aorta of the heart” as the target site. (Step S42). Then, the input / output control function 37c outputs information indicating that the target portion “near the aorta of the heart” is displayed to the generation function 37d.

生成機能37dは、目的部位「心臓の大動脈付近」を表示する旨の情報を入出力制御機能37cから受け付けると、表示設定リスト35aを参照し、心臓の大動脈付近に対応する表示設定を読み出す。そして、生成機能37dは、読み出した心臓の大動脈付近の表示設定を用いて、心臓の大動脈付近のボリュームデータに対するレンダリング処理(SVR処理)を行う。この結果、生成機能37dは、心臓の大動脈付近が見やすく描出されたSVR画像データを生成する。そして、表示制御機能37eは、生成機能37dにより生成されたSVR画像データに基づいて、表示画像60をディスプレイ32に表示させる(手順S43)。   When the generation function 37d receives information from the input / output control function 37c to display the target site “near the aorta of the heart” from the input / output control function 37c, the generation function 37d reads the display setting corresponding to the vicinity of the aorta of the heart. Then, the generation function 37d performs rendering processing (SVR processing) on the volume data in the vicinity of the heart aorta using the read display setting in the vicinity of the heart aorta. As a result, the generation function 37d generates SVR image data in which the vicinity of the aorta of the heart is depicted in an easily viewable manner. Then, the display control function 37e displays the display image 60 on the display 32 based on the SVR image data generated by the generation function 37d (step S43).

一方、操作者が画像表示ボタン72上にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、ミニウインドウ70をミニウインドウ74に切り替える(手順S44)。このミニウインドウ74には、心臓の模式図75が表示されている。このミニウインドウ74に表示される部位の模式図75は、部位ごとに設定されており、記憶回路35に予め記憶されている。ミニウインドウ74において、例えば、操作者のマウス操作により模式図75の移動、回転、拡大/縮小などが行われると、入出力制御機能37cは、行われた操作に応じて模式図75の移動、回転、拡大/縮小などを実行する(手順S45)。そして、操作者は、模式図75が所望の表示位置、表示方向、及び表示倍率になったと判断すると、模式図75の表示位置、表示方向、及び表示倍率を確定する操作を行う。模式図75の表示位置、表示方向、及び表示倍率を確定する操作が行われると、入出力制御機能37cは、目的部位「心臓」を模式図75の表示位置、表示方向、及び表示倍率で表示する旨の指示として受け付ける。そして、入出力制御機能37cは、目的部位「心臓」を模式図75の表示位置、表示方向、及び表示倍率で表示する旨の指示を、生成機能37dへ出力する。   On the other hand, when the operator moves the mouse cursor onto the image display button 72 and performs a click operation, the input / output control function 37c switches the mini window 70 to the mini window 74 (step S44). In this mini window 74, a schematic diagram 75 of the heart is displayed. A schematic diagram 75 of the part displayed in the mini window 74 is set for each part and is stored in the storage circuit 35 in advance. In the mini window 74, for example, when the movement, rotation, enlargement / reduction, or the like of the schematic diagram 75 is performed by an operator's mouse operation, the input / output control function 37c moves the schematic diagram 75 according to the performed operation. Rotation, enlargement / reduction, and the like are executed (step S45). When the operator determines that the schematic diagram 75 has reached the desired display position, display direction, and display magnification, the operator performs an operation of determining the display position, display direction, and display magnification of the schematic diagram 75. When an operation for determining the display position, display direction, and display magnification of the schematic diagram 75 is performed, the input / output control function 37c displays the target site “heart” at the display position, display direction, and display magnification of the schematic diagram 75. It is accepted as an instruction to do so. Then, the input / output control function 37c outputs an instruction to display the target site “heart” with the display position, display direction, and display magnification of the schematic diagram 75 to the generation function 37d.

生成機能37dは、目的部位「心臓」を模式図75の表示位置、表示方向、及び表示倍率で表示する旨の指示を入出力制御機能37cから受け付けると、表示設定リスト35aを参照し、心臓に対応する表示設定を読み出す。そして、生成機能37dは、読み出した心臓の表示設定を用いて、心臓の表示画像データを生成する。このとき、生成機能37dは、表示設定リスト35aから読み出した表示設定に表示位置、表示方向、及び表示倍率が含まれている場合には、模式図75の表示位置、表示方向、及び表示倍率を優先的に用いて、表示画像データを生成する。例えば、生成機能37dは、表示設定リスト35aから読み出した不透過度及び輝度と、模式図75により指定された表示位置、表示方向、及び表示倍率とを用いて、表示画像データを生成する。そして、表示制御機能37eは、生成機能37dにより生成された表示画像データに基づいて、表示画像60をディスプレイ32に表示させる(手順S46)。   When the generation function 37d receives an instruction from the input / output control function 37c to display the target site “heart” at the display position, display direction, and display magnification in the schematic diagram 75, the display function list 37a refers to the display setting list 35a. Read the corresponding display settings. Then, the generation function 37d generates heart display image data using the read heart display settings. At this time, when the display setting read from the display setting list 35a includes the display position, the display direction, and the display magnification, the generation function 37d displays the display position, the display direction, and the display magnification of the schematic diagram 75. Display image data is generated with priority. For example, the generation function 37d generates display image data using the opacity and luminance read from the display setting list 35a, and the display position, display direction, and display magnification specified by the schematic diagram 75. Then, the display control function 37e displays the display image 60 on the display 32 based on the display image data generated by the generation function 37d (step S46).

このように、第2の実施形態に係るX線CT装置1は、部位の選択を受け付けた後に、選択された部位を構成する詳細な部位の選択を受け付けたり、選択された部位の表示位置、表示方向、及び表示倍率を指定したりすることができる。   As described above, the X-ray CT apparatus 1 according to the second embodiment accepts selection of a detailed part constituting the selected part after accepting selection of the part, or displays a position of the selected part, The display direction and display magnification can be designated.

なお、図19は一例に過ぎず、図19の例に限定されるものではない。例えば、図19では、ミニウインドウ70を表示することで、詳細な部位の選択を行う場合(リスト表示ボタン71が押下される場合)と、部位の表示位置、表示方向、及び表示倍率の指定を行う場合(画像表示ボタン72が押下される場合)とを選択可能な場合を説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、詳細な部位の選択を行う「リスト表示モード」と、部位の表示位置、表示方向、及び表示倍率の指定を行う「画像表示モード」とが予め設定されてもよい。   Note that FIG. 19 is merely an example, and the present invention is not limited to the example of FIG. For example, in FIG. 19, by displaying the mini window 70, when selecting a detailed part (when the list display button 71 is pressed), specifying the display position, display direction, and display magnification of the part. The case where it is possible to select (when the image display button 72 is pressed) has been described. However, the embodiment is not limited to this. For example, a “list display mode” for selecting a detailed part and an “image display mode” for specifying a display position, a display direction, and a display magnification of the part may be set in advance.

例えば、「リスト表示モード」においては、操作者が「心臓」の画像上にマウスカーソルを移動させてクリック操作を行うと(手順S40)、入出力制御機能37cは、ミニウインドウ73をディスプレイ32に表示させる(手順S42)。そして、ミニウインドウ73において、例えば、操作者が「大動脈付近」の欄にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、目的部位として「心臓の大動脈付近」が選択されたものとして受け付ける。このように、入出力制御機能37cは、「リスト表示モード」を用いて、部位を構成する詳細な部位の選択を受け付けてもよい。   For example, in the “list display mode”, when the operator moves the mouse cursor over the “heart” image and performs a click operation (step S40), the input / output control function 37c displays the mini window 73 on the display 32. Display (step S42). In the mini window 73, for example, when the operator moves the mouse cursor to the “near the aorta” column and performs a click operation, the input / output control function 37c selects “near the aorta of the heart” as the target site. Accept as As described above, the input / output control function 37c may accept selection of a detailed part constituting the part by using the “list display mode”.

また、例えば、「画像表示モード」においては、操作者が「心臓」の画像上にマウスカーソルを移動させてクリック操作を行うと(手順S40)、入出力制御機能37cは、ミニウインドウ74をディスプレイ32に表示させる(手順S44)。そして、ミニウインドウ74において、例えば、操作者のマウス操作により模式図75の移動、回転、拡大/縮小などが行われると、入出力制御機能37cは、行われた操作に応じて模式図75の移動、回転、拡大/縮小などを実行する(手順S45)。模式図75の表示位置、表示方向、及び表示倍率を確定する操作が行われると、入出力制御機能37cは、目的部位「心臓」を模式図75の表示位置、表示方向、及び表示倍率で表示する旨の指示として受け付ける。このように、入出力制御機能37cは、「画像表示モード」を用いて、目的部位「心臓」の表示位置、表示方向、及び表示倍率を受け付けてもよい。   For example, in the “image display mode”, when the operator moves the mouse cursor over the “heart” image and performs a click operation (step S40), the input / output control function 37c displays the mini window 74. 32 (step S44). Then, in the mini window 74, for example, when the movement, rotation, enlargement / reduction, and the like of the schematic diagram 75 are performed by the operator's mouse operation, the input / output control function 37c is changed to the schematic diagram 75 according to the performed operation. Movement, rotation, enlargement / reduction, and the like are executed (step S45). When an operation for determining the display position, display direction, and display magnification of the schematic diagram 75 is performed, the input / output control function 37c displays the target site “heart” at the display position, display direction, and display magnification of the schematic diagram 75. It is accepted as an instruction to do so. As described above, the input / output control function 37c may receive the display position, the display direction, and the display magnification of the target site “heart” using the “image display mode”.

また、図19では、人体模式画像51上で部位が選択される場合を説明したが、実施形態はこれに限定されるものではない。例えば、第1の実施形態の変形例1,2において説明したように、リスト52、若しくはMPR画像53上で部位を選択する操作を受け付けても良い。   Moreover, although FIG. 19 demonstrated the case where a site | part was selected on the human body schematic image 51, embodiment is not limited to this. For example, as described in the first and second modifications of the first embodiment, an operation for selecting a part on the list 52 or the MPR image 53 may be accepted.

(第3の実施形態)
第3の実施形態では、部位の選択を受け付けた後に、選択された部位に対応する表示設定に基づいて表示画像データを表示し、更に当該選択された部位に応じた後処理を自動指定する場合について説明する。
(Third embodiment)
In the third embodiment, after receiving selection of a part, display image data is displayed based on display settings corresponding to the selected part, and further post-processing corresponding to the selected part is automatically designated Will be described.

なお、第3の実施形態に係るX線CT装置1は、図2に例示したX線CT装置1とほぼ同様の構成を備え、処理回路37の構成のみ相違する。そこで、第3の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した機能と同様の機能を有する点については、説明を省略する。   Note that the X-ray CT apparatus 1 according to the third embodiment has substantially the same configuration as the X-ray CT apparatus 1 illustrated in FIG. 2, and only the configuration of the processing circuit 37 is different. Therefore, in the third embodiment, the description will focus on the points that differ from the first embodiment, and the description of the points having the same functions as the functions described in the first embodiment will be omitted.

なお、第3の実施形態に係る記憶回路35は、第1の実施形態にて説明した構成に加えて、検出機能37aによって検出された複数の部位に対応する後処理の候補のリスト(後処理リスト)を更に記憶している。記憶回路35が記憶する後処理リストに関しては後述する。   In addition to the configuration described in the first embodiment, the storage circuit 35 according to the third embodiment includes a list of post-processing candidates (post-processing) corresponding to a plurality of parts detected by the detection function 37a. (List) is further memorized. The post-processing list stored in the storage circuit 35 will be described later.

図20は、第3の実施形態に係る処理回路37の構成を示すブロック図である。   FIG. 20 is a block diagram illustrating a configuration of the processing circuit 37 according to the third embodiment.

図20に示すように、第3の実施形態に係る処理回路37Bは、第1の実施形態で説明した処理回路37に加えて、後処理機能37fを有する。   As shown in FIG. 20, the processing circuit 37B according to the third embodiment has a post-processing function 37f in addition to the processing circuit 37 described in the first embodiment.

後処理機能37fは、表示画像データ或いはボリュームデータに対して後処理を実行し、部位に関する情報を後処理結果として出力する。なお、後処理機能37fは、後処理部の一例である。   The post-processing function 37f performs post-processing on the display image data or the volume data, and outputs information about the part as a post-processing result. The post-processing function 37f is an example of a post-processing unit.

例えば、後処理機能37fは、検出機能37aによって検出された複数の部位のうち、操作者から所望の部位の選択を受け付けた場合に、選択された部位をボリュームデータから検出し、当該検出された部位に対応する後処理を記憶回路35から読み込んで、当該部位の再構成後のボリュームデータに対して後処理を実行する。なお、検出機能37aによる部位のボリュームデータからの検出方法は、第1の実施形態に記したとおりである。   For example, when the post-processing function 37f receives selection of a desired part from the operator among a plurality of parts detected by the detection function 37a, the post-processing function 37f detects the selected part from the volume data and detects the detected part. The post-process corresponding to the part is read from the storage circuit 35, and the post-process is executed on the volume data after the reconfiguration of the part. Note that the detection method from the volume data of the part by the detection function 37a is as described in the first embodiment.

また、後処理機能37fは、記憶回路35に記憶される後処理リストを参照し、心臓に対応する後処理を検出機能37aによって検出された部位のボリュームデータに対して自動で実行する。また、後処理機能37fは後処理実行後に表示制御機能37eを介して後処理結果をディスプレイ32へと表示させる。   The post-processing function 37f refers to the post-processing list stored in the storage circuit 35, and automatically executes post-processing corresponding to the heart on the volume data of the part detected by the detection function 37a. Further, the post-processing function 37f displays the post-processing result on the display 32 via the display control function 37e after the post-processing is executed.

図21は、第3の実施形態に係る後処理リストの一例を示す図である。後処理リストは先述したとおり、記憶回路35に記憶される。図21に示すように、複数の部位に対応する後処理が記憶されている。図21に示すように、部位に応じて対応する後処理の種類が複数ある場合も存在する。例えば、部位が「肝臓」の場合には対応する後処理は、「解析C」のみしかないが、部位が「心臓」の場合には対応する後処理が「解析A」、「解析B」など複数存在する場合がある。   FIG. 21 is a diagram illustrating an example of a post-processing list according to the third embodiment. The post-processing list is stored in the storage circuit 35 as described above. As shown in FIG. 21, post-processing corresponding to a plurality of parts is stored. As shown in FIG. 21, there are cases where there are a plurality of types of post-processing corresponding to the parts. For example, if the part is “liver”, the corresponding post-processing is only “analysis C”, but if the part is “heart”, the corresponding post-processing is “analysis A”, “analysis B”, etc. There may be more than one.

なお、図21に示す「心臓」に対応する後処理の一例としては、心機能解析、冠動脈解析、石灰化スコア解析が該当する。「肝臓」に対応する後処理の一例としては、パフュージョン解析が該当する。「肺」に対応する後処理の一例としては、肺機能解析や肺結節解析が該当する。   Note that examples of post-processing corresponding to “heart” shown in FIG. 21 include cardiac function analysis, coronary artery analysis, and calcification score analysis. An example of post-processing corresponding to “liver” is perfusion analysis. An example of post-processing corresponding to “lung” corresponds to lung function analysis and lung nodule analysis.

後処理機能37fは、選択された部位に対応する後処理が一つの場合には、当該後処理を自動で実行すればよい。一方、選択された部位に対応する後処理が複数存在する場合には、後処理機能37fは、表示制御機能37eを介して、操作者に複数の後処理に関する選択操作を受け付けるための表示を提供する。この場合、後処理機能37fは、操作者から受け付けた後処理のみを実行する。   The post-processing function 37f may automatically execute the post-processing when there is one post-processing corresponding to the selected part. On the other hand, when there are a plurality of post-processing corresponding to the selected part, the post-processing function 37f provides the operator with a display for accepting a selection operation related to the plurality of post-processing via the display control function 37e. To do. In this case, the post-processing function 37f executes only the post-processing accepted from the operator.

図22は、選択された部位に対応する後処理が複数存在する場合における、後処理の選択表示の一例を示す図である。例えば、選択された部位が「心臓」で対応する後処理が複数存在する場合には、実行可能な複数の後処理の候補(例えば、解析A、解析B)を提示し、操作者から選択を受け付ける。言い換えると、後処理機能37fは、検出機能37aによって部位が複数検出され、かつ、検出された複数の部位のうち少なくとも一つの部位を選択する操作を受け付けた場合に、選択された部位に対応する後処理が複数存在する場合に、表示制御機能37eを介して複数の後処理に関する選択操作を受け付けるための表示を提供する。   FIG. 22 is a diagram illustrating an example of a post-processing selection display when there are a plurality of post-processing corresponding to the selected part. For example, when the selected part is “heart” and there are a plurality of corresponding post-processing, a plurality of possible post-processing candidates (for example, analysis A and analysis B) are presented and selected by the operator. Accept. In other words, the post-processing function 37f corresponds to a selected part when a plurality of parts are detected by the detection function 37a and an operation for selecting at least one part among the detected parts is accepted. When there are a plurality of post-processing, a display for accepting a selection operation related to the plurality of post-processing is provided via the display control function 37e.

なお、選択された部位に対応する後処理を実行するために必要なデータが揃っていない場合には、後処理機能37fは、表示制御機能37eを介して、後処理を実行するために必要なデータが不足している旨をディスプレイ32等に表示することにしても構わない。例えば、「脳」に対応する後処理である脳血流解析を実行するには、造影剤を利用した複数時相の撮影を行う必要があるが、複数時相のボリュームデータが取得されていない場合には脳血流解析を実行することができない。このとき、後処理機能37fは、表示制御機能37eを介して後処理を実行するためには、複数時相のボリュームデータを取得する必要がある旨を表示させる。   If the data necessary for executing the post-processing corresponding to the selected part is not available, the post-processing function 37f is necessary for executing the post-processing via the display control function 37e. The fact that the data is insufficient may be displayed on the display 32 or the like. For example, in order to perform cerebral blood flow analysis, which is a post-processing corresponding to “brain”, it is necessary to perform imaging at a plurality of time phases using a contrast agent, but volume data at a plurality of time phases has not been acquired. In some cases, cerebral blood flow analysis cannot be performed. At this time, the post-processing function 37f displays that it is necessary to acquire volume data of a plurality of time phases in order to execute post-processing via the display control function 37e.

また、選択された部位に対応する後処理が複数存在する場合において、当該後処理を実行するために必要なデータ不足している場合には、後処理機能37fは、表示制御機能37eを介してディスプレイ32に表示する後処理選択受付画面上にて、実行可能な後処理と実行できない後処理を区別して表示することにしても構わない。例えば、複数の後処理候補の内、データが足りないために実行できないものに関しては、表示を薄くすることが該当する。   Further, when there are a plurality of post-processes corresponding to the selected part and there is a lack of data necessary for executing the post-process, the post-process function 37f is sent via the display control function 37e. On the post-processing selection reception screen displayed on the display 32, executable post-processing and non-executable post-processing may be displayed separately. For example, for a plurality of post-processing candidates that cannot be executed because of insufficient data, it is appropriate to reduce the display.

また、後処理機能37fは、表示制御機能37eを介して実行した後処理の結果をディスプレイ32へと出力する。   In addition, the post-processing function 37f outputs the result of the post-processing executed through the display control function 37e to the display 32.

図23は、第3の実施形態に係るX線CT装置1による処理手順を示すフローチャートである。   FIG. 23 is a flowchart illustrating a processing procedure performed by the X-ray CT apparatus 1 according to the third embodiment.

図23に示すフローチャートの内、ステップS301からステップS306は、図15にて説明した第1の実施形態のフローチャートのステップS201からステップS206と同じであるため説明を割愛する。   In the flowchart shown in FIG. 23, steps S301 to S306 are the same as steps S201 to S206 in the flowchart of the first embodiment described with reference to FIG.

ステップS307において、生成機能37dは、読み出した部位の表示設定に基づいて、検出機能37aを介して抽出された部位に対応する表示画像データを生成する。   In step S307, the generation function 37d generates display image data corresponding to the part extracted via the detection function 37a based on the read display setting of the part.

ステップS308において、表示制御機能37eは、表示画像データを表示させる。   In step S308, the display control function 37e displays the display image data.

ステップS309において、後処理機能37fは、ステップS305で選択された部位に対応する後処理を記憶回路35から読み込み、選択された部位に対応する後処理が複数存在する場合には次のステップS310へと進み、選択された部位に対応する後処理が一つしか存在しない場合にはステップS311へと進む。   In step S309, the post-processing function 37f reads the post-processing corresponding to the part selected in step S305 from the storage circuit 35. If there are a plurality of post-processing corresponding to the selected part, the process proceeds to the next step S310. If there is only one post-process corresponding to the selected part, the process proceeds to step S311.

ステップS310において、後処理機能37fは、表示制御機能37eを介して選択された部位に対応する複数の後処理の候補の選択画面をディスプレイ32へと表示させる。入出力制御機能37cは、操作者から複数の後処理の候補の内、所望の後処理の選択を受け付ける。   In step S310, the post-processing function 37f causes the display 32 to display a plurality of post-processing candidate selection screens corresponding to the part selected via the display control function 37e. The input / output control function 37c receives a selection of a desired post-process from a plurality of post-process candidates from the operator.

ステップS311において、後処理機能37fは、入出力制御機能37cが受け付けた後処理をステップS305において選択された部位に対して実行し、表示制御機能37eを介して当該後処理の結果をディスプレイ32へと出力する。   In step S311, the post-processing function 37f executes the post-processing accepted by the input / output control function 37c for the part selected in step S305, and the result of the post-processing is displayed on the display 32 via the display control function 37e. Is output.

なお、以上説明した第3の実施形態では、後処理はコンソール30の処理回路37の一機能として実行されるものとして説明したが、本実施形態はこの構成に限定されず、X線CT装置1とネットワーク4を介して接続されるワークステーションにて後処理を実行することにしても構わない。つまり、ワークステーションは、X線CT装置1からボリュームデータを受け取った後に、ステップS305以降の処理を行なうことにしても構わない。   In the third embodiment described above, the post-processing is described as being executed as one function of the processing circuit 37 of the console 30. However, the present embodiment is not limited to this configuration, and the X-ray CT apparatus 1 And post-processing may be executed at a workstation connected via the network 4. That is, after receiving volume data from the X-ray CT apparatus 1, the workstation may perform the processing after step S305.

また、第3の実施形態では、部位の選択を受け付けた後に、表示設定を行った当該部位の表示画像データを表示した後に、後処理を実行するものとして説明したが、当該部位の表示設定及び表示画像データの表示は省略し、選択された部位に対応する後処理のみを実行することにしても構わない。また、第3の実施形態では、ボリュームデータに対して後処理を実行する場合を説明したが、これに限らず、後処理機能37fは、表示画像データに対して後処理を実行してもよい。   In the third embodiment, after the selection of the part is received, the display image data of the part for which the display setting has been performed is displayed, and then the post-processing is performed. Display of display image data may be omitted, and only post-processing corresponding to the selected part may be executed. In the third embodiment, the case where post-processing is performed on volume data has been described. However, the present invention is not limited to this, and the post-processing function 37f may perform post-processing on display image data. .

以上説明した第3の実施形態によれば、部位の選択を受け付けた後に、当該部位に対応する後処理を自動で実行することが可能になる。また、当該部位に対応する後処理が複数存在する場合には、選択可能な後処理の候補を操作者に提示することが可能になる。また、選択された部位に対応する後処理が実行できない場合には、その旨を操作者に通知することが可能となる。これにより、後処理に係る操作者の負担を軽減することが可能となり、ワークフローの改善に寄与することができる。   According to the third embodiment described above, after accepting selection of a part, it is possible to automatically execute post-processing corresponding to the part. Further, when there are a plurality of post-processing corresponding to the part, it is possible to present a selectable post-processing candidate to the operator. In addition, when the post-processing corresponding to the selected part cannot be executed, it is possible to notify the operator to that effect. As a result, the burden on the operator related to post-processing can be reduced, which can contribute to the improvement of the workflow.

(その他の実施形態)
上述した実施形態以外にも、種々の異なる形態にて実施されてもよい。
(Other embodiments)
In addition to the above-described embodiment, various other forms may be implemented.

(複数部位の個別表示)
上記の実施形態では、所望の部位を1つ選択する操作を受け付けて、表示画像データを生成する場合を説明したが、実施形態はこれに限定されるものではない。例えば、X線CT装置1は、所望の部位として2以上の部位を選択する操作を受け付けて、それぞれの部位の表示画像を個別に表示してもよい。
(Individual display of multiple parts)
In the above embodiment, the case where the operation of selecting one desired part is received and the display image data is generated has been described, but the embodiment is not limited to this. For example, the X-ray CT apparatus 1 may receive an operation of selecting two or more parts as desired parts and individually display a display image of each part.

入出力制御機能37cは、複数の部位のうち2以上の部位を選択する操作を受け付ける。例えば、入出力制御機能37cは、目的部位として「肝臓」と「膵臓」とを選択する操作をそれぞれ個別に受け付ける。   The input / output control function 37c accepts an operation of selecting two or more parts among a plurality of parts. For example, the input / output control function 37c individually accepts operations for selecting “liver” and “pancreas” as target portions.

生成機能37dは、2以上の部位それぞれに対応する表示設定に基づいて、2以上の部位それぞれの表示画像データを生成する。例えば、生成機能37dは、目的部位「肝臓」に対応する表示設定を記憶回路35から読み出し、読み出した肝臓の表示設定に基づいて、肝臓の表示画像データを生成する。また、例えば、生成機能37dは、目的部位「膵臓」に対応する表示設定を記憶回路35から読み出し、読み出した膵臓の表示設定に基づいて、膵臓の表示画像データを生成する。   The generation function 37d generates display image data for each of the two or more parts based on the display settings corresponding to each of the two or more parts. For example, the generation function 37d reads the display setting corresponding to the target site “liver” from the storage circuit 35, and generates the display image data of the liver based on the read display setting of the liver. Further, for example, the generation function 37d reads the display setting corresponding to the target site “pancreas” from the storage circuit 35, and generates display image data of the pancreas based on the read display setting of the pancreas.

表示制御機能37eは、生成された2以上の部位それぞれの表示画像データそれぞれを異なる表示領域に表示させる。例えば、表示制御機能37eは、生成機能37dによって生成された肝臓の表示画像データと、膵臓の表示画像データとを、それぞれ異なるウインドウに表示させる。これにより、X線CT装置1は、所望の部位として2以上の部位を選択する操作を受け付けて、それぞれの部位の表示画像を個別に表示することができる。   The display control function 37e displays the generated display image data of each of the two or more parts in different display areas. For example, the display control function 37e displays the liver display image data generated by the generation function 37d and the pancreas display image data in different windows. Thereby, the X-ray CT apparatus 1 can receive an operation of selecting two or more parts as desired parts, and can individually display a display image of each part.

(複数部位の組み合わせ表示)
また、例えば、X線CT装置1は、所望の部位として2以上の部位を選択する操作を受け付けて、2以上の部位を組み合わせた1つの表示画像を表示してもよい。
(Combination display of multiple parts)
For example, the X-ray CT apparatus 1 may receive an operation of selecting two or more parts as desired parts and display one display image in which two or more parts are combined.

入出力制御機能37cは、複数の部位のうち2以上の部位を選択する操作を受け付ける。例えば、入出力制御機能37cは、目的部位として「肝臓」と「膵臓」とを選択する操作をそれぞれ個別に受け付ける。   The input / output control function 37c accepts an operation of selecting two or more parts among a plurality of parts. For example, the input / output control function 37c individually accepts operations for selecting “liver” and “pancreas” as target portions.

生成機能37dは、2以上の部位の組み合わせに対応する表示設定に基づいて、2以上の部位を含む表示画像データを生成する。例えば、生成機能37dは、「肝臓」と「膵臓」の組み合わせに対応する表示設定を記憶回路35から読み出し、読み出した「肝臓」と「膵臓」の組み合わせの表示設定に基づいて、肝臓と膵臓を含む1つの表示画像データを生成する。なお、この場合、記憶回路35は、「肝臓」と「膵臓」の組み合わせに対応する表示設定を予め記憶している。この表示設定は、肝臓及び膵臓の両者が見やすいように、不透過度、輝度、表示位置、表示方向、及び表示倍率などの条件が設定されている。   The generation function 37d generates display image data including two or more parts based on display settings corresponding to a combination of two or more parts. For example, the generation function 37d reads the display setting corresponding to the combination of “liver” and “pancreas” from the storage circuit 35, and selects the liver and pancreas based on the read display setting of the combination of “liver” and “pancreas”. One display image data including is generated. In this case, the storage circuit 35 stores in advance display settings corresponding to combinations of “liver” and “pancreas”. In this display setting, conditions such as opacity, luminance, display position, display direction, and display magnification are set so that both the liver and the pancreas are easy to see.

表示制御機能37eは、生成された2以上の部位を含む表示画像データを表示させる。例えば、表示制御機能37eは、生成機能37dによって生成された肝臓と膵臓を含む1つの表示画像データを、ディスプレイ32に表示させる。これにより、X線CT装置1は、肝臓及び膵臓の両者が見やすいように描出された表示画像を表示することができる。   The display control function 37e displays display image data including two or more generated parts. For example, the display control function 37e causes the display 32 to display one display image data including the liver and pancreas generated by the generation function 37d. Thereby, the X-ray CT apparatus 1 can display the display image drawn so that both the liver and the pancreas can be easily seen.

(検出不可の部位の表示)
上記の実施形態では、検出機能37aによって検出された部位が人体模式画像51上に選択可能に表示され、選択された部位の表示画像が生成/表示される場合を説明したが、実施形態はこれに限定されるものではない。例えば、検出機能37aによって検出されなかった部位があったとしても、表示画像として生成/表示可能である。
(Display of undetectable parts)
In the above embodiment, the case where the part detected by the detection function 37a is displayed in a selectable manner on the human body schematic image 51 and the display image of the selected part is generated / displayed has been described. It is not limited to. For example, even if there is a part not detected by the detection function 37a, it can be generated / displayed as a display image.

例えば、被検体の胴体部が撮影されたボリュームデータにおいて、肺、胃、肝臓、小腸、及び大腸が検出されたにもかかわらず、心臓が検出されない場合がある。このような場合、人体模式画像51には、肺、胃、肝臓、小腸、及び大腸が色付けされ、心臓は色付けされない状態で表示される。このような場合に、操作者が「心臓」の画像上にマウスカーソルを移動させてクリック操作を行うと、入出力制御機能37cは、「心臓は検出されなかった部位ですが表示しますか」などの確認メッセージを表示する。そして、操作者が確認メッセージを承認すると、入出力制御機能37cは、目的部位として「心臓」が選択されたものとして受け付ける。   For example, in the volume data obtained by imaging the body part of the subject, the heart may not be detected even though the lung, stomach, liver, small intestine, and large intestine are detected. In such a case, the human body schematic image 51 is displayed in a state where the lungs, stomach, liver, small intestine, and large intestine are colored and the heart is not colored. In such a case, if the operator moves the mouse cursor over the “heart” image and performs a click operation, the input / output control function 37c will “display the part where the heart was not detected?” A confirmation message such as When the operator approves the confirmation message, the input / output control function 37c accepts that “heart” is selected as the target part.

そして、生成機能37dは、心臓の表示設定に基づいて、ボリュームデータから表示画像データを生成する。この場合、例えば、生成機能37dは、肺や胃など、検出機能37aによって検出された臓器と心臓との位置関係に基づいて、ボリュームデータにおける心臓の位置を推定する。そして、生成機能37dは、推定した心臓の領域を含むボリュームデータ(スライス画像)を抽出し、表示画像データを生成する。   Then, the generation function 37d generates display image data from the volume data based on the heart display setting. In this case, for example, the generation function 37d estimates the position of the heart in the volume data based on the positional relationship between the organ such as the lung and stomach detected by the detection function 37a and the heart. Then, the generation function 37d extracts volume data (slice image) including the estimated heart region, and generates display image data.

このように、X線CT装置1は、検出機能37aによって検出されなかった部位があったとしても、当該部位を表示画像として生成/表示することができる。   Thus, even if there is a part that has not been detected by the detection function 37a, the X-ray CT apparatus 1 can generate / display the part as a display image.

(医用画像処理装置)
上記の実施形態及び変形例において説明した各機能は、医用画像処理装置において実行されてもよい。この場合、医用画像処理装置の処理回路は、被検体の複数の部位それぞれの位置が検出されたボリュームデータを記憶する記憶回路に接続されるとともに、図2に示した入出力制御機能37c、生成機能37d、及び表示制御機能37eを有する。
(Medical image processing device)
Each function described in the embodiment and the modification may be executed in the medical image processing apparatus. In this case, the processing circuit of the medical image processing apparatus is connected to the storage circuit that stores the volume data in which the positions of the plurality of parts of the subject are detected, and the input / output control function 37c shown in FIG. A function 37d and a display control function 37e are provided.

例えば、医用画像処理装置の処理回路は、被検体の複数の部位それぞれの位置が検出されたボリュームデータを取得する。そして、処理回路は、複数の部位のうち少なくとも一つの部位を選択する操作を受け付ける。そして、処理回路は、操作により選択された部位に対応する表示設定に基づいて、ボリュームデータから表示画像データを生成する。そして、処理回路は、生成された表示画像データを表示させる。   For example, the processing circuit of the medical image processing apparatus acquires volume data in which positions of a plurality of parts of the subject are detected. Then, the processing circuit accepts an operation for selecting at least one part among the plurality of parts. Then, the processing circuit generates display image data from the volume data based on the display setting corresponding to the part selected by the operation. Then, the processing circuit displays the generated display image data.

これによれば、医用画像処理装置は、所望の部位が見やすく描出された画像を簡易な操作で表示することができる。なお、ここでは、医用画像処理装置の処理回路が少なくとも入出力制御機能37c、生成機能37d、及び表示制御機能37eを有する場合を説明したが、実施形態はこれに限定されるものではない。例えば、医用画像処理装置の処理回路は、検出機能37a及び位置照合機能37bを有していても良い。この場合、医用画像処理装置の処理回路に接続される記憶回路は、被検体の複数の部位それぞれの位置が未検出のボリュームデータを記憶していてもよい。つまり、医用画像処理装置の処理回路が記憶回路からボリュームデータを取得し、取得したボリュームデータから、被検体の複数の部位それぞれの位置を検出してもよい。この場合、医用画像処理装置に備えられる検出機能37aは、被検体のボリュームデータの構造に基づいて、入出力制御機能37cが受け付けた被検体の部位を検出することができる。一例としては、検出機能37aは、操作者により選択された部位のみをボリュームデータから検出してもよい。   According to this, the medical image processing apparatus can display an image in which a desired part is drawn in an easy-to-see manner with a simple operation. Although the case where the processing circuit of the medical image processing apparatus has at least the input / output control function 37c, the generation function 37d, and the display control function 37e has been described here, the embodiment is not limited thereto. For example, the processing circuit of the medical image processing apparatus may have a detection function 37a and a position matching function 37b. In this case, the storage circuit connected to the processing circuit of the medical image processing apparatus may store volume data in which the positions of the plurality of parts of the subject are not detected. That is, the processing circuit of the medical image processing apparatus may acquire the volume data from the storage circuit, and detect the position of each of a plurality of parts of the subject from the acquired volume data. In this case, the detection function 37a provided in the medical image processing apparatus can detect the part of the subject accepted by the input / output control function 37c based on the volume data structure of the subject. As an example, the detection function 37a may detect only the part selected by the operator from the volume data.

また、上記の実施形態及び変形例では、架台10と天板22との相対位置の変化が天板22を制御することによって実現されるものとして説明したが、実施形態はこれに限定されるものではない。例えば、架台10が自走式である場合、架台10の走行を制御することによって架台10と天板22との相対位置の変化が実現されてもよい。   In the above-described embodiment and modification, the change in the relative position between the gantry 10 and the top plate 22 has been described as being realized by controlling the top plate 22, but the embodiment is limited to this. is not. For example, when the gantry 10 is self-propelled, a change in the relative position between the gantry 10 and the top plate 22 may be realized by controlling the traveling of the gantry 10.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、上述した表示設定リスト35aは、記憶回路35に限らず、例えば、ネットワーク4に接続された任意の記憶装置(外部記憶装置)に記憶されていてもよい。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the above-described display setting list 35 a is not limited to the storage circuit 35, and may be stored in, for example, an arbitrary storage device (external storage device) connected to the network 4. Further, all or a part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、上記の実施形態及び変形例において説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in the above embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or can be manually performed. All or part of the described processing can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、上記の実施形態及び変形例で説明した画像処理方法は、予め用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理方法は、インターネット等のネットワークを介して配布することができる。また、この画像処理方法は、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   In addition, the image processing methods described in the above-described embodiments and modifications can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This image processing method can be distributed via a network such as the Internet. The image processing method can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD, and being read from the recording medium by the computer. .

以上説明した少なくともひとつの実施形態によれば、所望の部位が見やすく描出された画像を簡易な操作で表示することができる。   According to at least one embodiment described above, it is possible to display an image in which a desired part is drawn in an easy-to-see manner with a simple operation.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 X線CT装置
37 処理回路
37a 検出機能
37c 入出力制御機能
37d 生成機能
37e 表示制御機能
1 X-ray CT apparatus 37 processing circuit 37a detection function 37c input / output control function 37d generation function 37e display control function

Claims (14)

被検体の部位ごとの表示設定を記憶する記憶部と、
入力操作に基づいて表示対象の部位の設定を受け付ける入出力制御部と、
前記被検体のボリュームデータの構造に基づいて、前記入出力制御部が受け付けた前記被検体の部位を検出する検出部と、
前記検出部によって検出された前記部位に対応する表示設定を前記記憶部から読み出して前記ボリュームデータに対して適用することにより、前記表示対象の部位の表示画像データを生成する生成部と、
前記生成部によって生成された前記表示画像データを表示部に表示させる表示制御部と
を備える、医用画像診断装置。
A storage unit for storing display settings for each part of the subject;
An input / output control unit that accepts setting of a display target part based on an input operation;
Based on the volume data structure of the subject, a detection unit that detects the portion of the subject received by the input / output control unit;
A generation unit that generates display image data of the display target part by reading out the display setting corresponding to the part detected by the detection unit from the storage unit and applying the display setting to the volume data;
A medical image diagnostic apparatus comprising: a display control unit that causes the display unit to display the display image data generated by the generation unit.
前記記憶部は、前記ボリュームデータの、輝度、不透過度、表示位置、表示方向、及び表示倍率のうち少なくとも一つを含む前記表示設定を部位ごとに記憶する、
請求項1に記載の医用画像診断装置。
The storage unit stores, for each part, the display setting including at least one of brightness, opacity, display position, display direction, and display magnification of the volume data.
The medical image diagnostic apparatus according to claim 1.
前記入出力制御部は、前記検出部によって前記部位が複数検出される場合に、検出された複数の部位が選択可能に表示される人体模式画像を前記表示部に表示させ、前記人体模式画像に選択可能に表示された部位のうち少なくとも一つの部位を選択する操作を受け付ける、
請求項1又は2に記載の医用画像診断装置。
When the detection unit detects a plurality of the parts, the input / output control unit causes the display unit to display a human body schematic image in which the detected plurality of parts are selectably displayed on the human body schematic image. Accepting an operation to select at least one of the parts displayed to be selectable;
The medical image diagnostic apparatus according to claim 1 or 2.
前記入出力制御部は、前記検出部によって前記部位が複数検出される場合に、検出された複数の部位それぞれの名称の一覧であるリストを前記表示部に表示させ、前記リストに含まれる部位のうち少なくとも一つの部位を選択する操作を受け付ける、
請求項1又は2に記載の医用画像診断装置。
When the detection unit detects a plurality of the parts, the input / output control unit displays a list that is a list of names of the plurality of detected parts on the display unit, and includes a list of the parts included in the list. Accept an operation to select at least one of the parts,
The medical image diagnostic apparatus according to claim 1 or 2.
前記入出力制御部は、前記検出部によって前記部位が複数検出される場合に、前記被検体のスキャノ画像及び前記ボリュームデータのレンダリング画像の少なくとも一つの画像において、検出された複数の部位が選択可能に表示された画像を前記表示部に表示させ、前記画像に選択可能に表示された部位のうち少なくとも一つの部位を選択する操作を受け付ける、
請求項1又は2に記載の医用画像診断装置。
The input / output control unit can select a plurality of detected parts in at least one of the scan image of the subject and the rendered image of the volume data when the detection part detects a plurality of the parts. The image displayed on the display unit is displayed on the display unit, and an operation of selecting at least one part among the parts displayed to be selectable in the image is received.
The medical image diagnostic apparatus according to claim 1 or 2.
前記入出力制御部は、
前記検出部によって前記部位が複数検出され、かつ、検出された複数の部位のうち少なくとも一つの部位を選択する操作を受け付けた場合に、選択された部位に含まれる詳細な部位の名称の一覧である詳細リストを表示するためのリスト表示ボタンと、選択された部位の模式図を表す画像を表示するための画像表示ボタンとを前記表示部に表示させ、
前記リスト表示ボタンが選択された場合には、前記詳細リストを前記表示部に表示させ、前記詳細リストに含まれる詳細な部位のうち少なくとも一つの詳細な部位の選択操作を受け付け、
前記画像表示ボタンが選択された場合には、前記画像を前記表示部に表示させ、表示させた前記画像に対する表示位置、表示方向、及び表示倍率の変更を受け付け、
前記生成部は、
前記リスト表示ボタンが選択された場合には、前記詳細リストにおいて選択された詳細な部位に対応する表示設定に基づいて、前記ボリュームデータから表示画像データを生成し、
前記画像表示ボタンが選択された場合には、変更された前記表示位置、前記表示方向、及び前記表示倍率を用いて、前記ボリュームデータから表示画像データを生成する、
請求項1〜5のいずれか一つに記載の医用画像診断装置。
The input / output control unit
When a plurality of the parts are detected by the detection unit and an operation of selecting at least one part among the plurality of detected parts is received, a list of detailed part names included in the selected part is displayed. A list display button for displaying a detailed list and an image display button for displaying an image representing a schematic diagram of the selected part are displayed on the display unit,
When the list display button is selected, the detailed list is displayed on the display unit, and an operation for selecting at least one detailed part among the detailed parts included in the detailed list is received.
When the image display button is selected, the display unit displays the image and accepts a change in display position, display direction, and display magnification with respect to the displayed image,
The generator is
When the list display button is selected, the display image data is generated from the volume data based on the display setting corresponding to the detailed part selected in the detailed list,
When the image display button is selected, display image data is generated from the volume data using the changed display position, the display direction, and the display magnification.
The medical image diagnostic apparatus according to any one of claims 1 to 5.
前記入出力制御部は、前記検出部によって前記部位が複数検出され、かつ、検出された複数の部位のうち少なくとも一つの部位を選択する操作を受け付けた場合に、選択された部位に含まれる詳細な部位の名称の一覧である詳細リストを前記表示部に表示させ、前記詳細リストに含まれる詳細な部位のうち少なくとも一つの詳細な部位を選択する操作を受け付け、
前記生成部は、選択された詳細な部位に対応する表示設定に基づいて、前記ボリュームデータから表示画像データを生成する、
請求項1〜5のいずれか一つに記載の医用画像診断装置。
The input / output control unit includes details included in the selected part when the plurality of parts are detected by the detection unit and an operation of selecting at least one part among the plurality of detected parts is received. A detailed list that is a list of names of various parts is displayed on the display unit, and an operation of selecting at least one detailed part among the detailed parts included in the detailed list is received,
The generation unit generates display image data from the volume data based on a display setting corresponding to the selected detailed part.
The medical image diagnostic apparatus according to any one of claims 1 to 5.
前記入出力制御部は、前記検出部によって前記部位が複数検出され、かつ、検出された複数の部位のうち少なくとも一つの部位を選択する操作を受け付けた場合に、選択された部位の模式図を表す画像を前記表示部に表示させ、表示させた画像に対する表示位置、表示方向、及び表示倍率の変更を受け付け、
前記生成部は、変更された前記表示位置、前記表示方向、及び前記表示倍率を用いて、前記ボリュームデータから表示画像データを生成する、
請求項1〜5のいずれか一つに記載の医用画像診断装置。
When the input / output control unit detects a plurality of the parts by the detecting unit and receives an operation of selecting at least one part among the detected parts, a schematic diagram of the selected part is displayed. An image to be displayed is displayed on the display unit, and a change in a display position, a display direction, and a display magnification with respect to the displayed image is received,
The generation unit generates display image data from the volume data using the changed display position, display direction, and display magnification.
The medical image diagnostic apparatus according to any one of claims 1 to 5.
前記生成部は、前記ボリュームデータから、前記操作により選択された部位の領域を含むボリュームデータを抽出し、抽出したボリュームデータを用いて、前記表示画像データを生成する、
請求項1〜8のいずれか一つに記載の医用画像診断装置。
The generation unit extracts volume data including a region of a part selected by the operation from the volume data, and generates the display image data using the extracted volume data.
The medical image diagnostic apparatus according to claim 1.
前記入出力制御部は、前記検出部によって前記部位が複数検出される場合に、検出された複数の部位のうち2以上の部位を選択する操作を受け付け、
前記生成部は、前記2以上の部位それぞれに対応する表示設定に基づいて、前記2以上の部位それぞれの表示画像データを生成し、
前記表示制御部は、生成された前記2以上の部位それぞれの表示画像データそれぞれを前記表示部の異なる表示領域に表示させる、
請求項1〜9のいずれか一つに記載の医用画像診断装置。
The input / output control unit receives an operation of selecting two or more parts among the plurality of detected parts when the plurality of parts are detected by the detection unit;
The generation unit generates display image data of each of the two or more parts based on display settings corresponding to the two or more parts,
The display control unit displays the generated display image data of each of the two or more parts in different display areas of the display unit;
The medical image diagnostic apparatus according to any one of claims 1 to 9.
前記入出力制御部は、前記検出部によって前記部位が複数検出される場合に、検出された複数の部位のうち2以上の部位を選択する操作を受け付け、
前記生成部は、前記2以上の部位の組み合わせに対応する表示設定に基づいて、前記2以上の部位を含む表示画像データを生成し、
前記表示制御部は、生成された前記2以上の部位を含む表示画像データを前記表示部に表示させる、
請求項1〜9のいずれか一つに記載の医用画像診断装置。
The input / output control unit receives an operation of selecting two or more parts among the plurality of detected parts when the plurality of parts are detected by the detection unit;
The generation unit generates display image data including the two or more parts based on a display setting corresponding to a combination of the two or more parts.
The display control unit causes the display unit to display display image data including the generated two or more parts.
The medical image diagnostic apparatus according to any one of claims 1 to 9.
前記表示画像データ或いは前記ボリュームデータに対して後処理を実行し、前記部位に関する情報を後処理結果として出力する後処理部を更に備え、
前記記憶部は、前記被検体の部位ごとに対応した後処理を更に記憶し、
前記後処理部は、前記入出力制御部が受け付けた部位に対応する後処理を前記記憶部から読み出して、前記表示画像データ或いは前記ボリュームデータに対する後処理を実行し、
前記表示制御部は、前記後処理部による後処理結果を表示する、
請求項1〜11のいずれか一つに記載の医用画像診断装置。
A post-processing unit that performs post-processing on the display image data or the volume data and outputs information on the part as a post-processing result;
The storage unit further stores post-processing corresponding to each part of the subject,
The post-processing unit reads post-processing corresponding to the part received by the input / output control unit from the storage unit, and executes post-processing on the display image data or the volume data,
The display control unit displays a post-processing result by the post-processing unit.
The medical image diagnostic apparatus according to any one of claims 1 to 11.
前記後処理部は、前記検出部によって前記部位が複数検出され、かつ、検出された複数の部位のうち少なくとも一つの部位を選択する操作を受け付けた場合に、当該部位に対応する後処理が複数存在する場合に、前記表示制御部を介して複数の後処理に関する選択操作を受け付けるための表示を提供する、
請求項12に記載の医用画像診断装置。
When the detection unit detects a plurality of the parts and receives an operation of selecting at least one part from the detected parts, a plurality of post-processing corresponding to the part are performed. Providing a display for accepting a selection operation related to a plurality of post-processing through the display control unit when present;
The medical image diagnostic apparatus according to claim 12.
被検体の部位ごとの表示設定を記憶する記憶部と、
入力操作に基づいて表示対象の部位の設定を受け付ける入出力制御部と、
前記被検体のボリュームデータの構造に基づいて、前記入出力制御部が受け付けた前記被検体の部位を検出する検出部と、
前記検出部によって検出された前記部位に対応する表示設定を前記記憶部から読み出して前記ボリュームデータに対して適用することにより、前記表示対象の部位の表示画像データを生成する生成部と、
前記生成部によって生成された前記表示画像データを表示部に表示させる表示制御部と
を備える、医用画像処理装置。
A storage unit for storing display settings for each part of the subject;
An input / output control unit that accepts setting of a display target part based on an input operation;
Based on the volume data structure of the subject, a detection unit that detects the portion of the subject received by the input / output control unit;
A generation unit that generates display image data of the display target part by reading out the display setting corresponding to the part detected by the detection unit from the storage unit and applying the display setting to the volume data;
A medical image processing apparatus comprising: a display control unit that causes the display unit to display the display image data generated by the generation unit.
JP2017091215A 2016-06-22 2017-05-01 Medical image diagnostic apparatus and medical image processor Abandoned JP2018000943A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/626,988 US20170372473A1 (en) 2016-06-22 2017-06-19 Medical imaging diagnosis apparatus and medical imaging processing apparatus
CN201710473471.8A CN107518911A (en) 2016-06-22 2017-06-21 Medical diagnostic imaging apparatus and medical image-processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016123625 2016-06-22
JP2016123625 2016-06-22

Publications (1)

Publication Number Publication Date
JP2018000943A true JP2018000943A (en) 2018-01-11

Family

ID=60944716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017091215A Abandoned JP2018000943A (en) 2016-06-22 2017-05-01 Medical image diagnostic apparatus and medical image processor

Country Status (1)

Country Link
JP (1) JP2018000943A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208835A (en) * 2018-06-04 2019-12-12 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208835A (en) * 2018-06-04 2019-12-12 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus
JP7199839B2 (en) 2018-06-04 2023-01-06 キヤノンメディカルシステムズ株式会社 X-ray CT apparatus and medical image processing method

Similar Documents

Publication Publication Date Title
JP7051307B2 (en) Medical image diagnostic equipment
US10470733B2 (en) X-ray CT device and medical information management device
JP6951117B2 (en) Medical diagnostic imaging equipment
US10540764B2 (en) Medical image capturing apparatus and method
JP7027046B2 (en) Medical image imaging device and method
JP6929695B2 (en) Medical diagnostic imaging equipment and management equipment
US11406333B2 (en) Medical image diagnosis apparatus and management apparatus
US20170372473A1 (en) Medical imaging diagnosis apparatus and medical imaging processing apparatus
JP7055599B2 (en) X-ray CT device
JP6797555B2 (en) Medical information processing device
JP6734111B2 (en) Finding information creation device and system
US20140005519A1 (en) Image-Assisted Diagnostic Evaluation
JP7144129B2 (en) Medical image diagnosis device and medical information management device
US10463328B2 (en) Medical image diagnostic apparatus
JP6925786B2 (en) X-ray CT device
US10835197B2 (en) Medical diagnostic-imaging apparatus and medical-information management apparatus
JP6824641B2 (en) X-ray CT device
JP2018000943A (en) Medical image diagnostic apparatus and medical image processor
JP6827761B2 (en) Medical diagnostic imaging equipment
JP6956514B2 (en) X-ray CT device and medical information management device
JP7199839B2 (en) X-ray CT apparatus and medical image processing method
JP6498516B2 (en) Medical image processing apparatus and X-ray CT apparatus
JP6855173B2 (en) X-ray CT device
JP6918443B2 (en) Medical information processing device
JP7179497B2 (en) X-ray CT apparatus and image generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20210104