JP2020096752A - Medical image processing device, x-ray diagnostic device and medical image processing program - Google Patents

Medical image processing device, x-ray diagnostic device and medical image processing program Download PDF

Info

Publication number
JP2020096752A
JP2020096752A JP2018237003A JP2018237003A JP2020096752A JP 2020096752 A JP2020096752 A JP 2020096752A JP 2018237003 A JP2018237003 A JP 2018237003A JP 2018237003 A JP2018237003 A JP 2018237003A JP 2020096752 A JP2020096752 A JP 2020096752A
Authority
JP
Japan
Prior art keywords
image processing
lesion
pixel
weight
slice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018237003A
Other languages
Japanese (ja)
Other versions
JP7242284B2 (en
Inventor
奈央子 倉富
Naoko Kuratomi
奈央子 倉富
智生 藤戸
Tomoki Fujito
智生 藤戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018237003A priority Critical patent/JP7242284B2/en
Publication of JP2020096752A publication Critical patent/JP2020096752A/en
Application granted granted Critical
Publication of JP7242284B2 publication Critical patent/JP7242284B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To improve visibility of a lesion in a combined 2D image with tomosynthesis imaging.SOLUTION: A medical image processing device according to an embodiment includes a detection unit and an image processing unit. The detection unit detects a position of a lesion of a breast in a plurality of tomographic images contained in three-dimensional medical data obtained by tomosynthesis-imaging the breast of a subject. The image processing unit generates two-dimensional image data by combining the plurality of tomographic images on the basis of the detected position of the lesion.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、医用画像処理装置、X線診断装置及び医用画像処理プログラムに関する。 Embodiments of the present invention relate to a medical image processing apparatus, an X-ray diagnostic apparatus, and a medical image processing program.

従来、乳房の検査において、X線診断装置によるトモシンセシス撮影が実行されている。具体的には、X線診断装置は、まず、乳房に対するX線の照射角度を変化させつつ、複数の投影データを収集する。次に、X線診断装置は、収集した複数の投影データに基づく再構成処理によって3次元医用データを生成する。ここで、医師等のユーザは、3次元医用データに含まれる複数の断層画像(スライス)を順次読影して、病変の観察を行なうことができる。 Conventionally, in breast examination, tomosynthesis imaging by an X-ray diagnostic apparatus is executed. Specifically, the X-ray diagnostic apparatus first collects a plurality of projection data while changing the irradiation angle of X-rays on the breast. Next, the X-ray diagnostic apparatus generates three-dimensional medical data by reconstruction processing based on the plurality of collected projection data. Here, a user such as a doctor can sequentially read a plurality of tomographic images (slices) included in the three-dimensional medical data to observe a lesion.

更に、3次元医用データに含まれる複数のスライスを合成することにより、2次元画像データ(合成2D画像)を生成する技術が知られている。かかる合成2D画像は、乳房全体の情報を有する2次元医用データである。即ち、ユーザは、合成2D画像を読影することで、乳房の全体を観察することができる。しかしながら、合成2D画像においては、個々のスライスに現れていた病変が暈けてしまい、観察しにくくなる場合があった。 Furthermore, a technique is known in which a plurality of slices included in three-dimensional medical data are combined to generate two-dimensional image data (combined 2D image). Such a synthetic 2D image is two-dimensional medical data having information on the entire breast. That is, the user can observe the entire breast by reading the composite 2D image. However, in the synthetic 2D image, the lesions appearing in the individual slices may be blurred, making it difficult to observe.

特表2017−510323号公報Japanese Patent Publication No. 2017-510323

本発明が解決しようとする課題は、トモシンセシス撮影による合成2D画像において、病変の視認性を向上させることである。 The problem to be solved by the present invention is to improve the visibility of lesions in a synthetic 2D image obtained by tomosynthesis imaging.

実施形態の医用画像処理装置は、検出部と、画像処理部とを備える。検出部は、被検体の乳房をトモシンセシス撮影して得られた3次元医用データに含まれる複数の断層画像において前記乳房の病変の位置を検出する。画像処理部は、検出された前記病変の位置に基づいて前記複数の断層画像を合成することにより、2次元画像データを生成する。 The medical image processing apparatus according to the embodiment includes a detection unit and an image processing unit. The detection unit detects the position of the breast lesion in a plurality of tomographic images included in the three-dimensional medical data obtained by tomosynthesis imaging of the breast of the subject. The image processing unit generates two-dimensional image data by synthesizing the plurality of tomographic images based on the detected position of the lesion.

図1は、第1の実施形態に係る医用画像処理システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a medical image processing system according to the first embodiment. 図2は、第1の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus according to the first embodiment. 図3Aは、第1の実施形態に係るトモシンセシス撮影について説明するための図である。FIG. 3A is a diagram for explaining tomosynthesis imaging according to the first embodiment. 図3Bは、第1の実施形態に係るトモシンセシス撮影について説明するための図である。FIG. 3B is a diagram for explaining tomosynthesis imaging according to the first embodiment. 図3Cは、第1の実施形態に係るトモシンセシス撮影について説明するための図である。FIG. 3C is a diagram for explaining tomosynthesis imaging according to the first embodiment. 図4は、第1の実施形態に係る3次元医用データの再構成について説明するための図である。FIG. 4 is a diagram for explaining the reconstruction of the three-dimensional medical data according to the first embodiment. 図5は、第1の実施形態に係る3次元医用データの一例を示す図である。FIG. 5 is a diagram showing an example of three-dimensional medical data according to the first embodiment. 図6Aは、第1の実施形態に係る病変の検出の一例を示す図である。FIG. 6A is a diagram illustrating an example of lesion detection according to the first embodiment. 図6Bは、第1の実施形態に係る病変の検出の一例を示す図である。FIG. 6B is a diagram illustrating an example of lesion detection according to the first embodiment. 図7は、第1の実施形態に係る重み付け処理の一例を示す図である。FIG. 7 is a diagram illustrating an example of weighting processing according to the first embodiment. 図8は、第1の実施形態に係る合成2D画像の一例を示す図である。FIG. 8 is a diagram showing an example of a combined 2D image according to the first embodiment. 図9Aは、第1の実施形態に係る病変の検出の一例を示す図である。FIG. 9A is a diagram illustrating an example of lesion detection according to the first embodiment. 図9Bは、第1の実施形態に係る病変の検出の一例を示す図である。FIG. 9B is a diagram illustrating an example of lesion detection according to the first embodiment. 図10は、第1の実施形態に係る重み付け処理の一例を示す図である。FIG. 10 is a diagram illustrating an example of weighting processing according to the first embodiment. 図11は、第1の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 11 is a flowchart for explaining a series of processing flows of the medical image processing apparatus according to the first embodiment. 図12は、第2の実施形態に係る重みの分布の一例を示す図である。FIG. 12 is a diagram showing an example of the distribution of weights according to the second embodiment. 図13は、第2の実施形態に係る重み付け処理の一例を示す図である。FIG. 13 is a diagram illustrating an example of weighting processing according to the second embodiment. 図14Aは、第2の実施形態に係る病変の検出の一例を示す図である。FIG. 14A is a diagram illustrating an example of lesion detection according to the second embodiment. 図14Bは、第2の実施形態に係る病変の検出の一例を示す図である。FIG. 14B is a diagram illustrating an example of lesion detection according to the second embodiment. 図15は、第2の実施形態に係る合成分布の算出の一例を示す図である。FIG. 15 is a diagram illustrating an example of calculation of a combined distribution according to the second embodiment. 図16は、第2の実施形態に係る重み付け処理の一例を示す図である。FIG. 16 is a diagram illustrating an example of the weighting process according to the second embodiment. 図17は、第2の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 17 is a flowchart for explaining a series of processing flows of the medical image processing apparatus according to the second embodiment. 図18は、第3の実施形態に係る合成2D画像の生成について説明するための図である。FIG. 18 is a diagram for explaining generation of a synthetic 2D image according to the third embodiment. 図19は、第3の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 19 is a flowchart for explaining a series of processing flows of the medical image processing apparatus according to the third embodiment. 図20は、第4の実施形態に係る処理回路の一例を示すブロック図である。FIG. 20 is a block diagram showing an example of a processing circuit according to the fourth embodiment.

以下、図面を参照して、実施形態に係る医用画像処理装置、X線診断装置及び医用画像処理プログラムを説明する。 Hereinafter, a medical image processing apparatus, an X-ray diagnostic apparatus, and a medical image processing program according to an embodiment will be described with reference to the drawings.

(第1の実施形態)
まず、第1の実施形態について説明する。第1の実施形態では、X線診断装置10、画像保管装置20及び医用画像処理装置30を含んだ医用画像処理システム1について説明する。
(First embodiment)
First, the first embodiment will be described. In the first embodiment, a medical image processing system 1 including an X-ray diagnostic apparatus 10, an image storage apparatus 20, and a medical image processing apparatus 30 will be described.

図1は、第1の実施形態に係る医用画像処理システム1の構成の一例を示すブロック図である。図1に示すように、第1の実施形態に係る医用画像処理システム1は、X線診断装置10と、画像保管装置20と、医用画像処理装置30とを備える。図1に示すように、X線診断装置10、画像保管装置20及び医用画像処理装置30は、ネットワークNWを介して相互に接続される。 FIG. 1 is a block diagram showing an example of the configuration of a medical image processing system 1 according to the first embodiment. As shown in FIG. 1, the medical image processing system 1 according to the first embodiment includes an X-ray diagnostic apparatus 10, an image storage apparatus 20, and a medical image processing apparatus 30. As shown in FIG. 1, the X-ray diagnostic apparatus 10, the image storage apparatus 20, and the medical image processing apparatus 30 are connected to each other via a network NW.

X線診断装置10は、被検体から医用データを収集する装置である。具体的には、X線診断装置10は、被検体の乳房Pをトモシンセシス撮影することにより、3次元医用データを収集する。なお、X線診断装置10の構成については後述する。 The X-ray diagnostic apparatus 10 is an apparatus that collects medical data from a subject. Specifically, the X-ray diagnostic apparatus 10 collects three-dimensional medical data by performing tomosynthesis imaging of the breast P of the subject. The configuration of the X-ray diagnostic apparatus 10 will be described later.

画像保管装置20は、X線診断装置10によって収集された医用データを保管する装置である。例えば、画像保管装置20は、ネットワークNWを介してX線診断装置10から3次元医用データを取得し、取得した3次元医用データを装置内又は装置外に設けられたメモリに記憶させる。例えば、画像保管装置20は、サーバ装置等のコンピュータ機器によって実現される。 The image storage device 20 is a device that stores medical data collected by the X-ray diagnostic apparatus 10. For example, the image storage device 20 acquires the three-dimensional medical data from the X-ray diagnostic apparatus 10 via the network NW and stores the acquired three-dimensional medical data in a memory provided inside or outside the device. For example, the image storage device 20 is realized by a computer device such as a server device.

医用画像処理装置30は、ネットワークNWを介して画像保管装置20から3次元医用データを取得し、取得した3次元医用データに基づく種々の処理を実行する。例えば、医用画像処理装置30は、3次元医用データに基づいて合成2D画像を生成する。なお、医用画像処理装置30が行なう処理については後述する。例えば、医用画像処理装置30は、ワークステーション等のコンピュータ機器によって実現される。 The medical image processing apparatus 30 acquires three-dimensional medical data from the image storage apparatus 20 via the network NW and executes various processes based on the acquired three-dimensional medical data. For example, the medical image processing apparatus 30 generates a synthetic 2D image based on the three-dimensional medical data. The processing performed by the medical image processing apparatus 30 will be described later. For example, the medical image processing apparatus 30 is realized by computer equipment such as a workstation.

なお、ネットワークNWを介して接続可能であれば、X線診断装置10、画像保管装置20及び医用画像処理装置30が設置される場所は任意である。例えば、医用画像処理装置30は、X線診断装置10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。また、図1においてはX線診断装置10を1つ示すが、医用画像処理システム1は複数のX線診断装置10を含んでもよい。 If the X-ray diagnostic apparatus 10, the image storage apparatus 20, and the medical image processing apparatus 30 can be connected via the network NW, any place can be installed. For example, the medical image processing apparatus 30 may be installed in a hospital different from the X-ray diagnostic apparatus 10. That is, the network NW may be a local network closed in the hospital or a network via the Internet. Further, although one X-ray diagnostic apparatus 10 is shown in FIG. 1, the medical image processing system 1 may include a plurality of X-ray diagnostic apparatuses 10.

図1に示すように、医用画像処理装置30は、入力インターフェース31と、ディスプレイ32と、メモリ33と、処理回路34とを有する。 As shown in FIG. 1, the medical image processing apparatus 30 has an input interface 31, a display 32, a memory 33, and a processing circuit 34.

入力インターフェース31は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インターフェース31は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース31は、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース31は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用画像処理装置30とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路34へ出力する電気信号の処理回路も入力インターフェース31の例に含まれる。 The input interface 31 receives various input operations from the operator, converts the received input operations into electric signals, and outputs the electric signals to the processing circuit 34. For example, the input interface 31 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad for performing an input operation by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and an optical sensor. It is realized by the used non-contact input circuit, voice input circuit and the like. The input interface 31 may be composed of a tablet terminal or the like that can wirelessly communicate with the main body of the medical image processing apparatus 30. Further, the input interface 31 is not limited to the one including physical operation parts such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the medical image processing apparatus 30 and outputs the electric signal to the processing circuit 34 is also included in the input interface 31. Included in the example.

ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、入力インターフェース31を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示する。また、ディスプレイ32は、被検体の乳房Pについて収集された各種の画像データを表示する。例えば、ディスプレイ32は、3次元医用データに含まれる複数のスライスを順次表示させる。また、ディスプレイ32は、3次元医用データに基づいて生成された合成2D画像を表示させる。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ32は、デスクトップ型でもよいし、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 32 displays various information. For example, the display 32 displays a GUI (Graphical User Interface) for receiving various instructions and various settings from the operator via the input interface 31. The display 32 also displays various image data collected about the breast P of the subject. For example, the display 32 sequentially displays a plurality of slices included in the three-dimensional medical data. In addition, the display 32 displays a synthetic 2D image generated based on the three-dimensional medical data. For example, the display 32 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display 32 may be a desktop type, or a tablet terminal or the like capable of wireless communication with the main body of the medical image processing apparatus 30.

メモリ33は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ33は、画像保管装置20から取得した乳房Pの3次元医用データや、処理回路34が生成した合成2D画像を記憶する。また、例えば、メモリ33は、医用画像処理装置30に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ33は、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。また、メモリ33は、記憶部の一例である。 The memory 33 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. For example, the memory 33 stores the three-dimensional medical data of the breast P acquired from the image storage device 20 and the synthetic 2D image generated by the processing circuit 34. Further, for example, the memory 33 stores a program for a circuit included in the medical image processing apparatus 30 to realize its function. The memory 33 may be realized by a server group (cloud) connected to the medical image processing apparatus 30 via the network NW. The memory 33 is an example of a storage unit.

処理回路34は、制御機能341、検出機能342、画像処理機能343及び表示制御機能344を実行することで、医用画像処理装置30全体の動作を制御する。ここで、検出機能342は、検出部の一例である。また、画像処理機能343は、画像処理部の一例である。また、表示制御機能344は、表示制御部の一例である。 The processing circuit 34 controls the overall operation of the medical image processing apparatus 30 by executing the control function 341, the detection function 342, the image processing function 343, and the display control function 344. Here, the detection function 342 is an example of a detection unit. The image processing function 343 is an example of an image processing unit. The display control function 344 is an example of the display control unit.

例えば、処理回路34は、制御機能341に対応するプログラムをメモリ33から読み出して実行することにより、入力インターフェース31を介して操作者から受け付けた入力操作に基づいて、処理回路34の各種機能を制御する。また、制御機能341は、ネットワークNWを介したデータの送受信を制御する。例えば、制御機能341は、画像保管装置20から乳房Pの3次元医用データを受信して、メモリ33に記憶させる。また、例えば、制御機能341は、画像処理機能343により生成された合成2D画像を画像保管装置20に対して送信する。 For example, the processing circuit 34 controls various functions of the processing circuit 34 based on an input operation received from an operator via the input interface 31 by reading a program corresponding to the control function 341 from the memory 33 and executing the program. To do. Further, the control function 341 controls transmission/reception of data via the network NW. For example, the control function 341 receives the three-dimensional medical data of the breast P from the image storage device 20 and stores it in the memory 33. Further, for example, the control function 341 transmits the combined 2D image generated by the image processing function 343 to the image storage device 20.

また、例えば、処理回路34は、検出機能342に対応するプログラムをメモリ33から読み出して実行することにより、乳房Pの3次元医用データに含まれる複数の断層画像(スライス)において病変の位置を検出する。また、処理回路34は、画像処理機能343に対応するプログラムをメモリ33から読み出して実行することにより、3次元医用データに含まれる複数のスライスから2次元画像データ(合成2D画像)を生成する。なお、検出機能342及び画像処理機能343による処理については後述する。また、処理回路34は、表示制御機能344に対応するプログラムをメモリ33から読み出して実行することにより、画像処理機能343により生成された合成2D画像をディスプレイ32に表示する。 Further, for example, the processing circuit 34 detects the position of the lesion in the plurality of tomographic images (slices) included in the three-dimensional medical data of the breast P by reading the program corresponding to the detection function 342 from the memory 33 and executing the program. To do. Further, the processing circuit 34 reads out a program corresponding to the image processing function 343 from the memory 33 and executes the program to generate two-dimensional image data (composite 2D image) from a plurality of slices included in the three-dimensional medical data. The processing by the detection function 342 and the image processing function 343 will be described later. Further, the processing circuit 34 displays the combined 2D image generated by the image processing function 343 on the display 32 by reading the program corresponding to the display control function 344 from the memory 33 and executing the program.

図1に示す医用画像処理装置30においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ33へ記憶されている。処理回路34は、メモリ33からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路34は、読み出したプログラムに対応する機能を有することとなる。なお、図1においては単一の処理回路34にて、制御機能341、検出機能342、画像処理機能343及び表示制御機能344が実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路34が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In the medical image processing apparatus 30 shown in FIG. 1, each processing function is stored in the memory 33 in the form of a program executable by a computer. The processing circuit 34 is a processor that realizes a function corresponding to each program by reading the program from the memory 33 and executing the program. In other words, the processing circuit 34 in the state where each program is read has the function corresponding to the read program. Note that, in FIG. 1, the single processing circuit 34 has been described as realizing the control function 341, the detection function 342, the image processing function 343, and the display control function 344, but the processing is performed by combining a plurality of independent processors. The circuit 34 may be configured so that each processor implements a function by executing a program. Further, each processing function of the processing circuit 34 may be implemented by being appropriately dispersed or integrated into a single or a plurality of processing circuits.

次に、X線診断装置10について説明する。X線診断装置10は、被検体の乳房Pに対するトモシンセシス撮影を実行して、3次元医用データを収集する。以下では、X線診断装置10がマンモグラフィ装置であるものとして説明する。 Next, the X-ray diagnostic apparatus 10 will be described. The X-ray diagnostic apparatus 10 performs tomosynthesis imaging on the breast P of the subject and collects three-dimensional medical data. Hereinafter, the X-ray diagnostic apparatus 10 will be described as a mammography apparatus.

例えば、X線診断装置10は、図2に示すように、基台101と、スタンド102とを有する。スタンド102は、基台101上に立設され、撮影台103と、圧迫板104と、X線管105と、X線絞り器106と、X線検出器107と、信号処理回路108とを支持する。ここで、スタンド102は、撮影台103と、圧迫板104と、X線検出器107及び信号処理回路108とを、上下方向へ移動可能に支持する。なお、図2は、第1の実施形態に係るX線診断装置10の構成の一例を示すブロック図である。 For example, the X-ray diagnostic apparatus 10 has a base 101 and a stand 102 as shown in FIG. The stand 102 is erected on the base 101 and supports an imaging table 103, a compression plate 104, an X-ray tube 105, an X-ray diaphragm 106, an X-ray detector 107, and a signal processing circuit 108. To do. Here, the stand 102 supports the imaging table 103, the compression plate 104, the X-ray detector 107, and the signal processing circuit 108 so as to be vertically movable. Note that FIG. 2 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus 10 according to the first embodiment.

撮影台103は、被検体の乳房Pを支持する台であり、乳房Pが載せられる支持面を有する。圧迫板104は、撮影台103の上方に配置され、撮影台103に対して平行に対向するように設けられる。ここで、圧迫板104は、撮影台103に接離する方向へ移動可能に設けられる。例えば、圧迫板104は、撮影台103に接近する方向に移動することで、撮影台103上に支持されている乳房Pを圧迫する。圧迫板104によって圧迫された乳房は薄く押し広げられ、乳房内の乳腺の重なりが減少する。 The imaging table 103 is a table that supports the breast P of the subject, and has a support surface on which the breast P is placed. The compression plate 104 is disposed above the imaging table 103 and is provided so as to face the imaging table 103 in parallel. Here, the compression plate 104 is provided so as to be movable in a direction of approaching and separating from the imaging table 103. For example, the compression plate 104 compresses the breast P supported on the imaging table 103 by moving in a direction approaching the imaging table 103. The breast compressed by the compression plate 104 is spread thinly and the overlap of the mammary glands in the breast is reduced.

X線管105は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管105は、X線高電圧装置111から供給される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。ここで、X線管105は、乳房PへのX線の照射角度を変化させるよう移動可能に構成される。なお、X線管105の移動については後述する。 The X-ray tube 105 is a vacuum tube having a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays when the thermoelectrons collide. The X-ray tube 105 generates X-rays by irradiating the thermoelectrons from the cathode to the anode using the high voltage supplied from the X-ray high voltage device 111. Here, the X-ray tube 105 is configured to be movable so as to change the irradiation angle of X-rays on the breast P. The movement of the X-ray tube 105 will be described later.

X線絞り器106は、X線管105と圧迫板104との間に配置され、X線管105が発生させたX線を制御する。例えば、X線絞り器106は、X線の照射範囲を絞り込むコリメータと、X線を調節するフィルタとを有する。 The X-ray narrowing device 106 is arranged between the X-ray tube 105 and the compression plate 104, and controls the X-rays generated by the X-ray tube 105. For example, the X-ray diaphragm 106 has a collimator that narrows down the X-ray irradiation range and a filter that adjusts the X-rays.

X線絞り器106におけるコリメータは、例えば、スライド可能な4枚の絞り羽根を有し、これら絞り羽根をスライドさせることで、X線管105が発生させたX線を絞り込んで乳房Pに照射させる。ここで、絞り羽根は、鉛などで構成された板状部材であり、X線の照射範囲を調整するためにX線管105のX線照射口付近に設けられる。 The collimator in the X-ray diaphragm device 106 has, for example, four slidable diaphragm blades, and by sliding these diaphragm blades, the X-rays generated by the X-ray tube 105 are narrowed down and irradiated onto the breast P. .. Here, the diaphragm blade is a plate-shaped member made of lead or the like, and is provided near the X-ray irradiation port of the X-ray tube 105 in order to adjust the X-ray irradiation range.

X線絞り器106におけるフィルタは、被検体に対する被曝線量の低減とX線画像データの画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体に吸収されやすい軟線成分を低減したり、画像のコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタは、その材質や厚み、位置などによってX線の線量及び照射範囲を変化させ、乳房Pへ照射されるX線が予め定められた分布になるようにX線を減衰させる。 The filter in the X-ray diaphragm 106 changes the quality of the transmitted X-rays depending on the material and the thickness thereof for the purpose of reducing the exposure dose to the subject and improving the image quality of the X-ray image data, and is easily absorbed by the subject. The soft line component is reduced, and the high energy component that causes a reduction in image contrast is reduced. Further, the filter changes the dose and irradiation range of X-rays depending on the material, thickness, position, etc., and attenuates the X-rays so that the X-rays irradiated to the breast P have a predetermined distribution.

例えば、X線絞り器106は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路114による制御の下、駆動機構を動作させることによりX線の照射を制御する。例えば、X線絞り器106は、処理回路114から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、コリメータの絞り羽根の開度を調整して、乳房Pに対して照射されるX線の照射範囲を制御する。また、例えば、X線絞り器106は、処理回路114から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、フィルタの位置を調整することで、乳房Pに対して照射されるX線の線量の分布を制御する。 For example, the X-ray restrictor 106 has a drive mechanism such as a motor and an actuator, and controls the X-ray irradiation by operating the drive mechanism under the control of the processing circuit 114 described later. For example, the X-ray iris diaphragm 106 adjusts the opening of the diaphragm blade of the collimator by applying a driving voltage to the driving mechanism according to the control signal received from the processing circuit 114, and irradiates the breast P. The X-ray irradiation range is controlled. In addition, for example, the X-ray diaphragm 106 irradiates the breast P by adjusting the position of the filter by applying a drive voltage to the drive mechanism according to the control signal received from the processing circuit 114. Control the distribution of X-ray dose.

X線検出器107は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器107は、X線管105から照射されて乳房Pを透過したX線を検出し、検出したX線量に対応した検出信号を信号処理回路108へと出力する。なお、X線検出器107は、グリッド、シンチレータアレイ及び光センサアレイを有する間接変換型の検出器であってもよいし、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。 The X-ray detector 107 is, for example, an X-ray flat panel detector (FPD) having detection elements arranged in a matrix. The X-ray detector 107 detects X-rays emitted from the X-ray tube 105 and transmitted through the breast P, and outputs a detection signal corresponding to the detected X-ray dose to the signal processing circuit 108. The X-ray detector 107 may be an indirect conversion type detector having a grid, a scintillator array and a photosensor array, or a direct conversion type detector having a semiconductor element that converts incident X-rays into electric signals. It may be a detector.

例えば、X線検出器107は、X線管105から照射されたX線パルスを検出し、検出したX線量に対応した検出信号を生成する。ここで、X線検出器107は、生成した検出信号を保持する。また、X線検出器107は、X線パルスの照射後に検出信号を信号処理回路108に対して出力する。そして、信号処理回路108は、X線検出器107から出力された検出信号に基づいて投影データを生成し、メモリ112に格納する。 For example, the X-ray detector 107 detects the X-ray pulse emitted from the X-ray tube 105 and generates a detection signal corresponding to the detected X-ray dose. Here, the X-ray detector 107 holds the generated detection signal. Further, the X-ray detector 107 outputs a detection signal to the signal processing circuit 108 after the irradiation of the X-ray pulse. Then, the signal processing circuit 108 generates projection data based on the detection signal output from the X-ray detector 107 and stores it in the memory 112.

また、図2に示すように、X線診断装置10は、入力インターフェース109と、昇降駆動装置110と、X線高電圧装置111と、メモリ112と、ディスプレイ113と、処理回路114とを有する。 Further, as shown in FIG. 2, the X-ray diagnostic apparatus 10 includes an input interface 109, a lifting drive device 110, an X-ray high voltage device 111, a memory 112, a display 113, and a processing circuit 114.

入力インターフェース109は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路114に出力する。例えば、入力インターフェース109は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース109は、処理回路114と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース109は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、X線診断装置10本体とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路114へ出力する電気信号の処理回路も入力インターフェース109の例に含まれる。 The input interface 109 receives various input operations from the operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 114. For example, the input interface 109 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad for performing an input operation by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and an optical sensor. It is realized by the used non-contact input circuit, voice input circuit and the like. The input interface 109 may be composed of a tablet terminal or the like that can wirelessly communicate with the processing circuit 114. Further, the input interface 109 is not limited to the one including physical operation parts such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the main body of the X-ray diagnostic apparatus 10 and outputs the electric signal to the processing circuit 114 is also the input interface 109. Included in the example.

昇降駆動装置110は、撮影台103及び圧迫板104に接続される。例えば、昇降駆動装置110は、撮影台103を上下方向へ昇降させる。また、例えば、昇降駆動装置110は、圧迫板104を上下方向(撮影台103に対して接離する方向)へ昇降させる。例えば、昇降駆動装置110は、モータ及びアクチュエータ等の駆動機構を有し、処理回路114による制御の下、駆動機構を動作させることにより、撮影台103及び圧迫板104の昇降を制御する。 The lifting drive device 110 is connected to the imaging table 103 and the compression plate 104. For example, the lifting drive device 110 moves the imaging table 103 up and down. Further, for example, the elevating and lowering drive device 110 elevates and lowers the compression plate 104 in the vertical direction (the direction in which the compression plate 104 is brought into contact with and separated from the imaging table 103). For example, the elevation drive device 110 has a drive mechanism such as a motor and an actuator, and operates the drive mechanism under the control of the processing circuit 114 to control the elevation of the imaging table 103 and the compression plate 104.

X線高電圧装置111は、処理回路114による制御の下、X線管105に高電圧を供給する。例えば、X線高電圧装置111は、変圧器(トランス)及び整流器等の電気回路を有し、X線管105に印加する高電圧を発生する高電圧発生装置と、X線管105が照射するX線に応じた出力電圧の制御を行うX線制御装置とを有する。なお、高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。 The X-ray high voltage device 111 supplies a high voltage to the X-ray tube 105 under the control of the processing circuit 114. For example, the X-ray high-voltage device 111 has an electric circuit such as a transformer and a rectifier, and the X-ray tube 105 irradiates the high-voltage generator that generates a high voltage to be applied to the X-ray tube 105. And an X-ray control device for controlling the output voltage according to the X-rays. The high voltage generator may be of a transformer type or an inverter type.

メモリ112は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ112は、信号処理回路108が生成した投影データや、処理回路114が生成した3次元医用データを記憶する。また、例えば、メモリ112は、X線診断装置10に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ112は、X線診断装置10とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 112 is realized by, for example, a RAM, a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. For example, the memory 112 stores the projection data generated by the signal processing circuit 108 and the three-dimensional medical data generated by the processing circuit 114. In addition, for example, the memory 112 stores a program for a circuit included in the X-ray diagnostic apparatus 10 to realize its function. The memory 112 may be realized by a server group (cloud) connected to the X-ray diagnostic apparatus 10 via the network NW.

ディスプレイ113は、各種の情報を表示する。例えば、ディスプレイ113は、入力インターフェース109を介して操作者から各種指示や各種設定等を受け付けるためのGUIを表示する。また、ディスプレイ113は、乳房Pについて収集された各種の画像データを表示する。例えば、ディスプレイ113は、3次元医用データに含まれる複数のスライスを順次表示させる。また、例えば、ディスプレイ113は、医用画像処理装置30により生成された合成2D画像を表示させる。例えば、ディスプレイ113は、液晶ディスプレイやCRTディスプレイである。ディスプレイ113は、デスクトップ型でもよいし、X線診断装置10本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 113 displays various information. For example, the display 113 displays a GUI for accepting various instructions and various settings from the operator via the input interface 109. The display 113 also displays various image data collected for the breast P. For example, the display 113 sequentially displays a plurality of slices included in the three-dimensional medical data. Further, for example, the display 113 displays the synthetic 2D image generated by the medical image processing apparatus 30. For example, the display 113 is a liquid crystal display or a CRT display. The display 113 may be a desktop type or a tablet terminal or the like that can wirelessly communicate with the X-ray diagnostic apparatus 10 main body.

処理回路114は、制御機能114a及び表示制御機能114bを実行することで、X線診断装置10全体の動作を制御する。 The processing circuit 114 controls the operation of the entire X-ray diagnostic apparatus 10 by executing the control function 114a and the display control function 114b.

例えば、処理回路114は、制御機能114aに対応するプログラムをメモリ112から読み出して実行することにより、入力インターフェース109を介して操作者から受け付けた入力操作に基づいて、処理回路114の各種機能を制御する。 For example, the processing circuit 114 controls various functions of the processing circuit 114 based on an input operation received from the operator via the input interface 109 by reading a program corresponding to the control function 114a from the memory 112 and executing the program. To do.

また、制御機能114aは、3次元医用データの収集を制御する。具体的には、まず、制御機能114aは、乳房Pに対するトモシンセシス撮影を実行して、複数の投影データを収集する。次に、制御機能114aは、収集した投影データに対して、対数変換処理やオフセット補正、感度補正、ビームハードニング補正等の補正処理を行なって、補正済みの投影データを生成する。そして、処理回路114は、補正済みの投影データに基づいて3次元医用データを再構成する。 The control function 114a also controls the collection of three-dimensional medical data. Specifically, first, the control function 114a executes tomosynthesis imaging on the breast P to collect a plurality of projection data. Next, the control function 114a performs correction processing such as logarithmic conversion processing, offset correction, sensitivity correction, and beam hardening correction on the collected projection data to generate corrected projection data. Then, the processing circuit 114 reconstructs the three-dimensional medical data based on the corrected projection data.

なお、制御機能114aは、MLO(Mediolateral-Oblique:内外斜位)画像やCC(Cranio-Caudal:頭尾)画像等のマンモグラフィ画像を収集することもできる。具体的には、制御機能114aは、撮影台103及び圧迫板104の位置をMLO方向やCC方向で固定し、乳房Pに対するX線照射角度を一定に保った状態でX線を照射することにより、MLO画像やCC画像等のマンモグラフィ画像を収集する。 The control function 114a can also collect mammography images such as MLO (Mediolateral-Oblique) images and CC (Cranio-Caudal) images. Specifically, the control function 114a fixes the positions of the imaging table 103 and the compression plate 104 in the MLO direction and the CC direction, and irradiates the breast P with X-rays while keeping the X-ray irradiation angle constant. , MLO images, CC images and other mammography images are acquired.

また、制御機能114aは、ネットワークNWを介したデータの送受信を制御する。例えば、制御機能114aは、被検体の乳房Pをトモシンセシス撮影して得られた3次元医用データを、画像保管装置20に対して送信する。また、処理回路34は、表示制御機能344に対応するプログラムをメモリ33から読み出して実行することにより、各種の画像データをディスプレイ32に表示する。 Further, the control function 114a controls transmission/reception of data via the network NW. For example, the control function 114a transmits to the image storage device 20 the three-dimensional medical data obtained by tomosynthesis imaging of the breast P of the subject. Further, the processing circuit 34 displays various image data on the display 32 by reading a program corresponding to the display control function 344 from the memory 33 and executing the program.

図2に示すX線診断装置10においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ112へ記憶されている。信号処理回路108及び処理回路114は、メモリ112からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の信号処理回路108及び処理回路114は、読み出したプログラムに対応する機能を有することとなる。なお、図2においては単一の処理回路114にて、制御機能114a及び表示制御機能114bが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路114を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路114が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In the X-ray diagnostic apparatus 10 shown in FIG. 2, each processing function is stored in the memory 112 in the form of a program executable by a computer. The signal processing circuit 108 and the processing circuit 114 are processors that realize a function corresponding to each program by reading the program from the memory 112 and executing the program. In other words, the signal processing circuit 108 and the processing circuit 114 in the state where the program is read out have a function corresponding to the read program. Note that, in FIG. 2, it has been described that the control function 114a and the display control function 114b are realized by the single processing circuit 114, but the processing circuit 114 is configured by combining a plurality of independent processors, and each processor is configured as follows. The function may be realized by executing the program. Further, each processing function of the processing circuit 114 may be implemented by being appropriately dispersed or integrated into a single or a plurality of processing circuits.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ33又はメモリ112に保存されたプログラムを読み出し実行することで機能を実現する。 The word "processor" used in the above description means, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (for example, It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor realizes the function by reading and executing the program stored in the memory 33 or the memory 112.

なお、図1及び図2においては、単一のメモリ33又はメモリ112が各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、複数のメモリ33を分散して配置し、処理回路34は、個別のメモリ33から対応するプログラムを読み出す構成としても構わない。同様に、複数のメモリ112を分散して配置し、処理回路114は、個別のメモリ112から対応するプログラムを読み出す構成としても構わない。また、メモリ33及びメモリ112にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 Note that, in FIGS. 1 and 2, the single memory 33 or the memory 112 has been described as storing a program corresponding to each processing function. However, the embodiment is not limited to this. For example, the plurality of memories 33 may be arranged in a distributed manner, and the processing circuit 34 may be configured to read the corresponding programs from the individual memories 33. Similarly, the plurality of memories 112 may be arranged in a distributed manner, and the processing circuit 114 may be configured to read the corresponding programs from the individual memories 112. Further, instead of storing the program in the memory 33 and the memory 112, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit.

また、処理回路34及び処理回路114は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路34は、メモリ33から各機能に対応するプログラムを読み出して実行するとともに、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。 Further, the processing circuit 34 and the processing circuit 114 may implement the function by using the processor of the external device connected via the network NW. For example, the processing circuit 34 reads a program corresponding to each function from the memory 33 and executes the program, and uses a server group (cloud) connected to the medical image processing apparatus 30 via the network NW as a computing resource. The functions shown in FIG. 1 are realized.

以上、医用画像処理装置30を含んだ医用画像処理システム1について説明した。かかる構成のもと、医用画像処理システム1における医用画像処理装置30は、処理回路34による処理によって、トモシンセシス撮影による合成2D画像において病変の視認性を向上させる。 The medical image processing system 1 including the medical image processing apparatus 30 has been described above. With such a configuration, the medical image processing apparatus 30 in the medical image processing system 1 improves the visibility of the lesion in the synthetic 2D image by tomosynthesis imaging by the processing by the processing circuit 34.

まず、トモシンセシス撮影について説明する。トモシンセシス撮影において、被検体の乳房Pは、撮影台103の上に載置された後、撮影台103及び圧迫板104の間で圧迫される。次に、制御機能114aは、X線の照射角度を変化させながら、乳房Pに対してX線を照射することにより、複数の投影データを収集する。以下、複数の投影データの収集について、図3A、図3B及び図3Cを用いて説明する。図3A、図3B及び図3Cは、第1の実施形態に係るトモシンセシス撮影について説明するための図である。 First, the tomosynthesis imaging will be described. In the tomosynthesis imaging, the breast P of the subject is placed on the imaging table 103 and then compressed between the imaging table 103 and the compression plate 104. Next, the control function 114a collects a plurality of projection data by irradiating the breast P with X-rays while changing the X-ray irradiation angle. Hereinafter, collection of a plurality of projection data will be described with reference to FIGS. 3A, 3B and 3C. 3A, 3B, and 3C are diagrams for explaining tomosynthesis imaging according to the first embodiment.

図3Aは、位置X1にX線管105が位置する場合を示し、図3Bは、位置X2にX線管105が位置する場合を示し、図3Cは、位置X3にX線管105が位置する場合を示す。図3A、図3B及び図3Cに示すように、X線管105は、位置X1、位置X2及び位置X3を含む軌道で移動する。また、図3A、図3B及び図3Cにおける破線は、X線管105から照射されるX線の一部を示す。図3A、図3B及び図3Cに示すように、X線管105は、X線の照射角度を変化させるように移動する。 3A shows the case where the X-ray tube 105 is located at the position X1, FIG. 3B shows the case where the X-ray tube 105 is located at the position X2, and FIG. 3C shows the case where the X-ray tube 105 is located at the position X3. Indicate the case. As shown in FIG. 3A, FIG. 3B, and FIG. 3C, the X-ray tube 105 moves in an orbit including a position X1, a position X2, and a position X3. The broken lines in FIGS. 3A, 3B, and 3C show a part of the X-rays emitted from the X-ray tube 105. As shown in FIGS. 3A, 3B, and 3C, the X-ray tube 105 moves so as to change the irradiation angle of X-rays.

具体的には、制御機能114aは、まず、図3A上図に示すように、位置X1のX線管105から乳房PへX線を照射させる。ここで、乳房Pを透過したX線はX線検出器107により検出される。また、信号処理回路108は、X線検出器107から出力された検出信号に基づいて、図3A下図に示す投影データA101を生成する。投影データA101においては、乳房Pにおける部位a、部位b及び部位cが、それぞれ、図3A下図に示す位置に投影される。 Specifically, the control function 114a first irradiates the breast P with X-rays from the X-ray tube 105 at the position X1, as shown in the upper diagram of FIG. 3A. Here, the X-rays transmitted through the breast P are detected by the X-ray detector 107. The signal processing circuit 108 also generates projection data A101 shown in the lower diagram of FIG. 3A based on the detection signal output from the X-ray detector 107. In the projection data A101, the part a, the part b, and the part c of the breast P are projected at the positions shown in the lower diagram of FIG. 3A.

次に、制御機能114aは、図3B上図に示すように、図3Aに示す状態からX線の照射角度を変化させ、位置X2のX線管105から乳房PへX線を照射させる。ここで、乳房Pを透過したX線はX線検出器107により検出される。また、信号処理回路108は、X線検出器107から出力された検出信号に基づいて、図3B下図に示す投影データA102を生成する。投影データA102においては、乳房Pにおける部位a、部位b及び部位cが、図3B下図に示す位置に重畳するようにして投影される。 Next, as shown in the upper diagram of FIG. 3B, the control function 114a changes the irradiation angle of X-rays from the state shown in FIG. 3A, and causes the X-ray tube 105 at the position X2 to irradiate the breast P with X-rays. Here, the X-rays transmitted through the breast P are detected by the X-ray detector 107. The signal processing circuit 108 also generates projection data A102 shown in the lower diagram of FIG. 3B based on the detection signal output from the X-ray detector 107. In the projection data A102, the part a, the part b, and the part c of the breast P are projected so as to be superimposed on the positions shown in the lower diagram of FIG. 3B.

更に、制御機能114aは、図3C上図に示すように、図3Bに示す状態からX線の照射角度を変化させ、位置X3のX線管105から乳房PへX線を照射させる。ここで、乳房Pを透過したX線はX線検出器107により検出される。また、信号処理回路108は、X線検出器107から出力された検出信号に基づいて、図3C下図に示す投影データA103を生成する。投影データA103においては、乳房Pにおける部位a、部位b及び部位cが、それぞれ、図3C下図に示す位置に投影される。 Further, as shown in the upper diagram of FIG. 3C, the control function 114a changes the irradiation angle of the X-ray from the state shown in FIG. 3B, and irradiates the breast P with the X-ray from the X-ray tube 105 at the position X3. Here, the X-rays transmitted through the breast P are detected by the X-ray detector 107. The signal processing circuit 108 also generates projection data A103 shown in the lower diagram of FIG. 3C based on the detection signal output from the X-ray detector 107. In the projection data A103, the part a, the part b, and the part c of the breast P are projected at the positions shown in the lower diagram of FIG. 3C, respectively.

例えば、制御機能114aは、X線管105の位置を連続的に変化させつつ、X線管105が位置X1や位置X2、位置X3等に到達した時にX線を発生させる。また、例えば、制御機能114aは、X線管105の移動とX線の照射とを交互に繰り返すことにより、位置X1や位置X2、位置X3等で停止したX線管105からX線を発生させる。なお、X線管105が移動する際の軌道は、図3A、図3B及び図3Cに示すように円弧状でもよいし、直線状でもよいし、その他の軌道であってもよい。 For example, the control function 114a generates X-rays when the X-ray tube 105 reaches the position X1, the position X2, the position X3, etc. while continuously changing the position of the X-ray tube 105. Further, for example, the control function 114a generates X-rays from the X-ray tube 105 stopped at the position X1, the position X2, the position X3, etc. by alternately repeating the movement of the X-ray tube 105 and the irradiation of the X-rays. .. The orbit when the X-ray tube 105 moves may be arcuate as shown in FIGS. 3A, 3B, and 3C, may be linear, or may be another orbit.

次に、制御機能114aは、照射角度を変化させて収集された複数の投影データから、3次元医用データを再構成する。以下、3次元医用データの再構成について、図4を用いて説明する。図4は、第1の実施形態に係る3次元医用データの再構成について説明するための図である。図4においては、一例として、シフト加算法により3次元医用画像データを再構成する場合について説明する。 Next, the control function 114a reconstructs three-dimensional medical data from the plurality of projection data collected by changing the irradiation angle. Reconstruction of three-dimensional medical data will be described below with reference to FIG. FIG. 4 is a diagram for explaining the reconstruction of the three-dimensional medical data according to the first embodiment. In FIG. 4, as an example, a case of reconstructing three-dimensional medical image data by the shift addition method will be described.

例えば、制御機能114aは、図4上図に示す投影データA101、投影データA102及び投影データA103を、各投影データ上に部位aが投影された位置を合わせるようにして加算し、図4下図に示すスライスBaを生成する。スライスBaにおいては、投影データA101、投影データA102及び投影データA103のそれぞれにおいて部位aが投影された部分が位置を合わせて加算されるため、部位aが明瞭に表現される。 For example, the control function 114a adds the projection data A101, the projection data A102, and the projection data A103 shown in the upper diagram of FIG. 4 so that the positions where the part a is projected on the respective projection data are aligned, and the result is shown in the lower diagram of FIG. The slice Ba shown is generated. In the slice Ba, the parts of the projection data A101, the projection data A102, and the projection data A103 on which the part a is projected are aligned and added, so that the part a is clearly expressed.

ここで、個々の投影データには部位bや部位cを示す信号も含まれているが、スライスBaにおいては位置をずらして重ねられているため、スライスBa上では部位bや部位cの信号は拡散し、暈けて表現される。従って、図4下図に示すように、スライスBaにおいては部位aのみが明瞭に表現される。即ち、制御機能114aは、乳房Pにおいて部位aを含む平面を再構成面として、スライスBaを生成する。 Here, although each projection data also includes a signal indicating the part b or the part c, the signals of the part b or the part c on the slice Ba are overlapped because the positions are shifted in the slice Ba. It is diffuse and blurred. Therefore, as shown in the lower diagram of FIG. 4, only the part a is clearly expressed in the slice Ba. That is, the control function 114a generates the slice Ba by using the plane including the part a in the breast P as the reconstruction plane.

なお、以下では、再構成面に平行な方向をX方向とする。また、以下では、再構成面に平行で、かつ、X方向に直交する方向をY方向とする。即ち、図4に示すように、X方向及びY方向は、スライスに対して平行な方向である。また、以下では、X方向及びY方向に直交する方向をZ方向とする。即ち、Z方向は、スライスに対して垂直な方向である。なお、Z方向については、スライス方向とも記載する。 In the following, the direction parallel to the reconstruction plane is the X direction. In the following, the direction parallel to the reconstruction plane and orthogonal to the X direction will be referred to as the Y direction. That is, as shown in FIG. 4, the X direction and the Y direction are parallel to the slice. Moreover, below, let the direction orthogonal to an X direction and a Y direction be a Z direction. That is, the Z direction is a direction perpendicular to the slice. The Z direction is also referred to as the slice direction.

同様に、制御機能114aは、投影データA101、投影データA102及び投影データA103を、各投影データ上に部位bが投影された位置を合わせるようにして加算し、図示しないスライスBbを生成する。即ち、制御機能114aは、乳房Pにおいて部位bを含むXY平面を再構成面として、スライスBbを生成する。また、制御機能114aは、投影データA101、投影データA102及び投影データA103を、各投影データ上に部位cが投影された位置を合わせるようにして加算し、図示しないスライスBcを生成する。即ち、制御機能114aは、乳房Pにおいて部位cを含むXY平面を再構成面として、スライスBcを生成する。 Similarly, the control function 114a adds the projection data A101, the projection data A102, and the projection data A103 so that the position where the part b is projected is aligned on each projection data to generate a slice Bb (not shown). That is, the control function 114a generates the slice Bb with the XY plane including the part b in the breast P as the reconstruction plane. In addition, the control function 114a adds the projection data A101, the projection data A102, and the projection data A103 so as to match the position where the part c is projected on each projection data, and generates a slice Bc (not shown). That is, the control function 114a generates the slice Bc with the XY plane including the part c in the breast P as the reconstruction plane.

上述したように、制御機能114aは、複数の投影データを用いて、再構成面をずらしながら複数のスライスを生成する。即ち、制御機能114aは、複数の投影データを用いて、複数のスライスを含んだ3次元医用データを再構成する。 As described above, the control function 114a uses a plurality of projection data to generate a plurality of slices while shifting the reconstruction plane. That is, the control function 114a reconstructs three-dimensional medical data including a plurality of slices using a plurality of projection data.

以下では一例として、制御機能114aが図5に示す3次元医用データを再構成した場合について説明する。即ち、以下では、3次元医用データが、スライスB101からスライスB150までの「50枚」のスライスを含む場合について説明する。図5は、第1の実施形態に係る3次元医用データの一例を示す図である。制御機能114aは、生成した3次元医用データを、画像保管装置20に対して送信する。 As an example, a case where the control function 114a reconstructs the three-dimensional medical data shown in FIG. 5 will be described below. That is, the case where the three-dimensional medical data includes “50” slices from slice B101 to slice B150 will be described below. FIG. 5 is a diagram showing an example of three-dimensional medical data according to the first embodiment. The control function 114a transmits the generated three-dimensional medical data to the image storage device 20.

医用画像処理装置30は、画像保管装置20から3次元医用データを受信して、メモリ33に記憶させる。なお、医用画像処理装置30は、画像保管装置20を介さず、X線診断装置10から3次元医用データを受信してもよい。また、医用画像処理装置30は、3次元医用データに含まれる複数のスライスを合成することにより、2次元画像データ(合成2D画像)を生成する。 The medical image processing apparatus 30 receives the three-dimensional medical data from the image storage apparatus 20 and stores it in the memory 33. The medical image processing apparatus 30 may receive the three-dimensional medical data from the X-ray diagnostic apparatus 10 without going through the image storage apparatus 20. The medical image processing apparatus 30 also generates two-dimensional image data (composite 2D image) by combining a plurality of slices included in the three-dimensional medical data.

ここで、3次元医用データから合成2D画像を生成する方法としては、例えば、最大値投影(MIP:Maximum Intensity Projection)や最小値投影(MinIP:Minimum Intensity Projection)等が知られている。しかしながら、これら手法により合成2D画像を生成する場合、個々のスライスに現れていた病変が暈けて観察しにくくなる場合があった。即ち、病変が現れたスライスに対して、病変が現れていないスライスが合成されることで、合成前には明瞭だった病変が暈けてしまう場合があった。 Here, as a method of generating a synthetic 2D image from three-dimensional medical data, for example, maximum intensity projection (MIP: Maximum Intensity Projection), minimum intensity projection (MinIP: Minimum Intensity Projection) and the like are known. However, when a synthetic 2D image is generated by these methods, there are cases where lesions appearing in individual slices are blurred and difficult to observe. That is, a slice in which no lesion has appeared is combined with a slice in which a lesion has appeared, so that a lesion that was clear before combining may be blurred.

そこで、処理回路34は、3次元医用データに含まれる複数のスライスにおいて乳房Pの病変の位置を検出し、検出した病変の位置に基づいて複数のスライスから合成2D画像を生成することにより、合成2D画像における病変の視認性を向上させる。以下、処理回路34による合成2D画像の生成について詳細に説明する。 Therefore, the processing circuit 34 detects the position of the lesion of the breast P in a plurality of slices included in the three-dimensional medical data, and generates a composite 2D image from the plurality of slices based on the detected position of the lesion, thereby combining the slices. The visibility of lesions in 2D images is improved. Hereinafter, the generation of the synthetic 2D image by the processing circuit 34 will be described in detail.

まず、検出機能342は、3次元医用データに含まれる複数のスライスにおいて、乳房Pの病変の位置を検出する。具体的には、検出機能342は、図5に示したスライスB101〜スライスB150のそれぞれに対して、コンピュータ支援検出(Computer-Aided Detection:CAD)を実行することにより、スライスB101〜スライスB150において乳房Pの病変の位置を検出する。 First, the detection function 342 detects the position of the lesion of the breast P in a plurality of slices included in the three-dimensional medical data. Specifically, the detection function 342 performs computer-aided detection (CAD) on each of the slices B101 to B150 illustrated in FIG. The position of the lesion of P is detected.

以下では、スライスB101〜スライスB150のうち、図6Aに示すスライスB120、及び、図6Bに示すスライスB130において病変が検出された場合について説明する。具体的には、検出機能342は、スライスB120のうち図6Aに示す位置において病変L1を検出し、スライスB130のうち図6Bに示す位置において病変L2を検出する。なお、図6Aに示す画素P1は、病変L1の位置の画素の一例である。以下、画素P1のXY座標を(x1,y1)とする。また、図6Bに示す画素P2は、病変L2の位置の画素の一例である。以下、画素P2のXY座標を(x2,y2)とする。なお、図6A及び図6Bは、第1の実施形態に係る病変の検出の一例を示す図である。 Hereinafter, a case where a lesion is detected in the slice B120 illustrated in FIG. 6A and the slice B130 illustrated in FIG. 6B among the slices B101 to B150 will be described. Specifically, the detection function 342 detects the lesion L1 at the position shown in FIG. 6A in the slice B120, and detects the lesion L2 at the position shown in FIG. 6B in the slice B130. The pixel P1 shown in FIG. 6A is an example of a pixel at the position of the lesion L1. Hereinafter, the XY coordinates of the pixel P1 will be (x1, y1). Further, the pixel P2 shown in FIG. 6B is an example of the pixel at the position of the lesion L2. Hereinafter, the XY coordinates of the pixel P2 will be (x2, y2). 6A and 6B are diagrams illustrating an example of lesion detection according to the first embodiment.

次に、画像処理機能343は、検出機能342により検出された病変の位置に基づいて、複数のスライスにおける画素ごとの重みを決定する。即ち、画像処理機能343は、病変の位置に基づいて、スライスごと、且つ、画素ごとに、重みを決定する。 Next, the image processing function 343 determines the weight for each pixel in the plurality of slices based on the position of the lesion detected by the detection function 342. That is, the image processing function 343 determines the weight for each slice and each pixel based on the position of the lesion.

例えば、画像処理機能343は、画素P1(病変L1の位置の画素)の重みを「1」に決定するとともに、他のスライスにおいて画素P1と同じXY座標を有する画素の重みを「0」に決定する。即ち、画像処理機能343は、図7に示すように、スライスB120においてXY座標が(x1,y1)となる画素P1の重みを「1」に決定し、他のスライス(スライスB101〜スライスB119、及び、スライスB121〜スライスB150)においてXY座標が(x1,y1)となる画素の重みを「0」に決定する。なお、図7は、第1の実施形態に係る重み付け処理の一例を示す図である。 For example, the image processing function 343 determines the weight of the pixel P1 (pixel at the position of the lesion L1) to be “1”, and determines the weight of a pixel having the same XY coordinates as the pixel P1 in another slice to be “0”. To do. That is, as shown in FIG. 7, the image processing function 343 determines that the weight of the pixel P1 whose XY coordinate is (x1, y1) in the slice B120 is “1”, and the other slices (slice B101 to slice B119, Also, in slices B121 to B150), the weight of the pixel whose XY coordinate is (x1, y1) is determined to be “0”. 7. FIG. 7 is a diagram illustrating an example of the weighting process according to the first embodiment.

上述したように、画像処理機能343は、XY座標(x1,y1)について、各スライスにおける画素の重みを決定する。また、画像処理機能343は、病変L1の位置に含まれるXY座標のそれぞれについて、XY座標(x1,y1)と同様に、各スライスにおける画素の重みを決定する。 As described above, the image processing function 343 determines the weight of the pixel in each slice for the XY coordinates (x1, y1). Further, the image processing function 343 determines the weight of the pixel in each slice for each of the XY coordinates included in the position of the lesion L1, similarly to the XY coordinates (x1, y1).

また、同様に、画像処理機能343は、画素P2(病変L2の位置の画素)の重みを「1」に決定するとともに、他のスライスにおいて画素P2と同じXY座標を有する画素の重みを「0」に決定する。即ち、画像処理機能343は、図7に示すように、スライスB130においてXY座標が(x2,y2)となる画素P2の重みを「1」に決定し、他のスライス(スライスB101〜スライスB129、及び、スライスB131〜スライスB150)においてXY座標が(x2,y2)となる画素の重みを「0」に決定する。また、画像処理機能343は、病変L2の位置に含まれるXY座標のそれぞれについて、XY座標(x2,y2)と同様に、各スライスにおける画素の重みを決定する。 Similarly, the image processing function 343 determines the weight of the pixel P2 (pixel at the position of the lesion L2) to be “1” and sets the weight of the pixel having the same XY coordinates as the pixel P2 in other slices to “0”. ". That is, as shown in FIG. 7, the image processing function 343 determines that the weight of the pixel P2 whose XY coordinate is (x2, y2) in the slice B130 is “1”, and the other slices (slice B101 to slice B129, Also, in the slices B131 to B150), the weight of the pixel whose XY coordinate is (x2, y2) is determined to be "0". Further, the image processing function 343 determines the weight of the pixel in each slice for each of the XY coordinates included in the position of the lesion L2, similarly to the XY coordinates (x2, y2).

なお、病変のサイズによっては、1つの病変が複数のスライスに亘って検出される場合がある。即ち、スライス方向(Z方向)に重なる複数の位置に亘って、病変が検出される場合がある。この場合、画像処理機能343は、病変が検出された複数の位置のうち画素値が最小となる位置の画素の重みが、他の位置の画素の重みよりも大きくなるように、複数のスライスにおける画素ごとの重みを決定する。 Depending on the size of the lesion, one lesion may be detected over a plurality of slices. That is, a lesion may be detected over a plurality of positions overlapping in the slice direction (Z direction). In this case, the image processing function 343 determines that the weight of the pixel at the position where the pixel value is the smallest among the plurality of positions where the lesion is detected is larger than the weight of the pixel at other positions. Determine the weight for each pixel.

例えば、スライスB119、スライスB120及びスライスB121に亘って病変L1が検出された場合、画像処理機能343は、病変L1が検出された位置のXY座標ごとに、スライス間で画素値を比較する。なお、画像処理機能343は、諧調を反転させていない状態で画素値を比較する。即ち、画像処理機能343は、X線が透過しにくい部位(骨や病変等)ほど画素値が小さくなるものとして、画素値を比較する。 For example, when the lesion L1 is detected over the slice B119, the slice B120, and the slice B121, the image processing function 343 compares pixel values between slices for each XY coordinate of the position where the lesion L1 is detected. It should be noted that the image processing function 343 compares the pixel values in a state where the gradation has not been inverted. That is, the image processing function 343 compares the pixel values, assuming that the pixel value becomes smaller as the region (bone, lesion, etc.) where X-rays are less likely to penetrate becomes smaller.

一例を挙げると、画像処理機能343は、スライスB119においてXY座標が(x1,y1)となる画素と、スライスB120においてXY座標が(x1,y1)となる画素P1と、スライスB121においてXY座標が(x1,y1)となる画素との間で、画素値を比較する。ここで、例えば、画素P1の画素値が最小となる場合、画像処理機能343は、画素P1の重みが、スライスB119及びスライスB121においてXY座標が(x1,y1)となる各画素の重みよりも大きくなるように、複数のスライスにおける画素ごとの重みを決定する。例えば、画像処理機能343は、画素P1の重みを「1」に決定し、スライスB119及びスライスB121においてXY座標が(x1,y1)となる各画素の重みを「0」に決定する。換言すると、画像処理機能343は、スライス方向に重なる複数の位置に亘って病変が検出された場合、病変が明確であるほど重みが大きくなるように、複数のスライスにおける画素ごとの重みを決定する。 As an example, the image processing function 343 has a pixel having an XY coordinate of (x1, y1) in the slice B119, a pixel P1 having an XY coordinate of (x1, y1) in the slice B120, and an XY coordinate in the slice B121. The pixel value is compared with the pixel that is (x1, y1). Here, for example, when the pixel value of the pixel P1 is the minimum, the image processing function 343 determines that the weight of the pixel P1 is lower than the weight of each pixel whose XY coordinates are (x1, y1) in the slice B119 and the slice B121. The weight for each pixel in the plurality of slices is determined so as to be large. For example, the image processing function 343 determines the weight of the pixel P1 to be “1”, and determines the weight of each pixel whose XY coordinates are (x1, y1) in the slice B119 and the slice B121 to be “0”. In other words, the image processing function 343 determines the weight for each pixel in a plurality of slices so that when the lesion is detected over a plurality of positions overlapping in the slice direction, the weight becomes larger as the lesion becomes clearer. ..

次に、画像処理機能343は、決定した重みに基づいて3次元医用データに含まれる複数のスライスを合成することにより、合成2D画像を生成する。例えば、画像処理機能343は、XY座標ごとに、決定された重みに基づく加重平均処理を実行することにより、図8に示す2次元画像データC101(合成2D画像)を生成する。なお、図8は、第1の実施形態に係る合成2D画像の一例を示す図である。 Next, the image processing function 343 generates a combined 2D image by combining a plurality of slices included in the three-dimensional medical data based on the determined weight. For example, the image processing function 343 generates the two-dimensional image data C101 (composite 2D image) shown in FIG. 8 by executing the weighted average processing based on the determined weight for each XY coordinate. Note that FIG. 8 is a diagram showing an example of a composite 2D image according to the first embodiment.

例えば、画像処理機能343は、XY座標(x1,y1)について、各画素の画素値と、画素ごとに決定された重みとを用いた加重平均処理を実行する。具体的には、画像処理機能343は、スライスB120においてXY座標が(x1,y1)となる画素P1の画素値と重み「1」との積を算出するとともに、他のスライスにおいてXY座標が(x1,y1)となる画素の画素値と重み「0」との積を算出する。そして、画像処理機能343は、算出した積の和を、2次元画像データC101においてXY座標が(x1,y1)となる画素の画素値とする。 For example, the image processing function 343 executes a weighted average process for the XY coordinates (x1, y1) using the pixel value of each pixel and the weight determined for each pixel. Specifically, the image processing function 343 calculates the product of the pixel value of the pixel P1 whose XY coordinate is (x1, y1) in the slice B120 and the weight “1”, and the XY coordinates in other slices ( The product of the pixel value of the pixel of x1, y1) and the weight “0” is calculated. Then, the image processing function 343 sets the calculated sum of products as the pixel value of the pixel having the XY coordinates of (x1, y1) in the two-dimensional image data C101.

また、画像処理機能343は、病変L1の位置に含まれるXY座標のそれぞれについて、XY座標(x1,y1)と同様に2次元画像データC101の画素値を決定する。なお、この場合、2次元画像データC101のうち、スライスB120における病変L1と同じXY座標を有する領域(図8の領域R1)には、スライスB120における病変L1がそのまま反映される。 Further, the image processing function 343 determines the pixel value of the two-dimensional image data C101 for each of the XY coordinates included in the position of the lesion L1, as with the XY coordinates (x1, y1). In this case, in the two-dimensional image data C101, the lesion L1 in the slice B120 is directly reflected in the region having the same XY coordinates as the lesion L1 in the slice B120 (region R1 in FIG. 8).

また、画像処理機能343は、XY座標(x2,y2)について、各画素の画素値と、画素ごとに決定された重みとを用いた加重平均処理を実行する。具体的には、画像処理機能343は、スライスB130においてXY座標が(x2,y2)となる画素P2の画素値と重み「1」との積を算出するとともに、他のスライスにおいてXY座標が(x2,y2)となる画素の画素値と重み「0」との積を算出する。そして、画像処理機能343は、算出した積の和を、2次元画像データC101においてXY座標が(x2,y2)となる画素の画素値とする。 Further, the image processing function 343 executes a weighted average process for the XY coordinates (x2, y2) using the pixel value of each pixel and the weight determined for each pixel. Specifically, the image processing function 343 calculates the product of the pixel value of the pixel P2 whose XY coordinate is (x2, y2) in the slice B130 and the weight “1”, and the XY coordinates in other slices are ( The product of the pixel value of the pixel of x2, y2) and the weight “0” is calculated. Then, the image processing function 343 sets the calculated sum of products as the pixel value of the pixel of which the XY coordinate is (x2, y2) in the two-dimensional image data C101.

また、画像処理機能343は、病変L2の位置に含まれるXY座標のそれぞれについて、XY座標(x2,y2)と同様に、2次元画像データC101の画素値を決定する。なお、この場合、2次元画像データC101のうち、スライスB130における病変L2と同じXY座標を有する領域(図8の領域R2)には、スライスB130における病変L2がそのまま反映される。 Further, the image processing function 343 determines the pixel value of the two-dimensional image data C101 for each of the XY coordinates included in the position of the lesion L2, similarly to the XY coordinates (x2, y2). In this case, in the two-dimensional image data C101, the lesion L2 in the slice B130 is directly reflected in the region having the same XY coordinates as the lesion L2 in the slice B130 (region R2 in FIG. 8).

なお、いずれのスライスにおいても病変が検出されなかったXY座標(病変L1のXY座標及び病変L2のXY座標を除くXY座標)について、画像処理機能343は、任意の方法で2次元画像データC101の画素値を決定することができる。例えば、画像処理機能343は、いずれのスライスにおいても病変が検出されなかったXY座標については、重みを決定することなく、最小値投影により2次元画像データC101の画素値を決定する。即ち、画像処理機能343は、重みが決定された画素がスライス方向に存在する場合には決定された重みに基づく加重平均処理を実行し、重みが決定された画素がスライス方向に存在しない場合には最小値投影処理を実行することで、2次元画像データC101を生成する。 For the XY coordinates (XY coordinates excluding the XY coordinates of the lesion L1 and the XY coordinates of the lesion L2) in which no lesion was detected in any of the slices, the image processing function 343 uses the arbitrary method to store the two-dimensional image data C101. The pixel value can be determined. For example, the image processing function 343 determines the pixel value of the two-dimensional image data C101 by the minimum intensity projection without determining the weight for the XY coordinates in which the lesion is not detected in any slice. That is, the image processing function 343 executes weighted averaging processing based on the determined weights when the weighted pixels are present in the slice direction, and when the weighted pixels are not present in the slice direction. Executes the minimum value projection process to generate the two-dimensional image data C101.

上述したように、画像処理機能343は、病変の位置に基づいて複数のスライスにおける画素ごとの重みを決定し、決定した重みに基づいて複数のスライスを合成することにより、2次元画像データC101を生成する。これにより、2次元画像データC101は、個々のスライスにおける病変を表すものとなる。例えば、2次元画像データC101のうち、領域R1はスライスB120における病変L1を表し、領域R2はスライスB130における病変L2を表す。従って、医用画像処理装置30は、トモシンセシス撮影による2次元画像データC101において、病変の視認性を向上させることができる。 As described above, the image processing function 343 determines the weight for each pixel in a plurality of slices based on the position of the lesion, and synthesizes the plurality of slices based on the determined weights to generate the two-dimensional image data C101. To generate. As a result, the two-dimensional image data C101 represents the lesion in each slice. For example, in the two-dimensional image data C101, the region R1 represents the lesion L1 in the slice B120, and the region R2 represents the lesion L2 in the slice B130. Therefore, the medical image processing apparatus 30 can improve the visibility of the lesion in the two-dimensional image data C101 obtained by tomosynthesis imaging.

ここで、病変の種類には、腫瘍や石灰化、構築の乱れ等がある。このうち、腫瘍及び石灰化は、3次元医用データにおいて他の領域よりも低い画素値で表現される。従って、腫瘍及び石灰化は、通常、最小値投影等によって生成された合成2D画像上にも現れる。一方で、構築の乱れは、乳腺の形状の異変であるため、3次元医用データにおいて他の領域と画素値が大きく異なるわけではない。従って、一部のスライスに構築の乱れが現れていたとしても、最小値投影等によって生成された合成2D画像においては、通常、構築の乱れは暈けてしまう。これに対して、医用画像処理装置30は、3次元医用データに含まれる複数のスライスにおいて病変の位置を検出し、病変の位置に基づいて合成2D画像を生成することで、構築の乱れの視認性をも向上させることができる。 Here, the types of lesions include tumors, calcification, and disorder of construction. Of these, the tumor and calcification are represented by pixel values lower than those in other regions in the three-dimensional medical data. Therefore, tumors and calcifications usually also appear on the synthetic 2D images generated by eg minimum intensity projection. On the other hand, the disorder in the construction is a change in the shape of the mammary gland, so that the pixel values in the three-dimensional medical data do not differ greatly from those in other regions. Therefore, even if the construction disturbance appears in some slices, the construction disturbance is usually blurred in the synthetic 2D image generated by the minimum intensity projection or the like. On the other hand, the medical image processing apparatus 30 detects the position of the lesion in a plurality of slices included in the three-dimensional medical data, and generates a synthetic 2D image based on the position of the lesion, thereby visually confirming the disorder of the construction. It is possible to improve the sex.

なお、医用画像処理装置30は、病変の位置のみならず、病変の種類を更に用いて、合成2D画像を生成することとしてもよい。この場合、まず、検出機能342は、3次元医用データに含まれる複数のスライスにおいて、乳房Pの病変の位置及び種類を検出する。例えば、検出機能342は、図5に示したスライスB101〜スライスB150のそれぞれに対してコンピュータ支援検出(CAD)を実行することにより、スライスB101〜スライスB150において乳房Pの病変の位置及び種類を検出する。 The medical image processing apparatus 30 may generate the synthetic 2D image by further using not only the position of the lesion but also the type of the lesion. In this case, first, the detection function 342 detects the position and type of the lesion of the breast P in the plurality of slices included in the three-dimensional medical data. For example, the detection function 342 detects the position and type of the lesion of the breast P in the slices B101 to B150 by performing computer-aided detection (CAD) on each of the slices B101 to B150 shown in FIG. To do.

以下では一例として、スライスB101〜スライスB150のうち、図9Aに示すスライスB120、及び、図9Bに示すスライスB130において病変が検出された場合について説明する。なお、図9A及び図9Bは、第1の実施形態に係る病変の検出の一例を示す図である。 Hereinafter, as an example, a case will be described in which a lesion is detected in the slice B120 illustrated in FIG. 9A and the slice B130 illustrated in FIG. 9B among the slices B101 to B150. 9A and 9B are diagrams illustrating an example of lesion detection according to the first embodiment.

具体的には、検出機能342は、スライスB120のうち図9Aに示す位置において、「構築の乱れ」である病変L3を検出する。なお、図9Aに示す画素P3は、病変L3の位置の画素の一例である。以下、画素P3のXY座標を(x3,y3)とする。また、検出機能342は、スライスB130のうち図9Bに示す位置において、「腫瘍」である病変L4と、「石灰化」である病変L5を検出する。なお、図9Bに示す画素P4は、病変L4の位置の画素の一例である。画素P4のXY座標は、画素P3と同じ(x3,y3)とする。また、図9Aに示す画素P5は、病変L5の位置の画素の一例である。以下、画素P5のXY座標を(x5,y5)とする。 Specifically, the detection function 342 detects a lesion L3 that is a “construction disorder” at the position shown in FIG. 9A in the slice B120. The pixel P3 shown in FIG. 9A is an example of the pixel at the position of the lesion L3. Hereinafter, the XY coordinate of the pixel P3 is set to (x3, y3). Further, the detection function 342 detects a lesion L4 that is a “tumor” and a lesion L5 that is a “calcification” at the position shown in FIG. 9B in the slice B130. The pixel P4 shown in FIG. 9B is an example of the pixel at the position of the lesion L4. The XY coordinate of the pixel P4 is the same as that of the pixel P3 (x3, y3). Further, the pixel P5 shown in FIG. 9A is an example of the pixel at the position of the lesion L5. Hereinafter, the XY coordinates of the pixel P5 will be (x5, y5).

次に、画像処理機能343は、検出機能342により検出された病変の位置及び種類に基づいて、複数のスライスにおける画素ごとの重みを決定する。以下、病変の位置及び種類に基づく重み付け処理について、図10を用いて説明する。図10は、第1の実施形態に係る重み付け処理の一例を示す図である。 Next, the image processing function 343 determines the weight for each pixel in the plurality of slices based on the position and type of the lesion detected by the detection function 342. The weighting process based on the position and type of lesion will be described below with reference to FIG. FIG. 10 is a diagram illustrating an example of weighting processing according to the first embodiment.

例えば、画像処理機能343は、1つの病変が検出されたXY座標について、病変が検出されたスライスの画素の重みを「1」に決定し、他のスライスの画素の重みを「0」に決定する。一例を挙げると、図9A及び図9Bに示したように、XY座標(x5,y5)においては、1つの病変L5のみが検出されている。この場合、画像処理機能343は、画素P5(病変L5の位置の画素)の重みを「1」に決定するとともに、他のスライスにおいて画素P5と同じXY座標を有する画素の重みを「0」に決定する。即ち、画像処理機能343は、図10に示すように、スライスB130においてXY座標が(x5,y5)となる画素P5の重みを「1」に決定し、他のスライス(スライスB101〜スライスB129、及び、スライスB131〜スライスB150)においてXY座標が(x5,y5)となる画素の重みを「0」に決定する。また、画像処理機能343は、病変L5の位置に含まれるXY座標のそれぞれについて、XY座標(x5,y5)と同様に、各スライスにおける画素の重みを決定する。 For example, the image processing function 343 determines the weight of the pixel of the slice in which the lesion is detected to be “1” and the weight of the pixel of the other slice to be “0” for the XY coordinates in which one lesion is detected. To do. As an example, as shown in FIGS. 9A and 9B, only one lesion L5 is detected at the XY coordinates (x5, y5). In this case, the image processing function 343 determines the weight of the pixel P5 (pixel at the position of the lesion L5) to be “1”, and sets the weight of the pixel having the same XY coordinates as the pixel P5 in another slice to “0”. decide. That is, as shown in FIG. 10, the image processing function 343 determines the weight of the pixel P5 of which the XY coordinate is (x5, y5) in the slice B130 to be “1”, and the other slices (slice B101 to slice B129, Also, in the slices B131 to B150), the weight of the pixel whose XY coordinate is (x5, y5) is determined to be "0". Further, the image processing function 343 determines the weight of the pixel in each slice for each of the XY coordinates included in the position of the lesion L5, similarly to the XY coordinates (x5, y5).

また、画像処理機能343は、複数の病変が検出されたXY座標について、病変の種類を用いて各スライスの画素の重みを決定する。一例を挙げると、図9A及び図9Bに示したように、XY座標(x3,y3)においては、2つの病変(病変L3及び病変L4)が検出されている。この場合、画像処理機能343は、画素P3(病変L3の位置の画素)及び画素P4(病変L4の位置の画素)に対して、病変の種類に応じた重みを付することで、各スライスの画素の重みを決定する。 Further, the image processing function 343 determines the pixel weight of each slice using the lesion type for the XY coordinates in which a plurality of lesions are detected. As an example, as shown in FIGS. 9A and 9B, two lesions (lesion L3 and lesion L4) are detected at the XY coordinates (x3, y3). In this case, the image processing function 343 weights the pixel P3 (the pixel at the position of the lesion L3) and the pixel P4 (the pixel at the position of the lesion L4) according to the type of the lesion, so that each slice Determine the pixel weight.

例えば、画像処理機能343は、病変L3及び病変L4の種類に応じて、病変の種類の組み合わせごとに設定された比を取得する。かかる比は、予め設定されたプリセット値でもよいし、ユーザが設定するものであってもよい。例えば、画像処理機能343は、病変L3及び病変L4の種類に応じて、「構築の乱れ」と「腫瘍」との比「4:1」を、メモリ33から取得する。 For example, the image processing function 343 acquires the ratio set for each combination of lesion types according to the types of the lesion L3 and the lesion L4. The ratio may be a preset value set in advance or set by the user. For example, the image processing function 343 acquires, from the memory 33, the ratio “4:1” of “disorder of construction” and “tumor” according to the types of the lesion L3 and the lesion L4.

そして、画像処理機能343は、「構築の乱れ」の位置の画素P3の重みと、「腫瘍」の位置の画素P4の重みとの比が「4:1」となるように、各スライスの画素に重みを付する。例えば、画像処理機能343は、図10に示すように、スライスB120においてXY座標が(x3,y3)となる画素P3に対して重み「0.8」を付し、スライスB130においてXY座標が(x3,y3)となる画素P4に対して重み「0.2」を付する。即ち、画像処理機能343は、「構築の乱れ」である病変L3が検出された場合、「構築の乱れ」の位置の画素P3に、「腫瘍」である病変L4の位置の画素に付する重みよりも大きな重みを付する。 Then, the image processing function 343 sets the pixel of each slice so that the ratio of the weight of the pixel P3 at the position of “construction disorder” and the weight of the pixel P4 at the position of “tumor” is “4:1”. Weight. For example, as shown in FIG. 10, the image processing function 343 assigns a weight “0.8” to the pixel P3 whose XY coordinate is (x3, y3) in the slice B120, and the XY coordinate is ( A weight “0.2” is given to the pixel P4 which is x3, y3). That is, the image processing function 343 weights the pixel P3 at the position of “disorder of construction” to the pixel at the position of lesion L4 of “tumor” when the lesion L3 of “disorder of construction” is detected. Weight more than.

また、画像処理機能343は、他のスライス(スライスB101〜スライスB119、スライスB121〜スライスB129、及び、スライスB131〜スライスB150)においてXY座標が(x3,y3)となる画素に対して、重み「0」を付する。即ち、画像処理機能343は、病変L3及び病変L4の位置の画素に病変の種類に応じた重みを付することで、複数のスライスにおける画素ごとの重みを決定する。同様に、画像処理機能343は、病変L3及び病変L4の位置に含まれるXY座標のそれぞれについて、XY座標(x3,y3)と同様に、各スライスにおける画素の重みを決定する。 Further, the image processing function 343 weights the pixels whose XY coordinates are (x3, y3) in other slices (slice B101 to slice B119, slice B121 to slice B129, and slice B131 to slice B150). "0" is added. That is, the image processing function 343 determines the weight for each pixel in a plurality of slices by weighting the pixels at the positions of the lesion L3 and the lesion L4 according to the type of lesion. Similarly, the image processing function 343 determines the pixel weight in each slice for each of the XY coordinates included in the positions of the lesion L3 and the lesion L4, similarly to the XY coordinates (x3, y3).

そして、画像処理機能343は、決定した重みに基づいて3次元医用データに含まれる複数のスライスを合成することにより、合成2D画像を生成する。例えば、画像処理機能343は、XY座標ごとに、決定された重みに基づく加重平均処理を実行することにより、図示しない2次元画像データC102を生成する。 Then, the image processing function 343 generates a combined 2D image by combining a plurality of slices included in the three-dimensional medical data based on the determined weight. For example, the image processing function 343 generates the two-dimensional image data C102 (not shown) by performing the weighted average processing based on the determined weight for each XY coordinate.

例えば、画像処理機能343は、XY座標(x3,y3)について、各画素の画素値と、画素ごとに決定された重みとを用いた加重平均処理を実行する。具体的には、画像処理機能343は、スライスB120においてXY座標が(x3,y3)となる画素P3の画素値と重み「0.8」との積を算出し、スライスB130においてXY座標が(x3,y3)となる画素P4の画素値と重み「0.2」との積を算出し、他のスライスにおいてXY座標が(x3,y3)となる画素の画素値と重み「0」との積を算出する。そして、画像処理機能343は、算出した積の和を、2次元画像データC102においてXY座標が(x3,y3)となる画素の画素値とする。また、画像処理機能343は、病変L3及び病変L4の位置に含まれるXY座標のそれぞれについて、XY座標(x3,y3)と同様に2次元画像データC102の画素値を決定する。 For example, the image processing function 343 executes a weighted average process for the XY coordinates (x3, y3) using the pixel value of each pixel and the weight determined for each pixel. Specifically, the image processing function 343 calculates the product of the pixel value of the pixel P3 whose XY coordinate is (x3, y3) in the slice B120 and the weight “0.8”, and the XY coordinate in the slice B130 is ( The product of the pixel value of the pixel P4 that is x3, y3) and the weight “0.2” is calculated, and the pixel value of the pixel whose XY coordinate is (x3, y3) and the weight “0” are calculated in other slices. Calculate the product. Then, the image processing function 343 sets the calculated sum of the products as the pixel value of the pixel whose XY coordinate is (x3, y3) in the two-dimensional image data C102. Further, the image processing function 343 determines the pixel value of the two-dimensional image data C102 for each of the XY coordinates included in the positions of the lesion L3 and the lesion L4, similarly to the XY coordinates (x3, y3).

また、画像処理機能343は、XY座標(x5,y5)について、各画素の画素値と、画素ごとに決定された重みとを用いた加重平均処理を実行する。また、画像処理機能343は、病変L5の位置に含まれるXY座標のそれぞれについて、XY座標(x5,y5)と同様に、2次元画像データC102の画素値を決定する。また、画像処理機能343は、いずれのスライスにおいても病変が検出されなかったXY座標については、重みを決定することなく、最小値投影により2次元画像データC102の画素値を決定する。即ち、画像処理機能343は、重みが決定された画素がスライス方向に存在する場合には決定された重みに基づく加重平均処理を実行し、重みが決定された画素がスライス方向に存在しない場合には最小値投影処理を実行することで、2次元画像データC102を生成する。 Further, the image processing function 343 executes weighted averaging processing for the XY coordinates (x5, y5) using the pixel value of each pixel and the weight determined for each pixel. Further, the image processing function 343 determines the pixel value of the two-dimensional image data C102 for each of the XY coordinates included in the position of the lesion L5, similarly to the XY coordinates (x5, y5). Further, the image processing function 343 determines the pixel value of the two-dimensional image data C102 by the minimum intensity projection without determining the weight for the XY coordinates in which the lesion is not detected in any slice. That is, the image processing function 343 executes weighted averaging processing based on the determined weights when the weighted pixels are present in the slice direction, and when the weighted pixels are not present in the slice direction. Performs minimum intensity projection processing to generate two-dimensional image data C102.

上述したように、画像処理機能343は、病変の位置及び種類に基づいて複数のスライスにおける画素ごとの重みを決定し、決定した重みに基づいて複数のスライスを合成することにより、2次元画像データC102を生成する。これにより、2次元画像データC102は、複数の病変がスライス方向に重なっている場合でも、病変のそれぞれを適切に表すものとなる。 As described above, the image processing function 343 determines the weight for each pixel in a plurality of slices based on the position and type of the lesion, and synthesizes the plurality of slices based on the determined weights to generate the two-dimensional image data. Generate C102. Accordingly, the two-dimensional image data C102 appropriately represents each lesion even when a plurality of lesions overlap each other in the slice direction.

例えば、「構築の乱れ」と「腫瘍」とがスライス方向に重なっている場合において、画像処理機能343は、「構築の乱れ」の位置の画素に、「腫瘍」の位置の画素に付する重みよりも大きな重みを付して、2次元画像データC102を生成する。ここで、「構築の乱れ」は、3次元医用データにおいて他の領域と画素値が大きく異なるわけではないため、複数のスライスを合成する際に容易に暈けてしまう。これに対して、画像処理機能343は、「構築の乱れ」の位置の画素に大きな重みを付することにより、2次元画像データC102において「構築の乱れ」の暈けを緩和することができる。また、「腫瘍」や「石灰化」といった他の種類の病変は、3次元医用データにおいて他の領域よりも低い画素値で表現されるものであり、小さな重みが付されたとしても、2次元画像データC102において十分に視認することが可能である。即ち、画像処理機能343は、病変の位置及び種類に基づいて2次元画像データC102を生成することで、「構築の乱れ」と、他の種類の病変との双方の視認を可能とすることができる。 For example, when the “construction disorder” and the “tumor” overlap in the slice direction, the image processing function 343 weights the pixel at the “construction disorder” position to the pixel at the “tumor” position. The two-dimensional image data C102 is generated with a larger weight. Here, the “construction disorder” is not so different in the pixel value from other regions in the three-dimensional medical data, and therefore is easily blurred when synthesizing a plurality of slices. On the other hand, the image processing function 343 can reduce the blur of the “construction disorder” in the two-dimensional image data C102 by giving a large weight to the pixel at the “construction disorder” position. Further, other types of lesions such as “tumor” and “calcification” are represented by pixel values lower than those in other regions in the three-dimensional medical data, and even if they are given a small weight, they are two-dimensional. The image data C102 can be sufficiently viewed. That is, the image processing function 343 can enable both the “construction disorder” and the lesion of another type to be visually recognized by generating the two-dimensional image data C102 based on the position and type of the lesion. it can.

画像処理機能343により合成2D画像が生成された後、表示制御機能344は、合成2D画像をディスプレイ32に表示させる。これにより、表示制御機能344は、医用画像処理装置30のユーザに対して合成2D画像を提示することができる。或いは、制御機能341は、生成された合成2D画像を外部装置に出力してもよい。例えば、制御機能341は、ネットワークNWを介して、合成2D画像をX線診断装置10に送信する。この場合、X線診断装置10における表示制御機能114bは、合成2D画像をディスプレイ113に表示させる。これにより、表示制御機能114bは、X線診断装置10のユーザに対して合成2D画像を提示することができる。なお、合成2D画像の表示に際しては、諧調を反転することとしてもよい。 After the composite 2D image is generated by the image processing function 343, the display control function 344 causes the display 32 to display the composite 2D image. Accordingly, the display control function 344 can present the combined 2D image to the user of the medical image processing apparatus 30. Alternatively, the control function 341 may output the generated combined 2D image to an external device. For example, the control function 341 transmits the combined 2D image to the X-ray diagnostic apparatus 10 via the network NW. In this case, the display control function 114b of the X-ray diagnostic apparatus 10 causes the display 113 to display the composite 2D image. Accordingly, the display control function 114b can present the synthetic 2D image to the user of the X-ray diagnostic apparatus 10. Note that the gradation may be inverted when displaying the composite 2D image.

次に、医用画像処理装置30による処理の手順の一例を、図11を用いて説明する。図11は、第1の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS101は、制御機能341に対応するステップである。ステップS102は、検出機能342に対応するステップである。ステップS103、ステップS104、ステップS105、ステップS106、ステップS107、ステップS108、ステップS109、ステップS110及びステップS111は、画像処理機能343に対応するステップである。なお、図11においては、病変の位置及び種類に基づいて、合成2D画像を生成する場合について説明する。 Next, an example of a procedure of processing by the medical image processing apparatus 30 will be described with reference to FIG. FIG. 11 is a flowchart for explaining a series of processing flows of the medical image processing apparatus 30 according to the first embodiment. Step S101 is a step corresponding to the control function 341. Step S102 is a step corresponding to the detection function 342. Step S103, step S104, step S105, step S106, step S107, step S108, step S109, step S110 and step S111 are steps corresponding to the image processing function 343. Note that, in FIG. 11, a case where a synthetic 2D image is generated based on the position and type of lesion will be described.

まず、処理回路34は、X線診断装置10又は画像保管装置20から、3次元医用データを取得する(ステップS101)。次に、処理回路34は、3次元医用データに含まれる複数のスライスにおいて、乳房Pの病変の位置及び種類を検出する(ステップS102)。 First, the processing circuit 34 acquires three-dimensional medical data from the X-ray diagnostic apparatus 10 or the image storage apparatus 20 (step S101). Next, the processing circuit 34 detects the position and type of the lesion of the breast P in the plurality of slices included in the three-dimensional medical data (step S102).

次に、処理回路34は、3次元医用データに含まれるXY座標のうちいずれかを設定し(ステップS103)、設定したXY座標において、スライス方向(Z方向)に病変が存在するか否かを判定する(ステップS104)。即ち、処理回路34は、設定したXY座標に病変が検出されたスライスが存在するか否かを判定する。 Next, the processing circuit 34 sets any of the XY coordinates included in the three-dimensional medical data (step S103), and determines whether or not a lesion exists in the slice direction (Z direction) at the set XY coordinates. The determination is made (step S104). That is, the processing circuit 34 determines whether or not there is a slice in which a lesion is detected at the set XY coordinates.

ここで、スライス方向に病変が存在する場合(ステップS104肯定)、処理回路34は、病変が複数であるか否かを判定する(ステップS105)。また、図9A及び図9Bに示したXY座標(x3,y3)のように、病変が複数である場合(ステップS105肯定)、処理回路34は、病変の種類の組み合わせごとに設定された比を取得する(ステップS106)。 Here, when a lesion exists in the slice direction (Yes at Step S104), the processing circuit 34 determines whether or not there are a plurality of lesions (Step S105). Further, when there are a plurality of lesions (Yes in step S105), as in the XY coordinates (x3, y3) illustrated in FIGS. 9A and 9B, the processing circuit 34 sets the ratio set for each combination of lesion types. It is acquired (step S106).

図9A及び図9Bに示したXY座標(x5,y5)のように、病変が複数でない場合(ステップS105否定)、或いはステップS106の後、処理回路34は、3次元医用データに含まれる複数のスライスにおける画素ごとの重みを決定する(ステップS106)。ここで、病変が複数であった場合、処理回路34は、ステップS106にて取得した比を用いて、複数のスライスにおける画素ごとの重みを決定する。 As in the XY coordinates (x5, y5) shown in FIGS. 9A and 9B, when there are not a plurality of lesions (No at Step S105), or after Step S106, the processing circuit 34 makes a plurality of data included in the three-dimensional medical data. The weight for each pixel in the slice is determined (step S106). Here, when there are a plurality of lesions, the processing circuit 34 determines the weight for each pixel in the plurality of slices by using the ratio acquired in step S106.

次に、処理回路34は、決定した重みに基づいて加重平均処理を実行する(ステップS108)。或いは、スライス方向に病変が存在しなかった場合(ステップS104否定)、処理回路34は、最小値投影処理を実行する(ステップS109)。ステップS108又はステップS109により、処理回路34は、設定されたXY座標における合成2D画像の画素の画素値を決定することができる。 Next, the processing circuit 34 executes the weighted average processing based on the determined weight (step S108). Alternatively, when there is no lesion in the slice direction (No at Step S104), the processing circuit 34 executes the minimum value projection process (Step S109). Through step S108 or step S109, the processing circuit 34 can determine the pixel value of the pixel of the combined 2D image at the set XY coordinates.

ここで、処理回路34は、3次元医用データにおける全画素を処理済みであるか否かを判定する(ステップS110)。処理済みでない画素が残っている場合(ステップS110否定)、処理回路34は、XY座標の設定を変更して(ステップS111)、再度ステップS104に移行する。一方で、全画素を処理済みである場合(ステップS110肯定)、処理回路34は、合成2D画像の生成を完了したと判定して、処理を終了する。 Here, the processing circuit 34 determines whether or not all the pixels in the three-dimensional medical data have been processed (step S110). If there are unprocessed pixels remaining (No at Step S110), the processing circuit 34 changes the setting of the XY coordinates (Step S111), and proceeds to Step S104 again. On the other hand, when all pixels have been processed (Yes at Step S110), the processing circuit 34 determines that the generation of the combined 2D image is completed, and ends the processing.

上述したように、第1の実施形態によれば、検出機能342は、被検体の乳房Pをトモシンセシス撮影して得られた3次元医用データに含まれる複数のスライスにおいて、乳房Pの病変の位置を検出する。また、画像処理機能343は、検出された病変の位置に基づいて複数のスライスを合成することにより、2次元画像データ(合成2D画像)を生成する。従って、第1の実施形態に係る医用画像処理装置30は、トモシンセシス撮影による合成2D画像において、病変の視認性を向上させることができる。ひいては、医用画像処理装置30は、読影のスループットを向上させるとともに、病変の見落としの可能性を低減することができる。 As described above, according to the first embodiment, the detection function 342 determines the position of the lesion of the breast P in the plurality of slices included in the three-dimensional medical data obtained by tomosynthesis imaging of the breast P of the subject. To detect. Further, the image processing function 343 generates two-dimensional image data (composite 2D image) by combining a plurality of slices based on the detected lesion position. Therefore, the medical image processing apparatus 30 according to the first embodiment can improve the visibility of the lesion in the synthetic 2D image obtained by tomosynthesis imaging. As a result, the medical image processing apparatus 30 can improve the throughput of image interpretation and reduce the possibility of overlooking a lesion.

また、上述したように、第1の実施形態によれば、検出機能342は、複数のスライスにおいて病変の種類を更に検出する。また、画像処理機能343は、病変の種類を更に用いて、合成2D画像を生成する。従って、第1の実施形態に係る医用画像処理装置30は、複数の病変がスライス方向に重なっている場合等においても、病変のそれぞれを適切に表した合成2D画像を生成することができる。 Further, as described above, according to the first embodiment, the detection function 342 further detects the lesion type in the plurality of slices. Further, the image processing function 343 further uses the type of lesion to generate a synthetic 2D image. Therefore, the medical image processing apparatus 30 according to the first embodiment can generate a synthetic 2D image that appropriately represents each lesion even when a plurality of lesions overlap each other in the slice direction.

また、上述したように、第1の実施形態によれば、画像処理機能343は、病変として構築の乱れが検出された場合、構築の乱れの位置の画素に、他の種類の病変の位置の画素に付するよりも大きな重みを付する。従って、第1の実施形態に係る医用画像処理装置30は、合成の際に構築の乱れが暈けてしまうことを防ぎ、合成2D画像において構築の乱れの視認性を向上させることができる。 Further, as described above, according to the first embodiment, when the disorder of the construction is detected as the lesion, the image processing function 343 sets the pixel of the position of the disorder of the construction to the position of the lesion of another type. A larger weight is given than a pixel. Therefore, the medical image processing apparatus 30 according to the first embodiment can prevent the disorder of the construction from being blurred during the synthesis, and can improve the visibility of the disorder of the construction in the synthetic 2D image.

また、上述したように、第1の実施形態によれば、画像処理機能343は、3次元医用データから、合成2D画像を生成する。即ち、第1の実施形態に係る医用画像処理装置30は、1回の撮影によって、3次元画像データ及び2次元画像データの双方を取得することができる。従って、医用画像処理装置30は、撮影の回数を減らし、被検体の被曝量を低減することができる。 Moreover, as described above, according to the first embodiment, the image processing function 343 generates a composite 2D image from the three-dimensional medical data. That is, the medical image processing apparatus 30 according to the first embodiment can acquire both the three-dimensional image data and the two-dimensional image data by performing the photographing once. Therefore, the medical image processing apparatus 30 can reduce the number of times of imaging and reduce the exposure dose of the subject.

なお、表示制御機能344は、合成2D画像に加えて、3次元医用データを表示させてもよい。例えば、表示制御機能344は、ディスプレイ32において、3次元医用データにおける複数のスライスのいずれかを表示させたり、複数のスライスを順次表示させたりする。ここで、ユーザは、合成2D画像によって病変の位置や種類を既に把握しているため、3次元医用データを迅速に読影することができる。そして、ユーザは、病変が特に明確に現れているスライスに着目して、より詳細な観察を行なうことができる。 The display control function 344 may display three-dimensional medical data in addition to the composite 2D image. For example, the display control function 344 causes the display 32 to display any one of the plurality of slices in the three-dimensional medical data or to sequentially display the plurality of slices. Here, since the user has already grasped the position and type of the lesion by the synthetic 2D image, the user can quickly interpret the three-dimensional medical data. Then, the user can pay attention to the slice in which the lesion appears particularly clearly and perform more detailed observation.

(第2の実施形態)
上述した第1の実施形態では、病変の位置及び種類に基づいて、複数のスライスにおける画素ごとの重みを決定する場合について説明した。これに対し、第2の実施形態では、3次元医用データのスライス方向の重みの分布に基づいて、複数のスライスにおける画素ごとの重みを決定する場合について説明する。
(Second embodiment)
In the above-described first embodiment, the case has been described in which the weight for each pixel in a plurality of slices is determined based on the position and type of the lesion. On the other hand, in the second embodiment, a case will be described in which the weight for each pixel in a plurality of slices is determined based on the distribution of weights in the slice direction of the three-dimensional medical data.

第2の実施形態に係る医用画像処理システム1は、図1〜図2に示した第1の実施形態に係る医用画像処理システム1と同様の構成を有し、画像処理機能343による処理の一部が相違する。第1の実施形態において説明した構成と同様の構成を有する点については、図1〜図2と同一の符号を付し、説明を省略する。 The medical image processing system 1 according to the second embodiment has the same configuration as the medical image processing system 1 according to the first embodiment shown in FIGS. The parts are different. About the point which has the same composition as the composition explained in a 1st embodiment, the same numerals as Drawing 1-Drawing 2 are attached, and explanation is omitted.

まず、メモリ33は、病変の種類ごとに、3次元医用データのスライス方向(Z方向)の重みの分布を記憶する。ここで、メモリ33が記憶する重みの分布について、図12を用いて説明する。図12は、第2の実施形態に係る重みの分布の一例を示す図である。 First, the memory 33 stores the distribution of weights in the slice direction (Z direction) of the three-dimensional medical data for each lesion type. Here, the distribution of weights stored in the memory 33 will be described with reference to FIG. FIG. 12 is a diagram showing an example of the distribution of weights according to the second embodiment.

図12に示す重みの分布は、合成2D画像の生成に先立って事前に設定され、メモリ33に格納される。重みの分布の設定は、医用画像処理装置30が自動で行なうこととしてもよいし、入力インターフェース109を介してユーザが行うこととしてもよい。或いは、医用画像処理装置30は、外部装置により設定された重みの分布を受信して、メモリ33に格納することとしても構わない。 The weight distribution shown in FIG. 12 is set in advance and stored in the memory 33 prior to the generation of the synthetic 2D image. The setting of the distribution of weights may be automatically performed by the medical image processing apparatus 30 or may be performed by the user via the input interface 109. Alternatively, the medical image processing apparatus 30 may receive the weight distribution set by the external device and store it in the memory 33.

図12の横軸は、スライス方向(Z方向)に対応する。より具体的には、図12の横軸は、スライスの枚数に対応する。なお、図12の横軸については、スライスの枚数に代えて、スライス方向の長さとしてもよい。また、図12の横軸は、複数のスライスの各画素に付される重みの大きさに対応する。 The horizontal axis of FIG. 12 corresponds to the slice direction (Z direction). More specifically, the horizontal axis of FIG. 12 corresponds to the number of slices. Note that the horizontal axis of FIG. 12 may be the length in the slice direction instead of the number of slices. Further, the horizontal axis of FIG. 12 corresponds to the magnitude of the weight given to each pixel of the plurality of slices.

図12においては、「石灰化」、「構築の乱れ」及び「腫瘍」の3種類の病変について設定された、3つの重みの分布を示す。ここで、3つの重みの分布は、「石灰化」、「構築の乱れ」、「腫瘍」の順にスライス方向への広がりが小さくなるように設定されている。即ち、メモリ33は、病変のサイズが小さいほど尖度が大きくなるように設定された重みの分布を記憶する。また、3つの重みの分布は、互いに総面積が同程度となるように設定されている。例えば、「腫瘍」の重みの分布は、スライス方向への広がりが大きい分、ピークの値が小さくなるように設定されている。なお、図12においては連続的に設定された分布を示すが、メモリ33は、離散的に設定された分布(配列)を記憶することとしてもよい。 FIG. 12 shows distributions of three weights set for three types of lesions of “calcification”, “disorder of construction”, and “tumor”. Here, the distribution of the three weights is set such that the spread in the slice direction becomes smaller in the order of “calcification”, “disorder of construction”, and “tumor”. That is, the memory 33 stores the distribution of weights set such that the kurtosis increases as the lesion size decreases. In addition, the distributions of the three weights are set so that their total areas are approximately the same. For example, the distribution of the weight of “tumor” is set such that the larger the spread in the slice direction, the smaller the peak value. Although FIG. 12 shows the distribution set continuously, the memory 33 may store the distribution (array) set discretely.

処理回路34は、図12に示した重みの分布を用いて複数のスライスにおける画素ごとの重みを決定することにより、合成2D画像を生成する。具体的には、まず、検出機能342が複数のスライスにおいて病変の位置及び種類を検出する。次に、画像処理機能343は、検出機能342により検出された病変の位置に、病変の種類に応じた重みの分布を適用することで、複数のスライスにおける画素ごとの重みを決定する。更に、画像処理機能343は、決定した重みに基づいて複数のスライスを合成することにより、合成2D画像を生成する。 The processing circuit 34 determines a weight for each pixel in a plurality of slices by using the weight distribution shown in FIG. 12, thereby generating a combined 2D image. Specifically, first, the detection function 342 detects the position and type of lesion in a plurality of slices. Next, the image processing function 343 determines the weight for each pixel in the plurality of slices by applying the distribution of weights according to the type of lesion to the position of the lesion detected by the detection function 342. Further, the image processing function 343 generates a combined 2D image by combining a plurality of slices based on the determined weight.

以下では一例として、スライスB101〜スライスB150のうち、図6Aに示したスライスB120において「腫瘍」である病変L1が検出され、図6Bに示したスライスB130において「石灰化」である病変L2が検出された場合について説明する。この場合、画像処理機能343は、スライスB120の病変L1の位置に対して「腫瘍」の重みの分布を適用し、スライスB130の病変L2の位置に対して「石灰化」の重みの分布を適用することで、複数のスライスにおける画素ごとの重みを決定する。 Hereinafter, as an example, among the slices B101 to B150, a lesion L1 that is a “tumor” is detected in the slice B120 illustrated in FIG. 6A, and a lesion L2 that is “calcified” is detected in the slice B130 illustrated in FIG. 6B. The case where it is performed will be described. In this case, the image processing function 343 applies the distribution of the weight of “tumor” to the position of the lesion L1 of the slice B120 and the distribution of the weight of “calcification” to the position of the lesion L2 of the slice B130. By doing so, the weight for each pixel in the plurality of slices is determined.

具体的には、画像処理機能343は、まず、図12に示した3つの重みの分布のうち、「腫瘍」の重みの分布をメモリ33から読み出す。次に、画像処理機能343は、「腫瘍」の重みの分布における(0)をスライスB120に合わせるように、スライスB120の病変L1の位置の画素P1に対して「腫瘍」の重みの分布を適用する。即ち、画像処理機能343は、(−2)をスライスB118に合わせ、(−1)をスライスB119に合わせ、(0)をスライスB120に合わせ、(+1)をスライスB121に合わせ、(+2)をスライスB122に合わせるように、画素P1に対して「腫瘍」の重みの分布を適用する。 Specifically, the image processing function 343 first reads from the memory 33 the weight distribution of “tumor” among the three weight distributions shown in FIG. Next, the image processing function 343 applies the distribution of the weight of “tumor” to the pixel P1 at the position of the lesion L1 of the slice B120 so that (0) in the distribution of weight of “tumor” is matched with the slice B120. To do. That is, the image processing function 343 matches (-2) with the slice B118, (-1) with the slice B119, (0) with the slice B120, (+1) with the slice B121, and (+2). The distribution of the weight of "tumor" is applied to the pixel P1 so as to match the slice B122.

画素P1に対して「腫瘍」の重みの分布を適用することにより、画像処理機能343は、スライスB120における画素P1、及び、他のスライスにおいて画素P1と同じXY座標を有する画素の重みを決定する。例えば、画像処理機能343は、図13に示すように、画素P1と同じXY座標(x1,y1)を有する各画素の重みを決定する。なお、図13は、第2の実施形態に係る重み付け処理の一例を示す図である。 By applying the distribution of the “tumor” weight to the pixel P1, the image processing function 343 determines the weight of the pixel P1 in the slice B120 and the pixel having the same XY coordinates as the pixel P1 in the other slices. .. For example, the image processing function 343 determines the weight of each pixel having the same XY coordinates (x1, y1) as the pixel P1, as shown in FIG. Note that FIG. 13 is a diagram illustrating an example of the weighting process according to the second embodiment.

即ち、画像処理機能343は、図13に示すように、スライスB118においてXY座標が(x1,y1)となる画素の重みを「0.1」に決定し、スライスB119においてXY座標が(x1,y1)となる画素の重みを「0.2」に決定し、スライスB120においてXY座標が(x1,y1)となる画素P1の重みを「0.4」に決定し、スライスB121においてXY座標が(x1,y1)となる画素の重みを「0.2」に決定し、スライスB122においてXY座標が(x1,y1)となる画素の重みを「0.1」に決定する。また、画像処理機能343は、他のスライス(スライスB101〜スライスB117、及び、スライスB123〜スライスB150)においてXY座標が(x1,y1)となる画素の重みを「0」に決定する。また、画像処理機能343は、病変L1の位置に含まれるXY座標のそれぞれについて、XY座標(x1,y1)と同様に、各スライスにおける画素の重みを決定する。 That is, as shown in FIG. 13, the image processing function 343 determines the weight of the pixel whose XY coordinate is (x1, y1) in the slice B118 to be “0.1”, and the XY coordinate is (x1, y1) in the slice B119. The pixel weight of y1) is determined to be “0.2”, the weight of the pixel P1 of which the XY coordinate is (x1, y1) is determined to be “0.4” in the slice B120, and the XY coordinate is determined to be in the slice B121. The weight of the pixel having (x1, y1) is determined to be “0.2”, and the weight of the pixel having the XY coordinate of (x1, y1) is determined to be “0.1” in the slice B122. Further, the image processing function 343 determines the weight of the pixel having the XY coordinates (x1, y1) in the other slices (slice B101 to slice B117 and slice B123 to slice B150) to be “0”. Further, the image processing function 343 determines the weight of the pixel in each slice for each of the XY coordinates included in the position of the lesion L1, similarly to the XY coordinates (x1, y1).

また、画像処理機能343は、図12に示した3つの重みの分布のうち、「石灰化」の重みの分布をメモリ33から読み出す。次に、画像処理機能343は、「石灰化」の重みの分布における(0)をスライスB130に合わせるように、スライスB130の病変L2の位置の画素P2に対して「腫瘍」の重みの分布を適用する。即ち、画像処理機能343は、(−2)をスライスB128に合わせ、(−1)をスライスB129に合わせ、(0)をスライスB130に合わせ、(+1)をスライスB131に合わせ、(+2)をスライスB132に合わせるように、画素P2に対して「石灰化」の重みの分布を適用する。これにより、画像処理機能343は、スライスB130における画素P2、及び、他のスライスにおいて画素P2と同じXY座標を有する画素の重みを決定する。 Further, the image processing function 343 reads out the distribution of the weight of “calcification” from the memory 33 among the distributions of the three weights shown in FIG. Next, the image processing function 343 sets the distribution of the weight of “tumor” to the pixel P2 at the position of the lesion L2 of the slice B130 so that (0) in the distribution of the weight of “calcification” is matched with the slice B130. Apply. That is, the image processing function 343 aligns (-2) with the slice B128, (-1) with the slice B129, (0) with the slice B130, (+1) with the slice B131, and (+2). The distribution of the weight of "calcification" is applied to the pixel P2 so as to match the slice B132. Thereby, the image processing function 343 determines the weight of the pixel P2 in the slice B130 and the pixel having the same XY coordinate as the pixel P2 in the other slice.

即ち、画像処理機能343は、図13に示すように、スライスB129においてXY座標が(x2,y2)となる画素の重みを「0.1」に決定し、スライスB130においてXY座標が(x2,y2)となる画素の重みを「0.8」に決定し、スライスB131においてXY座標が(x2,y2)となる画素の重みを「0.1」に決定する。また、画像処理機能343は、他のスライス(スライスB101〜スライスB128、及び、スライスB132〜スライスB150)においてXY座標が(x2,y2)となる画素の重みを「0」に決定する。また、画像処理機能343は、病変L2の位置に含まれるXY座標のそれぞれについて、XY座標(x2,y2)と同様に、各スライスにおける画素の重みを決定する。 That is, as shown in FIG. 13, the image processing function 343 determines the weight of the pixel whose XY coordinate is (x2, y2) in the slice B129 to be “0.1”, and in the slice B130, the XY coordinate is (x2, y2). The pixel weight of y2) is determined to be “0.8”, and the pixel weight of the slice B131 whose XY coordinate is (x2, y2) is determined to be “0.1”. Further, the image processing function 343 determines the weight of the pixel having the XY coordinates (x2, y2) in the other slices (slice B101 to slice B128 and slice B132 to slice B150) to be “0”. Further, the image processing function 343 determines the weight of the pixel in each slice for each of the XY coordinates included in the position of the lesion L2, similarly to the XY coordinates (x2, y2).

そして、画像処理機能343は、決定した重みに基づいて3次元医用データに含まれる複数のスライスを合成することにより、合成2D画像を生成する。例えば、画像処理機能343は、XY座標ごとに、決定された重みに基づく加重平均処理を実行することにより、図示しない2次元画像データC201を生成する。例えば、画像処理機能343は、重みが決定された画素がスライス方向に存在する場合には決定された重みに基づく加重平均処理を実行し、重みが決定された画素がスライス方向に存在しない場合には最小値投影処理を実行することで、2次元画像データC201を生成する。 Then, the image processing function 343 generates a combined 2D image by combining a plurality of slices included in the three-dimensional medical data based on the determined weight. For example, the image processing function 343 generates the two-dimensional image data C201 (not shown) by performing the weighted average processing based on the determined weight for each XY coordinate. For example, the image processing function 343 executes weighted averaging processing based on the determined weights when the weighted pixels are present in the slice direction, and when the weighted pixels are not present in the slice direction. Performs minimum intensity projection processing to generate two-dimensional image data C201.

次に、スライス方向に複数の病変が重なっている場合について説明する。以下では一例として、スライスB101〜スライスB150のうち、図14Aに示すスライスB120において「腫瘍」である病変L6が検出され、図14Bに示すスライスB130において「石灰化」である病変L7が検出された場合について説明する。なお、図14A及び図14Bは、第2の実施形態に係る病変の検出の一例を示す図である。 Next, a case where a plurality of lesions overlap in the slice direction will be described. As an example below, among the slices B101 to B150, a lesion L6 that is a “tumor” is detected in the slice B120 illustrated in FIG. 14A, and a lesion L7 that is a “calcification” is detected in the slice B130 illustrated in FIG. 14B. The case will be described. 14A and 14B are diagrams illustrating an example of lesion detection according to the second embodiment.

なお、図14Aに示す画素P6及び画素P7は、病変L6の位置の画素の一例である。以下、画素P6のXY座標を(x6,y6)とし、画素P7のXY座標を(x7,y7)とする。また、図14Bに示す画素P8は、病変L7の位置の画素の一例である。画素P8のXY座標は、画素P6と同じ(x6,y6)とする。また、図14Bに示す画素P9は、画素P7と同じXY座標(x7,y7)を有する画素である。図14Bに示すように、画素P9は、病変L7の位置には含まれない。 The pixel P6 and the pixel P7 illustrated in FIG. 14A are examples of pixels at the position of the lesion L6. Hereinafter, the XY coordinate of the pixel P6 is set to (x6, y6), and the XY coordinate of the pixel P7 is set to (x7, y7). The pixel P8 illustrated in FIG. 14B is an example of the pixel at the position of the lesion L7. The XY coordinate of the pixel P8 is the same as that of the pixel P6 (x6, y6). The pixel P9 illustrated in FIG. 14B is a pixel having the same XY coordinates (x7, y7) as the pixel P7. As shown in FIG. 14B, the pixel P9 is not included in the position of the lesion L7.

図14A及び図14Bに示すように、検出機能342は、XY座標(x6,y6)において、病変L6及び病変L7を検出している。即ち、図14A及び図14Bは、検出機能342が、スライス方向に重なる位置において、複数の病変を検出した場合を示す。この場合、画像処理機能343は、例えば、複数の病変それぞれの種類に応じた重みの分布を、複数の病変それぞれの位置に応じて合成することで合成分布を算出し、算出した合成分布に基づいて複数のスライスにおける画素ごとの重みを決定する。 As shown in FIGS. 14A and 14B, the detection function 342 detects the lesion L6 and the lesion L7 at the XY coordinates (x6, y6). That is, FIGS. 14A and 14B show a case where the detection function 342 detects a plurality of lesions at positions overlapping in the slice direction. In this case, the image processing function 343 calculates the composite distribution by, for example, combining the distributions of the weights corresponding to the types of the plurality of lesions according to the positions of the plurality of lesions, and based on the calculated composite distributions. Determine the weight for each pixel in the plurality of slices.

具体的には、画像処理機能343は、まず、図12に示した3つの重みの分布のうち、「腫瘍」の重みの分布、及び、「石灰化」の重みの分布をメモリ33から読み出す。次に、画像処理機能343は、「腫瘍」の重みの分布をスライスB120に合わせ、「石灰化」の重みの分布をスライスB130に合わせた状態で、「腫瘍」の重みの分布と「石灰化」の重みの分布とを合成することにより、合成分布を算出する。 Specifically, the image processing function 343 first reads from the memory 33 the weight distribution of “tumor” and the weight distribution of “calcification” among the three weight distributions shown in FIG. Next, the image processing function 343 adjusts the weight distribution of “tumor” to the slice B120 and the weight distribution of “calcification” to the slice B130, and then distributes the weight of “tumor” and the “calcification”. And the distribution of the weights of “” are combined to calculate a combined distribution.

なお、1つの病変が複数のスライスに亘って検出された場合、画像処理機能343は、例えば、複数のスライスのうち中央のスライスに重みの分布を合わせた状態で、合成分布を算出する。例えば、図15に示すように、「腫瘍」である病変L6がスライスB119、スライスB120及びスライスB121に亘って検出された場合、画像処理機能343は、中央のスライスB120に「腫瘍」の重みの分布を合わせる。そして、画像処理機能343は、「腫瘍」の重みの分布をスライスB120に合わせ、「石灰化」の重みの分布をスライスB130に合わせた状態で、「腫瘍」の重みの分布と「石灰化」の重みの分布とを合成することにより、図15の下図に示す合成分布を算出する。なお、図15は、第2の実施形態に係る合成分布の算出の一例を示す図である。 When one lesion is detected over a plurality of slices, the image processing function 343 calculates the composite distribution in a state where the weight distribution is matched to the central slice of the plurality of slices, for example. For example, as illustrated in FIG. 15, when the lesion L6 that is a “tumor” is detected over the slice B119, the slice B120, and the slice B121, the image processing function 343 sets the weight of the “tumor” to the central slice B120. Match the distribution. Then, the image processing function 343 matches the distribution of the weight of “tumor” with the slice B120 and the distribution of the weight of “calcification” with the slice B130, and the distribution of the weight of “tumor” and the “calcification”. 15 and the distribution of the weights are combined to calculate a combined distribution shown in the lower part of FIG. Note that FIG. 15 is a diagram illustrating an example of calculation of the combined distribution according to the second embodiment.

そして、画像処理機能343は、算出した合成分布に基づいて、複数のスライスにおける画素ごとの重みを決定する。例えば、画像処理機能343は、図15の下図に示す合成分布におけるピークm1をスライスB120に合わせ、ピークm2をスライスB130に合わせるように、病変L6の位置の画素P6及び病変L7の位置の画素P8に対して合成分布を適用する。これにより、画像処理機能343は、スライスB120における画素P6、スライスB130における画素P8、及び、他のスライスにおいて画素P6及び画素P8と同じXY座標を有する画素の重みを決定する。 Then, the image processing function 343 determines the weight for each pixel in the plurality of slices based on the calculated combined distribution. For example, the image processing function 343 aligns the peak m1 in the composite distribution shown in the lower diagram of FIG. 15 with the slice B120 and the peak m2 with the slice B130 so that the pixel P6 at the position of the lesion L6 and the pixel P8 at the position of the lesion L7. Apply the composite distribution to. Accordingly, the image processing function 343 determines the weights of the pixel P6 in the slice B120, the pixel P8 in the slice B130, and the pixels having the same XY coordinates as the pixels P6 and P8 in the other slices.

例えば、画像処理機能343は、図16に示すように、スライスB118においてXY座標が(x6,y6)となる画素の重みを「0.05」に決定し、スライスB119においてXY座標が(x6,y6)となる画素の重みを「0.1」に決定し、スライスB120においてXY座標が(x6,y6)となる画素の重みを「0.2」に決定し、スライスB121においてXY座標が(x6,y6)となる画素の重みを「0.1」に決定し、スライスB122においてXY座標が(x6,y6)となる画素の重みを「0.05」に決定する。また、画像処理機能343は、スライスB129においてXY座標が(x6,y6)となる画素の重みを「0.05」に決定し、スライスB130においてXY座標が(x6,y6)となる画素の重みを「0.4」に決定し、スライスB131においてXY座標が(x6,y6)となる画素の重みを「0.05」に決定する。また、画像処理機能343は、他のスライス(スライスB101〜スライスB117、スライスB123〜スライスB128、及び、スライスB132〜スライスB150)においてXY座標が(x6,y6)となる画素の重みを「0」に決定する。また、画像処理機能343は、病変L6及び病変L7の双方の位置に含まれるXY座標のそれぞれについて、XY座標(x6,y6)と同様に、各スライスにおける画素の重みを決定する。なお、図16は、第2の実施形態に係る重み付け処理の一例を示す図である。 For example, as shown in FIG. 16, the image processing function 343 determines the weight of the pixel whose XY coordinate is (x6, y6) in the slice B118 to be “0.05”, and the XY coordinate is (x6, in the slice B119. The pixel weight of y6) is determined to be "0.1", the weight of the pixel whose XY coordinate is (x6, y6) is determined to be "0.2" in the slice B120, and the XY coordinate is ( The weight of the pixel having x6, y6) is determined to be “0.1”, and the weight of the pixel having the XY coordinate of (x6, y6) in the slice B122 is determined to be “0.05”. Further, the image processing function 343 determines the weight of the pixel having the XY coordinate of (x6, y6) in the slice B129 to be “0.05”, and the weight of the pixel having the XY coordinate of (x6, y6) in the slice B130. Is determined to be “0.4”, and the weight of the pixel whose XY coordinate is (x6, y6) in the slice B131 is determined to be “0.05”. In addition, the image processing function 343 weights the pixels whose XY coordinates are (x6, y6) in other slices (slice B101 to slice B117, slice B123 to slice B128, and slice B132 to slice B150) to be “0”. To decide. Further, the image processing function 343 determines the weight of the pixel in each slice for each of the XY coordinates included in the positions of both the lesion L6 and the lesion L7, similarly to the XY coordinates (x6, y6). Note that FIG. 16 is a diagram illustrating an example of weighting processing according to the second embodiment.

また、図14A及び図14Bに示したように、XY座標(x7,y7)においては、1つの病変(「腫瘍」である病変L6)のみが検出されている。この場合、画像処理機能343は、検出機能342により検出された病変L6の位置に、「腫瘍」の重みの分布を適用することで、複数のスライスにおける画素ごとの重みを決定する。 Further, as shown in FIGS. 14A and 14B, only one lesion (lesion L6 that is a “tumor”) is detected at the XY coordinates (x7, y7). In this case, the image processing function 343 applies the weight distribution of “tumor” to the position of the lesion L6 detected by the detection function 342 to determine the weight for each pixel in the plurality of slices.

具体的には、画像処理機能343は、「腫瘍」の重みの分布をメモリ33から読み出して、スライスB120の病変L6の位置の画素P7に「腫瘍」の重みの分布を適用する。これにより、画像処理機能343は、スライスB120における画素P7、及び、他のスライスにおいて画素P7と同じXY座標を有する画素の重みを決定する。例えば、画像処理機能343は、図16に示すように、画素P7と同じXY座標(x7,y7)を有する各画素の重みを決定する。 Specifically, the image processing function 343 reads the weight distribution of “tumor” from the memory 33, and applies the weight distribution of “tumor” to the pixel P7 at the position of the lesion L6 of the slice B120. Accordingly, the image processing function 343 determines the weight of the pixel P7 in the slice B120 and the pixel having the same XY coordinates as the pixel P7 in the other slice. For example, the image processing function 343 determines the weight of each pixel having the same XY coordinates (x7, y7) as the pixel P7, as shown in FIG.

即ち、画像処理機能343は、スライスB118においてXY座標が(x7,y7)となる画素の重みを「0.1」に決定し、スライスB119においてXY座標が(x7,y7)となる画素の重みを「0.2」に決定し、スライスB120においてXY座標が(x7,y7)となる画素P7の重みを「0.4」に決定し、スライスB121においてXY座標が(x7,y7)となる画素の重みを「0.2」に決定し、スライスB122においてXY座標が(x7,y7)となる画素の重みを「0.1」に決定する。また、画像処理機能343は、他のスライス(スライスB101〜スライスB117、及び、スライスB123〜スライスB150)においてXY座標が(x7,y7)となる画素の重みを「0」に決定する。また、画像処理機能343は、病変L6の位置に含まれ、且つ、病変L7の位置に含まれないXY座標のそれぞれについて、XY座標(x7,y7)と同様に、各スライスにおける画素の重みを決定する。 That is, the image processing function 343 determines the weight of the pixel of which the XY coordinate is (x7, y7) in the slice B118 to be "0.1", and the weight of the pixel of which the XY coordinate is (x7, y7) is in the slice B119. Is determined to be “0.2”, the weight of the pixel P7 whose XY coordinate is (x7, y7) in the slice B120 is determined to be “0.4”, and the XY coordinate is (x7, y7) in the slice B121. The weight of the pixel is determined to be “0.2”, and the weight of the pixel of which the XY coordinate is (x7, y7) in the slice B122 is determined to be “0.1”. Further, the image processing function 343 determines the weight of the pixel having the XY coordinates (x7, y7) in the other slices (slice B101 to slice B117 and slice B123 to slice B150) to be “0”. Further, the image processing function 343, for each of the XY coordinates included in the position of the lesion L6 and not included in the position of the lesion L7, sets the pixel weight in each slice in the same manner as the XY coordinates (x7, y7). decide.

そして、画像処理機能343は、決定した重みに基づいて3次元医用データに含まれる複数のスライスを合成することにより、合成2D画像を生成する。例えば、画像処理機能343は、XY座標ごとに、決定された重みに基づく加重平均処理を実行することにより、図示しない2次元画像データC202を生成する。例えば、画像処理機能343は、重みが決定された画素がスライス方向に存在する場合には決定された重みに基づく加重平均処理を実行し、重みが決定された画素がスライス方向に存在しない場合には最小値投影処理を実行することで、2次元画像データC202を生成する。 Then, the image processing function 343 generates a combined 2D image by combining a plurality of slices included in the three-dimensional medical data based on the determined weight. For example, the image processing function 343 generates the two-dimensional image data C202 (not shown) by performing the weighted average processing based on the determined weight for each XY coordinate. For example, the image processing function 343 executes weighted averaging processing based on the determined weights when the weighted pixels are present in the slice direction, and when the weighted pixels are not present in the slice direction. Performs two-dimensional image data C202 by executing the minimum intensity projection process.

次に、医用画像処理装置30による処理の手順の一例を、図17を用いて説明する。図17は、第2の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS201は、制御機能341に対応するステップである。ステップS202は、検出機能342に対応するステップである。ステップS203、ステップS204、ステップS205、ステップS206、ステップS207、ステップS208、ステップS209、ステップS210、ステップS211及びステップS212は、画像処理機能343に対応するステップである。 Next, an example of a processing procedure by the medical image processing apparatus 30 will be described with reference to FIG. FIG. 17 is a flowchart for explaining a series of processing flows of the medical image processing apparatus 30 according to the second embodiment. Step S201 is a step corresponding to the control function 341. Step S202 is a step corresponding to the detection function 342. Step S203, step S204, step S205, step S206, step S207, step S208, step S209, step S210, step S211 and step S212 are steps corresponding to the image processing function 343.

まず、処理回路34は、X線診断装置10又は画像保管装置20から、3次元医用データを取得する(ステップS201)。次に、処理回路34は、3次元医用データに含まれる複数のスライスにおいて、乳房Pの病変の位置及び種類を検出する(ステップS202)。 First, the processing circuit 34 acquires three-dimensional medical data from the X-ray diagnostic apparatus 10 or the image storage apparatus 20 (step S201). Next, the processing circuit 34 detects the position and type of the lesion of the breast P in the plurality of slices included in the three-dimensional medical data (step S202).

次に、処理回路34は、3次元医用データに含まれるXY座標のうちいずれかを設定し(ステップS203)、設定したXY座標において、スライス方向(Z方向)に病変が存在するか否かを判定する(ステップS204)。即ち、処理回路34は、設定したXY座標に病変が検出されたスライスが存在するか否かを判定する。 Next, the processing circuit 34 sets any of the XY coordinates included in the three-dimensional medical data (step S203) and determines whether or not a lesion exists in the slice direction (Z direction) at the set XY coordinates. The determination is made (step S204). That is, the processing circuit 34 determines whether or not there is a slice in which a lesion is detected at the set XY coordinates.

ここで、スライス方向に病変が存在する場合(ステップS204肯定)、処理回路34は、病変が複数であるか否かを判定する(ステップS205)。また、図14A及び図14Bに示したXY座標(x6,y6)のように、病変が複数である場合(ステップS205肯定)、処理回路34は、複数の病変それぞれの種類に応じた重みの分布をメモリ33から読み出して、読み出した複数の分布を、複数の病変それぞれの位置に応じて合成することで、合成分布を算出する(ステップS206)。 Here, when a lesion exists in the slice direction (Yes at Step S204), the processing circuit 34 determines whether or not there are a plurality of lesions (Step S205). When there are a plurality of lesions (Yes in step S205), as in the XY coordinates (x6, y6) shown in FIGS. 14A and 14B, the processing circuit 34 distributes the weights according to the types of the plurality of lesions. Is read from the memory 33, and the read distributions are combined according to the positions of the lesions to calculate a combined distribution (step S206).

図9A及び図9Bに示したXY座標(x7,y7)のように病変が複数でない場合(ステップS205否定)、或いはステップS206の後、処理回路34は、複数のスライスに対して分布を適用する(ステップS207)。ここで、病変が複数でなかった場合、処理回路34は、病変の種類に応じた分布を複数のスライスに適用する。一方で、病変が複数であった場合、処理回路34は、ステップS206にて算出した合成分布を複数のスライスに適用する。これにより、処理回路34は、複数のスライスにおける画素ごとの重みを決定する(ステップS208)。 When there are not a plurality of lesions like the XY coordinates (x7, y7) shown in FIGS. 9A and 9B (No at Step S205), or after Step S206, the processing circuit 34 applies the distribution to the plurality of slices. (Step S207). Here, when there are not a plurality of lesions, the processing circuit 34 applies the distribution according to the type of lesion to the plurality of slices. On the other hand, when there are a plurality of lesions, the processing circuit 34 applies the composite distribution calculated in step S206 to the plurality of slices. Accordingly, the processing circuit 34 determines the weight for each pixel in the plurality of slices (step S208).

次に、処理回路34は、決定した重みに基づいて加重平均処理を実行する(ステップS209)。或いは、スライス方向に病変が存在しなかった場合(ステップS204否定)、処理回路34は、最小値投影処理を実行する(ステップS210)。ステップS209又はステップS210により、処理回路34は、設定されたXY座標における合成2D画像の画素の画素値を決定することができる。 Next, the processing circuit 34 executes the weighted average processing based on the determined weight (step S209). Alternatively, when there is no lesion in the slice direction (No at Step S204), the processing circuit 34 executes the minimum value projection process (Step S210). Through step S209 or step S210, the processing circuit 34 can determine the pixel value of the pixel of the combined 2D image at the set XY coordinates.

ここで、処理回路34は、3次元医用データにおける全画素を処理済みであるか否かを判定する(ステップS211)。処理済みでない画素が残っている場合(ステップS211否定)、処理回路34は、XY座標の設定を変更して(ステップS212)、再度ステップS204に移行する。一方で、全画素を処理済みである場合(ステップS211肯定)、処理回路34は、合成2D画像の生成を完了したと判定して、処理を終了する。 Here, the processing circuit 34 determines whether or not all pixels in the three-dimensional medical data have been processed (step S211). If there are unprocessed pixels remaining (No at Step S211), the processing circuit 34 changes the XY coordinate setting (Step S212), and the process proceeds to Step S204 again. On the other hand, when all the pixels have been processed (Yes in step S211), the processing circuit 34 determines that the generation of the combined 2D image is completed, and ends the processing.

上述したように、第2の実施形態によれば、メモリ33は、病変の種類ごとに、3次元医用データのスライス方向の重みの分布を記憶する。また、検出機能342は、複数のスライスにおいて、病変の位置及び種類を検出する。また、画像処理機能343は、検出機能342により検出された病変の位置に、病変の種類に応じた重みの分布を適用することで、複数のスライスにおける画素ごとの重みを決定し、決定した重みに基づいて複数のスライスを合成することにより合成2D画像を生成する。従って、第2の実施形態に係る医用画像処理装置30は、トモシンセシス撮影による合成2D画像において、病変の視認性を向上させることができる。 As described above, according to the second embodiment, the memory 33 stores the distribution of weights in the slice direction of the three-dimensional medical data for each lesion type. Further, the detection function 342 detects the position and type of lesion in a plurality of slices. Further, the image processing function 343 determines the weight for each pixel in the plurality of slices by applying the distribution of the weights according to the type of the lesion to the position of the lesion detected by the detection function 342, and determines the determined weight. A composite 2D image is generated by combining a plurality of slices based on Therefore, the medical image processing apparatus 30 according to the second embodiment can improve the visibility of the lesion in the synthetic 2D image obtained by tomosynthesis imaging.

また、上述したように、メモリ33は、病変のサイズが小さいほど尖度が大きくなるように設定された重みの分布を記憶する。即ち、医用画像処理装置30は、腫瘍や構築の乱れのようにサイズが大きい病変については多数のスライスからの情報を合成2D画像に反映させ、石灰化のようにサイズの小さい病変については少数のスライスからの情報を合成2D画像に反映させる。従って、第2の実施形態に係る医用画像処理装置30は、複数のスライスが有していた病変の情報を合成2D画像に過不足なく反映させて、病変の視認性を向上させることができる。 Further, as described above, the memory 33 stores the distribution of weights set so that the kurtosis increases as the lesion size decreases. That is, the medical image processing apparatus 30 reflects information from a large number of slices on a synthetic 2D image for a lesion having a large size such as a tumor or a disorder of construction, and a small number for a lesion having a small size such as calcification. The information from the slice is reflected in the composite 2D image. Therefore, the medical image processing apparatus 30 according to the second embodiment can improve the visibility of the lesion by reflecting the information of the lesion included in the plurality of slices on the composite 2D image without excess or deficiency.

また、上述したように、検出機能342がスライス方向に重なる位置において複数の病変を検出した場合、画像処理機能343は、複数の病変それぞれの種類に応じた重みの分布を、複数の病変それぞれの位置に応じて合成することで合成分布を算出し、合成分布に基づいて複数のスライスにおける画素ごとの重みを決定する。また、検出機能342がスライス方向に重なる位置において1つの病変を検出した場合、画像処理機能343は、病変の種類に応じた重みの分布に基づいて複数のスライスにおける画素ごとの重みを決定する。従って、第2の実施形態に係る医用画像処理装置30は、複数の病変がスライス方向に重なっている場合等においても、病変のそれぞれを適切に表した合成2D画像を生成することができる。 Further, as described above, when the detection function 342 detects a plurality of lesions at positions overlapping in the slice direction, the image processing function 343 causes the distribution of weights according to the types of the plurality of lesions to be distributed to each of the plurality of lesions. A composite distribution is calculated by combining them according to the position, and a weight for each pixel in a plurality of slices is determined based on the composite distribution. Further, when the detection function 342 detects one lesion at a position overlapping in the slice direction, the image processing function 343 determines the weight for each pixel in a plurality of slices based on the distribution of weights according to the type of lesion. Therefore, the medical image processing apparatus 30 according to the second embodiment can generate a synthetic 2D image that appropriately represents each lesion even when a plurality of lesions overlap each other in the slice direction.

例えば、図14A及び図14Bに示したXY座標(x6,y6)においては、合成分布に基づいて、「腫瘍」である病変L6と「石灰化」である病変L7との双方に重みが付される。従って、生成される合成2D画像(2次元画像データC202)のXY座標(x6,y6)においては、「腫瘍」と「石灰化」とが重なって表現される。また、例えば、XY座標(x7,y7)においては、「腫瘍」の重みの分布に基づいて、「腫瘍」である病変L6に重みが付される。従って、2次元画像データC202のXY座標(x7,y7)においては、「腫瘍」が優先的に表現される。即ち、2次元画像データC202においては、「腫瘍」及び「石灰化」の双方を視認することが可能である。 For example, in the XY coordinates (x6, y6) shown in FIGS. 14A and 14B, both the lesion L6 that is a “tumor” and the lesion L7 that is a “calcification” are weighted based on the composite distribution. It Therefore, in the XY coordinates (x6, y6) of the generated synthetic 2D image (two-dimensional image data C202), “tumor” and “calcification” are expressed in an overlapping manner. Further, for example, at the XY coordinates (x7, y7), the lesion L6 that is a “tumor” is weighted based on the distribution of the weight of the “tumor”. Therefore, in the XY coordinates (x7, y7) of the two-dimensional image data C202, "tumor" is preferentially expressed. That is, in the two-dimensional image data C202, both "tumor" and "calcification" can be visually recognized.

(第3の実施形態)
上述した第1の実施形態では、3次元医用データに含まれる複数のスライスを合成することにより、合成2D画像を生成する場合について説明した。これに対し、第3の実施形態では、複数のスライスに対して画像処理を実行し、画像処理後の複数のスライスを合成することにより、合成2D画像を生成する場合について説明する。
(Third Embodiment)
In the above-described first embodiment, a case has been described in which a composite 2D image is generated by combining a plurality of slices included in three-dimensional medical data. On the other hand, in the third embodiment, a case will be described in which image processing is performed on a plurality of slices and the plurality of slices after the image processing are combined to generate a combined 2D image.

第3の実施形態に係る医用画像処理システム1は、図1〜図2に示した第1の実施形態に係る医用画像処理システム1と同様の構成を有し、画像処理機能343による処理の一部が相違する。第1の実施形態において説明した構成と同様の構成を有する点については、図1〜図2と同一の符号を付し、説明を省略する。 The medical image processing system 1 according to the third embodiment has the same configuration as the medical image processing system 1 according to the first embodiment shown in FIGS. The parts are different. About the point which has the same composition as the composition explained in a 1st embodiment, the same numerals as Drawing 1-Drawing 2 are attached, and explanation is omitted.

まず、検出機能342は、3次元医用データに含まれる複数のスライスにおいて、病変の位置及び種類を検出する。以下では一例として、スライスB101〜スライスB150のうち、図18に示すスライスB120、及び、図18に示すスライスB130において病変が検出された場合について説明する。具体的には、検出機能342は、スライスB120のうち図18に示す位置において、「腫瘍」である病変L8を検出する。また、検出機能342は、スライスB130のうち図18に示す位置において、「石灰化」である病変L9、及び、「構築の乱れ」である病変L10を検出する。なお、図18は、第3の実施形態に係る合成2D画像の生成について説明するための図である。 First, the detection function 342 detects the position and type of lesion in a plurality of slices included in the three-dimensional medical data. Hereinafter, as an example, a case where a lesion is detected in the slice B120 illustrated in FIG. 18 and the slice B130 illustrated in FIG. 18 among the slices B101 to B150 will be described. Specifically, the detection function 342 detects a lesion L8 that is a “tumor” at the position shown in FIG. 18 in the slice B120. Further, the detection function 342 detects a lesion L9 that is “calcification” and a lesion L10 that is “disorder of construction” at the position shown in FIG. 18 in the slice B130. Note that FIG. 18 is a diagram for explaining the generation of a synthetic 2D image according to the third embodiment.

次に、画像処理機能343は、複数のスライスにおける画素のうち、検出機能342により検出された病変の位置に対応する画素に対して、病変の種類に応じた画像処理を実行する。なお、画像処理機能343は、病変の位置に対応する画素のみに対して画像処理を実行してもよいし、病変の位置に対応する画素を含む画素に対して画像処理を実行してもよい。 Next, the image processing function 343 performs image processing according to the type of lesion on the pixel corresponding to the position of the lesion detected by the detection function 342 among the pixels in the plurality of slices. The image processing function 343 may perform the image processing only on the pixels corresponding to the lesion position, or may perform the image processing on the pixels including the pixels corresponding to the lesion position. ..

具体的には、画像処理機能343は、スライスB120において病変L8の位置に対応する画素に対して、病変の種類「腫瘍」に応じた画像処理T1を実行する。ここで、画像処理T1は、例えば、低周波成分を強調する画像処理である。一例を挙げると、画像処理機能343は、画像処理T1として、平滑化フィルタを用いたフィルタリングや、低周波側の強調成分を付加する処理を実行する。 Specifically, the image processing function 343 executes the image processing T1 according to the lesion type “tumor” on the pixel corresponding to the position of the lesion L8 in the slice B120. Here, the image processing T1 is, for example, image processing that emphasizes low-frequency components. As an example, the image processing function 343 executes filtering using a smoothing filter or processing for adding an emphasis component on the low frequency side as the image processing T1.

また、画像処理機能343は、スライスB130において病変L9の位置に対応する画素に対して、病変の種類「石灰化」に応じた画像処理T2を実行する。ここで、画像処理T2は、例えば、高周波成分を強調する画像処理である。一例を挙げると、画像処理機能343は、画像処理T2として、エッジ強調フィルタを用いたフィルタリングや、高周波側の強調成分を付加する処理を実行する。 Further, the image processing function 343 executes the image processing T2 according to the lesion type “calcification” on the pixel corresponding to the position of the lesion L9 in the slice B130. Here, the image processing T2 is, for example, image processing that emphasizes high frequency components. As an example, the image processing function 343 executes filtering using an edge enhancement filter or processing for adding a high-frequency side enhancement component as the image processing T2.

また、画像処理機能343は、スライスB130において病変L10の位置に対応する画素に対して、病変の種類「構築の乱れ」に応じた画像処理T3を実行する。ここで、画像処理T3は、例えば、コントラストを強調する画像処理である。一例を挙げると、画像処理機能343は、画像処理T3として、エッジ強調フィルタを用いたフィルタリングや、病変L10の位置に対応する画素の画素値ヒストグラムを拡張する処理を実行する。 Further, the image processing function 343 executes image processing T3 according to the lesion type “disorder of construction” on the pixel corresponding to the position of the lesion L10 in the slice B130. Here, the image processing T3 is, for example, image processing that emphasizes contrast. As an example, the image processing function 343 executes, as the image processing T3, filtering using an edge enhancement filter and processing for expanding the pixel value histogram of pixels corresponding to the position of the lesion L10.

次に、画像処理機能343は、画像処理後の複数のスライスにおける画素ごとの重みを病変の位置及び種類に基づいて決定する。一例を挙げると、画像処理機能343は、1つの病変が検出されたXY座標(病変L10の位置に含まれるXY座標等)について、病変が検出されたスライスの画素の重みを「1」に決定し、他のスライスの画素の重みを「0」に決定する。また、画像処理機能343は、複数の病変が検出されたXY座標(病変L9の位置に含まれるXY座標等)について、病変の種類の組み合わせごとに設定された比を用いて各病変のスライスの重みを決定するとともに、他のスライスの画素の重みを「0」に決定する。 Next, the image processing function 343 determines the weight for each pixel in the plurality of slices after the image processing based on the position and type of the lesion. For example, the image processing function 343 determines the pixel weight of the slice in which the lesion is detected to be “1” for the XY coordinates in which one lesion is detected (XY coordinates included in the position of the lesion L10). Then, the pixel weights of the other slices are set to “0”. Further, the image processing function 343 uses the ratio set for each combination of lesion types for the XY coordinates (XY coordinates included in the position of the lesion L9) in which a plurality of lesions are detected, and the slice The weights are determined, and the weights of the pixels of other slices are determined to be "0".

別の例を挙げると、画像処理機能343は、検出機能342により検出された病変の位置に、病変の種類に応じた重みの分布を適用することで、複数のスライスにおける画素ごとの重みを決定する。ここで、画像処理機能343は、複数の病変が検出されたXY座標については、複数の病変それぞれの種類に応じた重みの分布を合成することで合成分布を算出し、合成分布に基づいて、複数のスライスにおける画素ごとの重みを決定する。 As another example, the image processing function 343 determines the weight for each pixel in a plurality of slices by applying a distribution of weights according to the type of lesion to the position of the lesion detected by the detection function 342. To do. Here, for the XY coordinates in which a plurality of lesions are detected, the image processing function 343 calculates a composite distribution by synthesizing distributions of weights according to the types of the plurality of lesions, and based on the composite distribution, Determine the weight for each pixel in multiple slices.

そして、画像処理機能343は、決定した重みに基づいて複数のスライスを合成することにより、図18に示す2次元画像データC301(合成2D画像)を生成する。即ち、画像処理機能343は、決定した重みに基づいて、画像処理後のスライスB120及びスライスB130と、他のスライス(スライスB101〜スライスB119、スライスB121〜スライスB129、及び、スライスB131〜スライスB150)とを合成することにより、2次元画像データC301を生成する。例えば、画像処理機能343は、重みが決定された画素がスライス方向に存在する場合には決定された重みに基づく加重平均処理を実行し、重みが決定された画素がスライス方向に存在しない場合には最小値投影処理を実行することで、2次元画像データC301を生成する。 Then, the image processing function 343 generates the two-dimensional image data C301 (composite 2D image) shown in FIG. 18 by combining a plurality of slices based on the determined weight. That is, the image processing function 343, based on the determined weight, the slice B120 and the slice B130 after the image processing and other slices (slice B101 to slice B119, slice B121 to slice B129, and slice B131 to slice B150). By combining and, the two-dimensional image data C301 is generated. For example, the image processing function 343 executes weighted averaging processing based on the determined weights when the weighted pixels are present in the slice direction, and when the weighted pixels are not present in the slice direction. Performs minimum intensity projection processing to generate two-dimensional image data C301.

ここで、2次元画像データC301においては、各病変の視認性が向上している。例えば、2次元画像データC301のうち領域R3は、低周波成分が強調された「腫瘍」を表すものとなる。また、2次元画像データC301のうち領域R4は、高周波成分が強調された「石灰化」を表すものとなる。また、2次元画像データC301のうち領域R5は、コントラストが強調された「構築の乱れ」を表すものとなる。即ち、医用画像処理装置30は、トモシンセシス撮影による2次元画像データC301において、病変の視認性を向上させることができる。 Here, in the two-dimensional image data C301, the visibility of each lesion is improved. For example, the region R3 of the two-dimensional image data C301 represents “tumor” in which the low frequency component is emphasized. Further, the region R4 of the two-dimensional image data C301 represents “calcification” in which high frequency components are emphasized. In addition, the region R5 of the two-dimensional image data C301 represents “construction disorder” in which the contrast is emphasized. That is, the medical image processing apparatus 30 can improve the visibility of the lesion in the two-dimensional image data C301 obtained by tomosynthesis imaging.

次に、医用画像処理装置30による処理の手順の一例を、図19を用いて説明する。図19は、第3の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS301は、制御機能341に対応するステップである。ステップS302は、検出機能342に対応するステップである。ステップS303、ステップS304、ステップS305、ステップS306、ステップS307、ステップS308、ステップS309、ステップS310、ステップS311、ステップS312及びステップS313は、画像処理機能343に対応するステップである。なお、図19では一例として、スライス方向の重みの分布を用いて画素ごとの重みを決定する場合について説明する。 Next, an example of a processing procedure by the medical image processing apparatus 30 will be described with reference to FIG. FIG. 19 is a flowchart for explaining a series of processing flows of the medical image processing apparatus 30 according to the third embodiment. Step S301 is a step corresponding to the control function 341. Step S302 is a step corresponding to the detection function 342. Step S303, step S304, step S305, step S306, step S307, step S308, step S309, step S310, step S311, step S312 and step S313 are steps corresponding to the image processing function 343. Note that FIG. 19 illustrates, as an example, a case where the weight for each pixel is determined using the distribution of weights in the slice direction.

まず、処理回路34は、X線診断装置10又は画像保管装置20から、3次元医用データを取得する(ステップS301)。次に、処理回路34は、3次元医用データに含まれる複数のスライスにおいて、乳房Pの病変の位置及び種類を検出する(ステップS302)。次に、処理回路34は、複数のスライスにおける画素のうち、検出された病変の位置に対応する画素に対して、病変の種類に応じた画像処理を実行する(ステップS303)。 First, the processing circuit 34 acquires three-dimensional medical data from the X-ray diagnostic apparatus 10 or the image storage apparatus 20 (step S301). Next, the processing circuit 34 detects the position and type of the lesion of the breast P in the plurality of slices included in the three-dimensional medical data (step S302). Next, the processing circuit 34 performs image processing according to the type of lesion on the pixel corresponding to the position of the detected lesion among the pixels in the plurality of slices (step S303).

次に、処理回路34は、3次元医用データに含まれるXY座標のうちいずれかを設定し(ステップS304)、設定したXY座標において、スライス方向(Z方向)に病変が存在するか否かを判定する(ステップS305)。即ち、処理回路34は、設定したXY座標に病変が検出されたスライスが存在するか否かを判定する。 Next, the processing circuit 34 sets any of the XY coordinates included in the three-dimensional medical data (step S304), and determines whether or not a lesion exists in the slice direction (Z direction) at the set XY coordinates. The determination is made (step S305). That is, the processing circuit 34 determines whether or not there is a slice in which a lesion is detected at the set XY coordinates.

ここで、スライス方向に病変が存在する場合(ステップS305肯定)、処理回路34は、病変が複数であるか否かを判定する(ステップS306)。また、病変が複数である場合(ステップS306肯定)、処理回路34は、複数の病変それぞれの種類に応じた重みの分布をメモリ33から読み出して、読み出した複数の分布を、複数の病変それぞれの位置に応じて合成することで、合成分布を算出する(ステップS307)。 Here, when a lesion exists in the slice direction (Yes at Step S305), the processing circuit 34 determines whether or not there are a plurality of lesions (Step S306). Further, when there are a plurality of lesions (Yes at Step S306), the processing circuit 34 reads the distribution of weights corresponding to the types of the plurality of lesions from the memory 33, and the read plurality of distributions are stored in the plurality of lesions. The composite distribution is calculated by synthesizing according to the position (step S307).

病変が複数でない場合(ステップS306否定)、或いはステップS307の後、処理回路34は、複数のスライスに対して分布を適用する(ステップS308)。ここで、病変が複数でなかった場合、処理回路34は、病変の種類に応じた分布を複数のスライスに適用する。一方で、病変が複数であった場合、処理回路34は、ステップS307にて算出した合成分布を複数のスライスに適用する。これにより、処理回路34は、複数のスライスにおける画素ごとの重みを決定する(ステップS309)。 When there are not a plurality of lesions (No at Step S306) or after Step S307, the processing circuit 34 applies the distribution to the plurality of slices (Step S308). Here, when there are not a plurality of lesions, the processing circuit 34 applies the distribution according to the type of lesion to the plurality of slices. On the other hand, when there are a plurality of lesions, the processing circuit 34 applies the composite distribution calculated in step S307 to the plurality of slices. Accordingly, the processing circuit 34 determines the weight for each pixel in the plurality of slices (step S309).

次に、処理回路34は、決定した重みに基づいて加重平均処理を実行する(ステップS310)。或いは、スライス方向に病変が存在しなかった場合(ステップS305否定)、処理回路34は、最小値投影処理を実行する(ステップS311)。ステップS310又はステップS311により、処理回路34は、設定されたXY座標における合成2D画像の画素の画素値を決定することができる。 Next, the processing circuit 34 executes the weighted average processing based on the determined weight (step S310). Alternatively, when there is no lesion in the slice direction (No at step S305), the processing circuit 34 executes the minimum value projection process (step S311). Through step S310 or step S311, the processing circuit 34 can determine the pixel value of the pixel of the combined 2D image at the set XY coordinates.

ここで、処理回路34は、3次元医用データにおける全画素を処理済みであるか否かを判定する(ステップS312)。処理済みでない画素が残っている場合(ステップS312否定)、処理回路34は、XY座標の設定を変更して(ステップS313)、再度ステップS305に移行する。一方で、全画素を処理済みである場合(ステップS312肯定)、処理回路34は、合成2D画像の生成を完了したと判定して、処理を終了する。 Here, the processing circuit 34 determines whether or not all the pixels in the three-dimensional medical data have been processed (step S312). When there are unprocessed pixels remaining (No at Step S312), the processing circuit 34 changes the setting of the XY coordinates (Step S313), and the process proceeds to Step S305 again. On the other hand, when all the pixels have been processed (Yes in step S312), the processing circuit 34 determines that the generation of the combined 2D image is completed, and ends the processing.

上述したように、第3の実施形態によれば、検出機能342は、3次元医用データに含まれる複数のスライスにおいて病変の位置及び種類を検出する。また、画像処理機能343は、複数のスライスにおける画素のうち、検出機能342により検出された病変の位置に対応する画素に対して、病変の種類に応じた画像処理を実行する。また、画像処理機能343は、画像処理後の複数のスライスにおける画素ごとの重みを病変の位置及び種類に基づいて決定し、決定した重みに基づいて複数のスライスを合成することにより、合成2D画像を生成する。従って、第3の実施形態に係る医用画像処理装置30は、トモシンセシス撮影による合成2D画像において、病変の視認性を向上させることができる。 As described above, according to the third embodiment, the detection function 342 detects the position and type of the lesion in the plurality of slices included in the three-dimensional medical data. Further, the image processing function 343 performs image processing according to the type of lesion on the pixel corresponding to the position of the lesion detected by the detection function 342 among the pixels in the plurality of slices. In addition, the image processing function 343 determines the weight for each pixel in the plurality of slices after the image processing based on the position and type of the lesion, and synthesizes the plurality of slices based on the determined weight to obtain a synthesized 2D image. To generate. Therefore, the medical image processing apparatus 30 according to the third embodiment can improve the visibility of the lesion in the synthetic 2D image obtained by tomosynthesis imaging.

また、第3の実施形態によれば、画像処理機能343は、病変として構築の乱れが検出された場合、複数のスライスにおける画素のうち構築の乱れの位置に対応する画素に対して、コントラストを強調する画像処理を実行する。これにより、画像処理機能343は、複数のスライスに基づく合成2D画像においても、構築の乱れを高コントラストで表すことができる。従って、医用画像処理装置30は、合成2D画像において構築の乱れの視認性を向上させることができる。 Further, according to the third embodiment, when the structural disorder is detected as a lesion, the image processing function 343 gives the contrast to the pixel corresponding to the position of the structural disorder among the pixels in the plurality of slices. Performs image processing to emphasize. As a result, the image processing function 343 can represent a disorder of construction with high contrast even in a synthetic 2D image based on a plurality of slices. Therefore, the medical image processing apparatus 30 can improve the visibility of the disorder of the construction in the synthetic 2D image.

(第4の実施形態)
さて、これまで第1〜第3の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Fourth Embodiment)
Now, the first to third embodiments have been described so far, but the embodiments may be implemented in various different forms other than the above-described embodiments.

例えば、医用画像処理装置30は、1つの3次元医用データから、複数の合成2D画像を生成することとしてもよい。一例を挙げると、検出機能342は、図9A及び図9Bに示したように、スライスB120において病変L3を検出し、スライスB130において病変L4及び病変L5を検出する。即ち、検出機能342は、スライス方向に重なる位置において、複数の病変(病変L3及び病変L4)を検出する。ここで、画像処理機能343は、複数の病変ごとに、合成2D画像を生成する。 For example, the medical image processing apparatus 30 may generate a plurality of synthetic 2D images from one piece of 3D medical data. For example, the detection function 342 detects the lesion L3 in the slice B120 and the lesion L4 and the lesion L5 in the slice B130, as illustrated in FIGS. 9A and 9B. That is, the detection function 342 detects a plurality of lesions (lesion L3 and lesion L4) at positions overlapping in the slice direction. Here, the image processing function 343 generates a composite 2D image for each of a plurality of lesions.

例えば、画像処理機能343は、病変L3の視認性を向上させた合成2D画像と、病変L4の視認性を向上させた合成2D画像とを生成する。一例を挙げると、画像処理機能343は、まず、病変L3の位置の画素に、病変L4の位置の画素に付するよりも大きな重みを付するように、複数のスライスにおける画素ごとの重みを決定する。そして、画像処理機能343は、決定した重みに基づいて複数のスライスを合成することにより、2次元画像データC401を生成する。ここで、2次元画像データC401は、病変L3を優先的に表すものとなる。即ち、2次元画像データC401においては、病変L3の視認性が向上する。 For example, the image processing function 343 generates a combined 2D image in which the visibility of the lesion L3 is improved and a combined 2D image in which the visibility of the lesion L4 is improved. For example, the image processing function 343 first determines the weight for each pixel in a plurality of slices so that the pixel at the position of the lesion L3 is weighted more than the pixel at the position of the lesion L4. To do. Then, the image processing function 343 generates the two-dimensional image data C401 by combining a plurality of slices based on the determined weight. Here, the two-dimensional image data C401 preferentially represents the lesion L3. That is, in the two-dimensional image data C401, the visibility of the lesion L3 is improved.

また、画像処理機能343は、病変L4の位置の画素に、病変L3の位置の画素に付するよりも大きな重みを付するように、複数のスライスにおける画素ごとの重みを決定する。そして、画像処理機能343は、決定した重みに基づいて複数のスライスを合成することにより、2次元画像データC402を生成する。ここで、2次元画像データC402は、病変L4を優先的に表すものとなる。即ち、2次元画像データC402においては、病変L4の視認性が向上する。 Further, the image processing function 343 determines the weight for each pixel in the plurality of slices so that the pixel at the position of the lesion L4 is weighted more than the pixel at the position of the lesion L3. Then, the image processing function 343 generates the two-dimensional image data C402 by combining a plurality of slices based on the determined weight. Here, the two-dimensional image data C402 preferentially represents the lesion L4. That is, in the two-dimensional image data C402, the visibility of the lesion L4 is improved.

そして、表示制御機能344は、生成された複数の2次元画像データを表示する。例えば、表示制御機能344は、ディスプレイ32において、2次元画像データC401と2次元画像データC402とを並べて表示する。また、例えば、表示制御機能344は、ユーザによる入力操作に応じて、2次元画像データC401と2次元画像データC402とを切り替えて表示する。 Then, the display control function 344 displays the plurality of generated two-dimensional image data. For example, the display control function 344 displays the two-dimensional image data C401 and the two-dimensional image data C402 side by side on the display 32. Further, for example, the display control function 344 switches between the two-dimensional image data C401 and the two-dimensional image data C402 and displays the two-dimensional image data C401 according to the input operation by the user.

また、上述した実施形態では、医用画像処理装置30における処理回路34が合成2D画像を生成する場合について説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、X線診断装置10における処理回路114が、合成2D画像を生成する場合であってもよい。 Moreover, in the above-described embodiment, the case where the processing circuit 34 in the medical image processing apparatus 30 generates a composite 2D image has been described. However, the embodiment is not limited to this. For example, the processing circuit 114 in the X-ray diagnostic apparatus 10 may generate a synthetic 2D image.

例えば、処理回路114は、図20に示すように、制御機能114a及び表示制御機能114bに加えて、検出機能114c及び画像処理機能114dを更に有する。ここで、検出機能114cは、検出機能342に対応した機能である。また、画像処理機能114dは、画像処理機能343に対応した機能である。なお、図20は、第4の実施形態に係る処理回路114の一例を示すブロック図である。 For example, as shown in FIG. 20, the processing circuit 114 further includes a detection function 114c and an image processing function 114d in addition to the control function 114a and the display control function 114b. Here, the detection function 114c is a function corresponding to the detection function 342. The image processing function 114d is a function corresponding to the image processing function 343. 20. FIG. 20 is a block diagram showing an example of the processing circuit 114 according to the fourth embodiment.

図20に示す場合、まず、制御機能114aは、被検体の乳房Pに対するトモシンセシス撮影を実行することで、3次元医用データを収集する。次に、検出機能114cは、3次元医用データに含まれる複数のスライスにおいて乳房Pの病変の位置を検出する。そして、画像処理機能114dは、検出された病変の位置に基づいて複数のスライスを合成することにより合成2D画像を生成する。例えば、画像処理機能114dは、病変の位置に基づいて複数のスライスにおける画素ごとの重みを決定し、決定した重みに基づいて複数のスライスを合成することにより、合成2D画像を生成する。 In the case shown in FIG. 20, first, the control function 114a collects three-dimensional medical data by executing tomosynthesis imaging on the breast P of the subject. Next, the detection function 114c detects the position of the lesion of the breast P in the plurality of slices included in the three-dimensional medical data. Then, the image processing function 114d generates a combined 2D image by combining a plurality of slices based on the detected lesion position. For example, the image processing function 114d determines a weight for each pixel in a plurality of slices based on the position of the lesion, and synthesizes the plurality of slices based on the determined weight to generate a synthesized 2D image.

また、検出機能114cは、複数のスライスにおいて病変の種類を更に検出することとしてもよい。この場合、画像処理機能114dは、例えば、検出機能114cにより検出された病変の位置に、病変の種類に応じた重みを付することで、複数のスライスにおける画素ごとの重みを決定する。そして、画像処理機能114dは、決定した重みに基づいて複数のスライスを合成することにより、合成2D画像を生成する。 In addition, the detection function 114c may further detect the type of lesion in a plurality of slices. In this case, the image processing function 114d determines the weight for each pixel in a plurality of slices, for example, by weighting the position of the lesion detected by the detection function 114c according to the type of lesion. Then, the image processing function 114d generates a combined 2D image by combining a plurality of slices based on the determined weight.

或いは、画像処理機能114dは、3次元医用データのスライス方向の重みの分布を用いて、複数のスライスにおける画素ごとの重みを決定してもよい。具体的には、メモリ112は、3次元医用データのスライス方向の重みの分布を記憶する。また、画像処理機能114dは、検出機能114cにより検出された病変の位置に、病変の種類に応じた重みの分布を適用することで、複数のスライスにおける画素ごとの重みを決定する。そして、画像処理機能114dは、決定した重みに基づいて複数のスライスを合成することにより、合成2D画像を生成する。 Alternatively, the image processing function 114d may use the distribution of weights in the slice direction of the three-dimensional medical data to determine the weight for each pixel in a plurality of slices. Specifically, the memory 112 stores the distribution of weights in the slice direction of the three-dimensional medical data. Further, the image processing function 114d determines a weight for each pixel in a plurality of slices by applying a distribution of weights according to the type of lesion to the position of the lesion detected by the detection function 114c. Then, the image processing function 114d generates a combined 2D image by combining a plurality of slices based on the determined weight.

また、画像処理機能114dは、複数のスライスにおける画素のうち検出機能114cにより検出された病変の位置に対応する画素に対して、病変の種類に応じた画像処理を実行してもよい。この場合、画像処理機能114dは、画像処理後の複数のスライスにおける画素ごとの重みを病変の位置及び種類に基づいて決定し、決定した重みに基づいて複数のスライスを合成することにより、合成2D画像を生成する。 Further, the image processing function 114d may perform image processing according to the type of lesion on the pixel corresponding to the position of the lesion detected by the detection function 114c among the pixels in the plurality of slices. In this case, the image processing function 114d determines the weight for each pixel in the plurality of slices after the image processing based on the position and the type of the lesion, and synthesizes the plurality of slices based on the determined weight, thereby performing the synthesis 2D. Generate an image.

第1〜第4の実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the first to fourth embodiments is functionally conceptual and does not necessarily have to be physically configured as illustrated. That is, the specific form of distribution/integration of each device is not limited to that shown in the figure, and all or part of the device may be functionally or physically distributed/arranged in arbitrary units according to various loads and usage conditions. It can be integrated and configured. Further, each processing function performed by each device may be realized in whole or in part by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by a wired logic.

また、第1〜第4の実施形態で説明した医用画像処理方法は、予め用意された医用画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この医用画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この医用画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 The medical image processing methods described in the first to fourth embodiments can be realized by executing a prepared medical image processing program on a computer such as a personal computer or a workstation. This medical image processing program can be distributed via a network such as the Internet. Further, this medical image processing program is recorded in a computer-readable non-transitory recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, etc., and is read from the recording medium by the computer. It can also be run by.

以上説明した少なくとも一つの実施形態によれば、トモシンセシス撮影による合成2D画像において、病変の視認性を向上させることができる。 According to at least one embodiment described above, the visibility of a lesion can be improved in a synthetic 2D image obtained by tomosynthesis imaging.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof, as well as included in the scope and spirit of the invention.

1 医用画像処理システム
10 X線診断装置
112 メモリ
114 処理回路
114a 制御機能
114b 表示制御機能
114c 検出機能
114d 画像処理機能
30 医用画像処理装置
33 メモリ
34 処理回路
341 制御機能
342 検出機能
343 画像処理機能
344 表示制御機能
1 Medical Image Processing System 10 X-ray Diagnostic Device 112 Memory 114 Processing Circuit 114a Control Function 114b Display Control Function 114c Detection Function 114d Image Processing Function 30 Medical Image Processing Device 33 Memory 34 Processing Circuit 341 Control Function 342 Detection Function 343 Image Processing Function 344 Display control function

Claims (15)

被検体の乳房をトモシンセシス撮影して得られた3次元医用データに含まれる複数の断層画像において前記乳房の病変の位置を検出する検出部と、
検出された前記病変の位置に基づいて前記複数の断層画像を合成することにより、2次元画像データを生成する画像処理部と
を備える、医用画像処理装置。
A detection unit that detects the position of the breast lesion in a plurality of tomographic images included in the three-dimensional medical data obtained by tomosynthesis imaging of the breast of the subject;
An image processing unit that generates two-dimensional image data by synthesizing the plurality of tomographic images based on the detected position of the lesion.
前記画像処理部は、前記検出部により検出された前記病変の位置に基づいて、前記複数の断層画像における画素ごとの重みを決定し、当該重みに基づいて前記複数の断層画像を合成することにより、前記2次元画像データを生成する、請求項1に記載の医用画像処理装置。 The image processing unit determines a weight for each pixel in the plurality of tomographic images based on the position of the lesion detected by the detection unit, and synthesizes the plurality of tomographic images based on the weight. The medical image processing apparatus according to claim 1, wherein the two-dimensional image data is generated. 前記検出部は、前記複数の断層画像において前記病変の種類を更に検出し、
前記画像処理部は、前記病変の種類を更に用いて前記重みを決定する、請求項2に記載の医用画像処理装置。
The detection unit further detects the type of the lesion in the plurality of tomographic images,
The medical image processing apparatus according to claim 2, wherein the image processing unit further determines the weight by further using the type of the lesion.
前記画像処理部は、前記検出部により検出された前記病変の位置の画素に、前記病変の種類に応じた重みを付することで、前記複数の断層画像における画素ごとの重みを決定する、請求項3に記載の医用画像処理装置。 The image processing unit determines a weight for each pixel in the plurality of tomographic images by assigning a weight corresponding to a type of the lesion to a pixel at the lesion position detected by the detection unit. Item 3. The medical image processing apparatus according to Item 3. 前記画像処理部は、前記病変として構築の乱れが検出された場合、当該構築の乱れの位置の画素に、他の種類の前記病変の位置の画素に付する重みよりも大きな重みを付する、請求項4に記載の医用画像処理装置。 The image processing unit, when a disordered structure is detected as the lesion, gives a pixel at a position of the disordered structure a weight greater than a weight given to a pixel at a position of the lesion of another type, The medical image processing apparatus according to claim 4. 前記画像処理部は、前記3次元医用データのスライス方向に重なる複数の位置に亘って前記病変が検出された場合、当該複数の位置のうち画素値が最小となる位置の画素の重みが、他の位置の画素の重みよりも大きくなるように、前記複数の断層画像における画素ごとの重みを決定する、請求項4又は5に記載の医用画像処理装置。 When the lesion is detected over a plurality of positions overlapping in the slice direction of the three-dimensional medical data, the image processing unit determines that the pixel weight of the position having the smallest pixel value among the plurality of positions is The medical image processing apparatus according to claim 4, wherein the weight for each pixel in the plurality of tomographic images is determined so as to be larger than the weight of the pixel at the position. 前記病変の種類ごとに、前記3次元医用データのスライス方向の重みの分布を記憶する記憶部を更に備え、
前記検出部は、前記複数の断層画像において前記病変の種類を更に検出し、
前記画像処理部は、前記検出部により検出された前記病変の位置に、前記病変の種類に応じた前記分布を適用することで、前記複数の断層画像における画素ごとの重みを決定し、当該重みに基づいて前記複数の断層画像を合成することにより、前記2次元画像データを生成する、請求項1に記載の医用画像処理装置。
A storage unit that stores a distribution of weights in the slice direction of the three-dimensional medical data for each type of the lesion;
The detection unit further detects the type of the lesion in the plurality of tomographic images,
The image processing unit determines the weight for each pixel in the plurality of tomographic images by applying the distribution according to the type of the lesion to the position of the lesion detected by the detection unit, and the weight The medical image processing apparatus according to claim 1, wherein the two-dimensional image data is generated by synthesizing the plurality of tomographic images based on the.
前記検出部が前記スライス方向に重なる位置において複数の前記病変を検出した場合、前記画像処理部は、複数の前記病変それぞれの種類に応じた前記分布を、複数の前記病変それぞれの位置に応じて合成することで合成分布を算出し、当該合成分布に基づいて前記複数の断層画像における画素ごとの重みを決定する、請求項7に記載の医用画像処理装置。 When the detection unit detects a plurality of lesions in a position overlapping in the slice direction, the image processing unit, the distribution according to the type of each of the plurality of lesions, depending on the position of each of the plurality of lesions. The medical image processing apparatus according to claim 7, wherein a composite distribution is calculated by combining, and a weight for each pixel in the plurality of tomographic images is determined based on the composite distribution. 前記記憶部は、前記病変のサイズが小さいほど尖度が大きくなるように設定された前記分布を記憶する、請求項7又は8に記載の医用画像処理装置。 The medical image processing apparatus according to claim 7, wherein the storage unit stores the distribution set so that the kurtosis increases as the size of the lesion decreases. 前記検出部は、前記複数の断層画像において前記病変の種類を更に検出し、
前記画像処理部は、前記複数の断層画像における画素のうち前記検出部により検出された前記病変の位置に対応する画素に対して、前記病変の種類に応じた画像処理を実行し、画像処理後の前記複数の断層画像における画素ごとの重みを前記病変の位置及び種類に基づいて決定し、当該重みに基づいて前記複数の断層画像を合成することにより、前記2次元画像データを生成する、請求項1に記載の医用画像処理装置。
The detection unit further detects the type of the lesion in the plurality of tomographic images,
The image processing unit performs image processing according to the type of the lesion on the pixel corresponding to the position of the lesion detected by the detection unit among the pixels in the plurality of tomographic images, and after the image processing. Determining the weight for each pixel in the plurality of tomographic images based on the position and type of the lesion, and synthesizing the plurality of tomographic images based on the weight to generate the two-dimensional image data. Item 1. The medical image processing apparatus according to Item 1.
前記画像処理部は、前記病変として構築の乱れが検出された場合、前記複数の断層画像における画素のうち前記構築の乱れの位置に対応する画素に対して、コントラストを強調する画像処理を実行する、請求項10に記載の医用画像処理装置。 The image processing unit performs image processing for emphasizing the contrast on a pixel corresponding to the position of the structural disorder among the pixels in the plurality of tomographic images when the structural disorder is detected as the lesion. The medical image processing apparatus according to claim 10. 前記画像処理部は、重みが決定された画素がスライス方向に存在する場合には決定された重みに基づく加重平均処理を実行し、重みが決定された画素がスライス方向に存在しない場合には最小値投影処理を実行することにより、前記2次元画像データを生成する、請求項2〜11のいずれか一項に記載の医用画像処理装置。 The image processing unit executes weighted averaging processing based on the determined weight when the weighted pixel is present in the slice direction, and is minimum when the weighted pixel is not present in the slice direction. The medical image processing apparatus according to claim 2, wherein the two-dimensional image data is generated by executing a value projection process. 前記2次元画像データを表示する表示制御部を更に備え、
前記画像処理部は、前記検出部がスライス方向に重なる位置において複数の前記病変を検出した場合、複数の前記病変ごとに前記2次元画像データを生成し、
前記表示制御部は、生成された複数の前記2次元画像データを表示する、請求項1〜12のいずれか一項に記載の医用画像処理装置。
Further comprising a display control unit for displaying the two-dimensional image data,
The image processing unit generates the two-dimensional image data for each of the plurality of lesions when the plurality of lesions are detected at positions where the detection unit overlaps in the slice direction,
The medical image processing apparatus according to claim 1, wherein the display control unit displays the plurality of generated two-dimensional image data.
被検体の乳房に対するトモシンセシス撮影を実行することで3次元医用データを収集する制御部と、
前記3次元医用データに含まれる複数の断層画像において前記乳房の病変の位置を検出する検出部と、
検出された前記病変の位置に基づいて前記複数の断層画像を合成することにより、2次元画像データを生成する画像処理部と
を備える、X線診断装置。
A control unit for collecting three-dimensional medical data by executing tomosynthesis imaging on the breast of the subject;
A detection unit for detecting the position of the breast lesion in a plurality of tomographic images included in the three-dimensional medical data;
An image processing unit that generates two-dimensional image data by synthesizing the plurality of tomographic images based on the detected position of the lesion.
被検体の乳房をトモシンセシス撮影して得られた3次元医用データに含まれる複数の断層画像において前記乳房の病変の位置を検出し、
検出された前記病変の位置に基づいて前記複数の断層画像を合成することにより、2次元画像データを生成する
各処理をコンピュータに実行させる医用画像処理プログラム。
The position of the breast lesion is detected in a plurality of tomographic images included in the three-dimensional medical data obtained by tomosynthesis imaging of the breast of the subject,
A medical image processing program that causes a computer to execute each process of generating two-dimensional image data by synthesizing the plurality of tomographic images based on the detected position of the lesion.
JP2018237003A 2018-12-19 2018-12-19 Medical image processing device, X-ray diagnostic device and medical image processing program Active JP7242284B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018237003A JP7242284B2 (en) 2018-12-19 2018-12-19 Medical image processing device, X-ray diagnostic device and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018237003A JP7242284B2 (en) 2018-12-19 2018-12-19 Medical image processing device, X-ray diagnostic device and medical image processing program

Publications (2)

Publication Number Publication Date
JP2020096752A true JP2020096752A (en) 2020-06-25
JP7242284B2 JP7242284B2 (en) 2023-03-20

Family

ID=71106977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237003A Active JP7242284B2 (en) 2018-12-19 2018-12-19 Medical image processing device, X-ray diagnostic device and medical image processing program

Country Status (1)

Country Link
JP (1) JP7242284B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022018943A1 (en) * 2020-07-22 2022-01-27 富士フイルム株式会社 Image processing device, method, and program
US20220114773A1 (en) * 2020-10-14 2022-04-14 Delta Electronics, Inc. Generation system and generation method for perspective image
EP4223224A4 (en) * 2020-09-30 2024-03-27 FUJIFILM Corporation Image-processing device, image-processing method, and image-processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7261964B2 (en) 2018-05-23 2023-04-21 パナソニックIpマネジメント株式会社 Component tape mounting device and component tape mounting method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110175A (en) * 2009-11-26 2011-06-09 Konica Minolta Medical & Graphic Inc Medical image display system and program
JP2012061196A (en) * 2010-09-17 2012-03-29 Fujifilm Corp Tomographic image displaying method and apparatus
WO2014119800A1 (en) * 2013-01-30 2014-08-07 独立行政法人科学技術振興機構 Image processing digital filter, image processing device, printing medium, recording medium, image processing method and program
JP2018114018A (en) * 2017-01-16 2018-07-26 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and radiodiagnostic apparatus
WO2018183550A1 (en) * 2017-03-30 2018-10-04 Hologic, Inc. System and method for targeted object enhancement to generate synthetic breast tissue images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110175A (en) * 2009-11-26 2011-06-09 Konica Minolta Medical & Graphic Inc Medical image display system and program
JP2012061196A (en) * 2010-09-17 2012-03-29 Fujifilm Corp Tomographic image displaying method and apparatus
WO2014119800A1 (en) * 2013-01-30 2014-08-07 独立行政法人科学技術振興機構 Image processing digital filter, image processing device, printing medium, recording medium, image processing method and program
JP2018114018A (en) * 2017-01-16 2018-07-26 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and radiodiagnostic apparatus
WO2018183550A1 (en) * 2017-03-30 2018-10-04 Hologic, Inc. System and method for targeted object enhancement to generate synthetic breast tissue images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022018943A1 (en) * 2020-07-22 2022-01-27 富士フイルム株式会社 Image processing device, method, and program
EP4223224A4 (en) * 2020-09-30 2024-03-27 FUJIFILM Corporation Image-processing device, image-processing method, and image-processing program
US20220114773A1 (en) * 2020-10-14 2022-04-14 Delta Electronics, Inc. Generation system and generation method for perspective image

Also Published As

Publication number Publication date
JP7242284B2 (en) 2023-03-20

Similar Documents

Publication Publication Date Title
JP7242284B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
US9898839B2 (en) Medical image diagnosis apparatus and mammography apparatus
US9642581B2 (en) Specimen radiography with tomosynthesis in a cabinet
JP7341803B2 (en) X-ray CT equipment, medical image processing equipment, and X-ray CT systems
EP3348195A1 (en) Image processing device, radiation image image pickup system, image processing method, and image processing program
JP7467253B2 (en) X-ray CT system and medical processing equipment
JP7221825B2 (en) Tomosynthesis imaging control device, method of operating tomosynthesis imaging control device, operating program for tomosynthesis imaging control device
KR102301409B1 (en) X-ray apparatus and control method for the same
JP7005354B2 (en) X-ray CT equipment and scan planning equipment
CN110881993B (en) X-ray CT apparatus, medical image processing apparatus, and X-ray CT system
JP7462433B2 (en) Medical diagnostic system, medical diagnostic device, and medical information processing device
JP7334034B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
JP7341667B2 (en) Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems
JP2022013679A (en) Medical image processing method, medical image processing apparatus and x-ray ct apparatus
JP6849440B2 (en) Medical image processing equipment and X-ray diagnostic equipment
JP7467222B2 (en) Medical information processing device, medical information processing method, and medical information processing program
JP2020096693A (en) X-ray CT system and processing program
JP7504739B2 (en) Medical image display device and medical image display method
US11883221B2 (en) Imaging control apparatus, imaging control method, and imaging control program
JP2024066111A (en) Medical image processing device and method
JP2023012246A (en) Medical image processing apparatus, x-ray ct apparatus, medical image processing method and program
JP2024082526A (en) Processing device and processing method
JP2024076795A (en) X-ray diagnostic equipment
JP2024082589A (en) Medical image processing apparatus and medical image processing method
JP2022046946A (en) X-ray ct apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150