JP2021058272A - Medical image processing device, tomographic device, medical image processing method and program - Google Patents
Medical image processing device, tomographic device, medical image processing method and program Download PDFInfo
- Publication number
- JP2021058272A JP2021058272A JP2019182773A JP2019182773A JP2021058272A JP 2021058272 A JP2021058272 A JP 2021058272A JP 2019182773 A JP2019182773 A JP 2019182773A JP 2019182773 A JP2019182773 A JP 2019182773A JP 2021058272 A JP2021058272 A JP 2021058272A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- illness
- detection
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 162
- 238000003672 processing method Methods 0.000 title claims description 26
- 238000001514 detection method Methods 0.000 claims abstract description 264
- 238000003384 imaging method Methods 0.000 claims abstract description 149
- 208000014674 injury Diseases 0.000 claims abstract description 115
- 208000027418 Wounds and injury Diseases 0.000 claims abstract description 107
- 230000006378 damage Effects 0.000 claims abstract description 107
- 238000005259 measurement Methods 0.000 claims abstract description 50
- 230000005856 abnormality Effects 0.000 claims description 163
- 238000003709 image segmentation Methods 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 8
- 230000002159 abnormal effect Effects 0.000 claims description 7
- 238000003325 tomography Methods 0.000 claims description 5
- 230000008685 targeting Effects 0.000 claims description 4
- 230000001678 irradiating effect Effects 0.000 claims 1
- 201000010099 disease Diseases 0.000 abstract description 22
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 22
- 238000010191 image analysis Methods 0.000 abstract description 8
- 238000000034 method Methods 0.000 description 118
- 230000008569 process Effects 0.000 description 61
- 238000002591 computed tomography Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 29
- 238000012549 training Methods 0.000 description 21
- 238000003745 diagnosis Methods 0.000 description 15
- 201000003144 pneumothorax Diseases 0.000 description 15
- 238000013461 design Methods 0.000 description 14
- 238000010801 machine learning Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 12
- 210000004072 lung Anatomy 0.000 description 11
- 238000007726 management method Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 10
- 210000004185 liver Anatomy 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 9
- 230000003902 lesion Effects 0.000 description 9
- 238000002595 magnetic resonance imaging Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 8
- 230000008733 trauma Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000002059 diagnostic imaging Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012014 optical coherence tomography Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 239000002872 contrast media Substances 0.000 description 6
- 208000002251 Dissecting Aneurysm Diseases 0.000 description 5
- 206010002895 aortic dissection Diseases 0.000 description 5
- 206010073071 hepatocellular carcinoma Diseases 0.000 description 5
- 231100000844 hepatocellular carcinoma Toxicity 0.000 description 5
- 210000003240 portal vein Anatomy 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013480 data collection Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241001669679 Eleotris Species 0.000 description 2
- 230000003187 abdominal effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 210000000709 aorta Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000001124 body fluid Anatomy 0.000 description 2
- 239000010839 body fluid Substances 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 206010030113 Oedema Diseases 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、医用画像処理装置、断層撮影装置、医用画像処理方法及びプログラムに関する。 The present invention relates to a medical image processing apparatus, a tomography apparatus, a medical image processing method and a program.
医療分野において、被検者の疾患を特定したり、疾患の程度を観察したりするために、様々な撮影装置(モダリティ)によって取得された画像を利用した画像診断が実施されている。撮影装置の例として、X線撮影装置、X線コンピュータ断層撮影装置(CT)、磁気共鳴イメージング装置(MRI)、及び陽電子放出断層撮影装置(PET)、超音波診断装置などが挙げられる。また、眼科分野の撮影装置の例として、眼底カメラ、走査型レーザ検眼鏡(SLO)、光コヒーレンストモグラフィ撮影装置(OCT)、及びOCTアンギオグラフィ撮影装置(OCTA)などが挙げられる。 In the medical field, in order to identify a disease of a subject and observe the degree of the disease, image diagnosis using images acquired by various imaging devices (modality) is carried out. Examples of the imaging device include an X-ray imaging device, an X-ray computed tomography device (CT), a magnetic resonance imaging device (MRI), a positron emission tomography device (PET), an ultrasonic diagnostic device, and the like. Examples of imaging devices in the field of ophthalmology include fundus cameras, scanning laser ophthalmoscopes (SLO), optical coherence tomography imaging devices (OCT), and OCT angiography imaging devices (OCTA).
画像診断は、基本的には、画像に描出された病変等を医師が観察することによって実施されるが、近年では医用画像処理装置等による画像解析によって診断に役立つ様々な情報が得られるようになった。例えば、画像解析をすることによって、見落とす可能性のある小さな病変を検出して医師の確認を促したり、病変の形状や体積について定量的な計測を行ったりすることができるようになった。 Image diagnosis is basically carried out by a doctor observing the lesions depicted in the image, but in recent years, various information useful for diagnosis can be obtained by image analysis using a medical image processing device or the like. became. For example, image analysis has made it possible to detect small lesions that may be overlooked and prompt the doctor's confirmation, or to quantitatively measure the shape and volume of lesions.
画像診断を実施するには、まず、技師または医師が撮影装置を操作して被検者を撮影する。次に、撮影装置によって取得された画像を、撮影装置に備えられたデータベースや、医療機関施設のネットワークに接続された画像管理システム等に保管する。最後に、保管された画像を、放射線科医や、想定される疾患や外傷に対する専門性の高い医師が参照することによって、画像診断が実施される。 To perform diagnostic imaging, a technician or doctor first operates a imaging device to image the subject. Next, the image acquired by the imaging device is stored in a database provided in the imaging device, an image management system connected to the network of the medical institution facility, or the like. Finally, diagnostic imaging is performed by reference to the stored images by a radiologist or a physician with a high degree of expertise in possible diseases and trauma.
従来の画像解析は、特許文献1のように、医師が画像診断の際に観察する画像(以下、診断用画像)を使用して実施される。つまり、被検者の撮影および診断用画像の再構成が完了してからでなければ、医師による画像診断や、従来の画像解析を開始することができず、診断結果または解析結果が得られるのは撮影開始からかなり時間が経過した後となる虞れがあった。そのため、画像診断や画像解析によって、被検者が緊急に対処を必要とする疾患を患っていたり外傷があることが判明したりしても、既に被検者が帰宅等の理由によって医療機関施設から居なくなっており、対処が遅れ重篤化する場合があった。
Conventional image analysis is performed using an image observed by a doctor at the time of image diagnosis (hereinafter referred to as a diagnostic image) as in
また、特許文献2によれば、医師に対して検査値の異常を通知することができるが、診断用画像が画像保存通信システム(PACS)に保管されてから通知可能となるため、特許文献1と同様に、対処が遅れ、被検者が重篤化する場合があった。
Further, according to
上記事情を鑑みて、本発明は、被検者の撮影後にできるだけ迅速に解析結果を得ることを目的とする。 In view of the above circumstances, it is an object of the present invention to obtain an analysis result as quickly as possible after photographing a subject.
本発明の一態様は、
測定データを再構成することによって診断用画像を取得可能な撮影装置から、前記測定データを取得する取得手段と、
前記測定データに基づいて特定の傷病を検出する検出手段と、
前記検出手段による特定の傷病の検出に応じて、特定の傷病が検出された旨を報知する報知手段と、
を備える医用画像処理装置である。
One aspect of the present invention is
An acquisition means for acquiring the measurement data from an imaging device capable of acquiring a diagnostic image by reconstructing the measurement data, and an acquisition means.
A detection means for detecting a specific injury or illness based on the measurement data,
In response to the detection of a specific injury or illness by the detection means, a notification means for notifying that a specific injury or illness has been detected, and a notification means.
It is a medical image processing apparatus provided with.
本発明の一態様は、
コンピュータによって実行される医用画像処理方法であって、
測定データを再構成することによって診断用画像を取得可能な撮影装置から、前記測定データを取得する取得ステップと、
前記測定データに基づいて特定の傷病を検出する検出ステップと、
前記特定の傷病の検出に応じて、特定の傷病が検出された旨を報知する報知ステップと、
を含む、医用画像処理方法である。
One aspect of the present invention is
A medical image processing method performed by a computer
An acquisition step of acquiring the measurement data from an imaging device capable of acquiring a diagnostic image by reconstructing the measurement data, and
A detection step for detecting a specific injury or illness based on the measurement data,
A notification step for notifying that a specific injury or illness has been detected according to the detection of the specific injury or illness, and a notification step.
It is a medical image processing method including.
本発明によれば、被検者の撮影後に迅速に解析結果を得ることができる。 According to the present invention, the analysis result can be obtained quickly after the subject is photographed.
以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following embodiments are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.
<用語の説明>
まず、本明細書において用いられる用語について説明する。以下の用語の説明は、わかりやすさのために、CT(Computed Tomography)装置を例として説明する。撮影装置はCT装置を前提とし、投影画像および診断用画像はCT装置によって取得されたものとし、診断用画像は複数の断層像で構成された三次元画像であるものとして説明する。しかしながら、CT装置はその他の任意のモダリティに置き換えてもよい。
また、診断用画像は、二次元画像であってもよい。
<Explanation of terms>
First, terms used in the present specification will be described. For the sake of clarity, the following terminology will be described by taking a CT (Computed Tomography) device as an example. It is assumed that the imaging device is a CT device, the projected image and the diagnostic image are acquired by the CT device, and the diagnostic image is a three-dimensional image composed of a plurality of tomographic images. However, the CT device may be replaced with any other modality.
Further, the diagnostic image may be a two-dimensional image.
(ネットワーク)
ネットワークは、複数の装置(コンピュータ)を互いに通信可能とする接続、または接続されたシステム全体を指す。ネットワーク内の各装置は、有線又は無線のいずれかまたは両方により接続されてよい。ネットワークにおける各装置を接続する回線は、例えば、専用回線、ローカルエリアネットワーク(以下、LANと表記)回線、無線LAN回線、インターネット回線、Wi−Fi(登録商標)、及びBluetooth(登録商標)を含む。
(network)
A network refers to a connection that enables multiple devices (computers) to communicate with each other, or the entire connected system. Each device in the network may be connected by wire, wireless, or both. Lines connecting each device in the network include, for example, a dedicated line, a local area network (hereinafter referred to as LAN) line, a wireless LAN line, an Internet line, Wi-Fi (registered trademark), and Bluetooth (registered trademark). ..
(医用画像処理装置)
医用画像処理装置は、医用画像に対して画像処理を行う装置である。画像処理の例として、病変の検出、病変の形状や体積等の定量的計測などを含む画像診断処理が挙げられる。医用画像処理装置は、撮影装置を制御する制御装置(コンソール)と同じ装置によって構成されてもよいし、異なる装置によって構成されてもよい。医用画像処理装置は、相互に通信が可能な2以上の装置によって構成されてもよいし、単一の装置によって構成されてもよい。また、医用画像処理装置の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、他の任意のハードウェアと任意のソフトウェアとの組み合わせにより構成されてもよい。
(Medical image processing device)
The medical image processing device is a device that performs image processing on a medical image. Examples of image processing include diagnostic imaging processing including detection of lesions and quantitative measurement of lesion shape, volume, and the like. The medical image processing device may be configured by the same device as the control device (console) that controls the imaging device, or may be configured by a different device. The medical image processing device may be composed of two or more devices capable of communicating with each other, or may be composed of a single device. Further, each component of the medical image processing apparatus may be composed of a software module executed by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC. Further, it may be configured by a combination of any other hardware and any software.
(画像管理システム)
画像管理システムは、CT等の撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムの例としては、画像保存通信システム(PACS:Picture Archiving and Communication Systems)がある。
画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間など付帯情報については、別のデータベースに関連情報として保存されてもよい。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。
(Image management system)
The image management system is a device and a system that receives and stores an image taken by an imaging device such as a CT or an image processed image. The image management system can transmit an image in response to a request from the connected device, perform image processing on the stored image, and request another device to perform image processing. An example of an image management system is Picture Archiving and Communication Systems (PACS).
The image management system may store the information of the subject and the incidental information such as the shooting time associated with the received image as related information in another database. In addition, the image management system is connected to a network and can send and receive images, convert images, and send and receive various information associated with saved images in response to requests from other devices. ..
(診断用画像)
診断用画像は、医師が画像診断の際に観察する画像である。診断用画像は、投影画像を再構成することにより得られる。診断用画像は、撮影装置に備えられたデータベースや、医療機関施設のネットワークに接続された画像管理システム等に保管され、医師が観察可能な状態となる。
(Diagnostic image)
The diagnostic image is an image that a doctor observes at the time of image diagnosis. The diagnostic image is obtained by reconstructing the projected image. Diagnostic images are stored in a database provided in the imaging device, an image management system connected to a network of medical institution facilities, etc., and can be observed by a doctor.
(測定データ/生データ)
医用撮影装置は、被検者に対して、当該医用撮影装置に応じた撮影原理の医用撮影を行い、当該被検者に関する測定データを収集する。測定データは、生データとも称される。X線コンピュータ断層撮影装置の測定データ(生データ)は、投影データ又はサイノグラムデータである。磁気共鳴イメージング装置の測定データはk空間データであり、超音波診断装置の測定データはエコーデータ、PET装置の測定データはコインシデンスデータ又はサイノグラムデータ、SPECT装置の測定データは投影データ又はサイノグラムデータである。また、X線診断装置の測定データはX線画像データである。
(Measurement data / raw data)
The medical imaging device performs medical imaging on the subject according to the imaging principle according to the medical imaging device, and collects measurement data on the subject. The measured data is also referred to as raw data. The measurement data (raw data) of the X-ray computed tomography apparatus is projection data or synogram data. The measurement data of the magnetic resonance imaging device is k-space data, the measurement data of the ultrasonic diagnostic device is echo data, the measurement data of the PET device is coincidence data or synogram data, and the measurement data of the SPECT device is projection data or synogram data. .. The measurement data of the X-ray diagnostic apparatus is X-ray image data.
測定データは、それ自体は直接的に被検者の構造を示す画像ではなく、再構成処理により被検者の構造を示す診断用画像が得られる。 The measurement data itself is not an image showing the structure of the subject directly, but a diagnostic image showing the structure of the subject is obtained by the reconstruction process.
以下、X線CT装置の測定データ(生データ)である投影データについて説明する。投影データは、各投影位置における撮影装置の検出器の出力データ(生データ)である。投影データは、2次元、3次元または4次元のデータ構造を有し、画像化して表示することも可能であるため、投影画像とも呼ばれる。投影データを投影の角度ごとに順に並べた画像はサイノグラム(Sinogram)データとも呼ばれる。 Hereinafter, projection data, which is measurement data (raw data) of the X-ray CT apparatus, will be described. The projection data is output data (raw data) of the detector of the photographing apparatus at each projection position. The projected data has a two-dimensional, three-dimensional or four-dimensional data structure and can be displayed as an image, so that it is also called a projected image. An image in which projection data are arranged in order according to the angle of projection is also called Sinogram data.
図2を用いて具体的に説明すると、被検者の頭頂部から足の方向(Z軸方向)へ撮影装置のガントリーが動き、撮影が開始されると、XY面の投影断層像群が順に取得され、最終的に三次元の投影画像Im210が取得される。投影画像Im210から、任意のXY面の断層像Im220を再構成することによって、診断用画像Im230を取得できる。 More specifically with reference to FIG. 2, when the gantry of the imaging device moves from the crown of the subject to the direction of the foot (Z-axis direction) and imaging is started, the projected tomographic images on the XY plane are sequentially displayed. It is acquired, and finally the three-dimensional projected image Im210 is acquired. The diagnostic image Im230 can be obtained by reconstructing the tomographic image Im220 of an arbitrary XY plane from the projected image Im210.
(再構成)
再構成は、投影画像から診断用画像を求める処理である。再構成の手法の例は、フィルタ補正逆投影(Filtered Back Projection)法、逐次近似画像再構成(Iterative Reconstruction)法である。撮影装置によって取得された投影画像に対して、撮影装置、もしくは、撮影装置に接続された端末が再構成を行い診断用画像が取得される。
(Reconstruction)
Reconstruction is a process of obtaining a diagnostic image from a projected image. Examples of the reconstruction method are a filter-corrected back projection method and an iterative reconstruction method. The imaging device or the terminal connected to the imaging device reconfigures the projected image acquired by the imaging device, and the diagnostic image is acquired.
再構成処理には時間がかかり、画像条件にもよるが、撮影を開始してから診断用画像が取得されるまで数分から数時間かかる場合がある。なお、通常、投影画像は診断には用いられないため、診断用画像を再構成した直後に削除されたり、一定期間の後削除されたり、撮影装置のデータ保存領域が少なくなった時に削除されたりする。 The reconstruction process takes time, and depending on the image conditions, it may take several minutes to several hours from the start of shooting until the diagnostic image is acquired. Since the projected image is usually not used for diagnosis, it may be deleted immediately after the diagnostic image is reconstructed, deleted after a certain period of time, or deleted when the data storage area of the photographing apparatus becomes small. To do.
(撮像条件/撮像プロトコル)
撮像条件は、被検者を撮影する際に撮影装置に設定される撮影に関わる設定情報群である。例えば、撮像条件には、装置機種、被検者に係る撮影範囲や体位、撮影装置に係る管電圧、管電流、スキャンスライス厚、スキャン時間、造影に係る造影剤使用量、造影剤注入時間、撮影時相(タイミング)等が含まれる。一般的には、撮影する被検者の病状や部位といった検査の内容により、予め用意された複数の撮像条件のプリセット群のうちの一つを選択することによって、再設定の手間を省くことが多い。撮像条件は、撮像プロトコルとも称される。
(Imaging conditions / Imaging protocol)
The imaging condition is a group of setting information related to imaging that is set in the imaging device when photographing the subject. For example, the imaging conditions include the device model, the imaging range and position of the subject, the tube voltage of the imaging device, the tube current, the scan slice thickness, the scan time, the amount of contrast medium used for contrast, and the contrast medium injection time. The shooting time phase (timing) and the like are included. In general, it is possible to save the trouble of resetting by selecting one of a preset group of a plurality of imaging conditions prepared in advance according to the contents of the examination such as the medical condition and the site of the subject to be photographed. There are many. The imaging conditions are also referred to as imaging protocols.
(画像条件)
画像条件は、診断用画像を生成する際に利用される設定情報群である。具体的には、CTやPETにおいて、投影画像から診断用画像を再構成する際に利用される設定情報である。あるいは、MRIにおいて、K−Spaceデータから診断用画像を再構成する際に利用される設定情報である。画像条件には、例えば、再構成の手法、FOV、画像解像度、スライス厚、スライス間隔、再構成関数等が含まれる。一般的には、撮像条件と同様に、撮影された被検者の病状や部位といった検査の内容により、予め用意された複数の画像条件のプリセット群のうちの一つを選択することによって、再設定の手間を省くことが多い。また、装置によっては、撮像条件に従って、自動的に画像条件が設定されることもある。
(Image condition)
The image condition is a group of setting information used when generating a diagnostic image. Specifically, it is setting information used when reconstructing a diagnostic image from a projected image in CT or PET. Alternatively, it is setting information used when reconstructing a diagnostic image from K-Space data in MRI. The image conditions include, for example, a reconstruction method, FOV, image resolution, slice thickness, slice interval, reconstruction function, and the like. In general, as in the case of imaging conditions, by selecting one of a plurality of preset image conditions prepared in advance according to the content of the examination such as the medical condition and site of the photographed subject, the image can be re-created. It often saves the trouble of setting. Further, depending on the device, the image conditions may be automatically set according to the imaging conditions.
撮像条件および画像条件は、診断用画像を構成するデータ構造中に保存されたり、画像とは別のデータとして保存されたり、撮影装置に関連するデータベースや画像管理システムに保存されたりする。そのため、撮影装置の撮影条件および画像条件の保存手段に対応した手順により取得することができる。具体的には、撮影条件および画像条件は、例えば
、撮影装置が出力した画像のデータ構造を解析したり、画像とは別に保存されているデータを取得したり、撮影装置に関連するデータベースから取得するためのインターフェースにアクセスする等により取得される。
The imaging conditions and image conditions are stored in the data structure constituting the diagnostic image, stored as data separate from the image, or stored in a database or image management system related to the imaging device. Therefore, it can be acquired by a procedure corresponding to the photographing conditions of the photographing apparatus and the storage means of the image conditions. Specifically, the shooting conditions and the image conditions are obtained, for example, by analyzing the data structure of the image output by the shooting device, acquiring the data stored separately from the image, or acquiring from the database related to the shooting device. Obtained by accessing the interface for
(領域ラベル画像)
領域ラベル画像とは、画素毎に領域のラベルが付されたラベル画像である。具体的には、図3の、撮影装置によって取得された胸部の断層像を示す画像Im310に描出されている領域群のうち、任意の領域を特定可能な画素値(以下、領域ラベル値)群によって分けている画像Im320のことである。
(Area label image)
The area label image is a label image in which an area is labeled for each pixel. Specifically, among the region groups depicted in the image Im310 showing the tomographic image of the chest acquired by the imaging device in FIG. 3, a pixel value (hereinafter, region label value) group capable of identifying an arbitrary region. It is an image Im320 divided by.
特定される任意の領域には関心領域(ROI:Region Of Interest)や関心体積(VOI:Volume Of Interest)等が含まれる。領域ラベル画像Im320から任意の領域ラベル値を持つ画素の座標群を特定することにより、画像Im310中において対応する肺の領域を描出している画素の座標群を特定できる。具体的には、例えば、右肺を示す領域ラベル値1が指定された場合、領域ラベル画像Im320の画素群のうち画素値が1である座標群が特定され、画像Im310から該座標群に対応する画素群が抽出される。これにより、画像Im310における右肺の領域を特定できる。もちろん、領域ラベル画像に病変領域を特定可能な画素値があれば、対応する画像から病変領域の座標群を特定できる。
The specified arbitrary region includes a region of interest (ROI: Region Of Interest), a volume of interest (VOI: Volume Of Interest), and the like. By specifying the coordinate group of the pixel having an arbitrary area label value from the area label image Im320, the coordinate group of the pixel depicting the corresponding lung region in the image Im310 can be specified. Specifically, for example, when an
領域ラベル画像に対応する領域を特定可能な画像は、二次元の断層像Im310に限られず、その種類や次元は、実施形態により様々である。領域ラベル画像は、例えば、二次元の投影画像の画素ごとに領域ラベル値を付した二次元の画像でもよいし、三次元の診断用画像の画素ごとに領域ラベル値を付した三次元の画像でもよい。 The image in which the region corresponding to the region label image can be specified is not limited to the two-dimensional tomographic image Im310, and the type and dimension thereof vary depending on the embodiment. The area label image may be, for example, a two-dimensional image in which the area label value is attached to each pixel of the two-dimensional projected image, or a three-dimensional image in which the area label value is attached to each pixel of the three-dimensional diagnostic image. But it may be.
一部の実施形態において、領域ラベル画像に対して縮小又は拡大処理を実施されることがある。領域ラベル画像の縮小又は拡大に用いる画像補間処理には、未定義の領域ラベル値や対応する座標に存在しないはずの領域ラベル値を誤って生成しないように、最近傍法等を使うものとする。 In some embodiments, the area label image may be reduced or enlarged. In the image interpolation processing used for reducing or enlarging the area label image, the nearest neighbor method or the like shall be used so as not to mistakenly generate an undefined area label value or an area label value that should not exist at the corresponding coordinates. ..
(画像セグメンテーション処理)
画像セグメンテーション処理は、画像に描出された臓器や病変や外傷といったROIやVOIと呼ばれる領域を、画像診断や画像解析に利用するために特定する処理のことである。例えば、画像セグメンテーション処理は、胸部を撮影して取得された画像から、右肺や左肺、肺の疾患である気胸の領域等を特定する。
(Image segmentation processing)
The image segmentation process is a process for identifying an area called ROI or VOI such as an organ, a lesion, or a trauma depicted in an image for use in image diagnosis or image analysis. For example, the image segmentation process identifies the right lung, the left lung, the pneumothorax region, which is a disease of the lung, and the like from the images obtained by photographing the chest.
特定すべき領域が画像中に複数描出されていれば、特定される領域の数は複数であってもよいし、或いは、これらの領域群を含むように囲む領域1つであってもよい。また、特定すべき領域が画像中に描出されていなければ、特定される領域の数は0である。 As long as a plurality of regions to be specified are depicted in the image, the number of regions to be specified may be a plurality, or may be one region surrounding the regions so as to include these regions. Further, if the area to be specified is not drawn in the image, the number of areas to be specified is 0.
特定された領域群は、その他の処理において利用可能な情報として出力される。具体的には、例えば、特定された領域群のそれぞれを構成する画素群の座標群を数値データ群として出力することができる。また、例えば、特定された領域群のそれぞれを含む矩形領域や楕円領域、長方体領域、楕円体領域等を示す座標群を数値データ群として出力することもできる。さらに、例えば、特定された領域群の境界にあたる直線や曲線、平面、又は曲面等を示す座標群を数値データ群として出力することもできる。また、例えば、特定された領域群を示す領域ラベル画像を出力することもできる。なお、以下において、画像セグメンテーション処理の精度が高いと表現したり、精度の高い領域ラベル画像と表現したりする場合は、領域を正しく特定できている割合が高いことを指す。また、逆に、画像セグメンテーション処理の精度が低いと表現する場合は、領域を誤って特定している割合が高
いことを指す。
The specified area group is output as information that can be used in other processing. Specifically, for example, the coordinate group of the pixel group constituting each of the specified region groups can be output as a numerical data group. Further, for example, a coordinate group indicating a rectangular region, an ellipsoid region, a rectangular parallelepiped region, an ellipsoid region, or the like including each of the specified region groups can be output as a numerical data group. Further, for example, a coordinate group indicating a straight line, a curve, a plane, a curved surface, or the like corresponding to the boundary of the specified region group can be output as a numerical data group. Further, for example, it is possible to output an area label image showing the specified area group. In the following, when it is expressed that the accuracy of the image segmentation processing is high or it is expressed as a region label image with high accuracy, it means that the ratio that the region can be correctly specified is high. On the contrary, when it is expressed that the accuracy of the image segmentation processing is low, it means that the ratio of erroneously specifying the region is high.
(学習済みモデル、および教師データ)
学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルのことである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。
(Trained model and teacher data)
The trained model is a model in which training (learning) is performed in advance using appropriate teacher data (learning data) for a machine learning model that follows an arbitrary machine learning algorithm such as deep learning. .. However, the trained model does not require further learning, and additional learning can be performed.
教師データは、一つ以上の、入力データと出力データとのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。 The teacher data is composed of one or more pairs of input data and output data. The format and combination of the input data and output data of the pair group that composes the teacher data may be one of which is an image and the other of which is a numerical value, or one of which is composed of multiple image groups and the other of which is a character string. May be an image or the like, which is suitable for a desired configuration.
教師データの第1の例として、具体的には、CTによって取得された二次元の投影画像を入力データとし、該画像に対応する異常ラベルを出力データとするペア群によって構成された教師データ(以下、第1の教師データ)が挙げられる。なお、異常ラベルは、投影画像に対応する撮影範囲において、傷病や画像アーチファクトなどの異常があるかないかを表すユニークな数値や文字列である。例えば、異常が無ければ0、異常があれば1を設定する。なお設計によっては、前記入力データを三次元や四次元の投影画像としてもよい。なお、四次元の画像とは、例えば、三次元の動画像や三次元画像の各画素位置におけるパラメータを異なる色相で示したような画像を含む。 As a first example of teacher data, specifically, teacher data composed of a pair group in which a two-dimensional projected image acquired by CT is used as input data and an abnormality label corresponding to the image is used as output data ( Hereinafter, the first teacher data) can be mentioned. The abnormality label is a unique numerical value or character string indicating whether or not there is an abnormality such as an injury or illness or an image artifact in the shooting range corresponding to the projected image. For example, 0 is set if there is no abnormality, and 1 is set if there is an abnormality. Depending on the design, the input data may be a three-dimensional or four-dimensional projected image. The four-dimensional image includes, for example, a three-dimensional moving image or an image in which parameters at each pixel position of the three-dimensional image are shown in different hues.
教師データの第2の例として、CTによって取得された二次元の診断用画像を入力データとし、該画像に対応する異常ラベルを出力データとするペア群によって構成された教師データ(以下、第2の教師データ)が挙げられる。なお、異常ラベルは、診断用画像に対応する撮影範囲において、傷病や画像アーチファクトなどの異常があるかないかを表すユニークな数値や文字列である。例えば、異常が無ければ0、異常があれば1を設定する。なお設計によっては、前記入力データを三次元や四次元の診断用画像としてもよい。 As a second example of teacher data, teacher data composed of a pair group in which a two-dimensional diagnostic image acquired by CT is used as input data and an abnormality label corresponding to the image is used as output data (hereinafter, second). Teacher data). The abnormality label is a unique numerical value or character string indicating whether or not there is an abnormality such as an injury or illness or an image artifact in the imaging range corresponding to the diagnostic image. For example, 0 is set if there is no abnormality, and 1 is set if there is an abnormality. Depending on the design, the input data may be used as a three-dimensional or four-dimensional diagnostic image.
教師データの第3の例として、CTによって取得された二次元の投影画像を入力データとし、該画像に描出される関心領域を特定可能な二次元の領域ラベル画像を出力データとするペア群によって構成された教師データ(以下、第3の教師データ)が挙げられる。関心領域は、例えば、肺野および気胸の領域である。入力データは、例えば、図4に示す、三次元の投影画像の一部である二次元の投影画像Im410であり、出力データは、投影画像Im410に描出される気胸の領域を特定可能な二次元の領域ラベル画像Im420である。なお設計によっては、前記入力データを三次元や四次元の投影画像とし、出力データを二次元〜四次元の領域ラベル画像としてもよい。 As a third example of the teacher data, a pair group using a two-dimensional projected image acquired by CT as input data and a two-dimensional area label image capable of identifying the region of interest drawn in the image as output data. The constructed teacher data (hereinafter referred to as a third teacher data) can be mentioned. Areas of interest are, for example, areas of the lung field and pneumothorax. The input data is, for example, the two-dimensional projected image Im410 which is a part of the three-dimensional projected image shown in FIG. 4, and the output data is the two-dimensional image which can identify the region of the chest depicted in the projected image Im410. It is the area label image Im420 of. Depending on the design, the input data may be a three-dimensional or four-dimensional projected image, and the output data may be a two-dimensional to four-dimensional area label image.
教師データの第4の例として、CTにより取得された二次元の診断用画像を入力データとし、該画像に描出される関心領域を特定可能な二次元の領域ラベル画像を出力データとするペア群によって構成された教師データ(以下、第4の教師データ)が挙げられる。入力データは、例えば、図5に示す、三次元の診断用画像の一部である二次元の診断用画像Im510であり、出力データは、診断用画像Im510に描出される気胸の領域を特定可能な二次元の領域ラベル画像Im520である。なお設計によっては、前記入力データを三次元や四次元の診断用画像とし、出力データを二次元から四次元の領域ラベル画像としてもよい。 As a fourth example of teacher data, a pair group in which a two-dimensional diagnostic image acquired by CT is used as input data and a two-dimensional area label image capable of identifying an area of interest drawn in the image is used as output data. The teacher data composed by (hereinafter, the fourth teacher data) can be mentioned. The input data is, for example, the two-dimensional diagnostic image Im510 which is a part of the three-dimensional diagnostic image shown in FIG. 5, and the output data can identify the region of the chest drawn on the diagnostic image Im510. Two-dimensional area label image Im520. Depending on the design, the input data may be a three-dimensional or four-dimensional diagnostic image, and the output data may be a two-dimensional to four-dimensional area label image.
学習済モデルは、入力データが入力されると、該学習済モデルの設計に従った出力データを出力する。例えば、画像セグメンテーション問題や回帰問題を対象として設計された学習済モデルは、トレーニングに用いた教師データの入力データに対応する出力データの
傾向に従って、入力データに対応する可能性の高い出力データを出力する。また、例えば、分類問題を対象として設計された学習済モデルは、トレーニングに用いた教師データの入力データに対応する出力データの傾向に従って、入力データが設計によって定義されたクラス群の夫々へ分類され得る可能性を数値群として出力する。
When the input data is input, the trained model outputs the output data according to the design of the trained model. For example, a trained model designed for image segmentation problems and regression problems outputs output data that is likely to correspond to the input data according to the tendency of the output data corresponding to the input data of the teacher data used for training. To do. Also, for example, a trained model designed for a classification problem is classified into each of the classes defined by the design according to the tendency of the output data corresponding to the input data of the teacher data used for training. Output the possibility of obtaining as a numerical group.
具体的には、例えば、第1の教師データでトレーニングされた学習済モデルに投影画像を入力すると、学習済モデルは該投影画像に異常があるかないかを示す値を出力したり、設計により異常があるかないかの程度を示す数値を出力したりする。 Specifically, for example, when a projected image is input to a trained model trained with the first teacher data, the trained model outputs a value indicating whether or not there is an abnormality in the projected image, or an abnormality due to design. It outputs a numerical value indicating the degree of presence or absence.
また、例えば、第2の教師データによってトレーニングされた学習済モデルに診断用画像を入力すると、学習済モデルは該診断用画像に異常があるかないかを示す値を出力したり、設計により異常があるかないかの程度を示す数値を出力したりする。 Further, for example, when a diagnostic image is input to the trained model trained by the second teacher data, the trained model outputs a value indicating whether or not there is an abnormality in the diagnostic image, or an abnormality is caused by the design. It outputs a numerical value indicating the degree of presence or absence.
また、例えば、第3の教師データによってトレーニングされた学習済モデルに投影画像を入力すると、学習済モデルは該投影画像に描出された肺野と気胸の領域を特定可能な領域ラベル画像を出力する。 Further, for example, when a projected image is input to the trained model trained by the third teacher data, the trained model outputs a region label image that can identify the lung field and pneumothorax region depicted in the projected image. ..
また、例えば、第4の教師データによってトレーニングされた学習済モデルに診断用画像を入力すると、学習済モデルは該診断用画像に描出された肺野と気胸の領域を特定可能な領域ラベル画像を出力する。 Further, for example, when a diagnostic image is input to the trained model trained by the fourth teacher data, the trained model produces a region label image that can identify the lung field and pneumothorax regions depicted in the diagnostic image. Output.
(機械学習アルゴリズム)
機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)等のディープラーニングに関する手法を含む。ディープラーニングに関する手法においては、ニューラルネットワークを構成する層群やノード群の設定、ノード群等に設定される重みやバイアスに関する最適化アルゴリズムに対するパラメータの設定、損失関数の設計が適宜なされる。これらパラメータ及び損失関数の設計に応じて、正解率、適合率、再現率などの性能が異なる場合がある。
(Machine learning algorithm)
Machine learning algorithms include techniques for deep learning such as convolutional neural networks (CNNs). In the method related to deep learning, the layers and nodes constituting the neural network are set, the parameters for the optimization algorithm regarding the weights and biases set in the nodes and the like are set, and the loss function is appropriately designed. Performance such as accuracy rate, precision rate, and recall rate may differ depending on the design of these parameters and the loss function.
例えば、第1の教師データ、あるいは第2の教師データを用いたディープラーニングの学習済モデルにおいては、より適切なパラメータが設定されていると、入力された画像に傷病などの異常があるか無いかを正しく出力する確率がより高くなる場合がある。また、例えば、第3の教師データ、あるいは、第4の教師データを用いる学習済モデルにおいては、より適切なパラメータが設定されていると、より精度の高い領域ラベル画像を出力できる場合がある。 For example, in the trained model of deep learning using the first teacher data or the second teacher data, if more appropriate parameters are set, there is no abnormality such as injury or illness in the input image. May be more likely to be output correctly. Further, for example, in the trained model using the third teacher data or the fourth teacher data, if more appropriate parameters are set, a more accurate area label image may be output.
具体的には、CNNの層群やノード群におけるパラメータは、例えば、畳み込み層に対して設定される、フィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値、並びに全結合層の出力するノードの数等を含むことができる。なお、パラメータ群やトレーニングのエポック数は、教師データに基づいて、学習済モデルの利用形態に好ましい値に設定することができる。例えば、教師データに基づいて、異常があるか無いかをより高い確率で正しく出力したり、より精度の高い領域ラベル画像を出力したりできるパラメータ群やエポック数を設定することができる。 Specifically, the parameters in the CNN layer group and node group are, for example, the kernel size of the filter, the number of filters, the stride value, and the dilation value set for the convolutional layer, and the fully connected layer. It can include the number of nodes to be output from. The parameter group and the number of training epochs can be set to preferable values for the usage pattern of the trained model based on the teacher data. For example, based on the teacher data, it is possible to set a parameter group and the number of epochs that can correctly output whether or not there is an abnormality with a higher probability and output a more accurate area label image.
上記のパラメータ群やエポック数を決定する方法を例示する。ホールドアウト法と呼ばれる方法では、まず、教師データを構成するペア群の7割をトレーニング用とし、残りの3割を評価用として選択する。次に、トレーニング用のペア群を用いて学習済モデルのトレーニングを行い、トレーニングの各エポックの終了時に、評価用のペア群を用いてトレーニング評価値を算出する。トレーニング評価値とは、例えば、各ペアを構成する入力データをトレーニング中の学習済モデルに入力したときの出力と、入力データに対応する出
力データとを損失関数によって評価した値群の平均値等である。最後に、最もトレーニング評価値が良くなった時点(損失関数の設計により、最小値の時点であったり、最大値の時点であったりする)のパラメータ群及びエポック数を、当該学習済モデルのパラメータ群やエポック数として決定する。このように、教師データを構成するペア群をトレーニング用と評価用とに分けてエポック数の決定を行うことによって、学習済モデルがトレーニング用のペア群に対して過学習してしまうことを防ぐことができる。
A method for determining the above parameter group and the number of epochs will be illustrated. In the method called the holdout method, first, 70% of the pair group constituting the teacher data is selected for training, and the remaining 30% is selected for evaluation. Next, the trained model is trained using the training pair group, and the training evaluation value is calculated using the evaluation pair group at the end of each training epoch. The training evaluation value is, for example, the average value of a value group in which the output when the input data constituting each pair is input to the trained model during training and the output data corresponding to the input data are evaluated by the loss function. Is. Finally, the parameter group and the number of epochs at the time when the training evaluation value is the best (depending on the design of the loss function, the time of the minimum value or the time of the maximum value) are set as the parameters of the trained model. Determined as a group or number of epochs. In this way, by dividing the pair group that constitutes the teacher data into training and evaluation and determining the number of epochs, it is possible to prevent the trained model from overtraining the training pair group. be able to.
また、その他の方法の例として、クロスバリデーション法と呼ばれる方法もある。クロスバリデーション法では、教師データを構成するペア群を複数の集合に分け、1つの集合を評価用データとし、その他の集合群をトレーニング用データとして、性能評価を行う。そして、各集合を評価用データとして評価したそれぞれの結果の平均性能に応じて、パラメータ群やエポック数が決定される。 Further, as an example of other methods, there is also a method called a cross-validation method. In the cross-validation method, the pair group constituting the teacher data is divided into a plurality of sets, one set is used as evaluation data, and the other set group is used as training data for performance evaluation. Then, the parameter group and the number of epochs are determined according to the average performance of each result of evaluating each set as evaluation data.
上記の損失関数の例を挙げる。回帰問題を対象とする場合、例えば、教師データの、ある出力データの値と、該出力データに対応する入力データを学習済モデルに入力して出力される値との差の絶対値や、二乗誤差を損失関数の出力とすることがある。また、画像セグメンテーション問題を対象とする場合、例えば、教師データの、ある入力データの画像に関して、ペアを構成する領域ラベル画像と、学習済モデルが出力した領域ラベル画像との、画素値群に関する平均二乗誤差を損失関数の出力とすることがある。 An example of the above loss function is given. When targeting a regression problem, for example, the absolute value of the difference between the value of a certain output data of the teacher data and the value output by inputting the input data corresponding to the output data into the trained model, or the square. The error may be the output of the loss function. Further, when the image segmentation problem is targeted, for example, with respect to the image of a certain input data of the teacher data, the average of the area label image forming the pair and the area label image output by the trained model regarding the pixel value group. The squared error may be the output of the loss function.
(画像セグメンテーションエンジン)
画像セグメンテーションエンジンとは、画像セグメンテーション処理を実施し、入力された入力画像に対応する領域ラベル画像を出力するモジュールのことである。入力画像の例としては、CTの二次元あるいは三次元の投影画像や診断用画像、MRIのK−Spaceデータや診断用画像、OCTのBスキャン画像や三次元画像等がある。また、領域ラベル画像の例としては、入力画像がCTの二次元あるいは三次元画像である場合における傷病の領域を示す領域ラベル画像や、入力画像がOCTのBスキャン画像である場合における網膜層の各層を示す領域ラベル画像等がある。
(Image segmentation engine)
The image segmentation engine is a module that performs image segmentation processing and outputs an area label image corresponding to the input input image. Examples of the input image include a two-dimensional or three-dimensional projected image of CT, a diagnostic image, K-Space data of MRI, a diagnostic image, a B-scan image of OCT, a three-dimensional image, and the like. Further, as an example of the area label image, the area label image showing the area of injury or illness when the input image is a two-dimensional or three-dimensional image of CT, or the retinal layer when the input image is a B scan image of OCT. There is an area label image showing each layer and the like.
下記の実施形態における画像セグメンテーション処理の手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムに従った学習済モデルを用いた処理を行ってもよい。なお、当該画像処理手法は、機械学習アルゴリズムだけでなく、他の既存の任意の処理を併せて行ってもよい。当該画像処理には、例えば、各種画像フィルタ処理、類似画像に対応する領域ラベル画像のデータベースを用いたマッチング処理、基準領域ラベル画像の画像レジストレーション処理、及び知識ベース画像処理等の処理が含まれる。また、当該画像処理手法は、アンサンブル処理によって、複数の画像処理の結果を多数決させたり、平均したりする等して、最終的な領域ラベル画像を出力しても良い。 In the image processing method constituting the image segmentation processing method in the following embodiment, processing using a trained model according to various machine learning algorithms such as deep learning may be performed. The image processing method may be performed not only by a machine learning algorithm but also by any other existing processing. The image processing includes, for example, various image filter processing, matching processing using a database of area label images corresponding to similar images, image registration processing of reference area label images, knowledge base image processing, and the like. .. Further, in the image processing method, the final area label image may be output by making a majority decision or averaging the results of a plurality of image processings by ensemble processing.
特に、入力画像として入力された画像を画像セグメンテーション処理して、領域ラベル画像を出力する畳み込みニューラルネットワーク(CNN)には様々な構成があるが、例として、図6に示す構成がある。 In particular, there are various configurations of a convolutional neural network (CNN) that performs image segmentation processing on an image input as an input image and outputs a region label image. As an example, there is a configuration shown in FIG.
具体的には、前記構成を、例えば、上記第3の教師データによってトレーニングすることによって、投影画像を入力すると、該投影画像に描出された気胸の領域を特定可能な領域ラベル画像を出力する学習済モデルが得られる。また、前記構成を、例えば、上記第4の教師データによってトレーニングすることによって、診断用画像を入力すると、該診断用画像に描出された気胸の領域を特定可能な領域ラベル画像を出力する学習済モデルが得られる。 Specifically, when the projected image is input by training the configuration with, for example, the third teacher data, learning to output a region label image capable of identifying the pneumothorax region depicted in the projected image. A finished model is obtained. Further, when a diagnostic image is input by training the configuration with, for example, the fourth teacher data, a learned area label image that can identify the pneumothorax area drawn on the diagnostic image is output. A model is obtained.
前記構成は、入力値群を加工して出力する処理を担う、複数の層群が含まれる。なお、
前記構成に含まれる層の種類としては、図6に示すように、畳み込み(Convolution)層、ダウンサンプリング(DownSampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。
The configuration includes a plurality of layers that are responsible for processing and outputting an input value group. In addition, it should be noted.
As shown in FIG. 6, the types of layers included in the configuration include a convolution layer, a downsampling layer, an upsampling layer, and a synthetic layer.
畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。ダウンサンプリング層で行われる処理として、具体的には、例えば、Max Pooling処理がある。 The convolutional layer is a layer that performs convolutional processing on an input value group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The downsampling layer is a layer that performs processing to reduce the number of output value groups to be smaller than the number of input value groups by thinning out or synthesizing input value groups. Specifically, as the process performed in the downsampling layer, for example, there is a Max Pooling process.
アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。アップサンプリング層で行われる処理として、具体的には、例えば、線形補間処理がある。合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The upsampling layer is a layer that performs processing to increase the number of output value groups to be larger than the number of input value groups by duplicating the input value group or adding the interpolated value from the input value group. Specifically, as the process performed in the upsampling layer, for example, there is a linear interpolation process. The composite layer is a layer in which a value group such as an output value group of a certain layer or a pixel value group constituting an image is input from a plurality of sources, and the processing is performed by concatenating or adding them.
なお、前記構成に含まれる畳み込み層群に設定されるパラメータとして、例えば、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度の画像セグメンテーション処理が可能である。ただし、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施形態に応じて各層群や各ノード群に対する適切なパラメータは異なるので、必要に応じて変更してもよい。 As parameters set in the convolutional layer group included in the above configuration, for example, by setting the kernel size of the filter to 3 pixels in width and 3 pixels in height and the number of filters to 64, image segmentation processing with a certain accuracy is performed. Is possible. However, it should be noted that if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendency trained from the teacher data can be reproduced in the output data may differ. That is, in many cases, the appropriate parameters for each layer group and each node group differ depending on the embodiment, and may be changed as necessary.
また、実施形態によっては、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、画像セグメンテーション処理の精度が高かったり、画像セグメンテーション処理の時間が短かったり、学習済モデルのトレーニングにかかる時間が短かったりする等である。CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等がある。 Further, depending on the embodiment, better characteristics of the CNN may be obtained by changing the configuration of the CNN as well as the method of changing the parameters as described above. Better characteristics include, for example, high accuracy of image segmentation processing, short time of image segmentation processing, short training time of trained model, and the like. Examples of modification of the CNN configuration include incorporating a batch normalization layer and an activation layer using a rectifier linear unit after the convolutional layer.
なお、一次元画像や三次元画像、四次元画像を処理する必要がある場合には、フィルタのカーネルサイズが一次元や三次元、四次元に対応していてもよい。 When it is necessary to process a one-dimensional image, a three-dimensional image, or a four-dimensional image, the kernel size of the filter may correspond to the one-dimensional image, the three-dimensional image, or the four-dimensional image.
また、画像セグメンテーション処理は、1つの画像処理手法だけで実施されることもあるし、2つ以上の画像処理手法を組み合わせて実施されることもある。さらに、複数の画像セグメンテーション処理手法を実施し、複数の領域ラベル画像を生成することもできる。 Further, the image segmentation process may be performed by only one image processing method, or may be performed by combining two or more image processing methods. Further, it is possible to carry out a plurality of image segmentation processing methods to generate a plurality of area label images.
また、実施形態によっては、入力画像を小領域群に分割し、それぞれに対して画像セグメンテーション処理を実施して小領域の領域ラベル画像群を得て、該小領域の領域ラベル画像群を結合することで、領域ラベル画像を生成する方法がある。なお、当該小領域は、入力画像が三次元画像であれば、入力画像よりも小さな三次元画像であったり、二次元画像であったり、一次元画像であったりしてもよい。また、当該小領域は、入力画像が二次元画像であれば、入力画像よりも小さな二次元画像であったり、一次元画像であったりしてもよい。また、実施形態によっては複数の領域ラベル画像群を出力してもよい。 Further, depending on the embodiment, the input image is divided into small area groups, and image segmentation processing is performed on each of them to obtain a small area area label image group, and the small area area label image group is combined. Therefore, there is a method of generating an area label image. If the input image is a three-dimensional image, the small area may be a three-dimensional image smaller than the input image, a two-dimensional image, or a one-dimensional image. Further, the small area may be a two-dimensional image smaller than the input image or a one-dimensional image as long as the input image is a two-dimensional image. Further, depending on the embodiment, a plurality of area label image groups may be output.
また、画像セグメンテーションエンジンに対して、入力画像とともにパラメータを入力
してもよい。この場合の入力されるパラメータは、例えば、病変の大きさの上限など、画像セグメンテーション処理を行う範囲の程度を指定するパラメータや、画像処理手法に用いられる画像フィルタサイズを指定するパラメータを含むことができる。なお、画像セグメンテーションエンジンは、実施形態によっては領域ラベル画像の代わりに、領域を特定可能なその他の画像や座標データ群を出力してもよい。
In addition, parameters may be input to the image segmentation engine together with the input image. The parameters input in this case may include parameters that specify the degree of the range in which image segmentation processing is performed, such as the upper limit of the size of the lesion, and parameters that specify the image filter size used in the image processing method. it can. Depending on the embodiment, the image segmentation engine may output other images or coordinate data groups that can specify the area instead of the area label image.
なお、複数の画像セグメンテーション処理手法を実施したり、複数の小領域群に対して画像セグメンテーション処理を実施したりする場合には、並列的に画像セグメンテーション処理を行うことによって、処理時間を短縮できる。 When performing a plurality of image segmentation processing methods or performing image segmentation processing on a plurality of small area groups, the processing time can be shortened by performing the image segmentation processing in parallel.
なお、CNNを用いた画像処理等、一部の画像処理手法を利用する場合には画像サイズについて注意する必要がある。具体的には、領域ラベル画像の周辺部が十分な精度でセグメンテーション処理されない問題等の対策のため、入力する画像と出力する領域ラベル画像とで異なる画像サイズを要する場合があることに留意すべきである。 When using some image processing methods such as image processing using CNN, it is necessary to pay attention to the image size. Specifically, it should be noted that different image sizes may be required for the input image and the output area label image in order to deal with the problem that the peripheral part of the area label image is not segmented with sufficient accuracy. Is.
明瞭な説明のため、後述の実施形態において明記はしないが、画像セグメンテーションエンジンに入力される画像と出力される画像とで異なる画像サイズを要する画像セグメンテーションエンジンを採用した場合には、適宜画像サイズを調整しているものとする。具体的には、学習済モデルをトレーニングするための教師データに用いる画像や、画像セグメンテーションエンジンに入力される画像といった入力画像に対して、パディングを行ったり、該入力画像の周辺の撮影領域を結合したりして、画像サイズを調整する。なお、パディングを行う領域は、効果的に画像セグメンテーション処理できるように画像セグメンテーション処理手法の特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 For the sake of clarity, although not specified in the embodiments described later, when an image segmentation engine that requires different image sizes for the image input to the image segmentation engine and the image to be output is adopted, the image size is appropriately adjusted. It is assumed that it is being adjusted. Specifically, the input image such as the image used for the teacher data for training the trained model or the image input to the image segmentation engine is padded or the shooting area around the input image is combined. Adjust the image size by doing. The area to be padded is filled with a constant pixel value, filled with neighboring pixel values, or mirror padded according to the characteristics of the image segmentation processing method so that the image segmentation processing can be effectively performed.
(異常検出エンジン)
異常検出エンジンとは、異常検出処理を実施し、入力された入力画像に、健康な被検者や、正常な撮影環境、正常な撮影方法等では描出されない傷病や画像アーチファクト等の異常の有無を判断するモジュールのことである。
(Anomaly detection engine)
The anomaly detection engine performs anomaly detection processing and checks the input input image for abnormalities such as healthy subjects, normal shooting environments, normal shooting methods, and other injuries and illnesses and image artifacts. It is a module to judge.
なお、前記異常検出処理が異常の有無を判定する過程において、異常があるかないかの程度を示す値を出力したり、傷病重篤度等の異常の程度を示す値を出力したりしている場合、異常検出エンジンは前記判定と共に該値を出力してもよい。 In the process of determining the presence or absence of an abnormality in the abnormality detection process, a value indicating the degree of abnormality is output, or a value indicating the degree of abnormality such as the severity of injury or illness is output. In that case, the abnormality detection engine may output the value together with the determination.
入力画像の例としては、CTの二次元あるいは三次元の投影画像や診断用画像、MRIのK−Spaceデータや診断用画像、OCTのBスキャン画像や三次元画像等がある。 Examples of the input image include a two-dimensional or three-dimensional projected image of CT, a diagnostic image, K-Space data of MRI, a diagnostic image, a B-scan image of OCT, a three-dimensional image, and the like.
また、傷病による異常の例としては、入力画像がCT画像である場合は、気胸や大動脈解離、体液や血液の貯留、骨折等が描出されている異常、入力画像がOCTのBスキャン画像である場合は、浮腫や薄い神経細胞層等が描出されている異常がある。 In addition, as an example of an abnormality due to injury or illness, when the input image is a CT image, an abnormality in which pneumothorax or aortic dissection, body fluid or blood retention, fracture, etc. are depicted, and the input image is an OCT B scan image. In some cases, there is an abnormality in which edema or a thin nerve cell layer is visualized.
さらに、画像アーチファクトによる異常の例としては、入力画像がCT画像やMRI画像である場合における、被検者の体内にある金属や被検者の撮影時の動き、装置の不具合等に起因する画像アーチファクトが描出される異常がある。 Further, as an example of an abnormality due to an image artifact, when the input image is a CT image or an MRI image, an image caused by a metal inside the subject's body, a movement of the subject during shooting, a malfunction of the device, or the like. There is an anomaly in which the artifact is depicted.
下記の実施形態における異常検出処理の手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムに従った学習済モデルを用いた処理を行ってもよい。なお、当該画像処理手法は、機械学習アルゴリズムだけでなく、他の既存の任意の処理を併せて行ってもよい。当該画像処理には、例えば、各種画像フィルタ処理、類似画像のデータベースを用いたマッチング処理、正常画像の画像レジストレーション処理、及び
知識ベース画像処理等の処理が含まれる。また、当該画像処理手法は、アンサンブル処理によって、複数の画像処理の結果を多数決させたり、平均したりする等して、最終的に異常の有無を判断しても良い。
In the image processing method constituting the method of abnormality detection processing in the following embodiment, processing using a trained model according to various machine learning algorithms such as deep learning may be performed. The image processing method may be performed not only by a machine learning algorithm but also by any other existing processing. The image processing includes, for example, various image filter processing, matching processing using a database of similar images, image registration processing of normal images, knowledge-based image processing, and the like. Further, in the image processing method, the presence or absence of an abnormality may be finally determined by, for example, making a majority decision or averaging the results of a plurality of image processings by ensemble processing.
特に、入力画像として入力された画像の異常の有無を判断するための、指標となる値(確率等)を出力するCNNには様々な構成があるが、例として、図7に示す構成がある。 In particular, there are various configurations of CNNs that output index values (probabilities, etc.) for determining the presence or absence of abnormalities in an image input as an input image. As an example, there is a configuration shown in FIG. ..
具体的には、前記構成を、例えば、上記第1の教師データによってトレーニングすることによって、投影画像を入力すると、該投影画像に異常があるかないかを判断可能にする数値を出力する学習済モデルが得られる。また、前記構成を、例えば、上記第2の教師データによってトレーニングすることによって、診断用画像を入力すると、該診断用画像に異常があるかないかを判断可能にする数値を出力する学習済モデルが得られる。 Specifically, a trained model that outputs a numerical value that makes it possible to determine whether or not there is an abnormality in the projected image when the projected image is input by training the configuration with, for example, the first teacher data. Is obtained. Further, when the diagnostic image is input by training the configuration with, for example, the second teacher data, a trained model that outputs a numerical value that makes it possible to determine whether or not there is an abnormality in the diagnostic image is available. can get.
前記構成には、畳み込み層とバッチ正規化層と正規化線形関数を用いた活性化層とで構成された複数の畳み込み処理ブロック群が含まれる。また、前記構成には、最後の畳み込み層と、全結合(Fully Connected)層と、出力層が含まれる。全結合層は畳み込み処理ブロックの出力値群を全結合する。また、出力層は、Sigmoid関数を利用して、入力画像に異常が描出されているかいないかの程度を推定結果(Result)として出力する。つまり、推定結果の値は、入力画像に異常が描出されていれば1に近づき、描出されていなければ0に近づく。 The configuration includes a plurality of convolutional processing blocks composed of a convolutional layer, a batch normalization layer, and an activation layer using a rectified linear function. The configuration also includes a final convolutional layer, a Fully Connected layer, and an output layer. The fully connected layer fully connects the output value group of the convolution processing block. Further, the output layer uses the sigmoid function to output the degree of whether or not an abnormality is depicted in the input image as an estimation result (Result). That is, the value of the estimation result approaches 1 if an abnormality is drawn in the input image, and approaches 0 if it is not drawn.
なお、前記構成に含まれる畳み込み処理ブロックの数を16、畳み込み層群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度で異常の有無を推定することができる。しかしながら、実際には上記の学習済モデルの説明において述べた通り、学習済モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、一次元画像や三次元画像、四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを一次元や三次元、四次元に拡張してもよい。なお、異常検出処理の手法は、一つの画像及びデータ処理手法だけで実施されることもあるし、二つ以上の画像及びデータ処理手法を組み合わせて実施されることもある。 By setting the number of convolutional processing blocks included in the configuration to 16 and the parameters of the convolutional layer group to be 3 pixels in width and 3 pixels in height and 64 in the number of filters, the accuracy is constant. The presence or absence of abnormalities can be estimated. However, in practice, as described in the above description of the trained model, a better parameter group can be set by using the teacher data according to the usage pattern of the trained model. When it is necessary to process a one-dimensional image, a three-dimensional image, or a four-dimensional image, the kernel size of the filter may be expanded to one-dimensional, three-dimensional, or four-dimensional. The anomaly detection processing method may be carried out using only one image and data processing method, or may be carried out by combining two or more image and data processing methods.
また、別の異常検出処理の手法として、Generative Adversarial Network(GAN)やAuto Encoder(AE)と呼ばれる機械学習アルゴリズムを利用する方法もある。具体的には、GANやAEによって、入力画像の様相に近い疑似的な正常画像を出力し、該疑似的な正常画像と入力画像との差異を算出することによって、異常の有無を判断するための指標となる値を出力する。つまり、差異の大きさは疑似的な正常画像と入力画像との近似性を示すので、差異が小さい場合には正常に近いので異常がないと判断し、差異が大きい場合には異常があると判断する。また、画像間の差異の値に対してルックアップテーブルを適用することによって、差異が画像中のどの領域にあったのか、視覚的に分かるようなヒートマップ画像を出力することもできる。 Further, as another method of abnormality detection processing, there is also a method of using a machine learning algorithm called Generative Adversarial Network (GAN) or Auto Encoder (AE). Specifically, in order to determine the presence or absence of an abnormality by outputting a pseudo normal image close to the appearance of the input image by GAN or AE and calculating the difference between the pseudo normal image and the input image. Outputs a value that serves as an index for. In other words, the magnitude of the difference indicates the closeness between the pseudo normal image and the input image, so if the difference is small, it is judged that there is no abnormality because it is close to normal, and if the difference is large, there is an abnormality. to decide. In addition, by applying a look-up table to the value of the difference between images, it is possible to output a heat map image that visually shows which region in the image the difference was in.
また、異常検出処理の手法の一部に画像セグメンテーションエンジンの出力結果を利用してもよい。例えば、傷病の領域ラベル画像を出力する画像セグメンテーションエンジンに、画像を入力し、出力された領域ラベル画像中の傷病領域の面積あるいは体積、画素数が、設定された閾値を超えた場合に異常が描出されているとする方法がある。 Further, the output result of the image segmentation engine may be used as a part of the abnormality detection processing method. For example, when an image is input to an image segmentation engine that outputs an injury / illness area label image and the area or volume of the injury / illness area or the number of pixels in the output area label image exceeds a set threshold value, an abnormality occurs. There is a way to assume that it is depicted.
(コンソール)
コンソールとは、撮影装置を操作可能なユーザインタフェースを備えた、撮影装置に接続された情報処理装置(コンピュータ)である。撮影装置がCT装置である場合は、コンソールは、CT装置の架台(ガントリー)に接続され、架台を制御して断層撮影を行う。
(console)
The console is an information processing device (computer) connected to the photographing device and having a user interface capable of operating the photographing device. When the imaging device is a CT device, the console is connected to a gantry of the CT device and controls the gantry to perform tomography.
医療機関施設においては、技師や医師等のユーザがコンソールを操作して撮像条件を設定し、被検者を撮影する撮影手続きを実施することができる。また、ユーザがコンソールを操作して画像条件を設定し、撮影で得られた投影画像やK−Spaceデータを診断用画像に再構成する画像処理手続きを実施することができる。また、コンソールには、撮影装置によって撮影して取得した投影画像やK−Spaceデータを一時保管するための記憶装置が備えられている。なお、撮影装置の種類によっては、撮影手続き用のコンソールと、画像処理手続き用のコンソールとが、一体であったり、別々の筐体であったりする。 In medical institution facilities, users such as technicians and doctors can operate the console to set imaging conditions and perform imaging procedures to photograph the subject. In addition, the user can operate the console to set image conditions and perform an image processing procedure for reconstructing the projected image or K-Space data obtained by shooting into a diagnostic image. In addition, the console is provided with a storage device for temporarily storing the projected image and K-Space data captured and acquired by the photographing device. Depending on the type of the photographing device, the console for the photographing procedure and the console for the image processing procedure may be integrated or may be separate housings.
(報知サーバ)
報知サーバとは、ある情報を、設定された宛先群に転送し、該情報を関係者に周知させたり、関係者にアクションを指示したり、転送先の端末のプログラムを実行したりすることを目的とする、報知サービスの機能を備えたサーバである。前記情報とは、テキストや画像、転送先の端末のプログラムを実行するのに必要なプログラム実行情報等で構成された情報である。
(Notification server)
The notification server transfers certain information to a set destination group, informs the related parties of the information, instructs the related parties to take an action, and executes a program of the transfer destination terminal. It is a target server equipped with a notification service function. The information is information composed of text, an image, program execution information necessary for executing a program of a transfer destination terminal, and the like.
報知サーバは、例えば、医療機関施設の関連ネットワークに接続され、電子カルテ端末や、医療機関施設の職員が所持するPHSやスマートフォン等の携帯情報端末に情報を送信することができる。例えば、電子カルテ端末が報知サーバよりテキストや画像の情報を受信した際には、受信されたテキストや画像は、電子カルテ端末の画面に、閲覧に適したスタイルで表示される。この表示は、電子カルテシステムのクライアントアプリケーション、または、報知サーバと連携するその他のアプリケーションによって実行される。また、電子カルテ端末やスマートフォンが報知サーバよりプログラム実行情報を受信した際には、該プログラム実行情報に従って端末上で利用可能なプログラムを実行する。前記プログラムの例として、診断用画像を参照するために利用される診断用画像参照ビューアが挙げられる。例えば、前記プログラム実行情報に診断用画像参照ビューアに表示させる検査を特定可能な情報が含まれていれば、端末上で、診断用画像参照ビューアが実行され、該検査に係る診断用画像を表示する。 The notification server is connected to, for example, a related network of a medical institution facility, and can transmit information to an electronic medical record terminal or a mobile information terminal such as a PHS or a smartphone owned by a staff member of the medical institution facility. For example, when the electronic medical record terminal receives text or image information from the notification server, the received text or image is displayed on the screen of the electronic medical record terminal in a style suitable for viewing. This display is executed by the client application of the electronic medical record system or other application that cooperates with the notification server. Further, when the electronic medical record terminal or the smartphone receives the program execution information from the notification server, the program available on the terminal is executed according to the program execution information. An example of the program is a diagnostic image reference viewer used to reference a diagnostic image. For example, if the program execution information includes information that can identify the test to be displayed on the diagnostic image reference viewer, the diagnostic image reference viewer is executed on the terminal and the diagnostic image related to the test is displayed. To do.
なお、プログラム実行情報に、実行するプログラムを指定する情報が含まれていない場合、その他の情報を元にプログラムを実行したり、実行方法が不明な場合は何もしなかったりする。前記その他の情報とは、例えば、ファイルパスであり、該ファイルパスが指すファイルの形式を拡張子等により特定し、端末上で該形式に関連付けられたプログラムに該ファイルパスをパラメータとして与え、実行する。また、前記その他の情報とは、例えば、Uniform Resource Locator(URL)であり、端末にインストールされたWEBブラウザ等のプログラムに該URLをパラメータとして与え、実行する。 If the program execution information does not include information that specifies the program to be executed, the program is executed based on other information, or if the execution method is unknown, nothing is done. The other information is, for example, a file path, the format of the file pointed to by the file path is specified by an extension or the like, and the file path is given as a parameter to the program associated with the format on the terminal and executed. To do. Further, the other information is, for example, a Uniform Resource Locator (URL), and the URL is given as a parameter to a program such as a WEB browser installed on the terminal and executed.
また、例えば、スマートフォンが報知サーバよりテキストや画像で構成される情報を受信した際には、Instant MessengerやEメールクライアント、SMS(Short Message Service)クライアント等が、該情報を表示する。 Further, for example, when a smartphone receives information composed of text or an image from a notification server, an instant messenger, an e-mail client, an SMS (Short Message Service) client, or the like displays the information.
また、電子カルテ端末やスマートフォン等の、配信先の端末の種類によっては、報知サーバが送信した情報をユーザが確認したか否かの情報である開封情報が報知サーバに通知される。利用例として、医療医機関施設に患者が救急車により緊急搬送されるケースを、図8を用いて説明する。まず、ステップS110において、担当の救急隊員が搬送先の担当医を宛先として患者の状態のメモと写真、搬送先への到着時刻等の情報を報知サーバに送信する。次にステップS120において、報知サーバが、ステップS110で受信した情報を設定された宛先ユーザである前記担当医の所持するスマートフォンに、情報を転送する。次にステップS130において、ステップS120を実施した一定時間経過後に、
報知サーバが前記担当医のスマートフォンから開封情報を受信している場合には、前記担当医が、患者が搬送されて来ることを知ったと見做すことができる。もし、前記開封情報を受信していない場合には、ステップS140において、報知サーバは第二の宛先として設定されている、前記担当医のPHSに電子合成された音声による情報の連絡を試みる。なお、PHSの場合には音声のみの情報として画像の転送はスキップし、ステップS120においてスマートフォンへ既に転送済みであることを音声で伝えても良い。また、ステップS110において設定される宛先は複数でもよく、それぞれの宛先について、ステップS120〜ステップS140と同様の手続きが実施される。また、ステップS110において、救急車に装備されたバイタルサインモニタが一定量の生体情報が蓄積され次第、自動的に、宛先を設定して該生体情報を報知サーバに送信してもよい。また、救急車に装備されたX線撮影装置によって取得された画像が、救急隊員によって搬送中に搬送先の医療医機関施設に送信された後、該画像の保管先のPACSが、自動的に、宛先を設定して該画像を報知サーバに送信してもよい。
In addition, depending on the type of distribution destination terminal such as an electronic medical record terminal or a smartphone, the notification server is notified of opening information, which is information on whether or not the user has confirmed the information transmitted by the notification server. As an example of use, a case where a patient is urgently transported to a medical medical institution facility by an ambulance will be described with reference to FIG. First, in step S110, the emergency personnel in charge transmits information such as a memo and a photograph of the patient's condition and the arrival time at the transportation destination to the notification server to the doctor in charge at the transportation destination. Next, in step S120, the notification server transfers the information received in step S110 to the smartphone possessed by the doctor in charge, who is the set destination user. Next, in step S130, after a certain period of time has elapsed since step S120 was performed,
When the notification server receives the opening information from the smartphone of the doctor in charge, it can be considered that the doctor in charge has learned that the patient is being transported. If the opening information has not been received, in step S140, the notification server attempts to communicate the information by voice electronically synthesized to the PHS of the doctor in charge, which is set as the second destination. In the case of PHS, the transfer of the image may be skipped as the information of only the voice, and the voice may convey that the image has already been transferred to the smartphone in step S120. Further, the number of destinations set in step S110 may be plural, and the same procedure as in steps S120 to S140 is performed for each destination. Further, in step S110, as soon as a certain amount of biometric information is accumulated by the vital sign monitor equipped in the ambulance, the destination may be automatically set and the biometric information may be transmitted to the notification server. In addition, after the image acquired by the X-ray imaging device installed in the ambulance is transmitted to the medical medical institution facility of the transport destination during transportation by the ambulance, the PACS of the storage destination of the image is automatically automatically set. The destination may be set and the image may be transmitted to the notification server.
以下、本発明に係る医用画像処理装置の実施形態を例示する。なお、以下において、簡略化のため、医用画像処理装置を単に画像処理装置という。 Hereinafter, embodiments of the medical image processing apparatus according to the present invention will be illustrated. In the following, for the sake of simplicity, the medical image processing device is simply referred to as an image processing device.
<第1の実施形態>
以下、図1、図9を参照して、第1の実施形態による画像処理装置について説明する。
<First Embodiment>
Hereinafter, the image processing apparatus according to the first embodiment will be described with reference to FIGS. 1 and 9.
図1は、本実施形態に係るX線コンピュータ断層撮影装置100(以下、単に撮影装置100と称する)を示す。撮影装置100は、架台(ガントリー)110およびコンソール120を含む。例えば、架台110はCT検査室に設置され、コンソール120はCT検査室に隣接する制御室に設置される。架台110とコンソール120とは互いに通信可能に接続されている。架台110は、X線CT撮影のための撮影機構を搭載する。コンソール120は、架台110を制御するコンピュータである。また、コンソール120は、PACS(不図示)に接続されている。検者(撮影技師等)は、入力装置126を介してコンソール120を操作して指示することにより、被検者を撮影して投影画像を取得することができる。コンソール120は、投影画像を再構成することによって診断用画像を取得可能であり、検者は、コンソール120の処理結果を出力装置によって確認できる。
FIG. 1 shows an X-ray computed tomography apparatus 100 (hereinafter, simply referred to as an imaging apparatus 100) according to the present embodiment. The photographing
図1に示すように、架台110は、架台制御回路111、X線発生部112、回転フレーム113、X線検出部114、データ収集回路115を有する。架台制御回路111は、X線発生部112、回転フレーム113、X線検出部114、データ収集回路115の駆動を制御する。X線発生部112は、X線管によって発生されるX線をコリメータによって整形し、整形したX線を回転フレーム113に向けて照射する。回転フレーム113は、開口を有する略円筒形状の金属枠であり、架台110内において回転可能に支持されている。また、回転フレーム113の開口内には、寝台が設けられ、寝台に被検者が載置される。
As shown in FIG. 1, the
X線検出部114は、X線発生部112から回転フレーム113の寝台に載置された被検者に照射され被検者を透過したX線を検出素子によって検出する。検出素子は、シンチレータと光センサを有する。検出素子では、シンチレータによって検出素子に入射するX線が入射X線量に応じた光子量の光に変換され、光センサによって当該光が増幅されて電気信号に変換される。データ収集回路115は、X線検出部114によって検出されたX線の線量に応じた電気信号を読み出して増幅し、増幅した電気信号をビュー期間にわたって積分することによりX線の線量に応じたデジタル値を有する、被検者の投影データを生成する。
The
コンソール120は、検者が撮影装置100あるいは架台110を操作するために使用
される。コンソール120は、演算プロセッサー、主記憶装置、補助記憶装置、通信インターフェース、出力装置125、入力装置126、を備えるコンピュータである。演算プロセッサーがコンピュータプログラムを実行することにより、取得部121、検出部122、報知部123、および再構成部124として機能する。なお、コンソール120は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。出力装置125は例えばディスプレイ、発光装置、スピーカーである。入力装置126は例えば、マウス、キーボード、タッチパネルである。コンソール120が、本実施形態における医用画像処理装置に相当する。
The
取得部121は、撮影装置100が被検者を撮影している最中に、または、撮影完了後に、回路やネットワークを介して、撮影装置100から投影画像(投影データ)を取得する。取得部121は、測定データを再構成することによって診断画像を取得可能な撮影装置100から測定データを取得する取得手段に相当する。
The
検出部122は、異常検出エンジン(傷病検出エンジン)を備え、投影画像が入力されると、該投影画像に描画された異常を検出し、異常の有無を判定できる。本実施形態において、検出部122は異常として特定の傷病を検出する。検出部122は、測定データ(投影画像)に基づいて特定の傷病を検出する検出手段に相当する。本実施形態では、異常検出の対象とする測定データは再構成を行う前の投影データであり、検出部122は当該投影データから特定の傷病を検出する。他の実施形態では、傷病検出の対象とする測定データは上記投影データに基づくサイノグラムデータであり、検出部122は当該サイノグラムデータから特定の疾病を検出してもよい。
The
異常検出エンジンは、上記第2の教師データと同様の構成を有する教師データによりトレーニングされた学習済モデルを利用する。したがって、異常検出エンジンは、特定の傷病が描出された投影画像が入力されると真値を出力し、特定の傷病が描出されていない投影画像が入力されると偽値を出力する。真値は特定の傷病があることを示す推定結果の例であり、偽値は特定の傷病がないことを示す推定結果の例である。 The anomaly detection engine utilizes a trained model trained with teacher data having the same configuration as the second teacher data. Therefore, the anomaly detection engine outputs a true value when a projected image in which a specific injury or illness is drawn is input, and outputs a false value when a projected image in which a specific injury or illness is not drawn is input. The true value is an example of the estimation result indicating that there is a specific injury or illness, and the false value is an example of the estimation result indicating that there is no specific injury or illness.
教師データを構成する入力データ群には、検出部122に入力されることが想定される投影画像と同様の撮像条件および画像条件を満たす投影画像が網羅的に含まれていると、異常を検出する精度が高くなる可能性があり好適である。具体的には、入力データ群に含まれる撮像条件および画像条件が網羅的になることによって、従来の異常検出エンジンでは精度が低くなってしまう入力データに対しても、安定して傷病検出可能なように異常検出エンジンがトレーニングされる。そのため、検出部122は、このようなトレーニングが行われた学習済モデルを含む異常検出エンジンを用いることで、様々な条件の投影画像に対して、安定して高い傷病検出精度を維持することができる。
An abnormality is detected when the input data group constituting the teacher data comprehensively includes projection images having the same imaging conditions and image conditions as the projection image expected to be input to the
また、教師データを構成する出力データ群は、前記入力データ群を参照して専門医が作成したり、任意の傷病検出処理によって作成したり、別に作成された出力データを専門医が修正して作成したりすることによって用意できる。 In addition, the output data group constituting the teacher data is created by a specialist with reference to the input data group, is created by arbitrary injury / illness detection processing, or is created by modifying the output data separately created by the specialist. It can be prepared by doing something like that.
なお、教師データを構成する入力データと出力データのペアのうち、傷病検出処理の精度に寄与しないペアは教師データから取り除いてもよい。例えば、教師データのペアを構成する出力データが誤っている場合には、当該教師データを用いて学習した学習済モデルの傷病検出の精度が低下する可能性が高くなる。そのため、誤った出力データを持つペアを教師データから取り除くことで、異常検出エンジンに含まれる学習済モデルの精度を向上できる可能性がある。 Of the pairs of input data and output data constituting the teacher data, the pair that does not contribute to the accuracy of the injury / illness detection process may be removed from the teacher data. For example, if the output data constituting the pair of teacher data is incorrect, the accuracy of injury / illness detection of the trained model trained using the teacher data is likely to decrease. Therefore, it may be possible to improve the accuracy of the trained model included in the anomaly detection engine by removing pairs with incorrect output data from the teacher data.
また、本実施形態の説明においては、異常検出エンジンに入力される投影画像を、図2
の投影画像Im210に示すような、複数の二次元の投影データを含む三次元の投影画像(投影データ)であるとして説明する。しかし、実施形態によっては、異常検出エンジンが対応可能であれば、二次元あるいは四次元の投影画像であってもよい。具体的には、二次元の投影画像である場合、入力される投影画像は、投影画像Im210におけるXY面に対応する二次元の投影画像であってもよいし、あるいは、投影画像Im210におけるXZ平面に対応する二次元の投影画像であってもよい。
Further, in the description of the present embodiment, the projected image input to the abnormality detection engine is shown in FIG.
It will be described as a three-dimensional projection image (projection data) including a plurality of two-dimensional projection data as shown in the projection image Im210 of the above. However, depending on the embodiment, a two-dimensional or four-dimensional projected image may be used as long as the abnormality detection engine can handle it. Specifically, in the case of a two-dimensional projected image, the input projected image may be a two-dimensional projected image corresponding to the XY plane in the projected image Im210, or the XZ plane in the projected image Im210. It may be a two-dimensional projected image corresponding to.
また、検出部122は、傷病を検出した際には、傷病を検出した投影画像に係る検査を特定可能な情報と傷病を検出した旨の情報とを紐づけて、記録してもよい。具体的には、検出部122は、不図示のコンソール120に接続された記録装置に、または不図示のコンソール120にネットワークを介して接続されたPACS等の外部システムに、上記情報を記録してもよい。
Further, when the injury or illness is detected, the
また、本実施形態の説明においては、検出すべき異常を、気胸や大動脈解離、体液や血液の貯留、骨折等が描出されている等の、緊急に対処が必要な傷病(疾患や外傷)として説明するが、実施形態により、報知することが望まれるその他の異常を含めても良い。 Further, in the description of the present embodiment, the abnormality to be detected is regarded as an injury or illness (disease or trauma) that requires urgent treatment, such as pneumothorax, aortic dissection, retention of body fluid or blood, fracture, etc. As described above, depending on the embodiment, other abnormalities that are desired to be notified may be included.
報知部123は、出力装置125を介して、グラフィックや光、音により、検者に傷病が検出されたことを報知することができる。報知部123は、検出部122による特定の傷病の検出に応じて、特定の傷病が検出された旨を報知する報知手段に相当する。なお、出力装置125は、例えば、ディスプレイ、スピーカー、LEDライト等の発光装置、及び、その他任意の出力装置である。また、出力装置125としてタッチパネルディスプレイを採用した場合には、当該タッチパネルを入力装置126と兼用してもよい。
The
再構成部124は、投影画像に対して再構成処理を施すことにより診断用画像を生成する。再構成のための設定情報(画像条件)は、検者によって入力されてもよいし、撮像条件に従って自動的に決定されてもよい。
The
次に、図9のフロー図を参照して、本実施形態に係る一連の手続きについて説明する。図9は、本実施形態における医用画像処理方法の流れを示すフロー図である。まず、本実施形態に係る一連の手続きが開始されると、最初にステップS910に移行する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. FIG. 9 is a flow chart showing the flow of the medical image processing method in the present embodiment. First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S910.
ステップS910では、検者がコンソール120を操作することにより、撮影装置100が被検者の撮影を開始する。
In step S910, the examiner operates the
ステップS920では、取得部121は、測定データを再構成することによって診断用画像を取得可能な撮影装置から、測定データ(投影画像(投影データ))を取得する。具体的には、取得部121が、撮影装置100のデータ収集回路115から、X線検出部114により取得した投影画像(投影データ)を取得する。
In step S920, the
ステップS930では、検出部122は、測定データに基づいて特定の疾病を検出する。具体的には、検出部122が、取得部121が取得した投影画像に対して、特定の傷病の有無を判定する。なお、簡単のため特に図示していないが、傷病検出処理を実施できない撮像条件の投影画像が入力された場合には、本実施形態の一連の手続きを終了したり、あるいは、報知部123に備えられた出力装置を介して、検者にその旨を知らせたりしてもよい。
In step S930, the
ステップS940では、ステップS930において特定の傷病があると判定された場合に、ステップS950に移行する。または、特定の傷病が無いと判定された場合に、本実施形態の一連の手続きを終了する。 In step S940, when it is determined in step S930 that there is a specific injury or illness, the process proceeds to step S950. Alternatively, when it is determined that there is no specific injury or illness, the series of procedures of the present embodiment is terminated.
ステップS950では、報知部123は、特定の傷病の検出に応じて、特定の傷病が検出された旨を報知する。具体的には、検出部122による特定の傷病の検出に応じて、報知部123が、コンソール120に備えられた出力装置125を介して、検者に特定の傷病が検出された旨を知らせる。
In step S950, the
本実施形態においては、投影画像(投影データ)を対象として異常検出を行うため、診断用画像の再構成処理の完了を待つことなく、異常検出を行うことができる。つまり、迅速に解析結果を得ることができる。 In the present embodiment, since the abnormality is detected for the projected image (projection data), the abnormality can be detected without waiting for the completion of the reconstructing process of the diagnostic image. That is, the analysis result can be obtained quickly.
本実施形態においては、診断用画像の再構成が完了する前に、投影画像に基づく異常の検出および異常が検出された場合はその報知が完了できる。したがって、本実施形態の画像処理装置は、画像診断や従来の画像解析が開始可能となる時点よりも早い時点において、診断用画像に描出されうる被検者の疾患や外傷、撮影不良等の異常の検出および報知ができる。 In the present embodiment, the detection of an abnormality based on the projected image and the notification of the abnormality can be completed before the reconstruction of the diagnostic image is completed. Therefore, the image processing apparatus of the present embodiment has an abnormality such as a disease, trauma, or poor imaging of the subject that can be visualized in the diagnostic image at a time earlier than the time when the image diagnosis or the conventional image analysis can be started. Can be detected and notified.
また、医療従事者に異常を検出した旨を報知することによって、被検者が重篤化する前に、再撮影や追加撮影、別の検査、外科的処置等の、被検者への適切な対処を医療従事者に促すことができる。 In addition, by notifying the medical staff that an abnormality has been detected, it is appropriate for the subject to perform re-imaging, additional imaging, another examination, surgical procedure, etc. before the subject becomes seriously ill. It is possible to encourage medical staff to take appropriate measures.
<第2の実施形態>
以下、図1、図9を参照して、第2の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、三次元の投影画像ではなく、二次元の投影画像を対象として異常検出を行う。
<Second embodiment>
Hereinafter, the image processing apparatus according to the second embodiment will be described with reference to FIGS. 1 and 9. The image processing apparatus according to the present embodiment detects anomalies not for a three-dimensional projected image but for a two-dimensional projected image.
図1は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、主に第1の実施形態と異なる部分を説明し、第1の実施形態と同様の構成については説明を省略する。 FIG. 1 shows an example of a schematic configuration of an image processing apparatus according to the present embodiment. Hereinafter, the parts different from those of the first embodiment will be mainly described, and the description of the same configuration as that of the first embodiment will be omitted.
本実施形態においては、検出部122は、二次元の投影画像を対象として傷病検出を行う。検出部122が有する異常検出エンジンは、二次元の投影画像が入力されると、入力された二次元の投影画像に特定の傷病が含まれるか否かを示す推論結果を出力する。言い換えると、本実施形態における検出部122は、撮影装置が複数の二次元の投影データの全てを取得する前に、これら複数の二次元の投影データの少なくともいずれかを大衆として特定の傷病を検出する。本実施形態における異常検出エンジンは、二次元の投影画像を入力データとし、当該画像に対応する異常ラベルを出力データとするペア群によって構成された教師データ(第1の教師データ)によりトレーニングされた学習済みモデルを有する。
In the present embodiment, the
次に、図9のフロー図を参照して、本実施形態に係る一連の画像処理について説明する。まず、本実施形態に係る一連の手続きが開始されると、最初にステップS910に移行する。ステップS910は、第1の実施形態と同様である。 Next, a series of image processing according to the present embodiment will be described with reference to the flow chart of FIG. First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S910. Step S910 is the same as the first embodiment.
ステップS920では、取得部121が、回路やネットワークを介して接続された撮影装置100から、撮影装置100が撮影した投影画像を取得する。なお、第1の実施形態との差異は、投影画像が被検者の撮影中においても取得されることである。撮像装置100は、例えば図2に示すように、XY面の断層像である二次元の投影画像IM220を順次撮影して、撮影完了時に三次元の投影画像IM210を取得する。本実施形態では、撮像装置100が二次元の投影画像IM220を撮影した時点で、取得部121がこの二次元の投影画像を撮像装置100から取得する。
In step S920, the
ステップS930では、取得部121が二次元の投影画像を取得するたびに、順次、検出部122が当該二次元の投影画像を対象として特定の傷病の有無を判定する。二次元の投影画像を取得するたびに傷病検出が行われるので、撮影装置100が三次元の投影画像IM210の全てを取得するより前に、三次元の投影画像IM210を構成する二次元の投影画像IM220を対象とする傷病検出が行われる。なお、簡単のため特に図示していないが、傷病検出処理を実施できない撮像条件の投影画像が入力された場合には、本実施形態の一連の手続きを終了したり、あるいは、報知部123に備えられた出力装置を介して、検者にその旨を知らせたりしてもよい。
In step S930, each time the
ステップS940、ステップS950では、第1の実施形態と同様の手続きを実施する。 In step S940 and step S950, the same procedure as in the first embodiment is carried out.
本実施形態は、上記第1の実施形態と同様の効果を奏することができる。さらに、三次元の投影画像を構成する一部の二次元の投影画像に対して異常検出を実施することによって、第一の実施形態よりもさらに早い時点において医療従事者に対処を促すことができる。 This embodiment can exert the same effect as that of the first embodiment. Further, by performing anomaly detection on a part of the two-dimensional projected images constituting the three-dimensional projected image, it is possible to prompt the medical staff to deal with it at an earlier point than the first embodiment. ..
<第3の実施形態>
以下、図9,図10を参照して、第3の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、特定の傷病が検出された際に、コンソールで報知するとともに、コンソール外の報知サーバからも報知するよう指示する。
<Third embodiment>
Hereinafter, the image processing apparatus according to the third embodiment will be described with reference to FIGS. 9 and 10. When a specific injury or illness is detected, the image processing device according to the present embodiment notifies the console and also instructs the notification server outside the console to notify the user.
図10は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第2の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1の実施形態を基礎としてもよい。以下、特に明言しない構成は、第2の実施形態と同様である FIG. 10 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the second embodiment, but the present embodiment may be based on the first embodiment. Hereinafter, the configuration not specifically stated is the same as that of the second embodiment.
本実施形態に係る撮影システムは、X線コンピュータ断層撮影装置1000(撮影装置1000)および報知サーバ1030を含む。撮影装置1000は、架台1010およびコンソール1020を含む。架台1010の構成は、第1の実施形態の架台110と同様であるため説明を省略する。架台1010とコンソール1020、およびコンソール1020と報知サーバ1030は、回路やネットワークを介して接続される。また、架台1010とコンソール1020とが直接接続されていてもよいし、また、コンソール1020と報知サーバ1030についても直接接続されていてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。
The imaging system according to the present embodiment includes an X-ray computed tomography apparatus 1000 (imaging apparatus 1000) and a
検者は、コンソール1020を操作して指示することにより、被検者を撮影して投影画像を取得することができる。コンソール1020は、検者が架台1010を操作するために使用される。また、本実施形態の説明に必要な構成として、少なくとも、取得部1021と、検出部1022と、報知部1023と、再構成部1024が設けられている。なお、コンソール1020は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。
The examiner can take a picture of the subject and acquire a projected image by operating the
取得部1021、検出部1022、再構成部1024、出力装置1025、入力装置1026は、第1の実施形態または第2の実施形態における取得部121、検出部122、再構成部124、出力装置125、入力装置126と同様である。したがって、詳細な説明を省略する。
The
報知部1023は、第2の実施形態における報知部123と同様の機能に加え、報知サーバ1030に対して、報知に関する情報(以下、報知関連情報)を送信する機能を有する。報知関連情報とは、少なくとも、撮影装置で撮影されている被検者の情報もしくは検査行為を特定可能な検査オーダ番号等の情報と、投影画像に異常が描出されている旨の情報の少なくともいずれかを含む。なお、設定によっては、報知部1023は、異常の種類に関する情報を報知関連情報に加えてもよい。また、異常があるかないかの程度を表す数値を算出していれば、報知部1023は、報知関連情報にこの数値を加えてもよい。
In addition to the same functions as the
報知サーバ1030は、受信した情報を設定された宛先群に転送し、関係者に周知させたり、関係者にアクションを指示したり、転送先の端末のプログラムを実行したりすることができる。宛先とは、報知サーバ1030が参照可能な宛先情報群から、受信した情報を転送すべき宛先として選択された宛先群のことである。宛先情報群は、不図示のネットワークを介して接続された電子カルテシステムが備える職員情報に係るデータベースから取得しても良いし、報知サーバ1030の備える不図示の宛先情報を記憶する領域に直接ユーザが入力する等して用意してもよい。
The
また、転送すべき宛先には、予め設定された規定の宛先であってもよい。既定の宛先とは、例えば、撮影装置1000によって取得される診断用画像を画像診断することになっている医師の宛先や、画像診断専門医が所属する部門を代表するメーリングリスト等の宛先等である。
Further, the destination to be transferred may be a preset specified destination. The default destination is, for example, a destination of a doctor who is supposed to perform image diagnosis on a diagnostic image acquired by the
また、転送すべき宛先は、受信した情報に含まれる被検者や検査の情報等を利用して選択されてもよい。具体的には、受信した情報に被検者の情報が含まれていれば、報知サーバ1030は、被検者の担当医を宛先に加えてもよい。
In addition, the destination to be transferred may be selected by using the information of the subject and the examination included in the received information. Specifically, if the received information includes the information of the subject, the
次に、図9のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第2の実施形態と同様であるため、一部説明を省略する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 9, but a part of the description will be omitted because it is the same as the second embodiment unless otherwise specified.
まず、本実施形態に係る一連の手続きが開始されると、最初にステップS910に移行する。ステップS910では、検者がコンソール1020を操作することにより、撮影装置1000が被検者を撮影開始する。
First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S910. In step S910, the examiner operates the
ステップS920では、取得部1021が、回路やネットワークを介して接続された撮影装置1000のデータ収集回路から、撮影装置1000のX線検出部が取得した投影画像を取得する。取得部1021は、撮影装置1000において二次元の投影画像が取得されるたびに、当該二次元の投影画像を取得する。
In step S920, the
ステップS930では、取得部1021が二次元の投影画像を取得するたびに、順次、検出部1022が当該二次元の投影画像を対象として特定の疾病の有無を判定する。
In step S930, each time the
ステップS940では、ステップS930において特定の傷病があると判定された場合に、ステップS950に移行する。または、特定の傷病が無いと判定された場合に、本実施形態の一連の手続きを終了する。 In step S940, when it is determined in step S930 that there is a specific injury or illness, the process proceeds to step S950. Alternatively, when it is determined that there is no specific injury or illness, the series of procedures of the present embodiment is terminated.
ステップS950では、報知部1023が、コンソール1020に備えられた出力装置1025を介して、検者に特定の傷病が検出された旨を知らせる。さらに、報知部1023が、回路やネットワークを介して接続された報知サーバ1030に対し、上記において示した報知関連情報を送信する。報知サーバ1030は、報知関連情報を受信すると、この情報にしたがって報知を行う。
In step S950, the
本実施形態は、上記第2の実施形態と同様の効果を奏することができる。さらに言及すると、報知サーバが報知することによって、検者以外の関係者にも異常を検知した旨を周知することができ、被検者に対する対処の準備をいち早く開始することができる。 This embodiment can exert the same effect as that of the second embodiment. Further to mention further, by notifying the notification server, it is possible to inform the related parties other than the examiner that the abnormality has been detected, and it is possible to promptly start the preparation for dealing with the examinee.
<第4の実施形態>
以下、図10、図11を参照して、第4の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、異常を報知する際に仮の診断用画像を併せて提供し、これにより読影医が判断を下せるようにする。
<Fourth Embodiment>
Hereinafter, the image processing apparatus according to the fourth embodiment will be described with reference to FIGS. 10 and 11. The image processing apparatus according to the present embodiment also provides a provisional diagnostic image when notifying an abnormality so that an image interpreter can make a judgment.
図10は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第3の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1または第2の実施形態を基礎としてもよい。以下、特に明言しない構成は、第3の実施形態と同様である。 FIG. 10 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the third embodiment, but the present embodiment may be based on the first or second embodiment. Hereinafter, the configuration not specifically stated is the same as that of the third embodiment.
本実施形態では、コンソール1020は、検出部1022が特定の傷病を検出すると、特定の傷病が検出された投影画像に対して、再構成部1024が再構成処理を施す。この際、再構成部1024は、予め定められた規定の画像条件に従って再構成処理を行う。本明細書では、規定の画像条件に従って得られる再構成画像のことを、適切な画像条件で再構成されPACSに登録される診断用画像と区別するために、仮の診断用画像と称する。この規定の画像条件は、実際の診断用画像を再構成する際の画像条件と比較して、再構成の処理速度を優先した簡易な設定である。
In the present embodiment, when the
検出部1022は、再構成により生成される仮の診断用画像を対象として傷病検出を行う。なお、一般に再構成は時間を要する処理であるが、仮の診断用画像は規定の画像条件に従って再構成され、また、この規定の画像条件は処理速度を優先した設定である。このように、画像条件の決定に人間の判断が不要であり、かつ、再構成処理の負荷が少ないことから、仮の診断用画像は比較的短時間で生成可能である。
The
報知部1023は、第3の実施形態における報知部1023と同様の機能に加えて、以下の機能を有する。報知部1023は、仮の診断用画像を報知関連情報に追加する機能を有する。あるいは、報知部1023は、仮の診断用画像を関係者が観察可能なようにPACS等の画像管理システムに保存する機能、および報知関連情報に仮の診断用画像を参照するための情報を追加する機能を有する。
The
診断用画像の再構成に用いる画像条件は、検査内容に応じて適切に設定されることが好ましいが、仮の診断用画像を生成する際には規定の画像条件を採用する。規定の画像条件は、例えば、撮像条件ごとにあらかじめ定められていてもよい。また、仮の診断用画像の生成は、再構成部1024あるいはコンソール1020で行う代わりに、外部の装置でおこなってもよい。
The image conditions used for reconstructing the diagnostic image are preferably set appropriately according to the inspection content, but when generating a temporary diagnostic image, the prescribed image conditions are adopted. The defined image conditions may be predetermined for each imaging condition, for example. Further, the temporary diagnostic image may be generated by an external device instead of being generated by the
次に、図11のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第3の実施形態と同様であるため、一部説明を省略する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 11, but a part of the description will be omitted because it is the same as the third embodiment unless otherwise specified.
まず、本実施形態に係る一連の手続きが開始されると、最初にステップS1110に移行する。ステップS1110〜ステップS1140では、第3の実施形態と同様の手続きを実施する。 First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S1110. In steps S111-10 to S1140, the same procedure as in the third embodiment is carried out.
ステップS1150では、再構成部1024が、特定の傷病が検出された投影画像を規定の画像条件に従って再構成して、仮の診断用画像を生成する。ステップS1160では、報知部1023は、コンソール1020に備え付けられた出力装置を介して、仮の診断
用画像とともに、特定の傷病が検出された旨を検者に知らせる。また、報知部1023は、仮の診断用画像を含む報知関連情報を生成して報知サーバ1030に送信する。報知サーバ1030は、報知関連情報にしたがって、仮の診断用画像とともに報知を行う。
In step S1150, the
本実施形態は、上記第3の実施形態と同様の効果を奏することができる。さらに言及すると、本実施形態においては報知関連情報に仮の診断用画像が追加されているため、関係者は報知関連情報を受信した端末上において、異常が本当に存在するか否かを画像診断して判断できる。また、仮の診断用画像の生成は上述したようにそれほど時間を要さないので、これにより報知が遅くなることもない。 This embodiment can exert the same effect as that of the third embodiment. Furthermore, since a temporary diagnostic image is added to the notification-related information in the present embodiment, the person concerned makes an image diagnosis as to whether or not an abnormality really exists on the terminal that has received the notification-related information. Can be judged. Further, since the generation of the temporary diagnostic image does not take much time as described above, the notification is not delayed by this.
<第5の実施形態>
以下、図11、図12を参照して、第5の実施形態による画像処理装置について説明する。第5の実施形態では画像処理装置は撮影装置のコンソールに実装されているが、本実施形態に係る画像処理装置は、コンソールとは異なる装置に実装され、この装置が異常検出および報知を行う。
<Fifth Embodiment>
Hereinafter, the image processing apparatus according to the fifth embodiment will be described with reference to FIGS. 11 and 12. In the fifth embodiment, the image processing device is mounted on the console of the photographing device, but the image processing device according to the present embodiment is mounted on a device different from the console, and this device performs abnormality detection and notification.
図12は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第4の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1から第3の実施形態のいずれかを基礎としてもよい。以下、特に明言しない構成は、第4の実施形態と同様である FIG. 12 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the fourth embodiment, but the present embodiment may be based on any one of the first to third embodiments. Hereinafter, the configuration not specifically stated is the same as that of the fourth embodiment.
本実施形態に係る撮影システムは、X線コンピュータ断層撮影装置1200(撮影装置1200)、検出装置1240、および報知サーバ1230から構成される。本実施形態において、検出装置1240が、医用画像処理装置に相当する。撮影装置1200と検出装置1240、検出装置1240と報知サーバ1230が回路やネットワークを介して接続されている。また、コンソール1220と検出装置1240は直接接続されていてもよい。また、検出装置1240と報知サーバ1230についても直接接続されていてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。
The imaging system according to the present embodiment includes an X-ray computed tomography apparatus 1200 (imaging apparatus 1200), a
撮影装置1200は、架台1210およびコンソール1220を含む。架台1210およびコンソール1220は、第4の実施形態の架台1010およびコンソール1020と同様である。ただし、本実施形態におけるコンソール1220は、検出部1022および報知部1023を有していなくてよい。
The photographing
コンソール1220は、検者が撮影装置1200を操作するために使用される。また、コンソール1220は不図示の記憶装置を備え、撮影装置1200が撮影する投影画像が部分的にでも取得可能になり次第、順次取得し記憶する。また、コンソール1220は、検者がどのような撮像条件で撮影を実施したのか、投影画像に関連付けて記憶している。
The
報知サーバ1230は、第4の実施形態の報知サーバ1030と同様である。
The
検出装置1240は、本実施形態の説明に必要な構成として、少なくとも、取得部1241と、検出部1242と、報知部1243と、再構成部1244と、出力装置1245と、入力装置1246とを含む。なお、検出装置1240は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。
The
取得部1241は、コンソール1220が記憶した投影画像を取得する。検出部1242、報知部1243、再構成部1244は、それぞれ、第4の実施形態の検出部1022
、報知部1023、再構成部1024と同様である。
The
, The same as the
次に、図11のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第4の実施形態と同様であるため、一部説明を省略する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 11, but a part of the description will be omitted because it is the same as the fourth embodiment unless otherwise specified.
まず、本実施形態に係る一連の手続きが開始されると、最初にステップS1110に移行する。ステップS1110では、第4の実施形態と同様の手続きを実施する。 First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S1110. In step S1110, the same procedure as in the fourth embodiment is carried out.
ステップS1120では、取得部1241が、コンソール1220が記憶している、撮影装置1200が撮影中に取得した投影画像を取得する。
In step S1120, the
ステップS1130〜ステップS1160では、コンソール1220の代わりに検出装置1240が処理を行う点を除けば、第4の実施形態と同様である。
Steps S1130 to S1160 are the same as those in the fourth embodiment, except that the
本実施形態は、上記第4の実施形態と同様の効果を奏することができる。さらに言及すると、コンソールとは別の検出装置が検出処理を担うことによって、コンソールの処理負荷を軽減することができる。また、既に設置済みの撮影装置およびコンソールに対して、後から追加する形で装置を設置できるので、異常検知および報知の機能の需要や導入費用の都合に合わせて柔軟に対応することができる。 This embodiment can exert the same effect as that of the fourth embodiment. Further, it is possible to reduce the processing load of the console by having a detection device other than the console take charge of the detection process. In addition, since the device can be installed later on the already installed photographing device and console, it is possible to flexibly respond to the demand for the abnormality detection and notification function and the convenience of the introduction cost.
<第6の実施形態>
以下、図12、図13を参照して、第6の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、投影画像を対象として異常検出を行う代わりに、投影画像を仮の診断用画像に変換して、この仮の診断用画像を対象として異常検出を行う。
<Sixth Embodiment>
Hereinafter, the image processing apparatus according to the sixth embodiment will be described with reference to FIGS. 12 and 13. The image processing apparatus according to the present embodiment converts the projected image into a temporary diagnostic image and performs abnormality detection on the temporary diagnostic image, instead of detecting the abnormality on the projected image.
図12は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第5の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1から第4の実施形態のいずれかを基礎としてもよい。以下、特に明言しない構成は、第5の実施形態と同様である。 FIG. 12 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the fifth embodiment, but the present embodiment may be based on any one of the first to fourth embodiments. Hereinafter, the configuration not specifically stated is the same as that of the fifth embodiment.
検出部1242、および、検出部1242に備えられる異常検出エンジンは、第5の実施形態における検出部とほぼ同様であるが、検出処理を実施する画像が投影画像ではなく、診断用画像である点が異なる。すなわち、検出部1242は、測定データを再構成することにより得られる診断用画像を対象として、特定の傷病を検出する。傷病検出の対象とする診断用画像は、測定データを所定の画像処理条件に従って再構成することにより得られる。
The abnormality detection engine provided in the
本実施形態では、検出装置1240に投影画像が入力されると、まず、再構成部1244が、入力された投影画像を規定の画像条件で再構成することにより仮の診断用画像を生成する。次に、検出部1242が、異常検出エンジンを用いて、仮の診断用画像に描画された特定の傷病を検出することにより、特定の傷病の有無を判定する。異常検出エンジンは、診断用画像と異常ラベルとのペアからなる教師データ(第2の教師データ)によりトレーニングされた学習モデルを利用する。したがって、異常検出エンジンあるいは検出部1242は、特定の傷病が描出された診断用画像が入力されると真値を出力し、特定の傷病が描出されていない診断用画像が入力されると偽値を出力する。
In the present embodiment, when a projected image is input to the
以下の説明においては、異常検出エンジンが利用する学習済モデルに入力される診断用画像を、図2の診断用影画像Im230に示すような二次元の診断用画像であるとして説明する。しかし、実施形態によっては、異常検出エンジンが対応可能であれば、三次元あ
るいは四次元の診断用画像であってもよい。その場合、検出部1242は、取得部1241が複数の投影画像群を取得するのを待ってから、三次元あるいは四次元の投影画像を構築し、異常検出エンジンに入力する。
In the following description, the diagnostic image input to the trained model used by the abnormality detection engine will be described as a two-dimensional diagnostic image as shown in the diagnostic shadow image Im230 of FIG. However, depending on the embodiment, a three-dimensional or four-dimensional diagnostic image may be used as long as the abnormality detection engine can handle it. In that case, the
次に、図13のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第5の実施形態と同様であるため、一部説明を省略する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 13, but a part of the description will be omitted because it is the same as the fifth embodiment unless otherwise specified.
まず、本実施形態に係る一連の手続きが開始されると、最初にステップS1310に移行する。ステップS1310〜S1320の処理は、第5の実施形態のステップS1110〜S1120と同様である。 First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S1310. The processing of steps S1310 to S1320 is the same as that of steps S110 to S1120 of the fifth embodiment.
ステップS1330では、検出部1242が、投影画像を再構成して仮の診断用画像を取得する。ステップS1340は、第5の実施形態のステップS1130と同様であるが、投影画像ではなく仮の診断用画像を対象として傷病検出の推定結果を出力する点が異なる。
In step S1330, the
ステップS1350〜S1360は、第5の実施形態のステップS1140およびS1160と同様である。なお、ステップS1360の報知処理の際に、報知部1243は、特定の傷病が検知された仮の診断用画像を、検出装置1240に備えられた出力装置1245および報知サーバ1230から出力する。
Steps S1350 to S1360 are the same as steps S1140 and S1160 of the fifth embodiment. During the notification process in step S1360, the
本実施形態は、上記第5の実施形態と同様の効果を奏することができる。さらに言及すると、本実施形態においては投影画像を仮の診断用画像に再構成してから異常検出するため、従来の診断用画像を対象として開発された異常検出処理を応用しやすい。 This embodiment can exert the same effect as that of the fifth embodiment. Further, in the present embodiment, since the projected image is reconstructed into a temporary diagnostic image and then the abnormality is detected, it is easy to apply the abnormality detection process developed for the conventional diagnostic image.
また、実際の画像診断に用いられる診断用画像は、検者の、その時々の設定による、様々な画像条件の下で再構成されるため、画質が安定せず、従来の異常検出処理にとって、異常検出精度が安定しない原因になっていた。しかし、本実施形態によれば、規定の画像条件によって再構成される仮の診断用画像を対象に異常検出処理を行うので、画質が安定しており、異常検出精度も安定する。また、教師データの入力データとして規定の画像条件によって再構成された仮の診断用画像を取得すればよく、種々の画像条件によって再構成された仮の診断用画像を取得しなくてよいので、教師データの作成も容易化される。 In addition, the diagnostic image used for the actual image diagnosis is reconstructed under various image conditions according to the settings of the examiner at each time, so that the image quality is not stable, and for the conventional abnormality detection process, It was the cause of unstable abnormality detection accuracy. However, according to the present embodiment, since the abnormality detection process is performed on the temporary diagnostic image reconstructed under the specified image conditions, the image quality is stable and the abnormality detection accuracy is also stable. Further, as the input data of the teacher data, it is sufficient to acquire a temporary diagnostic image reconstructed under the specified image conditions, and it is not necessary to acquire the temporary diagnostic image reconstructed under various image conditions. Creation of teacher data is also facilitated.
<第7の実施形態>
以下、図12、図13を参照して、第7の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、仮の診断用画像するセグメンテーション処理を用いて異常検出を行う。
<7th Embodiment>
Hereinafter, the image processing apparatus according to the seventh embodiment will be described with reference to FIGS. 12 and 13. The image processing apparatus according to the present embodiment detects anomalies by using a segmentation process for tentative diagnostic images.
図12は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第6の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1から第5の実施形態のいずれかを基礎としてもよい。以下、特に明言しない構成は、第6の実施形態と同様である。 FIG. 12 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the sixth embodiment, but the present embodiment may be based on any one of the first to fifth embodiments. Hereinafter, the configuration not specifically stated is the same as that of the sixth embodiment.
報知部1243は、第6の実施形態における報知部1243と同様の機能に加え、再構成部1244が生成した仮の診断用画像と、規定のルックアップテーブルで着色された領域ラベル画像とを、報知に係る情報に追加する。あるいは、報知部1243は、仮の診断用画像と、領域ラベル画像とを、関係者が観察可能なようにPACS等の画像管理システムに保存し、報知関連情報にそれらを参照するための情報を追加する。
In addition to the same functions as the
検出部1242は、画像セグメンテーション機能と、異常検出機能を有する。検出部1
242は、領域セグメンテーション処理により、仮の診断用画像に描画された臓器等および異常の領域を特定可能な領域ラベル画像を出力する。領域セグメンテーション処理は、機械学習アルゴリズムに従った学習済みモデルを含むセグメンテーションエンジンにより行われる。画像セグメンテーションエンジンは、診断用画像を入力として受け付け、当該診断用画像に含まれる傷病領域を特定する。検出部1242は、さらに、領域ラベル画像における、傷病領域の面積を算出し、傷病領域の面積が予め設定された閾値を超えているか否かによって、特定の傷病の有無を判定する。具体的には、検出部1242は、診断用画像に含まれる傷病領域の面積が閾値を超えている場合に、診断用画像に特定の疾病があると判定する。例えば、領域ラベル場象が肺野と気胸の領域を特定可能である場合に、気胸の面積を肺野の面積で割った値が3%を超える場合に、特定の傷病があると判定する。あるいは、検出部1242は、気胸の面積が2平方cmを超える場合に、特定の傷病があると判定する。
The
242 outputs a region label image capable of identifying an organ or the like and an abnormal region drawn on a temporary diagnostic image by region segmentation processing. The domain segmentation process is performed by a segmentation engine that includes a trained model according to a machine learning algorithm. The image segmentation engine accepts a diagnostic image as input and identifies an injured area included in the diagnostic image. The
なお、異常検出エンジンあるいは画像セグメンテーションエンジンは、上記第4の教師データと同様の構成による教師データによりトレーニングされた学習済モデルを利用している。また、上記の仮の診断用画像は、二次元画像であっても三次元画像であってもよい。 The abnormality detection engine or the image segmentation engine uses a trained model trained by the teacher data having the same configuration as the fourth teacher data. Further, the above-mentioned temporary diagnostic image may be a two-dimensional image or a three-dimensional image.
次に、図13のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第6の実施形態と同様であるため、一部説明を省略する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 13, but a part of the description will be omitted because it is the same as the sixth embodiment unless otherwise specified.
まず、本実施形態に係る一連の手続きが開始されると、最初にステップ1310に移行する。ステップS1310〜ステップS1330の処理は、第6の実施形態と同様である。 First, when a series of procedures according to the present embodiment is started, the process first proceeds to step 1310. The processing of steps S131 to S1330 is the same as that of the sixth embodiment.
ステップS1340では、検出部1242は、まず仮の診断用画像に対して画像セグメンテーション処理を施して領域ラベル画像を取得し、次に領域ラベル画像における傷病領域の面積が予め設定された閾値を超えているか否かに基づいて異常判定する。
In step S1340, the
ステップS1360では、報知部1243は、特定の傷病が検出されたことを報知する際に、異常が検知された領域ラベル画像および仮の診断用画像を、検出装置1240に備えられた出力装置および報知サーバ1230から出力する。
In step S1360, when the
なお、本実施形態では仮の診断用画像を対象として画像セグメンテーション処理を行っているが、投影画像を対象として画像セグメンテーション処理を行い、得られる傷病領域の面積に応じて特定の傷病を検出してもよい。 In the present embodiment, the image segmentation process is performed on the temporary diagnostic image, but the image segmentation process is performed on the projected image to detect a specific injury or illness according to the area of the obtained injury or illness area. May be good.
本実施形態は、上記第6の実施形態と同様の効果を奏することができる。さらに言及すると、本実施形態においては仮の診断用画像と、異常が描出されている領域を特定可能な領域ラベル画像とが、報知に係る情報に含まれるので、画像診断の専門医でないユーザが情報を参照した場合であっても、異常の有無を判断しやすい。 This embodiment can exert the same effect as that of the sixth embodiment. Further, in the present embodiment, the provisional diagnostic image and the area label image capable of identifying the area where the abnormality is drawn are included in the information related to the notification, so that a user who is not a specialist in image diagnosis can use the information. It is easy to judge the presence or absence of an abnormality even when referring to.
<第8の実施形態>
以下、図12、図13を参照して、第8の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、ある撮像プロトコルにしたがった検査において異常が検出された際に、別の撮像プロトコルにしたがった検査を行うことを推奨する。
<8th Embodiment>
Hereinafter, the image processing apparatus according to the eighth embodiment will be described with reference to FIGS. 12 and 13. It is recommended that the image processing apparatus according to the present embodiment performs an inspection according to another imaging protocol when an abnormality is detected in the inspection according to one imaging protocol.
図12は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第6の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1から第5および第7の実施形態のいずれかを基礎としてもよい。以下、特に明言しない構成は、第6の実
施形態と同様である。
FIG. 12 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the sixth embodiment, but the present embodiment may be based on any one of the first to fifth and seventh embodiments. Hereinafter, the configuration not specifically stated is the same as that of the sixth embodiment.
検出部1242は、第6の実施形態の異常検出エンジンと同様であるが、入力される投影画像を非造影検査の撮影によるものに限定する。また、検出対象を大動脈解離や肝細胞がん等の、通常、非造影検査とともに造影検査も実施するような疾患に限定する。
The
報知部1243は、第6の実施形態における報知部1243と同様の機能に加え、造影検査を追加することを推奨する旨のテキストを、報知に係る情報に追加する。
In addition to the same function as the
次に、図13のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第6の実施形態と同様であるため、一部説明を省略する。まず、本実施形態に係る一連の手続きが開始されると、最初にステップS1310に移行する。ステップS1310〜ステップS1350は、第6の実施形態と同様である。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 13, but a part of the description will be omitted because it is the same as the sixth embodiment unless otherwise specified. First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S1310. Steps S131-10 to S1350 are the same as those in the sixth embodiment.
ステップS1360において、報知部1243は、特定の傷病が検出された旨とともに、造影検査を追加することを推奨する旨のテキストを、コンソール1220に備え付けられた出力装置および報知サーバ1230を介して出力する。
In step S1360, the
ここでは、非造影検査において特定の傷病が検出されたときに造影検査を行うことを推奨する例を取り上げたが、変更する撮像プロトコルは造影剤の使用有無以外であってもよい。変更を推奨する撮像プロトコルの例として、撮影装置機種、被検者に係る撮影範囲や体位、撮影装置に係る管電圧、管電流、スキャンスライス厚、スキャン時間、撮影時相を挙げられる。 Here, an example is taken in which it is recommended to perform a contrast examination when a specific injury or illness is detected in the non-contrast examination, but the imaging protocol to be changed may be other than the use or absence of a contrast medium. Examples of imaging protocols for which changes are recommended include the imaging device model, the imaging range and position of the subject, the tube voltage, tube current, scan slice thickness, scanning time, and imaging time phase of the imaging device.
本実施形態は、上記第6の実施形態と同様の効果を奏することができる。さらに言及すると、本実施形態においては、一般的に造影検査を実施する疾患を検出することができ、また、造影検査の実施を関係者に推奨することによって、結果的に非造影検査のみでは発見しづらい疾患を見逃してしまうことを防ぐことができる。 This embodiment can exert the same effect as that of the sixth embodiment. Furthermore, in the present embodiment, it is possible to detect a disease for which a contrast examination is generally performed, and by recommending the person concerned to perform a contrast examination, as a result, it is discovered only by the non-contrast examination. It is possible to prevent overlooking difficult diseases.
<第9の実施形態>
以下、図12、図13を参照して、第9の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、異常として画像アーチファクトを検出し、異常が検出された場合に再撮影を行うことを推奨する。
<9th embodiment>
Hereinafter, the image processing apparatus according to the ninth embodiment will be described with reference to FIGS. 12 and 13. It is recommended that the image processing apparatus according to the present embodiment detects an image artifact as an abnormality and re-photographs when the abnormality is detected.
図12は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第6の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1から第5および第7から第8の実施形態のいずれかを基礎としてもよい。以下、特に明言しない構成は、第6の実施形態と同様である。 FIG. 12 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described on the basis of the sixth embodiment, but the present embodiment may be based on any one of the first to fifth and seventh to eighth embodiments. Hereinafter, the configuration not specifically stated is the same as that of the sixth embodiment.
検出部1242は、第6の実施形態の異常検出エンジンと同様であるが、検出対象を画像アーチファクトに限定する。検出部1242が備える異常検出エンジンは、仮の診断用画像を入力データとし画像アーチファクトの有無を表す異常ラベルを出力データとする教師データ(第2の教師データ)にしたがって学習されている。したがって、検出部1242は、診断用画像を入力として受け付け、当該診断用画像に画像アーチファクトの有無を出力する。
The
検出部1242は、仮の診断用画像を対象として異常を判定する代わりに、第1および第2の実施形態のように、二次元または三次元の投影画像を対象として画像アーチファクトの有無を判定してもよい。
The
報知部1243は、第6の実施形態における報知部1243と同様の機能に加え、再撮影を推奨する旨のテキストを、報知に係る情報に追加する。
In addition to the same function as the
次に、図12、図13のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第6の実施形態と同様であるため、一部説明を省略する。まず、本実施形態に係る一連の手続きが開始されると、最初にステップS1310に移行する。ステップS1310〜ステップS1350では、第6の実施形態と同様の手続きを実施する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow charts of FIGS. 12 and 13, but a part of the description is omitted because the procedure is the same as that of the sixth embodiment unless otherwise specified. To do. First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S1310. In steps S131 to S1350, the same procedure as in the sixth embodiment is carried out.
ステップS1360において、報知部1243は、異常が検出された旨とともに、画像アーチファクトが存在するので再撮影することを推奨する旨のテキストを、コンソール1220に備え付けられた出力装置を介して出力する。
In step S1360, the
本実施形態における検出部1242は、画像アーチファクトを検出する異常検出エンジン以外に、第1、第2、第7の実施形態と同様の、傷病(疾患や外傷)を検出する異常検出エンジンも備えて、傷病検出を併せて行ってもよい。画像アーチファクトが検出されず、疾患または外傷が検出された場合には、報知部1243は再撮影の推奨は行わない。
In addition to the abnormality detection engine that detects image artifacts, the
本実施形態は、上記第6の実施形態と同様の効果を奏することができる。さらに言及すると、本実施形態においては、画像診断の妨げとなる画像アーチファクトを検出することができ、患者が帰宅等によっていなくなってしまう前に、正常に画像診断可能な画像を撮影することができる。 This embodiment can exert the same effect as that of the sixth embodiment. Further, in the present embodiment, it is possible to detect an image artifact that interferes with the image diagnosis, and it is possible to take an image that can be normally image-diagnosed before the patient disappears due to returning home or the like. ..
<第10の実施形態>
以下、図11、図12を参照して、第10の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、複数の異常検出エンジンを有しており、撮像条件に応じて異常検出に用いる異常検出エンジンを変更する。
<10th Embodiment>
Hereinafter, the image processing apparatus according to the tenth embodiment will be described with reference to FIGS. 11 and 12. The image processing apparatus according to the present embodiment has a plurality of abnormality detection engines, and the abnormality detection engine used for abnormality detection is changed according to the imaging conditions.
図12は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第5の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1から第4および第6から第9の実施形態のいずれかを基礎としてもよい。以下、特に明言しない構成は、第5の実施形態と同様である。 FIG. 12 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the fifth embodiment, but the present embodiment may be based on any one of the first to fourth and sixth to ninth embodiments. Hereinafter, the configuration not specifically stated is the same as that of the fifth embodiment.
取得部1241は、第5の実施形態の機能に加え、コンソール1220から投影画像を取得し、また、当該投影画像の撮像条件も取得する。
In addition to the functions of the fifth embodiment, the
検出部1242は、複数の異常検出エンジンを備える。これら複数の異常検出エンジンは、それぞれ異なる教師データを用いてトレーニングされている。具体的には、教師データ毎に、教師データを構成する入力データの撮像条件が異なる。したがって、ある異常検出エンジンは、該異常検出エンジンに係る教師データの撮像条件と同じ撮像条件を持つ投影画像が入力されると、異常検出精度が高い。
The
検出部1242は、投影画像とともに当該投影画像の撮像条件も入力として受け付ける。検出部1242は、入力された撮像条件を元に、最も高い検出精度が期待される異常検出エンジンを選択する。つまり、入力された撮像条件と同様の撮像条件の入力データが含まれる教師データでトレーニングされた異常検出エンジンを選択する。
The
なお、検出部1242は、投影画像を対象として検出を行う代わりに、第6の実施形態のように規定の画像条件を用いた再構成処理により仮の診断用画像を生成して、当該仮の診断用画像を対象として異常検出をおこなってもよい。この場合、複数の異常検出エンジ
ンの教師データの入力データは、それぞれ異なる撮像条件によって撮影された投影画像を、規定の画像条件で再構成して得られる仮の診断用画像である。
In addition, instead of detecting the projected image as a target, the
次に、図11のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第5の実施形態と同様であるため、一部説明を省略する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 11, but a part of the description will be omitted because it is the same as the fifth embodiment unless otherwise specified.
まず、本実施形態に係る一連の手続きが開始されると、最初にステップS1110に移行する。ステップS1110は、第5の実施形態と同様である。ステップS1120では、取得部1241は、コンソール1220から投影画像と撮像条件を取得する。
First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S1110. Step S1110 is the same as the fifth embodiment. In step S1120, the
ステップS1130では、検出部1242が、特定の傷病の検出を実施する。具体的には、検出部1252は、まず、投影画像の撮像条件に応じた異常検出エンジンを選択し、そして、選択された異常検出エンジンを用いて取得部1241が取得した投影画像を対象として特定の傷病の有無を判定する。
In step S1130, the
ステップS1140〜ステップS1160は、第5の実施形態と同様である。 Steps S1140 to S1160 are the same as those in the fifth embodiment.
本実施形態は、上記第5の実施形態と同様の効果を奏することができる。さらに言及すると、本実施形態においては撮影された投影画像に最適な異常検出処理を実施することによって、より精度の高い異常検出処理が実施される。 This embodiment can exert the same effect as that of the fifth embodiment. Further, in the present embodiment, by performing the optimum abnormality detection processing on the captured projected image, the abnormality detection processing with higher accuracy is performed.
<第11の実施形態>
以下、図11、図12を参照して、第11の実施形態による画像処理装置について説明する。本実施形態に係る画像処理装置は、検出すべき異常に応じて、利用する異常検出エンジンおよび異常検出処理の開始タイミングを決定する。
<11th Embodiment>
Hereinafter, the image processing apparatus according to the eleventh embodiment will be described with reference to FIGS. 11 and 12. The image processing apparatus according to the present embodiment determines the abnormality detection engine to be used and the start timing of the abnormality detection processing according to the abnormality to be detected.
図12は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。以下では、第5の実施形態を基礎として本実施形態を説明するが、本実施形態は、第1から第4および第6から第10の実施形態のいずれかを基礎としてもよい。以下、特に明言しない構成は、第5の実施形態と同様である。 FIG. 12 shows an example of a schematic configuration of the image processing apparatus according to the present embodiment. Hereinafter, the present embodiment will be described based on the fifth embodiment, but the present embodiment may be based on any one of the first to fourth and sixth to tenth embodiments. Hereinafter, the configuration not specifically stated is the same as that of the fifth embodiment.
本実施形態では、取得部1241は、測定データが撮影装置によって取得された際の撮像条件も取得し、検出部1242は、撮像条件に応じたタイミングで特定の傷病の検出を開始する。
In the present embodiment, the
取得部1241は、第5の実施形態の機能に加え、コンソール1220から投影画像を取得すると同時に、当該投影画像の撮像条件も取得する。
In addition to the functions of the fifth embodiment, the
検出部1242は、第5の実施形態とほぼ同様であるが、画像とともに、撮像条件も入力する。また、検出部1242は、複数の異常検出エンジンを備える。これら複数の異常検出エンジンは、それぞれ検出対象とする傷病の種類が異なっている。また、検出部1242が異常検出処理を開始するタイミングが、撮像条件に応じて異なる。
The
具体例として、異常検出エンジンの1つが、気胸を検出する異常検出エンジンである場合を説明する。当該異常検出エンジンは、胸部領域に描出される気胸を対象に検出処理を行うので、入力される投影画像に胸部領域が描出されていれば十分である。そのため、例えば、撮像条件の情報に含まれる撮影範囲が全身であった場合に、全身の撮影完了を待たず、胸部領域の画像が取得可能となったタイミングで、当該画像を入力し、気胸の検出処理を開始して良い。なお、撮影範囲に胸部領域が含まれていなければ検出処理を実施しなくても良いし、胸部領域の全体が含まれていない状況においては、当該異常検出エンジン
の設計や設定に応じて、検出処理を実施しても、しなくても良い。
As a specific example, a case where one of the abnormality detection engines is an abnormality detection engine that detects pneumothorax will be described. Since the abnormality detection engine performs detection processing on the pneumothorax drawn in the chest region, it is sufficient that the chest region is visualized in the input projected image. Therefore, for example, when the imaging range included in the imaging condition information is the whole body, the image is input at the timing when the image of the chest region can be acquired without waiting for the completion of the imaging of the whole body, and the pneumothorax The detection process may be started. If the imaging range does not include the chest region, it is not necessary to perform the detection process, and if the entire chest region is not included, the detection process is performed according to the design and settings of the abnormality detection engine. The process may or may not be performed.
また、別の具体例として、異常検出エンジンの1つが、大動脈解離を検出する異常検出エンジンである場合を説明する。当該異常検出エンジンは、縦隔領域に描出される大動脈を対象に検出処理を行うので、入力される投影画像に縦隔領域が描出されていれば十分である。そのため、例えば、撮像条件の情報に含まれる撮影範囲が全身であった場合に、全身の撮影完了を待たず、縦隔領域の画像が取得可能となったタイミングで、当該画像を入力し、大動脈解離の検出処理を開始して良い。なお、撮影範囲に縦隔領域が含まれていなければ検出処理を実施しなくても良いし、縦隔領域の全体が含まれていない状況においては、当該異常検出エンジンの設計や設定に応じて、検出処理を実施しても、しなくても良い。 Further, as another specific example, a case where one of the abnormality detection engines is an abnormality detection engine that detects aortic dissection will be described. Since the abnormality detection engine performs detection processing on the aorta drawn in the mediastinal region, it is sufficient that the mediastinal region is visualized in the input projected image. Therefore, for example, when the imaging range included in the imaging condition information is the whole body, the image is input at the timing when the image of the mediastinal region can be acquired without waiting for the completion of the imaging of the whole body, and the aorta is input. The dissection detection process may be started. If the shooting range does not include the mediastinal area, it is not necessary to perform the detection process, and if the entire mediastinal area is not included, depending on the design and settings of the abnormality detection engine. , The detection process may or may not be performed.
また、別の具体例として、異常検出エンジンの1つが、造影剤を使用した撮影であり、撮影時相が動脈相である画像を対象とした、肝細胞癌を検出する異常検出エンジンである場合を説明する。当該異常検出エンジンは、腹部領域に描出される肝臓領域を対象に検出処理を行うので、入力される投影画像が動脈相であり、かつ、肝臓領域が描出されていれば十分である。そのため、例えば、動脈相の撮影において、撮像条件の情報に含まれる撮影範囲が全身であった場合に、全身の撮影完了を待たず、肝臓領域の画像が取得可能となったタイミングで、当該画像を入力し、肝細胞癌の検出処理を開始して良い。なお、動脈相の撮影でなかったり、撮影範囲に肝臓領域が含まれていなかったりする場合には検出処理を実施しなくても良い。また、動脈相の撮影において、撮影範囲に肝臓領域の全体が含まれていない状況においては、当該異常検出エンジンの設計や設定に応じて、検出処理を実施しても、しなくても良い。 Further, as another specific example, when one of the abnormality detection engines is an abnormality detection engine that detects hepatocellular carcinoma for an image in which the imaging phase is the arterial phase in imaging using a contrast medium. Will be explained. Since the abnormality detection engine performs detection processing on the liver region visualized in the abdominal region, it is sufficient that the input projected image is the arterial phase and the liver region is visualized. Therefore, for example, in the imaging of the arterial phase, when the imaging range included in the imaging condition information is the whole body, the image is taken at the timing when the image of the liver region can be acquired without waiting for the completion of the imaging of the whole body. May start the detection process for hepatocellular carcinoma. If the arterial phase is not photographed or the liver region is not included in the imaging range, the detection process may not be performed. Further, in the imaging of the arterial phase, in a situation where the entire liver region is not included in the imaging range, the detection process may or may not be performed according to the design and setting of the abnormality detection engine.
また、別の具体例として、異常検出エンジンの1つが、造影剤を使用した撮影であり、撮影時相が動脈相と門脈相である2つの投影画像を入力画像として利用する、肝細胞癌を検出する異常検出エンジンである場合を説明する。当該異常検出エンジンは、腹部領域に描出される肝臓領域を対象に検出処理を行うので、入力される画像群に少なくとも動脈相と門脈相の画像が含まれ、かつ、肝臓領域が描出されていれば十分である。そのため、例えば、動脈相および門脈相を含む撮影において、撮影範囲全体(例えば全身)の撮影完了を待たず、当該2つの撮影時相の肝臓領域の画像が取得可能となったタイミングで、当該画像群を入力し、肝細胞癌の検出処理を開始して良い。なお、動脈相と門脈相の両方が取得可能でない撮影であったり、撮影範囲に肝臓領域が含まれていなかったりする場合には検出処理を実施しなくても良い。また、動脈相および門脈相を含む撮影において、撮影範囲に肝臓領域の全体が含まれていない状況においては、当該異常検出エンジンの設計や設定に応じて、検出処理を実施しても、しなくても良い。 As another specific example, one of the abnormality detection engines is imaging using a contrast medium, and hepatocellular carcinoma uses two projected images whose imaging phases are the arterial phase and the portal vein phase as input images. The case where the abnormality detection engine detects the above will be described. Since the abnormality detection engine performs detection processing on the liver region visualized in the abdominal region, at least the images of the arterial phase and the portal vein phase are included in the input image group, and the liver region is visualized. Is enough. Therefore, for example, in the imaging including the arterial phase and the portal vein phase, the image of the liver region of the two imaging phases can be acquired without waiting for the completion of the imaging of the entire imaging range (for example, the whole body). An image group may be input and the detection process for hepatocellular carcinoma may be started. If both the arterial phase and the portal vein phase cannot be obtained, or if the imaging range does not include the liver region, the detection process may not be performed. In addition, in the case of imaging including the arterial phase and portal vein phase, if the entire liver region is not included in the imaging range, the detection process may be performed according to the design and setting of the abnormality detection engine. It does not have to be.
なお、一般的に、撮影条件には撮影範囲や造影剤の撮影時相に関する情報が含まれるが、その情報が信頼できない場合や、欠損している場合には、別途入力画像から撮影範囲や撮影時相を推定する画像処理を行って、その結果を撮影条件として利用しても良い。例えば、画像を入力データとして受け付け撮影範囲を出力する機械学習モデルを用いて、撮影範囲を推定してもよい。あるいは、画像を入力データとして受け付け撮影時相を出力する機械学習モデルを用いて、撮影時相を推定してもよい。これらの機械学習モデルは、画像と撮影範囲または撮影時相の正解ラベルをペアとして持つ教師データを用いて、ディープラーニング等の機械学習アルゴリズムによって学習することができる。 Generally, the imaging conditions include information on the imaging range and the imaging phase of the contrast medium, but if the information is unreliable or missing, the imaging range and imaging will be taken separately from the input image. Image processing for estimating the time phase may be performed, and the result may be used as a shooting condition. For example, the shooting range may be estimated using a machine learning model that accepts an image as input data and outputs a shooting range. Alternatively, the shooting time phase may be estimated using a machine learning model that accepts an image as input data and outputs a shooting time phase. These machine learning models can be learned by a machine learning algorithm such as deep learning using teacher data having an image and a correct label of a shooting range or a shooting time phase as a pair.
検出部1242は、複数の異常検出エンジンから、入力された撮像条件に対応可能な異常検出エンジンを選択する。例えば、撮像条件に含まれる撮影範囲の情報が、胸部を含む場合に、気胸を検出する異常検出エンジンと、大動脈解離を検出する異常検出エンジンを選択する等、である。なお、本実施形態に係る医用画像処理装置が導入される施設の専門
性や意向等によって、特定の異常検出エンジンが選択されないように設定してもよい。
The
なお、検出部1242は、投影画像を対象として異常検出を行う代わりに、第6の実施形態のように規定の画像条件を用いた再構成処理により仮の診断用画像を生成して、当該仮の診断用画像を対象として異常検出をおこなってもよい。この場合、複数の異常検出エンジンの教師データの入力データは、それぞれ異なる撮像条件によって撮影された投影画像を、規定の画像条件で再構成して得られる仮の診断用画像である。
In addition, the
次に、図11のフロー図を参照して、本実施形態に係る一連の手続きについて説明するが、特に明言しない限り、第5の実施形態と同様であるため、一部説明を省略する。 Next, a series of procedures according to the present embodiment will be described with reference to the flow chart of FIG. 11, but a part of the description will be omitted because it is the same as the fifth embodiment unless otherwise specified.
まず、本実施形態に係る一連の手続きが開始されると、最初にステップS1110に移行する。ステップS1110は、第5の実施形態と同様である。ステップS1120では、取得部1241は、コンソール1220から投影画像と撮像条件を取得する。
First, when a series of procedures according to the present embodiment is started, the process first proceeds to step S1110. Step S1110 is the same as the fifth embodiment. In step S1120, the
ステップS1130では、検出部1242が、取得部1241が取得した撮像条件に基づいて、検出に用いる異常検出エンジン、および特定の傷病の有無が判定可能となるタイミングを決定する。検出部1242は、特定の傷病の有無が判定可能なタイミングになったタイミングで、選択された異常検出エンジンを用いて、それまでに取得部1241によって取得されている投影画像を対象として傷病検出を実施する。
In step S1130, the
ステップS1140〜ステップS1160は、第5の実施形態と同様である。 Steps S1140 to S1160 are the same as those in the fifth embodiment.
本実施形態は、上記第5の実施形態と同様の効果を奏することができる。さらに言及すると、本実施形態においては撮影された画像に対応可能な異常検出エンジンを選択し、異常検出可能な状況になった時点において処理を実施することによって、より効率的な異常検出処理が実施される。 This embodiment can exert the same effect as that of the fifth embodiment. Further, in the present embodiment, more efficient abnormality detection processing is performed by selecting an abnormality detection engine that can handle the captured image and performing the processing when the abnormality can be detected. Will be done.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It is also possible to realize the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、実施形態を参照して本発明について説明したが、本発明は上記実施形態に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施形態は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. The present invention also includes inventions modified to the extent not contrary to the gist of the present invention, and inventions equivalent to the present invention. In addition, the above-described embodiments can be appropriately combined as long as they do not contradict the gist of the present invention.
例えば、検出部が検出する異常は、特定の傷病(疾患および外傷)に限られず、任意の異常であって構わない。また、検出部は、投影画像と仮の診断用画像のいずれを対象として異常検出してもよい。また、異常検出対象の投影画像または仮の診断用画像は、二次元画像、三次元画像、四次元画像のいずれでもよい。さらに、検出部は、入力データ(投影画像または仮の診断用画像)に異常が含まれるか否かを出力するエンジン、入力データに異常が含まれる確率を出力するエンジンを有してもよい。また、検出部は、入力データに含まれる異常領域を抽出するエンジンを有し、抽出された異常領域の面積に応じて異常を判定してもよい。 For example, the abnormality detected by the detection unit is not limited to a specific injury or illness (disease and trauma), and may be any abnormality. Further, the detection unit may detect an abnormality in either the projected image or the temporary diagnostic image. Further, the projected image or the temporary diagnostic image of the abnormality detection target may be any of a two-dimensional image, a three-dimensional image, and a four-dimensional image. Further, the detection unit may have an engine that outputs whether or not the input data (projected image or a temporary diagnostic image) contains an abnormality, and an engine that outputs the probability that the input data contains the abnormality. Further, the detection unit may have an engine for extracting the abnormal region included in the input data, and may determine the abnormality according to the area of the extracted abnormal region.
また、報知の際に、単に異常が含まれる旨を出力するだけでなく、異常が含まれる確率、規定の画像条件に従って再構成した仮の診断用画像、異常領域を抽出した領域ラベル画
像の少なくともいずれかを併せて出力してもよい。なお、異常検出の際に仮の診断用画像や領域ラベル画像を用いない実施形態においても、これらのデータを生成した報知してもよい。
In addition, at the time of notification, not only the fact that an abnormality is included is output, but also the probability that an abnormality is included, a temporary diagnostic image reconstructed according to a specified image condition, and at least an area label image from which an abnormal area is extracted. Either of them may be output together. Even in the embodiment in which the provisional diagnostic image or the area label image is not used at the time of abnormality detection, these data may be generated and notified.
さらに、検出部は、上記で説明した実施形態の複数の異常検出処理を実施してもよい。例えば、検出部は、投影画像に基づく異常検出、仮の診断用画像に基づく異常検出、仮の診断用画像の領域ラベル画像に基づく異常検出、画像アーチファクトに特化した異常検出のうちの複数の異常検出を実施してもよい。異常が検出された際の報知内容は、どのような異常が検出されたかに応じて変更してもよい。 Further, the detection unit may carry out a plurality of abnormality detection processes according to the above-described embodiment. For example, the detection unit has a plurality of anomaly detections based on a projected image, anomaly detection based on a tentative diagnostic image, anomaly detection based on a region label image of a tentative diagnostic image, and anomaly detection specialized for an image artifact. Anomaly detection may be performed. The content of the notification when an abnormality is detected may be changed according to what kind of abnormality is detected.
また、上記ではX線CT装置の実施形態を説明しているが、本発明はX線CT装置以外にも、生データ(計測データ)を再構成して診断用画像を取得する任意の撮影装置(モダリティ)に適用可能である。例えば、本発明は、MRI装置(磁気共鳴イメージング装置)、超音波診断装置、PET装置(陽電子放出断層撮影装置)、SPECT装置(単一光子放射断層撮影装置)にも適用可能である。 Further, although the embodiment of the X-ray CT apparatus is described above, the present invention is not limited to the X-ray CT apparatus, but any imaging apparatus that reconstructs raw data (measurement data) to acquire a diagnostic image. Applicable to (modality). For example, the present invention is also applicable to an MRI apparatus (magnetic resonance imaging apparatus), an ultrasonic diagnostic apparatus, a PET apparatus (positron emission tomography apparatus), and a SPECT apparatus (single photon emission tomography apparatus).
100,1000,1200 X線コンピュータ断層撮影装置
120,1020,1240 コンソール
1240 検出装置
121,1021,1241 取得部
122,1022,1242 検出部
123,1023,1243 報知部
100, 1000, 1200 X-ray computed
Claims (24)
前記測定データに基づいて特定の傷病を検出する検出手段と、
前記検出手段による特定の傷病の検出に応じて、特定の傷病が検出された旨を報知する報知手段と、
を備える、医用画像処理装置。 An acquisition means for acquiring the measurement data from an imaging device capable of acquiring a diagnostic image by reconstructing the measurement data, and an acquisition means.
A detection means for detecting a specific injury or illness based on the measurement data,
In response to the detection of a specific injury or illness by the detection means, a notification means for notifying that a specific injury or illness has been detected, and a notification means.
A medical image processing device.
前記検出手段は、前記投影データから特定の傷病を検出する、
請求項1に記載の医用画像処理装置。 The measurement data is projection data before reconstruction, and is
The detection means detects a specific injury or illness from the projection data.
The medical image processing apparatus according to claim 1.
前記検出手段は、前記サイノグラムデータから特定の傷病を検出する、
請求項1に記載の医用画像処理装置。 The measurement data is synogram data based on projection data, and is
The detection means detects a specific injury or illness from the synogram data.
The medical image processing apparatus according to claim 1.
前記検出手段は、前記三次元の投影データを対象として特定の傷病を検出する、
請求項1に記載の医用画像処理装置。 The measurement data is three-dimensional projection data including a plurality of two-dimensional projection data.
The detection means detects a specific injury or illness by targeting the three-dimensional projection data.
The medical image processing apparatus according to claim 1.
請求項4に記載の医用画像処理装置。 The detection means detects a specific injury or illness by targeting at least one of the plurality of two-dimensional projection data before the photographing apparatus acquires all of the plurality of two-dimensional projection data.
The medical image processing apparatus according to claim 4.
請求項1に記載の医用画像処理装置。 The detection means detects a specific injury or illness by targeting a diagnostic image obtained by reconstructing the measurement data.
The medical image processing apparatus according to claim 1.
請求項6に記載の医用画像処理装置。 The diagnostic image is obtained by reconstructing the measurement data according to predetermined image processing conditions.
The medical image processing apparatus according to claim 6.
請求項6に記載の医用画像処理装置。 The detection means includes a detection engine that accepts the diagnostic image as input and outputs an estimation result indicating whether or not a specific injury or illness is depicted in the diagnostic image.
The medical image processing apparatus according to claim 6.
前記診断用画像を入力として受け付け、前記診断用画像に含まれる異常領域を特定する画像セグメンテーションエンジンを備え、
前記診断用画像に含まれる異常領域の面積が閾値を超えている場合に、前記診断用画像に特定の傷病があると判定する、
請求項6に記載の医用画像処理装置。 The detection means
It is equipped with an image segmentation engine that accepts the diagnostic image as input and identifies an abnormal region included in the diagnostic image.
When the area of the abnormal region included in the diagnostic image exceeds the threshold value, it is determined that the diagnostic image has a specific injury or illness.
The medical image processing apparatus according to claim 6.
前記検出手段は、複数の異常検出エンジンを備え、前記撮像条件に応じた異常検出エンジンを用いて特定の傷病を検出する、
請求項1から9のいずれか1項に記載の医用画像処理装置。 The acquisition means also acquires the imaging conditions when the measurement data is acquired by the photographing apparatus.
The detection means includes a plurality of abnormality detection engines, and detects a specific injury or illness by using the abnormality detection engine according to the imaging condition.
The medical image processing apparatus according to any one of claims 1 to 9.
前記検出手段は、前記撮像条件に応じたタイミングで、特定の傷病の検出を開始する、
請求項1から10のいずれか1項に記載の医用画像処理装置。 The acquisition means also acquires the imaging conditions when the measurement data is acquired by the photographing apparatus.
The detection means starts detection of a specific injury or illness at a timing corresponding to the imaging condition.
The medical image processing apparatus according to any one of claims 1 to 10.
請求項1から11のいずれか1項に記載の医用画像処理装置。 The detection means completes the detection of a specific injury or illness based on the measurement data before the imaging device completes the reconstruction of the diagnostic image.
The medical image processing apparatus according to any one of claims 1 to 11.
前記報知手段は、前記表示手段を用いて報知を行う、
請求項1から12のいずれか1項に記載の医用画像処理装置。 With more display means
The notification means uses the display means to perform notification.
The medical image processing apparatus according to any one of claims 1 to 12.
前記報知手段は、前記報知サーバを用いて報知を行う、
請求項1から13のいずれか1項に記載の医用画像処理装置。 The medical image processing device is connected to the notification server so as to be communicable.
The notification means uses the notification server to perform notification.
The medical image processing apparatus according to any one of claims 1 to 13.
請求項1から14のいずれか1項に記載の医用画像処理装置。 The information notified by the notification means includes the fact that a specific injury or illness has been detected, and a diagnostic image obtained by reconstructing the measurement data according to specified image conditions.
The medical image processing apparatus according to any one of claims 1 to 14.
請求項1から15のいずれか1項に記載の医用画像処理装置。 The information notified by the notification means includes the fact that a specific injury or illness has been detected, and an image that identifies an abnormal region included in the diagnostic image obtained by reconstructing the measurement data according to specified image conditions. Including,
The medical image processing apparatus according to any one of claims 1 to 15.
請求項1から16のいずれか1項に記載の医用画像処理装置。 The information broadcast by the notification means includes recommendations for changing the imaging protocol.
The medical image processing apparatus according to any one of claims 1 to 16.
前記報知手段は、前記検出手段による画像アーチファクトの検出に応じて、画像アーチファクトが検出された旨、および、再撮影を促す推奨を報知する、
請求項1から17のいずれか1項に記載の医用画像処理装置。 The detection means includes an anomaly detection engine that detects image artifacts.
The notification means notifies that an image artifact has been detected and a recommendation for prompting re-imaging in response to the detection of the image artifact by the detection means.
The medical image processing apparatus according to any one of claims 1 to 17.
請求項1から18のいずれか1項に記載の医用画像処理装置。 The medical image processing apparatus is mounted on the same apparatus as the imaging apparatus.
The medical image processing apparatus according to any one of claims 1 to 18.
請求項1から18のいずれか1項に記載の医用画像処理装置。 The medical image processing device is mounted on a device different from the imaging device.
The medical image processing apparatus according to any one of claims 1 to 18.
前記測定データは、二次元の投影データ、または、複数の二次元の投影データを含む三次元の投影データである、
請求項1から20のいずれか1項に記載の医用画像処理装置。 The imaging device is a tomography device.
The measurement data is two-dimensional projection data or three-dimensional projection data including a plurality of two-dimensional projection data.
The medical image processing apparatus according to any one of claims 1 to 20.
被検者を透過したX線を検出し、測定データとして出力するX線検出手段と、
請求項1から21のいずれか1項に記載の医用画像処理装置と、
を備える、断層撮影装置。 X-ray generating means for irradiating X-rays and
X-ray detection means that detects X-rays that have passed through the subject and outputs them as measurement data,
The medical image processing apparatus according to any one of claims 1 to 21.
A tomography device equipped with.
測定データを再構成することによって診断用画像を取得可能な撮影装置から、前記測定データを取得する取得ステップと、
前記測定データに基づいて特定の傷病を検出する検出ステップと、
前記特定の傷病の検出に応じて、特定の傷病が検出された旨を報知する報知ステップと、
を含む、医用画像処理方法。 A medical image processing method performed by a computer
An acquisition step of acquiring the measurement data from an imaging device capable of acquiring a diagnostic image by reconstructing the measurement data, and
A detection step for detecting a specific injury or illness based on the measurement data,
A notification step for notifying that a specific injury or illness has been detected according to the detection of the specific injury or illness, and a notification step.
Medical image processing methods, including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019182773A JP7349870B2 (en) | 2019-10-03 | 2019-10-03 | Medical image processing device, tomography device, medical image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019182773A JP7349870B2 (en) | 2019-10-03 | 2019-10-03 | Medical image processing device, tomography device, medical image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021058272A true JP2021058272A (en) | 2021-04-15 |
JP7349870B2 JP7349870B2 (en) | 2023-09-25 |
Family
ID=75380658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019182773A Active JP7349870B2 (en) | 2019-10-03 | 2019-10-03 | Medical image processing device, tomography device, medical image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7349870B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210374471A1 (en) * | 2020-05-27 | 2021-12-02 | Hon Hai Precision Industry Co., Ltd. | Image recognition method and computing device |
WO2022224869A1 (en) * | 2021-04-23 | 2022-10-27 | 株式会社fcuro | Information processing device, information processing method, information processing program, and information processing system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190021677A1 (en) * | 2017-07-18 | 2019-01-24 | Siemens Healthcare Gmbh | Methods and systems for classification and assessment using machine learning |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180018757A1 (en) | 2016-07-13 | 2018-01-18 | Kenji Suzuki | Transforming projection data in tomography by means of machine learning |
KR20190051384A (en) | 2017-11-06 | 2019-05-15 | 삼성전자주식회사 | Method and apparatus for generating the x-ray tomographic image data |
JP7106307B2 (en) | 2018-03-14 | 2022-07-26 | キヤノンメディカルシステムズ株式会社 | Medical image diagnostic apparatus, medical signal restoration method, medical signal restoration program, model learning method, model learning program, and magnetic resonance imaging apparatus |
-
2019
- 2019-10-03 JP JP2019182773A patent/JP7349870B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190021677A1 (en) * | 2017-07-18 | 2019-01-24 | Siemens Healthcare Gmbh | Methods and systems for classification and assessment using machine learning |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210374471A1 (en) * | 2020-05-27 | 2021-12-02 | Hon Hai Precision Industry Co., Ltd. | Image recognition method and computing device |
US11948081B2 (en) * | 2020-05-27 | 2024-04-02 | Hon Hai Precision Industry Co., Ltd. | Image recognition method and computing device |
WO2022224869A1 (en) * | 2021-04-23 | 2022-10-27 | 株式会社fcuro | Information processing device, information processing method, information processing program, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP7349870B2 (en) | 2023-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7114358B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM | |
CN110517757B (en) | Tuned medical ultrasound imaging | |
CN110827956A (en) | System and method for identifying medical image acquisition parameters | |
JP4528322B2 (en) | Image display device, image display method, and image display program | |
US8036439B2 (en) | Size measurement apparatus, image display unit, computer-readable size measurement program storage medium, and computer-readable image display program storage medium | |
US20160225170A1 (en) | Computed tomography (ct) apparatus and method of reconstructing ct image | |
JP2019198376A (en) | Medical image processor, medical image processing method, and medical image processing system | |
JP7349870B2 (en) | Medical image processing device, tomography device, medical image processing method and program | |
JP6772123B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
JP7490741B2 (en) | Medical image processing device, medical image processing method and program | |
WO2019200349A1 (en) | Systems and methods for training a deep learning model for an imaging system | |
JP7525248B2 (en) | Medical information processing device and medical information processing program | |
WO2019200351A1 (en) | Systems and methods for an imaging system express mode | |
JP7144129B2 (en) | Medical image diagnosis device and medical information management device | |
JP2017199286A (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP7471795B2 (en) | Information processing device, information processing method, and program | |
JP7210175B2 (en) | Medical information processing device, medical information processing system and medical information processing program | |
JP6510198B2 (en) | Medical image processing apparatus and medical image processing method | |
WO2019200346A1 (en) | Systems and methods for synchronization of imaging systems and an edge computing system | |
JP6878022B2 (en) | Medical diagnostic imaging equipment, servers and programs | |
EP4084010A1 (en) | Method for operating an evaluation system for medical image data sets, evaluation system, computer program and electronically readable storage medium | |
JP7547057B2 (en) | Medical image processing device, control method for medical image processing device, and program | |
JP7404857B2 (en) | Image judgment device, image judgment method and program | |
JP7562799B2 (en) | Information processing device, information processing method, and program | |
US20120087560A1 (en) | Method and system for transfer of image data files |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230912 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7349870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |