JP2018175344A - Diagnosis support system - Google Patents
Diagnosis support system Download PDFInfo
- Publication number
- JP2018175344A JP2018175344A JP2017078669A JP2017078669A JP2018175344A JP 2018175344 A JP2018175344 A JP 2018175344A JP 2017078669 A JP2017078669 A JP 2017078669A JP 2017078669 A JP2017078669 A JP 2017078669A JP 2018175344 A JP2018175344 A JP 2018175344A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- region
- interest
- designated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003745 diagnosis Methods 0.000 title claims abstract description 30
- 238000004458 analytical method Methods 0.000 claims abstract description 49
- 230000003902 lesion Effects 0.000 claims description 69
- 238000000605 extraction Methods 0.000 claims description 27
- 206010028980 Neoplasm Diseases 0.000 claims description 24
- 230000017531 blood circulation Effects 0.000 claims description 21
- 238000009423 ventilation Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000002123 temporal effect Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 abstract description 10
- 238000003384 imaging method Methods 0.000 description 50
- 230000005855 radiation Effects 0.000 description 45
- 238000012545 processing Methods 0.000 description 34
- 238000004891 communication Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 15
- 210000004072 lung Anatomy 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 230000002159 abnormal effect Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003434 inspiratory effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000008602 contraction Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002438 flame photometric detection Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012933 kinetic analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Abstract
Description
本発明は、診断支援システムに関する。 The present invention relates to a diagnosis support system.
従来、被写体を撮影した画像から注目すべき領域を抽出する技術が知られている。
例えば、特許文献1においては、試料の観察画像中に、分析装置による分析対象領域を設定する装置であって、観察画像を複数の領域に分割し、各分割領域における画像特徴量を算出し、ユーザーにより指定された複数の分割領域の画像特徴量から分析対象領域として抽出する分割領域の画像特徴量の範囲を決定し、画像特徴量が決定された範囲内の分割領域を抽出することが記載されている。
Conventionally, there is known a technique for extracting an area to be noted from an image obtained by photographing a subject.
For example, Patent Document 1 is an apparatus that sets an analysis target area by an analysis device in an observation image of a sample, divides the observation image into a plurality of areas, and calculates an image feature amount in each divided area, It is described that the range of the image feature amount of the divided region to be extracted as the analysis target region is determined from the image feature amounts of the plurality of divided regions designated by the user, and the divided region within the range where the image feature amount is determined is extracted. It is done.
ところで、医用画像の読影においては、観察対象の大きさが重要である。しかしながら、特許文献1に記載の技術は、ピクセル毎またはM×N個等の隣接する複数のピクセルを1分割領域として領域抽出を行うものであるため、ユーザーが注目している大きさの病変があっても、その領域を見落とさないように抽出してユーザーに提示することはできない。また、特許文献1においては、静止画が対象であるため、その画像を撮影したタイミングに表現できていない病変や、画素信号値の時間変化から捉えることのできる病変等についてはユーザーに提示することができない。 By the way, in the interpretation of medical images, the size of the observation target is important. However, since the technology described in Patent Document 1 performs area extraction with a plurality of adjacent pixels such as M × N pixels or the like as one divided area, a lesion of a size at which the user pays attention Even if it exists, it can not be extracted and presented to the user so as not to overlook the area. Further, in Patent Document 1, since a still image is an object, it is necessary to present the user with a lesion that can not be expressed at the timing when the image was captured, a lesion that can be captured from time change of pixel signal value, and the like. I can not
本発明の課題は、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断が行えるように支援することである。 An object of the present invention is to support efficient diagnosis without an oversight based on a user-specified attention area.
上記課題を解決するため、請求項1に記載の発明の診断支援システムは、
生体の動態を放射線撮影することにより得られた動態画像又は当該動態画像の画素毎又は複数画素のブロック毎の動態解析結果を示す解析結果画像における少なくも一つのフレーム画像を用いて、ユーザーが注目領域を指定するための領域指定手段と、
前記領域指定手段により指定された注目領域のサイズを取得するサイズ取得手段と、
前記領域指定手段により指定された注目領域の画像特徴量を算出する特徴量算出手段と、
前記サイズ取得手段により取得された前記注目領域のサイズ及び前記特徴量算出手段により算出された前記注目領域の画像特徴量に基づいて、前記動態画像又は前記解析結果画像から抽出する領域の検索条件を生成する検索条件生成手段と、
前記検索条件生成手段により生成された検索条件に該当する領域を前記動態画像又は前記解析結果画像から抽出する抽出手段と、
前記動態画像又は前記解析結果画像において前記抽出手段により抽出された領域を識別可能に表示する表示手段と、
を備える。
In order to solve the above problems, the diagnosis support system of the invention according to claim 1 is
The user pays attention by using at least one frame image in the dynamic image obtained by radiographing the dynamic of the living body or the analysis result of the dynamic analysis of each pixel or block of plural pixels of the dynamic image. Area specification means for specifying an area;
Size acquiring means for acquiring the size of the area of interest specified by the area specifying means;
Feature quantity calculation means for calculating an image feature quantity of the attention area designated by the area designation means;
A search condition of a region to be extracted from the dynamic image or the analysis result image based on the size of the region of interest acquired by the size acquisition unit and the image feature amount of the region of interest calculated by the feature amount calculation unit Search condition generation means for generating
Extracting means for extracting an area corresponding to the search condition generated by the search condition generation means from the dynamic image or the analysis result image;
Display means for identifiably displaying the area extracted by the extraction means in the dynamic image or the analysis result image;
Equipped with
請求項2に記載の発明は、請求項1に記載の発明において、
前記特徴量算出手段は、前記注目領域における画素信号値の時間変化に基づく画像特徴量を算出する。
In the invention described in
The feature amount calculation means calculates an image feature amount based on a temporal change of pixel signal values in the region of interest.
請求項3に記載の発明は、請求項1又は2に記載の発明において、
前記動態画像から注目領域が指定された場合、予め定められた複数の観点のうちいずれの観点に注目して前記注目領域を指定したのかをユーザーが指定するための観点指定手段を備え、
前記特徴量算出手段は、前記領域指定手段により指定された注目領域の、前記観点指定手段により指定された観点に応じた画像特徴量を算出する。
In the invention described in
When a region of interest is specified from the dynamic image, a viewpoint specification unit is provided for the user to specify which of a plurality of predetermined viewpoints the user has specified the region of interest.
The feature quantity calculation means calculates an image feature quantity of the attention area designated by the area designation means according to the viewpoint designated by the viewpoint designation means.
請求項4に記載の発明は、請求項3に記載の発明において、
前記動態画像は、前記生体の胸部の動態を放射線撮影することにより得られた胸部動態画像であり、
前記観点指定手段は、換気、血流、腫瘍のうち、少なくとも一つの観点を指定可能である。
In the invention according to claim 4, in the invention according to
The movement image is a chest movement image obtained by radiographing movement of the chest of the living body,
The viewpoint specifying means can specify at least one of ventilation, blood flow, and tumor.
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、
前記動態画像又は前記解析結果画像から抽出する領域の前記注目領域と比較した病変レベルをユーザーが指定するための病変レベル指定手段を備え、
前記検索条件生成手段は、前記注目領域のサイズ、前記注目領域の画像特徴量及び前記病変レベル指定手段より指定された病変レベルに基づいて、前記検索条件を生成する。
In the invention described in claim 5, in the invention described in any one of claims 1 to 4,
A lesion level designation unit for the user to designate a lesion level compared with the target region of the region extracted from the dynamic image or the analysis result image;
The search condition generation unit generates the search condition based on the size of the attention area, the image feature amount of the attention area, and the lesion level designated by the lesion level designation unit.
請求項6に記載の発明は、請求項5に記載の発明において、
前記病変レベル指定手段は、前記抽出する領域が前記注目領域と比較して重篤か、同等か、又は軽微かをユーザーが指定するためのものである。
In the invention according to claim 6, in the invention according to claim 5,
The lesion level designation means is for the user to designate whether the area to be extracted is severe, equal or minor compared to the area of interest.
請求項7に記載の発明は、請求項5又は6に記載の発明において、
前記領域指定手段は、ポインティングデバイスを含み、
前記病変レベル指定手段は、前記領域指定手段により前記注目領域を指定する際の前記ポインティングデバイスの動作により前記病変レベルを指定する。
In the invention according to claim 7, in the invention according to claim 5 or 6,
The area specifying means includes a pointing device
The lesion level designation unit designates the lesion level by the operation of the pointing device when the region designation unit designates the region of interest.
請求項8に記載の発明は、請求項1〜7のいずれか一項に記載の発明において、
前記領域指定手段は、ユーザーにより指定された領域の一部領域又は前記指定された領域の近傍の領域を含めた領域を前記ユーザーにより指定された注目領域として指定する。
The invention according to claim 8 is the invention according to any one of claims 1 to 7 in which
The area specifying means specifies an area including a partial area of the area specified by the user or an area near the specified area as the noted area specified by the user.
本発明によれば、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断を支援することが可能となる。 According to the present invention, it is possible to support an efficient diagnosis without an oversight based on a user-specified attention area.
以下、図面を参照して本発明の実施形態について説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated example.
<第1の実施形態>
〔診断支援システム100の構成〕
まず、本発明の第1の実施形態の構成を説明する。
図1に、第1の実施形態における診断支援システム100の全体構成を示す。
図1に示すように、診断支援システム100は、撮影装置1と、撮影用コンソール2とが通信ケーブル等により接続され、撮影用コンソール2と、診断用コンソール3とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。診断支援システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。
First Embodiment
[Configuration of Diagnosis Support System 100]
First, the configuration of the first embodiment of the present invention will be described.
FIG. 1 shows the overall configuration of a
As shown in FIG. 1, in the
〔撮影装置1の構成〕
撮影装置1は、例えば、呼吸運動に伴う肺の膨張及び収縮の形態変化、心臓の拍動等の、生体の動態を撮影する撮影手段である。動態撮影とは、被写体に対し、X線等の放射線をパルス状にして所定時間間隔で繰り返し照射するか(パルス照射)、もしくは、低線量率にして途切れなく継続して照射する(連続照射)ことで、被写体の動態を示す複数の画像を取得することをいう。動態撮影により得られた一連の画像を動態画像と呼ぶ。また、動態画像を構成する複数の画像のそれぞれをフレーム画像と呼ぶ。なお、以下の実施形態では、パルス照射により胸部の動態撮影を行う場合を例にとり説明する。
[Configuration of Imaging Device 1]
The imaging device 1 is, for example, imaging means for imaging the movement of a living body, such as a change in form of expansion and contraction of the lung accompanying respiratory movement, a pulse of the heart, and the like. With dynamic imaging, radiation such as X-rays is pulsed and repeatedly applied at predetermined time intervals to the subject (pulse irradiation) or continuously applied without interruption at a low dose rate (continuous irradiation) It means to acquire multiple images that show the movement of the subject. A series of images obtained by dynamic imaging are called dynamic images. Further, each of a plurality of images constituting a dynamic image is called a frame image. In the following embodiment, a case of performing dynamic imaging of the chest by pulse irradiation will be described as an example.
放射線源11は、被写体M(被検者)を挟んで放射線検出部13と対向する位置に配置され、放射線照射制御装置12の制御に従って、被写体Mに対し放射線(X線)を照射する。
放射線照射制御装置12は、撮影用コンソール2に接続されており、撮影用コンソール2から入力された放射線照射条件に基づいて放射線源11を制御して放射線撮影を行う。撮影用コンソール2から入力される放射線照射条件は、例えば、パルスレート、パルス幅、パルス間隔、1撮影あたりの撮影フレーム数、X線管電流の値、X線管電圧の値、付加フィルター種等である。パルスレートは、1秒あたりの放射線照射回数であり、後述するフレームレートと一致している。パルス幅は、放射線照射1回当たりの放射線照射時間である。パルス間隔は、1回の放射線照射開始から次の放射線照射開始までの時間であり、後述するフレーム間隔と一致している。
The
The radiation
放射線検出部13は、FPD(Flat Panel Detector)等の半導体イメージセンサーにより構成される。FPDは、例えば、ガラス基板等を有しており、基板上の所定位置に、放射線源11から照射されて少なくとも被写体Mを透過した放射線をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の検出素子(画素)がマトリックス状に配列されている。各画素は、例えばTFT(Thin Film Transistor)等のスイッチング部を備えて構成されている。FPDにはX線をシンチレーターを介して光電変換素子により電気信号に変換する間接変換型、X線を直接的に電気信号に変換する直接変換型があるが、何れを用いてもよい。
放射線検出部13は、被写体Mを挟んで放射線源11と対向するように設けられている。
The
The
読取制御装置14は、撮影用コンソール2に接続されている。読取制御装置14は、撮影用コンソール2から入力された画像読取条件に基づいて放射線検出部13の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、放射線検出部13に蓄積された電気信号を読み取ることにより、画像データを取得する。この画像データがフレーム画像である。そして、読取制御装置14は、取得したフレーム画像を撮影用コンソール2に出力する。画像読取条件は、例えば、フレームレート、フレーム間隔、画素サイズ、画像サイズ(マトリックスサイズ)等である。フレームレートは、1秒あたりに取得するフレーム画像数であり、パルスレートと一致している。フレーム間隔は、1回のフレーム画像の取得動作開始から次のフレーム画像の取得動作開始までの時間であり、パルス間隔と一致している。
The
ここで、放射線照射制御装置12と読取制御装置14は互いに接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。
Here, the radiation
〔撮影用コンソール2の構成〕
撮影用コンソール2は、放射線照射条件や画像読取条件を撮影装置1に出力して撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御するとともに、撮影装置1により取得された動態画像を撮影技師等の撮影実施者によるポジショニングの確認や診断に適した画像であるか否かの確認用に表示する。
撮影用コンソール2は、図1に示すように、制御部21、記憶部22、操作部23、表示部24、通信部25を備えて構成され、各部はバス26により接続されている。
[Configuration of imaging console 2]
The
As shown in FIG. 1, the
制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory
)等により構成される。制御部21のCPUは、操作部23の操作に応じて、記憶部22に記憶されているシステムプログラムや各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って後述する撮影制御処理を始めとする各種処理を実行し、撮影用コンソール2各部の動作や、撮影装置1の放射線照射動作及び読み取り動作を集中制御する。
The
And so on. The CPU of the
記憶部22は、不揮発性の半導体メモリーやハードディスク等により構成される。記憶部22は、制御部21で実行される各種プログラムやプログラムにより処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。例えば、記憶部22は、図2に示す撮影制御処理を実行するためのプログラムを記憶している。また、記憶部22は、検査対象部位(ここでは、胸部とする)に対応付けて放射線照射条件及び画像読取条件を記憶している。各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部21は、当該プログラムコードに従った動作を逐次実行する。
The
操作部23は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部21に出力する。また、操作部23は、表示部24の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部21に出力する。
The
表示部24は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニターにより構成され、制御部21から入力される表示信号の指示に従って、操作部23からの入力指示やデータ等を表示する。
The
通信部25は、LANアダプターやモデムやTA(Terminal Adapter)等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。
The
〔診断用コンソール3の構成〕
診断用コンソール3は、撮影用コンソール2から取得した動態画像においてユーザーが指定した注目領域の大きさや画像特徴量を基準とした検索条件で動態画像から領域抽出を行い、抽出された領域を表示して医師の診断を支援するための装置である。
診断用コンソール3は、図1に示すように、制御部31、記憶部32、操作部33、表示部34、通信部35を備えて構成され、各部はバス36により接続されている。
[Configuration of
The
As shown in FIG. 1, the
制御部31は、CPU、RAM等により構成される。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って、領域抽出処理Aを始めとする各種処理を実行し、診断用コンソール3の各部の動作を集中制御する。制御部31は、サイズ取得手段、特徴量算出手段、検索条件生成手段、抽出手段として機能する。
The
記憶部32は、不揮発性の半導体メモリーやハードディスク等により構成される。記憶部32は、制御部31で差分画像表示処理Aを実行するためのプログラムを始めとする各種プログラムやプログラムによる処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。
The
また、記憶部32には、過去に撮影された動態画像が患者情報(例えば、患者ID、患者の氏名、身長、体重、年齢、性別等)、検査情報(例えば、検査ID、検査日、検査対象部位(ここでは、胸部)等)に対応付けて記憶されている。
Also, in the
操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、ユーザーによるキーボードに対するキー操作やマウス操作により入力された指示信号を制御部31に出力する。また、操作部33は、表示部34の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部31に出力する。操作部33は、領域指定手段、観点指定手段、病変レベル指定手段として機能する。
The
表示部34は、LCDやCRT等のモニターにより構成され、制御部31から入力される表示信号の指示に従って、各種表示を行う。
The
通信部35は、LANアダプターやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。
The
〔診断支援システム100の動作〕
次に、本実施形態における上記診断支援システム100の動作について説明する。
[Operation of Diagnosis Support System 100]
Next, the operation of the
(撮影装置1、撮影用コンソール2の動作)
まず、撮影装置1、撮影用コンソール2による撮影動作について説明する。
図2に、撮影用コンソール2の制御部21において実行される撮影制御処理を示す。撮影制御処理は、制御部21と記憶部22に記憶されているプログラムとの協働により実行される。
(Operation of photographing device 1, photographing console 2)
First, the photographing operation by the photographing device 1 and the photographing
FIG. 2 shows the imaging control process executed by the
まず、撮影実施者により撮影用コンソール2の操作部23が操作され、被検者(被写体M)の患者情報、検査情報の入力が行われる(ステップS1)。
First, the operator of the
次いで、放射線照射条件が記憶部22から読み出されて放射線照射制御装置12に設定されるとともに、画像読取条件が記憶部22から読み出されて読取制御装置14に設定される(ステップS2)。
Next, radiation irradiation conditions are read from the
次いで、操作部23の操作による放射線照射の指示が待機される(ステップS3)。ここで、撮影実施者は、被写体Mを放射線源11と放射線検出部13の間に配置してポジショニングを行う。また、被検者(被写体M)に対し、呼吸状態を指示する。撮影準備が整った時点で、操作部23を操作して放射線照射指示を入力する。
Next, a radiation irradiation instruction by the operation of the
操作部23により放射線照射指示が入力されると(ステップS3;YES)、放射線照射制御装置12及び読取制御装置14に撮影開始指示が出力され、動態撮影が開始される(ステップS4)。即ち、放射線照射制御装置12に設定されたパルス間隔で放射線源11により放射線が照射され、放射線検出部13によりフレーム画像が取得される。
When a radiation irradiation instruction is input from the operation unit 23 (step S3; YES), a photographing start instruction is output to the radiation
予め定められたフレーム数の撮影が終了すると、制御部21により放射線照射制御装置12及び読取制御装置14に撮影終了の指示が出力され、撮影動作が停止される。撮影されるフレーム数は、少なくとも1呼吸サイクルが撮影できる枚数である。
When imaging of a predetermined number of frames is completed, the
撮影により取得されたフレーム画像は順次撮影用コンソール2に入力され、撮影順を示す番号(フレーム番号)と対応付けて記憶部22に記憶されるとともに(ステップS5)、表示部24に表示される(ステップS6)。撮影実施者は、表示された動態画像によりポジショニング等を確認し、撮影により診断に適した画像が取得された(撮影OK)か、再撮影が必要(撮影NG)か、を判断する。そして、操作部23を操作して、判断結果を入力する。
The frame images acquired by shooting are sequentially input to the
操作部23の所定の操作により撮影OKを示す判断結果が入力されると(ステップS7;YES)、動態撮影で取得された一連のフレーム画像のそれぞれに、動態画像を識別するための識別IDや、患者情報、検査情報、放射線照射条件、画像読取条件、撮影順を示す番号(フレーム番号)等の情報が付帯され(例えば、DICOM形式で画像データのヘッダ領域に書き込まれ)、通信部25を介して診断用コンソール3に送信される(ステップS8)。そして、本処理は終了する。一方、操作部23の所定の操作により撮影NGを示す判断結果が入力されると(ステップS7;NO)、記憶部22に記憶された一連のフレーム画像が削除され(ステップS9)、本処理は終了する。この場合、再撮影が必要となる。
When a determination result indicating shooting OK is input by a predetermined operation of the operation unit 23 (step S7; YES), an identification ID for identifying a dynamic image or the like in each of a series of frame images acquired by dynamic shooting or Information such as patient information, examination information, radiation irradiation conditions, image reading conditions, numbers indicating the imaging order (frame numbers) is attached (for example, written in the header area of image data in DICOM format), and the
(診断用コンソール3の動作)
次に、診断用コンソール3における動作について説明する。
診断用コンソール3においては、通信部35を介して撮影用コンソール2から動態画像の一連のフレーム画像が受信されると、制御部31と記憶部32に記憶されているプログラムとの協働により領域抽出処理Aが実行される。
(Operation of diagnostic console 3)
Next, the operation of the
In the
図3は、領域抽出処理Aの流れを示すフローチャート、図4は、領域抽出処理Aにおけるユーザー操作を示す図である。以下、図3、4を参照して領域抽出処理Aについて説明する。 FIG. 3 is a flowchart showing the flow of the area extraction process A, and FIG. 4 is a diagram showing user operation in the area extraction process A. The region extraction processing A will be described below with reference to FIGS.
まず、受信した動態画像が表示部34の領域指定画面に表示される(ステップS11)。
領域指定画面は、動態画像からユーザーが注目領域を指定するための画面であり、例えば、受信した動態画像のフレーム画像が操作部33により順次切り替え表示可能に表示される。
ユーザーは、表示された動態画像の各フレーム画像を観察し、病変の疑いのある注目領域があった場合、操作部33のポインティングデバイスによりフレーム画像上の注目領域の位置を指定する。例えば、操作部33のポインティングデバイスにより注目領域を囲む。この注目領域を指定するときの操作部33のポインティングデバイスの動作(ジェスチャー)により、注目領域より重篤な領域、同等な領域、軽微な領域のいずれの病変レベルの領域を動態画像から抽出するかを指定することができる。例えば、注目領域の下側から上方向に向かって注目領域を囲んだ場合、注目領域より重篤な領域の抽出を指定することができる。注目領域の上側から下方向に向かって注目領域を囲んだ場合、注目領域より軽微な領域の抽出を指定することができる。注目領域の横方向から注目領域を囲んだ場合、注目領域と同等の領域の抽出を指定することができる。すなわち、病変レベルの指定を注目領域の指定と同時に効率良く行うことができる。
First, the received dynamic image is displayed on the area designation screen of the display unit 34 (step S11).
The area designation screen is a screen for the user to designate the attention area from the dynamic image, and for example, the frame image of the received dynamic image is displayed by the
The user observes each frame image of the displayed dynamic image, and if there is a focused area suspected of being a lesion, the pointing device of the
次いで、操作部33により動態画像の少なくとも一つのフレーム画像から注目領域が指定されたか否かが判断される(ステップS12)。
注目領域が指定されたと判断された場合(ステップS12;YES)、表示部34に表示されているフレーム画像の指定された領域にアノテーションが付与される(ステップS13)。
Next, it is determined by the
When it is determined that the attention area is designated (step S12; YES), an annotation is attached to the designated area of the frame image displayed on the display unit 34 (step S13).
図4のG1に、指定された注目領域にアノテーションA1が付与されたフレーム画像の一例を示す。図4のG1おいては、指定された注目領域が実線の丸のアノテーションA1で囲まれた場合を例として示している。
なお、操作部33により指定された領域そのものではなく、指定された領域の一部領域、又は近傍の画素を含めた領域を指定された注目領域として認識してもよい。例えば、指定された領域内の画素信号値の範囲内の画素信号値が隣接する領域に存在する場合は、その領域を含めて注目領域として認識してもよい。これにより、注目領域の指定の精度を向上させることができる。
G1 in FIG. 4 shows an example of a frame image in which the annotation A1 is added to the designated focused area. In G1 of FIG. 4, the case where the designated attention area is surrounded by solid-line circle annotation A1 is shown as an example.
Note that not the area designated by the
次いで、注目領域指定時の操作部33のポインティングデバイスの動作が解析され、注目領域指定時のポインティングデバイスの動作に基づいて、動態画像から抽出する領域の注目領域と比較した病変レベルが特定される(ステップS14)。
例えば、操作部33のポインティングデバイスにより注目領域の下側から上方向に向かって注目領域が囲まれた場合、抽出する領域の病変レベルが注目領域より重篤と特定される。注目領域の上側から下方向に向かって注目領域が囲まれた場合、抽出する領域の病変レベルが注目領域より軽微と特定される。注目領域の横方向から注目領域が囲まれた場合、抽出する領域の病変レベルが注目領域と同等と特定される。
Next, the operation of the pointing device of the
For example, when the region of interest is surrounded upward from the lower side of the region of interest by the pointing device of the
次いで、指定された注目領域の大きさ(サイズ)が計測される。例えば、指定された注目領域内の画素数に基づいて、指定された注目領域のサイズが計測される(ステップS15)。 Next, the size (size) of the designated region of interest is measured. For example, the size of the designated focused area is measured based on the number of pixels in the designated focused area (step S15).
次いで、指定された注目領域の近傍に、いずれの観点からその領域に注目したのかをユーザーが選択するためのメニューM1が表示され、注目領域を指定したときの観点の指定が受け付けられる(ステップS16)。観点としては、図4のメニューM1に示すように、例えば、換気、血流、腫瘍の中から指定可能である。複数の指定も可能である。 Next, a menu M1 for the user to select from which point of view the area is selected is displayed in the vicinity of the designated area of interest, and designation of the point of view when the area of interest is specified is accepted (step S16) ). As a viewpoint, as shown in the menu M1 of FIG. 4, for example, ventilation, blood flow, and tumor can be designated. Multiple designations are also possible.
次いで、指定された注目領域について、指定された観点に応じた画像特徴量が算出される(ステップS17)。
以下、観点が換気、血流、腫瘍のそれぞれの場合についての画像特徴量の算出例について説明する。ここで、換気、血流については、指定された注目領域の画素信号値の時間変化に基づく画像特徴量が算出される。腫瘍については、指定された注目領域の指定されたフレーム画像における画像特徴量を算出する(ケース1とする)としてもよいし、指定された注目領域の画素信号値の時間変化に基づく画像特徴量を算出する(ケース2とする)としてもよい。いずれの画像特徴量を算出するかは、予めユーザーの操作に応じて設定可能である。
Next, an image feature amount according to the designated viewpoint is calculated for the designated attention area (step S17).
Hereinafter, an example of calculation of the image feature amount in each of the cases of ventilation, blood flow, and tumor will be described. Here, with regard to ventilation and blood flow, image feature quantities based on temporal changes in pixel signal values of a designated attention area are calculated. For a tumor, an image feature amount in a designated frame image of a designated region of interest may be calculated (case 1), or an image feature amount based on a temporal change of pixel signal values of the designated region of interest May be calculated (case 2). It is possible to set in advance which image feature amount to calculate according to the user's operation.
(1)観点が換気の場合
まず、動態画像の画素信号値に時間方向のローパスフィルター処理を施す。具体的には、動態画像の画素毎に画素信号値の時間変化を求めて時間方向のローパスフィルター(例えば、高域カットオフ周波数0.85Hz)によりフィルタリングする。これにより、血流等による高周波成分を除去して換気の信号成分を取得することができる。なお、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してからローパスフィルター処理を行うこととしてもよい。
次いで、指定された注目領域をフレーム画像間で対応付ける。例えば、指定された注目領域と同じ画素位置(座標)の領域を他のフレーム画像における注目領域として対応付ける。
そして、各フレーム画像の注目領域において、画素信号値の平均を算出し、基準となるフレーム画像(例えば、最大呼気位や最大吸気位)における画素信号値の平均と各フレーム画像における画素信号値の平均との差分値を算出し、算出した差分の最大値(絶対値)を換気に係る注目領域の画像特徴量として算出する。この画像特徴量は、換気機能が十分に働いているほど大きい(高い)値を示す。すなわち、この画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
(1) When the viewpoint is ventilation First, low-pass filter processing in the time direction is performed on pixel signal values of the dynamic image. Specifically, the temporal change of the pixel signal value is obtained for each pixel of the dynamic image, and filtering is performed with a low pass filter (for example, high frequency cutoff frequency 0.85 Hz) in the time direction. Thereby, the high frequency component by a blood flow etc. can be removed and the signal component of ventilation can be acquired. In addition, the low-pass filter processing is performed after performing the well-known local matching processing and warping processing (refer to JP 2012-5729 A) between the frame images to correct the positional deviation of the lung field between the frame images. It is also good.
Next, the designated regions of interest are associated between the frame images. For example, an area at the same pixel position (coordinates) as the designated area of interest is associated as an area of interest in another frame image.
Then, in the attention area of each frame image, the average of the pixel signal values is calculated, and the average of the pixel signal values in the reference frame image (for example, maximum expiratory position and maximum inspiratory position) and the pixel signal values in each frame image are calculated. A difference value with the average is calculated, and the maximum value (absolute value) of the calculated difference is calculated as an image feature amount of the attention area related to ventilation. This image feature value indicates a large (high) value as the ventilation function works sufficiently. That is, the larger the image feature amount is, the smaller the lesion is, and the smaller the smaller the lesion is.
(2)観点が血流の場合
まず、動態画像の画素信号値に時間方向のハイパスフィルター処理を施す。具体的には、動態画像の画素毎に画素信号値の時間変化を求めて時間方向のハイパスフィルター(例えば、低域カットオフ周波数0.80Hz)によりフィルタリングする。これにより、換気等による低周波成分を除去して血流の信号成分を取得することができる。なお、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してからハイパスフィルター処理を行うこととしてもよい。
次いで、指定された注目領域をフレーム画像間で対応付ける。例えば、指定された注目領域と同じ画素位置(座標)の領域を他のフレーム画像における注目領域として対応付ける。
そして、各フレーム画像の注目領域において、画素信号値の平均を算出し、隣接するフレーム画像間における画素信号値の平均の差分値を算出し、算出した差分の最大値(絶対値)を血流に係る注目領域の画像特徴量として算出する。この画像特徴量は、血流機能が十分に働いているほど大きい(高い)値を示す。すなわち、この画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
あるいは、各フレーム画像の注目領域において、画素信号値の平均を算出し、基準となるフレーム画像(例えば、心臓が最も拡張した位相)における画素信号値の平均と各フレーム画像における画素信号値の平均との差分値を算出し、算出した差分の最大値(絶対値)を血流に係る注目領域の画像特徴量として算出する。この画像特徴量は、血流機能が十分に働いているほど大きい(高い)値を示す。すなわち、この画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
(2) When the viewpoint is blood flow First, high-pass filter processing in the time direction is performed on pixel signal values of the dynamic image. Specifically, the temporal change of the pixel signal value is obtained for each pixel of the dynamic image, and the filtering is performed with a high pass filter (for example, low cutoff frequency 0.80 Hz) in the time direction. Thereby, the low frequency component by ventilation etc. can be removed and the signal component of a blood flow can be acquired. In addition, as high-pass filter processing is performed after correcting positional deviation of the lung field region between frame images by performing known local matching processing and warping processing (refer to JP 2012-5729 A) between frame images. It is also good.
Next, the designated regions of interest are associated between the frame images. For example, an area at the same pixel position (coordinates) as the designated area of interest is associated as an area of interest in another frame image.
Then, in the attention area of each frame image, the average of pixel signal values is calculated, the difference value of the average of pixel signal values between adjacent frame images is calculated, and the calculated maximum value (absolute value) It calculates as an image feature quantity of the attention field which concerns on. This image feature value indicates a large (high) value as the blood flow function works sufficiently. That is, the larger the image feature amount is, the smaller the lesion is, and the smaller the smaller the lesion is.
Alternatively, in the region of interest of each frame image, the average of pixel signal values is calculated, and the average of pixel signal values in the reference frame image (for example, the phase where the heart expanded most) and the average of pixel signal values in each frame image And the maximum value (absolute value) of the calculated difference is calculated as the image feature amount of the region of interest related to the blood flow. This image feature value indicates a large (high) value as the blood flow function works sufficiently. That is, the larger the image feature amount is, the smaller the lesion is, and the smaller the smaller the lesion is.
(3)観点が腫瘍の場合
(3−1)ケース1
まず、指定された注目領域(指定が行われたフレーム画像における注目領域)の各画素について腫瘍らしさを示す評価値を算出し、算出した評価値の平均を指定された注目領域の画像特徴量として算出する。腫瘍らしさを示す評価値は特に限定されないが、例えば、特許第2582666号に記載の評価値等の公知の評価値を用いることができる。
(3−2)ケース2
まず、指定された注目領域をフレーム画像間で対応付ける。例えば、指定された注目領域と同じ画素位置(座標)の領域を他のフレーム画像における注目領域として対応付ける。あるいは、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してから、指定された注目領域と同じ画素位置の領域を他のフレーム画像における注目領域として対応付けることとしてもよい。
次いで、フレーム画像の注目領域内の各画素の画素信号値の平均を求め、算出した画素信号値(平均)の(最大値−最小値)を腫瘍における注目領域の画像特徴量として算出する。画素信号値の時間変化が少ない腫瘍は、より硬い、または他の臓器などに癒着している等、悪性の可能性が高い。反対に、画素信号値の時間変化が大きい腫瘍は、柔らかくてよく動く等、良性の可能性が高い。すなわち、算出した画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
あるいは、フレーム画像の注目領域内の各画素の画素信号値の平均の、フレーム画像間の分散を算出し、算出した分散の値を腫瘍に係る注目領域の画像特徴量として算出することとしてもよい。算出した分散が大きいほど柔らかくて良く動くため、軽微の可能性が高い。算出した分散が小さいほど硬い、または他の臓器に癒着している等、悪性の可能性が高い。すなわち、算出した画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
(3) When the viewpoint is a tumor (3-1) Case 1
First, an evaluation value indicating a tumor likeness is calculated for each pixel of a designated attention area (an attention area in a designated frame image), and an average of the calculated evaluation values is used as an image feature amount of the designated attention area. calculate. There is no particular limitation on the evaluation value indicating the tumor-likeness, but, for example, a known evaluation value such as the evaluation value described in Japanese Patent No. 2582666 can be used.
(3-2)
First, the designated regions of interest are associated between the frame images. For example, an area at the same pixel position (coordinates) as the designated area of interest is associated as an area of interest in another frame image. Alternatively, after performing known local matching processing and warping processing (refer to JP 2012-5729A) between frame images to correct the positional deviation of the lung field region between the frame images, the designated attention region An area at the same pixel position may be associated as an attention area in another frame image.
Next, an average of pixel signal values of each pixel in the attention area of the frame image is obtained, and (maximum value-minimum value) of the calculated pixel signal value (average) is calculated as an image feature amount of the attention area in the tumor. Tumors with less temporal change in pixel signal values are more likely to be malignant, such as being harder or adhering to other organs. Conversely, tumors with large temporal changes in pixel signal values are likely to be benign, such as being soft and moving well. That is, the larger the calculated image feature amount, the smaller the lesion is, and the smaller the lesion is.
Alternatively, the variance between frame images of the average of the pixel signal value of each pixel in the focus area of the frame image may be calculated, and the value of the calculated variance may be calculated as the image feature amount of the focus area related to the tumor. . The greater the calculated variance, the more likely it is to move softer and better. The smaller the calculated variance, the harder it is or adhesion to other organs is likely to be malignant. That is, the larger the calculated image feature amount, the smaller the lesion is, and the smaller the lesion is.
次いで、指定された注目領域の大きさと算出した画像特徴量を用いて、動態画像から抽出する領域の検索条件が生成される(ステップS18)。
例えば、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい(同等又は小さい)領域を動態画像から抽出する領域の検索条件として生成する。なお、注目領域の大きさに対し、何%UP、何%DOWNしたサイズまでを同等とみなすかは、ユーザーが予め設定しておくことができる。また、画像特徴量が注目領域の画像特徴量より大きい領域を抽出するか、同等の領域を抽出するか、又は小さい領域を抽出するかは、ステップS14で特定された抽出する領域の病変レベル及びステップS17で算出した注目領域の画像特徴量の種類の組み合わせにより決定される。
Next, a search condition of a region to be extracted from the dynamic image is generated using the designated size of the noted region and the calculated image feature amount (step S18).
For example, a region having a size substantially equal to the size of the region of interest, which is larger (equal to or smaller than) the image feature amount of the region of interest, is generated as a search condition of the region for extracting from the dynamic image. Note that the user can set in advance what percentage up and percentage down sizes are regarded as equal to the size of the attention area. In addition, whether the image feature quantity extracts an area larger than the image feature quantity of the attention area, extracts an equal area, or extracts a smaller area, the lesion level of the area to be extracted identified in step S14 and It is determined by a combination of types of image feature amounts of the region of interest calculated in step S17.
例えば、注目領域について算出された画像特徴量が基準となるフレーム画像(例えば、最大呼気位や最大吸気位)における注目領域の画素信号値の平均と各フレーム画像における注目領域の画素信号値の平均との差分値の最大値であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。 For example, an average of pixel signal values of a region of interest in a frame image (for example, maximum expiratory position or maximum inspiratory position) in which an image feature value calculated for a region of interest is a reference and an average of pixel signal values of a region of interest in each frame image The image feature is smaller than the image feature of the region of interest, which is the maximum value of the difference value between the two and the size of the region of interest when the designated lesion level is severe. An area is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest, which is larger than the image feature amount of the region of interest, is generated as the search condition.
例えば、注目領域について算出された画像特徴量が隣接するフレーム画像間における注目領域の画素信号値の平均の差分値の最大値であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。 For example, if the image feature value calculated for the region of interest is the maximum value of the average difference value of pixel signal values of the region of interest between adjacent frame images, and the designated lesion level is severe, A region having a size substantially equal to the size and having an image feature smaller than the image feature of the region of interest is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest, which is larger than the image feature amount of the region of interest, is generated as the search condition.
例えば、注目領域について算出された画像特徴量が上述の腫瘍観点のケース1の画像特徴量であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。 For example, when the image feature quantity calculated for the attention area is the image feature quantity of case 1 of the above-mentioned tumor viewpoint, and the designated lesion level is severe, an area of approximately the same size as the size of the attention area That is, a region where the image feature amount is larger than the image feature amount of the region of interest is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest and in which the image feature amount is smaller than the image feature amount of the region of interest is generated as a search condition.
例えば、注目領域について算出された画像特徴量が上述の腫瘍観点のケース2の(最大値−最小値)であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。
For example, if the image feature value calculated for the region of interest is (maximum value-minimum value) in
例えば、注目領域について算出された画像特徴量が上述の腫瘍観点のケース2の分散であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。
For example, when the image feature value calculated for the region of interest is the variance of
なお、抽出する領域は、検索条件に合致する領域のうち、規定数分の領域としてもよい。例えば、注目領域より大きい画像特徴量を検索した場合は、画像特徴量の大きいものから規定数分の領域を抽出し、注目領域より小さい画像特徴量を検索した場合は、画像特徴量の小さいものから規定数分の領域を抽出することとしてもよい。また、算出される画像特徴量が肺野の領域によってトレンドがある(例えば、上肺より下肺の方が大きい等)場合、トレンドを補正する処理を行ってもよい。 The regions to be extracted may be defined as a predetermined number of regions among the regions matching the search condition. For example, when an image feature quantity larger than the attention area is searched, areas for a prescribed number are extracted from those having a large image feature quantity, and when an image feature quantity smaller than the attention area is searched, an image feature quantity is small A predetermined number of regions may be extracted from In addition, when the calculated image feature quantity has a trend depending on the region of the lung field (for example, the lower lung is larger than the upper lung, etc.), the trend may be corrected.
次いで、動態画像から、生成された検索条件に該当する領域の抽出が行われる(ステップS19)。
例えば、図5に示すように、注目領域から算出された画像特徴量が上述の換気又は血流に係る画像特徴量である場合、動態画像の左上から位置を1画素ずつずらしながら、検索条件で指定された大きさの探索領域を設定し、設定した探索領域について、注目領域について算出した画像特徴量と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量の値の大小関係が検索条件に合致する(該当する)領域を抽出する。
例えば、注目領域から算出された画像特徴量が腫瘍に係る上述のケース1の画像特徴量である場合、動態画像の各フレーム画像に対し、例えば、公知の異常陰影候補検出処理を行い、腫瘍の疑いのある異常陰影候補領域を検出する。異常陰影候補検出処理としては、例えば、特許第2582666号に記載の手法等を用いることができる。そして、検出された各異常陰影候補領域のうち、大きさが検索条件に合致する領域について、注目領域と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量の大小関係が検索条件に合致する領域を抽出する。
例えば、注目領域から算出された画像特徴量が腫瘍に係る上述のケース2の画像特徴量である場合、動態画像の一のフレーム画像に対し、例えば、公知の異常陰影候補検出処理を行い、腫瘍の疑いのある異常陰影候補領域を検出する。異常陰影候補検出処理としては、例えば、特許第2582666号に記載の手法等を用いることができる。次いで、検出された異常陰影候補領域のうち、大きさが検索条件に合致する領域について、注目領域と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量の大小関係が検索条件に合致する領域を抽出する。
なお、検索する領域は、肺野領域のみとしてもよい。
Next, an area corresponding to the generated search condition is extracted from the dynamic image (step S19).
For example, as shown in FIG. 5, when the image feature calculated from the attention area is the image feature related to the above-mentioned ventilation or blood flow, the search condition is shifted while the position is shifted by one pixel from the upper left of the dynamic image. A search area of a designated size is set, and for the set search area, the same image feature quantity as the image feature quantity calculated for the attention area is calculated, and the calculated image feature quantity and the value of the image feature quantity of the attention area Extract regions where the magnitude relationship matches the search condition.
For example, when the image feature quantity calculated from the region of interest is the image feature quantity of the above case 1 of a tumor, for example, known abnormal shadow candidate detection processing is performed on each frame image of the dynamic image to Detect a suspected abnormal shadow candidate area. As the abnormal shadow candidate detection process, for example, the method described in Japanese Patent No. 2582666 can be used. Then, for each of the detected abnormal shadow candidate areas, for the area whose size matches the search condition, the same image feature quantity as the attention area is calculated, and the calculated image feature quantity and the size relation of the image characteristic quantity of the attention area Extracts the region that matches the search condition.
For example, if the image feature calculated from the region of interest is the image feature of
The region to be searched may be only the lung region.
そして、抽出された領域が表示部34に表示され(ステップS20)、領域抽出処理Aは終了する。 Then, the extracted area is displayed on the display unit 34 (step S20), and the area extraction processing A ends.
図6A、図6Bに、ステップS20において表示される領域抽出結果の一例を示す。図6Aは、換気、血流、腫瘍が観点として指定された場合であって、左上肺に換気観点で領域が抽出され、左肺下に血流観点で領域が抽出された場合の表示例を示している。図6Bにおいては、腫瘍が観点として指定された場合であって、注目領域を指定したフレーム画像とは異なるタイミングで撮影されたフレーム画像の右中肺に領域が抽出された場合の表示例を示している。なお、ステップS16で観点を選択するために表示されたメニューM1における各観点のパターン(色)と、検索結果を示すアノテーションのパターン(色)は対応している。 6A and 6B show an example of the area extraction result displayed in step S20. FIG. 6A shows a display example in which ventilation, blood flow, and tumor are designated as viewpoints, and an area is extracted from the ventilation viewpoint in the upper left lung and an area is extracted from the blood flow viewpoint in the lower left lung. It shows. FIG. 6B shows a display example in the case where a tumor is designated as a viewpoint and a region is extracted in the right middle lung of a frame image captured at a timing different from that of the frame image designated the region of interest. ing. The pattern (color) of each viewpoint in the menu M1 displayed to select the viewpoint in step S16 corresponds to the pattern (color) of the annotation indicating the search result.
このように、第1の実施形態における診断用コンソール3によれば、動態画像のフレーム画像からユーザーが指定した注目領域の大きさ及び画像特徴量に基づいて、抽出する領域の検索条件を生成し、生成した検索条件に基づいて抽出された領域を表示部34に表示された動態画像上で識別可能に表示する。したがって、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断を支援することが可能となる。
また、換気、血流、腫瘍のうちいずれの観点に注目して注目領域を指定したのかをユーザーが指定するためのメニューM1を表示し、注目領域の大きさ及び指定された観点に応じた画像特徴量に基づいて検索を行うので、ユーザーが注目している観点の病変の領域をユーザーに提示することが可能となる。
また、ユーザーが指定した病変レベル(注目領域と比較して重篤か、同等か又は軽微か)に基づいて検索を行うので、ユーザーが所望する病変レベルの領域を抽出してユーザーに提示することが可能となる。病変レベルは、ユーザーが注目領域を指定するときのポインティングデバイスの動作により病変レベルを指定することができるので、病変レベルの指定を効率良く行うことができる。
As described above, according to the
In addition, a menu M1 is displayed for the user to designate which of the ventilation, blood flow, and tumor viewpoints the attention region has been designated, and an image according to the size of the attention region and the designated viewpoint Since the search is performed based on the feature amount, it is possible to present to the user the lesion area of the viewpoint that the user is focusing on.
In addition, since the search is performed based on the user-specified lesion level (whether it is serious, equal to, or less than the region of interest), the region of the lesion level desired by the user is extracted and presented to the user Is possible. Since the lesion level can be designated by the operation of the pointing device when the user designates the region of interest, the lesion level can be designated efficiently.
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態では、動態画像の解析結果画像からユーザーが指定した注目領域の大きさ及び画像特徴量に基づいて、抽出する領域の検索条件を生成し、生成した検索条件に基づいて、解析結果画像からユーザーに提示する領域を抽出する例について説明する。
Second Embodiment
Next, a second embodiment of the present invention will be described.
In the second embodiment, the search condition of the region to be extracted is generated from the analysis result image of the dynamic image based on the size of the region of interest specified by the user and the image feature amount, and the analysis is performed based on the generated search condition. An example of extracting a region to be presented to the user from the result image will be described.
第2の実施形態における構成は、診断用コンソール3の記憶部32に領域抽出処理Bを実行するためのプログラムが記憶されている他は、第1の実施形態で説明したものと同様であるので説明を援用する。また、第2の実施形態における撮影装置1及び撮影用コンソール2の動作も第1の実施形態で説明したものであるので説明を援用し、以下、診断用コンソール3において実行される領域抽出処理Bについて説明する。
The configuration in the second embodiment is the same as that described in the first embodiment, except that a program for executing the area extraction process B is stored in the
図7は、第2の実施形態において、診断用コンソール3により実行される領域抽出処理Bを示すフローチャートである。領域抽出処理Bは、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。
FIG. 7 is a flowchart showing an area extraction process B performed by the
まず、受信した動態画像に解析処理が施され、解析結果画像が生成される(ステップS21)。解析結果画像は、動態画像に対し、画素毎又は複数画素のブロック毎に換気や血流の機能の解析を行ったときの解析結果を示す画像である。
ステップS21においては、例えば、表示部34に換気機能に係る解析を行うのか血流機能に係る解析を行うのかを選択するためのメニュー画面が表示され、操作部33により選択された種類の解析が実行される。
First, analysis processing is performed on the received dynamic image to generate an analysis result image (step S21). The analysis result image is an image showing an analysis result when analysis of the function of ventilation or blood flow is performed for each pixel or for each block of a plurality of pixels with respect to the dynamic image.
In step S21, for example, a menu screen for selecting whether to analyze the ventilation function or the blood flow function is displayed on the
例えば、換気機能に係る解析が選択された場合、ステップS21においては、まず、動態画像の肺野領域内に時間方向のローパスフィルター処理が施される。具体的には、動態画像の画素毎に画素信号値の時間変化を求めて時間方向のローパスフィルター(例えば、高域カットオフ周波数0.85Hz)によりフィルタリングする。次いで、ローパスフィルター処理後の動態画像における複数のフレーム画像間において同じ位置(座標)の画素又は複数画素のブロックが互いに対応付けされる。そして、動態画像の各フレーム画像における画素毎又は複数画素のブロック毎に画素信号値(ブロックの場合は画素信号値の平均値)の基準フレーム画像(例えば、最大呼気位のフレーム画像又は最大吸気位のフレーム画像)との差分値(絶対値)が算出され、各画素の画素信号値が前記差分値からなる解析結果画像が生成される。 For example, when the analysis relating to the ventilation function is selected, first, low-pass filter processing in the time direction is performed in the lung region of the dynamic image in step S21. Specifically, the temporal change of the pixel signal value is obtained for each pixel of the dynamic image, and filtering is performed with a low pass filter (for example, high frequency cutoff frequency 0.85 Hz) in the time direction. Next, pixels or blocks of pixels at the same position (coordinates) are associated with one another among a plurality of frame images in the dynamic image after low-pass filter processing. Then, a reference frame image (for example, a frame image of maximum exhalation position or maximum inspiratory position) of pixel signal values (average value of pixel signal values in the case of blocks) for each pixel or each block of plural pixels in each frame image of dynamic image The difference value (absolute value) with the frame image of 1) is calculated, and an analysis result image in which the pixel signal value of each pixel is the difference value is generated.
また、例えば、血流機能に係る解析が選択された場合、ステップS21においては、まず、動態画像の肺野領域内に時間方向のハイパスフィルター処理が施される。具体的には、動態画像の画素毎に信号値の時間変化を求めて時間方向のハイパスフィルター(例えば、低域カットオフ周波数0.80Hz)によりフィルタリングする。次いで、ハイパスフィルター処理後の動態画像における複数のフレーム画像間において同じ位置(座標)の画素又は複数画素のブロックが互いに対応付けされる。そして、動態画像の各フレーム画像の画素毎又は複数画素のブロック毎に、隣り合うフレーム画像との画素信号値(ブロックの場合は画素信号値の平均値)の差分値が算出される。これにより、血流機能に係る解析結果画像が生成される。
なお、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してからローパスフィルター処理やハイパスフィルター処理を行うこととしてもよい。
Also, for example, when the analysis relating to the blood flow function is selected, in step S21, first, high-pass filter processing in the time direction is performed in the lung field region of the dynamic image. Specifically, the time change of the signal value is obtained for each pixel of the dynamic image, and the filtering is performed with a high pass filter (for example, low cutoff frequency 0.80 Hz) in the time direction. Next, pixels or blocks of pixels at the same position (coordinates) are associated with each other between frame images in the dynamic image after high-pass filter processing. Then, for each pixel of each frame image of each dynamic image or each block of a plurality of pixels, a difference value of pixel signal values (an average value of pixel signal values in the case of a block) of adjacent frame images is calculated. Thereby, an analysis result image concerning the blood flow function is generated.
Low-pass filter processing and high-pass filter processing are performed after performing known local matching processing and warping processing between frame images (refer to JP 2012-5729A) to correct positional deviation of the lung field region between frame images. It is good to do.
次いで、生成された解析結果画像が表示部34の領域指定画面に表示される(ステップS22)。
領域指定画面は、解析結果画像からユーザーが注目領域を指定するための画面であり、例えば、解析結果画像のフレーム画像が操作部33により順次切り替え表示可能に表示される。
ユーザーは、表示された解析結果画像の各フレーム画像を観察し、病変の疑いのある注目領域があった場合、操作部33のポインティングデバイスによりフレーム画像上の注目領域の位置を指定する。例えば、操作部33のポインティングデバイスにより注目領域を囲む。このとき、第1の実施形態で説明したように、注目領域より重篤な領域、同等な領域、軽微な領域のいずれの病変レベルを解析結果画像から検索するかを注目領域を指定するときのポインティングデバイスの動作(ジェスチャー)により指定することができる。すなわち、病変レベルの指定を注目領域の指定と同時に効率良く行うことができる。
Next, the generated analysis result image is displayed on the area designation screen of the display unit 34 (step S22).
The area designation screen is a screen for the user to designate the attention area from the analysis result image, and for example, frame images of the analysis result image are sequentially displayed by the
The user observes each frame image of the displayed analysis result image, and if there is a focused area suspected of being a lesion, the pointing device of the
次いで、操作部33により解析結果画像の少なくとも一つのフレーム画像から注目領域が指定されたか否かが判断される(ステップS23)。
注目領域が指定されたと判断された場合(ステップS23;YES)、指定された注目領域にアノテーションが付与される(ステップS24)。なお、ステップS24においては、操作部33により指定された領域そのものではなく、指定された領域の一部領域、又は近傍の画素を含めた領域を指定された注目領域として認識してもよい。例えば、指定された領域内の画素信号値の範囲内の画素信号値が隣接する領域に存在する場合は、その領域を含めて指定された領域として認識してもよい。これにより、注目領域の指定の精度を向上させることができる。
Next, it is determined by the
When it is determined that the attention area is designated (step S23; YES), an annotation is attached to the designated attention area (step S24). In step S24, not the area designated by the
次いで、注目領域指定時の操作部33のポインティングデバイスの動作が解析され、注目領域指定時の操作部33のポインティングデバイスの動作に基づいて、解析結果画像から抽出する領域の注目領域と比較したときの病変レベルが特定される(ステップS25)。ステップS25の処理は、図3のステップS14で説明したものと同様であるので説明を援用する。
Next, the operation of the pointing device of the
次いで、指定された注目領域の大きさ(サイズ)が算出される(ステップS26)。例えば、指定された注目領域内の画素数に基づいて、指定された注目領域のサイズが算出される。 Next, the size (size) of the designated focused area is calculated (step S26). For example, the size of the designated focused area is calculated based on the number of pixels in the designated focused area.
次いで、指定された注目領域の画像特徴量が算出される(ステップS27)。
例えば、解析結果画像の各フレーム画像の注目領域(指定された注目領域と画素位置(座標)が同じ領域)において、画素信号値の平均を算出し、算出した画素信号値の平均の最大値(絶対値)を注目領域の画像特徴量として算出する。
Next, the image feature amount of the designated attention area is calculated (step S27).
For example, an average of pixel signal values is calculated in a target area of each frame image of the analysis result image (an area having the same pixel position (coordinates) as the specified target area), and the maximum value of the average of the calculated pixel signal values An absolute value is calculated as an image feature amount of the region of interest.
次いで、指定された注目領域の大きさと算出した画像特徴量を用いて、解析結果画像から抽出する領域の検索条件が生成される(ステップS28)。例えば、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい(同等又は小さい)領域を解析結果画像から抽出する領域の検索条件として生成する。なお、注目領域の大きさに対し、何%UP、何%DOWNしたサイズまでを同等とみなすかは、ユーザーが予め設定しておくことができる。また、画像特徴量が注目領域の画像特徴量より大きい領域を抽出するか、同等の領域を抽出するか、又は小さい領域を抽出するかは、ステップS25で特定された抽出する領域の病変レベル及びステップS27で算出した注目領域の画像特徴量の種類の組み合わせにより決定される。 Next, a search condition of a region to be extracted from the analysis result image is generated using the size of the designated region of interest and the calculated image feature amount (step S28). For example, a region having a size substantially equal to the size of the region of interest, which is larger (equal or smaller) than the image feature amount of the region of interest, is generated as a search condition of the region extracted from the analysis result image . Note that the user can set in advance what percentage up and percentage down sizes are regarded as equal to the size of the attention area. In addition, whether the image feature quantity extracts an area larger than the image feature quantity of the attention area, extracts an equal area, or extracts a smaller area depends on the lesion level of the area to be extracted specified in step S25 and It is determined by a combination of types of image feature amounts of the region of interest calculated in step S27.
次いで、解析結果画像から、生成された検索条件に該当する領域の抽出が行われる(ステップS29)。
例えば、解析結果画像の左上から位置を1画素ずつずらしながら、注目領域の大きさと略同等の大きさの探索領域を設定し、設定した探索領域について、注目領域について算出した画像特徴量と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量との値の大小関係が検索条件に合致する領域が抽出される。
Next, an area corresponding to the generated search condition is extracted from the analysis result image (step S29).
For example, while shifting the position one pixel at a time from the upper left of the analysis result image, a search area of approximately the same size as the size of the area of interest is set, and for the set search area, the same image as the image feature quantity calculated for the area of interest A feature quantity is calculated, and an area in which the magnitude relation between the calculated image feature quantity and the image feature quantity of the attention area matches the search condition is extracted.
そして、抽出された領域が表示部34に表示され(ステップS30)、領域抽出処理Bは終了する。 Then, the extracted area is displayed on the display unit 34 (step S30), and the area extraction processing B ends.
このように、第2の実施形態における診断用コンソール3によれば、解析結果画像のフレーム画像からユーザーが指定した注目領域の大きさ及び画像特徴量に基づいて、抽出する領域の検索条件を生成し、生成した検索条件に基づいて抽出された領域を表示部34に表示された解析結果画像上で識別可能に表示する。したがって、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断を支援することが可能となる。
また、ユーザーが指定した病変レベル(注目領域と比較して重篤か、同等か又は軽微か)に基づいて検索を行うことで、ユーザーが所望する病変レベルの領域を抽出してユーザーに提示することが可能となる。
As described above, according to the
In addition, by performing a search based on the lesion level (severe, equal to or less than the attention area) specified by the user, the area of the lesion level desired by the user is extracted and presented to the user It becomes possible.
以上、本発明の第1及び第2の実施形態について説明したが、上記実施形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。 As mentioned above, although the 1st and 2nd embodiment of the present invention was described, the contents of a statement in the above-mentioned embodiment are a suitable example of the present invention, and are not limited to this.
例えば、上記第1の実施形態においては、ユーザー換気、血流、腫瘍がいずれの観点に注目して注目領域を指定したのかを指定し、指定された観点に応じた画像特徴量を算出し、検索条件に用いることとしたが、例えば、腫瘍の診断を支援する専用のシステム等においては、ユーザーによる観点の指定は不要であり、腫瘍に係る画像特徴量を自動的に算出することとしてもよい。 For example, in the first embodiment, the user's ventilation, the blood flow, and the tumor designate which area the attention area is designated by paying attention to the viewpoint, and calculates the image feature amount according to the designated viewpoint, Although it has been used as a search condition, for example, in a dedicated system that supports the diagnosis of a tumor, designation of a viewpoint by the user is unnecessary, and an image feature value related to a tumor may be automatically calculated. .
また、例えば、上記第1及び第2の実施形態においては、ユーザーが動態画像又は解析結果画像から抽出する領域の病変レベルを指定できる構成としたが、ユーザーによる病変レベルの指定を受け付けずに、予め定められた病変レベルの領域(例えば、注目領域より重篤な病変の領域)を抽出することとしてもよい。 Further, for example, in the first and second embodiments, the user can specify the lesion level of the area to be extracted from the dynamic image or the analysis result image, but without accepting the specification of the lesion level by the user, It is also possible to extract an area of a predetermined lesion level (for example, an area of a lesion that is more severe than the attention area).
また、上記実施形態においては、注目領域を指定する際のポインティングデバイスの動作により病変レベルを指定することとして説明したが、例えば、重篤、同等、軽微等の病変レベルの選択メニューを表示してユーザーが所望のレベルを操作部33により選択することとしてもよい。
Further, in the above embodiment, it has been described that the lesion level is specified by the operation of the pointing device at the time of specifying the attention area, but for example, a selection menu of lesion levels such as severe, equivalent, and minor is displayed The user may select a desired level using the
また、画像特徴量としては、上述したものに限られない。例えば、上述したフレーム間の画素信号値(平均)の差分値の最大値や分散の代わりに、画素信号値(平均)の一次微分や二次微分等を用いることとしてもよい。 Further, the image feature amount is not limited to that described above. For example, instead of the maximum value or the variance of the difference values of the pixel signal values (average) between the frames described above, the first derivative or the second derivative of the pixel signal values (average) may be used.
また、上記実施形態においては、胸部動態画像又はその解析結果画像から領域抽出を行う場合に本発明を適用した例について説明したが、他の部位を撮影した動態画像又はその解析結果画像から領域抽出を行う場合に本発明を適用することとしてもよい。 In the above embodiment, an example in which the present invention is applied to the case where the region extraction is performed from the chest dynamic image or its analysis result image has been described, but the region extraction from the dynamic image obtained by photographing other parts or the analysis result image The present invention may be applied to the case where
また、例えば、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリー等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 Further, for example, in the above description, although an example using a hard disk, a non-volatile memory of a semiconductor, or the like as a computer readable medium of a program according to the present invention has been disclosed, the present invention is not limited thereto. As another computer readable medium, a portable recording medium such as a CD-ROM can be applied. In addition, carrier wave (carrier wave) is also applied as a medium for providing data of the program according to the present invention through a communication line.
その他、診断支援システムを構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and the detailed operation of each device constituting the diagnosis support system can be appropriately changed without departing from the scope of the present invention.
100 診断支援システム
1 撮影装置
11 放射線源
12 放射線照射制御装置
13 放射線検出部
14 読取制御装置
2 撮影用コンソール
21 制御部
22 記憶部
23 操作部
24 表示部
25 通信部
26 バス
3 診断用コンソール
31 制御部
32 記憶部
33 操作部
34 表示部
35 通信部
36 バス
100 diagnosis support system 1
Claims (8)
前記領域指定手段により指定された注目領域のサイズを取得するサイズ取得手段と、
前記領域指定手段により指定された注目領域の画像特徴量を算出する特徴量算出手段と、
前記サイズ取得手段により取得された前記注目領域のサイズ及び前記特徴量算出手段により算出された前記注目領域の画像特徴量に基づいて、前記動態画像又は前記解析結果画像から抽出する領域の検索条件を生成する検索条件生成手段と、
前記検索条件生成手段により生成された検索条件に該当する領域を前記動態画像又は前記解析結果画像から抽出する抽出手段と、
前記動態画像又は前記解析結果画像において前記抽出手段により抽出された領域を識別可能に表示する表示手段と、
を備える診断支援システム。 The user pays attention by using at least one frame image in the dynamic image obtained by radiographing the dynamic of the living body or the analysis result of the dynamic analysis of each pixel or block of plural pixels of the dynamic image. Area specification means for specifying an area;
Size acquiring means for acquiring the size of the area of interest specified by the area specifying means;
Feature quantity calculation means for calculating an image feature quantity of the attention area designated by the area designation means;
A search condition of a region to be extracted from the dynamic image or the analysis result image based on the size of the region of interest acquired by the size acquisition unit and the image feature amount of the region of interest calculated by the feature amount calculation unit Search condition generation means for generating
Extracting means for extracting an area corresponding to the search condition generated by the search condition generation means from the dynamic image or the analysis result image;
Display means for identifiably displaying the area extracted by the extraction means in the dynamic image or the analysis result image;
Diagnostic support system comprising:
前記特徴量算出手段は、前記領域指定手段により指定された注目領域の、前記観点指定手段により指定された観点に応じた画像特徴量を算出する請求項1又は2に記載の診断支援システム。 When a region of interest is specified from the dynamic image, a viewpoint specification unit is provided for the user to specify which of a plurality of predetermined viewpoints the user has specified the region of interest.
The diagnosis support system according to claim 1, wherein the feature amount calculation unit calculates an image feature amount of the attention area designated by the region designation unit according to the viewpoint designated by the viewpoint designation unit.
前記観点指定手段は、換気、血流、腫瘍のうち、少なくとも一つの観点を指定可能である請求項3に記載の診断支援システム。 The movement image is a chest movement image obtained by radiographing movement of the chest of the living body,
The diagnosis support system according to claim 3, wherein the viewpoint specifying means can specify at least one of ventilation, blood flow, and tumor.
前記検索条件生成手段は、前記注目領域のサイズ、前記注目領域の画像特徴量及び前記病変レベル指定手段より指定された病変レベルに基づいて、前記検索条件を生成する請求項1〜4のいずれか一項に記載の診断支援システム。 A lesion level designation unit for the user to designate a lesion level compared with the target region of the region extracted from the dynamic image or the analysis result image;
The search condition generation unit generates the search condition based on the size of the region of interest, the image feature amount of the region of interest, and the lesion level designated by the lesion level designation unit. The diagnosis support system according to one item.
前記病変レベル指定手段は、前記領域指定手段により前記注目領域を指定する際の前記ポインティングデバイスの動作により前記病変レベルを指定する請求項5又は6に記載の診断支援システム。 The area specifying means includes a pointing device
The diagnosis support system according to claim 5 or 6, wherein the lesion level designation unit designates the lesion level by an operation of the pointing device when the region designation unit designates the region of interest.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017078669A JP2018175344A (en) | 2017-04-12 | 2017-04-12 | Diagnosis support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017078669A JP2018175344A (en) | 2017-04-12 | 2017-04-12 | Diagnosis support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018175344A true JP2018175344A (en) | 2018-11-15 |
Family
ID=64280258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017078669A Withdrawn JP2018175344A (en) | 2017-04-12 | 2017-04-12 | Diagnosis support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018175344A (en) |
-
2017
- 2017-04-12 JP JP2017078669A patent/JP2018175344A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6436182B2 (en) | Dynamic image analyzer | |
JP6922971B2 (en) | Console and program | |
JP6958202B2 (en) | Dynamic image processing equipment and programs | |
JP6812685B2 (en) | Dynamic analyzer | |
US20180137634A1 (en) | Dynamic image processing system | |
JP2009153677A (en) | Kinetic image processing system | |
JP2019058368A (en) | Dynamic analysis device and dynamic analysis system | |
JP2018110762A (en) | Dynamic image processing system | |
JP2004105643A (en) | X-ray diagnostic equipment | |
JP6870765B1 (en) | Dynamic quality control equipment, dynamic quality control program and dynamic quality control method | |
JP6740699B2 (en) | Image analysis system | |
JP2017169830A (en) | Dynamic analysis apparatus | |
JP6848393B2 (en) | Dynamic image processing device | |
JP2019180883A (en) | Radiation image display device and radiographic system | |
JP2018187310A (en) | Dynamic image processing system | |
JP5315686B2 (en) | Dynamic image diagnosis support system | |
JP2016209267A (en) | Medical image processor and program | |
JP2018148965A (en) | Dynamic analysis system | |
JP7099086B2 (en) | Dynamic image processing equipment and programs | |
JP2018175320A (en) | Radiography system | |
JP2018175344A (en) | Diagnosis support system | |
JP6950507B2 (en) | Dynamic image processing device | |
JP6790537B2 (en) | Dynamic analyzer | |
US11461900B2 (en) | Dynamic image analysis system and dynamic image processing apparatus | |
US20230052910A1 (en) | Image processing device, display control method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200728 |