JP2018175344A - Diagnosis support system - Google Patents

Diagnosis support system Download PDF

Info

Publication number
JP2018175344A
JP2018175344A JP2017078669A JP2017078669A JP2018175344A JP 2018175344 A JP2018175344 A JP 2018175344A JP 2017078669 A JP2017078669 A JP 2017078669A JP 2017078669 A JP2017078669 A JP 2017078669A JP 2018175344 A JP2018175344 A JP 2018175344A
Authority
JP
Japan
Prior art keywords
area
image
region
interest
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017078669A
Other languages
Japanese (ja)
Inventor
仁 二村
Hitoshi Futamura
仁 二村
慎介 勝原
Shinsuke Katsuhara
慎介 勝原
哲嗣 松谷
Tetsuji Matsutani
哲嗣 松谷
翔 野地
Sho Noji
翔 野地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017078669A priority Critical patent/JP2018175344A/en
Publication of JP2018175344A publication Critical patent/JP2018175344A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide support to allow for efficient diagnosis with no oversight based on a user-specified attention region.SOLUTION: By means of a controller 31 of a diagnostic console 3, a region specification screen to allow a user to specify an attention region is displayed on a display unit 34, the user using at least one frame image in a dynamic image obtained by radiographing a dynamic state of a subject M or in an analysis result image indicative of a dynamic analysis result for each pixel or for each group of pixels of the dynamic image, and then the size of the attention region specified on the region specification screen is obtained and the image feature amount of the attention region is calculated. Based on the size and image feature amount of the attention region, the controller 31 generates a search condition for a region to be extracted from the dynamic image or analysis result image and extracts a region satisfying the generated search condition from the dynamic image or analysis result image, and then displays the region extracted from the dynamic image or analysis result image in such a manner that the region can be identified.SELECTED DRAWING: Figure 3

Description

本発明は、診断支援システムに関する。   The present invention relates to a diagnosis support system.

従来、被写体を撮影した画像から注目すべき領域を抽出する技術が知られている。
例えば、特許文献1においては、試料の観察画像中に、分析装置による分析対象領域を設定する装置であって、観察画像を複数の領域に分割し、各分割領域における画像特徴量を算出し、ユーザーにより指定された複数の分割領域の画像特徴量から分析対象領域として抽出する分割領域の画像特徴量の範囲を決定し、画像特徴量が決定された範囲内の分割領域を抽出することが記載されている。
Conventionally, there is known a technique for extracting an area to be noted from an image obtained by photographing a subject.
For example, Patent Document 1 is an apparatus that sets an analysis target area by an analysis device in an observation image of a sample, divides the observation image into a plurality of areas, and calculates an image feature amount in each divided area, It is described that the range of the image feature amount of the divided region to be extracted as the analysis target region is determined from the image feature amounts of the plurality of divided regions designated by the user, and the divided region within the range where the image feature amount is determined is extracted. It is done.

特許第5900644号公報Patent No. 5900644

ところで、医用画像の読影においては、観察対象の大きさが重要である。しかしながら、特許文献1に記載の技術は、ピクセル毎またはM×N個等の隣接する複数のピクセルを1分割領域として領域抽出を行うものであるため、ユーザーが注目している大きさの病変があっても、その領域を見落とさないように抽出してユーザーに提示することはできない。また、特許文献1においては、静止画が対象であるため、その画像を撮影したタイミングに表現できていない病変や、画素信号値の時間変化から捉えることのできる病変等についてはユーザーに提示することができない。   By the way, in the interpretation of medical images, the size of the observation target is important. However, since the technology described in Patent Document 1 performs area extraction with a plurality of adjacent pixels such as M × N pixels or the like as one divided area, a lesion of a size at which the user pays attention Even if it exists, it can not be extracted and presented to the user so as not to overlook the area. Further, in Patent Document 1, since a still image is an object, it is necessary to present the user with a lesion that can not be expressed at the timing when the image was captured, a lesion that can be captured from time change of pixel signal value, and the like. I can not

本発明の課題は、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断が行えるように支援することである。   An object of the present invention is to support efficient diagnosis without an oversight based on a user-specified attention area.

上記課題を解決するため、請求項1に記載の発明の診断支援システムは、
生体の動態を放射線撮影することにより得られた動態画像又は当該動態画像の画素毎又は複数画素のブロック毎の動態解析結果を示す解析結果画像における少なくも一つのフレーム画像を用いて、ユーザーが注目領域を指定するための領域指定手段と、
前記領域指定手段により指定された注目領域のサイズを取得するサイズ取得手段と、
前記領域指定手段により指定された注目領域の画像特徴量を算出する特徴量算出手段と、
前記サイズ取得手段により取得された前記注目領域のサイズ及び前記特徴量算出手段により算出された前記注目領域の画像特徴量に基づいて、前記動態画像又は前記解析結果画像から抽出する領域の検索条件を生成する検索条件生成手段と、
前記検索条件生成手段により生成された検索条件に該当する領域を前記動態画像又は前記解析結果画像から抽出する抽出手段と、
前記動態画像又は前記解析結果画像において前記抽出手段により抽出された領域を識別可能に表示する表示手段と、
を備える。
In order to solve the above problems, the diagnosis support system of the invention according to claim 1 is
The user pays attention by using at least one frame image in the dynamic image obtained by radiographing the dynamic of the living body or the analysis result of the dynamic analysis of each pixel or block of plural pixels of the dynamic image. Area specification means for specifying an area;
Size acquiring means for acquiring the size of the area of interest specified by the area specifying means;
Feature quantity calculation means for calculating an image feature quantity of the attention area designated by the area designation means;
A search condition of a region to be extracted from the dynamic image or the analysis result image based on the size of the region of interest acquired by the size acquisition unit and the image feature amount of the region of interest calculated by the feature amount calculation unit Search condition generation means for generating
Extracting means for extracting an area corresponding to the search condition generated by the search condition generation means from the dynamic image or the analysis result image;
Display means for identifiably displaying the area extracted by the extraction means in the dynamic image or the analysis result image;
Equipped with

請求項2に記載の発明は、請求項1に記載の発明において、
前記特徴量算出手段は、前記注目領域における画素信号値の時間変化に基づく画像特徴量を算出する。
In the invention described in claim 2, in the invention described in claim 1,
The feature amount calculation means calculates an image feature amount based on a temporal change of pixel signal values in the region of interest.

請求項3に記載の発明は、請求項1又は2に記載の発明において、
前記動態画像から注目領域が指定された場合、予め定められた複数の観点のうちいずれの観点に注目して前記注目領域を指定したのかをユーザーが指定するための観点指定手段を備え、
前記特徴量算出手段は、前記領域指定手段により指定された注目領域の、前記観点指定手段により指定された観点に応じた画像特徴量を算出する。
In the invention described in claim 3, in the invention described in claim 1 or 2,
When a region of interest is specified from the dynamic image, a viewpoint specification unit is provided for the user to specify which of a plurality of predetermined viewpoints the user has specified the region of interest.
The feature quantity calculation means calculates an image feature quantity of the attention area designated by the area designation means according to the viewpoint designated by the viewpoint designation means.

請求項4に記載の発明は、請求項3に記載の発明において、
前記動態画像は、前記生体の胸部の動態を放射線撮影することにより得られた胸部動態画像であり、
前記観点指定手段は、換気、血流、腫瘍のうち、少なくとも一つの観点を指定可能である。
In the invention according to claim 4, in the invention according to claim 3,
The movement image is a chest movement image obtained by radiographing movement of the chest of the living body,
The viewpoint specifying means can specify at least one of ventilation, blood flow, and tumor.

請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、
前記動態画像又は前記解析結果画像から抽出する領域の前記注目領域と比較した病変レベルをユーザーが指定するための病変レベル指定手段を備え、
前記検索条件生成手段は、前記注目領域のサイズ、前記注目領域の画像特徴量及び前記病変レベル指定手段より指定された病変レベルに基づいて、前記検索条件を生成する。
In the invention described in claim 5, in the invention described in any one of claims 1 to 4,
A lesion level designation unit for the user to designate a lesion level compared with the target region of the region extracted from the dynamic image or the analysis result image;
The search condition generation unit generates the search condition based on the size of the attention area, the image feature amount of the attention area, and the lesion level designated by the lesion level designation unit.

請求項6に記載の発明は、請求項5に記載の発明において、
前記病変レベル指定手段は、前記抽出する領域が前記注目領域と比較して重篤か、同等か、又は軽微かをユーザーが指定するためのものである。
In the invention according to claim 6, in the invention according to claim 5,
The lesion level designation means is for the user to designate whether the area to be extracted is severe, equal or minor compared to the area of interest.

請求項7に記載の発明は、請求項5又は6に記載の発明において、
前記領域指定手段は、ポインティングデバイスを含み、
前記病変レベル指定手段は、前記領域指定手段により前記注目領域を指定する際の前記ポインティングデバイスの動作により前記病変レベルを指定する。
In the invention according to claim 7, in the invention according to claim 5 or 6,
The area specifying means includes a pointing device
The lesion level designation unit designates the lesion level by the operation of the pointing device when the region designation unit designates the region of interest.

請求項8に記載の発明は、請求項1〜7のいずれか一項に記載の発明において、
前記領域指定手段は、ユーザーにより指定された領域の一部領域又は前記指定された領域の近傍の領域を含めた領域を前記ユーザーにより指定された注目領域として指定する。
The invention according to claim 8 is the invention according to any one of claims 1 to 7 in which
The area specifying means specifies an area including a partial area of the area specified by the user or an area near the specified area as the noted area specified by the user.

本発明によれば、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断を支援することが可能となる。   According to the present invention, it is possible to support an efficient diagnosis without an oversight based on a user-specified attention area.

本発明の実施形態における動態解析システムの全体構成を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the whole structure of the kinetic-analysis system in embodiment of this invention. 図1の撮影用コンソールの制御部により実行される撮影制御処理を示すフローチャートである。It is a flowchart which shows the imaging | photography control processing performed by the control part of the console for imaging | photography of FIG. 第1の実施形態において図1の診断用コンソールの制御部により実行される領域抽出処理Aを示すフローチャートである。It is a flowchart which shows the area | region extraction process A performed by the control part of the console for diagnosis of FIG. 1 in 1st Embodiment. 領域抽出処理Aにおけるユーザー操作を示す図である。FIG. 7 is a diagram showing user operations in region extraction processing A. 注目領域から算出された画像特徴量が換気又は血流に係る画像特徴量である場合の検索を模式的に示す図である。It is a figure which shows typically the search in case the image feature-value calculated from the attention area is an image feature-value concerning ventilation or a blood flow. 図3のステップS20において表示される領域抽出結果の一例を示す図である。It is a figure which shows an example of the area | region extraction result displayed in FIG.3 S20. 図3のステップS20において表示される領域抽出結果の一例を示す図である。It is a figure which shows an example of the area | region extraction result displayed in FIG.3 S20. 第2の実施形態において図1の診断用コンソールの制御部により実行される領域抽出処理Bを示すフローチャートである。It is a flowchart which shows the area | region extraction process B performed by the control part of the console for diagnosis of FIG. 1 in 2nd Embodiment.

以下、図面を参照して本発明の実施形態について説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated example.

<第1の実施形態>
〔診断支援システム100の構成〕
まず、本発明の第1の実施形態の構成を説明する。
図1に、第1の実施形態における診断支援システム100の全体構成を示す。
図1に示すように、診断支援システム100は、撮影装置1と、撮影用コンソール2とが通信ケーブル等により接続され、撮影用コンソール2と、診断用コンソール3とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。診断支援システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。
First Embodiment
[Configuration of Diagnosis Support System 100]
First, the configuration of the first embodiment of the present invention will be described.
FIG. 1 shows the overall configuration of a diagnosis support system 100 in the first embodiment.
As shown in FIG. 1, in the diagnosis support system 100, the imaging device 1 and the imaging console 2 are connected by a communication cable or the like, the imaging console 2 and the diagnostic console 3 are LAN (Local Area Network) etc. Connected via the communication network NT. Each device constituting the diagnosis support system 100 conforms to the Digital Image and Communications in Medicine (DICOM) standard, and communication between the devices is performed according to the DICOM.

〔撮影装置1の構成〕
撮影装置1は、例えば、呼吸運動に伴う肺の膨張及び収縮の形態変化、心臓の拍動等の、生体の動態を撮影する撮影手段である。動態撮影とは、被写体に対し、X線等の放射線をパルス状にして所定時間間隔で繰り返し照射するか(パルス照射)、もしくは、低線量率にして途切れなく継続して照射する(連続照射)ことで、被写体の動態を示す複数の画像を取得することをいう。動態撮影により得られた一連の画像を動態画像と呼ぶ。また、動態画像を構成する複数の画像のそれぞれをフレーム画像と呼ぶ。なお、以下の実施形態では、パルス照射により胸部の動態撮影を行う場合を例にとり説明する。
[Configuration of Imaging Device 1]
The imaging device 1 is, for example, imaging means for imaging the movement of a living body, such as a change in form of expansion and contraction of the lung accompanying respiratory movement, a pulse of the heart, and the like. With dynamic imaging, radiation such as X-rays is pulsed and repeatedly applied at predetermined time intervals to the subject (pulse irradiation) or continuously applied without interruption at a low dose rate (continuous irradiation) It means to acquire multiple images that show the movement of the subject. A series of images obtained by dynamic imaging are called dynamic images. Further, each of a plurality of images constituting a dynamic image is called a frame image. In the following embodiment, a case of performing dynamic imaging of the chest by pulse irradiation will be described as an example.

放射線源11は、被写体M(被検者)を挟んで放射線検出部13と対向する位置に配置され、放射線照射制御装置12の制御に従って、被写体Mに対し放射線(X線)を照射する。
放射線照射制御装置12は、撮影用コンソール2に接続されており、撮影用コンソール2から入力された放射線照射条件に基づいて放射線源11を制御して放射線撮影を行う。撮影用コンソール2から入力される放射線照射条件は、例えば、パルスレート、パルス幅、パルス間隔、1撮影あたりの撮影フレーム数、X線管電流の値、X線管電圧の値、付加フィルター種等である。パルスレートは、1秒あたりの放射線照射回数であり、後述するフレームレートと一致している。パルス幅は、放射線照射1回当たりの放射線照射時間である。パルス間隔は、1回の放射線照射開始から次の放射線照射開始までの時間であり、後述するフレーム間隔と一致している。
The radiation source 11 is disposed at a position facing the radiation detection unit 13 across the subject M (subject), and irradiates the subject M with radiation (X-rays) according to the control of the radiation irradiation control device 12.
The radiation irradiation control apparatus 12 is connected to the imaging console 2 and controls the radiation source 11 based on the radiation irradiation conditions input from the imaging console 2 to perform radiation imaging. The radiation irradiation conditions input from the imaging console 2 include, for example, pulse rate, pulse width, pulse interval, number of imaging frames per imaging, X-ray tube current value, X-ray tube voltage value, additional filter type, etc. It is. The pulse rate is the number of times of radiation irradiation per second, and matches the frame rate described later. The pulse width is the irradiation time per irradiation. The pulse interval is the time from the start of one radiation irradiation to the start of the next radiation irradiation, and matches the frame interval described later.

放射線検出部13は、FPD(Flat Panel Detector)等の半導体イメージセンサーにより構成される。FPDは、例えば、ガラス基板等を有しており、基板上の所定位置に、放射線源11から照射されて少なくとも被写体Mを透過した放射線をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の検出素子(画素)がマトリックス状に配列されている。各画素は、例えばTFT(Thin Film Transistor)等のスイッチング部を備えて構成されている。FPDにはX線をシンチレーターを介して光電変換素子により電気信号に変換する間接変換型、X線を直接的に電気信号に変換する直接変換型があるが、何れを用いてもよい。
放射線検出部13は、被写体Mを挟んで放射線源11と対向するように設けられている。
The radiation detection unit 13 is configured of a semiconductor image sensor such as an FPD (Flat Panel Detector). The FPD has, for example, a glass substrate or the like, detects radiation transmitted from the radiation source 11 at a predetermined position on the substrate and at least transmitted through the object M according to its intensity, and detects the detected radiation as an electric signal A plurality of detection elements (pixels) which convert into and are stored in a matrix. Each pixel is configured to include, for example, a switching unit such as a TFT (Thin Film Transistor). FPDs include an indirect conversion type in which X-rays are converted into an electrical signal by a photoelectric conversion element through a scintillator, and a direct conversion type in which X-rays are directly converted into an electrical signal, any of which may be used.
The radiation detection unit 13 is provided to face the radiation source 11 across the subject M.

読取制御装置14は、撮影用コンソール2に接続されている。読取制御装置14は、撮影用コンソール2から入力された画像読取条件に基づいて放射線検出部13の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、放射線検出部13に蓄積された電気信号を読み取ることにより、画像データを取得する。この画像データがフレーム画像である。そして、読取制御装置14は、取得したフレーム画像を撮影用コンソール2に出力する。画像読取条件は、例えば、フレームレート、フレーム間隔、画素サイズ、画像サイズ(マトリックスサイズ)等である。フレームレートは、1秒あたりに取得するフレーム画像数であり、パルスレートと一致している。フレーム間隔は、1回のフレーム画像の取得動作開始から次のフレーム画像の取得動作開始までの時間であり、パルス間隔と一致している。   The reading control device 14 is connected to the imaging console 2. The reading control device 14 controls the switching unit of each pixel of the radiation detection unit 13 based on the image reading condition input from the imaging console 2 to switch the reading of the electric signal accumulated in each pixel. Image data is acquired by reading the electrical signal accumulated in the radiation detection unit 13. This image data is a frame image. Then, the reading control device 14 outputs the acquired frame image to the imaging console 2. The image reading conditions are, for example, a frame rate, a frame interval, a pixel size, an image size (matrix size) and the like. The frame rate is the number of frame images acquired per second, which matches the pulse rate. The frame interval is the time from the start of one frame image acquisition operation to the start of the next frame image acquisition operation, which matches the pulse interval.

ここで、放射線照射制御装置12と読取制御装置14は互いに接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。   Here, the radiation irradiation control device 12 and the reading control device 14 are connected to each other, exchange synchronization signals with each other, and synchronize the radiation irradiation operation and the image reading operation.

〔撮影用コンソール2の構成〕
撮影用コンソール2は、放射線照射条件や画像読取条件を撮影装置1に出力して撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御するとともに、撮影装置1により取得された動態画像を撮影技師等の撮影実施者によるポジショニングの確認や診断に適した画像であるか否かの確認用に表示する。
撮影用コンソール2は、図1に示すように、制御部21、記憶部22、操作部23、表示部24、通信部25を備えて構成され、各部はバス26により接続されている。
[Configuration of imaging console 2]
The imaging console 2 outputs radiation irradiation conditions and image reading conditions to the imaging device 1 to control the radiation imaging and the radiation image reading operation of the imaging device 1 and, at the same time, captures the dynamic image acquired by the imaging device 1 It is displayed for confirmation as to whether or not the image is suitable for the confirmation of the positioning and the diagnosis by the photographer.
As shown in FIG. 1, the imaging console 2 includes a control unit 21, a storage unit 22, an operation unit 23, a display unit 24, and a communication unit 25, and the units are connected by a bus 26.

制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory
)等により構成される。制御部21のCPUは、操作部23の操作に応じて、記憶部22に記憶されているシステムプログラムや各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って後述する撮影制御処理を始めとする各種処理を実行し、撮影用コンソール2各部の動作や、撮影装置1の放射線照射動作及び読み取り動作を集中制御する。
The control unit 21 includes a central processing unit (CPU) and a random access memory (RAM).
And so on. The CPU of the control unit 21 reads out the system program and various processing programs stored in the storage unit 22 according to the operation of the operation unit 23, develops the program in the RAM, and performs photographing control processing described later according to the developed program. The various processes to be performed are executed to centrally control the operation of each part of the imaging console 2 and the radiation irradiation operation and the reading operation of the imaging device 1.

記憶部22は、不揮発性の半導体メモリーやハードディスク等により構成される。記憶部22は、制御部21で実行される各種プログラムやプログラムにより処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。例えば、記憶部22は、図2に示す撮影制御処理を実行するためのプログラムを記憶している。また、記憶部22は、検査対象部位(ここでは、胸部とする)に対応付けて放射線照射条件及び画像読取条件を記憶している。各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部21は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 22 is configured by a non-volatile semiconductor memory, a hard disk or the like. The storage unit 22 stores data such as parameters necessary for execution of processing by the various programs or programs executed by the control unit 21 or processing results. For example, the storage unit 22 stores a program for executing the photographing control process shown in FIG. Further, the storage unit 22 stores the radiation irradiation condition and the image reading condition in association with the examination target site (here, the chest). The various programs are stored in the form of readable program code, and the control unit 21 sequentially executes operations according to the program code.

操作部23は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された指示信号を制御部21に出力する。また、操作部23は、表示部24の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部21に出力する。   The operation unit 23 includes a keyboard having cursor keys, numeric input keys, various function keys and the like, and a pointing device such as a mouse, and controls a command signal input by key operation on the keyboard or mouse operation. Output to 21 In addition, the operation unit 23 may include a touch panel on the display screen of the display unit 24. In this case, the operation unit 23 outputs an instruction signal input via the touch panel to the control unit 21.

表示部24は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等のモニターにより構成され、制御部21から入力される表示信号の指示に従って、操作部23からの入力指示やデータ等を表示する。   The display unit 24 is configured of a monitor such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and displays an input instruction or data from the operation unit 23 according to an instruction of a display signal input from the control unit 21. Do.

通信部25は、LANアダプターやモデムやTA(Terminal Adapter)等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。   The communication unit 25 includes a LAN adapter, a modem, a TA (Terminal Adapter), and the like, and controls data transmission and reception with each device connected to the communication network NT.

〔診断用コンソール3の構成〕
診断用コンソール3は、撮影用コンソール2から取得した動態画像においてユーザーが指定した注目領域の大きさや画像特徴量を基準とした検索条件で動態画像から領域抽出を行い、抽出された領域を表示して医師の診断を支援するための装置である。
診断用コンソール3は、図1に示すように、制御部31、記憶部32、操作部33、表示部34、通信部35を備えて構成され、各部はバス36により接続されている。
[Configuration of console 3 for diagnosis]
The diagnostic console 3 performs area extraction from the dynamic image in the dynamic image acquired from the imaging console 2 under the search condition based on the size of the attention area designated by the user and the image feature amount, and displays the extracted area Is a device for assisting the diagnosis of a doctor.
As shown in FIG. 1, the diagnostic console 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, and a communication unit 35, and the respective units are connected by a bus 36.

制御部31は、CPU、RAM等により構成される。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って、領域抽出処理Aを始めとする各種処理を実行し、診断用コンソール3の各部の動作を集中制御する。制御部31は、サイズ取得手段、特徴量算出手段、検索条件生成手段、抽出手段として機能する。   The control unit 31 includes a CPU, a RAM, and the like. The CPU of the control unit 31 reads out the system program stored in the storage unit 32 and various processing programs in response to the operation of the operation unit 33, develops the program in the RAM, and executes the area extraction process A according to the expanded program. And various other processes are performed to centrally control the operation of each part of the diagnostic console 3. The control unit 31 functions as a size acquisition unit, a feature quantity calculation unit, a search condition generation unit, and an extraction unit.

記憶部32は、不揮発性の半導体メモリーやハードディスク等により構成される。記憶部32は、制御部31で差分画像表示処理Aを実行するためのプログラムを始めとする各種プログラムやプログラムによる処理の実行に必要なパラメーター、或いは処理結果等のデータを記憶する。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 32 is configured by a non-volatile semiconductor memory, a hard disk or the like. The storage unit 32 stores various programs including a program for executing the difference image display process A in the control unit 31, parameters necessary for executing the process by the program, and data such as processing results. These various programs are stored in the form of readable program code, and the control unit 31 sequentially executes operations according to the program code.

また、記憶部32には、過去に撮影された動態画像が患者情報(例えば、患者ID、患者の氏名、身長、体重、年齢、性別等)、検査情報(例えば、検査ID、検査日、検査対象部位(ここでは、胸部)等)に対応付けて記憶されている。   Also, in the storage unit 32, dynamic images captured in the past are patient information (for example, patient ID, patient's name, height, weight, age, sex, etc.), examination information (for example, examination ID, examination date, It is stored in association with the target site (here, the chest) or the like.

操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、ユーザーによるキーボードに対するキー操作やマウス操作により入力された指示信号を制御部31に出力する。また、操作部33は、表示部34の表示画面にタッチパネルを備えても良く、この場合、タッチパネルを介して入力された指示信号を制御部31に出力する。操作部33は、領域指定手段、観点指定手段、病変レベル指定手段として機能する。   The operation unit 33 includes a keyboard having cursor keys, numeric input keys, various function keys and the like, and a pointing device such as a mouse, and receives an instruction signal input by a key operation or mouse operation on the keyboard by the user. It is output to the control unit 31. In addition, the operation unit 33 may include a touch panel on the display screen of the display unit 34. In this case, the operation unit 33 outputs an instruction signal input via the touch panel to the control unit 31. The operation unit 33 functions as a region designation unit, a viewpoint designation unit, and a lesion level designation unit.

表示部34は、LCDやCRT等のモニターにより構成され、制御部31から入力される表示信号の指示に従って、各種表示を行う。   The display unit 34 is configured of a monitor such as an LCD or a CRT, and performs various displays in accordance with an instruction of a display signal input from the control unit 31.

通信部35は、LANアダプターやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。   The communication unit 35 includes a LAN adapter, a modem, a TA, and the like, and controls data transmission and reception with each device connected to the communication network NT.

〔診断支援システム100の動作〕
次に、本実施形態における上記診断支援システム100の動作について説明する。
[Operation of Diagnosis Support System 100]
Next, the operation of the diagnosis support system 100 in the present embodiment will be described.

(撮影装置1、撮影用コンソール2の動作)
まず、撮影装置1、撮影用コンソール2による撮影動作について説明する。
図2に、撮影用コンソール2の制御部21において実行される撮影制御処理を示す。撮影制御処理は、制御部21と記憶部22に記憶されているプログラムとの協働により実行される。
(Operation of photographing device 1, photographing console 2)
First, the photographing operation by the photographing device 1 and the photographing console 2 will be described.
FIG. 2 shows the imaging control process executed by the control unit 21 of the imaging console 2. The photographing control process is executed by the cooperation of the control unit 21 and the program stored in the storage unit 22.

まず、撮影実施者により撮影用コンソール2の操作部23が操作され、被検者(被写体M)の患者情報、検査情報の入力が行われる(ステップS1)。   First, the operator of the imaging console 2 operates the operation unit 23 of the imaging console 2 to input patient information and examination information of a subject (subject M) (step S1).

次いで、放射線照射条件が記憶部22から読み出されて放射線照射制御装置12に設定されるとともに、画像読取条件が記憶部22から読み出されて読取制御装置14に設定される(ステップS2)。   Next, radiation irradiation conditions are read from the storage unit 22 and set in the radiation irradiation control device 12, and image reading conditions are read from the storage unit 22 and set in the reading control device 14 (step S2).

次いで、操作部23の操作による放射線照射の指示が待機される(ステップS3)。ここで、撮影実施者は、被写体Mを放射線源11と放射線検出部13の間に配置してポジショニングを行う。また、被検者(被写体M)に対し、呼吸状態を指示する。撮影準備が整った時点で、操作部23を操作して放射線照射指示を入力する。   Next, a radiation irradiation instruction by the operation of the operation unit 23 is on standby (step S3). Here, the photographer performs positioning by placing the subject M between the radiation source 11 and the radiation detection unit 13. In addition, it instructs the subject (subject M) a breathing state. When the imaging preparation is completed, the operation unit 23 is operated to input a radiation irradiation instruction.

操作部23により放射線照射指示が入力されると(ステップS3;YES)、放射線照射制御装置12及び読取制御装置14に撮影開始指示が出力され、動態撮影が開始される(ステップS4)。即ち、放射線照射制御装置12に設定されたパルス間隔で放射線源11により放射線が照射され、放射線検出部13によりフレーム画像が取得される。   When a radiation irradiation instruction is input from the operation unit 23 (step S3; YES), a photographing start instruction is output to the radiation irradiation control device 12 and the reading control device 14, and dynamic imaging is started (step S4). That is, radiation is irradiated by the radiation source 11 at pulse intervals set in the radiation irradiation control device 12, and a frame image is acquired by the radiation detection unit 13.

予め定められたフレーム数の撮影が終了すると、制御部21により放射線照射制御装置12及び読取制御装置14に撮影終了の指示が出力され、撮影動作が停止される。撮影されるフレーム数は、少なくとも1呼吸サイクルが撮影できる枚数である。   When imaging of a predetermined number of frames is completed, the control unit 21 outputs an instruction to finish imaging to the radiation irradiation control device 12 and the reading control device 14, and the imaging operation is stopped. The number of frames to be captured is the number of images that can be captured at least one breathing cycle.

撮影により取得されたフレーム画像は順次撮影用コンソール2に入力され、撮影順を示す番号(フレーム番号)と対応付けて記憶部22に記憶されるとともに(ステップS5)、表示部24に表示される(ステップS6)。撮影実施者は、表示された動態画像によりポジショニング等を確認し、撮影により診断に適した画像が取得された(撮影OK)か、再撮影が必要(撮影NG)か、を判断する。そして、操作部23を操作して、判断結果を入力する。   The frame images acquired by shooting are sequentially input to the shooting console 2 and stored in the storage unit 22 in association with the number (frame number) indicating the shooting order (step S5) and displayed on the display unit 24. (Step S6). The imaging operator confirms positioning and the like based on the displayed dynamic image, and determines whether an image suitable for diagnosis is acquired by imaging (imaging OK) or whether reimaging is necessary (imaging NG). Then, the operation unit 23 is operated to input the determination result.

操作部23の所定の操作により撮影OKを示す判断結果が入力されると(ステップS7;YES)、動態撮影で取得された一連のフレーム画像のそれぞれに、動態画像を識別するための識別IDや、患者情報、検査情報、放射線照射条件、画像読取条件、撮影順を示す番号(フレーム番号)等の情報が付帯され(例えば、DICOM形式で画像データのヘッダ領域に書き込まれ)、通信部25を介して診断用コンソール3に送信される(ステップS8)。そして、本処理は終了する。一方、操作部23の所定の操作により撮影NGを示す判断結果が入力されると(ステップS7;NO)、記憶部22に記憶された一連のフレーム画像が削除され(ステップS9)、本処理は終了する。この場合、再撮影が必要となる。   When a determination result indicating shooting OK is input by a predetermined operation of the operation unit 23 (step S7; YES), an identification ID for identifying a dynamic image or the like in each of a series of frame images acquired by dynamic shooting or Information such as patient information, examination information, radiation irradiation conditions, image reading conditions, numbers indicating the imaging order (frame numbers) is attached (for example, written in the header area of image data in DICOM format), and the communication unit 25 is It is transmitted to the diagnostic console 3 via the interface (step S8). Then, the process ends. On the other hand, when a determination result indicating shooting NG is input by a predetermined operation of the operation unit 23 (step S7; NO), a series of frame images stored in the storage unit 22 are deleted (step S9). finish. In this case, re-shooting is required.

(診断用コンソール3の動作)
次に、診断用コンソール3における動作について説明する。
診断用コンソール3においては、通信部35を介して撮影用コンソール2から動態画像の一連のフレーム画像が受信されると、制御部31と記憶部32に記憶されているプログラムとの協働により領域抽出処理Aが実行される。
(Operation of diagnostic console 3)
Next, the operation of the diagnostic console 3 will be described.
In the diagnostic console 3, when a series of frame images of the dynamic image is received from the imaging console 2 via the communication unit 35, an area is generated by cooperation of the control unit 31 and the program stored in the storage unit 32. Extraction processing A is performed.

図3は、領域抽出処理Aの流れを示すフローチャート、図4は、領域抽出処理Aにおけるユーザー操作を示す図である。以下、図3、4を参照して領域抽出処理Aについて説明する。   FIG. 3 is a flowchart showing the flow of the area extraction process A, and FIG. 4 is a diagram showing user operation in the area extraction process A. The region extraction processing A will be described below with reference to FIGS.

まず、受信した動態画像が表示部34の領域指定画面に表示される(ステップS11)。
領域指定画面は、動態画像からユーザーが注目領域を指定するための画面であり、例えば、受信した動態画像のフレーム画像が操作部33により順次切り替え表示可能に表示される。
ユーザーは、表示された動態画像の各フレーム画像を観察し、病変の疑いのある注目領域があった場合、操作部33のポインティングデバイスによりフレーム画像上の注目領域の位置を指定する。例えば、操作部33のポインティングデバイスにより注目領域を囲む。この注目領域を指定するときの操作部33のポインティングデバイスの動作(ジェスチャー)により、注目領域より重篤な領域、同等な領域、軽微な領域のいずれの病変レベルの領域を動態画像から抽出するかを指定することができる。例えば、注目領域の下側から上方向に向かって注目領域を囲んだ場合、注目領域より重篤な領域の抽出を指定することができる。注目領域の上側から下方向に向かって注目領域を囲んだ場合、注目領域より軽微な領域の抽出を指定することができる。注目領域の横方向から注目領域を囲んだ場合、注目領域と同等の領域の抽出を指定することができる。すなわち、病変レベルの指定を注目領域の指定と同時に効率良く行うことができる。
First, the received dynamic image is displayed on the area designation screen of the display unit 34 (step S11).
The area designation screen is a screen for the user to designate the attention area from the dynamic image, and for example, the frame image of the received dynamic image is displayed by the operation unit 33 so as to be sequentially switched and displayed.
The user observes each frame image of the displayed dynamic image, and if there is a focused area suspected of being a lesion, the pointing device of the operation unit 33 designates the position of the focused area on the frame image. For example, the region of interest is surrounded by the pointing device of the operation unit 33. Based on the operation (gesture) of the pointing device of the operation unit 33 when this attention area is specified, which of the lesion level areas more serious than the attention area, the equivalent area, and the slight area is extracted from the dynamic image Can be specified. For example, when the attention area is surrounded from the lower side to the upper side of the attention area, extraction of a more severe area than the attention area can be designated. When the attention area is surrounded from the upper side to the lower side of the attention area, extraction of a smaller area than the attention area can be designated. When the attention area is surrounded from the lateral direction of the attention area, extraction of an area equivalent to the attention area can be designated. That is, designation of a lesion level can be efficiently performed simultaneously with designation of a region of interest.

次いで、操作部33により動態画像の少なくとも一つのフレーム画像から注目領域が指定されたか否かが判断される(ステップS12)。
注目領域が指定されたと判断された場合(ステップS12;YES)、表示部34に表示されているフレーム画像の指定された領域にアノテーションが付与される(ステップS13)。
Next, it is determined by the operation unit 33 whether or not the attention area is designated from at least one frame image of the dynamic image (step S12).
When it is determined that the attention area is designated (step S12; YES), an annotation is attached to the designated area of the frame image displayed on the display unit 34 (step S13).

図4のG1に、指定された注目領域にアノテーションA1が付与されたフレーム画像の一例を示す。図4のG1おいては、指定された注目領域が実線の丸のアノテーションA1で囲まれた場合を例として示している。
なお、操作部33により指定された領域そのものではなく、指定された領域の一部領域、又は近傍の画素を含めた領域を指定された注目領域として認識してもよい。例えば、指定された領域内の画素信号値の範囲内の画素信号値が隣接する領域に存在する場合は、その領域を含めて注目領域として認識してもよい。これにより、注目領域の指定の精度を向上させることができる。
G1 in FIG. 4 shows an example of a frame image in which the annotation A1 is added to the designated focused area. In G1 of FIG. 4, the case where the designated attention area is surrounded by solid-line circle annotation A1 is shown as an example.
Note that not the area designated by the operation unit 33 itself, but a partial area of the designated area or an area including pixels in the vicinity may be recognized as the designated attention area. For example, when pixel signal values within the range of pixel signal values within a designated area exist in an adjacent area, the area may be included and recognized as an attention area. As a result, it is possible to improve the specification accuracy of the attention area.

次いで、注目領域指定時の操作部33のポインティングデバイスの動作が解析され、注目領域指定時のポインティングデバイスの動作に基づいて、動態画像から抽出する領域の注目領域と比較した病変レベルが特定される(ステップS14)。
例えば、操作部33のポインティングデバイスにより注目領域の下側から上方向に向かって注目領域が囲まれた場合、抽出する領域の病変レベルが注目領域より重篤と特定される。注目領域の上側から下方向に向かって注目領域が囲まれた場合、抽出する領域の病変レベルが注目領域より軽微と特定される。注目領域の横方向から注目領域が囲まれた場合、抽出する領域の病変レベルが注目領域と同等と特定される。
Next, the operation of the pointing device of the operation unit 33 at the time of specification of the attention area is analyzed, and based on the operation of the pointing device at the time of specification of the attention area, the lesion level compared with the attention area of the area extracted from the dynamic image is identified. (Step S14).
For example, when the region of interest is surrounded upward from the lower side of the region of interest by the pointing device of the operation unit 33, the lesion level of the region to be extracted is specified more severe than the region of interest. When the attention area is surrounded from the upper side to the lower side of the attention area, the lesion level of the extraction area is specified to be smaller than the attention area. When the region of interest is surrounded in the lateral direction of the region of interest, the lesion level of the region to be extracted is identified as being equal to the region of interest.

次いで、指定された注目領域の大きさ(サイズ)が計測される。例えば、指定された注目領域内の画素数に基づいて、指定された注目領域のサイズが計測される(ステップS15)。   Next, the size (size) of the designated region of interest is measured. For example, the size of the designated focused area is measured based on the number of pixels in the designated focused area (step S15).

次いで、指定された注目領域の近傍に、いずれの観点からその領域に注目したのかをユーザーが選択するためのメニューM1が表示され、注目領域を指定したときの観点の指定が受け付けられる(ステップS16)。観点としては、図4のメニューM1に示すように、例えば、換気、血流、腫瘍の中から指定可能である。複数の指定も可能である。   Next, a menu M1 for the user to select from which point of view the area is selected is displayed in the vicinity of the designated area of interest, and designation of the point of view when the area of interest is specified is accepted (step S16) ). As a viewpoint, as shown in the menu M1 of FIG. 4, for example, ventilation, blood flow, and tumor can be designated. Multiple designations are also possible.

次いで、指定された注目領域について、指定された観点に応じた画像特徴量が算出される(ステップS17)。
以下、観点が換気、血流、腫瘍のそれぞれの場合についての画像特徴量の算出例について説明する。ここで、換気、血流については、指定された注目領域の画素信号値の時間変化に基づく画像特徴量が算出される。腫瘍については、指定された注目領域の指定されたフレーム画像における画像特徴量を算出する(ケース1とする)としてもよいし、指定された注目領域の画素信号値の時間変化に基づく画像特徴量を算出する(ケース2とする)としてもよい。いずれの画像特徴量を算出するかは、予めユーザーの操作に応じて設定可能である。
Next, an image feature amount according to the designated viewpoint is calculated for the designated attention area (step S17).
Hereinafter, an example of calculation of the image feature amount in each of the cases of ventilation, blood flow, and tumor will be described. Here, with regard to ventilation and blood flow, image feature quantities based on temporal changes in pixel signal values of a designated attention area are calculated. For a tumor, an image feature amount in a designated frame image of a designated region of interest may be calculated (case 1), or an image feature amount based on a temporal change of pixel signal values of the designated region of interest May be calculated (case 2). It is possible to set in advance which image feature amount to calculate according to the user's operation.

(1)観点が換気の場合
まず、動態画像の画素信号値に時間方向のローパスフィルター処理を施す。具体的には、動態画像の画素毎に画素信号値の時間変化を求めて時間方向のローパスフィルター(例えば、高域カットオフ周波数0.85Hz)によりフィルタリングする。これにより、血流等による高周波成分を除去して換気の信号成分を取得することができる。なお、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してからローパスフィルター処理を行うこととしてもよい。
次いで、指定された注目領域をフレーム画像間で対応付ける。例えば、指定された注目領域と同じ画素位置(座標)の領域を他のフレーム画像における注目領域として対応付ける。
そして、各フレーム画像の注目領域において、画素信号値の平均を算出し、基準となるフレーム画像(例えば、最大呼気位や最大吸気位)における画素信号値の平均と各フレーム画像における画素信号値の平均との差分値を算出し、算出した差分の最大値(絶対値)を換気に係る注目領域の画像特徴量として算出する。この画像特徴量は、換気機能が十分に働いているほど大きい(高い)値を示す。すなわち、この画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
(1) When the viewpoint is ventilation First, low-pass filter processing in the time direction is performed on pixel signal values of the dynamic image. Specifically, the temporal change of the pixel signal value is obtained for each pixel of the dynamic image, and filtering is performed with a low pass filter (for example, high frequency cutoff frequency 0.85 Hz) in the time direction. Thereby, the high frequency component by a blood flow etc. can be removed and the signal component of ventilation can be acquired. In addition, the low-pass filter processing is performed after performing the well-known local matching processing and warping processing (refer to JP 2012-5729 A) between the frame images to correct the positional deviation of the lung field between the frame images. It is also good.
Next, the designated regions of interest are associated between the frame images. For example, an area at the same pixel position (coordinates) as the designated area of interest is associated as an area of interest in another frame image.
Then, in the attention area of each frame image, the average of the pixel signal values is calculated, and the average of the pixel signal values in the reference frame image (for example, maximum expiratory position and maximum inspiratory position) and the pixel signal values in each frame image are calculated. A difference value with the average is calculated, and the maximum value (absolute value) of the calculated difference is calculated as an image feature amount of the attention area related to ventilation. This image feature value indicates a large (high) value as the ventilation function works sufficiently. That is, the larger the image feature amount is, the smaller the lesion is, and the smaller the smaller the lesion is.

(2)観点が血流の場合
まず、動態画像の画素信号値に時間方向のハイパスフィルター処理を施す。具体的には、動態画像の画素毎に画素信号値の時間変化を求めて時間方向のハイパスフィルター(例えば、低域カットオフ周波数0.80Hz)によりフィルタリングする。これにより、換気等による低周波成分を除去して血流の信号成分を取得することができる。なお、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してからハイパスフィルター処理を行うこととしてもよい。
次いで、指定された注目領域をフレーム画像間で対応付ける。例えば、指定された注目領域と同じ画素位置(座標)の領域を他のフレーム画像における注目領域として対応付ける。
そして、各フレーム画像の注目領域において、画素信号値の平均を算出し、隣接するフレーム画像間における画素信号値の平均の差分値を算出し、算出した差分の最大値(絶対値)を血流に係る注目領域の画像特徴量として算出する。この画像特徴量は、血流機能が十分に働いているほど大きい(高い)値を示す。すなわち、この画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
あるいは、各フレーム画像の注目領域において、画素信号値の平均を算出し、基準となるフレーム画像(例えば、心臓が最も拡張した位相)における画素信号値の平均と各フレーム画像における画素信号値の平均との差分値を算出し、算出した差分の最大値(絶対値)を血流に係る注目領域の画像特徴量として算出する。この画像特徴量は、血流機能が十分に働いているほど大きい(高い)値を示す。すなわち、この画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
(2) When the viewpoint is blood flow First, high-pass filter processing in the time direction is performed on pixel signal values of the dynamic image. Specifically, the temporal change of the pixel signal value is obtained for each pixel of the dynamic image, and the filtering is performed with a high pass filter (for example, low cutoff frequency 0.80 Hz) in the time direction. Thereby, the low frequency component by ventilation etc. can be removed and the signal component of a blood flow can be acquired. In addition, as high-pass filter processing is performed after correcting positional deviation of the lung field region between frame images by performing known local matching processing and warping processing (refer to JP 2012-5729 A) between frame images. It is also good.
Next, the designated regions of interest are associated between the frame images. For example, an area at the same pixel position (coordinates) as the designated area of interest is associated as an area of interest in another frame image.
Then, in the attention area of each frame image, the average of pixel signal values is calculated, the difference value of the average of pixel signal values between adjacent frame images is calculated, and the calculated maximum value (absolute value) It calculates as an image feature quantity of the attention field which concerns on. This image feature value indicates a large (high) value as the blood flow function works sufficiently. That is, the larger the image feature amount is, the smaller the lesion is, and the smaller the smaller the lesion is.
Alternatively, in the region of interest of each frame image, the average of pixel signal values is calculated, and the average of pixel signal values in the reference frame image (for example, the phase where the heart expanded most) and the average of pixel signal values in each frame image And the maximum value (absolute value) of the calculated difference is calculated as the image feature amount of the region of interest related to the blood flow. This image feature value indicates a large (high) value as the blood flow function works sufficiently. That is, the larger the image feature amount is, the smaller the lesion is, and the smaller the smaller the lesion is.

(3)観点が腫瘍の場合
(3−1)ケース1
まず、指定された注目領域(指定が行われたフレーム画像における注目領域)の各画素について腫瘍らしさを示す評価値を算出し、算出した評価値の平均を指定された注目領域の画像特徴量として算出する。腫瘍らしさを示す評価値は特に限定されないが、例えば、特許第2582666号に記載の評価値等の公知の評価値を用いることができる。
(3−2)ケース2
まず、指定された注目領域をフレーム画像間で対応付ける。例えば、指定された注目領域と同じ画素位置(座標)の領域を他のフレーム画像における注目領域として対応付ける。あるいは、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してから、指定された注目領域と同じ画素位置の領域を他のフレーム画像における注目領域として対応付けることとしてもよい。
次いで、フレーム画像の注目領域内の各画素の画素信号値の平均を求め、算出した画素信号値(平均)の(最大値−最小値)を腫瘍における注目領域の画像特徴量として算出する。画素信号値の時間変化が少ない腫瘍は、より硬い、または他の臓器などに癒着している等、悪性の可能性が高い。反対に、画素信号値の時間変化が大きい腫瘍は、柔らかくてよく動く等、良性の可能性が高い。すなわち、算出した画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
あるいは、フレーム画像の注目領域内の各画素の画素信号値の平均の、フレーム画像間の分散を算出し、算出した分散の値を腫瘍に係る注目領域の画像特徴量として算出することとしてもよい。算出した分散が大きいほど柔らかくて良く動くため、軽微の可能性が高い。算出した分散が小さいほど硬い、または他の臓器に癒着している等、悪性の可能性が高い。すなわち、算出した画像特徴量は、大きいほど病変が軽微、小さいほど重篤であることを示す。
(3) When the viewpoint is a tumor (3-1) Case 1
First, an evaluation value indicating a tumor likeness is calculated for each pixel of a designated attention area (an attention area in a designated frame image), and an average of the calculated evaluation values is used as an image feature amount of the designated attention area. calculate. There is no particular limitation on the evaluation value indicating the tumor-likeness, but, for example, a known evaluation value such as the evaluation value described in Japanese Patent No. 2582666 can be used.
(3-2) Case 2
First, the designated regions of interest are associated between the frame images. For example, an area at the same pixel position (coordinates) as the designated area of interest is associated as an area of interest in another frame image. Alternatively, after performing known local matching processing and warping processing (refer to JP 2012-5729A) between frame images to correct the positional deviation of the lung field region between the frame images, the designated attention region An area at the same pixel position may be associated as an attention area in another frame image.
Next, an average of pixel signal values of each pixel in the attention area of the frame image is obtained, and (maximum value-minimum value) of the calculated pixel signal value (average) is calculated as an image feature amount of the attention area in the tumor. Tumors with less temporal change in pixel signal values are more likely to be malignant, such as being harder or adhering to other organs. Conversely, tumors with large temporal changes in pixel signal values are likely to be benign, such as being soft and moving well. That is, the larger the calculated image feature amount, the smaller the lesion is, and the smaller the lesion is.
Alternatively, the variance between frame images of the average of the pixel signal value of each pixel in the focus area of the frame image may be calculated, and the value of the calculated variance may be calculated as the image feature amount of the focus area related to the tumor. . The greater the calculated variance, the more likely it is to move softer and better. The smaller the calculated variance, the harder it is or adhesion to other organs is likely to be malignant. That is, the larger the calculated image feature amount, the smaller the lesion is, and the smaller the lesion is.

次いで、指定された注目領域の大きさと算出した画像特徴量を用いて、動態画像から抽出する領域の検索条件が生成される(ステップS18)。
例えば、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい(同等又は小さい)領域を動態画像から抽出する領域の検索条件として生成する。なお、注目領域の大きさに対し、何%UP、何%DOWNしたサイズまでを同等とみなすかは、ユーザーが予め設定しておくことができる。また、画像特徴量が注目領域の画像特徴量より大きい領域を抽出するか、同等の領域を抽出するか、又は小さい領域を抽出するかは、ステップS14で特定された抽出する領域の病変レベル及びステップS17で算出した注目領域の画像特徴量の種類の組み合わせにより決定される。
Next, a search condition of a region to be extracted from the dynamic image is generated using the designated size of the noted region and the calculated image feature amount (step S18).
For example, a region having a size substantially equal to the size of the region of interest, which is larger (equal to or smaller than) the image feature amount of the region of interest, is generated as a search condition of the region for extracting from the dynamic image. Note that the user can set in advance what percentage up and percentage down sizes are regarded as equal to the size of the attention area. In addition, whether the image feature quantity extracts an area larger than the image feature quantity of the attention area, extracts an equal area, or extracts a smaller area, the lesion level of the area to be extracted identified in step S14 and It is determined by a combination of types of image feature amounts of the region of interest calculated in step S17.

例えば、注目領域について算出された画像特徴量が基準となるフレーム画像(例えば、最大呼気位や最大吸気位)における注目領域の画素信号値の平均と各フレーム画像における注目領域の画素信号値の平均との差分値の最大値であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。   For example, an average of pixel signal values of a region of interest in a frame image (for example, maximum expiratory position or maximum inspiratory position) in which an image feature value calculated for a region of interest is a reference and an average of pixel signal values of a region of interest in each frame image The image feature is smaller than the image feature of the region of interest, which is the maximum value of the difference value between the two and the size of the region of interest when the designated lesion level is severe. An area is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest, which is larger than the image feature amount of the region of interest, is generated as the search condition.

例えば、注目領域について算出された画像特徴量が隣接するフレーム画像間における注目領域の画素信号値の平均の差分値の最大値であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。   For example, if the image feature value calculated for the region of interest is the maximum value of the average difference value of pixel signal values of the region of interest between adjacent frame images, and the designated lesion level is severe, A region having a size substantially equal to the size and having an image feature smaller than the image feature of the region of interest is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest, which is larger than the image feature amount of the region of interest, is generated as the search condition.

例えば、注目領域について算出された画像特徴量が上述の腫瘍観点のケース1の画像特徴量であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。   For example, when the image feature quantity calculated for the attention area is the image feature quantity of case 1 of the above-mentioned tumor viewpoint, and the designated lesion level is severe, an area of approximately the same size as the size of the attention area That is, a region where the image feature amount is larger than the image feature amount of the region of interest is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest and in which the image feature amount is smaller than the image feature amount of the region of interest is generated as a search condition.

例えば、注目領域について算出された画像特徴量が上述の腫瘍観点のケース2の(最大値−最小値)であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。   For example, if the image feature value calculated for the region of interest is (maximum value-minimum value) in case 2 of the above-mentioned tumor viewpoint, and the designated lesion level is severe, the size of the region of interest is approximately equal. An area having a size that is smaller than the image feature quantity of the attention area is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest, which is larger than the image feature amount of the region of interest, is generated as the search condition.

例えば、注目領域について算出された画像特徴量が上述の腫瘍観点のケース2の分散であり、指定された病変レベルが重篤である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より小さい領域が検索条件として生成される。指定された病変レベルが同等である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量と同等の領域が検索条件として生成される。指定された病変レベルが軽微である場合、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい領域が検索条件として生成される。   For example, when the image feature value calculated for the region of interest is the variance of Case 2 of the above-mentioned tumor viewpoint, and the designated lesion level is severe, the region is approximately equal in size to the size of the region of interest. Thus, an area where the image feature quantity is smaller than the image feature quantity of the attention area is generated as a search condition. If the designated lesion level is equal, a region having a size substantially equal to the size of the region of interest, and in which the image feature amount is equal to the image feature amount of the region of interest is generated as a search condition. When the designated lesion level is minor, a region having a size substantially equal to the size of the region of interest, which is larger than the image feature amount of the region of interest, is generated as the search condition.

なお、抽出する領域は、検索条件に合致する領域のうち、規定数分の領域としてもよい。例えば、注目領域より大きい画像特徴量を検索した場合は、画像特徴量の大きいものから規定数分の領域を抽出し、注目領域より小さい画像特徴量を検索した場合は、画像特徴量の小さいものから規定数分の領域を抽出することとしてもよい。また、算出される画像特徴量が肺野の領域によってトレンドがある(例えば、上肺より下肺の方が大きい等)場合、トレンドを補正する処理を行ってもよい。   The regions to be extracted may be defined as a predetermined number of regions among the regions matching the search condition. For example, when an image feature quantity larger than the attention area is searched, areas for a prescribed number are extracted from those having a large image feature quantity, and when an image feature quantity smaller than the attention area is searched, an image feature quantity is small A predetermined number of regions may be extracted from In addition, when the calculated image feature quantity has a trend depending on the region of the lung field (for example, the lower lung is larger than the upper lung, etc.), the trend may be corrected.

次いで、動態画像から、生成された検索条件に該当する領域の抽出が行われる(ステップS19)。
例えば、図5に示すように、注目領域から算出された画像特徴量が上述の換気又は血流に係る画像特徴量である場合、動態画像の左上から位置を1画素ずつずらしながら、検索条件で指定された大きさの探索領域を設定し、設定した探索領域について、注目領域について算出した画像特徴量と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量の値の大小関係が検索条件に合致する(該当する)領域を抽出する。
例えば、注目領域から算出された画像特徴量が腫瘍に係る上述のケース1の画像特徴量である場合、動態画像の各フレーム画像に対し、例えば、公知の異常陰影候補検出処理を行い、腫瘍の疑いのある異常陰影候補領域を検出する。異常陰影候補検出処理としては、例えば、特許第2582666号に記載の手法等を用いることができる。そして、検出された各異常陰影候補領域のうち、大きさが検索条件に合致する領域について、注目領域と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量の大小関係が検索条件に合致する領域を抽出する。
例えば、注目領域から算出された画像特徴量が腫瘍に係る上述のケース2の画像特徴量である場合、動態画像の一のフレーム画像に対し、例えば、公知の異常陰影候補検出処理を行い、腫瘍の疑いのある異常陰影候補領域を検出する。異常陰影候補検出処理としては、例えば、特許第2582666号に記載の手法等を用いることができる。次いで、検出された異常陰影候補領域のうち、大きさが検索条件に合致する領域について、注目領域と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量の大小関係が検索条件に合致する領域を抽出する。
なお、検索する領域は、肺野領域のみとしてもよい。
Next, an area corresponding to the generated search condition is extracted from the dynamic image (step S19).
For example, as shown in FIG. 5, when the image feature calculated from the attention area is the image feature related to the above-mentioned ventilation or blood flow, the search condition is shifted while the position is shifted by one pixel from the upper left of the dynamic image. A search area of a designated size is set, and for the set search area, the same image feature quantity as the image feature quantity calculated for the attention area is calculated, and the calculated image feature quantity and the value of the image feature quantity of the attention area Extract regions where the magnitude relationship matches the search condition.
For example, when the image feature quantity calculated from the region of interest is the image feature quantity of the above case 1 of a tumor, for example, known abnormal shadow candidate detection processing is performed on each frame image of the dynamic image to Detect a suspected abnormal shadow candidate area. As the abnormal shadow candidate detection process, for example, the method described in Japanese Patent No. 2582666 can be used. Then, for each of the detected abnormal shadow candidate areas, for the area whose size matches the search condition, the same image feature quantity as the attention area is calculated, and the calculated image feature quantity and the size relation of the image characteristic quantity of the attention area Extracts the region that matches the search condition.
For example, if the image feature calculated from the region of interest is the image feature of Case 2 described above pertaining to a tumor, for example, a known abnormal shadow candidate detection process is performed on one frame image of the dynamic image, and the tumor is An abnormal shadow candidate area suspected of being detected. As the abnormal shadow candidate detection process, for example, the method described in Japanese Patent No. 2582666 can be used. Next, among the detected abnormal shadow candidate areas, the image feature quantity that is the same as the attention area is calculated for the area whose size matches the search condition, and the calculated image feature quantity and the image feature quantity of the attention area have a magnitude relationship. Extract the region that matches the search condition.
The region to be searched may be only the lung region.

そして、抽出された領域が表示部34に表示され(ステップS20)、領域抽出処理Aは終了する。   Then, the extracted area is displayed on the display unit 34 (step S20), and the area extraction processing A ends.

図6A、図6Bに、ステップS20において表示される領域抽出結果の一例を示す。図6Aは、換気、血流、腫瘍が観点として指定された場合であって、左上肺に換気観点で領域が抽出され、左肺下に血流観点で領域が抽出された場合の表示例を示している。図6Bにおいては、腫瘍が観点として指定された場合であって、注目領域を指定したフレーム画像とは異なるタイミングで撮影されたフレーム画像の右中肺に領域が抽出された場合の表示例を示している。なお、ステップS16で観点を選択するために表示されたメニューM1における各観点のパターン(色)と、検索結果を示すアノテーションのパターン(色)は対応している。   6A and 6B show an example of the area extraction result displayed in step S20. FIG. 6A shows a display example in which ventilation, blood flow, and tumor are designated as viewpoints, and an area is extracted from the ventilation viewpoint in the upper left lung and an area is extracted from the blood flow viewpoint in the lower left lung. It shows. FIG. 6B shows a display example in the case where a tumor is designated as a viewpoint and a region is extracted in the right middle lung of a frame image captured at a timing different from that of the frame image designated the region of interest. ing. The pattern (color) of each viewpoint in the menu M1 displayed to select the viewpoint in step S16 corresponds to the pattern (color) of the annotation indicating the search result.

このように、第1の実施形態における診断用コンソール3によれば、動態画像のフレーム画像からユーザーが指定した注目領域の大きさ及び画像特徴量に基づいて、抽出する領域の検索条件を生成し、生成した検索条件に基づいて抽出された領域を表示部34に表示された動態画像上で識別可能に表示する。したがって、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断を支援することが可能となる。
また、換気、血流、腫瘍のうちいずれの観点に注目して注目領域を指定したのかをユーザーが指定するためのメニューM1を表示し、注目領域の大きさ及び指定された観点に応じた画像特徴量に基づいて検索を行うので、ユーザーが注目している観点の病変の領域をユーザーに提示することが可能となる。
また、ユーザーが指定した病変レベル(注目領域と比較して重篤か、同等か又は軽微か)に基づいて検索を行うので、ユーザーが所望する病変レベルの領域を抽出してユーザーに提示することが可能となる。病変レベルは、ユーザーが注目領域を指定するときのポインティングデバイスの動作により病変レベルを指定することができるので、病変レベルの指定を効率良く行うことができる。
As described above, according to the diagnostic console 3 in the first embodiment, the search condition of the area to be extracted is generated based on the size of the notable area and the image feature amount designated by the user from the frame image of the dynamic image. The area extracted based on the generated search condition is identifiably displayed on the dynamic image displayed on the display unit. Therefore, it is possible to support an efficient diagnosis without an oversight based on a user-designated attention area.
In addition, a menu M1 is displayed for the user to designate which of the ventilation, blood flow, and tumor viewpoints the attention region has been designated, and an image according to the size of the attention region and the designated viewpoint Since the search is performed based on the feature amount, it is possible to present to the user the lesion area of the viewpoint that the user is focusing on.
In addition, since the search is performed based on the user-specified lesion level (whether it is serious, equal to, or less than the region of interest), the region of the lesion level desired by the user is extracted and presented to the user Is possible. Since the lesion level can be designated by the operation of the pointing device when the user designates the region of interest, the lesion level can be designated efficiently.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態では、動態画像の解析結果画像からユーザーが指定した注目領域の大きさ及び画像特徴量に基づいて、抽出する領域の検索条件を生成し、生成した検索条件に基づいて、解析結果画像からユーザーに提示する領域を抽出する例について説明する。
Second Embodiment
Next, a second embodiment of the present invention will be described.
In the second embodiment, the search condition of the region to be extracted is generated from the analysis result image of the dynamic image based on the size of the region of interest specified by the user and the image feature amount, and the analysis is performed based on the generated search condition. An example of extracting a region to be presented to the user from the result image will be described.

第2の実施形態における構成は、診断用コンソール3の記憶部32に領域抽出処理Bを実行するためのプログラムが記憶されている他は、第1の実施形態で説明したものと同様であるので説明を援用する。また、第2の実施形態における撮影装置1及び撮影用コンソール2の動作も第1の実施形態で説明したものであるので説明を援用し、以下、診断用コンソール3において実行される領域抽出処理Bについて説明する。   The configuration in the second embodiment is the same as that described in the first embodiment, except that a program for executing the area extraction process B is stored in the storage unit 32 of the diagnostic console 3. Use the explanation. Further, the operations of the imaging apparatus 1 and the imaging console 2 in the second embodiment are the same as those described in the first embodiment, and therefore, the description will be used. Will be explained.

図7は、第2の実施形態において、診断用コンソール3により実行される領域抽出処理Bを示すフローチャートである。領域抽出処理Bは、制御部31と記憶部32に記憶されているプログラムとの協働により実行される。   FIG. 7 is a flowchart showing an area extraction process B performed by the diagnostic console 3 in the second embodiment. The area extraction processing B is executed by cooperation of the control unit 31 and the program stored in the storage unit 32.

まず、受信した動態画像に解析処理が施され、解析結果画像が生成される(ステップS21)。解析結果画像は、動態画像に対し、画素毎又は複数画素のブロック毎に換気や血流の機能の解析を行ったときの解析結果を示す画像である。
ステップS21においては、例えば、表示部34に換気機能に係る解析を行うのか血流機能に係る解析を行うのかを選択するためのメニュー画面が表示され、操作部33により選択された種類の解析が実行される。
First, analysis processing is performed on the received dynamic image to generate an analysis result image (step S21). The analysis result image is an image showing an analysis result when analysis of the function of ventilation or blood flow is performed for each pixel or for each block of a plurality of pixels with respect to the dynamic image.
In step S21, for example, a menu screen for selecting whether to analyze the ventilation function or the blood flow function is displayed on the display unit 34, and the type of analysis selected by the operation unit 33 is displayed. To be executed.

例えば、換気機能に係る解析が選択された場合、ステップS21においては、まず、動態画像の肺野領域内に時間方向のローパスフィルター処理が施される。具体的には、動態画像の画素毎に画素信号値の時間変化を求めて時間方向のローパスフィルター(例えば、高域カットオフ周波数0.85Hz)によりフィルタリングする。次いで、ローパスフィルター処理後の動態画像における複数のフレーム画像間において同じ位置(座標)の画素又は複数画素のブロックが互いに対応付けされる。そして、動態画像の各フレーム画像における画素毎又は複数画素のブロック毎に画素信号値(ブロックの場合は画素信号値の平均値)の基準フレーム画像(例えば、最大呼気位のフレーム画像又は最大吸気位のフレーム画像)との差分値(絶対値)が算出され、各画素の画素信号値が前記差分値からなる解析結果画像が生成される。   For example, when the analysis relating to the ventilation function is selected, first, low-pass filter processing in the time direction is performed in the lung region of the dynamic image in step S21. Specifically, the temporal change of the pixel signal value is obtained for each pixel of the dynamic image, and filtering is performed with a low pass filter (for example, high frequency cutoff frequency 0.85 Hz) in the time direction. Next, pixels or blocks of pixels at the same position (coordinates) are associated with one another among a plurality of frame images in the dynamic image after low-pass filter processing. Then, a reference frame image (for example, a frame image of maximum exhalation position or maximum inspiratory position) of pixel signal values (average value of pixel signal values in the case of blocks) for each pixel or each block of plural pixels in each frame image of dynamic image The difference value (absolute value) with the frame image of 1) is calculated, and an analysis result image in which the pixel signal value of each pixel is the difference value is generated.

また、例えば、血流機能に係る解析が選択された場合、ステップS21においては、まず、動態画像の肺野領域内に時間方向のハイパスフィルター処理が施される。具体的には、動態画像の画素毎に信号値の時間変化を求めて時間方向のハイパスフィルター(例えば、低域カットオフ周波数0.80Hz)によりフィルタリングする。次いで、ハイパスフィルター処理後の動態画像における複数のフレーム画像間において同じ位置(座標)の画素又は複数画素のブロックが互いに対応付けされる。そして、動態画像の各フレーム画像の画素毎又は複数画素のブロック毎に、隣り合うフレーム画像との画素信号値(ブロックの場合は画素信号値の平均値)の差分値が算出される。これにより、血流機能に係る解析結果画像が生成される。
なお、フレーム画像間で公知のローカルマッチング処理及びワーピング処理(特開2012−5729号公報参照)を施して、フレーム画像間における肺野領域の位置ずれを補正してからローパスフィルター処理やハイパスフィルター処理を行うこととしてもよい。
Also, for example, when the analysis relating to the blood flow function is selected, in step S21, first, high-pass filter processing in the time direction is performed in the lung field region of the dynamic image. Specifically, the time change of the signal value is obtained for each pixel of the dynamic image, and the filtering is performed with a high pass filter (for example, low cutoff frequency 0.80 Hz) in the time direction. Next, pixels or blocks of pixels at the same position (coordinates) are associated with each other between frame images in the dynamic image after high-pass filter processing. Then, for each pixel of each frame image of each dynamic image or each block of a plurality of pixels, a difference value of pixel signal values (an average value of pixel signal values in the case of a block) of adjacent frame images is calculated. Thereby, an analysis result image concerning the blood flow function is generated.
Low-pass filter processing and high-pass filter processing are performed after performing known local matching processing and warping processing between frame images (refer to JP 2012-5729A) to correct positional deviation of the lung field region between frame images. It is good to do.

次いで、生成された解析結果画像が表示部34の領域指定画面に表示される(ステップS22)。
領域指定画面は、解析結果画像からユーザーが注目領域を指定するための画面であり、例えば、解析結果画像のフレーム画像が操作部33により順次切り替え表示可能に表示される。
ユーザーは、表示された解析結果画像の各フレーム画像を観察し、病変の疑いのある注目領域があった場合、操作部33のポインティングデバイスによりフレーム画像上の注目領域の位置を指定する。例えば、操作部33のポインティングデバイスにより注目領域を囲む。このとき、第1の実施形態で説明したように、注目領域より重篤な領域、同等な領域、軽微な領域のいずれの病変レベルを解析結果画像から検索するかを注目領域を指定するときのポインティングデバイスの動作(ジェスチャー)により指定することができる。すなわち、病変レベルの指定を注目領域の指定と同時に効率良く行うことができる。
Next, the generated analysis result image is displayed on the area designation screen of the display unit 34 (step S22).
The area designation screen is a screen for the user to designate the attention area from the analysis result image, and for example, frame images of the analysis result image are sequentially displayed by the operation unit 33 so as to be switched and displayed.
The user observes each frame image of the displayed analysis result image, and if there is a focused area suspected of being a lesion, the pointing device of the operation unit 33 designates the position of the focused area on the frame image. For example, the region of interest is surrounded by the pointing device of the operation unit 33. At this time, as described in the first embodiment, when specifying an attention area, which lesion level of an area that is more serious than the attention area, an equal area, or a slight area is to be retrieved from the analysis result image It can be designated by the operation (gesture) of the pointing device. That is, designation of a lesion level can be efficiently performed simultaneously with designation of a region of interest.

次いで、操作部33により解析結果画像の少なくとも一つのフレーム画像から注目領域が指定されたか否かが判断される(ステップS23)。
注目領域が指定されたと判断された場合(ステップS23;YES)、指定された注目領域にアノテーションが付与される(ステップS24)。なお、ステップS24においては、操作部33により指定された領域そのものではなく、指定された領域の一部領域、又は近傍の画素を含めた領域を指定された注目領域として認識してもよい。例えば、指定された領域内の画素信号値の範囲内の画素信号値が隣接する領域に存在する場合は、その領域を含めて指定された領域として認識してもよい。これにより、注目領域の指定の精度を向上させることができる。
Next, it is determined by the operation unit 33 whether or not the attention area is designated from at least one frame image of the analysis result image (step S23).
When it is determined that the attention area is designated (step S23; YES), an annotation is attached to the designated attention area (step S24). In step S24, not the area designated by the operation unit 33 but a partial area of the designated area or an area including pixels in the vicinity may be recognized as the designated attention area. For example, when pixel signal values within the range of pixel signal values within a specified area exist in an adjacent area, that area may be recognized as an area specified. As a result, it is possible to improve the specification accuracy of the attention area.

次いで、注目領域指定時の操作部33のポインティングデバイスの動作が解析され、注目領域指定時の操作部33のポインティングデバイスの動作に基づいて、解析結果画像から抽出する領域の注目領域と比較したときの病変レベルが特定される(ステップS25)。ステップS25の処理は、図3のステップS14で説明したものと同様であるので説明を援用する。   Next, the operation of the pointing device of the operation unit 33 at the time of specification of the attention area is analyzed, and compared with the attention area of the area to be extracted from the analysis result image based on the operation of the pointing device of the operation unit 33 at the time of specification of the attention area. The lesion level of is identified (step S25). The process of step S25 is the same as that described in step S14 of FIG.

次いで、指定された注目領域の大きさ(サイズ)が算出される(ステップS26)。例えば、指定された注目領域内の画素数に基づいて、指定された注目領域のサイズが算出される。   Next, the size (size) of the designated focused area is calculated (step S26). For example, the size of the designated focused area is calculated based on the number of pixels in the designated focused area.

次いで、指定された注目領域の画像特徴量が算出される(ステップS27)。
例えば、解析結果画像の各フレーム画像の注目領域(指定された注目領域と画素位置(座標)が同じ領域)において、画素信号値の平均を算出し、算出した画素信号値の平均の最大値(絶対値)を注目領域の画像特徴量として算出する。
Next, the image feature amount of the designated attention area is calculated (step S27).
For example, an average of pixel signal values is calculated in a target area of each frame image of the analysis result image (an area having the same pixel position (coordinates) as the specified target area), and the maximum value of the average of the calculated pixel signal values An absolute value is calculated as an image feature amount of the region of interest.

次いで、指定された注目領域の大きさと算出した画像特徴量を用いて、解析結果画像から抽出する領域の検索条件が生成される(ステップS28)。例えば、注目領域の大きさと略同等の大きさの領域であって、画像特徴量が注目領域の画像特徴量より大きい(同等又は小さい)領域を解析結果画像から抽出する領域の検索条件として生成する。なお、注目領域の大きさに対し、何%UP、何%DOWNしたサイズまでを同等とみなすかは、ユーザーが予め設定しておくことができる。また、画像特徴量が注目領域の画像特徴量より大きい領域を抽出するか、同等の領域を抽出するか、又は小さい領域を抽出するかは、ステップS25で特定された抽出する領域の病変レベル及びステップS27で算出した注目領域の画像特徴量の種類の組み合わせにより決定される。   Next, a search condition of a region to be extracted from the analysis result image is generated using the size of the designated region of interest and the calculated image feature amount (step S28). For example, a region having a size substantially equal to the size of the region of interest, which is larger (equal or smaller) than the image feature amount of the region of interest, is generated as a search condition of the region extracted from the analysis result image . Note that the user can set in advance what percentage up and percentage down sizes are regarded as equal to the size of the attention area. In addition, whether the image feature quantity extracts an area larger than the image feature quantity of the attention area, extracts an equal area, or extracts a smaller area depends on the lesion level of the area to be extracted specified in step S25 and It is determined by a combination of types of image feature amounts of the region of interest calculated in step S27.

次いで、解析結果画像から、生成された検索条件に該当する領域の抽出が行われる(ステップS29)。
例えば、解析結果画像の左上から位置を1画素ずつずらしながら、注目領域の大きさと略同等の大きさの探索領域を設定し、設定した探索領域について、注目領域について算出した画像特徴量と同じ画像特徴量を算出し、算出した画像特徴量と注目領域の画像特徴量との値の大小関係が検索条件に合致する領域が抽出される。
Next, an area corresponding to the generated search condition is extracted from the analysis result image (step S29).
For example, while shifting the position one pixel at a time from the upper left of the analysis result image, a search area of approximately the same size as the size of the area of interest is set, and for the set search area, the same image as the image feature quantity calculated for the area of interest A feature quantity is calculated, and an area in which the magnitude relation between the calculated image feature quantity and the image feature quantity of the attention area matches the search condition is extracted.

そして、抽出された領域が表示部34に表示され(ステップS30)、領域抽出処理Bは終了する。   Then, the extracted area is displayed on the display unit 34 (step S30), and the area extraction processing B ends.

このように、第2の実施形態における診断用コンソール3によれば、解析結果画像のフレーム画像からユーザーが指定した注目領域の大きさ及び画像特徴量に基づいて、抽出する領域の検索条件を生成し、生成した検索条件に基づいて抽出された領域を表示部34に表示された解析結果画像上で識別可能に表示する。したがって、ユーザーが指定した注目領域に基づいて、見落としのない効率的な診断を支援することが可能となる。
また、ユーザーが指定した病変レベル(注目領域と比較して重篤か、同等か又は軽微か)に基づいて検索を行うことで、ユーザーが所望する病変レベルの領域を抽出してユーザーに提示することが可能となる。
As described above, according to the diagnostic console 3 in the second embodiment, the search condition of the area to be extracted is generated from the frame image of the analysis result image based on the size of the attention area and the image feature amount designated by the user. Then, the area extracted based on the generated search condition is identifiably displayed on the analysis result image displayed on the display unit 34. Therefore, it is possible to support an efficient diagnosis without an oversight based on a user-designated attention area.
In addition, by performing a search based on the lesion level (severe, equal to or less than the attention area) specified by the user, the area of the lesion level desired by the user is extracted and presented to the user It becomes possible.

以上、本発明の第1及び第2の実施形態について説明したが、上記実施形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。   As mentioned above, although the 1st and 2nd embodiment of the present invention was described, the contents of a statement in the above-mentioned embodiment are a suitable example of the present invention, and are not limited to this.

例えば、上記第1の実施形態においては、ユーザー換気、血流、腫瘍がいずれの観点に注目して注目領域を指定したのかを指定し、指定された観点に応じた画像特徴量を算出し、検索条件に用いることとしたが、例えば、腫瘍の診断を支援する専用のシステム等においては、ユーザーによる観点の指定は不要であり、腫瘍に係る画像特徴量を自動的に算出することとしてもよい。   For example, in the first embodiment, the user's ventilation, the blood flow, and the tumor designate which area the attention area is designated by paying attention to the viewpoint, and calculates the image feature amount according to the designated viewpoint, Although it has been used as a search condition, for example, in a dedicated system that supports the diagnosis of a tumor, designation of a viewpoint by the user is unnecessary, and an image feature value related to a tumor may be automatically calculated. .

また、例えば、上記第1及び第2の実施形態においては、ユーザーが動態画像又は解析結果画像から抽出する領域の病変レベルを指定できる構成としたが、ユーザーによる病変レベルの指定を受け付けずに、予め定められた病変レベルの領域(例えば、注目領域より重篤な病変の領域)を抽出することとしてもよい。   Further, for example, in the first and second embodiments, the user can specify the lesion level of the area to be extracted from the dynamic image or the analysis result image, but without accepting the specification of the lesion level by the user, It is also possible to extract an area of a predetermined lesion level (for example, an area of a lesion that is more severe than the attention area).

また、上記実施形態においては、注目領域を指定する際のポインティングデバイスの動作により病変レベルを指定することとして説明したが、例えば、重篤、同等、軽微等の病変レベルの選択メニューを表示してユーザーが所望のレベルを操作部33により選択することとしてもよい。   Further, in the above embodiment, it has been described that the lesion level is specified by the operation of the pointing device at the time of specifying the attention area, but for example, a selection menu of lesion levels such as severe, equivalent, and minor is displayed The user may select a desired level using the operation unit 33.

また、画像特徴量としては、上述したものに限られない。例えば、上述したフレーム間の画素信号値(平均)の差分値の最大値や分散の代わりに、画素信号値(平均)の一次微分や二次微分等を用いることとしてもよい。   Further, the image feature amount is not limited to that described above. For example, instead of the maximum value or the variance of the difference values of the pixel signal values (average) between the frames described above, the first derivative or the second derivative of the pixel signal values (average) may be used.

また、上記実施形態においては、胸部動態画像又はその解析結果画像から領域抽出を行う場合に本発明を適用した例について説明したが、他の部位を撮影した動態画像又はその解析結果画像から領域抽出を行う場合に本発明を適用することとしてもよい。   In the above embodiment, an example in which the present invention is applied to the case where the region extraction is performed from the chest dynamic image or its analysis result image has been described, but the region extraction from the dynamic image obtained by photographing other parts or the analysis result image The present invention may be applied to the case where

また、例えば、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリー等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。   Further, for example, in the above description, although an example using a hard disk, a non-volatile memory of a semiconductor, or the like as a computer readable medium of a program according to the present invention has been disclosed, the present invention is not limited thereto. As another computer readable medium, a portable recording medium such as a CD-ROM can be applied. In addition, carrier wave (carrier wave) is also applied as a medium for providing data of the program according to the present invention through a communication line.

その他、診断支援システムを構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and the detailed operation of each device constituting the diagnosis support system can be appropriately changed without departing from the scope of the present invention.

100 診断支援システム
1 撮影装置
11 放射線源
12 放射線照射制御装置
13 放射線検出部
14 読取制御装置
2 撮影用コンソール
21 制御部
22 記憶部
23 操作部
24 表示部
25 通信部
26 バス
3 診断用コンソール
31 制御部
32 記憶部
33 操作部
34 表示部
35 通信部
36 バス
100 diagnosis support system 1 imaging device 11 radiation source 12 radiation irradiation control device 13 radiation detection unit 14 reading control device 2 imaging console 21 control unit 22 storage unit 23 operation unit 24 display unit 25 communication unit 26 bus 3 diagnostic console 31 control Unit 32 Storage unit 33 Operation unit 34 Display unit 35 Communication unit 36 Bus

Claims (8)

生体の動態を放射線撮影することにより得られた動態画像又は当該動態画像の画素毎又は複数画素のブロック毎の動態解析結果を示す解析結果画像における少なくも一つのフレーム画像を用いて、ユーザーが注目領域を指定するための領域指定手段と、
前記領域指定手段により指定された注目領域のサイズを取得するサイズ取得手段と、
前記領域指定手段により指定された注目領域の画像特徴量を算出する特徴量算出手段と、
前記サイズ取得手段により取得された前記注目領域のサイズ及び前記特徴量算出手段により算出された前記注目領域の画像特徴量に基づいて、前記動態画像又は前記解析結果画像から抽出する領域の検索条件を生成する検索条件生成手段と、
前記検索条件生成手段により生成された検索条件に該当する領域を前記動態画像又は前記解析結果画像から抽出する抽出手段と、
前記動態画像又は前記解析結果画像において前記抽出手段により抽出された領域を識別可能に表示する表示手段と、
を備える診断支援システム。
The user pays attention by using at least one frame image in the dynamic image obtained by radiographing the dynamic of the living body or the analysis result of the dynamic analysis of each pixel or block of plural pixels of the dynamic image. Area specification means for specifying an area;
Size acquiring means for acquiring the size of the area of interest specified by the area specifying means;
Feature quantity calculation means for calculating an image feature quantity of the attention area designated by the area designation means;
A search condition of a region to be extracted from the dynamic image or the analysis result image based on the size of the region of interest acquired by the size acquisition unit and the image feature amount of the region of interest calculated by the feature amount calculation unit Search condition generation means for generating
Extracting means for extracting an area corresponding to the search condition generated by the search condition generation means from the dynamic image or the analysis result image;
Display means for identifiably displaying the area extracted by the extraction means in the dynamic image or the analysis result image;
Diagnostic support system comprising:
前記特徴量算出手段は、前記注目領域における画素信号値の時間変化に基づく画像特徴量を算出する請求項1に記載の診断支援システム。   The diagnosis support system according to claim 1, wherein the feature amount calculation unit calculates an image feature amount based on a temporal change of pixel signal values in the attention area. 前記動態画像から注目領域が指定された場合、予め定められた複数の観点のうちいずれの観点に注目して前記注目領域を指定したのかをユーザーが指定するための観点指定手段を備え、
前記特徴量算出手段は、前記領域指定手段により指定された注目領域の、前記観点指定手段により指定された観点に応じた画像特徴量を算出する請求項1又は2に記載の診断支援システム。
When a region of interest is specified from the dynamic image, a viewpoint specification unit is provided for the user to specify which of a plurality of predetermined viewpoints the user has specified the region of interest.
The diagnosis support system according to claim 1, wherein the feature amount calculation unit calculates an image feature amount of the attention area designated by the region designation unit according to the viewpoint designated by the viewpoint designation unit.
前記動態画像は、前記生体の胸部の動態を放射線撮影することにより得られた胸部動態画像であり、
前記観点指定手段は、換気、血流、腫瘍のうち、少なくとも一つの観点を指定可能である請求項3に記載の診断支援システム。
The movement image is a chest movement image obtained by radiographing movement of the chest of the living body,
The diagnosis support system according to claim 3, wherein the viewpoint specifying means can specify at least one of ventilation, blood flow, and tumor.
前記動態画像又は前記解析結果画像から抽出する領域の前記注目領域と比較した病変レベルをユーザーが指定するための病変レベル指定手段を備え、
前記検索条件生成手段は、前記注目領域のサイズ、前記注目領域の画像特徴量及び前記病変レベル指定手段より指定された病変レベルに基づいて、前記検索条件を生成する請求項1〜4のいずれか一項に記載の診断支援システム。
A lesion level designation unit for the user to designate a lesion level compared with the target region of the region extracted from the dynamic image or the analysis result image;
The search condition generation unit generates the search condition based on the size of the region of interest, the image feature amount of the region of interest, and the lesion level designated by the lesion level designation unit. The diagnosis support system according to one item.
前記病変レベル指定手段は、前記抽出する領域が前記注目領域と比較して重篤か、同等か、又は軽微かをユーザーが指定するためのものである請求項5に記載の診断支援システム。   6. The diagnosis support system according to claim 5, wherein the lesion level designation means is for the user to designate whether the area to be extracted is severe, equal or minor compared to the attention area. 前記領域指定手段は、ポインティングデバイスを含み、
前記病変レベル指定手段は、前記領域指定手段により前記注目領域を指定する際の前記ポインティングデバイスの動作により前記病変レベルを指定する請求項5又は6に記載の診断支援システム。
The area specifying means includes a pointing device
The diagnosis support system according to claim 5 or 6, wherein the lesion level designation unit designates the lesion level by an operation of the pointing device when the region designation unit designates the region of interest.
前記領域指定手段は、ユーザーにより指定された領域の一部領域又は前記指定された領域の近傍の領域を含めた領域を前記ユーザーにより指定された注目領域として指定する請求項1〜7のいずれか一項に記載の診断支援システム。   The area specifying means specifies an area including a partial area of the area specified by the user or an area near the specified area as the noted area specified by the user. The diagnosis support system according to one item.
JP2017078669A 2017-04-12 2017-04-12 Diagnosis support system Withdrawn JP2018175344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017078669A JP2018175344A (en) 2017-04-12 2017-04-12 Diagnosis support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017078669A JP2018175344A (en) 2017-04-12 2017-04-12 Diagnosis support system

Publications (1)

Publication Number Publication Date
JP2018175344A true JP2018175344A (en) 2018-11-15

Family

ID=64280258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017078669A Withdrawn JP2018175344A (en) 2017-04-12 2017-04-12 Diagnosis support system

Country Status (1)

Country Link
JP (1) JP2018175344A (en)

Similar Documents

Publication Publication Date Title
JP6436182B2 (en) Dynamic image analyzer
JP6922971B2 (en) Console and program
JP6958202B2 (en) Dynamic image processing equipment and programs
JP6812685B2 (en) Dynamic analyzer
US20180137634A1 (en) Dynamic image processing system
JP2009153677A (en) Kinetic image processing system
JP2019058368A (en) Dynamic analysis device and dynamic analysis system
JP2018110762A (en) Dynamic image processing system
JP2004105643A (en) X-ray diagnostic equipment
JP6870765B1 (en) Dynamic quality control equipment, dynamic quality control program and dynamic quality control method
JP6740699B2 (en) Image analysis system
JP2017169830A (en) Dynamic analysis apparatus
JP6848393B2 (en) Dynamic image processing device
JP2019180883A (en) Radiation image display device and radiographic system
JP2018187310A (en) Dynamic image processing system
JP5315686B2 (en) Dynamic image diagnosis support system
JP2016209267A (en) Medical image processor and program
JP2018148965A (en) Dynamic analysis system
JP7099086B2 (en) Dynamic image processing equipment and programs
JP2018175320A (en) Radiography system
JP2018175344A (en) Diagnosis support system
JP6950507B2 (en) Dynamic image processing device
JP6790537B2 (en) Dynamic analyzer
US11461900B2 (en) Dynamic image analysis system and dynamic image processing apparatus
US20230052910A1 (en) Image processing device, display control method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200728