JP2013052256A - Diagnosis support unit and control method thereof, diagnosis support system, and program - Google Patents

Diagnosis support unit and control method thereof, diagnosis support system, and program Download PDF

Info

Publication number
JP2013052256A
JP2013052256A JP2012263659A JP2012263659A JP2013052256A JP 2013052256 A JP2013052256 A JP 2013052256A JP 2012263659 A JP2012263659 A JP 2012263659A JP 2012263659 A JP2012263659 A JP 2012263659A JP 2013052256 A JP2013052256 A JP 2013052256A
Authority
JP
Japan
Prior art keywords
image
region
data stream
unit
capturing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012263659A
Other languages
Japanese (ja)
Other versions
JP5693550B2 (en
Inventor
Osamu Tsujii
修 辻井
Makoto Sato
眞 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012263659A priority Critical patent/JP5693550B2/en
Publication of JP2013052256A publication Critical patent/JP2013052256A/en
Application granted granted Critical
Publication of JP5693550B2 publication Critical patent/JP5693550B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To preferentially read out an area effective for diagnosis from encoded data and to rapidly obtain a necessary image.SOLUTION: An image input portion 11 captures the reproducible amount of a low-quality image capable of being performed by diagnosis support processing among an encoded image data stream by the control of an initial stream setting portion 18 and an input control portion 14. A captured data stream is decoded in a decoding portion 12 and an obtained two-dimensional image 13 is analyzed in a diagnosis support portion 16 for determining a positive area 17. By controlling the image input portion 11 so that the input control portion 14 preferentially captures a part of the positive area 17, the area effective for diagnosis is preferentially captured and reproduced in detail.

Description

本発明は、画像処理方法及び装置に関し、特にX線医療用画像の処理に好適な画像処理方法及び装置に関する。   The present invention relates to an image processing method and apparatus, and more particularly to an image processing method and apparatus suitable for processing X-ray medical images.

ある種の蛍光体に放射線(X線、α線、β線、γ線、電子線、紫外線等)を照射すると、この放射線エネルギーの一部が蛍光体中に蓄積され、この蛍光体に可視光等の励起光を照射すると、蓄積されたエネルギーに応じて蛍光体が輝尽発光を示すことが知られており、このような性質を示す蛍光体は蓄積性蛍光体(輝尽性蛍光体)呼ばれる。この蓄積性蛍光体を利用した放射線画像情報記録再生システムが本出願人により提案されている(特開昭55−12429号、特開昭56−11395号等)。このシステムによれば、人体等の被写体の放射線画像情報を一旦蓄積性蛍光体のシートに記録し、この蓄積性蛍光体シートをレーザ光等の励起光で走査して輝尽発光光を生ぜしめ、得られた輝尽発光光を光電的に読み取って画像信号を得、この画像信号に基づき写真感光材料等の記録材料、CRT等の表示装置に表示させて、被写体の放射線画像を可視像として得る。   When a certain type of phosphor is irradiated with radiation (X-rays, α-rays, β-rays, γ-rays, electron beams, ultraviolet rays, etc.), a part of this radiation energy is accumulated in the phosphor, and visible light is visible in this phosphor It is known that when irradiated with excitation light such as phosphors, phosphors exhibit stimulating luminescence according to the stored energy, and phosphors exhibiting such properties are stimulable phosphors (stimulable phosphors). be called. A radiographic image information recording / reproducing system using this storage phosphor has been proposed by the present applicant (Japanese Patent Laid-Open Nos. 55-12429, 56-11395, etc.). According to this system, radiation image information of a subject such as a human body is temporarily recorded on a sheet of stimulable phosphor, and this stimulable phosphor sheet is scanned with excitation light such as laser light to generate stimulated emission light. The obtained photostimulated light is photoelectrically read to obtain an image signal, which is displayed on a recording material such as a photographic photosensitive material or a display device such as a CRT based on the image signal, and a radiation image of the subject is visualized. Get as.

また、近年においては半導体のセンサを使用して同様にX線画像を撮影する装置が開発されている。これらのシステムは、従来の銀塩写真を用いる放射線写真システムと比較して極めて広い放射線露出域にわたって画像を記録し得るという実用的な利点を有している。すなわち、非常に広いダイナミックレンジのX線を光電変換手段により読み取って電気信号に変換し、この電気信号を用いて写真感光材料等の記録材料、CRT等の表示装置に出力させることによって、放射線露光量の変動に影響されない放射線画像を可視像として得ることができる。   In recent years, apparatuses for taking X-ray images in the same manner using semiconductor sensors have been developed. These systems have the practical advantage of being able to record images over a very wide radiation exposure range compared to conventional radiographic systems using silver salt photography. That is, X-rays with a very wide dynamic range are read by a photoelectric conversion means and converted into an electrical signal, and this electrical signal is used to output to a recording material such as a photographic photosensitive material or a display device such as a CRT, thereby exposing to radiation. A radiographic image that is not affected by variation in the amount can be obtained as a visible image.

また、上記のようにして得られた電気信号はデジタル情報に変換可能であり、得られたデジタル情報はメモリ等の記憶媒体に蓄積することができる。そして、そのようなデジタル情報を情報処理装置に提供することで、デジタル画像処理を施し、種々の診断支援を行なうことも提案されている。   Further, the electrical signal obtained as described above can be converted into digital information, and the obtained digital information can be stored in a storage medium such as a memory. It has also been proposed to provide digital information to such an information processing apparatus to perform digital image processing and provide various diagnostic support.

特開昭55−12429号公報JP-A-55-12429 特開昭56−11395号公報JP-A-56-11395

しかしながら、X線画像は非常に多くの情報を含んでおり、その画像を蓄積・伝送する際にはデ−タ量が膨大になってしまうという問題がある。このため画像の蓄積・伝送に際しては、画像の持つ冗長性を除く、或いは画質の劣化が視覚的に認識し難い程度で画像の内容を変更することによってデ−タ量を削減する高能率符号化が用いられる。   However, X-ray images contain a great deal of information, and there is a problem that the amount of data becomes enormous when storing and transmitting the images. Therefore, when storing and transmitting images, high-efficiency coding that reduces the amount of data by removing the redundancy of the images or changing the contents of the images to such an extent that image quality degradation is difficult to visually recognize Is used.

例えば、静止画像の国際標準符号化方式としてISOとITU−Tにより勧告されたJPEGでは、可逆圧縮に関してはDPCMが採用され、非可逆圧縮に於いては離散的コサイン変換(DCT)が使用されている。JPEGについての詳細は、勧告書ITU−T Recommendation T.81、ISO/IEC 10918−1等に記載されているのでここでは詳細な説明を省略する。   For example, in JPEG recommended by ISO and ITU-T as an international standard encoding system for still images, DPCM is adopted for lossless compression, and discrete cosine transform (DCT) is used for lossy compression. Yes. For details on JPEG, refer to Recommendation ITU-T Recommendation T.264. 81, ISO / IEC 10918-1, etc., and detailed description thereof is omitted here.

また、近年では離散的ウェーブレット変換(DWT)を使用した圧縮方法に関する研究が多く行われている。DWTを使用した圧縮方法の特徴は、離散コサイン変換(DCT)で見られるブロッキングアーティファクトがおきないことである。   In recent years, much research has been conducted on compression methods using discrete wavelet transform (DWT). A feature of the compression method using DWT is that the blocking artifact seen in discrete cosine transform (DCT) does not occur.

他方、X線画像の圧縮に際しては、圧縮率を効率的に向上させる手段として関心領域(重要な領域)を設定して、関心領域の圧縮率を落として画質を他の領域よりも優先させることが考えられる。また、画像を無損失(LOSSLESS)で符号化する場合も、関心領域を優先的に符号化することにより、読み出しの際に関心領域を先行して復号化して表示することが可能になる。しかし、画像中のどこを関心領域に設定するかは医療の診断学的な意味もあり簡単ではなかった。   On the other hand, when compressing an X-ray image, a region of interest (an important region) is set as a means for efficiently improving the compression rate, and the compression rate of the region of interest is lowered to give priority to image quality over other regions. Can be considered. Even when an image is encoded losslessly (LOSSLESS), by encoding the region of interest preferentially, it becomes possible to decode and display the region of interest prior to reading. However, where to set the region of interest in the image has a medical diagnostic meaning and is not easy.

このような状況から出願人は、画像圧縮時に入力画像を解析してX線の照射野領域を抽出し、抽出された照射野領域からX線の素抜け領域をさらに抽出して、照射野領域から素抜け領域を除いた部分を関心領域として、この関心領域に相当する画像をレベルシフトして符号化することにより関心領域を優先的に符号化する方法および装置を提案している。この方法の問題点は、切り出し画像(照射野領域)中での素抜け領域の割合は20%程度であり、圧縮率の向上に際しては更なる関心領域の絞込みが必要となることである。   From such a situation, the applicant analyzes the input image at the time of image compression, extracts an X-ray irradiation field region, further extracts an X-ray blank region from the extracted irradiation field region, A method and apparatus that preferentially encodes a region of interest by encoding the image corresponding to the region of interest by level-shifting and encoding a portion obtained by removing the unexposed region from the region of interest is proposed. The problem with this method is that the ratio of the missing region in the cut-out image (irradiation field region) is about 20%, and it is necessary to further narrow the region of interest when improving the compression ratio.

他方、圧縮された画像ファイルの内容を表示する際にも関心領域の設定は有効な場合が多い。例えば1000×1000画素のモニタに2000×2000画素から構成される画像を1枚あるいは複数枚表示する場合を考えると、画像の一部分を表示するか、縮小表示するかを選択しなければならない。もちろん、マウスやトラックボールで画像をスクロールする手法も考えられるが、これでは複数枚を同時に表示する目的が達せられない。画像をファイリングする際に各画像で関心領域が設定されている場合は関心領域のみを表示することが可能であるが、関心領域の設定がない場合や、関心領域の設定があっても表示割り当て領域をオーバーしてしまう場合もあり、一部分を表示するにしろ、全体を表示するにしろ、縮小表示が必要になる。   On the other hand, the region of interest setting is often effective when displaying the contents of a compressed image file. For example, considering that one or more images composed of 2000 × 2000 pixels are displayed on a 1000 × 1000 pixel monitor, it is necessary to select whether to display a part of the image or to display it in a reduced size. Of course, a method of scrolling an image with a mouse or a trackball is also conceivable, but this does not achieve the purpose of displaying a plurality of images simultaneously. When a region of interest is set in each image when filing an image, it is possible to display only the region of interest, but even if there is no region of interest setting or there is a region of interest setting, display allocation In some cases, the area may be exceeded, and a reduced display is required whether a part is displayed or the whole is displayed.

また、画像を縮小表示した場合の問題点として、空間分解能が悪いことにより詳細の観察(一次診断が終わった画像に対する参照という意味で診断と区別する)が出来ない可能性がある。これを補償する技術としては、CRT上で動く矩形や円形の拡大鏡を設定して、オペレータ(医師)が適宜拡大鏡を移動し、部分的に原画表示することが提案されている。しかしながら、空間分解能が悪い画像で拡大領域を適切に選択することが可能であるかという問題点を残している。   Further, as a problem when the image is displayed in a reduced size, there is a possibility that detailed observation (differentiated from diagnosis in the sense of referring to the image after the primary diagnosis) cannot be performed due to poor spatial resolution. As a technique for compensating for this, it has been proposed that a rectangular or circular magnifying glass moving on the CRT is set, and an operator (physician) moves the magnifying glass as appropriate to partially display the original image. However, there remains a problem that it is possible to appropriately select an enlarged region in an image having a poor spatial resolution.

また、X線画像はデータ容量を削減するために符号化して保存される場合があるが、この符号化された画像を迅速に表示することが望まれている。符号化された画像を迅速に表示することは、符号化された画像データから診断に有効な領域を優先して表示することでも実現できる。   An X-ray image may be encoded and stored in order to reduce the data capacity, and it is desired to display the encoded image quickly. The quick display of the encoded image can also be realized by preferentially displaying a region effective for diagnosis from the encoded image data.

従って、本発明の目的は、符号化されたデータから診断に有効な領域を優先的に読み出し可能とすることにある。   Therefore, an object of the present invention is to preferentially read an effective area for diagnosis from encoded data.

また、本発明の他の目的は、診断支援手段によって決定された、診断あるいは観察に重要な関心領域を優先的に読みこみ、その領域の画質を向上させることにより、効率的に診断支援の精度を高めることにある。   Another object of the present invention is to read the region of interest important for diagnosis or observation determined by the diagnosis support means preferentially and improve the image quality of the region, thereby effectively improving the accuracy of the diagnosis support. Is to increase.

また本発明の他の目的は、診断支援の診断目的に応じて必要となる画質で画像データを取り込むことを可能とし、効率的な画像転送を実現可能とすることにある。   Another object of the present invention is to make it possible to capture image data with a required image quality according to the diagnostic purpose of diagnostic support, and to realize efficient image transfer.

上記の目的を達成するための本発明による画像処理装置は以下の構成を備える。すなわち、
画像データを系列変換し、符号化して得られたデータストリームの第1の部分を取り込む第1取込手段と、
前記第1取込手段により取り込まれたデータストリームを復号化して2次元画像を得る復号手段と、
前記復号手段によって得られた2次元画像を解析し、該2次元画像中の関心領域を決定する解析手段と、
前記解析手段によって決定された関心領域に基づいて前記データストリームより選択される第2の部分を取り込む第2取込手段とを備える。
In order to achieve the above object, an image processing apparatus according to the present invention comprises the following arrangement. That is,
First capture means for capturing a first portion of a data stream obtained by serially converting and encoding image data;
Decoding means for decoding the data stream captured by the first capturing means to obtain a two-dimensional image;
Analyzing the two-dimensional image obtained by the decoding means, and determining an area of interest in the two-dimensional image;
Second capture means for capturing a second portion selected from the data stream based on the region of interest determined by the analysis means.

また、上記の目的を達成するための本発明による画像処理方法は以下の構成を備える。すなわち、
画像データを系列変換し、符号化して得られたデータストリームの第1の部分を取り込む第1取込工程と、
前記第1取込工程により取り込まれたデータストリームを復号化して2次元画像を得る復号工程と、
前記復号工程によって得られた2次元画像を解析し、該2次元画像中の関心領域を決定する解析工程と、
前記解析工程によって決定された関心領域に基づいて前記データストリームより選択される第2の部分を取り込む第2取込工程とを備える。
An image processing method according to the present invention for achieving the above object comprises the following arrangement. That is,
A first capture step for capturing a first portion of a data stream obtained by serially converting and encoding image data;
A decoding step of decoding the data stream captured by the first capturing step to obtain a two-dimensional image;
Analyzing the two-dimensional image obtained by the decoding step, and determining a region of interest in the two-dimensional image;
A second capture step for capturing a second portion selected from the data stream based on the region of interest determined by the analysis step.

本発明によれば、符号化されたデータから診断に有効な領域を優先的に読み出すことが可能となり、必要な画像を迅速に取得することが可能となる。   According to the present invention, a region effective for diagnosis can be preferentially read from encoded data, and a necessary image can be quickly acquired.

また、本発明によれば、医療診断支援によって決定された、診断あるいは観察にとって重要な関心領域を優先的に読みこみ、その領域の画質を向上させることが可能となり、効率的に診断支援の精度を高めることができる。   In addition, according to the present invention, it is possible to preferentially read a region of interest important for diagnosis or observation, which is determined by medical diagnosis support, and to improve the image quality of the region. Can be increased.

更に、本発明によれば、診断支援の診断目的に応じて必要となる画質で画像データを取り込むことが可能となり、効率的な画像転送が実現可能となる。   Furthermore, according to the present invention, it is possible to capture image data with a required image quality according to the diagnosis purpose of diagnosis support, and it is possible to realize efficient image transfer.

本実施形態による画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus by this embodiment. 本実施形態による画像処理装置の動作概要を説明するフローチャートである。It is a flowchart explaining the operation | movement outline | summary of the image processing apparatus by this embodiment. 陰影診断支援処理を説明するフローチャートである。It is a flowchart explaining a shadow diagnosis assistance process. 陰影抽出部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a shadow extraction part. 陰影抽出部の特性を説明する図である。It is a figure explaining the characteristic of a shadow extraction part. 陰影抽出された部位が陽性であるか否かを判定するためのニューラルネットワークを示す図である。It is a figure which shows the neural network for determining whether the site | part by which the shadow extraction was positive is positive. 以上の陰影診断支援部のプロセスを説明する図である。It is a figure explaining the process of the above shadow diagnosis assistance part. テクスチャ疾患診断支援処理を説明するフローチャートである。It is a flowchart explaining a texture disease diagnosis support process. テクスチャ疾患抽出処理の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a texture disease extraction process. セグメンテーション部91の詳細な機能構成を示すブロック図である。3 is a block diagram illustrating a detailed functional configuration of a segmentation unit 91. FIG. 学習フェーズにおけるセグメンテーション部の機能構成を説明する図である。It is a figure explaining the function structure of the segmentation part in a learning phase. 利用フェーズにおけるセグメンテーション部91の機能構成を説明する図である。It is a figure explaining the functional structure of the segmentation part 91 in a utilization phase. セグメンテーションを説明する図である。It is a figure explaining segmentation. 具体的例を示す図である。It is a figure which shows a specific example. 画像入力部11と画像サーバ151の間で符号列を動的に生成する場合の構成を示した図である。It is the figure which showed the structure in the case of producing | generating a code sequence dynamically between the image input part 11 and the image server 151. FIG. 画像をタイルに分割して符号化した場合の符号列伝送を示した図である。It is the figure which showed the code sequence transmission at the time of dividing | segmenting an image into a tile and encoding. 画像をDWTによって符号化した場合の符号列伝送を示した図である。It is the figure which showed the code sequence transmission at the time of encoding an image by DWT. このときのレイヤ構成の様子を示した図である。It is the figure which showed the mode of the layer structure at this time. 符号化データにおけるレイヤ配置を説明する図である。It is a figure explaining the layer arrangement | positioning in coding data. 本実施形態による画像処理装置の概略の構成を説明するブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment. コードブロックと関心領域との関連を説明する図である。It is a figure explaining the relationship between a code block and a region of interest.

以下、添付の図面を参照して本発明の好適な実施形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

以下の実施形態では、記憶媒体から符号化されたX線医療画像を読み出す際に、診断に有効な領域を自動決定して、その領域に係わるデータを優先的に読み出し、表示する画像処理装置について説明する。   In the following embodiments, when reading an encoded X-ray medical image from a storage medium, an image processing apparatus that automatically determines a region effective for diagnosis, preferentially reads and displays data related to the region. explain.

図20は本実施形態による画像処理装置の概略の構成を説明するブロック図である。21はCPUであり、ROM22に格納された制御プログラム、或いは外部記憶装置25からRAM23にロードされた制御プログラムを実行することで、図1等を参照して以下に説明する各種処理を実現する。22はROMであり、CPU21が実行する制御プログラムや各種データを格納する。23はRAMであり、制御プログラムのロード領域やCPU21の作業領域を提供する。   FIG. 20 is a block diagram illustrating a schematic configuration of the image processing apparatus according to the present embodiment. Reference numeral 21 denotes a CPU, which implements various processes described below with reference to FIG. 1 and the like by executing a control program stored in the ROM 22 or a control program loaded from the external storage device 25 to the RAM 23. A ROM 22 stores a control program executed by the CPU 21 and various data. Reference numeral 23 denotes a RAM that provides a load area for the control program and a work area for the CPU 21.

24はディスプレイであり、CPU21の制御の下で各種表示を行なう。25は外部記憶装置であり、ハードディスク等で構成され、制御プログラムや画像データ等を格納する。26は入力装置であり、操作者の操作入力を取り込む。27はネットワークインターフェースであり、ネットワーク28と通信可能に接続する。20はバスであり、上記各構成を接続する。   Reference numeral 24 denotes a display which performs various displays under the control of the CPU 21. An external storage device 25 is composed of a hard disk or the like, and stores a control program, image data, and the like. Reference numeral 26 denotes an input device that captures an operation input from the operator. A network interface 27 is communicably connected to the network 28. Reference numeral 20 denotes a bus, which connects the above components.

28は、LAN、インターネット等のネットワークである。29は符号化画像データを格納するサーバである。29は、系列変換され、符号化された画像データのデータストリームを提供する画像サーバである。   Reference numeral 28 denotes a network such as a LAN or the Internet. A server 29 stores the encoded image data. Reference numeral 29 denotes an image server that provides a data stream of image data that has been series-converted and encoded.

図1は、本実施形態による画像処理装置の機能構成を示すブロック図である。図1において、画像入力部11は、符号化された画像データの入力を前提としている。以下の説明ではDWT変換された画像が符号化ストリームに変換されて入力されることを前提にしているが、DWT変換に限定されるものでなくDCT、KL変換等の系列変換された画像に対して符号化する応用例も考えることができる。情報源符号化においてはDCT、KL変換、DWT等を総称して系列変換と呼ぶ。なお、DCT、KL変換に関しては、「ANIL K. JAIN著、Fundamental Of Digital Image Processing、1989、Prentice-Hall Inc.」に記載されているように、一般的な技術である。   FIG. 1 is a block diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment. In FIG. 1, an image input unit 11 is premised on input of encoded image data. In the following description, it is assumed that a DWT-converted image is converted into an encoded stream and input. However, the present invention is not limited to the DWT conversion and is not limited to a DCT or KL-converted image. It is also possible to consider application examples in which encoding is performed. In information source coding, DCT, KL conversion, DWT, and the like are collectively referred to as sequence conversion. Note that DCT and KL conversion are common techniques as described in “ANIL K. JAIN, Fundamental Of Digital Image Processing, 1989, Prentice-Hall Inc.”.

符号化された画像データは通常ネットワーク接続した画像サーバ(29)から転送されるが、画像入力部11により入力されたデータは復号化部12に転送される。DWT画像を復号化する復号化部に関しては、ISO/IEC 15444(以降JPEG2000)によるものを使用するが、その詳細はJPEG2000の規格文書等に公開されている。復号化部12の出力である画像13は、画像表示部15によりディスプレイ24上に表示されるともに、診断支援部16に提供される。もちろん、画像13を診断支援部16が取り込むように構成してもよい。   The encoded image data is normally transferred from the image server (29) connected to the network, but the data input by the image input unit 11 is transferred to the decoding unit 12. As a decoding unit for decoding a DWT image, one according to ISO / IEC 15444 (hereinafter JPEG2000) is used, and details thereof are disclosed in JPEG2000 standard documents and the like. The image 13 that is the output of the decoding unit 12 is displayed on the display 24 by the image display unit 15 and is provided to the diagnosis support unit 16. Of course, the image support unit 16 may be configured to capture the image 13.

ここで注目すべき点は、診断支援部16に使用する初期画像は、目標としている診断支援に最小限必要な画質でよく、診断支援のために変換されているデータストリームを全て読みこむ必要はないことである。目標としている診断支援に必要な画質、つまり符号化の際のレイヤの構成は、初期ストリーム設定部に設定される。   It should be noted that the initial image used for the diagnosis support unit 16 may have the minimum image quality necessary for the target diagnosis support, and it is necessary to read all the data streams converted for the diagnosis support. It is not. The target image quality necessary for diagnosis support, that is, the layer configuration at the time of encoding, is set in the initial stream setting unit.

以下の説明では胸部正面画像の腫溜陰影の検出支援を例に示すが、この診断支援には比較的低解像度の縮小画像で十分である。従って、初期画像として対象画像に対応するデータが部分的に転送されるように、初期ストリーム設定部18により設定される。前提条件として、診断支援には複数種類のものが考えられ、その診断支援の種類によって必要とされる画質が決定される。たとえば、腫溜陰影では比較的大きな対象物の検出になるために精細な分解能は必要なく、空間分解能5分の1、濃度分解能2分の1程度の画質が初期画像に設定される。他方、すりガラス状の陰影の場合は、比較的精細な分解能が必要とされるので、空間分解能2分の1、濃度分解能3分の1程度の画質が初期画像として設定される。これらの初期設定値は、診断支援アルゴリズム内部で設定されるパラメータとの関連が強く、経験的に決められる。こうして設定された条件を満たす画像が入力された時点で、診断支援部16は診断支援プロセスを開始する。そして、診断支援の過程で更なるデータストリームが必要になれば、入力制御部14を介して必要な領域のデータ入力を行う。診断支援部16によって決定した陽性領域17は、輪郭情報として画像表示部15に表示された縮小画像にオーバレイ表示されるとともに、入力制御部14に提供される。   In the following description, detection support for tumor shadows in the chest front image is shown as an example, but a relatively low-resolution reduced image is sufficient for this diagnosis support. Accordingly, the initial stream setting unit 18 is set so that data corresponding to the target image is partially transferred as the initial image. As a precondition, there are a plurality of types of diagnosis support, and the required image quality is determined by the type of diagnosis support. For example, in the case of a tumor shadow, since a relatively large target is detected, fine resolution is not necessary, and an image quality with a spatial resolution of 1/5 and a density resolution of about 1/2 is set as the initial image. On the other hand, in the case of a ground glass-like shadow, since a relatively fine resolution is required, an image quality having a spatial resolution of 1/2 and a density resolution of about 1/3 is set as an initial image. These initial setting values are strongly related to parameters set in the diagnosis support algorithm and are determined empirically. When an image satisfying the conditions set in this way is input, the diagnosis support unit 16 starts a diagnosis support process. When a further data stream is required in the diagnosis support process, data in a necessary area is input via the input control unit 14. The positive region 17 determined by the diagnosis support unit 16 is displayed as an overlay on the reduced image displayed on the image display unit 15 as contour information, and is provided to the input control unit 14.

以上の動作をまとめると、次のようになる。図2は本実施形態による画像処理装置の動作概要を説明するフローチャートである。まずステップS21において、初期ストリーム設定部18により、目的とする診断支援に適した初期ストリームが設定される。ステップS22では、画像入力部11が、符号化画像データを取り込み、復号化部12へ提供する。このとき、入力制御部14は、初期ストリーム設定部18によって設定された内容に従って画像データの入力が行なわれるように画像入力部11を制御する。   The above operations are summarized as follows. FIG. 2 is a flowchart for explaining the outline of the operation of the image processing apparatus according to this embodiment. First, in step S21, the initial stream setting unit 18 sets an initial stream suitable for target diagnosis support. In step S <b> 22, the image input unit 11 captures encoded image data and provides it to the decoding unit 12. At this time, the input control unit 14 controls the image input unit 11 so that image data is input according to the contents set by the initial stream setting unit 18.

続いて、ステップS23では、画像入力部11より入力された符号化画像データを復号し、得られた画像データ13を画像表示部15により表示する。また、ステップS24において、診断支援部16はこの復号された画像データ13を解析して疾患部位を検出し、陽性領域データ17を出力する。ステップS25において、入力制御部14は、診断支援部16から出力された陽性領域データ17に基づいて、ステップS21で入力した符号化画像中の優先的に取り込むべき領域を設定する。ステップS26において、当該画像データの取り込みが終了していない場合はステップS22に戻る。そして、入力制御部14は、設定された領域に従って符号化画像を取り込むべく画像入力部11を制御する。こうして画像入力部11より入力された符号化画像は復号化部12により順次復号され、画像表示部15に表示される。また、符号化画像データの取り込みの進行は、ステップS24における診断支援処理の精度向上や、ステップS23における画像表示の詳細化に寄与する。   Subsequently, in step S23, the encoded image data input from the image input unit 11 is decoded, and the obtained image data 13 is displayed by the image display unit 15. In step S24, the diagnosis support unit 16 analyzes the decoded image data 13 to detect a diseased part, and outputs positive region data 17. In step S25, the input control unit 14 sets a region to be preferentially captured in the encoded image input in step S21 based on the positive region data 17 output from the diagnosis support unit 16. If it is determined in step S26 that the image data has not been captured, the process returns to step S22. Then, the input control unit 14 controls the image input unit 11 to capture the encoded image according to the set area. The encoded images thus input from the image input unit 11 are sequentially decoded by the decoding unit 12 and displayed on the image display unit 15. Further, the progress of taking in the encoded image data contributes to the improvement of the accuracy of the diagnosis support process in step S24 and the refinement of the image display in step S23.

以上のように動作することにより、符号化されたデータから診断に有効な領域が自動的に選択され、その領域が優先的に読み出されるので、診断に有効な情報を優先して表示することが可能となる。このように診断に有効な情報を優先して表示するので、X線画像を迅速に表示するのと同等の効果が得られる。   By operating as described above, an area effective for diagnosis is automatically selected from the encoded data, and the area is read preferentially, so that information effective for diagnosis can be displayed with priority. It becomes possible. Since information effective for diagnosis is preferentially displayed in this way, the same effect as displaying an X-ray image quickly can be obtained.

次に、診断支援部16について説明する。診断支援部16は、診断支援の目的に応じて異なる処理が必要になるが、大きくは陰影診断処理とテクスチャ疾患診断処理に分類できる。陰影診断処理は、胸部画像中の石灰化、腫溜状の癌、あるいはマンモグラム画像中の腫溜(MASS)の検出に使用されるプロセスである。一方、テクスチャ疾患診断処理は、胸部画像中に発見される間質性肺炎などの診断支援に使用される。   Next, the diagnosis support unit 16 will be described. The diagnosis support unit 16 requires different processing depending on the purpose of diagnosis support, but can be broadly classified into shadow diagnosis processing and texture disease diagnosis processing. Shadow diagnosis processing is a process used to detect calcification in breast images, tumors in the form of tumors, or tumors in mammograms (MASS). On the other hand, the texture disease diagnosis process is used to support diagnosis of interstitial pneumonia found in a chest image.

まず、陰影診断支援について図3〜図7を用いて説明する。   First, shadow diagnosis support will be described with reference to FIGS.

図3は陰影診断支援処理を説明するフローチャートである。まず、ステップS31において、復号された画像データ13が陰影抽出部に入力され、陰影抽出が行なわれる。   FIG. 3 is a flowchart for explaining the shadow diagnosis support process. First, in step S31, the decoded image data 13 is input to the shadow extraction unit, and shadow extraction is performed.

図4は陰影抽出部の内部構成を示すブロック図である。入力された画像データ13から、High-Passフィルタ41とLow-Passフィルタ部42により高周波画像と低周波画像が作成される。演算部43では、これら2つの画像の差分をとり、陰影候補画像データ44が作成される。High-Passフィルタ41とLow-Passフィルタ42の特性例を図5の(A)、(B)に示す。また、高周波画像と低周波画像の差分により形成される特性は、図5(C)に示すが、これは画像中からある大きさの円形パターンを検出するマッチドフィルタと考えることが出きる(図5(C)に示されるように、画像中のある周波数に対応する領域のみを抽出するフィルタは、実効的には画像中のある大きさのものだけを抽出すると解することができる)。   FIG. 4 is a block diagram showing the internal configuration of the shadow extraction unit. A high-frequency image and a low-frequency image are created from the input image data 13 by the high-pass filter 41 and the low-pass filter unit 42. The computing unit 43 takes the difference between these two images and creates shadow candidate image data 44. Examples of characteristics of the high-pass filter 41 and the low-pass filter 42 are shown in FIGS. Further, the characteristic formed by the difference between the high-frequency image and the low-frequency image is shown in FIG. 5C, which can be considered as a matched filter for detecting a circular pattern of a certain size from the image (FIG. 5). As shown in FIG. 5C, it can be understood that a filter that extracts only a region corresponding to a certain frequency in an image effectively extracts only a certain size in the image).

以上の説明から分かるように、陰影抽出処理においてHigh-Passフィルタ41とLow-Passフィルタ42の特性を調整することにより、抽出する円形パターンのサイズを調整することが可能である。一般的に、胸部正面画像の場合であれば、画像中から5mm直径以下の腫溜を選別して抽出することは非常に困難である。理由は画像中には同等サイズの信号が数多く含まれて、その多くは病気の信号ではないからである。そこで、ここでは直径としては10mm程度のマッチドフィルタを想定している。しかし、マッチドフィルタで抽出を試みる円形パターンの直径が1種類である限定はなく、複数種類の円形パターンを用いてもよい。例えば、円形パターンの直径が8mm、12mm、16mmの3種類のフィルタを順序適用して、それぞれのフィルタが抽出した陰影候補を以後のプロセスに流すことも可能である。   As can be seen from the above description, the size of the circular pattern to be extracted can be adjusted by adjusting the characteristics of the high-pass filter 41 and the low-pass filter 42 in the shadow extraction process. Generally, in the case of a chest front image, it is very difficult to select and extract a tumor having a diameter of 5 mm or less from the image. The reason is that the image contains many signals of the same size, and many of them are not sick signals. Therefore, a matched filter having a diameter of about 10 mm is assumed here. However, there is no limitation that the diameter of the circular pattern to be extracted by the matched filter is one type, and a plurality of types of circular patterns may be used. For example, three types of filters having a circular pattern diameter of 8 mm, 12 mm, and 16 mm may be sequentially applied, and the shadow candidates extracted by the respective filters may be passed to the subsequent processes.

次に、ステップS32において、以上の陰影抽出処理(S31)で抽出された陰影候補に対して(複数ある場合はそれぞれに対して)、病理特徴量抽出処理により特徴量が計算される。ここで計算される特徴量は、面積、円形度、閾値感度である。それぞれの特徴量を以下に説明する。ただし、面積と円形度を計算する際には陰影候補を2値化する必要がある。2値化の閾値は、経験的にマッチドフィルタ出力画像のヒストグラムの10%値とする。
(1)面積S=[陰影候補に含まれる画素数]×[1画素の面積]
(2)円形度C=A/S:ここで、Aは実効直径Dの円を陰影候補の重心に配置したときに、その円と陰影候補がオーバーラップする(重なる)面積
(3)閾値感度=|2×S10−S5−S15|:なお、閾値感度とは閾値を変化させた場合の陰影面積変化であり、S5、S10、S15はそれぞれ閾値を5%、10%、15%と変化させたときの面積を、“||”は絶対値を表す。
Next, in step S32, a feature amount is calculated by the pathological feature amount extraction process for the shadow candidates extracted in the above-described shadow extraction process (S31) (for each of the shadow candidates). The feature quantities calculated here are area, circularity, and threshold sensitivity. Each feature amount will be described below. However, it is necessary to binarize the shadow candidates when calculating the area and the circularity. The binarization threshold is empirically set to a 10% value of the histogram of the matched filter output image.
(1) Area S = [number of pixels included in shadow candidate] × [area of one pixel]
(2) Circularity C = A / S: Here, A is an area where the circle and the shadow candidate overlap (overlap) when a circle having an effective diameter D is arranged at the center of gravity of the shadow candidate. (3) Threshold sensitivity = | 2 × S10−S5−S15 |: The threshold sensitivity is the change in the shaded area when the threshold is changed. S5, S10, and S15 change the threshold to 5%, 10%, and 15%, respectively. "||" represents an absolute value of the area when measured.

ステップS33では、以上のように計算された特徴量をベースに、ステップS31で抽出された各陰影に対して陽性か 偽陽性であるかの判定を行う。ここで、偽陽性とは陽性ではない陰影のことである。なお、本実施形態においては、特徴量は上記3種類を用いるものとするが、これら3種類に限定されるものではない。   In step S33, based on the feature amount calculated as described above, it is determined whether each shadow extracted in step S31 is positive or false positive. Here, a false positive is a shadow that is not positive. In the present embodiment, the above-described three types of feature quantities are used, but are not limited to these three types.

なお、ステップS33における判定は、ニューラルネットワークにより構成される判定部を用いて行なう。以下、判定部について学習フェーズと利用フェーズに分けて説明する。本実施形態においては、判定部にニューラルネットワークを使用しているが、これに限定されるものではなく診断支援の目的によっては線形で分離が可能な場合もあり、その場合はより簡便で計算量の少ない線形分離を使用してもよい。   Note that the determination in step S33 is performed using a determination unit configured by a neural network. Hereinafter, the determination unit will be described separately for a learning phase and a usage phase. In this embodiment, a neural network is used for the determination unit. However, the present invention is not limited to this, and there are cases where linear separation is possible depending on the purpose of diagnosis support. A low linear separation may be used.

学習フェーズは、陽性か偽陽性かの結果が分かっている陰影に対して、結果を提示しながら特徴量を入力してニューラルネットワークの内部係数を学習させるものである。ニューラルネットワークは、さまざまなものが開発されている。例をあげるとランメルハートが開発したFeed Forward型の誤差逆伝播ニューラルネットワーク(参考文献:D. E. Rumelhart and J. L. McCelland, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 1: Foundation. Cambridge: The MIT Press, 1986.)、Radial Basis Functionニューラルネットワーク(簡単にRBF-NN)(参考文献:C. Bishop, "Improving the Generalization Properties of Radial Basis Function Neural Networks," Neural Comp., vol. 3, pp. 579-588, 1991.)があげられる。   In the learning phase, an internal coefficient of a neural network is learned by inputting a feature amount while presenting the result for a shadow whose result is positive or false positive. Various neural networks have been developed. An example is Feed Forward type error back-propagation neural network developed by Rammelhart (reference: DE Rumelhart and JL McCelland, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 1: Foundation. Cambridge: The MIT Press, 1986.), Radial Basis Function Neural Network (simply RBF-NN) (reference: C. Bishop, "Improving the Generalization Properties of Radial Basis Function Neural Networks," Neural Comp., Vol. 3, pp. 579 -588, 1991.).

本実施形態においては、図6に示すような3入力のRBF−NNを使用する。構造的にはFeed Forward型を採用して、入力層、中間層1層、出力層の3層構造を有する。入力層には、ステップS32の病理特徴量抽出処理で抽出した特徴量の数に相当する入力Nodeを配置する。中間層に配置するRBFニューロンは、非線型要素としてガウス分布を持つような出力特性を具備させる。RBFニューロンの数は、学習のケース数と問題の複雑さに依存するが、計算時間を妥当に設定するためには100程度が適当である。ニューラルネットワークの出力数は1であり、陽性であれば1、陰性であればゼロが出力される。本実施形態において、ニューラルネットワークは診断支援の目的毎に用意されるが、ニューラルネットワークはソフトウェアで構成されるので、実際は診断支援毎の係数を保存しておいて、使用の際には診断支援毎の係数をセットすることになる。   In this embodiment, a 3-input RBF-NN as shown in FIG. 6 is used. Structurally, it adopts a Feed Forward type and has a three-layer structure of an input layer, an intermediate layer, and an output layer. In the input layer, input nodes corresponding to the number of feature amounts extracted in the pathological feature amount extraction process in step S32 are arranged. The RBF neuron arranged in the intermediate layer has an output characteristic that has a Gaussian distribution as a non-linear element. The number of RBF neurons depends on the number of learning cases and the complexity of the problem, but about 100 is appropriate for setting the calculation time appropriately. The number of outputs of the neural network is 1. If it is positive, 1 is output, and if it is negative, 0 is output. In this embodiment, a neural network is prepared for each purpose of diagnosis support. However, since the neural network is configured by software, in practice, a coefficient for each diagnosis support is stored and used for each diagnosis support. Will be set.

利用フェーズは、診断目的に対応して学習した内部係数をニューラルネットに設定した後に、判定結果が未知の陰影に対する3種類の特徴量を提示して、ネットワーク出力を得る。陽性出力が1、陰性出力が0で学習されれば、出力が0.5以上の場合は陽性、0.5以下であれば陰性の判定が出力される。陽性と判定された円形パターン(陰影)は、それぞれ陽性領域決定処理(ステップS34)
に用いられる。
In the use phase, after setting an internal coefficient learned in accordance with the purpose of diagnosis in a neural network, three types of feature amounts for a shadow whose determination result is unknown are presented to obtain a network output. If learning is performed with a positive output of 1 and a negative output of 0, a positive determination is output when the output is 0.5 or more, and a negative determination is output when the output is 0.5 or less. Each of the circular patterns (shadows) determined to be positive is a positive area determination process (step S34).
Used for.

ステップS34における陽性領域決定処理の目的は、陽性と判定された複数の陰影パターンが近接する場合にはひとつの陽性領域とすること、および符号化された領域を指定するために陽性領域を矩形化することである。ただし、陽性領域の指定を矩形状に限定する制約は本質的なものではなく、JPEG2000ではMAXSHIFTを使用すれば円形の関心領域(陽性領域)を設定することが可能である。   The purpose of the positive area determination process in step S34 is to make one positive area when a plurality of shadow patterns determined to be positive are close to each other, and to make the positive area rectangular in order to specify the encoded area It is to be. However, the restriction to limit the designation of a positive region to a rectangular shape is not essential, and in JPEG2000, a circular region of interest (positive region) can be set by using MAXSHIFT.

図7は、以上の陰影診断支援処理のプロセスを説明する図である。図7の(A)は、画像データ513として入力された胸部正面画像であり、この画像に対してステップS31の陰影抽出処理を適用した結果を(B)に示す。次に、ステップS32の病理特徴量抽出処理は、(B)に示された4個の陰影候補のそれぞれに対して病理特徴量を抽出する。そして、ステップS33において、抽出した特徴量をもとにニューラルネットワークで各陰影が陽性か否かを判定した結果が図7(C)である。(C)では、(A)に示した右肺の矩形の陰影パターンが陰性として排除されている。更に、ステップS34の陽性領域決定処理において、(C)の陽性陰影パターンに対して陽性領域が決定された結果が(D)である。このようにすべての陽性陰影を含むように陽性領域が設定され、しかも左肺の陰影に関しては一つに統合されて陽性領域が設定されている。なお、統合の条件としては、ある陽性領域から所定の範囲内に他の陽性領域が存在すれば、それらは一つの陽性領域として最終的には取り扱われる。領域統合のアルゴリズム例としては、図7(C)の画像に対して、所定回数の形態学的なDilationを行ったのちに、ラベリングの個別領域の数をカウントし、個別領域の数が減少していれば領域の接合が発生したと判断される。そして、結合され領域に含まれるオリジナルの陽性領域をすべて包含するようにROI(関心領域)が決定されて、図7(D)が出力されることになる。   FIG. 7 is a diagram for explaining the process of the above-described shadow diagnosis support process. FIG. 7A is a chest front image input as image data 513, and FIG. 7B shows the result of applying the shadow extraction process of step S31 to this image. Next, the pathological feature amount extraction processing in step S32 extracts a pathological feature amount for each of the four shadow candidates shown in (B). FIG. 7C shows the result of determining whether or not each shadow is positive in the neural network based on the extracted feature amount in step S33. In (C), the rectangular shadow pattern of the right lung shown in (A) is excluded as negative. Furthermore, in the positive area determination process in step S34, (D) is the result of determining the positive area for the positive shadow pattern in (C). Thus, the positive region is set so as to include all the positive shadows, and the positive region is set by integrating the shadows of the left lung. As a condition for integration, if there are other positive regions within a predetermined range from a certain positive region, they are finally handled as one positive region. As an example of the area integration algorithm, after performing a predetermined number of morphological dilations on the image of FIG. 7C, the number of individual areas for labeling is counted, and the number of individual areas decreases. If so, it is determined that joining of regions has occurred. Then, the ROI (region of interest) is determined so as to include all the original positive regions that are combined and included in the region, and FIG. 7D is output.

次に図8〜図14を用いてテクスチャ疾患診断支援を説明する。但し、以下の説明においては、胸部正面画像に対する間質性肺疾患を例にとって説明する。   Next, texture disease diagnosis support will be described with reference to FIGS. However, in the following description, an explanation will be given taking an example of interstitial lung disease for a chest front image.

図8はテクスチャ疾患診断支援処理を説明するフローチャートである。図8において、ステップS81で、復号化部12から出力された画像データ13に対して、テクスチャ疾患抽出処理が適用され、テクスチャ疾患候補関心領域(ROI)が抽出される。図9はテクスチャ疾患抽出処理の機能構成を示すブロック図である。入力画像としての画像データ13はセグメンテーション部91に入力されて肺野領域がセグメンテーションされる。間質性肺疾患は縦隔領域が対象外になることと、陰影パターンを検索するのとはことなり、局所的な領域で判断する疾患であるので、肺野の局所領域を定義するために肺野の抽出が必要になる。   FIG. 8 is a flowchart for explaining texture disease diagnosis support processing. In FIG. 8, a texture disease extraction process is applied to the image data 13 output from the decoding unit 12 in step S81, and a texture disease candidate region of interest (ROI) is extracted. FIG. 9 is a block diagram showing a functional configuration of the texture disease extraction process. The image data 13 as an input image is input to the segmentation unit 91 and the lung field region is segmented. Interstitial lung disease is a disease in which the mediastinal region is excluded from the target and the search for the shadow pattern is different from the local region, so in order to define the local region of the lung field Lung field extraction is required.

セグメンテーション部91について図10を参照して更に説明する。図10はセグメンテーション部91の詳細な機能構成を示すブロック図である。101はセグメント特徴量抽出部であり、画像データ13の各画素に対して特徴量の計算を行なう。102は判別部であり、ニューラルネットワークを用いて疾患候補領域を判定する。   The segmentation unit 91 will be further described with reference to FIG. FIG. 10 is a block diagram showing a detailed functional configuration of the segmentation unit 91. Reference numeral 101 denotes a segment feature amount extraction unit that calculates a feature amount for each pixel of the image data 13. Reference numeral 102 denotes a determination unit that determines a disease candidate region using a neural network.

セグメンテーション部91は、学習フェーズと利用フェーズにより構成が異なる。本実施形態のセグメンテーション部91はニューラルネットワークにより構成されているので、学習データを入力してニューラルネットワーク内部の係数を形成するフェーズを学習フェーズと呼び、入力された画像データに対してセグメンテーションを実施するフェーズを利用フェーズと呼ぶ。以下のフェーズでは画素単位のセグメンテーションを行っているが、セグメンテーションの手法としては画素単位のものに限定されず、画像中から輪郭を追跡する手法によりセグメンテーションを行うことも可能である。輪郭を追跡するタイプのセグメンテーションに関しては、文献:O.Tsujii, M. T. Freedman, and S. K. Mun, "Lung contour detection in chest radiographs using 1-D convolution neural networks," Electronic Imaging, 8(1), pp. 46-53, January 1999.に記載されている。   The configuration of the segmentation unit 91 differs depending on the learning phase and the use phase. Since the segmentation unit 91 of this embodiment is configured by a neural network, a phase in which learning data is input to form a coefficient inside the neural network is called a learning phase, and segmentation is performed on the input image data. The phase is called the usage phase. In the following phases, segmentation is performed in units of pixels. However, the segmentation method is not limited to that in units of pixels, and segmentation can also be performed by a method of tracking an outline from an image. Contour tracking-type segmentation is described by O. Tsujii, MT Freedman, and SK Mun, "Lung contour detection in chest radiographs using 1-D convolution neural networks," Electronic Imaging, 8 (1), pp. 46. -53, January 1999.

図11は学習フェーズにおけるセグメンテーション部の機能構成を説明する図である。入力画像の各画素に対してセグメント特徴抽出部101により特徴量の計算が行われる。計算される特徴量は、画素値をベースに計算されるもの、テクスチャをベースに計算されるもの、解剖学的構造からの相対アドレスで計算するものなどがある。詳しくは、本発明者による論文(O. Tsujii, M. T. Freedman, and S. K. Mun, "Automated Segmentation of Anatomic Regions in Chest Radiographs using Adaptive-Sized Hybrid Neural Network," Med. Phys., 25(6), pp. 998-1007, June 1998.)を参照のこと。   FIG. 11 is a diagram illustrating the functional configuration of the segmentation unit in the learning phase. The feature amount is calculated by the segment feature extraction unit 101 for each pixel of the input image. The calculated feature amount includes a calculation based on a pixel value, a calculation based on a texture, a calculation based on a relative address from an anatomical structure, and the like. For details, see the paper by the present inventor (O. Tsujii, MT Freedman, and SK Mun, "Automated Segmentation of Anatomic Regions in Chest Radiographs using Adaptive-Sized Hybrid Neural Network," Med. Phys., 25 (6), pp. 998-1007, June 1998.).

なお、使用される特徴量は、以上の例や論文で示されるものに限定されるものでなく、その他の論文M. F. McNitt-Gray, H. K. Huang and J. W. Sayre, "Feature Selection in the Pattern Classification Problem of Digital Chest Radiograph Segmentation," IEEE Trans. Med. Imag., 14, 537-547 (1995).などに記載される確率的な特徴量も使用され得る。   The feature quantities used are not limited to those shown in the above examples and papers, but other papers MF McNitt-Gray, HK Huang and JW Sayre, "Feature Selection in the Pattern Classification Problem of Digital Probabilistic features described in Chest Radiograph Segmentation, "IEEE Trans. Med. Imag., 14, 537-547 (1995)."

次に判別部(以下ではニューラルネットワーク部とも呼ぶ)102に関して説明する。ニューラルネットワーク102は、前述したようにさまざまなものが開発されている。本実施形態においては、RBF−NNを使用する。構造的にはFeed Forward型を採用して、図6に示したように入力層、中間層1層、出力層の3層構造とする。ただし、便宜的に入力NODE数は3、中間ニューロンは4、出力NODE数は1としている。   Next, the determination unit (hereinafter also referred to as a neural network unit) 102 will be described. Various neural networks 102 have been developed as described above. In this embodiment, RBF-NN is used. Structurally, a Feed Forward type is adopted, and a three-layer structure of an input layer, an intermediate layer, and an output layer as shown in FIG. However, for convenience, the number of input NODEs is 3, the number of intermediate neurons is 4, and the number of output NODEs is 1.

入力層には、セグメント特徴量抽出部101で抽出した特徴量の数に相当する入力Nodeを配置する。中間層に配置するRBFニューロンは、非線型要素としてガウス分布を持つような出力特性を具備させる。RBFニューロンの数は、学習のケース数と問題の複雑さに依存するが、計算時間を妥当に設定するためには5000程度は適当である。ニューラルネットワークの出力数は、各部位に対するセグメント数に相当する。例えば、図13の(A)に示すような胸部正面の画像であれば、図13の(B)に示すように2つの解剖学的セグメントがあるので、2つの出力NODEが用意される。   Input nodes corresponding to the number of feature amounts extracted by the segment feature amount extraction unit 101 are arranged in the input layer. The RBF neuron arranged in the intermediate layer has an output characteristic that has a Gaussian distribution as a non-linear element. The number of RBF neurons depends on the number of learning cases and the complexity of the problem, but about 5000 is appropriate for setting the calculation time appropriately. The number of outputs of the neural network corresponds to the number of segments for each part. For example, in the case of an image of the front of the chest as shown in FIG. 13A, since there are two anatomical segments as shown in FIG. 13B, two output NODEs are prepared.

なお、本実施形態において、ニューラルネットワークは撮影部位毎(対象画像毎)に用意されるが、ニューラルネットワークはソフトウェアで構成されるので、実際には部位毎の係数を保存しておいて、使用の際には部位毎の係数をセットするようにする。   In this embodiment, a neural network is prepared for each imaging region (for each target image). However, since the neural network is configured by software, the coefficients for each region are actually stored and used. In this case, the coefficient for each part is set.

学習フェーズにおいては、各画素に対する特徴量とともに、セグメンテーション結果である回答例(教師出力画像)がニューラルネットワーク102に提示される。入力画像に対する教師出力画像は、人手によるセグメンテーション処理部111から提供される。図13の(A)に示した入力胸部画像に対応する教師画像を図13の(B)に示す。胸部正面画像に対応するセグメント分類に対応するように、セグメンテーション処理部111では、出力値1と2を持つように教師画像が作られる。ただし、セグメントの対象とならない領域は、それ以外の数、たとえばゼロがセットされる。セグメンテーション処理部111による教師画像の作成は、画像中の領域を指定できるグラフィックソフトで行うことが出きるが、市販されているPhotoshop(米国Adobe社製)などを使用しても可能である。ニューラルネットワークの学習は、RBF−NNの場合は出力エラーを最小にする最小2乗法で行えば、解析的に求めることができ、内部係数の計算は短時間で行える。   In the learning phase, an answer example (teacher output image), which is a segmentation result, is presented to the neural network 102 together with the feature amount for each pixel. The teacher output image for the input image is provided from the manual segmentation processing unit 111. A teacher image corresponding to the input chest image shown in FIG. 13A is shown in FIG. In the segmentation processing unit 111, teacher images are created so as to have output values 1 and 2 so as to correspond to the segment classification corresponding to the chest front image. However, other numbers, for example, zero are set for areas that are not targeted by the segment. Creation of the teacher image by the segmentation processing unit 111 can be performed by graphic software that can specify an area in the image, but it is also possible to use commercially available Photoshop (manufactured by Adobe Corporation in the United States) or the like. In the case of RBF-NN, learning of the neural network can be obtained analytically by performing the least square method that minimizes the output error, and the calculation of the internal coefficient can be performed in a short time.

次に、利用フェーズに関して説明する。図12は利用フェーズにおけるセグメンテーション部91の機能構成を説明する図である。   Next, the usage phase will be described. FIG. 12 is a diagram illustrating the functional configuration of the segmentation unit 91 in the use phase.

セグメント特徴量抽出部101による、画像中の各画素に対する特徴量の抽出は、学習フェーズと同様に行われる。ニューラルネットワーク102に対する内部係数は、対象の撮影部位に対する係数が利用前にロードされる。各画素に対する特徴量がニューラルネットワークに提示されて、ネットワークは出力NODEに出力値を出力する。胸部正面画像の場合では、出力NODEは2つであり、それらの出力NODEで最もYESに近い出力をしたNODEに対応するセグメントに、入力画素は分類される。なお、上記においてロードされる係数とは、ニューラルネットワークにおいて撮影部位毎に学習され、学習の結果としてニューラルネットワーク内部に形成された係数である。これらの係数はもともとは、適当な初期値から出発して、特定の撮影部位、診断支援に合わせて、学習の過程で収斂して行く。この収斂された係数が、ニューラルネットワークの挙動を決定し、通常は複数の係数から構成される。なお、係数の数は、使用するニューラルネットワークの種類、大きさに依存して決まる。   The feature amount extraction for each pixel in the image by the segment feature amount extraction unit 101 is performed in the same manner as in the learning phase. As the internal coefficient for the neural network 102, the coefficient for the target imaging region is loaded before use. The feature quantity for each pixel is presented to the neural network, and the network outputs an output value to the output NODE. In the case of the chest front image, there are two output NODEs, and the input pixels are classified into segments corresponding to the NODEs that output an output closest to YES among these output NODEs. The coefficient loaded in the above is a coefficient that is learned for each imaging region in the neural network and is formed inside the neural network as a result of learning. These coefficients are originally converged in the learning process in accordance with a specific imaging region and diagnosis support, starting from an appropriate initial value. This converged coefficient determines the behavior of the neural network and is usually composed of a plurality of coefficients. The number of coefficients depends on the type and size of the neural network to be used.

このようにして画像中のすべての画素に対する分類が完了したセグメント画像例を図13の(C)に示す。一般的にニューラルネットワーク部102が出力したセグメント画像にはノイズが含まれる。例えば、肺野の領域から分離して小さい面積の肺野領域が発生する場合がある。このようなノイズ的な小領域は、後処理過程で除去されるが、この技術に関しては前述の文献:O.Tsujii, M. T. Freedman, and S. K. Mun, "Lung contour detection in chest radiographs using 1-D convolution neural networks," Electronic Imaging, 8(1), pp. 46-53, January 1999.を参照のこと。   FIG. 13C shows an example of a segment image in which the classification for all the pixels in the image is completed in this way. In general, the segment image output from the neural network unit 102 includes noise. For example, a lung field region having a small area may be generated separately from the lung field region. Such noisy small regions are removed in the post-processing process, but this technique is described in the above-mentioned document: O. Tsujii, MT Freedman, and SK Mun, "Lung contour detection in chest radiographs using 1-D convolution. See neural networks, "Electronic Imaging, 8 (1), pp. 46-53, January 1999.

図10の判別部(ニューラルネットワーク部)102の出力がセグメンテーション出力画像103である。胸部正面画像の場合は肺野部分であり、その例を図13の(C)に示す。   The output of the discrimination unit (neural network unit) 102 in FIG. 10 is a segmentation output image 103. In the case of the chest front image, it is the lung field portion, and an example thereof is shown in FIG.

次に、このセグメンテーション出力画像103に対して領域分割処理92(図9)が適用される。 領域分割処理とは、テクスチャ疾患パラメータを計算するための局所的な領域を定義する処理である。具体的例を図14に示す。図14の(A)は胸部正面画像であり、これを画像データ13として入力したセグメンテーション部91は、(B)に示すごとき画像をセグメンテーション出力画像103として出力する。(B)のセグメンテーション出力画像103に領域分割処理92を適用すると、図14の(C)の如く領域分割された画像が得られる。すなわち、分割処理は、セグメンテーション出力画像の対象領域(この場合は肺野)を一定値以下の面積に成るように矩形状に分割する処理である。このようにして定義された概略矩形の関心領域をテクスチャ疾患候補ROI(93)と呼ぶ。   Next, an area division process 92 (FIG. 9) is applied to the segmentation output image 103. The area dividing process is a process of defining a local area for calculating the texture disease parameter. A specific example is shown in FIG. FIG. 14A shows a chest front image, and the segmentation unit 91 that has input the image as image data 13 outputs the image shown in FIG. 14B as a segmentation output image 103. When the region division processing 92 is applied to the segmentation output image 103 in (B), an image divided into regions as shown in FIG. 14C is obtained. That is, the dividing process is a process of dividing the target region (in this case, the lung field in this case) of the segmentation output image into a rectangular shape so as to have an area of a certain value or less. The roughly rectangular region of interest defined in this way is called a texture disease candidate ROI (93).

以上説明したように、ステップ81によるテクスチャ疾患抽出処理の出力がテクスチャ疾患候補ROI93である。ステップS82では、この複数のテクスチャ疾患候補ROI93のそれぞれに対して病理特徴量の抽出(病理特徴量の計算)を行ない、得られた特徴量をもとに各候補が陽性か陰性かを判断する。   As described above, the output of the texture disease extraction process in step 81 is the texture disease candidate ROI 93. In step S82, pathological feature amounts are extracted (calculation of pathological feature amounts) for each of the plurality of texture disease candidates ROI 93, and it is determined whether each candidate is positive or negative based on the obtained feature amounts. .

特徴量計算以降の過程は、陰影診断支援処理(図3)と同様である。すなわち、陽性と判定されたテクスチャ疾患候補ROI(図14の(C)においてハッチングを施した領域)を含む矩形状の陽性領域を定義し(S83、S84)、この陽性領域を出力する(S85)。ただし、特徴量計算は診断支援の目的に応じてなされる。テクスチャ疾患診断支援に使用される特徴量に関しては、
(1) 桂川茂彦、他:間質性疾患のコンピュータ診断支援の可能性、日本医学表さy線学会誌、50:753−766、1990.
(2) 佐々木康夫、他:じん肺標準写真のテクスチャ解析による定量評価、日本医学表車線学会、52:1385−1393、1992.
等の文献を参照されたい。
The process after the feature amount calculation is the same as the shadow diagnosis support process (FIG. 3). That is, a rectangular positive region including the texture disease candidate ROI determined as positive (the hatched region in FIG. 14C) is defined (S83, S84), and this positive region is output (S85). . However, the feature amount calculation is performed according to the purpose of diagnosis support. Regarding features used for texture disease diagnosis support,
(1) Shigehiko Katsurakawa, et al .: Possibility of computer diagnosis support for interstitial disease, Journal of Japanese Medical Association y-ray Society, 50: 753-766, 1990.
(2) Yasuo Sasaki, et al .: Quantitative evaluation by texture analysis of pneumoconiosis standard photographs, Japan Medical Front Lane Association, 52: 1385-1393, 1992.
And the like.

以上説明したようにして、診断支援部16により陽性領域17が出力されると、この出力は入力制御部14に入力され、画像入力部11による画像入力の制御に使用される。入力制御部14の目的は、陽性領域17(以下では関心領域ともよぶ)に対してのデータを読み込むことにあり、それは陽性領域の画像を詳細にして診断支援の精度を向上させ、あるいは詳細な画像表示に寄与する。診断支援の精度向上を行う際には、精度向上された入力画像をもとに診断支援部16が再度適用される。以下、入力制御部14について説明する。   As described above, when the diagnosis support unit 16 outputs the positive region 17, this output is input to the input control unit 14 and used for image input control by the image input unit 11. The purpose of the input control unit 14 is to read data for the positive region 17 (hereinafter also referred to as a region of interest), which improves the accuracy of diagnosis support by making the image of the positive region detailed. Contributes to image display. When the accuracy of diagnosis support is improved, the diagnosis support unit 16 is applied again based on the input image with improved accuracy. Hereinafter, the input control unit 14 will be described.

入力制御部14は、関心領域に対するタイル領域、あるいはコードブロック領域を指定して優先的にデータを転送するように画像サーバに指定を行う。画像サーバへの選択的なデータの要求は、画像入力部11を介して行われるが、画像サーバの構成によってはLOSSLESSの全符号を保存しておき、画像入力部11からの要求に応じて動的(ダイナミック)にレイヤなどのストリームを構成することが可能である。   The input control unit 14 designates the image server to preferentially transfer data by designating a tile area or code block area for the region of interest. A request for selective data to the image server is made via the image input unit 11, but depending on the configuration of the image server, all the codes of LOSSLESS are stored and moved in response to a request from the image input unit 11. It is possible to construct a stream such as a layer dynamically.

図15は画像入力部11と画像サーバ151の間で符号列を動的に生成する場合の構成を示した図である。同図において画像入力部11は画像サーバ151に対し画像内の関心領域の位置と当該部分の伝送要求を送信する。画像サーバ151は予め符号化され外部記憶装置152に保存されている符号列から必要な部分を画像入力部11に対して伝送する。以下に、この構成において関心領域に係る符号列の出力形態例を説明する。   FIG. 15 is a diagram illustrating a configuration when a code string is dynamically generated between the image input unit 11 and the image server 151. In the figure, the image input unit 11 transmits the position of the region of interest in the image and a transmission request for the portion to the image server 151. The image server 151 transmits a necessary part from the code string encoded in advance and stored in the external storage device 152 to the image input unit 11. Hereinafter, an example of the output form of the code string related to the region of interest in this configuration will be described.

図16は画像をタイルに分割して符号化した場合の符号列伝送を示した図である。同図において、画像は矩形領域であるタイルに分割され、各タイルは独立に符号化されて外部記憶装置152に記憶されている。画像入力部11からの伝送要求は画像サーバ151内のパーサ161に入力される。パーサ161は入力した関心領域の位置情報から、当該領域にかかるタイルの符号列を外部記憶装置152から読み出し出力する。   FIG. 16 is a diagram showing code string transmission when an image is divided into tiles and encoded. In the figure, an image is divided into tiles that are rectangular areas, and each tile is independently encoded and stored in the external storage device 152. A transmission request from the image input unit 11 is input to the parser 161 in the image server 151. The parser 161 reads out the code sequence of the tile related to the region from the input position information of the region of interest from the external storage device 152 and outputs it.

ここで、各タイルの符号列は前述したように複数のレイヤ(図16ではLayer0〜Layer9の10個のレイヤ)から構成されており、出力されるタイルの符号列は必要なレイヤの符号化データのみでもよいし、又は全てのレイヤであってもよい。出力される符号列は1つにまとめられ、各タイルの符号化データの先頭にはタイルの開始およびタイルの番号を表すマーカコードが挿入される。   Here, the code sequence of each tile is composed of a plurality of layers (10 layers from Layer 0 to Layer 9 in FIG. 16) as described above, and the code sequence of the output tile is encoded data of a necessary layer. Or all layers. The output code strings are combined into one, and a marker code representing the start of the tile and the tile number is inserted at the head of the encoded data of each tile.

図16において、その時点以前に全く符号列が伝送されていない場合は、初期ストリーム設定部18によって設定された情報量に従ってデータストリームを入力するよう入力制御部14が画像入力部11を制御する。これにより、画像入力部11は、たとえば全タイルのレイヤ9,8を入力するよう伝送要求をパーサ161に発行する。パーサ161はタイル1からタイル16までの各タイルの符号化データのレイヤ9,8をまとめて符号列を構成し出力する。続いて、診断支援部16による解析の結果、要請領域(関心領域)がタイル5であったとすると、入力制御部14はタイル5を優先的に入力するよう画像入力部11を制御する。これにより、画像入力部11は、タイル5について更に伝送要求を行う。これを受けたパーサ161は、タイル5の残りの全レイヤ(レイヤ7〜0)をまとめて符号列を構成し、出力する。こうして、要請領域として指定されたタイル5については全てのレイヤが、それ以外のタイルについては必要最小限のレイヤが伝送されることになる。このようにすることで、符号化が可逆で行われていれば、復号された画像は関心領域であるタイル5の部分に関しては可逆で(オリジナルと同一の画質)、それ以外の部分については観察に十分な程度の画質で画像が再生されることになる。   In FIG. 16, when no code string is transmitted before that time, the input control unit 14 controls the image input unit 11 to input a data stream according to the information amount set by the initial stream setting unit 18. Thereby, the image input unit 11 issues a transmission request to the parser 161 so as to input layers 9 and 8 of all tiles, for example. The parser 161 collects the encoded data layers 9 and 8 of each tile from the tile 1 to the tile 16 to form a code string and outputs it. Subsequently, if the requested region (region of interest) is the tile 5 as a result of the analysis by the diagnosis support unit 16, the input control unit 14 controls the image input unit 11 to input the tile 5 preferentially. As a result, the image input unit 11 further makes a transmission request for the tile 5. Receiving this, the parser 161 collects all the remaining layers (layers 7 to 0) of the tile 5 to form a code string and outputs it. In this way, all the layers are transmitted for the tile 5 designated as the required area, and the minimum necessary layers are transmitted for the other tiles. In this way, if the encoding is performed reversibly, the decoded image is reversible with respect to the portion of the tile 5 that is the region of interest (the same image quality as the original), and the other portions are observed. Therefore, the image is reproduced with a sufficient image quality.

一方異なる符号列構成方法を取ることも可能であり、以下に図17を参照して説明する。図17は画像をDWTによって符号化した場合の符号列伝送を示した図である。JPEG2000においてはDWTにより生成されたサブバンドの係数又は量子化インデックスはコードブロックを単位としてビットプレーン符号化される。本例においては、各コードブロックの符号化データが符号列に構成されない形で外部記憶装置152に保存される。   On the other hand, it is possible to adopt a different code string construction method, which will be described below with reference to FIG. FIG. 17 is a diagram showing code string transmission when an image is encoded by DWT. In JPEG2000, subband coefficients or quantization indexes generated by DWT are bit-plane encoded in units of code blocks. In this example, the encoded data of each code block is stored in the external storage device 152 in a form that is not configured as a code string.

ここで、図17に示される外部記憶装置152に記憶されている各コードブロックの符号化データにおいて、診断目的に応じて初期ストリーム設定部18により設定された符号化データ部分は既に伝送が行われている。例えば、最上位から所定のビットプレーン又はレイヤに相当するデータについては、既に初期ストリーム設定部18により伝送されており、伝送された符号化データを復号した画像により、診断支援部16は処理を行っているものとする。   Here, in the encoded data of each code block stored in the external storage device 152 shown in FIG. 17, the encoded data portion set by the initial stream setting unit 18 according to the diagnostic purpose has already been transmitted. ing. For example, data corresponding to a predetermined bit plane or layer from the top is already transmitted by the initial stream setting unit 18, and the diagnosis support unit 16 performs processing based on an image obtained by decoding the transmitted encoded data. It shall be.

次に、診断支援部16により図21(A)に示すように関心領域が出力された場合、入力制御部14は同図(B)に示すように、関心領域を含むコードブロックを特定し、これらのコードブロックの符号化データをさらに伝送するよう、パーサ171に対して伝送要求を出力する。   Next, when the region of interest is output by the diagnosis support unit 16 as shown in FIG. 21A, the input control unit 14 specifies a code block including the region of interest as shown in FIG. A transmission request is output to the parser 171 so as to further transmit the encoded data of these code blocks.

パーサ171は画像入力部11からの伝送要求に応じ、関心領域に係るコードブロックの符号化データを符号列に構成して出力する。このとき、例えば図21に示すように選択されたコードブロックに対しては、全ての符号化データを伝送し、先に伝送済みとなっている符号化データと共に復号することにより、関心領域部分については高い画質を持つ画像を構成することが出来る。   In response to a transmission request from the image input unit 11, the parser 171 configures and outputs the encoded data of the code block related to the region of interest as a code string. At this time, for example, as shown in FIG. 21, for the selected code block, all the encoded data is transmitted, and decoded together with the encoded data that has been transmitted previously, Can compose images with high image quality.

図18はJPEG2000の符号列におけるレイヤの構成例を示したものであるが、上述の例においては、同図に示す符号列のLayer9において、既に伝送済みとなっていない下位ビットプレーンに係る符号化データのみを新たな符号列に構成して伝送することと同じである。或いは、関心領域周辺のコードブロックから構成される付加レイヤを構成して同時に伝送することにより、関心領域とその周辺部分の画質が改善された画像を得ることが出来る。   FIG. 18 shows an example of the layer structure in the JPEG2000 code string. In the above example, in the layer 9 of the code string shown in FIG. This is the same as transmitting only data in a new code string. Alternatively, it is possible to obtain an image in which the image quality of the region of interest and its peripheral part is improved by forming an additional layer composed of code blocks around the region of interest and transmitting it simultaneously.

こうしてパーサ171は画像入力部11からの伝送要求に応じ、関心領域に係るコードブロックの符号化データを図18に示すように上位レイヤに配置した符号列を生成し、出力する。このように符号列構成前の中間状態の符号化データを外部記憶装置152に保存し、外部からの要求に応じて最適な符号列を動的に生成することで、前述したタイル分割を行わない場合であっても、画像表示側の要求に応じて関心領域を高画質とした符号列を生成し出力することが出来る。   In this way, the parser 171 generates and outputs a code string in which the encoded data of the code block related to the region of interest is arranged in the upper layer as shown in FIG. 18 in response to a transmission request from the image input unit 11. In this way, the encoded data in the intermediate state before the code string configuration is stored in the external storage device 152, and the optimum code string is dynamically generated in response to a request from the outside, so that the tile division described above is not performed. Even in this case, it is possible to generate and output a code string having a region of interest with high image quality in response to a request on the image display side.

なお、JPEG2000におけるレイヤに関して符号化を例にとって補足説明を加える。JPEG2000ではレイヤと呼ばれる階層化された符号化データ構成により、前述の関心領域を優先的に符号化することも出来る。図18はこのときのレイヤ構成の様子を示した図である。同図においてコードブロック3および4が関心領域に含まれている。符号列構成部5は入力した関心領域の情報に基づき、関心領域に含まれるコードブロックの符号のみをLayer9に含めて符号列を構成する。   In addition, supplementary explanation will be added by taking encoding as an example regarding the layer in JPEG2000. In JPEG2000, the region of interest can be preferentially encoded by a hierarchical encoded data structure called a layer. FIG. 18 is a diagram showing the state of the layer configuration at this time. In the figure, code blocks 3 and 4 are included in the region of interest. Based on the input information of the region of interest, the code string configuration unit 5 configures a code string by including only the code of the code block included in the region of interest in Layer 9.

ここでプログレッシブ形態をJPEG2000におけるLayer-Resolution level-Component-Positionとすると、符号列全体におけるレイヤの配置は図19に示すような形態となり、符号列先頭に位置するLayer9には関心領域の符号化データのみが含まれる。   Here, when the progressive form is Layer-Resolution level-Component-Position in JPEG2000, the arrangement of layers in the entire code string is as shown in FIG. 19, and the encoded data of the region of interest is stored in Layer 9 located at the head of the code string. Only included.

また、符号化処理の量子化過程において量子化を行わないようし、所定の上位レイヤに関しては、予め定められた圧縮率に対応する符号化データ量となるよう構成することにより、図19に示すように、各レイヤに対し圧縮率を対応させつつ、全体では可逆符号化とすることも可能である。ただし、最上位レイヤ(Layer9)に対しては関心領域のみを含むため、その領域の大きさが異なれば、符号化データ長は異なる。   In addition, the quantization process is not performed in the quantization process, and a predetermined upper layer is configured to have an encoded data amount corresponding to a predetermined compression rate, as shown in FIG. As described above, it is possible to perform lossless encoding as a whole while making the compression rate correspond to each layer. However, since the highest layer (Layer 9) includes only the region of interest, the encoded data length differs if the size of the region is different.

医療画像は大きいので限られた画素数のモニタで観察するにはその細部を常に表示することができない。この問題に対して、関心領域を決めてそこだけ大きく表示することが考えられる。しかし、小さい画像から関心領域を適切に決めることは難しく、関心領域を人間に代わって決める手段が必要となる。上記実施形態では、診断支援技術によって決定された関心領域を使用して、その領域を自動的に高精細で表示することを提供している。   Since a medical image is large, its details cannot always be displayed for observation on a monitor having a limited number of pixels. In order to solve this problem, it is conceivable to display a large area by determining a region of interest. However, it is difficult to appropriately determine a region of interest from a small image, and means for determining the region of interest on behalf of a person is required. In the above embodiment, the region of interest determined by the diagnosis support technology is used, and the region is automatically displayed in high definition.

すなわち、上記実施形態によれば、医療画像に対して診断支援を行う際に、すべての画像を読みこまずに最低限必要な画像で診断支援を行い、診断支援手段により陽性と判断された部分に対して、その領域の詳細な画像が選択的に取り込まれる。このため、効率的なデータ転送が行えて、また重要な部分に対して詳細な画像表示を迅速に行なえる。   That is, according to the above-described embodiment, when performing diagnosis support for medical images, the diagnosis support is performed with the minimum necessary images without reading all the images, and the portion determined to be positive by the diagnosis support means In contrast, a detailed image of the area is selectively captured. Therefore, efficient data transfer can be performed, and detailed image display can be quickly performed on important parts.

また、画像の診断目的に応じて、適切な初期画像の取りこみが可能になり、大まかな画像しか必要としない診断支援手段に対して不必要なデータ転送が発生しないので、ネットワークのトラフィックを軽減させることが可能である。   Also, depending on the purpose of image diagnosis, it is possible to capture an appropriate initial image, and unnecessary data transfer does not occur for diagnostic support means that require only a rough image, thus reducing network traffic. It is possible.

なお、診断支援手段の結果、要請領域が無いものに関しては、発明者が既に出願しているような照射野領域から素抜け部分を削除した領域を関心領域とすることが考えられる。また、関心領域を故意に設定(表示)しないことにより画像を見ている医師に対して無所見であること明示する効果が生じる。   As a result of the diagnosis support means, for those that do not have a requested area, it is conceivable that an area in which the missing part is deleted from the irradiation field area that the inventor has already applied for is set as the area of interest. Further, by intentionally not setting (displaying) the region of interest, there is an effect of clearly indicating that there is no finding to the doctor who is viewing the image.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。   Another object of the present invention is to supply a storage medium storing software program codes for implementing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in the.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。   As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

上記の目的を達成するための本発明の一態様による診断支援装置は以下の構成を有する。すなわち、
医療画像データに基づき検出された検出対象の情報を診断支援情報として提供する診断支援装置であって、
検出対象の種類に応じて検出に用いる医療画像データの解像度を設定する設定手段と、
前記設定された解像度の医療画像データに基づき検出された検出対象の情報を表示部に表示させる表示制御手段と、を有する。
In order to achieve the above object, a diagnosis support apparatus according to an aspect of the present invention has the following configuration. That is,
A diagnosis support apparatus that provides information on a detection target detected based on medical image data as diagnosis support information,
Setting means for setting the resolution of the medical image data used for detection according to the type of detection target;
Display control means for displaying information on a detection target detected based on the medical image data having the set resolution on a display unit.

上記の目的を達成するための本発明の一態様による診断支援装置の制御方法は、
医療画像データに基づき検出された検出対象の情報を診断支援情報として提供する診断支援装置の制御方法であって、
設定手段が、検出対象の種類に応じて検出に用いる医療画像データの解像度を設定する設定工程と、
表示制御手段が、前記設定された解像度の医療画像データに基づき検出された検出対象の情報を表示部に表示させる表示制御工程と、を有する。
In order to achieve the above object, a method for controlling a diagnosis support apparatus according to an aspect of the present invention includes:
A method for controlling a diagnosis support apparatus that provides information on a detection target detected based on medical image data as diagnosis support information,
A setting step in which the setting means sets the resolution of the medical image data used for detection according to the type of detection target;
The display control means includes a display control step of causing the display unit to display information on a detection target detected based on the medical image data having the set resolution.

Claims (22)

画像データを系列変換し、符号化して得られたデータストリームの第1の部分を取り込む第1取込手段と、
前記第1取込手段により取り込まれたデータストリームを復号化して2次元画像を得る復号手段と、
前記復号手段によって得られた2次元画像を解析し、該2次元画像中の関心領域を決定する解析手段と、
前記解析手段によって決定された関心領域に基づいて前記データストリームより選択される第2の部分を取り込む第2取込手段と、を備えることを特徴とする画像処理装置。
First capture means for capturing a first portion of a data stream obtained by serially converting and encoding image data;
Decoding means for decoding the data stream captured by the first capturing means to obtain a two-dimensional image;
Analyzing the two-dimensional image obtained by the decoding means, and determining an area of interest in the two-dimensional image;
An image processing apparatus comprising: a second capturing unit configured to capture a second portion selected from the data stream based on the region of interest determined by the analyzing unit.
前記第1取込手段で取り込む第1の部分のデータストリームは、前記解析手段による解析の実行を可能とする最低限の画質を保証するものであることを特徴とする請求項1に記載の画像処理装置。   2. The image according to claim 1, wherein the first portion of the data stream captured by the first capturing unit guarantees a minimum image quality that enables the analysis by the analyzing unit. Processing equipment. 前記解析手段は、前記符号手段によって得られた2次元画像について医療診断支援を行なうことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the analysis unit performs medical diagnosis support for the two-dimensional image obtained by the encoding unit. 前記第1取込手段で取り込む前記第1の部分のデータ量を、診断目的に応じて設定する設定手段を更に備えることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, further comprising a setting unit that sets a data amount of the first portion captured by the first capturing unit according to a diagnosis purpose. 前記関心領域は、前記医療診断支援の結果、陽性と判定された領域であることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the region of interest is a region determined to be positive as a result of the medical diagnosis support. 前記第2取込手段は、前記解析手段が出力する関心領域に対応する画像の詳細を表すデータストリームを取り込むことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second capturing unit captures a data stream representing details of an image corresponding to a region of interest output by the analyzing unit. 前記第2取込手段は、データストリームを提供する装置に対して、前記画像の詳細を表すデータストリームの提供を要求することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the second capturing unit requests an apparatus that provides a data stream to provide a data stream representing details of the image. 前記第2取込手段は、前記関心領域に対応する領域が、前記第1取込手段で取り込まれたデータストリームによって得られる画質よりも高画質になるようにデータストリームを取り込むことを特徴とする請求項1に記載の画像処理装置。   The second capturing unit captures a data stream so that an area corresponding to the region of interest has higher image quality than that obtained by the data stream captured by the first capturing unit. The image processing apparatus according to claim 1. 前記第2取込手段で取り込まれたデータストリームについて前記復号手段と前記解析手段を実行することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the decoding unit and the analyzing unit are executed on the data stream captured by the second capturing unit. 前記復号手段で復号された2次元画像を表示するとともに、当該表示において前記解析手段で決定された関心領域を明示する表示を行なう表示手段を更に備えることを特徴とする請求項1に記載の画像処理装置。   2. The image according to claim 1, further comprising display means for displaying the two-dimensional image decoded by the decoding means, and displaying the region of interest determined by the analysis means in the display. Processing equipment. 画像データを系列変換し、符号化して得られたデータストリームの第1の部分を取り込む第1取込工程と、
前記第1取込工程により取り込まれたデータストリームを復号化して2次元画像を得る復号工程と、
前記復号工程によって得られた2次元画像を解析し、該2次元画像中の関心領域を決定する解析工程と、
前記解析工程によって決定された関心領域に基づいて前記データストリームより選択される第2の部分を取り込む第2取込工程と、を備えることを特徴とする画像処理方法。
A first capture step for capturing a first portion of a data stream obtained by serially converting and encoding image data;
A decoding step of decoding the data stream captured by the first capturing step to obtain a two-dimensional image;
Analyzing the two-dimensional image obtained by the decoding step, and determining a region of interest in the two-dimensional image;
A second capturing step of capturing a second portion selected from the data stream based on the region of interest determined by the analyzing step.
前記第1取込工程で取り込む第1の部分のデータストリームは、前記解析工程による解析の実行を可能とする最低限の画質を保証するものであることを特徴とする請求項11に記載の画像処理方法。   12. The image according to claim 11, wherein the first portion of the data stream captured in the first capturing process guarantees a minimum image quality that enables execution of the analysis by the analyzing process. Processing method. 前記解析工程は、前記符号工程によって得られた2次元画像について医療診断支援を行なうことを特徴とする請求項11に記載の画像処理方法。   The image processing method according to claim 11, wherein the analysis step performs medical diagnosis support for the two-dimensional image obtained by the encoding step. 前記第1取込工程で取り込む前記第1の部分のデータ量を、診断目的に応じて設定する設定工程を更に備えることを特徴とする請求項13に記載の画像処理方法。   The image processing method according to claim 13, further comprising a setting step of setting the data amount of the first portion captured in the first capturing step according to a diagnostic purpose. 前記関心領域は、前記医療診断支援の結果、陽性と判定された領域であることを特徴とする請求項13に記載の画像処理方法。   The image processing method according to claim 13, wherein the region of interest is a region determined to be positive as a result of the medical diagnosis support. 前記第2取込工程は、前記解析工程が出力する関心領域に対応する画像の詳細を表すデータストリームを取り込むことを特徴とする請求項11に記載の画像処理方法。   The image processing method according to claim 11, wherein the second capturing step captures a data stream representing details of an image corresponding to a region of interest output by the analyzing step. 前記第2取込工程は、データストリームを提供する装置に対して、前記画像の詳細を表すデータストリームの提供を要求することを特徴とする請求項16に記載の画像処理方法。   The image processing method according to claim 16, wherein the second capturing step requests an apparatus that provides a data stream to provide a data stream that represents details of the image. 前記第2取込工程は、前記関心領域に対応する領域が、前記第1取込工程で取り込まれたデータストリームによって得られる画質よりも高画質になるようにデータストリームを取り込むことを特徴とする請求項11に記載の画像処理方法。   The second capturing step captures a data stream so that an area corresponding to the region of interest has higher image quality than that obtained by the data stream captured in the first capturing step. The image processing method according to claim 11. 前記第2取込工程で取り込まれたデータストリームについて前記復号工程と前記解析工程を実行することを特徴とする請求項11に記載の画像処理方法。   The image processing method according to claim 11, wherein the decoding step and the analysis step are executed on the data stream captured in the second capturing step. 前記復号工程で復号された2次元画像を表示するとともに、当該表示において前記解析工程で決定された関心領域を明示する表示を行なう表示工程を更に備えることを特徴とする請求項11に記載の画像処理方法。   12. The image according to claim 11, further comprising a display step of displaying the two-dimensional image decoded in the decoding step and displaying the region of interest determined in the analysis step in the display. Processing method. 請求項11乃至20のいずれかに記載の画像処理方法をコンピュータによって実現するための制御プログラムを格納する記憶媒体。   A storage medium for storing a control program for realizing the image processing method according to claim 11 by a computer. 請求項11乃至20のいずれかに記載の画像処理方法をコンピュータによって実現するための制御プログラム。   A control program for realizing the image processing method according to any one of claims 11 to 20 by a computer.
JP2012263659A 2012-11-30 2012-11-30 Diagnosis support apparatus and control method thereof, diagnosis support system, and program Expired - Fee Related JP5693550B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012263659A JP5693550B2 (en) 2012-11-30 2012-11-30 Diagnosis support apparatus and control method thereof, diagnosis support system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012263659A JP5693550B2 (en) 2012-11-30 2012-11-30 Diagnosis support apparatus and control method thereof, diagnosis support system, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001132930A Division JP5388393B2 (en) 2001-04-27 2001-04-27 Image processing apparatus, image processing method, and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014145385A Division JP5837965B2 (en) 2014-07-15 2014-07-15 Image receiving apparatus, image transmitting apparatus, and control method thereof

Publications (2)

Publication Number Publication Date
JP2013052256A true JP2013052256A (en) 2013-03-21
JP5693550B2 JP5693550B2 (en) 2015-04-01

Family

ID=48129761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012263659A Expired - Fee Related JP5693550B2 (en) 2012-11-30 2012-11-30 Diagnosis support apparatus and control method thereof, diagnosis support system, and program

Country Status (1)

Country Link
JP (1) JP5693550B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366488B2 (en) 2016-04-08 2019-07-30 International Business Machines Corporation Image processing used to estimate abnormalities
KR20220116928A (en) * 2021-02-16 2022-08-23 디디에이치 주식회사 Labeling method and apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6275773A (en) * 1985-09-30 1987-04-07 Toshiba Corp Picture compression device
JPH07323024A (en) * 1994-06-01 1995-12-12 Konica Corp Image diagnosis supporting apparatus
WO2000000933A1 (en) * 1998-06-26 2000-01-06 Sarnoff Corporation Region-based image processing method and apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6275773A (en) * 1985-09-30 1987-04-07 Toshiba Corp Picture compression device
JPH07323024A (en) * 1994-06-01 1995-12-12 Konica Corp Image diagnosis supporting apparatus
WO2000000933A1 (en) * 1998-06-26 2000-01-06 Sarnoff Corporation Region-based image processing method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366488B2 (en) 2016-04-08 2019-07-30 International Business Machines Corporation Image processing used to estimate abnormalities
KR20220116928A (en) * 2021-02-16 2022-08-23 디디에이치 주식회사 Labeling method and apparatus
KR102615435B1 (en) 2021-02-16 2023-12-20 디디에이치 주식회사 Labeling method and apparatus

Also Published As

Publication number Publication date
JP5693550B2 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
JP5388393B2 (en) Image processing apparatus, image processing method, and control program
US7639896B2 (en) Multimodal image registration using compound mutual information
CN111445449B (en) Method, device, computer equipment and storage medium for classifying region of interest
JP2002330951A (en) Image encoding/decoding device and method, computer program and storage medium
JP3847481B2 (en) Data transfer method and apparatus, and recording medium
CN110176002B (en) Focus detection method of X-ray image and terminal device
Liu et al. Medical image fusion method by using Laplacian pyramid and convolutional sparse representation
JP2005296605A (en) Method of segmenting a radiographic image into diagnostically relevant and diagnostically irrelevant regions
CN112116004B (en) Focus classification method and device and focus classification model training method
JP6308976B2 (en) Diagnosis support apparatus, operation method of diagnosis support apparatus, and diagnosis support system
JP5693550B2 (en) Diagnosis support apparatus and control method thereof, diagnosis support system, and program
JP5837965B2 (en) Image receiving apparatus, image transmitting apparatus, and control method thereof
JP2005198798A (en) Radiation image processing apparatus and method
WO2009110260A1 (en) Image treating device
JP6403728B2 (en) Image processing method and apparatus, and image processing system
CN117274759A (en) Infrared and visible light image fusion system based on distillation-fusion-semantic joint driving
JP2001144932A (en) Image processor and its method
Vidhyalakshmi et al. Image Enhancement of Metastasis And Acrometastasis Images Using Clahe With Weiner Filter
JP2001218062A (en) Device and method for image processing and storage medium
Jing et al. Inter-slice Consistency for Unpaired Low-Dose CT Denoising Using Boosted Contrastive Learning
JP2000067223A (en) Method and device for preparing file, method and device for controlling file transfer and recording medium
Alhatami et al. Review and enhancement of discrete cosine transform (DCT) for medical image fusion
JP4428868B2 (en) Image processing apparatus and method, and storage medium
JP7462188B2 (en) Medical image processing device, medical image processing method, and program
Bindu the Role of image Fusion and Watermarking techniques in Medical imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150203

R151 Written notification of patent or utility model registration

Ref document number: 5693550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees