JP2002330951A - Image encoding/decoding device and method, computer program and storage medium - Google Patents

Image encoding/decoding device and method, computer program and storage medium

Info

Publication number
JP2002330951A
JP2002330951A JP2001141752A JP2001141752A JP2002330951A JP 2002330951 A JP2002330951 A JP 2002330951A JP 2001141752 A JP2001141752 A JP 2001141752A JP 2001141752 A JP2001141752 A JP 2001141752A JP 2002330951 A JP2002330951 A JP 2002330951A
Authority
JP
Japan
Prior art keywords
image
region
interest
data
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001141752A
Other languages
Japanese (ja)
Inventor
Makoto Sato
眞 佐藤
Osamu Tsujii
修 辻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001141752A priority Critical patent/JP2002330951A/en
Publication of JP2002330951A publication Critical patent/JP2002330951A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PROBLEM TO BE SOLVED: To discriminate a concerned area in a medical image from the other areas and to reproduce the area distinctly. SOLUTION: The medical image such as an X-ray image inputted from an image input part 1 is diagnosed by a support diagnosis processing part, and when there is found an affected part, its positional and dimensional information is extracted as of the concerned area. This information is supplied to an encoding part 3. The part 3 converts the image to the data of sub-band component of each frequency and separates the component data in the concerned area from the data outside of the concerned area for encoding. Then, the information at least identifying the concerned area from the other areas is added and outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術】本発明は、X線画像等の医療用画
像の符号及び復号化に関する画像処理装置及び方法及び
この方法を記憶した記憶媒体に関するものである。
The present invention relates to an image processing apparatus and method for encoding and decoding medical images such as X-ray images and a storage medium storing the method.

【0002】[0002]

【従来の技術】ある種の蛍光体に放射線(X線、α線、
β線、γ線、電子線、紫外線等)を照射すると、この放
射線エネルギーの一部が蛍光体中に蓄積され、この蛍光
体に可視光等の励起光を照射すると、蓄積されたエネル
ギーに応じて蛍光体が輝尽発光を示すことが知られてい
る。このような性質を示す蛍光体は蓄積性蛍光体(輝尽
性蛍光体)と呼ばれる。この蓄積性蛍光体を利用して、
人体等の被写体の放射線画像情報を一旦蓄積性蛍光体の
シートに記録し、この蓄積性蛍光体シートをレーザ光等
の励起光で走査して輝尽発光光を生ぜしめ、得られた輝
尽発光光を光電的に読み取って画像信号を得、この画像
信号に基づき写真感光材料等の記録材料、CRT等の表
示装置に被写体の放射線画像を可視像として出力させる
放射線画像情報記録再生システムが本出願人によりすで
に提案されている(特開昭55-12429号、特開昭
56-11395号等)。
2. Description of the Related Art Radiation (X-ray, α-ray,
(β-rays, γ-rays, electron beams, ultraviolet rays, etc.), a part of this radiation energy is accumulated in the phosphor, and when this phosphor is irradiated with excitation light such as visible light, It is known that phosphors exhibit stimulated emission. Phosphors exhibiting such properties are called stimulable phosphors (stimulable phosphors). Utilizing this stimulable phosphor,
The radiation image information of a subject such as a human body is temporarily recorded on a sheet of a stimulable phosphor, and the stimulable phosphor sheet is scanned with excitation light such as a laser beam to generate stimulating light, and the obtained stimulating light is emitted. A radiation image information recording / reproducing system which photoelectrically reads emitted light to obtain an image signal, and outputs a radiation image of a subject as a visible image to a recording material such as a photographic photosensitive material or a display device such as a CRT based on the image signal is provided. It has already been proposed by the present applicant (JP-A-55-12429, JP-A-56-11395, etc.).

【0003】また、近年においては半導体のセンサを使
用して同様にX線画像を撮影する装置が開発されてい
る。これらのシステムは、従来の銀塩写真を用いる放射
線写真システムと比較して極めて広い放射線露出域にわ
たって画像を記録しうるという実用的な利点を有してい
る。すなわち、非常に広いダイナミックレンジのX線を
光電変換手段により読み取って電気信号に変換し、この
電気信号を用いて写真感光材料等の記録材料、CRT等
の表示装置に放射線画像を可視像として出力させること
によって、放射線露光量の変動に影響されない放射線画
像を得ることができる。
[0003] In recent years, an apparatus for similarly photographing an X-ray image using a semiconductor sensor has been developed. These systems have the practical advantage of being able to record images over a very wide radiation exposure area compared to conventional radiographic systems using silver halide photography. That is, an X-ray having a very wide dynamic range is read by a photoelectric conversion unit and converted into an electric signal, and the electric signal is used as a visible image on a recording material such as a photographic photosensitive material or a display device such as a CRT using the electric signal. By outputting, a radiation image which is not affected by the fluctuation of the radiation exposure amount can be obtained.

【0004】このように得られた放射線画像はデジタル
画像信号として撮影装置から出力され、蓄積・伝送また
は表示されて診断に用いられる。一方、このような医療
画像のデジタル化普及に伴い計算機による支援診断(Co
mputer Aided Diagnosis-以降CAD)の研究および実
用化が活発に行われている。CADは集団検診のように
大量の画像を読影しなければならない場合において、読
影者の疲労や読影能力差に起因する異常陰影の見落しを
防止する効果が期待されている。
[0004] The radiation image thus obtained is output from the imaging device as a digital image signal, stored, transmitted or displayed and used for diagnosis. On the other hand, with the spread of such digitalization of medical images, computer-assisted diagnosis (Co
Research and commercialization of mputer Aided Diagnosis (hereinafter CAD) are being actively conducted. The CAD is expected to have an effect of preventing an operator from overlooking an abnormal shadow caused by a fatigue of an interpreter or a difference in interpretation ability when a large amount of images must be interpreted as in a mass examination.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、医療画
像、特にX線画像はその解像度が非常に高く、また画素
精度も1画素あたり12ビット以上が要求される等、そ
のデータ量は極めて大きく、そのままで保存または伝送
するためにはコストが大きくなるという問題がある。ま
た、前述した集団検診の例においては、読影対象となる
画像は一般に大量であるため、CADによる関心領域抽
出と画像表示に係る一連の処理は迅速に行われる必要が
ある。また本発明においては医者の診断結果(一次診断
レポート)、あるいは既往歴などのテキスト情報をもと
に関心領域を自動生成する技術を提供する。ここで診断
情報はテキストに限定されるものではなく、音声情報で
ある場合も含む。
However, a medical image, particularly an X-ray image, has a very high resolution and a pixel precision of 12 bits or more per pixel. However, there is a problem that the cost is increased to store or transmit the data. In addition, in the above-described example of the group examination, since a large number of images are to be interpreted, it is necessary to rapidly perform a series of processes related to the region of interest extraction and image display by CAD. The present invention also provides a technique for automatically generating a region of interest based on text information such as a doctor's diagnosis result (primary diagnosis report) or a medical history. Here, the diagnostic information is not limited to text, but also includes audio information.

【0006】本発明は、関心領域を有する医療用画像を
再現する場合、その再現する側で関心領域とそれ以外の
領域と区別して再現することを可能ならしめる画像符号
化装置及び復号装置及び方法及びコンピュータプログラ
ム及び記憶媒体を提供しようとするものである。
According to the present invention, when a medical image having a region of interest is reproduced, the image encoding device, the decoding device, and the method enable to reproduce the region of interest and the other region separately on the reproduction side. And a computer program and a storage medium.

【0007】[0007]

【課題を解決するための手段】この課題を解決するた
め、例えば本発明の画像符号化装置は以下の構成を備え
る。すなわち、与えられた医療用画像中に関心領域を設
定する、或いは関心領域を検出する手段を用いて、関心
領域に関する情報を有する画像に対し符号化する画像符
号化装置であって、画像を周波数成分毎のサブバンド成
分のデータに変換する変換手段と、該変換手段で得られ
た成分データ中、前記関心領域にある成分データと、関
心領域外の成分データとを分離して符号化する符号化手
段と該符号化手段で符号化した符号化データに、少なく
とも関心領域と関心領域外とを識別するための情報を付
加して出力する出力手段とを備える。
In order to solve this problem, for example, an image coding apparatus according to the present invention has the following arrangement. That is, an image coding apparatus that sets a region of interest in a given medical image, or encodes an image having information on the region of interest by using a unit that detects the region of interest, comprising: Conversion means for converting the data into sub-band component data for each component; and a code for separating and coding the component data in the region of interest and the component data outside the region of interest in the component data obtained by the conversion means. And an output unit for adding at least information for identifying a region of interest and an area outside the region of interest to the encoded data encoded by the encoding unit, and outputting the encoded data.

【0008】また、本発明の好適な実施態様に従えば、
本発明による画像処理装置は、医療用画像を入力する画
像入力手段と、前記入力画像を解析し病変部分の候補領
域を抽出する支援診断解析を行う支援診断手段と、前記
画像に対して符号化処理を行い前記画像に係る符号列を
出力する符号化手段と、該符号化手段による符号列を蓄
積する蓄積手段と、前記蓄積された符号列を出力する出
力手段から構成され、前記符号化手段は前記支援診断手
段により出力された領域を関心領域とし、該関心領域の
情報に基づき出力符号列を構成し、前記出力手段は所定
の外部入力に基づき前記蓄積手段に蓄積された前記符号
列を出力することを特徴とする。
According to a preferred embodiment of the present invention,
An image processing apparatus according to the present invention includes: an image input unit that inputs a medical image; a support diagnosis unit that performs a support diagnosis analysis that analyzes the input image and extracts a candidate region of a lesion; and encodes the image. An encoding unit that performs processing and outputs a code sequence related to the image; a storage unit that stores the code sequence by the encoding unit; and an output unit that outputs the stored code sequence. Is a region of interest output by the support diagnosis unit, and configures an output code string based on the information of the region of interest.The output unit converts the code string stored in the storage unit based on a predetermined external input. It is characterized by outputting.

【0009】さらに、本発明による画像処理装置は、前
記符号列を復号し画像を表示する際において、前記符号
化手段により生成された符号列を入力する符号入力手段
と、該符号列を記憶する記憶手段と、該符号列を復号し
復号画像を出力する復号手段と、該符号列から前記関心
領域の位置情報を抽出する抽出手段と、前記復号画像を
表示する際、該位置情報に基づき前記復号画像に所定の
マーカを付加して表示を行う表示手段から構成されるこ
とを特徴とする。
Further, the image processing apparatus according to the present invention, when decoding the code sequence and displaying an image, code input means for inputting the code sequence generated by the coding means, and stores the code sequence. Storage means, decoding means for decoding the code string and outputting a decoded image, extraction means for extracting position information of the region of interest from the code string, and displaying the decoded image based on the position information. It is characterized by comprising display means for adding a predetermined marker to the decoded image and displaying the decoded image.

【0010】[0010]

【発明の実施の形態】以下、添付図面に従って本発明に
係る実施形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0011】<第1実施の形態>図1、図2は本実施形
態における画像処理システム(図1は符号化する側の装
置、図2は復号化する側の装置)を示した図である。
<First Embodiment> FIGS. 1 and 2 show an image processing system (FIG. 1 shows an apparatus on the encoding side and FIG. 2 shows an apparatus on the decoding side) according to the present embodiment. .

【0012】図1において、画像入力部1は所定の方法
により撮影された1枚以上のX線(医療用)画像(単純
X線画像に限らず、X線CTによるX線断層像、MRI
による断層像等でも構わない)を順次入力し、後続の支
援診断処理部2に出力している。画像入力部1としては
デジタル画像信号を生成する所定の撮像装置、またはこ
のような撮像装置により予め撮影された画像を保管した
MO等の記録媒体の読取装置であってもよい。
In FIG. 1, an image input unit 1 includes one or more X-ray (medical) images (not limited to a simple X-ray image) taken by a predetermined method, an X-ray tomographic image by X-ray CT, an MRI
May be input in sequence, and output to the subsequent support diagnosis processing unit 2. The image input unit 1 may be a predetermined imaging device that generates a digital image signal, or a reading device for a recording medium such as an MO that stores an image captured in advance by such an imaging device.

【0013】支援診断処理部2は入力した画像に対し、
所定の方法により異常陰影と思われる領域を関心領域
(以降ROI;Region Of Interest)として抽出する。
抽出のアルゴリズムは如何なるものでもよく、その詳細
は省略するが、例えば" Computer-Aided Diagnosis Sch
eme for Detecting Pulmonary Nodules Using WaveletT
ransform", Proc SPIE2434: Medial Imaging, pp.
621-626, San Diego, February, 1995.等に
記述されている方法によることができる。本実施形態で
も、これを採用するものとして説明する。
[0013] The support diagnosis processing unit 2
A region considered to be an abnormal shadow is extracted as a region of interest (hereinafter, ROI: Region Of Interest) by a predetermined method.
Any algorithm can be used for the extraction, and details thereof are omitted. For example, “Computer-Aided Diagnosis Sch
eme for Detecting Pulmonary Nodules Using WaveletT
ransform ", Proc SPIE2434: Medial Imaging, pp.
621-626, San Diego, February, 1995. Also in the present embodiment, description will be made assuming that this is adopted.

【0014】さて、支援診断処理部2は検出対象となっ
た画像および検出したROIの位置・大きさに関する情
報を後続の符号化部3に出力する。
The support diagnosis processing unit 2 outputs information on the image to be detected and the position and size of the detected ROI to the subsequent encoding unit 3.

【0015】符号化部3は入力したROIに関する情報
(位置及び大きさ)を元にして入力画像を圧縮符号化
し、符号列を出力する。本実施形態においては符号化の
方式としてISO/IEC15444(以降JPEG2
000)を用いるものとするが、符号化手順の詳細につ
いてはJPEG2000の規格文書に詳しいので、ここ
では概要および必要な項目の説明のみを行う。
The encoding unit 3 compresses and encodes an input image based on the input information (position and size) relating to the ROI, and outputs a code string. In the present embodiment, the encoding method is ISO / IEC15444 (hereinafter, JPEG2
000), but the details of the encoding procedure are detailed in the JPEG2000 standard document. Therefore, only the outline and the necessary items will be described here.

【0016】図3は符号化部3の構成を示したものであ
る。画像信号は離散ウェーブレット変換部301で変換
され、変換係数は量子化部302において量子化され量
子化インデックスが出力される。ただし、量子化は符号
化の形態が可逆符号化である場合は行われず、変換係数
がそのまま量子化インデックスとして後続処理に出力さ
れる。
FIG. 3 shows the configuration of the encoding unit 3. The image signal is transformed by the discrete wavelet transform unit 301, and the transform coefficient is quantized by the quantization unit 302, and the quantization index is output. However, quantization is not performed when the encoding mode is lossless encoding, and the transform coefficient is output as it is to a subsequent process as a quantization index.

【0017】一方、支援診断処理部2により抽出された
ROIはROI設定部303に入力される。ROI設定
部303は、入力したROIに関する情報に基づき、量
子化部302から供給された入力したデータの中で、R
OIの領域内に含まれる量子化インデックスを所定ビッ
ト数だけシフトアップする。
On the other hand, the ROI extracted by the support diagnosis processing unit 2 is input to the ROI setting unit 303. The ROI setting unit 303 determines, based on the input information about the ROI, R in the input data supplied from the quantization unit 302.
The quantization index included in the OI area is shifted up by a predetermined number of bits.

【0018】図4はこの時の量子化インデックスの様子
を図示したものである。同図(A)において円で囲まれ
た部分がROI内の量子化インデックスであり、前段の
支援診断処理部2において指定された領域に属してい
る。この量子化インデックスは同図(B)に示すように
周囲の量子化インデックスとビットプレーンが重ならな
いレベルまでシフトアップされ、後続のエントロピ符号
化部符号化部304に出力される。例えば量子化処理
で、各インデックスの最大量子化値の値が4ビットの場
合には、ROI内のインデックスについては上位へ4ビ
ットシフトする。
FIG. 4 shows the state of the quantization index at this time. In FIG. 7A, a portion surrounded by a circle is a quantization index in the ROI, and belongs to an area specified by the support diagnosis processing unit 2 in the preceding stage. This quantization index is shifted up to a level where the bit plane does not overlap with the surrounding quantization index as shown in FIG. 7B, and is output to the entropy encoder 304 following. For example, in the quantization process, when the value of the maximum quantization value of each index is 4 bits, the index in the ROI is shifted upward by 4 bits.

【0019】エントロピ符号化部304は入力した量子
化インデックスをビットプレーン符号化し、符号化デー
タを後続の符号列構成部305に出力する。符号列構成
部305は入力した符号化データを最終的な符号列に構
成して出力する。ROI内インデックスについては、図
4(B)の場合4ビットシフトアップされるものである
から、ビットプレーンは8個(ビット7のプレーン、ビ
ット6のプレーン、…ビット0のプレーン)存在するこ
とになる。この各ビットプレーンを符号化することにな
る。
The entropy coding section 304 performs bit plane coding on the input quantization index, and outputs the coded data to the subsequent code string forming section 305. The code sequence forming unit 305 forms the input coded data into a final code sequence and outputs the result. Since the index in the ROI is shifted up by 4 bits in the case of FIG. 4B, there are eight bit planes (bit 7 plane, bit 6 plane,... Bit 0 plane). Become. Each of the bit planes is encoded.

【0020】JPEG2000においては符号列の構成
方法として5つのプログレッシブ形態が可能であるが、
本実施形態ではLayer-Resolution level-component-pos
itionによるものとする。したがって、符号列内におい
てROIに属する量子化インデックスの符号化データ
は、常にROI外の量子化インデックスの符号化データ
より前に位置することとなる。
In JPEG2000, five progressive forms are possible as a method of forming a code string.
In the present embodiment, the Layer-Resolution level-component-pos
ition. Therefore, the encoded data of the quantization index belonging to the ROI in the code string is always located before the encoded data of the quantization index outside the ROI.

【0021】このようにして生成された符号列は蓄積部
4に出力され一時保存される。以上の動作は画像入力部
1から出力される一連の画像の各々について実行され、
各画像に係る符号列が蓄積部4に保存される。なお、R
OIが存在する場合には、RGNマーカーにシフトした
ビット数(ROIシフト量s)を格納しておく。
The code string generated in this manner is output to the storage unit 4 and is temporarily stored. The above operation is executed for each of a series of images output from the image input unit 1,
A code string for each image is stored in the storage unit 4. Note that R
If the OI exists, the number of bits shifted (ROI shift amount s) is stored in the RGN marker.

【0022】次に、上述したように蓄積された符号列を
伝送・復号・表示する際の動作について説明する。
Next, the operation of transmitting, decoding and displaying the code string stored as described above will be described.

【0023】図2は画像を復号・表示する表示システム
の構成を表したものである。画像読影に先立ち、不図示
の指示手段(例えばキーボードやマウス等)により符号
列の伝送が指示され、入力制御部8は伝送路7を介して
出力制御部5に符号の出力を要求する。出力制御部5は
出力部6に対して蓄積部4から符号列の読み出し及び伝
送を指示する。これにより、先に保存された一連の符号
列は伝送部7を介して符号入力部9に伝送される。ここ
で伝送部7は、例えばLAN、インターネット等のネッ
トワークである。
FIG. 2 shows the configuration of a display system for decoding and displaying an image. Prior to image interpretation, transmission of a code string is instructed by instruction means (for example, a keyboard or a mouse) (not shown), and the input control unit 8 requests the output control unit 5 to output a code via the transmission path 7. The output control unit 5 instructs the output unit 6 to read and transmit the code string from the storage unit 4. Thereby, a series of previously stored code strings is transmitted to the code input unit 9 via the transmission unit 7. Here, the transmission unit 7 is a network such as a LAN or the Internet.

【0024】なお、以上の説明において画像が複数存在
した場合、1回の伝送指示に対して全ての符号列を伝送
するようにしても良いし、又は後述する1つの符号列に
関する処理が終了してから次の符号列を伝送するように
してもよいが、以降の説明においては複数の符号列が一
度に伝送され、一旦蓄積部10に記憶されるものとす
る。
In the above description, when there are a plurality of images, all the code strings may be transmitted in response to one transmission instruction, or the processing for one code string described later is terminated. After that, the next code string may be transmitted. However, in the following description, it is assumed that a plurality of code strings are transmitted at a time and temporarily stored in the storage unit 10.

【0025】不図示の指示手段により、復号部11は蓄
積部10から、先に伝送された符号列を読み出し、復号
を行う。図5は復号部11の構成を示した図であり、入
力された符号列は符号列解析部1101を介して後段の
エントロピ復号部1102に出力される。符号列解析部
1101は入力した符号列を走査し、復号処理に必要な
情報を制御部1105に出力する。
The decoding unit 11 reads out the previously transmitted code string from the storage unit 10 and decodes the code string by an instruction means (not shown). FIG. 5 is a diagram illustrating the configuration of the decoding unit 11. The input code string is output to a subsequent entropy decoding unit 1102 via a code string analysis unit 1101. The code sequence analysis unit 1101 scans the input code sequence and outputs information necessary for the decoding process to the control unit 1105.

【0026】ここで復号処理はJPEG2000で標準
化された方法により行われるが、符号列解析部1101
は符号列を走査した際に、各サブバンドの最大ビットプ
レーン数Mb、およびROIの存在を示すRGNマーカ
を検出した場合、RGNマーカに付随するROIシフト
量sを制御部1105に出力する。
Here, the decoding process is performed by a method standardized by JPEG2000.
Outputs a ROI shift amount s attached to the RGN marker to the control unit 1105 when detecting the maximum number of bit planes Mb of each subband and an RGN marker indicating the existence of the ROI when scanning the code string.

【0027】一方エントロピ符号化部1102は入力し
た符号列を復号する際、Mbと復号済みのビットプレー
ン数からROI内に位置する量子化インデックスを適切
に下方シフト(上記の例では4ビット下位にシフト)す
るよう修正し逆量子化部1103に出力するが、この時
の量子化インデックスの位置は同時に制御部1105に
出力される。制御部1105は、このようにして得られ
たROIの属する量子化インデックスの位置を記憶す
る。
On the other hand, when decoding the input code sequence, the entropy coding unit 1102 appropriately shifts the quantization index located in the ROI downward from the Mb and the number of decoded bit planes (by 4 bits in the above example). (Shift) and outputs the result to the inverse quantization unit 1103. The position of the quantization index at this time is output to the control unit 1105 at the same time. The control unit 1105 stores the position of the quantization index to which the ROI thus obtained belongs.

【0028】エントロピ復号部1102から出力された
量子化インデックスは逆量子化部1103で逆量子化さ
れて離散ウェーブレット変換係数が復元される。この離
散ウェーブレット変換係数は逆離散ウェーブレット変換
部1104において逆変換が施され、画像信号が復元さ
れ表示部13に出力される。一方、ROIに属する量子
化インデックスの位置は表示制御部12に出力される。
The quantization index output from the entropy decoding unit 1102 is inversely quantized by the inverse quantization unit 1103, and the discrete wavelet transform coefficient is restored. The discrete wavelet transform coefficient is subjected to an inverse transform in an inverse discrete wavelet transform unit 1104, and an image signal is restored and output to the display unit 13. On the other hand, the position of the quantization index belonging to the ROI is output to the display control unit 12.

【0029】表示制御部12は表示部13に対し、復号
部11から入力した画像信号に対してROIの位置を示
すマーカをオーバレイして表示するように制御する。こ
の時、入力した符号列にROIが存在しない場合(RG
Nマーカーに付随するROIシフト量sが0の場合等)
は何のマークも追加されない。このようにして表示部1
3に表示された画像は読影に用いられる。
The display control unit 12 controls the display unit 13 to overlay and display a marker indicating the position of the ROI on the image signal input from the decoding unit 11. At this time, if there is no ROI in the input code string (RG
(Eg, when the ROI shift amount s associated with the N marker is 0)
Does not add any marks. Thus, the display unit 1
The image displayed in 3 is used for image interpretation.

【0030】以上説明した実施形態の具体的な適用例を
図12を用いて説明する。
A specific application example of the above-described embodiment will be described with reference to FIG.

【0031】図中、100は図1に示した符号化装置に
相当するものであり、200は復号化する側の装置に対
応するものである。装置100は、例えば、集団検診等
で利用されるX線撮像する医療用車に設けられるもので
あり、装置200は医療機関(病院等の、医者がいる機
関)に設置されるものと考えると分かりやすい。
In the figure, 100 corresponds to the encoding device shown in FIG. 1, and 200 corresponds to the decoding device. The apparatus 100 is provided, for example, in a medical car that performs X-ray imaging used in a group examination or the like, and the apparatus 200 is assumed to be installed in a medical institution (an institution with a doctor, such as a hospital). Easy to understand.

【0032】装置100では、予め記憶媒体101に格
納された医療用X線画像、もしくはX線撮像装置102
で得られた被検体のX線像(デジタル像)から関心領域
ROIを検出、若しくは設定するCAD106を有す
る。なお、図示の103、105は符号化部及び復号化
部であるが、これらはCAD106に画像を転送するま
での転送効率を考慮してのものであり、必ずしも必須と
いうものではない。CAD106では、先に説明したよ
うに関心領域の候補を自動検出する技術を採用するか、
或いは、モニタを見て技師もしくは医師がその関心領域
候補を設定する。検出或いは設定する関心領域は1つに
限らず、複数存在しても構わない。
In the apparatus 100, a medical X-ray image or an X-ray imaging apparatus 102 stored in a storage medium 101 in advance.
Has a CAD 106 for detecting or setting a region of interest ROI from the X-ray image (digital image) of the subject obtained in step (1). Although 103 and 105 shown in the figure are an encoding unit and a decoding unit, they are provided in consideration of the transfer efficiency until the image is transferred to the CAD 106, and are not necessarily essential. The CAD 106 employs a technique of automatically detecting a candidate of a region of interest as described above,
Alternatively, a technician or doctor sets the region of interest candidate while looking at the monitor. The number of regions of interest to be detected or set is not limited to one, and a plurality of regions may be present.

【0033】この結果は、JPEG2000を用いた、
上記実施形態における符号化部107で符号化を行い、
その結果をROI付きJPEG2000の圧縮符号化フ
ァイルとして一時的に蓄える。そして、ある程度の枚数
(或いはデータ量)が揃ったところで、実際に診察する
側の装置200(例えば医療機関)へ向けて転送を行
う。
This result was obtained by using JPEG2000,
Encoding is performed by the encoding unit 107 in the above embodiment,
The result is temporarily stored as a JPEG2000 compression-encoded file with ROI. Then, when a certain number of sheets (or the amount of data) are prepared, the data is transferred to the apparatus 200 (for example, a medical institution) on the side of actually examining.

【0034】装置200では、上記のようにして転送さ
れてきた複数の圧縮符号化ファイル201を一旦、ハー
ドディスク等の記憶装置に格納する。装置200には、
先に説明したように図2に示す復号化処理を実現する手
段(復号化部202)が備わっており、図示では、ウェ
ブブラウザにプラグインとしてのプログラムで実装する
例を示した。かかる構成で、復号化部202は、操作者
が指定したファイルを読み込み、それを復号化し、更
に、ROIを区別できるように表示画像データを生成す
る。表示制御部203はこうして生成された画像を表示
部204に表示する処理を行うことになる。
The apparatus 200 temporarily stores the plurality of compressed and encoded files 201 transferred as described above in a storage device such as a hard disk. The device 200 includes:
As described above, a unit (decoding unit 202) for realizing the decoding process shown in FIG. 2 is provided, and the example shown in the drawing is implemented in a web browser by a program as a plug-in. With such a configuration, the decoding unit 202 reads the file specified by the operator, decodes the file, and generates display image data so that the ROI can be distinguished. The display control unit 203 performs a process of displaying the generated image on the display unit 204.

【0035】なお、図12のシステム構成は、以下に説
明する各実施形態でも同様に適用可能である。
The system configuration shown in FIG. 12 can be similarly applied to the embodiments described below.

【0036】<第2実施の形態>第1実施の形態におい
ては、ROI部分の量子化インデックスをシフトアップ
することで符号化が行われたが、異なる方式によりRO
I部分を他の部分と分離することも可能である。以下、
第2の実施形態として説明する。
<Second Embodiment> In the first embodiment, encoding is performed by shifting up the quantization index of the ROI part.
It is also possible to separate the I part from other parts. Less than,
A description will be given as a second embodiment.

【0037】本第2の実施形態において、支援診断処理
部2により抽出された関心領域ROIは、階層化された
符号列における所定のレイヤに含められる。図6は本第
2の実施形態における符号列の構成概要を図示したもの
である。図示のように符号列は符号化対象となる画像の
サイズ、コンポーネントに関する情報等を含むメインヘ
ッダMHで開始され、タイルパートヘッダTHに続いて
符号化データBSが配置される。本第2の実施形態にお
いては、画像はタイル分割されていないため(画像全体
が1タイルとしているため)タイルパートヘッダTHお
よび符号化データBSは1つから構成されている。
In the second embodiment, the region of interest ROI extracted by the support diagnosis processing unit 2 is included in a predetermined layer in a hierarchized code string. FIG. 6 illustrates a schematic configuration of a code string according to the second embodiment. As shown in the figure, the code sequence starts with a main header MH including information on the size of an image to be coded, components, and the like, and coded data BS is arranged following the tile part header TH. In the second embodiment, since the image is not divided into tiles (since the entire image is one tile), the tile part header TH and the encoded data BS are composed of one.

【0038】また、本第2の実施形態においてプログレ
ッシブ形態は第1の実施形態と同様であり、符号化デー
タBSは図6に示すように上位レイヤLayer0を先頭に
配置されている。またこの配置において、Layer0は関
心領域に係る符号化データを対象として構成されてい
る。さらに、各レイヤの符号化データは、複数の解像度
に係るパケットPKおよび当該パケットPKに含まれる
コードブロックに関する情報を含んだパケットヘッダP
Hから構成されている。これらの構成に関してはJPE
G2000の規格文書に詳述されているため、ここでは
説明を省略する。
In the second embodiment, the progressive form is the same as that of the first embodiment, and the coded data BS is arranged with the upper layer Layer0 at the top as shown in FIG. In this arrangement, Layer 0 is configured for coded data relating to the region of interest. Furthermore, the encoded data of each layer includes a packet header P including information on packets PK relating to a plurality of resolutions and code blocks included in the packets PK.
H. For these configurations, please refer to JPE
Since the details are described in the G2000 standard document, the description is omitted here.

【0039】図7はこのようなレイヤ構成方法を説明し
た図であり、同図(A)において線で囲まれた部分が支
援診断処理部2により抽出された関心領域(同図(B)
の○で示された部分)である。同図(C)は同画像に対
し離散ウェーブレット変換を施した際のサブバンド構成
およびコードブロックを示したものであり、網掛けされ
ているコードブロックが関心領域を含んでいる。
FIG. 7 is a diagram for explaining such a layer configuration method. In FIG. 7A, a portion surrounded by a line is a region of interest extracted by the support diagnosis processing unit 2 (FIG. 7B).
(The part indicated by ○). FIG. 2C shows the subband configuration and code blocks when the discrete wavelet transform is performed on the same image, and the shaded code blocks include a region of interest.

【0040】符号化部3は符号列を構成する際、図7
(A)に示すように最上位のLayer0には同図(B)に
示した関心領域を含むコードブロックの符号化データの
みが含まれるようにしている。一方対象画像に関心領域
が存在しない場合、Layer0には実際にコードブロック
の符号化データは含まれず、当該パケットヘッダPHの
zero length packetフィールドには0がセットされる。
When constructing a code string, the encoding unit 3
As shown in (A), the uppermost Layer 0 includes only the coded data of the code block including the region of interest shown in FIG. On the other hand, if the region of interest does not exist in the target image, Layer 0 does not actually include the encoded data of the code block, and
0 is set in the zero length packet field.

【0041】以上述べたように符号列を構成した場合に
おける復号時の動作について、以下に説明する。
The operation at the time of decoding when the code string is configured as described above will be described below.

【0042】符号列解析部1101はLayer0に係る符
号化データのパケットヘッダPHを走査することによ
り、画像に関心領域が含まれるかどうかを判断する。パ
ケットヘッダPHのzero length packetフィールドが全
て0である場合、当該画像には関心領域が含まれないと
して、通常の復号処理が行われ、画像が表示される。
The code string analyzer 1101 scans the packet header PH of the coded data for Layer 0 to determine whether or not the image includes a region of interest. When the zero length packet field of the packet header PH is all 0, it is determined that the image does not include the region of interest, and normal decoding processing is performed, and the image is displayed.

【0043】一方、Layer0に符号化データが含まれて
いる場合、当該画像には関心領域が含まれているとして
以降の動作が制御される。
On the other hand, when the encoded data is included in Layer 0, the subsequent operation is controlled on the assumption that the image includes the region of interest.

【0044】復号処理は上位レイヤから下位レイヤに向
かい順次行われるが、エントロピ復号部1102はLaye
r0において復号が行われる際、当該レイヤの所定の解
像度レベルに属するコードブロックの位置をパケットヘ
ッダPHから読み出して制御部1105に出力する。こ
こで、所定の解像度レベルはどのレベルであっても良い
が、例えば図7(C)において最も高解像度のサブバン
ドを選択することにより、画像中の関心領域の位置をよ
り正確に特定することができる。
The decoding process is performed sequentially from the upper layer to the lower layer.
When decoding is performed at r0, the position of a code block belonging to a predetermined resolution level of the layer is read from the packet header PH and output to the control unit 1105. Here, the predetermined resolution level may be any level. For example, by selecting the highest resolution sub-band in FIG. 7C, the position of the region of interest in the image can be specified more accurately. Can be.

【0045】例えば、図7(C)においてはB1、B
2、B3の3つのコードブロックの符号化データはLaye
r0に含まれており、当該コードブロックの位置はメイ
ンヘッダMHに含まれる画像サイズ、コードブロックサ
イズから計算することができる。
For example, in FIG. 7C, B1, B
The encoded data of the three code blocks of 2, 3 is Laye
It is included in r0, and the position of the code block can be calculated from the image size and the code block size included in the main header MH.

【0046】各レイヤは通常の復号処理が行われ、復元
された画像信号は表示部13に出力されるが、この時、
制御部1105から表示制御部12に対し、関心領域を
含むコードブロックの位置に該当する部分にマーカをオ
ーバレイ表示するよう指示がされ、表示装置13にはマ
ーカを生成し、それを付加した画像を出力する。
Each layer is subjected to normal decoding processing, and the restored image signal is output to the display unit 13. At this time,
The control unit 1105 instructs the display control unit 12 to overlay display a marker on a portion corresponding to the position of the code block including the region of interest, generates a marker on the display device 13, and displays an image to which the marker is added. Output.

【0047】<第3の実施形態>前述した実施形態にお
いては、関心領域に係る符号化データを符号列の特定部
分に配置するよう符号列を構成したが、関心領域に関す
る情報を別コンポーネントとして符号列に含めてもよ
い。
<Third Embodiment> In the above-described embodiment, the code sequence is arranged so that the coded data relating to the region of interest is arranged in a specific portion of the code sequence. May be included in the column.

【0048】図8はこの場合の追加コンポーネントを示
した図であり、関心領域に対応する部分は“1”が、そ
れ以外については“0”が画素値として割り当てられて
おり、コンポーネントの精度は1画素あたり1ビットあ
ればよい。
FIG. 8 is a diagram showing additional components in this case, where "1" is assigned as a pixel value to a portion corresponding to the region of interest, and "0" is assigned to the other portions as pixel values. What is necessary is just one bit per pixel.

【0049】このようなコンポーネントを符号列に追加
することで、画像がモノクログレースケールの場合はコ
ンポーネント数が2となる。関心領域が含まれない場合
はコンポーネント数は1となり、復号時においてメイン
ヘッダMHに記述されるコンポーネント数をチェックす
ることで、関心領域の有無を調べることができるように
なる。
By adding such components to the code string, the number of components becomes 2 when the image is monochrome gray scale. When the region of interest is not included, the number of components is 1, and the presence or absence of a region of interest can be checked by checking the number of components described in the main header MH at the time of decoding.

【0050】また、このように1画素あたり1ビットの
コンポーネントを符号化する場合は、符号化において離
散ウェーブレット変換の分解レベルを0とすることによ
り、変換によるダイナミックレンジの増大を防止して符
号化効率低下を抑制することが出来る。
When a component of one bit per pixel is coded as described above, the decomposition level of the discrete wavelet transform is set to 0 in the coding to prevent an increase in the dynamic range due to the conversion. Efficiency reduction can be suppressed.

【0051】復号時においては、追加コンポーネントに
おける画素の値を調べることにより、関心領域の位置を
特定し、復号された画像にマーカを追加し表示すれば良
い。
At the time of decoding, the position of the region of interest may be specified by examining the value of the pixel in the additional component, and a marker may be added to the decoded image and displayed.

【0052】<第4の実施形態>前述した実施形態にお
いては、関心領域に関する情報付加を符号化データの構
成方法として実現したが、それに加え更に符号列に対し
て必要な情報を追加するようにしても良い。
<Fourth Embodiment> In the above-described embodiment, the addition of information relating to a region of interest is realized as a method of forming encoded data. In addition to this, necessary information is added to a code string. May be.

【0053】この場合に蓄積部4に保存されるデータの
フォーマットを図9に示す。同図において先の実施の形
態において生成された符号列は所定のヘッダBHを付加
され、さらに関心領域に関する記述が付加情報DSCと
して同一のファイルに納められる。
FIG. 9 shows a format of data stored in the storage unit 4 in this case. In the figure, a predetermined header BH is added to the code string generated in the previous embodiment, and a description about the region of interest is stored in the same file as additional information DSC.

【0054】ここで、付加情報DSCは支援診断解析に
おいて用いられたパラメータ、検出確度等の情報であ
り、これは読影時に復号部11において抽出され、参考
情報として表示制御部において前述した関心領域のマー
ク追加と同じように表示部13に付加表示される。
Here, the additional information DSC is information such as parameters and detection accuracy used in the support diagnosis analysis, which are extracted by the decoding unit 11 at the time of interpretation, and are used as reference information by the display control unit in the display control unit. It is additionally displayed on the display unit 13 in the same manner as the mark addition.

【0055】<第5の実施形態>前述の符号列構成にお
いては、関心領域の存在する部分に係る符号化データ
が、階層化された符号列中の前半部分に配置されたが、
支援診断の結果に基づき伝送対象となる符号化データを
一部省略するようにしても良い。
<Fifth Embodiment> In the above-described code string configuration, the coded data related to the portion where the region of interest exists is arranged in the first half of the layered code string.
The encoded data to be transmitted may be partially omitted based on the result of the support diagnosis.

【0056】図10はこの時の符号列の構成を示したも
のであり、同図(A)は支援診断処理部2により関心領
域が抽出された場合の符号列、同図(B)は関心領域が
存在しない場合の符号列を示している。
FIG. 10 shows the structure of a code string at this time. FIG. 10A shows a code string when a region of interest is extracted by the support diagnosis processing unit 2, and FIG. This shows a code string when no area exists.

【0057】通常、集団検診等の読影において圧縮符号
化された画像を用いる場合、読影に問題がない程度の非
可逆符号化が許される場合があり、この場合は全ての符
号化データを伝送する必要がない。同図(B)における
符号列は最下位のレイヤが含まれておらず、より高い圧
縮率を得ることが出来る。最下位のレイヤに含まれる符
号化データとしては、例えば胸部X線写真においては腹
腔部、腋下部、又は素抜け領域等の読影に直接関係ない
部位に属するコードブロック又はタイルの符号が含まれ
ている。
Normally, when a compression-encoded image is used in interpretation such as a group examination, irreversible encoding to the extent that there is no problem in interpretation may be permitted. In this case, all encoded data is transmitted. No need. The code string in FIG. 7B does not include the lowest layer, and can obtain a higher compression rate. The encoded data included in the lowest layer includes, for example, a code of a code block or a tile belonging to a part that is not directly related to interpretation such as an abdominal part, an axillary part, or a blank area in a chest radiograph. I have.

【0058】一方、同図(A)に示す関心領域が存在す
る画像の符号列においては全ての符号化データが伝送さ
れるため、読影においては完全に復元された画像にマー
カが付された画像を用いることができるようになる。
On the other hand, in the code sequence of the image in which the region of interest is present as shown in FIG. 9A, all the encoded data are transmitted, so that in the interpretation, the image obtained by adding the marker to the completely restored image is read. Can be used.

【0059】また、このように関心領域の有無に応じて
圧縮率を変える方法として、画像をタイルに分割し、タ
イル毎に量子化ステップを変更するようにしてもよい。
As a method of changing the compression ratio according to the presence or absence of the region of interest, the image may be divided into tiles and the quantization step may be changed for each tile.

【0060】なお、符号化する際には、レイヤー数をヘ
ッダに含め、復号化側ではこのレイヤー数によって関心
領域の有無を判断し、復号化、画像の再現を行うことに
なる。
At the time of encoding, the number of layers is included in the header, and the decoding side determines the presence or absence of a region of interest based on the number of layers, and performs decoding and image reproduction.

【0061】<第6の実施形態>以上の実施の形態にお
いて、伝送の単位となる符号列は1つの画像を符号化し
たものであったが、本発明はこれに限定されるものでは
なく、複数の画像から構成される画像シーケンスを単位
とした場合でも適用することが出来る。
<Sixth Embodiment> In the above embodiment, the code string as a unit of transmission is obtained by encoding one image. However, the present invention is not limited to this. The present invention can be applied even when an image sequence composed of a plurality of images is used as a unit.

【0062】図11は複数の画像から構成される画像シ
ーケンスに対して本発明を適用した際の、蓄積部4に記
憶保存されるファイルの構成を示している。本実施形態
において、記憶ファイルに含まれる画像は同一の被検査
者の胸部X線画像であり、同じ部位を異なる時期に撮影
したものである。
FIG. 11 shows the structure of a file stored in the storage unit 4 when the present invention is applied to an image sequence composed of a plurality of images. In the present embodiment, the images included in the storage file are chest X-ray images of the same subject, and are obtained by photographing the same part at different times.

【0063】画像入力部1はこれらの複数の画像を順次
読み込み、現在の画像は支援診断処理部2に、それ以外
については直接符号化部3に出力するものとする。これ
により、支援診断解析処理は、最も新しい画像に対して
行われ、前述した方法により関心領域が抽出され符号列
が構成される。この時の符号列の構成方法は前述した方
式のいずれであってもよい。
The image input unit 1 sequentially reads the plurality of images, and outputs the current image to the support diagnosis processing unit 2 and outputs the other images directly to the encoding unit 3. Thus, the support diagnosis analysis process is performed on the newest image, and the region of interest is extracted by the above-described method to form a code string. The method of constructing the code string at this time may be any of the methods described above.

【0064】ここで関心領域が現在の画像において存在
した場合、その位置は不図示の記憶領域に記憶され、過
去の画像に対して符号化が行われる際に当該位置は関心
領域として符号化される。このようにして得られた符号
列は1つの記憶ファイルとしてまとめられ、蓄積部4に
記憶され、伝送される。
If the region of interest is present in the current image, its position is stored in a storage area (not shown), and when the past image is coded, the position is coded as the region of interest. You. The code string obtained in this way is collected as one storage file, stored in the storage unit 4, and transmitted.

【0065】読影に際しては、これらの符号列は前述し
た方法により順次復号され、表示部13において表示さ
れる際は各画像の関心領域部分にマーカが付加される。
なお、本実施の形態において過去画像に対しては支援診
断処理を行わなかったが、所定の画像または全ての対象
画像に対して処理を行うようにしても良い。あるいは、
支援診断処理として最新の画像と過去のいずれか1つま
たは複数の画像を比較しても良い。
At the time of image interpretation, these code strings are sequentially decoded by the above-described method, and when displayed on the display unit 13, a marker is added to a region of interest of each image.
In the present embodiment, the support diagnosis processing is not performed on the past image, but the processing may be performed on a predetermined image or all target images. Or,
As the support diagnosis processing, the latest image may be compared with one or more past images.

【0066】また、本実施の形態においては胸部X線画
像を例としたが、その他の複数画像を単位とするシーケ
ンス、例えばCTによる複数の断層画像を対象とする場
合であっても、各断層画像に対して同じように支援診断
処理および符号化を行うことで本発明を適用することが
出来る。
In the present embodiment, the chest X-ray image is taken as an example. However, even when a sequence using a plurality of other images as a unit, for example, a plurality of tomographic images by CT is used, each tomographic image can be obtained. The present invention can be applied by performing the support diagnosis processing and the encoding on the image in the same manner.

【0067】<第7の実施形態>第7の実施形態を説明
する。以下では、ROIを決定する処理手順を含めて説
明するが、このROIの決定の仕方を上記各実施形態に
適用しても構わないのは勿論である。
<Seventh Embodiment> A seventh embodiment will be described. In the following, a description will be given including the processing procedure for determining the ROI, but it is needless to say that the method for determining the ROI may be applied to each of the above embodiments.

【0068】図13は本実施形態における符号化側の装
置、図14は復号化側の装置のブロック構成図である。
FIG. 13 is a block diagram of a device on the encoding side and FIG. 14 is a block diagram of a device on the decoding side in this embodiment.

【0069】画像入力手段501は、ネットワークから
の入力でも良いし、輝尽性蛍光体や半導体センサを使用
したデジタルX線撮影装置からの画像でもよい。ここで
の入力はオリジナル画像データとしてのデータ配列を想
定しており、圧縮などの符号化は行われていない。
The image input means 501 may be an input from a network or an image from a digital X-ray imaging apparatus using a stimulable phosphor or a semiconductor sensor. The input here assumes a data array as original image data, and encoding such as compression is not performed.

【0070】他方、入力された画像に対する診断情報は
診断情報入力手段504に入力される。診断情報は、診
断画像にテキスト情報として附属していることも考える
が、病院情報システム、放射線情報システム、患者診断
情報サーバ(すべて図示していない)などネット―ワー
クで接続された機器に存在することも考えられる。診断
情報入力手段504では、診断情報が画像に付帯する場
合は画像データストリームを解釈することによって、ネ
ットワークに存在する場合はネットワーク検索手段を使
用して、診断情報を取りこむ。
On the other hand, diagnostic information for the input image is input to the diagnostic information input means 504. Although it is considered that the diagnostic information is attached to the diagnostic image as text information, the diagnostic information exists in a device connected via a network such as a hospital information system, a radiation information system, and a patient diagnostic information server (all not shown). It is also possible. The diagnostic information input unit 504 fetches the diagnostic information by interpreting the image data stream when the diagnostic information is attached to the image, and using the network search unit when the diagnostic information is present on the network.

【0071】本実施形態では、画像が胸部正面X線のデ
ジタル画像であり、診断情報(診断レポート)が「右肺
の右上に石灰化が認められる見とめられる」というもの
であるとする。入力された診断情報は、診断情報解釈手
段505に送られる。
In the present embodiment, it is assumed that the image is a digital image of a chest front X-ray, and that the diagnostic information (diagnosis report) is that "calcification is recognized at the upper right of the right lung". The input diagnostic information is sent to the diagnostic information interpreting means 505.

【0072】診断情報解釈手段505の機能ブロック図
は図15に示す通りであり、診断情報の解釈を行って解
釈結果526を出力する。解釈結果は、セグメント番号
と領域分割情報から構成される。セグメント番号とは、
図22に示すように予め決められた解剖学的番号であ
る。
FIG. 15 is a functional block diagram of the diagnostic information interpreting means 505, which interprets diagnostic information and outputs an interpretation result 526. The interpretation result includes a segment number and area division information. What is a segment number?
This is a predetermined anatomical number as shown in FIG.

【0073】胸部正面の場合は、右肺部、左肺部、縦隔
部がそれぞれセグメント番号1、2,3に割り当てられ
ている。領域分割コードは図25に示すように、それぞ
れの解剖学的に部位に対して、その部位の内部での領域
(場所)と特定する情報である。
In the case of the front of the chest, the right lung, the left lung, and the mediastinum are assigned to segment numbers 1, 2, and 3, respectively. As shown in FIG. 25, the area division code is information for specifying each anatomical site as an area (location) inside the site.

【0074】解釈結果526は、図13に示した関心領
域決定手段503に送られる。本例においては、解釈情
報はそれぞれ、セグメント番号1(右肺)、領域情報は
右上である。他方、関心領域決定手段503には、画像
入力手段501から画像の供給も行われる。以上の画像
情報と診断情報の解釈結果をもとに、関心領域決定手段
において関心領域が決定される。
The interpretation result 526 is sent to the region of interest determining means 503 shown in FIG. In this example, the interpretation information is segment number 1 (right lung), and the area information is the upper right. On the other hand, an image is also supplied from the image input unit 501 to the region of interest determination unit 503. The region of interest is determined by the region of interest determination means based on the interpretation result of the image information and the diagnosis information.

【0075】図24に関心領域手段の決定過程を示す。
関心領域決定手段503は、学習過程と利用過程ではデ
ータ処理プロセスが異なるが、決定過程とは利用過程を
示している。画像は、図22に示したセグメント番号に
依存して、セグメント分割され(同図(A))、その中
からセグメント番号1に相当する右肺がラベリングされ
る(同図(B))。ラベリングされた画像に対して領域
分割を行うために楕円近似(同図(C))と重心計算
(同図(D))が適用される。この結果をラベリング画
像(同図(B))に適用して右肺の右上が関心領域とし
て決定される。
FIG. 24 shows a process of determining the region of interest means.
The region of interest determination means 503 has a different data processing process between the learning process and the use process, but the determination process indicates the use process. The image is segmented according to the segment numbers shown in FIG. 22 (FIG. 22A), and the right lung corresponding to the segment number 1 is labeled from the segments (FIG. 22B). Elliptic approximation (Fig. (C)) and centroid calculation (Fig. (D)) are applied to divide the area of the labeled image. The result is applied to the labeling image (FIG. 13B), and the upper right of the right lung is determined as the region of interest.

【0076】上で求めた関心領域を図13の符号化手段
502に提供することにより、関心領域を設定した符号
化が行われる。
By providing the region of interest determined above to the encoding means 502 of FIG. 13, encoding is performed with the region of interest set.

【0077】符号化手段502は、先に説明した実施形
態と同様、関心領域をビットシフトして優先的に符号化
する。この場合は、JPEG2000においては第1の実施形態
において説明したMAXシフト法と呼ばれる方法を適用す
ることによって、最初に関心領域のみを選択的に表示す
ることが可能である。2番目の関心領域実現手段として
は、関心領域に相当する部分のタイル、あるいはCODE
BLOCKを優先的に符号化するように符号化レイヤ(Laye
r)を設定する方法がある。
The encoding means 502 preferentially encodes the region of interest by bit-shifting, as in the embodiment described above. In this case, in the JPEG2000, it is possible to first selectively display only the region of interest by applying the method called the MAX shift method described in the first embodiment. As the second means for realizing the region of interest, the tile corresponding to the region of interest or the CODE
The coding layer (Laye
r) There is a way to set.

【0078】符号化Layerに関して説明する。符号列は
上位レイヤから順に下位レイヤに向かう形で配置され、
各レイヤにはDWTした各サブバンドに係る符号が含ま
れ、更に各サブバンドに係る符号には当該サブバンドに
含まれるコードブロックや符号化パスの指定を含むパケ
ットヘッダPH及び各コードブロックの符号が含まれて
いる。
The coding layer will be described. The code strings are arranged in order from the upper layer to the lower layer,
Each layer includes a code related to each sub-band subjected to DWT, and a code related to each sub-band includes a packet header PH including a code block included in the sub-band and designation of an encoding path, and a code of each code block. It is included.

【0079】図26はレイヤと圧縮率の関係を図示した
ものである。同図において、符号列は10個のレイヤか
ら構成されており最上位レイヤ9から最下位レイヤ0ま
で全て復号された場合は可逆復号が可能となっている。
一方、最上位レイヤ9に係る符号量は入力画像のデータ
量に対して1/20に対応し、レイヤ9からレイヤ7に
係る符号量は1/10に対応している。符号化部502
はこのように所定の圧縮率に対応する符号量が所定レイ
ヤの境界に対応するようレイヤを構成している。
FIG. 26 illustrates the relationship between layers and compression ratios. In the figure, the code string is composed of 10 layers, and when all the layers from the highest layer 9 to the lowest layer 0 are decoded, lossless decoding is possible.
On the other hand, the code amount related to the uppermost layer 9 corresponds to 1/20 of the data amount of the input image, and the code amount related to layers 9 to 7 corresponds to 1/10. Encoding section 502
Constitutes a layer such that the code amount corresponding to the predetermined compression ratio corresponds to the boundary of the predetermined layer.

【0080】以上説明したMaxシフト法により、関心
領域のDWT係数は常に非関心領域のDWT係数よりも上
位ビットプレーンとして符号化されるため、関心領域の
符号符合を優先的に上位のレイヤ(この場合はLayer
9)に割り付けることが行われる。また、関心領域の優
先的な符号化に加えて、決定された関心領域の外形(輪
郭)をオーバレイ情報として画像に付加することも考え
られる。以上のように符号化されたデータは画像出力手
段と介して、ネットワーク上の画像サーバや、診断用画
像表示装置(例えば、図12における装置200)に転
送される。
According to the Max shift method described above, the DWT coefficient of the region of interest is always coded as a bit plane higher than the DWT coefficient of the non-region of interest. Layer if
9) is performed. Further, in addition to preferential encoding of the region of interest, it is conceivable to add the determined outline (outline) of the region of interest to the image as overlay information. The data encoded as described above is transferred to an image server on a network or a diagnostic image display device (for example, the device 200 in FIG. 12) via an image output unit.

【0081】なお、上で求めた関心領域を符号化手段50
2に出力することにより、関心領域を設定した符号化が
行われる。本実施形態において符号化手段502はISO/
IEC15444(以降JPEG2000)によるものとするが、本発明
はこれに限定されるものではなく、他の方法、例えばIS
O/IEC 10918(JPEG)等において関心領域に対して低圧
縮率とする方法によってもよい。
The region of interest determined above is encoded by the encoding means 50.
By outputting the data to 2, the coding is performed with the region of interest set. In the present embodiment, the encoding unit 502
According to IEC15444 (hereinafter JPEG2000), the present invention is not limited to this.
In O / IEC 10918 (JPEG) or the like, a method of setting a low compression ratio for the region of interest may be used.

【0082】図27はJPEG2000の符号化器の基本構成を
示したものであり、画像入力部401により入力された
画像信号は離散ウェーブレット変換変換部402におい
て変換が施され、量子化部403において量子化されて
量子化インデックスが生成される。量子化インデックス
はエントロピ符号化部404においてコードブロック単
位でビットプレーン符号化され、符号列構成部405に
おいて、所定のプログレッシブ形態の符号列が構成され
る。これらの一連の処理については、JPEG2000の規格文
書に詳しいので、詳細説明は省略する。
FIG. 27 shows a basic configuration of a JPEG2000 encoder. An image signal input by an image input unit 401 is transformed by a discrete wavelet transform transform unit 402, and And a quantization index is generated. The quantization index is bit-plane coded in code block units in the entropy coding unit 404, and a code sequence in a predetermined progressive form is configured in the code sequence configuration unit 405. Since a series of these processes is detailed in the JPEG2000 standard document, detailed description is omitted.

【0083】本実施形態において、前述した方法により
求められた関心領域を含む画像は、JPEG2000におけるRO
Iを利用して符号化される。ROIは、図27の系において
エントロピ符号化を行う前に、量子化インデックスを所
定量シフトアップすることにより実現される。
In the present embodiment, the image including the region of interest obtained by the above-described method is the RO of JPEG2000.
It is encoded using I. The ROI is realized by shifting up the quantization index by a predetermined amount before performing entropy coding in the system of FIG.

【0084】図28はこの時のROIおよびROI外に属する
量子化インデックスの関係を表したものであり、ROI内
の量子化インデックスはROI外の量子化インデックスに
対し、上位ビットプレーンに位置することになる。
FIG. 28 shows the relationship between the ROI at this time and the quantization index belonging to outside the ROI. The quantization index in the ROI is located in the upper bit plane with respect to the quantization index outside the ROI. become.

【0085】ここで、前述した方法により求められた関
心領域はROIとして符号化され、符号列構成部405に
おいて生成される符号列において、関心領域に係る符号
化データは符号列の前半部分に配置される。このような
構成において符号化処理を、ROIを含むビットプレーン
より下位の所定のビットプレーンで打ち切るか、全ての
ビットプレーンを符号化するが、伝送する際に所定数の
下位ビットプレーン(但しROIに係るビットプレーンを
除く)を伝送しないようにすれば、受信側においてROI
部分のみ高精彩である画像を復元することが出来るよう
になる。
Here, the region of interest obtained by the above-described method is encoded as an ROI, and in the code sequence generated by the code sequence forming unit 405, the coded data relating to the region of interest is arranged in the first half of the code sequence. Is done. In such a configuration, the encoding process is terminated at a predetermined bit plane lower than the bit plane including the ROI, or all the bit planes are encoded. (Excluding such bit planes), the ROI on the receiving side
It becomes possible to restore an image in which only parts are high definition.

【0086】また、JPEG2000においてはレイヤと呼ばれ
る階層化された符号化データ構成により、前述の関心領
域を優先的に符号化することも出来る。図29はこの時
のレイヤ構成の様子を示したものであり、同図において
コードブロック3および4が関心領域に含まれている。
符号列構成部405は、入力した関心領域の情報に基づ
き、関心領域に含まれるコードブロックの符号のみをLa
yer9に含めて符号列を構成する。
In JPEG2000, the above-mentioned region of interest can be preferentially encoded by a layered encoded data structure called a layer. FIG. 29 shows the state of the layer configuration at this time. In FIG. 29, code blocks 3 and 4 are included in the region of interest.
The code sequence forming unit 405 determines only the code of the code block included in the region of interest based on the input information of the region of interest.
A code string is included in yer9.

【0087】ここでプログレッシブ形態をJPEG2000にお
けるLayer-Resolution level-Component-Positionとす
ると、符号列全体におけるレイヤの配置は図26に示す
ような形となり、符号列先頭に位置するLayer9には関
心領域の符号化データのみが含まれる。
Here, assuming that the progressive form is Layer-Resolution level-Component-Position in JPEG2000, the layout of the layers in the entire code string is as shown in FIG. Only encoded data is included.

【0088】また、符号化処理の量子化過程において量
子化を行わないようにすれば、図26に示すように、各
レイヤに対し圧縮率を対応させつつ、全体では可逆符号
化とすることも可能である。ここで、最上位レイヤ(La
yer9)に対しては関心領域のみを含むため、その領域の
大きさが異なれば、符号化データ長は異なる。
If quantization is not performed in the quantization process of the encoding process, as shown in FIG. 26, lossless encoding can be performed as a whole while making the compression ratio correspond to each layer. It is possible. Here, the top layer (La
Since yer9) includes only the region of interest, if the size of the region is different, the encoded data length is different.

【0089】このように符号化されたデータは画像出力
手段と介して、ネットワーク上の画像サーバや、不図示
の診断用画像表示装置に伝送される。ここで、符号列の
前半部分に関心領域に係る符号化データを配置し、符号
列の先頭から所定量を表示装置側に伝送することで、関
心領域については高い画質で復元された画像を得ること
ができる。
The data thus encoded is transmitted to an image server on a network or a diagnostic image display device (not shown) via the image output means. Here, by arranging the coded data relating to the region of interest in the first half of the code sequence and transmitting a predetermined amount from the beginning of the code sequence to the display device side, an image restored with high image quality is obtained for the region of interest. be able to.

【0090】復号側では関心領域を含んだ符号列を次の
ようにして復号・表示することが出来る。
On the decoding side, a code string including a region of interest can be decoded and displayed as follows.

【0091】まず関心領域をROIとして符号化した場
合、生成された符号列にはROIの存在を示すRGNマーカが
含まれるため、画像表示に先立ち当該符号列には関心領
域が含まれていることが分かる。ROIを含んだ符号化デ
ータの復号処理についてはJPEG2000規格において規定さ
れている方法により、ROIに係る係数を特定して当該部
分を高画質に復号し、かつマーカを付けて表示すること
が出来る。
First, when the region of interest is coded as an ROI, the generated code string contains an RGN marker indicating the existence of the ROI, so that the code string contains the region of interest prior to image display. I understand. Regarding the decoding process of the coded data including the ROI, the coefficient related to the ROI can be specified, the portion can be decoded with high image quality, and a marker can be displayed by a method defined in the JPEG2000 standard.

【0092】一方、最上位レイヤにのみ関心領域の符号
化データを含めるようにした場合、復号側では最初のパ
ケット(レイヤの符号化データによる符号列構成の単
位)のヘッダを解析し、当該パケットがzero length pa
cket(符号化データが存在しないパケット)ではない場
合、当該符号列に関心領域が含まれていると解釈し、当
該パケットに含まれるコードブロックの占める領域を関
心領域として、復号画像にマーカを付け表示する。
On the other hand, when the coded data of the region of interest is included only in the uppermost layer, the decoding side analyzes the header of the first packet (a unit of the code string configuration based on the coded data of the layer) and analyzes the packet. Is zero length pa
If the packet is not a cket (a packet in which no encoded data exists), it is interpreted that the code string includes a region of interest, and a region occupied by a code block included in the packet is set as a region of interest, and a marker is attached to the decoded image. indicate.

【0093】ここで、先に述べたように最初のレイヤに
は、関心領域に属するコードブロックの全ての符号化デ
ータが含まれるため、当該部分の画像は可逆で再現する
ことができる。
Here, as described above, since the first layer contains all the encoded data of the code block belonging to the region of interest, the image of the portion can be reversibly reproduced.

【0094】なお、コードブロックは各解像度レベルで
サイズが同一であるので、関心領域の大きさを指定する
コードブロックの属する解像度レベルは予め決められて
いるものとする。
Since the size of the code block is the same at each resolution level, it is assumed that the resolution level to which the code block specifying the size of the region of interest belongs is predetermined.

【0095】以上述べた方法によれば、関心領域に係る
符号化データを符号列の前半に配置し、当該部分を高い
画質で表示し、かつ表示画像にマーカを付けることが可
能である。さらに復号時の逆離散ウェーブレット変換に
おいて全てのレベル数逆変換を行わなければ、縮小した
画像を再生し、表示することも可能である。
According to the method described above, it is possible to arrange the coded data relating to the region of interest in the first half of the code string, display the portion with high image quality, and attach a marker to the display image. Further, if the inverse discrete wavelet transform at the time of decoding does not perform all level number inverse transforms, it is possible to reproduce and display the reduced image.

【0096】また、入力画像を所定の大きさの矩形領域
(タイル)に分割し、タイル毎に関心領域かどうかを設
定して符号化しても良い。この場合、符号化方式として
JPEG2000以外の方式を利用することも出来る。また、関
心領域の優先的な符号化に加えて、決定された関心領域
の外形(輪郭)をオーバレイ情報として別コンポーネン
トにし、符号列に付加してもよい。
Further, the input image may be divided into rectangular areas (tiles) of a predetermined size, and whether or not each tile is a region of interest may be encoded. In this case, the encoding method
A method other than JPEG2000 can be used. Further, in addition to preferential encoding of the region of interest, the determined outer shape (outline) of the region of interest may be formed as another component as overlay information and added to the code string.

【0097】次に図14を用いて復号側について説明す
る。画像入力手段511は、符号化された画像データを
前提としている。以下の説明ではDWTされた画像を符
号化ストリームに変換して、画像が入力されることを前
提にしているが、技術としてはDWTに変換に限定され
るものでなくDCT、KL変換等の系列変換された画像
に対して符号化する応用例も考えることができる。
Next, the decoding side will be described with reference to FIG. The image input means 511 is based on encoded image data. In the following description, it is assumed that a DWT-converted image is converted into a coded stream and the image is input. However, the technology is not limited to the DWT conversion, and a series of DCT, KL conversion, etc. An application example of encoding a converted image can also be considered.

【0098】符号化された画像データはネットワーク
(インターネットを含む)上の画像サーバ(不図示)か
ら転送されるが、画像入力手段511により入力された
データは復号化手段512に転送される。DWT画像を
復号化する復号化手段に関しては後述する。復号化手段
512の出力画像513は、画像表示手段515を介し
て表示されるともに、関心領域決定手段503に提供さ
れる、あるいは関心領域決定手段503が画像515を
取りこむ。関心領域決定手段503に至る診断情報入力
手段504、診断情報解釈手段505は第1実施形態と
同じである。
[0098] The encoded image data is transferred from an image server (not shown) on a network (including the Internet), but the data input by the image input means 511 is transferred to the decoding means 512. The decoding means for decoding the DWT image will be described later. The output image 513 of the decoding means 512 is displayed via the image display means 515, and is provided to the region of interest determination means 503, or the region of interest determination means 503 takes in the image 515. The diagnostic information input means 504 and the diagnostic information interpreting means 505 leading to the region of interest determining means 503 are the same as in the first embodiment.

【0099】ここで注目すべき点は、関心領域決定手段
に使用する程度の解像度、画質の画像を得るには変換さ
れているデータストリームをすべて読みこむ必要はな
く、通常は先頭の10分の1程度のデータ量で十分であ
る。
It should be noted here that it is not necessary to read all the converted data streams in order to obtain an image having a resolution and image quality enough to be used for the region of interest determination means. A data amount of about 1 is sufficient.

【0100】以下の説明では対象画像に対するデータの
10分の1程度のデータ量で、縮小表示に十分な画像が
転送されると仮定する。この10分の1程度の画像が入
力された時点で、先に説明したとの同様に関心領域決定
手段503は、診断情報をも使用して関心領域を決定す
る。決定した関心領域は、輪郭情報として画像表示手段
515に表示された縮小画像にオーバレイ表示されると
ともに、データ入力制御手段514に提供される。
In the following description, it is assumed that an image sufficient for reduced display is transferred with a data amount of about 1/10 of the data for the target image. When about one tenth of the image is input, the region-of-interest determination unit 503 determines the region of interest also using the diagnostic information, as described above. The determined region of interest is overlaid on the reduced image displayed on the image display unit 515 as outline information, and provided to the data input control unit 514.

【0101】データ入力制御手段514は符号化の項で
の説明と同様の技術で、関心領域に対するタイル領域、
あるいはCODE BLOCK領域を指定して優先的にデータを
転送するように画像サーバに指定を行う。画像サーバへ
の選択的なデータの要求は、画像入力手段を介して行わ
れるが、画像サーバの構成によってはLOSSLESSの全符号
符合を保存しておき、画像入力手段からの要求に応じて
動的(ダイナミック)にレイヤなどのストリームを構成
することも可能である。この例を図30を用いて説明す
る。
The data input control means 514 uses the same technique as that described in the section of coding, and uses a tile area for a region of interest,
Alternatively, the image server is designated to preferentially transfer data by designating the CODE BLOCK area. The selective data request to the image server is performed via the image input unit. However, depending on the configuration of the image server, all the codes of LOSSLESS may be stored, and the image server may be dynamically requested in response to the request from the image input unit. It is also possible to configure a stream such as a layer (dynamically). This example will be described with reference to FIG.

【0102】図30は、画像入力手段511と画像サー
バSVの間で符号列を動的に生成する場合の構成を示し
た図である。同図において画像入力手段511は画像サ
ーバSVに対し画像内の関心領域の位置と当該部分の伝
送要求を送信し、画像サーバSVは予め符号化され外部
記憶装置STに保存されている符号列から必要な部分を
画像入力手段511に対して伝送する。以下に、この構
成において関心領域に係る符号列の出力形態例を説明す
る。
FIG. 30 is a diagram showing a configuration in a case where a code string is dynamically generated between the image input means 511 and the image server SV. In the figure, the image input means 511 transmits the position of the region of interest in the image and the transmission request of the relevant portion to the image server SV, and the image server SV converts the code string stored in the external storage device ST in advance. The necessary part is transmitted to the image input means 511. Hereinafter, an example of the output form of the code string related to the region of interest in this configuration will be described.

【0103】図31(A)は画像をタイルに分割し符号
化した場合の符号列伝送を示したものである。同図にお
いて、画像は矩形領域であるタイルに分割され、各タイ
ルは独立に符号化されて外部記憶装置STに記憶されて
いる。画像入力手段511からの伝送要求は画像サーバ
SV内のパーサPSに入力される。パーサPSは入力し
た関心領域の位置情報から、当該領域にかかるタイルの
符号列を外部記憶装置STから読み出し出力する。
FIG. 31A shows code string transmission when an image is divided into tiles and encoded. In the figure, an image is divided into tiles that are rectangular areas, and each tile is independently encoded and stored in the external storage device ST. The transmission request from the image input unit 511 is input to the parser PS in the image server SV. The parser PS reads the code string of the tile corresponding to the region from the input position information of the region of interest from the external storage device ST and outputs the code string.

【0104】ここで、各タイルの符号列は前述したよう
に複数のレイヤから構成されており、出力されるタイル
の符号列は必要なレイヤの符号化データのみでもよい
し、又は全てのレイヤであってもよい。出力される符号
列は1つにまとめられ、各タイルの符号化データの先頭
にはタイルの開始およびタイルの番号を表すマーカコー
ドが挿入される。
Here, the code sequence of each tile is composed of a plurality of layers as described above, and the code sequence of the output tile may be only the encoded data of the necessary layer, or may be the encoded data of all the layers. There may be. The output code strings are combined into one, and a marker code representing the start of the tile and the tile number is inserted at the head of the encoded data of each tile.

【0105】図31(A)において、例えば16個中の
5番目のタイル(以下、タイル5)が関心領域であり、
その時点以前に全く符号列が伝送されていない場合、パ
ーサはタイル1からタイル16までの各タイルの符号化
データをまとめて符号列を構成し出力するが、タイル5
については全てのレイヤを、それ以外のタイルについて
は伝送するレイヤ数を必要最小限に制限する。
In FIG. 31A, for example, the fifth tile out of 16 (hereinafter referred to as tile 5) is a region of interest.
If no code string has been transmitted before that time, the parser constructs and outputs a code string by combining the encoded data of each tile from tile 1 to tile 16, but outputs the tile 5
For all tiles, the number of layers to be transmitted for the other tiles is limited to a necessary minimum.

【0106】このようにすることで、符号化が可逆で行
われていれば、復号された画像は関心領域であるタイル
5の部分に関しては可逆で、それ以外の部分については
観察に十分な程度の画質で画像が再生される。
In this manner, if the encoding is performed reversibly, the decoded image is reversible with respect to the portion of the tile 5 which is the region of interest, and the other portions are sufficient for observation. The image is reproduced with the image quality of.

【0107】一方異なる符号列構成方法を取ることも可
能であり、以下に図31(B)を参照して説明する。
On the other hand, it is also possible to adopt a different code string construction method, and this will be described below with reference to FIG.

【0108】JPEG2000においてはDWTにより生成され
たサブバンドの係数又は量子化インデックスはコードブ
ロックを単位としてビットプレーン符号化される。本例
においては、各コードブロックの符号化データが符号列
に構成されない形で外部記憶装置STに保存される。
In JPEG2000, coefficients or quantization indices of subbands generated by DWT are bit-plane coded in units of code blocks. In this example, the encoded data of each code block is stored in the external storage device ST in a form that is not formed into a code string.

【0109】同図において、パーサPSは画像入力手段
511からの伝送要求に応じ、関心領域に係るコードブ
ロックの符号化データを図29に示すように上位レイヤ
に配置した符号列を生成し、出力する。このように符号
列構成前の中間状態の符号化データを外部記憶装置ST
に保存し、外部からの要求に応じて最適な符号列を動的
に生成することで、前述したタイル分割を行わない場合
であっても、画像表示側の要求に応じて関心領域を高画
質とした符号列を生成し出力することが出来る。
Referring to FIG. 29, the parser PS generates a code string in which coded data of a code block relating to a region of interest is arranged in an upper layer as shown in FIG. 29 in response to a transmission request from the image input means 511. I do. In this way, the coded data in the intermediate state before the code string configuration is stored in the external storage device ST.
, And dynamically generate an optimal code string in response to an external request, so that even if the above-mentioned tile division is not performed, the region of interest can be displayed in high quality in response to the request on the image display side. Can be generated and output.

【0110】さて、次に、実施形態における診断情報解
釈手段505(図14)を、図15を使用して説明す
る。
Next, the diagnostic information interpreting means 505 (FIG. 14) in the embodiment will be described with reference to FIG.

【0111】提供される診断情報521は、「右肺の右
上に石灰化が見とめられる」であるとする。 診断情報
(診断レポート)は、上記のようにテキストの場合のほ
かに、音声信号、スキーマ(図)に文字が記入された場
合が考えられるが、音声情報の場合には音声認識手段5
22によりテキストに変換され、図の場合には文字認識
手段523により文字部分のみテキスト情報に変換され
る。テキストに変換されたテキスト情報が「右肺の右上
に石灰化が見とめられる」であるとして以下の説明をお
こなう。
It is assumed that the provided diagnostic information 521 is “calcification is found at the upper right of the right lung”. The diagnosis information (diagnosis report) may be a case where characters are written in a voice signal or a schema (FIG.) In addition to the text as described above.
In the case of the figure, only the character portion is converted into text information by the character recognition means 523. The following description will be made on the assumption that the text information converted into text is “calcification is found in the upper right of the right lung”.

【0112】キーワード決定手段524は、入力された
診断情報からキーワード辞書525を使用してキーワー
ドの抽出を行う。このキーワードは撮影部位毎に登録さ
れているものと、部位に依存しないキーワードが存在す
る。胸部正面撮影であれば右肺、左肺、右肺部、左肺
部、縦隔、縦隔部などが解剖学的キーワードであり、解
剖学的部位に依存しないキーワードとしては、右、左、
中央などがある。これら登録されているキーワード抽出
した結果が、「右肺」、「右上」、「石灰化」である。
本実施形態においては、病理情報である「石灰化」は使
用していないが、「腫瘍」、「石灰化」の相違、またそ
れぞれのサイズに依存して符号化の際の、レイヤを構成
する画像のSN比を制御することも考えられる。一般的
には、「腫瘍」は「石灰化」よりも低解像で発見される
傾向があるが、濃度分解能的には「石灰化」のほうが低
い濃度解像度で表現可能である。このように病理的疾患
の種類によって、符号化のレイヤを調整することが考え
られる。同様に復号化の際にも病理情報を利用して読み
出しのSN比を制御することも同様に可能である。
The keyword determination means 524 extracts a keyword from the input diagnosis information using the keyword dictionary 525. This keyword is registered for each imaging region, and there is a keyword that does not depend on the region. In the case of frontal chest imaging, the right lung, the left lung, the right lung, the left lung, the mediastinum, the mediastinum, and the like are anatomical keywords.
There is the center. The result of extracting the registered keywords is “right lung”, “upper right”, and “calcification”.
In the present embodiment, the pathological information “calcification” is not used, but a layer is formed at the time of encoding depending on the difference between “tumor” and “calcification” and the size of each. It is also conceivable to control the SN ratio of the image. Generally, “tumor” tends to be found at a lower resolution than “calcification”, but “calcification” can be expressed at a lower density resolution in terms of density resolution. As described above, it is conceivable to adjust the coding layer depending on the type of the pathological disease. Similarly, at the time of decoding, it is also possible to control the readout SN ratio using the pathological information.

【0113】抽出されたキーワードは意味決定手段52
7に送出される。意味決定手段527は、意味辞書52
8の内容を使用して撮影部位(例、胸部正面、頚椎側
面)に対応したセグメント番号と領域分割情報を決定す
る。
The extracted keywords are sent to the meaning determining means 52.
7 is sent. The meaning determining means 527 is provided for the meaning dictionary 52.
Using the contents of No. 8, the segment number and the area division information corresponding to the imaging region (eg, the front of the chest, the side of the cervical vertebra) are determined.

【0114】セグメント番号とは、各撮影(撮影部位)
に割りつけられた解剖学的セグメントに対応する番号で
ある。たとえば、図22に示したように胸部正面画像に
おいては、解剖学セグメントは右肺、左肺、縦隔の3個
が設定されている。各部位に対応する解剖学的セグメン
ト数は撮影に依存していて、頭部撮影ではセグメントは
頭部セグメント1つしか存在しない。
[0114] The segment number refers to each image (image area)
Is the number corresponding to the anatomical segment assigned to. For example, as shown in FIG. 22, in the chest front image, three anatomical segments are set for the right lung, the left lung, and the mediastinum. The number of anatomical segments corresponding to each part is dependent on imaging, and in head imaging, there is only one head segment.

【0115】意味辞書528は、図22に示した撮影部
位対するセグメント番号表と、図25に示した領域分割
の定義語表から構成される。意味決定手段では、撮影部
位対するセグメント番号表からキーワードに一致する、
あるいは近似するセグメント番号を選択し、同時に領域
分割表から合致する領域分割定義語(領域定義語)を選
択する。本実施形態に置いては、セグメント番号1と、
「右上」という領域定義語が選択されて関心領域決定手
段503に提供される。
The semantic dictionary 528 is composed of a segment number table for the radiographed part shown in FIG. 22 and a definition word table of the area division shown in FIG. In the semantic determination means, the keyword matching the keyword from the segment number table for the imaging region,
Alternatively, an approximate segment number is selected, and at the same time, a matching region division definition word (region definition word) is selected from the region division table. In the present embodiment, segment number 1 and
The region definition word “upper right” is selected and provided to the region of interest determination means 503.

【0116】図16を使用して関心領域決定手段を説明
する。関心領域決定手段には画像531と、解釈結果5
26が入力される。入力される画像は、2次元画像ある
が、一般的に原画像の解像度と画質を保存している必要
はなく、画素サイズが1−2mm程度で十分である。入
力された画像はセグメンテーション手段532により撮
影部位に対応したセグメンテーションが行われる。
The region of interest determination means will be described with reference to FIG. The image of interest 531 and the interpretation result 5
26 is input. Although the input image is a two-dimensional image, it is generally not necessary to preserve the resolution and image quality of the original image, and a pixel size of about 1-2 mm is sufficient. The input image is subjected to segmentation corresponding to the imaging region by the segmentation means 532.

【0117】セグメンテーション数は、図22に示すよ
うに撮影部位に依存して決定される。たとえば、胸部正
面画像であれば3つの解像学的部分に分解される。セグ
メンテーションの結果画像の例を図21に示す。内部に
解剖学的な分類番号が記されているが、この値はラベリ
ングの際に使用される。セグメンテーション手段532
によりセグメント分割された画像は、領域分割手段53
3により最終的な関心領域に変換される。変換の過程の
例は図24に示す通りである。
The number of segmentations is determined depending on the region to be imaged as shown in FIG. For example, a chest front image is decomposed into three resolution parts. FIG. 21 shows an example of the segmentation result image. The anatomical classification number is written inside, and this value is used for labeling. Segmentation means 532
The image segmented by the
3 is converted to the final region of interest. An example of the conversion process is as shown in FIG.

【0118】次にセグメンテーション手段532を説明
する。セグメンテーション手段は、学習フェーズと利用
フェーズにより構成がことなる。本実施形態のセグメン
テーション手段はニューラルネットワークにより構成さ
れているので、学習データを入力してニューラルネット
ワーク内部の係数を形成するフェーズを学習フェーズと
して、入力された画像データに対してセグメンテーショ
ンを実施するフェーズを利用フェーズとよぶ。以下のフ
ェーズでは画素単位のセグメンテーションを行っている
が、セグメンテーションの手法としては画素単位のもの
に限定されず、画像中から輪郭を追跡する手法によりセ
グメンテーションを行うことも可能である。輪郭を追跡
するタイプのセグメンテーションに関しては、文献:Ts
ujii, M.T. Freedman, and S. K. Mun, "Lung contour
detection in chest radiographs using 1-D convolut
ion neural networks," Electronic Imaging, 8(1), p
p.46-53, January 1999.を参照されたい。
Next, the segmentation means 532 will be described. The structure of the segmentation means differs depending on the learning phase and the use phase. Since the segmentation means of the present embodiment is configured by a neural network, a phase of inputting learning data and forming a coefficient inside the neural network is set as a learning phase, and a phase of performing segmentation on input image data is defined as a phase. Called the use phase. In the following phases, segmentation is performed in pixel units. However, the segmentation method is not limited to pixel unit, and segmentation can be performed by a method of tracking an outline from an image. For contour tracking type segmentation, see Ts
ujii, MT Freedman, and SK Mun, "Lung contour
detection in chest radiographs using 1-D convolut
ion neural networks, "Electronic Imaging, 8 (1), p
See pages 46-53, January 1999.

【0119】図17を使用して学習フェーズを説明す
る。入力画像の各画素に対して特徴抽出手段542によ
り特徴量の計算が行われる。計算される特徴量は、画素
値をベースに計算されるもの、テクスチャをベースに計
算されるもの、解剖学的構造からの相対アドレスで計算
するものなどがある。詳しくは論文(O. Tsujii, M. T.
Freedman, and S. K. Mun, "Automated Segmentation
of Anatomic Regions in Chest Radiographs using Ada
ptive-Sized Hybrid Neural Network," Med. Phys., 25
(6), pp. 998-1007, June 1998.)を参照されたい。
The learning phase will be described with reference to FIG. The feature amount is calculated by the feature extracting unit 542 for each pixel of the input image. The calculated feature amount includes a value calculated based on a pixel value, a value calculated based on a texture, a value calculated based on a relative address from an anatomical structure, and the like. See the paper (O. Tsujii, MT
Freedman, and SK Mun, "Automated Segmentation
of Anatomic Regions in Chest Radiographs using Ada
ptive-Sized Hybrid Neural Network, "Med. Phys., 25
(6), pp. 998-1007, June 1998.).

【0120】使用される特徴量は、以上の例や論文でし
めされる特徴量に限定されるものでなく、その他の論文
M. F. McNitt-Gray, H. K. Huang and J. W. Sayre, "F
eature Selection in the Pattern Classification Pro
blem of Digital Chest Radiograph Segmentation," IE
EE Trans. Med. Imag., 14, 537-547 (1995).などに記
載される確率的な特徴量も使用される。
The features used are not limited to the features described in the above examples and papers.
MF McNitt-Gray, HK Huang and JW Sayre, "F
eature Selection in the Pattern Classification Pro
blem of Digital Chest Radiograph Segmentation, "IE
Probabilistic features described in EE Trans. Med. Imag., 14, 537-547 (1995).

【0121】次にニューラルネットワーク手段543に
関して説明する。ニューラルネットワークは、さまざま
なものが開発されている。例をあげるとランメルハート
が開発したFeed Forward型の誤差逆伝播ニューラルネ
ットワーク(参考文献:D. E.Rumelhart and J. L. McC
elland, Parallel Distributed Processing: Explorati
ons in the Microstructure of Cognition, Vol. 1: Fo
undation. Cambridge:The MIT Press, 1986.)、Radial
Basis Functionニューラルネットワーク(簡単にRBF
-NN)(参考文献:C. Bishop, "Improving the General
ization Properties of Radial Basis Function Neural
Networks," Neural Comp., vol. 3,pp. 579-588, 199
1.)があげられる。
Next, the neural network means 543 will be described. Various neural networks have been developed. An example is the Feed Forward type backpropagation neural network developed by Rammelhart (references: DERumelhart and JL McC)
elland, Parallel Distributed Processing: Explorati
ons in the Microstructure of Cognition, Vol. 1: Fo
undation. Cambridge: The MIT Press, 1986.), Radial
Basis Function Neural Network (Easy RBF
-NN) (Reference: C. Bishop, "Improving the General
ization Properties of Radial Basis Function Neural
Networks, "Neural Comp., Vol. 3, pp. 579-588, 199
1.)

【0122】本実施形態においては、RBF-NNを使用す
る。構造的にはFeed Forward型と採用して、入力層、
中間層1層、出力層の3層構造である。入力層には、特
徴量抽出手段542で抽出した特徴量の数に相当する入
力Nodeを配置する。中間層に配置するRBFニューロン
は、非線型要素としてガウス分布を持つような出力特性
を具備さる。RBFニューロンの数は、学習のケース数と
問題の複雑さに依存するが、計算時間を妥当に設定する
ためには5000程度は適当である。ニューラルネットワー
クの出力数は、各部位に対するセグメント数に相当す
る。例えば、胸部正面の画像であれば、図22に示すよ
うに3つの解剖学的セグメントがあるので、3つの出力
NODEが用意される。
In the present embodiment, RBF-NN is used. Structurally adopting Feed Forward type, input layer,
It has a three-layer structure of one intermediate layer and an output layer. In the input layer, input nodes corresponding to the number of feature amounts extracted by the feature amount extraction unit 542 are arranged. The RBF neuron arranged in the hidden layer has an output characteristic that has a Gaussian distribution as a nonlinear element. The number of RBF neurons depends on the number of learning cases and the complexity of the problem, but about 5000 is appropriate for setting the calculation time appropriately. The number of outputs of the neural network corresponds to the number of segments for each part. For example, in the case of an image of the front of the chest, there are three anatomical segments as shown in FIG.
NODE is prepared.

【0123】本実施形態において、ニューラルネットワ
ークは撮影部位毎に用意されるが、ニューラルネットワ
ークはソフトウェアで構成されるので、実際は部位毎の
係数を保存しておいて、使用の際には部位毎の係数をセ
ットする。
In the present embodiment, the neural network is prepared for each imaging part. However, since the neural network is constituted by software, the coefficients for each part are actually stored, and when used, the coefficients for each part are stored. Set the coefficient.

【0124】学習フェーズにおいては、各画素に対する
特徴量とともに、セグメンテーション結果である回答例
がニューラルネットワーク543に提示される。 入力
画像に対する教師出力画像は、人手によるセグメンテー
ション手段541から提供される。入力胸部画像(図1
8)に対応する教師画像を図19に示す。胸部正面画像
に対応するセグメント分類に対応するように教師画像で
は、出力値1−3を持つように教師画像が作られる。教
師画像の手段は、画像中の領域を指定できるグラフィッ
クソフトで行うことが出きるが、市販されているPhotos
hop(米国Adobe社製)などを使用しても可能である。ニ
ューラルネットワークの学習は、RBF-NNの場合は出力エ
ラーを最小にする最小2乗法で行えば、解析的に求める
ことができ、内部係数の計算は短時間で行える。
In the learning phase, an answer example as a segmentation result is presented to the neural network 543 together with the feature amount for each pixel. The teacher output image for the input image is provided from the manual segmentation means 541. Input chest image (Fig. 1
FIG. 19 shows a teacher image corresponding to 8). A teacher image is created so as to have an output value of 1-3 in the teacher image so as to correspond to the segment classification corresponding to the chest front image. Teacher image can be done with graphic software that can specify the area in the image,
It is also possible to use hop (made by US Adobe). In the case of RBF-NN, neural network learning can be obtained analytically by using the least squares method that minimizes output errors, and internal coefficients can be calculated in a short time.

【0125】利用フェーズに関して図20を使用して説
明する。画像中の各画素に対する特徴量の抽出は、学習
フェーズと同様に行われる。ニューラルネットワークに
対する内部係数は、対象の撮影部位に対する係数が利用
前にロードされる。各画素に対する特徴量がニューラル
ネットワークに提示されて、ネットワークは出力NODEに
出力値を出力する。胸部正面画像の場合では、出力NODE
は3つであり、それらの出力NODEで最もYESに近い出力
をしたNODEに対応するセグメントに、入力画素は分類さ
れる。このようにして画像中のすべての画素に対する分
類が完了したセグメント画像例を図21に示す。
The use phase will be described with reference to FIG. The extraction of the feature amount for each pixel in the image is performed in the same manner as in the learning phase. As the internal coefficients for the neural network, the coefficients for the target imaging region are loaded before use. The feature amount for each pixel is presented to the neural network, and the network outputs an output value to an output NODE. In case of chest front image, output NODE
Are three, and the input pixels are classified into segments corresponding to the NODEs having the output closest to YES among the output NODEs. FIG. 21 shows an example of a segment image in which all pixels in the image have been classified in this manner.

【0126】一般的にニューラルネットワーク551が
出力したセグメント画像にはノイズが含まれる。例え
ば、肺野の領域から分離して小さい面積の肺野領域が発
生する場合がある。このようなノイズ的な小領域は、後
処理過程で除去されるが、この技術に関しては前述の文
献:Tsujii, M. T. Freedman, and S. K. Mun, "Lungc
ontour detection in chest radiographs using 1-D co
nvolution neural networks," Electronic Imaging, 8
(1), pp. 46-53, January 1999.を参照のこと。
Generally, the segment image output by the neural network 551 contains noise. For example, a lung field region having a small area may be generated separately from the lung field region. Such noise-like small regions are removed in the post-processing process. Regarding this technique, see the aforementioned literature: Tsujii, MT Freedman, and SK Mun, "Lungc
ontour detection in chest radiographs using 1-D co
nvolution neural networks, "Electronic Imaging, 8
(1), pp. 46-53, January 1999.

【0127】次に領域分割手段533を、図23を使用
して説明する。
Next, the area dividing means 533 will be described with reference to FIG.

【0128】セグメンテーション出力手段551の出力
したセグメント画像561は、ラベリング手段562に
入力される。ラベリング手段562とは、一般的には特
徴的な個別領域に対して、固有の数値を割り付けて行く
処理であるが、ここでは図21のように既に数値が割り
付けられている画像に対して、目的とする値をもつ領域
のみを抽出する処理を行う。具体的に例をしめすと、図
24(A)のような入力に対して、目的セグメント番号
(この場合は右肺で1)のみを抽出する処理を行う。処
理アルゴリズムは、画素の値が1以外の値をゼロにする
ようなLook-Up-Tableを適用すれば良い。ラベリングの
結果画像の例は図24(B)に示すようになる。
The segment image 561 output from the segmentation output means 551 is input to a labeling means 562. The labeling means 562 is generally a process of assigning a unique numerical value to a distinctive individual region. In this case, a labeling unit 562 assigns a unique numerical value to an image to which a numerical value has already been assigned as shown in FIG. A process for extracting only a region having a target value is performed. More specifically, for an input as shown in FIG. 24A, a process of extracting only a target segment number (in this case, 1 for the right lung) is performed. As a processing algorithm, a Look-Up-Table in which a pixel value is set to a value other than 1 to zero may be applied. An example of a labeling result image is as shown in FIG.

【0129】次にラベリングされた画像に対して楕円近
似処理563が適用される。楕円近似は、右肺を構成す
る画素をデータ分布と考えて主成分分析して求めること
が可能であるが、以下に示すような計算式でも求めるこ
とができる。楕円近似を使用する理由は、一般的に解剖
学的な部位は傾いて撮影されることが多く、また脊椎、
骨、臓器は楕円で近似すると一般的に存在位置を定義し
やすいからである。右肺に近似した楕円の例を図24
(C)に示す。 対象物の長軸 a=(4/π)1/4(Imax3/Imin)1/8 対象物の短軸 b=(4/π)1/4(Imin3/Imax)1/8 ただし、対象物のX軸の重心をXc、Y軸の重心をYc、対象
物の(p,q)オーダのセントラルモーメントをMpq、 対象物の傾きθ=(1/2)tan-1(2M11/(M20-M02))、 対象物の最小モーメントImin=ΣΣ((X-Xc)cosθ-(Y-Yc)
sinθ)2 対象物の最大モーメントImax=ΣΣ((X-Xc)sinθ+(Y-Yc)
cosθ)2としている。
Next, an ellipse approximation process 563 is applied to the labeled image. The elliptic approximation can be obtained by performing principal component analysis while considering the pixels constituting the right lung as a data distribution, but can also be obtained by the following calculation formula. The reason for using the elliptical approximation is that anatomical parts are generally taken at an angle, and the spine,
This is because, when the bones and organs are approximated by ellipses, their locations are generally easy to define. FIG. 24 shows an example of an ellipse approximated to the right lung.
Shown in (C). Long axis of object a = (4 / π) 1/4 (Imax 3 / Imin) 1/8 Short axis of object b = (4 / π) 1/4 (Imin 3 / Imax) 1/8 The center of gravity of the object's X-axis is Xc, the center of gravity of the Y-axis is Yc, the central moment of the (p, q) order of the object is Mpq, and the inclination of the object θ = (1/2) tan -1 (2M 11 / (M 20 -M 02 )), the minimum moment of the object Imin = ΣΣ ((X-Xc) cosθ- (Y-Yc)
sin [theta) maximum moment Imax = ΣΣ 2 object ((X-Xc) sinθ + (Y-Yc)
cos θ) 2 .

【0130】セグメンテーションされた解剖学部位に対
して、同時に重心計算手段564が適用される。重心
は、右肺を構成するすべての画素のX座標とY座標のそれ
ぞれに対して平均値座標を求めることによって計算され
る。分割決定手段565では、このようにして求められ
た重心を通過するように楕円近似手段563で求められ
た長軸と短軸を通すことによって、右肺を4つの領域に
分離することが可能である。この胸部正面画像の例で
は、右上を抽出する。その結果を図24(E)に示す。
ここで注意することは、医療画像は一般的に医師が患者
に対峙するように表示されるので、左右が反転している
ことである。図25に示した領域分割定義語の中に、中
央と定義する領域があるが、この場合は重心を中心とし
た長軸、短軸がそれぞれ半分の楕円をもとめてこれを中
心領域とする。このようにして求められた関心領域が、
関心領域決定手段503の出力となる。
The center of gravity calculating means 564 is simultaneously applied to the segmented anatomical site. The center of gravity is calculated by calculating average coordinates for each of the X and Y coordinates of all the pixels constituting the right lung. The division determining means 565 can separate the right lung into four regions by passing the major axis and the minor axis determined by the ellipse approximating means 563 so as to pass through the center of gravity determined in this way. is there. In the example of the chest front image, the upper right is extracted. The result is shown in FIG.
It should be noted that the medical image is generally displayed so that the doctor faces the patient, so that the left and right are reversed. In the region division definition word shown in FIG. 25, there is a region defined as the center. In this case, an ellipse whose center is the center of the center of gravity and whose major and minor axes are half each is determined as the central region. The area of interest determined in this way is
This is the output of the region of interest determination means 503.

【0131】以上説明したように本第7の実施形態によ
れば、診断された画像に対して、医師の関心領域の指定
を行わなくても、診断情報を使用して関心領域を自動決
定して、関心領域を効率的に符号化することが可能にな
る。
As described above, according to the seventh embodiment, a region of interest is automatically determined using diagnosis information for a diagnosed image without specifying a region of interest by a doctor. Thus, the region of interest can be efficiently encoded.

【0132】また、関心領域が指定されない画像が表示
された際に、画像に対する診断情報を使用して関心領域
自動的に形成して、抽出した関心領域に対して優先的に
高画質、あるいは高分解能に表示することが可能にな
り、迅速な画像診断が可能になる。
Further, when an image in which the region of interest is not specified is displayed, the region of interest is automatically formed using the diagnostic information for the image, and the extracted region of interest is given high quality or high priority. The image can be displayed at the resolution, and rapid image diagnosis can be performed.

【0133】また、関心領域がしてされていない画像を
表示した際に、画像に対する診断情報を使用して関心領
域を自動に生成することにより、画像上に関心領域を明
示することが可能になり、画像を診断する医師が関心領
域を容易に知覚することが可能になる。
In addition, when an image in which a region of interest is not displayed is displayed, the region of interest is automatically generated by using diagnostic information for the image, so that the region of interest can be specified on the image. That is, a doctor who diagnoses an image can easily perceive the region of interest.

【0134】<その他の実施形態>さらに、本発明は上
記実施の形態を実現するための装置及び方法のみに限定
されるものではなく、上記システム又は装置内のコンピ
ュータ(CPUあるいはMPU)に、上記実施の形態を実現す
るためのソフトウエアのプログラムコードを供給し、こ
のプログラムコードに従って上記システムあるいは装置
のコンピュータが上記各種デバイスを動作させることに
より上記実施の形態を実現する場合も本発明の範疇に含
まれる。
<Other Embodiments> Further, the present invention is not limited to only the apparatus and method for realizing the above-described embodiment, and the computer (CPU or MPU) in the above-mentioned system or apparatus is provided with the above-mentioned computer. The scope of the present invention also includes a case where a program code of software for realizing the embodiment is provided, and the computer of the system or the apparatus operates the various devices according to the program code to realize the embodiment. included.

【0135】またこの場合、前記ソフトウエアのプログ
ラムコード自体が上記実施の形態の機能を実現すること
になり、そのプログラムコード自体、及びそのプログラ
ムコードをコンピュータに供給するための手段、具体的
には上記プログラムコードを格納した記憶媒体は本発明
の範疇に含まれる。
In this case, the software program code itself implements the functions of the above-described embodiment, and the program code itself and means for supplying the program code to the computer, specifically, A storage medium storing the above program code is included in the scope of the present invention.

【0136】この様なプログラムコードを格納する記憶
媒体としては、例えばフロッピー(登録商標)ディス
ク、ハードディスク、光ディスク、光磁気ディスク、CD
-ROM、磁気テープ、不揮発性のメモリカード、ROM等を
用いることができる。
As storage media for storing such program codes, for example, floppy (registered trademark) disks, hard disks, optical disks, magneto-optical disks, CDs
-A ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0137】また、上記コンピュータが、供給されたプ
ログラムコードのみに従って各種デバイスを制御するこ
とにより、上記実施の形態の機能が実現される場合だけ
ではなく、上記プログラムコードがコンピュータ上で稼
働しているOS(オペレーティングシステム)、あるいは他
のアプリケーションソフト等と共同して上記実施の形態
が実現される場合にもかかるプログラムコードは本発明
の範疇に含まれる。
In addition to the case where the computer controls various devices in accordance with only the supplied program code to realize the functions of the above-described embodiment, the program code operates on the computer. Such a program code is included in the scope of the present invention even when the above-described embodiment is realized in cooperation with an OS (Operating System) or other application software.

【0138】更に、この供給されたプログラムコード
が、コンピュータの機能拡張ボードやコンピュータに接
続された機能拡張ユニットに備わるメモリに格納された
後、そのプログラムコードの指示に基づいてその機能拡
張ボードや機能格納ユニットに備わるCPU等が実際の処
理の一部または全部を行い、その処理によって上記実施
の形態が実現される場合も本発明の範疇に含まれる。
Further, after the supplied program code is stored in a memory provided in a function expansion board of a computer or a function expansion unit connected to the computer, the function expansion board or function is stored based on the instruction of the program code. The case where the CPU or the like provided in the storage unit performs part or all of the actual processing, and the above-described embodiment is realized by the processing is also included in the scope of the present invention.

【0139】以上説明したように本実施形態によれば予
め記憶保存された一連の画像に対して、支援診断処理を
行い、伝送に先立ち圧縮符号化する過程において関心領
域を符号列に含めるようにした。これにより、伝送およ
び読影における時間を短縮した効率的なシステムを実現
することが出来る。
As described above, according to the present embodiment, a support diagnosis process is performed on a series of images stored and stored in advance, and a region of interest is included in a code sequence in a process of compression-encoding prior to transmission. did. This makes it possible to realize an efficient system in which the time for transmission and interpretation is reduced.

【0140】[0140]

【発明の効果】以上説明したように本発明によれば、画
像を再現する側で関心領域をそれ以外の領域と区別して
再現することが可能となる。
As described above, according to the present invention, it is possible to reproduce a region of interest on the side of reproducing an image while distinguishing the region of interest from other regions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施形態における画像符号化側の装置のブロッ
ク構成図である。
FIG. 1 is a block diagram of a device on the image encoding side according to an embodiment.

【図2】実施形態における画像復号化及び再生装置のブ
ロック構成図である。
FIG. 2 is a block diagram of an image decoding and reproducing apparatus according to the embodiment.

【図3】図1における符号化部のブロック構成図であ
る。
FIG. 3 is a block diagram of an encoding unit in FIG. 1;

【図4】第1の実施形態における関心領域のビットシフ
ト処理を説明するための図である。
FIG. 4 is a diagram for explaining a bit shift process of a region of interest according to the first embodiment.

【図5】図2における復号部のブロック構成図である。FIG. 5 is a block diagram of a decoding unit in FIG. 2;

【図6】第2の実施形態におけるレイヤー毎のデータフ
ォーマットを示す図である。
FIG. 6 is a diagram illustrating a data format for each layer according to the second embodiment.

【図7】第2の実施形態におけるレイヤー構造とコード
ブロックの関係の一例を示す図である。
FIG. 7 is a diagram illustrating an example of a relationship between a layer structure and a code block according to the second embodiment.

【図8】第3の実施形態における関心領域と関心領域を
示すコンポーネント情報を示す図である。
FIG. 8 is a diagram illustrating a region of interest and component information indicating the region of interest in the third embodiment.

【図9】第4の実施形態における符号データのフォーマ
ットを示す図である。
FIG. 9 is a diagram showing a format of code data in a fourth embodiment.

【図10】第5の実施形態における関心領域の有無の違
いによるデータフォーマットを示し図である。
FIG. 10 is a diagram showing a data format depending on the presence or absence of a region of interest in the fifth embodiment.

【図11】第6の実施形態における画像シーケンスにお
けるファイルの構造を示す図である。
FIG. 11 is a diagram illustrating a structure of a file in an image sequence according to a sixth embodiment.

【図12】実施形態のシステムへの適用例を示す図であ
る。
FIG. 12 is a diagram illustrating an example of application of the embodiment to a system.

【図13】第7の実施形態における符号化装置の機能ブ
ロック構成図である。
FIG. 13 is a functional block configuration diagram of an encoding device according to a seventh embodiment.

【図14】第7の実施形態における復号化装置の機能ブ
ロック構成図である。
FIG. 14 is a functional block configuration diagram of a decoding device according to a seventh embodiment.

【図15】第7の実施形態における診断情報解釈手段の
動作内容を示す図である。
FIG. 15 is a diagram illustrating operation contents of diagnostic information interpreting means in the seventh embodiment.

【図16】第7の実施形態における関心領域決定手段の
ブロック構成図である。
FIG. 16 is a block diagram of a region-of-interest determination unit according to a seventh embodiment.

【図17】第7の実施形態におけるセグメンテーション
手段の学習フェーズを示す図である。
FIG. 17 is a diagram illustrating a learning phase of a segmentation unit according to the seventh embodiment.

【図18】胸部正面画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of a chest front image.

【図19】人手セグメンテーション手段の学習データを
示す図である。
FIG. 19 is a diagram showing learning data of manual segmentation means.

【図20】第7の実施形態におけるセグメンテーション
手段の利用フェーズを示す図である。
FIG. 20 is a diagram illustrating a use phase of a segmentation unit according to the seventh embodiment.

【図21】第7実施形態におけるセグメンテーション画
像出力の例を示す図である。
FIG. 21 is a diagram illustrating an example of a segmentation image output according to the seventh embodiment.

【図22】撮影部位とセグメント番号との対応を示す図
である。
FIG. 22 is a diagram showing a correspondence between an imaging part and a segment number.

【図23】第7の実施形態における領域分割手段の動作
手順を示す図である。
FIG. 23 is a diagram showing an operation procedure of the area dividing means in the seventh embodiment.

【図24】領域分割手段の動作の一例を示す図である。FIG. 24 is a diagram showing an example of the operation of the area dividing means.

【図25】領域分割の定義語を示す図である。FIG. 25 is a diagram showing definition words for region division.

【図26】第7の実施形態における符号列全体における
レイヤの配置を示す図である。
FIG. 26 is a diagram illustrating an arrangement of layers in the entire code string according to the seventh embodiment.

【図27】JPEG2000の符号化器の基本構成を示
す図である。
FIG. 27 is a diagram illustrating a basic configuration of an encoder of JPEG2000.

【図28】関心領域と関心領域外の量子化インデックス
の関係を表す図である。
FIG. 28 is a diagram illustrating a relationship between a region of interest and a quantization index outside the region of interest.

【図29】階層化された符号化データ構成において、関
心領域が優先的に符号化されることを示す図である。
FIG. 29 is a diagram showing that a region of interest is preferentially encoded in a layered encoded data configuration.

【図30】第7の実施形態における画像入力手段511
と画像サーバSVの間で符号列を動的に生成する場合の
構成を示す図である。
FIG. 30 shows an image input unit 511 according to the seventh embodiment.
FIG. 11 is a diagram showing a configuration in a case where a code string is dynamically generated between the image server SV and the image server SV.

【図31】画像をタイルに分割し符号化した場合の符号
列伝送を示す図である。
FIG. 31 is a diagram illustrating code string transmission when an image is divided into tiles and encoded.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/30 A61B 5/05 380 390 H04N 7/133 Z Fターム(参考) 4C093 AA26 CA29 CA30 DA03 FA35 FA44 FA49 FF17 FF28 FG18 FG19 FH01 FH03 FH06 FH07 4C096 AB27 AB29 AD14 AD16 DC20 DC28 DD18 DD19 DE01 DE03 DE06 DE07 5C059 MA24 MA35 MA41 PP01 PP02 PP28 RB02 RB09 RC11 RC32 RC33 RC34 RC40 SS20 TA69 TB18 TC24 TC34 TC43 TD13 UA02 UA05 5C078 AA04 BA53 CA01 CA34 DA01 DA02 DB19 EA00 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/30 A61B 5/05 380 390 H04N 7/133 Z F term (Reference) 4C093 AA26 CA29 CA30 DA03 FA35 FA44 FA49 FF17 FF28 FG18 FG19 FH01 FH03 FH06 FH07 4C096 AB27 AB29 AD14 AD16 DC20 DC28 DD18 DD19 DE01 DE03 DE06 DE07 5C059 MA24 MA35 MA35 MA41 PP01 PP02 PP28 RB02 RB09 RC11 RC32 RC33 RC34 RC40 SS20 TA69 TB18 TC24 ACO4 TC34 TC78 DA01 DA02 DB19 EA00

Claims (39)

【特許請求の範囲】[Claims] 【請求項1】 与えられた医療用画像中に関心領域を設
定する、或いは医療用画像中の関心領域を検出する関心
領域設定手段を用いて、関心領域に関する情報を有する
画像に対し符号化する画像符号化装置であって、画像を
周波数成分毎のサブバンド成分のデータに変換する変換
手段と、該変換手段で得られた成分データ中、前記関心
領域にある成分データと、関心領域外の成分データとを
分離して符号化する符号化手段と該符号化手段で符号化
した符号化データに、少なくとも関心領域と関心領域外
とを識別するための情報を付加して出力する出力手段と
を備えることを特徴とする画像符号化装置。
1. A region of interest in a given medical image is set, or an image having information on the region of interest is encoded using a region of interest setting means for detecting the region of interest in the medical image. An image coding apparatus, comprising: a conversion unit that converts an image into data of a sub-band component for each frequency component; and component data obtained by the conversion unit, component data in the region of interest, and data outside the region of interest. Encoding means for separating and encoding the component data; and output means for adding and outputting at least information for identifying a region of interest and outside the region of interest to the encoded data encoded by the encoding means. An image encoding device comprising:
【請求項2】 前記変換手段は、ウェーブレット変換で
あることを特徴とする請求項第1項に記載の画像符号化
装置。
2. The image encoding apparatus according to claim 1, wherein said transforming means is a wavelet transform.
【請求項3】 前記符号化手段は、ウェーブレット変換
により得られたサブバンドの成分のデータにおいて、関
心領域における成分データについては、関心領域外と区
別できるビット数だけデータをシフトするビットシフト
手段と、該ビットシフト手段でシフトによるデータにお
いて、同じビット位置で構成されるビットプレーンを生
成し、各ビットプレーン毎に符号化する手段とを有し、
前記出力手段は、前記シフトするビット数を前記情報と
して付加して出力することを特徴とする請求項第2項に
記載の画像符号化装置。
3. The encoding means according to claim 1, wherein: in the data of the subband components obtained by the wavelet transform, the component data in the region of interest is shifted by a bit number that can be distinguished from the outside of the region of interest. Means for generating a bit plane composed of the same bit positions in the data shifted by the bit shifting means, and encoding each bit plane.
3. The image encoding apparatus according to claim 2, wherein the output unit adds the number of bits to be shifted as the information and outputs the information.
【請求項4】 前記出力手段は、前記ビットシフト手段
でシフトした後の、少なくとも関心領域を含むビットプ
レーンより所定下位のビットプレーンにおける符号化デ
ータを出力しないことを特徴とする請求項第3項に記載
の画像符号化装置。
4. The apparatus according to claim 3, wherein said output means does not output coded data in a bit plane lower than a bit plane including at least the region of interest by a predetermined lower level after being shifted by said bit shift means. An image encoding device according to claim 1.
【請求項5】 前記符号化手段は、ウェーブレット変換
により得られたサブバンドの成分のデータにおいて、関
心領域における成分データと、関心領域外の成分データ
とを異なるレイヤーにして符号化する手段を有し、前記
出力手段は、関心領域がない場合、関心領域の符号デー
タを格納するためのパケット中にゼロレングスを示す情
報を格納して出力することを特徴とする請求項第2項に
記載の画像符号化装置。
5. The encoding means has means for encoding component data in the region of interest and component data outside the region of interest into different layers in subband component data obtained by wavelet transform. 3. The apparatus according to claim 2, wherein the output unit stores and outputs information indicating zero length in a packet for storing code data of the region of interest when there is no region of interest. Image coding device.
【請求項6】 前記符号化手段は、前記関心領域と関心
領域外を区別するための2値画像を生成する生成手段
と、生成された2値画像を、符号化対象の画像とは別コ
ンポーネントとして符号化する手段とを有し、前記出力
手段は、コンポーネント数を前記情報として付加して出
力することを特徴とする請求項第2項に記載の画像符号
化装置。
6. The encoding unit includes: a generation unit configured to generate a binary image for distinguishing the region of interest from the outside of the region of interest; and a component different from the image to be encoded. 3. The image encoding apparatus according to claim 2, further comprising: encoding means, and wherein the output means adds and outputs the number of components as the information.
【請求項7】 前記符号化手段は、前記関心領域に関す
る情報を所定のヘッダに付加する手段を有することを特
徴とする請求項第2項に記載の画像符号化装置。
7. The image coding apparatus according to claim 2, wherein said coding means has means for adding information on the region of interest to a predetermined header.
【請求項8】 前記符号化手段は、関心領域がない場
合、符号化する対象のレイヤー数を1つ少なくし、関心
領域がある場合の数と異なるようにして符号化する手段
を有することを特徴とする請求項第2項に記載の画像符
号化装置。
8. The image processing apparatus according to claim 1, wherein the encoding unit has a unit that reduces the number of layers to be encoded by one when there is no region of interest and performs encoding differently from the number when there is a region of interest. 3. The image encoding device according to claim 2, wherein:
【請求項9】 前記画像は、医療用のX線像、CTによ
るX線スライス、MRIのスライス画像であることを特
徴とする請求項第1項乃至第8項のいずれか1項に記載
の画像符号化装置。
9. The image processing apparatus according to claim 1, wherein the image is a medical X-ray image, an X-ray slice by CT, or a slice image of MRI. Image coding device.
【請求項10】 前記関心領域設定手段は、入力した医
療用画像に対してコンピュータ支援診断処理を行い、該
診断支援処理の結果に基づいて関心領域を設定すること
を特徴とする請求項第1項乃至第9項のいずれか1つに
記載の画像符号化装置。
10. The apparatus according to claim 1, wherein the region-of-interest setting means performs a computer-aided diagnosis process on the input medical image and sets a region of interest based on a result of the diagnosis assisted process. Item 10. The image encoding device according to any one of Items 9 to 9.
【請求項11】 前記関心領域設定手段は、入力した医
療用画像に対応する診断情報を入力する診断情報入力手
段を含み、入力した診断情報に基づいて、前記医療用画
像に対する関心領域を設定することを特徴とする請求項
第1項乃至第10項のいずれか1つに記載の画像符号化
装置。
11. The region-of-interest setting means includes diagnostic information input means for inputting diagnostic information corresponding to the input medical image, and sets a region of interest for the medical image based on the input diagnostic information. The image encoding device according to any one of claims 1 to 10, wherein:
【請求項12】 前記診断情報は、テキスト情報である
ことを特徴とする請求項第10項に記載の画像符号化装
置。
12. The image encoding apparatus according to claim 10, wherein the diagnostic information is text information.
【請求項13】 前記診断情報は、音声情報情報である
ことを特徴とする請求項第10項に記載の画像符号化装
置。
13. The image coding apparatus according to claim 10, wherein said diagnosis information is audio information information.
【請求項14】 前記関心領域設定手段は、前記診断情
報が無所見である場合には、関心領域の決定を行わない
ことを特徴とする請求項第9項乃至第12項のいずれか
1つに記載の画像符号化装置。
14. The apparatus according to claim 9, wherein the region of interest setting means does not determine the region of interest when the diagnostic information is non-existent. An image encoding device according to claim 1.
【請求項15】 請求項第3項に記載の画像符号化装置
で符号化された画像データを復号する画像復号装置であ
って、入力した符号化データをビットプレーン毎に復号
する復号手段と、前記シフトビット数に応じて、関心領
域のビットプレーン群で構成されるサブバンド成分のデ
ータについては逆方向にシフトする逆ビットシフト手段
と、前記復号手段及び前記逆ビットシフト手段で得られ
た各ビットプレーンから、サブバンド成分のデータを生
成し、前記変換手段とは逆の変換を行い、前記関心領域
を関心領域以外とは異なる形態にして再現する画像再現
手段とを備えることを特徴とする画像復号装置。
15. An image decoding device for decoding image data encoded by the image encoding device according to claim 3, wherein: decoding means for decoding the input encoded data for each bit plane; In accordance with the number of shift bits, inverse bit shift means for shifting the data of the sub-band component constituted by the bit plane group of the region of interest in the reverse direction, and each of the data obtained by the decoding means and the inverse bit shift means. From a bit plane, generating image data of a sub-band component, performing an inverse conversion to the conversion unit, and providing an image reproduction unit that reproduces the region of interest in a different form from the region other than the region of interest. Image decoding device.
【請求項16】 請求項第5項に記載の画像符号化装置
で符号化された画像データを復号する画像復号装置であ
って、関心領域の符号データを格納するパケット中にゼ
ロレングスを示す情報があるか否かを判断する判断手段
と、該判断手段でゼロレングス以外のデータがある場
合、関心領域有りと判断して関心領域を含む画像を復号
すると共に、関心領域を関心領域以外と異なる形態にし
て再現する画像再現手段とを備えることを特徴とする画
像復号装置。
16. An image decoding device for decoding image data encoded by the image encoding device according to claim 5, wherein information indicating zero length is included in a packet storing code data of a region of interest. Determining means for determining whether or not there is, and when there is data other than zero length, the determining means determines that there is a region of interest and decodes an image including the region of interest, and makes the region of interest different from that other than the region of interest. An image decoding apparatus, comprising: an image reproducing unit configured to reproduce the image in a form.
【請求項17】 請求項第6項に記載の画像符号化装置
で符号化された画像データを復号する画像復号装置であ
って、コンポーネント数を検出する検出手段と、該検出
手段で検出されたコンポーネント数が2つの場合、第1
のコンポーネントは関心領域と関心領域該を識別するた
めの2値画像であるとして復号し、他のコンポーネント
のデータを復号して再現する際に、前記2値画像に応じ
て関心領域関を関心領域以外と異なる形態にして再現す
る画像再現手段とを備えることを特徴とする画像復号装
置。
17. An image decoding device for decoding image data encoded by the image encoding device according to claim 6, wherein said detecting means detects the number of components and said detecting means detects the number of components. If there are two components, the first
Is decoded as a binary image for identifying the region of interest and the region of interest, and when decoding and reproducing the data of other components, the region of interest is associated with the region of interest according to the binary image. An image decoding device, comprising: an image reproducing unit that reproduces the image in a form different from the above.
【請求項18】 請求項第7項に記載の画像符号化装置
で符号化された画像データを復号する画像復号装置であ
って、符号化された画像データを復号化する復号化手段
と、前記所定のヘッダに付加された関心領域に関する情
報に基づいて、前記復号化手段で復号化された画像中の
関心領域部分を、関心領域該とは異なる形態にして再現
する画像再現手段とを備えることを特徴とする画像復号
装置。
18. An image decoding device for decoding image data encoded by the image encoding device according to claim 7, wherein: decoding means for decoding the encoded image data; An image reproducing unit that reproduces a region of interest in the image decoded by the decoding unit in a different form from the region of interest based on information about the region of interest added to a predetermined header. An image decoding apparatus characterized by the above-mentioned.
【請求項19】 与えられた医療用画像中に関心領域を
設定する、或いは関心領域を検出する関心領域設定手段
を用いて、関心領域に関する情報を有する画像に対し符
号化する画像符号化方法であって、画像を周波数成分毎
のサブバンド成分のデータに変換する変換工程と、該変
換工程で得られた成分データ中、前記関心領域にある成
分データと、関心領域外の成分データとを分離して符号
化する符号化工程と該符号化工程で符号化した符号化デ
ータに、少なくとも関心領域と関心領域外とを識別する
ための情報を付加して出力する出力工程とを備えること
を特徴とする画像符号化方法。
19. An image coding method for setting a region of interest in a given medical image, or using a region of interest setting means for detecting a region of interest to code an image having information about the region of interest. A conversion step of converting an image into sub-band component data for each frequency component; and separating component data in the region of interest and component data outside the region of interest in the component data obtained in the conversion step. And an output step of adding at least information for identifying a region of interest and an area outside the region of interest to the encoded data encoded in the encoding step and outputting the encoded data. Image encoding method.
【請求項20】 前記変換工程での変換処理は、ウェー
ブレット変換であることを特徴とする請求項第19項に
記載の画像符号化方法。
20. The image encoding method according to claim 19, wherein the conversion process in the conversion step is a wavelet transform.
【請求項21】 前記符号化工程は、ウェーブレット変
換により得られたサブバンドの成分のデータにおいて、
関心領域における成分データについては、関心領域外と
区別できるビット数だけデータをシフトするビットシフ
ト工程と、該ビットシフト工程でシフトによるデータに
おいて、同じビット位置で構成されるビットプレーンを
生成し、各ビットプレーン毎に符号化する工程とを有
し、前記出力工程は、前記シフトするビット数を前記情
報として付加して出力することを特徴とする請求項第1
9項に記載の画像符号化方法。
21. The encoding step, wherein the subband component data obtained by the wavelet transform includes:
For the component data in the region of interest, a bit shift step of shifting the data by the number of bits that can be distinguished from the outside of the region of interest, and generating a bit plane composed of the same bit positions in the data resulting from the shift in the bit shift step, A step of encoding for each bit plane, wherein the output step adds the number of bits to be shifted as the information and outputs the information.
Item 10. The image encoding method according to Item 9.
【請求項22】 前記出力工程は、前記ビットシフト手
段でシフトした後の、少なくとも関心領域を含むビット
プレーンより所定下位のビットプレーンにおける符号化
データを出力しないことを特徴とする請求項第21項に
記載の画像符号化装置。
22. The method according to claim 21, wherein the output step does not output coded data in a bit plane lower than a bit plane including at least the region of interest after being shifted by the bit shift means. An image encoding device according to claim 1.
【請求項23】 前記符号化工程は、ウェーブレット変
換により得られたサブバンドの成分のデータにおいて、
関心領域における成分データと、関心領域外の成分デー
タとを異なるレイヤーにして符号化する工程を有し、前
記出力工程は、関心領域がない場合、関心領域の符号デ
ータを格納するためのパケット中にゼロレングスを示す
情報を格納して出力することを特徴とする請求項第20
項に記載の画像符号化方法。
23. The encoding step, wherein the subband component data obtained by the wavelet transform includes:
Encoding the component data in the region of interest and the component data outside the region of interest in different layers, wherein the output step includes, when there is no region of interest, the packet for storing the code data of the region of interest. 21. An apparatus according to claim 20, wherein information indicating zero length is stored and output.
An image encoding method according to any one of the preceding claims.
【請求項24】 前記符号化工程は、前記関心領域と関
心領域外を区別するための2値画像を生成する生成工程
と、生成された2値画像を、符号化対象の画像とは別コ
ンポーネントとして符号化する工程とを有し、前記出力
工程は、コンポーネント数を前記情報として付加して出
力することを特徴とする請求項第20項に記載の画像符
号化方法。
24. The encoding step, comprising: a generating step of generating a binary image for distinguishing the region of interest from the outside of the region of interest; and converting the generated binary image into a component different from the image to be encoded. 21. The image encoding method according to claim 20, further comprising: encoding as component information, and wherein the output step adds and outputs the number of components as the information.
【請求項25】 前記符号化工程は、前記関心領域に関
する情報を所定のヘッダに付加する手段を有することを
特徴とする請求項第20項に記載の画像符号化方法。
25. The image encoding method according to claim 20, wherein said encoding step includes means for adding information on said region of interest to a predetermined header.
【請求項26】 前記符号化工程は、関心領域がない場
合、符号化する対象のレイヤー数を1つ少なくし、関心
領域がある場合の数と異なるようにして符号化する工程
を有することを特徴とする請求項第20項に記載の画像
符号化方法。
26. The method according to claim 26, wherein the encoding step includes a step of reducing the number of layers to be encoded by one when there is no region of interest and performing encoding differently from the number of layers when there is a region of interest. The image encoding method according to claim 20, characterized in that:
【請求項27】 前記画像は、医療用のX線像、CTに
よるX線スライス、MRIのスライス画像であることを
特徴とする請求項第19項乃至第26項のいずれか1項
に記載の画像符号化方法。
27. The image processing apparatus according to claim 19, wherein the image is a medical X-ray image, an X-ray slice by CT, or a slice image of MRI. Image coding method.
【請求項28】 前記関心領域設定手段は、入力した医
療用画像に対応する診断情報を入力する診断情報入力手
段を含み、入力した診断情報に基づいて、前記医療用画
像に対する関心領域を設定することを特徴とする請求項
第19項乃至第27項のいずれか1つに記載の画像符号
化方法。
28. The region-of-interest setting means includes diagnostic information input means for inputting diagnostic information corresponding to the input medical image, and sets a region of interest for the medical image based on the input diagnostic information. The image encoding method according to any one of claims 19 to 27, wherein:
【請求項29】 前記診断情報は、テキスト情報である
ことを特徴とする請求項第28項に記載の画像符号化方
法。
29. The image encoding method according to claim 28, wherein the diagnostic information is text information.
【請求項30】 前記診断情報は、音声情報情報である
ことを特徴とする請求項第28項に記載の画像符号化装
置。
30. The image encoding apparatus according to claim 28, wherein said diagnostic information is audio information information.
【請求項31】 前記関心領域設定手段は、前記診断情
報が無所見である場合には、関心領域の決定を行わない
ことを特徴とする請求項第28項乃至第30項のいずれ
か1つに記載の画像符号化装置。
31. The apparatus according to claim 28, wherein the region-of-interest setting means does not determine the region of interest when the diagnostic information indicates no finding. An image encoding device according to claim 1.
【請求項32】 請求項第19項乃至第31項のいずれ
か1項に記載の各工程に対応するプログラムコードを有
し、コンピュータが読み込み実行することで画像データ
を符号化する装置として機能するためのコンピュータプ
ログラム。
32. A computer which has a program code corresponding to each of the steps according to claim 19, and functions as a device which encodes image data by being read and executed by a computer. Computer program for.
【請求項33】 請求項第32項に記載のコンピュータ
プログラムを格納することを特徴とする記憶媒体。
33. A storage medium storing the computer program according to claim 32.
【請求項34】 請求項第3項に記載の画像符号化装置
で符号化された画像データを復号する画像復号方法であ
って、入力した符号化データをビットプレーン毎に復号
する復号工程と、前記シフトビット数に応じて、関心領
域のビットプレーン群で構成されるサブバンド成分のデ
ータについては逆方向にシフトする逆ビットシフト工程
と、前記復号工程及び前記逆ビットシフト工程で得られ
た各ビットプレーンから、サブバンド成分のデータを生
成し、前記変換手段とは逆の変換を行い、前記関心領域
を関心領域以外とは異なる形態にして再現する画像再現
工程とを備えることを特徴とする画像復号方法。
34. An image decoding method for decoding image data encoded by the image encoding device according to claim 3, wherein: a decoding step of decoding input encoded data for each bit plane; In accordance with the number of shift bits, an inverse bit shift step of shifting the data of the sub-band component constituted by the bit plane group of the region of interest in the reverse direction, and each of the data obtained in the decoding step and the inverse bit shift step An image reproduction step of generating data of a subband component from a bit plane, performing a reverse conversion to the conversion unit, and reproducing the region of interest in a different form from the region other than the region of interest. Image decoding method.
【請求項35】 請求項第5項に記載の画像符号化装置
で符号化された画像データを復号する画像復号方法であ
って、関心領域の符号データを格納するパケット中にゼ
ロレングスを示す情報があるか否かを判断する判断工程
と、該判断工程でゼロレングス以外のデータがある場
合、関心領域有りと判断して関心領域を含む画像を復号
すると共に、関心領域を関心領域以外と異なる形態にし
て再現する画像再現工程とを備えることを特徴とする画
像復号方法。
35. An image decoding method for decoding image data encoded by the image encoding device according to claim 5, wherein the information indicating zero length is included in a packet storing the code data of the region of interest. A determination step of determining whether or not there is, and if there is data other than zero length in the determination step, it is determined that there is a region of interest, an image including the region of interest is decoded, and the region of interest is different from the region other than the region of interest. And an image reproduction step of reproducing the image in a form.
【請求項36】 請求項第6項に記載の画像符号化装置
で符号化された画像データを復号する画像復号方法であ
って、コンポーネント数を検出する検出工程と、該検出
工程で検出されたコンポーネント数が2つの場合、第1
のコンポーネントは関心領域と関心領域該を識別するた
めの2値画像であるとして復号し、他のコンポーネント
のデータを復号して再現する際に、前記2値画像に応じ
て関心領域関を関心領域以外と異なる形態にして再現す
る画像再現工程とを備えることを特徴とする画像復号方
法。
36. An image decoding method for decoding image data encoded by the image encoding device according to claim 6, wherein the detecting step detects the number of components, and detects the number of components. If there are two components, the first
Is decoded as a binary image for identifying the region of interest and the region of interest, and when decoding and reproducing the data of other components, the region of interest is associated with the region of interest according to the binary image. An image reproducing step of reproducing the image in a different form.
【請求項37】 請求項第7項に記載の画像符号化装置
で符号化された画像データを復号する画像復号方法であ
って、符号化された画像データを復号する復号工程と、
前記所定のヘッダに付加された関心領域に関する情報に
基づいて、前記復号工程で復号された画像中の関心領域
部分を、関心領域該とは異なる形態にして再現する画像
再現工程とを備えることを特徴とする画像復号方法。
37. An image decoding method for decoding image data encoded by the image encoding device according to claim 7, wherein: a decoding step of decoding the encoded image data;
An image reproduction step of reproducing a region of interest in the image decoded in the decoding step in a different form from the region of interest based on the information on the region of interest added to the predetermined header. A featured image decoding method.
【請求項38】 請求項第34項乃至第37項のいずれ
か1項に記載の各工程に対応するプログラムコードを有
し、コンピュータが読み込み実行することで画像データ
を復号する装置として機能するためのコンピュータプロ
グラム。
38. It has a program code corresponding to each step according to any one of claims 34 to 37, and functions as a device that decodes image data by being read and executed by a computer. Computer programs.
【請求項39】 請求項第38項に記載のコンピュータ
プログラムを格納することを特徴とする記憶媒体。
39. A storage medium storing the computer program according to claim 38.
JP2001141752A 2001-05-11 2001-05-11 Image encoding/decoding device and method, computer program and storage medium Withdrawn JP2002330951A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001141752A JP2002330951A (en) 2001-05-11 2001-05-11 Image encoding/decoding device and method, computer program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001141752A JP2002330951A (en) 2001-05-11 2001-05-11 Image encoding/decoding device and method, computer program and storage medium

Publications (1)

Publication Number Publication Date
JP2002330951A true JP2002330951A (en) 2002-11-19

Family

ID=18988155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001141752A Withdrawn JP2002330951A (en) 2001-05-11 2001-05-11 Image encoding/decoding device and method, computer program and storage medium

Country Status (1)

Country Link
JP (1) JP2002330951A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005125080A (en) * 2003-10-23 2005-05-19 General Electric Co <Ge> System and method for observing abnormal part in different kinds of images
WO2006046551A1 (en) * 2004-10-29 2006-05-04 Sanyo Electric Co., Ltd Image encoding method and device, and image decoding method and device
JP2006208250A (en) * 2005-01-28 2006-08-10 Daiichi Radioisotope Labs Ltd Area classification analysis system for image data
JP2006295386A (en) * 2005-04-07 2006-10-26 Ricoh Co Ltd Image transmission method, image transmission program, recording medium, and image transmission device
JP2008517540A (en) * 2004-10-15 2008-05-22 シードラゴン ソフトウェア インコーポレイテッド System and method for managing communication and / or storage of image data
JP2010515300A (en) * 2006-12-22 2010-05-06 クゥアルコム・インコーポレイテッド Region-of-interest video processing on the decoder side
US7720295B2 (en) 2004-06-29 2010-05-18 Sanyo Electric Co., Ltd. Method and apparatus for coding images with different image qualities for each region thereof, and method and apparatus capable of decoding the images by adjusting the image quality
JP2010220826A (en) * 2009-03-24 2010-10-07 Fujitsu Ltd Program, method, and apparatus for supporting image diagnosis
JP2011508616A (en) * 2007-12-13 2011-03-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to retrieve data from a set of medical image data
WO2011033890A1 (en) * 2009-09-17 2011-03-24 シャープ株式会社 Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device
US8005309B2 (en) 2004-02-09 2011-08-23 Sanyo Electric Co., Ltd. Image coding apparatus, image decoding apparatus, image display apparatus and image processing apparatus
JP2011177241A (en) * 2010-02-26 2011-09-15 Tokyo Univ Of Science Medical image display controller and program
WO2011142204A1 (en) * 2010-05-12 2011-11-17 株式会社日立製作所 Image encoding device, image decoding device and image decoding method
JP2012011255A (en) * 2011-10-20 2012-01-19 Toshiba Corp Image display device
WO2012141068A1 (en) * 2011-04-14 2012-10-18 日立アロカメディカル株式会社 Ultrasound diagnostic device
JP2014506062A (en) * 2011-01-05 2014-03-06 コーニンクレッカ フィリップス エヌ ヴェ Video encoding and decoding device and method for storing PPG related information
JP2014507842A (en) * 2011-01-05 2014-03-27 コーニンクレッカ フィリップス エヌ ヴェ Video coding and decoding device and method for storing PPG related information
JP2014113311A (en) * 2012-12-10 2014-06-26 Hitachi Medical Corp Medical image display device and medical image diagnostic apparatus carrying the same
JP2016041204A (en) * 2014-08-18 2016-03-31 株式会社東芝 Medical inspection system and x-ray diagnostic apparatus
JP2019506208A (en) * 2016-01-21 2019-03-07 エレクタ、インク.Elekta, Inc. System and method for segmentation of endoscopic medical images
JP2019047461A (en) * 2017-09-07 2019-03-22 富士通株式会社 Image processing program, image processing method and image processing device
US10366488B2 (en) 2016-04-08 2019-07-30 International Business Machines Corporation Image processing used to estimate abnormalities
JP2021500180A (en) * 2017-10-27 2021-01-07 ビュノ インコーポレイテッドVuno, Inc. A method for supporting the reading of a fundus image on a subject and a device using the method
US11710241B2 (en) 2018-02-14 2023-07-25 Elekta, Inc. Atlas-based segmentation using deep-learning

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005125080A (en) * 2003-10-23 2005-05-19 General Electric Co <Ge> System and method for observing abnormal part in different kinds of images
US8326058B2 (en) 2004-02-09 2012-12-04 Sanyo Electric Co., Ltd. Image coding apparatus, image decoding apparatus, image display apparatus and image processing apparatus
US8005309B2 (en) 2004-02-09 2011-08-23 Sanyo Electric Co., Ltd. Image coding apparatus, image decoding apparatus, image display apparatus and image processing apparatus
US7720295B2 (en) 2004-06-29 2010-05-18 Sanyo Electric Co., Ltd. Method and apparatus for coding images with different image qualities for each region thereof, and method and apparatus capable of decoding the images by adjusting the image quality
JP4831071B2 (en) * 2004-10-15 2011-12-07 マイクロソフト コーポレーション System and method for managing communication and / or storage of image data
JP2008517540A (en) * 2004-10-15 2008-05-22 シードラゴン ソフトウェア インコーポレイテッド System and method for managing communication and / or storage of image data
US8150173B2 (en) 2004-10-29 2012-04-03 Sanyo Electric Co., Ltd. Image coding method and apparatus, and image decoding method and apparatus
WO2006046551A1 (en) * 2004-10-29 2006-05-04 Sanyo Electric Co., Ltd Image encoding method and device, and image decoding method and device
US8208738B2 (en) 2004-10-29 2012-06-26 Sanyo Electric Co., Ltd. Image coding method and apparatus, and image decoding method and apparatus
JP2006208250A (en) * 2005-01-28 2006-08-10 Daiichi Radioisotope Labs Ltd Area classification analysis system for image data
JP2006295386A (en) * 2005-04-07 2006-10-26 Ricoh Co Ltd Image transmission method, image transmission program, recording medium, and image transmission device
US8744203B2 (en) 2006-12-22 2014-06-03 Qualcomm Incorporated Decoder-side region of interest video processing
JP2010515300A (en) * 2006-12-22 2010-05-06 クゥアルコム・インコーポレイテッド Region-of-interest video processing on the decoder side
US8315466B2 (en) 2006-12-22 2012-11-20 Qualcomm Incorporated Decoder-side region of interest video processing
JP2012120199A (en) * 2006-12-22 2012-06-21 Qualcomm Inc Decoder-side region of interest video processing
JP2011508616A (en) * 2007-12-13 2011-03-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to retrieve data from a set of medical image data
JP2010220826A (en) * 2009-03-24 2010-10-07 Fujitsu Ltd Program, method, and apparatus for supporting image diagnosis
WO2011033890A1 (en) * 2009-09-17 2011-03-24 シャープ株式会社 Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device
US8798345B2 (en) 2009-09-17 2014-08-05 Sharp Kabushiki Kaisha Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device
JP2011177241A (en) * 2010-02-26 2011-09-15 Tokyo Univ Of Science Medical image display controller and program
WO2011142204A1 (en) * 2010-05-12 2011-11-17 株式会社日立製作所 Image encoding device, image decoding device and image decoding method
JP2014507842A (en) * 2011-01-05 2014-03-27 コーニンクレッカ フィリップス エヌ ヴェ Video coding and decoding device and method for storing PPG related information
JP2014506062A (en) * 2011-01-05 2014-03-06 コーニンクレッカ フィリップス エヌ ヴェ Video encoding and decoding device and method for storing PPG related information
WO2012141068A1 (en) * 2011-04-14 2012-10-18 日立アロカメディカル株式会社 Ultrasound diagnostic device
JP2012217791A (en) * 2011-04-14 2012-11-12 Hitachi Aloka Medical Ltd Ultrasound diagnostic device
JP2012011255A (en) * 2011-10-20 2012-01-19 Toshiba Corp Image display device
JP2014113311A (en) * 2012-12-10 2014-06-26 Hitachi Medical Corp Medical image display device and medical image diagnostic apparatus carrying the same
JP2016041204A (en) * 2014-08-18 2016-03-31 株式会社東芝 Medical inspection system and x-ray diagnostic apparatus
US11386557B2 (en) 2016-01-21 2022-07-12 Elekta, Inc. Systems and methods for segmentation of intra-patient medical images
US10867385B2 (en) 2016-01-21 2020-12-15 Elekta, Inc. Systems and methods for segmentation of intra-patient medical images
JP2019506208A (en) * 2016-01-21 2019-03-07 エレクタ、インク.Elekta, Inc. System and method for segmentation of endoscopic medical images
US10366488B2 (en) 2016-04-08 2019-07-30 International Business Machines Corporation Image processing used to estimate abnormalities
JP2019047461A (en) * 2017-09-07 2019-03-22 富士通株式会社 Image processing program, image processing method and image processing device
JP2021500180A (en) * 2017-10-27 2021-01-07 ビュノ インコーポレイテッドVuno, Inc. A method for supporting the reading of a fundus image on a subject and a device using the method
JP7178672B2 (en) 2017-10-27 2022-11-28 ビュノ インコーポレイテッド METHOD AND APPARATUS USING THE SAME TO SUPPORT READING OF FUNDUS IMAGE OF SUBJECT
JP7178672B6 (en) 2017-10-27 2022-12-20 ビュノ インコーポレイテッド METHOD AND APPARATUS USING THE SAME TO SUPPORT READING OF FUNDUS IMAGE OF SUBJECT
US11771318B2 (en) 2017-10-27 2023-10-03 Vuno, Inc. Method for supporting reading of fundus image of subject, and device using same
US11710241B2 (en) 2018-02-14 2023-07-25 Elekta, Inc. Atlas-based segmentation using deep-learning

Similar Documents

Publication Publication Date Title
JP2002330951A (en) Image encoding/decoding device and method, computer program and storage medium
JP5388393B2 (en) Image processing apparatus, image processing method, and control program
JP3847481B2 (en) Data transfer method and apparatus, and recording medium
US20070065032A1 (en) Method and apparatus for boundary-based image compression
Zukoski et al. A novel approach to medical image compression
EP1908015A1 (en) Method for indentifying markers in radiographic images
CN101366660A (en) Image diagnosis support system, medical image management apparatus, image diagnosis support processing apparatus and image diagnosis support method
JP2003099021A (en) Device, method, program, and storage medium for displaying picture
US6813393B2 (en) Image storing method and image output system
Arif et al. Auto-shape lossless compression of pharynx and esophagus fluoroscopic images
JP6308976B2 (en) Diagnosis support apparatus, operation method of diagnosis support apparatus, and diagnosis support system
JP5693550B2 (en) Diagnosis support apparatus and control method thereof, diagnosis support system, and program
US7751603B2 (en) Medical image output system, medical image transferring apparatus and program
JP2001144932A (en) Image processor and its method
JP5837965B2 (en) Image receiving apparatus, image transmitting apparatus, and control method thereof
WO2017154640A1 (en) Image display device, method, and program
JP6403728B2 (en) Image processing method and apparatus, and image processing system
JP2000067223A (en) Method and device for preparing file, method and device for controlling file transfer and recording medium
Kazakevičūtė-Januškevičienė et al. Annotation of the medical images using quick response codes
Alhatami et al. Review and enhancement of discrete cosine transform (DCT) for medical image fusion
JP4428868B2 (en) Image processing apparatus and method, and storage medium
TWI802510B (en) Interpretation assistance system and method for pulmonary nodule
Lo RADIOLOGICAL IMAGE COMPRESSION (RATIO, RECONSTRUCTED)
Bindu the Role of image Fusion and Watermarking techniques in Medical imaging
JP2929030B2 (en) Digital radiographic image position determination device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805