JP2007159643A - Image processing device and method - Google Patents

Image processing device and method Download PDF

Info

Publication number
JP2007159643A
JP2007159643A JP2005356472A JP2005356472A JP2007159643A JP 2007159643 A JP2007159643 A JP 2007159643A JP 2005356472 A JP2005356472 A JP 2005356472A JP 2005356472 A JP2005356472 A JP 2005356472A JP 2007159643 A JP2007159643 A JP 2007159643A
Authority
JP
Japan
Prior art keywords
image data
dimensional image
information
processing apparatus
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005356472A
Other languages
Japanese (ja)
Inventor
Makoto Sato
眞 佐藤
Hideaki Miyamoto
秀昭 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005356472A priority Critical patent/JP2007159643A/en
Publication of JP2007159643A publication Critical patent/JP2007159643A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method for processing images for the diagnosis by efficiently combining the radiography and CT. <P>SOLUTION: Three-dimensional image data are received by a three-dimensional image input part 1, and are converted to two-dimensional image data by a projection processing part 3. The information on the diagnosis is extracted from the received three-dimensional image data by an information extraction part. The two-dimensional image data are received from a two-dimensional image input part 2, and the two-dimensional image data are created by a composition processing part 5 based on the received two-dimensional image data, converted two-dimensional image data and extracted information. By displaying the created two-dimensional image data in a display part 6, the diagnosis can be efficiently performed. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置および方法に関し、特に、被写体の診断を行う際に用いる画像処理装置および方法に関するものである。   The present invention relates to an image processing apparatus and method, and more particularly to an image processing apparatus and method used when diagnosing a subject.

従来、肺癌を始めとする進行性の疾患を対象とした検診は、胸部X線撮影により定期的に行われてきた。胸部X線撮影は古くから存在し、簡便な撮影方法であることから広く用いられてきている。しかしながら、3次元の構造物を2次元平面上に投影する方法であるため、他の解剖学的構造との重なりが少ない、比較的大きな構造でなければ描出できないという問題がある。   Conventionally, screening for progressive diseases such as lung cancer has been regularly performed by chest X-ray imaging. Chest X-ray imaging has existed for a long time and has been widely used because it is a simple imaging method. However, since it is a method of projecting a three-dimensional structure onto a two-dimensional plane, there is a problem that it cannot be drawn unless it is a relatively large structure with little overlap with other anatomical structures.

これに対して、近年CT(コンピュータ断層撮影)の発達に伴い、低線量の条件を元にCTを検診に用いる試みが行われている。CT検診は、病変の検出率において従来の胸部X線撮影と比較して大幅な検出率を達成することが報告されている(例えば、特許文献1参照)。   On the other hand, in recent years, with the development of CT (computed tomography), attempts have been made to use CT for screening based on low-dose conditions. It has been reported that CT screening achieves a significant detection rate compared to conventional chest X-ray imaging in the detection rate of lesions (see, for example, Patent Document 1).

しかし、一方では検出率の向上に伴いCT検診では多くの擬陽性が発見されるため、その後の経過観察のために繰り返し受診の回数が増えることがある。さらに、CT検査に要する費用は従来の単純撮影と比較すると高額で、依然として胸部X線撮影と比較すると被爆量が多いという問題がある。
特開平07−265300号公報
However, on the other hand, since many false positives are discovered in CT screening as the detection rate improves, the number of repeated visits may increase for subsequent follow-up. Furthermore, there is a problem that the cost required for CT examination is high compared with conventional simple imaging, and the amount of exposure is still large compared with chest X-ray imaging.
JP 07-265300 A

そこで、CT検診においては初期検査をCTで行い、その後経過観察を行う際には胸部X線撮影を併用することが、受診者の身体的、経済的な負担を軽減することに有効であると考えられるが、従来、このような方法において効率的に読影を行う装置はなかった。   Therefore, it is effective to reduce the physical and economic burden on the examinee when CT examination is performed at the initial stage of CT examination and chest radiography is used in combination with follow-up observation. Though conceivable, conventionally, there has been no apparatus for efficiently interpreting images in such a method.

従って、本発明は、X線撮影とCTとを効率良く組み合わせて診断を行うための画像処理装置及び方法を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing apparatus and method for performing diagnosis by efficiently combining X-ray imaging and CT.

また、本発明は、CTを用いて得られた画像の診断結果に基づき、X線撮影を用いて経過観察を行う際に、比較読影を効率的に行うことが可能な画像処理装置を提供することを目的とする。   In addition, the present invention provides an image processing apparatus capable of efficiently performing comparative interpretation when performing follow-up observation using X-ray imaging based on the diagnostic result of an image obtained using CT. For the purpose.

上記課題を解決する為に、本発明による画像処理装置は、3次元画像データを受信する第1の画像受信手段と、第1の2次元画像データを受信する第2の画像受信手段と、前記3次元画像データを第2の2次元画像データに変換する変換手段と、前記3次元画像データから診断に関する第1の情報を抽出する第1の情報抽出手段と、前記第2の2次元画像データと前記第1の2次元画像データと前記第1の情報に基づいて、第3の2次元画像データを生成する生成手段と、前記第3の2次元画像データを出力する出力手段とを備えることを特徴とする。   In order to solve the above problem, an image processing apparatus according to the present invention includes a first image receiving unit that receives three-dimensional image data, a second image receiving unit that receives first two-dimensional image data, Conversion means for converting 3D image data into second 2D image data, first information extraction means for extracting first information relating to diagnosis from the 3D image data, and the second 2D image data And generating means for generating third two-dimensional image data based on the first two-dimensional image data and the first information, and output means for outputting the third two-dimensional image data. It is characterized by.

また、本発明による画像処理方法は、3次元画像データを受信する第1の画像受信工程と、第1の2次元画像データを受信する第2の画像受信工程と、前記3次元画像データを第2の2次元画像データに変換する変換工程と、前記3次元画像データから診断に関する第1の情報を抽出する第1の情報抽出工程と、前記第2の2次元画像データと前記第1の2次元画像データと前記第1の情報に基づいて、第3の2次元画像データを生成する生成工程と、前記第3の2次元画像データを出力する出力工程とを備えることを特徴とする。   An image processing method according to the present invention includes a first image receiving step for receiving three-dimensional image data, a second image receiving step for receiving first two-dimensional image data, and the three-dimensional image data as first A conversion process for converting into two 2-dimensional image data, a first information extraction process for extracting first information relating to diagnosis from the three-dimensional image data, the second two-dimensional image data, and the first 2 The method includes a generation step of generating third two-dimensional image data based on the three-dimensional image data and the first information, and an output step of outputting the third two-dimensional image data.

本発明によれば、X線撮影とCTとを効率良く組み合わせて診断を行うことができる。   According to the present invention, diagnosis can be performed by efficiently combining X-ray imaging and CT.

以下、本発明の一実施の形態を、図面を用いて詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

<第1実施の形態>
図1は、本実施の形態に係る画像処理装置の機能構成を示すブロック図であり、3次元画像入力部1、2次元画像入力部2、投影処理部3、位置合わせ部4、合成処理部5、表示部6、情報抽出部7、精度評価部8より構成されている。図2に示すフローチャートを参照しながら、図1の各部の動作について説明する。
<First embodiment>
FIG. 1 is a block diagram showing a functional configuration of the image processing apparatus according to the present embodiment, a three-dimensional image input unit 1, a two-dimensional image input unit 2, a projection processing unit 3, an alignment unit 4, and a composition processing unit. 5, a display unit 6, an information extraction unit 7, and an accuracy evaluation unit 8. The operation of each unit in FIG. 1 will be described with reference to the flowchart shown in FIG.

3次元画像入力部1は、被写体の3次元画像データを不図示の撮像装置またはファイルサーバから入力する(ステップS100)。ここで、3次元画像データは、例えばX線CTにより撮影された人体の3次元画像データであり、本実施の形態では胸部CT画像データである。   The 3D image input unit 1 inputs 3D image data of a subject from an imaging device or a file server (not shown) (step S100). Here, the three-dimensional image data is, for example, three-dimensional image data of a human body imaged by X-ray CT, and is chest CT image data in the present embodiment.

2次元画像入力部2は、被写体の2次元画像データを不図示の撮像装置またはファイルサーバから入力する(ステップS200)。本実施形態において、この2次元画像データは、3次元画像入力部1から入力した胸部CT画像データに映出された被写体と同一の被写体を撮影した、胸部X線画像データである。   The two-dimensional image input unit 2 inputs the two-dimensional image data of the subject from an imaging device (not shown) or a file server (step S200). In the present embodiment, the two-dimensional image data is chest X-ray image data obtained by photographing the same subject as the subject displayed in the chest CT image data input from the three-dimensional image input unit 1.

なお、本実施の形態において被写体は人体の胸部であるが、これに限定されること無く他の被写体、例えば造影撮影を行った血管等であってもよい。   In the present embodiment, the subject is the chest of the human body, but is not limited to this, and may be another subject, for example, a blood vessel that has undergone contrast imaging.

次に、情報抽出部7は、3次元画像入力部1から出力される3次元画像データに映出された特定の構造物Oを抽出する(ステップS300)。本実施の形態においては、胸部CT画像データから血管構造が抽出され、出力される。   Next, the information extraction unit 7 extracts a specific structure O displayed in the 3D image data output from the 3D image input unit 1 (step S300). In the present embodiment, the blood vessel structure is extracted from the chest CT image data and output.

情報抽出部7の抽出手法は、医師による手動抽出、抽出対象が3次元画像であることを利用した本装置による自動抽出のどちらでも良い。なお、特に、自動抽出手法を用いるのであれば、本実施の形態における抽出処理は3次元画像データ上で行うことを考慮し、3次元画像であることを有効に利用した抽出手法が望ましい。   The extraction method of the information extraction unit 7 may be either manual extraction by a doctor or automatic extraction by the apparatus using the fact that the extraction target is a three-dimensional image. In particular, if an automatic extraction method is used, it is desirable to use an extraction method that effectively uses a three-dimensional image in consideration of performing the extraction processing in the present embodiment on three-dimensional image data.

例えば、一般的に2次元画像である胸部X線画像における肺結節状陰影の検出は、円形度、不整度、陰影を取り囲む長方形の縦横度といった2次元の形状特徴量分析を行う手法がある。例えば、「杜下淳次他:胸部X線写真における肺結節状陰影の形状特徴量分析による偽陽性陰影の除去,日本放射線技術学会誌57(7),829−836,2001」に記載されている。しかしながら、本来3次元構造を持つ抽出対象を2次元画像である胸部X線画像上で取り扱うため、精度に限界がある。   For example, detection of a pulmonary nodule-like shadow in a chest X-ray image, which is generally a two-dimensional image, includes a technique of performing two-dimensional shape feature amount analysis such as circularity, irregularity, and vertical and horizontal dimensions of a rectangle surrounding the shadow. For example, it is described in "Koji Shigeshita et al .: Removal of false positive shadows by shape feature analysis of lung nodule shadows in chest radiographs, Journal of Japanese Society of Radiological Technology 57 (7), 829-836, 2001". Yes. However, accuracy is limited because an extraction target that originally has a three-dimensional structure is handled on a chest X-ray image that is a two-dimensional image.

本実施の形態における情報抽出部7の抽出手法では、3次元的な幾何学的、解剖学的特徴を用いた医師のルールベース法によってNodule候補陰影から偽陽性陰影を除去するといった手法を適用する。この手法については、「日浦美香子他:胸部単純X線画像における結節性陰影抽出法の開発,Medical Imaging Technology Vol.23,No.4,September,2005」に記載されている。   In the extraction method of the information extraction unit 7 in the present embodiment, a method of removing a false positive shadow from a Nodule candidate shadow by a doctor's rule-based method using three-dimensional geometric and anatomical features is applied. . This method is described in “Mikako Hiura et al .: Development of nodular shadow extraction method in chest simple X-ray image, Medical Imaging Technology Vol. 23, No. 4, September, 2005”.

投影処理部3は、3次元画像入力部1が出力する3次元画像データIM1と2次元画像入力部2が出力する2次元画像データIM2を入力とし、IM1をIM2と同等の2次元画像データIM3に変換して出力する(ステップS400)。   The projection processing unit 3 receives the three-dimensional image data IM1 output from the three-dimensional image input unit 1 and the two-dimensional image data IM2 output from the two-dimensional image input unit 2, and uses IM1 as two-dimensional image data IM3 equivalent to IM2. (Step S400).

以下に、投影処理部3の動作を、図5に示すフローチャートと、図6を参照しながら説明する。   The operation of the projection processing unit 3 will be described below with reference to the flowchart shown in FIG. 5 and FIG.

入力された2次元画像データIM2の撮影条件を取得する(ステップS401)。ここで撮影条件とは、IM2における被写体の向き・撮影部位を得るための、被写体とX線管とセンサの位置関係情報である。この情報を用いて入力された3次元画像データIM1の座標系において、X線管の位置に焦点S(X,Y,Z)を、センサの位置に投影面として平面Pを構築する。ここで、平面Pは、元のセンサの画素数と画素ピッチを反映した画素情報を持ち、この平面P上で注目する画素(X,Y,Z)はもとのセンサのある画素と1対1に対応するものとする。 The imaging conditions of the input 2D image data IM2 are acquired (step S401). Here, the imaging conditions are positional relationship information of the subject, the X-ray tube, and the sensor for obtaining the orientation and imaging region of the subject in IM2. In the coordinate system of the three-dimensional image data IM1 input using this information, a plane P is constructed with the focal point S (X s , Y s , Z s ) at the X-ray tube position and the projection plane at the sensor position. . Here, the plane P has pixel information reflecting the number of pixels and the pixel pitch of the original sensor, and the pixel of interest (X p , Y p , Z p ) on the plane P is a pixel with the original sensor. And one-to-one correspondence.

焦点S(X,Y,Z)と投影面P上の注目画素(X,Y,Z)を結ぶ直線lを、計算する(ステップS402)。この直線lは、2次元画像データIM2を撮影したときのX線管からセンサ上のある画素に向けて発生するX線に相当する。 A straight line l connecting the focal point S (X s , Y s , Z s ) and the target pixel (X p , Y p , Z p ) on the projection plane P is calculated (step S402). This straight line l corresponds to an X-ray generated from the X-ray tube when photographing the two-dimensional image data IM2 toward a certain pixel on the sensor.

直線lと交差する3次元画像IM1上の全ボクセルのCT値に重みw=1をかけて積算したものを、投影面P上の注目画素(X,Y,Z)の画素値とする(ステップ403)。この画素値は、センサ上のある画素に人体を透過して照射したX線量に相当する。なお、本実施の形態では、重みw=1としたが、他の値であっても良い。 A pixel value of the pixel of interest (X p , Y p , Z p ) on the projection plane P is obtained by multiplying the CT values of all the voxels on the three-dimensional image IM1 intersecting with the straight line l by the weight w = 1. (Step 403). This pixel value corresponds to an X-ray dose that is transmitted through a human body to a certain pixel on the sensor. In this embodiment, the weight w = 1, but other values may be used.

投影面Pの全注目画素について、ステップS402とステップS403を繰り返す(ステップS404)。これにより、投影面P上には直線lが通過した組織ごとに異なる値をとった像が描かれる。本実施例においては、胸部の骨や肺などの像が生成される。   Steps S402 and S403 are repeated for all target pixels on the projection plane P (step S404). Thereby, on the projection plane P, an image having a different value is drawn for each tissue through which the straight line l passes. In this embodiment, an image of the bones and lungs of the chest is generated.

投影面Pを、最終的な投影画像データIM3に変換する(ステップS405)。まず投影面Pの注目画素(X,Y,Z)とセンサの画素が1対1に対応するという関係を用いて、センサ上の画素値に投影面Pの画素値を代入する。 The projection plane P is converted into final projection image data IM3 (step S405). First, the pixel value of the projection plane P is substituted into the pixel value on the sensor using the relationship that the target pixel (X p , Y p , Z p ) on the projection plane P and the sensor pixel have a one-to-one correspondence.

続いて、センサ上に描かれる像と2次元画像データIM2上の像において、同じ構造物は同じ画素値をとるような変換処理を施す。例えば、センサ上で骨を示す領域の画素値には、IM2上の骨領域を表す画素値を代入する。具体的には、センサ上に描かれる像とIM2の像において最大の画素値(一般的には骨領域)と最小の画素値(一般的には空気領域)をそれぞれ対応させ、その間の画素値に関してはセンサ上の画素値をIM2の画素値にスケーリングする。   Subsequently, in the image drawn on the sensor and the image on the two-dimensional image data IM2, conversion processing is performed so that the same structure takes the same pixel value. For example, the pixel value representing the bone region on IM2 is substituted for the pixel value of the region representing the bone on the sensor. Specifically, the maximum pixel value (generally a bone region) and the minimum pixel value (generally an air region) in the image drawn on the sensor and the image of IM2 are associated with each other, and the pixel value therebetween , The pixel value on the sensor is scaled to the pixel value of IM2.

以上の処理により、3次元画像データIM1に2次元画像データIM2の撮影手段を模した投影処理を加え、2次元画像データである投影画像データIM3に変換することができり。本実施の形態にでは、3次元画像IM1は胸部CT画像データ、2次元画像データIM2は同一被写体の胸部画像データであり、投影処理によって胸部CT画像データを胸部画像データに変換する。   By the above processing, the projection processing imitating the photographing means of the two-dimensional image data IM2 can be added to the three-dimensional image data IM1 and converted into the projection image data IM3 that is two-dimensional image data. In the present embodiment, the three-dimensional image IM1 is chest CT image data, and the two-dimensional image data IM2 is chest image data of the same subject, and the chest CT image data is converted into chest image data by projection processing.

位置合わせ部4は、2次元画像入力部2から出力される2次元画像データIM2と投影処理部3から出力される2次元画像データIM3との位置合わせを行い、結果である位置合わせ後の画像IM2’を合成処理部5と精度評価部8に出力する(ステップS500)。本実施の形態では、経時画像でも変形の少ない胸部骨領域の位置合わせを行い、手法としては剛体レジストレーションを用いる。   The registration unit 4 performs registration between the two-dimensional image data IM2 output from the two-dimensional image input unit 2 and the two-dimensional image data IM3 output from the projection processing unit 3, and results in an image after registration. IM2 ′ is output to the composition processing unit 5 and the accuracy evaluation unit 8 (step S500). In the present embodiment, alignment of the thoracic bone region with little deformation even in the time-lapse image is performed, and a rigid registration is used as a technique.

剛体レジストレーションは、対象となる物体を、例えば骨のような、向きや位置は変化するが物体の形状や大きさは変化しない剛体であると仮定し、平行移動・回転等を行って位置合わせを行う。   Rigid body registration assumes that the target object is a rigid body that changes its orientation and position but does not change its shape and size, such as bone, and performs translation and rotation to align the object. I do.

なお、剛体レジストレーションでは、対象となる一対の画像における被写体間に前傾・後傾・体軸周りの回転に起因する位置ずれが存在する場合対処できないため、剛体レジストレーションだけでは満足な位置合わせ結果が得られない時は、非剛体レジストレーションを用いても良い。   Note that rigid registration cannot deal with misalignment caused by forward / backward tilt / rotation around the body axis between subjects in a pair of target images. Non-rigid registration may be used when results are not obtained.

非剛体レジストレーションは、対象となる物体は変形する非剛体であると仮定し、一対の画像間の類似度が高くなるように画像を変形するレジストレーション手法である。剛体レジストレーションは主として骨などの変形を考慮しない物体のみを対象としているが、非剛体レジストレーションは臓器など変形を考慮する必要のある軟組織を対象としている。剛体レジストレーション、非剛体レジストレーションの詳細に関しては、例えば、特開2005−078176号公報に記述されているので、その詳細については省略する。   Non-rigid registration is a registration technique in which an object is assumed to be a deforming non-rigid body and the image is deformed so that the similarity between a pair of images is high. The rigid registration is mainly for only objects such as bones that do not take into account deformation, whereas the non-rigid registration is for soft tissues that need to take into account deformation such as organs. The details of the rigid registration and the non-rigid registration are described in, for example, Japanese Patent Application Laid-Open No. 2005-078176, and the details thereof are omitted.

精度評価部8では、位置合わせ結果を評価する。本実施の形態では胸部肋骨領域の濃度を用いて画像間類似度を計算し、ある閾値T以下であれば十分な精度が得られていないと判断し、投影処理部3に戻り、焦点S、投影面Pの位置を微調整し、投影処理をやり直す。評価に用いる閾値Tは実験的に求める。また、利用者である医師が位置合わせ結果を目視により確認しながら閾値Tを決定しても良い。   The accuracy evaluation unit 8 evaluates the alignment result. In the present embodiment, the image similarity is calculated using the density of the chest rib region, and if it is equal to or less than a certain threshold T, it is determined that sufficient accuracy is not obtained. The position of the projection plane P is finely adjusted, and the projection process is performed again. The threshold T used for evaluation is obtained experimentally. In addition, a threshold value T may be determined by a doctor who is a user while visually confirming the alignment result.

位置合わせ部4の出力が、精度評価部8を経由して投影処理部3へフィードバックされるこの一連の処理を反復することにより、3次元画像データIM1から2次元画像データIM3への変換処理の精度が上がる。   By repeating this series of processes in which the output of the alignment unit 4 is fed back to the projection processing unit 3 via the accuracy evaluation unit 8, the conversion process from the three-dimensional image data IM1 to the two-dimensional image data IM3 is performed. Increases accuracy.

合成処理部5は、位置合わせ部4から出力される位置合わせ後の2次元画像データIM2’と情報抽出部7から出力される特定の構造物データOを合成し、合成画像IM4を出力する(ステップS600)。本実施の形態においては情報抽出部7から出力されている血管構造データと、位置合わせ部4が出力する胸部画像データを合成する。   The composition processing unit 5 synthesizes the two-dimensional image data IM2 ′ after alignment output from the alignment unit 4 and the specific structure data O output from the information extraction unit 7, and outputs a composite image IM4 ( Step S600). In the present embodiment, the blood vessel structure data output from the information extraction unit 7 and the chest image data output from the alignment unit 4 are combined.

合成画像IM4は、位置情報を持つ構造物データOを2次元画像データIM3上での位置に変換し、IM3に位置合わせされたIM2’上に単純に重ね合わせて出力することで、3次元画像IM1で予め抽出しておいた注目すべき構造物Oを2次元画像IM2上にマッピングして表示したものである。ここで、構造物データOは見易いように着色して表示しても良いし、透過率を高く設定して構造物の背後にある物体についても視認可能としても良い。注目対象に優先度を付けて異なる色で表示しても良い。この合成手法は、医師が必要とする情報を効果的に提示する方法であればどのようなものでも良い。   The composite image IM4 is obtained by converting the structure data O having position information into a position on the two-dimensional image data IM3, and simply superimposing it on IM2 ′ aligned with IM3 to output the three-dimensional image. The notable structure O extracted in advance by IM1 is mapped and displayed on the two-dimensional image IM2. Here, the structure data O may be colored and displayed for easy viewing, or the transmittance may be set high so that an object behind the structure can be visually recognized. Priorities may be given to the target of interest and displayed in different colors. This synthesis method may be any method as long as it effectively presents information required by the doctor.

表示部6は、合成処理部5から出力される合成画像の表示を行う(ステップS700)。本実施の形態において表示部6のデバイスとしては、例えばCRTモニタ、液晶ディスプレイなどが適しているが、本発明の目的は複数の画像の比較読影を効率的に行うことであるため、入力である2次元画像データIM1、IM1を2次元画像データに変換したIM3、IM3に位置合わせされたIM2、合成処理部5からの出力である合成画像IM4を選択的に表示して読影できるもの、あるいは上記画像を複数同時に表示して読影できるものが望ましく、この目的を実現できるものであればどのような出力装置でも良い。   The display unit 6 displays the synthesized image output from the synthesis processing unit 5 (step S700). For example, a CRT monitor, a liquid crystal display, or the like is suitable as the device of the display unit 6 in the present embodiment. However, an object of the present invention is to input a plurality of images efficiently for comparative interpretation. Two-dimensional image data IM1, IM3 obtained by converting IM1 into two-dimensional image data, IM2 aligned with IM3, and composite image IM4 output from the composition processing unit 5 can be selectively displayed and interpreted, or the above It is desirable that a plurality of images can be simultaneously displayed and interpreted, and any output device may be used as long as this purpose can be realized.

ここで、図1に示した各部は、専用のハードウェアでもって構成しても良いが、本実施の形態ではソフトウェアでもって構成する。この場合、図1に示した画像処理装置は、一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータでもって構成することができる。   Here, each unit shown in FIG. 1 may be configured by dedicated hardware, but is configured by software in the present embodiment. In this case, the image processing apparatus shown in FIG. 1 can be configured by a computer such as a general PC (personal computer) or WS (workstation).

図3は、画像処理装置として適用するコンピュータのハードウェア構成、及びその周辺機器を示すブロック図である。同図に示す如く、コンピュータ1000は、ネットワーク4000を介して撮像装置2000やファイルサーバ3000に接続されており、互いにデータ通信が可能な構成となっている。   FIG. 3 is a block diagram illustrating a hardware configuration of a computer applied as an image processing apparatus and its peripheral devices. As shown in the figure, a computer 1000 is connected to an imaging apparatus 2000 and a file server 3000 via a network 4000, and has a configuration capable of data communication with each other.

先ず、コンピュータ1000について説明する。1010はCPUで、RAM1020やROM1030に格納されているプログラムやデータを用いてコンピュータ1000全体の制御を行うと共に、コンピュータ1000を適用した本発明による画像処理装置が行う各処理を実行する。   First, the computer 1000 will be described. A CPU 1010 controls the entire computer 1000 using programs and data stored in the RAM 1020 and the ROM 1030, and executes each process performed by the image processing apparatus according to the present invention to which the computer 1000 is applied.

1020はRAMで、光磁気ディスク1060やハードディスク1050からロードされたプログラムやデータを一時的に記憶するためのエリアを備える。更にRAM1020は、ネットワーク4000を介して撮像装置2000やファイルサーバ3000からダウンロードした画像データ等を一時的に記憶するためのエリアを備える。また、RAM1020は、CPU1000が各種の処理を実行する際に用いるワークエリアも備える。   Reference numeral 1020 denotes a RAM which has an area for temporarily storing programs and data loaded from the magneto-optical disk 1060 and the hard disk 1050. Further, the RAM 1020 includes an area for temporarily storing image data downloaded from the imaging device 2000 or the file server 3000 via the network 4000. The RAM 1020 also includes a work area used when the CPU 1000 executes various processes.

1030はROMで、コンピュータ1000の設定データや、ブートプログラムなどを格納する。   Reference numeral 1030 denotes a ROM that stores setting data of the computer 1000, a boot program, and the like.

1050はハードディスクで、OS(オペレーティングシステム)や、図1に示した各部が行う上記各処理をCPU1000に実行させるためのプログラムやデータを保持している。そしてこれらはCPU1000による制御に従って適宜RAM1020にロードされ、CPU1000による処理対象となる。また、上記動画像のデータをこのハードディスク1050に保存させておくようにしても良い。   Reference numeral 1050 denotes a hard disk, which holds an OS (Operating System) and programs and data for causing the CPU 1000 to execute the above-described processes performed by each unit illustrated in FIG. These are appropriately loaded into the RAM 1020 in accordance with the control by the CPU 1000 and are processed by the CPU 1000. The moving image data may be stored in the hard disk 1050.

1060は光磁気ディスクで、情報記憶媒体としての一例であり、ハードディスク1050に保存されているプログラムやデータの一部若しくは全部をこの光磁気ディスク1060に格納するようにしても良い。   Reference numeral 1060 denotes a magneto-optical disk, which is an example of an information storage medium. A part or all of programs and data stored in the hard disk 1050 may be stored in the magneto-optical disk 1060.

1070、1080はそれぞれマウス、キーボードで、コンピュータ1000の操作者が操作することで、各種の指示をCPU1010に対して入力することができる。   Reference numerals 1070 and 1080 denote a mouse and a keyboard, respectively. By operating the computer 1000, various instructions can be input to the CPU 1010.

1090はプリンタで、表示部6による出力先の一例である。   Reference numeral 1090 denotes a printer, which is an example of an output destination by the display unit 6.

1100は表示装置で、CRTや液晶画面などにより構成されており、CPU1000による処理結果を画像や文字などでもって表示する。例えば、図1に示した各部により処理され、最終的に表示部6から出力された画像を表示する。   A display device 1100 includes a CRT, a liquid crystal screen, and the like, and displays a processing result by the CPU 1000 using images, characters, and the like. For example, an image processed by each unit shown in FIG. 1 and finally output from the display unit 6 is displayed.

1040は上述の各部を繋ぐバスである。   Reference numeral 1040 denotes a bus connecting the above-described units.

次に、撮像装置2000について説明する。撮像装置2000は、例えばX線CT装置、MRI装置、あるいはフラットパネル、レーザースキャナなど、X線医用画像を撮像するものであり、撮像した画像のデータはネットワーク4000を介してコンピュータ1000に供給される。なお、画像データは複数をまとめてコンピュータ1000に供給するようにしても良いし、撮像の都度順次供給するようにしても良い。   Next, the imaging apparatus 2000 will be described. The imaging apparatus 2000 captures an X-ray medical image such as an X-ray CT apparatus, an MRI apparatus, a flat panel, or a laser scanner, and the captured image data is supplied to the computer 1000 via the network 4000. . Note that a plurality of image data may be collectively supplied to the computer 1000, or may be sequentially supplied each time an image is taken.

次に、ファイルサーバ3000について説明する。ファイルサーバ3000には画像データを含む様々な情報が格納可能であり、本実施形態の場合には、図1に示した各部によって行った上記各処理により得られる画像を格納することができる。従って、コンピュータ1000は、図1に示した各部による処理を行うと、処理済みの画像をネットワーク4000を介してファイルサーバ3000に転送する。これにより、ファイルサーバ3000には、コンピュータ1000による処理済みの画像データを登録することができる。   Next, the file server 3000 will be described. Various information including image data can be stored in the file server 3000. In the case of the present embodiment, images obtained by the above-described processes performed by the respective units shown in FIG. 1 can be stored. Accordingly, when the computer 1000 performs processing by each unit illustrated in FIG. 1, the computer 1000 transfers the processed image to the file server 3000 via the network 4000. As a result, image data processed by the computer 1000 can be registered in the file server 3000.

次にネットワーク4000について説明する。ネットワーク4000は、LANやインターネット等のネットワークにより構成されている。なお、このネットワーク4000は、無線、有線の何れで構成しても良く、また双方を部分的に組み合わせるようにしても良い。   Next, the network 4000 will be described. The network 4000 is configured by a network such as a LAN or the Internet. The network 4000 may be configured by either wireless or wired, and may be partially combined.

<第2実施の形態>
前述した第1実施の形態においては、情報抽出部7では胸部CT画像データから血管構造を抽出した。本実施の形態では、診断情報として抽出部7において複数の病変候補を抽出し、合成処理部5において病変候補を2次元画像データIM2に合成した合成画像データIM4を出力する。この合成画像データIM4を用いれば、経時画像診断において読影部位を絞ることが可能になる。
<Second Embodiment>
In the first embodiment described above, the information extraction unit 7 extracts the blood vessel structure from the chest CT image data. In the present embodiment, the extraction unit 7 extracts a plurality of lesion candidates as diagnostic information, and the synthesis processing unit 5 outputs synthesized image data IM4 obtained by synthesizing the lesion candidates with the two-dimensional image data IM2. By using the composite image data IM4, it is possible to narrow down the interpretation site in the temporal image diagnosis.

<第3実施の形態>
前述した第1実施の形態においては、特定の構造物データOと2次元画像データIM3の合成画像を重ね合わせてそのまま表示した。しかしながら、この特定の構造物データが3次元画像データから解剖学的構造と診断結果に関する情報として抽出されたことを利用し、合成画像にさらに適切な強調処理を加えて特定の構造を強調した強調画像として出力しても良い。
<Third Embodiment>
In the first embodiment described above, the composite image of the specific structure data O and the two-dimensional image data IM3 is superimposed and displayed as it is. However, using the fact that this specific structure data is extracted from the 3D image data as information about the anatomical structure and the diagnosis result, further enhancement processing is added to the composite image to emphasize the specific structure. It may be output as an image.

図7は本実施の形態に係る画像処理装置の機能構成を示すブロック図であり、3次元画像入力部1、2次元画像入力部2、投影処理部3、位置合わせ部4、合成処理部5、情報抽出部7、強調処理部9、表示部6より構成されている。   FIG. 7 is a block diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment. The three-dimensional image input unit 1, the two-dimensional image input unit 2, the projection processing unit 3, the alignment unit 4, and the composition processing unit 5 are illustrated. , An information extraction unit 7, an emphasis processing unit 9, and a display unit 6.

図8に示すフローチャートを参照しながら、図7の各部の動作について説明する。   The operation of each unit in FIG. 7 will be described with reference to the flowchart shown in FIG.

3次元画像データIM1と2次元画像データIM2を入力とするステップS100とステップ200の処理は、第1実施の形態と同じであるため省略する。   Since the processes of Step S100 and Step 200 that receive the three-dimensional image data IM1 and the two-dimensional image data IM2 are the same as those in the first embodiment, a description thereof is omitted.

情報抽出部7は、3次元画像入力部1から出力される3次元画像データIM1に映出された特定の構造物データOを抽出する(ステップS300)。出力する特定の構造物データOは、被写体の解剖学的構造や診断結果に関する情報であり、例えば2次元画像データIM2の読影によって発見された病変部分である。本実施の形態において、この構造物データはさらに3次元的な位置情報を持つものとする。   The information extraction unit 7 extracts specific structure data O displayed in the three-dimensional image data IM1 output from the three-dimensional image input unit 1 (step S300). The specific structure data O to be output is information relating to the anatomical structure and diagnosis result of the subject, and is, for example, a lesion portion discovered by interpretation of the two-dimensional image data IM2. In the present embodiment, it is assumed that the structure data further has three-dimensional position information.

ステップS500とステップS600によって合成画像データIM4を出力するまでの処理動作は、第1実施の形態と同じであるため省略する。   The processing operations until the composite image data IM4 is output in step S500 and step S600 are the same as those in the first embodiment, and will not be described.

強調処理部9は、合成処理部5から出力される合成画像データIM4を入力とし、合成処理部5において2次元画像データに合成されている特定の構造物データOを強調した強調画像データIM5を出力する(ステップS800)。本実施の形態において、構造物データOは、3次元位置情報を有する。これを考慮し、2次元画像データIM3において構造物データOと3次元的に重なる構造物データNを求める。2次元画像データIM2から構造物データNを差分することで、注目すべき構造物データOに重なる構造物Nを取り除き、IM2上で注目すべき構造物データOを強調する(図9参照)。   The enhancement processing unit 9 receives the synthesized image data IM4 output from the synthesis processing unit 5, and receives the enhanced image data IM5 obtained by emphasizing the specific structure data O synthesized with the two-dimensional image data in the synthesis processing unit 5. Output (step S800). In the present embodiment, the structure data O has three-dimensional position information. Considering this, the structure data N that is three-dimensionally overlapped with the structure data O is obtained in the two-dimensional image data IM3. By subtracting the structure data N from the two-dimensional image data IM2, the structure N overlapping the structure data O to be noticed is removed, and the structure data O to be noticed on IM2 is emphasized (see FIG. 9).

表示部6は、強調処理部9から出力される強調画像IM5の表示を行う(ステップS900)。本実施の形態において表示部6のデバイスとしては、例えばCRTモニタ、液晶ディスプレイなどが適しているが、複数の画像の比較読影を効率的に行うため、入力である3次元画像データIM1、IM1を2次元画像データに変換したIM3、IM3に位置合わせされたIM2、合成画像データIM4、強調処理部9からの出力である強調画像IM5を選択的に表示して読影できるもの、あるいは上記画像を複数同時に表示して読影できるものが望ましく、この目的を実現できるものであればどのような出力手段でも良い。   The display unit 6 displays the enhanced image IM5 output from the enhancement processing unit 9 (step S900). For example, a CRT monitor or a liquid crystal display is suitable as the device of the display unit 6 in the present embodiment. However, in order to efficiently compare and interpret a plurality of images, input three-dimensional image data IM1 and IM1 are used. IM3 converted to two-dimensional image data, IM2 aligned with IM3, composite image data IM4, emphasized image IM5 output from the emphasis processing unit 9 can be selectively displayed and interpreted, or a plurality of the above images It is desirable to be able to display and interpret at the same time, and any output means may be used as long as this purpose can be realized.

<第4実施の形態>
前述した第3実施の形態においては、特定の構造物データOの解剖学的構造を情報として用い、その位置情報により2次元画像に変換したときに重なる構造物を除去した。
<Fourth embodiment>
In the third embodiment described above, the anatomical structure of the specific structure data O is used as information, and the structure that overlaps when converted into a two-dimensional image by the position information is removed.

本実施の形態では、解剖学的構造を情報として用い、その部位における最適な強調処理を行う(図10参照)。   In the present embodiment, an anatomical structure is used as information, and an optimum emphasis process is performed on the site (see FIG. 10).

一般的な強調処理としては、アンシャープマスク画像と平滑化画像の差分処理による鮮鋭化処理がある。しかしながら、この処理を肺野領域のような広範な領域に適用した場合、適切なパラメータ設定が困難であり、処理領域の一部では良好な鮮鋭化処理結果が得られても、それ以外の領域では不十分な結果しか得られない場合が考えられる。   As a general enhancement process, there is a sharpening process using a difference process between an unsharp mask image and a smoothed image. However, when this process is applied to a wide area such as a lung field area, it is difficult to set appropriate parameters, and even if a good sharpening process result is obtained in a part of the process area, However, there are cases where only insufficient results can be obtained.

本実施の形態では、予め抽出しておいた強調すべき領域の解剖学的情報を用いて、その部位に応じた局所的に適切なパラメータを設定する。これにより、注目領域全てに関して良好な強調処理を行うことができ、さらに不必要な領域に関しては処理を行わないため、計算時間の短縮につながる。   In this embodiment, using the anatomical information of the region to be emphasized that has been extracted in advance, locally appropriate parameters are set according to the site. As a result, it is possible to perform good emphasis processing for all the attention areas, and further, no processing is performed for unnecessary areas, leading to a reduction in calculation time.

これ以外にも、強調処理は医師にとって有用な情報を提示できるのであればどのような強調手法でも良い。   In addition to this, the emphasis process may be any emphasis method as long as it can present useful information for the doctor.

<第5実施の形態>
これまでに述べた実施の形態において、強調処理部では画像処理による情報の強調処理について述べたが、本発明で提示する情報は画像による情報に限らない。例えば、情報抽出部7において抽出された構造物データOは、解剖学的情報として、位置データ、付近の組織名、大きさ等を、診断情報として病名、危険度、診断優先度、診断日時、履歴等をテキストデータや数値データとして保持することも考えられる。
<Fifth embodiment>
In the embodiments described so far, the enhancement processing unit has described the information enhancement processing by image processing, but the information presented in the present invention is not limited to information by images. For example, the structure data O extracted by the information extraction unit 7 includes, as anatomical information, position data, a nearby tissue name, size, etc., as diagnosis information, a disease name, a risk, a diagnosis priority, a diagnosis date, It is also conceivable to store the history or the like as text data or numerical data.

表示部6においては、例えば特定の部位をマウスポインタで指し示すことで、その詳細データとして、上記テキストデータ、数値データを出力しても良い。   The display unit 6 may output the text data and numerical data as the detailed data by pointing a specific part with a mouse pointer, for example.

以上説明のように、本発明の実施の形態によれば、初期検査をCTで行った後は単純X線画像を用いることで、被曝線量を抑えた経時観察を行うことができ、また3次元情報も有効に利用した効率的な比較読影を行うことができる。   As described above, according to the embodiment of the present invention, after the initial inspection is performed by CT, it is possible to perform temporal observation with reduced exposure dose by using a simple X-ray image, and to perform three-dimensional observation. Efficient comparative interpretation using information effectively can be performed.

<他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記憶媒体(記録媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other embodiments>
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, storage medium (recording medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

尚本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される。なお、この場合のプログラムとは、実施形態において図に示したフローチャートに対応したプログラムである。   In the present invention, a software program for realizing the functions of the above-described embodiments is supplied directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Is also achieved. The program in this case is a program corresponding to the flowchart shown in the drawing in the embodiment.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、以下に示す媒体がある。例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。   Recording media for supplying the program include the following media. For example, flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), etc. is there.

プログラムの供給方法としては、以下に示す方法も可能である。すなわち、クライアントコンピュータのブラウザからインターネットのホームページに接続し、そこから本発明のコンピュータプログラムそのもの(又は圧縮され自動インストール機能を含むファイル)をハードディスク等の記録媒体にダウンロードする。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As a program supply method, the following method is also possible. That is, the browser of the client computer is connected to a homepage on the Internet, and the computer program itself (or a compressed file including an automatic installation function) of the present invention is downloaded to a recording medium such as a hard disk. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせることも可能である。すなわち該ユーザは、その鍵情報を使用することによって暗号化されたプログラムを実行し、コンピュータにインストールさせることができる。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to make it. That is, the user can execute the encrypted program by using the key information and install it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、実行されることによっても、前述した実施形態の機能が実現される。すなわち、該プログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行うことが可能である。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, and then executed, so that the program of the above-described embodiment can be realized. Function is realized. That is, based on the instructions of the program, the CPU provided in the function expansion board or function expansion unit can perform part or all of the actual processing.

本発明の実施の形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus which concerns on embodiment of this invention. 第1実施の形態における画像処理装置の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of the image processing apparatus in 1st Embodiment. 本発明の実施の形態を実現するコンピュータシステムの一例を示す構成図ある。1 is a configuration diagram illustrating an example of a computer system that implements an embodiment of the present invention. 第1の発明の説明図である。It is explanatory drawing of 1st invention. 投影処理部の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a projection process part. 投影処理手法の説明図である。It is explanatory drawing of a projection processing method. 第3実施の形態に係る画像処理装置の機能構成を示す図である。It is a figure which shows the function structure of the image processing apparatus which concerns on 3rd Embodiment. 第3実施の形態における画像処理装置の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of the image processing apparatus in 3rd Embodiment. 第3実施の形態における強調処理の例を示す図である。It is a figure which shows the example of the emphasis process in 3rd Embodiment. 第4実施の形態における強調処理の例を示す図である。It is a figure which shows the example of the emphasis process in 4th Embodiment.

符号の説明Explanation of symbols

1 3次元画像入力部
2 2次元画像入力部
3 投影処理部
4 位置合わせ部
5 合成処理部
6 表示部
7 情報抽出部
8 精度評価部
9 強調処理部
DESCRIPTION OF SYMBOLS 1 3D image input part 2 2D image input part 3 Projection processing part 4 Positioning part 5 Composition processing part 6 Display part 7 Information extraction part 8 Accuracy evaluation part 9 Enhancement processing part

Claims (15)

3次元画像データを受信する第1の画像受信手段と、
第1の2次元画像データを受信する第2の画像受信手段と、
前記3次元画像データを第2の2次元画像データに変換する変換手段と、
前記3次元画像データから診断に関する第1の情報を抽出する第1の情報抽出手段と、
前記第2の2次元画像データと前記第1の2次元画像データと前記第1の情報に基づいて、第3の2次元画像データを生成する生成手段と、
前記第3の2次元画像データを出力する出力手段とを備えることを特徴とする画像処理装置。
First image receiving means for receiving three-dimensional image data;
Second image receiving means for receiving the first two-dimensional image data;
Conversion means for converting the three-dimensional image data into second two-dimensional image data;
First information extraction means for extracting first information relating to diagnosis from the three-dimensional image data;
Generating means for generating third two-dimensional image data based on the second two-dimensional image data, the first two-dimensional image data, and the first information;
An image processing apparatus comprising: output means for outputting the third two-dimensional image data.
前記3次元画像データと前記第1の2次元画像データは、異なる時点で撮影された同一患者の画像データであることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the three-dimensional image data and the first two-dimensional image data are image data of the same patient taken at different time points. 前記変換手段は、前記第1の2次元画像データの生成時の撮影装置の条件に基づいて、前記3次元画像データを変換することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the conversion unit converts the three-dimensional image data based on a condition of the photographing apparatus when the first two-dimensional image data is generated. 前記第1の情報は、被写体の解剖学的構造、又は、被写体の診断結果に関する情報であることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first information is information related to an anatomical structure of a subject or a diagnosis result of the subject. 前記第1の2次元画像データと前記第2の2次元画像データとを位置合わせする位置合わせ手段と、
前記位置合わせ手段による位置合わせ結果を評価する評価手段を、更に備え、
前記変換手段は、前記評価手段の評価結果に基づいて変換を行うことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
Alignment means for aligning the first two-dimensional image data and the second two-dimensional image data;
An evaluation means for evaluating the alignment result by the alignment means;
The image processing apparatus according to claim 1, wherein the conversion unit performs conversion based on an evaluation result of the evaluation unit.
前記表示装置は、前記3次元画像データと前記第1乃至第3の2次元画像データを選択的に表示することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display device selectively displays the three-dimensional image data and the first to third two-dimensional image data. 前記生成手段により生成された前記第3の2次元画像データから、診断に関する第2の情報を抽出する第2の情報抽出手段を、更に備え、
前記前記生成手段は、前記第2の情報に基づいて強調した前記第3の2次元画像データを生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
A second information extracting means for extracting second information relating to diagnosis from the third two-dimensional image data generated by the generating means;
The image processing apparatus according to claim 1, wherein the generation unit generates the third two-dimensional image data emphasized based on the second information.
前記第2の情報は、前記変換手段により前記3次元画像データを第2の2次元画像データに変換する際の条件に基づき、前記第1の情報を変換したものであることを特徴とする請求項7に記載の画像処理装置。   The second information is obtained by converting the first information based on a condition when the three-dimensional image data is converted into second two-dimensional image data by the conversion means. Item 8. The image processing device according to Item 7. 前記第2の情報が注目対象とすべき特定の構造物であるとき、解剖学的な位置情報を用いて注目対象とすべき特定の構造物と重なり合う構造物を除去することで注目対象とすべき特定の構造物を強調することを特徴とする請求項7に記載の画像処理装置。   When the second information is a specific structure that should be the target of attention, the structure that overlaps with the specific structure that should be the target of attention is removed using the anatomical position information. The image processing apparatus according to claim 7, wherein a particular structure to be emphasized is emphasized. 前記第2の情報が被写体の解剖学的構造であり、被写体の診断結果に関する第1の情報に基づいて強調することを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the second information is an anatomical structure of a subject, and the second information is emphasized based on first information relating to a diagnosis result of the subject. 前記出力手段は、前記3次元画像データと前記第1乃至第3の2次元画像データの他に、前記第2の情報をテキストデータあるいは数値データとして出力することを特徴とする請求項7に記載の画像処理装置。   The output means outputs the second information as text data or numerical data in addition to the three-dimensional image data and the first to third two-dimensional image data. Image processing apparatus. 3次元画像データを生成する第1の画像生成手段と、
2次元画像データを生成する第2の画像生成手段とを、更に備え、
前記第1の画像受信手段は、前記第1の画像生成手段により生成された前記3次元画像データを受信し、前記第2の画像受信手段は、前記第2の画像生成手段により生成された前記2次元画像データを受信することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
First image generation means for generating three-dimensional image data;
A second image generation means for generating two-dimensional image data;
The first image receiving unit receives the three-dimensional image data generated by the first image generating unit, and the second image receiving unit is configured to receive the three-dimensional image data generated by the second image generating unit. The image processing apparatus according to claim 1, wherein the image processing apparatus receives two-dimensional image data.
3次元画像データを受信する第1の画像受信工程と、
第1の2次元画像データを受信する第2の画像受信工程と、
前記3次元画像データを第2の2次元画像データに変換する変換工程と、
前記3次元画像データから診断に関する第1の情報を抽出する第1の情報抽出工程と、
前記第2の2次元画像データと前記第1の2次元画像データと前記第1の情報に基づいて、第3の2次元画像データを生成する生成工程と、
前記第3の2次元画像データを出力する出力工程とを備えることを特徴とする画像処理方法。
A first image receiving step for receiving three-dimensional image data;
A second image receiving step for receiving the first two-dimensional image data;
A conversion step of converting the three-dimensional image data into second two-dimensional image data;
A first information extraction step of extracting first information relating to diagnosis from the three-dimensional image data;
A generating step of generating third two-dimensional image data based on the second two-dimensional image data, the first two-dimensional image data, and the first information;
An image processing method comprising: an output step of outputting the third two-dimensional image data.
請求項13に記載の画像処理方法を、コンピュータに実現させるためのコンピュータプログラム。   A computer program for causing a computer to implement the image processing method according to claim 13. 請求項14に記載のコンピュータプログラムを記録した記録媒体。   The recording medium which recorded the computer program of Claim 14.
JP2005356472A 2005-12-09 2005-12-09 Image processing device and method Withdrawn JP2007159643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005356472A JP2007159643A (en) 2005-12-09 2005-12-09 Image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005356472A JP2007159643A (en) 2005-12-09 2005-12-09 Image processing device and method

Publications (1)

Publication Number Publication Date
JP2007159643A true JP2007159643A (en) 2007-06-28

Family

ID=38243231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005356472A Withdrawn JP2007159643A (en) 2005-12-09 2005-12-09 Image processing device and method

Country Status (1)

Country Link
JP (1) JP2007159643A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009022754A (en) * 2007-07-19 2009-02-05 General Electric Co <Ge> Method for correcting registration of radiography images
JP2009061156A (en) * 2007-09-07 2009-03-26 Hitachi Medical Corp Medical image diagnosis support system
JP2009160045A (en) * 2007-12-28 2009-07-23 Toshiba Corp Medical image display device and image display method
JP2010540065A (en) * 2007-10-01 2010-12-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Detection and tracking of interventional instruments
JP2011525271A (en) * 2008-05-23 2011-09-15 ザ オーストラリアン ナショナル ユニヴァーシティ Image data processing
JP2011193997A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Device and method for medical image conversion, and program
JP2012187161A (en) * 2011-03-09 2012-10-04 Fujifilm Corp Image processing apparatus, image processing method, and image processing program
JP2015073855A (en) * 2013-10-11 2015-04-20 キヤノン株式会社 Image processor, and method thereof
US9295442B2 (en) 2010-03-17 2016-03-29 FUJIFILM Corporation ko Medical image conversion apparatus, method and program
JP2020192006A (en) * 2019-05-27 2020-12-03 キヤノンメディカルシステムズ株式会社 Diagnosis support apparatus and x-ray ct apparatus
WO2023276810A1 (en) * 2021-06-29 2023-01-05 富士フイルム株式会社 Disease label creation device, method, and program, learning device, and disease detection model

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009022754A (en) * 2007-07-19 2009-02-05 General Electric Co <Ge> Method for correcting registration of radiography images
JP2009061156A (en) * 2007-09-07 2009-03-26 Hitachi Medical Corp Medical image diagnosis support system
JP2010540065A (en) * 2007-10-01 2010-12-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Detection and tracking of interventional instruments
JP2009160045A (en) * 2007-12-28 2009-07-23 Toshiba Corp Medical image display device and image display method
JP2011525271A (en) * 2008-05-23 2011-09-15 ザ オーストラリアン ナショナル ユニヴァーシティ Image data processing
US9295442B2 (en) 2010-03-17 2016-03-29 FUJIFILM Corporation ko Medical image conversion apparatus, method and program
JP2011193997A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Device and method for medical image conversion, and program
JP2012187161A (en) * 2011-03-09 2012-10-04 Fujifilm Corp Image processing apparatus, image processing method, and image processing program
JP2015073855A (en) * 2013-10-11 2015-04-20 キヤノン株式会社 Image processor, and method thereof
JP2020192006A (en) * 2019-05-27 2020-12-03 キヤノンメディカルシステムズ株式会社 Diagnosis support apparatus and x-ray ct apparatus
JP7313192B2 (en) 2019-05-27 2023-07-24 キヤノンメディカルシステムズ株式会社 Diagnosis support device and X-ray CT device
WO2023276810A1 (en) * 2021-06-29 2023-01-05 富士フイルム株式会社 Disease label creation device, method, and program, learning device, and disease detection model

Similar Documents

Publication Publication Date Title
JP2007159643A (en) Image processing device and method
JP5723541B2 (en) MEDICAL IMAGE DIAGNOSIS SUPPORT DEVICE, ITS OPERATION METHOD, AND PROGRAM
US8391576B2 (en) Device, method and recording medium containing program for separating image component, and device, method and recording medium containing program for generating normal image
US20160063707A1 (en) Image registration device, image registration method, and image registration program
CN101579241B (en) Image processor
JP5438267B2 (en) Method and system for identifying regions in an image
RU2711140C2 (en) Editing medical images
JP2011125568A (en) Image processor, image processing method, program and image processing system
CN109152566B (en) Correcting for probe-induced deformations in ultrasound fusion imaging systems
US7620229B2 (en) Method and apparatus for aiding image interpretation and computer-readable recording medium storing program therefor
JP3712234B2 (en) Region of interest extraction method and image processing server
JP7027046B2 (en) Medical image imaging device and method
JP2005199057A (en) Method and apparatus for registration of lung image data
US20040114790A1 (en) Projection conversion device and method and elapsed-time differential image preparation device and method
US20070092124A1 (en) System for and method of displaying subtraction image and computer program for the system
JP6429958B2 (en) Image processing apparatus, image processing method, and program
JP6301277B2 (en) Diagnostic auxiliary image generation apparatus, diagnostic auxiliary image generation method, and diagnostic auxiliary image generation program
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
JP4493436B2 (en) Image interpretation support method, apparatus and program
JP5380231B2 (en) Medical image display apparatus and method, and program
JP2005124617A (en) Medical image diagnosis support system
JP2002245453A (en) Image processor, image processing system, image processing method and storage medium
JP5100041B2 (en) Image processing apparatus and image processing program
WO2023232492A1 (en) Guidance during medical procedures
JP6967983B2 (en) Image processing equipment, image processing methods, and programs

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090303