JP6074339B2 - Processing apparatus, operating method thereof, and program - Google Patents
Processing apparatus, operating method thereof, and program Download PDFInfo
- Publication number
- JP6074339B2 JP6074339B2 JP2013180357A JP2013180357A JP6074339B2 JP 6074339 B2 JP6074339 B2 JP 6074339B2 JP 2013180357 A JP2013180357 A JP 2013180357A JP 2013180357 A JP2013180357 A JP 2013180357A JP 6074339 B2 JP6074339 B2 JP 6074339B2
- Authority
- JP
- Japan
- Prior art keywords
- medical image
- image
- processing apparatus
- slice
- lesion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、例えば、医療分野においてCTやMRIにより撮影された被写体の画像を処理する画像処理装置及び画像処理方法に関し、特に、CTやMRIの診断レポートに添付されるキー(KEY)画像として3次元画像を用いるレポーティングシステム及びレポーティング方法に関するものである。 The present invention relates to an image processing apparatus and an image processing method for processing an image of a subject taken by CT or MRI in the medical field, for example, and in particular, as a key (KEY) image attached to a CT or MRI diagnosis report. The present invention relates to a reporting system and a reporting method using a dimensional image.
スパイラルCT、マルチスライスCTの使用、或いは高速のMRIの開発により、一度の撮影で300枚以上の画像が瞬時に生成されるようになった。 With the use of spiral CT, multi-slice CT, or the development of high-speed MRI, more than 300 images can be generated instantaneously in one shot.
また、放射線医などの医師(診断医)は、これらの画像を診断する際には、高速のコンピュータ環境を使用して、複数の断面画像を高速に切り替えて表示することにより診断を行っている。 In addition, when diagnosing these images, a doctor (diagnostic doctor) such as a radiologist uses a high-speed computer environment to make a diagnosis by switching and displaying a plurality of cross-sectional images at high speed. .
そして、診断医からの診断レポートには、依頼医(内科医など)が参照するキー画像、或いはスキーマ(器官と病変の関係を示すスケッチ)が添付される。 Then, a key image or a schema (a sketch indicating the relationship between an organ and a lesion) referred to by a requesting doctor (such as a physician) is attached to the diagnosis report from the diagnosis doctor.
上記診断レポートには、キー画像として300枚以上の全ての画像を添付することも可能であるが、この場合はネットワーク或いはコンピュータに大きな負荷がかかって高速の表示が行えない場合がある。 Although it is possible to attach all 300 images or more as key images to the diagnostic report, in this case, a large load may be applied to the network or computer, and high-speed display may not be performed.
そこで、重要な画像を選別することが考えられるが、300枚以上の画像からキー画像を選別することは依頼医にとっては苦痛であり、簡便な方法として3分の1程度に一定間隔で単純間引きすることも行われている。しかし、このような単純間引きでは診断に重要な画像も単純に間引いてしまう可能性があり、依頼医の理解を妨げる場合があった。 Therefore, it is conceivable to select important images, but it is painful for the client doctor to select key images from 300 or more images, and as a simple method, simple thinning is performed at regular intervals of about one third. It has also been done. However, with such simple thinning, there is a possibility that images important for diagnosis may be thinned out easily, which may hinder the understanding of the client doctor.
本発明は、上記課題に鑑みてなされ、その目的は、診断情報に基づいて画像にレンダリング処理を施す際のパラメータを決定し、このパラメータから病変部位を含む画像又は画像群を作成できる画像処理処理装置及び画像処理方法を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to determine a parameter for rendering an image based on diagnostic information, and to perform image processing that can create an image or a group of images including a lesion site from this parameter. An apparatus and an image processing method are provided.
もう1つの目的は、上記画像処理により選択された画像、又は上記画像処理によりレンダリング処理された画像を診断情報に添付して診断レポートとして出力できるレポーティングシステム及びレポーティング方法を提供することにある。 Another object is to provide a reporting system and a reporting method capable of outputting an image selected by the image processing or an image rendered by the image processing as a diagnostic report by attaching it to diagnostic information.
上述の課題を解決し、目的を達成するために、本発明の処理装置は、被写体の画像診断の診断レポートとともに出力されるスライス画像を該被写体の医療用画像から選択する処理装置であって、撮影装置により被写体の三次元領域を撮影して得られる医療用画像についての該被写体の診断内容を示す診断情報に対応する、該医療用画像における病変の領域に基づいて、該医療用画像に含まれるスライス画像を選択する選択手段と、前記選択手段により選択されるスライス画像を出力する出力手段と、を有し、前記選択手段は、前記医療用画像から前記病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引く。 In order to solve the above-described problems and achieve the object, a processing apparatus of the present invention is a processing apparatus that selects a slice image output together with a diagnostic report of an image diagnosis of a subject from a medical image of the subject, Included in the medical image based on the lesion area in the medical image corresponding to the diagnostic information indicating the diagnostic content of the subject with respect to the medical image obtained by photographing the three-dimensional region of the subject with the imaging device selection means for selecting a slice image has, and output means for outputting a slice image that is selected by said selection means, said selection means, a plurality of slice images including areas of the lesion from the medical image select, from the selected plurality of slice images, smaller than the magnitude threshold value of the change in lesion area or shape in a plurality of slice images the selected Thinning out the slice image.
以上のように、本発明によれば、診断情報に基づいて画像にレンダリング処理を施す際のパラメータを決定し、このパラメータから病変部位を含む画像又は画像群を作成できる。 As described above, according to the present invention, it is possible to determine a parameter for rendering an image based on diagnostic information and create an image or a group of images including a lesion site from the parameter.
また、上記画像処理により選択された画像、又は上記画像処理によりレンダリング処理された画像を診断情報に添付して診断レポートとして出力できるレポーティングシステム及びレポーティング方法を構築できる。 In addition, it is possible to construct a reporting system and a reporting method that can output an image selected by the image processing or an image rendered by the image processing attached to diagnostic information and output as a diagnostic report.
以下、添付図面を参照しながら本発明の好適な実施の形態について説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings.
[第1実施形態]
図1は本発明に係る第1実施形態の画像処理装置を構成する機能ブロックを概略的に示し、画像検索部4は診断情報に基づいて画像入力部1から入力された全ての撮影画像データ中から出力対象となる病変領域を検索し、当該病変領域に対応する撮影画像或いは撮影画像群をキー画像として画像出力部6から出力する。
[First Embodiment]
FIG. 1 schematically shows functional blocks constituting the image processing apparatus according to the first embodiment of the present invention. An
ここで、上記画像入力部1は、CTやMRIなどの医療用画像撮影装置と考えてもよいし、それらの装置からネットワークを介して入力される画像入力インタフェース及びそれに付随する記憶装置となる場合もある。
Here, the
診断情報入力部2は、医師(放射線医など)による撮影画像データを用いた診断結果が診断情報(以下、診断レポートともいう)として入力される。この診断レポートは、例えばテキスト情報や音声情報の形式で入力される。尚、診断結果は不図示の表示装置に出力される。また、上記医師による診断の他、コンピュータを用いた診断結果や撮影フィルムを用いた直接的な診断結果なども適用できる。
The diagnosis
上記診断情報入力部2から入力された診断情報は、診断情報解析部3でキーワード検索が行われる。このキーワード検索は、解剖学的な用語と病理学的な用語が関連を持って抽出される。
The diagnostic information input from the diagnostic
上記解剖学的用語としては右前頭葉、左肺、肝臓など、病理学的用語は腫溜、塞栓、結節など、および病気の進行度に関するステージI、II、IIIなどが上げられる。 The anatomical terms include right frontal lobe, left lung, liver, and the like, and pathological terms include tumors, emboli, nodules, and stages I, II, III, etc. relating to the degree of disease progression.
また、上記診断情報入力部2においてキーワードを入力することができ、この場合は、診断情報解析部3におけるキーワード入力は必要なくなる。
Moreover, a keyword can be input in the diagnostic
パラメータ決定部5では、入力されたキーワードをもとに画像検索部4で用いられるパラメータを算出する。
The
上記パラメータとしては、解剖学的な閾値となるCT値、MRI値の範囲、病変を指定するCT値、MRI値の範囲、及びスライス位置などがある。これらの初期値は、病気の進行度も考慮して経験的に予め決められたテーブルから選択されるが、個体によってばらつきがある。 Examples of the parameters include a CT value serving as an anatomical threshold, a range of MRI values, a CT value designating a lesion, a range of MRI values, and a slice position. These initial values are selected from a table empirically determined in consideration of the degree of disease progression, but vary from individual to individual.
このばらつきを補正(適正化)するために、選択されたパラメータを入力された画像に適用してパラメータの適正度を判定する。 In order to correct (optimize) this variation, the selected parameter is applied to the input image to determine the appropriateness of the parameter.
この判定は、パラメータを変化させた時に、検索された病変領域の面積或いは連結度が断面内或いは断面間でどのように変化するかによって判定でき、例えば、肺の抽出の際に空気の吸い込みが悪い場合があり、肺のCT値が高めに測定される場合がある。 This determination can be made based on how the area or connectivity of the searched lesion area changes within the cross section or between cross sections when the parameter is changed. For example, air is inhaled during lung extraction. It may be bad and the CT value of the lung may be measured higher.
このような画像に対しては、通常のCT値範囲を適用すると肺野の面積が、胸部の断面積に比して極端に小さくなるので、適正な割合(約50−60%)になるようにCT値が補正される。 For such an image, when the normal CT value range is applied, the area of the lung field becomes extremely small compared to the cross-sectional area of the chest, so that it becomes an appropriate ratio (about 50-60%). The CT value is corrected.
また、肺の下部では肺野の面積が徐々に縮小するのが一般的であるが、まれに腸内のガスを肺野として検出してしまう場合がある。 In general, the area of the lung field gradually decreases in the lower part of the lung, but in rare cases, gas in the intestine may be detected as the lung field.
このようなガスは、中葉からの肺野の連結性条件をもとに、CT値の範囲制限における領域的制限により削除することができる。 Such a gas can be eliminated by the region restriction in the CT value range restriction based on the connectivity condition of the lung field from the middle lobe.
上記判定を行うことにより、画像中から目的とする器官の領域を限定する。 By performing the above determination, the region of the target organ is limited from the image.
目的とする器官の境界が決定されると、次に、この境界の内側で病変領域を抽出する。 When the boundary of the target organ is determined, the lesion area is then extracted inside the boundary.
画像中から病変領域を抽出する手段としては、例えば、診断支援技術として研究されている(奥村俊昭, 三輪倫子, 奥本文博, 増藤信明, 山本眞司, 松本満臣, 舘野之男, 飯沼武, 松本徹:肺がん検診用CT(LSCT)の診断支援システム.コンピュータ支援画像診断学会論文誌, Vol.2, No.3, 1998)に記載されたコンピュータ診断支援技術が適用される。 As a means of extracting a lesion area from an image, for example, it has been studied as a diagnostic support technology (Toshiaki Okumura, Tomoko Miwa, Hiroshi Oku, Nobuaki Masudo, Junji Yamamoto, Mitsumi Matsumoto, Norio Kanno, Takeshi Iinuma , Toru Matsumoto: Diagnosis support system for CT for lung cancer screening (LSCT). Computer diagnosis support technology described in Computer Aided Imaging Diagnosis Journal, Vol.2, No.3, 1998) is applied.
本実施形態においては、このコンピュータ診断支援技術により検出された病変候補の中から医師による最終診断と合致するものを選択することになる。 In the present embodiment, a candidate that matches the final diagnosis by the doctor is selected from lesion candidates detected by the computer diagnosis support technology.
パラメータ決定部5においては、最後に検出された病変を含むスライス位置の決定を行う。病変を含むスライス(断面)は通常複数枚あるので、これらの断面が全てキー画像として画像検索部4において検索される。
The
また、画像検索部4においては、病変の面積或いは形状の変化の小さい断面を間引くようにしてもよい。
Further, the
画像検索部4にて検索されたキー画像は画像出力部6に出力され、画像出力部6から表示装置やネットワークコンピュータなどに出力される。尚、画像出力部6に出力される情報は、キー画像単体でも、キー画像に診断情報を添付して出力してもよい。
The key image retrieved by the
図2は第1実施形態の画像処理を示すフローチャートである。 FIG. 2 is a flowchart illustrating image processing according to the first embodiment.
図2に示すように、ステップS1では、CTやMRIなどの医療用画像撮影装置として、或いは、それらの装置からネットワークを介して入力される画像入力インタフェース及びそれに付随する記憶装置として、画像入力部1に撮影画像データが入力される。 As shown in FIG. 2, in step S1, an image input unit is used as a medical imaging apparatus such as CT or MRI, or as an image input interface and a storage device associated therewith input from those apparatuses via a network. The photographed image data is input to 1.
ステップS2では、医師による撮影画像データを用いた診断結果が診断情報として診断情報入力部2に入力される。
In step S2, a diagnosis result using photographed image data by a doctor is input to the diagnosis
ステップS3では、上記診断情報入力部2又は診断情報解析部3に入力されたキーワードをキーワードテーブル7から検索する。
In step S <b> 3, the keyword input to the diagnostic
ステップS4では、パラメータ決定部5において、入力されたキーワードをもとに画像検索部4で用いられる初期値パラメータを初期値テーブル8から選択する。
In step S <b> 4, the
ステップS5、S6では、画像検索部4において、選択されたパラメータを入力された画像に適用して病変領域の面積や連結度に基づいてパラメータの適正度を判定すると共に(適正化)、一般的なコンピュータ診断支援技術を用いて病変領域を抽出する。
In steps S5 and S6, the
しかる後に、コンピュータ診断支援技術により検出された病変候補の中から医師による最終診断と合致するものが選択される。 Thereafter, a candidate that matches the final diagnosis by the doctor is selected from the lesion candidates detected by the computer diagnosis support technology.
[第2実施形態]
図3は本発明に係る第2実施形態の画像処理装置を構成する機能ブロックを概略的に示し、第1実施形態と異なる点は画像検索部4に代えて、レンダリング部11とボクセルデータ作成部12とを設け、パラメータ決定部5が第1実施形態と同様に、診断情報からレンダリング部11で実行される3次元レンダリングの際の不透明度や色(濃淡画像の場合は濃度値)などのパラメータを決定し、この作成されたレンダリング画像をキー画像とするところにある。
[Second Embodiment]
FIG. 3 schematically shows functional blocks constituting the image processing apparatus according to the second embodiment of the present invention. The difference from the first embodiment is that the rendering unit 11 and the voxel data creation unit are replaced with the
その他の要素は、第1実施形態と同一であるため、同一の番号を付して説明を省略する。 Since the other elements are the same as those in the first embodiment, the same numbers are assigned and the description is omitted.
画像入力部1に複数枚のCT又はMRI画像が入力されると、ボクセルデータ作成部12においてボクセルデータが生成される。ボクセルデータとは、2次元画像をZ軸方向に画素の連続性を考慮して繋ぎ合わせたものである。
When a plurality of CT or MRI images are input to the
この画素データの各画素に不透明度と色を割り付けて、例えば、ボリュームレンダリング手法を適用することにより3次元レンダリング画像を得ることができる。 A three-dimensional rendering image can be obtained by assigning opacity and color to each pixel of the pixel data and applying a volume rendering method, for example.
本実施形態ではボリュームレンダリング手法を適用しているが、パラメータ決定部5で選択した閾値で検出した表面境界に、3次元的な濃度勾配を陰影付けに反映させるグレイレベル・グラディエント法でシェーディングを行うサーフェスレンダリング法で3次元画像を形成してもよい。
In the present embodiment, the volume rendering method is applied, but shading is performed on the surface boundary detected by the threshold selected by the
また、診断情報入力部2に入力された診断情報は、第1実施形態と同様に診断情報解析部3においてキーワードテーブル7を参照するキーワード検索が行われる。
In addition, the diagnostic information input to the diagnostic
パラメータ決定部5では、キーワード検索された解剖学的部位と病理情報および病気ステージに対応して、初期値テーブル8から各CT値に対応した不透明度、色情報及び3次元画像生成の際の視線方向が選択される。基本的には、これらの予め決定された設定値を用いてレンダリング部11によりボリュームレンダリングを実行する。
In the
一方で、器官や病変の境界を明瞭に表現するにはセグメンテーションを行うことが望ましい。つまり、予め決められた各CT値に対応した不透明度と色情報では、肺、肝臓及びそれらの器官中に存在する結節や腫溜の境界をスムーズに再現できない場合がある。 On the other hand, it is desirable to perform segmentation in order to clearly express the boundary between organs and lesions. That is, the opacity and color information corresponding to each predetermined CT value may not be able to smoothly reproduce the boundaries of nodules and tumors existing in the lungs, liver and their organs.
そこで、CT値の閾値を変化させた2値画像に対して、断面内或いは断面間での連結を観察することにより、CT値の範囲を収束させ、収束させたCT値範囲で2値化した際に発生する孤立領域をラベリングにより取り除くことで、よりスムーズな器官や病変の抽出が行える。 Therefore, by observing the connection in the cross section or between the cross sections with respect to the binary image in which the threshold value of the CT value is changed, the CT value range is converged and binarized in the converged CT value range. By removing the isolated region that occurs at the time of labeling, organs and lesions can be extracted more smoothly.
以上のようにセグメンテーションされた画像における器官、病変を構成する画素に対して、不透明度と色情報を新たに割り付けることによって、よりスムーズな3次元画像を得ることができる。 A smoother three-dimensional image can be obtained by newly assigning opacity and color information to the pixels constituting the organs and lesions in the segmented image as described above.
レンダリング部11は、シェーディング工程とレイキャスティング工程の各機能を備え、シェーディング工程では、先ず、セグメントされた器官、病変の画素(ボクセル)に対して、法線ベクトルの勾配値(gradient)が計算される。そして、色情報と法線ベクトルの勾配値(gradient)の積(シェーディング値)が求められる。ここで、勾配値は注目点の各軸2点、計近傍6点より計算される。 The rendering unit 11 has functions of a shading process and a ray casting process. In the shading process, first, gradient values of normal vectors are calculated for segmented organs and lesion pixels (voxels). The Then, the product (shading value) of the color information and the gradient value of the normal vector (gradient) is obtained. Here, the gradient value is calculated from 2 points on each axis of the target point and 6 points in the vicinity.
レイキャスティング工程では、ボクセルに割り当てられた不透明度、シェーディング値、そして入射光の強度をもとに視線方向へのボクセル値の積分によるレンダリング画像の作成を行う。光学的な減衰演算もこの時点で行う。この時点で使用する視線方向も重要な決定パラメータである。 In the ray casting process, a rendering image is created by integrating the voxel values in the line-of-sight direction based on the opacity, shading value, and incident light intensity assigned to the voxels. An optical attenuation calculation is also performed at this point. The gaze direction used at this time is also an important determination parameter.
診断学的には観察方向が決っている場合もあるが、腫溜など人体の裏側にある場合は明らかに裏側から観察した方が認識し易い。 Although the direction of observation may be determined diagnostically, when it is behind the human body such as a tumor, it is clearly easier to recognize from the back side.
つまり、パラメータ決定部5では、器官表面或いは体表面から腫溜などの病変までの距離が短い方向を視線方向への選択も行う。また、同距離の方向が複数個ある場合は、複数方向からの3次元画像を生成して出力することも行う。
That is, the
レンダリング部11にて生成された3次元画像は画像出力部6に出力され、画像出力部6から表示装置やネットワークコンピュータなどに出力される。尚、画像出力部6に出力される情報は、レンダリング画像単体でも、レンダリング画像に診断情報を添付して出力してもよい。 The three-dimensional image generated by the rendering unit 11 is output to the image output unit 6, and is output from the image output unit 6 to a display device, a network computer, or the like. Note that the information output to the image output unit 6 may be a single rendered image or may be output with diagnostic information attached to the rendered image.
図4は第2実施形態の画像処理を示すフローチャートである。 FIG. 4 is a flowchart illustrating image processing according to the second embodiment.
図4に示すように、ステップS1では、CTやMRIなどの医療用画像撮影装置として、或いは、それらの装置からネットワークを介して入力される画像入力インタフェース及びそれに付随する記憶装置として、画像入力部1に撮影画像データが入力される。 As shown in FIG. 4, in step S1, an image input unit is used as a medical imaging apparatus such as CT or MRI, or as an image input interface and a storage device associated therewith that are input from those apparatuses via a network. The photographed image data is input to 1.
ステップT1では、ボクセルデータ作成部12において上記撮影画像データからボクセルデータが作成される。
In step T1, voxel
ステップS2では、医師による撮影画像データを用いた診断結果が診断情報として診断情報入力部2に入力される。
In step S2, a diagnosis result using photographed image data by a doctor is input to the diagnosis
ステップS3では、上記診断情報入力部2又は診断情報解析部3に入力されたキーワードをキーワードテーブル7から検索する。
In step S <b> 3, the keyword input to the diagnostic
ステップT2では、パラメータ決定部5において、入力されたキーワードをもとにレンダリング部11で実行される3次元レンダリングの際の不透明度や色、視線方向などの初期値パラメータを初期値テーブル8から選択する。
In step T2, the
ステップT3では、レンダリング部11において、選択されたパラメータを入力された画像に適用し、器官や病変の境界を明瞭に表現するために病変領域の面積やその変化、連結度に基づいてセグメンテーションを実行する(適正化)。 In step T3, the rendering unit 11 applies the selected parameters to the input image, and executes segmentation based on the area of the lesion area, its change, and connectivity in order to clearly represent the organ and lesion boundary. (Adjust).
ステップT4では、レンダリング部11においてセグメントされた器官、病変のボクセルに対して、法線ベクトルの勾配値(gradient)が計算され、色情報と法線ベクトルの勾配値(gradient)の積(シェーディング値)が求められる(シェーディング)。 In step T4, a gradient value (gradient) of the normal vector is calculated for the segmented organ and lesion voxel in the rendering unit 11, and the product of the color information and the gradient value (gradient) of the normal vector (shading value). ) Is required (shading).
ステップT5では、ボクセルに割り当てられた不透明度、シェーディング値、そして入射光の強度をもとに視線方向へのボクセル値の積分によるレンダリング画像の作成を行う(レイキャスティング)。 In step T5, a rendering image is created by integrating the voxel values in the line-of-sight direction based on the opacity assigned to the voxels, the shading value, and the intensity of incident light (ray casting).
尚、上記第2実施形態では、ボリュームレンダリング手法を用いる例について説明したが、この3次元画像生成技術は医療画像応用以外にも広く研究されており参考書が多くある。例えば、「これからの画像情報シリーズ5、コンピュータグラフィクス」安居院猛、他著、昭晃堂の第7章などの記載を参考にしてもよい。
In the second embodiment, the example using the volume rendering method has been described. However, this three-dimensional image generation technique has been extensively studied in addition to medical image applications, and there are many reference books. For example, the description of “Future
上記第1及び第2実施形態によれば、大量の医療情報から医師の診断情報(病変を含む器官、病変の形態、および病気の進行度)をもとに、大量の撮影画像から少量、小容量の的確なキー画像を選択或いは生成できる。 According to the first and second embodiments, a small amount of small amounts of small amounts of captured images are taken from a large amount of medical information on the basis of diagnosis information (organs including lesions, forms of lesions, and progress of disease) of doctors. It is possible to select or generate a key image with an appropriate capacity.
また、多数のスライス画像から病気情報を的確に表現するスライス画像を診断情報から指定できる。 In addition, a slice image that accurately expresses disease information from a large number of slice images can be designated from the diagnostic information.
また、同様の技術を使用して病変部位を的確に表現する3次元画像を生成し、少量、小容量のキー画像とすることができる。 In addition, a three-dimensional image that accurately represents a lesion site can be generated using the same technique, and a small-capacity key image can be obtained.
キー画像作成時の視線方向の決定には、器官或いは体表面から病変までの距離の小さい方向を選択するようにし、病変部位を観察しやすく設定することが可能となる。 In determining the line-of-sight direction when creating a key image, it is possible to select a direction in which the distance from the organ or body surface to the lesion is small, and to set the lesion site so that it can be easily observed.
また、上記画像処理により選択された画像、又は上記画像処理によりレンダリング処理された画像を診断情報に添付して診断レポートとして出力できるレポーティングシステム及びレポーティング方法を構築できる。 In addition, it is possible to construct a reporting system and a reporting method that can output an image selected by the image processing or an image rendered by the image processing attached to diagnostic information and output as a diagnostic report.
[他の実施形態]
本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(図2及び図4のフローチャートの各工程のコード)を、システム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。その場合、プログラムの機能を有していれば、形態は、プログラムである必要はない。
[Other embodiments]
The present invention supplies a software program (the code of each step in the flowcharts of FIGS. 2 and 4) for realizing the functions of the above-described embodiments directly or remotely to a system or apparatus, and the computer of the system or apparatus This includes a case where the program code is also achieved by reading and executing the supplied program code. In that case, the form does not have to be a program as long as it has the function of the program.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明のクレームでは、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. That is, the claims of the present invention include the computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。 In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。 As a recording medium for supplying the program, for example, flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R).
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明のクレームに含まれるものである。 As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the claims of the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。 In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。 Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
Claims (14)
撮影装置により被写体の三次元領域を撮影して得られる医療用画像についての該被写体の診断内容を示す診断情報に対応する、該医療用画像における病変の領域に基づいて、該医療用画像に含まれるスライス画像を選択する選択手段と、
前記選択手段により選択されるスライス画像を出力する出力手段と、を有し、
前記選択手段は、前記医療用画像から前記病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引くことを特徴とする処理装置。 A processing device that selects a slice image output together with a diagnostic report of a subject image diagnosis from a medical image of the subject,
Included in the medical image based on the lesion area in the medical image corresponding to the diagnostic information indicating the diagnostic content of the subject with respect to the medical image obtained by photographing the three-dimensional region of the subject with the imaging device Selection means for selecting a slice image to be
Output means for outputting a slice image selected by the selection means,
It said selecting means, said selecting a plurality of slice images from the medical image including the area of the lesion, from a plurality of slice images said selected the lesion area or shape in a plurality of slice images the selected A processing apparatus characterized by thinning out slice images whose magnitude of change is smaller than a threshold value .
前記抽出手段は、前記選択手段により決定される画素値の範囲における前記スライス画像に基づいて病変の領域を抽出することを特徴とする請求項4に記載の処理装置。 The selection means determines a range of pixel values of the slice image based on the diagnostic information,
The processing apparatus according to claim 4, wherein the extraction unit extracts a lesion area based on the slice image in a pixel value range determined by the selection unit.
前記選択手段により選択される医療用画像データを出力する出力手段と、を有し、
前記選択手段は、前記医療用画像データから病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引くことを特徴とする処理装置。 Selection for selecting a part of the medical image data from the medical image data based on diagnostic information indicating the diagnostic contents of the subject with respect to the medical image data obtained by photographing the three-dimensional region of the subject by the photographing device Means,
Output means for outputting medical image data selected by the selection means,
The selection means selects a plurality of slice images including a lesion area from the medical image data, and the area or shape of the lesion in the selected slice images is selected from the selected slice images. A processing apparatus characterized by thinning out slice images whose magnitude of change is smaller than a threshold value .
撮影装置により被写体の三次元領域を撮影して得られる医療用画像データについての該被写体の診断内容を示す診断情報に基づいて、一部の医療用画像データを前記医療用画像データから選択する選択工程と、
前記選択された医療用画像データを出力する出力工程と、を有し、
前記選択工程では、前記医療用画像データから病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引くことを特徴とする作動方法。 A method of operating a processing apparatus for selecting a slice image output together with a diagnostic report of a subject image diagnosis from a medical image of the subject,
Selection for selecting a part of the medical image data from the medical image data based on diagnostic information indicating the diagnostic contents of the subject with respect to the medical image data obtained by photographing the three-dimensional region of the subject by the photographing device Process,
Outputting the selected medical image data, and
In the selection step, a plurality of slice images including a lesion area are selected from the medical image data, and the area or shape of the lesion is determined in the selected slice images from the selected slice images. An operating method characterized by thinning out slice images whose magnitude of change is smaller than a threshold value .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013180357A JP6074339B2 (en) | 2013-08-30 | 2013-08-30 | Processing apparatus, operating method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013180357A JP6074339B2 (en) | 2013-08-30 | 2013-08-30 | Processing apparatus, operating method thereof, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012188075A Division JP5465291B2 (en) | 2012-08-28 | 2012-08-28 | Image processing apparatus and image processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015129206A Division JP6061991B2 (en) | 2015-06-26 | 2015-06-26 | Information processing apparatus, information processing method, information processing system, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013233470A JP2013233470A (en) | 2013-11-21 |
JP6074339B2 true JP6074339B2 (en) | 2017-02-01 |
Family
ID=49760030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013180357A Expired - Fee Related JP6074339B2 (en) | 2013-08-30 | 2013-08-30 | Processing apparatus, operating method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6074339B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5465291B2 (en) * | 2012-08-28 | 2014-04-09 | キヤノン株式会社 | Image processing apparatus and image processing method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129751A (en) * | 1993-10-29 | 1995-05-19 | Hitachi Medical Corp | Medical picture processor |
JP2000020628A (en) * | 1998-07-06 | 2000-01-21 | Toshiba Iyo System Engineering Kk | Computer supported diagnostic system |
JP2001273364A (en) * | 2000-03-27 | 2001-10-05 | Yokogawa Electric Corp | Medical image information system |
JP4864212B2 (en) * | 2001-01-10 | 2012-02-01 | 株式会社東芝 | Medical business management system |
JP4285623B2 (en) * | 2001-04-26 | 2009-06-24 | 富士フイルム株式会社 | Image display method, apparatus and program |
JP3766608B2 (en) * | 2001-05-02 | 2006-04-12 | テラリコン・インコーポレイテッド | 3D image display device in network environment |
JP2003033327A (en) * | 2001-07-24 | 2003-02-04 | Fujitsu Ltd | Diagnostic support system via imaging information |
JP3705588B2 (en) * | 2001-11-02 | 2005-10-12 | テラリコン・インコーポレイテッド | Reporting system in network environment |
JP4475625B2 (en) * | 2003-05-27 | 2010-06-09 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP5100717B2 (en) * | 2009-07-30 | 2012-12-19 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2013
- 2013-08-30 JP JP2013180357A patent/JP6074339B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013233470A (en) | 2013-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4475625B2 (en) | Image processing apparatus and image processing method | |
Kavur et al. | Comparison of semi-automatic and deep learning-based automatic methods for liver segmentation in living liver transplant donors | |
Gotra et al. | Liver segmentation: indications, techniques and future directions | |
JP5814853B2 (en) | Stereo model data generation apparatus and method, and program | |
JP5797124B2 (en) | Surgery support device, surgery support method, and surgery support program | |
Glombitza et al. | Virtual planning of liver resections: image processing, visualization and volumetric evaluation | |
JP4785371B2 (en) | Multidimensional structure extraction method and system using dynamic constraints | |
US8483462B2 (en) | Object centric data reformation with application to rib visualization | |
US9466117B2 (en) | Segmentation highlighter | |
JP2008142481A (en) | Apparatus and program for carrying out segmentation of lungs to units of pulmonary segment automatically | |
JP2009045286A (en) | Medical image processor, medical image diagnostic apparatus, and program | |
Alirr et al. | Automatic atlas-based liver segmental anatomy identification for hepatic surgical planning | |
JP5465291B2 (en) | Image processing apparatus and image processing method | |
JP5100717B2 (en) | Image processing apparatus and image processing method | |
JP6496698B2 (en) | Medical image processing apparatus, control method thereof, and program | |
JP6061991B2 (en) | Information processing apparatus, information processing method, information processing system, program, and storage medium | |
JP6074339B2 (en) | Processing apparatus, operating method thereof, and program | |
Garcia Guevara et al. | Biomechanics-based graph matching for augmented CT-CBCT | |
JP2014184012A (en) | Surgery support device, surgery support method, and surgery support program | |
JP5750381B2 (en) | Region extraction processing system | |
JP2010504796A (en) | Access to medical image database using anatomical shape information | |
JP6945379B2 (en) | Image processing device, magnetic resonance imaging device and image processing program | |
US20230030618A1 (en) | Making measurements in images | |
Palak et al. | 3D Segmentation and Visualization of Human Brain CT Images for Surgical Training-A VTK Approach | |
Bao et al. | Introduction to 3D Visualization of Abdominal CT Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130926 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140804 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141002 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150327 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150626 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150703 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20150731 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6074339 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |