JP6074339B2 - Processing apparatus, operating method thereof, and program - Google Patents

Processing apparatus, operating method thereof, and program Download PDF

Info

Publication number
JP6074339B2
JP6074339B2 JP2013180357A JP2013180357A JP6074339B2 JP 6074339 B2 JP6074339 B2 JP 6074339B2 JP 2013180357 A JP2013180357 A JP 2013180357A JP 2013180357 A JP2013180357 A JP 2013180357A JP 6074339 B2 JP6074339 B2 JP 6074339B2
Authority
JP
Japan
Prior art keywords
medical image
image
processing apparatus
slice
lesion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013180357A
Other languages
Japanese (ja)
Other versions
JP2013233470A (en
Inventor
辻井 修
修 辻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013180357A priority Critical patent/JP6074339B2/en
Publication of JP2013233470A publication Critical patent/JP2013233470A/en
Application granted granted Critical
Publication of JP6074339B2 publication Critical patent/JP6074339B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、例えば、医療分野においてCTやMRIにより撮影された被写体の画像を処理する画像処理装置及び画像処理方法に関し、特に、CTやMRIの診断レポートに添付されるキー(KEY)画像として3次元画像を用いるレポーティングシステム及びレポーティング方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method for processing an image of a subject taken by CT or MRI in the medical field, for example, and in particular, as a key (KEY) image attached to a CT or MRI diagnosis report. The present invention relates to a reporting system and a reporting method using a dimensional image.

スパイラルCT、マルチスライスCTの使用、或いは高速のMRIの開発により、一度の撮影で300枚以上の画像が瞬時に生成されるようになった。   With the use of spiral CT, multi-slice CT, or the development of high-speed MRI, more than 300 images can be generated instantaneously in one shot.

また、放射線医などの医師(診断医)は、これらの画像を診断する際には、高速のコンピュータ環境を使用して、複数の断面画像を高速に切り替えて表示することにより診断を行っている。   In addition, when diagnosing these images, a doctor (diagnostic doctor) such as a radiologist uses a high-speed computer environment to make a diagnosis by switching and displaying a plurality of cross-sectional images at high speed. .

そして、診断医からの診断レポートには、依頼医(内科医など)が参照するキー画像、或いはスキーマ(器官と病変の関係を示すスケッチ)が添付される。   Then, a key image or a schema (a sketch indicating the relationship between an organ and a lesion) referred to by a requesting doctor (such as a physician) is attached to the diagnosis report from the diagnosis doctor.

上記診断レポートには、キー画像として300枚以上の全ての画像を添付することも可能であるが、この場合はネットワーク或いはコンピュータに大きな負荷がかかって高速の表示が行えない場合がある。   Although it is possible to attach all 300 images or more as key images to the diagnostic report, in this case, a large load may be applied to the network or computer, and high-speed display may not be performed.

そこで、重要な画像を選別することが考えられるが、300枚以上の画像からキー画像を選別することは依頼医にとっては苦痛であり、簡便な方法として3分の1程度に一定間隔で単純間引きすることも行われている。しかし、このような単純間引きでは診断に重要な画像も単純に間引いてしまう可能性があり、依頼医の理解を妨げる場合があった。   Therefore, it is conceivable to select important images, but it is painful for the client doctor to select key images from 300 or more images, and as a simple method, simple thinning is performed at regular intervals of about one third. It has also been done. However, with such simple thinning, there is a possibility that images important for diagnosis may be thinned out easily, which may hinder the understanding of the client doctor.

本発明は、上記課題に鑑みてなされ、その目的は、診断情報に基づいて画像にレンダリング処理を施す際のパラメータを決定し、このパラメータから病変部位を含む画像又は画像群を作成できる画像処理処理装置及び画像処理方法を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to determine a parameter for rendering an image based on diagnostic information, and to perform image processing that can create an image or a group of images including a lesion site from this parameter. An apparatus and an image processing method are provided.

もう1つの目的は、上記画像処理により選択された画像、又は上記画像処理によりレンダリング処理された画像を診断情報に添付して診断レポートとして出力できるレポーティングシステム及びレポーティング方法を提供することにある。   Another object is to provide a reporting system and a reporting method capable of outputting an image selected by the image processing or an image rendered by the image processing as a diagnostic report by attaching it to diagnostic information.

上述の課題を解決し、目的を達成するために、本発明の処理装置は、被写体の画像診断の診断レポートとともに出力されるスライス画像を該被写体の医療用画像から選択する処理装置であって、撮影装置により被写体の三次元領域を撮影して得られる医療用画像についての該被写体の診断内容を示す診断情報に対応する、該医療用画像における病変の領域に基づいて、該医療用画像に含まれるスライス画像を選択する選択手段と、前記選択手段により選択されるスライス画像を出力する出力手段と、を有し、前記選択手段は、前記医療用画像から前記病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引くIn order to solve the above-described problems and achieve the object, a processing apparatus of the present invention is a processing apparatus that selects a slice image output together with a diagnostic report of an image diagnosis of a subject from a medical image of the subject, Included in the medical image based on the lesion area in the medical image corresponding to the diagnostic information indicating the diagnostic content of the subject with respect to the medical image obtained by photographing the three-dimensional region of the subject with the imaging device selection means for selecting a slice image has, and output means for outputting a slice image that is selected by said selection means, said selection means, a plurality of slice images including areas of the lesion from the medical image select, from the selected plurality of slice images, smaller than the magnitude threshold value of the change in lesion area or shape in a plurality of slice images the selected Thinning out the slice image.

以上のように、本発明によれば、診断情報に基づいて画像にレンダリング処理を施す際のパラメータを決定し、このパラメータから病変部位を含む画像又は画像群を作成できる。   As described above, according to the present invention, it is possible to determine a parameter for rendering an image based on diagnostic information and create an image or a group of images including a lesion site from the parameter.

また、上記画像処理により選択された画像、又は上記画像処理によりレンダリング処理された画像を診断情報に添付して診断レポートとして出力できるレポーティングシステム及びレポーティング方法を構築できる。   In addition, it is possible to construct a reporting system and a reporting method that can output an image selected by the image processing or an image rendered by the image processing attached to diagnostic information and output as a diagnostic report.

本発明に係る第1実施形態の画像処理装置を構成する機能ブロックを概略的に示す図。1 is a diagram schematically showing functional blocks that constitute an image processing apparatus according to a first embodiment of the present invention. FIG. 第1実施形態の画像処理を示すフローチャート。6 is a flowchart illustrating image processing according to the first embodiment. 本発明に係る第2実施形態の画像処理装置を構成する機能ブロックを概略的に示す図。The figure which shows schematically the functional block which comprises the image processing apparatus of 2nd Embodiment which concerns on this invention. 第2実施形態の画像処理を示すフローチャート。The flowchart which shows the image processing of 2nd Embodiment.

以下、添付図面を参照しながら本発明の好適な実施の形態について説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings.

[第1実施形態]
図1は本発明に係る第1実施形態の画像処理装置を構成する機能ブロックを概略的に示し、画像検索部4は診断情報に基づいて画像入力部1から入力された全ての撮影画像データ中から出力対象となる病変領域を検索し、当該病変領域に対応する撮影画像或いは撮影画像群をキー画像として画像出力部6から出力する。
[First Embodiment]
FIG. 1 schematically shows functional blocks constituting the image processing apparatus according to the first embodiment of the present invention. An image search unit 4 includes all of the captured image data input from the image input unit 1 based on diagnostic information. A lesion area to be output is retrieved from the image output unit 6 and a captured image or a group of captured images corresponding to the lesion area is output from the image output unit 6 as a key image.

ここで、上記画像入力部1は、CTやMRIなどの医療用画像撮影装置と考えてもよいし、それらの装置からネットワークを介して入力される画像入力インタフェース及びそれに付随する記憶装置となる場合もある。   Here, the image input unit 1 may be considered as a medical image photographing device such as CT or MRI, or an image input interface that is input from these devices via a network and a storage device associated therewith. There is also.

診断情報入力部2は、医師(放射線医など)による撮影画像データを用いた診断結果が診断情報(以下、診断レポートともいう)として入力される。この診断レポートは、例えばテキスト情報や音声情報の形式で入力される。尚、診断結果は不図示の表示装置に出力される。また、上記医師による診断の他、コンピュータを用いた診断結果や撮影フィルムを用いた直接的な診断結果なども適用できる。   The diagnosis information input unit 2 receives a diagnosis result using the image data taken by a doctor (radiologist or the like) as diagnosis information (hereinafter also referred to as a diagnosis report). This diagnostic report is input in the form of text information or voice information, for example. The diagnosis result is output to a display device (not shown). In addition to the diagnosis by the doctor, diagnosis results using a computer, direct diagnosis results using a photographing film, and the like can be applied.

上記診断情報入力部2から入力された診断情報は、診断情報解析部3でキーワード検索が行われる。このキーワード検索は、解剖学的な用語と病理学的な用語が関連を持って抽出される。   The diagnostic information input from the diagnostic information input unit 2 is searched for keywords by the diagnostic information analysis unit 3. In this keyword search, anatomical terms and pathological terms are extracted in association with each other.

上記解剖学的用語としては右前頭葉、左肺、肝臓など、病理学的用語は腫溜、塞栓、結節など、および病気の進行度に関するステージI、II、IIIなどが上げられる。   The anatomical terms include right frontal lobe, left lung, liver, and the like, and pathological terms include tumors, emboli, nodules, and stages I, II, III, etc. relating to the degree of disease progression.

また、上記診断情報入力部2においてキーワードを入力することができ、この場合は、診断情報解析部3におけるキーワード入力は必要なくなる。   Moreover, a keyword can be input in the diagnostic information input unit 2, and in this case, the keyword input in the diagnostic information analysis unit 3 is not necessary.

パラメータ決定部5では、入力されたキーワードをもとに画像検索部4で用いられるパラメータを算出する。   The parameter determination unit 5 calculates parameters used in the image search unit 4 based on the input keyword.

上記パラメータとしては、解剖学的な閾値となるCT値、MRI値の範囲、病変を指定するCT値、MRI値の範囲、及びスライス位置などがある。これらの初期値は、病気の進行度も考慮して経験的に予め決められたテーブルから選択されるが、個体によってばらつきがある。   Examples of the parameters include a CT value serving as an anatomical threshold, a range of MRI values, a CT value designating a lesion, a range of MRI values, and a slice position. These initial values are selected from a table empirically determined in consideration of the degree of disease progression, but vary from individual to individual.

このばらつきを補正(適正化)するために、選択されたパラメータを入力された画像に適用してパラメータの適正度を判定する。   In order to correct (optimize) this variation, the selected parameter is applied to the input image to determine the appropriateness of the parameter.

この判定は、パラメータを変化させた時に、検索された病変領域の面積或いは連結度が断面内或いは断面間でどのように変化するかによって判定でき、例えば、肺の抽出の際に空気の吸い込みが悪い場合があり、肺のCT値が高めに測定される場合がある。   This determination can be made based on how the area or connectivity of the searched lesion area changes within the cross section or between cross sections when the parameter is changed. For example, air is inhaled during lung extraction. It may be bad and the CT value of the lung may be measured higher.

このような画像に対しては、通常のCT値範囲を適用すると肺野の面積が、胸部の断面積に比して極端に小さくなるので、適正な割合(約50−60%)になるようにCT値が補正される。   For such an image, when the normal CT value range is applied, the area of the lung field becomes extremely small compared to the cross-sectional area of the chest, so that it becomes an appropriate ratio (about 50-60%). The CT value is corrected.

また、肺の下部では肺野の面積が徐々に縮小するのが一般的であるが、まれに腸内のガスを肺野として検出してしまう場合がある。   In general, the area of the lung field gradually decreases in the lower part of the lung, but in rare cases, gas in the intestine may be detected as the lung field.

このようなガスは、中葉からの肺野の連結性条件をもとに、CT値の範囲制限における領域的制限により削除することができる。   Such a gas can be eliminated by the region restriction in the CT value range restriction based on the connectivity condition of the lung field from the middle lobe.

上記判定を行うことにより、画像中から目的とする器官の領域を限定する。   By performing the above determination, the region of the target organ is limited from the image.

目的とする器官の境界が決定されると、次に、この境界の内側で病変領域を抽出する。   When the boundary of the target organ is determined, the lesion area is then extracted inside the boundary.

画像中から病変領域を抽出する手段としては、例えば、診断支援技術として研究されている(奥村俊昭, 三輪倫子, 奥本文博, 増藤信明, 山本眞司, 松本満臣, 舘野之男, 飯沼武, 松本徹:肺がん検診用CT(LSCT)の診断支援システム.コンピュータ支援画像診断学会論文誌, Vol.2, No.3, 1998)に記載されたコンピュータ診断支援技術が適用される。   As a means of extracting a lesion area from an image, for example, it has been studied as a diagnostic support technology (Toshiaki Okumura, Tomoko Miwa, Hiroshi Oku, Nobuaki Masudo, Junji Yamamoto, Mitsumi Matsumoto, Norio Kanno, Takeshi Iinuma , Toru Matsumoto: Diagnosis support system for CT for lung cancer screening (LSCT). Computer diagnosis support technology described in Computer Aided Imaging Diagnosis Journal, Vol.2, No.3, 1998) is applied.

本実施形態においては、このコンピュータ診断支援技術により検出された病変候補の中から医師による最終診断と合致するものを選択することになる。   In the present embodiment, a candidate that matches the final diagnosis by the doctor is selected from lesion candidates detected by the computer diagnosis support technology.

パラメータ決定部5においては、最後に検出された病変を含むスライス位置の決定を行う。病変を含むスライス(断面)は通常複数枚あるので、これらの断面が全てキー画像として画像検索部4において検索される。   The parameter determination unit 5 determines the slice position including the lesion detected last. Since there are usually a plurality of slices (cross sections) including lesions, all of these cross sections are searched by the image search unit 4 as key images.

また、画像検索部4においては、病変の面積或いは形状の変化の小さい断面を間引くようにしてもよい。   Further, the image search unit 4 may thin out a cross section having a small change in the area or shape of the lesion.

画像検索部4にて検索されたキー画像は画像出力部6に出力され、画像出力部6から表示装置やネットワークコンピュータなどに出力される。尚、画像出力部6に出力される情報は、キー画像単体でも、キー画像に診断情報を添付して出力してもよい。   The key image retrieved by the image retrieval unit 4 is output to the image output unit 6, and is output from the image output unit 6 to a display device, a network computer, or the like. The information output to the image output unit 6 may be a key image alone or may be output with diagnostic information attached to the key image.

図2は第1実施形態の画像処理を示すフローチャートである。   FIG. 2 is a flowchart illustrating image processing according to the first embodiment.

図2に示すように、ステップS1では、CTやMRIなどの医療用画像撮影装置として、或いは、それらの装置からネットワークを介して入力される画像入力インタフェース及びそれに付随する記憶装置として、画像入力部1に撮影画像データが入力される。   As shown in FIG. 2, in step S1, an image input unit is used as a medical imaging apparatus such as CT or MRI, or as an image input interface and a storage device associated therewith input from those apparatuses via a network. The photographed image data is input to 1.

ステップS2では、医師による撮影画像データを用いた診断結果が診断情報として診断情報入力部2に入力される。   In step S2, a diagnosis result using photographed image data by a doctor is input to the diagnosis information input unit 2 as diagnosis information.

ステップS3では、上記診断情報入力部2又は診断情報解析部3に入力されたキーワードをキーワードテーブル7から検索する。   In step S <b> 3, the keyword input to the diagnostic information input unit 2 or the diagnostic information analysis unit 3 is searched from the keyword table 7.

ステップS4では、パラメータ決定部5において、入力されたキーワードをもとに画像検索部4で用いられる初期値パラメータを初期値テーブル8から選択する。   In step S <b> 4, the parameter determination unit 5 selects an initial value parameter used in the image search unit 4 from the initial value table 8 based on the input keyword.

ステップS5、S6では、画像検索部4において、選択されたパラメータを入力された画像に適用して病変領域の面積や連結度に基づいてパラメータの適正度を判定すると共に(適正化)、一般的なコンピュータ診断支援技術を用いて病変領域を抽出する。   In steps S5 and S6, the image search unit 4 applies the selected parameter to the input image to determine the appropriateness of the parameter based on the area and connectivity of the lesion area (optimization). Lesion area is extracted using computer diagnostic support technology.

しかる後に、コンピュータ診断支援技術により検出された病変候補の中から医師による最終診断と合致するものが選択される。   Thereafter, a candidate that matches the final diagnosis by the doctor is selected from the lesion candidates detected by the computer diagnosis support technology.

[第2実施形態]
図3は本発明に係る第2実施形態の画像処理装置を構成する機能ブロックを概略的に示し、第1実施形態と異なる点は画像検索部4に代えて、レンダリング部11とボクセルデータ作成部12とを設け、パラメータ決定部5が第1実施形態と同様に、診断情報からレンダリング部11で実行される3次元レンダリングの際の不透明度や色(濃淡画像の場合は濃度値)などのパラメータを決定し、この作成されたレンダリング画像をキー画像とするところにある。
[Second Embodiment]
FIG. 3 schematically shows functional blocks constituting the image processing apparatus according to the second embodiment of the present invention. The difference from the first embodiment is that the rendering unit 11 and the voxel data creation unit are replaced with the image search unit 4. 12, and the parameter determination unit 5 uses parameters such as opacity and color (density value in the case of a grayscale image) at the time of three-dimensional rendering executed by the rendering unit 11 based on diagnosis information, as in the first embodiment. And the created rendered image is used as a key image.

その他の要素は、第1実施形態と同一であるため、同一の番号を付して説明を省略する。   Since the other elements are the same as those in the first embodiment, the same numbers are assigned and the description is omitted.

画像入力部1に複数枚のCT又はMRI画像が入力されると、ボクセルデータ作成部12においてボクセルデータが生成される。ボクセルデータとは、2次元画像をZ軸方向に画素の連続性を考慮して繋ぎ合わせたものである。   When a plurality of CT or MRI images are input to the image input unit 1, voxel data generation unit 12 generates voxel data. Voxel data is obtained by joining two-dimensional images in the Z-axis direction in consideration of pixel continuity.

この画素データの各画素に不透明度と色を割り付けて、例えば、ボリュームレンダリング手法を適用することにより3次元レンダリング画像を得ることができる。   A three-dimensional rendering image can be obtained by assigning opacity and color to each pixel of the pixel data and applying a volume rendering method, for example.

本実施形態ではボリュームレンダリング手法を適用しているが、パラメータ決定部5で選択した閾値で検出した表面境界に、3次元的な濃度勾配を陰影付けに反映させるグレイレベル・グラディエント法でシェーディングを行うサーフェスレンダリング法で3次元画像を形成してもよい。   In the present embodiment, the volume rendering method is applied, but shading is performed on the surface boundary detected by the threshold selected by the parameter determination unit 5 by a gray level / gradient method in which a three-dimensional density gradient is reflected in shading. A three-dimensional image may be formed by a surface rendering method.

また、診断情報入力部2に入力された診断情報は、第1実施形態と同様に診断情報解析部3においてキーワードテーブル7を参照するキーワード検索が行われる。   In addition, the diagnostic information input to the diagnostic information input unit 2 is subjected to keyword search by referring to the keyword table 7 in the diagnostic information analysis unit 3 as in the first embodiment.

パラメータ決定部5では、キーワード検索された解剖学的部位と病理情報および病気ステージに対応して、初期値テーブル8から各CT値に対応した不透明度、色情報及び3次元画像生成の際の視線方向が選択される。基本的には、これらの予め決定された設定値を用いてレンダリング部11によりボリュームレンダリングを実行する。   In the parameter determination unit 5, the opacity, color information corresponding to each CT value, and the line of sight when generating a three-dimensional image from the initial value table 8 corresponding to the anatomical part searched by the keyword, the pathological information, and the disease stage. A direction is selected. Basically, volume rendering is executed by the rendering unit 11 using these predetermined setting values.

一方で、器官や病変の境界を明瞭に表現するにはセグメンテーションを行うことが望ましい。つまり、予め決められた各CT値に対応した不透明度と色情報では、肺、肝臓及びそれらの器官中に存在する結節や腫溜の境界をスムーズに再現できない場合がある。   On the other hand, it is desirable to perform segmentation in order to clearly express the boundary between organs and lesions. That is, the opacity and color information corresponding to each predetermined CT value may not be able to smoothly reproduce the boundaries of nodules and tumors existing in the lungs, liver and their organs.

そこで、CT値の閾値を変化させた2値画像に対して、断面内或いは断面間での連結を観察することにより、CT値の範囲を収束させ、収束させたCT値範囲で2値化した際に発生する孤立領域をラベリングにより取り除くことで、よりスムーズな器官や病変の抽出が行える。   Therefore, by observing the connection in the cross section or between the cross sections with respect to the binary image in which the threshold value of the CT value is changed, the CT value range is converged and binarized in the converged CT value range. By removing the isolated region that occurs at the time of labeling, organs and lesions can be extracted more smoothly.

以上のようにセグメンテーションされた画像における器官、病変を構成する画素に対して、不透明度と色情報を新たに割り付けることによって、よりスムーズな3次元画像を得ることができる。   A smoother three-dimensional image can be obtained by newly assigning opacity and color information to the pixels constituting the organs and lesions in the segmented image as described above.

レンダリング部11は、シェーディング工程とレイキャスティング工程の各機能を備え、シェーディング工程では、先ず、セグメントされた器官、病変の画素(ボクセル)に対して、法線ベクトルの勾配値(gradient)が計算される。そして、色情報と法線ベクトルの勾配値(gradient)の積(シェーディング値)が求められる。ここで、勾配値は注目点の各軸2点、計近傍6点より計算される。   The rendering unit 11 has functions of a shading process and a ray casting process. In the shading process, first, gradient values of normal vectors are calculated for segmented organs and lesion pixels (voxels). The Then, the product (shading value) of the color information and the gradient value of the normal vector (gradient) is obtained. Here, the gradient value is calculated from 2 points on each axis of the target point and 6 points in the vicinity.

レイキャスティング工程では、ボクセルに割り当てられた不透明度、シェーディング値、そして入射光の強度をもとに視線方向へのボクセル値の積分によるレンダリング画像の作成を行う。光学的な減衰演算もこの時点で行う。この時点で使用する視線方向も重要な決定パラメータである。   In the ray casting process, a rendering image is created by integrating the voxel values in the line-of-sight direction based on the opacity, shading value, and incident light intensity assigned to the voxels. An optical attenuation calculation is also performed at this point. The gaze direction used at this time is also an important determination parameter.

診断学的には観察方向が決っている場合もあるが、腫溜など人体の裏側にある場合は明らかに裏側から観察した方が認識し易い。   Although the direction of observation may be determined diagnostically, when it is behind the human body such as a tumor, it is clearly easier to recognize from the back side.

つまり、パラメータ決定部5では、器官表面或いは体表面から腫溜などの病変までの距離が短い方向を視線方向への選択も行う。また、同距離の方向が複数個ある場合は、複数方向からの3次元画像を生成して出力することも行う。   That is, the parameter determination unit 5 also selects the direction in which the distance from the organ surface or body surface to a lesion such as a tumor is short in the line-of-sight direction. When there are a plurality of directions of the same distance, a three-dimensional image from a plurality of directions is generated and output.

レンダリング部11にて生成された3次元画像は画像出力部6に出力され、画像出力部6から表示装置やネットワークコンピュータなどに出力される。尚、画像出力部6に出力される情報は、レンダリング画像単体でも、レンダリング画像に診断情報を添付して出力してもよい。   The three-dimensional image generated by the rendering unit 11 is output to the image output unit 6, and is output from the image output unit 6 to a display device, a network computer, or the like. Note that the information output to the image output unit 6 may be a single rendered image or may be output with diagnostic information attached to the rendered image.

図4は第2実施形態の画像処理を示すフローチャートである。   FIG. 4 is a flowchart illustrating image processing according to the second embodiment.

図4に示すように、ステップS1では、CTやMRIなどの医療用画像撮影装置として、或いは、それらの装置からネットワークを介して入力される画像入力インタフェース及びそれに付随する記憶装置として、画像入力部1に撮影画像データが入力される。   As shown in FIG. 4, in step S1, an image input unit is used as a medical imaging apparatus such as CT or MRI, or as an image input interface and a storage device associated therewith that are input from those apparatuses via a network. The photographed image data is input to 1.

ステップT1では、ボクセルデータ作成部12において上記撮影画像データからボクセルデータが作成される。   In step T1, voxel data creation unit 12 creates voxel data from the captured image data.

ステップS2では、医師による撮影画像データを用いた診断結果が診断情報として診断情報入力部2に入力される。   In step S2, a diagnosis result using photographed image data by a doctor is input to the diagnosis information input unit 2 as diagnosis information.

ステップS3では、上記診断情報入力部2又は診断情報解析部3に入力されたキーワードをキーワードテーブル7から検索する。   In step S <b> 3, the keyword input to the diagnostic information input unit 2 or the diagnostic information analysis unit 3 is searched from the keyword table 7.

ステップT2では、パラメータ決定部5において、入力されたキーワードをもとにレンダリング部11で実行される3次元レンダリングの際の不透明度や色、視線方向などの初期値パラメータを初期値テーブル8から選択する。   In step T2, the parameter determination unit 5 selects from the initial value table 8 initial value parameters such as opacity, color, and line-of-sight direction for the three-dimensional rendering executed by the rendering unit 11 based on the input keyword. To do.

ステップT3では、レンダリング部11において、選択されたパラメータを入力された画像に適用し、器官や病変の境界を明瞭に表現するために病変領域の面積やその変化、連結度に基づいてセグメンテーションを実行する(適正化)。   In step T3, the rendering unit 11 applies the selected parameters to the input image, and executes segmentation based on the area of the lesion area, its change, and connectivity in order to clearly represent the organ and lesion boundary. (Adjust).

ステップT4では、レンダリング部11においてセグメントされた器官、病変のボクセルに対して、法線ベクトルの勾配値(gradient)が計算され、色情報と法線ベクトルの勾配値(gradient)の積(シェーディング値)が求められる(シェーディング)。   In step T4, a gradient value (gradient) of the normal vector is calculated for the segmented organ and lesion voxel in the rendering unit 11, and the product of the color information and the gradient value (gradient) of the normal vector (shading value). ) Is required (shading).

ステップT5では、ボクセルに割り当てられた不透明度、シェーディング値、そして入射光の強度をもとに視線方向へのボクセル値の積分によるレンダリング画像の作成を行う(レイキャスティング)。   In step T5, a rendering image is created by integrating the voxel values in the line-of-sight direction based on the opacity assigned to the voxels, the shading value, and the intensity of incident light (ray casting).

尚、上記第2実施形態では、ボリュームレンダリング手法を用いる例について説明したが、この3次元画像生成技術は医療画像応用以外にも広く研究されており参考書が多くある。例えば、「これからの画像情報シリーズ5、コンピュータグラフィクス」安居院猛、他著、昭晃堂の第7章などの記載を参考にしてもよい。   In the second embodiment, the example using the volume rendering method has been described. However, this three-dimensional image generation technique has been extensively studied in addition to medical image applications, and there are many reference books. For example, the description of “Future Image Information Series 5, Computer Graphics” Takeshi Aoiin, other authors, Chapter 7 of Shosodo may be referred to.

上記第1及び第2実施形態によれば、大量の医療情報から医師の診断情報(病変を含む器官、病変の形態、および病気の進行度)をもとに、大量の撮影画像から少量、小容量の的確なキー画像を選択或いは生成できる。   According to the first and second embodiments, a small amount of small amounts of small amounts of captured images are taken from a large amount of medical information on the basis of diagnosis information (organs including lesions, forms of lesions, and progress of disease) of doctors. It is possible to select or generate a key image with an appropriate capacity.

また、多数のスライス画像から病気情報を的確に表現するスライス画像を診断情報から指定できる。   In addition, a slice image that accurately expresses disease information from a large number of slice images can be designated from the diagnostic information.

また、同様の技術を使用して病変部位を的確に表現する3次元画像を生成し、少量、小容量のキー画像とすることができる。   In addition, a three-dimensional image that accurately represents a lesion site can be generated using the same technique, and a small-capacity key image can be obtained.

キー画像作成時の視線方向の決定には、器官或いは体表面から病変までの距離の小さい方向を選択するようにし、病変部位を観察しやすく設定することが可能となる。   In determining the line-of-sight direction when creating a key image, it is possible to select a direction in which the distance from the organ or body surface to the lesion is small, and to set the lesion site so that it can be easily observed.

また、上記画像処理により選択された画像、又は上記画像処理によりレンダリング処理された画像を診断情報に添付して診断レポートとして出力できるレポーティングシステム及びレポーティング方法を構築できる。   In addition, it is possible to construct a reporting system and a reporting method that can output an image selected by the image processing or an image rendered by the image processing attached to diagnostic information and output as a diagnostic report.

[他の実施形態]
本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(図2及び図4のフローチャートの各工程のコード)を、システム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。その場合、プログラムの機能を有していれば、形態は、プログラムである必要はない。
[Other embodiments]
The present invention supplies a software program (the code of each step in the flowcharts of FIGS. 2 and 4) for realizing the functions of the above-described embodiments directly or remotely to a system or apparatus, and the computer of the system or apparatus This includes a case where the program code is also achieved by reading and executing the supplied program code. In that case, the form does not have to be a program as long as it has the function of the program.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明のクレームでは、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. That is, the claims of the present invention include the computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   As a recording medium for supplying the program, for example, flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R).

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明のクレームに含まれるものである。   As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the claims of the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。   Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

Claims (14)

被写体の画像診断の診断レポートとともに出力されるスライス画像を該被写体の医療用画像から選択する処理装置であって、
撮影装置により被写体の三次元領域を撮影して得られる医療用画像についての該被写体の診断内容を示す診断情報に対応する、該医療用画像における病変の領域に基づいて、該医療用画像に含まれるスライス画像を選択する選択手段と、
前記選択手段により選択されるスライス画像を出力する出力手段と、を有し、
前記選択手段は、前記医療用画像から前記病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引くことを特徴とする処理装置。
A processing device that selects a slice image output together with a diagnostic report of a subject image diagnosis from a medical image of the subject,
Included in the medical image based on the lesion area in the medical image corresponding to the diagnostic information indicating the diagnostic content of the subject with respect to the medical image obtained by photographing the three-dimensional region of the subject with the imaging device Selection means for selecting a slice image to be
Output means for outputting a slice image selected by the selection means,
It said selecting means, said selecting a plurality of slice images from the medical image including the area of the lesion, from a plurality of slice images said selected the lesion area or shape in a plurality of slice images the selected A processing apparatus characterized by thinning out slice images whose magnitude of change is smaller than a threshold value .
前記選択されるスライス画像に基づいて3次元レンダリング画像を得るレンダリング手段をさらに有することを特徴とする請求項1に記載の処理装置。   The processing apparatus according to claim 1, further comprising a rendering unit that obtains a three-dimensional rendering image based on the selected slice image. 前記医療用画像に対し医師が入力した診断結果の情報を解析して前記診断情報を得る手段をさらに有することを特徴とする請求項1または2に記載の処理装置。   The processing apparatus according to claim 1, further comprising means for analyzing the information of a diagnosis result input by a doctor for the medical image to obtain the diagnosis information. 前記医療用画像の少なくとも一部に基づいて病変の領域を抽出する抽出手段をさらに有することを特徴とする請求項1乃至3のいずれか1項に記載の処理装置。   The processing apparatus according to claim 1, further comprising an extraction unit that extracts a lesion area based on at least a part of the medical image. 前記選択手段は、前記診断情報に基づいてスライス画像の画素値の範囲を決定し、
前記抽出手段は、前記選択手段により決定される画素値の範囲における前記スライス画像に基づいて病変の領域を抽出することを特徴とする請求項4に記載の処理装置。
The selection means determines a range of pixel values of the slice image based on the diagnostic information,
The processing apparatus according to claim 4, wherein the extraction unit extracts a lesion area based on the slice image in a pixel value range determined by the selection unit.
前記病変の領域を含む複数のスライス画像の少なくとも一部に基づいて器官の領域を決定する決定手段をさらに有することを特徴とする請求項1乃至5のいずれか1項に記載の処理装置。   6. The processing apparatus according to claim 1, further comprising a determining unit that determines an organ region based on at least a part of a plurality of slice images including the lesion region. 前記決定手段により決定される器官の領域から病変の領域を抽出する抽出手段をさらに有することを特徴とする請求項6に記載の処理装置。   The processing apparatus according to claim 6, further comprising an extracting unit that extracts a lesion region from an organ region determined by the determining unit. 前記選択手段は、前記医療用画像から複数のスライス画像を選択することを特徴とする請求項1乃至7のいずれか1項に記載の処理装置。   The processing apparatus according to claim 1, wherein the selection unit selects a plurality of slice images from the medical image. 前記出力手段は、前記選択されたスライス画像を表示装置に出力することを特徴とする請求項1乃至8のいずれか1項に記載の処理装置。   The processing apparatus according to claim 1, wherein the output unit outputs the selected slice image to a display device. 前記撮影装置からネットワークを介して前記医療用画像を得る手段をさらに有することを特徴とする請求項1乃至9のいずれか1項に記載の処理装置。   The processing apparatus according to claim 1, further comprising means for obtaining the medical image from the imaging apparatus via a network. 撮影装置により被写体の三次元領域を撮影して得られる医療用画像データについての該被写体の診断内容を示す診断情報に基づいて、一部の医療用画像データを前記医療用画像データから選択する選択手段と、
前記選択手段により選択される医療用画像データを出力する出力手段と、を有し、
前記選択手段は、前記医療用画像データから病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引くことを特徴とする処理装置。
Selection for selecting a part of the medical image data from the medical image data based on diagnostic information indicating the diagnostic contents of the subject with respect to the medical image data obtained by photographing the three-dimensional region of the subject by the photographing device Means,
Output means for outputting medical image data selected by the selection means,
The selection means selects a plurality of slice images including a lesion area from the medical image data, and the area or shape of the lesion in the selected slice images is selected from the selected slice images. A processing apparatus characterized by thinning out slice images whose magnitude of change is smaller than a threshold value .
前記診断情報は文字情報であることを特徴とする請求項1乃至11のいずれか1項に記載の処理装置。   The processing apparatus according to claim 1, wherein the diagnostic information is character information. 被写体の画像診断の診断レポートとともに出力されるスライス画像を該被写体の医療用画像から選択する処理装置の作動方法であって、
撮影装置により被写体の三次元領域を撮影して得られる医療用画像データについての該被写体の診断内容を示す診断情報に基づいて、一部の医療用画像データを前記医療用画像データから選択する選択工程と、
前記選択された医療用画像データを出力する出力工程と、を有し、
前記選択工程では、前記医療用画像データから病変の領域を含む複数のスライス画像を選択し、前記選択された複数のスライス画像から、前記選択された複数のスライス画像において該病変の面積或いは形状の変化の大きさが閾値より小さいスライス画像を間引くことを特徴とする作動方法。
A method of operating a processing apparatus for selecting a slice image output together with a diagnostic report of a subject image diagnosis from a medical image of the subject,
Selection for selecting a part of the medical image data from the medical image data based on diagnostic information indicating the diagnostic contents of the subject with respect to the medical image data obtained by photographing the three-dimensional region of the subject by the photographing device Process,
Outputting the selected medical image data, and
In the selection step, a plurality of slice images including a lesion area are selected from the medical image data, and the area or shape of the lesion is determined in the selected slice images from the selected slice images. An operating method characterized by thinning out slice images whose magnitude of change is smaller than a threshold value .
請求項13に記載の作動方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the operation method according to claim 13.
JP2013180357A 2013-08-30 2013-08-30 Processing apparatus, operating method thereof, and program Expired - Fee Related JP6074339B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013180357A JP6074339B2 (en) 2013-08-30 2013-08-30 Processing apparatus, operating method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013180357A JP6074339B2 (en) 2013-08-30 2013-08-30 Processing apparatus, operating method thereof, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012188075A Division JP5465291B2 (en) 2012-08-28 2012-08-28 Image processing apparatus and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015129206A Division JP6061991B2 (en) 2015-06-26 2015-06-26 Information processing apparatus, information processing method, information processing system, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2013233470A JP2013233470A (en) 2013-11-21
JP6074339B2 true JP6074339B2 (en) 2017-02-01

Family

ID=49760030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180357A Expired - Fee Related JP6074339B2 (en) 2013-08-30 2013-08-30 Processing apparatus, operating method thereof, and program

Country Status (1)

Country Link
JP (1) JP6074339B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5465291B2 (en) * 2012-08-28 2014-04-09 キヤノン株式会社 Image processing apparatus and image processing method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (en) * 1993-10-29 1995-05-19 Hitachi Medical Corp Medical picture processor
JP2000020628A (en) * 1998-07-06 2000-01-21 Toshiba Iyo System Engineering Kk Computer supported diagnostic system
JP2001273364A (en) * 2000-03-27 2001-10-05 Yokogawa Electric Corp Medical image information system
JP4864212B2 (en) * 2001-01-10 2012-02-01 株式会社東芝 Medical business management system
JP4285623B2 (en) * 2001-04-26 2009-06-24 富士フイルム株式会社 Image display method, apparatus and program
JP3766608B2 (en) * 2001-05-02 2006-04-12 テラリコン・インコーポレイテッド 3D image display device in network environment
JP2003033327A (en) * 2001-07-24 2003-02-04 Fujitsu Ltd Diagnostic support system via imaging information
JP3705588B2 (en) * 2001-11-02 2005-10-12 テラリコン・インコーポレイテッド Reporting system in network environment
JP4475625B2 (en) * 2003-05-27 2010-06-09 キヤノン株式会社 Image processing apparatus and image processing method
JP5100717B2 (en) * 2009-07-30 2012-12-19 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2013233470A (en) 2013-11-21

Similar Documents

Publication Publication Date Title
JP4475625B2 (en) Image processing apparatus and image processing method
Kavur et al. Comparison of semi-automatic and deep learning-based automatic methods for liver segmentation in living liver transplant donors
Gotra et al. Liver segmentation: indications, techniques and future directions
JP5814853B2 (en) Stereo model data generation apparatus and method, and program
JP5797124B2 (en) Surgery support device, surgery support method, and surgery support program
Glombitza et al. Virtual planning of liver resections: image processing, visualization and volumetric evaluation
JP4785371B2 (en) Multidimensional structure extraction method and system using dynamic constraints
US8483462B2 (en) Object centric data reformation with application to rib visualization
US9466117B2 (en) Segmentation highlighter
JP2008142481A (en) Apparatus and program for carrying out segmentation of lungs to units of pulmonary segment automatically
JP2009045286A (en) Medical image processor, medical image diagnostic apparatus, and program
Alirr et al. Automatic atlas-based liver segmental anatomy identification for hepatic surgical planning
JP5465291B2 (en) Image processing apparatus and image processing method
JP5100717B2 (en) Image processing apparatus and image processing method
JP6496698B2 (en) Medical image processing apparatus, control method thereof, and program
JP6061991B2 (en) Information processing apparatus, information processing method, information processing system, program, and storage medium
JP6074339B2 (en) Processing apparatus, operating method thereof, and program
Garcia Guevara et al. Biomechanics-based graph matching for augmented CT-CBCT
JP2014184012A (en) Surgery support device, surgery support method, and surgery support program
JP5750381B2 (en) Region extraction processing system
JP2010504796A (en) Access to medical image database using anatomical shape information
JP6945379B2 (en) Image processing device, magnetic resonance imaging device and image processing program
US20230030618A1 (en) Making measurements in images
Palak et al. 3D Segmentation and Visualization of Human Brain CT Images for Surgical Training-A VTK Approach
Bao et al. Introduction to 3D Visualization of Abdominal CT Images

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150703

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170106

R151 Written notification of patent or utility model registration

Ref document number: 6074339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees