JP2019103531A - Medical image processing apparatus - Google Patents

Medical image processing apparatus Download PDF

Info

Publication number
JP2019103531A
JP2019103531A JP2016081648A JP2016081648A JP2019103531A JP 2019103531 A JP2019103531 A JP 2019103531A JP 2016081648 A JP2016081648 A JP 2016081648A JP 2016081648 A JP2016081648 A JP 2016081648A JP 2019103531 A JP2019103531 A JP 2019103531A
Authority
JP
Japan
Prior art keywords
image
processing apparatus
sample
medical image
luminance value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016081648A
Other languages
Japanese (ja)
Inventor
鹿毛 裕史
Yasushi Kage
裕史 鹿毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016081648A priority Critical patent/JP2019103531A/en
Priority to PCT/JP2016/087582 priority patent/WO2017179242A1/en
Publication of JP2019103531A publication Critical patent/JP2019103531A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To provide a medical image processing apparatus capable of improving area extraction performance without extracting an inappropriate atlas even if an arrangement is similar.SOLUTION: On the basis of the positional information of a feature point analyzed by feature point analysis means 3 and luminance information as a feature amount analyzed by luminance value analysis means 4, selection means 5 selects an image case sample which corresponds to a processed image as a medical image and to which area information of a target part is previously given as an atlas, and region extraction means 6 extracts an area of the target part by using the selected image case sample.SELECTED DRAWING: Figure 1

Description

この発明は、医用画像を処理して表示する医用画像処理装置に関するものである。   The present invention relates to a medical image processing apparatus that processes and displays medical images.

医用画像処理装置では、医用画像中での対象部位を特定するために、画像処理技術により対象領域を自動抽出する。しかし、コンピュータ断層撮影(Computed Tomography:以下CTと略す)装置や磁気共鳴断層撮影(Magnetic Resonance Imaging:以下MRIと略す)装置の例に見られるように、撮像装置の物理的特性により、医用画像に写る体内臓器等の輪郭はかならずしも明瞭ではなく、通常の画像処理では領域抽出が困難なこともある。そのため、従来から、アトラスと呼ばれる事前の解剖学的構造情報を利用した領域抽出手法が採用されている(例えば、特許文献1参照)。アトラスは、体内臓器等の相対位置や形状に関する解剖学的構造を表現したものであり、一種の体内地図データである。その中には、解剖学的に標識と成る点の位置情報も含まれている。また、一般に、構造の多様性から、同一の部位に対しても多数のアトラスが用意される。   In the medical image processing apparatus, in order to specify a target region in a medical image, a target region is automatically extracted by an image processing technique. However, as seen in examples of computed tomography (abbreviated as CT) and magnetic resonance imaging (abbreviated as MRI) devices, medical images can be obtained according to the physical characteristics of the imaging devices. The outlines of internal organs and the like that appear are not always clear, and region extraction may be difficult in normal image processing. Therefore, conventionally, a region extraction method using anatomical structure information in advance called an atlas has been adopted (see, for example, Patent Document 1). The atlas is an anatomical structure relating to relative positions and shapes of internal organs and the like, and is a kind of internal map data. Among them, positional information of the point which is anatomically labeled is included. Also, in general, due to structural diversity, multiple atlases are prepared for the same site.

従来の医用画像処理装置では、対象部位に関する多数のアトラスを事前に記憶しておき、処理画像に適した1つまたは複数のアトラスを選別して用いる。例えば、処理画像に対して、各々のアトラスを変形して位置合わせした際、各アトラスに含まれる解剖学的標識点群の配置が多数決的に似通っているアトラス群を尤もらしいとして選別する。そして、それらのアトラス群が持つ対象部位の形状情報をもとに、処理画像における対象領域を抽出する。アトラスを事前知識とした領域抽出が行えることから、高精度な結果が得られる。   In a conventional medical image processing apparatus, a large number of atlases for a target site are stored in advance, and one or more atlass suitable for processed images are selected and used. For example, when each atlas is deformed and aligned with respect to the processing image, an atlas group in which the arrangement of anatomical marker point groups included in each atlas is majority similar is selected as likely. Then, based on the shape information of the target site possessed by those atlas groups, the target area in the processed image is extracted. Since region extraction can be performed with the atlas as prior knowledge, highly accurate results can be obtained.

特開2015−93192号公報(段落0043、図3)JP, 2015-93192, A (paragraph 0043, FIG. 3)

しかしながら、アトラスを用いる従来の医用画像処理装置では、解剖学的標識点群の配置だけによって、処理画像に対するアトラスの適正度を判定し、アトラスを選別している。アトラスが適切に選択された場合には高精度な領域抽出結果が期待できるが、たまたま配置が似通ったことにより不適切なアトラスが抽出された場合には、領域抽出の性能を低下させるという問題があった。   However, in the conventional medical image processing apparatus using an atlas, the appropriateness of the atlas with respect to the processing image is determined only by the arrangement of anatomical landmarks, and the atlas is sorted. If the atlas is properly selected, high-accuracy region extraction results can be expected, but there is a problem that the region extraction performance is degraded if an inappropriate atlas is extracted due to the similar arrangement. there were.

この発明は、上記のような課題を解決するためになされたものであり、配置が似ている場合であっても、不適切なアトラスが抽出されることなく領域抽出性能を向上させることができる医用画像処理装置を提供することを目的としている。   The present invention has been made to solve the problems as described above, and can improve region extraction performance without extracting inappropriate atlas even when the arrangement is similar. An object of the present invention is to provide a medical image processing apparatus.

この発明の医用画像処理装置は、処理画像を入力する処理画像入力手段と、対象部位の領域情報があらかじめ付与されたサンプル画像を複数入力するサンプル画像入力手段と、前記処理画像および前記サンプル画像の特徴点位置を解析する特徴点解析手段と、前記処理画像および前記サンプル画像の輝度値を解析する輝度値解析手段と、前記特徴点解析手段により解析された特徴点の位置情報と前記輝度値解析手段により解析された輝度値の情報に基づき、前記処理画像に対応する前記サンプル画像を選別する選別手段とを備えたことを特徴とするものである。   According to the medical image processing apparatus of the present invention, a processed image input unit for inputting a processed image, a sample image input unit for inputting a plurality of sample images to which area information of a target region is attached in advance, the processed image and the sample image Feature point analysis means for analyzing feature point positions, Luminance value analysis means for analyzing brightness values of the processed image and the sample image, Position information of feature points analyzed by the feature point analysis means, and the brightness value analysis And a sorting means for sorting the sample image corresponding to the processed image based on the information of the brightness value analyzed by the means.

この発明によれば、従来のアトラス要素に、輝度値をもつ画像情報を加え、輝度値の情報をも使って適切なアトラス(画像事例サンプル)を選別することで、領域抽出性能をさらに向上させることができる。   According to the present invention, region extraction performance is further improved by adding image information having a luminance value to a conventional atlas element and selecting an appropriate atlas (image case sample) using information of the luminance value as well. be able to.

この発明の実施の形態1における医用画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the medical image processing apparatus in Embodiment 1 of this invention. この発明の実施の形態1における医用画像処理装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the medical image processing apparatus in Embodiment 1 of this invention. この発明の実施の形態2における医用画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the medical image processing apparatus in Embodiment 2 of this invention. この発明の実施の形態2における医用画像処理装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the medical image processing apparatus in Embodiment 2 of this invention.

実施の形態1.
図1は、この発明の実施の形態1による医用画像処理装置100の構成を示すブロック図である。図1に示すように、医用画像処理装置100は、処理画像入力手段1、サンプル画像入力手段2、特徴点解析手段3、輝度値解析手段4、選別手段5、および領域抽出手段6から構成される。
Embodiment 1
FIG. 1 is a block diagram showing a configuration of a medical image processing apparatus 100 according to Embodiment 1 of the present invention. As shown in FIG. 1, the medical image processing apparatus 100 includes a processed image input unit 1, a sample image input unit 2, a feature point analysis unit 3, a luminance value analysis unit 4, a selection unit 5, and a region extraction unit 6. Ru.

処理画像入力手段1は、処理対象となる医用画像を入力する。この画像は、CT装置、MRI装置、X(X−ray)線撮像装置、超音波撮影装置などで撮影されたものを想定するが、特に、撮影装置や受取の手段を限定するものではない。当然のことながら、所望の抽出したい対象部位(ここでは治療したい臓器や腫瘍など)が写っているものとする。   The processed image input unit 1 inputs a medical image to be processed. Although this image assumes what was image | photographed with CT apparatus, MRI apparatus, X (X-ray) X-ray imaging apparatus, an ultrasonic imaging apparatus etc., it does not limit an imaging apparatus and the means of reception in particular. As a matter of course, it is assumed that a desired target site to be extracted (here, an organ, a tumor, etc. to be treated) is shown.

サンプル画像入力手段2は、アトラスとして対象部位の領域情報があらかじめ付与されたサンプル画像としての画像事例サンプルを複数入力する。この画像事例サンプルは、処理画像入力手段1で入力される医用画像と同種の撮影装置で撮られたものとし、同種の対象部位が写っている実際の画像事例とする。また、該サンプルには、医師らによって、対象部位の領域情報があらかじめ付与されていることとする。対象部位の領域は、例えば、画像の各画素に対して、対象か否かのラベルをつけることによって指定する。あるいは、領域の輪郭を曲線で指定することでもよい。画像事例サンプルの入力枚数は問わないが、多いほど、処理対象の医用画像に酷似するものが含まれる可能性が高くなり、領域抽出精度の向上につながることが期待できる。一方で、計算量も増加することから、適当な枚数での入力が必要となる。   The sample image input means 2 inputs, as an atlas, a plurality of image example samples as sample images to which area information of a target region is given in advance. This image example sample is taken by an imaging device of the same type as the medical image input by the processed image input means 1, and is taken as an actual image example in which a target portion of the same type is shown. In addition, it is assumed that the region information of the target site is attached to the sample in advance by the doctors. The region of the target site is designated, for example, by labeling each pixel of the image as to whether or not it is a target. Alternatively, the contour of the area may be specified by a curve. There is no limitation on the number of input image example samples, but the larger the number is, the more likely it is that something very similar to the medical image to be processed is included, and it can be expected to lead to improvement in region extraction accuracy. On the other hand, since the calculation amount also increases, it is necessary to input an appropriate number of sheets.

特徴点解析手段3は、処理画像入力手段1で入力される処理画像、および、サンプル画像入力手段2で入力される各画像事例サンプルから特徴点を抽出し、その位置を記憶する。特徴点の抽出方法は問わないが、例えば、Harrisらが提案したコーナー検出手法(C. Harris and M. Stephens, “A combined corner and edge detector”, Proc. of 4th Alvey Vision Conference, pp.147-151, 1988.を参照のこと)やLoweによって提案された極値検出法としてのDifference-of-Gaussianを用いる手法(D. G. Lowe, “Object recognition from local scale invariant features”, Proc. of IEEE International Conference on Computer Vision, pp.1150-1157, 1999.を参照のこと)、決定木を使ってコーナー検出を速めたFAST (Features from Accelerated Segment Test)と呼ばれる手法(E. Rosten and T. Drummond, “Machine Learning for High-speed Corner Detection”, Proc. European Conference on Computer Vision, pp.430-443, 2006.を参照のこと)などを用いればよい。   The feature point analysis unit 3 extracts feature points from the processed image input by the processed image input unit 1 and each image example sample input by the sample image input unit 2 and stores the position thereof. There is no limitation on the method of extracting feature points. For example, the corner detection method proposed by Harris et al. (C. Harris and M. Stephens, “A combined corner and edge detector”, Proc. Of 4th Alvey Vision Conference, pp. 147- The method using difference-of-gaussian as an extreme value detection method proposed by Lowe (see Low Point, “Object recognition from local scale invariant features,” Proc. Computer Vision, pp. 1150-1157 (1999), and a method called FAST (Features from Accelerated Segment Test) that accelerates corner detection using decision trees (E. Rosten and T. Drummond, “Machine Learning”. for High-speed Corner Detection ", Proc. European Conference on Computer Vision, pp. 430-443, 2006.).

輝度値解析手段4は、処理画像入力手段1で入力される処理画像、および、サンプル画像入力手段2で入力される各画像事例サンプルがもつ輝度情報を解析し、特徴量として記憶する。画像全体、あるいは、特徴点解析手段3によって抽出した各特徴点の周辺で個別に解析を行う。後者のように特徴点周りに限定すれば、計算の効率化が期待できる。解析方法は問わないが、例えば、輝度ヒストグラムを生成したり、一旦、輝度の勾配情報に変換して勾配方向ヒストグラムを生成したりする。勾配は、画像の輝度値を微分することで得られる。勾配を求めることにより、画像の各画素がもつ絶対的な輝度値に影響されずに、輝度分布パターンとして解析することができるようになる。勾配方向ヒストグラムによる特徴量の典型的な記述方法には、HOG(Histograms of Oriented Gradients)(D. G. Lowe, “Object recognition from local scale invariant features”, Proc. of IEEE International Conference on Computer Vision, pp.1150-1157, 1999.を参照のこと)がある。そのほか、SURF(Speed-Upped Robust Feature)(H. Bay, T. Tuytelaars and L. V. Gool, “SURF: Speeded Up Robust Features”, Proc. European Conference on Computer Vision, pp.404-417, 2006.を参照のこと)、RIFF(Rotation-Invariant Fast Feature)(G. Takacs, V. Chandrasekhar, S. Tsai, D. Chen, R. Grzesczuk and B. Girod, “Unified Real-Time Tracking and Recognition with Rotation-Invariant Fast Features”, Proc. Conference on Computer Vision and Pattern Recognition, pp.934-941, 2010.を参照のこと)などを用いてもよい。   The luminance value analysis unit 4 analyzes the processed image input by the processed image input unit 1 and the luminance information of each image case sample input by the sample image input unit 2 and stores it as a feature amount. The analysis is individually performed around the entire image or each feature point extracted by the feature point analysis unit 3. If it is limited around feature points as in the latter case, computational efficiency can be expected. There is no limitation on the analysis method, but for example, a luminance histogram is generated, or once converted into luminance gradient information to generate a gradient direction histogram. The gradient is obtained by differentiating the luminance value of the image. By determining the gradient, it becomes possible to analyze as a luminance distribution pattern without being influenced by the absolute luminance value of each pixel of the image. A typical method of describing feature quantities by gradient orientation histograms is described in HOG (Histograms of Oriented Gradients) (DG Lowe, “Object recognition from local scale invariant features”, Proc. Of IEEE International Conference on Computer Vision, pp. 1150- 1157, 1999). In addition, see SURF (Speed-Upped Robust Feature) (H. Bay, T. Tuytelaars and LV Gool, "SURF: Speeded Up Robust Features", Proc. European Conference on Computer Vision, pp. 404-417, 2006. ), RIFF (Rotation-Invariant Fast Feature) (G. Takacs, V. Chandrasekhar, S. Tsai, D. Chen, R. Grzesczuk and B. Girod, “Unified Real-Time Tracking and Recognition with Rotation-Invariant Fast Features See, for example, “Proc. Conference on Computer Vision and Pattern Recognition, pp. 934-941, 2010.”.

選別手段5は、処理画像入力手段1で入力される処理画像、および、サンプル画像入力手段2で入力される各画像事例サンプルから抽出された特徴点の位置情報、および輝度解析結果としての特徴量をもとに、処理画像に対して類似度の高い画像事例サンプルを選択する。例えば、処理画像と各画像事例サンプル間において、特徴点の位置合わせを行い、その誤差が少なく、かつ、特徴量の類似度が高いものを選べばよい。また、特徴点ごとに特徴量が記述できている場合には、処理画像と各画像事例サンプル間で特徴点の対応付けを行い、対応付けができた数の多さによって選択してもよい。   The sorting unit 5 receives the processed image input by the processed image input unit 1, the position information of the feature points extracted from each of the image example samples input by the sample image input unit 2, and the feature amount as the brightness analysis result. And select an image example sample having a high degree of similarity to the processed image. For example, feature points may be aligned between the processed image and each of the image example samples, and those having a small error and a high similarity of feature amounts may be selected. Further, when the feature amount can be described for each feature point, feature points may be associated between the processing image and each image example sample, and the selection may be made according to the number of the created correspondences.

領域抽出手段6は、選別された画像事例サンプルを用いて処理画像から対象部位の領域を抽出する。例えば、選択された画像事例サンプルに付与されている対象領域情報を初期値として、処理画像からの領域抽出を行う。領域抽出方法としては、Snakeなどの動的輪郭モデル(M. Kass, A. Witkin and D. Terzopoulos, “Snakes: Active Contour Models”, International Journal of Computer Vision, vol.1, no.3, pp.321-331, 1988.を参照のこと) やLevel Sets(M. Sussman, P. Smereka and S. Osher, “A Level Set Approach for Computing Solutions to Incompressible Two-Phase Flow”, Journal of Computational Physics, vol.114, pp.146-159, 1994.を参照のこと)、Graph Cuts(Y. Boykov and V. Kolmogorov, “An Experimental Comparison of Min-Cut/Max-Flow Algorithms for Energy Minimization in Vision”, IEEE Trans. on Pattern Analysis and Machine Intelligence, vol.26, no.9, pp.1124-1137, 2004.を参照のこと)などを用いればよい。   The area extraction unit 6 extracts the area of the target site from the processed image using the selected image case sample. For example, area extraction from the processed image is performed with the target area information assigned to the selected image example sample as an initial value. As an area extraction method, active contour models such as Snake (M. Kass, A. Witkin and D. Terzopoulos, "Snakes: Active Contour Models", International Journal of Computer Vision, vol. 1, no. 3, pp. 321-331, 1988.) and Level Sets (M. Sussman, P. Smereka and S. Osher, “A Level Set Approach for Computing Solutions to Incompressible Two-Phase Flow”, Journal of Computational Physics, vol. 114, pp. 146-159, 1994.), Graph Cuts (Y. Boykov and V. Kolmogorov, “An Experimental Comparison of Min-Cut / Max-Flow Algorithms for Energy Minimization in Vision”, IEEE Trans. See, for example, on Pattern Analysis and Machine Intelligence, vol. 26, no. 9, pp. 1124-1137, 2004).

次に、この発明の実施の形態1による医用画像処理装置100の動作について説明する。図2は、医用画像処理装置100の動作を説明するためのフローチャート図である。   Next, the operation of the medical image processing apparatus 100 according to the first embodiment of the present invention will be described. FIG. 2 is a flowchart for explaining the operation of the medical image processing apparatus 100.

まず、処理対象となる医用画像が入力される前に、ステップS201からステップS203を行っておく。ステップS201では、サンプル画像入力手段2により画像事例サンプルを複数入力する。このときすでに、画像事例サンプルには医師らによってアトラスとして対象部位の領域情報が付与されていることとする。ステップS202で、特徴点解析手段3により、サンプル画像入力手段2で入力された各画像事例サンプルから特徴点を抽出した後、ステップS203で、輝度値解析手段4により、同じくサンプル画像入力手段2で入力された各画像事例サンプルから輝度値を解析する。ステップS202とステップS203は入れ替わってもよい。   First, steps S201 to S203 are performed before a medical image to be processed is input. In step S201, a plurality of image case samples are input by the sample image input unit 2. At this time, it is assumed that region information of the target site is added as an atlas to the image example sample as an atlas. In step S202, the feature point analysis means 3 extracts feature points from each image example sample inputted by the sample image input means 2, and then in step S203, the luminance value analysis means 4 similarly uses the sample image input means 2 The luminance value is analyzed from each input image example sample. Steps S202 and S203 may be interchanged.

続いて、ステップS204において、処理画像入力手段1により処理対象となる医用画像が入力されると、ステップS205で、特徴点解析手段3により、処理画像入力手段1で入力された処理画像から特徴点を抽出した後、ステップS206で、輝度値解析手段4により、同じく処理画像入力手段1で入力された処理画像から輝度値を解析する。ステップS205とステップS206は入れ替わってもよい。   Subsequently, when the medical image to be processed is input by the processed image input unit 1 in step S204, feature points are extracted from the processed image input by the processed image input unit 1 by the feature point analysis unit 3 in step S205. In step S206, the luminance value analysis unit 4 analyzes the luminance value from the processed image input from the processed image input unit 1 in the same manner. Steps S205 and S206 may be interchanged.

次いで、ステップS207では、選別手段5により、処理画像入力手段1で入力された処理画像、および、サンプル画像入力手段2で入力された各画像事例サンプルから抽出された特徴点の位置情報、および輝度解析結果としての特徴量である輝度値の情報をもとに、処理画像に対して類似度の高い画像事例サンプルを選別する。   Next, in step S207, the processing unit 5 selects the processed image input by the processed image input unit 1, and the position information of the feature points extracted from each image example sample input by the sample image input unit 2, and the luminance Based on the information of the luminance value which is the feature amount as the analysis result, an image case sample having high similarity to the processed image is selected.

最後に、ステップS208において、領域抽出手段6により、選別された画像事例サンプルを用いて処理画像から対象部位の領域を抽出する。   Finally, in step S208, the region extraction unit 6 extracts the region of the target region from the processed image using the selected image case sample.

このように、従来のアトラス要素に、輝度値をもつ画像情報を加え、輝度値の情報をも使って適切なアトラス(画像事例サンプル)を選別することで、領域抽出性能をさらに向上させることができる。   As described above, the region extraction performance can be further improved by adding image information having a luminance value to the conventional atlas element and selecting an appropriate atlas (image case sample) using the information of the luminance value as well. it can.

以上のように、この発明の実施の形態1における医用画像処理装置100では、特徴点解析手段3により解析された特徴点の位置情報と輝度値解析手段4により解析された特徴量としての輝度情報に基づき、選別手段5により医用画像としての処理画像に対応する、アトラスとして対象部位の領域情報があらかじめ付与された画像事例サンプルを選別し、領域抽出手段6により選別された画像事例サンプルを用いて対象部位の領域を抽出するようにしたので、輝度値の情報をも使って適切なアトラス(画像事例サンプル)を選別することで、領域抽出性能をさらに向上させることができる。   As described above, in the medical image processing apparatus 100 according to the first embodiment of the present invention, the position information of the feature points analyzed by the feature point analysis unit 3 and the brightness information as the feature value analyzed by the brightness value analysis unit 4 Using the image case samples selected by the area extraction unit 6 to select the image example samples to which the region information of the target region is previously given as the atlas corresponding to the processed image as the medical image by the selection unit 5 Since the region of the target portion is extracted, the region extraction performance can be further improved by selecting the appropriate atlas (image example sample) using the information of the luminance value.

また、処理画像と各画像事例サンプルとの間で、特徴点位置や画像輝度値を直接的に比較することで、処理画像に適した画像事例サンプルを正しく選別することができる。さらに、輝度値解析を特徴点まわりに限定することで、計算を効率化することができる。また、輝度勾配を解析したり、ヒストグラム化したりすることで、実際の画像の個体差に起因する厳密な違いを吸収することができるため、頑健に類似度を求めることができる。   Further, by directly comparing the feature point position and the image luminance value between the processed image and each image example sample, an image example sample suitable for the processed image can be correctly sorted. Furthermore, the calculation can be made more efficient by limiting the luminance value analysis around the feature points. Also, by analyzing the luminance gradient or converting it into a histogram, it is possible to absorb the strict difference due to the individual difference of the actual image, so that the similarity can be determined robustly.

実施の形態2.
実施の形態1では、医用画像としての処理対象と画像事例サンプルを個別に比較した場合を示したが、実施の形態2では、画像事例サンプルをグループ化して比較する場合について示す。
Second Embodiment
The first embodiment shows the case where the processing target as a medical image and the image case sample are individually compared, but the second embodiment shows a case where image case samples are grouped and compared.

図3は、この発明の実施の形態2による医用画像処理装置101の構成を示すブロック図である。図3に示すように、医用画像処理装置101では、実施の形態1の医用画像処理装置100の構成に加えて、クラスタリング手段7を備える。医用画像処理装置101のその他の構成については、実施の形態1の医用画像処理装置100と同様であり、対応する部分には同符号を付してその説明を省略する。   FIG. 3 is a block diagram showing the configuration of a medical image processing apparatus 101 according to a second embodiment of the present invention. As shown in FIG. 3, the medical image processing apparatus 101 includes a clustering unit 7 in addition to the configuration of the medical image processing apparatus 100 of the first embodiment. The other configuration of the medical image processing apparatus 101 is the same as that of the medical image processing apparatus 100 according to the first embodiment, and the corresponding parts are denoted by the same reference numerals and the description thereof will be omitted.

クラスタリング手段7は、特徴点解析手段3と輝度値解析手段4の結果を受け、複数の画像事例サンプル間において特徴点位置や画像輝度値を比較し、画像事例サンプルの類似したもの同士をグループ化する。例えば、各画像事例サンプル間において、特徴点の位置合わせを行い、その誤差が少なく、かつ、特徴量の類似度が高いもの同士をグループ化する。また、特徴点ごとに特徴量が記述できている場合には、各画像事例サンプル間で特徴点の対応付けを行い、対応付けができた数の多さによってグループ化してもよい。具体的なクラスタリング手法には、k−means法(J. MacQueen, “Some Methods for Classification and Analysis of Multivariate Observations”, Proc. of 5th Berkeley Symposium on Mathematical Statistics and Probability, Univ. of California Press, pp. 281-297, 1967.を参照のこと)などを用いればよい。また、クラスタリング手段7は、グループ化後に、各グループを代表するサンプルを1つずつ選択しておく。   The clustering means 7 receives the results of the feature point analysis means 3 and the luminance value analysis means 4, compares feature point positions and image luminance values among a plurality of image example samples, and groups similar ones of the image example samples. Do. For example, alignment of feature points is performed between image case samples, and those having a small error and high similarity of feature amounts are grouped. In addition, when the feature amount can be described for each feature point, the feature points may be associated between the respective image example samples, and grouping may be performed according to the number of the matched cases. Specific clustering methods include the k-means method (J. MacQueen, “Some Methods for Classification and Analysis of Multivariate Observations”, Proc. Of 5th Berkeley Symposium on Mathematical Statistics and Probability, Univ. Of California Press, pp. 281. -297, 1967.) or the like may be used. Further, the clustering means 7 selects one sample representative of each group after grouping.

選別手段5は、処理画像と、上記各グループを代表する画像事例サンプルとの間で、特徴点解析手段3と輝度値解析手段4で得られた情報から処理画像に最も類似したグループを1つ選別する。   The sorting unit 5 selects one of the groups most similar to the processed image from the information obtained by the feature point analysis unit 3 and the luminance value analysis unit 4 between the processed image and the image example samples representing the respective groups. Sort out.

領域抽出手段6は、選別されたグループに属する画像事例サンプルを用いて処理画像から対象部位の領域を抽出する。例えば、選別されたグループに属する画像事例サンプルのそれぞれにおいて、画像事例サンプルに付与されている対象領域情報を初期値として、処理画像からの領域抽出を行う。選別されたグループに属するサンプルで個別に領域抽出を行った後、その結果を合成することで最終結果とする。合成処理には、論理積、論理輪、平均化の処理などを用いればよい。あるいは、選別されたグループに含まれる画像事例サンプルの対象領域を先に合成して、処理画像における領域を抽出してもよい。   Region extraction means 6 extracts the region of the target region from the processed image using the image case samples belonging to the selected group. For example, in each of the image example samples belonging to the selected group, area extraction from the processed image is performed with the target area information assigned to the image example samples as an initial value. After region extraction is individually performed on samples belonging to the selected group, the results are combined to obtain the final result. For the combining process, a logical product, a logical ring, an averaging process, etc. may be used. Alternatively, the target regions of the image case samples included in the selected group may be combined first to extract regions in the processed image.

次に、この発明の実施の形態2による医用画像処理装置101の動作について説明する。図4は、医用画像処理装置101の動作を説明するためのフローチャート図である。ステップS401からステップS403までは、実施の形態1におけるステップS201からステップS203と同様である。   Next, the operation of the medical image processing apparatus 101 according to the second embodiment of the present invention will be described. FIG. 4 is a flowchart for explaining the operation of the medical image processing apparatus 101. Steps S401 to S403 are the same as steps S201 to S203 in the first embodiment.

ステップS404では、クラスタリング手段7により、特徴点解析手段3と輝度値解析手段4の結果を受け、サンプル画像入力手段2で入力された複数の画像事例サンプル間において特徴点位置や画像輝度値を比較し、画像事例サンプルの類似したもの同士をグループ化する。ステップS405からステップS407は、実施の形態1におけるステップS204からステップS206と同様である。   In step S404, the clustering unit 7 receives the results of the feature point analysis unit 3 and the luminance value analysis unit 4 and compares feature point positions and image luminance values among a plurality of image example samples input by the sample image input unit 2 And group similar image case samples together. Steps S405 to S407 are similar to steps S204 to S206 in the first embodiment.

ステップS408では、選別手段5により、処理画像入力手段1で入力された処理画像と、サンプル画像入力手段2で入力された各画像事例サンプルのうち各グループを代表する画像事例サンプルとの間で、特徴点解析手段と輝度値解析手段で得られた情報から処理画像に最も類似したグループを1つ選別する。   In step S408, the processing unit 5 selects between the processed image input by the processed image input unit 1 and the image example samples representing each group among the image example samples input by the sample image input unit 2; From the information obtained by the feature point analysis means and the luminance value analysis means, one group most similar to the processed image is selected.

最後に、ステップS409において、領域抽出手段6により、選別されたグループに属する画像事例サンプルを用いて処理画像から対象部位の領域を抽出する。   Finally, in step S409, the region extraction unit 6 extracts the region of the target region from the processed image using the image case samples belonging to the selected group.

このように、複数の画像事例サンプル間において特徴点位置や画像輝度値を比較し、その結果をもとに画像事例サンプルをグループ化しておくクラスタリング手段を備えることにより、事前にグループ化しておくことで、選別手段における計算を効率化することができる。   Thus, grouping is performed in advance by providing a clustering unit that compares feature point positions and image luminance values among a plurality of image example samples and groups the image example samples based on the results. The calculation in the sorting means can be made more efficient.

以上のように、この発明の実施の形態2における医用画像処理装置101では、特徴点解析手段3により解析された特徴点の位置情報と輝度値解析手段4により解析された特徴量としての輝度情報に基づき、クラスタリング手段7によりアトラスとして対象部位の領域情報があらかじめ付与された画像事例サンプルのうち類似したもの同士をグループ化するとともに、選別手段5により医用画像としての処理画像に対応する、最も類似した画像事例サンプルのグループを選別し、領域抽出手段6により選別された画像事例サンプルのグループを用いて対象部位の領域を抽出するようにしたので、実施の形態1での効果を発揮できるだけでなく、事前にグループ化しておくことで、選別手段における計算を効率化することができる。   As described above, in the medical image processing apparatus 101 according to the second embodiment of the present invention, position information of feature points analyzed by the feature point analysis unit 3 and luminance information as a feature amount analyzed by the luminance value analysis unit 4 Based on the above, the clustering unit 7 groups similar ones among the image case samples to which area information of the target site is given in advance as an atlas as the atlas, and the sorting unit 5 corresponds to the processed image as a medical image. The group of selected image example samples is selected, and the area of the target portion is extracted using the group of image example samples selected by the area extraction means 6. Therefore, not only the effects of Embodiment 1 can be exhibited. By grouping in advance, the calculation in the sorting means can be made more efficient.

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。   In the present invention, within the scope of the invention, each embodiment can be freely combined, or each embodiment can be appropriately modified or omitted.

1 処理画像入力手段、2 サンプル画像入力手段、3 特徴点解析手段、4 輝度値解析手段、5 選別手段、6 領域抽出手段、7 クラスタリング手段、100、101 医用画像処理装置 Reference Signs List 1 processed image input means, 2 sample image input means, 3 feature point analysis means, 4 luminance value analysis means, 5 selection means, 6 area extraction means, 7 clustering means, 100, 101 medical image processing apparatus

Claims (8)

処理画像を入力する処理画像入力手段と、
対象部位の領域情報があらかじめ付与されたサンプル画像を複数入力するサンプル画像入力手段と、
前記処理画像および前記サンプル画像の特徴点位置を解析する特徴点解析手段と、
前記処理画像および前記サンプル画像の輝度値を解析する輝度値解析手段と、
前記特徴点解析手段により解析された特徴点の位置情報と前記輝度値解析手段により解析された輝度値の情報に基づき、前記処理画像に対応する前記サンプル画像を選別する選別手段と
を備えたことを特徴とする医用画像処理装置。
Processed image input means for inputting a processed image;
Sample image input means for inputting a plurality of sample images to which region information of a target region is given in advance;
Feature point analysis means for analyzing feature point positions of the processed image and the sample image;
Luminance value analysis means for analyzing the luminance values of the processed image and the sample image;
A sorting unit for sorting the sample image corresponding to the processed image based on position information of the feature point analyzed by the feature point analysis unit and information of a luminance value analyzed by the luminance value analysis unit; Medical image processing apparatus characterized by
選別された前記サンプル画像を用いて前記処理画像から対象部位の領域を抽出する領域抽出手段を備えたことを特徴とする請求項1に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, further comprising a region extraction unit that extracts a region of a target region from the processed image using the selected sample image. 前記特徴点の位置情報と前記輝度値の情報に基づき、前記サンプル画像をグループ化しておくクラスタリング手段を備え、
前記クラスタリング手段によりグループ化された前記サンプル画像のグループから、前記処理画像に対応する前記サンプル画像のグループを選別し、選別された前記サンプル画像のグループを用いて前記処理画像から対象部位の領域を抽出することを特徴とする請求項2に記載の医用画像処理装置。
A clustering unit that groups the sample images based on position information of the feature points and information of the luminance value;
The group of sample images corresponding to the processed image is sorted out from the group of sample images grouped by the clustering means, and the region of the target region is selected from the processed image using the sorted group of sample images The medical image processing apparatus according to claim 2, characterized by extracting.
前記領域抽出手段は、前記選別手段で選別されたグループに含まれる前記サンプル画像ごとに前記処理画像から対象部位の領域を抽出して、合成することを特徴とする請求項3に記載の医用画像処理装置。   The medical image according to claim 3, wherein the region extraction unit extracts a region of a target region from the processed image for each of the sample images included in the group selected by the selection unit, and combines the regions. Processing unit. 前記合成は、平均化の処理であることを特徴とする請求項4に記載の医用画像処理装置。   The medical image processing apparatus according to claim 4, wherein the combination is an averaging process. 前記輝度値解析手段は、特徴点周辺の輝度値を解析することを特徴とする請求項1から5のいずれか1項に記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 5, wherein the luminance value analysis unit analyzes the luminance value around the feature point. 前記輝度値解析手段は、輝度勾配を解析することを特徴とする請求項1から6のいずれか1項に記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 6, wherein the luminance value analysis unit analyzes a luminance gradient. 前記輝度値解析手段は、輝度値または輝度勾配のヒストグラムを解析することを特徴とする請求項1から7のいずれか1項に記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 7, wherein the brightness value analysis unit analyzes a brightness value or a histogram of a brightness gradient.
JP2016081648A 2016-04-15 2016-04-15 Medical image processing apparatus Pending JP2019103531A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016081648A JP2019103531A (en) 2016-04-15 2016-04-15 Medical image processing apparatus
PCT/JP2016/087582 WO2017179242A1 (en) 2016-04-15 2016-12-16 Medical image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016081648A JP2019103531A (en) 2016-04-15 2016-04-15 Medical image processing apparatus

Publications (1)

Publication Number Publication Date
JP2019103531A true JP2019103531A (en) 2019-06-27

Family

ID=60041641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016081648A Pending JP2019103531A (en) 2016-04-15 2016-04-15 Medical image processing apparatus

Country Status (2)

Country Link
JP (1) JP2019103531A (en)
WO (1) WO2017179242A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0917154D0 (en) * 2009-09-30 2009-11-11 Imp Innovations Ltd Method and apparatus for processing medical images
US9818200B2 (en) * 2013-11-14 2017-11-14 Toshiba Medical Systems Corporation Apparatus and method for multi-atlas based segmentation of medical image data

Also Published As

Publication number Publication date
WO2017179242A1 (en) 2017-10-19

Similar Documents

Publication Publication Date Title
US8885926B2 (en) Image and data segmentation
US8351676B2 (en) Digital image analysis using multi-step analysis
Chang et al. Nuclear segmentation in H&E sections via multi-reference graph cut (MRGC)
CN111145209A (en) Medical image segmentation method, device, equipment and storage medium
Hsiao et al. A contour based image segmentation algorithm using morphological edge detection
KR101618996B1 (en) Sampling method and image processing apparatus for estimating homography
Sonawane et al. A brief survey on image segmentation methods
Valliammal et al. A novel approach for plant leaf image segmentation using fuzzy clustering
Kansal et al. Automatic seed selection algorithm for image segmentation using region growing
Kshirsagar et al. Plant disease detection in image processing using MATLAB
Xing et al. Machine learning and its application in microscopic image analysis
Wang et al. Dermoscopic image segmentation through the enhanced high-level parsing and class weighted loss
Katkar et al. A novel approach for medical image segmentation using PCA and K-means clustering
Huang et al. Affine-consistent transformer for multi-class cell nuclei detection
CN110647889A (en) Medical image recognition method, medical image recognition apparatus, terminal device, and medium
Ghita et al. Automatic segmentation of mitochondria in EM data using pairwise affinity factorization and graph-based contour searching
Huang et al. Segmentation and tracking of lymphocytes based on modified active contour models in phase contrast microscopy images
Hossain et al. Renal cell cancer nuclei segmentation from histopathology image using synthetic data
Dinç et al. Super-thresholding: Supervised thresholding of protein crystal images
Farag et al. Automatic pancreas segmentation using coarse-to-fine Superpixel labeling
Prasad et al. Detection of disease using block-based unsupervised natural plant leaf color image segmentation
Patil et al. Brain Tumor Levels Detection in Three Dimensional MRI using Machine Learning and MapReduce.
Yancey Deep Feature Fusion for Mitosis Counting
JP2019103531A (en) Medical image processing apparatus
Ejaz et al. Confidence region identification and contour detection in MRI image