WO2012046451A1 - 医用画像処理装置、及び医用画像処理プログラム - Google Patents

医用画像処理装置、及び医用画像処理プログラム Download PDF

Info

Publication number
WO2012046451A1
WO2012046451A1 PCT/JP2011/005628 JP2011005628W WO2012046451A1 WO 2012046451 A1 WO2012046451 A1 WO 2012046451A1 JP 2011005628 W JP2011005628 W JP 2011005628W WO 2012046451 A1 WO2012046451 A1 WO 2012046451A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
medical image
feature point
unit
specifying
Prior art date
Application number
PCT/JP2011/005628
Other languages
English (en)
French (fr)
Inventor
達也 木本
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Priority to US13/497,413 priority Critical patent/US8655072B2/en
Priority to CN201180002827.0A priority patent/CN102573640B/zh
Publication of WO2012046451A1 publication Critical patent/WO2012046451A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams

Definitions

  • Embodiments described herein relate generally to a medical image processing apparatus and a medical image processing program.
  • a medical image is acquired by using a medical image photographing apparatus such as an X-ray CT apparatus or an MRI apparatus, and a diagnosis using the medical image is performed.
  • a medical image photographing apparatus such as an X-ray CT apparatus or an MRI apparatus
  • a diagnosis using the medical image is performed.
  • pulmonary emphysema is diagnosed using medical images.
  • As a method for specifying (extracting) a lung field region from a medical image there is a region growing method.
  • the region expansion method is a method of determining one pixel in a region to be extracted and successively extracting pixels regarded as being in the region with the pixel as a starting point (seed point).
  • an observer determines one pixel in the lung field region by visual inspection with reference to a medical image. For example, an observer visually confirms a coronal image or an axial image showing the chest and determines one pixel in the lung field region.
  • the determination takes time.
  • the diagnosis speed decreases, and as a result, the diagnosis time becomes longer.
  • the reproducibility of the determination may be reduced.
  • the judgment may change between observers, and even the same observer may change the judgment over time. Thus, there is a possibility that the judgment may change between the observers and within the observers.
  • This embodiment is intended to provide a medical image processing apparatus and a medical image processing program that can automatically identify a target organ from a medical image.
  • the medical image processing apparatus includes a first extracting unit, an adding unit, a first specifying unit, and a second specifying unit.
  • the first extraction unit receives volume data representing a region including the target organ and extracts an air region from the volume data.
  • the adding means generates projection image data representing the distribution of the added value of the pixel value by adding the pixel value of each pixel in the air region in the volume data along a predetermined projection direction.
  • the first specifying unit specifies the first feature point from the projection image data.
  • the second specifying means specifies a point on a line passing through the first feature point in the air region as the second feature point.
  • the medical image processing apparatus will be described with reference to FIG.
  • the medical image processing apparatus 1 according to this embodiment is connected to a medical image photographing apparatus 90, for example.
  • An imaging apparatus such as an X-ray CT apparatus or an MRI apparatus is used for the medical image capturing apparatus 90.
  • the medical image photographing apparatus 90 generates medical image data representing a subject by photographing the subject.
  • the medical image photographing apparatus 90 generates volume data representing a three-dimensional photographing region by photographing a three-dimensional photographing region.
  • an X-ray CT apparatus as the medical image capturing apparatus 90 generates CT image data in a plurality of cross sections having different positions by capturing a three-dimensional capturing region.
  • the X-ray CT apparatus generates volume data using a plurality of CT image data.
  • the medical image photographing device 90 outputs the volume data to the medical image processing device 1.
  • the medical image photographing apparatus 90 photographs a target organ such as the lung, large intestine, or stomach, and acquires volume data representing a region including the target organ.
  • a target organ such as the lung, large intestine, or stomach
  • volume data representing a region including the target organ is acquired.
  • the medical image processing apparatus 1 includes an image storage unit 2, a first extraction unit 3, an addition unit 4, a first specification unit 5, a linear region calculation unit 6, a second specification unit 7, It has the 2nd extraction part 8, the image generation part 9, the display control part 10, and the display part 11.
  • FIG. 1 An image storage unit 2, a first extraction unit 3, an addition unit 4, a first specification unit 5, a linear region calculation unit 6, a second specification unit 7, It has the 2nd extraction part 8, the image generation part 9, the display control part 10, and the display part 11.
  • the image storage unit 2 stores volume data generated by the medical image photographing apparatus 90.
  • the medical image processing apparatus 1 may generate volume data without the medical image capturing apparatus 90 generating volume data.
  • the medical image processing apparatus 1 receives a plurality of medical image data (for example, CT image data) generated by the medical image photographing apparatus 90, and generates volume data based on the plurality of medical image data.
  • the image storage unit 2 stores the volume data generated by the medical image processing apparatus 1.
  • the first extraction unit 3 reads the volume data from the image storage unit 2 and extracts a low pixel value region (air region) from the volume data by threshold processing. For example, the first extraction unit 3 extracts a low pixel value region by binarization processing. Specifically, the first extraction unit 3 sets a region where pixel values such as CT values and luminance values are equal to or lower than a preset threshold value as a density value “1”, and sets a region where the pixel value is greater than the threshold value as a density value. By setting the value to “0”, a region (air region) with a low pixel value (for example, CT value) is extracted. The pixel value may be a CT value or a luminance value. Note that the threshold processing range is within the body surface.
  • FIG. 2 shows the extraction result.
  • a low pixel value region 100 shown in FIG. 2 is a three-dimensional region extracted from the volume data by the first extraction unit 3.
  • the low pixel value region 100 corresponds to, for example, an air region.
  • the addition unit 4 generates projection image data representing the distribution of the addition values of the pixel values by adding the pixel values of the respective pixels in the low pixel value region of the volume data along a predetermined projection direction.
  • a coronal plane, an axial plane, and a sagittal plane that are orthogonal to each other are defined.
  • An axis orthogonal to the coronal plane is defined as the Y axis
  • an axis orthogonal to the axial plane is defined as the Z axis
  • an axis orthogonal to the sagittal plane is defined as the X axis.
  • the Z axis corresponds to the body axis of the subject.
  • the adding unit 4 adds a pixel value of each pixel on each coronal plane along the projection direction (Y axis direction) orthogonal to the coronal plane, with the direction orthogonal to the coronal plane (Y axis direction) as the projection direction.
  • projection image data representing the distribution of the added value of the pixel values is generated.
  • This projection image data is image data obtained by adding and projecting a low pixel value region in each coronal plane onto a plane parallel to the coronal plane.
  • FIG. 3 shows an example of the projected image.
  • the processing of the adding unit 4 described above can also be described as follows. Projection is performed by fixing the x coordinate and the z coordinate at a certain coordinate (x, y, z), and using the sum of the pixel values of all the pixels in the y coordinate as the pixel value of each pixel on the xz plane (coronal plane). Let it be image data.
  • Mask (x, y, z) is a pixel value of each pixel in the low pixel value region.
  • a projected image 200 shown in FIG. 3 is an image corresponding to Map (x, z) in Expression (1).
  • the first specifying unit 5 specifies a first feature point from the projection image data. Specifically, the first specifying unit 5 sets the pixel having the maximum addition value (pixel value) among the pixels of the projection image data as the first feature point.
  • FIG. 4 shows the projection image and the first feature point.
  • the first specifying unit 5 specifies the pixel (x m , z m ) having the maximum added value as the first feature point 210 in the projection image 200. This means that the pixel having the maximum addition value in the projection image 200 is highly likely to be a pixel in the lung field region. Therefore, in this embodiment, the pixel having the maximum addition value is specified in the projection image data.
  • the first specifying unit 5 divides the projection image 200 at the center in the X-axis direction, and the addition value is maximized for the projection image included in one region.
  • a pixel may be specified. That is, the first specifying unit 5 may treat each of the right and left lungs as separate processing targets with the center in the X-axis direction in between. In this case, the first specifying unit 5 specifies the pixel having the maximum addition value in the right lung as the first feature point in the right lung, and the addition value is maximum in the left lung. The pixel is identified as the first feature point in the left lung. The first specifying unit 5 may specify the first feature point for only the right lung portion or only the left lung portion, or each first feature point for both lung portions. May be specified.
  • the operator may specify the right lung portion or the left lung portion by an operation unit (not shown).
  • the pixel having the maximum addition value (pixel value) is set as the first feature point, the present invention is not limited to this, and a pixel having an addition value within a range lower than the maximum value by the predetermined value is set as the first feature point. It is good.
  • the linear region calculation unit 6 obtains a linear region that passes through the first feature point and extends along the projection direction described above. That is, the linear region calculation unit 6 obtains a linear region by back-projecting the coordinates (x m , z m ) of the first feature point into the original three-dimensional space along the projection direction. In this embodiment, as an example, the linear region calculation unit 6 performs back projection onto the original three-dimensional space along the projection direction (Y-axis direction) through the first feature point.
  • the position of the linear region is represented by a coordinate group (x m , y i , z m ).
  • FIG. 5 shows a low pixel value region and a linear region.
  • FIG. 5 shows a low pixel value region 300 on the axial plane.
  • the linear region 310 passes through the coordinates (x m , z m ) of the first feature point and is represented by a coordinate group (x m , y i , z m ).
  • the coordinate (x m , z m ) of the pixel having the maximum value in the projection image 200 is 3
  • the coordinate (x m , z m ) of the pixel having the maximum value in the projection image 200 is 3
  • one pixel in the lung field region exists in the linear region (coordinate group (x m , y i , z m )) projected onto the dimensional space.
  • the second specifying unit 7 obtains a point on the linear region as the second feature point in the low pixel value region. Specifically, the second specifying unit 7 obtains an intersection (x, y, z) between the linear region and the outline of the low pixel value region, and defines the intersection as a second feature point. For example, as illustrated in FIG. 6, the second specifying unit 7 obtains an intersection 320 between the outline of the low pixel value region 300 and the linear region 310. Since this intersection 320 is likely to be in the lung field region in the low pixel value region 300, the pixel at this intersection 320 is defined as a pixel (second feature point) in the lung field region.
  • the second specifying unit 7 outputs coordinate information indicating the coordinates (x, y, z) of the second feature point to the display control unit 10.
  • the outline of the low pixel value region 300 and the linear region 310 intersect at two intersections (intersection 320 and intersection 321).
  • the second specifying unit 7 sets any one of the intersections as the second feature point.
  • the operator may designate one intersection from a plurality of intersections using an operation unit (not shown).
  • the display control unit 10 to be described later may display a mark representing the second feature point on the medical image on the display unit 11 and the operator may specify a desired intersection using the operation unit.
  • the second specifying unit 7 may use an arbitrary point on the linear region as the second feature point in the low pixel value region.
  • the point on the line passing through the first feature point and extending in the projection direction is specified as the second feature point, but the line for specifying the second feature point is not limited to the one extending in the projection direction. That is, a point on a line passing through the first feature point may be specified as the second feature point.
  • the second extraction unit 8 extracts a lung field region from the volume data using, for example, a region expansion method.
  • the second extraction unit 8 receives the coordinates (x, y, z) of the second feature point from the second specifying unit 7 and reads the volume data from the image storage unit 2. Then, the second extraction unit 8 extracts, from the volume data, a pixel that can be regarded as a lung field region by using the second feature point as a start point (seed point) of the region expansion method.
  • the second extraction unit 8 outputs lung field region image data representing the lung field region image to the display control unit 10.
  • the image generation unit 9 reads volume data from the image storage unit 2 and performs volume rendering on the volume data to generate 3D image data.
  • the image generation unit 9 may generate image data (MPR image data) in an arbitrary cross section by performing MPR processing (Multi Planar Reconstruction) on the volume data.
  • the image generation unit 9 outputs medical image data such as 3D image data and MPR image data to the display control unit 10.
  • the display control unit 10 receives the medical image data from the image generation unit 9 and causes the display unit 11 to display a medical image based on the medical image data. Further, the display control unit 10 may receive the coordinate information of the second feature point from the second specifying unit 7 and cause the display unit 11 to display a mark representing the second feature point on the medical image. . 7 and 8 show examples of medical images. For example, as illustrated in FIG. 7, the display control unit 10 causes the display unit 11 to display a mark 410 representing the second feature point on the axial image 400. In addition, as shown in FIG. 8, the display control unit 10 may display a mark 510 representing the second feature point on the coronal image 500 on the display unit 11. When there are a plurality of second feature points, the display control unit 10 may cause the display unit 11 to display a mark representing each of the plurality of second feature points on the medical image.
  • the display control unit 10 may receive the lung field region image data representing the lung field region image from the second extraction unit 8 and cause the display unit 11 to display the image representing the lung field region.
  • the display unit 11 includes a monitor such as a CRT or a liquid crystal display.
  • the display unit 11 displays a medical image, a lung field region, and the like.
  • Each of the ten functions may be executed by a program.
  • Each unit 10 may be configured by a processing device (not shown) such as a CPU, GPU, or ASIC, and a storage device (not shown) such as a ROM, RAM, or HDD.
  • the storage device executes the first extraction program for executing the function of the first extraction unit 3, the addition program for executing the function of the addition unit 4, and the function of the first specifying unit 5.
  • An image generation program for executing the function of the generation unit 9 and a display control program for executing the function of the display control unit 10 are stored.
  • a processing device such as a CPU executes functions of each unit by executing each program stored in the storage unit.
  • the first extraction program, the addition program, the first specific program, the linear region calculation program, and the second specific program constitute an example of a “medical image processing program”.
  • step S01 the first extraction unit 3 reads volume data from the image storage unit 2.
  • step S02 the first extraction unit 3 extracts a low pixel value region (air region) from the volume data by threshold processing.
  • step S03 the adding unit 4 adds the pixel values of each pixel in the low pixel value region of the volume data along a predetermined projection direction, thereby obtaining projection image data representing the distribution of the added value of the pixel values.
  • the adding unit 4 uses the direction orthogonal to the coronal plane (Y-axis direction) as the projection direction, and adds the pixel values of each pixel on each coronal plane along the projection direction (Y-axis direction), thereby Projection image data representing the distribution of the sum of values is generated.
  • step S04 the first specifying unit 5 sets the pixel having the maximum addition value (pixel value) among the pixels of the projection image data as the first feature point (x m , z m ).
  • step S05 the linear region calculation unit 6 performs back-projection on the coordinates (x m , z m ) of the first feature points in the original three-dimensional space along the projection direction (Y-axis direction). A region (x m , y i , z m ) is obtained. That is, the linear region calculation unit 6 obtains a linear region that passes through the first feature point and extends along the projection direction.
  • step S06 the second specifying unit 7 obtains an intersection (x, y, z) between the low pixel value region and the linear region, and defines the intersection as a second feature point. Since there is a high possibility that this intersection point is in the lung field region in the low pixel value region, the pixel at this intersection point is defined as a pixel (second feature point) in the lung field region.
  • step S07 the image generation unit 9 reads volume data from the image storage unit 2 and generates medical image data based on the volume data.
  • the display control unit 10 causes the display unit 11 to display a mark representing the second feature point on the medical image.
  • the display control unit 10 causes the display unit 11 to display a mark representing the second feature point on the axial image or the coronal image.
  • step S08 the second extraction unit 8 reads the volume data from the image storage unit 2, and uses the second feature point (x, y, z) as the start point (seed point) of the region expansion method. Pixels that can be considered to be extracted from the volume data.
  • step S09 the display control unit 10 causes the display unit 11 to display an image representing the extracted lung field region.
  • step S07 and the process of step S08 may be reversed, or may be performed simultaneously.
  • the process of step S08 and step S09 may be performed without performing the process of step S07, and the process of step S07 may be performed without performing the process of step S08 and step 09.
  • the medical image processing apparatus 1 it is possible to automatically determine one pixel (second feature point) included in the lung field region. Therefore, it is possible to automatically extract the lung field region. As a result, it is possible to save the trouble of visually determining one pixel included in the lung field region, and it is possible to shorten the diagnosis time.
  • the reproducibility for specifying one pixel (second feature point) is higher than that of visual observation.
  • the reproducibility of extracting the lung field region is also high, the same region can be extracted anatomically, which may be useful for the diagnosis of the prognosis.
  • one pixel (second feature point) included in the lung field region can be automatically determined, it is possible to reduce errors between the observers and errors within the observers. In this way, diagnosis can be supported without depending on the experience of the observer.
  • the case of extracting a lung field region has been described.
  • the region such as the large intestine or stomach can be extracted by executing the above-described processing. Can do.
  • the medical image photographing apparatus 90 may have the function of the medical image processing apparatus 1.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Computer Graphics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 医用画像から観察領域を自動的に特定することが可能な医用画像処理装置を提供する。 この実施形態に係る医用画像処理装置は、第1の抽出部3と、加算部4と、第1の特定部5と、第2の特定部7と、を有する。第1の抽出部3は、注目臓器を含む領域を表すボリュームデータを受けて、ボリュームデータから空気領域を抽出する。加算部4は、ボリュームデータの各画素の画素値を所定の投影方向に沿って加算することにより、画素値の加算値の分布を表す投影画像データを生成する。第1の特定部5は、投影画像データから第1の特徴点を特定する。第2の特定部7は、空気領域において第1の特徴点を通る線上の点を第2の特徴点として特定する。

Description

医用画像処理装置、及び医用画像処理プログラム
 この発明の実施形態は、医用画像処理装置及び医用画像処理プログラムに関する。
 X線CT装置やMRI装置などの医用画像撮影装置を用いて医用画像を取得し、その医用画像を用いた診断が行われている。例えば医用画像を用いて肺気腫の診断が行われている。医用画像を用いた肺気腫の診断では、医用画像から肺野領域を特定(抽出)する必要がある。医用画像から肺野領域を特定(抽出)する手法として、領域拡張(region growing)法がある。領域拡張法は、抽出したい領域内にある1画素を決定し、その画素を開始点(シード点)として、領域内とみなされる画素を次々と抽出する方法である。このように領域拡張法では、抽出すべき領域(例えば肺野領域)内にある1画素が特定されればよい。従来においては、観察者が医用画像を参照して目視によって肺野領域内にある1画素を決定していた。例えば、胸部が表されたコロナル像やアキシャル像を観察者が目視で確認し、肺野領域内にある1画素を決定していた。
特開2010-167067号公報
 しかしながら、観察者が目視によって肺野領域内にある1画素を決定する場合、その決定に手間がかかってしまう。また、観察者が目視で1画素を決定するため、診断の速さが低下し、その結果、診断時間が長くなってしまう。また、観察者が1画素を決定するため、その決定の再現性が低くなるおそれがある。また、観察者間で判断が変わってしまったり、同じ観察者であっても時間が経過すると判断が変わってしまったりするおそれがある。このように、観察者間及び観察者内において判断が変わってしまうおそれがある。
 この実施形態は、医用画像から注目臓器を自動的に特定することが可能な医用画像処理装置、及び医用画像処理プログラムを提供することを目的とする。
 この実施形態に係る医用画像処理装置は、第1の抽出手段と、加算手段と、第1の特定手段と、第2の特定手段と、を有する。第1の抽出手段は、注目臓器を含む領域を表すボリュームデータを受けて、ボリュームデータから空気領域を抽出する。加算手段は、ボリュームデータのうち前記空気領域内の各画素の画素値を所定の投影方向に沿って加算することにより、画素値の加算値の分布を表す投影画像データを生成する。第1の特定手段は、投影画像データから第1の特徴点を特定する。第2の特定手段は、空気領域において第1の特徴点を通る線上の点を第2の特徴点として特定する。
この実施形態に係る医用画像処理装置のブロック図である。 低画素値領域を示す図である。 投影画像を示す図である。 投影画像を示す図である。 低画素値領域と線状領域とを示す図である。 低画素値領域と線状領域とを示す図である。 医用画像を示す図である。 医用画像を示す図である。 この実施形態に係る医用画像処理装置の動作を示すフローチャートである。
 図1を参照して、この実施形態に係る医用画像処理装置について説明する。この実施形態に係る医用画像処理装置1は、例えば医用画像撮影装置90に接続されている。
 医用画像撮影装置90には、X線CT装置やMRI装置などの撮影装置が用いられる。医用画像撮影装置90は、被検体を撮影することで被検体を表す医用画像データを生成する。例えば医用画像撮影装置90は、3次元の撮影領域を撮影することで3次元の撮影領域を表すボリュームデータを生成する。例えば医用画像撮影装置90としてのX線CT装置は、3次元の撮影領域を撮影することにより、位置がそれぞれ異なる複数の断面におけるCT画像データを生成する。X線CT装置は、複数のCT画像データを用いてボリュームデータを生成する。医用画像撮影装置90は、ボリュームデータを医用画像処理装置1に出力する。この実施形態では医用画像撮影装置90によって、肺、大腸、又は胃などの注目臓器を撮影し、注目臓器を含む領域を表すボリュームデータを取得する。一例として医用画像撮影装置90によって被検体の胸部を撮影し、肺野領域を含む領域を表すボリュームデータを取得した場合について説明する。
 医用画像処理装置1は、画像記憶部2と、第1の抽出部3と、加算部4と、第1の特定部5と、線状領域算出部6と、第2の特定部7と、第2の抽出部8と、画像生成部9と、表示制御部10と、表示部11とを有する。
 画像記憶部2は、医用画像撮影装置90によって生成されたボリュームデータを記憶する。なお、医用画像撮影装置90がボリュームデータを生成せずに、医用画像処理装置1がボリュームデータを生成してもよい。この場合、医用画像処理装置1は、医用画像撮影装置90によって生成された複数の医用画像データ(例えばCT画像データ)を受けて、複数の医用画像データに基づいてボリュームデータを生成する。この場合、画像記憶部2は、医用画像処理装置1によって生成されたボリュームデータを記憶する。
 第1の抽出部3はボリュームデータを画像記憶部2から読み込み、閾値処理によってボリュームデータから低画素値領域(空気領域)を抽出する。例えば、第1の抽出部3は、2値化処理によって低画素値領域を抽出する。具体的には、第1の抽出部3は、CT値や輝度値などの画素値が予め設定された閾値以下となる領域を濃度値「1」とし、画素値が閾値より大きくなる領域を濃度値「0」とすることにより、画素値(例えばCT値)が低い領域(空気領域)を抽出する。画素値はCT値であってもよいし、輝度値であってもよい。なお、閾値処理の範囲は体表内とする。図2に抽出結果を示す。図2に示す低画素値領域100は、第1の抽出部3によってボリュームデータから抽出された3次元領域である。この低画素値領域100は、例えば空気領域に相当する。
 加算部4は、ボリュームデータのうち低画素値領域内の各画素の画素値を所定の投影方向に沿って加算することにより、画素値の加算値の分布を表す投影画像データを生成する。ここで、互いに直交するコロナル面、アキシャル面、及びサジタル面を定義する。また、コロナル面に直交する軸をY軸とし、アキシャル面に直交する軸をZ軸とし、サジタル面に直交する軸をX軸とする。Z軸は被検体の体軸に相当する。加算部4は、例えばコロナル面に直交する方向(Y軸方向)を投影方向とし、各コロナル面における各画素の画素値をコロナル面に直交する投影方向(Y軸方向)に沿って加算することにより、画素値の加算値の分布を表す投影画像データを生成する。この投影画像データは、コロナル面に平行な平面に各コロナル面における低画素値領域が加算投影された画像データである。
 図3に投影画像の一例を示す。上述した加算部4の処理は、次のように説明することもできる。ある座標(x、y、z)においてx座標とz座標とを固定し、y座標におけるすべての画素の画素値の和を、xz平面(コロナル面)の各画素の画素値とすることにより投影画像データとする。
 投影画像データの各画素値Map(x,z)は、以下の式(1)で定義できる。
 式(1):Map(x,z)=ΣMask(x,y,z)
 ここで、Mask(x,y,z)は、低画素値領域内の各画素の画素値である。
 加算の範囲(yの範囲)は、一例としてi=1~512とする。すなわち、512枚のコロナル面について加算投影することにより投影画像データを生成する。
 図3に示す投影画像200が、式(1)のMap(x,z)に対応する画像である。
 第1の特定部5は、投影画像データから第1の特徴点を特定する。具体的には、第1の特定部5は、投影画像データの各画素のうち加算値(画素値)が最大となる画素を第1の特徴点とする。図4に、投影画像と第1の特徴点とを示す。第1の特定部5は、投影画像200において、加算値が最大となる画素(x,z)を第1の特徴点210として特定する。投影画像200において加算値が最大となる画素は、肺野領域内の画素である可能性が高いことを意味している。そのため、この実施形態では、投影画像データにおいて加算値が最大となる画素を特定する。
 なお、肺を対象として処理を行う場合、第1の特定部5は、X軸方向の中心で投影画像200を分割し、一方の領域に含まれる投影画像を対象にして加算値が最大となる画素を特定してもよい。すなわち、第1の特定部5は、X軸方向の中心を間にして右側の肺部及び左側の肺部のそれぞれを別々の処理対象としてもよい。この場合、第1の特定部5は、右側の肺部において加算値が最大となる画素を、右側の肺部における第1の特徴点として特定し、左側の肺部において加算値が最大となる画素を、左側の肺部における第1の特徴点として特定する。第1の特定部5は、右側の肺部のみ又は左側の肺部のみを対象として第1の特徴点を特定してもよいし、両側の肺部を対象にしてそれぞれの第1の特徴点を特定してもよい。例えば、操作者が図示しない操作部によって、右側の肺部又は左側の肺部を特定するようにしてもよい。なお、加算値(画素値)が最大となる画素を第1の特徴点としたが、これに限らず、その最大値から所定値だけ下回る範囲内の加算値を有する画素を第1の特徴点としてもよい。
 線状領域算出部6は、第1の特徴点を通り上述した投影方向に沿って延びる線状領域を求める。すなわち、線状領域算出部6は、第1の特徴点の座標(x,z)を、投影方向に沿って元の3次元空間に逆投影することにより線状領域を求める。この実施形態では一例として、線状領域算出部6は、第1の特徴点を通り投影方向(Y軸方向)に沿って元の3次元空間に逆投影する。線状領域の位置は座標群(x,yi,z)で表される。図5に低画素値領域と線状領域とを示す。図5には、アキシャル面における低画素値領域300が示されている。線状領域310は、第1の特徴点の座標(x,z)を通り、座標群(x,yi,z)で表される。上述したように投影画像200において加算値が最大となる画素は肺野領域内の画素である可能性が高いため、投影画像200において最大値を持つ画素の座標(x,z)を3次元空間に投影した線状領域(座標群(x,y,z))には、肺野領域内の1画素が存在している可能性が高い。
 第2の特定部7は、低画素値領域において線状領域上の点を第2の特徴点として求める。具体的には、第2の特定部7は、線状領域と低画素値領域の輪郭との交点(x,y,z)を求め、その交点を第2の特徴点として定義する。例えば図6に示すように、第2の特定部7は、低画素値領域300の輪郭と線状領域310との交点320を求める。この交点320は、低画素値領域300のなかで肺野領域内にある可能性が高いため、この交点320の画素を肺野領域内の画素(第2の特徴点)として定義する。第2の特定部7は、第2の特徴点の座標(x,y,z)を示す座標情報を表示制御部10に出力する。
 なお、図6に示す例では、低画素値領域300の輪郭と線状領域310とは2つの交点(交点320と交点321)で交差する。このように複数の交点がある場合には、第2の特定部7は、いずれか1つの交点を第2の特徴点とする。例えば、操作者が図示しない操作部を用いて、複数の交点から1つの交点を指定するようにしてもよい。後述する表示制御部10が、第2の特徴点を表すマークを医用画像に重ねて表示部11に表示させ、操作者が操作部を用いて所望の交点を指定すればよい。
 また、上述したように、低画素値領域において線状領域上の点は、肺野領域内の1画素が存在している可能性が高い。そのため、第2の特定部7は、低画素値領域において線状領域上の任意の点を第2の特徴点としてもよい。
 なお、第1の特徴点を通り投影方向に沿って延びる線上の点を第2の特徴点として特定したが、第2の特徴点を特定するための線は投影方向に延びるものに限定されない。すなわち、第1の特徴点を通る線上の点を第2の特徴点として特定すればよい。
 第2の抽出部8は、例えば領域拡張法を用いてボリュームデータから肺野領域を抽出する。この実施形態では、第2の抽出部8は、第2の特徴点の座標(x,y,z)を第2の特定部7から受け、ボリュームデータを画像記憶部2から読み込む。そして、第2の抽出部8は、第2の特徴点を領域拡張法の開始点(シード点)として、肺野領域とみなせる画素をボリュームデータから抽出する。第2の抽出部8は、肺野領域の画像を表す肺野領域画像データを表示制御部10に出力する。
 画像生成部9はボリュームデータを画像記憶部2から読み込み、そのボリュームデータにボリュームレンダリングを施すことにより3次元画像データを生成する。または、画像生成部9は、ボリュームデータにMPR処理(Multi Planar Reconstruction)を施すことにより、任意の断面における画像データ(MPR画像データ)を生成してもよい。画像生成部9は、3次元画像データやMPR画像データなどの医用画像データを表示制御部10に出力する。
 表示制御部10は、医用画像データを画像生成部9から受けて、医用画像データに基づく医用画像を表示部11に表示させる。また、表示制御部10は、第2の特徴点の座標情報を第2の特定部7から受けて、第2の特徴点を表すマークを医用画像に重ねて表示部11に表示させてもよい。図7及び図8に医用画像の一例を示す。例えば図7に示すように、表示制御部10は、第2の特徴点を表すマーク410をアキシャル像400に重ねて表示部11に表示させる。また、図8に示すように、表示制御部10は、第2の特徴点を表すマーク510をコロナル像500に重ねて表示部11に表示させてもよい。なお、第2の特徴点が複数ある場合、表示制御部10は複数の第2の特徴点のそれぞれを表すマークを、医用画像に重ねて表示部11に表示させてもよい。
 また、表示制御部10は、肺野領域の画像を表す肺野領域画像データを第2の抽出部8から受けて、肺野領域を表す画像を表示部11に表示させてもよい。
 表示部11は、CRTや液晶ディスプレイなどのモニタで構成されている。表示部11は、医用画像や肺野領域などを表示する。
 上述した第1の抽出部3、加算部4、第1の特定部5、線状領域算出部6、第2の特定部7、第2の抽出部8、画像生成部9、及び表示制御部10のそれぞれの機能は、プログラムによって実行されてもよい。一例として、第1の抽出部3、加算部4、第1の特定部5、線状領域算出部6、第2の特定部7、第2の抽出部8、画像生成部9、及び表示制御部10はそれぞれ、CPU、GPU、又はASICなどの図示しない処理装置と、ROM、RAM、又はHDDなどの図示しない記憶装置とによって構成されていてもよい。記憶装置には、第1の抽出部3の機能を実行するための第1の抽出プログラムと、加算部4の機能を実行するための加算プログラムと、第1の特定部5の機能を実行するための第1の特定プログラムと、線状領域算出部6の機能を実行するための線状領域算出プログラムと、第2の特定部7の機能を実行するための第2の特定プログラムと、画像生成部9の機能を実行するための画像生成プログラムと、表示制御部10の機能を実行するための表示制御プログラムと、が記憶されている。CPUなどの処理装置が、記憶部に記憶されている各プログラムを実行することにより、各部の機能を実行する。なお、第1の抽出プログラムと、加算プログラムと、第1の特定プログラムと、線状領域算出プログラムと、第2の特定プログラムとによって、「医用画像処理プログラム」の一例を構成する。
 図9を参照して、この実施形態に係る医用画像処理装置1の動作について説明する。
ステップS01では、第1の抽出部3が、ボリュームデータを画像記憶部2から読み込む。
ステップS02では、第1の抽出部3は、閾値処理によってボリュームデータから低画素値領域(空気領域)を抽出する。
ステップS03では、加算部4は、ボリュームデータのうち低画素値領域内の各画素の画素値を所定の投影方向に沿って加算することにより、画素値の加算値の分布を表す投影画像データを生成する。一例として、加算部4は、コロナル面に直交する方向(Y軸方向)を投影方向とし、各コロナル面における各画素の画素値を投影方向(Y軸方向)に沿って加算することにより、画素値の加算値の分布を表す投影画像データを生成する。
ステップS04では、第1の特定部5は、投影画像データの各画素のうち加算値(画素値)が最大となる画素を第1の特徴点(x,z)とする。
ステップS05では、線状領域算出部6は、第1の特徴点の座標(x,z)を、投影方向(Y軸方向)に沿って元の3次元空間に逆投影することにより線状領域(x,yi,z)を求める。すなわち、線状領域算出部6は、第1の特徴点を通り投影方向に沿って延びる線状領域を求める。
ステップS06では、第2の特定部7は、低画素値領域と線状領域との交点(x,y,z)を求め、その交点を第2の特徴点として定義する。この交点が、低画素値領域のなかで肺野領域内にある可能性が高いため、この交点の画素を肺野領域内の画素(第2の特徴点)として定義する。
ステップS07では、画像生成部9は、ボリュームデータを画像記憶部2から読み込み、そのボリュームデータに基づいて医用画像データを生成する。表示制御部10は、第2の特徴点を表すマークを医用画像に重ねて表示部11に表示させる。例えば表示制御部10は、アキシャル像やコロナル像に第2の特徴点を表すマークを重ねて表示部11に表示させる。
ステップS08では、第2の抽出部8は、ボリュームデータを画像記憶部2から読み込み、第2の特徴点(x,y,z)を領域拡張法の開始点(シード点)として、肺野領域とみなせる画素をボリュームデータから抽出する。
ステップS09では、表示制御部10は、抽出された肺野領域を表す画像を表示部11に表示させる。
 なお、ステップS07の処理とステップS08の処理とは順番が逆であってもよいし、同時に行われてもよい。また、ステップS07の処理を行わずに、ステップS08及びステップS09の処理を行ってもよいし、ステップS08及びステップ09の処理を行わずに、ステップS07の処理を行ってもよい。
 以上のようにこの実施形態に係る医用画像処理装置1によると、肺野領域に含まれる1画素(第2の特徴点)を自動的に決定することが可能となる。そのため、肺野領域を自動的に抽出することが可能となる。その結果、肺野領域に含まれる1画素を目視により決定する手間を省くことが可能となり、診断時間を短縮することが可能となる。
 また、目視に比べて、1画素(第2の特徴点)を特定する再現性が高くなる。その結果、肺野領域を抽出する再現性も高くなるため、解剖学的に同じ領域を抽出することができ、予後経過の診断に役立てる可能性がある。
 また、肺野領域に含まれる1画素(第2の特徴点)を自動的に決定することができるため、観察者間でのエラー及び観察者内でのエラーを低減することが可能となる。このように観察者の経験などによらずに、診断を支援することが可能となる。
 なお、この実施形態では肺野領域を抽出する場合について説明したが、大腸や胃を対象とする場合であっても、上述した処理を実行することにより、大腸や胃などの領域を抽出することができる。
 また、医用画像撮影装置90が医用画像処理装置1の機能を備えていてもよい。
 この発明の実施形態を説明したが、上記の実施形態は例として提示したものであり、発明の範囲を限定することを意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 1 医用画像処理装置
 2 画像記憶部
 3 第1の抽出部
 4 加算部
 5 第1の特定部
 6 線状領域特定部
 7 第2の特定部
 8 第2の抽出部
 9 画像生成部
 10 表示制御部
 11 表示部

Claims (6)

  1.  注目臓器を含む領域を表すボリュームデータを受けて、前記ボリュームデータから空気領域を抽出する第1の抽出手段と、
     前記ボリュームデータのうち前記空気領域内の各画素の画素値を所定の投影方向に沿って加算することにより、前記画素値の加算値の分布を表す投影画像データを生成する加算手段と、
     前記投影画像データから第1の特徴点を特定する第1の特定手段と、
     前記空気領域において前記第1の特徴点を通る線上の点を第2の特徴点として特定する第2の特定手段と、
     を有する医用画像処理装置。
  2.  前記第2の特定手段は、前記線と前記空気領域の輪郭との交点を前記第2の特徴点として求める、
     請求項1に記載の医用画像処理装置。
  3.  前記第1の特定手段は、前記投影画像データの各画素のうち前記加算値が最大となる画素を前記第1の特徴点として求める、
     請求項1又は請求項2に記載の医用画像処理装置。
  4.  前記第2の特徴点を開始点として、領域拡張法により前記ボリュームデータから前記注目臓器を特定する第2の抽出手段を更に有する、
     請求項1から請求項3のいずれかに記載の医用画像処理装置。
  5.  前記ボリュームデータに基づく医用画像に前記第2の特徴点を表すマークを重ねて表示手段に表示させる表示制御手段を更に有する、
     請求項1から請求項4のいずれかに記載の医用画像処理装置。
  6.  コンピュータに、
     注目臓器を含む領域を表すボリュームデータから空気領域を抽出する第1の抽出機能と、
     前記ボリュームデータのうち前記空気領域内の各画素の画素値を所定の投影方向に沿って加算することにより、前記画素値の加算値の分布を表す投影画像データを生成する加算機能と、
     前記投影画像データから第1の特徴点を特定する第1の特定機能と、
     前記空気領域において前記第1の特徴点を通る線上の点を第2の特徴点として特定する第2の特定機能と、
     を実行させる医用画像処理プログラム。
PCT/JP2011/005628 2010-10-06 2011-10-06 医用画像処理装置、及び医用画像処理プログラム WO2012046451A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/497,413 US8655072B2 (en) 2010-10-06 2011-10-06 Medical image processing apparatus and medical image processing program
CN201180002827.0A CN102573640B (zh) 2010-10-06 2011-10-06 医用图像处理装置及医用图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-226187 2010-10-06
JP2010226187A JP5835881B2 (ja) 2010-10-06 2010-10-06 医用画像処理装置、及び医用画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2012046451A1 true WO2012046451A1 (ja) 2012-04-12

Family

ID=45927456

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005628 WO2012046451A1 (ja) 2010-10-06 2011-10-06 医用画像処理装置、及び医用画像処理プログラム

Country Status (4)

Country Link
US (1) US8655072B2 (ja)
JP (1) JP5835881B2 (ja)
CN (1) CN102573640B (ja)
WO (1) WO2012046451A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9730655B2 (en) * 2013-01-21 2017-08-15 Tracy J. Stark Method for improved detection of nodules in medical images
CN103315764A (zh) 2013-07-17 2013-09-25 沈阳东软医疗系统有限公司 一种ct定位图像获取方法和ct设备
JP7311250B2 (ja) * 2018-08-31 2023-07-19 株式会社小松製作所 作業機械の運搬物特定装置、作業機械、作業機械の運搬物特定方法、補完モデルの生産方法、および学習用データセット
KR102271614B1 (ko) * 2019-11-27 2021-07-02 연세대학교 산학협력단 3차원 해부학적 기준점 검출 방법 및 장치
CN111563876B (zh) * 2020-03-24 2023-08-25 北京深睿博联科技有限责任公司 一种医学影像的获取方法、显示方法
KR20230089658A (ko) * 2021-12-14 2023-06-21 사회복지법인 삼성생명공익재단 심층강화학습을 이용한 두부 계측 방사선 영상의 계측점 검출 방법 및 분석장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005124895A (ja) * 2003-10-24 2005-05-19 Hitachi Medical Corp 画像診断支援装置
JP2005161032A (ja) * 2003-11-10 2005-06-23 Toshiba Corp 画像処理装置
JP2008067851A (ja) * 2006-09-13 2008-03-27 Toshiba Corp コンピュータ支援診断装置、x線ct装置及び画像処理装置
JP2008220416A (ja) * 2007-03-08 2008-09-25 Toshiba Corp 医用画像処理装置及び医用画像診断装置
JP2010110544A (ja) * 2008-11-10 2010-05-20 Fujifilm Corp 画像処理装置および方法並びにプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08336503A (ja) 1995-06-15 1996-12-24 Ge Yokogawa Medical Syst Ltd 医用画像診断装置
US7596258B2 (en) * 2003-11-10 2009-09-29 Kabushiki Kaisha Toshiba Image processor
WO2006011545A1 (ja) * 2004-07-30 2006-02-02 Hitachi Medical Corporation 医用画像診断支援方法、装置及び画像処理プログラム
JP2007167152A (ja) 2005-12-20 2007-07-05 Hitachi Medical Corp 磁気共鳴イメージング装置
JP2008253293A (ja) 2007-03-30 2008-10-23 Fujifilm Corp Ct画像からの肺野領域抽出方法
JP5301197B2 (ja) * 2008-04-11 2013-09-25 富士フイルム株式会社 断面画像表示装置および方法ならびにプログラム
JP2010167067A (ja) * 2009-01-22 2010-08-05 Konica Minolta Medical & Graphic Inc 医用画像処理装置及びプログラム
WO2010132722A2 (en) * 2009-05-13 2010-11-18 The Regents Of The University Of California Computer tomography sorting based on internal anatomy of patients
DE102010013360B4 (de) * 2010-03-30 2017-01-19 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion von Bilddaten eines zyklisch sich bewegenden Untersuchungsobjektes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005124895A (ja) * 2003-10-24 2005-05-19 Hitachi Medical Corp 画像診断支援装置
JP2005161032A (ja) * 2003-11-10 2005-06-23 Toshiba Corp 画像処理装置
JP2008067851A (ja) * 2006-09-13 2008-03-27 Toshiba Corp コンピュータ支援診断装置、x線ct装置及び画像処理装置
JP2008220416A (ja) * 2007-03-08 2008-09-25 Toshiba Corp 医用画像処理装置及び医用画像診断装置
JP2010110544A (ja) * 2008-11-10 2010-05-20 Fujifilm Corp 画像処理装置および方法並びにプログラム

Also Published As

Publication number Publication date
JP2012075806A (ja) 2012-04-19
CN102573640B (zh) 2015-11-25
CN102573640A (zh) 2012-07-11
US8655072B2 (en) 2014-02-18
JP5835881B2 (ja) 2015-12-24
US20120263359A1 (en) 2012-10-18

Similar Documents

Publication Publication Date Title
JP5835881B2 (ja) 医用画像処理装置、及び医用画像処理プログラム
JP6039903B2 (ja) 画像処理装置、及びその作動方法
US9563978B2 (en) Image generation apparatus, method, and medium with image generation program recorded thereon
US20110245660A1 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
JP6040193B2 (ja) 3次元方向設定装置および方法並びにプログラム
JP6824845B2 (ja) 画像処理システム、装置、方法およびプログラム
JP2006519631A (ja) 仮想内視鏡法の実行システムおよび実行方法
JP2017102927A (ja) 3d画像から2d画像へのマッピング
JP5826082B2 (ja) 医用画像診断支援装置および方法並びにプログラム
JP6738631B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP5624336B2 (ja) 医用画像処理装置、及び医用画像処理プログラム
JP5595207B2 (ja) 医用画像表示装置
CN109389577B (zh) X射线图像处理方法和系统及计算机存储介质
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
JP6487999B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6263248B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6820805B2 (ja) 画像位置合わせ装置、その作動方法およびプログラム
JP5991731B2 (ja) 情報処理装置及び情報処理方法
US20170316619A1 (en) Three-dimensional data processing system, method, and program, three-dimensional model, and three-dimensional model shaping device
US10636196B2 (en) Image processing apparatus, method of controlling image processing apparatus and non-transitory computer-readable storage medium
JP2016101225A (ja) 医用画像処理装置
CN108113690B (zh) 解剖腔的改善的可视化
CN106887017B (zh) 图像处理装置、图像处理系统及图像处理方法
JP6598459B2 (ja) 医用画像処理装置及び医用画像処理方法
JP6847011B2 (ja) 3次元画像処理装置および方法並びにプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180002827.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 13497413

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11830385

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11830385

Country of ref document: EP

Kind code of ref document: A1