CN102821292B - 图像处理系统以及方法 - Google Patents

图像处理系统以及方法 Download PDF

Info

Publication number
CN102821292B
CN102821292B CN201210190209.XA CN201210190209A CN102821292B CN 102821292 B CN102821292 B CN 102821292B CN 201210190209 A CN201210190209 A CN 201210190209A CN 102821292 B CN102821292 B CN 102821292B
Authority
CN
China
Prior art keywords
image
mentioned
stereoscopic viewing
altimetric
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210190209.XA
Other languages
English (en)
Other versions
CN102821292A (zh
Inventor
塚越伸介
椋本豪
油井正生
前田达郎
足立确
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Publication of CN102821292A publication Critical patent/CN102821292A/zh
Application granted granted Critical
Publication of CN102821292B publication Critical patent/CN102821292B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/467Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/484Diagnostic techniques involving phase contrast X-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明涉及能够适当地显示医用图像的图像处理系统以及图像处理方法。本发明所涉及的图像处理系统具备第1图像生成部、第2图像生成部以及显示控制部。上述第1图像生成部通过对作为三维医用图像数据的体数据进行绘制处理,来生成第1图像。上述第2图像生成部通过对上述体数据进行绘制处理,来生成立体感与上述第1图像不同的第2图像。上述显示控制部按照如下方式进行控制:分别在显示部的显示面内指定出的指定区域以及除了该指定区域的背景区域,分别显示上述第1图像以及上述第2图像。

Description

图像处理系统以及方法
本申请主张2011年6月9日申请的日本专利申请号2011-129368的优先权,并在本申请中引用上述日本专利申请的全部内容。
技术领域
实施方式涉及图像处理系统(system)以及方法。
背景技术
目前,使用立体观测用眼镜等专用机器,能够立体观测从2个视点进行拍摄的2视差图像的显示器(monitor)正在实用化。另外,近年来,使用柱状透镜(lenticularlens)等光线控制元件,能够用裸眼立体观测从多个视点拍摄到的多视差图像(例如,9视差图像)的显示器正在实用化。另外,能够立体观测的显示器所显示的2视差图像或9视差图像有时通过推定从1视点拍摄到的图像的深度信息,并使用所推定出的信息的图像处理来生成。
另一方面,在X射线CT(ComputedTomography)装置或MRI(MagneticResonanceImaging)装置、以及超声波诊断装置等医用图像诊断装置中,能够生成三维的医用图像数据(date)(以下,称为体数据(volumedata))的装置正在实用化。目前,通过该医用图像诊断装置生成的体数据通过各种图像处理生成为二维图像,并二维显示在通用显示器上。例如,通过医用图像诊断装置生成的体数据通过体绘制(volumerendering)处理而生成反应三维信息的二维图像,并二维显示在通用显示器上。
发明内容
本发明要解决的问题在于,提供一种能够适当地显示医用图像的图像处理系统以及方法。
实施方式的图像处理系统具备第1图像生成部、第2图像生成部以及显示控制部。上述第1图像生成部通过对作为三维医用图像数据的体数据进行绘制处理,来生成第1图像。上述第2图像生成部通过对上述体数据进行绘制处理,来生成与上述第1图像立体感不同的第2图像。上述显示控制部按照如下方式来进行控制:分别在显示部的显示面内所指定的指定区域以及除了该指定区域以外的背景区域,分别显示上述第1图像以及上述第2图像。
实施方式的图像处理系统,其特征在于,具备:指定接受部,其根据作为3维医用图像数据的体数据来生成指定用图像,将所生成的上述指定用图像显示于显示部,来在上述指定用图像上接受视点位置以及指定区域的指定;第1图像生成部,其通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理,来生成显示为立体观测图像的视差图像组作为第1图像;第2图像生成部,其通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理,来生成立体感与上述第1图像不同的第2图像;以及显示控制部,其按照分别在上述显示部所显示的上述指定用图像上指定的上述指定区域以及除了该指定区域之外的背景区域,分别显示上述第1图像以及上述第2图像的方式来进行控制。
实施方式的图像处理系统,其特征在于,具备:解析部,其对作为3维医用图像数据的体数据进行解析,并输出表示上述体数据所含的区域的位置的解析结果;确定部,其根据上述解析结果来确定显示部的显示面内的指定区域;第1图像生成部,其通过利用在规定的视点位置以及指定区域,对上述体数据进行绘制处理,来生成显示为立体观测图像的视差图像组作为第1图像;第2图像生成部,其通过利用上述规定的视点位置以及上述指定区域,对上述体数据进行绘制处理,来生成描绘出与上述立体观测图像所描绘出的对象物相同或者对应的对象物的平面图像,作为第2图像;以及显示控制部,将上述立体观测图像与上述平面图像重叠,分别在根据上述解析结果确定的上述指定区域以及除了该指定区域之外的背景区域中的任一方上显示上述立体观测图像,而在另一方上显示上述平面图像。
实施方式的由图像处理系统执行的图像处理方法,其特征在于,包含:指定接受步骤,根据作为3维医用图像数据的体数据来生成指定用图像,将所生成的上述指定用图像显示于显示部,来在上述指定用图像上接受视点位置以及指定区域的指定;第1图像生成步骤,通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理来生成显示为立体观测图像的视差图像组作为第1图像;第2图像生成步骤,通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理来生成立体感与上述第1图像不同的第2图像;以及显示控制步骤,按照如下方式来进行控制:分别在上述显示部所显示的上述指定用图像上指定的指定区域以及除了该指定区域之外的背景区域分别显示上述第1图像以及上述第2图像。
根据实施方式所涉及的图像处理系统以及方法,能够适当地显示医用图像。
附图说明
图1是用于说明第1实施方式所涉及的图像处理系统的构成例的图。
图2A以及图2B是用于说明通过2视差图像进行立体显示的立体显示显示器的一个例子的图。
图3是用于说明通过9视差图像进行立体显示的立体显示显示器的一个例子的图。
图4是用于说明第1实施方式所涉及的工作站(workstation)的构成例的图。
图5是用于说明图4所示的绘制处理部的构成例的图。
图6是用于说明第1实施方式所涉及的体绘制处理的一个例子的图。
图7是用于说明第1实施方式所涉及的显示例的图。
图8是用于说明第1实施方式所涉及的显示例的图。
图9是用于说明第1实施方式所涉及的控制部的构成例的图。
图10是用于说明第1实施方式所涉及的立体观测图像生成处理的图。
图11是用于说明第1实施方式所涉及的立体观测图像生成处理的图。
图12是用于说明第1实施方式所涉及的立体观测图像生成处理的图。
图13是用于说明第1实施方式所涉及的平面图像生成处理的图。
图14A以及图14B是用于说明第1实施方式所涉及的显示控制处理的图。
图15是表示第1实施方式所涉及的处理步骤的流程图(flow-chart)。
图16A~图16C是用于说明第1实施方式所涉及的变形例的图。
图17是用于说明第2实施方式所涉及的显示例的图。
图18是用于说明第2实施方式所涉及的显示例的图。
图19A以及图19B是用于说明第2实施方式所涉及的显示例的图。
图20是用于说明第2实施方式所涉及的控制部的构成例的图。
图21是用于说明第3实施方式所涉及的控制部的构成例的图。
图22是表示第3实施方式所涉及的处理步骤的流程图。
图23A以及图23B是用于说明第3实施方式所涉及的变形例所涉及的显示例的图。
图24是用于说明第4实施方式所涉及的图标(icon)立体观测图像的图。
图25A以及图25B是用于说明第4实施方式所涉及的变形例的显示例的图。
图26是用于说明其他的实施方式所涉及的显示例的图。
图27A以及图27B是用于说明其他实施方式所涉及的立体观测图像生成处理的图。
具体实施方式
以下,参照附图,详细说明图像处理系统以及图像处理方法的实施方式。在此,针对以下的实施方式所使用的用语进行说明,所谓“视差图像组”是指对体数据,通过使视点位置以逐个规定的视差角地移动来进行绘制处理而生成的图像组。即,“视差图像组”由“视点位置”不同的多个“视差图像”构成。另外,所谓“视差角”是指为了生成“视差图像组”而设定的各视点位置中,通过相邻的视点位置与由体数据表示的空间内的规定位置(例如,空间的中心)而决定的角度。另外,所谓“视差数”是指在能够立体观测的显示器上进行立体观测所需的“视差图像”的数量。另外,所谓以下所述的“9视差图像”是指由9个“视差图像”构成的“视差图像组”。另外,所谓以下所述的“2视差图像”是指由2个“视差图像”构成的“视差图像组”。
(第1实施方式)
首先,针对第1实施方式所涉及的图像处理系统的构成例进行说明。图1是用于说明第1实施方式所涉及的图像处理系统的构成例的图。
如图1所示,第1实施方式所涉及的图像处理系统1具有医用图像诊断装置110、图像保管装置120、工作站130、终端装置140。图1所示的各装置例如处于通过在医院内设置的院内LAN(LocalAreaNetwork)2,能够直接或者间接地相互通信的状态。例如,当对图像处理系统1导入有PACS(PictureArchivingandCommunicationSystem)时,各装置按照DICOM(DigitalImagingandCommunicationsinMedicine)规格,相互发送接收医用图像等。
该图像处理系统1根据通过医用图像诊断装置110生成的三维的医用图像数据即体数据来生成视差图像组,并将该视差图像组显示于能够立体观测的显示器,从而对在医院内工作的医师或者检查技师提供能够立体观测的医用图像。具体而言,在第1实施方式中,工作站130对于体数据进行各种图像处理,来生成视差图像组。另外,工作站130以及终端装置140具有能够立体观测的显示器,将在工作站130生成的视差图像组显示于显示器。另外,图像保管装置120保管在医用图像诊断装置110生成的体数据、或在工作站130生成的视差图像组。即,工作站130或终端装置140从该图像保管装置120取得体数据或视差图像组,并对其进行处理或者显示于显示器。以下,依次说明各装置。
医用图像诊断装置110是X射线诊断装置、X射线CT(ComputedTomography)装置、MRI(MagneticResonanceImaging)装置、超声波诊断装置、SPECT(SinglePhotonEmissionComputedTomography)装置、PET(PositronEmissioncomputedTomography)装置、SPECT装置与X射线CT装置一体化的SPECT-CT装置、PET装置与X射线CT装置一体化的PET-CT装置、或者它们的组合。另外,第1实施方式所涉及的医用图像诊断装置110能够生成三维的医用图像数据(体数据)。
具体而言,第1实施方式所涉及的医用图像诊断装置110通过对被检体进行拍摄来生成体数据。例如,医用图像诊断装置110通过对被检体进行拍摄来收集投影数据或MR(MagneticResonance)信号等数据,并根据收集到的数据,来重建沿着被检体的体轴方向的多个轴向(axial)面的医用图像数据,从而生成体数据。例如,医用图像诊断装置110重建500个轴向面的医用图像数据。该500个轴向面的医用图像数据组是体数据。另外,也可以将通过医用图像诊断装置110进行拍摄得到的被检体的投影数据或MR信号等本身作为体数据。
另外,第1实施方式所涉及的医用图像诊断装置110将所生成的体数据发送至图像保管装置120。另外,当将体数据发送至图像保管装置120时,作为附带信息,医用图像诊断装置110例如发送识别患者的患者ID、识别检查的检查ID、识别医用图像诊断装置110的装置ID、识别基于医用图像诊断装置110的1次的拍摄的序列(series)ID等。
图像保管装置120是保管医用图像的数据库(database)。具体而言,第1实施方式所涉及的图像保管装置120将从医用图像诊断装置110发送出的体数据存储于存储部,并将其进行保管。另外,在第1实施方式中,工作站130根据体数据生成视差图像组,并将所生成的视差图像组发送至图像保管装置120。因此,图像保管装置120将从工作站130发送出的视差图像组存储于存储部,并将其进行保管。另外,第1实施方式也可以通过使用能够保管大容量的图像的工作站130,来综合图1所示的工作站130与图像保管装置120。即,第1实施方式也可以将体数据或视差图像组存储于工作站130本身中。
另外,在第1实施方式中,图像保管装置120所保管的体数据或视差图像组与患者ID、检查ID、装置ID、序列ID等对应地保管。因此,工作站130或终端装置140通过进行使用患者ID、检查ID、装置ID、序列ID等的检索,来从图像保管装置120取得所需的体数据或视差图像组。
工作站130是对于医用图像进行图像处理的图像处理装置。具体而言,第1实施方式所涉及的工作站130对于从图像保管装置120取得的体数据进行各种绘制处理,生成视差图像组。
另外,作为显示部,第1实施方式所涉及的工作站130具有能够立体观测的显示器(以下,称为“立体显示显示器”)。工作站130生成视差图像组,并将所生成的视差图像组显示于立体显示显示器。其结果,工作站130的操作者能够一边确认立体显示显示器所显示出的能够立体观测的医用图像,一边进行用于生成视差图像组的操作。
另外,工作站130将生成的视差图像组发送至图像保管装置120。另外,当将视差图像组发送至图像保管装置120时,作为附带信息,工作站130例如发送患者ID、检查ID、装置ID、序列ID等。另外,作为将视差图像组发送至图像保管装置120时所发送的附带信息,也可以例举出与视差图像组相关的附带信息。作为与视差图像组相关的附带信息,存在视差图像的个数(例如,“9”)、或视差图像的分辨率(例如,“466×350像素”)等。
终端装置140是供在医院内工作的医师或者检查技师阅览医用图像的装置。例如,终端装置140是在医院内工作的医师或者检查技师所操作的PC(PersonalComputer)或平板(tablet)式PC、PDA(PersonalDigitalAssistant)、手机等。具体而言,作为显示部,第1实施方式所涉及的终端装置140具有立体显示显示器。另外,终端装置140从图像保管装置120取得视差图像组,并将取得的视差图像组显示于立体显示显示器。其结果,作为观察者的医师或检查技师能够阅览能够立体观测的医用图像。
在此,针对工作站130或终端装置140所具有的立体显示显示器进行说明。现在最普及的一般的通用显示器是二维地显示二维图像的显示器,不能立体显示二维图像。假设,当观察者希望在通用显示器上进行立体观测时,对通用显示器输出图像的装置需要通过平行法或交叉法并列显示观察者能够立体观测的2视差图像。或者,对通用显示器输出图像的装置例如需要使用在左眼用部分安装红色的玻璃纸,在右眼用部分安装蓝色的玻璃纸(cellophane)的眼镜,通过补色法来显示观察者能够立体观测的图像。
另一方面,作为立体显示显示器,存在通过使用立体观测用眼镜等专用机器,能够立体观测2视差图像(也称为“两眼视差图像”)的显示器。
图2A以及图2B是用于说明通过2视差图像进行立体显示的立体显示显示器的一个例子的图。图2A以及图2B所示的一个例子是通过快门(shatter)方式进行立体显示的立体显示显示器,作为观察显示器的观察者佩戴的立体观测用眼镜,使用快门眼镜。该立体显示显示器在显示器上交替射出2视差图像。例如,图2A所示的显示器以120Hz交替射出左眼用图像与右眼用图像。在此,如图2A所示,在显示器上设置红外线射出部,红外线射出部与切换图像的定时(timing)一致地控制红外线的射出。
另外,从红外线射出部射出的红外线通过图2A所示的快门眼镜的红外线接收部来接收。分别在快门眼镜的左右框上安装有快门,快门眼镜与红外线接收部接收红外线的定时一致,交替切换左右快门各自的透过状态以及遮光状态。以下,针对快门中的透过状态以及遮光状态的切换处理进行说明。
如图2B所示,各快门具有入射侧的偏振片与射出侧的偏振片,另外,在入射侧的偏振片与射出侧的偏振片之间具有液晶层。另外,入射侧的偏振片与射出侧的偏振片如图2B所示的那样相互正交。在此,如图2B所示,在没有施加电压的“OFF”的状态下,通过了入射侧的偏振片的光受到液晶层的作用而旋转90度,透过射出侧的偏振片。即,没有被施加电压的快门变为透过状态。
另一方面,如图2B所示,在施加了电压的“ON”的状态下,由于基于液晶层的液晶分子的偏振光旋转作用消失,因此,通过了入射侧的偏振片的光会被射出侧的偏振片遮住。即,施加了电压的快门变为遮光状态。
因此,例如,在显示器上显示出左眼用图像期间,红外线射出部射出红外线。并且,红外线接收部在正在接收红外线期间,没有对左眼的快门施加电压,而对右眼的快门施加电压。由此,如图2A所示,由于右眼的快门变为遮光状态,左眼的快门变为透过状态,因此,左眼用图像入射至观察者的左眼。另一方面,在显示器上显示出右眼用图像期间,红外线射出部停止红外线的射出。并且,红外线接收部在没有接收红外线期间,没有对右眼的快门施加电压,而对左眼的快门施加电压。由此,由于左眼的快门变为遮光状态,右眼的快门变为透过状态,因此,右眼用图像入射至观察者的右眼。这样,图2A以及图2B所示的立体显示显示器通过使显示器所显示的图像与快门的状态联动地切换,从而显示观察者能够立体观测的图像。另外,作为能够立体观测2视差图像的立体显示显示器,除了上述的快门方式以外,还知道有采用了偏振光眼镜方式的显示器。
另外,作为近年来实用化的立体显示显示器,存在通过使用柱状透镜等光线控制元件,观察者能够裸眼地立体观测例如9视差图像等多视差图像的显示器。该立体显示显示器能够进行基于两眼视差的立体观测,另外,也能够进行基于与观察者的视点移动一致地观察的影像也发生变化的运动视差的立体观测。
图3是用于说明通过9视差图像进行立体显示的立体显示显示器的一个例子的图。在图3所示的立体显示显示器上,在液晶屏等平面状的显示面200的前面,配置光线控制元件。例如,作为光线控制元件,在图3所示的立体显示显示器上,将光学开口在垂直方向上延伸的垂直透镜片(lenticularsheet)201粘贴在显示面200的前面。另外,在图3所示的一个例子中,被粘贴成垂直透镜片201的凸部处于前面,但也可以粘贴成垂直透镜片201的凸部与显示面200对置。
在显示面200上,如图3所示,矩阵(matrix)状地配置横纵比为3:1,在纵方向上配置有作为子像素的红色(R)、绿色(G)、蓝色(B)的三个像素202。图3所示的立体显示显示器将由9个图像构成的9视差图像转换成规定格式(format)(例如格子状)地配置的中间图像,并输出至显示面200。即,图3所示的立体显示显示器将在9视差图像中位于同一位置的9个像素分配成9列的像素202并输出。9列的像素202是同时显示视点位置不同的9个图像的单位像素组203。
在显示面200中作为单位像素组203而同时输出的9视差图像例如通过LED(LightEmittingDiode)背光(backlight)作为平行光来放射,另外,通过垂直透镜片201向多方向放射。通过9视差图像的各像素的光向多方向放射,由此入射至观察者的右眼以及左眼的光与观察者的位置(视点的位置)联动地变化。即,根据观察者的观察角度的不同,入射至右眼的视差图像与入射至左眼的视差图像视差角不同。由此,观察者能够分别在例如图3所示的9个位置上,立体地观测拍摄对象。另外,观察者能够例如在图3所示的“5”的位置上,以对于拍摄对象正对的状态立体地识别,同时分别在图3所示的“5”以外的位置上,能够以使拍摄对象的朝向变化的状态立体地识别。另外,图3所示的立体显示显示器始终是一个例子。如图3所示,显示9视差图像的立体显示显示器也可以是“RRR…、GGG…、BBB…”的横条(stripe)液晶,也可以是“RGBRGB…”的纵条的液晶。另外,如图3所示,图3所示的立体显示显示器可以是透镜片为垂直的纵透镜(lens)方式,也可以是透镜片变为倾斜的倾斜透镜方式。
在此,针对第1实施方式所涉及的图像处理系统1的构成例简单地进行了说明。另外,上述的图像处理系统1并不限定于应用于导入有PACS的情况。例如,图像处理系统1也同样应用于导入了管理添加有医用图像的电子病历的电子病历(chart)系统的情况。此时,图像保管装置120是保管电子病历的数据库。另外,例如,图像处理系统1也同样应用于导入有HIS(HospitalInformationSystem)、RIS(RadiologyInformationSystem)的情况。另外,图像处理系统1并不限定于上述的构成例。各装置所具有的功能或分工也可以根据运用的方式适当地变更。
接着,针对第1实施方式所涉及的工作站的构成例使用图4进行说明。图4是用于说明第1实施方式所涉及的工作站的构成例的图。
第1实施方式所涉及的工作站130是应用于图像处理等的高性能的计算机,如图4所示,具有输入部131、显示部132、通信部133、存储部134、控制部135、绘制处理部136。另外,以下,使用工作站130是应用于图像处理等的高性能的计算机的情况进行了说明,但其并不限定于此,也可以是任意的信息处理装置。例如,也可以是任意的个人计算机。
输入部131是鼠标(mouse)、键盘(keyboard)、轨迹球(trackball)等,接受操作者对于工作站130的各种操作的输入。例如,第1实施方式所涉及的输入部131接受用于从图像保管装置120取得作为绘制处理对象的体数据的信息的输入。例如,输入部131接受患者ID、检查ID、装置ID、序列ID等的输入。另外,例如,第1实施方式所涉及的输入部131接受与绘制处理相关的条件(以下称为“绘制条件”)的输入。
显示部132是作为立体显示显示器的液晶屏等,显示各种信息。例如,第1实施方式所涉及的显示部132显示用于接受操作者进行的各种操作的GUI(GraphicalUserInterface)、或视差图像组等。通信部133是NIC(NetworkInterfaceCard)等,在与其他的装置之间进行通信。
存储部134是硬盘(harddisk)、半导体存储器(memory)元件等,存储各种信息。例如,第1实施方式所涉及的存储部134存储经由通信部133从图像保管装置120取得的体数据。另外,第1实施方式所涉及的存储部134存储绘制处理中的体数据或通过绘制处理生成的视差图像组等。
控制部135是CPU(CentralProcessingUnit)或MPU(MicroProcessingUnit)等电子电路、ASIC(ApplicationSpecificIntegratedCircuit)或FPGA(FieldProgrammableGateArray)等集成电路,进行工作站130的整体控制。
例如,第1实施方式所涉及的控制部135控制对于显示部132的GUI的显示或视差图像组的显示。另外,例如,控制部135控制在与图像保管装置120之间经由通信部133进行的体数据或视差图像组等的发送接收。另外,例如,控制部135控制基于绘制处理部136的绘制处理。另外,例如,控制部135控制从体数据的存储部134的读入或向视差图像组等的存储部134的存储。
绘制处理部136在基于控制部135的控制下,对于从图像保管装置120取得的体数据进行各种绘制处理,生成视差图像组。具体而言,第1实施方式所涉及的绘制处理部136从存储部134读入体数据,并首先对该体数据进行前处理。接着,绘制处理部136对前处理后的体数据进行体绘制处理,生成视差图像组。然后,绘制处理部136通过生成描绘出各种信息(刻度、患者名、检查项目等)的二维图像,并分别将其重叠于视差图像组,来生成输出用二维图像。并且,绘制处理部136将生成的视差图像组或输出用二维图像存储于存储部134。另外,在第1实施方式中,所谓绘制处理是指对体数据进行的图像处理整体,所谓体绘制处理是指在绘制处理内,生成反映出三维的信息的二维图像的处理。另外,在绘制处理中,除了体绘制处理之外,还存在面绘制(surfacerendering)处理。体绘制处理是根据体数据直接生成反映出三维的信息的二维图像的方法。与此相对,面绘制处理是根据体数据提取作为对象的数据并构筑模型,并根据所构筑的模型,生成反映三维的信息的二维图像的方法。在第1实施方式中,说明了使用体绘制处理的方法的例子,但实施方式并不限定于此,也可以使用面绘制处理的方法。
图5是用于说明图4所示的绘制处理部的构成例的图。如图5所示,绘制处理部136具有前处理部1361、三维图像处理部1362、以及二维图像处理部1363。前处理部1361进行对于体数据的前处理,三维图像处理部1362根据前处理后的体数据生成视差图像组,二维图像处理部1363生成将各种信息重叠于视差图像组的输出用二维图像。以下,依次说明各处理部。
前处理部1361是当对体数据进行绘制处理时,进行各种前处理的处理部,具有图像校正处理部1361a、三维物体合并(fusion)部1361e以及三维物体显示区域设定部1361f。
图像校正处理部1361a是将两种体数据作为一个体数据进行处理时进行图像校正处理的处理部,如图5所示,具有变形校正处理部1361b、体运动校正处理部1361c以及图像间位置对准处理部1361d。例如,图像校正处理部1361a在将通过PET-CT装置生成的PET图像的体数据与X射线CT图像的体数据作为一个体数据进行处理时进行图像校正处理。或者,图像校正处理部1361a在将通过MRI装置生成的T1强调图像的体数据与T2强调图像的体数据作为一个体数据进行处理时进行图像校正处理。
另外,变形校正处理部1361b在各个体数据中,校正医用图像诊断装置110进行数据收集时的收集条件所导致的数据的变形。另外,体运动校正处理部1361c校正为了生成各个体数据而使用的数据的收集时期的被检体的体运动所导致的移动。另外,图像间位置对准处理部1361d在进行基于变形校正处理部1361b以及体运动校正处理部1361c的校正处理的2个体数据间,例如,进行使用了相互关联法等的位置对准(Registration)。
三维物体合并部1361e使通过图像间位置对准处理部1361d进行了位置对准的多个体数据合并。另外,在对单一体数据进行绘制处理时,省略图像校正处理部1361a以及三维物体合并部1361e的处理。
三维物体显示区域设定部1361f是设定与操作者所指定的显示对象脏器对应的显示区域的处理部,具有分割(segmentation)处理部1361g。分割处理部1361g是例如通过根据体数据的像素值(体素(voxel)值)的区域扩张法,来提取操作者指定的心脏、肺、血管等脏器的处理部。
另外,当操作者没有指定显示对象脏器时,分割处理部1361g不进行分割处理。另外,当操作者指定多个显示对象脏器时,分割处理部1361g提取符合的多个脏器。另外,分割处理部1361g的处理有时也根据参照绘制图像的操作者的微调整要求再次执行。
三维图像处理部1362对由前处理部1361进行了处理的前处理后的体数据进行体绘制处理。作为进行体绘制处理的处理部,三维图像处理部1362具有投影方法设定部1362a、三维几何转换处理部1362b、三维物体表现(appearance)处理部1362f、三维虚拟空间绘制部1362k。
投影方法设定部1362a确定用于生成视差图像组的投影方法。例如,投影方法设定部1362a确定是通过平行投影法来执行体绘制处理,还是通过透视投影法来执行。
三维几何转换处理部1362b是确定用于三维几何学地对执行体绘制处理的体数据进行转换的信息的处理部,具有平行移动处理部1362c、旋转处理部1362d以及放大缩小处理部1362e。平行移动处理部1362c是当平行移动进行体绘制处理时的视点位置时,确定使体数据平行移动的移动量的处理部,旋转处理部1362d是当旋转移动进行体绘制处理时的视点位置时,确定使体数据旋转移动的移动量的处理部。另外,放大缩小处理部1362e是当要求放大或缩小视差图像组时,确定体数据的放大率或缩小率的处理部。
三维物体表现处理部1362f具有三维物体色彩处理部1362g、三维物体不透明度处理部1362h、三维物体材质处理部1362i以及三维虚拟空间光源处理部1362j。三维物体表现处理部1362f通过这些处理部,例如,根据操作者的要求,进行确定所显示的视差图像组的显示状态的处理。
三维物体色彩处理部1362g是确定对在体数据中分割出的各区域着色的色彩的处理部。三维物体不透明度处理部1362h是确定构成在体数据中分割出的各区域的各体素的不透明度(Opacity)的处理部。另外,在体数据中不透明度是“100%”的区域的后方的区域在视差图像组中没有被描绘出。另外,在体数据中不透明度为“0%”的区域在视差图像组中没有被描绘出。
三维物体材质处理部1362i是通过确定在体数据中分割出的各区域的材质,来调整描绘该区域时的质感的处理部。三维虚拟空间光源处理部1362j是在对体数据进行体绘制处理时,确定在三维虚拟空间中设置的虚拟光源的位置、或虚拟光源的种类的处理部。作为虚拟光源的种类,可以列举出从无限远照射平行的光线的光源、或从视点照射放射状的光线的光源等。
三维虚拟空间绘制部1362k对体数据进行体绘制处理,生成视差图像组。另外,三维虚拟空间绘制部1362k在进行体绘制处理时,根据需要,使用通过投影方法设定部1362a、三维几何转换处理部1362b、三维物体表现处理部1362f确定的各种信息。
在此,基于三维虚拟空间绘制部1362k的体绘制处理将按照绘制条件来进行。例如,绘制条件是“平行投影法”或者“透视投影法”。另外,例如,绘制条件是“基准的视点位置以及视差角”。另外,例如,绘制条件是“视点位置的平行移动”、“视点位置的旋转移动”、“视差图像组的放大”、“视差图像组的缩小”。另外,例如,绘制条件是“被着色的色彩”、“透明度”、“质感”、“虚拟光源的位置”、“虚拟光源的种类”。这样的绘制条件被认为经由输入部131从操作者处接受、或者是初期设定。任意情况下,三维虚拟空间绘制部1362k都从控制部135来接受绘制条件,并按照该绘制条件,进行对于体数据的体绘制处理。另外,此时,由于上述的投影方法设定部1362a、三维几何转换处理部1362b、三维物体表现处理部1362f按照该绘制条件来确定所需的各种信息,因此。三维虚拟空间绘制部1362k使用所确定的这些各种信息来生成视差图像组。
图6是用于说明第1实施方式所涉及的体绘制处理的一个例子的图。例如,假设如图6的“9视差图像生成方式(1)”所示,三维虚拟空间绘制部1362k接受平行投影法作为绘制条件,另外,接受基准的视点位置(5)与视差角“1度”。此时,三维虚拟空间绘制部1362k以视差角间隔“1度”的方式,将视点的位置平行移动至(1)~(9),并通过平行投影法生成视差角(视线方向间的角度)一度一度不同的9个视差图像。另外,进行平行投影法时,三维虚拟空间绘制部1362k设定沿着视线方向从无限远照射平行的光线的光源。
或者,假设如图6的“9视差图像生成方式(2)”所示,三维虚拟空间绘制部1362k接受透视投影法作为绘制条件,另外,接受基准的视点位置(5)与视差角“1度”。此时,三维虚拟空间绘制部1362k以将体数据的中心(重心)作为中心并且视差角间隔“1度”的方式,将视点的位置旋转移动至(1)~(9),并通过透视投影法生成视差角一度一度不同的9个视差图像。另外,进行透视投影法时,三维虚拟空间绘制部1362k在各视点设定以视线方向为中心三维地放射状地照射光的点光源或面光源。另外,进行透视投影法时,根据绘制条件,视点(1)~(9)有时也可以平行移动。
另外,三维虚拟空间绘制部1362k也可以通过设定对于显示的体绘制图像的纵方向,以视线方向为中心二维地放射状地照射光,并对于显示的体绘制图像的横方向,沿着视线方向从无限远照射平行的光线的光源,来进行并用平行投影法与透视投影法的体绘制处理。
这样生成的9个视差图像是视差图像组。在第1实施方式中,9个视差图像例如通过控制部135转换成规定格式(例如格子状)地配置的中间图像,并被输出至作为立体显示显示器的显示部132。于是,工作站130的操作者能够一边确认立体显示显示器所显示出的能够立体观测的医用图像,一边进行用于生成视差图像组的操作。
另外,在图6的例子中,作为绘制条件,说明了接受投影方法、基准的视点位置以及视差角的情况,但作为绘制条件,在接受其他的条件的情况下,三维虚拟空间绘制部1362k也同样地一边反映各个绘制条件,一边生成视差图像组。
另外,三维虚拟空间绘制部1362k不仅具有体绘制的功能,还具有进行剖面重建法(MPR:MultiPlanerReconstruction),根据体数据重建MPR图像的功能。另外,三维虚拟空间绘制部1362k还具有进行“CurvedMPR”的功能、或进行“IntensityProjection”的功能。
接着,三维图像处理部1362根据体数据生成的视差图像组被作为底图(Underlay)。并且,通过将描绘出各种信息(刻度、患者名、检查项目等)的覆盖图(Overlay)重叠于底图,来生成输出用二维图像。二维图像处理部1363是通过对覆盖图以及底图进行图像处理,来生成输出用二维图像的处理部,如图5所示,具有二维物体描绘部1363a、二维几何转换处理部1363b以及亮度调整部1363c。例如,二维图像处理部1363为了减轻输出用二维图像的生成处理所需的负荷,通过分别对9个视差图像(底图)重叠1个覆盖图,来生成9个输出用二维图像。
二维物体描绘部1363a是描绘覆盖图所描绘出的各种信息的处理部,二维几何转换处理部1363b是将覆盖图所描绘出的各种信息的位置进行平行移动处理或者旋转移动处理,或者对覆盖图所描绘出的各种信息进行放大处理或者缩小处理的处理部。
另外,亮度调整部1363c是进行亮度转换处理的处理部,是例如根据输出方的立体显示显示器的色调、或窗宽(WW:WindowWidth)、窗位(WL:WindowLevel)等图像处理用参数,来调整覆盖图以及底图的亮度的处理部。
这样生成的输出用二维图像例如通过控制部135暂时存储于存储部134,之后,经由通信部133发送至图像保管装置120。例如,如果终端装置140从图像保管装置120取得该输出用二维图像,转换成规定格式(例如格子状)地配置的中间图像,并显示于立体显示显示器,则作为观察者的医师或检查技师能够以描绘出各种信息(刻度、患者名、检查项目等)的状态,阅览能够立体观测的医用图像。
另外,实施方式所涉及的工作站130是进行以下的控制的装置,即,生成第1图像和与该第1图像立体感不同的第2图像,并分别在立体显示显示器的显示面内指定出的指定区域以及除了该指定区域的背景区域的任一方上显示第1图像,在另一方上显示第2图像。例如,第1实施方式所涉及的工作站130进行以下控制,即,将作为第1图像的能够立体观测的图像(以下,称为“立体观测图像”)与作为第2图像的平面图像重叠,并分别在立体显示显示器的显示面内指定的指定区域以及除了该指定区域的背景区域的任一方上显示立体观测图像,在另一方上显示平面图像。立体观测图像与平面图像是立体感不同的图像。
如上述那样,工作站130所具有的立体显示显示器能够通过显示规定的视差数的视差图像组来显示立体观测图像,也可以通过将多个同一图像置换成视差图像组并进行显示,来显示平面图像。例如,如图3所示,第1实施方式所涉及的立体显示显示器通过分别将在9视差图像中位于同一位置的9个像素分配成9列的像素202并进行输出,来显示立体观测图像,也可以通过将9个像素中的1个像素全部分配成9列的像素202并进行输出,来显示平面图像。
另外,如上述那样,通过分别对作为底图的视差图像组,重叠作为覆盖图的各种信息,来生成输出用二维图像组,但在以下中,当记载为“立体观测图像”或者“视差图像组”时,包含表示将各种信息重叠前的视差图像组的情况、和表示将各种信息重叠后的输出用二维图像组的情况。同样地,当记载为“平面图像”或者“同一图像组”时,存在表示将各种信息重叠前的同一图像组的情况、和表示将各种信息重叠后的输出用二维图像组的情况。即,在将作为视差图像组本身的“立体观测图像”与作为同一图像组本身的“平面图像”重叠之后,可以将各种信息重叠,也可以将各种信息重叠后的“立体观测图像”与“平面图像”重叠。另外,由于各种信息的重叠能够根据应用的方式而任意地变更,因此,以下省略说明。
图7以及图8是用于说明第1实施方式所涉及的显示例的图。在图7中,放大镜a所示的圆形区域表示工作站130的操作者指定的指定区域。如图7所示,工作站130在该指定区域显示立体观测图像,并在背景区域显示平面图像。概念上,如图8所示,在放大镜a所示的圆形区域,显示具有立体感的立体观测图像,在除了圆形区域以外的背景区域,显示被平面图像化的对象物。
这样,第1实施方式所涉及的工作站130没有在显示面内的全部区域都显示立体观测图像,只在一部分区域显示立体观测图像。作为立体观测图像的缺点,可以列举出对观察者施加的压力强的点、或难以对准立体观测图像整体的焦点的点,但根据只在一部分区域显示立体观测图像的方法,就能够减轻压力,并且能够将焦点对准所希望的区域。
该显示在第1实施方式所涉及的工作站130中,通过控制部135、绘制处理部136、以及显示部132协作来实现。图9是用于说明第1实施方式所涉及的控制部135的构成例的图。如图9所示,第1实施方式所涉及的控制部135具有立体观测区域指定接受部135a、立体观测图像生成部135b、平面图像生成部135c、显示控制部135d。
立体观测区域指定接受部135a经由输入部131来接受操作者指定的显示视点位置、以及立体观测图像的指定区域(以下,称为“立体观测区域”)。具体而言,立体观测区域指定接受部135a从存储部134读入体数据,并对读入的体数据进行基于绘制处理部136的体绘制处理,生成用于接受视点位置以及立体观测区域的指定的二维图像(以下,称为“指定用图像”)。接着,立体观测区域指定接受部135a将所生成的指定用图像显示于显示部132,并在指定用图像上,接受视点位置以及立体观测区域的指定。并且,立体观测区域指定接受部135a将接受的视点位置以及立体观测区域发送至立体观测图像生成部135b以及平面图像生成部135c。
例如,立体观测区域指定接受部135a将图7所示的放大镜a的工具显示在指定用图像上。另外,通过操作为输入部131的鼠标,该放大镜a的工具在显示部132的显示面上能够放大、缩小,并能够移动。因此,立体观测区域指定接受部135a将通过鼠标操作后的放大镜a所示的圆形区域作为立体观测区域来接受。另外,立体观测区域的指定并不限定于放大镜a的工具。也可以与通常的关心区域的指定相同,是圆形ROI(RegionOfInterest)或多边形(polygon)ROI的工具等。
另外,指定用图像所描绘出的对象物通过操作为输入部131的鼠标,能够在显示部132的显示面内旋转。另外,视点位置例如是与显示面垂直的方向。因此,例如,立体观测区域指定接受部135a将与接受立体观测区域的指定时显示面上所显示出的指定用图像垂直的方向作为视点位置来接受。
立体观测图像生成部135b生成立体观测图像。具体而言,立体观测图像生成部135b使用从立体观测区域指定接受部135a接受到的视点位置以及立体观测区域、和其他的绘制条件,来对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成视差图像组。并且,立体观测图像生成部135b将所生成的视差图像组发送至显示控制部135d。另外,作为其他的绘制条件,也可以使用预设的条件。
图10~12是用于说明第1实施方式所涉及的立体观测图像生成处理的图。在第1实施方式中,立体观测图像的生成如图10所示,使用体数据中贯穿体数据整体的圆筒区域部分的体数据来进行。另外,图11是从头顶方向来观察图10所示的体数据的图。如图11所示,立体观测图像的生成将指定的视点位置作为“视点位置5”,并将从以该“视点位置5”为中心的“视点位置1”到“视点位置9”作为绘制条件来进行。例如,如图12所示,立体观测图像生成部135b使用圆筒区域部分的体数据,来生成“0”值被埋入背景区域的9视差图像。另外,在图12中,示出黑色部分是“0”值的情况。
平面图像生成部135c生成平面图像。在该平面图像中,描绘出与立体观测图像所描绘的对象物相同的对象物。具体而言,平面图像生成部135c使用从立体观测区域指定接受部135a接受的视点位置以及立体观测区域、和其他的绘制条件,来对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成置换成视差图像组而使用的同一图像组。并且,平面图像生成部135c将所生成的同一图像组发送至显示控制部135d。
图13是用于说明第1实施方式所涉及的平面图像生成处理的图。在第1实施方式中,平面图像的生成使用圆筒区域部分以外的体数据来进行。另外,平面图像的生成将所指定的视点位置即“视点位置5”作为绘制条件来进行。例如,如图13所示,平面图像生成部135c使用圆筒区域部分以外的体数据,来生成将“0”值埋入立体观测区域的同一图像组。另外,在图13中,示出黑色部分是“0”值的情况。
另外,例如,平面图像生成部135c也可以不重新进行体绘制处理,而根据通过立体观测图像生成部135b生成的视差图像组,提取一个视差图像(例如,与“视点位置5”对应的视差图像),并复制该视差图像,从而生成同一图像组。
显示控制部135d控制将立体观测图像与平面图像重叠,并分别在立体观测区域以及背景区域,显示立体观测图像以及平面图像。具体而言,显示控制部135d将从立体观测图像生成部135b接受的立体观测图像转换成用于显示在显示部132的中间图像,并将转换后的中间图像作为图层(layer)1的图像。另外,显示控制部135d将从平面图像生成部135c接受到的平面图像转换成用于显示在显示部132的中间图像,并将转换后的中间图像作为图层2的图像。并且,显示控制部135d将图层1的图像与图层2的图像重叠并显示于显示部132。于是,在立体观测区域显示立体观测图像,在背景区域显示平面图像。
图14A以及图14B是用于说明第1实施方式所涉及的显示控制处理的图。在第1实施方式中,如图14A所示,用于将立体观测图像显示在显示部132的中间图像是将图12所示的视差图像组、以及图13所示的同一图像组格子状地配置而成的图像。如图14B所示,显示控制部135d将图层1与图层2重叠,并显示于显示部132。
另外,上述的立体观测图像生成处理、平面图像生成处理、以及显示控制处理只不过是一个例子。例如,也可以是立体观测图像生成部135b以及平面图像生成部135c使用体数据整体来进行图像生成处理,显示控制部135d针对立体观测图像进行用于只显示立体观测区域的屏蔽处理,针对平面图像进行用于只显示背景区域的屏蔽处理,之后将两图像重叠。这样,当使用体数据整体而生成有立体观测图像或平面图像时,例如,之后,显示控制部135d能够接受基于操作者的操作,切换到由立体观测图像来显示显示面全部区域的显示、或者切换到由平面图像来显示显示面全部区域的显示。
图15是表示第1实施方式所涉及的处理步骤的流程图。如图15所示,首先,立体观测区域指定接受部135a从存储部134读入体数据(步骤(step)S101),并根据所读入的体数据生成指定用图像,并将所生成的指定用图像显示于显示部132(步骤S102)。接着,立体观测区域指定接受部135a在指定用图像上,接受视点位置以及立体观测区域的指定(步骤S103)。
于是,立体观测图像生成部135b使用由立体观测区域指定接受部135a接受到的视点位置以及立体观测区域等,来生成立体观测图像(步骤S104)。另外,平面图像生成部135c使用由立体观测区域指定接受部135a接受到的视点位置以及立体观测区域等,来生成平面图像(步骤S105)。并且,显示控制部135d控制在立体观测区域显示立体观测图像,在背景区域显示平面图像(步骤S106)。
另外,图15所示的处理步骤只不过是一个例子。例如,立体观测图像的生成处理与平面图像的生成处理顺序也可以相反,处理也可以并列进行。
另外,第1实施方式所涉及的工作站130针对立体观测图像以及平面图像的显示,具有以下的附加功能。
(附加功能1:视点位置、立体观测区域的变更)
首先,第1实施方式所涉及的工作站130在显示部132的显示面上接受变更视点位置或立体观测区域的指示,并按照接受到的变更指示,更新显示中的图像。具体而言,在通过显示控制部135d显示出立体观测图像以及平面图像期间,立体观测区域指定接受部135a在该显示面上接受变更视点位置或立体观测区域的指示。
例如,通过操作作为输入部131的鼠标,放大镜a的工具(tool)在显示部132的显示面上能够放大、缩小,并能够移动。另外,立体观测图像以及平面图像所描绘出的对象物通过操作鼠标,能够在显示面内旋转。因此,例如,立体观测区域指定接受部135a将通过鼠标操作后的放大镜a所示的圆形区域作为变更后的立体观测区域来接受。另外,立体观测区域指定接受部135a将与接受变更后的立体观测区域的指定时显示面上所显示出的图像垂直的方向作为变更后的视点位置来接受。
于是,立体观测图像生成部135b以及平面图像生成部135c使用变更后的视点位置以及立体观测区域、和其他的绘制条件,再次对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成新的立体观测图像或平面图像。并且,显示控制部135d控制将重新生成的立体观测图像与平面图像重叠,并分别在变更后的立体观测区域以及变更后的背景区域,显示重新生成的立体观测图像以及平面图像。
另外,如上述那样,当使用体数据整体生成了立体观测图像或平面图像、且在视点位置没有发生变更时,例如,显示控制部135d没有重新生成立体观测图像或平面图像,能够只通过变更屏蔽处理的位置,来更新显示中的画面。
(附加功能2:立体感的变更)
接着,第1实施方式所涉及的工作站130针对立体观测区域内的立体观测图像,接受该立体感的变更指示,并按照接受的变更指示来更新显示中的图像。具体而言,立体观测区域指定接受部135a在通过显示控制部135d显示出立体观测图像以及平面图像期间,例如,通过由鼠标来操作该显示面上显示出的工具栏,来接受立体感的变更指示。
在此,立体观测图像的立体感根据视差角来确定。例如,将视差角指定为“0.5度”时与视差角指定为“1度”时相比较,视差角指定为“1度”时立体感变大。例如,假设立体观测图像生成部135b使用作为初始值而设定的视差角“0.5度”来生成立体观测图像。之后,假设接受使立体感变大的方向的变更指示,作为该视差角指定为“1度”。于是,立体观测图像生成部135b将变更后的视差角“1度”作为新的绘制条件,再次对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成新的立体观测图像。并且,显示控制部135d将作为图层1的图像应该进行显示的立体观测图像置换成重新生成的立体观测图像。
(附加功能3:缩放率的变更)
接着,第1实施方式所涉及的工作站130针对立体观测区域内的立体观测图像,接受其放大率或者缩小率(以下,称为“缩放率”)的变更指示,并按照接受的变更指示,更新显示中的图像。具体而言,立体观测区域指定接受部135a在通过显示控制部135d显示出立体观测图像以及平面图像期间,例如,通过由鼠标来操作该显示面上所显示出的工具栏,来接受缩放率的变更指示。
例如,假设立体观测图像生成部135b使用作为初始值设定的缩放率“100%”来生成立体观测图像。之后,假设接受放大的方向的变更指示,指定“115%”作为其缩放率。于是,立体观测图像生成部135b将变更后的缩放率“115%”作为新的绘制条件,再次对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成新的立体观测图像。并且,显示控制部135d将作为图层1的图像应该进行显示的立体观测图像置换成重新生成的立体观测图像。
(第1实施方式所涉及的变形例)
另外,在此,针对第1实施方式所涉及的显示例或附加功能进行了说明,但实施方式并不限定于此。
在上述的显示例中,说明了在指定区域显示“立体观测图像”,在背景区域显示“平面图像”的例子。另外,该“平面图像”是将用于显示立体观测图像的视差图像组中的一个视差图像,作为置换成视差图像组的同一图像来使用的图像。换而言之,“立体观测图像”是通过对体数据进行体绘制处理而生成的图像,是三维显示在立体显示显示器上的图像。另一方面,“平面图像”是同样地通过对体数据进行体绘制处理而生成的图像,但二维显示在立体显示显示器上。即,上述的显示例是在指定区域三维显示体绘制图像,在背景区域二维显示体绘制图像的例子。
然而,实施方式并不限定于此,例如,也可以在指定区域二维显示体绘制图像,在背景区域三维显示体绘制图像。另外,二维显示的“平面图像”并不限定于“体绘制图像”,例如,也可以是“面绘制图像”、或“MPR图像”或“MIP(MaximumIntensityProjection)图像”、“MinIP(MinimumIntensityProjection)图像”等。另外,MIP图像是最大值投影图像,MinIP图像是最小值投影图像。此时,平面图像所描绘的对象物不必与立体观测图像所描绘的对象物相同,但与其对应。即,例如,当在立体观测图像中描绘出被检体的脑血管时,平面图像所描绘的对象物也是相同的被检体的相同的脑血管,但实施了同一绘制处理的图像不是二维显示的图像,而是实施了不同的绘制处理的图像。
另外,“立体观测图像”例如也可以是如通过能够立体观测的图形来表现的图标那样变形后的图像(以下,称为“图标立体观测图像”)。图16A~图16C是用于说明第1实施方式所涉及的变形例的图。例如,在图16A中,在背景图像中二维显示“体绘制图像”,同时在指定区域三维显示“图标立体观测图像”,并在该“图标立体观测图像”的表面粘贴有“体绘制图像”作为“平面图像”。
另外,例如,在图16B中,在背景图像二维显示“体绘制图像”,并且在指定区域三维显示“图标立体观测图像”,并在该“图标立体观测图像”的表面粘贴有“MPR图像”。另外,例如,在图16C中,在背景图像上二维显示“MPR图像”,并且在指定区域三维显示“图标立体观测图像”,并在该“图标立体观测图像”的表面粘贴有“MPR图像”。
另外,说明在指定区域显示“图标立体观测图像”的方法,例如,与作为医用图像数据的体数据不同,作为图标用体数据,存储部134存储各种大小的立方体或长方体、圆柱的体数据。例如,立体观测图像生成部135b根据作为从存储部134读入的医用图像数据的体数据,来生成用于粘贴在“图标立体观测图像”的表面的视差图像组,同时根据从存储部134读入的图标用体数据,生成用于显示“图标立体观测图像”的主体的视差图像组。并且,立体观测图像生成部135b通过分别在用于显示“图标立体观测图像”的主体的视差图像组上,重叠用于粘贴在“图标立体观测图像”的表面的视差图像组,来生成用于显示“图标立体观测图像”的视差图像组。另外,存储部134也可以预先存储用于显示与各种大小对应的“图标立体观测图像”的主体的视差图像组。
如上述那样,立体观测图像以及平面图像的组合能够根据应用的方式任意地变更,其一部分例如如以下的表1所示的那样。另外,在表1中,括弧内表示粘贴在图标立体观测图像上的图像。
【表1】
表1
另外,也可以代替表1中的“体绘制图像”而使用“面绘制图像”,另外,也可以代替“MIP图像”而使用“MinIP图像”。另外,在上述中,说明了立体观测图像主要识别从显示面向跟前方向的飞出感的例子,但实施方式并不限定于此,也同样应用于识别从显示面向深度方向的深度感的情况、或识别飞出感以及深度感这双方的情况。例如,当立体观测图像所描绘出的对象物是肺野时,也可以将肺野从其中心前后分开,以将前侧部分识别为飞出感,将后侧部分识别为深度感的方式,生成立体观测图像或平面图像,并进行显示。通过这样,观察该立体观测图像或平面图像的观察者将能够容易地进行读影。另外,飞出感或深度感例如也可以作为绘制条件之一预先进行设定。
另外,即使在上述的变形例中,也能够应用附加功能。即,视点位置、指定区域的变更、立体感的变更、缩放率的变更也同样能应用于上述的变形例中。
(第1实施方式的效果)
如上述那样,根据第1实施方式,由于是分别在显示面内的指定区域以及背景区域,分别显示立体观测图像以及平面图像的方法,因此,与在显示面内的全部区域显示立体观测图像的方法相比较,能够减轻压力,并且能够使焦点对准所希望的区域,并能够适当地显示医用图像。
(第2实施方式)
接着,说明第2实施方式。如作为第1实施方式的变形例说明的那样,在实施方式中,包含在指定区域三维显示“立体观测图像”,在背景区域二维显示“MPR图像”的例子、或在指定区域二维显示“MPR图像”,在背景区域三维显示“立体观测图像”的例子、或者在指定区域三维显示粘贴有“MPR图像”的“图标立体观测图像”,在背景区域二维显示“体绘制图像”的例子等。在此,第2实施方式所涉及的工作站130接受在指定区域或背景区域二维显示的“MPR图像”的剖面位置的指定,并按照接受的剖面位置的指定,更新显示中的图像。另外,即使在第2实施方式中,说明了立体观测图像主要识别从显示面向跟前方向的飞出感的例子,但实施方式并不限定于此,同样也应用于识别从显示面向深度方向的深度感的情况、或识别飞出感以及深度感的双方的情况。
图17~图19是用于说明第2实施方式所涉及的显示例的图。如图17所示,第2实施方式所涉及的工作站130在指定区域三维显示立体观测图像,在背景区域二维显示MPR图像。或者,如图18所示,第2实施方式所涉及的工作站130在指定区域二维显示MPR图像,在背景区域三维显示立体观测图像。或者,如图19A所示,第2实施方式所涉及的工作站130在指定区域三维显示图标立体观测图像,在背景区域二维显示体绘制图像。另外,在该图标立体观测图像的表面,粘贴有MPR图像。
图20是用于说明第2实施方式所涉及的控制部135的构成例的图。如图20所示,第2实施方式所涉及的控制部135还具有剖面位置指定接受部135e。剖面位置指定接受部135e经由输入部131来接受操作者对剖面位置的指定,并将接受到的剖面位置的指定发送至立体观测图像生成部135b或者平面图像生成部135c。例如,剖面位置指定接受部135e在通过显示控制部135d显示出立体观测图像以及平面图像期间,例如通过由鼠标来操作该显示面上所显示出的工具栏,来接受剖面位置的指定。
于是,立体观测图像生成部135b或者平面图像生成部135c将指定后的剖面位置作为新的绘制条件,再次对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成新的MPR图像。并且,显示控制部135d将作为图层1或者图层2的图像应该显示的MPR图像置换成重新生成的MPR图像。例如,图19B是将粘贴于图标立体观测图像的表面的MPR图像置换成重新生成的MPR图像的例子。
(第2实施方式的效果)
如上述那样,根据第2实施方式,由于是接受二维显示于指定区域或背景区域的MPR图像的剖面位置的指定,并按照接受的剖面位置的指定,更新显示中的图像的方法,因此,操作者能够一边变更剖面位置一边阅览。
(第3实施方式)
接着,说明第3实施方式。第3实施方式所涉及的工作站130没有接受操作者对指定区域的指定,而根据医用图像数据的解析结果确定指定区域。
代替控制部135,第3实施方式所涉及的工作站130具备控制部235。图21是用于说明第3实施方式所涉及的控制部235的构成例的图。如图21所示,代替立体观测区域指定接受部135,第3实施方式所涉及的控制部235具备解析部235a-1以及指定区域确定部235a-2。另外,由于立体观测图像生成部235b、平面图像生成部235c、以及显示控制部235d分别具有与立体观测图像生成部135b、平面图像生成部135c、以及显示控制部135d对应的功能,因此,省略说明。
解析部235a-1对体数据等医用图像数据进行解析,并输出解析结果。例如,解析部235a-1从存储部134读入体数据,并对读入的体数据进行按照预先设定的解析算法的解析,输出解析结果。并且,解析部235a-1将所输出的解析结果发送至指定区域确定部235a-2。
在此,基于解析部235a-1的解析例如能够通过现有的自动诊断技术(CAD:ComputerAidedDiagnosis)来实现。例如,解析部235a-1针对对象物所包含的各区域,进行基于预先设定的多个判断项目的判断,当多个判断项目中例如即使1个项目超过阈值时,则输出表示符合的区域的位置的解析结果。例如,判断项目是被怀疑为肿瘤的区域的大小、被怀疑为肿瘤的区域的形状、被怀疑为肿瘤的区域的位置、血管的针状(spicula)度、支气管的针状度、造影的有无等。
指定区域确定部235a-2根据基于解析部235a-1的解析结果,来确定指定区域。例如,如果作为解析结果从解析部235a-1接受“被怀疑为肿瘤的区域”的位置,则指定区域确定部235a-2将包含该“被怀疑为肿瘤的区域”的规定范围的区域确定为指定区域。并且,指定区域确定部235a-2将所确定的指定区域发送至立体观测图像生成部235b以及平面图像生成部235c。另外,在第3实施方式中,视点位置可以使用预先设定的初始值,或者,也可以与第1或者第2实施方式相同,接受指定。
图22是表示第3实施方式所涉及的处理步骤的流程图。如图22所示,首先,解析部235a-1对从存储部134读入的体数据进行按照预先设定的解析算法的解析,作为解析结果,输出被怀疑异常的区域的位置(步骤S201)。
接着,指定区域确定部235a-2将包含从解析部235a-1接受的位置的规定范围的区域确定为指定区域(步骤S202)。
之后,与第1实施方式或者第2实施方式相同,立体观测图像生成部235b生成立体观测图像(步骤S203),平面图像生成部235c生成平面图像(步骤S204),显示控制部235d例如控制在指定区域三位显示立体观测图像,在背景区域二维显示平面图像(步骤S205)。另外,即使在第3实施方式中,也能够在指定区域二维显示平面图像,在背景图像三位显示立体观测图像,另外,立体观测图像以及平面图像的组合能够根据应用的方式任意地变更。
(第3实施方式所涉及的变形例1)
另外,作为第3实施方式,说明了基于解析部235a-1的解析通过现有的自动诊断技术来实现的例子,但实施方式并不限定于此。
例如,基于解析部235a-1的解析也能够通过现有的CBP(CerebralBloodPerfusion)技术来实现。例如,解析部235a-1将通过投放了造影剂的连续高速拍摄而收集到的医用图像数据进行解析,输出单位时间的血液量(以下,称为“MAP值”)作为解析结果。如果从解析部235a-1接受MAP值,则指定区域确定部235a-2将该MAP值超过规定阈值的区域确定为指定区域。并且,指定区域确定部235a-2将所确定的指定区域发送至立体观测图像生成部235b以及平面图像生成部235c。
于是,例如,立体观测图像生成部235b首先生成通常的MAP图像,并以在生成的MAP图像中只能够立体观测指定区域的方式,生成视差图像组。也可以使用任何的方法来生成,例如,立体观测图像生成部135b也可以使用与上述的“图标立体观测图像”的生成相同的方法。
即,例如,立体观测图像生成部235b根据通常的MAP图像,生成用于显示在与指定区域的圆对应的圆柱的表面的视差图像组,同时根据图标用体数据,生成用于显示圆柱的主体的视差图像组。并且,立体观测图像生成部235b分别在用于显示圆柱的主体的视差图像组上,分别重叠用于显示在圆柱的表面的视差图像组。另一方面,平面图像生成部235c生成用于将通常的MAP图像作为平面图像来显示的同一图像组。
图23A以及图23B是用于说明第3实施方式的变形例所涉及的显示例的图。图23A是不包含立体观测图像的MAP图像,图23B是MAP值超过了规定阈值的区域显示为能够立体观测的圆柱的MAP图像。另外,MAP值超过了规定阈值的区域通常是病变部。根据第3实施方式,如图23B所示,由于该病变部能够立体观测地显示,因此,能够减少病变部的遗漏。
(第3实施方式所涉及的变形例2)
接着,在第1实施方式或第2实施方式中,说明了在指定区域或背景区域显示“MPR图像”的方法。另外,在第3实施方式中,说明了没有接受操作者对立体观测区域的指定,而根据医用图像数据的解析结果来确定立体观测区域的方法。在此,在变形例2中,说明了根据医用图像数据的解析结果,确定在指定区域或背景区域显示的“MPR图像”的剖面位置的方法。
即,如上述那样,当基于解析部235a-1的解析例如通过现有的自动诊断技术来实现时,解析部235a-1能够输出被怀疑异常的区域的位置作为解析结果。因此,如上述那样,指定区域确定部235a-2将包含该位置的规定范围的区域确定为指定区域,另外,根据该位置来确定“MPR图像”的剖面位置。例如,指定区域确定部235a-2针对被怀疑异常的区域,计算其重心,并将计算出的重心的位置确定为“MPR图像”的剖面位置。并且,指定区域确定部235a-2将该剖面位置的信息发送至立体观测图像生成部235b或者平面图像生成部235c,立体观测图像生成部235b或者平面图像生成部235c将确定的剖面位置作为绘制条件,生成MPR图像。
(第3实施方式的效果)
如上述那样,根据第3实施方式,由于能够根据基于现有的自动诊断技术或现有的CBP技术的解析结果,自动地确定指定区域,因此,能够更适当地显示解析结果。
另外,例如,当导入有使用X射线CT装置的肺癌检查时,考虑作为读影对象的图像的量将大幅地增加。另外,自动诊断技术已经被用于乳腺癌或大肠癌等。根据第3实施方式,该点能够有效地支持(support)读影。
(第4实施方式)
接着,说明第4实施方式。第4实施方式所涉及的工作站130与第3实施方式相同,以根据医用图像数据的解析结果确定指定区域为前提,另外,根据该解析结果来确定立体观测图像的立体感。
例如,当基于解析部235a-1的解析通过现有的自动诊断技术来实现时,作为解析结果,指定区域确定部235a-2接受超过阈值的判断项目的数量,并根据该判断项目的数量来确定立体感。例如,当预先设定的判断项目为10项时,指定区域确定部235a-2将最大立体感的1/10的立体感作为1个单位的立体感,如果超过阈值的判断项目的数量为“2”,则确定立体感为“2”。并且,指定区域确定部235a-2将立体感“2”发送至立体观测图像生成部235b。
于是,立体观测图像生成部235b将根据立体感“2”的视差角作为绘制条件,对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成视差图像组。并且,显示控制部235d三维显示该视差图像组。
另外,例如,当基于解析部235a-1的解析通过现有的CBP技术实现时,指定区域确定部235a-2接受MAP值作为解析结果,并根据该MAP值确定立体感。并且,指定区域确定部235a-2将所确定的立体感发送至立体观测图像生成部235b。于是,立体观测图像生成部235b将根据立体感的视差角作为绘制条件,对从存储部134读入的体数据进行基于绘制处理部136的体绘制处理,生成视差图像组。并且,显示控制部235d三维显示该视差图像组。
(图标立体观测图像的立体感)
另外,根据解析结果的立体感的确定如果使用“图标立体观测图像”作为立体观测图像则更有效。图24是用于说明第4实施方式所涉及的图标立体观测图像的图。如将图24的(A1)以及(A2)与(B1)以及(B2)相比较得知的那样,当使用“图标立体观测图像”作为立体观测图像时,由于其立体感相当于图标的高度,因此,观察者能够容易地把握该立体感的差异。另外,图24的(A2)以及(B2)是从横向观察图24的(A1)以及(B1)的图标的图。
当基于解析部235a-1的解析通过现有的自动诊断技术来实现时,如上述那样,指定区域确定部235a-2接受超过阈值的判断项目的数量作为解析结果,并根据该判断项目的数量来确定立体感。例如,如果超过阈值的判断项目的数量为“2”,则指定区域确定部235a-2确定立体感为“2”。并且,指定区域确定部235a-2将立体感“2”发送至立体观测图像生成部235b。
于是,立体观测图像生成部235b从图标用体数据中,选择与立体感“2”对应的图标用体数据,并使用所选择的该体数据,生成用于显示“图标立体观测图像”的视差图像组。另外,基于解析部235a-1的解析通过现有的CBP技术实现时也同样能够实现。
另外,这样,使用“图标立体观测图像”作为立体观测图像时,也可以将该解析结果反映于“图标立体观测图像”的颜色。例如,如果根据超过阈值的判断项目的数量判定为被怀疑异常的程度为“低级(level)”,则指定区域确定部235a-2将该信息发送至立体观测图像生成部235b。于是,立体观测图像生成部235b对作为立方体或长方体、圆柱的周围的颜色的“图标立体观测图像”的颜色,涂覆与“低级”对应的颜色(例如,蓝色),来显示该“图标立体观测图像”。另外,例如,如果是“中级”涂覆黄色,如果是“高级”涂覆红色即可。
另外,并不限定于判断项目的数量或MAP值,作为基于解析部235a-1的解析结果,例如当输出“肿瘤的恶性度”时,指定区域确定部235a-2也可以确定根据该恶性度的立体感。
(第4实施方式所涉及的变形例)
另外,在根据解析结果确定立体观测图像的立体感的方法之外,例如,也可以根据与二维显示于指定区域或背景区域的“MPR图像”的剖面位置的关系,来确定立体观测图像的立体感。
图25A以及图25B是用于说明第4实施方式所涉及的变形例的显示例的图。如图25A以及图25B所示,例如,当在背景图像中二维显示“体绘制图像”,在指定区域三维显示“图标立体观测图像”,并在该“图标立体观测图像”表面粘贴有“MPR图像”时,立体观测图像生成部235b根据“MPR图像”的剖面位置,来变更“图标立体观测图像”的高度。
即,指定区域确定部235a-2针对作为“MPR图像”而显示的剖面位置,确定三维空间上的坐标(深度方向的坐标)。并且,立体观测图像生成部235b从图标用体数据中,选择与深度方向的坐标对应的图标用体数据,并使用所选择的该体数据,生成用于三维显示“图标立体观测图像”的视差图像组。
例如,如将图25A所示的“图标立体观测图像”的高度与图25B所示的“图标立体观测图像”的高度相比较得知的那样,图25B所示的“图标立体观测图像”比图25A所示的“图标立体观测图像”高度高。这表示与图25A所示的“图标立体观测图像”上所粘贴的“MPR图像”的剖面位置相比,图25B所示的“图标立体观测图像”所粘贴的“MPR图像”的剖面位置靠前。
另外,如上述那样,在第4实施方式中,立体感存在根据解析结果来确定的情况和通过与“MPR图像”的剖面位置的关系来确定的情况,例如,工作站130可切换地具备该两个功能。
(第4实施方式的效果)
如上述那样,根据第4实施方式,根据基于现有的自动诊断技术或现有的CBP技术的解析结果,也能够调整立体观测图像的立体感,因此,能够更适当地显示解析结果。
(其他的实施方式)
说明几个其他的实施方式。
(4D数据的显示)
在上述的实施方式中,说明了分别在显示面内的指定区域以及背景区域,分别显示立体观测图像以及平面图像的方法。然而,也可以在立体观测图像以及平面图像的一方或者双方中使用4D数据。即,也可以按时间序列连续地再生立体观测图像或平面图像。
另外,此时,也可以追踪伴随着时间迁移的移动,并与追踪结果联动,移动指定区域。例如,当肿瘤的位置由于呼吸运动等而发生移动时有效。例如,指定区域确定部235a-2根据解析结果确定最初的指定区域之后,针对该指定区域所包含的图像(例如,肿瘤),追踪伴随着时间迁移的移动,并与追踪结果联动,变更指定区域,并通知给显示控制部235d。于是,显示控制部235d例如通过变更屏蔽(mask)处理的位置,来使指定区域移动。
或者,也可以不使指定区域移动而使背景图像发生变化。此时,例如,指定区域确定部235a-2将追踪结果通知给生成背景图像的立体观测图像生成部235b或者平面图像生成部235c。于是,立体观测图像生成部235b或者平面图像生成部235c根据该追踪结果生成使位置移动的立体观测图像或平面图像。
(诊断报告(report))
另外,也可以根据上述实施方式所显示出的图像,自动生成诊断报告。图26是用于说明其他的实施方式所涉及的显示例的图。例如,当显示出图26所示的图像时,医师等操作者能够在图像上添加说明。另外,医师等操作者能够通过操作输入部131(例如,操作作为输入部131的鼠标的滚轮等),来变更“图标立体观测图像”的立体感。例如,如果医师等操作者阅览图像并诊断为“不是癌症”,则使“图标立体观测图像”的高度为“0”。并且,工作站130将添加了说明、并调整了“图标立体观测图像”的高度的图像作为诊断报告存储于存储部134。
另外,例如,如果阅览图像并诊断为“被认为是良性的、但存有疑问”时,则医师等操作者操作输入部131,例如,以残留“图标立体观测图像”的立体感,同时将高度稍微降低的方式,来变更“图标立体观测图像”的立体感。即,医师等操作者通过操作输入部131,能够根据诊断内容(例如,癌症的恶性度等)来变更“图标立体观测图像”的高度。换而言之,第4实施方式所涉及的工作站130经由操作者对输入部131的操作,接受“图标立体观测图像”的立体感的变更,并生成按照接受的立体感的新的立体观测图像,并作为诊断报告存储于存储部134。
(结构)
另外,在上述实施方式中,说明了工作站130生成立体观测图像以及平面图像,并控制其显示的例子。然而,实施方式并不限定于此。例如,医用图像诊断装置110或终端装置140也可以具备相当于控制部135或绘制处理部136的功能。相当于控制部235的功能。此时,医用图像诊断装置110或终端装置140生成立体观测图像以及平面图像,并控制其显示。另外,立体观测图像的生成、平面图像的生成、以及显示控制也可以分散于图像处理系统1所包含的各装置来实现。
另外,在上述的实施方式中,说明了终端装置140对从图像保管装置120取得的医用图像等进行显示等的例子。然而,实施方式并不限定于此。例如,终端装置140也可以与医用图像诊断装置110直接连接。
另外,在上述的实施方式,工作站130从图像保管装置120取得了体数据。然而,实施方式并不限定于此。例如,工作站130也可以从医用图像诊断装置110来取得体数据。
另外,在上述的实施方式中,当变更立体观测图像时,实时进行了对体数据的体绘制处理,但实施方式并不限定于此。例如,也可以预先生成根据多个视点位置的多个视差图像,并预先进行存储。此时,如果接受立体感的变更指示,则立体观测图像生成部通过从预先存储的多个视差图像中适当地选择根据新的视差角的视差图像组,来生成新的立体观测图像。
(指定区域以及背景区域的双方是立体观测图像)
另外,在上述的实施方式中,说明了分别在显示面内的指定区域以及背景区域,分别显示立体观测图像以及平面图像的方法,但实施方式并不限定于此。例如,在第1实施方式~第4实施方式中,可以在指定区域以及背景区域这双方上,显示立体感不同的立体观测图像。该立体感的差异可以是如在立体观测图像与平面图像上那样观察的大的差异,也可以是难以区分的那样小的差异。即,立体感的差异能够任意地变更。另外,也可以只针对指定区域所显示的立体观测图像,接受立体感或缩放率的变更。根据这样的方法,能够只变更关心区域的立体感或缩放率。
此时,例如,工作站130具备第1图像生成部、第2图像生成部、以及显示控制部。第1图像生成部通过对体数据进行绘制处理,来生成第1图像。第2图像生成部通过对体数据进行绘制处理,来生成与第1图像立体感不同的第2图像。并且,显示控制部控制分别在指定区域以及背景区域,分别显示第1图像以及第2图像。即,显示控制部控制分别在指定区域以及背景区域,分别三维显示第1图像以及第2图像。另外,工作站130针对指定区域所显示的立体观测图像,接受立体感或缩放率的变更,第1图像生成部或者第2图像生成部按照接受的变更,再生成新的立体观测图像。
(在其他的窗口显示立体观测图像)
另外,在上述的实施方式中,说明了分别在显示面内的指定区域以及背景区域,分别显示立体观测图像以及平面图像的方法,但实施方式并不限定于此。例如,也可以在全部区域显示平面图像,在其他的窗口显示立体观测图像。
此时,例如,工作站130在立体显示显示器上二维显示平面图像,并在该平面图像上,接受作为立体观测图像而三维显示的区域的指定。例如,工作站130通过放大镜的工具来接受区域的指定。并且,工作站130在其他窗口三维显示接受了该指定的区域内的立体观测图像。
(2视差、6视差等)
另外,在上述的实施方式中,以9视差图像的情况为例进行了说明,但实施方式并不限定于此,例如,也可以使用2视差、6视差等、任意的视差数。图27A以及图27B是用于说明其他的实施方式所涉及的立体观测图像生成处理的图。2视差的情况下,如图27A所示,立体观测图像的生成将指定的视点位置作为“视点位置C”,并将以该“视点位置C”为中心的“视点位置L”以及“视点位置R”的2点作为绘制条件来进行。另外,当是6视差时,如图27B所示,立体观测图像的生成将所指定的视点位置作为“视点位置C”,并将以该“视点位置C”为中心的“视点位置L2”、“视点位置L1”、“视点位置L3”、“视点位置R2”、“视点位置R1”、以及“视点位置R3”这6点作为绘制条件来进行。
(其他)
另外,图示出的各装置的构成要素是功能概念性的,不需要如图示那样物理性地构成。即,各装置的分散/综合的具体方式并不限定于图示的方式,能够根据各种负荷或使用状况等,以任意的单位功能性或者物理性地分散/综合其全部或者一部分来构成。另外,各装置所进行的各处理功能的全部或者任意的一部分能够通过CPU以及在该CPU中进行解析执行的程序(program)来实现,或者,作为基于布线逻辑(wiredlogic)的硬件(hardware)来实现。
另外,上述的实施方式所说明了的图像处理方法能够通过由个人计算机(personalcomputer)或工作站等计算机来执行预先准备好的图像处理程序来实现。该图像处理程序能够经由因特网(internet)等网络(network)来分配。另外,该程序被存储于硬盘、软盘(flexible)(FD)、CD-ROM、MO、DVD等计算机可读存储介质中,通过计算机从存储介质中读出来执行。
根据以上所述的至少一个实施方式的图像处理系统以及方法,能够适当地显示医用图像。
虽然说明了本发明的几个实施方式,但这些实施方式是作为例子而提示的,并不意图限定本发明的范围。这些实施方式能够以其他的各种形态进行实施,在不脱离发明的要旨的范围内,能够进行各种的省略、置换、变更。这些实施方式或其变形与包含于发明的范围或要旨中一样,包含于权利要求书记载的发明及其均等的范围中。

Claims (11)

1.一种图像处理系统,其特征在于,具备:
指定接受部,其根据作为3维医用图像数据的体数据来生成指定用图像,将所生成的上述指定用图像显示于显示部,来在上述指定用图像上接受视点位置以及指定区域的指定;
第1图像生成部,其通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理,来生成显示为立体观测图像的视差图像组作为第1图像;
第2图像生成部,其通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理,来生成立体感与上述第1图像不同的第2图像;以及
显示控制部,其按照分别在上述显示部所显示的上述指定用图像上指定的上述指定区域以及除了该指定区域之外的背景区域,分别显示上述第1图像以及上述第2图像的方式来进行控制。
2.根据权利要求1所述的图像处理系统,其特征在于,
上述显示部通过显示规定视差数的视差图像组来显示上述立体观测图像,且通过将多个相同图像置换成上述视差图像组并进行显示来显示平面图像,
上述第2图像生成部生成描绘有与上述立体观测图像所描绘出的对象物相同或者对应的对象物的上述平面图像作为上述第2图像,
上述显示控制部按照如下方式进行控制:将上述立体观测图像与上述平面图像重叠,并在上述显示部所显示的指定用图像上指定的上述指定区域以及除了该指定区域之外的背景区域中的任一方上显示上述立体观测图像,而在另一方上显示上述平面图像。
3.根据权利要求2所述的图像处理系统,其特征在于,
上述平面图像是根据上述体数据生成的体绘制图像、面绘制图像、MPR图像、MIP图像、或者MinIP图像。
4.根据权利要求2所述的图像处理系统,其特征在于,
上述立体观测图像是能够立体观测的体绘制图像、或者是在能够立体观测的图形的表面粘贴有根据上述体数据生成的体绘制图像、面绘制图像、MPR图像、MIP图像、或者MinIP图像而得到的图像。
5.根据权利要求2所述的图像处理系统,其特征在于,
上述指定接受部接受对上述视点位置以及上述指定区域进行变更的指示、对上述显示部所显示的立体观测图像的立体感进行变更的指示、以及对上述显示部所显示的立体观测图像的放大率或者缩小率进行变更的指示中至少一个,
上述第1图像生成部按照上述指示来生成上述视差图像组。
6.根据权利要求2所述的图像处理系统,其特征在于,
上述第2图像生成部生成显示上述立体观测图像所描绘的对象物的剖面的剖面图像作为上述平面图像,
上述显示控制部控制在上述指定区域或者上述背景区域中的任一个上显示上述剖面图像。
7.根据权利要求6所述的图像处理系统,其特征在于,
上述图像处理系统还具备剖面位置接受部,该剖面位置接受部接受作为上述剖面图像而显示的剖面位置的指定,
上述第2图像生成部按照上述剖面位置的指定来生成作为上述平面图像的剖面图像。
8.一种图像处理系统,其特征在于,具备:
解析部,其对作为3维医用图像数据的体数据进行解析,并输出表示上述体数据所含的区域的位置的解析结果;
确定部,其根据上述解析结果来确定显示部的显示面内的指定区域;
第1图像生成部,其通过利用在规定的视点位置以及上述指定区域,对上述体数据进行绘制处理,来生成显示为立体观测图像的视差图像组作为第1图像;
第2图像生成部,其通过利用上述规定的视点位置以及上述指定区域,对上述体数据进行绘制处理,来生成描绘出与上述立体观测图像所描绘出的对象物相同或者对应的对象物的平面图像,作为第2图像;以及
显示控制部,将上述立体观测图像与上述平面图像重叠,分别在根据上述解析结果确定的上述指定区域以及除了该指定区域之外的背景区域中的任一方上显示上述立体观测图像,而在另一方上显示上述平面图像。
9.根据权利要求8所述的图像处理系统,其特征在于,
上述显示控制部使得显示剖面图像作为上述平面图像,其中,该剖面图像是对上述立体观测图像所描绘出的对象物的剖面进行显示的剖面图像,
上述确定部还根据上述解析结果来确定作为上述剖面图像而显示的剖面位置,
上述第2图像生成部按照根据上述解析结果确定的剖面位置的指定,来生成作为上述平面图像的剖面图像。
10.根据权利要求8所述的图像处理系统,其特征在于,
上述显示控制部按照在根据上述解析结果而确定的指定区域显示上述立体观测图像的方式来进行控制,
上述确定部还根据上述解析结果来确定上述立体观测图像的立体感,
上述第1图像生成部按照根据上述解析结果确定的立体感来生成上述立体观测图像。
11.一种由图像处理系统执行的图像处理方法,其特征在于,包含:
指定接受步骤,根据作为3维医用图像数据的体数据来生成指定用图像,将所生成的上述指定用图像显示于显示部,来在上述指定用图像上接受视点位置以及指定区域的指定;
第1图像生成步骤,通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理来生成显示为立体观测图像的视差图像组作为第1图像;
第2图像生成步骤,通过利用在上述指定用图像上指定的上述视点位置以及上述指定区域,对上述体数据进行绘制处理来生成立体感与上述第1图像不同的第2图像;以及
显示控制步骤,按照如下方式来进行控制:分别在上述显示部所显示的上述指定用图像上指定的指定区域以及除了该指定区域之外的背景区域分别显示上述第1图像以及上述第2图像。
CN201210190209.XA 2011-06-09 2012-06-08 图像处理系统以及方法 Expired - Fee Related CN102821292B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-129368 2011-06-09
JP2011129368 2011-06-09

Publications (2)

Publication Number Publication Date
CN102821292A CN102821292A (zh) 2012-12-12
CN102821292B true CN102821292B (zh) 2016-06-08

Family

ID=46798980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210190209.XA Expired - Fee Related CN102821292B (zh) 2011-06-09 2012-06-08 图像处理系统以及方法

Country Status (4)

Country Link
US (1) US8884958B2 (zh)
EP (1) EP2533543A3 (zh)
JP (2) JP5226887B2 (zh)
CN (1) CN102821292B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9319483B2 (en) * 2012-11-13 2016-04-19 Karl Storz Imaging, Inc. Asynchronous open task for operating room control system
KR101538658B1 (ko) * 2012-11-20 2015-07-22 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
US9225969B2 (en) 2013-02-11 2015-12-29 EchoPixel, Inc. Graphical system with enhanced stereopsis
JP6201255B2 (ja) * 2013-04-11 2017-09-27 ザイオソフト株式会社 医用画像処理システムおよび医用画像処理プログラム
US9468420B2 (en) * 2013-05-02 2016-10-18 Toshiba Medical Systems Corporation Medical imaging data processing apparatus and method
US9159301B2 (en) * 2013-05-07 2015-10-13 Honda Motor Co., Ltd. Slanted map
CN105167793B (zh) 2014-06-11 2018-10-09 佳能株式会社 图像显示装置、显示控制装置及显示控制方法
JP6431292B2 (ja) 2014-06-11 2018-11-28 キヤノン株式会社 医用画像表示装置およびその制御方法、制御装置、プログラム
JP6080267B2 (ja) * 2014-09-12 2017-02-15 富士フイルム株式会社 3次元オブジェクト分割出力装置およびその応用
EP3106096B1 (en) 2015-06-12 2020-02-19 Samsung Medison Co., Ltd. Method and apparatus for displaying ultrasound images
KR102531117B1 (ko) * 2015-10-07 2023-05-10 삼성메디슨 주식회사 대상체를 나타내는 영상을 디스플레이하는 방법 및 장치.
EP3547675A4 (en) * 2016-11-24 2020-04-22 Nikon Corporation IMAGE PROCESSING DEVICE, MICROSCOPE SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
US10631799B2 (en) * 2016-12-07 2020-04-28 Harris Corporation Dental image collection device providing optical alignment features and related system and methods
JP6963399B2 (ja) * 2017-03-16 2021-11-10 株式会社スクウェア・エニックス プログラム、記録媒体、画像生成装置、画像生成方法
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
JP7235519B2 (ja) * 2019-01-29 2023-03-08 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US11314383B2 (en) * 2019-03-24 2022-04-26 Apple Inc. Stacked media elements with selective parallax effects
WO2020252094A1 (en) * 2019-06-11 2020-12-17 Board Of Regents, The University Of Texas System Computed tomography (ct) imaging artifact reduction technique making use of tilted scans
WO2021044900A1 (ja) * 2019-09-02 2021-03-11 ソニー株式会社 施術システム、画像処理装置、画像処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081577A (en) * 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
CN101374244A (zh) * 2007-08-21 2009-02-25 株式会社东芝 立体图像显示装置
CN101744633A (zh) * 2008-12-03 2010-06-23 株式会社东芝 图像显示装置及x射线ct装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271997A (ja) * 1994-03-29 1995-10-20 Toshiba Corp 画像処理装置
JP2001128982A (ja) * 1999-11-02 2001-05-15 Toshiba Corp 超音波画像診断装置および画像処理装置
JP4702971B2 (ja) * 1999-11-10 2011-06-15 株式会社東芝 コンピュータ支援診断システム
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
JP3887276B2 (ja) * 2002-07-08 2007-02-28 株式会社東芝 立体画像再生装置
JP4015090B2 (ja) 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
US7376903B2 (en) 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
JP4644449B2 (ja) * 2004-07-12 2011-03-02 富士通株式会社 画像表示装置および画像表示プログラム
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体
JP3891442B2 (ja) * 2005-05-25 2007-03-14 株式会社日立メディコ 3次元画像処理方法
JP4885042B2 (ja) * 2007-04-12 2012-02-29 富士フイルム株式会社 画像処理方法および装置ならびにプログラム
WO2009116663A1 (ja) * 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
JP5637653B2 (ja) * 2008-08-18 2014-12-10 株式会社東芝 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
JP2010167042A (ja) * 2009-01-21 2010-08-05 Canon Inc 医用診断支援装置及びその制御方法、並びに、プログラム
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
JP5338549B2 (ja) * 2009-08-05 2013-11-13 ソニー株式会社 表示装置及び表示方法
JP5572437B2 (ja) * 2010-03-29 2014-08-13 富士フイルム株式会社 3次元医用画像に基づいて立体視用画像を生成する装置および方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081577A (en) * 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
CN101374244A (zh) * 2007-08-21 2009-02-25 株式会社东芝 立体图像显示装置
CN101744633A (zh) * 2008-12-03 2010-06-23 株式会社东芝 图像显示装置及x射线ct装置

Also Published As

Publication number Publication date
US20120313943A1 (en) 2012-12-13
JP2013066241A (ja) 2013-04-11
CN102821292A (zh) 2012-12-12
US8884958B2 (en) 2014-11-11
JP2013016153A (ja) 2013-01-24
JP6211764B2 (ja) 2017-10-11
EP2533543A2 (en) 2012-12-12
EP2533543A3 (en) 2013-02-13
JP5226887B2 (ja) 2013-07-03

Similar Documents

Publication Publication Date Title
CN102821292B (zh) 图像处理系统以及方法
CN102984532B (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102892018B (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102860837B (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102892016B (zh) 图像显示系统、装置、方法以及医用图像诊断装置
CN103444194B (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102893308B (zh) 图像处理系统、装置以及方法
CN102915557B (zh) 图像处理系统、终端装置以及方法
CN102833562B (zh) 图像处理系统以及方法
CN103561655B (zh) 医用图像诊断装置、医用图像处理装置以及方法
CN103702612A (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102892015B (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
CN102892017B (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102892022B (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102833570B (zh) 图像处理系统、装置以及方法
CN102821695A (zh) 图像处理系统、装置、方法以及程序
CN102860836B (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
CN103403770A (zh) 图像处理系统以及方法
CN102890748B (zh) 图像处理系统、装置、 方法以及医用图像诊断装置
JP2013066242A (ja) 画像表示システム、装置、方法及び医用画像診断装置
JP2012244420A (ja) 画像処理システム、装置及び方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160712

Address after: Japan Tochigi

Patentee after: Toshiba Medical System Co., Ltd.

Address before: Tokyo, Japan, Japan

Patentee before: Toshiba Corp

Patentee before: Toshiba Medical System Co., Ltd.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160608

Termination date: 20200608

CF01 Termination of patent right due to non-payment of annual fee