CN103444194A - 图像处理系统、图像处理装置以及图像处理方法 - Google Patents

图像处理系统、图像处理装置以及图像处理方法 Download PDF

Info

Publication number
CN103444194A
CN103444194A CN2012800154140A CN201280015414A CN103444194A CN 103444194 A CN103444194 A CN 103444194A CN 2012800154140 A CN2012800154140 A CN 2012800154140A CN 201280015414 A CN201280015414 A CN 201280015414A CN 103444194 A CN103444194 A CN 103444194A
Authority
CN
China
Prior art keywords
mentioned
coordinate
stereo
picture
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012800154140A
Other languages
English (en)
Other versions
CN103444194B (zh
Inventor
熨斗康弘
塚越伸介
椋本豪
小贯广行
川锅信哉
深野敦史
渡边达也
尾崎公纪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Publication of CN103444194A publication Critical patent/CN103444194A/zh
Application granted granted Critical
Publication of CN103444194B publication Critical patent/CN103444194B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/467Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

根据实施方式,图像处理系统(1)具备受理部(1351)、取得部(1352)、测量部(1353)以及输出部(1354)。受理部(1351)受理立体图像显示装置上显示的被检体的立体图像中的两个坐标的设定。取得部(1352)取得体数据坐标,该体数据坐标是与示出所受理的坐标的立体图像坐标相对应的坐标。测量部(1353)基于由取得部(1352)所取得的体数据坐标,执行对受理部(1351)所受理的两个坐标间的距离进行测量的测量处理。输出部(1354)输出由测量部(1353)测量的测量结果。

Description

图像处理系统、图像处理装置以及图像处理方法
技术领域
本发明的实施方式涉及图像处理系统、图像处理装置以及图像处理方法。
背景技术
以往,有通过将从2个视点摄影到的2个视差图像显示于监视器而向使用了立体观察用眼镜等专用设备的使用者显示立体图像的技术。并且,近年来有通过使用双凸透镜等光线控制件来将从多个视点摄影到的多视差图像(例如9个视差图像)显示于监视器而向裸眼的使用者显示立体图像的技术。
并且,X射线CT(计算机断层扫描,Computed Tomography)装置、MRI(磁共振成像,Magnetic Resonance Imaging)装置、超声波诊断装置等医用图像诊断装置中,有能生成三维的医用图像(以下称为体数据)的装置。并且,医用图像诊断装置通过对体数据执行各种图像处理,而生成显示用的平面图像,在通用监视器上显示。例如,医用图像诊断装置通过对体数据执行体绘制处理,而生成反映了关于被检体的三维信息的任意截面的平面图像,将生成后的平面图像在通用监视器上显示。
现有技术文献
专利文献
专利文献1:日本特开2005-86414号公报
发明内容
发明要解决的技术问题
本发明要解决的技术问题是,提供一种能够正确地执行对立体图像上设定的坐标间的距离进行测量的测量处理的图像处理系统、图像处理装置以及图像处理方法。
用于解决技术问题的手段
实施方式的图像处理系统具备受理部、取得部、测量部和输出部。受理部受理在立体图像显示装置上显示的被检体的立体图像中的两个坐标的设定。取得部取得体数据坐标,上述体数据坐标是与立体图像坐标相对应的坐标,并且是存储于规定的存储装置中的上述被检体的体数据中的坐标,上述立体图像坐标是示出由上述受理部受理到的上述坐标的上述立体图像中的坐标。测量部基于由上述取得部取得的上述体数据坐标,执行对上述受理部受理到的两个坐标间的距离进行测量的测量处理。输出部输出由上述测量部测量的测量结果。
附图说明
图1是用于说明第一实施方式中的图像处理系统的构成例的图。
图2A是用于说明通过2视差图像来进行立体显示的立体显示监视器的一例的图。
图2B是用于说明通过2视差图像来进行立体显示的立体显示监视器的一例的图。
图3是用于说明通过9视差图像来进行立体显示的立体显示监视器的一例的图。
图4是用于说明第一实施方式中的工作站的构成例的图。
图5是用于说明图4中示出的绘制处理部的构成例的图。
图6是用于说明第一实施方式中的体绘制处理的一例的图。
图7是对第一实施方式中的控制部的详情进行说明的图的一例。
图8是对第一实施方式中的立体图像坐标和体数据坐标进行说明的图。
图9是对第一实施方式中的立体图像坐标和体数据坐标进行说明的图。
图10是表示第一实施方式中的由工作站进行的处理的流程的一例的流程图。
图11是表示第二实施方式中的工作站的控制部的构成的一例的图。
图12是对第二实施方式中的视差图像生成部进行说明的图。
图13是对第二实施方式中的视差图像生成部进行说明的图。
图14是表示第二实施方式中的由工作站进行的处理的流程的一例的流程图。
图15A是表示连结操作的一例的图。
图15B是表示连结操作的一例的图。
图15C是表示连结操作的一例的图。
图15D是表示连结操作的一例的图。
图16是表示由测量部测量的距离的一例的图。
具体实施方式
以下,参照附图详细说明图像处理系统、图像处理装置以及图像处理方法的实施方式。另外,以下作为实施方式,说明包含具有作为图像处理装置的功能的工作站的图像处理系统。
(第一实施方式)
首先,说明第一实施方式中的具有图像处理装置的图像处理系统的构成例。图1是用于说明第一实施方式中的图像处理系统的构成例的图。
如图1所示,第一实施方式中的图像处理系统1具有医用图像诊断装置110、图像保管装置120、工作站130、以及终端装置140。图1中例示的各装置为通过例如医院内设置的院内LAN(局域网,Local Area Network)2可直接地或间接地相互通信的状态。例如,在图像处理系统1中导入了PACS(影像存储与传输系统,Picture Archiving and Communication System)的情况下,各装置遵循DICOM(医学数字成像与通信,Digital Imaging andCommunications in Medicine)标准,相互收发医用图像等。
图像处理系统1基于由医用图像诊断装置110生成的体数据,生成用于显示立体图像的视差图像,并在可显示立体图像的监视器显示所生成的视差图像,从而向在医院内工作的医师或检查技师提供立体图像。
这里,通过显示从多个视点摄影到的视差角不同的多个视差图像,来对使用者显示“立体图像”。换言之,“视差图像”是从多个视点摄影到的视差角不同的图像,是用于将立体图像显示给使用者的图像。并且,用于显示立体图像的视差图像例如通过对体数据进行体绘制处理而生成。
并且,“视差图像”为构成“立体观察图像”的各个图像。即“立体观察图像”由“视差角”不同的多个“视差图像”构成。并且,“视差数”表示通过立体显示监视器进行立体观察所需要的“视差图像”的数量。并且,“视差角”是由为了生成“立体观察图像”而设定的各视点的位置的间隔和体数据的位置确定的角度。并且,以下记载的“9视差图像”表示具有9个“视差图像”的“立体观察图像”。并且,以下记载的“2视差图像”表示由2个“视差图像”构成的“立体观察图像”。通过显示立体观察图像,换言之通过显示多个视差图像,对使用者显示“立体图像”。
如以下详细说明的那样,在第一实施方式中工作站130对体数据进行各种图像处理,生成用于显示立体图像的视差图像。并且,工作站130以及终端装置140具有能显示立体图像的监视器,通过将由工作站130生成的视差图像显示于监视器来对使用者显示立体图像。并且,图像保管装置120保管由医用图像诊断装置110生成的体数据、由工作站130生成的视差图像。例如,工作站130或终端装置140从图像保管装置120取得体数据或视差图像,对取得的体数据或视差图像执行任意的图像处理或将视差图像显示于监视器。
医用图像诊断装置110是X射线诊断装置、X射线CT(ComputedTomography)装置、MRI(Magnetic Resonance Imaging)装置、超声波诊断装置、SPECT(单光子发射计算机断层扫描,Single Photon EmissionComputed Tomography)装置、PET(正电子发射断层扫描,Positron EmissionTomography)装置、SPECT装置和X射线CT装置一体化后的SPECT-CT装置、PET装置和X射线CT装置一体化后的PET-CT装置、或这些装置的装置组等。并且,医用图像诊断装置110生成体数据。
具体来说,第一实施方式中的医用图像诊断装置110通过摄影被检体而生成体数据。例如,医用图像诊断装置110通过摄影被检体而收集投影数据或MR信号等的数据。而且,医用图像诊断装置110基于收集到的数据,重构被检体的沿体轴方向的多个轴面的医用图像,从而生成体数据。例如,利用医用图像诊断装置110重构了500张轴面的医用图像的情况进行说明。该情况下,通过医用图像诊断装置110重构的500张轴面的医用图像组成为体数据。另外,也可以将通过医用图像诊断装置110摄影到的被检体的投影数据或MR信号等自身作为体数据。
并且,医用图像诊断装置110将体数据发送到图像保管装置120。另外,在医用图像诊断装置110将体数据发送到图像保管装置120时,作为附带信息,发送例如识别患者的患者ID、识别检查的检查ID、识别医用图像诊断装置110的装置ID、识别由医用图像诊断装置110进行的1次摄影的系列ID等。
图像保管装置120是保管医用图像的数据库。具体来说,图像保管装置120从医用图像诊断装置110接收体数据,将接收到的体数据保管于规定的存储部。并且,图像保管装置120通过工作站130接收从体数据生成的视差图像,将接收到的视差图像保管在规定的存储部中。另外,也可以将图像保管装置120和工作站130统合为一个装置。
另外,在第一实施方式中,保管于图像保管装置120的体数据或视差图像与患者ID、检查ID、装置ID、系列ID等相对应地保管。因此,工作站130或终端装置140通过进行使用了患者ID、检查ID、装置ID、系列ID等的检索,从图像保管装置120取得所需要的体数据或视差图像。
工作站130是对医用图像进行图像处理的图像处理装置。具体来说,工作站130从图像保管装置120取得体数据。而且,工作站130通过对取得的体数据进行各种绘制处理而生成用于显示立体图像的视差图像。例如,工作站130在对使用者显示2视差的立体图像的情况下,生成视差角不同的2个视差图像。并且,例如,工作站130在对使用者显示9视差的立体图像的情况下,生成视差角不同的9个视差图像。
并且,工作站130作为显示部具有可显示立体图像的监视器(也称为立体显示监视器、立体图像显示装置)。工作站130通过生成视差图像并将生成的视差图像显示于立体显示监视器,来对使用者显示立体图像。其结果,工作站130的使用者能够一边确认显示于立体显示监视器的立体图像一边进行用于生成视差图像的操作。
并且,工作站130将生成的视差图像发送到图像保管装置120或终端装置140。另外,工作站130在将视差图像发送到图像保管装置120或终端装置140时,作为附带信息而一并发送例如患者ID、检查ID、装置ID、系列ID等。此时,也可以基于监视器的分辨率是各种各样的情况,工作站130一并发送表示视差图像的张数或分辨率的附带信息。分辨率例如相当于“466像素×350像素”等。
这里,第一实施方式中的工作站130如以下详细说明的那样,受理由立体图像显示装置显示的被检体的立体图像中的两个坐标的设定。而且,工作站130取得图像保管装置120所存储的被检体的体数据中的坐标即体数据坐标,该体数据坐标是与立体图像坐标相对应的坐标,立体图像坐标是表示所受理的坐标的立体图像中的坐标。而且,工作站130基于取得的体数据坐标,执行对受理的两个坐标间的距离进行测量的测量处理,并输出测量结果。其结果,根据第一实施方式能够正确地执行设定于立体图像的两个坐标间的距离进行测量的测量处理。
返回图1的说明。终端装置140是使医院内工作的医师或检查技师阅览医用图像的终端。具体来说,终端装置140作为显示部具有立体显示监视器。并且,终端装置140通过从图像保管装置120取得视差图像,将取得的视差图像显示于立体显示监视器,来对使用者显示立体图像。并且,例如终端装置140若从工作站130接收视差图像,则通过将接收到的视差图像显示于立体显示监视器,来对使用者显示立体图像。其结果,作为使用者的医师或检查技师能够阅览可立体观察的医用图像。终端装置140例如对应于具有立体显示监视器的通用PC(Personal Computer)及平板(tablet)终端、便携电话等。并且,终端装置140例如对应于与作为外部装置的立体显示监视器连接的任意的信息处理终端。
这里,对工作站130或终端装置140具有的立体显示监视器进行说明。作为立体显示监视器,例如有通过显示2个视差图像来对佩戴着立体观察用眼镜等专用设备的使用者显示2视差的立体图像(两眼视差图像)的立体显示监视器。
图2A以及图2B是用于说明通过2视差图像来进行立体显示的立体显示监视器的一例的图。图2A以及图2B表示的一例以通过快门方式进行立体显示的立体显示监视器为例进行表示。图2A以及图2B表示的例中,观察监视器的使用者佩戴快门眼镜来作为立体观察用眼镜。图2A以及图2B表示的例中,立体显示监视器交替地出射2个视差图像。例如,图2A表示的立体显示监视器以120Hz交替地出射左眼用的视差图像和右眼用的视差图像。并且,立体显示监视器如图2A所示设有红外线出射部,红外线出射部配合视差图像进行切换的定时来控制红外线的出射。
并且,如图2A所示,快门眼镜的红外线受光部对红外线出射部出射的红外线进行受光。在快门眼镜的左右各自的框上安装有快门,快门眼镜按照红外线受光部受光红外线的定时来交替地切换左右快门各自的透过状态以及遮光状态。
这里,对快门眼镜的快门的透过状态以及遮光状态的切换处理进行说明。快门如图2B所示具有入射侧的偏光板和出射侧的偏光板,还在入射侧的偏光板和出射侧的偏光板之间具有液晶相。并且,入射侧的偏光板和出射侧的偏光板如图2B所示相互正交。这里,如图2B所示在未施加电压的“切断”的状态下,经过入射侧的偏光板的光由于液晶层的作用而旋转90度,并透过出射侧的偏光板。即未施加电压的快门为透过状态。
另一方面,如图2B所示在施加了电压的“开启”的状态下,由液晶层的液晶分子产生的偏光旋转作用消失,因此经过入射侧的偏光板的光被出射侧的偏光板遮蔽。即,施加了电压的快门为遮光状态。
基于该情况,立体显示监视器的红外线出射部例如在监视器上显示了左眼用的图像的期间出射红外线。而且,快门眼镜的红外线受光部在受光红外线的期间不将电压施加到左眼的快门,而使电压施加到右眼的快门。由此,如图2A所示右眼的快门为遮光状态,左眼的快门为透过状态,其结果,左眼用的图像仅入射到使用者的左眼。另一方面,立体显示监视器的红外线出射部例如在监视器上显示了右眼用的图像的期间停止红外线的出射。而且,快门眼镜的红外线受光部在不受光红外线的期间不将电压施加到右眼的快门,而使电压施加到左眼的快门。由此,左眼的快门为遮光状态,右眼的快门为透过状态,其结果,右眼用的图像仅入射到使用者的右眼。这样,如图2A所示的立体显示监视器使监视器所显示的图像和快门的状态联动地切换,从而对使用者显示立体图像。
并且,作为立体显示监视器,也有通过使用双凸透镜等的光线控制件来将例如9视差的立体图像显示给使用者为裸眼的使用者的立体显示监视器。该情况下,立体显示监视器使由两眼视差产生的立体观察成为可能,进而能够显示具有运动视差的立体图像,该运动视差是指配合使用者的视点移动而由使用者观察的影像发生变化。
图3是用于说明通过9视差图像进行立体显示的立体显示监视器的一例的图。图3表示的立体显示监视器在液晶面板等平面状的显示面200的前面配置光线控制件。例如,图3表示的立体显示监视器在显示面200的前面贴附光学开口沿垂直方向延伸的垂直透镜片(lenticular sheet)201来作为光线控制件。另外,在图3表示的一例中,以垂直透镜片201的凸部为前面的方式进行贴附,但也可以是以垂直透镜片201的凸部与显示面200相对置的方式进行贴附的情况。
在图3表示的例中,显示面200以矩阵状配置有像素202,该像素202是纵横比为3:1、纵方向上配置有作为子像素的红(R)、緑(G)、蓝(B)这3个而成的像素。在图3表示的例中,立体显示监视器将视差角不同的9个视差图像以规定格式(例如栅格状)配置后,输出到显示面200。即图3表示的立体显示监视器显示视差角不同的9个视差图像中处于同一位置的9个像素分别被分配给9列的像素202而成的中间图像。9列的像素202成为将视差角不同的9个图像同时进行显示的单位像素组203。另外,在图3表示的例中示出了中间图像为栅格状的情况,但并不限定于此,可以是任意形状。
显示面200中作为单位像素组203而同时输出的视差角不同的9个视差图像通过例如LED(Light Emitting Diode)背光作为平行光被放射,进而通过垂直透镜片201在多方向上被放射。9个视差图像的各像素的光在多方向上被放射,从而入射到使用者的右眼以及左眼的光与使用者的位置(视点的位置)联动地变化。即根据使用者观察的角度而入射到右眼的视差图像和入射到左眼的视差图像成为视差角不同的视差图像。其结果,使用者能够视觉识别在例如图3表示的9个位置分别从不同的视角观察摄影对象的立体图像。并且,使用者在例如图3表示的“5”的位置相对于摄影对象正对的状态下能够立体地视觉识别,并且在图3表示的“5”以外的各个位置在使摄影对象的朝向改变的状态下能够立体地进行视觉识别。另外,图3表示的例是一例,并不限定于此。例如,在图3表示的例中以采用了横条(RRR…、GGG…、BBB…)液晶和纵透镜的组合的情况为例进行显示,但并不限定于此,例如也可以采用纵条(RGBRGB…)液晶和倾斜透镜的组合。
到此为止对第一实施方式中的图像处理系统1的构成例进行了简单地说明。另外,上述的图像处理系统1不仅限于在导入了PACS的情况下对其应用。例如,图像处理系统1在导入了对附加有医用图像的电子病例进行管理的电子病例系统的情况下也可以同样应用。该情况下,图像保管装置120作为保管电子病例的数据库。并且,例如图像处理系统1在导入了HIS(医院信息系统,Hospital Information System),RIS(放射科信息系统,Radiology Information System)的情况下也可以同样应用。并且,图像处理系统1不限定于上述的构成例。各装置具有的功能或其分担可以按照运用的形态来适当变更。
接着,采用图4对第一实施方式中的工作站130的构成例进行说明。图4是用于说明第一实施方式中的工作站的构成例的图。
工作站130是适合于图像处理等的高性能的计算机。在图4表示的例中,工作站130具有输入部131、显示部132、通信部133、存储部134、控制部135、以及绘制处理部136。另外,以下利用工作站130是适合于图像处理等的高性能的计算机的情况来进行说明,但并不限定于此,也可以是任意的信息处理装置。例如,也可以是任意的个人计算机。
输入部131是鼠标、键盘、轨迹球等,从使用者受理对工作站130进行的各种操作的输入。具体来说,输入部131受理用于从图像保管装置120取得作为绘制处理对象的体数据的信息的输入。例如输入部131受理患者ID、检查ID、装置ID、系列ID等的输入。并且,输入部131受理与绘制处理相关的条件(以下为绘制条件)的输入。
显示部132是作为立体显示监视器的液晶面板等,对各种信息进行显示。具体来说,第一实施方式中的显示部132对用于从使用者受理各种操作的GUI(图形用户接口,Graphical User Interface)、立体图像等进行显示。通信部133是NIC(网络接口卡,Network Interface Card)等,与其他装置之间进行通信。并且,例如通信部133从终端装置140接收由使用者输入到终端装置140的绘制条件。
存储部134是硬盘、半导体存储器元件等,对各种信息进行存储。具体来说,存储部134存储经由通信部133从图像保管装置120取得的体数据。并且,存储部134存储绘制处理中的体数据、或进行了绘制处理后的视差图像及其附带信息(视差数、分辨率等)等。
控制部135是CPU(中央处理器,Central Processing Unit)、MPU(微处理单元,Micro Processing Unit)、GPU(图形处理器,Graphics ProcessingUnit)等电子电路,ASIC(专用集成电路,Application Specific IntegratedCircuit)、FPGA(现场可编程门阵列,Field Programmable Gate Array)等集成电路,进行工作站130的整体控制。
例如,控制部135控制对于显示部132的GUI显示和立体图像的显示。并且,例如控制部135控制与图像保管装置120之间经由通信部133进行的体数据或视差图像的收发。并且,例如控制部135对由绘制处理部136进行的绘制处理进行控制。并且,例如控制部135控制从存储部134对体数据的读入和视差图像向存储部134的保存。
这里,工作站130的控制部135对由绘制处理部136进行的绘制处理进行控制,与绘制处理部136共同工作,从而执行测量处理。对于控制部135的详情在说明绘制处理部136之后进行说明。
绘制处理部136在由控制部135进行的控制下,对从图像保管装置120取得的体数据进行各种绘制处理,生成视差图像。具体来说,绘制处理部136从存储部134读入体数据,对读入的体数据进行预处理。而且,绘制处理部136通过对预处理后的体数据进行体绘制处理,来生成用于显示立体图像的视差图像。而且,绘制处理部136将生成后的视差图像保存于存储部134。
并且,绘制处理部136也可以生成描绘出各种信息(标度、患者名、检查项目等)的覆盖图像,并将生成后的覆盖图像与视差图像重叠。该情况下,绘制处理部136将重叠了覆盖图像后的视差图像保存于存储部134。
另外,绘制处理表示对体数据进行的图像处理整体,体绘制处理表示在绘制处理内生成反映了被检体的三维信息的医用图像的处理。由绘制处理生成的医用图像例如对应于视差图像。
图5是用于说明图4表示的绘制处理部的构成例的图。如图5所示,绘制处理部136具有预处理部1361、三维图像处理部1362、以及二维图像处理部1363。如以下详细说明的那样,预处理部1361进行对于体数据的预处理。三维图像处理部1362从预处理后的体数据生成视差图像。二维图像处理部1363生成将各种信息重叠到立体图像而成的视差图像。
预处理部1361在对体数据进行绘制处理时进行各种预处理。在图5所示的例中,预处理部1361具有图像修正处理部1361a、三维物体融合部1361e、以及三维物体显示区域设定部1361f。
图像修正处理部1361a在将2种体数据作为一个体数据进行处理时进行图像修正处理。在图5表示的例中,图像修正处理部1361a具有失真修正处理部1361b、体动修正处理部1361c、图像间对位处理部1361d。例如,图像修正处理部1361a在将由PET-CT装置生成的PET图像的体数据和X射线CT图像的体数据作为一个体数据进行处理时进行图像修正处理。并且,图像修正处理部1361a在将由MRI装置生成的T1强调图像的体数据和T2强调图像的体数据作为一个体数据进行处理时进行图像修正处理。
这里,图像修正处理部1361a的失真修正处理部1361b对在各个体数据中由收集条件引起的数据的失真进行修正,该收集条件是由医用图像诊断装置110进行的数据收集时的条件。并且,体动修正处理部1361c对数据的收集时期中的由被检体的体动引起的移动进行修正,该数据用于生成各个体数据。并且,图像间对位处理部1361d在失真修正处理部1361b以及体动修正处理部1361c的修正处理被进行后的2个体数据间,进行采用了例如相互相关法等的对位(Registration)。
三维物体融合部1363e使通过图像间对位处理部1361d执行了对位后的多个体数据融合。另外,在对单一的体数据进行绘制处理的情况下,省略图像修正处理部1361a以及三维物体融合部1361e的处理。
三维物体显示区域设定部1361f设定与由使用者指定的显示对象脏器对应的显示区域。在图5表示的例中,三维物体显示区域设定部1361f具有分割处理部1361g。三维物体显示区域设定部1361f的分割处理部1361g将由使用者指定的心脏、肺、血管等脏器通过例如基于体数据的像素值(体素值)的区域扩张法加以提取。
另外,分割处理部1361g在未由使用者指定显示对象脏器的情况下,不进行分割处理。并且,分割处理部1361g在由使用者指定了多个显示对象脏器的情况下,提取相应的多个脏器。并且,分割处理部1361g的处理有时根据参照了绘制图像的使用者的微调整需求而再次执行的情况。
三维图像处理部1362对于预处理部1361进行了处理的预处理后的体数据,进行体绘制处理。在图5表示的例中,三维图像处理部1362作为进行体绘制处理的处理部而具有投影方法设定部1362a、三维几何变换处理部1362b、三维物体外观处理部1362f、三维虚拟空间绘制部1362k。
投影方法设定部1362a决定用于生成立体图像的投影方法。例如,投影方法设定部1362a决定是通过平行投影法来执行体绘制处理,还是通过透视投影法来执行体绘制处理。
三维几何变换处理部1362b决定用于将执行体绘制处理的体数据以三维几何学进行变换的信息。在图5表示的例中,三维几何变换处理部1362b具有平行移动处理部1362c、旋转处理部1362d和放大缩小处理部1362e。三维几何变换处理部1362b的平行移动处理部1362c在进行体绘制处理时的视点位置发生了平行移动的情况下,决定使体数据平行移动的移动量。并且,旋转处理部1362d在进行体绘制处理时的视点位置发生了旋转移动的情况下,决定使体数据旋转移动的移动量。并且,放大缩小处理部1362e在需要立体图像的放大、缩小的情况下,决定体数据的放大率、缩小率。
三维物体外观处理部1362f具有三维物体色彩处理部1362g、三维物体不透明度处理部1362h、三维物体材质处理部1362i和三维虚拟空间光源处理部1362j。三维物体外观处理部1362f通过这些处理部,例如通过按照使用者的要求来显示视差图像从而决定对使用者显示的立体图像的显示状态。
三维物体色彩处理部1362g决定对体数据中被分割的各区域着色的色彩。并且,三维物体不透明度处理部1362h是决定构成体数据中被分割的各区域的各体素的不透过度(Opacity)的处理部。另外,体数据中不透过度为“100%”的区域的后方区域在视差图像中不被绘出。并且,体数据中不透过度为“0%”的区域在视差图像中不被绘出。
三维物体材质处理部1362i通过决定体数据中被分割的各区域的材质,来调整将该区域绘出时的质感。三维虚拟空间光源处理部1362j在对体数据进行体绘制处理时,决定设置于三维虚拟空间的虚拟光源的位置、虚拟光源的种类。作为虚拟光源的种类而列举出从无限远照射平行的光线的光源、从视点照射放射状的光线的光源等。
三维虚拟空间绘制部1362k对体数据进行体绘制处理,生成视差图像。并且,三维虚拟空间绘制部1362k在进行体绘制处理时根据需要而采用由投影方法设定部1362a、三维几何变换处理部1362b、三维物体外观处理部1362f决定的各种信息。
这里,三维虚拟空间绘制部1362k从控制部135受理绘制条件,按照受理到的绘制条件来进行对体数据的体绘制处理。绘制条件经由输入部131从使用者受理、或被初始设定、或经由通信部133从终端装置140受理。并且,此时上述的投影方法设定部1362a、三维几何变换处理部1362b、三维物体外观处理部1362f按照其绘制条件而决定需要的各种信息,三维虚拟空间绘制部1362k使用所决定的各种信息来生成立体图像。
另外例如绘制条件是“平行投影法”或“透视投影法”。此外,例如绘制条件是“基准的视点位置以及视差角”。此外,例如绘制条件是“视点位置的平行移动”、“视点位置的旋转移动”、“立体图像的放大”、“立体图像的缩小”。此外,例如绘制条件是“被着色的色彩”、“透过度”、“质感”、“虚拟光源的位置”、“虚拟光源的种类”。
图6是用于说明第一实施方式中的体绘制处理的一例的图。例如,三维虚拟空间绘制部1362k如图6的“9视差图像生成方式(1)”所示,假设作为绘制条件而受理平行投影法,进而受理了基准的视点位置(5)和视差角“1度”。该情况下,三维虚拟空间绘制部1362k以视差角每隔“1度”的方式,将视点的位置平行移动到(1)~(9)而通过平行投影法生成视差角(视线方向间的角度)每相差1度的9个视差图像。另外,进行平行投影法的情况下,三维虚拟空间绘制部1362k设定沿视线方向从无限远照射平行的光线的光源。
或者,三维虚拟空间绘制部1362k如图6的“9视差图像生成方式(2)”所示,假设作为绘制条件而受理透视投影法,进而受理了基准的视点位置(5)和视差角“1度”。该情况下,三维虚拟空间绘制部1362k以将视点移动的平面上存在的体数据的截面的重心作为中心、视差角每隔“1度”的方式,将视点的位置旋转移动到(1)~(9)而通过透视投影法生成视差角每相差1度的9个视差图像。换言之,不以三维的体积的重心而以二维的截面的重心为中心旋转移动,来生成9个视差图像。另外,进行透视投影法的情况下,三维虚拟空间绘制部1362k在各视点设定以视线方向为中心将光三维地以放射状进行照射的点光源或面光源。并且,在进行透视投影法的情况也可以是根据绘制条件而视点(1)~(9)被平行移动的情况。
另外,三维虚拟空间绘制部1362k通过设定对被显示的体绘制图像的纵方向以视线方向为中心将光二维地放射状照射、对被显示的体绘制图像的横方向沿视线方向从无限远照射平行的光线的光源,可以进行将平行投影法和透视投影法并用的体绘制处理。
另外,在图6的例中,作为绘制条件而说明了受理投影方法、基准的视点位置以及视差角的情况,但作为绘制条件而受理其他的条件的情况也相同,三维虚拟空间绘制部1362k一边反映各个绘制条件一边生成9个视差图像。
另外,三维虚拟空间绘制部1362k不只是体绘制,还具有通过进行截面重构法(MPR:多平面重建,Multi Planer Reconstruction)而从体数据重构MPR图像的功能。并且,三维虚拟空间绘制部1714作为MPR还具有进行“Curved MRP”的功能、进行“Intensity Projection”的功能。
并且,也可以在三维图像处理部1362从体数据生成的视差图像作为底衬(Underlay)使用后,将绘出了各种信息(标度、患者名、检查项目等)的覆盖图像作为覆层(Overlay)进行重叠。该情况下,二维图像处理部1363对于作为覆层的覆盖图像和作为底衬的视差图像进行图像处理,从而生成重叠了覆盖图像的视差图像。在图3表示的例中,二维图像处理部1363具有二维物体描绘部1363a、二维几何变换处理部1363b、以及亮度调整部1363c。另外,为了各种信息的描绘处理成本降低,通过事先仅描绘1张覆层、将1张覆层分别重叠到作为底衬的9张视差图像,可以生成重叠了覆盖图像的9张视差图像。
二维物体描绘部1363a对覆层所绘出的各种信息进行描绘。并且,二维几何变换处理部1363b将覆层所绘出的各种信息的位置进行平行移动处理或旋转移动处理,或者进行覆层所绘出的各种信息的放大处理或缩小处理。并且,亮度调整部1363c例如按照输出目的地的立体显示监视器的灰度、窗宽(WW:Window Width)、窗位(WL:Window Level)等图像处理用的参数来调整覆层以及底衬的亮度。并且,亮度调整部1363c例如进行对于绘制图像的亮度变换处理。
由绘制处理部136生成的视差图像例如通过控制部135暂时保存于存储部134,之后经由通信部133而发送到图像保管装置120。之后,例如终端装置140从图像保管装置120取得重叠了覆盖图像的视差图像,在变换为以规定格式(例如栅格状)配置的中间图像后,显示于立体显示监视器,从而能够对作为使用者的医师或检查技師显示绘出了各种信息(标度、患者名、检查项目等)的立体图像。
那么如上所述,绘制处理部136在由控制部135进行的控制下从体数据生成视差图像。接着,详细说明第一实施方式中的控制部135。
图7是说明第一实施方式中的控制部的详情的图的一例。如图7所示,控制部135具有受理部1351、取得部1352、测量部1353、以及输出部1354。
受理部1351受理终端装置140、工作站130的立体显示监视器上显示的被检体的立体图像中的两个坐标的设定。终端装置140也称为“立体图像显示装置”。
并且,受理部1351受理立体图像显示装置上显示的被检体的立体图像中的关注区域的设定。例如受理部1351作为关注区域的设定而受理处于任意的截面的部分区域的设定。并且,例如受理部1351作为关注区域的设定而受理任意的区域的设定。受理任意的区域的设定的情况下,任意的区域的形状可以是球状,可以是立方体,可以是长方形,可以是任意形状。另外,关注区域的设定通过使用者来进行。换言之,由使用者所指定的任意形状的区域成为关注区域。
例如,受理部1351作为关注区域的设定而受理被检体的立体图像中的任意的轴面或任意的矢状面、任意的冠状面、相对于使用者指定的旋转轴而使截面旋转后的任意的倾斜截面的设定。并且,例如受理部1351受理任意形状的立体区域的设定。
另外,由受理部1351受理的关注区域的设定例如由使用工作站130、终端装置140的使用者以任意的方法来设定。例如,由受理部1351受理的关注区域的设定使用鼠标等任意的定点设备而由使用者设定。
这里,简单说明坐标的设定及关注区域的设定的受理处理的一例。例如,若受理部1351从使用者受理表示开始用于受理关注区域的设定的处理的指示,则将使视差图像生成的绘制条件输出到绘制处理部136,使由绘制处理部136生成的视差图像显示于立体显示监视器,其中视差图像用于对显示有任意的坐标、任意的关注区域的立体图像进行显示。也就是说,受理部1351进行控制,以使立体显示监视器显示显示有任意的坐标的立体图像、或者任意的区域被作为关注区域显示的立体图像。在这基础上,若受理部1351受理将任意的坐标的位置变更的操作或将立体图像中的关注区域的位置或形状变更的操作,则将生成用于将反映了受理到的操作内容的立体图像显示的视差图像的绘制条件输出到绘制处理部136,使由绘制处理部136生成的视差图像显示于立体显示监视器。之后,若受理部1351从使用者受理进行确定的操作,则受理在受理到的时刻的坐标的设定或关注区域的设定。但是,上述的关注区域的设定的受理处理是一例,并不限定于此,也可以以任意的方法来受理关注区域的设定。另外,第一实施方式中采用受理部1351受理两个坐标的设定和关注区域的设定的情况而进行说明,但并不限定于此。例如,受理部1351也可以受理两个坐标的设定,而不受理关注区域的设定。
另外,例如也可以在受理关注区域的设定的情况下,受理部1351在接受一个任意的坐标后,将以受理到的坐标为中心的任意形状的区域作为关注区域。例如,也可以受理部1351通过从使用者受理任意的坐标和半径,受理将以任意的坐标设为中心的球作为关注区域的设定。
取得部1352取得体数据坐标,该体数据坐标是图像保管装置120所存储的被检体的体数据中的坐标,并且是与表示由受理部1351受理到的坐标的立体图像坐标对应的坐标。另外,图像保管装置120也称为“规定的存储装置”。体数据坐标为以任意的坐标为基准的绝对坐标。
并且,在由受理部1351受理了在立体图像显示装置上显示的被检体的立体图像中的关注区域的设定的情况下,取得部1352取得与立体图像坐标相对应的体数据坐标,该立体图像坐标是用于确定所受理到的关注区域的立体图像中的坐标。例如,取得部1352取得与立体图像坐标相对应的体数据坐标,该立体图像坐标表示由受理部1351受理到的任意的截面中的部分区域。此外,例如取得部1352取得与立体图像坐标相对应的体数据坐标,该立体图像坐标用于确定由受理部1351受理到的任意的立体区域。即,例如取得部1352取得对由受理部1351受理到的关注区域的面积或体积进行测量后所使用的各个体数据坐标。若列举更详细的一例来进行说明,则取得部1352对关注区域所包含的全部坐标取得体数据坐标,或取得表示关注区域和其他区域之间的边界的体数据坐标。
这里,对取得部1352取得体数据坐标这点进行补充。在终端装置140、工作站130的立体显示监视器上显示的立体图像的比例(scale)、或视角、方向等通过使用者而可任意地变更。并且,对于立体图像的比例中进深方向的比例,为了立体显示监视器的性能的方便,有时不与实际的比例相同而比实际的比例小。其结果,即使采用在终端装置140显示的立体图像中的坐标来执行测量处理也不能得到正确的值。鉴于此,取得部1352还是取得与立体图像坐标相对应的体数据坐标。
并且,在立体图像的比例或视差角等每次变更时,立体图像坐标发生变化。鉴于此,通过取得部1352取得与立体图像坐标相对应的体数据坐标,即使立体图像的比例或视差角等被变更,控制部135也能够使用变更前取得的体数据坐标来执行测量处理。
并且,例如作为对平面图像中的2点间的距离进行测量方法,有在投影面(显示面)投影2点、对投影出的2点间的距离进行测量的以往的投影方法。这点在以往的投影方法中没有考虑进深方向,对具有进深的立体图像不能够应用。鉴于此,控制部135在将立体图像坐标变换为体数据坐标后,执行基于变换后的体数据坐标的测量处理。
图8和图9是用于对第一实施方式中的立体图像坐标和体数据坐标进行说明的图。图8的(1)和(2)作为表示同一被检体的图而进行说明。图9的(1)和(2)作为表示同一被检体的图而进行说明。图8的(1)和图9的(1)表示由第一实施方式中的体数据坐标表示的被检体的一例。为了方便说明,在图8的(1)表示的例中将被检体以立方体表示,在图9的(1)表示的例中,将被检体以球表示。图8的(2)和图9的(2)表示在终端装置140上显示的立体图像的一例。另外,在图8和图9中,z方向表示实际空间坐标中的进深方向,x方向表示实际空间坐标中的水平方向,y方向表示实际空间坐标中的垂直方向。并且,z’方向表示虚拟空间坐标中的进深方向,x’方向表示虚拟空间坐标中的水平方向,y’方向表示虚拟空间坐标中的垂直方向。图8的(1)中的坐标301、坐标302和距离303分别对应图8的(2)中的坐标304、坐标305和距离306。图9的(1)的关注区域307与图9的(2)的关注区域308对应。
图8的(2)的立体图像与图8的(1)表示的体数据中的被检体相比,进深方向变窄。换言之,在图8的(2)的立体图像中,图8的(1)中示出的被检体的进深方向的成分被压缩后被显示。该情况下,如图8的(2)所示,坐标304和坐标305之间的距离306与图8的(1)中的坐标301和坐标302之间的距离303相比,进深方向的距离变短了被压缩的量。换言之,立体图像内所显示的距离306与实际空间中的距离303相比变短。
图9的(2)的立体图像与图9的(1)表示的体数据中的被检体相比,z方向和x方向变窄。换言之,图9的(2)的立体图像中,图9的(1)中示出的被检体的进深方向和水平方向的成分在被压缩后被表示。该情况下,如图9的(2)所示关注区域308的形状与图9的(1)表示的关注区域307的形状即“球”相比,成为z方向和x方向变窄的形状。另外,在图9表示的例中以z方向和x方向变窄的情况为例示出,但并不限定于此,也可以仅z方向变窄,也可以y方向变窄。
这里,说明由取得部1352进行的与立体图像坐标相对应的体数据坐标的取得方法。立体图像坐标和体数据坐标的对应关系通过立体图像的比例或视角、方向等而唯一确定,例如能够以以下的(数学式1)那样的形式表现。
(数学式1)=(x1,y1,z1)=F(x2,y2,z2)
在(数学式1)中,“x2”“y2”“z2”分别表示立体图像坐标。“x1”“y1”“z1”分别表示体数据坐标。“F”表示函数。函数“F”通过立体图像的比例或视角、方向等而唯一确定。即在(数学式1)表示的例中,取得部1352通过将受理到的关注区域的立体图像坐标以函数“F”进行处理而取得体数据坐标。另外,在立体图像的比例或视角、方向等每次变更时,生成函数“F”。例如,作为对旋转、平行移动、放大、缩小进行变换的函数F,使用(数学式2)表示的仿射变换。
(数学式2)x1=a*x2+b*y2+c*z3+d
y1=e*x2+f*y2+g*z3+h
z1=i*x2+j*y2+k*z3+l
(a~l为变换系数)
另外,在上述的说明中采用取得部1352基于函数“F”而取得体数据坐标的情况进行了说明,但并不限定于此。例如,图像处理装置具有将立体图像坐标和体数据坐标建立了对应的表即坐标表,取得部1352通过将立体图像坐标作为检索键来检索坐标表,可以取得与立体图像坐标相对应的体数据坐标。
测量部1353基于由取得部1352取得的体数据坐标,执行对受理部1351受理到的两个坐标间的距离进行测量的测量处理。
并且,在由受理部1351受理了在立体图像显示装置上显示的被检体的立体图像中的关注区域的设定的情况下,测量部1353基于由取得部1352取得的体数据坐标而执行关于关注区域的测量处理。这里,例如测量部1353可以测量关注区域内的CT值的总和,可以测量关注区域内的CT值的平均值,可以测量关注区域内的CT值的最大值或CT值的最小值,可以测量关注区域的体积及面积,可以执行任意的测量处理。另外,在记载为“CT值”的情况下,并不限定于CT值而可以代用任意的特征值。
输出部1354输出由测量部1353测量的测量结果。例如,输出部1354输出坐标间的距离,或输出关注区域的体积。
(基于第一实施方式的处理)
采用图10来表示由第一实施方式中的工作站130进行的处理的流程的一例。图10是表示由第一实施方式中的图像处理装置进行的处理的流程的一例的流程图。
如图10所示,工作站130中若受理被显示在终端装置140、工作站130的立体显示监视器上的被检体的立体图像中的两个坐标的设定(步骤S101为肯定),则取得部1352取得作为与立体图像坐标相对应的坐标的体数据坐标(步骤S102),立体图像坐标是表示所受理到的坐标的立体图像中的坐标。例如,取得部1352基于(数学式1)将受理到的关注区域的立体图像坐标以函数“F”进行处理,从而取得体数据坐标。
而且,测量部1353基于由取得部1352取得的体数据坐标,执行对受理部1351受理到的两个坐标间的距离进行测量的测量处理(步骤S103)。例如,测量部1353基于由取得部1352取得的体数据坐标而测量由受理部1351受理到的坐标间的距离。
而且,输出部1354输出由测量部1353测量的测量结果(步骤S104)。例如,输出部1354输出坐标间的距离。
(基于第一实施方式的效果)
如上所述,根据第一实施方式,工作站130受理终端装置140、工作站130的立体显示监视器上显示的被检体的立体图像中的两个坐标的设定。而且,工作站130取得体数据坐标,该体数据坐标是与表示所受理到的坐标的立体图像坐标对应的坐标、是图像保管装置120所存储的被检体的体数据中的坐标。而且,工作站130基于取得的体数据坐标而执行对两个坐标间的距离进行测量的测量处理,输出测量结果。其结果,能够正确地执行对立体图像所设定的两个坐标间的距离进行测量的测量处理。
并且,根据第一实施方式,工作站130进而受理终端装置140、工作站130的立体显示监视器上显示的被检体的立体图像中的关注区域的设定。而且,工作站130取得与作为所受理到的关注区域包含的立体图像中的坐标的立体图像坐标相对应的体数据坐标。而且,工作站130基于取得的体数据坐标而对由受理部受理到的关注区域的体积或面积进行测量。其结果,能够正确地执行对立体图像所设定的关注区域的面积或体积进行测量的测量处理。
(第二实施方式)
图11是表示第二实施方式中的工作站的控制部的构成的一例的图。如图11所示,控制部135还具备基于存储于图像保管装置120的体数据生成用于显示立体图像的视差图像的视差图像生成部1355。以下,对于与第一实施方式相同的点,省略说明。另外,以下虽然没有特别言及,但控制部135与第一实施方式相同,通过与绘制处理部136联动而生成视差图像。
第二实施方式中的受理部1351a还受理将任意形状的物体显示于立体图像内的显示指示。图12是表示由第二实施方式中的受理部所受理的显示指示的一例的图。在图12表示的例中,以终端装置140除了显示立体图像311以外还显示工具箱312的情况为例加以示出。在图12表示的例中,工具箱312具有受理显示球的显示指示的图标312a、受理显示正6面体的显示指示的图标312b、受理显示立方体的显示指示的图标312c、受理显示正十二面体的显示指示的图标312d、以及受理显示直线的显示指示的图标312e。这里,在图12表示的例中,若通过终端装置140由使用者选择了图标312a,则受理部1351a受理显示球的显示指示。
并且,也可以使用图12的各图形受理由使用者进行的关注区域的设定。此时也可以任意地变更图12的各图形的形状。例如,也可以通过对图12的各图形进行缩放,将作为关注区域而设定的区域进行放大。并且作为关注区域,也可以设定作为任意形状的自由(free)的区域。关于作为关注区域而设定任意形状的情况进行说明。例如,作为初始设定,对使用者显示具有任意形状的立体图像。以下为了方便说明,采用作为初始设定而对使用者显示具有球的立体图像的情况进行说明。之后,从使用者受理选择球的一部分的操作、将所选择的部分押到球的内部而使球变形的操作或将所选择的部分引出到球的外侧而使球变形的操作,从而使用者任意地将图形的形状变形。并且,作为所选择的部分的形状,可以是点,可以是圆,可以是四边形,可以是任意形状。
视差图像生成部1355基于立体图像的比例来变更通过由受理部1351a受理到的显示指示而表示的任意形状,并基于存储在图像保管装置120中的体数据而生成用于显示立体图像的视差图像,该立体图像包含有任意形状被变更后的物体。视差图像生成部1355也称为“第一视差图像生成部”。
图13是用于说明第二实施方式中的视差图像生成部的图。如图13的(1)所示,采用受理部1351a受理了显示球状的物体321的显示指示的情况而进行说明。使用图13的(2),说明由体数据坐标表示的被检体的形状和在立体显示监视器上显示的立体图像322的形状为相同的情况。换言之,说明终端装置140、工作站130的立体显示监视器显示了视差图像的情况,该视差图像用于显示与由体数据坐标表示的被检体相同比例的立体图像。该情况下,视差图像生成部1355不变更球状的物体321的比例等,而生成用于将包含球状的物体321其自身的立体图像显示的视差图像。图13的(2)是通过由视差图像生成部1355生成的视差图像显示的立体图像的一例。图13的(2)中的物体323的形状与物体321的形状相同。
使用图13的(3),说明由体数据坐标表示的被检体的形状和在立体显示监视器上显示的立体图像324的形状不相同的情况。换言之,说明终端装置140以与体数据坐标表示的被检体不同的比例将立体图像显示的情况。该情况下,视差图像生成部1355在将球状的物体321的比例变更后,生成用于将包含变更了比例的球状的物体321在内的立体图像加以显示的视差图像。例如,在图13的(3)表示的例中,生成用于将包含压缩了球的x方向和z方向后的物体在内的立体图像加以显示的视差图像。图13的(3)是通过由视差图像生成部1355生成的视差图像显示的立体图像的一例。图13的(3)中的物体325的形状与物体321不相同。即,在立体图像的比例或视角、方向等与由体数据坐标表示的被检体相比发生了变更的情况下,视差图像生成部1355将变更后的比例或视角、方向等也反映到任意形状的物体中。换言之,视差图像生成部1355使立体图像内显示的物体的形状配合立体图像的比例或视角、方向而变更。
输出部1354a将由视差图像生成部1355生成的视差图像输出到终端装置140。输出部1354a也称为“第一视差图像输出部”。
(基于第二实施方式的处理)
使用图14,表示由第二实施方式中的图像处理装置进行的处理的流程的一例。图14是表示由第二实施方式中的工作站130进行的处理的流程的一例的流程图。
如图14所示,若工作站130中受理显示指示(步骤S201为肯定),则视差图像生成部1355基于立体图像的比例而变更由显示指示表示的任意形状(步骤S202),并基于图像保管装置120所存储的体数据而生成用于将包含变更了任意形状的物体在内的立体图像加以显示的视差图像(步骤S203)。例如,视差图像生成部1355生成用于将包含压缩了球的x方向和z方向后的物体在内的立体图像加以显示的视差图像。
而且,输出部1354a将由视差图像生成部1355生成的视差图像输出到终端装置140(步骤S204)。
(基于第二实施方式的效果)
如上所述,根据第二实施方式还受理将任意形状的物体显示于立体图像内的显示指示。并且,视差图像生成部1355基于立体图像的比例而变更由所受理到的显示指示表示的任意形状,并基于图像保管装置120中存储的体数据而生成用于将包含变更了任意形状的物体在内的立体图像加以显示的视差图像。而且,根据第二实施方式将所生成的视差图像输出到立体图像显示装置。其结果,使用者能够简单地把握赋予给立体图像的比例或视角、方向的变更。
(第三实施方式)
并且,除了上述的实施方式以外也可以通过其他的实施方式来实施。因此,以下表示其他的实施方式。
(连结操作)
例如,受理部1351也可以受理将显示于立体图像内的2个线段的端部连结的连结操作。该情况下,工作站130作为关注区域的设定而受理将显示于立体图像内的2个线段的端部连结的连结操作,取得与表示通过连结操作连结后的2个线段的立体图像坐标相对应的体数据坐标,并基于取得的体数据坐标而测量2个线段所成的角度。其结果,能够正确地测量2个线段所成的角度。
进一步说明在图像处理装置的控制部135中受理部1351还受理将显示于立体图像内的2个线段的端部连结的连结操作的情况。图15A~图15D是表示连结操作的一例的图。如图15A所示,若受理部1351受理显示第一条直线的显示操作,则视差图像生成部1355生成用于显示包含直线331的立体图像330的视差图像。而且,如图15B所示,若受理部1351受理显示第二条直线的显示操作,则视差图像生成部1355生成用于显示包含直线332的立体图像330的视差图像。而且,如图15C所示,若受理部1351受理使直线332的端部靠近直线331的操作,则如图15D所示,视差图像生成部1355生成视差图像,该视差图像用于显示直线332的端部与直线331连接的立体图像330。
之后,取得部1352取得与示出由受理部1351受理到的2个线段的立体图像坐标相对应的体数据坐标,测量部1353基于由取得部1352取得的体数据坐标而测量2个线段所成的角度。其结果,使用者能够简单且正确地测量2个线段所成的角度。
(对于立体图像的变更操作)
并且,例如受理部1351也可以进而受理将在立体图像显示装置上显示的立体图像的视角、比例和方向中的至少一个变更的变更操作。该情况下,视差图像生成部1355基于图像保管装置120中存储的被检体的体数据来生成用于显示立体图像的视差图像,该立体图像反映了通过由受理部1351受理到的变更操作进行的变更,输出部1354将由视差图像生成部1355生成的视差图像输出到终端装置140。另外,视差图像生成部1355也称为“第二视差图像生成部”,输出部1354也称为“第二视差图像输出部”。其结果,通过任意地变更视角或比例、方向,由此能够简单地设定关注区域。
(距离测量)
并且,例如也可以测量部1353在测量距离时不是测量以直线将坐标和坐标之间连结后的距离,而测量沿脏器或血管等的表面的距离。图16是表示由测量部测量的距离的一例的图。在图16表示的例中,测量部1353也可以不是测量以直线将坐标341和坐标342之间连结后的距离,而测量沿脏器343的表面的距离。并且,该情况下测量部1353判断2个坐标是否处于相同的脏器或血管上,在判断为处于的情况下可以测量沿脏器或血管的距离。并且,若脏器或血管被使用者指定,则测量部1353可以测量沿所指定的血管或脏器的表面的距离。
(测量内容)
并且,例如测量部1353也可以将体数据坐标其自身作为测量结果进行输出。
(图形的形状)
并且,例如也可以在将任意形状显示在立体图像上的情况下,将所指定的形状的原样显示在立体图像上。例如也可以在选择了球的情况下,对使用者显示具有球的立体图像。采用与立体图像中的球对应的体数据上的形状为椭圆球的情况来进行进一步说明。该情况下,工作站130也可以在由使用者选择了球的情况下,对使用者显示具有成为所指定的形状的球的立体图像。换言之,也可以对使用者显示具有如下图形的立体图像,该图形在立体图像上为球,在体数据上为椭圆球。
(关注区域的设定)
并且,例如也可以在受理关注区域的设定时变更关注区域的形状的情况下,视差图像生成部1355生成用于将显示出变更后的关注区域的立体图像加以显示的视差图像并输出。并且,这里在关注区域的形状为球的情况下,也可以受理部1351将进深、纵、横坐标的中心作为视点,通过在终端装置140进行控制器的进深移动或上下左右移动来受理直径的指定,也可以通过在终端装置140再次拖拽球的边缘来受理直径的变更。
并且,例如在关注区域的形状为长方形的情况下,受理部1351也可以受理叠加长方形的指示。并且,在关注区域的形状为球的情况下,通过自由地将形状变形,将关注区域包含在球内,从而能够高效地指定关注区域。
并且,在上述的实施方式中对工作站130基于体数据而生成视差图像的情况进行了说明。但是,实施方式并不限定于此。例如,也可以是医用图像诊断装置110或终端装置140基于体数据而生成视差图像。该情况下,医用图像诊断装置110或终端装置140具有相当于控制部135或绘制处理部136的功能。并且,例如也可以是工作站130、医用图像诊断装置110和终端装置140中的一个或多个装置联动而基于体数据生成视差图像。
并且,在上述实施方式中,对工作站130从图像保管装置120取得体数据的情况进行了说明,但并不限定于此。例如,工作站130也可以从医用图像诊断装置110取得体数据。
(受理部受理的内容)
在上述的实施方式中,对受理部1351受理两个坐标的设定、或受理关注区域的设定、或受理连结操作的情况进行了说明。这里,受理部1351也可以仅受理两个坐标的设定、关注区域的设定、和连结操作之中的任意的设定或操作。例如,受理部1351可以仅受理关注区域的设定,也可以仅受理连结操作,也可以仅受理两个坐标的设定。
(系统构成)
并且,本实施方式中说明的各处理中、作为自动进行的处理而说明的处理的全部或一部分可以以手动的方式进行,或者作为以手动的方式进行的处理而说明的处理的全部或一部分也可以通过公知的方法自动进行。除此之外,对于上述文件中或附图中示出的处理顺序、控制顺序、具体的名称、包含各种的数据及参数的信息(图1~图16),除了特殊记载的情况以外能够任意地变更。
并且,图示出的各装置的各构成要素是功能概念的形式,不一定需要物理上如图示那样构成。即,各装置的分散、统一的具体的形态不限定于图示的形态,能够按照各种的负载及使用状况等将其全部或一部分用任意的单位以功能上或物理上的方式分散、统一而构成。例如,也可以将工作站130的控制部135作为工作站130的外部装置而经由网络进行连接。
(其他)
另外,本实施方式中说明的图像处理程序能够经由互联网等网络进行分发。并且,图像处理程序也可以记录在硬盘、软盘(FD)、CD-ROM、MO、DVD、蓝光(blu-ray)等可由计算机读取的记录介质中,通过由计算机从记录介质读取来执行。
(实施方式的效果)
根据以上叙述的至少一种实施方式的图像处理装置,受理立体图像显示装置所显示的被检体的立体图像中的关注区域的设定,基于体数据而生成与受理到的关注区域相当的平面图像,将生成的平面图像输出,从而能够把握立体图像中的位置关系。
说明了本发明的若干实施方式,但这些实施方式是作为例来提示的,并非意图限定发明的范围。这些实施方式能够以其他各种形态来实施,在不脱离发明的主旨的范围内,能够进行各种省略、置换、变更。这些实施方式及其变形包含在发明的范围及要旨中,同样包含在权利要求书所记载的发明及其等价的范围内。

Claims (9)

1.一种图像处理系统,具备:
受理部,受理在立体图像显示装置上显示的被检体的立体图像中的两个坐标的设定;
取得部,取得体数据坐标,上述体数据坐标是与立体图像坐标相对应的坐标,并且是存储于规定的存储装置中的上述被检体的体数据中的坐标,上述立体图像坐标是示出由上述受理部受理到的上述坐标的上述立体图像中的坐标;
测量部,基于由上述取得部取得的上述体数据坐标,执行对上述受理部受理到的两个坐标间的距离进行测量的测量处理;以及
输出部,输出由上述测量部测量的测量结果。
2.一种图像处理系统,具备:
受理部,受理在立体图像显示装置上显示的被检体的立体图像中的关注区域的设定;
取得部,取得体数据坐标,上述体数据坐标是与立体图像坐标相对应的坐标,并且是存储于规定的存储装置中的上述被检体的体数据中的坐标,上述立体图像坐标是示出由上述受理部受理到的上述关注区域的上述立体图像中的坐标;
测量部,基于由上述取得部取得的上述体数据坐标,对上述受理部受理到的关注区域执行测量处理;以及
输出部,输出由上述测量部测量的测量结果。
3.如权利要求1或2中记载的图像处理系统,
上述受理部还受理将上述立体图像内显示出的2个线段的端部连结的连结操作,
上述取得部取得与示出通过上述连结操作连结后的2个线段的上述立体图像坐标相对应的上述体数据坐标,
上述测量部基于由上述取得部取得的上述体数据坐标,执行对上述2个线段所成的角度进行测量的测量处理。
4.如权利要求1或2中记载的图像处理系统,
上述受理部还受理在上述立体图像内显示任意形状的物体的显示指示,
上述图像处理系统还具备第一视差图像生成部,上述第一视差图像生成部基于上述立体图像的比例来变更由上述受理部受理到的上述显示指示示出的上述任意形状,并基于存储在上述规定的存储装置中的体数据来生成视差图像,该视差图像用于显示包含了将该任意形状变更后的该物体在内的上述立体图像;
上述图像处理系统还具备第一视差图像输出部,上述第一视差图像输出部将由上述第一视差图像生成部生成的视差图像输出到上述立体图像显示装置。
5.如权利要求1或2中记载的图像处理系统,
上述受理部还受理对上述立体图像显示装置上显示的上述立体图像的视角、比例和方向中的至少一个进行变更的变更操作,
上述图像处理系统还具备:
第二视差图像生成部,基于存储在上述规定的存储装置中的上述被检体的体数据来生成视差图像,该视差图像用于显示反映了由上述受理部受理到的上述变更操作进行的变更的上述立体图像;以及
第二视差图像输出部,将由上述第二视差图像生成部生成的视差图像输出到上述立体图像显示装置。
6.一种图像处理方法,包括:
受理在立体图像显示装置上显示的被检体的立体图像中的两个坐标的设定;
取得体数据坐标,上述体数据坐标是与立体图像坐标相对应的坐标,并且是存储于规定的存储装置中的上述被检体的体数据中的坐标,上述立体图像坐标是示出受理到的上述两个坐标的上述立体图像中的坐标;
基于所取得的上述体数据坐标,执行对所受理到的两个坐标间的距离进行测量的测量处理;以及
输出测量结果。
7.一种图像处理装置,具备:
受理部,受理在立体图像显示装置上显示的被检体的立体图像中的两个坐标的设定;
取得部,取得体数据坐标,上述体数据坐标是与立体图像坐标相对应的坐标,并且是存储于规定的存储装置中的上述被检体的体数据中的坐标,上述立体图像坐标是示出由上述受理部受理到的上述坐标的上述立体图像中的坐标;
测量部,基于由上述取得部取得的上述体数据坐标,执行对上述受理部受理到的两个坐标间的距离进行测量的测量处理;以及
输出部,输出由上述测量部测量的测量结果。
8.一种图像处理方法,包括:
受理在立体图像显示装置上显示的被检体的立体图像中的关注区域的设定;
取得体数据坐标,上述体数据坐标是与立体图像坐标相对应的坐标,并且是存储于规定的存储装置中的上述被检体的体数据中的坐标,上述立体图像坐标是示出受理到的上述关注区域的上述立体图像中的坐标;
基于取得的上述体数据坐标,对受理到的关注区域执行测量处理;以及
输出测量结果。
9.一种图像处理装置,具备:
受理部,受理在立体图像显示装置上显示的被检体的立体图像中的关注区域的设定;
取得部,取得体数据坐标,上述体数据坐标是与立体图像坐标相对应的坐标,并且是存储于规定的存储装置中的上述被检体的体数据中的坐标,上述立体图像坐标是示出由上述受理部受理到的上述关注区域的上述立体图像中的坐标;
测量部,基于由上述取得部取得的上述体数据坐标,对上述受理部受理到的关注区域执行测量处理;以及
输出部,输出由上述测量部测量的测量结果。
CN201280015414.0A 2011-04-06 2012-04-02 图像处理系统、图像处理装置以及图像处理方法 Active CN103444194B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011084800A JP6005905B2 (ja) 2011-04-06 2011-04-06 画像処理システム、画像処理装置及び画像処理方法
JP2011-084800 2011-04-06
PCT/JP2012/058936 WO2012137732A1 (ja) 2011-04-06 2012-04-02 画像処理システム、画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
CN103444194A true CN103444194A (zh) 2013-12-11
CN103444194B CN103444194B (zh) 2017-12-05

Family

ID=46969130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280015414.0A Active CN103444194B (zh) 2011-04-06 2012-04-02 图像处理系统、图像处理装置以及图像处理方法

Country Status (4)

Country Link
US (1) US10417808B2 (zh)
JP (1) JP6005905B2 (zh)
CN (1) CN103444194B (zh)
WO (1) WO2012137732A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104182606A (zh) * 2013-12-24 2014-12-03 中国科学院苏州生物医学工程技术研究所 一种pet/ct的分布式软件系统及医疗设备
CN107180408A (zh) * 2016-03-11 2017-09-19 日本医事物理股份有限公司 图像处理系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
JP5818531B2 (ja) * 2011-06-22 2015-11-18 株式会社東芝 画像処理システム、装置及び方法
JP5173053B2 (ja) * 2011-07-19 2013-03-27 株式会社東芝 画像処理システム、装置、方法及び医用画像診断装置
US10216762B2 (en) 2014-06-04 2019-02-26 Panasonic Corporation Control method and non-transitory computer-readable recording medium for comparing medical images
WO2016081321A2 (en) 2014-11-18 2016-05-26 C.R. Bard, Inc. Ultrasound imaging system having automatic image presentation
US10905396B2 (en) 2014-11-18 2021-02-02 C. R. Bard, Inc. Ultrasound imaging system having automatic image presentation
JP6711674B2 (ja) * 2016-04-06 2020-06-17 キヤノンメディカルシステムズ株式会社 X線診断装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07182535A (ja) * 1993-12-24 1995-07-21 Olympus Optical Co Ltd 三次元ボリュームデータ表示装置
JP2001149366A (ja) * 1999-11-25 2001-06-05 Toshiba Corp 三次元画像処理装置
JP2004187743A (ja) * 2002-12-09 2004-07-08 Hitachi Medical Corp 医用3次元画像表示装置
US20080055305A1 (en) * 2006-08-31 2008-03-06 Kent State University System and methods for multi-dimensional rendering and display of full volumetric data sets
CN101336844A (zh) * 2007-07-05 2009-01-07 株式会社东芝 医用图像处理装置以及医用图像诊断装置
US20100104150A1 (en) * 2008-10-24 2010-04-29 Biospace Med Measurement of geometric quantities intrinsic to an anatomical system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4290273B2 (ja) * 1999-01-13 2009-07-01 株式会社日立メディコ 画像表示装置
JP4018300B2 (ja) * 1999-09-27 2007-12-05 ザイオソフト株式会社 画像処理装置
JP4664485B2 (ja) * 2000-12-11 2011-04-06 株式会社東芝 三次元画像記録システム及び三次元画像記録方法
JP4015090B2 (ja) * 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
WO2006003576A2 (en) * 2004-06-28 2006-01-12 Koninklijke Philips Electronics N.V. Image processing system, particularly for images of implants
KR101121301B1 (ko) * 2009-09-16 2012-03-22 삼성메디슨 주식회사 3차원 측정을 수행하는 초음파 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07182535A (ja) * 1993-12-24 1995-07-21 Olympus Optical Co Ltd 三次元ボリュームデータ表示装置
JP2001149366A (ja) * 1999-11-25 2001-06-05 Toshiba Corp 三次元画像処理装置
JP2004187743A (ja) * 2002-12-09 2004-07-08 Hitachi Medical Corp 医用3次元画像表示装置
US20080055305A1 (en) * 2006-08-31 2008-03-06 Kent State University System and methods for multi-dimensional rendering and display of full volumetric data sets
CN101336844A (zh) * 2007-07-05 2009-01-07 株式会社东芝 医用图像处理装置以及医用图像诊断装置
US20100104150A1 (en) * 2008-10-24 2010-04-29 Biospace Med Measurement of geometric quantities intrinsic to an anatomical system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104182606A (zh) * 2013-12-24 2014-12-03 中国科学院苏州生物医学工程技术研究所 一种pet/ct的分布式软件系统及医疗设备
CN104182606B (zh) * 2013-12-24 2017-03-22 中国科学院苏州生物医学工程技术研究所 一种应用pet/ct的分布式软件系统的医疗设备
CN107180408A (zh) * 2016-03-11 2017-09-19 日本医事物理股份有限公司 图像处理系统

Also Published As

Publication number Publication date
WO2012137732A1 (ja) 2012-10-11
JP6005905B2 (ja) 2016-10-12
JP2012222521A (ja) 2012-11-12
US10417808B2 (en) 2019-09-17
CN103444194B (zh) 2017-12-05
US20140035914A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
CN103444194A (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102892018B (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102843564B (zh) 图像处理系统、装置以及方法
CN102892016B (zh) 图像显示系统、装置、方法以及医用图像诊断装置
JP5666967B2 (ja) 医用画像処理システム、医用画像処理装置、医用画像診断装置、医用画像処理方法および医用画像処理プログラム
CN102821292A (zh) 图像处理系统以及方法
CN102984532A (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102833562B (zh) 图像处理系统以及方法
CN102915557B (zh) 图像处理系统、终端装置以及方法
US20130009957A1 (en) Image processing system, image processing device, image processing method, and medical image diagnostic device
CN102893308A (zh) 图像处理系统、装置以及方法
CN103561655B (zh) 医用图像诊断装置、医用图像处理装置以及方法
CN103702612A (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102892022B (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102821695A (zh) 图像处理系统、装置、方法以及程序
CN102892015A (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
CN102833570B (zh) 图像处理系统、装置以及方法
JP5974238B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
CN102860836B (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
JP2012244420A (ja) 画像処理システム、装置及び方法
JP2015201853A (ja) 画像処理装置、画像処理方法及び医用画像診断装置
JP2012231235A (ja) 画像処理システム、装置、方法及びプログラム
JP2013013552A (ja) 医用画像診断装置、医用画像処理装置及び方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160706

Address after: Tochigi County, Japan

Applicant after: Toshiba Medical System Co., Ltd.

Address before: Tokyo, Japan, Japan

Applicant before: Toshiba Corp

Applicant before: Toshiba Medical System Co., Ltd.

GR01 Patent grant
GR01 Patent grant