CN102892018B - 图像处理系统、装置、方法以及医用图像诊断装置 - Google Patents

图像处理系统、装置、方法以及医用图像诊断装置 Download PDF

Info

Publication number
CN102892018B
CN102892018B CN201210249759.4A CN201210249759A CN102892018B CN 102892018 B CN102892018 B CN 102892018B CN 201210249759 A CN201210249759 A CN 201210249759A CN 102892018 B CN102892018 B CN 102892018B
Authority
CN
China
Prior art keywords
mentioned
stereo
picture
display
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210249759.4A
Other languages
English (en)
Other versions
CN102892018A (zh
Inventor
塚越伸介
堤高志
谷口彰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Publication of CN102892018A publication Critical patent/CN102892018A/zh
Application granted granted Critical
Publication of CN102892018B publication Critical patent/CN102892018B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/467Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Studio Devices (AREA)

Abstract

实施方式涉及图像处理系统、装置、方法以及医用图像诊断装置。提供一种能够变更立体图像的焦点位置的图像处理系统、装置、方法以及医用图像诊断装置。实施方式的图像处理系统具备立体显示装置、接受部、以及显示控制部。立体显示装置使用是通过对于是三维的医用图像数据的体数据进行绘制处理而生成的多个视差图像的视差图像组,来显示能够立体观测的立体图像。接受部接受上述立体图像的感兴趣区域。显示控制部根据视线方向在与通过上述接受部接受的感兴趣区域对应的上述体数据的位置相交的多个视点位置,使通过对于该体数据进行绘制处理而生成的视差图像组显示于上述立体显示装置。

Description

图像处理系统、装置、方法以及医用图像诊断装置
本申请主张2011年7月19日申请的日本专利申请号2011-158140的优先权,并在本申请中引用上述日本专利申请的全部内容。
技术领域
实施方式涉及图像处理系统、装置、方法以及医用图像诊断装置。
背景技术
目前,知道有一种通过将从2个视点进行摄影的2个图像显示在显示器(monitor)上,来显示对于使用立体观测用眼镜(glasses)等专用设备的利用者而言能够立体观测的图像的技术。另外,近年来,知道有一种通过使用柱状透镜(lenticularlens)等光线控制元件,将从多个视点进行摄影的图像(例如,9个图像)显示于显示器,从而显示对于裸眼的利用者而言能够立体观测的图像的技术。另外,能够立体观测的显示器所显示的多个图像有时通过推定从1视点进行摄影的图像的进深信息,并使用所推定出的信息的图像处理来生成。
另一方面,在X射线CT(ComputedTomography)装置或MRI(MagneticResonanceImaging)装置、超声波诊断装置等医用图像诊断装置中,能够生成三维的医用图像数据(data)(以下,称为体数据(volumedata))的装置正在实用化。该医用图像诊断装置通过对于体数据执行各种图像处理来生成显示用平面图像,并显示在通用显示器上。例如,医用图像诊断装置通过对于体数据执行体绘制(volumerendering)处理,来生成反映出针对被检体的三维的信息的二维的绘制图像,并将所生成的绘制图像显示在通用显示器上。
发明内容
本发明要解决的问题在于,提供一种能够变更立体图像的焦点(focus)位置的图像处理系统、装置、方法以及医用图像诊断装置。
实施方式的图像处理系统具备立体显示装置、接受部、以及显示控制部。立体显示装置使用通过对于作为三维医用图像数据的体数据进行绘制处理而生成的多个视差图像的视差图像组,来显示能够立体观测的立体图像。接受部接受上述立体图像的感兴趣区域。显示控制部根据视线方向在与由上述接受部接受的感兴趣区域对应的上述体数据的位置相交的多个视点位置,使通过对于该体数据进行绘制处理而生成的视差图像组显示于上述立体显示装置。
根据实施方式的图像处理系统,能够变更立体图像的焦点位置。
附图说明
图1是用于说明第1实施方式所涉及的图像处理系统的构成例的图。
图2A以及图2B是用于说明通过2视差图像进行立体显示的立体显示显示器的一个例子的图。
图3是用于说明通过9视差图像进行立体显示的立体显示显示器的一个例子的图。
图4是用于说明第1实施方式所涉及的工作站(workstation)的构成例的图。
图5是用于说明图4所示的绘制处理部的构成例的图。
图6是用于说明第1实施方式所涉及的体绘制处理的一个例子的图。
图7是表示通过立体显示显示器显示的立体图像的一个例子的图。
图8是用于说明第1实施方式中的控制部的构成例的图。
图9是用于说明第1实施方式中的终端装置的构成例的图。
图10是表示立体图像空间与体数据空间的对应关系的一个例子的图。
图11是用于说明第1实施方式中的工作站以及终端装置的处理的一个例子的图。
图12是表示基于第1实施方式中的工作站的处理的流程的一个例子的流程图(flowchart)。
图13是用于说明基于第2实施方式中的控制部的处理的图。
图14是表示基于第2实施方式中的工作站的处理的流程的一个例子的流程图。
图15是用于说明基于第3实施方式中的控制部的处理的图。
图16是表示第4实施方式所涉及的立体显示显示器142所显示的画面的例子的图。
图17是用于说明立体图像空间的图。
图18是用于说明立体图像的立体感的图。
图19是从纵方向(y轴方向)来观察图3所示例出的立体显示显示器的图。
图20是表示第4实施方式所涉及的平面图像的显示例的图。
图21是用于说明第1~3实施方式的变形例的图。
具体实施方式
以下,参照附图,详细说明图像处理系统、装置、方法以及医用图像诊断装置的实施方式。另外,以下,将包含具有作为图像处理装置的功能的工作站的图像处理系统作为实施方式进行说明。在此,针对以下的实施方式所使用的用语进行说明,所谓“视差图像组”是指对于体数据,通过将视点位置移动规定的每一视差角来进行体绘制处理而生成的图像组。即,“视差图像组”由“视点位置”不同的多个“视差图像”构成。另外,所谓“视差角”是指由为了生成“视差图像组”而设定的各视点位置中相邻的视点位置、和通过体数据表示的空间内的规定位置(例如,空间的中心)决定的角度。另外,所谓“视差数”是指在立体显示显示器上进行立体观测所需的“视差图像”的数量。另外,所谓以下所述的“9视差图像”是指由9个“视差图像”构成的“视差图像组”。另外,所谓以下所述的“2视差图像”是指由2个“视差图像”构成的“视差图像组”。
(第1实施方式)
首先,针对第1实施方式所涉及的图像处理系统的构成例进行说明。图1是用于说明第1实施方式所涉及的图像处理系统的构成例的图。
如图1所示,第1实施方式所涉及的图像处理系统1具有医用图像诊断装置110、图像保管装置120、工作站130、终端装置140。图1所示例的各装置例如通过设置在医院内的院内LAN(LocalAreaNetwork)2,处于能够直接地或者间接地相互通信的状态。例如,当对图像处理系统1导入有PACS(PictureArchivingandCommunicationSystem)时,各装置按照DICOM(DigitalImagingandCommunicationsinMedicine)标准,相互发送接收医用图像等。
该图像处理系统1根据作为通过医用图像诊断装置110生成的三维的医用图像数据的体数据来生成视差图像组,并将该视差图像组显示于能够立体观测的显示器,从而对于在医院内工作的医师或检查技师等观察者,提供该观察者能够立体地识别的图像亦即立体图像。具体而言,在第1实施方式中,工作站130对于体数据进行各种图像处理,生成视差图像组。另外,工作站130以及终端装置140具有能够立体观测的显示器,通过将在工作站130生成的视差图像组显示于显示器来对利用者显示立体图像。另外,图像保管装置120保管在医用图像诊断装置110生成的体数据、或在工作站130生成的视差图像组。例如,工作站130或终端装置140从图像保管装置120取得体数据或视差图像组,并对于所取得的体数据或视差图像组执行任意的图像处理,或者将视差图像组显示在显示器上。以下,依次说明各装置。
医用图像诊断装置110是X射线诊断装置、X射线CT(ComputedTomography)装置、MRI(MagneticResonanceImaging)装置、超声波诊断装置、SPECT(SinglePhotonEmissionComputedTomography)装置、PET(PositronEmissioncomputedTomography)装置、SPECT装置与X射线CT装置一体化的SPECT-CT装置、PET装置与X射线CT装置一体化的PET-CT装置、或者它们的装置组等。另外,第1实施方式所涉及的医用图像诊断装置110能够生成三维的医用图像数据(体数据)。
具体而言,第1实施方式所涉及的医用图像诊断装置110通过将被检体进行摄影来生成体数据。例如,医用图像诊断装置110通过将被检体进行摄影来收集投影数据或MR信号等数据,并通过根据所收集到的数据,重建沿着被检体的体轴方向的多个轴向(axial)面的医用图像数据,从而生成体数据。例如,当医用图像诊断装置110重建500个轴向面的医用图像数据时,该500个轴向面的医用图像数据组是体数据。另外,也可以将通过医用图像诊断装置110进行摄影的被检体的投影数据或MR信号等本身作为体数据。
另外,第1实施方式所涉及的医用图像诊断装置110将所生成的体数据发送至图像保管装置120。另外,当将体数据发送至图像保管装置120时,作为附带信息,例如,医用图像诊断装置110发送识别患者的患者ID、识别检查的检查ID、识别医用图像诊断装置110的装置ID、识别由医用图像诊断装置110进行的1次的摄影的序列(series)ID等。
图像保管装置120是保管医用图像的数据库(database)。具体而言,第1实施方式所涉及的图像保管装置120从医用图像诊断装置110接收体数据,并将所接收到的体数据保管于规定的存储部。另外,在第1实施方式中,工作站130根据体数据生成视差图像组,并将所生成的视差图像组发送至图像保管装置120。因此,图像保管装置120将从工作站130发送出的视差图像组保管于规定的存储部。另外,本实施方式也可以通过使用能够保管大容量的图像的工作站130,来合并图1所示例的工作站130与图像保管装置120。即,本实施方式也可以将体数据或者视差图像组存储于工作站130本身中。
另外,在第1实施方式中,图像保管装置120所保管的体数据或视差图像组与患者ID、检查ID、装置ID、序列ID等对应关联地保管。因此,工作站130或终端装置140通过进行使用了患者ID、检查ID、装置ID、序列ID等的检索,来从图像保管装置120取得所需的体数据或视差图像组。
工作站130是对于医用图像进行图像处理的图像处理装置。具体而言,第1实施方式所涉及的工作站130通过对于从图像保管装置120取得的体数据进行各种绘制处理,来生成视差图像组。
另外,作为显示部,第1实施方式所涉及的工作站130具有能够显示立体图像的显示器(也称为立体显示显示器、立体图像显示装置)。工作站130生成视差图像组,并将所生成的视差图像组显示于立体显示显示器。其结果,工作站130的操作者能够一边确认立体显示显示器所显示出的能够立体观测的立体图像,一边进行用于生成视差图像组的操作。
另外,工作站130将所生成的视差图像组发送至图像保管装置120或终端装置140。另外,当对图像保管装置120或终端装置140发送视差图像组时,作为附带信息,例如,工作站130发送患者ID、检查ID、装置ID、序列ID等。作为将视差图像组发送至图像保管装置120时发送的附带信息,也可以例举出与视差图像组相关的附带信息。作为与视差图像组相关的附带信息,存在视差图像的个数(例如,“9”)、或视差图像的分辨率(例如,“466×350像素”)等。
终端装置140是使在医院内工作的医师或检查技师阅览医用图像的装置。例如,终端装置140是通过在医院内工作的医师或检查技师操作的PC(PersonalComputer)或平板(tablet)式PC、PDA(PersonalDigitalAssistant)、手机等。具体而言,作为显示部,第1实施方式所涉及的终端装置140具有立体显示显示器。另外,终端装置140从图像保管装置120取得视差图像组,并将所取得的视差图像组显示于立体显示显示器。其结果,作为观察者的医师或检查技师能够阅览能够立体观测的医用图像。另外,终端装置140也可以是与作为外部装置的立体显示显示器连接的任意的信息处理终端。
在此,针对工作站130或终端装置140所具有的立体显示显示器进行说明。现在最普及的一般的通用显示器是二维地显示二维图像的显示器,不能立体显示二维图像。假设,当观察者希望在通用显示器进行立体观测时,对于通用显示器输出图像的装置需要通过平行法或交叉法来并列显示观察者能够立体观测的2视差图像。或者,对于通用显示器输出图像的装置例如需要使用在左眼用部分安装了红色的玻璃纸(cellophane),在右眼用部分安装了蓝色的玻璃纸的眼镜通过补色法来显示观察者能够立体观测的图像。
另一方面,作为立体显示显示器,存在通过使用立体观测用眼镜等专用设备,来使2视差图像(也称为两眼视差图像)能够立体观测的显示器。
图2A以及图2B是用于说明通过2视差图像进行立体显示的立体显示显示器的一个例子的图。图2A以及图2B所示的一个例子是通过快门(shutter)方式进行立体显示的立体显示显示器,作为观察显示器的观察者佩戴的立体观测用眼镜使用快门眼镜。该立体显示显示器于显示器交替射出2视差图像。例如,图2A所示的显示器于120Hz交替射出左眼用图像和右眼用图像。在此,如图2A所示,在显示器上设置红外线射出部,红外线射出部与切换图像的定时(timing)相匹配地控制红外线的射出。
另外,从红外线射出部射出的红外线通过图2A所示的快门眼镜的红外线接收部来接收。在快门眼镜的左右的框上分别安装有快门,快门眼镜与红外线接收部接收红外线的定时相匹配地交替切换左右的快门各自的透过状态以及遮光状态。以下,针对快门中的透过状态以及遮光状态的切换处理进行说明。
如图2B所示,各快门具有入射侧的偏振片与射出侧的偏振片,另外,在入射侧的偏振片与射出侧的偏振片之间具有液晶层。另外,入射侧的偏振片与射出侧的偏振片如图2B所示的那样相互正交。在此,如图2B所示,在没有施加电压的“OFF”的状态下,通过了入射侧的偏振片的光通过液晶层的作用旋转90度,透过射出侧的偏振片。即,没有施加电压的快门变为透过状态。
另一方面,如图2B所示,在施加了电压的“ON”的状态下,由于基于液晶层的液晶分子的偏光旋转作用消失,因此,通过了入射侧的偏振片的光会被射出侧的偏振片遮住。即,施加了电压的快门变为遮光状态。
因此,例如,在显示器上显示出左眼用图像期间,红外线射出部射出红外线。并且,在接收红外线期间,红外线接收部没有对左眼的快门施加电压,而对右眼的快门施加电压。由此,如图2A所示,右眼的快门变为遮光状态,左眼的快门变为透过状态,因此,左眼用图像入射至观察者的左眼。另一方面,在显示器上显示出右眼用图像期间,红外线射出部停止红外线的射出。并且,在没有接收红外线期间,红外线接收部没有对右眼的快门施加电压,而对左眼的快门施加电压。由此,左眼的快门变为遮光状态,右眼的快门变为透过状态,因此,右眼用图像入射至观察者的右眼。这样,图2A以及图2B所示的立体显示显示器通过联动地切换显示器所显示的图像与快门的状态,来显示观察者能够立体观测的图像。另外,作为能够立体观测2视差图像的立体显示显示器,除了上述的快门方式以外,还知道有采用了偏振眼镜方式的显示器。
另外,作为近年来实用化的立体显示显示器,存在通过使用柱状透镜等光线控制元件,例如,使观察者能够裸眼地立体观测9视差图像等多视差图像的显示器。该立体显示显示器能够进行基于两眼视差的立体观测,另外,也能够进行基于与观察者的视点移动相应地被观察的映像也发生变化的运动视差的立体观测。
图3是用于说明通过9视差图像进行立体显示的立体显示显示器的一个例子的图。在图3所示的立体显示显示器上,在液晶面板(panel)等平面状的显示面200的前面,配置光线控制元件。例如,在图3所示的立体显示显示器上,作为光线控制元件,在显示面200的前面粘贴有光学开口在垂直方向上延伸的垂直透镜板(lenticularsheet)201。另外,在图3所示的一个例子中,以垂直透镜板201的凸部是前面的方式进行了粘贴,但也可以以垂直透镜板201的凸部与显示面200对置的方式来粘贴。
如图3所示,在显示面200上呈矩阵(matrix)状地配置有像素202,该像素202是通过沿纵向配置纵横比是3:1的红(R)、绿(G)、蓝(B)这3个子(sub)像素而成的。图3所示的立体显示显示器将由9个图像构成的9视差图像转换成配置为规定格式(format)(例如格子状)的中间图像后,在显示面200输出。即,图3所示的立体显示显示器将在9视差图像中位于同一位置的9个像素分别分配输出给9列的像素202。9列的像素202是同时显示视点位置不同的9个图像的单位像素组203。
在显示面200上作为单位像素组203同时输出的9视差图像例如通过LED(LightEmittingDiode)背景灯(backlight)作为平行光放射,另外,通过垂直透镜板201向多方向放射。通过将9视差图像的各像素的光在多方向放射,从而,入射至观察者的右眼以及左眼的光与观察者的位置(视点的位置)联动地变化。即,根据观察者的观察的角度的不同,入射至右眼的视差图像与入射至左眼的视差图像视差角不同。由此,观察者例如能够分别在图3所示的9个位置上,立体地识别摄影对象。另外,观察者例如能够在图3所示的“5”的位置上,对于摄影对象以正对的状态立体地识别,同时分别在图3所示的“5”以外的位置上,以改变摄影对象的朝向的状态立体地识别。另外,图3所示的立体显示显示器毕竟是一个例子。如图3所示,显示9视差图像的立体显示显示器也可以是“RRR…、GGG…、BBB…”的横条(stripe)液晶,也可以是“RGBRGB…”的纵条液晶。另外,如图3所示,图3所示的立体显示显示器也可以是透镜板为垂直的纵透镜方式,也可以是透镜板为倾斜的倾斜透镜(lens)方式。
以上,针对第1实施方式所涉及的图像处理系统1的构成例简单地进行了说明。另外,上述的图像处理系统1并不限定于应用于导入有PACS时。例如,图像处理系统1同样也应用于导入有管理添加了医用图像的电子病历(chart)的电子病历系统时。此时,图像保管装置120是管理电子病历的数据库。另外,例如,图像处理系统1同样也应用于导入有HIS(HospitalInformationSystem)、RIS(RadiologyInformationSystem)时。另外,图像处理系统1并不限定于上述的构成例。各装置所具有的功能或其分工也可以根据运用的方式适当地变更。
接着,针对第1实施方式所涉及的工作站的构成例使用图4进行说明。图4是用于说明第1实施方式所涉及的工作站的构成例的图。另外,以下,所谓“视差图像组”是指通过对于体数据进行体绘制处理而生成的立体观测用图像组。另外,所谓“视差图像”是指构成“视差图像组”的各个图像。即,“视差图像组”由视点位置不同的多个“视差图像”构成。
第1实施方式所涉及的工作站130是适于图像处理等的高性能的计算机(computer),如图4所示,具有输入部131、显示部132、通信部133、存储部134、控制部135、绘制处理部136。另外,以下,使用工作站130是适于图像处理等的高性能的计算机的情况进行说明,但并不限定于此,也可以是任意的信息处理装置。例如,也可以是任意的个人计算机。
输入部131是鼠标(mouse)、键盘(keyboard)、轨迹球(trackball)等,接受操作者对于工作站130的各种操作的输入。具体而言,第1实施方式所涉及的输入部131接受用于从图像保管装置120取得是绘制处理的对象的体数据的信息的输入。例如,输入部131接受患者ID、检查ID、装置ID、序列ID等的输入。另外,第1实施方式所涉及的输入部131接受与绘制处理相关的条件(以下,称为绘制条件)的输入。
显示部132是作为立体显示显示器的液晶面板等,显示各种信息。具体而言,第1实施方式所涉及的显示部132显示用于接受操作者进行的各种操作的GUI(GraphicalUserInterface)或视差图像组等。通信部133是NIC(NetworkInterfaceCard)等,在与其他的装置之间进行通信。
存储部134是硬盘(harddisk)、半导体存储器(memory)元件等,存储各种信息。具体而言,第1实施方式所涉及的存储部134存储经由通信部133从图像保管装置120取得的体数据。另外,第1实施方式所涉及的存储部134存储绘制处理中的体数据、或通过绘制处理生成的视差图像组等。
控制部135是CPU(CentralProcessingUnit)、MPU(MicroProcessingUnit)或GPU(GraphicsProcessingUnit)等电子电路、ASIC(ApplicationSpecificIntegratedCircuit)或FPGA(FieldProgrammableGateArray)等集成电路,进行工作站130的整体控制。
例如,第1实施方式所涉及的控制部135控制对于显示部132的GUI的显示或视差图像组的显示。另外,例如,控制部135控制在与图像保管装置120之间经由通信部133进行的体数据或视差图像组的发送接收。另外,例如,控制部135控制基于绘制处理部136的绘制处理。另外,例如,控制部135控制从存储部134读入体数据或向存储部134存储视差图像组。
绘制处理部136在基于控制部135的控制下,对于从图像保管装置120取得的体数据进行各种绘制处理,生成视差图像组。具体而言,第1实施方式所涉及的绘制处理部136从存储部134读入体数据,并首先对于该体数据进行前处理。接着,绘制处理部136对于前处理后的体数据进行体绘制处理,生成视差图像组。接着,绘制处理部136通过生成描绘出各种信息(刻度、患者名、检查项目等)的二维图像,将其分别对于视差图像组重叠,来生成输出用二维图像。并且,绘制处理部136将所生成的视差图像组或输出用二维图像存储于存储部134。另外,在第1实施方式中,所谓绘制处理是指对于体数据进行的图像处理整体。所谓体绘制处理是指绘制处理内,生成反映出三维的信息的二维图像的处理。所谓通过绘制处理生成的医用图像例如是视差图像。
图5是用于说明图4所示的绘制处理部的构成例的图。如图5所示,绘制处理部136具有前处理部1361、三维图像处理部1362、以及二维图像处理部1363。前处理部1361进行对于体数据的前处理,三维图像处理部1362根据前处理后的体数据生成视差图像组,二维图像处理部1363生成将各种信息重叠于视差图像组的输出用二维图像。以下,依次说明各部。
前处理部1361是当对于体数据进行绘制处理时,进行各种前处理的处理部,具有图像校正处理部1361a、三维物体融合(fusion)部1361e、以及三维物体显示区域设定部1361f。
图像校正处理部1361a是当将2种体数据作为1个体数据进行处理时进行图像校正处理的处理部,如图5所示,具有失真校正处理部1361b、体运动校正处理部1361c以及图像间位置对准处理部1361d。例如,当将通过PET-CT装置生成的PET图像的体数据与X射线CT图像的体数据作为1个体数据进行处理时,图像校正处理部1361a进行图像校正处理。或者,当将通过MRI装置生成的T1强调图像的体数据与T2强调图像的体数据作为1个体数据进行处理时,图像校正处理部1361a进行图像校正处理。
另外,失真校正处理部1361b校正在各个体数据中,基于医用图像诊断装置110的数据收集时的收集条件所引起的数据的失真。另外,体运动校正处理部1361c校正为了生成各个体数据而使用的数据的收集时期中的被检体的体运动所引起的移动。另外,图像间位置对准处理部1361d在进行了基于失真校正处理部1361b以及体运动校正处理部1361c的校正处理的2个体数据间,例如,进行使用了相互相关法等的位置对准(Registration)。
三维物体融合部1361e使通过图像间位置对准处理部1361d进行了位置对准的多个体数据融合。另外,当对于单一的体数据进行绘制处理时,省略图像校正处理部1361a以及三维物体融合部1361e的处理。
三维物体显示区域设定部1361f是设定与通过操作者指定的显示对象脏器对应的显示区域的处理部,具有分割(segmentation)处理部1361g。分割处理部1361g是例如通过根据体数据的像素值(体素(voxel)值)的区域扩张法来提取通过操作者指定的心脏、肺、血管等脏器的处理部。
另外,当操作者没有指定显示对象脏器时,分割处理部1361g不进行分割处理。另外,当操作者指定了多个显示对象脏器时,分割处理部1361g提取符合的多个脏器。另外,有时根据参照绘制图像的操作者的微调整要求再次执行分割处理部1361g的处理。
三维图像处理部1362对于前处理部1361进行了处理的前处理后的体数据进行体绘制处理。作为进行体绘制处理的处理部,三维图像处理部1362具有投影方法设定部1362a、三维几何转换处理部1362b、三维物体表现(appearance)处理部1362f、三维虚拟空间绘制部1362k。
投影方法设定部1362a确定用于生成视差图像组的投影方法。例如,投影方法设定部1362a确定通过平行投影法来执行体绘制处理,还是通过透视投影法来执行。
三维几何转换处理部1362b是确定用于将执行体绘制处理的体数据三维几何学地转换的信息的处理部,具有平行移动处理部1362c、旋转处理部1362d以及放大缩小处理部1362e。平行移动处理部1362c是当平行移动进行体绘制处理时的视点位置时,确定使体数据平行移动的移动量的处理部,旋转处理部1362d是当旋转移动进行体绘制处理时的视点位置时,确定使体数据旋转的移动量的处理部。另外,放大缩小处理部1362e是当要求将视差图像组放大或缩小时,确定体数据的放大率或缩小率的处理部。
三维物体表现处理部1362f具有三维物体色彩处理部1362g、三维物体不透明度处理部1362h、三维物体材质处理部1362i以及三维虚拟空间光源处理部1362j。三维物体表现处理部1362f通过这些处理部,例如,根据操作者的要求,进行确定所显示的视差图像组的显示状态的处理。
三维物体色彩处理部1362g是确定对于在体数据中分割出的各区域进行着色的色彩的处理部。三维物体不透明度处理部1362h是确定构成在体数据中分割出的各区域的各体素的不透明度(Opacity)的处理部。另外,在体数据中不透明度为“100%”的区域的后方的区域在视差图像组中没有被描绘出。另外,在体数据中不透明度为“0%”的区域在视差图像组中没有被描绘出。
三维物体材质处理部1362i是通过确定在体数据中分割出的各区域的材质,来调整描绘该区域时的质感的处理部。三维虚拟空间光源处理部1362j是当对于体数据进行体绘制处理时,确定设置于三维虚拟空间的虚拟光源的位置、或虚拟光源的种类的处理部。作为虚拟光源的种类,可以列举出从无限远照射平行的光线的光源、或从视点照射放射状的光线的光源等。
三维虚拟空间绘制部1362k对于体数据进行体绘制处理,生成视差图像组。另外,当进行体绘制处理时,三维虚拟空间绘制部1362k根据需要,使用通过投影方法设定部1362a、三维几何转换处理部1362b、以及三维物体表现处理部1362f确定的各种信息。
在此,基于三维虚拟空间绘制部1362k的体绘制处理按照绘制条件来进行。例如,绘制条件是“平行投影法”或者“透视投影法”。另外,例如,绘制条件是“基准的视点位置、视差角以及视差数”。另外,例如,绘制条件是“视点位置的平行移动”、“视点位置的旋转移动”、“视差图像组的放大”、“视差图像组的缩小”。另外,例如,绘制条件是“被着色的色彩”、“透明度”、“质感”、“虚拟光源的位置”、“虚拟光源的种类”。这样的绘制条件被认为经由输入部131从操作者接受、或者初始设定。任一情况下,三维虚拟空间绘制部1362k都从控制部135接受绘制条件,并按照该绘制条件,进行对于体数据的体绘制处理。另外,此时,上述的投影方法设定部1362a、三维几何转换处理部1362b、以及三维物体表现处理部1362f按照该绘制条件来确定所需的各种信息,因此,三维虚拟空间绘制部1362k使用所确定的这些各种信息来生成视差图像组。
图6是用于说明第1实施方式所涉及的体绘制处理的一个例子的图。例如,如图6的“9视差图像生成方式(1)”所示,作为绘制条件,假设三维虚拟空间绘制部1362k接受平行投影法,另外,接受基准的视点位置(5)与视差角“1度”。此时,三维虚拟空间绘制部1362k以视差角间隔“1度”的方式,将视点的位置平行移动至(1)~(9),并通过平行投影法生成视差角(视线方向间的角度)1度1度不同的9个视差图像。另外,当进行平行投影法时,三维虚拟空间绘制部1362k设定沿着视线方向从无限远照射平行的光线的光源。
或者,如图6的“9视差图像生成方式(2)”所示,作为绘制条件,假设三维虚拟空间绘制部1362k接受透视投影法,另外,接受基准的视点位置(5)与视差角“1度”。此时,三维虚拟空间绘制部1362k将体数据的中心(重心)作为中心以视差角间隔“1度”的方式,将视点的位置旋转移动至(1)~(9),通过透视投影法生成视差角1度1度不同的9个视差图像。另外,当进行透视投影法时,三维虚拟空间绘制部1362k在各视点设定将视线方向作为中心三维地放射状地照射光的点光源或面光源。另外,进行透视投影法时,根据绘制条件,也可以平行移动视点(1)~(9)。
另外,三维虚拟空间绘制部1362k也可以通过设定对于所显示的体绘制图像的纵方向,以视线方向为中心二维地放射状地照射光,对于所显示的体绘制图像的横方向,沿着视线方向从无限远照射平行的光线的光源,来进行并用了平行投影法与透视投影法的体绘制处理。
这样生成的9个视差图像是视差图像组。在第1实施方式中,9个视差图像例如通过控制部135转换成被配置为规定格式(例如格子状)的中间图像,并输出至作为立体显示显示器的显示部132。于是,工作站130的操作者能够一边确认立体显示显示器所显示出的能够立体观测的医用图像,一边进行用于生成视差图像组的操作。
另外,在图6的例子中,说明了作为绘制条件,接受了投影方法、基准的视点位置以及视差角的情况,但作为绘制条件,接受了其他的条件的情况下,三维虚拟空间绘制部1362k也同样一边反映各自的绘制条件,一边生成视差图像组。
另外,三维虚拟空间绘制部1362k不仅具有体绘制的功能,还具有进行剖面重建法(MPR:MultiPlanerReconstruction)来根据体数据重建MPR图像的功能。另外,三维虚拟空间绘制部1362k也具有进行“CurvedMPR”的功能、进行“IntensityProjection”的功能。
接着,将三维图像处理部1362根据体数据生成的视差图像组作为底图(Underlay)。并且,通过对于底图重叠描绘出各种信息(刻度、患者名、检查项目等)的覆盖图(Overlay),生成输出用二维图像。二维图像处理部1363是通过对于覆盖图以及底图进行图像处理,来生成输出用二维图像的处理部,如图5所示,具有二维物体描绘部1363a、二维几何转换处理部1363b以及亮度调整部1363c。例如,二维图像处理部1363为了减轻输出用二维图像的生成处理所需的负荷,通过分别对于9个视差图像(底图)重叠1个覆盖图,来生成9个输出用二维图像。另外,以下,有时仅仅将重叠了覆盖图的底图记作“视差图像”。
二维物体描绘部1363a是描绘覆盖图所描绘出的各种信息的处理部,二维几何转换处理部1363b是将覆盖图所描绘出的各种信息的位置进行平行移动处理或者旋转移动处理,或将覆盖图所描绘出的各种信息进行放大处理或者缩小处理的处理部。
另外,亮度调整部1363c是进行亮度转换处理的处理部,例如,是根据输出目标的立体显示显示器的色调、窗宽(WW:WindowWidth)、窗位(WL:WindowLevel)等图像处理用参数,来调整覆盖图以及底图的亮度的处理部。
控制部135例如将这样生成的输出用二维图像暂时存储于存储部134,之后,经由通信部133发送至图像保管装置120。并且,终端装置140例如从图像保管装置120取得该输出用二维图像,转换成以规定格式(例如格子状)配置的中间图像并显示于立体显示显示器。另外,例如,控制部135将输出用二维图像暂时存储于存储部134,之后,经由通信部133发送至图像保管装置120,同时发送至终端装置140。并且,终端装置140将从工作站130接收到的输出用二维图像转换成以规定格式(例如格子状)配置的中间图像并显示于立体显示显示器。由此,利用终端装置140的医师或检查技师能够在描绘出各种信息(刻度、患者名、检查项目等)的状态下,阅览能够立体观测的医用图像。
然后,如上述那样,第1实施方式中的立体显示显示器通过显示视差图像组,来提供观察者能够立体观测的立体图像。例如,立体显示显示器将被检体的脏器等作为立体图像来显示。由此,观察立体显示显示器的观察者能够立体地识别被检体的脏器等。构成视差图像组的视差图像间的视差角越大,这样的立体图像越是立体的图像。例如,当通过观察者进行了变更视差角的操作时,终端装置140从图像保管装置120取得与该视差角对应的视差图像组,并将所取得的视差图像组显示于立体显示显示器。由此,观察者能够观察变更了立体感的立体图像。
但是,如果视差图像组的视差角比规定值大,则虽然针对规定区域的立体图像作为立体的图像来显示,但有时该规定的区域以外的立体图像变为不能获得立体感的粗的图像(所谓的存在“模糊(dim)”的图像)。具体而言,如使用图6说明的那样,工作站130的绘制处理部136根据多个视点位置进行绘制处理,但来自该多个视点位置的视线方向在体数据的规定的位置相交。这样的各视线方向的交点是通过从该各视线方向进行体绘制而生成的视差图像组的焦点。并且,在通过立体显示显示器显示的立体图像中,有时针对将视差图像组的焦点作为中心的规定的区域变为没有模糊的图像,针对从焦点远离规定值的区域变为存在模糊的图像。
针对这样的焦点,使用图7,以绘制条件是透视投影法时为例进行说明。图7是表示通过立体显示显示器进行显示的立体图像的一个例子的图。另外,以下,针对工作站130通过对于由医用图像诊断装置110生成的体数据进行绘制处理来生成视差图像组,终端装置140将该视差图像组显示于装置本身的立体显示显示器142的例子进行说明。
在图7(A1)所示的例子中,医用图像诊断装置110所具有的规定的摄影部通过以规定的直线A10为旋转轴环绕被检体P的头部来对被检体P进行摄影。例如,当医用图像诊断装置110是X射线CT装置时,X射线管以及X射线检测器所对置配置的圆环状的框(frame)通过环绕被检体P,来对被检体P的头部进行摄影。并且,在图7(A1)所示的例子中,医用图像诊断装置110将被检体P所存在的实际空间SP10作为摄影对象,如图7(A2)所示,生成与实际空间SP10对应的体数据VD10。
接着,工作站130的绘制处理部136通过对于由医用图像诊断装置110生成的体数据VD10,从多个视点位置进行绘制处理来生成视差图像组。具体而言,绘制处理部136根据通过上述的旋转处理部1362d确定的移动量(旋转移动量)来使体数据VD10旋转,从而变更视点位置,进行体绘制处理。
在此,当绘制条件是透视投影法时,使体数据旋转时的旋转轴一般与医用图像诊断装置110的摄影部环绕被检体P的旋转轴A10相同,是通过体数据VD10的重心的轴。从而,绘制处理部136通过由旋转轴A10来使体数据VD10旋转来变动视点位置,从而进行体绘制处理。换而言之,绘制处理部136通过在以旋转轴A10为中心的圆弧上移动视点位置,来进行体绘制处理。
使用图7(B)更具体地进行说明。图7(B)是从上方(与xz平面垂直的y方向)来观察体数据VD10的图。另外,在图7(B)中,示出了视点位置在圆弧上移动的图像(image),但绘制处理部136也可以通过使体数据VD10旋转移动来移动视点位置。如图7(B)所示,绘制处理部136根据在以旋转轴A10为中心的圆弧上变化的视点位置L1、…、L5、…、L9来进行体绘制处理。虽然从这些视点位置L1、…、L5、…、L9观察的体数据VD10不同,但从各视点位置向体数据VD10的视线方向的目标是同一旋转轴A10。也就是说,在图7所示的例子中,绘制处理时的焦点是旋转轴A10。换而言之,这样生成的视差图像组的焦点是旋转轴A10。另外,由于该例子中的“焦点”与旋转轴相符合,因此是“线”。
并且,如图7(A3)所示,通过绘制处理部136生成的视差图像组通过立体显示显示器142来显示。具体而言,作为能够立体观测的立体图像I10,立体显示显示器142显示被检体P的头部内部的图像。当视差角比规定值大时,这样的立体图像I10针对作为与旋转轴A10对应的焦点附近的区域的焦点区域E10变为没有模糊的立体图像,但担心焦点区域E10以外的区域变为具有模糊的图像。
在此,根据观察者不同,还存在通过使视差角变大来更立体地显示立体图像I10,同时希望观察焦点区域E10以外的区域的情况。但是,即使这样的观察者进行了视差角变大的操作,立体显示显示器142有时也不能在观察者所希望的区域显示没有模糊的立体图像。因此,有时观察者不能更立体地观察所希望的区域。
另外,在上述图7的例子中,以绘制条件是透视投影法的情况为例进行了说明,但当绘制条件是平行投影法时,同样存在视差图像组生成时的各视线方向的交点变为视差图像组的焦点,针对该焦点附近的焦点区域以外变为具有模糊的立体图像。
因此,第1实施方式中的工作站130在基于控制部135的处理下,能够在观察者所希望的区域显示没有模糊的立体图像。以下,针对这样的第1实施方式中的工作站130等详细地进行说明。另外,以下,针对工作站130将视差图像组发送至终端装置140,终端装置140显示从工作站130接收到的视差图像组的例子进行说明。另外,以下,最初说明工作站130的构成例,接着说明终端装置140的构成例,接着说明工作站130以及终端装置140的处理例,最后,说明基于工作站130的处理步骤。
图8是用于说明第1实施方式中的控制部135的构成例的图。如图8所示例的那样,第1实施方式中的控制部135具有接受部1351、绘制控制部1352、以及显示控制部1353。
接受部1351接受立体图像的感兴趣区域。具体而言,作为立体图像的感兴趣区域,第1实施方式中的接受部1351从将规定的立体图像显示于立体显示显示器142的终端装置140,接受变更该立体图像的焦点位置的焦点变更要求。此时,作为与变更后的焦点位置相关的信息,接受部1351接受配置是立体显示显示器142所显示的视差图像组的生成元的体数据的三维虚拟空间(以下,有时记作“体数据空间”)的坐标。即,作为能够立体观测地显示的感兴趣区域,接受部1351接受体数据空间中的变更目标的焦点位置。另外,针对通过终端装置140发送的焦点变更要求,之后进行详述。
绘制控制部1352与绘制处理部136合作根据体数据生成视差图像组。具体而言,第1实施方式中的绘制控制部1352控制绘制处理部136,使得绘制处理部136生成包含了表示作为绘制处理时的各视线方向的交点的焦点的图像(焦点图像)的视差图像。由此,绘制处理部136例如生成包含了直线或圆柱等焦点图像的视差图像。
另外,当通过接受部1351接受了焦点变更要求时,第1实施方式中的绘制控制部1352根据该焦点变更要求所包含的变更后的焦点位置,来确定绘制处理时的视线方向。具体而言,绘制控制部1352以各视线方向的交点与变更后的焦点位置大致一致的方式,来确定该各视线方向。并且,绘制控制部1352控制绘制处理部136,使得绘制处理部136根据所确定的各视线方向来进行绘制处理。由此,绘制处理部136通过从由绘制控制部1352确定的各视线方向来进行绘制处理,来生成新的视差图像组。
显示控制部1353将通过绘制处理部生成的视差图像组发送至终端装置140。例如,第1实施方式中的显示控制部1353将通过绘制处理部新生成的视差图像组发送至终端装置140,并使该视差图像组显示于终端装置140的立体显示显示器142。
接着,使用图9,针对第1实施方式中的终端装置140进行说明。图9是用于说明第1实施方式中的终端装置140的构成例的图。如图9所示例的那样,第1实施方式中的终端装置140具有输入部141、立体显示显示器142、通信部143、存储部144、控制部145。
输入部141是鼠标或轨迹球等指示设备(pointingdevice)、或键盘等信息输入设备,接受操作者对于终端装置140的各种操作的输入。例如,作为立体观测要求,输入部141接受用于指定操作者希望立体观测的体数据的患者ID、检查ID、装置ID、序列ID等的输入。
立体显示显示器142是液晶面板等,显示各种信息。具体而言,第1实施方式所涉及的立体显示显示器142显示用于接受操作者进行的各种操作的GUI(GraphicalUserInterface)、或视差图像组等。例如,立体显示显示器142是使用图2A以及图2B说明了的立体显示显示器(以下,记作2视差显示器)、或使用图6说明了的立体显示显示器(以下,记作9视差显示器)。以下,针对立体显示显示器142是9视差显示器的情况进行说明。
通信部143是NIC(NetworkInterfaceCard)等,在与其他的装置之间进行通信。具体而言,第1实施方式所涉及的通信部143将输入部141所接受了的立体观测要求发送至工作站130。另外,第1实施方式所涉及的通信部143根据立体观测要求来接收工作站130所发送出的视差图像组。
存储部144是硬盘、半导体存储器元件等,存储各种信息。具体而言,第1实施方式所涉及的存储部144存储经由通信部143从工作站130取得的视差图像组。另外,存储部144也存储经由通信部143从工作站130取得的视差图像组的附带信息(视差数、分辨率等)。
控制部145是CPU、MPU或GPU等电子电路、ASIC或FPGA等集成电路,进行终端装置140的整体控制。例如,控制部145控制在与工作站130之间经由通信部143进行的立体观测要求或视差图像组的发送接收。另外,例如,控制部145控制向存储部144存储视差图像组、或从存储部144读入视差图像组。
如图9所示例的那样,该控制部145具有显示控制部1451和要求发送部1452。显示控制部1451将从工作站130接收到的视差图像组显示于立体显示显示器142。由此,在立体显示显示器142上显示视差图像组,该立体显示显示器142的观察者能够观察能够立体观测的立体图像。
要求发送部1452将变更立体显示显示器142所显示出的立体图像的焦点位置的焦点变更要求发送至工作站130。具体而言,当通过观察者进行使用输入部141来变更焦点位置的操作时,要求发送部1452将包含变更后的焦点位置的焦点变更要求发送至工作站130。
在第1实施方式中,假设观察者通过作为指示设备等的输入部141,来在立体显示显示器142所显示出的立体图像上指定焦点位置。例如,观察者使用作为指示设备等的输入部141使作为立体图像而显示的焦点图像移动,由此来设定新的焦点位置。
即,焦点位置的变更在显示出立体图像的三维空间(以下,有时记作“立体图像空间”)中进行。在这样的情况下,要求发送部1452取得与立体图像空间中的焦点位置对应的体数据空间的位置(坐标),并将包含所取得的体数据空间的位置(坐标)的焦点变更要求发送至工作站130。
在此,使用图10,针对立体图像空间与体数据空间的对应关系进行说明。图10是表示立体图像空间与体数据空间的对应关系的一个例子的图。图10(A)表示体数据,图10(B)表示通过立体显示显示器142显示的立体图像。另外,图10(A)中的坐标301与坐标302和距离303分别与图10(B)中的坐标304与坐标305和距离306对应。
如图10所示,配置体数据的体数据空间与显示立体图像的立体图像空间坐标系不同。具体而言,图10(B)所示的立体图像与图10(A)所示的体数据相比较,进深方向(z方向)变窄。换而言之,在图10(B)所示的立体图像中,图10(A)所示的体数据的进深方向的成分被压缩地显示。此时,如图10(B)所示,坐标304与坐标305之间的距离306与图10(A)中的坐标301与坐标302之间的距离303相比较,缩短了被压缩的量。
这样的立体图像空间坐标与体数据空间坐标的对应关系,根据立体图像的标度(scale)或视野角、视线方向(绘制时的视线方向、或者立体图像观察时的视线方向)等唯一地确定,例如,能够由以下的(数学公式1)那样的形式来表现。
(数学公式1)=(x1,y1,z1)=F(x2,y2,z2)
在(数学公式1)中,“x2”“y2”“z2”分别表示立体图像空间坐标。另外,“x1”“y1”“z1”分别表示体数据空间坐标。另外,函数“F”是根据立体图像的标度或视野角、视线方向等唯一地确定的函数。即,要求发送部1452能够通过使用(数学公式1),来取得立体图像空间坐标与体数据空间坐标的对应关系。另外,每当变更立体图像的标度或视野角、视线方向(绘制时的视线方向、或者立体图像观察时的视线方向)等时,都通过要求发送部1452生成函数“F”。例如,作为转换旋转、平行移动、放大、缩小的函数“F”使用(数学公式2)所示的仿射(affine)转换。
(数学公式2)
x1=a*x2+b*y2+c*z3+d
y1=e*x2+f*y2+g*z3+h
z1=i*x2+j*y2+k*z3+l
(a~l是转换系数)
当进行了在立体图像空间中指定焦点位置的操作时,要求发送部1452根据函数“F”来取得与所指定的立体图像空间中的焦点位置(坐标)对应的体数据空间的坐标,并将所取得的体数据空间的坐标作为变更后的焦点位置的坐标。并且,要求发送部1452将包含变更后的焦点位置的坐标的焦点变更要求发送至工作站130。
另外,在上述的说明中,示出了要求发送部1452根据函数“F”取得体数据空间的坐标的例子,但并不限定于此。例如,终端装置140具有作为立体图像空间坐标与体数据空间坐标被对应关联的表(table)的坐标表,也可以通过要求发送部1452将立体图像空间坐标作为检索键(key)来检索坐标表,来取得与立体图像空间坐标对应的体数据空间坐标。
接着,使用图11,针对第1实施方式中的工作站130以及终端装置140的处理的一个例子进行说明。图11是用于说明第1实施方式中的工作站130以及终端装置140的处理的一个例子的图。图11(A1)以及(B1)表示同一体数据VD10,图11(A2)、(A3)以及(B2)表示终端装置140的立体显示显示器142所显示出的立体图像。
首先,工作站130的绘制处理部136通过由绘制控制部1352进行控制,来对于体数据VD10进行绘制处理。此时,如图11(A1)所示,绘制处理部136通过根据各视线方向的交点是直线A11的绘制条件对于体数据VD10进行绘制处理,来生成与多个视点位置对应的视差图像组。例如,当绘制条件是透视投影法时,绘制处理部136通过将直线A11作为旋转轴使体数据VD10进行旋转,来生成与多个视点位置对应的视差图像组。另外,绘制处理部136将表示该直线A11的焦点图像(覆盖图)重叠于视差图像组(底图)。另外,绘制处理部136也可以通过在使体数据VD10反映焦点图像的数据之后进行绘制处理,来生成反映出焦点图像的视差图像组。
并且,工作站130将这样生成的视差图像组发送至终端装置140。由此,如图11(A2)所示例的那样,终端装置140在立体显示显示器142上显示立体图像I11与焦点图像AI11。由此,观察者能够根据焦点图像AI11,来把握立体图像I11的焦点位置。
在此,在图11(A2)所示的例子中,假设立体图像I11中焦点区域E11是没有模糊的立体图像,而焦点区域E11以外的区域是具有模糊的立体图像。并且,假设如图11(A3)所示的例子那样,通过观察者使用输入部141来移动焦点图像AI11。此时,终端装置140的要求发送部1452使用上述的函数“F”,来取得与图11(A3)所示的焦点图像AI11的立体图像空间中的坐标对应的体数据空间的坐标。并且,要求发送部1452将包含所取得的体数据空间的坐标的焦点变更要求发送至工作站130。
接着,当从终端装置140接收了焦点变更要求时,工作站130的绘制控制部1352控制绘制处理部136,使得绘制处理部136根据该焦点变更要求所包含的焦点位置(体数据空间的坐标)与各视线方向的交点一致的绘制条件来进行绘制处理。由此,如图11(B1)所示,绘制处理部136根据各视线方向的交点是直线A12的绘制条件对于体数据VD10进行绘制处理,来新生成视差图像组。并且,工作站130的显示控制部1353将这样生成的新的视差图像组发送至终端装置140。
并且,如图11(B2)所示例的那样,终端装置140在立体显示显示器142显示立体图像I12与焦点图像AI12。由此,由于立体图像I12的焦点区域E12是没有模糊的立体图像,因此,观察者能够在所希望的区域观察没有模糊的立体图像。
接着,使用图12,表示基于第1实施方式中的工作站130的处理的流程的一个例子。图12是表示基于第1实施方式中的工作站130的处理的流程的一个例子的流程图。
如图12所示,工作站130的控制部135判定是否从终端装置140接受了立体观测要求(步骤(step)S101)。在此,当没有接受立体观测要求时(步骤S101否定),工作站130一直待机到接受立体观测要求。
另一方面,当接受了立体观测要求时(步骤S101肯定),工作站130的绘制控制部1352通过控制绘制处理部136,来生成包含焦点图像的视差图像组(步骤S102)。
并且,工作站130的显示控制部1353将通过绘制处理部136生成的视差图像组发送至终端装置140(步骤S103)。由此,显示控制部1353在终端装置140的立体显示显示器142上,如图11(A2)等所示例的那样,显示包含焦点图像的立体图像。
接着,工作站130的接受部1351判定是否从终端装置140接受了焦点变更要求(步骤S104)。在此,当没有接受焦点变更要求时(步骤S104否定),接受部1351一直待机到接受焦点变更要求。
另一方面,当接受了焦点变更要求时(步骤S104肯定),接受部1351将该焦点变更要求所包含的与变更后的焦点位置相关的信息(体数据空间中的坐标)输出至绘制控制部1352。
绘制控制部1352根据从接受部1351输入的焦点位置,确定作为绘制条件的各视线方向,并控制绘制处理部136以便根据所确定的绘制条件来进行绘制处理。由此,绘制处理部136通过根据该绘制条件进行绘制处理,来生成新的视差图像组(步骤S105)。
并且,显示控制部1353将通过绘制处理部136新生成的视差图像组发送至终端装置140(步骤S106)。由此,显示控制部1353在终端装置140的立体显示显示器142上,显示变更了焦点位置的立体图像。
如上述那样,根据第1实施方式,显示焦点图像,同时根据焦点图像的移动操作生成新的视差图像组,因此,能够变更立体图像的焦点位置。
另外,第1实施方式并不限定于上述的实施方式,也可以是以下所示的包含若干变形例的方式的实施方式。以下,针对第1实施方式的变形例进行说明。
[焦点位置的指定]
在上述第1实施方式中,示出了使用作为指示设备等的输入部141,通过使焦点图像移动来设定焦点位置的例子。但是,焦点位置的设定方法并不限定于此。例如,终端装置140也可以通过由指示设备等在立体图像空间内指定规定的直线,来将该规定的直线作为变更后的焦点位置来接受。
另外,终端装置140也可以通过指示设备等在立体图像空间内指定规定的三维区域。此时,绘制控制部1352将所指定的三维区域所包含的规定的直线作为新的焦点位置。
另外,在上述例子中,在立体图像空间中设定的三维区域可以是任意的形状,例如,是长方体或椭圆体等。另外,这样的三维区域的设定方法例如能够通过操作指示设备,来使立体显示显示器142所显示的光标在横方向以及纵方向进行移动,另外,通过在按下规定的键的状态下操作指示设备,能够使光标在进深方向移动。
[视差角的变更]
另外,如上述的那样在立体图像空间内指定规定的三维区域,并将所指定的三维区域所包含的规定的直线作为变更后的焦点位置时,绘制控制部1352也可以以该三维区域变为没有模糊的立体图像的方式,来变更视差角。具体而言,视差图像组的视差角越大,则立体图像中具有模糊的区域越大。因此,绘制控制部1352也可以控制绘制处理部136,使得绘制处理部136将通过观察者等设定的三维区域所包含的规定的直线作为新的焦点位置,同时确定该三维区域是没有模糊的立体图像的视差角,并根据所确定的视差角进行绘制处理。由此,终端装置140能够在观察者设定的三维区域显示没有模糊的立体图像。
(第2实施方式)
在上述第1实施方式中,针对显示包含焦点图像的立体图像,并伴随着使该焦点图像移动的操作移动立体图像的焦点位置的例子进行了说明。在第2实施方式中,针对伴随着刀(knife)等医用设备的移动来移动立体图像的焦点位置的例子进行说明。
首先,针对第2实施方式中的工作站230进行说明,该工作站230与图1所示的工作站130对应。另外,由于第2实施方式中的工作站230所具有的控制部235的结构与图8所示的控制部135的构成例相同,因此,省略图示。其中,第2实施方式中的控制部235进行与控制部135所具有的接受部1351以及绘制控制部1352不同的处理。因此,假设控制部235代替控制部135所具有的接受部1351具有接受部2351,代替绘制控制部1352而具有绘制控制部2352,以下针对这些处理部使用图13进行说明。
图13是用于说明基于第2实施方式中的控制部235的处理的图。在图13所示的例子中,假设体数据VD10通过由医用图像诊断装置110对被检体P所存在的实际空间SP10进行摄影而预先生成。另外,在此,假设根据体数据VD10生成的视差图像组显示于立体显示显示器142,医师等能够一边观察立体显示显示器142所显示的立体图像,一边使用医用设备10对被检体P进行手术。
在此,在医用设备10的前端,设置能够取得实际空间SP10中的医用设备10的前端的位置(坐标)的位置传感器(sensor)11。该位置传感器11对于工作站230,发送实际空间SP10中的医用设备10的位置(坐标)。
在这样的结构下,第2实施方式中的接受部2351从位置传感器11接受实际空间SP10中的医用设备10的位置(坐标),并将所接受的位置输出至绘制控制部2352。即,作为能够立体观测地显示的感兴趣区域,接受部2351接受实际空间SP10中的医用设备10的位置。
另外,第2实施方式中的绘制控制部2352控制绘制处理部136,使得绘制处理部136根据从接受部2351输入的实际空间SP10中的医用设备10的位置(坐标)来确定作为绘制条件的视线方向,并根据所确定的绘制条件来进行绘制处理。
例如,假设医用设备10位于图13(A1)所示的位置。此时,接受部2351将从位置传感器11接收到的医用设备10的位置输出至绘制控制部2352。绘制控制部2352取得与从接受部2351输入的实际空间SP10中的医用设备10的位置(坐标)对应的体数据空间的位置。另外,绘制控制部2352能够根据体数据VD10的生成条件,取得实际空间SP10的坐标系与体数据空间的坐标系的对应关系。绘制控制部2352例如根据存储于图像保管装置120的体数据VD10的附带信息来取得该生成条件。
并且,绘制控制部2352确定将通过医用设备10的体数据VD10中的位置的规定的方向的直线作为焦点位置。该“规定的方向”可以通过医师等观察者来预先设定,也可以在图像处理系统1中固定地设定。在此,如图13(A2)所示的例子那样,绘制控制部2352确定将与纵方向(y方向)平行且通过医用设备10的位置的直线A13作为焦点位置。并且,绘制控制部2352控制绘制处理部136,使得绘制处理部136根据将直线A13作为焦点位置的绘制条件来进行绘制处理。
由此,绘制处理部136通过根据各视线方向的交点是直线A13的绘制条件进行绘制处理来生成视差图像组。并且,显示控制部1353将这样生成的视差图像组发送至终端装置140。如图13(A3)所示例的那样,终端装置140将立体图像I13显示于立体显示显示器142。该立体图像I13的焦点区域E13是没有模糊的立体图像。即,立体图像I13中医用设备10所处位置的附近的区域是没有模糊的立体图像。
接着,假设通过医师等来将医用设备10移动至图13(B1)所示的位置。此时,接受部2351将从位置传感器11接收到的医用设备10的位置输出至绘制控制部2352。绘制控制部2352取得与从接受部2351输入的实际空间SP10中的医用设备10的位置(坐标)对应的体数据空间的位置(坐标),并确定将通过该位置的规定的方向的直线作为焦点位置。在此,如图13(B2)所示的例子那样,绘制控制部2352确定将直线A14作为焦点位置。并且,绘制控制部2352控制绘制处理部136,使得绘制处理部136根据将直线A14作为焦点位置的绘制条件来进行绘制处理。
并且,显示控制部1353将这样生成的视差图像组发送至终端装置140。如图13(B3)所示例的那样,终端装置140将立体图像I14显示于立体显示显示器142。该立体图像I14的焦点区域E14是没有模糊的立体图像。即,立体图像I13中医用设备10所处位置的附近的区域是没有模糊的立体图像。
这样,在第2实施方式中,伴随着医用设备10的移动来移动立体图像的焦点位置。由此,医师等观察者能够观察在手术对象的部位没有模糊的立体图像。
接着,使用图14,表示基于第2实施方式中的工作站230的处理的流程的一个例子。图14是表示基于第2实施方式中的工作站230的处理的流程的一个例子的流程图。
如图14所示,工作站230的接受部2351判定是否从安装于医用设备10的前端的位置传感器11,接受了被检体所存在的实际空间中的医用设备10的位置(步骤S201)。在此,当没有接受医用设备10的位置时(步骤S201否定),接受部2351一直待机到接受医用设备10的位置。
另一方面,当接受了医用设备10的位置时(步骤S201肯定),绘制控制部2352控制绘制处理部136,使得绘制处理部136取得与通过接受部2351接受的实际空间SP10中的医用设备10的位置对应的体数据空间的位置(步骤S202),并将通过该位置的规定的方向的直线作为焦点位置进行绘制处理。此时,绘制处理部136通过进行绘制处理来生成视差图像组(步骤S203)。
并且,显示控制部1353将这样生成的视差图像组发送至终端装置140(步骤S204)。由此,显示控制部1353在终端装置140的立体显示显示器142上,显示在医用设备10所处位置的附近的焦点区域没有模糊的立体图像。
如上述那样,根据第2实施方式,由于伴随着医用设备的移动来移动立体图像的焦点位置,因此,能够显示在手术对象部位没有模糊的立体图像。
另外,在上述第2实施方式中,工作站230与工作站130相同,也可以生成包含焦点图像的视差图像组。即,也可以将上述第1实施方式与上述第2实施方式进行组合。
(第3实施方式)
在上述第1以及第2实施方式中,示出了当从终端装置140或位置传感器11接受了与变更后的焦点位置相关的信息时,工作站130或者230通过根据该信息对于体数据再次执行绘制处理来生成新的视差图像组,并将所生成的视差图像组发送至终端装置的例子。但是,当预先生成焦点位置不同的视差图像组,并从终端装置140或位置传感器11接受了与变更后的焦点位置相关的信息时,工作站也可以将与变更后的焦点位置对应的视差图像组发送至终端装置140。在第3实施方式中,针对预先生成焦点位置不同的视差图像组的例子进行说明。
首先,针对第3实施方式中的工作站330进行说明,但该工作站330与图1所示的工作站130对应。另外,由于第3实施方式中的工作站330所具有的控制部335的结构与图8所示的控制部135的构成例相同,因此,省略图示。其中,第3实施方式中的控制部335进行与控制部135所具有的绘制控制部1352不同的处理。因此,假设控制部335代替控制部135所具有的绘制控制部1352而具有绘制控制部3352,以下针对这些处理部使用图15进行说明。
图15是用于说明基于第3实施方式中的控制部335的处理的图。另外,在图15所示的例子中,假设绘制条件是透视投影法。另外,在图15中,示出从上方(与xz平面垂直的y方向)观察的体数据VD10。如图15所示,第3实施方式中的绘制控制部3352控制绘制处理部136,使得绘制处理部136对于同一体数据VD10,在多个焦点位置上进行绘制处理。
例如,如图15(A)所示,绘制控制部3352控制绘制处理部136,使得绘制处理部136根据将体数据VD10的中心作为焦点位置A10(直线A10)的绘制条件,进行绘制处理。由此,绘制处理部136生成与焦点位置A10对应的视差图像组。
另外,如图15(B1)所示,绘制控制部3352控制绘制处理部136,使得绘制处理部136将相比焦点位置A10更靠x轴的正方向的焦点位置A21作为绘制条件,进行绘制处理。由此,绘制处理部136生成与焦点位置A21对应的视差图像组。另外,如图15(B2)所示,绘制控制部3352控制绘制处理部136,使得绘制处理部136将相比焦点位置A10更靠x轴的负方向的焦点位置A22作为绘制条件,进行绘制处理。由此,绘制处理部136生成与焦点位置A22对应的视差图像组。
同样地,如图15(C1)以及(C2)所示,绘制控制部3352控制绘制处理部136,使得绘制处理部136将相比焦点位置A10更靠z轴的正方向的焦点位置A31、或相比焦点位置A10更靠z轴的负方向的焦点位置A32作为绘制条件,进行绘制处理。由此,绘制处理部136生成与焦点位置A31对应的视差图像组和与焦点位置A32对应的视差图像组。
绘制控制部3352将这样生成的多个视差图像组存储于图像保管装置120。此时,绘制控制部3352将各视差图像组与绘制处理时所使用的焦点位置对应关联地存储于图像保管装置120。
并且,如上述第1实施方式所示,当通过接受部1351接受了焦点变更要求时,绘制控制部3352从图像保管装置120取得与该焦点变更要求所包含的变更后的焦点位置对应的视差图像组,并将所取得的视差图像组发送至终端装置140。另外,如上述第2实施方式那样,当通过接受部2351接受了实际空间中的医用设备10的位置时,绘制控制部3352从图像保管装置120取得与该位置对应的视差图像组,并将所取得的视差图像组发送至终端装置140。
如上述那样,根据第3实施方式,由于预先生成与多个焦点位置对应的视差图像组,因此,当接受了变更后的焦点位置时,没有再次进行绘制处理,而能够显示变更了焦点位置的立体图像。
另外,在上述第3实施方式中,示出了终端装置140从工作站330取得视差图像组的例子。但是,终端装置140也可以从图像保管装置120取得与变更后的焦点位置对应的视差图像组。
另外,在上述第3实施方式中,工作站330也可以不生成与所有的焦点位置对应的视差图像组。例如,工作站330也可以接受可能由观察者变更焦点位置的区域,并只生成与该区域所包含的焦点位置对应的视差图像组。
另外,在图15所示的例子中,作为与焦点位置对应的视差图像组,工作站330可以通过从在将这些焦点位置作为中心的圆弧上以每一规定的角度(例如,1度)配置的多个视点位置进行绘制处理来生成整个圆周的视差图像组,也可以不是从整个圆周而是从只配置在圆弧上的特定的位置的视点位置进行绘制处理来只生成与特定的视点位置对应的视差图像组。当确定视点位置时,工作站330也可以从观察者接受与该视点位置相关的信息。
另外,在上述第3实施方式中,以绘制条件是透视投影法的情况为例进行了说明,但当绘制条件是平行投影法时,工作站330同样也可以生成与多个焦点位置对应的视差图像组。
(第4实施方式)
在上述第1以及第2实施方式中,示出了通过终端装置140或位置传感器11接受焦点位置的变更的例子。但是,终端装置140也可以显示立体图像同时显示剖面图像,并在剖面图像上接受焦点位置的变更。另外,终端装置140也可以接受视差角或显示区域的变更。在第4实施方式中,针对在剖面图像上接受焦点位置或视差角或显示区域的变更的例子进行说明。
首先,使用图16,针对第4实施方式所涉及的立体显示显示器142所显示的画面的例子进行说明。如图16所示,在立体显示显示器142上,在基于显示控制部1451的控制下,除了立体图像,还显示正交的3个剖面(轴向面、冠状(coronal)面、矢状(sagittal)面)、和从上观察立体图像的平面图像。具体而言,在图16所示的例子中,在区域R11显示轴向面的剖面图像P11,在区域R12显示冠状面的剖面图像P12,在区域R13显示矢状面的剖面图像P13。另外,在区域R21显示头盖骨的立体图像I21,在区域R31显示描绘出立体图像I21的进深方向的平面图像P31。另外,终端装置140能够从工作站130取得这样的剖面图像P11、P12以及P13或平面图像P31。
在此,在区域R31,显示表示立体图像I21的立体量的直线L11以及L12。针对该点,使用图17进行说明。图17是用于说明立体图像空间的图。如图17所示,识别立体显示显示器142所显示出的视差图像组的观察者能够在立体图像空间中立体地识别立体图像A。在此,如图17所示,观察者所感觉的立体感大致分为突出感和进深感。突出感是在从立体显示显示器142的显示面向观察者的视点(观察者视点E)接近的方向,观察者感觉立体图像A突出那样的感觉。另外,进深感是在从立体显示显示器142的显示面远离观察者的视点(观察者视点E)的方向,观察者感觉立体图像A像凹进去那样的感觉。
以下,将从立体显示显示器142的显示面向观察者的视点接近的方向记作“突出方向”,将从立体显示显示器142的显示面远离观察者的视点的方向记作“进深方向”。具体而言,“突出方向”与“进深方向”是对于立体图像空间中的立体观测显示器142的显示面垂直的方向(图17所示的Z方向)。
在图16所示的区域R31,作为立体图像I21的突出方向的立体量显示直线L11以及“20”(单位:mm),作为立体图像I21的进深方向的立体量显示直线L12以及“-20”(单位:mm)。
当是9视差显示器时,这样的立体图像的立体感依存于视差角(θ)以及显示尺寸(size)(S)。针对该点,使用图18进行说明。图18是用于说明立体图像的立体感的图。
如图18所示,立体图像的立体感根据将视差角(θ)以及显示尺寸(S)作为变量的参数“a(θ,S)”以及“b(θ,S)”来求得。具体而言,“a(θ,S)”表示视差角“θ”以及立体显示显示器142的显示尺寸“S”时的突出量(单位:mm)。另外,“b(θ,S)”表示视差角“θ”以及显示尺寸“S”时的进深量(单位:mm)。这样的“a(θ,S)”以及“b(θ,S)”是根据立体显示显示器142的规格,预先设定的参数,例如,是通过图像处理系统1的管理者设定的信息。
然而,立体图像的进深方向的大小因立体显示显示器142的规格(performance)等而受限于规定的极限值。以下,有时将通过立体显示显示器142显示的立体图像中的、从立体显示显示器142的显示面接近观察者的视点的方向的大小的极限值记作“突出极限值”,从立体显示显示器142的显示面远离观察者的视点的方向的大小的极限值记作“进深极限值”。即,当根据上述“a(θ,S)”以及“b(θ,S)”求得的立体感超过“突出极限值”以及“进深极限值”时,需要根据“突出极限值”以及“进深极限值”进行修正。
针对该突出极限值以及进深极限值更具体地进行说明,突出极限值以及进深极限值根据立体显示显示器142的显示面与观察该立体显示显示器142的观察者间的距离亦即观察距离、和立体显示显示器142的硬件(hardware)规格来计算。另外,被认为如果不确定观察者的位置则不能求得立体显示显示器142与观察者的观察距离。但是,一般而言,立体显示显示器142等将立体显示显示器142的观察位置假定为规定的位置来设计。即,突出极限值以及进深极限值能够根据假定为规定的位置的观察位置与立体显示显示器142的显示面间的距离亦即“假定观察距离”来计算。
说明突出极限值以及进深极限值的一个例子。例如,通过以下的式子(1)来计算突出极限值,并通过以下的式子(2)来计算进深极限值。另外,在以下的式子(1)以及式子(2)中,将进深方向中的、以立体显示显示器142的显示面作为原点而从该显示面接近观察者的视点的方向作为负,将从显示面远离观察者的视点的方向作为正。
突出极限值(mm)=-假定观察距离/{2×[(假定观察距离+间隙(gap))/假定观察距离]×(子像素间距(sub-pixelpitch)/间隙)×突出极限频率+1}…(1)
进深极限值(mm)=假定观察距离/{2×[(假定观察距离+间隙)/假定观察距离]×(子像素间距/间隙)×突出极限频率-1}…(2)
使用图19,针对上述式子(1)以及式子(2)所示的“间隙”、“子像素间距”等进行说明。图19是从纵方向(y轴方向)观察图3所示例出的立体显示显示器的图。如图19所示,“间隙”表示LCD(LiquidCrystalDisplay)像素面与柱状透镜201的焦点的距离。另外,“子像素间距”表示配置于立体显示显示器内的LCD像素202间的距离。另外,“透镜间距”表示视差数相应的LCD像素202的横方向的长度,通过“子像素间距×视差数”来表示。
另外,上述式子(1)以及式子(2)所示的“突出极限频率”单位是“CPR(cyclesperradian)”,通过“能够最大显示的频率×N(0<N≦1)”来表示。该“能够最大显示的频率”通过“观察距离/(2×透镜间距(lenspitch))”来表示,表示立体显示显示器142的显示面上的分辨率。更具体地进行说明,“CPR”表示从立体显示显示器142照射的光线中由观察者的眼睛放大的射线锥面(raycone)所容许的光线的密度。在同一观察距离的情况下,配置柱状透镜的密度越高,则该“CPR”越大,配置柱状透镜的密度越低则越小。换而言之,在配置柱状透镜的密度相同的情况下,观察距离越远“CPR”越大,观察距离越近则越小。“能够最大显示的频率”是“CPR”最大的分辨率,即,表示立体显示显示器142的显示面上的分辨率。
在上述式子(1)以及式子(2)中,例如,假设观察距离是“1000mm”,间隙是“0.5mm”,子像素间距是“0.05mm”,突出极限频率是“300CPR”。此时,通过上述式子(1),计算突出极限值为“-16.4mm”,通过上述式子(2),计算进深极限值为“16.9mm”。另外,在此,将小数第2位四舍五入。
在图16所示的区域R31,与图19所示的例子不同,将从显示面接近观察者的视点的方向作为正,将从显示面远离观察者的视点的方向作为负来显示出立体量。
具体而言,在图16所示的例子中,当根据参数“a(θ,S)”求得的突出量比通过上述式子(1)求得的突出极限值小时,在区域R31,作为从显示面接近观察者的视点的方向的立体感,显示根据参数“a(θ,S)”求得的突出量。另一方面,当参数“a(θ,S)”比突出极限值大时,在区域R31,作为从显示面接近观察者的视点的方向的立体感,显示突出极限值。
另外,在图16所示的例子中,当根据参数“b(θ,S)”求得的进深量比根据上述式子(2)求得的进深极限值小时,在区域R31,作为突出方向的立体量,显示根据参数“b(θ,S)”求得的进深量。另一方面,当参数“b(θ,S)”比进深极限值大时,在区域R31,作为进深方向的立体量,显示进深极限值。
另外,上述的参数“a(θ,S)”以及“b(θ,S)”、突出极限值以及进深极限值可以通过工作站130来计算,也可以通过终端装置140来计算,也可以预先由管理者等来设定。任一情况下,终端装置140都能够根据这些参数“a(θ,S)”以及“b(θ,S)”、突出极限值以及进深极限值,来在区域R31显示立体量。
在图16所示的画面中,对于剖面图像P11、P12以及P13的任一个,当经由输入部141指定(例如,通过鼠标或轨迹球等指示设备双击)了规定位置时,第4实施方式所涉及的终端装置140将以该指定位置作为变更后的焦点位置的焦点变更要求发送至工作站130。
例如,在图16所示的例子中,假设双击剖面图像P11的位置K1。此时,终端装置140的要求发送部1452将作为变更后的焦点位置包含位置K1的焦点变更要求发送至工作站130。另外,由于剖面图像相当于体数据的剖面,因此,要求发送部1452能够取得与位置K1对应的体数据空间的坐标。
工作站130的绘制控制部1352控制绘制处理部136,使得绘制处理部136根据从终端装置140接收到的焦点变更要求所包含的焦点位置(位置K1)与各视线方向的交点一致的绘制条件来进行绘制处理。并且,工作站130的显示控制部1353将这样生成的新的视差图像组发送至终端装置140。
终端装置140的显示控制部1451将从工作站130接收到的视差图像组显示于立体显示显示器142。由此,在立体显示显示器142上,将显示位置K1是焦点位置的立体图像。此时,显示控制部1451也可以以位置K1是区域R21的中心的方式来显示视差图像组。
另外,在上述例子中,示出了对于轴向面的剖面图像P11接受焦点位置的例子,但终端装置140也可以对于冠状面的剖面图像P12或矢状面的剖面图像P13接受焦点位置。
另外,第4实施方式所涉及的终端装置140对于图16的区域R31所显示出的平面图像P31,能够接受立体量(进深方向的大小)、感兴趣区域、以及显示对象区域的变更。例如,当进行变更立体量的操作时,终端装置140将操作后的立体量发送至工作站130。操作者能够通过由鼠标或轨迹球等指示设备来移动表示立体量的直线L11或直线L12,从而进行变更立体量的操作。
另外,当对于图16的平面图像P31,经由输入部141指定(例如,通过鼠标或轨迹球等指示设备双击)了规定位置时,终端装置140将以该指定位置作为变更后的焦点位置的焦点变更要求发送至工作站130。
针对经由这样的平面图像P31来变更立体量或焦点位置的处理使用图20进行说明。图20是表示第4实施方式所涉及的平面图像的显示例的图。
首先,假设在区域R31,作为初始显示状态显示出图20(A)所示的图像。具体而言,在图20(A)的例子中,作为突出方向的立体量显示直线L11以及“10”,作为进深方向的立体量显示出直线L12以及“-10”。另外,在区域R31,显示出从上观察立体图像I21的平面图像P32。
在图20(A)所示的状态下,假设通过由操作者,将直线L11或直线L12进行拖动等,来进行分离直线L11与直线L12的方向的操作。由此,终端装置140从操作者接受变更立体图像I21的立体量的要求。另外,当进行使直线L11以及直线L12的任一方移动的操作时,终端显示140针对另一直线也联动地移动。例如,当直线L11的立体量从“10”变更为“20”时,将直线L12的立体量从“-10”变更为“-20”。
当这样变更立体量时,终端装置140的要求发送部1452将移动后的直线L11或直线L12所示的立体量发送至工作站130。
工作站130的接受部1351从终端装置140接受变更后的立体量。此时,绘制控制部1352计算是变更后的立体量的那样的视差角。具体而言,绘制控制部1352使用上述的参数“a(θ,S)”或“b(θ,S)”来计算是变更后的立体量的视差角“θ”。并且,绘制控制部1352控制绘制处理部136,使得绘制处理部136将计算出的视差角作为绘制条件来进行绘制处理。并且,工作站130的显示控制部1353将这样生成的新的视差图像组发送至终端装置140。
终端装置140的显示控制部1451将从工作站130接收到的视差图像组显示于立体显示显示器142。由此,在图16所示的区域R21,显示与变更后的立体量对应的立体图像。另外,如图20(B)所示,在区域R31,显示与变更后的立体量对应的平面图像P33。
另外,在图20(B)所示的状态下,假设由操作者双击平面图像P33的位置K2。此时,终端装置140的要求发送部1452将作为变更后的焦点位置包含位置K2的焦点变更要求发送至工作站130。另外,仅仅在位置K2,高度方向(y方向)的位置不明,但在该例子中,要求发送部1452将根据位置K2确定的横方向的位置(x坐标)以及进深方向的位置(z坐标)发送至工作站130。
工作站130的绘制控制部1352控制绘制处理部136,使得绘制处理部136根据从终端装置140接收到的焦点变更要求所包含的焦点位置(位置K2)与各视线方向的交点一致的绘制条件来进行绘制处理。并且,工作站130的显示控制部1353将新生成的视差图像组发送至终端装置140。
终端装置140的显示控制部1451将从工作站130接收到的视差图像组显示于立体显示显示器142。由此,在图16所示的区域R21,显示位置K2是焦点位置的立体图像。
此时,显示控制部1451也可以以位置K2是区域R21的中心的方式来显示视差图像组。此时,如图20(C)所示,显示控制部1451以位置K2是区域R31的中心的方式来显示平面图像P34。
另外,终端装置140对于区域R31所显示出的平面图像,也可以接受作为显示对象的区域。例如,在图20(C)所示的状态下,平面图像34的一部分的区域R32没有被包含于立体量的范围“20”~“-20”中。从这样的立体量的范围偏离的区域R32在立体图像I21极有可能形成模糊的图像。当接受了不显示这样的区域R31的操作时,终端装置140将包含除了该区域R31的区域的位置信息的显示区域变更要求发送至工作站130。
工作站130的接受部1351从终端装置140接受显示区域变更要求。此时,绘制控制部1352删除体数据中的与显示区域变更要求所包含的位置信息所表示的区域以外的区域(即,区域R31)对应的体素。例如,绘制控制部1352将与区域R31对应的体素值更新为表示空气等的规定值。并且,绘制控制部1352控制绘制处理部136,对于更新后的体数进行绘制处理。并且,工作站130的显示控制部1353将新生成的视差图像组发送至终端装置140。
终端装置140的显示控制部1451将从工作站130接收到的视差图像组显示于立体显示显示器142。由此,在图16所示的区域R21,显示剪切(cut)了区域R32的立体图像。另外,如图20(D)所示,在区域R31,显示剪切了区域R32的平面图像P35。
这样,在图20所示的显示方式下,操作者能够仔细地观察位置K2的附近。例如,在图20(A)所示的状态下,当详细地观察位置K2时,操作者能够通过如图20(B)、(C)、(D)那样变更显示方式,来在区域R21显示详细地立体显示位置K2的附近的立体图像I21。
另外,在图20所示的例子中,示出了终端装置140依次接受变更立体量的操作、变更焦点位置的操作、变更指定非显示区域的操作,每当接受各操作时变更显示方式的例子。但是,终端装置140也可以集中地接受这些各操作的一部分或者全部,并以与所接受的操作对应的显示方式来变更。例如,终端装置140也能够从图20(A)变为为图20(C)的显示方式,另外,也能够从图20(A)变为为图20(D)的显示方式。
(第5实施方式)
另外,上述的实施方式也能够变形为其他的实施方式。因此,在第5实施方式中,说明上述的实施方式的变形例。
[剪切显示]
在上述实施方式中,终端装置140也可以只显示视差图像组的焦点区域。例如,在图11(A2)所示的例子中,终端装置140也可以只显示焦点区域E11。换而言之,终端装置140也可以显示剪切了焦点区域以外的区域的视差图像组。例如,在图11(A2)所示的例子中,终端装置140也可以只显示焦点区域E11。
另外,并不限定于该例子,终端装置140也可以只显示视差图像组中焦点区域附近的区域。例如,在图11(A2)所示的例子中,终端装置140只显示包含焦点区域E11和焦点区域E11附近的区域。
另外,在上述第2实施方式中,终端装置140也可以剪切视差图像中医用设备10的行进方向的相反侧的区域并进行显示。例如,在图13(B3)所示的例子中,终端装置140也可以剪切焦点区域E14的右侧(x轴的正方向)的区域并显示。由此,医师等能够观察除去了无需观察的部位的立体图像。
另外,只显示上述的焦点区域等的处理不需要由终端装置140来进行,工作站130或者230的绘制控制部1352或者2352也可以生成只反映出焦点区域等的视差图像。
[焦点位置]
另外,在上述实施方式中,以焦点位置主要是纵方向(y方向)的直线的情况为例进行了说明。但是,焦点位置也可以是横方向(x方向)或进深方向(z方向)的直线。
另外,在上述实施方式中,以焦点位置是直线的情况为例进行了说明。这以当绘制条件是透视投影法时使视点位置在将规定的直线(焦点位置)作为中心的圆弧上移动,当绘制条件是平行投影法时使视点位置与和规定的直线(焦点位置)正交的直线平行地移动的情况为前提。但是,视点位置也可以将体数据内的规定的点(焦点位置)作为中心随机地移动。即,如果视线方向在规定的点(焦点位置)一致,则绘制处理时的各视点位置也可以不规则地(例如,在圆弧上或直线上)移动。此时,立体图像中是没有模糊的图像的焦点区域不是图11所示例的那样的圆柱状,例如,如图21所示,是将焦点位置作为中心的球形的焦点区域E15。另外,此时,如图21所示,例如,将显示球形的焦点图像AI15。
[处理主体]
另外,在上述第1实施方式中,针对终端装置140接受焦点位置的变更操作,并将变更了焦点位置的视差图像组显示于立体显示显示器142的例子进行示出。另外,在上述第2实施方式中,针对终端装置240将伴随医用设备10的位置而变更的视差图像组显示于立体显示显示器142的例子进行示出。但是,显示变更了焦点位置的视差图像组的设备并不限定于立体显示显示器142。例如,工作站130、230或者330也可以将变更了焦点位置的视差图像组显示于作为立体显示显示器的显示部132。
另外,在上述实施方式中,示出了终端装置140或者240从工作站130、230或者330取得视差图像组的例子。但是,终端装置140或者240也可以具有与工作站130等的控制部135、235或者335或绘制处理部136等相同的功能。此时,终端装置140从图像保管装置120取得体数据,并进行与上述的控制部135、235或者335相同的处理。
另外,在上述实施方式中,也可以是医用图像诊断装置110具有与绘制处理部136相同的功能,根据体数据生成视差图像组,而并非由工作站130根据体数据生成视差图像组。此时,终端装置140从医用图像诊断装置110取得视差图像组。
[视差图像数]
另外,在上述实施方式中,主要针对使图形图像重叠于作为9个视差图像的视差图像组的例子进行了说明,但实施方式并不限定于此。例如,工作站130也可以生成作为2个视差图像的视差图像组。
[系统构成]
另外,在上述实施方式中所说明的各处理中,也可以手动地进行之前以自动进行的形式说明的处理的全部或者一部分,或者也可以以公知的方法来自动地进行之前以手动进行的形式说明的处理的全部或者一部分。另外,针对在上述说明书或附图中示出的处理步骤、控制步骤、具体的名称、包含各种数据或参数的信息,除了特别标记的情况之外能够任意地变更。
另外,所图示出的各装置的各构成要素是功能概念性的,不必如图示的那样物理性地构成。即,各装置的分散、综合的具体的方式并不限定于图示,能够根据各种负荷或使用状况,以任意的单位功能性或者物理性地分散、综合其全部或者一部分来构成。例如,也可以将工作站130的控制部135作为工作站130的外部装置经由网络(network)来连接。
[程序(program)]
另外,也能够制成由计算机可执行的语言来记述上述实施方式中的终端装置140或者240、或工作站130、230或者330执行的处理的程序。此时,通过计算机执行程序,从而能够得到与上述实施方式相同的效果。另外,也可以将该程序记录于计算机可读的记录介质中,并使计算机读入记录于该记录介质的程序并执行来实现与上述实施方式相同的处理。例如,该程序被存储于硬盘、软盘(flexibledisk)(FD)、CD-ROM、MO、DVD、蓝光(Blu-ray)等。另外,该程序也能够经由因特网(internet)等网络来发布。
虽然说明了本发明的几个实施方式,但这些实施方式是作为例子而提示的,并不意图限定本发明的范围。这些实施方式能够以其他的各种形态进行实施,在不脱离发明的要旨的范围内,能够进行各种的省略、置换、变更。这些实施方式或其变形与包含于发明的范围或要旨中一样,包含于权利要求书记载的发明及其均等的范围中。

Claims (10)

1.一种图像处理系统,其特征在于,具备:
立体显示装置,其使用通过对于作为三维的医用图像数据的体数据进行绘制处理而生成的多个视差图像亦即视差图像组,来显示能够立体观测的立体图像;
接受部,其接受在显示上述立体图像的立体图像空间中设定的上述立体图像的感兴趣区域;以及
显示控制部,其根据视线方向在与由上述接受部接受的感兴趣区域对应的上述体数据的位置相交的多个视点位置,使通过对于该体数据进行绘制处理而生成的视差图像组显示于上述立体显示装置。
2.根据权利要求1所述的图像处理系统,其特征在于,
上述图像处理系统还具备绘制处理部,该绘制处理部根据视线方向在与由上述接受部接受的感兴趣区域对应的上述体数据的位置相交的多个视点位置对上述体数据进行绘制处理,由此来新生成视差图像组,
上述显示控制部使通过上述绘制处理部新生成的视差图像组显示于上述立体显示装置。
3.根据权利要求1所述的图像处理系统,其特征在于,
上述图像处理系统还具备存储部,该存储部存储多个视差图像组,该多个视差图像组通过由根据视线方向在规定位置相交的多个视点位置对于上述体数据进行绘制处理的绘制处理部变更上述规定位置并进行多次上述绘制处理而生成,并与各规定位置对应,
上述显示控制部将存储于上述存储部的多个视差图像组中的、与对应于通过上述接受部接受的感兴趣区域的上述体数据的位置对应的视差图像组显示于上述立体显示装置。
4.根据权利要求2或3所述的图像处理系统,其特征在于,
上述图像处理系统还具备医用设备,该医用设备被存在于与上述体数据的坐标系对应的三维空间内的被检体所使用,且设置有取得上述三维空间中的上述医用设备的位置的位置传感器,
上述接受部将通过上述位置传感器取得的上述医用设备的位置作为上述感兴趣区域来接受,
上述显示控制部使视差图像组显示于上述立体显示装置,该视差图像组通过根据视线方向在与由上述接受部接受的上述医用设备的位置对应的上述体数据的位置相交的多个视点位置进行绘制处理而生成。
5.根据权利要求2或3所述的图像处理系统,其特征在于,
上述绘制处理部生成包含表示通过上述接受部接受的上述感兴趣区域的图像的视差图像组。
6.根据权利要求2所述的图像处理系统,其特征在于,
上述接受部将在上述立体显示装置上显示出立体图像的立体图像空间中指定的规定的三维区域作为上述感兴趣区域来接受,
上述绘制处理部确定能够在通过上述接受部接受的三维区域显示立体图像的视差角,并通过根据所确定的视差角对于上述体数据进行绘制处理来新生成视差图像组。
7.根据权利要求1所述的图像处理系统,其特征在于,
上述显示控制部只显示上述立体图像中的、与通过上述接受部接受的上述感兴趣区域附近对应的区域。
8.一种图像处理装置,其特征在于,具备:
立体显示装置,其使用通过对于作为三维的医用图像数据的体数据进行绘制处理而生成的多个视差图像亦即视差图像组,显示能够立体观测的立体图像;
接受部,其接受在显示上述立体图像的立体图像空间中设定的上述立体图像的感兴趣区域;以及
显示控制部,其根据视线方向在与由上述接受部接受的感兴趣区域对应的上述体数据的位置相交的多个视点位置,使通过对于该体数据进行绘制处理而生成的视差图像组显示于上述立体显示装置。
9.一种图像处理方法,是由具有立体显示装置的图像处理系统进行的图像处理方法,该立体显示装置使用通过对于作为三维的医用图像数据的体数据进行绘制处理而生成的多个视差图像亦即视差图像组,来显示能够立体观测的立体图像,其特征在于,包含如下步骤:
接受在显示上述立体图像的立体图像空间中设定的上述立体图像的感兴趣区域,
根据视线方向在与所接受的感兴趣区域对应的上述体数据的位置相交的多个视点位置,使通过对于该体数据进行绘制处理而生成的视差图像组显示于上述立体显示装置。
10.一种医用图像诊断装置,其特征在于,具备:
立体显示装置,其使用通过对于作为三维的医用图像数据的体数据进行绘制处理而生成的多个视差图像亦即视差图像组,来显示能够立体观测的立体图像;
接受部,其接受在显示上述立体图像的立体图像空间中设定的上述立体图像的感兴趣区域;以及
显示控制部,其根据视线方向在与由上述接受部接受的感兴趣区域对应的上述体数据的位置相交的多个视点位置,使通过对于该体数据进行绘制处理而生成的视差图像组显示于上述立体显示装置。
CN201210249759.4A 2011-07-19 2012-07-18 图像处理系统、装置、方法以及医用图像诊断装置 Expired - Fee Related CN102892018B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011158140 2011-07-19
JP2011-158140 2011-07-19

Publications (2)

Publication Number Publication Date
CN102892018A CN102892018A (zh) 2013-01-23
CN102892018B true CN102892018B (zh) 2016-04-27

Family

ID=47535356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210249759.4A Expired - Fee Related CN102892018B (zh) 2011-07-19 2012-07-18 图像处理系统、装置、方法以及医用图像诊断装置

Country Status (3)

Country Link
US (1) US9479753B2 (zh)
JP (1) JP6058290B2 (zh)
CN (1) CN102892018B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9179892B2 (en) 2010-11-08 2015-11-10 General Electric Company System and method for ultrasound imaging
CN103999145B (zh) * 2011-12-28 2017-05-17 英特尔公司 响应于用户的显示器调光
US9766701B2 (en) * 2011-12-28 2017-09-19 Intel Corporation Display dimming in response to user
US9870752B2 (en) 2011-12-28 2018-01-16 Intel Corporation Display dimming in response to user
JP6042711B2 (ja) * 2012-12-18 2016-12-14 富士フイルム株式会社 トロカーポート位置決定支援装置、トロカーポート位置決定支援プログラムおよびトロカーポート位置決定支援装置の作動方法
JP6066066B2 (ja) * 2013-02-20 2017-01-25 株式会社ジオ技術研究所 立体視画像出力システム
US20150065877A1 (en) * 2013-08-30 2015-03-05 General Electric Company Method and system for generating a composite ultrasound image
CN104622500A (zh) * 2013-11-07 2015-05-20 深圳迈瑞生物医疗电子股份有限公司 一种医学图像快捷分享装置及方法
WO2015186439A1 (ja) * 2014-06-03 2015-12-10 株式会社 日立メディコ 画像処理装置及び立体視表示方法
WO2016041045A1 (en) * 2014-09-15 2016-03-24 Synaptive Medical (Barbados) Inc. System and method for image processing
JP6548383B2 (ja) * 2014-11-28 2019-07-24 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
US10344659B2 (en) * 2014-12-04 2019-07-09 Cummins Power Generation Ip, Inc. Auxiliary diesel exhaust fluid systems
JP6802795B2 (ja) * 2014-12-16 2020-12-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自動放射線読み取りセッション検出
JP2016163150A (ja) * 2015-02-27 2016-09-05 株式会社リコー 通信端末、面談システム、通信方法及びプログラム
US20160335765A1 (en) * 2015-05-12 2016-11-17 Justus W. Harris Three dimensional modeling of health data
JP6441167B2 (ja) * 2015-05-15 2018-12-19 愛三工業株式会社 蒸発燃料処理装置
JP6689666B2 (ja) * 2016-05-12 2020-04-28 株式会社日立製作所 超音波撮像装置
US10610179B2 (en) * 2017-06-05 2020-04-07 Biosense Webster (Israel) Ltd. Augmented reality goggles having X-ray protection
US10265138B2 (en) * 2017-09-18 2019-04-23 MediVis, Inc. Methods and systems for generating and using 3D images in surgical settings
WO2020082269A1 (zh) * 2018-10-24 2020-04-30 中国医学科学院北京协和医院 一种成像方法以及成像系统
WO2021108742A1 (en) * 2019-11-26 2021-06-03 Clarix Imaging Corporation Improved systems and visualization methods for intraoperative volumetric imaging of tissue samples
CN111273457A (zh) * 2020-02-24 2020-06-12 广州弥德科技有限公司 基于投影光学引擎的指向光源裸眼3d显示器和显示方法
CN116614707B (zh) * 2023-07-17 2023-09-19 中国空气动力研究与发展中心高速空气动力研究所 一种桨叶表面压力测量中旋转模糊图像去模糊方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101342082A (zh) * 2007-07-10 2009-01-14 株式会社东芝 X射线摄影装置、图像处理显示装置以及计算机程序产品
CN101351156A (zh) * 2005-10-07 2009-01-21 株式会社日立医药 图像显示方法和医用图像诊断系统
US7567648B2 (en) * 2004-06-14 2009-07-28 Canon Kabushiki Kaisha System of generating stereoscopic image and control method thereof
CN101849813A (zh) * 2009-03-31 2010-10-06 上海交通大学医学院附属新华医院 三维心脏超声虚拟内窥镜系统
CN102068275A (zh) * 2009-11-25 2011-05-25 美国西门子医疗解决公司 多向超声扫描的同步

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771262B2 (en) * 1998-11-25 2004-08-03 Siemens Corporate Research, Inc. System and method for volume rendering-based segmentation
JP2001042259A (ja) * 1999-08-04 2001-02-16 Hitachi Medical Corp 医用画像表示装置
JP4015090B2 (ja) 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体
JP4860636B2 (ja) * 2005-02-17 2012-01-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体表示
JP5394620B2 (ja) * 2007-07-23 2014-01-22 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波撮像装置および画像処理装置
US20090147073A1 (en) * 2007-12-11 2009-06-11 David Getty Methods and Systems for Stereoscopic Three Dimensional Viewing
JP2010187916A (ja) * 2009-02-18 2010-09-02 Fujifilm Corp 画像処理装置、画像処理システム及びプログラム
JP5572437B2 (ja) * 2010-03-29 2014-08-13 富士フイルム株式会社 3次元医用画像に基づいて立体視用画像を生成する装置および方法、並びにプログラム
US20120245465A1 (en) * 2011-03-25 2012-09-27 Joger Hansegard Method and system for displaying intersection information on a volumetric ultrasound image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7567648B2 (en) * 2004-06-14 2009-07-28 Canon Kabushiki Kaisha System of generating stereoscopic image and control method thereof
CN101351156A (zh) * 2005-10-07 2009-01-21 株式会社日立医药 图像显示方法和医用图像诊断系统
CN101342082A (zh) * 2007-07-10 2009-01-14 株式会社东芝 X射线摄影装置、图像处理显示装置以及计算机程序产品
CN101849813A (zh) * 2009-03-31 2010-10-06 上海交通大学医学院附属新华医院 三维心脏超声虚拟内窥镜系统
CN102068275A (zh) * 2009-11-25 2011-05-25 美国西门子医疗解决公司 多向超声扫描的同步

Also Published As

Publication number Publication date
US9479753B2 (en) 2016-10-25
CN102892018A (zh) 2013-01-23
US20130021336A1 (en) 2013-01-24
JP2013039351A (ja) 2013-02-28
JP6058290B2 (ja) 2017-01-11

Similar Documents

Publication Publication Date Title
CN102892018B (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102984532B (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102843564B (zh) 图像处理系统、装置以及方法
CN102892016B (zh) 图像显示系统、装置、方法以及医用图像诊断装置
CN102821292B (zh) 图像处理系统以及方法
CN102833562B (zh) 图像处理系统以及方法
CN103444194B (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102860837A (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102893308A (zh) 图像处理系统、装置以及方法
CN102915557B (zh) 图像处理系统、终端装置以及方法
CN102892022B (zh) 图像处理系统、图像处理装置以及图像处理方法
CN102892015B (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
CN102833570B (zh) 图像处理系统、装置以及方法
CN102821695A (zh) 图像处理系统、装置、方法以及程序
CN102860836B (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
JP5974238B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
CN102890748B (zh) 图像处理系统、装置、 方法以及医用图像诊断装置
JP5832990B2 (ja) 画像表示システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160711

Address after: Japan Tochigi Tian Yuan City

Patentee after: Toshiba Medical System Co., Ltd.

Address before: Tokyo, Japan, Japan

Patentee before: Toshiba Corp

Patentee before: Toshiba Medical System Co., Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160427

Termination date: 20200718