CN104094319A - 图像处理设备、立体图像显示设备和图像处理方法 - Google Patents

图像处理设备、立体图像显示设备和图像处理方法 Download PDF

Info

Publication number
CN104094319A
CN104094319A CN201280067279.4A CN201280067279A CN104094319A CN 104094319 A CN104094319 A CN 104094319A CN 201280067279 A CN201280067279 A CN 201280067279A CN 104094319 A CN104094319 A CN 104094319A
Authority
CN
China
Prior art keywords
area
interest
display
stereo
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201280067279.4A
Other languages
English (en)
Inventor
平川大介
爰岛快行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN104094319A publication Critical patent/CN104094319A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了使得能够实现用户在体数据中应当关注的感兴趣区域的立体图像的可见度增强的图像处理设备、立体图像显示设备和图像处理方法。根据实施例的图像处理设备包括设置单元、控制单元和生成单元。设置单元根据与医疗图像相关的三维体数据设置用户应当关注的感兴趣区域。控制单元根据感兴趣区域的位置信息执行下列中的至少一个:(1)深度控制,其中指示在显示立体图像的显示单元上立体显示的感兴趣区域的深度的深度范围被设定为与设置感兴趣区域之前的状态相比更接近立体显示容许范围的值,该立体显示容许范围表示显示单元能够显示立体图像的深度方向上的范围;以及(2)位置控制,其中感兴趣区域的显示位置设定为接近于显示器表面,该显示器表面表示在立体观察期间既不朝近侧弹出也不朝远侧后退的表面。生成单元根据由控制单元执行的控制结果生成体数据的立体图像。

Description

图像处理设备、立体图像显示设备和图像处理方法
技术领域
本发明的实施例涉及图像处理设备、立体图像显示设备和图像处理方法。
背景技术
近年来,无镜3D显示器已经投入实际使用,该无镜3D显示器使用光束控制元件(例如双面凸透镜)以使得能够用肉眼立体观察从多个摄像机视点捕获的多视图图像。在这种无镜3D显示器中,通过调节多个摄像机间隔或者多个摄像机角度,有可能改变立体图像的弹出数量。另外,在无镜3D显示器中,可以以最高清晰度显示显示器表面上显示的图像,该显示器表面表示在立体观察期间既不朝近侧弹出又不朝远侧后退的表面。从而,根据弹出数量的增加或者减少,发生清晰度的下降。此外,高清晰度立体显示可行的范围只是有限范围。从而,假如设置等于或者大于一定值的弹出数量,那么它就会导致双像或者模糊图像的形成。
同时,就医疗诊断成像设备(例如X射线计算机断层仪(CT)设备、磁共振成像(MRI)设备或者超声诊断设备)而言;能够生成三维医疗图像(在下文中,称为“体数据”)的一些设备已经投入实际使用。根据由医疗诊断成像设备生成的体数据,有可能按照任意视差角并且以任意数量的视差生成体绘制图像(视差图像)。在这方面,正在研究是否可以在无镜3D显示器中立体地显示由体数据生成的二维体绘制图像。
引用列表
专利文献
专利文献1:日本专利申请特开号2007-96951
发明内容
技术问题
然而,在传统技术中,不能以满意的方式在视觉上辨识用户在体数据中应当关注的感兴趣区域的立体图像。本发明要解决的目标是提供使得能够实现用户在体数据中应当关注的感兴趣区域的立体图像的可见度增强的图像处理设备、立体图像显示设备和图像处理方法。
问题的解决方案
根据实施例的图像处理设备包括设置单元、控制单元和生成单元。设置单元根据与医疗图像相关的三维体数据设置用户应当关注的感兴趣区域。控制单元根据感兴趣区域的位置信息执行下列中的至少一个:(1)深度控制,其中指示在显示立体图像的显示单元上立体显示的感兴趣区域的深度的深度范围被设定为与设置感兴趣区域之前的状态相比更接近立体显示容许范围的值,该立体显示容许范围表示显示单元能够显示立体图像的深度方向上的范围;和(2)位置控制,其中感兴趣区域的显示位置被设定为接近于显示器表面,该显示器表面表示在立体观察期间既不朝近侧弹出也不朝远侧后退的表面。生成单元根据由控制单元执行的控制结果生成体数据的立体图像。
附图说明
图1是图示根据实施例的图像显示系统的配置示例的图表。
图2是用于解释体数据的示例的图表。
图3是图示根据实施例的立体图像显示设备的配置示例的图表。
图4是图示根据实施例的显示单元的示意图。
图5是图示根据实施例的显示单元的示意图。
图6是图示以立体方式显示根据实施例的体数据的情况的概念图。
图7是图示根据实施例的图像处理单元的配置示例的图表。
图8是根据实施例的显示单元的前视图。
图9是根据实施例的显示单元的侧视图。
图10是用于解释用于指定指示区域的示例的图表。
图11是用于解释用于指定指示区域的示例的图表。
图12是用于解释用于指定指示区域的方法的示例的图表。
图13是用于解释用于指定指示区域的方法的示例的图表。
图14是用于解释用于确定感兴趣区域的方法的示例的图表。
图15是用于解释用于确定感兴趣区域的方法的示例的图表。
图16是用于解释用于确定感兴趣区域的方法的示例的图表。
图17是用于解释用于确定感兴趣区域的方法的示例的图表。
图18是用于解释执行深度控制的示例的图表。
图19是用于解释执行深度控制的示例的图表。
图20是用于解释执行位置控制的示例的图表。
图21是用于解释用于生成体数据的立体图像的方法的示例的图表。
图22是根据实施例用于解释在立体图像显示设备中执行的操作的示例的流程图。
图23是图示根据修改示例的图像处理单元的配置示例的图表。
图24是图示在屏幕上显示的滑动杆的示例的图表。
图25是图示用于调节感兴趣区域范围的方法的示例的图表。
图26是图示设置感兴趣区域的显示位置的示例的图表。
具体实施方式
在下面参考附图对根据本发明的图像处理设备、立体图像显示设备和图像处理方法的实施例进行详细地描述。
图1是图示根据实施例的图像显示系统1的配置示例的框图。如图1中图示的,图像显示系统1包括医疗诊断成像设备10、图像存档设备20和立体图像显示设备30。图1中图示的每个设备可以直接或者间接地通过安装在例如医院中的局域网(LAN)2彼此通信。因此,每个设备能够向其它设备发送医疗图像并且从其它设备接收医疗图像。
图像显示系统1根据由医疗诊断成像设备10生成的体数据生成立体图像。然后,为了向医生或者在医院中工作的实验人员提供立体可视的医疗图像,在显示单元中显示立体图像。在这里,立体图像包括具有互不相同的视差的多个视差图像。如下依次给出了每个设备的解释。
医疗诊断成像设备10能够生成与医疗图像相关的三维体数据。医疗诊断成像设备10的示例包括X射线CT设备、MRI设备、超声诊断设备、单个光子发射计算机断层摄影(SPECT)设备、正电子发射计算机断层摄影(PET)设备、通过集成SPECT设备和X射线CT设备配置的SPECT-CT设备、通过集成PET设备和X射线CT设备配置的PET-CT设备以及这些设备的组。
医疗诊断成像设备10捕获当前测试对象的图像并且生成体数据。例如,医疗诊断成像设备10捕获当前测试对象的图像;收集诸如投影数据或者MR信号的数据;沿着当前测试对象的机体轴线方向重新配置多个(例如,300到500个)切片图像(横截面图像);以及生成体数据。因此,如图2中图示的,沿着当前测试对象的机体轴线方向拍摄的多个切片图像表示体数据。在图2中图示的示例中,生成当前测试对象的大脑的体数据。同时,由医疗诊断成像设备10捕获的当前测试对象的投影数据或者MR信号本身可以被认为是体数据。
由医疗诊断成像设备10生成的体数据包括在医疗地点处观测的目标对象(在下文中,称为“对象”)(例如骨骼、血管、神经、肿瘤等等)的图像。根据实施例,医疗诊断成像设备10分析生成的体数据并且生成使得能够识别体数据中每个对象的位置的特定信息。特定信息可以包括任意细节。例如,作为特定信息,有可能使用信息组,在每个信息组中,以与包括在对象中的一组体素相对应的方式保持使得能够识别对象的识别信息。可选地,作为特定信息,有可能使用通过将使得能够识别体素所属的对象的识别信息附加至包括在体数据中的每个体素而获得的信息组。此外,医疗诊断成像设备10可以分析所生成的体数据并且识别每个对象的重心位置。在这里,指示每个对象的重心位置的信息还可以包括在特定信息中。同时,用户可以参照由医疗诊断成像设备10自动创建的特定信息并且可以校正特定信息的细节。也就是说,可以以半自动方式生成特定信息。然后,医疗诊断成像设备10将生成的体数据和特定信息发送至图像存档设备20。
图像存档设备20表示用于存档医疗图像的数据库。更具体地,图像存档设备20用于存储和存档由医疗诊断成像设备10发送的体数据和特定信息。
立体图像显示设备30能够显示具有互不相同视差的多个视差图像,并且因此使得观察者能够观察立体图像。立体图像显示设备30可以被配置为以多眼模式实现例如积分成像方法(II方法)或者3D显示方法。立体图像显示设备30的示例包括使得观察者能够用肉眼观察立体图像的电视(TV)或者个人计算机(PC)。在实施例中,立体图像显示设备30对于从图像存档设备20中获取的体数据执行体绘制,并且生成和显示一组视差图像。在这里,视差图像组是通过执行相对于体数据以预定视差角的递增移动视点位置的体绘制操作生成的一组图像。因此,视差图像组包括具有不同视点位置的多个视差图像。
在实施例中,当用户确认立体图像显示设备30上显示的医疗图像的立体图像时,用户能够执行操作以便令人满意地显示用户希望关注的区域(感兴趣区域)。
图3是图示立体图像显示设备30的配置示例的图表。如在图30中图示的,立体图像显示设备30包括图像处理单元40和显示单元50。图像处理单元40对于从图像存档设备20获取的体数据执行图像处理。稍后给出图像处理的细节。
显示单元50显示由图像处理单元40生成的立体图像。如在图3中图示的,显示单元50包括显示面板52和光束控制单元54。显示面板52是液晶面板,其中具有不同颜色分量(例如红色(R)、绿色(G)和蓝色(B))的多个子像素在第一方向(例如,参考图3的行方向(左右方向))和第二方向(例如,参考图3的列方向(垂直方向))上以类矩阵方式排列。在该情况下,单个像素由在第一方向上排列的RGB子像素组成。另外,在一组像素上显示的图像被称作元素图像,该像素组是数量上等于视差数量的相邻像素并且在第一方向上排列。因此,显示单元50显示以类矩阵方式排列多个元素图像的立体图像。同时,可以在显示单元50中采用子像素的任何其它已知排列。另外,子像素不限于红色(R)、绿色(G)和蓝色(B)三种颜色。可选地,例如,子像素还可以具有四种颜色。
作为显示面板52,有可能使用直视型二维显示器,例如有机电致发光(有机EL)、液晶显示器(LCD)、等离子体显示面板(PDP)或者投射式显示器。另外,显示面板52还可以具有包括背光灯的配置。
光束控制单元54设置为与显示面板52相对,在它们之间保持间隙。光束控制单元54控制从显示面板52的每个子像素发射的光束发射方向。光束控制单元54具有在第一方向上排列的用于射出光束的多个线性延伸的光学孔径。例如,光束控制单元54可以是其上排列有多个柱面透镜的透镜片或者可以是其上排列有多个狭缝的视差栅栏。光学孔径排列成与显示面板52的元素图像相对应。
在实施例中,在立体图像显示设备30中,在第二方向上排列每个颜色分量的子像素,而在第一方向上重复地排列颜色分量,由此形成“纵向条纹排列”。然而,这不是仅有的可能情况。另外,在第一实施例中,以这种方式设置光束控制单元54,使得其光学孔径的延伸方向与显示面板52的第二方向一致。然而,这不是仅有的可能情况。可选地,例如,可以这样配置:以这种方式光束控制单元54,使得其光学孔径的延伸方向相对于显示面板52的第二方向具有预定倾角。
图4是以放大方式图示显示单元50的某个部分的示意图。在图4中,视差图像的识别信息表示为视差编号(1)至(3)。因此,在这里,唯一分配给视差图像的视差编号表示视差图像的识别信息。从而,与相同视差编号相对应的像素显示相同视差图像。在图4图示的示例中,通过排列由该序列中的视差编号(1)至(3)识别的视差图像中的每一个的像素创建元素图像24。在这里,尽管对于有三个视差(与视差编号1至3相对应)的示例给出解释,但是它不是仅有的可能情况。可选地,可以使用任何其它编号的视差(例如,与视差编号1至9相对应的九个视差)。
如在图4中图示的,在显示面板52中,在第一方向和第二方向上以类矩阵方式排列元素图像24。例如,当视差编号等于三时,每个元素图像24是视差图像1的像素241、视差图像2的像素242和视差图像3的像素243在第一方向上顺序排列的一组像素。
在每个元素图像24中,从视差图像的像素(像素241到像素243)发射的光束到达光束控制单元54。然后,光束控制单元54控制每个光束的行进方向和散射,并且朝显示单元50的整个表面发射光束。例如,在每个元素图像24中,从视差图像1的像素241发射的光在箭头Z1的方向上传播;从视差图像2的像素242发射的光在箭头Z2的方向上传播;以及从视差图像3的像素343发射的光在箭头Z3的方向上传播。以这种方法,在显示单元50中,从每个元素图像中的每个像素发射的光的发射方向由光束控制单元54进行调节。
图5是图示用户(观察者)正在观察显示单元50的情形的示意图。当由多个元素图像24组成的立体图像在显示面板52上显示时,包括在元素图像24中并且由用户用左眼18A观察的视差图像的像素不同于包括在元素图像24中并且由用户用右眼18B观察的视差图像的像素。以这种方法,当相对于用户的左眼18A和右眼18B显示具有不同视差的图像时,用户观察立体图像变得可能。
图6是图示以立体方式显示图2中图示的大脑的体数据的情况的概念图。在图6中,立体图像101表示大脑的体数据的立体图像。另外,在图6中,显示器表面102表示显示器50的显示器表面。显示器表面表示这样的表面:在立体观察期间既不朝近侧弹出也不朝远侧后退的表面。离显示器表面102距离越远,从显示面板52的像素发射的光束密度越稀疏。从而,图像的分辨率也继续恶化。这样,为了以高清晰度显示大脑的整个体数据,有必要考虑立体显示容许范围103,该立体显示容许范围103指示显示器50可以显示立体图像的深度方向上的范围(即,指示显示限制)。也就是说,如图6中图示的,需要以这种方式设置各种参数(例如在创建立体图像时的摄像机间隔、摄像机角度和摄像机位置),使得在立体显示期间,大脑的整个体数据101在立体显示容许范围103内。在这里,立体显示容许范围103是根据显示器50的规格或者标准确定的参数,并且可以存储在安装在立体图像显示设备30中的存储器(未图示)中或者可以存储在外部设备中。
下面给出了图像处理单元40的详细解释。图7是图示图像处理单元40的配置示例的框图。如图7中图示的,图像处理单元40包括设置单元41、控制单元42和生成单元43。
设置单元41设置用户在体数据(在该示例中,在图2图示的大脑的体数据中)中应当关注的感兴趣区域。在实施例中,在设置感兴趣区域之前,从图像存档设备20获取的体数据的立体图像在显示单元50上显示而没有经受深度控制(稍后描述的)和位置控制(稍后描述的)。在这里,在显示单元50上显示而没有经受深度控制和位置控制的体数据的立体图像被称作“默认立体图像”。因此,当确认默认立体图像时,用户使用例如输入单元(例如笔)指定(指出)显示单元50的三维空间中的预定位置。根据该规格,设置感兴趣区域。更具体地,如下面给出了解释。
如图7中图示的,在实施例中,设置单元41包括获取单元44、传感器单元45、接收单元46、指定单元47和确定单元48。获取单元44获取使得能够识别包括在体数据中的对象的位置的特定信息。更具体地,获取单元44访问图像存档设备20并且获取存储在图像存档设备20中的特定信息。
传感器单元45在显示立体图像的显示单元50的三维空间中检测输入单元(例如笔)的坐标值。图8是显示单元50的前视图,而图9是显示单元50的侧视图。如图8和图9中图示的,传感器单元45包括第一检测单元61和第二检测单元62。另外,在实施例中,由用户出于输入目的使用的输入单元配置有从其前端部分发射声波和红外光的笔。第一检测单元61在图8图示的X-Y平面中检测输入单元的位置。更具体地,第一检测单元61检测由输入单元发射的声波和红外光,并且根据由声波到达第一检测单元61花费的时间周期和由红外光到达第一检测单元61花费的时间周期计算在X轴方向上的输入单元的坐标值和在Y轴方向上的输入单元的坐标值。第二检测单元62在图9图示的Z轴方向上检测输入单元的位置。以与第一检测单元61相同的方式,第二检测单元62检测由输入单元发射的声波和红外光,并且根据由声波到达第二检测单元62花费的时间周期和由红外光到达第二检测单元62花费的时间周期计算在Z轴方向上的输入单元的坐标值。然而,这不是仅有的可能情况。可选地,例如,输入单元可以配置有从其前端部分仅发射声波或者仅发射红外光的笔。在这种情况下,第一检测单元61可以检测由输入单元发射的声波(或者红外光),并且可以根据由声波(或者红外光)到达第一检测单元61花费的时间周期计算在X轴方向上的输入单元的坐标值和在Y轴方向上的输入单元的坐标值。以相同的方式,第二检测单元62可以检测由输入单元发射的声波(或者红外光),并且可以根据由声波(或者红外光)到达第二检测单元62花费的时间周期计算在Z轴方向(深度方向)上的输入单元的坐标值。
同时,传感器单元45的配置不限于上面给出的解释。也就是说,本质上,只要传感器单元45能够在显示单元50的三维空间中检测输入单元的坐标值,它就管用。此外,输入单元的类型也不限于笔。可选地,例如,观察者的手指可以充当输入单元,或者手术刀或者剪刀可以充当输入单元。在实施例中,当用户确认默认立体图像并且使用输入单元在显示单元50的三维空间中指定预定位置时;传感器单元45在该时间点处检测输入单元的三维坐标值。
接收单元46接收由传感器单元45检测的三维坐标值的输入(也就是说,从用户接收输入)。响应于来自用户的输入,指定单元47在体数据中指定区域(在下文中,称为“指示区域”)。在这里,指示区域可以是存在于体数据中的点或者可以是具有一定扩展量的表面。
在实施例中,指定单元47将通过标准化三维坐标值获取的标准化值指定为指示区域,该三维坐标值由传感器单元45以与体数据中的坐标相对应的方式进行检测。例如,假定体数据中的坐标的范围在X轴方向上是0至512,在Y轴方向上是0至512,以及在Z轴方向上是0至256。另外,假定在可由传感器单元45检测的显示单元50的三维空间中的可检测范围(即,立体显示的医疗图像中的空间坐标的范围)在X轴方向上是0至1200,在Y轴方向上是0至1200,以及在Z轴方向上是0至1200。如果(x1,y1,z1)表示由传感器单元45检测的三维坐标值,那么指示区域等于x1×(512/1200),y1×(512/1200),z1×(256/1200))。同时,立体显示的医疗图像与输入单元的前端不需要看起来彼此重合。如图10中图示的,可以通过相对于输入单元2003的前端朝0的方向移动其Y坐标来标准化三维坐标值2004。可选地,可以通过相对于输入单元2003的前端朝显示器表面的方向移动其z坐标来标准化三维坐标值2004。同时,由指定单元47指定的指示区域不限于单个指示区域。也就是说,还可以指定多个指示区域。
另外,指定指示区域的方法不限于上面解释的方法。可选地,例如,如图11中图示的,可以在显示单元50的屏幕上显示与每个对象(例如骨骼、血管、神经和肿瘤)相对应的图标。然后,用户可以使用鼠标或者通过执行触摸操作选择显示的图标。在图11中图示的示例中,在显示单元50的屏幕上显示与骨骼相对应的图标301、与第一血管相对应的图标302、与第二血管相对应的图标303、与第三血管相对应的图标304、与神经相对应的图标305和与肿瘤相对应的图标306。然后,指定单元47将与用户选择的图标相对应的对象指定为指示区域。在这里,用户可以选择单个图标或者多个图标。因此,指定单元47可以指定多个对象。同时,例如,可以这样配置:不显示默认立体图像,并且在显示单元50的屏幕上或者在操作监控器而不是在显示单元50的屏幕上显示仅多个可选择图标。
同时,例如用户可以操作键盘并且在体数据内直接输入三维坐标值。可选地,例如,如图12中图示的,用户可以操作鼠标403并且使用鼠标光标404在体数据内指定二维坐标值(x,y),以便根据鼠标滚轮的值或者根据持续单击的时间周期,在Z轴方向上输入坐标值z。仍然可选地,例如,如图13中图示的,用户可以操作鼠标503并且使用鼠标光标504在体数据的一部分中指定X-Y平面505,以便根据鼠标滚轮的值或者根据持续单击的时间周期,在Z轴方向上输入坐标值z。仍然可选地,用户可以执行触摸操作并且在体数据内指定二维坐标值(x,y),以便根据持续触摸的时间周期,在Z轴方向上输入坐标值。仍然可选地,可以这样配置:当用户触摸显示单元50的屏幕时,根据用户操作显示具有可变滑动量的滑动杆。然后,根据滑动量,在Z轴方向上输入坐标值z。然后,指定单元47可以将体数据内的输入点或者输入平面指定为指示区域。
返回参考图7的解释,确定单元48通过使用由获取单元44获取的特定信息和由指定单元47指定的指示区域确定感兴趣区域。在实施例中,确定单元48获取包括在由获取单元44获取的特定信息中的每个对象的重心位置;获取从每个对象到由指定单元47指定的三维坐标值的距离;并且确定具有最小距离的对象为感兴趣区域。更具体地,如下面给出了解释。在这里,假设(x1,y1,z1)表示由指定单元47指定的三维坐标值(指示区域)。另外,假设由获取单元44获取的特定信息包括三个对象(称为第一对象、第二对象和第三对象)的重心位置;并且假设(x2,y2,z2)表示第一对象的重心位置的坐标值,(x3,y3,z3)表示第二对象的重心位置的坐标值,以及(x4,y4,z4)表示第三对象的重心位置的坐标值。同时,如果特定信息不包括指示每个对象重心位置的信息,那么假设确定单元48根据特定信息计算指示每个对象重心位置的信息(坐标值)。
在这里,如果d2表示在由指定单元47指定的三维坐标值(x1,y1,z1)与指示第一对象重心位置的坐标值(x2,y2,z2)之间的距离;那么可以使用下面给出的等式1获取d2。
d 2 = ( x 1 - x 2 ) 2 + ( y 1 - y 2 ) 2 + ( z 1 - z 2 ) 2 - - - ( 1 )
类似地,如果d3表示在由指定单元47指定的三维坐标值(x1,y1,z1)与指示第二对象重心位置的坐标值(x3,y3,z3)之间的距离;那么可以使用下面给出的等式2获取d3。
d 3 = ( x 1 - x 3 ) 2 + ( y 1 - y 3 ) 2 + ( z 1 - z 3 ) 2 - - - ( 2 )
另外,如果d4表示在由指定单元47指定的三维坐标值(x1,y1,z1)与指示第三对象重心位置的坐标值(x4,y4,z4)之间的距离;那么可以使用下面给出的等式3获取d4。
d 4 = ( x 1 - x 4 ) 2 + ( y 1 - y 4 ) 2 + ( z 1 - z 4 ) 2 - - - ( 3 )
然后,确定单元48确定具有所计算距离的最小值的对象为感兴趣区域。然而,确定感兴趣区域的方法不限于该方法。可选地,例如,可以将在除Z轴方向(深度方向)外的X-Y平面中具有最小距离的对象确定为感兴趣区域。仍然可选地,可以计算包括在每个对象中的每个体素坐标到指示区域的距离并且可以将包括具有最小距离的体素坐标的对象确定为感兴趣区域。仍然可选地,例如,如图14中图示的,在具有任意尺寸的充当原点的指示区域的立方体或者球形区域803内,可以将具有最大数量体素的对象(在图14图示的示例中,为对象805)确定为感兴趣区域。
仍然可选地,代替将存在于体数据中的对象确定为感兴趣区域,还可以将具有任意尺寸的充当原点的指示区域的立方体或者球形区域确定为感兴趣区域。仍然可选地,如果对象存在于等于或者小于离指示区域的预定阈值距离处,那么该对象可以被确定为感兴趣区域。仍然可选地,如果对象存在于等于或者小于离指示区域的预定阈值距离的距离处,那么可以将具有任意尺寸的充当原点的指示区域的立方体或者球形区域确定为感兴趣区域。仍然可选地,例如,如图15中图示的,如果确定为感兴趣区域的对象903具有细长形状,那么没有存在于预定范围904内的对象903的一部分被排除在对象903之外并且存在于预定范围904内的对象903的一部分可以被确定为感兴趣区域。
同时,如图11中图示的,当与所选择图标相对应的对象被指定为指示区域时,指定为指示区域的对象可以被确定单元48确定为感兴趣区域。例如,如果由获取单元44获取的特定信息表示包括在体数据中的每个体素关联到对应对象的识别信息的信息;那么确定单元48可以选择指定为指示区域的对象的识别信息并且将关联到所选择识别信息的体素组确定为感兴趣区域。可选地,例如,如图16中图示的,当选择图标601时;确定单元48可以将与所选择图标601相对应的对象604(在该示例中,为“肿瘤”)完全适合的立方体605确定为感兴趣区域。仍然可选地,如果选择多个图标并且将多个对象指定为指示区域,那么确定单元48可以将包括指定为指示区域的对象的区域设置为感兴趣区域。
同时,如果对象存在于由指定单元47指定的指示区域周边上,那么确定单元48可以将包括指示区域和存在于指示区域周边上的对象的至少某部分的扩展区域确定为感兴趣区域。例如,如图17中图示的,当用户选择图标701以使得对应对象704被指定为指示区域时以及当不同对象705存在于对象704周边上时;确定单元48可以将扩展区域706确定为感兴趣区域,该扩展区域706包括存在于对象704周边上的对象704和对象705。在这里,扩展区域不需要一直包括存在于指示区域周边上的整个对象705(在图17图示的示例中,为对象704),并且可以仅包括对象705的某部分。
本质上,确定单元48可以将包括指示区域和存在于指示区域周边上的对象的至少某部分的扩展区域确定为感兴趣区域。例如,从包括在体数据中的对象中,当用于操作的目标对象(例如,肿瘤)被指定为指示区域时,那么包括用于操作的目标对象以及存在于用于操作的目标对象周边上的其它对象(例如,血管或者神经)被设置为感兴趣区域。这使医生得以精确地理解用于操作的目标对象与其周边上的对象之间的位置关系。因此,可以在执行操作之前作出适当诊断。
下面给出了图7图示的控制单元42的细节解释。根据感兴趣区域的位置信息,控制单元42执行深度控制和位置控制中的至少一个。在这里,感兴趣区域的位置信息表示指示体数据中感兴趣区域的位置的信息。例如,可以使用由获取单元44获取的特定信息获取感兴趣区域的位置信息。首先,给出关于执行深度控制的解释。在生成默认立体图像的情况下,以这种方式进行设置,使得整个体数据在立体显示容许范围内。由于该原因,不能使指示立体显示的感兴趣区域的深度的深度范围足够接近立体显示容许范围,由此使其难以足够地表示感兴趣区域的立体效果。在这方面,在实施例中,控制单元42执行深度控制,其中与设置单元41设置感兴趣区域之前的状态相比,指示在显示单元50上立体显示的感兴趣区域的深度的深度范围被设定为更接近立体显示容许范围的值。因此,充分表示感兴趣区域的立体效果变得可能。在实施例中,控制单元42以这种方式执行深度控制,使得感兴趣区域的深度范围在立体显示容许范围内。
在实施例中,控制单元42以这种方式设置深度范围,使得体数据中感兴趣区域的深度方向(Z轴方向)上的宽度与立体显示容许范围的宽度一致。例如,如图18中图示的,当体数据中任意尺寸的立方体区域1001被设置为感兴趣区域时,控制单元42以这种方式执行深度控制,使得感兴趣区域的深度方向(Z轴方向)上的宽度1002与立体显示容许范围的宽度一致。
同时,如果以可旋转方式立体显示感兴趣区域1001,那么可以以这种方式执行深度控制,使得感兴趣区域1001的最大长度1003与立体显示容许范围的宽度一致。因此,即使当以可旋转方式立体显示感兴趣区域1001时,使感兴趣区域1001适合于立体显示容许范围内变得可能。因此,当实现立体效果的充分表达时,可以实现高清晰度立体显示。同时,例如,如图19中图示的,当体数据中任意尺寸的立方体区域1101被设置为感兴趣区域时,可以以这种方式执行深度控制,使用从重心的位置1102到感兴趣区域1101中最远点的距离R(1103),使得“2×R”与立体显示容许范围的宽度一致。在这里,如果cx表示感兴趣区域的X轴方向上最大宽度的中心,如果cy表示感兴趣区域的Y轴方向上的最大宽度的中心,并且如果cz表示感兴趣区域的Z轴方向上的最大宽度的中心;那么(cx,cy,cz)可以用于替代重心。
同时,也可能以这种方式执行深度控制,使得立体显示的感兴趣区域的深度方向与垂直于深度方向的方向(即,X轴方向或者Y轴方向)的比率接近于真实世界中的比率。更具体地,控制单元42可以以这种方式设置感兴趣区域的深度范围,使得立体显示的感兴趣区域的X轴方向、Y轴方向与Z轴方向的比率接近于真实世界中的比率。另外,例如,当当前显示默认立体图像时,如果感兴趣区域的X轴方向、Y轴方向与Z轴方向的比率接近于真实世界中对象的比率;那么控制单元42不需要执行深度控制。以这种方法,防止立体显示的感兴趣区域的形状不同于真实世界中的形状的情况变得可能。
下面给出了关于执行位置控制的解释。由于由设置单元41设置的感兴趣区域表示用户希望关注的区域,因此优选地以高清晰度显示感兴趣区域。在这方面,在实施例中,控制单元42执行位置控制以便将由设置单元41设置的感兴趣区域的显示位置设置为接近于显示器表面。如稍早描述的,由于显示单元50的显示屏幕上显示的图像是以最高清晰度显示的,因此使感兴趣区域的显示位置接近于显示器表面使以高清晰度显示感兴趣区域成为可能。在实施例中,控制单元42以这种方式执行位置控制,使得立体显示的感兴趣区域在立体显示容许范围内。
在这里,例如,在将图18图示的立方体区域1001设置为感兴趣区域的假定下给出解释。在这里,如果cx表示感兴趣区域1001的X轴方向上最大宽度的中心,如果cy表示感兴趣区域1001的Y轴方向上的最大宽度的中心,并且如果cz表示感兴趣区域1001的Z轴方向上的最大宽度的中心;那么,在以立体方式显示感兴趣区域1001的情况下,控制单元42以这种方式设置感兴趣区域1001的显示位置,使得(cx,cy,cz)与显示器表面的中心位置相匹配。同时,只要感兴趣区域的显示位置被设定为接近于显示器表面,那么感兴趣区域的显示位置不限于靠近显示器表面的中心。
同时,用于执行位置控制的方法不限于上面解释的示例。可选地,例如,可以以这种方式设置感兴趣区域的显示位置,使得感兴趣区域的重心位置与显示器表面的中心位置相匹配。仍然可选地,可以以这种方式设置感兴趣区域的显示位置,使得感兴趣区域的最大长度的中点与显示器表面的中心位置相匹配。当在感兴趣区域中存在至少单个对象时,可以以这种方式设置感兴趣区域的显示位置,使得任何一个对象的重心位置与显示器表面的中心位置相匹配。然而,例如,如图20中图示的,当感兴趣区域1203具有细长杆的形状时,使存在于感兴趣区域1203中的一组三维坐标与显示器表面的中心相匹配不一定是最好的方法。在这种情况下,可以以这种方式设置感兴趣区域的显示位置,代替存在于感兴趣区域1203中的一组三维坐标,使得存在于体数据中的一组三维坐标与显示器表面102的中心位置相匹配。在图20图示的示例中,在默认状态下,d5表示从感兴趣区域1203到显示器表面102的深度方向上的距离的最小值,以及d6表示从感兴趣区域1203到显示器表面102的深度方向上的距离的最大值。在该示例中,控制单元42可以以这种方式设置感兴趣区域1203的显示位置,使得感兴趣区域1203的立体图像在深度方向上从默认状态朝显示器表面移动等于(d5+d6)/2的距离。
如上所述通过执行深度控制和位置控制,控制单元42在创建立体图像的时候设置各种参数,例如摄像机间隔、摄像机角度和摄像机位置;并且将所设置参数发送到生成单元43。同时,在实施例中,尽管控制单元42执行深度控制以及位置控制,但是这并不是仅有的可能情况。可选地,控制单元42可以被配置为仅执行深度控制和位置控制中的一个。本质上,只要控制单元42执行深度控制或者位置控制中的至少一个,那么它就管用。
在下面解释了图7图示的生成单元43的细节。根据由控制单元42执行的控制结果,生成单元43生成体数据的立体图像。更具体地,生成单元43从图像存档设备20获取体数据和特定信息;根据由控制单元42设置的各种参数执行体绘制操作;并且生成体数据的立体图像。在这里,当创建体数据的立体图像时,实现各种已知体绘制技术是可能的。
同时,生成单元43可以以这种方式生成体数据的立体图像,使得体数据中除了感兴趣区域以外的图像部分被隐藏。也就是说,考虑除了体数据中感兴趣区域以外的图像部分,生成单元43可以将像素值设置为表示隐藏的值。可选地,可以这样配置:不在一开始就生成除了感兴趣区域以外的图像部分。仍然可选地,生成单元43可以以这种方式生成体数据的立体图像,使得除了感兴趣区域的图像部分比感兴趣区域更接近透明。也就是说,考虑除了体数据中感兴趣区域以外的图像部分,生成单元43可以将像素值设置为比感兴趣区域更接近透明的值。
仍然可选地,生成单元43可以以这种方式生成体数据的立体图像,使得在立体显示期间,在立体显示容许范围外部上的体数据的这种图像部分被隐藏。可选地,生成单元43可以以这种方式生成体数据的立体图像,使得在立体显示期间,在立体显示容许范围外部上的体数据的这种图像部分比存在于立体显示容许范围中的图像部分更接近透明。
仍然可选地,如图21中图示的,生成单元43可以以这种方式生成体数据的立体图像,使得体数据中在立体显示期间与感兴趣区域1302重叠并且定位在立体显示容许范围的外部上的重叠图像部分1303被隐藏,并且使得图像部分1304比立体显示容许范围内立体显示的图像部分(1302)更接近透明,该图像部分1304是除了重叠图像部分1303以外的图像部分并且在立体显示容许范围的外部上立体显示的。另外,例如,考虑围绕立体显示容许范围内部与立体显示外部之间的界线立体显示的图像部分,通过以逐步方式改变透光度的值来设置等级是可能的,该透光度的值指示光的透过性的比率。例如,考虑围绕立体显示容许范围内部与立体显示容许范围外部之间的界线立体显示的图像部分,生成单元43可以以这种方式生成体数据的立体图像,使得图像部分随着离立体显示容许范围的距离的增加逐渐地变得更接近透明。
在下面参考图22解释了根据实施例在立体图像显示设备30中执行的操作的示例。图22是用于解释在立体图像显示设备30中执行的操作的示例的流程图。首先,获取单元44获取存储在图像存档设备20中的特定信息(步骤S1400)。然后,指定单元47确定接收单元46是否接收了来自用户的输入(步骤S1401)。如果确定没有从用户接收输入(在步骤S1401处为NO),那么指定单元47不指定指示区域并且通知生成单元43没有从用户接收输入。在该情况下,生成单元43获取体数据和存储在图像存档设备20中的特定信息,并且生成默认立体图像(步骤S1402)。然后,生成单元43将默认立体图像发送到显示单元50,并且显示单元50显示从生成单元43接收的默认立体图像(步骤S1408)。
同时,在步骤S1401处,如果确定从用户接收输入(在步骤S1401处YES),那么指定单元47根据来自用户的输入指定指示区域(步骤S1403)。随后,确定单元48通过使用特定信息和指示区域确定感兴趣区域(步骤S1404)。另外,控制单元42获取立体显示容许范围(步骤S1405)。例如,控制单元42可以访问存储器(未图示)并且获取已经提前设置的立体显示容许范围。然后,控制单元42使用立体显示容许范围和感兴趣区域执行深度控制和位置控制(步骤S1406)。随后,根据由控制单元42执行的控制结果,生成单元43生成体数据的立体图像(步骤S1407)。然后,生成单元43将体数据的立体图像发送到显示单元50,并且显示单元50显示从生成单元43接收的体数据的立体图像(步骤S1408)。按照预定间隔以重复方式执行这些操作。
如上所述,在实施例中,当在体数据中设置用户应当关注的感兴趣区域时;控制单元42执行至少深度控制或者位置控制,在深度控制中,在显示单元50上立体显示的感兴趣区域的深度范围被设定为与设置感兴趣区域之前的状态相比更接近立体显示容许范围的值,在位置控制中感兴趣区域的显示位置被设定为接近于显示器表面。因此,增强感兴趣区域的立体图像的可见度变得可能。
同时,为了全面和清楚的公开,虽然已经结合具体实施例对本发明进行了描述,所附权利要求并不局限于此,而应被理解为对于本领域的技术人员可以实现的所有修改和可替换构造,均包含在这里所述的基础内。
(1)第一修改示例
图23是图示根据修改示例的图像处理单元400的配置示例的框图。与上面描述的实施例相比,图像处理单元400的不同之处在于另外包括调节单元70。在这里,与根据上面描述的实施例的组成元素相同的组成元素用相同的附图标记表示,并且不再重复这种组成元素的解释。
调节单元70调节感兴趣区域的范围,该感兴趣区域的范围由设置单元41根据来自用户的输入进行设置。例如,如图24中图示的,可以这样配置:在显示单元50的屏幕上显示X轴方向的滑杆、Y轴方向的滑杆和Z轴方向的滑杆;以及调节单元70根据每个滑杆的滑动量调节感兴趣区域的范围。在图24图示的示例中,例如,如果在“+(plus)”方向上移动滑杆1601,那么感兴趣区域的尺寸在X轴方向上增大。然而,如果在“-(minus)”方向上移动滑杆1601,那么感兴趣区域的尺寸在X轴方向上减小。可选地,例如,如图25中图示的,可以这样配置:在显示单元50上显示的体数据(医疗图像)1702具有在其上显示为预览的感兴趣区域1705;以及,如果使用鼠标光标1704执行用于移动感兴趣区域1705的顶点的操作,那么调节单元70根据操作输入调节感兴趣区域1705的范围。
(2)第二修改示例
例如,根据感兴趣区域的深度范围,控制单元42可以控制要在垂直于深度方向的平面中显示的感兴趣区域的尺寸。作为该控制方法的示例,当深度范围的标准值(即,在执行深度控制之前的深度范围)被设定为“1”时并且当由于执行深度控制,深度范围被设定为“1.4”时;有可能考虑将感兴趣区域的X轴方向上和Y轴方向上的放大因数设定为“1.4”的方法。因此,在显示单元50上立体显示的感兴趣区域的深度范围放大1.4倍,并且在垂直于深度方向的平面中显示的感兴趣区域的尺寸从标准尺寸放大1.4倍。
生成单元43根据由控制单元42设置的深度范围以及根据X轴方向和Y轴方向上的放大因数生成体数据的立体图像。根据X轴方向和Y轴方向上的放大因数,有可能考虑当感兴趣区域不在显示器表面范围内时的情况。在这种情况下,可以仅针对在显示器表面内的感兴趣区域的部分生成立体图像,或者同时也可以针对不在显示器表面内的部分生成立体图像。此外,可以通过使除了感兴趣区域以外的体数据的X轴方向和Y轴方向上的放大因数与感兴趣区域的放大因数相匹配以生成立体图像。
(3)第三修改示例
例如,如图26中图示的,在立体显示容许范围内,控制单元42可以在与显示器表面102相比的近侧(观察侧)上设置感兴趣区域1204的显示位置,或者可以在与显示器表面102相比的远侧上设置感兴趣区域1205的显示位置。
(4)第四修改示例
在上面描述的实施例中,医疗诊断成像设备10分析其中生成的体数据并且生成特定信息。然而,这不是仅有的可能情况。可选地,例如,立体图像显示设备30可以被配置为分析体数据。在该情况下,例如,医疗诊断成像设备10仅将生成的体数据发送至图像存档设备20,并且立体图像显示设备30获取存储在图像存档设备20中的体数据。同时,例如,代替使用图像存档设备20,可以将用于存储所生成体数据的存储器设置在医疗诊断成像设备10中。在该情况下,立体图像显示设备30从医疗诊断成像设备10获取体数据。
然后,立体图像显示设备30分析获取的体数据并且生成特定信息。在这里,由立体图像显示设备30生成的特定信息可以与从医疗诊断成像设备10获取或者从图像存档设备20获取的体数据一起存储在立体图像显示设备30中的存储器中;或者可以存储在图像存档设备20中。
根据上面描述的实施例的图像处理单元40具有包括中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)和通信接口(I/F)设备的硬件配置。当CPU从RAM中的ROM加载计算机程序并且执行计算机程序时,实现上面描述的功能中的每一个。然而,这不是仅有的可能情况。可选地,可以使用单独的电路(即,使用硬件)实现功能中的至少一些。
根据上面描述的实施例在图像处理单元40中执行的计算机程序可以以可下载方式存储在连接到网络(例如因特网)的计算机中或者可用于通过网络(例如因特网)分发。可选地,根据上面描述的实施例在图像处理单元40中执行的计算机程序可以提前存储在ROM等等中。
参考符号列表
1 图像显示系统
10 医疗诊断成像设备
20 图像存档设备
30 立体图像显示设备
40 图像处理单元
41 设置单元
42 控制单元
43 生成单元
44 获取单元
45 传感器单元
46 接收单元
47 指定单元
48 确定单元
50 显示单元
52 显示面板
54 光束控制单元
61 第一检测单元
62 第二检测单元
70 调节单元

Claims (9)

1.一种图像处理设备,包括:
设置单元,用以根据与医疗图像相关的三维体数据设置用户应当关注的感兴趣区域;
控制单元,用以根据所述感兴趣区域的位置信息,执行下列中的至少一项:
(1)深度控制,其中指示在显示立体图像的显示单元上立体显示的所述感兴趣区域的深度的深度范围被设定为与设置所述感兴趣区域之前的状态相比更接近立体显示容许范围的值,所述立体显示容许范围表示所述显示单元能够显示立体图像的深度方向上的范围;以及
(2)位置控制,其中所述感兴趣区域的显示位置被设定为接近于显示器表面的位置,所述显示器表面表示在立体观察期间既不朝近侧弹出也不朝远侧后退的表面;以及
生成单元,用以根据由所述控制单元执行的控制的结果生成所述体数据的立体图像。
2.根据权利要求1所述设备,其中所述设置单元包括
获取单元,用以获取特定信息,所述特定信息在所述体数据中使得能够识别表示用于观察的目标对象的图像的对象的所述位置;
指定单元,用以根据来自用户的输入,指定表示所述体数据中的区域的指示区域;以及
确定单元,用以通过使用所述特定信息和所述指示区域确定所述感兴趣区域。
3.根据权利要求2所述设备,其中,当所述对象存在于所述指示区域的周边上时,所述确定单元将包括所述指示区域和存在于所述指示区域的所述周边上的所述对象的至少某部分确定为所述感兴趣区域。
4.根据权利要求2所述设备,进一步包括传感器单元,用以检测用作来自所述用户的输入的输入单元的三维坐标值,其中
所述指定单元利用由所述传感器单元检测的所述三维坐标值并且在所述体数据中指定三维坐标值。
5.根据权利要求1所述设备,其中,根据所述深度范围,所述控制单元控制在垂直于深度方向的平面中显示的所述感兴趣区域的尺寸。
6.根据权利要求1所述设备,进一步包括调节单元,用以根据来自用户的输入,调节由所述设置单元设置的所述感兴趣区域的范围。
7.根据权利要求1所述设备,其中所述控制单元以使得以立体方式显示的所述感兴趣区域的深度方向与垂直于所述深度方向的方向的比率接近于真实世界中的比率的方式执行所述深度控制。
8.一种立体图像显示设备,包括:
设置单元,用以根据与医疗图像相关的三维体数据设置用户应当关注的感兴趣区域;
显示单元,用以显示立体图像;
控制单元,用以根据所述感兴趣区域的位置信息执行下列中的至少一项:
(1)深度控制,其中指示在显示单元上立体显示的所述感兴趣区域的深度的深度范围被设定为与设置所述感兴趣区域之前的状态相比更接近立体显示容许范围的值,所述立体显示容许范围表示所述显示单元能够显示立体图像的深度方向上的范围;以及
(2)位置控制,其中所述感兴趣区域的显示位置被设定为接近于显示器表面的位置,所述显示器表面表示在立体观察期间既不朝近侧弹出也不朝远侧后退的表面;以及
生成单元,用以根据由所述控制单元执行的控制的结果生成所述体数据的立体图像。
9.一种图像处理方法,包括:
根据与医疗图像相关的三维体数据设置用户应当关注的感兴趣区域;
根据所述感兴趣区域的位置信息,执行下列中的至少一项:
(1)深度控制,其中指示在显示立体图像的显示单元上立体显示的所述感兴趣区域的深度的深度范围被设定为与设置所述感兴趣区域之前的状态相比更接近立体显示容许范围的值,所述立体显示容许范围表示所述显示单元能够显示立体图像的深度方向上的范围;以及
(2)位置控制,其中所述感兴趣区域的显示位置被设定为接近于显示器表面的位置,所述显示器表面表示在立体观察期间既不朝近侧弹出也不朝远侧后退的表面;以及
根据所述深度控制和所述位置控制中的所述至少一项的结果生成所述体数据的立体图像。
CN201280067279.4A 2012-01-19 2012-01-19 图像处理设备、立体图像显示设备和图像处理方法 Pending CN104094319A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/051124 WO2013108391A1 (ja) 2012-01-19 2012-01-19 画像処理装置、立体画像表示装置、および、画像処理方法

Publications (1)

Publication Number Publication Date
CN104094319A true CN104094319A (zh) 2014-10-08

Family

ID=48798839

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280067279.4A Pending CN104094319A (zh) 2012-01-19 2012-01-19 图像处理设备、立体图像显示设备和图像处理方法

Country Status (4)

Country Link
US (1) US20140327749A1 (zh)
JP (1) JP5802767B2 (zh)
CN (1) CN104094319A (zh)
WO (1) WO2013108391A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106600695A (zh) * 2016-12-29 2017-04-26 深圳开立生物医疗科技股份有限公司 一种三维体重构方法和系统
CN106970736A (zh) * 2015-10-14 2017-07-21 国立民用航空学院 用于物理空间的表示的智能摇摄
CN107105150A (zh) * 2016-02-23 2017-08-29 中兴通讯股份有限公司 一种选择待输出照片的方法、拍照方法及其对应装置
WO2017173578A1 (zh) * 2016-04-05 2017-10-12 华为技术有限公司 一种图像增强方法及装置
CN107836109A (zh) * 2015-08-21 2018-03-23 三星电子株式会社 电子设备自动聚焦于感兴趣区域的方法
CN109644284A (zh) * 2016-08-30 2019-04-16 索尼公司 发送设备、发送方法、接收设备与接收方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060012675A1 (en) * 2004-05-10 2006-01-19 University Of Southern California Three dimensional interaction with autostereoscopic displays
US20070132721A1 (en) * 2005-12-09 2007-06-14 Edge 3 Technologies Llc Three-Dimensional Virtual-Touch Human-Machine Interface System and Method Therefor
JP2011055022A (ja) * 2009-08-31 2011-03-17 Sony Corp 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
JP2011183021A (ja) * 2010-03-10 2011-09-22 Fujifilm Corp 放射線画像撮影システム及び放射線画像の表示方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4488996B2 (ja) * 2005-09-29 2010-06-23 株式会社東芝 多視点画像作成装置、多視点画像作成方法および多視点画像作成プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060012675A1 (en) * 2004-05-10 2006-01-19 University Of Southern California Three dimensional interaction with autostereoscopic displays
US20070132721A1 (en) * 2005-12-09 2007-06-14 Edge 3 Technologies Llc Three-Dimensional Virtual-Touch Human-Machine Interface System and Method Therefor
JP2011055022A (ja) * 2009-08-31 2011-03-17 Sony Corp 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
JP2011183021A (ja) * 2010-03-10 2011-09-22 Fujifilm Corp 放射線画像撮影システム及び放射線画像の表示方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107836109A (zh) * 2015-08-21 2018-03-23 三星电子株式会社 电子设备自动聚焦于感兴趣区域的方法
CN106970736A (zh) * 2015-10-14 2017-07-21 国立民用航空学院 用于物理空间的表示的智能摇摄
CN107105150A (zh) * 2016-02-23 2017-08-29 中兴通讯股份有限公司 一种选择待输出照片的方法、拍照方法及其对应装置
WO2017173578A1 (zh) * 2016-04-05 2017-10-12 华为技术有限公司 一种图像增强方法及装置
CN109644284A (zh) * 2016-08-30 2019-04-16 索尼公司 发送设备、发送方法、接收设备与接收方法
CN106600695A (zh) * 2016-12-29 2017-04-26 深圳开立生物医疗科技股份有限公司 一种三维体重构方法和系统
CN106600695B (zh) * 2016-12-29 2020-04-10 深圳开立生物医疗科技股份有限公司 一种三维体重构方法和系统

Also Published As

Publication number Publication date
US20140327749A1 (en) 2014-11-06
WO2013108391A1 (ja) 2013-07-25
JP5802767B2 (ja) 2015-11-04
JPWO2013108391A1 (ja) 2015-05-11

Similar Documents

Publication Publication Date Title
CN102821292B (zh) 图像处理系统以及方法
CN104094319A (zh) 图像处理设备、立体图像显示设备和图像处理方法
CN102892016B (zh) 图像显示系统、装置、方法以及医用图像诊断装置
CN102860837B (zh) 图像处理系统、装置、方法以及医用图像诊断装置
JP6245840B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP5871705B2 (ja) 画像表示装置、方法及びプログラム
CN103177471B (zh) 三维图像处理装置
CN102915557B (zh) 图像处理系统、终端装置以及方法
CN102892018A (zh) 图像处理系统、装置、方法以及医用图像诊断装置
CN102984532A (zh) 图像处理系统、图像处理装置以及图像处理方法
US9886096B2 (en) Method and apparatus for processing three-dimensional (3D) object based on user interaction
CN102893308A (zh) 图像处理系统、装置以及方法
CN102819385A (zh) 信息处理装置、信息处理方法和程序
US20140047378A1 (en) Image processing device, image display apparatus, image processing method, and computer program medium
US9202305B2 (en) Image processing device, three-dimensional image display device, image processing method and computer program product
JP5670945B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
CN103356290B (zh) 医用图像处理系统以及方法
JP2015050482A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
CN102860836B (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
JP5642561B2 (ja) 家屋異動判読支援装置、家屋異動判読支援方法及び家屋異動判読支援プログラム
KR102273925B1 (ko) 3차원 의료영상의 치료계획 기록 방법 및 장치
JP5832990B2 (ja) 画像表示システム
JP2014216719A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
WO2018094688A1 (zh) 透视物体内部结构的透视方法及系统
JP2012238289A (ja) 3次元画像処理装置および3次元画像処理プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20141008