CN111352564A - 光学相干断层扫描控制 - Google Patents
光学相干断层扫描控制 Download PDFInfo
- Publication number
- CN111352564A CN111352564A CN201911303634.3A CN201911303634A CN111352564A CN 111352564 A CN111352564 A CN 111352564A CN 201911303634 A CN201911303634 A CN 201911303634A CN 111352564 A CN111352564 A CN 111352564A
- Authority
- CN
- China
- Prior art keywords
- touch
- image
- location
- image processing
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012014 optical coherence tomography Methods 0.000 title claims abstract description 132
- 238000012545 processing Methods 0.000 claims abstract description 126
- 230000003993 interaction Effects 0.000 claims abstract description 114
- 210000001525 retina Anatomy 0.000 claims abstract description 68
- 238000004590 computer program Methods 0.000 claims abstract description 35
- 230000004044 response Effects 0.000 claims abstract description 22
- 238000003860 storage Methods 0.000 claims description 25
- 238000013519 translation Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 18
- 238000012546 transfer Methods 0.000 claims description 15
- 230000007704 transition Effects 0.000 claims description 8
- 238000004898 kneading Methods 0.000 claims 2
- 238000000034 method Methods 0.000 abstract description 29
- 230000008569 process Effects 0.000 abstract description 17
- 210000003811 finger Anatomy 0.000 description 36
- 230000035945 sensitivity Effects 0.000 description 12
- 230000002207 retinal effect Effects 0.000 description 11
- 238000006073 displacement reaction Methods 0.000 description 9
- 230000000670 limiting effect Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004091 panning Methods 0.000 description 8
- 238000000926 separation method Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004256 retinal image Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0033—Operational features thereof characterised by user input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/103—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
- A61B3/1225—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
本申请涉及光学相干断层扫描控制。一种用于指定要在视网膜上执行的OCT扫描位置的装置(100)、方法、计算机可读介质和计算机程序产品。该装置包括用于显示包括视网膜的背景图像和指定位置的规划元素的图像的显示设备(110);触敏输入设备(120),其生成指示用户与输入设备的触摸交互的触摸交互数据;图像处理模块(130),其基于触摸交互数据确定要对显示图像执行的处理,并且响应于每个触摸交互将图像处理应用于图像,以生成要显示的更新图像;以及扫描位置指定模块(140),其基于在至少一个更新图像中的背景图像上的规划元素的位置生成指示要被执行的OCT扫描的位置的数据。
Description
领域
本文的示例性方面通常涉及光学相干断层扫描(OCT)领域,且更具体地涉及指定待在眼睛的视网膜上执行的OCT扫描的位置。
背景
光学相干断层扫描是一种众所周知的干涉成像技术,其作为有力的诊断工具(power diagnostic tool)被广泛应用于眼科。建立OCT扫描的传统方法通常需要获取要在其上执行OCT扫描的眼睛的视网膜的部分的图像的初始步骤。例如,可以使用扫描激光检眼镜(SLO)或眼底相机获取该图像。然后,用户可以检查视网膜图像,并且在必要时放大感兴趣的部分以获得放大视图,并且使用计算机鼠标等来指定由OCT扫描仪成像的放大图像的一部分。
概述
本发明人已经认识到,指定上述类型的视网膜OCT扫描的位置的传统方法通常使用用户界面,这使得用户难以以有效且直观的方式探查所获取的图像,使得使用OCT来识别需要进一步研究的病理和因而指定预期的OCT扫描位置是一个耗时的过程。特别地,这种传统方法缺乏平移(pan)图像和根据需要放大和缩小图像同时在这些操作过程中能够移动和保持OCT扫描的预期位置的能力。
鉴于这些限制,本发明人设计了一种用于指定待在眼睛的视网膜上执行的OCT扫描的位置的计算机程序。该计算机程序包括显示控制软件模块,当该显示控制软件模块由处理器执行时,使得处理器基于定义视网膜的一部分的背景图像的图像数据和用于指定在待执行的OCT扫描的视网膜上的位置的前景图形规划元素来生成用于控制显示设备显示由图像数据定义的图像的显示控制信号。该计算机程序还包括图像处理软件模块,当该图像处理软件模块由处理器执行时,使得处理器接收指示针对用户与触敏表面的多个触摸交互中的每一个触摸交互的在触敏输入设备的触敏表面上的检测位置的至少一个序列的相应触摸交互数据,并且基于触摸交互数据中的每一个来确定要对定义由显示设备显示的图像的图像数据执行的相应图像处理。每个图像处理包括以下项中的至少一项:按公共因子调整前景图形规划元素和背景图像二者的大小;前景图形规划元素相对于背景图像的转移(translation);或者正在显示的图像的平移。当由处理器执行时,图像处理软件模块还使得处理器响应于每个触摸交互,将所确定的图像处理应用于定义由显示设备正在显示的图像的图像数据,以便生成定义待在显示设备上显示的更新图像的相应更新图像数据,并且使得显示控制软件模块基于响应于每个触摸交互而生成的更新图像数据来生成用于控制显示设备显示由更新图像数据定义的更新图像的相应显示控制信号。计算机程序还包括扫描位置指定软件模块,当该扫描位置指定软件模块由处理器执行时,使得处理器基于至少一个更新图像中的视网膜的背景图像上的前景图形规划元素的位置来生成指示将要在视网膜上执行的OCT扫描的位置的OCT扫描位置数据。
本发明人还设计了一种存储上述计算机程序的非暂时性计算机可读存储介质。
本发明人还设计了一种携带上述计算机程序的信号。
本发明人还设计了一种用于指定待在眼睛的视网膜上执行的OCT扫描的位置的装置。该装置包括显示设备,该显示设备被配置为显示包括视网膜的一部分的背景图像和用于指定在待执行OCT扫描的视网膜上的位置的前景图形规划元素的图像。该装置还包括触敏输入设备,该触敏输入设备具有触敏表面并且被配置为生成指示关于用户与触敏表面的多个触摸交互中的每一个触摸交互的检测位置的至少一个序列的相应触摸交互数据。该装置还包括图像处理模块,该图像处理模块被配置为基于触摸交互数据中的每一个来确定要对由显示设备显示的图像执行的相应图像处理,每个图像处理包括以下项中的至少一项:按公共因子调整前景图形规划元素和背景图像二者的大小;前景图形规划元素相对于背景图像的转移;或者正在显示的图像的平移。图像处理模块还被配置为响应于触摸交互中的每一个,将所确定的图像处理应用于显示设备上正在显示的图像,以便生成显示在显示设备上的相应更新图像。该装置还包括扫描位置指定模块,该扫描位置指定模块被配置为基于至少一个更新图像中的视网膜的背景图像上的前景图形规划元素的位置来生成指示待在视网膜上执行的OCT扫描的位置的OCT扫描位置数据。
附图说明
现在将通过下面描述的参考附图的非限制性示例来详细解释本发明的实施例。在附图中的不同附图中出现的相似的参考数字可以表示相同的或在功能上相似的元素,除非另有指示。
图1是根据本文的第一示例实施例的用于指定视网膜OCT扫描的位置的装置的示意图。
图2是根据本文的示例方面的说明性图像,该说明性图像包括视网膜的一部分的背景图像220和叠加在背景图像220上的前景图形规划元素210。
图3(a)至图3(d)是根据本文的示例方面的图2所示图像的变体,每个变体包括不同的前景图形规划元素。
图4(a)和图4(b)示出了根据本文的示例方面的对显示图像的更新,以示出前景图形规划元素相对于背景图像的单触拖动。
图5示出了根据本文的示例方面的响应于单触拖动来平移显示图像,由此前景图形规划元素和背景图像一起移动。
图6(a)至图6(c)示出了根据本文的示例方面的响应于捏合操作(pinchoperation)对显示图像的缩放。
图7(a)和图7(b)示出了根据本文的示例方面的响应于双击操作对显示图像的缩放。
图8是根据本文第二实施例的用于指定视网膜OCT扫描的位置的计算机程序的示意图。
图9是示出根据本文的第二示例实施例的用于执行图8的计算机程序的可编程信号处理硬件的示例的框图。
图10是示出图8的计算机程序指定要在眼睛的视网膜上执行的光学相干断层OCT扫描的位置的过程的流程图。
实施例的详细描述
现在将参考附图详细描述本发明的示例实施例。
本文所使用的措辞和术语是为了描述的目的,且不应被视为限制性的。本文使用的“包括”、“包含”、“具有”及其变型意味着包含其后列出的项目、其等同物和附加项目,以及由其后专门列出的项目组成的替代实施例。在本文的一个示例实施例中,本文描述的系统、装置、方法、计算机可读介质和计算机程序由描述的元件、动作或部件中的一个、多于一个的每个组合或全部组成。
对在本文中以单数形式提及的系统、装置、方法、计算机可读介质和计算机程序的实施例或者元件或者动作的任何引用也可以包含包括多个这些元件的实施例,并且在本文中对任何实施例或者元件或者动作的以复数形式的任何引用也可以包含仅包括单个元件的实施例。以单数或者复数形式的引用并不意欲将当前公开的系统、装置、方法、计算机可读介质和计算机程序、它们的部件、动作、或者元件限制为单数配置或复数配置。对基于任何信息、动作或元素的任何动作或元素的引用可以包括动作或元素至少部分基于任何信息、动作或元素的实施例。
本文所公开的任何实施例可以与任何其他实施例结合,及对“实施例”、“一些实施例”、“可选实施例”、“各种实施例”、“一个实施例”等的引用并不一定是相互排斥的,并且旨在指示结合实施例所描述的特定的特征、结构或特性可以被包括在至少一个实施例中。在本文中所使用的这类术语不一定都指相同实施例。任何实施例可以包括性地或排他地、以与本文公开的方面和实施例一致的任何方式与任何其他实施例相结合。
对“或”的提及可被解释为包括性的,使得使用“或”所描述的任何术语可以指示所描述的项目的单个、多于一个、以及全部中的任何一种。
在附图、详细描述或任何权利要求中的技术特征后面跟随有参考符号的情况下,参考符号被包括仅仅是为了增加对附图、详细描述和权利要求的可理解性的目的。因此,参考符号及其缺失都不意欲对任何权利要求元素的范围有任何限制影响。
[第一示例实施例]
图1是根据本文第一示例实施例的装置100的示意图,其用于指定将通过OCT扫描仪(未示出)执行的对受试者的眼睛的视网膜的一部分进行成像的OCT扫描的位置。装置100可以通过生成OCT扫描位置数据145来指定在视网膜的表面上的这种位置,OCT扫描位置数据145指示OCT扫描仪的用于控制OCT扫描仪使得其扫描覆盖视网膜的特定区域的一个或更多个控制参数值。OCT扫描仪的一个或更多个控制参数值可以例如对应于OCT扫描仪的一个或更多个光束扫描镜(未示出)的角位移,该一个或更多个控制参数值定义例如视网膜上要执行OCT扫描的点,或者视网膜上用作设置OCT扫描的位置的参考点的点(例如OCT扫描要在其上居中的点)。在这点上,应当注意,通过示例而非限制性的方式,由OCT扫描仪执行的OCT扫描可以是A-扫描(其中在视网膜深度方向上的不同点处执行两个或更多个OCT测量,其都是针对视网膜表面上的公共位置)、B-扫描(其中执行两个或更多个A-扫描,每个均在视网膜的表面上沿着第一方向(例如,沿x轴的方向)取的不同坐标值处)或C-扫描(其中执行两个或更多个B-扫描,每个均在视网膜的表面上沿第二不同方向(例如,正交的y轴方向)取得的不同坐标值处)。
如图1所示,装置100包括显示设备110、触敏输入设备120、图像处理模块130和扫描位置指定模块140。
显示设备110被配置为显示图像200,如图2所示,例如图像200包括多个元素,其包括视网膜的至少一部分的背景图像220和叠加在背景图像220上的前景图形规划元素210,以用于指定在视网膜上待执行OCT扫描的位置。如在本实施例中,显示设备110可以形成触摸屏设备150的一部分,触摸屏设备150集成了显示设备110和触敏输入设备120的功能。因此,显示设备110和触敏输入设备120可以是形成触摸屏设备150的整体形成的用户输入/输出界面。可选地,显示设备110可以是LCD屏或任何其他类型的可视显示单元(VDU),和/或可以与设备120分离。背景图像220可以以下面将进一步描述的方式被获得。
如图2所示,前景图形规划元素210可以如在所示的实施例中具有矩形形状。作为另一种选择,前景图形规划元素210可以定义二维区域,该二维区域的边界不是矩形的,但是可以采取适于指定用于执行C-扫描的视网膜的二维区域的任何其他预定形状,例如但不限于,诸如圆形或椭圆形。图3(a)示出了标记为300a的图像的可选示例,其包括背景图像220和圆形前景图形规划元素310a,而图3(b)示出了标记为300b的图像的另一示例,其包括背景图像220和椭圆形前景图形规划元素310b。
此外,前景图形规划元素210不需要在背景图像220上定义二维区域,并且可选地,可以采取叠加在背景图像220上的点(用于指定A-扫描的位置)或者叠加在背景图像220上的线段(用于指定B-扫描的位置)的形式。图3(c)和图3(d)示出了图像的可选示例,其包括背景图像220和分别以不同长度的线段的形式标记为310c和310d的前景图形规划元素。
前景图形规划元素210可以提供视网膜的将在OCT扫描中被捕获的区域的比例表示。然而,应当注意,前景图形规划元素210的形状通常不需要指示视网膜的将被OCT扫描覆盖的区域的形状。例如,前景图形规划元素210可以采取以下形式:其位置在背景图像220上的点被理解为与背景图像220上视网膜的将被扫描覆盖的(一维或二维)区域具有预定定位关系。例如,该点可以用于指定将被扫描的一维或二维区域的中心、将被扫描的一维区域的末端、将被扫描的二维区域的拐角等。在其中各自延伸的坐标空间中前景图形规划元素210在背景图像220上的位置由扫描图形定位器定义,扫描图形定位器包括例如在背景图像220的图像像素坐标系中前景图形规划元素210的预定义部分(例如,矩形前景图形规划元素210的中心)的坐标。前景图形规划元素210在背景图像220上的位置是通过扫描图形定位器的值设置的。
在本文的一些示例实施例中,前景图形规划元素210具有可操作/可改变的形状。例如,在那些实施例中,前景规划元素210可以被控制为选择元素210的任何前述或其他形状,使得元素210在被选择时呈现所选择的形状。此外,一个或更多个形状可以是例如至少一个点、线段、二维形状、或三维形状。而且,在本文的一个示例实施例中,前景图形规划元素210可以被控制以扩展或减小其尺寸,和/或使其至少一部分变形。前述功能中的每一个功能都可以通过用户界面来执行,例如但不限于,通过触敏输入设备120来执行。
如在本实施例中,背景图像220可以通过扫描成像系统(未示出)(诸如,例如,能够生成高达80%视网膜表面的超宽场图像的超宽场扫描激光检眼镜(UWF-SLO))产生。可选地,背景图像220可以通过其他类型的扫描成像系统(诸如,例如扫描激光检眼镜(SLO)、组合SLO-OCT扫描仪、眼底相机或任何其他合适类型的视网膜成像系统)产生。背景图像220可以是红绿(RG)反射图像或者来自其他荧光模式的图像、或者任何其他合适类型的图像。
装置100可以通过本领域技术人员已知的任何合适的方式获取视网膜的一部分的背景图像220。例如,装置100可以通过直接通信链路(其可以通过任何合适的有线或无线连接(例如通用串行总线(USB)或BluetoothTM连接)来被提供)、间接通信链路(其可以通过包括局域网(LAN)、广域网(WAN)和/或互联网的网络来被提供)、或通过其中存储背景图像220的存储器从扫描成像系统(未示出)接收背景图像220,但是这些事例并非排他性的。此外,背景图像220可以在背景图像数据被扫描成像系统生成时被装置100获取(并且此外,可以随后被处理以指定在眼睛的视网膜上将被执行OCT扫描的位置,如下所述),即图像数据可以“在运行中(on the fly)”被获取而无需等待扫描成像系统完成生成形成视网膜的至少一部分的背景图像220的所有图像数据。
触敏输入设备120具有触敏表面125,例如,用户可以使用他们的手的一个或更多个手指直接与触敏表面125交互,或者使用诸如触笔的工具间接地与触敏表面125交互。触敏输入设备120被配置为生成相应触摸交互数据127,该相应触摸交互数据指示关于用户与触敏表面125的多个触摸交互中的每一个触摸交互的检测位置的至少一个序列。换句话说,在用户和触敏输入设备120之间的触摸交互过程中,触敏输入设备120记录(例如,通过进行记录)例如用户的手指、用户握持的触笔等和触敏表面125之间的一个或更多个接触点的检测位置,使得检测位置以它们被检测到的序列(顺序)被记录。检测位置的排序可以使用分配给检测位置的时间戳、通过检测位置的顺序编号、或者以任何其他合适的方式来记录。
例如,在触摸交互采取单触拖动的形式的情况下(其中用户用手指(或诸如触笔的工具)触摸触摸屏,且然后在其表面上拖动手指(或工具,视情况而定),同时在触敏表面125上画直线或曲线或任何其他形状/图案),例如,触敏输入设备120将在单触拖动过程中用户手指(或工具)和触敏输入设备120的触敏表面125之间的接触点的检测位置记录为检测位置的单个序列。例如,如果检测位置的序列中的位置数量超过预定阈值数量(例如,位置数量可以对应于20个像素),或者其中对应于检测位置的序列的触摸交互的持续时间超过预定阈值持续时间(例如,300ms),则触敏输入设备120可以确定检测位置的序列与单触拖动相关。预定阈值数量或预定阈值持续时间(视情况而定)可以是可配置的,并且例如可以通过反复试验来被调整,以优化触敏输入设备120的性能。
在触摸交互是用户的至少一个手指(或触笔或用于与触敏输入设备120交互的其他工具,视情况而定)在触敏表面125上的双击的情况下,触敏输入设备120可以通过确定构成双击的两个交互的持续时间都低于相应的阈值(该阈值可以与例如上面提到的可用于将触摸交互识别为单触拖动的预定阈值相同(或不同)),并且可选地,第一交互的结束和第二交互的开始之间的间隔低于阈值,来确定触摸交互是双击。在触摸交互被识别为双击的情况下,触敏输入设备120可以记录在双击交互过程中发生的用户手指(或工具)和触敏表面125之间的接触点的检测位置,该检测位置通常相同或几乎相同。
应当注意的是,触敏输入设备120可以被配置为生成触摸交互数据127,该触摸交互数据127指示关于用户与触敏表面125的某些类型的触摸交互的检测位置的多于一个的序列。例如,在用户与触敏输入设备120进行捏合交互的情况下,其中用户将他们的手的第一手指和第二手指(通常是拇指和食指)放在触敏表面125上并在保持每个手指和触敏表面125之间的接触时将这些手指移近(“捏进(pinching in)”)或进一步分开(“捏出”),触敏输入设备120记录在捏合交互过程中第一手指和第二手指与触敏表面125之间的相应接触点的检测位置,作为检测位置的相应的第一序列和第二序列。因为接触点的位置被记录为序列,所以触敏输入设备120能够基于在第一序列和第二序列中的相对应的检测位置(即,出现在第一序列和第二序列中的相对应定位处的检测位置)之间的距离分别是沿着序列减小还是增加,来确定用户是将他们的手指移动得更近还是更远。
如上所述,本实施例的触敏输入设备120和显示设备110集成在触摸屏设备150中。然而,如上所述,在其他实施例中,触敏输入设备120可以与显示设备110分离,并且可以例如以作为计算机键盘的一部分或作为独立外围部件被提供的轨迹板的形式来被提供,但是这些示例并不排他。
图像处理模块130被配置为基于由触敏输入设备120生成的每个触摸交互数据127来确定将对由显示设备110显示的图像200的至少一部分执行的相应图像处理。换句话说,图像处理模块130根据触摸交互数据确定将对图像200的至少一部分执行哪种类型的处理。每个图像处理可以包括,举例来说但不限于,以下一个或更多个:(i)在保持前景图形规划元素210相对于背景图像220的位置的同时,按公共缩放因子来调整前景图形规划元素210和背景图像220的大小;(ii)前景图形规划元素210相对于背景图像220的转移;以及(iii)显示的图像200的至少一部分的平移,即在保持前景图形规划元素210相对于背景图像220的位置的同时前景图形规划元素210和背景图像220的平移。图像处理模块130还被配置为响应于触摸交互中的每一个将所确定的图像处理应用于显示设备110上显示的图像200,以便生成在显示设备110上被显示的相应更新图像。
举例来说,在多个触摸交互包括由用户在输入设备120的触敏表面125上执行的单触拖动操作的情况下,触敏输入设备120生成指示关于单触拖动的检测位置的序列的触摸交互数据127,该序列包括对应于单触拖动的开始的第一检测位置和对应于单触拖动的结束的第二检测位置,以及在第一检测位置和第二检测位置之间的一个或更多个中间检测位置。图像处理模块130可以利用映射来将在触敏表面125上的触摸交互的检测位置转换成在触摸交互期间显示在显示设备110上的背景图像220上的相对应的点。在背景图像220上对应于第一检测位置的位置(即,图像220上第一检测位置被映射到的位置)在距前景图形规划元素210的预定距离内(该距离用背景图像220的坐标系中定义的从检测位置序列中的第一检测位置到例如前景图形规划元素210的质心或边界上的最近点的任何适当距离单位来表示)的这种情况下,图像处理模块130被配置为将对于单触拖动的图像处理确定为包括前景图形规划元素210相对于背景图像220的转移,其中该转移的量基于第一检测位置和第二检测位置之间的距离且该转移的方向基于第二检测位置相对于第一检测位置的方向。应当注意的是,预定距离也可以为零,在这种情况下,例如,第一检测位置需要在前景图形规划元素210的外部边界上或在前景图形规划元素210内。例如,在用户触摸前景图形规划元素210并在触敏表面125上移动他们的手指(或触笔,视情况而定)的情况下,图像处理模块130将图像处理确定为前景图形规划元素210的单触拖动,并且相应地将对于单触拖动的图像处理确定为包括前景图形规划元素210相对于背景图像220的移动,其中该移动的量基于第一检测位置和第二检测位置之间的距离且该移动的方向基于第二检测位置相对于第一检测位置的方向。
图4(a)和图4(b)是图像处理模块130如何响应于用户在例如触摸屏设备形式的触敏输入设备120的触敏表面125上执行的单触拖动操作形式的触摸交互来更新显示图像200的说明性示例。用户在触摸屏设备上的第一触摸位置410处触摸前景图形规划元素210,并且将他们的手指(或触笔尖端,视情况而定)在触摸屏设备的表面上水平拖到在图4(a)中标记为420-1而在图4(b)中标记为420-2的第二位置。在本文示出的示例实施例中,如上所述,图像处理模块130将触摸交互确定为单触拖动,并且确定背景图像220上对应于第一检测位置的(映射的)位置在距前景图形规划元素210的预定距离内。因此,模块130通过以下方式来更新图像200:在背景图像220在两个图像中保持不变的同时,将前景图形规划元素210在触摸屏设备上从初始位置(例如,在图4(a)和图4(b)中前景图形规划元素由实线表示的位置)水平转移到最终位置(例如,前景图形规划元素由虚线表示的位置),其中该转移的位移量对应于第一位置410和第二位置420-1或420-2之间的距离。
图像处理模块130可以更一般地被配置为将对于单触拖动的图像处理确定为包括前景图形规划元素210相对于背景图像220的转移,其中该转移的位移量随第一检测位置和第二检测位置之间的距离线性地或非线性地缩放且该转移的方向在显示设备110上表示的坐标空间中类似于并且优选地相同于在触敏输入设备120的触敏表面125上第二检测位置相对于第一检测位置的方向。图像处理模块130可以被配置为允许用户调整对于前景图形规划元素210的单触拖动的转移量和第一检测位置和第二检测位置之间的距离之间的线性或非线性缩放,从而有效地调整触敏输入设备120的对于前景图形规划元素210的单触拖动的灵敏度。换句话说,用户可以指定元素210对于单触拖动位移的每个单位进行位移的量(线性或非线性),从而控制/调整灵敏度。在本文的其他实施例中,灵敏度通过在图像处理模块130中预先编程来预定,或者用户可以指定灵敏度或选择默认灵敏度。
被显示的图像可以在单触拖动过程中连续更新,例如以规则的间隔更新,使得扫描图形定位器的值被更新,以在用户在触敏输入设备120上执行拖动的同时,实时有效地改变前景图形规划元素210在背景图像220上的位置。此外,在本文的一个示例实施例中,响应于图形规划元素210的改变,在响应于单触拖动改变扫描图形定位器期间,或者在预定延迟之后,以预定的间隔以连续的方式更新显示图像200。可选地,在另一示例实施例中,可以仅在单触拖动操作结束之后,即在用户将其手指或触笔从触敏输入设备120上抬起之后,更新正在显示的图像。响应于单触拖动提供显示图像200的哪种特定类型的更新可以是预定的,或者可以通过用户命令预指定/预编程。
应当注意的是,根据前述缩放(无论是用户可调整或不是用户可调整地)来更新扫描图形定位器以反映用户的手指/触笔的接触点的变化位置,可以以扫描图形定位器值在由预定界限(例如,空间坐标值的预定范围)界定的值的预定范围内为条件,并且预定范围/界限可以在装置100中被预编程或由用户命令指定。在本文的一个示例实施例中,使用预定的范围/界限来确保用户不能指定对于OCT扫描的区域,在该区域中,由于实际原因,OCT扫描实际上不能被执行。因此,在一个示例中,在用户对图形规划元素210的拖动导致图形定位器值超过预定范围的界限时,图形规划元素210不再被移位和/或被进一步更新到扫描图形定位器值达到相对应的界限的地方之外。在本文的一个示例实施例中,在响应于用户的拖动导致扫描图形定位器的值超过该范围的预定界限的情况下,扫描图形定位器被保持在对应于该预定界限的坐标值处,并且图形规划元素120被显示在对应于该扫描图形定位器的该值的定位/取向处。
另一方面,如上所述,在背景图像220上对应于第一检测位置的位置不在距前景图形规划元素210的预定距离内的单触拖动的情况下,图像处理模块130被配置为将对于单触拖动的图像处理确定为包括正在显示的图像200的平移(换句话说,背景图像220和前景图形规划元素210的共同转移,这保持了前景图形规划元素210相对于背景图像220的位置和取向)。在本示例实施例中,平移导致的位移量基于第一检测位置和第二检测位置之间的距离,且平移位移的方向基于第二检测位置相对于第一检测位置的方向。因此,例如,在用户在与背景图像220中离前景图形规划元素210足够远(即,不以预定距离)的位置(或不在前景图形规划元素210上)相对应的位置处触摸触敏表面125,并在触敏表面125上移动其手指(或触笔,视情况而定)的情况下,图像处理模块130将图像处理确定为图像200的平移,并相应地确定背景图像220和前景图形规划元素210二者都将以基于第一检测位置和第二检测位置之间的距离的量以及基于从第一检测位置延伸到第二检测位置的方向移动。在这种情况下,扫描图形定位器在平移前后都保持其在背景图像220上的定位。
图5是图像处理模块130可如何响应于由用户在触摸屏设备上执行的单触拖动操作形式的触摸交互来更新显示图像200的说明性示例,其中用户不触摸前景图形规划元素210,而是将其手指或触笔的尖端放置在触摸屏设备上的第一触摸位置510处,其中第一触摸位置510被检测为第一检测位置。在示出的示例中,背景图像220上对应于(即,映射到)第一检测位置的位置被假设不在距前景图形规划元素210的预定距离内,并且用户将手指/触笔尖端在触摸屏设备的表面上拖动到第二位置520。如上所述,图像处理模块130将触摸交互确定为单触拖动,并且确定背景图像220上对应于第一检测位置的位置不在距前景图形规划元素210的预定距离内,并且相应地通过以下方式来更新图像200:在触摸屏设备上将前景图形规划元素210和背景图像220转移对应于在第一位置510和第二位置520之间的距离的量,并且该转移的方向基于从第一位置510延伸到第二位置520的方向。在图5中,前景图形规划元素210和背景图像的包围部分由实线界定,而更新图像中的前景图形规划元素210和背景图像的包围部分由虚线界定。
图像处理模块130可以更一般地将对于平移操作的图像处理确定为包括前景图形规划元素210和背景图像220二者的转移,其中该转移的量随在第一检测位置和第二检测位置之间的距离线性或非线性地缩放且该转移在显示设备110上的方向类似于在触敏输入设备120的触敏表面125上第二检测位置相对于第一检测位置的方向并且优选地与在触敏输入设备120的触敏表面125上第二检测位置相对于第一检测位置的方向相同。图像处理模块130可以被配置为允许用户调整关于平移操作的转移量和第一检测位置和第二检测位置之间的距离之间的线性或非线性缩放,从而有效地调整触敏输入设备120的关于平移操作的灵敏度。换句话说,用户可以指定元素210和图像220关于沿着从第一检测位置延伸到第二检测位置的(假想)线的(线性或非线性)位移的每个单位的量,从而控制/调整灵敏度。在本文的一些实施例中,灵敏度通过在图像处理模块130中预编程来预定,并且用户可以在预编程的灵敏度和用户指定的灵敏度之间进行选择。
如上所述,在多个触摸交互包括用户在输入设备120的触敏表面125上执行的捏合操作的情况下,触敏输入设备120生成指示检测位置的第一序列和检测位置的第二序列的触摸交互数据127。在这种情况下,图像处理模块130可以被配置为将对于捏合的图像处理确定为包括按公共缩放因子来调整前景图形规划元素210和背景图像220的大小,该公共缩放因子基于(i)在检测位置的第一序列和第二序列中的第一检测位置之间的距离,和(ii)在检测位置的第一序列和第二序列中的最终检测位置之间的距离之间的差;换句话说,在捏合操作开始时在触敏表面125上的检测位置的分离和在捏合操作结束时在触敏表面125上的检测位置的分离之间的差。可选地,图像处理模块130可以被配置成基于从两个触摸位置(即,上述接触点)中的任一个到预定参考位置(诸如,例如但不限于,当检测到触摸位置中的任一个改变时,与捏合操作的初始触摸位置等距的位置)的计算距离来调整公共缩放因子(从而调整元素210和背景图像220的大小)。
图6(a)是图像处理模块130可以如何响应于用户在触摸屏设备上执行的捏合操作形式的触摸交互来更新显示图像200的说明性示例,但是其中用户不触摸前景图形规划元素210,而是将其手指(通常是手的拇指和食指,尽管捏合操作可以更一般地使用任意两位手指来执行,而不一定是同一只手的手指)放置在相应的第一触摸位置处,610-1和610-2,并将手指在触摸屏设备的表面上相对于彼此拖动离开,以到达相应的第二触摸位置,620-1和620-2。图像处理模块130将触摸交互确定为捏合操作,并且相应地按公共缩放因子来调整前景图形规划元素210和背景图像220的大小来更新图像200,如在本示例实施例中,该公共缩放因子可以基于检测位置610-1和610-2的分离和/或检测位置620-1和620-2的分离之间的差。在图6(a)中,前景图形规划元素210和初始显示图像中的背景图像的包围部分由实线界定,而更新图像中的前景图形规划元素210和背景图像的部分由虚线界定。在捏合操作的情况下,显示图像的更新与手指在触摸屏(或其他触敏输入设备)上的初始放置(即在触摸交互开始时)无关,并且仅取决于捏合操作中手指和触敏表面125之间的接触点的相对移动。因此,例如,当手指和触敏表面125之间的接触点的相对移动与图6(a)的示例中的情形相同,但是手指和触敏表面125的初始接触点的位置与图6(a)的示例中的情形不同,那么更新图像将是相同的,如图6(b)和图6(c)所示。换句话说,不管手指与触敏表面125的两个初始接触点在哪里(即,两个初始接触点都在前景图形规划元素210上、两个初始接触点都在背景图像220上、或者一个初始接触点在前景图形规划元素210上,而另一个初始接触点在背景图像220上),图像处理模块130以相同的方式工作,通过更新显示的图像200使得前景图形规划元素210和背景图像220一起缩放,同时前景图形规划元素210相对于背景图像220的位置和取向被保持。如在单触拖动的情况下,图像可以在捏合交互过程中、在捏合交互过程中的预定间隔处、在预定延迟之后、或操作结束之后持续被更新。
现在将描述触摸交互包括双击操作的情况的示例。当触摸交互包括由用户在输入设备120的触敏表面125上执行的双击操作时,图像处理模块130被配置为将对于双击操作的图像处理确定为对前景图形规划元素210和背景图像220两者按公共预定因子进行大小调整。如在本实施例中,图像处理模块130可以被配置为确定关于双击操作的图像处理,使得在图像200中与在触敏表面125上双击的位置相对应的位置处提供的图像200的一部分出现在更新图像中的相同位置处,从而允许图像200(包括背景图像220和前景图形规划元素210二者)被缩放或视觉扩展成使得能够以快速和方便的方式更仔细地检查感兴趣的区域。如图7(a)和图7(b)所示,缩放/扩展与双击是发生在前景图形规划元素210上(如图7(a)所示)还是发生在背景图像220上(该可选项在图7(b)中被示出)无关。因此,不管触敏表面125上的接触点在双击操作中出现在哪里(例如,二者都在前景图形规划元素210上或者二者都在背景图像220上),图像处理模块130都以相同的方式工作,更新显示图像200,使得前景图形规划元素210和背景图像220一起缩放/扩展,并且前景图形规划元素210相对于背景图像220的位置和取向在缩放/扩展之后被保持。
可选地,图像处理模块130可以被配置为将对于双击操作的图像处理确定为包括转移正在被显示的图像200,使得例如在与触敏表面125上双击的位置相对应的位置处提供的图像200的一部分出现在更新图像的中心。如又一可选实施例,图像处理模块130可以被配置为将对于双击操作的图像处理确定为使得在图像200的中心处被提供的图像200的一部分也出现在更新图像的中心处。
在可选实施例中,图像处理模块130可以被配置为将对于使用单个手指执行的双击操作的图像处理确定为包括对正在显示的图像200的转移,使得在与触敏表面125上的双击位置相对应的位置处被提供的图像200的一部分出现在更新图像的中心处,以及被配置为将对于使用多于一个手指执行的双击操作的图像处理确定为使得在图像200中心处被提供的图像200的一部分也出现在更新图像的中心处,从而组合上述功能。
尽管在前述示例中,双击操作被描述为产生显示图像200的放大或扩展,但是可选地,它们可以允许用户缩小当前显示的图像200。在更新图像填充显示设备110的屏幕的这种情况下,双击缩小不会导致双击位置被保持。也就是说,如上所述,在图像200中与触敏表面125上的双击位置相对应的位置处提供的图像200的一部分将不会出现在更新图像中的相同位置处。
应当注意的是,上述至少一些用户交互可以被组合,其中图像处理模块130将图像处理确定为包括一个或更多个上述图像处理的组合。例如,图像处理模块130可以在捏合操作期间跟踪连接第一检测触摸位置和第二检测触摸位置(接触点)的假想线的中点的坐标,并且通过根据中点的移动平移该坐标来更新显示图像,同时根据第一触摸位置和第二触摸位置之间的变化距离缩放图像。当然,这个示例是非限制性的,且也可以提供图像处理的任何其他类型的组合。
当触摸交互事件发生在背景图像220或前景图形规划元素210上时,在确认触摸交互事件不是双击之前,可以不执行关于图像220和/或元素210的动作。如果确认触摸交互不是双击,则可以不执行关于前景图形规划元素210的动作。因此,当例如由于双击触摸交互事件而发生平移或缩放时,扫描图形定位器可以保持前景图形规划元素210在背景图像220上的位置。当任一图像处理事件发生时,前景图形规划元素210的定位距图像200的中心的成比例的距离可以被更新。对于每个定位变化,可以相对于参考定位计算该距离,以在计算是根据相对定位进行时则防止将会发生的任何“漂移”。当在背景图像220上进行初始触摸或双击时,可以设置参考定位,并且在一个示例实施例中,参考定位是触摸或双击被检测到的位置。此外,在本文的一个示例实施例中,如果发生触摸完成(touch up)或触摸离开事件,则可以重置参考定位。
再次参考图1,现在将描述扫描位置指定模块140。扫描位置指定模块140被配置为基于在至少一个更新图像(诸如,例如由包括前景图形规划元素210相对于背景图像220的转移的最近图像处理而产生的更新图像)中前景图形规划元素210在视网膜的背景图像220上的位置来生成指示将在视网膜上执行的OCT扫描的位置的OCT扫描位置数据145,但是该示例不是限制性的。
扫描位置指定模块140可以被配置成以任何合适的方式基于前景图形规划元素210在背景图像220上的位置来生成OCT扫描位置数据145。例如,OCT扫描仪(未示出)可以执行覆盖通常在不同模态的图像中可识别的解剖特征(例如视网膜中央凹)的OCT视网膜扫描,并且生成包括OCT测量值和相对应的扫描参数值的数据,所述扫描参数值指示例如OCT扫描仪的被布置成使OCT采样光束偏转穿过视网膜的表面的第一(例如水平)反射镜和第二(例如垂直)反射镜的角位移。在涉及这种情况的示例实施例中,扫描位置指定模块140可以利用所生成的数据以及所获得的OCT视网膜扫描中的位置与在背景图像220中的相对应的位置之间的映射(这可以通过比较OCT视网膜扫描图像和背景图像220中的视网膜中央凹或任何其他可识别解剖特征的位置来确定),以计算与前景图形规划元素210在背景图像220上的位置相对应的扫描参数值。
前景图形规划元素210在背景图像220上的位置可以以任何合适的方式定义。例如,在前景图形规划元素210采取矩形形式的情况下,如图2所示,前景图形规划元素210的位置可以被视为背景图像220上矩形的几何中心(质心)的位置。在前景图形规划元素210是线段的情况下,例如,由OCT扫描位置数据145指示的OCT扫描的位置可以基于线段的中点或任一端。
如在本实施例中,扫描位置指定模块140可以被配置为生成OCT扫描位置数据145,该OCT扫描位置数据145不仅指示将由OCT扫描仪执行的OCT扫描的位置,还指示该OCT扫描的大小,该大小基于在至少一个更新图像中前景图形规划元素210的至少一个维度。例如,在前景图形规划元素210是用于指定将由OCT扫描仪(未示出)执行的B-扫描的位置的线段(其长度可以由用户可调整)的情况下,扫描位置指定模块140可以基于用户选择或以其他方式设置的线段的长度,除了指示上述OCT扫描的位置的数据之外,还可以在生成的扫描位置数据中包括指示OCT扫描的长度的数据。矩形前景图形规划元素210的宽度和/或高度同样可以由用户可调整,以允许扫描位置指定模块140根据用户的要求来设置矩形OCT扫描区域的宽度和/或高度。扫描位置指定模块140可以被配置为基于更新图像中前景图形规划元素210的位置(在背景图像220上)和大小来生成OCT扫描位置数据145,该OCT扫描位置数据145指示将要在视网膜上执行的OCT扫描的位置和大小,该更新图像是由包括对前景图形规划元素210相对于背景图像220的转移的最近图像处理和包括对前景图形规划元素210的大小调整的最近处理产生的。
OCT扫描位置数据145可被提供给OCT扫描仪,并被用于控制OCT扫描仪在由OCT扫描位置数据145指示的在视网膜上的位置上执行OCT扫描。
为了这样做,OCT扫描仪可以被配置成将OCT扫描位置数据145指示的在视网膜上的位置变换成一组相对应的一个或更多个控制参数,以用于操控OCT扫描仪在与由OCT扫描位置数据145指示的视网膜上的基本相同的位置处执行其扫描。这可以通过多种不同的方式之一来实现。
例如,OCT扫描仪可以使用在视网膜上的位置和控制参数的相对应的值之间的映射,该映射可以例如以查找表或由一组参数定义的函数的形式来提供。可以使用本领域技术人员已知的技术通过校准来确定映射。
装置100因此可以允许用户容易且方便地探查视网膜的一部分的图像200的所有区域,根据需要改变图像200上的缩放水平和/或平移,并且在该探查期间在需要的地方移动前景图形规划元素210,以便为OCT扫描指定感兴趣的区域。因此,装置100可以允许在背景图像220上的任何地方规划OCT扫描,而不仅仅是如在传统方法中在静态背景图像中所示的放大的感兴趣区域中。
即使在装置100的用户知道OCT扫描的大致预期位置的情况下(例如,在患者的视网膜之前已经经历OCT扫描的情况下),装置100的特征允许用户容易且方便地探查OCT扫描的大致预期位置周围的区域,以确定是否存在其他感兴趣的特征。
[第二实施例]
图8示出了本发明的第二示例实施例,其以用于指定将在眼睛的视网膜上执行OCT扫描的位置的计算机程序800的形式被提供。计算机程序800包括显示控制软件模块810、图像处理软件模块820和扫描位置指定软件模块830。计算机程序800包括可由可编程信号处理硬件执行的计算机可读指令,图9示出了其示例。计算机可读指令可以由计算机处理器执行,诸如,例如由图9的处理器920执行,以使处理器920能够执行本文描述的任何方法。
图9所示的可编程信号处理硬件900的示例包括通信接口(I/F)910,以用于(例如,从设备120)接收上述触摸交互数据127,并输出显示控制信号,以用于控制显示设备110显示图像200及其更新版本,也如上所述。信号处理装置900还包括处理器(例如,中央处理单元CPU或图形处理单元GPU)920、工作存储器930(例如随机存取存储器)和存储计算机可读指令的指令储存装置940,计算机可读指令当由处理器920执行时使处理器920执行包括上文描述的图像处理模块130和扫描位置指定模块140中的那些功能的各种功能以及本文所述的任何方法。指令储存装置940可以储存程序800并且可以包括预加载有计算机可读指令的ROM(例如,电可擦除可编程只读存储器(EEPROM)或闪存的形式)。可选地,指令储存装置940可以包括RAM或类似类型的存储器,并且计算机程序800的计算机可读指令可以从计算机程序储存装置(例如CD-ROM、DVD-ROM等形式的非暂时性计算机可读存储介质950)或者从携带计算机可读指令的计算机可读信号960对其输入或以其他方式被接收。
在本实施例中,包括处理器920、工作存储器930和指令储存装置940的在图9中所示的硬件部件的组合970被配置为执行上述图像处理模块130和扫描位置指定模块140的功能,并且被配置为与显示设备110和触敏输入设备120交换信息(包括触摸交互数据和显示控制信号)。然而,应当注意的是,图像处理模块130和扫描位置指定模块140可以可选地在不可编程硬件(例如专用集成电路(ASIC))中被实现。
因此,将认识到,图8所示的显示控制软件模块810当由图9所示的处理器920执行时,使得处理器920基于定义背景图像220和前景图形规划元素210的图像数据来生成用于控制显示设备110显示由图像数据定义的图像200的显示控制信号。
图像处理软件模块820当由处理器920执行时,使得处理器920接收相应的触摸交互数据127,该触摸交互数据127指示对于用户与触敏表面125的多个触摸交互中的每一个触摸交互在触敏输入设备120的触敏表面125上的检测位置的至少一个序列,并且基于触摸交互数据127中的每一个触摸交互数据来确定将对定义由显示设备110显示的图像200的图像数据执行的相应图像处理(如上所述,每个图像处理包括例如以下中的至少一个:按公共因子调整前景图形规划元素210和背景图像220二者的大小;前景图形规划元素210相对于背景图像220的转移;和被显示的图像200的平移)。图像处理软件模块820当由处理器920执行时,还使得处理器920响应于触摸交互中的每一个,将所确定的图像处理应用于定义由显示设备110显示的图像200的图像数据,以便生成定义要在显示设备110上显示的更新图像的相应更新图像数据,并且使得显示控制软件模块810基于响应于触摸交互中的每一个而生成的更新图像数据生成用于控制显示设备110显示由更新图像数据定义的更新图像的相应显示控制信号。
扫描位置指定软件模块830当由处理器920执行时,使得处理器920基于更新图像的至少一个中的视网膜的背景图像220上的前景图形规划元素210的位置来生成指示将要在视网膜上执行的OCT扫描的位置的OCT扫描位置数据145。
类似于上述第一实施例,其中多个触摸交互包括如上所述的由用户在输入设备120的触敏表面125上执行的单触拖动操作,图像处理软件模块820当由处理器920执行时可以利用映射将触敏表面125上的触摸交互的检测位置转换成在触摸交互期间显示在显示设备110上的背景图像220上的相对应的点。类似于第一实施例,在背景图像220上对应于第一检测位置的位置在距前景图形规划元素210的预定距离内时,图像处理软件模块820使处理器920将对于单触拖动的图像处理确定为包括前景图形规划元素210相对于背景图像220的转移,其中该转移的量基于第一检测位置和第二检测位置之间的距离且该转移在基于第二检测位置相对于第一检测位置的方向的方向上。应当注意的是,预定距离也可以为零,在这种情况下,要求第一检测位置在前景图形规划元素210的外部边界上或在前景图形规划元素210的内部。因此,当用户触摸前景图形规划元素210并在触敏表面125上移动其手指(或触笔,视情况而定)时,图像处理软件模块820将图像处理确定为对前景图形规划元素的单触拖动,并且相应地将对于单触拖动的图像处理确定为包括前景图形规划元素210相对于背景图像220的移动,其中该移动的位移量基于第一检测位置和第二检测位置之间的距离且该移动在基于第二检测位置相对于第一检测位置的方向的方向上。
例如,图像处理软件模块820可以被配置为将对于单触拖动的图像处理确定为包括前景图形规划元素210相对于背景图像220的转移,该转移的量随第一检测位置和第二检测位置之间的距离线性或非线性地缩放且该转移在显示设备110上的方向与在触敏输入设备120的触敏表面125上第二检测位置相对于第一检测位置的方向相同。图像处理软件模块820可以使处理器920允许用户关于前景图形规划元素210的单触拖动调整转移量与第一检测位置和第二检测位置之间的距离之间的线性或非线性缩放,从而有效地调整触敏输入设备120的对于前景图形规划元素210的单触拖动的灵敏度。
另一方面,如上所述,在背景图像220上对应于第一检测位置的位置不在距前景图形规划元素210的预定距离内的单触拖动的情况下,图像处理软件模块820当由处理器920执行时,使得处理器920将对于单触拖动的图像处理确定为包括被显示的图像200的平移(换句话说,对背景图像220和前景图形规划元素210二者的共同转移,这保持了前景图形规划元素210相对于背景图像220的位置),其中该平移的量基于第一检测位置和第二检测位置之间的距离并且该平移在基于第二检测位置相对于第一检测位置的方向的方向上。因此,当用户在其中对应于背景图像220中离前景图形规划元素210足够远(例如,不在预定距离内)的位置(或者不在前景图形规划元素210上)处触摸触敏表面125并且在触敏表面125上移动其手指(或者触笔,视情况而定)时,图像处理软件模块820使处理器920将图像处理确定为对图像200的平移,并相应地确定背景图像220和前景图形规划元素210二者都将被移动基于第一检测位置和第二检测位置之间的距离的位移量以及该移动在基于从第一检测位置延伸到第二检测位置的方向上。例如,图像处理软件模块820可以使处理器920将对于平移操作的图像处理确定为包括前景图形规划元素210和背景图像220二者的转移,其中该转移的量随第一检测位置和第二检测位置之间的距离线性或非线性地缩放且该转移在显示设备110上的方向与在触敏输入设备120的触敏表面125上第二检测位置相对于第一检测位置的方向相同。图像处理软件模块820可以使处理器920允许用户调整对于平移操作的转移量与第一检测位置和第二检测位置之间的距离之间的线性或非线性缩放,从而有效地调整触敏输入设备120的对平移操作的灵敏度。
如上所述,在多个触摸交互包括用户在输入设备120的触敏表面125上执行的捏合操作的情况下,触敏输入设备120生成指示检测位置的第一序列和检测位置的第二序列的触摸交互数据127。在这种情况下,图像处理软件模块820使处理器920将对于捏合的图像处理确定为包括按公共缩放因子来调整前景图形规划元素210和背景图像220二者的大小,该公共缩放因子基于(i)在检测位置的第一序列和第二序列中的第一检测位置之间的距离和(ii)在检测位置的第一序列和第二序列中的最终检测位置之间的距离之间的差;换句话说,在捏合操作开始时在触敏表面125上检测到的第一位置和第二位置的分离与在捏合操作结束时在触敏表面125上检测到的第一位置和第二位置的分离之间的差。
在多个触摸交互包括由用户在输入设备120的触敏表面125上执行的双击操作的情况下,图像处理软件模块820使得处理器920将对于双击操作的图像处理确定为对前景图形规划元素210和背景图像220二者按公共预定因子来调整大小(例如根据因子2的放大)。如在本实施例中,图像处理软件模块820可以使得处理器920将对于双击操作的图像处理确定为使得在图像200中与触敏表面125上的双击的位置相对应的位置处提供的图像200的一部分出现在更新图像中的相同位置处,允许图像200(包括背景图像220和前景图形规划元素210二者)被缩放或视觉扩展,以便以快速和方便的方式更仔细地检查感兴趣的区域。
可选地,图像处理软件模块820可以使处理器920将对于双击操作的图像处理确定为包括被显示的图像200的转移,使得在与触敏表面125上双击的位置相对应的位置处提供的图像200的一部分出现在更新图像的中心处。如又一可选实施例,图像处理软件模块820可以使处理器920将对于双击操作的图像处理确定为使得在图像200中心处提供的图像200的一部分也出现在更新图像的中心处。
在可选实施例中,图像处理软件模块820可以使处理器920将对于使用单个手指执行的双击操作的图像处理确定为包括被显示的图像200的转移,使得在与触敏表面125上的双击的位置相对应的位置处提供的图像200的一部分出现在更新图像的中心处,并且将对于使用多于一个手指执行的双击操作的图像处理确定为使得在图像200中心处提供的图像200的一部分也出现在更新图像的中心处,从而组合上述功能。
尽管前面描述了双击操作以产生显示图像200的放大(视觉扩展),但是它们也可以可选地使用户能够缩小当前显示的图像200。在这种情况下,更新图像填充显示设备110的屏幕,如上所述,要缩小的双击不会导致双击位置被保持。
扫描位置指定软件模块830使得处理器920基于在至少一个更新图像(诸如,例如由包括前景图形规划元素210相对于背景图像220的转移的最近图像处理产生的更新图像)中视网膜的背景图像220上的前景图形规划元素210的位置来生成指示将要在视网膜上执行的OCT扫描的位置的OCT扫描位置数据145。
扫描位置指定软件模块830可以使处理器920以任何合适的方式基于前景图形规划元素210在背景图像220上的位置生成OCT扫描位置数据145。例如,OCT扫描仪可以执行覆盖通常在不同模态的图像中可识别的解剖特征(例如视网膜中央凹)的OCT扫描,并且生成包括OCT测量值和相对应的扫描参数值的数据,所述扫描参数值指示例如OCT扫描仪的第一(例如水平)反射镜和第二(例如垂直)反射镜的角位移,所述第一(例如水平)反射镜和第二(例如垂直)反射镜被布置成使OCT采样光束偏转穿过视网膜表面;在这种情况下,扫描位置指定软件模块830可以使处理器920利用所生成的数据和OCT视网膜扫描中的位置与背景图像220中的相对应的位置之间的映射(这可以通过比较OCT视网膜扫描图像和背景图像220中的视网膜中央凹或任何其他可识别解剖特征的位置来确定)来计算与背景图像220上前景图形规划元素210的位置相对应的扫描参数值。
前景图形规划元素210在背景图像220上的位置可以以任何合适的方式定义,如以上参考第一实施例所述。
如在本实施例中,扫描位置指定软件模块830可以使得处理器520生成OCT扫描位置数据145,该OCT扫描位置数据145不仅指示由OCT扫描仪(未示出)执行的OCT扫描的位置,还指示该OCT扫描的大小,该大小基于至少一个更新图像中前景图形规划元素210的至少一个维度。例如,在前景图形规划元素210是用于指定将由OCT扫描仪执行的B-扫描的位置的线段(其长度是用户可调整的)的情况下,扫描位置指定软件模块830可以基于用户选择或以其他方式设置的线段的长度,除了指示上述OCT扫描的位置的数据之外,还可以在生成的扫描位置数据中包括指示OCT扫描的长度的数据。矩形前景图形规划元素210的宽度和/或高度同样是用户可调整的,以允许扫描位置指定软件模块830根据用户的要求来设置矩形OCT扫描区域的宽度和/或高度。扫描位置指定软件模块830可以使处理器920基于更新图像中前景图形规划元素210的位置(在背景图像220上)和大小生成OCT扫描位置数据145,该OCT扫描位置数据145指示将要在视网膜上执行的OCT扫描的位置和大小,该更新图像是由包括对前景图形规划元素210相对于背景图像220的转移的最近图像处理和包括对前景图形规划元素210的大小调整的最近处理产生的。
由第一实施例中的图像处理模块130和扫描位置指定模块140执行的操作及其变型的其他细节可适用于图像处理软件模块820和扫描位置指定软件模块830的操作,并且在此不再重复。
从前面将认识到,显示控制软件模块810、图像处理软件模块820和扫描位置指定模块830可以执行如图10所示的方法。图10是示出过程1000的流程图,通过该过程1000,图8的计算机程序800指定要在眼睛的视网膜上执行的光学相干断层OCT扫描的位置。
在图10的过程S10中,显示控制软件模块810由处理器920执行,并使处理器920生成用于控制显示设备110显示由图像数据定义的图像200的显示控制信号。显示控制信号的生成基于定义视网膜的一部分的背景图像220和用于指定要执行的OCT扫描在视网膜上的位置的前景图形规划元素210的图像数据。
在过程S20中,图像处理软件模块820由处理器920执行,并且使得处理器920接收相应的触摸交互数据127,该触摸交互数据127指示对于用户与触敏表面125的多个触摸交互中的每一个触摸交互在触敏输入设备120的触敏表面125上的检测位置的至少一个序列。
在过程S30中,图像处理软件模块820由处理器920执行并且使得处理器920基于每个触摸交互数据127来确定要对定义由显示设备110显示的图像200的图像数据执行的相应图像处理,每个图像处理包括以下中的至少一个:按公共因子调整前景图形规划元素210和背景图像220二者的大小;前景图形规划元素210相对于背景图像220的转移;和被显示的图像200的平移。
在过程S40中,图像处理软件模块820由处理器920执行,并且使得处理器920响应于每个触摸交互将所确定的图像处理应用于定义由显示设备110显示的图像200的图像数据,以便生成定义要在显示设备110上显示的更新图像的相应更新图像数据。
在过程S50中,图像处理软件模块820由处理器920执行,并且使得处理器920使显示控制软件模块810基于响应于触摸交互中每一个而生成的更新图像数据来生成用于控制显示设备110显示由更新图像数据定义的更新图像的相应显示控制信号。
在过程S60中,扫描位置指定软件模块830由处理器920执行,并且使得处理器920基于至少一个更新图像中视网膜的背景图像220上的前景图形规划元素210的位置生成指示将要在视网膜上执行的OCT扫描的位置的OCT扫描位置数据145。
如上所述,由第二实施例的计算机程序800执行的操作及其变型的其他细节可适用于图10的过程1000,并且在此不再重复。
将认识到,上述实施例提供的功能超出了图像的简单平移和缩放,允许前景图形规划元素在背景图像上的坐标、大小和定位被保持,并且用户无需任何额外步骤就可以无缝地与前景图形规划元素或者前景图形规划元素和背景图像的组合进行交互。
在前述描述中,参考几个示例实施例描述了示例方面。因此,说明书应被视为说明性的而不是限制性的。类似地,在附图中示出的突出示例实施例的功能和优点的附图仅仅是为了示例目的而被呈现的。示例实施例的体系结构是足够灵活的和可配置的,使得它可以以除了在附图中所示的方式以外的方式被利用(和导航)。
在一个示例实施例中,在本文呈现的示例的软件实施例可以被提供为计算机程序或软件,例如具有被包括或存储在制品(例如机器可访问或机器可读介质、指令储存装置或计算机可读存储设备,其中每一个制品都可以是非暂时性的)中的指令或指令序列的一个或更多个程序。在非暂时性机器可访问介质、机器可读介质、指令储存装置或计算机可读存储设备上的程序或指令可用于对计算机系统或其他电子设备编程。机器或计算机可读介质、指令储存装置和存储设备可以包括但不限于软盘、光盘和磁光盘或适合于存储或传输电子指令的其他类型的介质/机器可读介质/指令储存装置/存储设备。本文描述的技术不限于任何特定的软件配置。它们可能在任何计算或处理环境中得到应用。本文使用的术语“计算机可读”、“机器可访问介质”、“机器可读介质”、“指令储存装置”和“计算机可读存储设备”应当包括能够存储、编码或传输指令或指令序列以由机器、计算机或计算机处理器执行并且使机器/计算机/计算机处理器执行本文描述的方法中的任一个的任何介质。此外,在本领域中将以一种或另一种形式(例如,程序(program)、程序(procedure)、过程、应用、模块、单元、逻辑等)的软件谈到为采取动作或引起结果是常见的。这种表达仅仅是陈述由处理系统执行软件使处理器执行动作以产生结果的简略方式。
一些实施例也可以通过准备专用集成电路、现场可编程门阵列或者通过使常规部件电路的适当网络互连来实现。
一些实施例包括计算机程序产品。计算机程序产品可以是在其上或其中存储有可用于控制或促使计算机或计算机处理器执行本文所述的示例实施例的任何过程的指令的一种或更多种存储介质、指令储存装置或存储设备。存储介质/指令储存装置/存储设备可以作为示例且非限制性地包括光盘、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、闪存、闪存卡、磁卡、光卡、纳米系统、分子存储器集成电路、RAID、远程数据存储/存档/仓储装置、和/或适合于存储指令和/或数据的任何其他类型的设备。
存储在一种或更多种计算机可读介质、指令储存装置或存储设备中的任一个上的一些实现方式包括用于控制系统的硬件和用于使系统或微处理器能够利用本文描述的示例实施例的结果与人类用户或其他机构交互的软件。这种软件可以非限制性地包括设备驱动器、操作系统和用户应用。最终,如上所述,这种计算机可读介质或存储设备还包括用于执行本发明的示例方面的软件。
在系统的编程和/或软件中包括用于实现本文描述的过程的软件模块。在本文的一些示例实施例中,模块包括软件,但是在本文的其他示例实施例中,模块包括硬件或硬件和软件的组合。
虽然上面描述了本发明的各种示例实施例,但是应当理解,它们作为示例而不是限制被呈现。对在相关领域中的技术人员将明显的是,可以在形式和细节上做出各种改变。因此,本发明不应受上述示例实施例中的任一个的限制,而应仅根据随附的权利要求及其等同物来被定义。
此外,摘要的目的是使通常专利局和公众、以及尤其是不熟悉专利或法律术语或措辞的本领域中的科学家、工程师和从业人员能够根据粗略的检查快速确定本申请的技术公开的性质和本质。摘要并不意欲在任何方面关于在本文呈现的示例实施例的范围进行限制。还应该理解的是,在权利要求中叙述的过程不需要以所呈现的顺序来执行。
虽然本说明书包含很多具体实施例细节,但这些实施例细节不应该理解为是对本发明的范围或可能要求保护的内容的限制,而应该理解为是对特定于本文描述的具体实施例的特征的描述。本说明书中在单独的实施例的背景下所描述的某些特征也可在单个实施例中被结合实现。相反地,也可以在多个实施例中单独地或以任何合适的子组合实现在单个实施例的背景下描述的各种特征。此外,尽管特征在上文中可被描述为作用在特定组合中并甚至起初如此要求保护,但是来自所要求保护的组合的一个或更多个特征可在一些情况下从组合中删除,且所要求保护的组合可针对子组合或子组合的变体。
在某些情况下,多任务处理和并行处理可能是有利的。此外,上述实施例中各种部件的分离不应理解为在所有实施例中都需要这种分离,并且应理解,所描述的程序部件和系统通常可以集成在单个软件产品中或者封装到多个软件产品中。
现在已经描述了一些说明性的实施例和实施例,明显的是前面是说明性的而不是限制性的,是通过示例的方式被给出的。具体而言,尽管本文呈现的许多示例涉及装置或软件元素的特定组合,但是这些元素可以以其他方式组合以实现相同的目标。特别是,仅结合一个实施例讨论的动作、元件和特征并不意欲从在其它实施例或实施例中的类似角色中被排除。
在不脱离本文的特征的情况下,本文描述的装置和计算机程序可以以其他特定形式被实施。前述实施例是说明性的,而不是对所描述的系统和方法的限制。因此,本文描述的装置和计算机程序的范围由所附权利要求而不是前述描述指示,并且因此落入权利要求的等价物的意义和范围内的所有变化都被包括在其中。
Claims (20)
1.一种用于指定要在眼睛的视网膜上执行的光学相干断层OCT扫描的位置的计算机程序(800),所述计算机程序包括:
显示控制软件模块(810),当所述显示控制软件模块(810)由处理器(920)执行时,使所述处理器(920)生成用于控制显示设备(110)显示由图像数据定义的图像(200)的显示控制信号,其中,所述显示控制信号的生成基于定义所述视网膜的一部分的背景图像(220)和用于指定在视网膜上要被执行的所述OCT扫描的位置的前景图形规划元素(210)的图像数据;
图像处理软件模块(820),当所述图像处理软件模块(820)由所述处理器(920)执行时,使得所述处理器(920):
接收指示针对用户与触敏输入设备(120)的触敏表面(125)的多个触摸交互中的每一个触摸交互的在所述触敏表面(125)上的检测位置的至少一个序列的相应触摸交互数据(127);
基于所述触摸交互数据(127)中的每一个触摸交互数据,确定要对定义由所述显示设备(110)显示的图像(200)的所述图像数据执行的相应图像处理,每个图像处理包括以下中的至少一个:
按公共因子调整所述前景图形规划元素(210)和所述背景图像(220)的大小;
所述前景图形规划元素(210)相对于所述背景图像(220)的转移;和
正在显示的图像(200)的平移;
响应于所述触摸交互中的每一个触摸交互,将所确定的图像处理应用于定义由所述显示设备(110)显示的所述图像(200)的所述图像数据,以便生成定义将在所述显示设备(110)上显示的更新图像的相应更新图像数据;
使所述显示控制软件模块(810)基于响应于所述触摸交互中的每一个触摸交互而生成的所述更新图像数据来生成用于控制所述显示设备(110)显示由所述更新图像数据定义的更新图像的相应显示控制信号;和
扫描位置指定软件模块(830),当所述扫描位置指定软件模块(830)由所述处理器(920)执行时,使得所述处理器(920)基于在所述更新图像的至少一个更新图像中所述视网膜的背景图像(220)上的所述前景图形规划元素(210)的位置生成指示将要在所述视网膜上执行的所述OCT扫描的位置的OCT扫描位置数据(145)。
2.根据权利要求1所述的计算机程序(800),其中:
所述多个触摸交互包括由所述用户在所述触敏输入设备(120)的所述触敏表面(125)上执行的单触拖动操作;
对于所述单触拖动的所述检测位置的至少一个序列包括对应于所述单触拖动的开始的第一检测位置和对应于所述单触拖动的结束的第二检测位置;
在所述多个触摸交互中的触摸交互是所述单触拖动并且在所述背景图像(220)上对应于在所述触敏表面(125)上的所述第一检测位置的位置在距所述前景图形规划元素(210)的预定距离内的情况下,所述图像处理软件模块(820)当由所述处理器(920)执行时,使所述处理器(920)将对于所述单触拖动的图像处理确定为包括所述前景图形规划元素(210)相对于所述背景图像(220)在基于所述第二检测位置相对于所述第一检测位置的方向的方向上转移基于在所述第一检测位置和所述第二检测位置之间的距离的量;和
在所述多个触摸交互中的触摸交互是所述单触拖动并且在所述背景图像(220)上对应于所述触敏表面(125)上的所述第一检测位置的位置不在距所述前景图形规划元素(210)的预定距离内的情况下,所述图像处理软件模块(820)当由所述处理器(920)执行时,使得所述处理器(920)将对于所述单触拖动的所述图像处理确定为包括将被显示的图像(200)在基于所述第二检测位置相对于所述第一检测位置的方向的方向上平移基于在所述第一检测位置和第二检测位置之间的距离的量。
3.根据权利要求1或权利要求2所述的计算机程序(800),其中:
所述多个触摸交互包括由所述用户在所述触敏输入设备(120)的触敏表面(125)上执行的捏合操作;
对于所述捏合操作的所述检测位置的至少一个序列包括检测位置的第一序列和检测位置的第二序列;和
在所述多个触摸交互中的触摸交互是所述捏合操作的情况下,所述图像处理软件模块(820)当由所述处理器(920)执行时,使得所述处理器(920)将对于所述捏合操作的所述图像处理确定为包括按公共因子调整所述前景图形规划元素(210)和所述背景图像(220)二者的大小,所述公共因子基于所述检测位置的第一序列和所述检测位置的第二序列中的所述第一检测位置之间的距离与所述检测位置的第一序列和所述检测位置的第二序列中的最终检测位置之间的距离之间的差。
4.根据任一前述权利要求所述的计算机程序(800),其中:
所述多个触摸交互包括由所述用户在所述触敏输入设备(120)的所述触敏表面(125)上执行的双击操作;和
在所述多个触摸交互中的触摸交互是所述双击操作的情况下,所述图像处理软件模块(820)当由所述处理器(920)执行时,使得所述处理器(920)将对于所述双击操作的所述图像处理确定为包括按公共预定因子调整所述前景图形规划元素(210)和所述背景图像(220)的大小。
5.根据权利要求4所述的计算机程序,其中,在所述多个触摸交互中的触摸交互是所述双击操作的情况下,所述图像处理软件模块(820)当由所述处理器(920)执行时,还使得所述处理器(920)将对于所述双击操作的图像处理确定为使得:
在被显示的所述图像(200)中所述双击的位置处的所述图像的一部分出现在所述更新图像中的相同位置处;
在被显示的所述图像(200)中所述双击的位置处的所述图像的一部分出现在所述更新图像的中心处;或者
在所述显示设备(110)中心处被提供的所述图像(200)的一部分出现在所述更新图像的中心处。
6.根据任一前述权利要求所述的计算机程序(800),其中,所述前景图形规划元素(210)包括点、线段、矩形和椭圆之一。
7.根据任一前述权利要求所述的计算机程序(800),其中,所述扫描位置指定软件模块(830)当由所述处理器(920)执行时,还使得所述处理器(920)基于在所述更新图像中的至少一个更新图像中的所述前景图形规划元素(210)的至少一个维度来生成作为所述OCT扫描位置数据(145)的一部分的定义要在所述视网膜上执行的所述OCT扫描的大小的数据。
8.一种存储任一前述权利要求所述的计算机程序(800)的非暂时性计算机可读存储介质(950)。
9.一种携带根据权利要求1至7中任一项所述的计算机程序(800)的信号(960)。
10.一种用于指定要在眼睛的视网膜上执行的光学相干断层扫描OCT的位置的装置(100),所述装置包括:
显示设备(110),所述显示设备被配置为显示包括所述视网膜的一部分的背景图像(220)和用于指定在所述视网膜上要被执行的所述OCT扫描的位置的前景图形规划元素(210)的图像(202);
触敏输入设备(120),所述触敏输入设备(120)具有触敏表面(125)并且被配置为生成指示对于用户与所述触敏表面(125)的多个触摸交互中的每一个触摸交互的检测位置的至少一个序列的相应触摸交互数据(127);
图像处理模块(130),所述图像处理模块被配置为:
基于所述触摸交互数据(127)中的每一个触摸交互数据,确定要对由所述显示设备(110)显示的所述图像(200)执行的相应图像处理,每个图像处理包括以下中的至少一个:
按公共因子调整所述前景图形规划元素(210)和所述背景图像(220)的大小;
所述前景图形规划元素(210)相对于所述背景图像(220)的转移;和
被显示的所述图像(200)的平移;和
响应于所述触摸交互中的每一个触摸交互,将所确定的图像处理应用于在所述显示设备(110)上显示的所述图像(200),以便生成在所述显示设备(110)上显示的相应更新图像;和
扫描位置指定模块(140),所述扫描位置指定模块(140)被配置为基于在所述更新图像的至少一个更新图像中所述视网膜的背景图像(220)上的前景图形规划元素(210)的位置生成指示将要在所述视网膜上执行的所述OCT扫描的位置的OCT扫描位置数据(145)。
11.根据权利要求10所述的装置(100),其中:
所述多个触摸交互包括由所述用户在所述输入设备(120)的触敏表面(125)上执行的单触拖动操作;
对于所述单触拖动的所述检测位置的至少一个序列包括对应于所述单触拖动的开始的第一检测位置和对应于所述单触拖动的结束的第二检测位置;
在所述多个触摸交互的触摸交互是所述单触拖动并且在所述背景图像(220)上对应于在所述触敏表面(125)上的所述第一检测位置的位置在距所述前景图形规划元素(210)的预定距离内的情况下,所述图像处理模块(130)被配置为将对于所述单触拖动的图像处理确定为包括所述前景图形规划元素(210)相对于所述背景图像(220)在基于所述第二检测位置相对于所述第一检测位置的方向的方向上转移基于在所述第一检测位置和所述第二检测位置之间的距离的量;和
在所述多个触摸交互中的触摸交互是所述单触拖动并且在所述背景图像(220)上对应于在所述触敏表面(125)上的所述第一检测位置的位置不在距所述前景图形规划元素(210)的所述预定距离内的情况下,所述图像处理模块(130)被配置为将对于所述单触拖动的图像处理确定为包括将被显示的所述图像(200)在基于所述第二检测位置相对于所述第一检测位置的方向上平移基于在所述第一检测位置和第二检测位置之间的距离的量。
12.根据权利要求10或权利要求11所述的装置(100),其中:
所述多个触摸交互包括由所述用户在所述输入设备(120)的触敏表面(125)上执行的捏合操作;
对于所述捏合操作的所述检测位置的至少一个序列包括检测位置的第一序列和检测位置的第二序列;和
在所述多个触摸交互中的触摸交互是所述捏合操作的情况下,所述图像处理模块(130)被配置为将对于所述捏合操作的所述图像处理确定为包括按公共因子来调整所述前景图形规划元素(210)和所述背景图像(220)的大小,所述公共因子基于所述检测位置的第一序列和所述检测位置的第二序列中的所述第一检测位置之间的距离与所述检测位置的第一序列和所述检测位置的第二序列中的最终检测位置之间的距离之差。
13.根据权利要求10至12中任一项所述的装置(100),其中:
所述多个触摸交互包括由所述用户在所述输入设备(120)的所述触敏表面(125)上执行的双击操作;和
在所述多个触摸交互中的触摸交互是双击操作的情况下,所述图像处理模块(130)被配置为将对于所述双击操作的所述图像处理确定为包括按公共预定因子调整所述前景图形规划元素(210)和所述背景图像(220)的大小。
14.根据权利要求13所述的装置(100),其中,在所述多个触摸交互中的触摸交互是所述双击操作的情况下,所述图像处理模块(130)还被配置为将对于所述双击操作的所述图像处理确定为使得在被显示的所述图像中双击的位置处的所述图像(200)的一部分出现在所述更新图像中的相同位置处。
15.根据权利要求13所述的装置(100),其中,在所述多个触摸交互中的触摸交互是所述双击操作的情况下,所述图像处理模块(130)还被配置为将对于所述双击操作的所述图像处理确定为包括对被显示的图像(200)的转移,使得在被显示的图像中双击的位置处的图像(200)的一部分出现在所述更新图像的中心处。
16.根据权利要求13所述的装置,其中,在所述多个触摸交互中的触摸交互是所述双击操作的情况下,所述图像处理模块(130)还被配置为将对于所述双击操作的所述图像处理确定为包括对被显示的图像(200)的转移,使得在所述显示设备(110)的中心处提供的所述图像(200)的一部分出现在所述更新图像的中心处。
17.根据权利要求10至16中的任一项所述的装置,其中,所述前景图形规划元素(210)包括点、线段、矩形或椭圆之一。
18.根据权利要求10至17中的任一项所述的装置,其中,所述显示设备(110)和所述触敏输入设备(120)被包括在触摸屏中。
19.根据权利要求10至17中任一项所述的装置(100),其中,所述输入设备(120)是轨迹板。
20.根据权利要求10至19中的任一项所述的装置(100),其中,所述扫描位置指定模块(140)还被配置为基于在所述更新图像中的至少一个更新图像中的所述前景图形规划元素(210)的至少一个维度,生成作为所述OCT扫描位置数据(145)的一部分的定义要在所述视网膜上执行的所述OCT扫描的大小的数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18214686.0 | 2018-12-20 | ||
EP18214686.0A EP3669749B1 (en) | 2018-12-20 | 2018-12-20 | Optical coherence tomography scan control |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111352564A true CN111352564A (zh) | 2020-06-30 |
Family
ID=65003129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911303634.3A Pending CN111352564A (zh) | 2018-12-20 | 2019-12-17 | 光学相干断层扫描控制 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11857256B2 (zh) |
EP (1) | EP3669749B1 (zh) |
JP (1) | JP7020636B2 (zh) |
CN (1) | CN111352564A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7413197B2 (ja) * | 2020-08-07 | 2024-01-15 | 株式会社三共 | 遊技機 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012071429A1 (en) * | 2010-11-26 | 2012-05-31 | Hologic, Inc. | User interface for medical image review workstation |
US20130036382A1 (en) * | 2011-08-03 | 2013-02-07 | Ebay Inc. | Control of search results with multipoint pinch gestures |
CN103654720A (zh) * | 2012-08-30 | 2014-03-26 | 佳能株式会社 | 光学相干断层图像摄像设备和系统、交互控制设备和方法 |
US20140118268A1 (en) * | 2012-11-01 | 2014-05-01 | Google Inc. | Touch screen operation using additional inputs |
US20140211162A1 (en) * | 2013-01-31 | 2014-07-31 | Canon Kabushiki Kaisha | Ophthalmologic apparatus and method for controlling the same |
DE102013105770A1 (de) * | 2013-06-05 | 2014-12-11 | Carl Zeiss Meditec Ag | Fundus-Abbildungssystem für ein Operationsmikroskop sowie Operationsmikroskop |
CN104995593A (zh) * | 2012-12-12 | 2015-10-21 | 英国电讯有限公司 | 用于处理列表的触摸屏设备 |
JP2016101298A (ja) * | 2014-11-28 | 2016-06-02 | 株式会社トプコン | 眼科撮影装置 |
US20170079521A1 (en) * | 2015-09-18 | 2017-03-23 | Novartis Ag | Vitreoretinal membrane characterization using optical coherence tomography |
US20170100030A1 (en) * | 2014-06-03 | 2017-04-13 | Socialeyes Corporation | Systems and methods for retinopathy workflow, evaluation and grading using mobile devices |
CN107077267A (zh) * | 2014-09-25 | 2017-08-18 | 视乐有限公司 | 装备有触摸屏的设备和用于控制此类设备的方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8223143B2 (en) * | 2006-10-27 | 2012-07-17 | Carl Zeiss Meditec, Inc. | User interface for efficiently displaying relevant OCT imaging data |
US8081808B2 (en) * | 2007-11-08 | 2011-12-20 | Topcon Medical Systems, Inc. | Retinal thickness measurement by combined fundus image and three-dimensional optical coherence tomography |
US8677282B2 (en) | 2009-05-13 | 2014-03-18 | International Business Machines Corporation | Multi-finger touch adaptations for medical imaging systems |
JP5473429B2 (ja) * | 2009-06-25 | 2014-04-16 | キヤノン株式会社 | 眼底撮像装置及びその制御方法 |
JP2011064978A (ja) | 2009-09-17 | 2011-03-31 | Toshiba Corp | マスクパターン判定方法、マスク製造方法およびデバイス製造方法 |
JP2012145823A (ja) | 2011-01-13 | 2012-08-02 | Ricoh Co Ltd | 光走査装置及び画像形成装置 |
JP6061554B2 (ja) * | 2012-01-20 | 2017-01-18 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP6045171B2 (ja) | 2012-03-30 | 2016-12-14 | キヤノン株式会社 | 眼科システム |
US9710433B2 (en) * | 2012-11-30 | 2017-07-18 | Yahoo! Inc. | Dynamic content mapping |
WO2014142468A1 (en) | 2013-03-13 | 2014-09-18 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
JP2014183425A (ja) * | 2013-03-19 | 2014-09-29 | Sony Corp | 画像処理方法、画像処理装置および画像処理プログラム |
JP6512738B2 (ja) | 2014-02-28 | 2019-05-15 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
GB201411309D0 (en) * | 2014-06-25 | 2014-08-06 | Tomtom Int Bv | Vehicular human machine interfaces |
CN105278771A (zh) * | 2014-07-25 | 2016-01-27 | 南京瀚宇彩欣科技有限责任公司 | 无挡触控的手持式电子装置、方法及图形化使用者界面 |
US20170228521A1 (en) | 2016-02-05 | 2017-08-10 | Carl Zeiss Meditec, Inc. | Report driven workflow for ophthalmic image data acquisition |
JP6702024B2 (ja) | 2016-06-27 | 2020-05-27 | 株式会社ニデック | 眼科画像処理装置、眼科画像処理プログラム |
WO2018065257A1 (en) * | 2016-10-07 | 2018-04-12 | Koninklijke Philips N.V. | Context sensitive magnifying glass |
JP6381622B2 (ja) | 2016-12-27 | 2018-08-29 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
-
2018
- 2018-12-20 EP EP18214686.0A patent/EP3669749B1/en active Active
-
2019
- 2019-12-17 CN CN201911303634.3A patent/CN111352564A/zh active Pending
- 2019-12-19 US US16/721,899 patent/US11857256B2/en active Active
- 2019-12-20 JP JP2019230610A patent/JP7020636B2/ja active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012071429A1 (en) * | 2010-11-26 | 2012-05-31 | Hologic, Inc. | User interface for medical image review workstation |
US20130036382A1 (en) * | 2011-08-03 | 2013-02-07 | Ebay Inc. | Control of search results with multipoint pinch gestures |
CN103654720A (zh) * | 2012-08-30 | 2014-03-26 | 佳能株式会社 | 光学相干断层图像摄像设备和系统、交互控制设备和方法 |
US20140118268A1 (en) * | 2012-11-01 | 2014-05-01 | Google Inc. | Touch screen operation using additional inputs |
CN104995593A (zh) * | 2012-12-12 | 2015-10-21 | 英国电讯有限公司 | 用于处理列表的触摸屏设备 |
US20140211162A1 (en) * | 2013-01-31 | 2014-07-31 | Canon Kabushiki Kaisha | Ophthalmologic apparatus and method for controlling the same |
DE102013105770A1 (de) * | 2013-06-05 | 2014-12-11 | Carl Zeiss Meditec Ag | Fundus-Abbildungssystem für ein Operationsmikroskop sowie Operationsmikroskop |
US20170100030A1 (en) * | 2014-06-03 | 2017-04-13 | Socialeyes Corporation | Systems and methods for retinopathy workflow, evaluation and grading using mobile devices |
CN107077267A (zh) * | 2014-09-25 | 2017-08-18 | 视乐有限公司 | 装备有触摸屏的设备和用于控制此类设备的方法 |
JP2016101298A (ja) * | 2014-11-28 | 2016-06-02 | 株式会社トプコン | 眼科撮影装置 |
US20170079521A1 (en) * | 2015-09-18 | 2017-03-23 | Novartis Ag | Vitreoretinal membrane characterization using optical coherence tomography |
Also Published As
Publication number | Publication date |
---|---|
US11857256B2 (en) | 2024-01-02 |
US20200196854A1 (en) | 2020-06-25 |
JP2020121109A (ja) | 2020-08-13 |
EP3669749A1 (en) | 2020-06-24 |
EP3669749B1 (en) | 2024-04-24 |
JP7020636B2 (ja) | 2022-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105243676B (zh) | 显示超声图像的方法及其所用的超声设备 | |
US8917924B2 (en) | Image processing apparatus, image processing method, and program | |
US10852939B2 (en) | Medical image display apparatus and recording medium | |
KR101910822B1 (ko) | 복수의 의료 영상에서의 동일 병변 영역 추적 장치 및 방법 | |
JP5049614B2 (ja) | 医用画像表示装置 | |
KR102205906B1 (ko) | 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템 | |
JP4497951B2 (ja) | 医用画像診断装置 | |
JP2018000246A (ja) | 眼科画像処理装置、眼科画像処理プログラム | |
CN111352564A (zh) | 光学相干断层扫描控制 | |
KR101762678B1 (ko) | 병변 영역 검출 장치 및 방법 | |
JP6246287B1 (ja) | 医用画像処理装置及びプログラム | |
EP4238534A1 (en) | Method for determining object area from three-dimensional model, and three-dimensional model processing device | |
CN111656402A (zh) | 用于与血管图像交互的设备、系统和方法 | |
JP7282541B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN107463320B (zh) | 一种系统校正的方法及装置 | |
JP2013169359A (ja) | X線ct装置 | |
CN111951317A (zh) | 重建装置 | |
JP2019217264A (ja) | 医用画像処理装置、医用画像診断装置および医用画像処理方法 | |
JP2020131019A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2006055402A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
KR102428102B1 (ko) | 보철물 설계 과정에서의 객체 선택 방법 및 이를 위한 덴탈 캐드 장치 | |
KR102493440B1 (ko) | 3차원 모델로부터 대상체 영역을 결정하는 방법 및 3차원 모델 처리 장치 | |
JP2019168251A (ja) | 形状測定装置、形状測定方法及びプログラム | |
KR102418810B1 (ko) | 마진라인 포인트 선택 방법 및 이를 위한 덴탈 캐드 장치 | |
JP2022129060A (ja) | 画像処理装置及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |