JP2020121109A - 光干渉断層撮影スキャン制御 - Google Patents

光干渉断層撮影スキャン制御 Download PDF

Info

Publication number
JP2020121109A
JP2020121109A JP2019230610A JP2019230610A JP2020121109A JP 2020121109 A JP2020121109 A JP 2020121109A JP 2019230610 A JP2019230610 A JP 2019230610A JP 2019230610 A JP2019230610 A JP 2019230610A JP 2020121109 A JP2020121109 A JP 2020121109A
Authority
JP
Japan
Prior art keywords
image
touch
manipulation
planning element
graphical planning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019230610A
Other languages
English (en)
Other versions
JP7020636B2 (ja
Inventor
ライス−ジョーンズ ジェニー
Rice-Jones Jenny
ライス−ジョーンズ ジェニー
ヤング ゲイリー
Young Gary
ヤング ゲイリー
マゴーヒー ジョージ
Mcgaughay George
マゴーヒー ジョージ
ダルゼル スコット
Dalzell Scott
ダルゼル スコット
イブス ローリー
Ibbs Laurie
イブス ローリー
スミス ジェフ
Jeff Smith
スミス ジェフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optos PLC
Original Assignee
Optos PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optos PLC filed Critical Optos PLC
Publication of JP2020121109A publication Critical patent/JP2020121109A/ja
Application granted granted Critical
Publication of JP7020636B2 publication Critical patent/JP7020636B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

【課題】本発明は、網膜上で実行されるOCTスキャン位置を指定するための装置(100)、方法、コンピュータ可読媒体、及びコンピュータプログラム製品を提供することを目的とする。【解決手段】装置は、網膜の背景画像、及び位置を指定する計画要素を含む画像を表示するためのディスプレイデバイス(110)と、入力デバイスとのユーザのタッチ対話を示すタッチ対話データを生成するタッチセンサ式入力デバイス(120)と、タッチ対話データに基づいて表示画像に対して実行される操作を決定し、表示する更新画像を生成するために各タッチ対話に応答して画像に画像操作を適用する画像操作モジュール(130)と、少なくとも1つの更新画像の中の背景画像上の計画要素の位置に基づいて、実行されるOCTスキャンの位置を示すデータを生成するスキャン位置指定モジュール(140)とを備える。【選択図】図1

Description

本明細書の例示的な態様は、一般に、光干渉断層撮影(OCT)の分野に関し、より詳細には、眼の網膜上で実行されるOCTスキャンの位置の指定に関する。
光干渉断層撮影はよく知られている干渉撮像技法であり、強力な診断ツールとして眼科で広く使用されている。OCTスキャンをセットアップする従来の手法は、通常、OCTスキャンが実行される眼の網膜の一部の画像を取得する最初のステップを必要とする。この画像は、たとえば、走査レーザー検眼鏡(SLO)又は眼底カメラを使用して取得されてよい。次いで、ユーザは網膜画像を検査し、必要な場合、対象部分を拡大して拡大図を取得し、コンピュータマウスなどを使用して、OCTスキャナによって撮像された拡大画像の一部を指定することができる。
本発明者らは、上記に示された種類の網膜OCTスキャンの位置を指定する従来の手法は、一般に、ユーザが取得された画像を効率的且つ直感的な方法で探索することを困難にするユーザインターフェースを採用し、OCTを使用してさらなる調査を保証する病理の識別、したがって対象とするOCTスキャン位置の指定を時間のかかるプロセスにしていることを認識している。特に、そのような従来の手法は、これらの操作の最中に対象とするOCTスキャンの位置を移動及び保持することを可能にしながら、必要に応じて画像をパン、ズームイン、及びズームアウトする機能を欠いている。
これらの制限を考慮して、本発明者らは、眼の網膜上で実行されるOCTスキャンの位置を指定するためのコンピュータプログラムを考案した。コンピュータプログラムは、プロセッサによって実行されると、網膜の一部の背景画像及び実行されるOCTスキャンの網膜上の位置を指定するための前景グラフィカル計画要素を定義する画像データに基づいて、画像データによって定義された画像を表示するようにディスプレイデバイスを制御するための表示制御信号をプロセッサに生成させる、表示制御ソフトウェアモジュールを備える。コンピュータプログラムは、プロセッサによって実行されると、タッチ感応面とのユーザの複数のタッチ対話の各々について、タッチセンサ式入力デバイスのタッチ感応面上の検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データを受信することと、タッチ対話データの各々に基づいて、ディスプレイデバイスによって表示されている画像を定義する画像データに対して実行されるぞれぞれの画像操作を決定することとをプロセッサに行わせる、画像操作ソフトウェアモジュールをさらに備える。各画像操作は、共通係数による前景グラフィカル計画要素と背景画像の両方のサイズ変更、背景画像に対する前景グラフィカル計画要素の平行移動、又は表示されている画像のパンのうちの少なくとも1つを含む。画像操作ソフトウェアモジュールは、プロセッサによって実行されると、ディスプレイデバイスに表示されるべき更新画像を定義するそれぞれの更新画像データを生成するために、タッチ対話の各々に応答して、ディスプレイデバイスによって表示されている画像を定義する画像データに決定された画像操作を適用することと、タッチ対話の各々に応答して生成された更新画像データに基づいて、更新画像データによって定義された更新画像を表示するようにディスプレイデバイスを制御するためのそれぞれの表示制御信号を表示制御ソフトウェアモジュールに生成させることとをプロセッサにさらに行わせる。コンピュータプログラムは、プロセッサによって実行されると、更新画像のうちの少なくとも1つの中の網膜の背景画像上の前景グラフィカル計画要素の位置に基づいて、網膜上で実行されるべきOCTスキャンの位置を示すOCTスキャン位置データをプロセッサに生成させる、スキャン位置指定ソフトウェアモジュールをさらに備える。
本発明者らは、上述されたコンピュータプログラムを記憶する非一時的コンピュータ可読記憶媒体をさらに考案した。
本発明者らは、上述されたコンピュータプログラムを搬送する信号をさらに考案した。
本発明者らは、眼の網膜上で実行されるOCTスキャンの位置を指定するための装置をさらに考案した。装置は、網膜の一部の背景画像及び実行されるOCTスキャンの網膜上の位置を指定するための前景グラフィカル計画要素を含む画像を表示するように構成されたディスプレイデバイスを備える。装置はまた、タッチ感応面を有し、タッチ感応面とのユーザの複数のタッチ対話の各々について、検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データを生成するように構成されたタッチセンサ式入力デバイスを備える。装置は、タッチ対話データの各々に基づいて、ディスプレイデバイスによって表示された画像に対して実行されるそれぞれの画像操作を決定するように構成された画像操作モジュールをさらに備え、各画像操作は、共通係数による前景グラフィカル計画要素と背景画像の両方のサイズ変更、背景画像に対する前景グラフィカル計画要素の平行移動、又は表示されている画像のパンのうちの少なくとも1つを含む。画像操作モジュールは、ディスプレイデバイスに表示されるそれぞれの更新画像を生成するために、タッチ対話の各々に応答して、ディスプレイデバイスに表示されている画像に決定された画像操作を適用するようにさらに構成される。装置は、更新画像のうちの少なくとも1つの中の網膜の背景画像上の前景グラフィカル計画要素の位置に基づいて、網膜上で実行されるべきOCTスキャンの位置を示すOCTスキャン位置データを生成するように構成されたスキャン位置指定モジュールをさらに備える。
本発明の実施形態は、ここで、以下に記載される添付の図面を参照して、非限定的な例としてのみ詳細に説明される。様々な図に現れる同様の参照番号は、別段の指示がない限り、同一又は機能的に類似する要素を表記することができる。
本明細書の第1の例示的な実施形態による、網膜OCTスキャンの位置を指定するための装置の概略図である。 本明細書の例示的な態様による、網膜の一部の背景画像220と、背景画像220に重ねられた前景グラフィカル計画要素210とを含む例示的な画像を示す図である。 本明細書の例示的な態様による、各々が異なる前景グラフィカル計画要素を含む、図2に示された画像の変形形態の図である。 本明細書の例示的な態様による、各々が異なる前景グラフィカル計画要素を含む、図2に示された画像の変形形態の図である。 本明細書の例示的な態様による、各々が異なる前景グラフィカル計画要素を含む、図2に示された画像の変形形態の図である。 本明細書の例示的な態様による、各々が異なる前景グラフィカル計画要素を含む、図2に示された画像の変形形態の図である。 本明細書の例示的な態様による、背景画像との関連で前景グラフィカル計画要素のシングルタッチドラッグを示す表示画像の更新を示す図である。 本明細書の例示的な態様による、背景画像との関連で前景グラフィカル計画要素のシングルタッチドラッグを示す表示画像の更新を示す図である。 本明細書の例示的な態様による、それにより、前景グラフィカル計画要素と背景画像の両方が一緒に移動する、シングルタッチドラッグに応答した表示画像のパンを示す図である。 本明細書の例示的な態様による、ピンチ操作に応答した表示画像のズーミングを示す図である。 本明細書の例示的な態様による、ピンチ操作に応答した表示画像のズーミングを示す図である。 本明細書の例示的な態様による、ピンチ操作に応答した表示画像のズーミングを示す図である。 本明細書の例示的な態様による、ダブルタップ操作に応答した表示画像のズーミングを示す図である。 本明細書の例示的な態様による、ダブルタップ操作に応答した表示画像のズーミングを示す図である。 本明細書の第2の実施形態による、網膜OCTスキャンの位置を指定するためのコンピュータプログラムの概略図である。 本明細書の第2の例示的な実施形態による、図8のコンピュータプログラムを実行するためのプログラマブル信号処理ハードウェアの一例を示すブロック図である。 プロセスを示すフローチャートである。
次に、添付図面を参照して、本発明の例示的な実施形態が詳細に記載される。
本明細書で使用される用語及び述語は、説明を目的とするものであり、限定するものと見なされるべきではない。本明細書における「含む」、「備える」、「有する」、及びその変形形態の使用は、その後に列挙される項目、それらの均等物、及び追加の項目、並びにその後に列挙される項目から構成される代替の実施形態を排他的に包含することを意味する。本明細書の例示的な一実施形態では、本明細書に記載されたシステム、装置、方法、コンピュータ可読媒体、及びコンピュータプログラムは、記載された要素、動作、又は構成要素のうちの1つ、2つ以上の各組合せ、又はすべてから構成される。
単数形で言及される本明細書のシステム、装置、方法、コンピュータ可読媒体、及びコンピュータプログラムの実施形態又は要素又は動作に対するいかなる言及も、複数のこれらの要素を含む実施形態を包含してもよく、本明細書の任意の実施形態又は要素又は動作に対する複数のいかなる言及も、単一の要素のみを含む実施形態を包含してもよい。単数形又は複数形での言及は、現在開示されているシステム、装置、方法、コンピュータ可読媒体、及びコンピュータプログラム、それらの構成要素、動作、又は要素を単一又は複数の構成に限定するものではない。情報、動作、又は要素に基づくいかなる動作又は要素に対する言及も、動作又は要素が任意の情報、動作、又は要素に少なくとも部分的に基づく実施形態を含んでよい。
本明細書に開示されるいかなる実施形態も任意の他の実施形態と組み合わされてよく、「実施形態」、「いくつかの実施形態」、「代替の実施形態」、「様々な実施形態」、「一実施形態」などに対する言及は、必ずしも相互排他的ではなく、実施形態に関連して記載される特定の特徴、構造、又は特性が少なくとも1つの実施形態に含まれてよいことを示すものである。本明細書で使用されるそのような用語は、必ずしもすべてが同じ実施形態を指すとは限らない。いかなる実施形態も、本明細書に開示される態様及び実施形態と一致する任意の方式で、包括的又は排他的に任意の他の実施形態と組み合わされてよい。
「又は」への言及は、「又は」を使用して記載されるいかなる用語も、記載された用語のうちの1つだけ、2つ以上、及びすべてのいずれかを示すことができるように、包括的であると解釈されてよい。
図面、発明を実施するための形態、又は任意の請求項における技術的特徴の後に参照符号が続く場合、参照符号は、図面、発明を実施するための形態、及び請求項の明瞭性を高める目的のためだけに含まれている。したがって、参照符号もそれらの不在も、任意のクレーム要素の範囲に対するいかなる制限効果ももたない。
第1の例示的な実施形態
図1は、被験者の眼の網膜の一部を撮像するためにOCTスキャナ(図示せず)によって実行されるOCTスキャンの位置を指定するための、本明細書の第1の例示的な実施形態による装置100の概略図である。装置100は、そのスキャンが網膜の特定の領域をカバーするようにOCTスキャナを制御するためのOCTスキャナの1又は複数の制御パラメータ値を示すOCTスキャン位置データ145を生成することにより、網膜の表面上のそのような位置を指定することができる。OCTスキャナの1又は複数の制御パラメータ値は、たとえば、OCTスキャンが実行されるべき網膜上の点、又はOCTスキャンの位置を設定するための基準点として機能する網膜上の点(たとえば、OCTスキャンが中心に置かれる点)を定義する、たとえば、OCTスキャナの1又は複数のビーム走査ミラー(図示せず)の角変位に対応することができる。この点に関して、OCTスキャナによって実行されるOCTスキャンは、限定ではなく例として、(すべて網膜の表面の共通位置に対して、2つ以上のOCT測定が網膜の深度方向の異なる点で実行される)Aスキャン、(各々が網膜の表面上の第1の方向(たとえば、x軸に沿った方向)に沿って取られた異なる座標値において、2つ以上のAスキャンが実行される)Bスキャン、又は(各々が網膜の表面上の第2の異なる方向(たとえば、直交するy軸方向)に沿って取られた異なる座標値において、2つ以上のBスキャンが実行される)Cスキャンであってよいことに留意されたい。
図1に示されたように、装置100は、ディスプレイデバイス110と、タッチセンサ式入力デバイス120と、画像操作モジュール130と、スキャン位置指定モジュール140とを備える。
ディスプレイデバイス110は、図2に示されたように、たとえば、実行されるべきOCTスキャンの網膜上の位置を指定するための、網膜の少なくとも一部の背景画像220及び背景画像220に重ねられる前景グラフィカル計画要素210と含むいくつかの要素を備える、画像200を表示するように構成される。ディスプレイデバイス110は、本実施形態におけるように、ディスプレイデバイス110及びタッチセンサ式入力デバイス120の機能を統合するタッチスクリーンデバイス150の一部を形成してよい。したがって、ディスプレイデバイス110及びタッチセンサ式入力デバイス120は、タッチスクリーンデバイス150を形成する一体的に形成されたユーザ入力/出力インターフェースであってよい。あるいは、ディスプレイデバイス110は、LCD画面若しくは任意の他のタイプの視覚表示装置(VDU)であってよく、且つ/又はデバイス120とは別個であってよい。背景画像220は、以下でさらに記載される方式で取得されてよい。
前景グラフィカル計画要素210は、図示された実施形態におけるように、図2に示されたように長方形の形状を有してよい。さらなる代替として、前景グラフィカル計画要素210は、たとえば、限定はしないが、円又は楕円などの、その境界が長方形ではないが、Cスキャンを実行するための網膜の二次元領域を指定するのに適した任意の他の所定の形状をとることができる二次元領域を定義してよい。図3(a)は、背景画像220及び円形の前景グラフィカル計画要素310aを備える、300aとラベル付けされた画像の代替例を示し、図3(b)は、背景画像220及び楕円形の前景グラフィカル計画要素310bを備える、300bとラベル付けされた画像の別の例を示す。
その上、前景グラフィカル計画要素210は、背景画像220上に二次元領域を定義する必要がなく、代替として、(Aスキャンの位置を指定するための)背景画像220に重ねられた点、又は(Bスキャンの位置を指定するための)背景画像220に重ねられた線分の形をとってもよい。図3(c)及び3(d)は、異なる長さの線分の形で、それぞれ、310c及び310dとラベル付けされた、背景画像220及び前景グラフィカル計画要素を備える画像の代替例を示す。
前景グラフィカル計画要素210は、OCTスキャンにおいて取り込まれる網膜の領域の比例表現を提供することができる。しかしながら、前景グラフィカル計画要素210の形状は、一般に、OCTスキャンによってカバーされる網膜の領域の形状を示す必要がないことに留意されたい。たとえば、前景グラフィカル計画要素210は、背景画像220上のその位置がスキャンによってカバーされるべき背景画像220上の網膜の(一次元又は二次元)領域に対するあらかじめ定義された位置関係を有すると理解される点の形をとってよい。たとえば、その点は、スキャンされる一次元又は二次元領域の中心、スキャンされる一次元領域の端部、スキャンされる二次元領域の角などを指定するように働くことができる。各々が延在する座標空間内の背景画像220上の前景グラフィカル計画要素210の位置は、たとえば、背景画像220の画像ピクセル座標系における前景グラフィカル計画要素210のあらかじめ定義された部分の座標(たとえば、長方形の前景グラフィカル計画要素210の中心)を備える、スキャングラフィックロケータによって定義される。背景画像220上の前景グラフィカル計画要素210の位置は、スキャングラフィックロケータの値によって設定される。
本明細書のいくつかの例示的な実施形態では、前景グラフィカル計画要素210は、操作可能/変更可能な形状を有する。たとえば、これらの実施形態では、前景グラフィカル計画要素210は、要素210が選択されたときに選択された形状をとるように、要素210の上記又は他の形状のいずれかを選択するように制御されてよい。また、形状のうちの1又は複数は、たとえば、少なくとも1つの点、線分、二次元形状、又は三次元形状であってよい。また、本明細書の例示的な一実施形態では、前景グラフィカル計画要素210は、そのサイズを拡大若しくは縮小し、且つ/又は少なくともその一部を変形させるように制御することができる。上記の機能の各々は、限定ではなく例として、タッチセンサ式入力デバイス120などのユーザインターフェースを介して実行することができる。
背景画像220は、本実施形態におけるように、たとえば、網膜表面の最大80%の超広角視野画像を生成することが可能な超広角視野走査レーザー検眼鏡(UWF−SLO)などの走査撮像システム(図示せず)によって生成されてよい。あるいは、背景画像220は、たとえば、走査レーザー検眼鏡(SLO)、複合SLO−OCTスキャナ、眼底カメラ、又は任意の他の適切なタイプの網膜撮像システムなどの、他のタイプの走査撮像システムによって生成されてよい。背景画像220は、赤−緑(RG)反射画像若しくは他の蛍光モードからの画像、又は任意の他の適切なタイプの画像であってよい。
装置100は、当業者に知られている任意の適切な手段により、網膜の一部の背景画像220を取得することができる。たとえば、装置100は、(任意の適切な有線又はワイヤレスの接続、たとえば、ユニバーサルシリアルバス(USB)又はBluetooth(登録商標)接続によって提供され得る)直接通信リンク、(ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及び/若しくはインターネットを含むネットワークによって提供され得る)間接通信リンク、又は背景画像220が記憶されるメモリを介して、走査撮像システム(図示せず)から背景画像220を受信することができるが、これらの例は排他的ではない。さらに、背景画像220は、背景画像データが走査撮像システムによって生成されているときに、装置100によって取得されてもよく(さらに、以下に記載されるように、眼の網膜上で実行されるOCTスキャンの位置を指定するように後で処理されてよく)、すなわち、画像データは、走査撮像システムが網膜の少なくとも一部の背景画像220を形成する画像データのすべてを生成し終わるのを待つことなく、「オンザフライ」で取得されてよい。
タッチセンサ式入力デバイス120は、タッチ感応面125を有し、ユーザは、たとえば、自分の手の1若しくは複数の指を直接使用して、又はスタイラスなどの器具を間接的に使用して、タッチ感応面125と対話することができる。タッチセンサ式入力デバイス120は、タッチ感応面125とのユーザの複数のタッ対話の各々について、検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データ127を生成するように構成される。言い換えれば、タッチセンサ式入力デバイス120は、たとえば、ユーザの指、ユーザが保持するスタイラスなどとタッチ感応面125との間の1又は複数の接触点の検出位置を、検出位置が、それらが検出された順番(順序)で記録されるように、ユーザとタッチセンサ式入力デバイス120との間のタッチ対話の最中に、(たとえば、記録することによって)ログする。検出位置の順序付けは、検出位置に割り当てられたタイムスタンプを使用して、検出位置の連続的な番号付けにより、又は任意の他の適切な方式で記録されてよい。
たとえば、タッチ対話がシングルタッチドラッグの形をとる場合(ユーザが指(又はスタイラスなどのツール)でタッチスクリーンにタッチし、次いで、タッチ感応面125上に線又は曲線又は任意の他の形状/パターンを描きながらその表面にわたって指(又は場合によってはツール)をドラッグする場合)、たとえば、タッチセンサ式入力デバイス120は、シングルタッチドラッグの最中に、ユーザの指(又はツール)とタッチセンサ式入力デバイス120のタッチ感応面125との間の接触点の検出位置を、検出位置の単一のシーケンスとして記録する。タッチセンサ式入力デバイス120は、シーケンス内の位置の数が所定のしきい値数を超える場合(たとえば、位置の数は20ピクセルに対応する場合がある)、又は、たとえば、検出位置のシーケンスに対応するタッチ対話の持続時間が所定のしきい値持続時間(たとえば、300ms)を超える場合、検出位置のシーケンスがシングルタッチドラッグに関連すると判断することができる。所定のしきい値数又は(場合によっては)所定のしきい値持続時間は構成可能であってよく、たとえば、タッチセンサ式入力デバイス120の性能を最適化するために試行錯誤によって調整することができる。
タッチ対話が、タッチ感応面125上のユーザの少なくとも1つの指(又は、場合によっては、タッチセンサ式入力デバイス120と対話するためのスタイラス若しくは他のツール)のダブルタップである場合、タッチセンサ式入力デバイス120は、ダブルタップを構成する2つの対話の持続時間が両方とも、(たとえば、シングルタッチドラッグとしてタッチ対話を識別するために使用され得る上述された所定のしきい値と同じ値(又は異なる値)であり得る)それぞれのしきい値未満であり、場合によっては、最初の対話の終了と2番目の対話の開始との間隔がしきい値未満であると判断することにより、タッチ対話がダブルタップであると判断することができる。タッチ対話がダブルタップとして識別された場合、タッチセンサ式入力デバイス120は、通常、同じか又はほとんど同じであるダブルタップ対話の最中に行われる、ユーザの指(又はツール)とタッチ感応面125との間の接触点の検出位置を記録することができる。
タッチセンサ式入力デバイス120は、タッチ感応面125とのユーザのある種のタッチ対話について、検出位置の2つ以上のシーケンスを示すタッチ対話データ127を生成するように構成されてよいことに留意されたい。たとえば、タッチセンサ式入力デバイス120とのユーザのピンチ対話の場合、ユーザがタッチ感応面125に自分の手の第1及び第2の指(しばしば、親指及び人差し指)を置き、指の各々とタッチ感応面125の間の接触を維持しながら、それらの指を互いに近づける(「ピンチイン」)又はさらに離す(「ピンチアウト」)場合、タッチセンサ式入力デバイス120は、ピンチ対話の最中に、第1及び第2の指とタッチ感応面125との間のそれぞれの接触点の検出位置を、検出位置のそれぞれの第1及び第2のシーケンスとして記録する。接触点の位置はシーケンスとして記録されるので、タッチセンサ式入力デバイス120は、第1及び第2のシーケンス内の対応する検出位置(すなわち、第1及び第2のシーケンス内の対応する位置に現れる検出位置)間の距離が、それぞれ、シーケンスに沿って減少しているか拡大しているかに基づいて、ユーザが自分の指を互いに近づけているかさらに遠ざけているかを判定することができる。
上述されたように、本実施形態のタッチセンサ式入力デバイス120及びディスプレイデバイス110は、タッチスクリーンデバイス150内で統合される。しかしながら、また上述されたように、他の実施形態では、タッチセンサ式入力デバイス120は、ディスプレイデバイス110とは別個であってよく、たとえば、コンピュータキーボードの一部として、又はスタンドアロンの周辺構成要素として提供されるトラックパッドの形で提供されてよいが、これらの例は排他的ではない。
画像操作モジュール130は、タッチセンサ式入力デバイス120によって生成されたタッチ対話データ127の各々に基づいて、ディスプレイデバイス110によって表示されている画像200の少なくとも一部に対して実行されるべきそれぞれの画像操作を決定するように構成される。言い換えれば、画像操作モジュール130は、タッチ対話データから、画像200の少なくとも一部に対してどのタイプの操作が実行されるべきかを決定する。各画像操作には、限定ではなく例として、(i)背景画像220に対する前景グラフィカル計画要素210の位置を維持しながら、共通倍率による前景グラフィカル計画要素210と背景画像220の両方のサイズ変更、(ii)背景画像220に対する前景グラフィカル計画要素210の平行移動、及び(iii)表示されている画像200の少なくとも一部のパン、すなわち、背景画像220に対する前景グラフィカル計画要素210の位置を維持しながら、前景グラフィカル計画要素210及び背景画像220のパンのうちの1又は複数が含まれてよい。画像操作モジュール130は、ディスプレイデバイス110に表示されるそれぞれの更新画像を生成するために、タッチ操作の各々に応答して、ディスプレイデバイス110に表示されている画像200に決定された画像操作を適用するようにさらに構成される。
例として、複数のタッチ対話が、入力デバイス120のタッチ感応面125上でユーザによって実行されたシングルタッチドラッグ操作を含む場合、タッチセンサ式入力デバイス120は、シングルタッチドラッグについての検出位置のシーケンスを示すタッチ対話データ127を生成し、シーケンスは、シングルタッチドラッグの開始に対応する第1の検出位置及びシングルタッチドラッグの終了に対応する第2の検出位置、並びに第1の検出位置と第2の検出位置との間にある1又は複数の中間検出位置を含む。画像操作モジュール130は、マッピングを使用して、タッチ感応面125上のタッチ対話の検出位置を、タッチ対話中にディスプレイデバイス110に表示されている背景画像220上の対応する点に変換することができる。この場合、第1の検出位置に対応する背景画像220上の位置(すなわち、第1の検出位置がマッピングされた画像220上の位置)が、前景グラフィカル計画要素210から所定の距離内にある場合(この距離は、前景グラフィカル計画要素210の、検出位置のシーケンス内の第1の検出位置から、たとえば、重心又は境界上の最も近い点までの、背景画像220の座標系で定義された任意の適切な距離単位で表されている)、画像操作モジュール130は、第1及び第2の検出位置間の距離に基づく量だけ、第1の検出位置からの第2の検出位置の方向に基づく方向への背景画像220に対する前景グラフィカル計画要素210の平行移動を含むように、シングルタッチドラッグ用の画像操作を決定するように構成される。所定の距離はゼロであってもよく、その場合、たとえば、第1の検出位置は、前景グラフィカル計画要素210の外部境界上又は内部にあることが必要とされることに留意されたい。たとえば、ユーザが前景グラフィカル計画要素210にタッチし、自分の指(又は場合によってはスタイラス)をタッチ感応面125にわたって動かす場合、画像操作モジュール130は、画像操作が前景グラフィカル計画要素210のシングルタッチドラッグであると判断し、それに応じて、第1及び第2の検出位置間の距離に基づく量だけ、第1の検出位置からの第2の検出位置の方向に基づく方向への背景画像220に対する前景グラフィカル計画要素210の移動を含むように、シングルタッチドラッグ用の画像操作を決定する。
図4(a)及び4(b)は、たとえば、タッチスクリーンデバイスの形態のタッチセンサ式入力デバイス120のタッチ感応面125上でユーザによって実行されるシングルタッチドラッグ操作の形態のタッチ対話に応答して、画像操作モジュール130が表示画像200をどのように更新することができるかの説明のための例である。ユーザは、タッチスクリーンデバイス上の第1のタッチ位置410で前景グラフィカル計画要素210にタッチし、タッチスクリーンデバイスの表面にわたって水平方向に自分の指(又は場合によってはスタイラスの先端)を、図4(a)において420−1とラベル付けされ、図4(b)において420−2とラベル付けされた第2の位置までドラッグする。本明細書に示された例示的な実施形態では、画像操作モジュール130は、タッチ対話がシングルタッチドラッグであると判断し、上述されたように、第1の検出位置に対応する背景画像220上の(マッピングされた)位置が前景グラフィカル計画要素210から所定の距離内にあると判断する。それに応じて、モジュール130は、第1の位置410と第2の位置420−1又は420−2との間の距離に対応する変位量だけ、最初の位置(たとえば、前景グラフィカル計画要素が図4(a)及び4(b)において実線によって表される位置)から、最後の位置(たとえば、前景グラフィカル計画要素が破線によって表される位置)まで、タッチスクリーンデバイスにわたって前景グラフィカル計画要素210を水平方向に平行移動することによって画像200を更新するが、背景画像220は2つの画像内で変化しないままである。
画像操作モジュール130は、より一般的に、第1及び第2の検出位置間の距離により線形又は非線形にスケーリングする変位量だけ、タッチセンサ式入力デバイス120のタッチ感応面125上の第1の検出位置からの第2の検出位置の方向に類似する、好ましくは同じであるディスプレイデバイス110上に表される座標空間内の方向への、背景画像220に対する前景グラフィカル計画要素210の平行移動を含むように、シングルタッチドラッグ用の画像操作を決定するように構成されてよい。画像操作モジュール130は、前景グラフィカル計画要素210のシングルタッチドラッグのために、ユーザが平行移動量と第1及び第2の検出位置間の距離との間の線形又は非線形のスケーリングを調整することを可能にするように構成されてよく、それにより、前景グラフィカル計画要素210のシングルタッチドラッグに対するタッチセンサ式入力デバイス120の感度が効果的に調整される。言い換えれば、ユーザは、要素210がシングルタッチドラッグ変位の単位ごとに(線形又は非線形にかかわらず)変位される量を指定して、それにより、感度を制御/調整することができる。本明細書の他の実施形態では、感度は、画像操作モジュール130内の事前プログラミングによって事前に決定されるか、又はユーザが感度を指定するか、若しくはデフォルトの感度を選択することができる。
表示されている画像は、シングルタッチドラッグの最中に、継続的に、たとえば一定の間隔で更新されてよく、その結果、スキャングラフィックロケータの値は、ユーザがタッチセンサ式入力デバイス120にわたってドラッグを実行している間、リアルタイムで効果的に背景画像220上の前景グラフィカル計画要素210の位置を変更するように更新される。また、本明細書の例示的な一実施形態では、グラフィカル計画要素210の変更に応答して、表示画像200は、シングルタッチドラッグに応答するスキャングラフィックロケータの変更中に所定の間隔で、又は所定の遅延の後、連続的に更新される。あるいは、別の例示的な実施形態では、表示されている画像は、シングルタッチドラッグ操作が終了した後、すなわち、ユーザがタッチセンサ式入力デバイス120から自分の指又はスタイラスを持ち上げた後だけ更新されてよい。シングルタッチドラッグに応答して表示画像200のどの特定のタイプの更新が実現されるかは、事前に決定することができるか、又はユーザコマンドによって事前に指定/事前にプログラムすることができる。
(ユーザ調整可能か否かにかかわらず)前述のスケーリングに従ってユーザの指/スタイラスの接触点の変化する位置を反映するようにスキャングラフィックロケータを更新することは、スキャングラフィックロケータの値が所定の境界によって区切られた値の所定の範囲(たとえば、空間座標値の所定の範囲)内にあることを条件としてよく、所定の範囲/境界は、装置100内で事前にプログラムされるか、又はユーザコマンドによって指定されてよいことに留意されたい。本明細書の例示的な一実施形態では、実際的な理由でOCTスキャンを実際に実行することができないOCTスキャン用の領域をユーザが指定できないことを保証するように、所定の範囲/境界が採用される。したがって、一例では、ユーザによるグラフィカル計画要素210のドラッグにより、グラフィックロケータ値が所定の範囲の境界を超える限り、グラフィカル計画要素210はもはや、対応する境界がスキャングラフィックロケータ値によって到達されるところをさらに超えて移動及び/又は更新されない。本明細書の例示的な一実施形態例では、ユーザによるドラッグに応答して、スキャングラフィックロケータの値が範囲の所定の境界を超えさせられた場合、スキャングラフィックロケータは、所定の境界に対応する座標値に維持され、グラフィカル計画要素210は、スキャングラフィックロケータのその値に対応する位置/方向に表示される。
一方、上述されたように、第1の検出位置に対応する背景画像220上の位置が前景グラフィカル計画要素210から所定の距離内にないシングルタッチドラッグの場合、画像操作モジュール130は、表示されている画像200のパン(言い換えれば、背景画像220に対する前景グラフィカル計画要素210の位置及び方向を保存する、背景画像220と前景グラフィカル計画要素210の両方の通常の平行移動)を含むように、シングルタッチドラッグ用の画像操作を決定するように構成される。例示的な本実施形態では、パンからもたらされる変位量は、第1及び第2の検出位置間の距離に基づいており、パン変位の方向は、第1の検出位置からの第2の検出位置の方向に基づいている。したがって、たとえば、ユーザが、前景グラフィカル計画要素210から(又はその上にない)十分に遠く離れた(すなわち、所定の距離ではない)背景画像220内の位置に対応するその上の位置でタッチ感応面125にタッチし、自分の指(又は場合によってはスタイラス)をタッチ感応面125にわたって動かす場合、画像操作モジュール130は、画像操作が画像200のパンであると判断し、したがって、背景画像220と前景グラフィカル計画要素210の両方が、第1及び第2の検出位置間の距離に基づく量だけ、第1の検出位置から第2の検出位置まで延在することに基づく方向に動かされるべきであると判断する。この場合、スキャングラフィックロケータは、パンの前後の両方で、背景画像220上のその位置を維持する。
図5は、タッチスクリーンデバイス上でユーザによって実行されたシングルタッチドラッグ操作の形態のタッチ対話に応答して、画像操作モジュール130が表示画像200をどのように更新することができるかの説明のための例であり、ユーザは前景グラフィカル計画要素210にタッチしないが、代わりに、タッチスクリーンデバイス上の第1のタッチ位置510に自分の指又はスタイラスの先端を置き、第1のタッチ位置510は第1の検出位置として検出される。図示された例では、第1の検出位置に対応する(すなわち、それにマッピングされた)背景画像220上の位置は、前景グラフィカル計画要素210から所定の距離内にないと想定され、ユーザは指/スタイラスの先端をタッチスクリーンデバイスの表面にわたって第2の位置520までドラッグする。画像操作モジュール130は、タッチ対話がシングルタッチドラッグであると判断し、上述されたように、第1の検出位置に対応する背景画像220上の位置が前景グラフィカル計画要素210から所定の距離内にないと判断し、それに応じて、第1の位置510と第2の位置520との間の距離に対応する量だけ、第1の位置510から第2の位置520まで延在することに基づく方向に、タッチスクリーンデバイスにわたって前景グラフィカル計画要素210と背景画像220の両方を平行移動することによって画像200を更新する。図5では、前景グラフィカル計画要素210及び背景画像の囲まれた部分は実線によって区切られているが、更新画像内の前景グラフィカル計画要素210及び背景画像の囲まれた部分は破線によって区切られている。
画像操作モジュール130は、より一般的に、第1及び第2の検出位置間の距離により線形又は非線形にスケーリングする量だけ、タッチセンサ式入力デバイス120のタッチ感応面125上の第1の検出位置からの第2の検出位置の方向に類似する、好ましくは同じであるディスプレイデバイス110上の方向への、前景グラフィカル計画要素210と背景画像220の両方の平行移動を含むように、パン操作用の画像操作を決定することができる。画像操作モジュール130は、ユーザがパン操作のために、平行移動量と第1及び第2の検出位置間の距離との間の線形又は非線形のスケーリングを調整することを可能にするように構成されてよく、それにより、パン操作のためのタッチセンサ式入力デバイス120の感度が効果的に調整される。言い換えれば、ユーザは、第1の検出位置から第2の検出位置まで延在する(想像上の)線に沿った変位の単位ごとに、要素210及び画像220が(線形又は非線形にかかわらず)変位する量を指定して、それにより感度を制御/調整することができる。本明細書のいくつかの実施形態では、感度は画像操作モジュール130内の事前プログラミングによって事前に決定され、ユーザは事前にプログラミングされた感度とユーザによって指定された感度との間で選択することができる。
複数のタッチ対話が、入力デバイス120のタッチ感応面125上でユーザによって実行されたピンチ操作を含む場合、タッチセンサ式入力デバイス120は、上述されたように、検出位置の第1のシーケンス及び検出位置の第2のシーケンスを示すタッチ対話データ127を生成する。この場合、画像操作モジュール130は、(i)検出位置の第1及び第2のシーケンスの最初の検出位置間の距離と、(ii)検出位置の第1及び第2のシーケンスの最後の検出位置間の距離との間の差、言い換えれば、ピンチ操作の開始時のタッチ感応面125上の検出位置の距離と、ピンチ操作の終了時のタッチ感応面125上の検出位置の距離との間の差に基づく共通倍率により、前景グラフィカル計画要素210と背景画像220の両方をサイズ変更することを含むように、ピンチ用の画像操作を決定するように構成されてよい。あるいは、画像操作モジュール130は、タッチ位置のいずれかが変化することが検出されると、2つのタッチ位置(すなわち、上述された接触点)のいずれかから、限定ではなく例として、ピンチ操作の最初のタッチ位置から等距離にある位置などの所定の基準位置への計算距離に基づいて、共通倍率を調整する(したがって、要素210及び背景画像220のサイズを調整する)ように構成されてよい。
図6(a)はタッチスクリーンデバイス上でユーザによって実行されるピンチ操作の形態のタッチ対話に応答して、画像操作モジュール130が表示画像200をどのように更新することができるかの説明のための例であるが、ユーザが前景グラフィカル計画要素210にタッチせず、代わりに自分の指(通常、手の親指及び人差し指であるが、ピンチ操作はより一般的に任意の2つの指を使用して実行されてよく、必ずしも同じ手の指とは限らない)を、それぞれの第1のタッチ位置610−1及び610−2に置き、タッチスクリーンデバイスの表面にわたって互いに離れるように、指をそれぞれの第2のタッチ位置620−1及び620−2までドラッグする。画像操作モジュール130はタッチ対話がピンチ操作であると判断し、それに応じて、例示的な本実施形態例におけるように、検出位置610−1と610−2の距離及び/又は検出位置620−1と620−2の距離の間の差に基づく場合がある共通倍率により、前景グラフィカル計画要素210と背景画像220の両方をサイズ変更することによって画像200を更新する。図6(a)では、最初に表示された画像内の前景グラフィカル計画要素210及び背景画像の囲まれた部分は実線によって区切られているが、更新画像内の前景グラフィカル計画要素210及び背景画像の一部は破線によって区切られている。ピンチ操作の場合、表示画像の更新は、タッチスクリーン(又は他のタッチセンサ式入力デバイス)上に指を最初に置くこと、すなわち、タッチ対話の開始とは無関係であり、ピンチ操作における指とタッチ感応面125との間の接触点の相対的な動きにのみ依存する。したがって、たとえば、指とタッチ感応面125との間の接触点の相対的な動きは、図6(a)の例におけるそれらと同じであるが、タッチ感応面125との指の最初の接触点の位置は、図6(a)の例におけるそれらとは異なり、更新画像は、図6(b)及び6(c)に示されたように同じになる。言い換えれば、タッチ感応面125との指の2つの最初の接触点がどこ(すなわち、両方とも前景グラフィカル計画要素210の上、両方とも背景画像220の上、又は一方が前景グラフィカル計画要素210の上で他方が背景画像220の上)にあるかにかかわらず、画像操作モジュール130は、前景グラフィカル計画要素210及び背景画像220が一緒にズームし、背景画像220に対する前景グラフィカル計画要素210の位置及び方向が保持されているように表示画像200を更新することにより、同じように動作する。シングルタッチドラッグの場合におけるように、画像は、ピンチ対話の最中に、ピンチ対話中の所定の間隔で、所定の遅延後、又は操作が終了した後に継続的に更新されてよい。
タッチ対話がダブルタップ操作を含む場合の例が次に記載される。タッチ対話が入力デバイス120のタッチ感応面125上でユーザによって実行されたダブルタップ操作を含む場合、画像操作モジュール130は、ダブルタップ操作用の画像操作が、共通の所定の係数により前景グラフィカル計画要素210と背景画像220の両方をサイズ変更することであると決定するように構成される。画像操作モジュール130は、本実施形態におけるように、タッチ感応面125上のダブルタップの位置に対応する画像200内の位置に提供された画像200の一部が更新画像内の同じ位置に現れるように、ダブルタップ操作用の画像操作を決定するように構成されてよく、(背景画像220と前景グラフィカル計画要素210の両方を含む)画像200が、迅速且つ便利な方法で対象領域のより近い審査を可能にするようにズーム又は視覚的に拡大されることが可能になる。図7(a)及び7(b)に示されたように、ズーム/拡大は、ダブルタップが(図7(a)に示されたように)前景グラフィカル計画要素210の上で行われるか、又は背景画像220の上で行われる(この代替案は図7(b)に示されている)かに依存しない。したがって、ダブルタップ操作においてタッチ感応面125上の接触点がどこ(たとえば、両方とも前景グラフィカル計画要素210の上、又は両方とも背景画像220の上)で行われるかにかかわらず、画像操作モジュール130は、前景グラフィカル計画要素210及び背景画像220が一緒にズーム/拡大し、背景画像220に対する前景グラフィカル計画要素210の位置及び方向がズーム/拡大の後に保持されているように表示画像200を更新して、同じように動作する。
あるいは、画像操作モジュール130は、たとえば、タッチ感応面125上のダブルタップの位置に対応する位置に提供された画像200の一部が更新画像の中心に現れるように、表示されている画像200の平行移動を含むようにダブルタップ操作用の画像操作を決定するように構成されてよい。さらなる代替として、画像操作モジュール130は、画像200の中心に提供された画像200の一部も更新画像の中心に現れるように、ダブルタップ操作用の画像操作を決定するように構成されてよい。
代替の実施形態では、画像操作モジュール130は、タッチ感応面125上のダブルタップの位置に対応する位置に提供された画像200の一部が更新画像の中心に現れるように、表示されている画像200の平行移動を含むように単一の指を使用して実行されるダブルタップ操作用の画像操作を決定し、画像200の中心に提供された画像200の一部も更新画像の中心に現れるように、2つ以上の指を使用して実行されるダブルタップ操作用の画像操作を決定するように構成されてよく、このようにして上述された機能が組み合わされる。
上記の例では、ダブルタップ操作は表示画像200のズームイン又は拡大をもたらすように記載されたが、それらは、代替として、ユーザが現在の表示画像200をズームアウトすることを可能にすることができる。この場合、更新画像がディスプレイデバイス110の画面を満たす場合、ズームアウトするダブルタップはダブルタップ位置が保持されないようにするはずである。すなわち、タッチ感応面125上のダブルタップの位置に対応する画像200内の位置に提供された画像200の一部は、上述されたように、更新画像内の同じ位置に現れない。
上述されたユーザ対話の少なくともいくつかは組み合わされてよく、画像操作モジュール130は、上述された画像操作の1又は複数の組合せを含むように画像操作を決定することに留意されたい。たとえば、画像操作モジュール130は、ピンチ操作中に第1及び第2の検出されたタッチ位置(接触点)を結ぶ仮想線の中間点の座標を追跡し、中間点の移動に従って表示画像をパンし、同時に、第1及び第2のタッチ位置間の変化する距離に応じて画像をズームすることにより、表示画像を更新することができる。当然、この例は非限定的であり、画像操作の任意の他のタイプの組合せも実現することができる。
背景画像220又は前景グラフィカル計画要素210上でタッチ対話イベントが発生すると、タッチ対話イベントがダブルタップではないことが確認されるまで、画像220及び/又は要素210に対するアクションは実行されなくてよい。タッチ対話がダブルタップではないことが確認された場合、前景グラフィカル計画要素210に対するアクションは実行されなくてもよい。したがって、スキャングラフィックロケータは、たとえば、ダブルタップタッチ対話イベントによるパン又はズームが発生するとき、背景画像220上の前景グラフィカル計画要素210の位置を維持することができる。画像200の中心からの前景グラフィカル計画要素210の位置の比例距離は、いずれかの画像操作イベントが発生したときに更新されてよい。この距離は、相対的な位置から計算が行われた場合に発生するはずのいかなる「ドリフト」も防止するために、位置の変更ごとに基準位置に対して計算されてよい。基準位置は、背景画像220上で最初のタッチ又はダブルタップが行われたときに設定されてよく、例示的な一実施形態では、基準位置は、タッチ又はダブルタップが検出された位置である。また、本明細書の例示的な一実施形態では、タッチアップ又はタッチ離脱イベントが発生した場合、基準位置をリセットすることができる。
再び図1を参照して、次にスキャン位置指定モジュール140が記載される。スキャン位置指定モジュール140は、たとえば、背景画像220に対する前景グラフィカル計画要素210の平行移動を含む最新の画像操作から生じる更新画像などの更新画像のうちの少なくとも1つの中の網膜の背景画像220上の前景グラフィカル計画要素210の位置に基づいて、網膜上で実行されるべきOCTスキャンの位置を示すOCTスキャン位置データ145を生成するように構成されるが、この例は非限定的である。
スキャン位置指定モジュール140は、任意の適切な方法で背景画像220上の前景グラフィカル計画要素210の位置に基づいて、OCTスキャン位置データ145を生成するように構成されてよい。たとえば、OCTスキャナ(図示せず)は、異なるモダリティの画像内で一般的に認識可能な中心窩などの解剖学的特徴をカバーするOCT網膜スキャンを実行し、OCT測定値、並びに、たとえば、網膜の表面にわたってOCTサンプルビームを偏向させるように配置されたOCTスキャナの第1の(たとえば水平)ミラー及び第2の(たとえば垂直)ミラーの角変位を示す対応するスキャンパラメータ値を含むデータを生成する。そのような場合を含む例示的な実施形態では、スキャン位置指定モジュール140は、生成されたデータ、及び取得されたOCT網膜スキャン内の位置と、(OCT網膜スキャン画像内の中心窩又は任意の他の認識可能な解剖学的特徴の位置と背景画像220を比較することによって決定されてよい)背景画像220内の対応する位置との間のマッピングを使用して、背景画像220上の前景グラフィカル計画要素210の位置に対応するスキャンパラメータ値を計算することができる。
背景画像220上の前景グラフィカル計画要素210の位置は、任意の適切な方法で定義されてよい。たとえば、図2に示されたように、前景グラフィカル計画要素210が長方形の形をとる場合、前景グラフィカル計画要素210の位置は、背景画像220上の長方形の幾何学的中心(重心)の位置であるようにとられてよい。前景グラフィカル計画要素210が線分である場合、OCTスキャン位置データ145によって示されるOCTスキャンの位置は、たとえば、線分の中間点又はいずれかの端部に基づいてよい。
スキャン位置指定モジュール140は、本実施形態におけるように、OCTスキャナによって実行されるOCTスキャンの位置だけでなく、そのOCTスキャンのサイズも示すOCTスキャン位置データ145を生成するように構成されてよく、サイズは、更新画像のうちの少なくとも1つの中の前景グラフィカル計画要素210の少なくとも1つの次元に基づいている。たとえば、前景グラフィカル計画要素210が、その長さがユーザによって調整可能である、OCTスキャナ(図示せず)によって実行されるBスキャンの位置を指定するための線分である場合、スキャン位置指定モジュール140は、上述されたOCTスキャンの位置を示すデータに加えて、ユーザによって選択又はそうでない場合設定された線分の長さに基づいて、OCTスキャンの長さを示すデータを生成されたスキャン位置データに含めることができる。長方形の前景グラフィカル計画要素210の幅及び/又は高さは、同様に、長方形のOCTスキャン領域の幅及び/又は高さが、ユーザの要求に従ってスキャン位置指定モジュール140によって設定されることを可能にするように、ユーザによって調整可能であってよい。スキャン位置指定モジュール140は、背景画像220に対する前景グラフィカル計画要素210の平行移動を含む最新の画像操作、及び前景グラフィカル計画要素210のサイズ変更を含む最新の操作から生じる更新画像内の前景グラフィカル計画要素210の(背景画像220上の)位置及びサイズに基づいて、網膜上で実行されるべきOCTスキャンの位置とサイズの両方を示すOCTスキャン位置データ145を生成するように構成されてよい。
OCTスキャン位置データ145は、OCTスキャナに提供され、OCTスキャン位置データ145によって示される網膜上の位置でOCTスキャンを実行するように、OCTスキャナを制御するために使用されてよい。
そうするために、OCTスキャナは、OCTスキャン位置データ145によって示された網膜上の位置を、OCTスキャン位置データ145によって示された位置と実質的に同じ網膜上の位置でそのスキャンを実行するようにOCTスキャナを操作するための1又は複数の制御パラメータの対応するセットに変換するように構成されてよい。これは、いくつかの異なる方法のうちの1つで行うことができる。
たとえば、OCTスキャナは、網膜上の位置と対応する制御パラメータの値との間のマッピングを使用することができ、制御パラメータは、たとえば、一組のパラメータによって定義される参照テーブル又は関数の形態で提供されてよい。マッピングは、当業者に知られている技法を使用して、較正によって決定されてよい。
このように、装置100により、ユーザが、網膜の一部の画像200のすべての領域を簡単且つ便利に探索し、必要に応じて画像200にわたるズームレベル及び/又はパンを変更し、OCTスキャン用の対象領域を指定するために、探索中に必要な場合前景グラフィカル計画要素210を動かすことが可能になる。したがって、装置100は、従来の手法におけるように静止背景画像に示される拡大された対象領域だけでなく、背景画像220上のどこでもOCTスキャンが計画されることを可能にすることができる。
装置100のユーザがOCTスキャンのおおよその意図された位置を知っている状況でさえ(たとえば、患者の網膜が以前にOCTスキャンを受けていた場合)、装置100の特徴により、ユーザがOCTスキャンのおおよその意図された位置の周囲の領域を簡単且つ便利に探索して、対象のさらなる特徴があるかどうかを判定することが可能になる。
第2の実施形態
図8は、眼の網膜上で実行されるOCTスキャンの位置を指定するための、コンピュータプログラム800の形態で提供される、本発明の第2の例示的な実施形態を示す。コンピュータプログラム800は、表示制御ソフトウェアモジュール810と、画像操作ソフトウェアモジュール820と、スキャン位置指定ソフトウェアモジュール830とを備える。コンピュータプログラム800は、その例が図9に示されているプログラマブル信号処理ハードウェアによって実行され得るコンピュータ可読命令を備える。コンピュータ可読命令は、たとえば、図9のプロセッサ920などのコンピュータプロセッサによって実行されて、プロセッサ920が本明細書に記載された方法のいずれかを実行することを可能にすることができる。
図9に示されたプログラマブル信号処理ハードウェア900の例は、(たとえばデバイス120から)上述されたタッチ対話データ127を受信し、また上述されたように、画像200及びその更新バージョンを表示するようにディスプレイデバイス110を制御するための表示制御信号を出力するための通信インターフェース(I/F)910を備える。信号処理装置900は、プロセッサ(たとえば、中央処理装置CPU又はグラフィックス処理装置GPU)920と、作業メモリ930(たとえば、ランダムアクセスメモリ)と、コンピュータ可読命令を記憶する命令ストア940とをさらに備え、コンピュータ可読命令は、プロセッサ920によって実行されると、上述された画像操作モジュール130及びスキャン位置指定モジュール140の機能、並びに本明細書に記載された任意の方法を含む様々な機能をプロセッサ920に実行させる。命令ストア940はプログラム800を記憶することができ、コンピュータ可読命令とともに事前にロードされた(たとえば、電気的消去可能プログラマブル読出し専用メモリ(EEPROM)又はフラッシュメモリの形態の)ROMを備えることができる。あるいは、命令ストア940は、RAM又は同様のタイプのメモリを備えることができ、コンピュータプログラム800のコンピュータ可読命令は、それに入力することができるか、又はそうでない場合、CD−ROM、DVD−ROMなどの形態の非一時的コンピュータ可読記憶媒体950などのコンピュータプログラムストレージから、若しくはコンピュータ可読命令を搬送するコンピュータ可読信号960から受信することができる。
本実施形態では、プロセッサ920、作業メモリ930、及び命令ストア940を含む、図9に示されたハードウェア構成要素の組合せ970は、上述された画像操作モジュール130及びスキャン位置指定モジュール140の機能を実行するように構成され、ディスプレイデバイス110及びタッチセンサ式入力デバイス120と(タッチ対話データ及び表示制御信号を含む)情報を交換するように構成される。しかしながら、画像操作モジュール130及びスキャン位置指定モジュール140は、代替として、特定用途向け集積回路(ASIC)などの非プログラマブルハードウェアに実装されてよいことに留意されたい。
したがって、図8に示された表示制御ソフトウェアモジュール810は、図9に示されたプロセッサ920によって実行されると、背景画像220及び前景グラフィカル計画要素210を定義する画像データに基づいて、画像データによって定義された画像200を表示するようにディスプレイデバイス110を制御するための表示制御信号をプロセッサ920に生成させることが諒解されよう。
画像操作ソフトウェアモジュール820は、プロセッサ920によって実行されると、タッチ感応面125とのユーザの複数のタッチ対話の各々について、タッチセンサ式入力デバイス120のタッチ感応面125上の検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データ127を受信することと、タッチ対話データ127の各々に基づいて、ディスプレイデバイス110によって表示されている画像200を定義する画像データに対して実行されるそれぞれの画像操作(各画像操作は、上述されたように、たとえば、共通係数による前景グラフィカル計画要素210と背景画像220の両方のサイズ変更、背景画像220に対する前景グラフィカル計画要素210の平行移動、及び表示されている画像200のパンのうちの少なくとも1つを含む)を決定することとをプロセッサ920に行わせる。画像操作ソフトウェアモジュール820は、プロセッサ920によって実行されると、ディスプレイデバイス110に表示されるべき更新画像を定義するそれぞれの更新画像データを生成するために、タッチ対話の各々に応答して、ディスプレイデバイス110によって表示されている画像200を定義する画像データに決定された画像操作を適用することと、タッチ対話の各々に応答して生成された更新画像データに基づいて、更新画像データによって定義された更新画像を表示するようにディスプレイデバイス110を制御するためのそれぞれの表示制御信号を表示制御ソフトウェアモジュール810に生成させることとをプロセッサ920にさらに行わせる。
スキャン位置指定ソフトウェアモジュール830は、プロセッサ920によって実行されると、更新画像のうちの少なくとも1つの中の網膜の背景画像220上の前景グラフィカル計画要素210の位置に基づいて、網膜上で実行されるべきOCTスキャンの位置を示すOCTスキャン位置データ145をプロセッサ920に生成させる。
上述された第1の実施形態と同様に、複数のタッチ対話が、上述されたような入力デバイス120のタッチ感応面125上でユーザによって実行されるシングルタッチドラッグ操作を含む場合、画像操作ソフトウェアモジュール820は、プロセッサ920によって実行されると、マッピングを使用して、タッチ感応面125上のタッチ対話の検出位置を、タッチ対話中にディスプレイデバイス110に表示されている背景画像220上の対応する点に変換することができる。第1の実施形態と同様に、第1の検出位置に対応する背景画像220上の位置が、前景グラフィカル計画要素210から所定の距離内にある場合、画像操作ソフトウェアモジュール820は、第1及び第2の検出位置間の距離に基づく量だけ、第1の検出位置からの第2の検出位置の方向に基づく方向への背景画像220に対する前景グラフィカル計画要素210の平行移動を含むように、シングルタッチドラッグ用の画像操作をプロセッサ920に決定させる。所定の距離はゼロであってもよく、その場合、第1の検出位置は、前景グラフィカル計画要素210の外部境界上又は内部にあることが必要とされることに留意されたい。したがって、ユーザが前景グラフィカル計画要素210にタッチし、自分の指(又は場合によってはスタイラス)をタッチ感応面125にわたって動かす場合、画像操作ソフトウェアモジュール820は、画像操作が前景グラフィカル計画要素のシングルタッチドラッグであると判断し、それに応じて、第1及び第2の検出位置間の距離に基づく変位量だけ、第1の検出位置からの第2の検出位置の方向に基づく方向への背景画像220に対する前景グラフィカル計画要素210の移動を含むように、シングルタッチドラッグ用の画像操作を決定する。
たとえば、画像操作ソフトウェアモジュール820は、第1及び第2の検出位置間の距離により線形又は非線形にスケーリングする量だけ、タッチセンサ式入力デバイス120のタッチ感応面125上の第1の検出位置からの第2の検出位置の方向と同じであるディスプレイデバイス110上の方向への、背景画像220に対する前景グラフィカル計画要素210の平行移動を含むように、シングルタッチドラッグ用の画像操作を決定するように構成されてよい。画像操作ソフトウェアモジュール820は、前景グラフィカル計画要素210のシングルタッチドラッグのために、ユーザが平行移動量と第1及び第2の検出位置間の距離との間の線形又は非線形のスケーリングを調整することをプロセッサ920に可能にさせることができ、それにより、前景グラフィカル計画要素210のシングルタッチドラッグに対するタッチセンサ式入力デバイス120の感度が効果的に調整される。
一方、上述されたように、第1の検出位置に対応する背景画像220上の位置が前景グラフィカル計画要素210から所定の距離内にないシングルタッチドラッグの場合、画像操作ソフトウェアモジュール820は、プロセッサ920によって実行されると、第1及び第2の検出位置間の距離に基づく量だけ、第1の検出位置から第2の検出位置の方向に基づく方向への表示されている画像200のパン(言い換えれば、背景画像220に対する前景グラフィカル計画要素210の位置を保存する、背景画像220と前景グラフィカル計画要素210の両方の通常の平行移動)を含むように、シングルタッチドラッグ用の画像操作をプロセッサ920に決定させる。したがって、ユーザが、前景グラフィカル計画要素210から(又はその上にない)十分に遠く離れた(たとえば、所定の距離内にない)背景画像220内の位置に対応するその中の位置でタッチ感応面125にタッチし、自分の指(又は場合によってはスタイラス)をタッチ感応面125にわたって動かす場合、画像操作ソフトウェアモジュール820は、画像操作が画像200のパンであると判断し、したがって、背景画像220と前景グラフィカル計画要素210の両方が、第1及び第2の検出位置間の距離に基づく変位量だけ、第1の検出位置から第2の検出位置まで延在する方向に基づく方向に動かされるべきであると判断することをプロセッサ920に行わせる。たとえば、画像操作ソフトウェアモジュール820は、第1及び第2の検出位置間の距離により線形又は非線形にスケーリングする量だけ、タッチセンサ式入力デバイス120のタッチ感応面125上の第1の検出位置からの第2の検出位置の方向と同じであるディスプレイデバイス110上の方向への前景グラフィカル計画要素210と背景画像220の両方の平行移動を含むように、パン操作用の画像操作をプロセッサ920に決定させることができる。画像操作ソフトウェアモジュール820は、ユーザがパン操作のために、平行移動量と第1及び第2の検出位置間の距離との間の線形又は非線形のスケーリングを調整することをプロセッサ920に可能にさせることができ、それにより、パン操作のためのタッチセンサ式入力デバイス120の感度が効果的に調整される。
複数のタッチ対話が、入力デバイス120のタッチ感応面125上でユーザによって実行されたピンチ操作を含む場合、タッチセンサ式入力デバイス120は、上述されたように、検出位置の第1のシーケンス及び検出位置の第2のシーケンスを示すタッチ対話データ127を生成する。この場合、画像操作ソフトウェアモジュール820は、(i)検出位置の第1及び第2のシーケンスの最初の検出位置間の距離と、(ii)検出位置の第1及び第2のシーケンスの最後の検出位置間の距離との間の差、言い換えれば、ピンチ操作の開始時のタッチ感応面125上の検出された第1及び第2の位置の距離と、ピンチ操作の終了時のタッチ感応面125上の検出された第1及び第2の位置の距離との間の差に基づく共通倍率により、前景グラフィカル計画要素210と背景画像220の両方をサイズ変更することを含むように、ピンチ用の画像操作をプロセッサ920に決定させることができる。
複数のタッチ対話が入力デバイス120のタッチ感応面125上でユーザによって実行されるダブルタップ操作を含む場合、画像操作ソフトウェアモジュール820は、ダブルタップ操作用の画像操作が共通の所定の係数(たとえば、2倍の倍率)により前景グラフィカル計画要素210と背景画像220の両方をサイズ変更することであるとプロセッサ920に判断させる。画像操作ソフトウェアモジュール820は、本実施形態におけるように、タッチ感応面125上のダブルタップの位置に対応する画像200内の位置に提供された画像200の一部が更新画像の同じ位置に現れるように、ダブルタップ操作用の画像操作をプロセッサ920に決定させることができ、(背景画像220と前景グラフィカル計画要素210の両方を含む)画像200が、迅速且つ便利な方法で対象領域のより近い審査のためにズーム又は視覚的に拡大されることが可能になる。
あるいは、画像操作ソフトウェアモジュール820は、タッチ感応面125上のダブルタップの位置に対応する位置に提供された画像200の一部が更新画像の中心に現れるように、表示されている画像200の平行移動を含むようにダブルタップ操作用の画像操作をプロセッサ920に決定させることができる。さらなる代替として、画像操作ソフトウェアモジュール820は、画像200の中心に提供された画像200の一部も更新画像の中心に現れるように、ダブルタップ操作用の画像操作をプロセッサ920に決定させることができる。
代替の実施形態では、画像操作ソフトウェアモジュール820は、タッチ感応面125上のダブルタップの位置に対応する位置に提供された画像200の一部が更新画像の中心に現れるように、表示されている画像200の平行移動を含むように単一の指を使用して実行されるダブルタップ操作用の画像操作を決定し、画像200の中心に提供された画像200の一部も更新画像の中心に現れるように、2つ以上の指を使用して実行されるダブルタップ操作用の画像操作を決定することをプロセッサ920に行わせることができ、このようにして上述された機能が組み合わされる。
上記では、ダブルタップ操作は表示画像200のズームイン(視覚的拡大)をもたらすように記載されたが、それらは、代替として、ユーザが現在の表示画像200をズームアウトすることを可能にすることができる。この場合、更新画像がディスプレイデバイス110の画面を満たす場合、上述されたように、ズームアウトするダブルタップはダブルタップ位置が保持されるようにしない。
スキャン位置指定ソフトウェアモジュール830は、たとえば、背景画像220に対する前景グラフィカル計画要素210の平行移動を含む最新の画像操作から生じる更新画像などの更新画像のうちの少なくとも1つの中の網膜の背景画像220上の前景グラフィカル計画要素210の位置に基づいて、網膜上で実行されるべきOCTスキャンの位置を示すOCTスキャン位置データ145をプロセッサ920に生成させる。
スキャン位置指定ソフトウェアモジュール830は、任意の適切な方法で背景画像220上の前景グラフィカル計画要素210の位置に基づいて、OCTスキャン位置データ145をプロセッサ920に生成させることができる。OCTスキャナは、異なるモダリティの画像内で一般的に認識可能な中心窩などの解剖学的特徴をカバーするOCT網膜スキャンを実行し、OCT測定値、並びに、たとえば、網膜の表面にわたってOCTサンプルビームを偏向させるように配置されたOCTスキャナの第1の(たとえば水平)ミラー及び第2の(たとえば垂直)ミラーの角変位を示す対応するスキャンパラメータ値を含むデータを生成し、その場合、スキャン位置指定ソフトウェアモジュール830は、生成されたデータ、及びOCT網膜スキャン内の位置と、(OCT網膜スキャン画像内の中心窩又は任意の他の認識可能な解剖学的特徴の位置と背景画像220を比較することによって決定されてよい)背景画像220内の対応する位置との間のマッピングを使用して、背景画像220上の前景グラフィカル計画要素210の位置に対応するスキャンパラメータ値を計算することをプロセッサ920に行わせることができる。
背景画像220上の前景グラフィカル計画要素210の位置は、第1の実施形態を参照して上述されたように、任意の適切な方法で定義されてよい。
スキャン位置指定ソフトウェアモジュール830は、本実施形態におけるように、OCTスキャナ(図示せず)によって実行されるOCTスキャンの位置だけでなく、そのOCTスキャンのサイズも示すOCTスキャン位置データ145をプロセッサ520に生成させることができ、サイズは、更新画像のうちの少なくとも1つの中の前景グラフィカル計画要素210の少なくとも1つの次元に基づいている。たとえば、前景グラフィカル計画要素210が、その長さがユーザによって調整可能である、OCTスキャナによって実行されるBスキャンの位置を指定するための線分である場合、スキャン位置指定ソフトウェアモジュール830は、上述されたOCTスキャンの位置を示すデータに加えて、ユーザによって選択又はそうでない場合設定された線分の長さに基づいて、OCTスキャンの長さを示すデータを生成されたスキャン位置データに含めることができる。長方形の前景グラフィカル計画要素210の幅及び/又は高さは、同様に、長方形のOCTスキャン領域の幅及び/又は高さが、ユーザの要求に従ってスキャン位置指定ソフトウェアモジュール830によって設定されることを可能にするように、ユーザによって調整可能であってよい。スキャン位置指定ソフトウェアモジュール830は、背景画像220に対する前景グラフィカル計画要素210の平行移動を含む最新の画像操作、及び前景グラフィカル計画要素210のサイズ変更を含む最新の操作から生じる更新画像内の前景グラフィカル計画要素210の(背景画像220上の)位置及びサイズに基づいて、網膜上で実行されるべきOCTスキャンの位置とサイズの両方を示すOCTスキャン位置データ145をプロセッサ920に生成させることができる。
第1の実施形態において画像操作モジュール130及びスキャン位置指定モジュール140によって実行される動作及びそれらの変形形態の他の詳細は、画像操作ソフトウェアモジュール820及びスキャン位置指定ソフトウェアモジュール830の動作に適用可能であり、ここでは繰り返さない。
上記から、表示制御ソフトウェアモジュール810、画像操作ソフトウェアモジュール820、及びスキャン位置指定ソフトウェアモジュール830は、図10に示されるような方法を実行できることが諒解されよう。図10は、それにより図8のコンピュータプログラム800が眼の網膜上で実行される光干渉断層撮影OCTスキャンの位置を指定する、プロセス1000を示すフロー図である。
図10のプロセスS10において、表示制御ソフトウェアモジュール810は、プロセッサ920によって実行され、画像データによって定義された画像200を表示するようにディスプレイデバイス110を制御するための表示制御信号をプロセッサ920に生成させる。表示制御信号の生成は、網膜の一部の背景画像220及び実行されるOCTスキャンの網膜上の位置を指定するための前景グラフィカル計画要素210を定義する画像データに基づく。
プロセスS20において、画像操作ソフトウェアモジュール820は、プロセッサ920によって実行され、タッチ感応面125とのユーザの複数のタッチ対話の各々について、タッチセンサ式入力デバイス120のタッチ感応面125上の検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データ127をプロセッサ920に受信させる。
プロセスS30において、画像操作ソフトウェアモジュール820は、プロセッサ920によって実行され、タッチ対話データ127の各々に基づいて、ディスプレイデバイス110によって表示されている画像200を定義する画像データに対して実行されるそれぞれの画像操作をプロセッサ920に決定させ、各画像操作は、共通係数による前景グラフィカル計画要素210と背景画像220の両方のサイズ変更、背景画像220に対する前景グラフィカル計画要素210の平行移動、及び表示されている画像200のパンのうちの少なくとも1つを含む。
プロセスS40において、画像操作ソフトウェアモジュール820は、プロセッサ920によって実行され、ディスプレイデバイス110に表示されるべき更新画像を定義するそれぞれの更新画像データを生成するために、タッチ対話の各々に応答して、ディスプレイデバイス110によって表示されている画像200を定義する画像データに決定された画像操作を適用することをプロセッサ920に行わせる。
プロセスS50において、画像操作ソフトウェアモジュール820は、プロセッサ920によって実行され、タッチ対話の各々に応答して生成された更新画像データに基づいて、更新画像データによって定義された更新画像を表示するようにディスプレイデバイス110を制御するためのそれぞれの表示制御信号を表示制御ソフトウェアモジュール810に生成させることをプロセッサ920に行わせる。
プロセスS60において、スキャン位置指定ソフトウェアモジュール830は、プロセッサ920によって実行され、更新画像のうちの少なくとも1つの中の網膜の背景画像220上の前景グラフィカル計画要素210の位置に基づいて、網膜上で実行されるべきOCTスキャンの位置を示すOCTスキャン位置データ145をプロセッサ920に生成させる。
第2の実施形態のコンピュータプログラム800によって実行される動作及びそれらの変形形態の他の詳細は、上述されたように、図10のプロセス1000に適用可能であり、ここでは繰り返さない。
上述された実施形態は、画像の単純なパン及びズームを超える機能を提供し、背景画像上の前景グラフィカル計画要素の座標、サイズ、及び位置が維持され、ユーザがいかなる追加のステップもなしに、前景グラフィカル計画要素、又は前景グラフィカル計画要素と背景画像の組合せのいずれかとシームレスに対話することを可能にすることを諒解されたい。
上記の説明では、いくつかの例示的な実施形態を参照して例示的な態様が記載された。したがって、本明細書は制限的ではなく例示的と見なされるべきである。同様に、例示的な実施形態の機能性及び利点を強調する図面に示された図は、例示のみを目的として提示されている。例示的な実施形態のアーキテクチャは、十分に柔軟性があり、構成可能であるため、添付の図に示された方法以外の方法で利用(及びナビゲート)されてよい。
本明細書に提示された例のソフトウェア実施形態は、それらの各々が、例示的な一実施形態では非一時的であり得る、機械アクセス可能媒体若しくは機械可読媒体、命令ストア、又はコンピュータ可読ストレージデバイスなどの製造品に含まれるか又は記憶される、命令又は命令のシーケンスを有する1又は複数のプログラムなどのコンピュータプログラム又はソフトウェアとして提供されてよい。非一時的な機械アクセス可能媒体、機械可読媒体、命令ストア、又はコンピュータ可読ストレージデバイス上のプログラム又は命令は、コンピュータシステム又は他の電子デバイスをプログラムするために使用されてよい。機械可読媒体又はコンピュータ可読媒体、命令ストア、及びストレージデバイスには、限定はしないが、フロッピーディスケット、光ディスク、及び光磁気ディスク、又は電子命令を記憶若しくは送信するのに適した他のタイプの媒体/機械可読媒体/命令ストア/ストレージデバイスが含まれてよい。本明細書に記載された技法は、いかなる特定のソフトウェア構成にも限定されない。それらは、いかなるコンピューティング環境又は処理環境にも適用可能性を見出すことができる。本明細書で使用される「コンピュータ可読」、「機械アクセス可能媒体」、「機械可読媒体」、「命令ストア」、及び「コンピュータ可読ストレージデバイス」という用語は、機械、コンピュータ、又はコンピュータプロセッサによる実行のための命令又は一連の命令を記憶、符号化、又は送信することが可能であり、本明細書に記載された方法のいずれか1つを機械/コンピュータ/コンピュータプロセッサに実行させる任意の媒体を含むべきである。さらに、何らかの形態(たとえば、プログラム、手順、プロセス、アプリケーション、モジュール、ユニット、ロジックなど)のソフトウェアを、アクションをとるか又は結果を引き起こすものとして言及することが、当技術分野では一般的である。そのような表現は、処理システムによるソフトウェアの実行により、プロセッサがアクションを実行して結果を生成することを述べる簡単な方法にすぎない。
いくつかの実施形態は、特定用途向け集積回路、フィールドプログラマブルゲートアレイの準備により、又は従来のコンポーネント回路の適切なネットワークを相互接続することによって実装されてもよい。
いくつかの実施形態はコンピュータプログラム製品を含む。コンピュータプログラム製品は、本明細書に記載された例示的な実施形態の手順のいずれかを実行するようにコンピュータ若しくはコンピュータプロセッサを制御するか、又はコンピュータ若しくはコンピュータプロセッサに実行させるために使用できる命令をその上又はその中に記憶している、1又は複数の記憶媒体、命令ストア、又はストレージデバイスであってよい。記憶媒体/命令ストア/ストレージデバイスには、限定ではなく例として、光ディスク、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、フラッシュメモリ、フラッシュカード、磁気カード、光カード、ナノシステム、分子メモリ集積回路、RAID、リモートデータストレージ/アーカイブ/ウェアハウジング、並びに/又は命令及び/若しくはデータを記憶するのに適した任意の他のタイプのデバイスが含まれてよい。
1又は複数のコンピュータ可読媒体、命令ストア、又はストレージデバイスのいずれか1つに記憶されたいくつかの実装形態は、システムのハードウェアを制御するためのソフトウェアと、システム又はマイクロプロセッサが本明細書に記載された例示的な実施形態の結果を利用する人間のユーザ又は他のメカニズムと対話することを可能にするためのソフトウェアの両方を含む。そのようなソフトウェアには、限定はなく、デバイスドライバ、オペレーティングシステム、及びユーザアプリケーションが含まれてよい。最終的に、そのようなコンピュータ可読媒体又はストレージデバイスは、上述されたように、本発明の例示的な態様を実行するためのソフトウェアをさらに含む。
システムのプログラミング及び/又はソフトウェアには、本明細書に記載された手順を実装するためのソフトウェアモジュールが含まれている。本明細書のいくつかの例示的実施形態では、モジュールはソフトウェアを含むが、本明細書の他の例示的な実施形態では、モジュールはハードウェア又はハードウェアとソフトウェアの組合せを含む。
本発明の様々な例示的な実施形態が上述されたが、それらは例として提示されており、限定ではないことを理解されたい。形態及び詳細における様々な変更をその中で行えることは、当業者には明らかであろう。したがって、本発明は、上述された例示的な実施形態のいずれによっても限定されるべきではなく、以下の特許請求の範囲及びそれらの均等物によってのみ定義されるべきである。
さらに、要約の目的は、特許庁及び公衆が、一般に、特に特許又は法律の用語又は術語に精通していない科学者、技術者、及び専門家が、本出願の技術的開示の性質及び本質を大まかな検査から迅速に判断することを可能にすることである。要約は、本明細書に提示された例示的な実施形態の範囲に関していかなる形でも限定することを意図するものではない。また、特許請求の範囲に列挙された手順は、提示された順序で実行される必要がないことを理解されたい。
本明細書は多くの具体的な実施形態の詳細を含んでいるが、これらは、任意の発明又は特許請求され得るものの範囲に対する制限として解釈されるべきではなく、むしろ本明細書に記載された特定の実施形態に特有の特徴の説明として解釈されるべきである。別個の実施形態の文脈で本明細書に記載されたいくつかの特徴は、単一の実施形態において組み合わせて実装することもできる。逆に、単一の実施形態の文脈で記載された様々な特徴は、複数の実施形態において別々に、又は任意の適切なサブコンビネーションで実装することもできる。その上、特徴はいくつかの組合せで機能するものとして上述されてよく、最初にそのように特許請求されてもよいが、特許請求された組合せからの1又は複数の特徴は、場合によっては、組合せから削除することができ、特許請求された組合せは、サブコンビネーション又はサブコンビネーションの変形形態を対象としてよい。
いくつかの状況では、マルチタスク及び並列処理が有利な場合がある。その上、上述された実施形態における様々な構成要素の分離は、すべての実施形態においてそのような分離を必要とすると理解されるべきではなく、記載されたプログラム構成要素及びシステムは、一般に、単一のソフトウェア製品に一緒に統合するか、又は複数のソフトウェア製品にパッケージ化することができる。
ところで、いくつかの例示的な実施形態及び実施形態を記載してきたが、上記は例示であり、限定ではなく、例として提示されていることは明らかである。特に、本明細書で提示された例の多くは、装置又はソフトウェア要素の特定の組合せを含むが、それらの要素は、同じ目的を達成するために他の方法で組み合わされてよい。一実施形態に関連してのみ説明された動作、要素、及び特徴は、他の実施形態又は実施形態における同様の役割から除外されるものではない。
本明細書に記載された装置及びコンピュータプログラムは、その特性から逸脱することなく他の特定の形態で具現化されてよい。上記の実施形態は、記載されたシステム及び方法を限定するものではなく、例示的なものである。したがって、本明細書に記載された装置及びコンピュータプログラムの範囲は、上記の説明ではなく添付の特許請求の範囲によって示され、特許請求の範囲の同等の意味及び範囲内に入る変更はそこに含まれる。

Claims (20)

  1. 眼の網膜上で実行される光干渉断層撮影OCTスキャンの位置を指定するためのコンピュータプログラムであって、
    プロセッサによって実行されると、画像データによって定義された前記画像を表示するようにディスプレイデバイスを制御するための表示制御信号を前記プロセッサに生成させる、表示制御ソフトウェアモジュールであって、前記表示制御信号の生成が、前記網膜の一部の背景画像及び実行される前記OCTスキャンの前記網膜上の位置を指定するための前景グラフィカル計画要素を定義する画像データに基づく、表示制御ソフトウェアモジュールと、
    前記プロセッサによって実行されると、
    タッチ感応面とのユーザの複数のタッチ対話の各々について、タッチセンサ式入力デバイスの前記タッチ感応面上の検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データを受信することと、
    前記タッチ対話データの各々に基づいて、前記ディスプレイデバイスによって表示されている前記画像を定義する前記画像データに対して実行されるぞれぞれの画像操作を決定することであって、各画像操作が、
    共通係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更、
    前記背景画像に対する前記前景グラフィカル計画要素の平行移動、及び
    表示されている前記画像のパン
    のうちの少なくとも1つを含む、決定することと、
    前記ディスプレイデバイスに表示されるべき更新画像を定義するそれぞれの更新画像データを生成するために、前記タッチ対話の各々に応答して、前記ディスプレイデバイスによって表示されている前記画像を定義する前記画像データに前記決定された画像操作を適用することと、
    前記タッチ対話の各々に応答して生成された前記更新画像データに基づいて、前記更新画像データによって定義された更新画像を表示するように前記ディスプレイデバイスを制御するためのそれぞれの表示制御信号を前記表示制御ソフトウェアモジュールに生成させることと
    を前記プロセッサに行わせる、画像操作ソフトウェアモジュールと、
    前記プロセッサによって実行されると、前記更新画像のうちの少なくとも1つの中の前記網膜の前記背景画像上の前記前景グラフィカル計画要素の位置に基づいて、前記網膜上で実行されるべき前記OCTスキャンの前記位置を示すOCTスキャン位置データを前記プロセッサに生成させる、スキャン位置指定ソフトウェアモジュールと
    を備える、コンピュータプログラム。
  2. 前記複数のタッチ対話が、前記タッチセンサ式入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるシングルタッチドラッグ操作を含み、
    前記シングルタッチドラッグについての検出位置の前記少なくとも1つのシーケンスが、前記シングルタッチドラッグの開始に対応する第1の検出位置と、前記シングルタッチドラッグの終了に対応する第2の検出位置とを含み、
    前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から所定の距離内にある場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、前記背景画像に対する前記前景グラフィカル計画要素の平行移動を含むように、前記シングルタッチドラッグ用の前記画像操作を前記プロセッサに決定させ、
    前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から前記所定の距離内にない場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、表示されている前記画像のパンを含むように、前記シングルタッチドラッグ用の前記画像操作を前記プロセッサに決定させる、
    請求項1に記載のコンピュータプログラム。
  3. 前記複数のタッチ対話が、前記タッチセンサ式入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるピンチ操作を含み、
    前記ピンチ操作についての検出位置の前記少なくとも1つのシーケンスが、検出位置の第1のシーケンス及び検出位置の第2のシーケンスを含み、
    前記複数のタッチ対話のうちのタッチ対話が前記ピンチ操作である場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、検出位置の前記第1及び第2のシーケンス内の最初の検出位置間の距離と、検出位置の前記第1及び第2のシーケンス内の最後の検出位置間の距離との間の差に基づく共通倍率により、前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ピンチ操作用の前記画像操作を前記プロセッサに決定させる、
    請求項1又は請求項2に記載のコンピュータプログラム。
  4. 前記複数のタッチ対話が、前記タッチセンサ式入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるダブルタップ操作を含み、
    前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、共通の所定の係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ダブルタップ操作用の前記画像操作を前記プロセッサに決定させる、
    請求項1から請求項3のいずれか一項に記載のコンピュータプログラム。
  5. 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、
    表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が、前記更新画像内の同じ位置に現れるか、
    表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が、前記更新画像の中心に現れるか、又は
    前記ディスプレイデバイスの中心に提供された前記画像の一部が、前記更新画像の中心に現れる
    ように、前記ダブルタップ操作用の前記画像操作を前記プロセッサにさらに決定させる、
    請求項4に記載のコンピュータプログラム。
  6. 前記前景グラフィカル計画要素が、点、線分、長方形、及び楕円のうちの1つを含む、請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。
  7. 前記スキャン位置指定ソフトウェアモジュールが、前記プロセッサによって実行されると、前記更新画像のうちの少なくとも1つの中の前記前景グラフィカル計画要素の少なくとも1つの次元に基づいて、前記網膜上で実行されるべき前記OCTスキャンの前記サイズを定義するデータを、前記OCTスキャン位置データの一部として、前記プロセッサにさらに生成させる、請求項1から請求項6のいずれか一項に記載のコンピュータプログラム。
  8. 請求項1から請求項7のいずれか一項に記載のコンピュータプログラムを記憶する、非一時的コンピュータ可読記憶媒体。
  9. 請求項1から請求項7のいずれか一項に記載のコンピュータプログラムを搬送する、信号。
  10. 眼の網膜上で実行される光干渉断層撮影OCTスキャンの位置を指定するための装置であって、
    前記網膜の一部の背景画像及び実行される前記OCTスキャンの前記網膜上の位置を指定するための前景グラフィカル計画要素を含む画像を表示するように構成されたディスプレイデバイスと、
    タッチ感応面を有し、前記タッチ感応面とのユーザの複数のタッチ対話の各々について検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データを生成するように構成されたタッチセンサ式入力デバイスと、
    前記タッチ対話データの各々に基づいて、前記ディスプレイデバイスによって表示される前記画像に対して実行されるぞれぞれの画像操作を決定することであって、各画像操作が、
    共通係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更、
    前記背景画像に対する前記前景グラフィカル計画要素の平行移動、及び
    表示されている前記画像のパン
    のうちの少なくとも1つを含む、決定することと、
    前記ディスプレイデバイスに表示されるそれぞれの更新画像を生成するために、前記タッチ対話の各々に応答して、前記ディスプレイデバイスに表示されている前記画像に前記決定された画像操作を適用することと
    を行うように構成された画像操作モジュールと、
    前記更新画像のうちの少なくとも1つの中の前記網膜の前記背景画像上の前記前景グラフィカル計画要素の位置に基づいて、前記網膜上で実行されるべき前記OCTスキャンの前記位置を示すOCTスキャン位置データを生成するように構成されたスキャン位置指定モジュールと
    を備える、装置。
  11. 前記複数のタッチ対話が、前記入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるシングルタッチドラッグ操作を含み、
    前記シングルタッチドラッグについての検出位置の前記少なくとも1つのシーケンスが、前記シングルタッチドラッグの開始に対応する第1の検出位置と、前記シングルタッチドラッグの終了に対応する第2の検出位置とを含み、
    前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から所定の距離内にある場合、前記画像操作モジュールが、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、前記背景画像に対する前記前景グラフィカル計画要素の平行移動を含むように、前記シングルタッチドラッグ用の前記画像操作を決定するように構成され、
    前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から前記所定の距離内にない場合、前記画像操作モジュールが、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、表示されている前記画像のパンを含むように、前記シングルタッチドラッグ用の前記画像操作を決定するように構成される、
    請求項10に記載の装置。
  12. 前記複数のタッチ対話が、前記入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるピンチ操作を含み、
    前記ピンチ操作についての検出位置の前記少なくとも1つのシーケンスが、検出位置の第1のシーケンス及び検出位置の第2のシーケンスを含み、
    前記複数のタッチ対話のうちのタッチ対話が前記ピンチ操作である場合、前記画像操作モジュールが、検出位置の前記第1及び第2のシーケンス内の最初の検出位置間の距離と、検出位置の前記第1及び第2のシーケンス内の最後の検出位置間の距離との間の差に基づく共通倍率により、前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ピンチ操作用の前記画像操作を決定するように構成される、
    請求項10又は請求項11に記載の装置。
  13. 前記複数のタッチ対話が、前記入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるダブルタップ操作を含み、
    前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、共通の所定の係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ダブルタップ操作用の前記画像操作を決定するように構成される、
    請求項10から請求項12のいずれか一項に記載の装置。
  14. 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が前記更新画像内の同じ位置に現れるように、前記ダブルタップ操作用の前記画像操作を決定するようにさらに構成される、請求項13に記載の装置。
  15. 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が前記更新画像内の中心に現れるような、表示されている前記画像の平行移動を含むように、前記ダブルタップ操作用の前記画像操作を決定するようにさらに構成される、請求項13に記載の装置。
  16. 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、前記ディスプレイデバイスの中心に提供された前記画像の一部が前記更新画像の中心に現れるような、表示されている前記画像の平行移動を含むように、前記ダブルタップ操作用の前記画像操作を決定するようにさらに構成される、請求項13に記載の装置。
  17. 前記前景グラフィカル計画要素が、点、線分、長方形、及び楕円のうちの1つを含む、請求項10から請求項16のいずれか一項に記載の装置。
  18. 前記ディスプレイデバイス及び前記タッチセンサ式入力デバイスが、タッチスクリーンスクリーンに含まれる、請求項10から請求項17のいずれか一項に記載の装置。
  19. 前記入力デバイスがトラックパッドである、請求項10から請求項17のいずれか一項に記載の装置。
  20. 前記スキャン位置指定モジュールが、前記更新画像のうちの少なくとも1つの中の前記前景グラフィカル計画要素の少なくとも1つの次元に基づいて、前記網膜上で実行されるべき前記OCTスキャンのサイズを定義するデータを、前記OCTスキャン位置データの一部として生成するようにさらに構成される、請求項10から請求項19のいずれか一項に記載の装置。
JP2019230610A 2018-12-20 2019-12-20 光干渉断層撮影スキャン制御 Active JP7020636B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18214686.0 2018-12-20
EP18214686.0A EP3669749B1 (en) 2018-12-20 2018-12-20 Optical coherence tomography scan control

Publications (2)

Publication Number Publication Date
JP2020121109A true JP2020121109A (ja) 2020-08-13
JP7020636B2 JP7020636B2 (ja) 2022-02-16

Family

ID=65003129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019230610A Active JP7020636B2 (ja) 2018-12-20 2019-12-20 光干渉断層撮影スキャン制御

Country Status (7)

Country Link
US (1) US11857256B2 (ja)
EP (1) EP3669749B1 (ja)
JP (1) JP7020636B2 (ja)
CN (1) CN111352564B (ja)
DK (1) DK3669749T3 (ja)
ES (1) ES2979146T3 (ja)
FI (1) FI3669749T3 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022030331A (ja) * 2020-08-07 2022-02-18 株式会社三共 遊技機

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004978A (ja) * 2009-06-25 2011-01-13 Canon Inc 眼底撮像装置及びその制御方法
JP2013165953A (ja) * 2012-01-20 2013-08-29 Canon Inc 画像処理装置及び画像処理方法
JP2013212176A (ja) * 2012-03-30 2013-10-17 Canon Inc 眼科装置
JP2014147495A (ja) * 2013-01-31 2014-08-21 Canon Inc 眼科装置および制御方法
JP2015160105A (ja) * 2014-02-28 2015-09-07 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016101298A (ja) * 2014-11-28 2016-06-02 株式会社トプコン 眼科撮影装置
JP2017056280A (ja) * 2016-12-27 2017-03-23 キヤノン株式会社 画像処理装置及び画像処理方法
US20170228521A1 (en) * 2016-02-05 2017-08-10 Carl Zeiss Meditec, Inc. Report driven workflow for ophthalmic image data acquisition
JP2018000246A (ja) * 2016-06-27 2018-01-11 株式会社ニデック 眼科画像処理装置、眼科画像処理プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
US8081808B2 (en) * 2007-11-08 2011-12-20 Topcon Medical Systems, Inc. Retinal thickness measurement by combined fundus image and three-dimensional optical coherence tomography
US8677282B2 (en) 2009-05-13 2014-03-18 International Business Machines Corporation Multi-finger touch adaptations for medical imaging systems
JP2011064978A (ja) 2009-09-17 2011-03-31 Toshiba Corp マスクパターン判定方法、マスク製造方法およびデバイス製造方法
US9075903B2 (en) * 2010-11-26 2015-07-07 Hologic, Inc. User interface for medical image review workstation
JP2012145823A (ja) 2011-01-13 2012-08-02 Ricoh Co Ltd 光走査装置及び画像形成装置
US9256361B2 (en) * 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
JP2014045868A (ja) * 2012-08-30 2014-03-17 Canon Inc インタラクティブ制御装置
US20140118268A1 (en) * 2012-11-01 2014-05-01 Google Inc. Touch screen operation using additional inputs
US9710433B2 (en) * 2012-11-30 2017-07-18 Yahoo! Inc. Dynamic content mapping
EP2743817A1 (en) * 2012-12-12 2014-06-18 British Telecommunications public limited company Touch screen device for handling lists
WO2014142468A1 (en) 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Method of providing copy image and ultrasound apparatus therefor
JP2014183425A (ja) * 2013-03-19 2014-09-29 Sony Corp 画像処理方法、画像処理装置および画像処理プログラム
DE102013105770B4 (de) * 2013-06-05 2022-01-27 Carl Zeiss Meditec Ag Fundus-Abbildungssystem für ein Operationsmikroskop sowie Operationsmikroskop
US20170100030A1 (en) * 2014-06-03 2017-04-13 Socialeyes Corporation Systems and methods for retinopathy workflow, evaluation and grading using mobile devices
GB201411309D0 (en) * 2014-06-25 2014-08-06 Tomtom Int Bv Vehicular human machine interfaces
CN105278771A (zh) * 2014-07-25 2016-01-27 南京瀚宇彩欣科技有限责任公司 无挡触控的手持式电子装置、方法及图形化使用者界面
DE102014014498B4 (de) * 2014-09-25 2024-08-08 Alcon Inc. Mit einem Touchscreen ausgestattetes Gerät sowie Verfahren zur Steuerung eines derartigen Geräts
US9717405B2 (en) * 2015-09-18 2017-08-01 Novartis Ag Vitreoretinal membrane characterization using optical coherence tomography
WO2018065257A1 (en) * 2016-10-07 2018-04-12 Koninklijke Philips N.V. Context sensitive magnifying glass

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004978A (ja) * 2009-06-25 2011-01-13 Canon Inc 眼底撮像装置及びその制御方法
JP2013165953A (ja) * 2012-01-20 2013-08-29 Canon Inc 画像処理装置及び画像処理方法
JP2013212176A (ja) * 2012-03-30 2013-10-17 Canon Inc 眼科装置
JP2014147495A (ja) * 2013-01-31 2014-08-21 Canon Inc 眼科装置および制御方法
JP2015160105A (ja) * 2014-02-28 2015-09-07 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016101298A (ja) * 2014-11-28 2016-06-02 株式会社トプコン 眼科撮影装置
US20170228521A1 (en) * 2016-02-05 2017-08-10 Carl Zeiss Meditec, Inc. Report driven workflow for ophthalmic image data acquisition
JP2018000246A (ja) * 2016-06-27 2018-01-11 株式会社ニデック 眼科画像処理装置、眼科画像処理プログラム
JP2017056280A (ja) * 2016-12-27 2017-03-23 キヤノン株式会社 画像処理装置及び画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022030331A (ja) * 2020-08-07 2022-02-18 株式会社三共 遊技機

Also Published As

Publication number Publication date
JP7020636B2 (ja) 2022-02-16
FI3669749T3 (fi) 2024-05-28
CN111352564A (zh) 2020-06-30
US11857256B2 (en) 2024-01-02
US20200196854A1 (en) 2020-06-25
DK3669749T3 (da) 2024-05-21
EP3669749B1 (en) 2024-04-24
ES2979146T3 (es) 2024-09-24
CN111352564B (zh) 2024-05-24
EP3669749A1 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
US7446783B2 (en) System and method for manipulating an image on a screen
JP6371475B2 (ja) 視線入力装置、視線入力方法、および、視線入力プログラム
US20150293600A1 (en) Depth-based analysis of physical workspaces
US10007351B2 (en) Three-dimensional user interface device and three-dimensional operation processing method
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US9836130B2 (en) Operation input device, operation input method, and program
CN111656402A (zh) 用于与血管图像交互的设备、系统和方法
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP7020636B2 (ja) 光干渉断層撮影スキャン制御
TW201606574A (zh) 操作畫面顯示裝置、操作畫面顯示方法以及非暫時性之記錄媒體
JP6229554B2 (ja) 検出装置および検出方法
JP7282541B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2010272036A (ja) 画像処理装置
JP4563723B2 (ja) 指示動作認識装置及び指示動作認識プログラム
KR101611484B1 (ko) 의료영상의 제공방법
KR101542671B1 (ko) 공간 터치 방법 및 공간 터치 장치
JP6643825B2 (ja) 装置及び方法
US20220409324A1 (en) Systems and methods for telestration with spatial memory
JP2018049498A (ja) 画像処理装置、操作検出方法、コンピュータプログラム、及び記憶媒体
JP7021596B2 (ja) 情報処理装置、処理方法、及びプログラム
JP2016153996A (ja) 座標取得システム、ディスプレイ装置、座標取得方法およびプログラム
JP2019168251A (ja) 形状測定装置、形状測定方法及びプログラム
KR20190049349A (ko) 프로젝션 영상에서 사용자의 터치를 인식하는 방법 및 이러한 방법을 수행하는 장치
JP6873326B2 (ja) 眼3次元座標取得装置及びジェスチャ操作装置
CN113095243B (zh) 一种鼠标控制的方法、装置、计算机设备和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220125

R150 Certificate of patent or registration of utility model

Ref document number: 7020636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150