JP2020121109A - 光干渉断層撮影スキャン制御 - Google Patents
光干渉断層撮影スキャン制御 Download PDFInfo
- Publication number
- JP2020121109A JP2020121109A JP2019230610A JP2019230610A JP2020121109A JP 2020121109 A JP2020121109 A JP 2020121109A JP 2019230610 A JP2019230610 A JP 2019230610A JP 2019230610 A JP2019230610 A JP 2019230610A JP 2020121109 A JP2020121109 A JP 2020121109A
- Authority
- JP
- Japan
- Prior art keywords
- image
- touch
- manipulation
- planning element
- graphical planning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0033—Operational features thereof characterised by user input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/103—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
- A61B3/1225—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Description
Claims (20)
- 眼の網膜上で実行される光干渉断層撮影OCTスキャンの位置を指定するためのコンピュータプログラムであって、
プロセッサによって実行されると、画像データによって定義された前記画像を表示するようにディスプレイデバイスを制御するための表示制御信号を前記プロセッサに生成させる、表示制御ソフトウェアモジュールであって、前記表示制御信号の生成が、前記網膜の一部の背景画像及び実行される前記OCTスキャンの前記網膜上の位置を指定するための前景グラフィカル計画要素を定義する画像データに基づく、表示制御ソフトウェアモジュールと、
前記プロセッサによって実行されると、
タッチ感応面とのユーザの複数のタッチ対話の各々について、タッチセンサ式入力デバイスの前記タッチ感応面上の検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データを受信することと、
前記タッチ対話データの各々に基づいて、前記ディスプレイデバイスによって表示されている前記画像を定義する前記画像データに対して実行されるぞれぞれの画像操作を決定することであって、各画像操作が、
共通係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更、
前記背景画像に対する前記前景グラフィカル計画要素の平行移動、及び
表示されている前記画像のパン
のうちの少なくとも1つを含む、決定することと、
前記ディスプレイデバイスに表示されるべき更新画像を定義するそれぞれの更新画像データを生成するために、前記タッチ対話の各々に応答して、前記ディスプレイデバイスによって表示されている前記画像を定義する前記画像データに前記決定された画像操作を適用することと、
前記タッチ対話の各々に応答して生成された前記更新画像データに基づいて、前記更新画像データによって定義された更新画像を表示するように前記ディスプレイデバイスを制御するためのそれぞれの表示制御信号を前記表示制御ソフトウェアモジュールに生成させることと
を前記プロセッサに行わせる、画像操作ソフトウェアモジュールと、
前記プロセッサによって実行されると、前記更新画像のうちの少なくとも1つの中の前記網膜の前記背景画像上の前記前景グラフィカル計画要素の位置に基づいて、前記網膜上で実行されるべき前記OCTスキャンの前記位置を示すOCTスキャン位置データを前記プロセッサに生成させる、スキャン位置指定ソフトウェアモジュールと
を備える、コンピュータプログラム。 - 前記複数のタッチ対話が、前記タッチセンサ式入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるシングルタッチドラッグ操作を含み、
前記シングルタッチドラッグについての検出位置の前記少なくとも1つのシーケンスが、前記シングルタッチドラッグの開始に対応する第1の検出位置と、前記シングルタッチドラッグの終了に対応する第2の検出位置とを含み、
前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から所定の距離内にある場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、前記背景画像に対する前記前景グラフィカル計画要素の平行移動を含むように、前記シングルタッチドラッグ用の前記画像操作を前記プロセッサに決定させ、
前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から前記所定の距離内にない場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、表示されている前記画像のパンを含むように、前記シングルタッチドラッグ用の前記画像操作を前記プロセッサに決定させる、
請求項1に記載のコンピュータプログラム。 - 前記複数のタッチ対話が、前記タッチセンサ式入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるピンチ操作を含み、
前記ピンチ操作についての検出位置の前記少なくとも1つのシーケンスが、検出位置の第1のシーケンス及び検出位置の第2のシーケンスを含み、
前記複数のタッチ対話のうちのタッチ対話が前記ピンチ操作である場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、検出位置の前記第1及び第2のシーケンス内の最初の検出位置間の距離と、検出位置の前記第1及び第2のシーケンス内の最後の検出位置間の距離との間の差に基づく共通倍率により、前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ピンチ操作用の前記画像操作を前記プロセッサに決定させる、
請求項1又は請求項2に記載のコンピュータプログラム。 - 前記複数のタッチ対話が、前記タッチセンサ式入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるダブルタップ操作を含み、
前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、共通の所定の係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ダブルタップ操作用の前記画像操作を前記プロセッサに決定させる、
請求項1から請求項3のいずれか一項に記載のコンピュータプログラム。 - 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作ソフトウェアモジュールが、前記プロセッサによって実行されると、
表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が、前記更新画像内の同じ位置に現れるか、
表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が、前記更新画像の中心に現れるか、又は
前記ディスプレイデバイスの中心に提供された前記画像の一部が、前記更新画像の中心に現れる
ように、前記ダブルタップ操作用の前記画像操作を前記プロセッサにさらに決定させる、
請求項4に記載のコンピュータプログラム。 - 前記前景グラフィカル計画要素が、点、線分、長方形、及び楕円のうちの1つを含む、請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。
- 前記スキャン位置指定ソフトウェアモジュールが、前記プロセッサによって実行されると、前記更新画像のうちの少なくとも1つの中の前記前景グラフィカル計画要素の少なくとも1つの次元に基づいて、前記網膜上で実行されるべき前記OCTスキャンの前記サイズを定義するデータを、前記OCTスキャン位置データの一部として、前記プロセッサにさらに生成させる、請求項1から請求項6のいずれか一項に記載のコンピュータプログラム。
- 請求項1から請求項7のいずれか一項に記載のコンピュータプログラムを記憶する、非一時的コンピュータ可読記憶媒体。
- 請求項1から請求項7のいずれか一項に記載のコンピュータプログラムを搬送する、信号。
- 眼の網膜上で実行される光干渉断層撮影OCTスキャンの位置を指定するための装置であって、
前記網膜の一部の背景画像及び実行される前記OCTスキャンの前記網膜上の位置を指定するための前景グラフィカル計画要素を含む画像を表示するように構成されたディスプレイデバイスと、
タッチ感応面を有し、前記タッチ感応面とのユーザの複数のタッチ対話の各々について検出位置の少なくとも1つのシーケンスを示すそれぞれのタッチ対話データを生成するように構成されたタッチセンサ式入力デバイスと、
前記タッチ対話データの各々に基づいて、前記ディスプレイデバイスによって表示される前記画像に対して実行されるぞれぞれの画像操作を決定することであって、各画像操作が、
共通係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更、
前記背景画像に対する前記前景グラフィカル計画要素の平行移動、及び
表示されている前記画像のパン
のうちの少なくとも1つを含む、決定することと、
前記ディスプレイデバイスに表示されるそれぞれの更新画像を生成するために、前記タッチ対話の各々に応答して、前記ディスプレイデバイスに表示されている前記画像に前記決定された画像操作を適用することと
を行うように構成された画像操作モジュールと、
前記更新画像のうちの少なくとも1つの中の前記網膜の前記背景画像上の前記前景グラフィカル計画要素の位置に基づいて、前記網膜上で実行されるべき前記OCTスキャンの前記位置を示すOCTスキャン位置データを生成するように構成されたスキャン位置指定モジュールと
を備える、装置。 - 前記複数のタッチ対話が、前記入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるシングルタッチドラッグ操作を含み、
前記シングルタッチドラッグについての検出位置の前記少なくとも1つのシーケンスが、前記シングルタッチドラッグの開始に対応する第1の検出位置と、前記シングルタッチドラッグの終了に対応する第2の検出位置とを含み、
前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から所定の距離内にある場合、前記画像操作モジュールが、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、前記背景画像に対する前記前景グラフィカル計画要素の平行移動を含むように、前記シングルタッチドラッグ用の前記画像操作を決定するように構成され、
前記複数のタッチ対話のうちのタッチ対話が前記シングルタッチドラッグであり、前記タッチ感応面上の前記第1の検出位置に対応する前記背景画像上の位置が、前記前景グラフィカル計画要素から前記所定の距離内にない場合、前記画像操作モジュールが、前記第1及び第2の検出位置間の距離に基づく量だけ、前記第1の検出位置からの前記第2の検出位置の方向に基づく方向への、表示されている前記画像のパンを含むように、前記シングルタッチドラッグ用の前記画像操作を決定するように構成される、
請求項10に記載の装置。 - 前記複数のタッチ対話が、前記入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるピンチ操作を含み、
前記ピンチ操作についての検出位置の前記少なくとも1つのシーケンスが、検出位置の第1のシーケンス及び検出位置の第2のシーケンスを含み、
前記複数のタッチ対話のうちのタッチ対話が前記ピンチ操作である場合、前記画像操作モジュールが、検出位置の前記第1及び第2のシーケンス内の最初の検出位置間の距離と、検出位置の前記第1及び第2のシーケンス内の最後の検出位置間の距離との間の差に基づく共通倍率により、前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ピンチ操作用の前記画像操作を決定するように構成される、
請求項10又は請求項11に記載の装置。 - 前記複数のタッチ対話が、前記入力デバイスの前記タッチ感応面上で前記ユーザによって実行されるダブルタップ操作を含み、
前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、共通の所定の係数による前記前景グラフィカル計画要素と前記背景画像の両方のサイズ変更を含むように、前記ダブルタップ操作用の前記画像操作を決定するように構成される、
請求項10から請求項12のいずれか一項に記載の装置。 - 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が前記更新画像内の同じ位置に現れるように、前記ダブルタップ操作用の前記画像操作を決定するようにさらに構成される、請求項13に記載の装置。
- 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、表示されている前記画像内の前記ダブルタップの位置にある前記画像の一部が前記更新画像内の中心に現れるような、表示されている前記画像の平行移動を含むように、前記ダブルタップ操作用の前記画像操作を決定するようにさらに構成される、請求項13に記載の装置。
- 前記複数のタッチ対話のうちのタッチ対話が前記ダブルタップ操作である場合、前記画像操作モジュールが、前記ディスプレイデバイスの中心に提供された前記画像の一部が前記更新画像の中心に現れるような、表示されている前記画像の平行移動を含むように、前記ダブルタップ操作用の前記画像操作を決定するようにさらに構成される、請求項13に記載の装置。
- 前記前景グラフィカル計画要素が、点、線分、長方形、及び楕円のうちの1つを含む、請求項10から請求項16のいずれか一項に記載の装置。
- 前記ディスプレイデバイス及び前記タッチセンサ式入力デバイスが、タッチスクリーンスクリーンに含まれる、請求項10から請求項17のいずれか一項に記載の装置。
- 前記入力デバイスがトラックパッドである、請求項10から請求項17のいずれか一項に記載の装置。
- 前記スキャン位置指定モジュールが、前記更新画像のうちの少なくとも1つの中の前記前景グラフィカル計画要素の少なくとも1つの次元に基づいて、前記網膜上で実行されるべき前記OCTスキャンのサイズを定義するデータを、前記OCTスキャン位置データの一部として生成するようにさらに構成される、請求項10から請求項19のいずれか一項に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18214686.0 | 2018-12-20 | ||
EP18214686.0A EP3669749B1 (en) | 2018-12-20 | 2018-12-20 | Optical coherence tomography scan control |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020121109A true JP2020121109A (ja) | 2020-08-13 |
JP7020636B2 JP7020636B2 (ja) | 2022-02-16 |
Family
ID=65003129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019230610A Active JP7020636B2 (ja) | 2018-12-20 | 2019-12-20 | 光干渉断層撮影スキャン制御 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11857256B2 (ja) |
EP (1) | EP3669749B1 (ja) |
JP (1) | JP7020636B2 (ja) |
CN (1) | CN111352564B (ja) |
DK (1) | DK3669749T3 (ja) |
ES (1) | ES2979146T3 (ja) |
FI (1) | FI3669749T3 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022030331A (ja) * | 2020-08-07 | 2022-02-18 | 株式会社三共 | 遊技機 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011004978A (ja) * | 2009-06-25 | 2011-01-13 | Canon Inc | 眼底撮像装置及びその制御方法 |
JP2013165953A (ja) * | 2012-01-20 | 2013-08-29 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2013212176A (ja) * | 2012-03-30 | 2013-10-17 | Canon Inc | 眼科装置 |
JP2014147495A (ja) * | 2013-01-31 | 2014-08-21 | Canon Inc | 眼科装置および制御方法 |
JP2015160105A (ja) * | 2014-02-28 | 2015-09-07 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016101298A (ja) * | 2014-11-28 | 2016-06-02 | 株式会社トプコン | 眼科撮影装置 |
JP2017056280A (ja) * | 2016-12-27 | 2017-03-23 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
US20170228521A1 (en) * | 2016-02-05 | 2017-08-10 | Carl Zeiss Meditec, Inc. | Report driven workflow for ophthalmic image data acquisition |
JP2018000246A (ja) * | 2016-06-27 | 2018-01-11 | 株式会社ニデック | 眼科画像処理装置、眼科画像処理プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8223143B2 (en) * | 2006-10-27 | 2012-07-17 | Carl Zeiss Meditec, Inc. | User interface for efficiently displaying relevant OCT imaging data |
US8081808B2 (en) * | 2007-11-08 | 2011-12-20 | Topcon Medical Systems, Inc. | Retinal thickness measurement by combined fundus image and three-dimensional optical coherence tomography |
US8677282B2 (en) | 2009-05-13 | 2014-03-18 | International Business Machines Corporation | Multi-finger touch adaptations for medical imaging systems |
JP2011064978A (ja) | 2009-09-17 | 2011-03-31 | Toshiba Corp | マスクパターン判定方法、マスク製造方法およびデバイス製造方法 |
US9075903B2 (en) * | 2010-11-26 | 2015-07-07 | Hologic, Inc. | User interface for medical image review workstation |
JP2012145823A (ja) | 2011-01-13 | 2012-08-02 | Ricoh Co Ltd | 光走査装置及び画像形成装置 |
US9256361B2 (en) * | 2011-08-03 | 2016-02-09 | Ebay Inc. | Control of search results with multipoint pinch gestures |
JP2014045868A (ja) * | 2012-08-30 | 2014-03-17 | Canon Inc | インタラクティブ制御装置 |
US20140118268A1 (en) * | 2012-11-01 | 2014-05-01 | Google Inc. | Touch screen operation using additional inputs |
US9710433B2 (en) * | 2012-11-30 | 2017-07-18 | Yahoo! Inc. | Dynamic content mapping |
EP2743817A1 (en) * | 2012-12-12 | 2014-06-18 | British Telecommunications public limited company | Touch screen device for handling lists |
WO2014142468A1 (en) | 2013-03-13 | 2014-09-18 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
JP2014183425A (ja) * | 2013-03-19 | 2014-09-29 | Sony Corp | 画像処理方法、画像処理装置および画像処理プログラム |
DE102013105770B4 (de) * | 2013-06-05 | 2022-01-27 | Carl Zeiss Meditec Ag | Fundus-Abbildungssystem für ein Operationsmikroskop sowie Operationsmikroskop |
US20170100030A1 (en) * | 2014-06-03 | 2017-04-13 | Socialeyes Corporation | Systems and methods for retinopathy workflow, evaluation and grading using mobile devices |
GB201411309D0 (en) * | 2014-06-25 | 2014-08-06 | Tomtom Int Bv | Vehicular human machine interfaces |
CN105278771A (zh) * | 2014-07-25 | 2016-01-27 | 南京瀚宇彩欣科技有限责任公司 | 无挡触控的手持式电子装置、方法及图形化使用者界面 |
DE102014014498B4 (de) * | 2014-09-25 | 2024-08-08 | Alcon Inc. | Mit einem Touchscreen ausgestattetes Gerät sowie Verfahren zur Steuerung eines derartigen Geräts |
US9717405B2 (en) * | 2015-09-18 | 2017-08-01 | Novartis Ag | Vitreoretinal membrane characterization using optical coherence tomography |
WO2018065257A1 (en) * | 2016-10-07 | 2018-04-12 | Koninklijke Philips N.V. | Context sensitive magnifying glass |
-
2018
- 2018-12-20 ES ES18214686T patent/ES2979146T3/es active Active
- 2018-12-20 FI FIEP18214686.0T patent/FI3669749T3/fi active
- 2018-12-20 EP EP18214686.0A patent/EP3669749B1/en active Active
- 2018-12-20 DK DK18214686.0T patent/DK3669749T3/da active
-
2019
- 2019-12-17 CN CN201911303634.3A patent/CN111352564B/zh active Active
- 2019-12-19 US US16/721,899 patent/US11857256B2/en active Active
- 2019-12-20 JP JP2019230610A patent/JP7020636B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011004978A (ja) * | 2009-06-25 | 2011-01-13 | Canon Inc | 眼底撮像装置及びその制御方法 |
JP2013165953A (ja) * | 2012-01-20 | 2013-08-29 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2013212176A (ja) * | 2012-03-30 | 2013-10-17 | Canon Inc | 眼科装置 |
JP2014147495A (ja) * | 2013-01-31 | 2014-08-21 | Canon Inc | 眼科装置および制御方法 |
JP2015160105A (ja) * | 2014-02-28 | 2015-09-07 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016101298A (ja) * | 2014-11-28 | 2016-06-02 | 株式会社トプコン | 眼科撮影装置 |
US20170228521A1 (en) * | 2016-02-05 | 2017-08-10 | Carl Zeiss Meditec, Inc. | Report driven workflow for ophthalmic image data acquisition |
JP2018000246A (ja) * | 2016-06-27 | 2018-01-11 | 株式会社ニデック | 眼科画像処理装置、眼科画像処理プログラム |
JP2017056280A (ja) * | 2016-12-27 | 2017-03-23 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022030331A (ja) * | 2020-08-07 | 2022-02-18 | 株式会社三共 | 遊技機 |
Also Published As
Publication number | Publication date |
---|---|
JP7020636B2 (ja) | 2022-02-16 |
FI3669749T3 (fi) | 2024-05-28 |
CN111352564A (zh) | 2020-06-30 |
US11857256B2 (en) | 2024-01-02 |
US20200196854A1 (en) | 2020-06-25 |
DK3669749T3 (da) | 2024-05-21 |
EP3669749B1 (en) | 2024-04-24 |
ES2979146T3 (es) | 2024-09-24 |
CN111352564B (zh) | 2024-05-24 |
EP3669749A1 (en) | 2020-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7446783B2 (en) | System and method for manipulating an image on a screen | |
JP6371475B2 (ja) | 視線入力装置、視線入力方法、および、視線入力プログラム | |
US20150293600A1 (en) | Depth-based analysis of physical workspaces | |
US10007351B2 (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
JP6723814B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
CN111656402A (zh) | 用于与血管图像交互的设备、系统和方法 | |
JP6746419B2 (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
JP7020636B2 (ja) | 光干渉断層撮影スキャン制御 | |
TW201606574A (zh) | 操作畫面顯示裝置、操作畫面顯示方法以及非暫時性之記錄媒體 | |
JP6229554B2 (ja) | 検出装置および検出方法 | |
JP7282541B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2010272036A (ja) | 画像処理装置 | |
JP4563723B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
KR101611484B1 (ko) | 의료영상의 제공방법 | |
KR101542671B1 (ko) | 공간 터치 방법 및 공간 터치 장치 | |
JP6643825B2 (ja) | 装置及び方法 | |
US20220409324A1 (en) | Systems and methods for telestration with spatial memory | |
JP2018049498A (ja) | 画像処理装置、操作検出方法、コンピュータプログラム、及び記憶媒体 | |
JP7021596B2 (ja) | 情報処理装置、処理方法、及びプログラム | |
JP2016153996A (ja) | 座標取得システム、ディスプレイ装置、座標取得方法およびプログラム | |
JP2019168251A (ja) | 形状測定装置、形状測定方法及びプログラム | |
KR20190049349A (ko) | 프로젝션 영상에서 사용자의 터치를 인식하는 방법 및 이러한 방법을 수행하는 장치 | |
JP6873326B2 (ja) | 眼3次元座標取得装置及びジェスチャ操作装置 | |
CN113095243B (zh) | 一种鼠标控制的方法、装置、计算机设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7020636 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |