JP2012213632A - 制御装置,眼科装置,システム,制御方法およびプログラム - Google Patents

制御装置,眼科装置,システム,制御方法およびプログラム Download PDF

Info

Publication number
JP2012213632A
JP2012213632A JP2012082683A JP2012082683A JP2012213632A JP 2012213632 A JP2012213632 A JP 2012213632A JP 2012082683 A JP2012082683 A JP 2012082683A JP 2012082683 A JP2012082683 A JP 2012082683A JP 2012213632 A JP2012213632 A JP 2012213632A
Authority
JP
Japan
Prior art keywords
unit
image
imaging
anterior segment
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012082683A
Other languages
English (en)
Other versions
JP5230830B2 (ja
Inventor
Yukio Sakakawa
幸雄 坂川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012082683A priority Critical patent/JP5230830B2/ja
Publication of JP2012213632A publication Critical patent/JP2012213632A/ja
Application granted granted Critical
Publication of JP5230830B2 publication Critical patent/JP5230830B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0075Apparatus for testing the eyes; Instruments for examining the eyes provided with adjusting devices, e.g. operated by control lever

Abstract

【課題】 被検眼の深さ方向を含む三次元方向のアライメントを容易に行う。
【解決手段】 撮像手段により撮像された被検眼の前眼部の画像を表示手段に表示させる表示制御手段と、
前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御手段と、を備える。
【選択図】 図1

Description

本件は、制御装置,眼科装置,システム,制御方法およびプログラムに関する。
被検眼の前眼部を撮像する撮像素子を含む測定部を、被検眼に対して三次元方向に移動させることで、被検眼の前眼部に対して測定部のアライメントを行うことが開示されている。
また、ディスプレイに表示された前眼部の画像上の一点をマウスでクリックすることで、ディスプレイにおける前眼部の表示領域の中心にクリックされた一点が位置するように被検眼の奥行き方向に直交する平面方向のアライメントを行なう技術が知られている(特許文献1)。
特開2005−143903号公報
しかしながら、被検眼の奥行き方向のアライメントは、ディスプレイに表示された前眼部の画像上における操作では行うことができず、測定部をジョイスティックにより操作することで行われていた。従って、被検眼の深さ方向を含む三次元方向のアライメントを行う場合、前眼部の画像上における操作とジョイスティックの操作とを必要とするためアライメントに手間と時間を要する。
本件の目的は、上述の課題を解消し、被検眼の深さ方向を含む三次元方向のアライメントを容易に行うことができる制御装置を提供することにある。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の1つとして位置付けることができる。
本制御装置は、撮像手段により撮像された被検眼の前眼部の画像を表示手段に表示させる表示制御手段と、前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御手段と、を備える
また、本眼科装置は、被検眼の前眼部の画像を撮像する撮像手段と、表示手段に表示された前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて制御手段から出力される制御信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置を前記撮像手段の光軸方向に変更する変更手段と、を備える。
さらに、本システムは、被検眼の前眼部の画像を撮像する撮像手段と、前記前眼部の画像を表示する表示手段と、前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御手段と、前記制御信号に基づいて前記焦点位置を前記撮像手段の光軸方向に変更する変更手段と、をそなえる。
また、本制御方法は、撮像手段により撮像された被検眼の前眼部の画像を表示手段に表示させる表示制御工程と、前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御工程と、を有する。
さらに、本プログラムは、上記制御方法をコンピュータに実行させる。
被検眼の深さ方向を含む三次元方向のアライメントを容易に行なうことができる。
実施形態の一例に係るシステムの機能構成を示すブロック図である。 実施形態の一例に係る撮影部の構成を示す図である。 (a)〜(c)は、実施形態の一例に係るシステム動作を説明するためのフローチャートである。 (a)〜(d)は、実施形態の一例に係る前眼部の画像を示す図である。 (a)〜(c)は、実施形態の一例に係るシステム動作を説明するためのフローチャートである。 (a)〜(d)は、実施形態の一例に係る前眼部の画像を示す図である。 (a)〜(c)は、実施形態の一例に係るシステム動作を説明するためのフローチャートである。 (a)〜(d)は、実施形態の一例に係る前眼部の画像を示す図である。 実施形態の一例に係る撮影部の構成を示す図である。 (a)〜(d)は、実施形態の一例に係る前眼部の画像を示す図である。
以下、図面を参照して実施形態の一例を説明する。
〔1〕 第1の実施形態
図1は、本実施形態の一例に係るシステム1を示す図である。システム1は、UI制御部120、表示部130、操作部140、XYZ方向駆動制御部150,撮影部160,Y方向駆動部171およびZX方向駆動部172を備えて構成される。ここで、撮影部160,Y方向駆動部171およびZX方向駆動部172は眼科装置の一例を構成している。また、UI制御部120およびXYZ方向駆動制御部150は制御装置の一例を構成している。なお、本実施形態の一例においては、紙面奥行き方向をX方向、紙面水平方向をZ方向、紙面上下方向をY方向とする。すなわち、撮影部160の光軸方向をZ方向、撮影部160の光軸に直交する平面の垂直方向をY方向、撮影部160の光軸に直交する平面の水平方向をX方向とする。
撮影部160は、被検眼170の撮影を行う。より具体的には、撮影部160は、被検眼170の前眼部の撮影を行う。すなわち、撮影部160は、被検眼の前眼部の画像を撮像する撮像手段の一例として機能する。
図2は、撮影部160の構成の一例を示す図である。
撮影部160は、前眼部照明用LED161a,161b,対物レンズ162および前眼部カメラ163を備えている。
前眼部照明用LED161aと161bは、被検眼170の前眼部を照明する。
対物レンズ162は、前眼部の像を前眼部カメラ163に結像する。
前眼部カメラ163は、受光面に結像された被検眼の前眼部の像を撮影する。
Y方向駆動部171は、XYZ方向駆動制御部150から出力される信号に基づいて撮影部160をY方向(紙面上下方向)に移動させる。すなわち、Y方向駆動部171は、撮影部160の光軸に直交する平面方向に、撮影部160を移動することで、被検眼170と撮影部160との撮影部160の光軸に直交する平面方向における位置関係を変更する。なお、撮影部160をY方向に移動する機構については公知の種々の手段を用いて実現できる。
ZX方向駆動部172は、XYZ方向駆動制御部150から出力される信号に基づいて撮影部160をZ方向およびX方向にそれぞれ独立して移動させる。撮影部160をZ方向およびX方向にそれぞれ独立して移動させるため、ZX方向駆動部172は、例えば、図示しないX方向駆動部とZ方向駆動部とを備えている。X方向駆動部は、撮影部160の光軸に直交する平面方向に、撮影部160を移動することで、被検眼170と撮影部160との撮影部160の光軸に直交する平面方向における位置関係を変更する。Z方向駆動部は、撮影部160を、撮影部160の光軸方向に移動させることで、撮影部160(前眼部カメラ163)に対する被検眼170の前眼部の像の撮影部160の光軸方向における焦点位置を変更するものである。なお、撮影部160をX方向およびZ方向に移動する機構については公知の種々の手段を用いて実現できる。
ここで、ZX方向駆動部172は、表示手段に表示された前眼部の画像上に表示手段の任意の位置を示す指標がある場合に操作手段に対する操作に応じて制御手段から出力される制御信号に基づいて、撮像手段に対する前眼部の像の焦点位置を撮像手段の光軸方向に変更する変更手段の一例として機能する。さらに、Y方向駆動部171およびZX方向駆動部172は、撮像手段の光軸に直交する平面方向における被検眼と撮像手段との位置関係を変更する変更手段の一例として機能する。
表示部130は、UI制御部120からの制御に応じて画像を表示する。例えば、表示部130は、前眼部画像および指標を表示する。すなわち、表示部130は、前眼部の画像を表示する表示手段の一例として機能する
操作部140は、不図示の操作者からの操作に応じて、UI制御部120に操作者からの操作を示す操作信号を出力する。操作部140としては、マウス,キーボード,タッチパネル等種々の装置を用いることができる。例えば、操作部140がボタンおよびホイールを備えるマウスである場合を考える。操作部140は、操作部140に対するボタンの一時的な押し下げ操作(クリック)を受け、クリックされたことを示す操作信号をUI制御部120に出力する。また、操作部140は、例えばマウスである操作部140のホイールが回転された場合には、ホイールの回転量を示す操作信号およびホイールの回転方向を示す操作信号をUI制御部120に出力する。さらに、操作部140は、例えばマウスである操作部140が移動した場合には操作部140の移動を示す操作信号をUI制御部120に出力する。
なお、操作部140は、マウス若しくはキーボード等の一の装置で構成されてもよいし、二以上の装置から構成されてもよい。例えば、操作入力取得手段140がマウスおよびキーボードで構成されてもよい。ここで、操作部140は、操作手段の一例として機能する。
UI制御部120は、例えば、前眼部観察画像取得部110および操作部140から出力された信号に基づいて、表示部130に種々の画像を表示させる。例えば、UI制御部120は、CPU(Central Processing Unit)等の処理装置が図示しないメモリに記録されたプログラムを実行することで実現される。
例えば、UI制御部120は前眼部観察画像取得部110が取得した前眼部画像を表示部130に表示させる。すなわち、UI制御部120は、撮像手段により撮像された被検眼の前眼部の画像を表示手段に表示させる表示制御手段の一例として機能する。
また、UI制御部120は、例えば、操作部140の指示に伴い移動するとともに表示部130の任意の位置を指す指標を表示部130に表示させる。この指標は、例えば矢印型のカーソルを用いることができるが、これに限定されるものではなく、表示部130の任意の位置を指すことができるものであればよい。
さらに、UI制御部120は、表示部130上の座標を認識することができ、操作部140から入力される操作信号に基づいて指標が表示部130上のどの領域にあるかを認識することができる。また、UI制御部120は、前眼部画像が表示される表示部130上の領域の座標を認識することができる。したがって、例えば、操作入力取得手段140がマウスであれば、マウスの移動を示す操作信号に基づいて、マウスの移動に対応して移動する指標の表示部130上での位置を認識することができる。さらには、操作部140の操作に対応して移動する指標が、前眼部画像が表示される表示部130上の領域にあるか否かを認識することができる。
また、UI制御部120は、指標が前眼部画像上に位置する場合に、操作部140から入力される操作信号に応じて撮影部160の移動量を算出する。なお、UI制御部120により算出される移動量の単位は、例えば画素であり、後述するXYZ方向駆動制御部150において移動量の単位を、例えばセンチメートルやミリメートルに変更する。より具体的には、例えば操作部140がマウスである場合、指標が前眼部画像上に位置し、前眼部画像上でクリックが行なわれると、UI制御部120はクリックに応じた操作信号を受信する。そして、UI制御部120は、クリックが行なわれた時の指標の座標と表示部130における前眼部画像が表示されている領域の所定の位置との距離を撮影部160の移動量として決定する。この距離の単位は例えば画素である。また、例えばマウスである操作部140のホイールを回転させた場合、UI制御部120はホイールを回転させたことにより操作部140から出力されるホイールの回転量を示す操作信号および回転方向を示す操作信号を受信する。例えば、UI制御部120は、ホイールを回転する度に操作部140から出力されるパルスの数および回転方向を図示しないメモリに記録する。
なお、例えば、操作部140としてキーボードを用いる場合には、クリックはエンタキーの押し下げに対応し、ホイールの回転は方向キーの上下方向のキーの押し下げに対応することとしてもよい。なお、指標の移動についてはキーボードの他のキーを割り振ることとしてもよいし、指標の移動についてはマウスを用いることとしてもよい。
なお、UI制御部120は、前眼部画像のコントラスト調整,ウインドウウィング調整またはノイズフィルタリング等の加工処理を前眼部画像に対して行う。
XYZ方向駆動制御部150は、前眼部観察画像上での操作者の操作に基づいてY方向駆動部171およびZX方向駆動部172の制御を行う。具体的には、XYZ方向駆動制御部150は、UI制御部120が算出した移動量を用いて、X方向,Y方向,Z方向それぞれにおける撮影部160の移動量を示す制御信号を生成する。例えば、XYZ方向駆動制御部150は、CPU等の処理装置が図示しないメモリに記録されたプログラムを実行することで実現される。
さらに、XYZ方向駆動制御部150は、Y方向に関する撮影部160の移動量を示す制御信号をY方向駆動部171に送信することで、Y方向駆動部171に撮影部160をY方向に移動させる。また、XYZ方向駆動制御部150は、X方向およびZ方向における撮影部160の移動量を示す制御信号をZX方向駆動部172に送信する。ここで、撮影部160のZ方向における移動量は、撮影部160に対する被検眼170の前眼部の像の撮影部160の光軸方向における焦点位置の移動量に相当する。具体的には、XYZ方向駆動制御部150は、X方向に関する撮影部160の移動量を示す制御信号をZX方向駆動部172がそなえるX方向駆動部に、Z方向に関する撮影部160の移動量を示す制御信号をZX方向駆動部172がそなえるZ方向駆動部に送信する。X方向およびZ方向関する制御信号の送信により、XYZ方向駆動制御部150は、ZX方向駆動部172に撮影部160をZ方向およびX方向に移動させる。XYZ方向駆動制御部150は、撮影部160をZ方向に移動させることで、撮影部160(前眼部カメラ163)に対する被検眼170の前眼部の像の焦点の撮影部160の光軸方向における位置を変更している。
したがって、Z方向における撮影部160の移動量を示す制御信号は、撮影部160に対する被検眼の像の焦点位置の撮影部160の光軸方向における変更量を示している。すなわち、XYZ方向駆動制御部150は、前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合に操作手段に対する操作に応じて操作手段から出力される操作信号に基づいて、撮像手段に対する前眼部の像の焦点位置の撮像手段の光軸方向における変更量を示す制御信号を出力する制御手段としての一例として機能する。
また、X,Y方向における撮影部160の移動量を示す制御信号は、撮影部160の光軸に直交する平面方向における被検眼170と撮影部160との位置関係の変更量を示す信号である。すなわち、X,Y方向における撮影部160の移動量を示す制御信号は、撮像手段の光軸に直交する平面方向における被検眼と撮像手段との位置関係の変更量を示す制御信号の一例である。
ここで、XYZ方向駆動制御部150は、UI制御部120が算出した単位が画素である撮影部160の移動量を、例えば、センチメートルやミリメートルの単位の移動量に変換する。具体的には、1画素に対する前眼部上での大きさを図示しないメモリに記憶しておき、XYZ方向駆動制御部150は、この対応関係を用いて単位が画素である撮影部160の移動量を、センチメートルやミリメートルの単位の移動量に変換する。例えば、1画素は前眼部上において縦横ともに0.1mmに対応しており、この関係を用いて、XYZ方向駆動制御部150は、単位が画素である撮影部の移動量を、センチメートルやミリメートルの単位の移動量に変換する。
なお、撮影部160の光学設計によって前眼部カメラ163が撮像する画像の画素の前眼部上での大きさは計算することができる。説明を単純にするために、撮影部160から被検眼170までの距離はほぼ一定であると想定すると、例えば前眼部上での10mmが画像上で100画素に対応するのであれば一つの画素の大きさは前眼部上での0.1mmに対応することがわかる。このようにして、上記の1画素に対する前眼部上での大きさをあらかじめ知ることができる。
また、XYZ方向駆動制御部150は、UI制御部120が記録したパルスの数を用いて撮影部160のZ方向における移動量を決定する。例えば、一のパルスに対してZ方向の移動量が予め対応付けられ、この対応関係は図示しないメモリに記憶されている。例えば、この対応関係には、一のパルスで1mmだけZ方向に撮影部160を移動することが規定されている。XYZ方向駆動制御部150は、この対応関係とパルスの数とを用いてZ方向の移動距離を決定する。さらに、XYZ方向駆動制御部150は、操作入力取得手段140が記録したホイールの移動方向を用いて撮影部160のZ方向における移動方向を決定する。例えば、XYZ方向駆動制御部150は、移動方向を、ホイールを手前に回転させた場合には、撮影部160を被検眼170から離れる方向、ホイールを奥側に回転させた場合には、撮影部160を被検眼170に近づく方向と決定するがこれに限定されるものではない。
さらに、XYZ方向駆動制御部150は、UI制御部120から出力された信号を用いて撮影部160のX,Y,Z方向の移動量および移動方向を電圧等の制御信号として生成する。例えば、電圧の正負に応じて、所定の軸に関して正の方向あるいは負の方向に撮影部160を移動させることが可能である。そして、XYZ方向駆動制御部150は、Y方向についての制御信号をY方向駆動部171に送信し、X方向およびZ方向についての制御信号をZX方向駆動部172に送信する。これにより、XYZ方向駆動制御部150は、Y方向駆動部171およびZX方向駆動部172に撮影部160を移動させる。
次に、上述の如く構成された、実施形態の一例としてのシステム1の動作を、図3(a)に示すフローチャートに従って説明する。
撮影部160は、被検眼の前眼部を撮像し、前眼部画像を取得する(S310)。撮像された前眼部の画像はUI制御部120へ転送される。UI制御部120は、前眼部の画像に対して加工を行い、表示部130に前眼部の画像を表示させる。この工程は、撮像手段により撮像された被検眼の前眼部の画像を表示手段に表示させる表示制御工程の一例である。そして、表示部130は前眼部画像を表示する(S320)。表示部130に前眼部画像が表示された後、図示しない操作者は操作部140を用いて、前眼部画像上での操作を行なう(S330)。操作部140は、操作者による操作に応じた信号をUI制御部120に出力する。
次に、UI制御部120とXYZ方向駆動制御部150とが協働することで、操作者が前眼部画像上で行った操作に基づいて、すなわち、操作部140から送信された操作者による操作に応じた信号に基づいて、X方向およびY方向における撮影部160の移動量が算出される(S340)。さらに、UI制御部120とXYZ方向駆動制御部150とが協働することで、操作者が前眼部画像上で行った操作に基づいて、すなわち、操作部140から送信された操作者による操作に応じた信号に基づいて、Z方向における撮影部160の移動量が算出される(S350)。次に、XYZ方向駆動制御部150は、S340およびS350にて算出されたX,Y,Z方向における撮影部160の移動量を、その移動量を示す電圧などの制御信号に変換する。
そして、XYZ方向駆動制御部150は、Y方向駆動部171にY方向に関する制御信号を送信し、ZX方向駆動部172にZ方向およびX方向に関する制御信号を送信する。この工程は、前眼部の画像上に表示手段の任意の位置を示す指標がある場合に操作手段に対する操作に応じて操作手段から出力される操作信号に基づいて、撮像手段に対する前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御工程の一例である。
Y方向駆動部171は、XYZ方向駆動制御部150からの信号を受信すると、XYZ方向駆動制御部150からの制御信号が表す移動量に応じて撮影部160をY方向に移動する。また、ZX方向駆動部171は、XYZ方向駆動制御部150からの制御信号を受信すると、XYZ方向駆動制御部150からの信号が表す移動量に応じて撮影部160をZ方向およびX方向に移動する(S360)。なお、再び操作部140に対して操作を行う場合には、撮影部160の移動後に再びS310からS360の工程が行われる。このように、前眼部画像上での操作のみでZ方向を含む三次元方向の被検眼に対する撮影部160のアライメントが行われる。また、例えば、S340とS350との順序は逆であってもよい。
図3(b)に示すフローチャートおよび図4に示す前眼部の画像を用いて、S340の詳細な動作を説明する。
まず、S330において、図4(a)に示す表示部130における前眼部画像410上において例えばマウスである操作部140を用いてクリックが行われた場合を考える。図4(b)は、クリックが行われた時の前眼部画像410の状態を説明するための図である。図4(b)において、420は例えばマウスである操作入力手段140に対してクリックを行った時のカーソルの位置を示している。ターゲット位置430は、例えば前眼部画像の中心位置を示している。なお、ターゲット位置430は、前眼部画像の中心位置に限定されるものではなく他の位置であってもよい。440は、ターゲット位置からカーソル420の示すクリック位置までの垂直方向(Y方向)の距離を示している。450は、ターゲット位置からカーソル420の示すクリック位置までの水平方向(X方向)の距離を示している。
ここで、UI制御部120は、カーソル420の示す座標(Cx,Cy)を取得し、ターゲット位置430の座標(Tx,Ty)までの水平方向の距離440(Dx)および垂直方向の距離450(Dy)を算出する(S341)。ここで、(Dx,Dy)は、(Dx,Dy)=(Tx,Ty)−(Cx,Cy)として表される。ここで、(Dx,Dy)の単位は例えば、画素である、また、(Dx,Dy)は、絶対値ではなく正または負の値となるため、この正負の値に応じてX方向の正方向あるいは負方向に撮影部160が移動する。Y方向についても同様である。すなわち、UI制御部120は、撮影部160のX方向およびY方向の移動量を決定する。
次に、XYZ方向駆動制御部150は、単位が画素である移動量Dx,DyからX方向およびY方向の撮影部160の例えばセンチメートルあるいはミリメートル単位の移動量へ変換する(S342)。上述したように、1画素に対する前眼部上での大きさが対応付けられているため、この対応関係を用いて、XYZ方向駆動制御部150は、(Dx,Dy)からX方向およびY方向の撮影部160のセンチあるいはミリ単位の移動量を算出する。
ここで1画素は縦横ともに0.1mmに対応するものと仮定すると、X方向およびY方向の撮影部160の移動量(Mx,My)は、(Mx,My)=(Dx,Dy)・0.1で表される。センチメートルあるいはミリメートル単位の移動量が算出されるとS340は終了する。S342の処理により生成された移動量に応じて、Y方向駆動部171およびZX駆動部172は、クリックされた点が、ターゲット位置に一致若しくは略一致するように、撮影部160を移動させる。すなわち、XYZ方向駆動制御部150が算出したX方向およびY方向の移動量はそれぞれ、クリックした点をターゲット位置に一致若しくは略一致するための、撮影部160のX方向およびY方向の移動量である。
次に、図3(c)に示すフローチャートおよび図4に示す前眼部の画像を用いて、S350の詳細な動作を説明する。
まず図4(c)は、S360においてX方向およびY方向に撮影部160が移動した後の前眼部画像を示す。ここで、S330において、図4(c)に示す前眼部画像上で、例えばマウスである操作部140のホイールを回転する操作を行った場合を考える。操作入力取得手段140はホイールの回転方向を示す信号と回転量に応じたパルスをUI制御部120に出力する。UI制御部120は、これらの信号を受信し、ホイールの回転方向およびパルス数を図示しないメモリに記録する(S351)。なお、メモリに記録することなく、ホイールの回転方向およびパルス数についての操作情報をXYZ方向駆動制御部150に送信することしてもよい。XYZ方向駆動制御部150は、パルス数から撮影部160のZ方向における移動量を算出する(S352)。次に、XYZ方向駆動制御部150は、ホイールの回転方向から、Z方向における撮影部160の移動方向を算出する(S353)。S353が終了するとS350は終了する。ここで、図4(d)は、S352およびS353においてそれぞれ算出された移動量および移動方向に基づいてZX方向駆動部172により撮影部160をZ方向に移動させた後S320において表示部130に表示される前眼部画像である。図4(d)の場合、撮影部160は被検眼170に近づく方向に移動している。
このように、本実施形態の一例によれば、前眼部画像上における操作によって、Z方向(被検眼の深さ方向)における、被検眼170に対する撮影部160とのアライメントを行うことができる。さらには、前眼部画像上における操作によって、Z方向を含む三次元方向のアライメントを行うことができる。
本実施形態の一例によれば、前眼部画像上における操作によって、三次元方向のアライメントができるため、ジョイスティックとマウスとを用いていた従来技術と比較して、アライメントの手間がかからず、アライメントに要する時間を短縮することが可能である。
言い換えれば、本実施形態の一例によれば、従来技術と比較して、容易にアライメントを行うことができる。
また、本実施形態の一例によれば、前眼部画像上に指標をおいた場合にアライメントを行うため、マウス等の操作手段を操作する操作者が、意図せずにアライメントを行ってしまうことを防止できる。
〔2〕 第2の実施形態
第1の実施形態においては、クリックおよびホイールの回転に基づいて、X,Y,Z方向における撮影部160の移動を行っていたが、本実施形態の一例では、他の操作により、X,Y,Z方向における撮影部160の移動を行う。なお、本実施形態の一例におけるシステム1の構成は、図1に示すものと略同様であるため、詳細な説明は省略する。また、既述の符号と同一の符号は同一もしくは略同一の部分を示している。
操作部140は、不図示の操作者からの操作に応じて、UI制御部120に操作者からの操作を示す操作信号を出力するものであり、本実施形態の一例では、キーボードおよびマウスで構成されている。
UI制御部120は、UI制御部120は、マウスの移動に応じて移動する指標が前眼部画像上に位置し、前眼部画像上でマウスのボタンを押し下げながらマウスを移動させる操作(ドラッグ)が行なわれると、UI制御部120はドラッグに応じた操作信号を受信する。そして、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスのX方向およびY方向の移動量(ドラッグ量)をそれぞれ、撮影部160のX方向およびY方向の移動量として決定する。なお、上記のUI制御部120の動作は、ドラッグ時にキーボードの所定のキー例えばコントロールキー等が同時に押し下げられていない場合の動作である。
また、ドラッグ時にキーボードの所定のキー例えばコントロールキー等が同時に押し下げられている場合には、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のY方向(紙面上下方向)の移動量を撮影部160のZ方向の移動量として決定する。また、ドラッグ時にキーボードの所定のキー例えばコントロールキー等が押し下げられている場合には、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のX方向(紙面左右方向)の移動量を撮影部160のX方向移動量として決定する。
ここで、ドラッグ量は絶対値ではなく、例えば、マウスのボタンを離した時の表示部130上の座標とボタン押し下げ時の表示部130上での座標との差を示し、正または負の値となる。例えば、前眼部画像上において、左から右へドラッグした場合にはドラッグ量は正となる。また、例えば前眼部画像上において、下から上へドラッグした場合にはドラッグ量は正となる。
なお、キーボードの押し下げられるキーはコントロールキーでなくともよく、シフトキーやaltキーであってもよい。また、ドラッグ時にキーボードの所定のキー例えばコントロールキー等が押し下げられている場合に、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のX方向の移動量を撮影部160のX方向の移動量とする必要はない。すなわち、ドラッグ時にキーボードの所定のキーが押し下げられている場合には、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のY方向(紙面上下方向)の移動量を撮影部160のZ方向の移動量として決定するのみでもよい。
また、ドラッグ時にキーボードの所定のキーが押し下げられている場合と、そうではない場合の撮影部160の移動量の決定方法を逆にしてもよい。例えば、ドラッグ時にキーボードの所定のキーが押し下げられていない場合に、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のY方向の移動量を撮影部160のZ方向における移動量として決定することとしてもよい。
また、UI制御部120は、操作に応じて操作部140から出力される操作信号に基づいて、前眼部画像上でのドラッグ量とドラッグの速度を図示しないメモリに記録する。さらに、UI制御部120は、ドラッグ速度に応じてドラッグ量に重み付けを行う。具体的には、ドラッグ速度と係数とが対応付けられた情報が図示しないメモリに記録されており、この情報に基づいて、UI制御部120は、ドラッグ量に重み付けを行う。
例えば、UI制御部120は、ドラッグ速度が速いほどドラッグ量が大きくなるように重み付けを行う。UI制御部120は、重みづけが行なわれた信号を、XYZ方向駆動制御部150に出力する。なお、この重みづけを行なう動作は、XYZ方向駆動制御部150が行なうこととしてもよい。
なお、UI制御部120は、操作部140から出力される信号に基づいて、キーボードの所定のキー例えばコントロールキー等が押し下げられているかを検知することができる。
XYZ方向駆動制御部150は、UI制御部120により重み付けが行なわれた信号を、X,Y,Z方向における撮影部160の移動量を示す電圧などの制御信号に変換する。例えば、コントロールキー等が同時に押し下げられていない場合において、X方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をX方向に関して負の方向へ移動することを示す制御信号を生成する。ここで、X方向に関してドラッグ量が正である場合とは、例えば、表示部130上で左から右へドラッグを行なった場合である。
また、例えば、コントロールキー等が同時に押し下げられていない場合において、Y方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をY方向に関して負の方向(下方向)へ移動することを示す制御信号を生成する。ここで、Y方向に関してドラッグ量が正である場合とは、表示部130上で下から上へドラッグを行なった場合である。
さらに、例えば、コントロールキー等が同時に押し下げられている場合において、X方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をX方向に関して負の方向へ移動することを示す制御信号を生成する。
また、例えば、コントロールキー等が同時に押し下げられている場合において、Y方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をZ方向に関して正の方向(被検眼170に近づく方向)へ移動することを示す制御信号を生成する。なお、制御信号の内容は上述の内容に限定されるものではない。例えば、コントロールキー等が同時に押し下げられている場合、Y方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をZ方向に関して負の方向(被検眼170から遠ざかる方向)へ移動することを示す制御信号を生成することとしてもよい。
次に、上述の如く構成された、実施形態の一例としてのシステム1の動作を、図5(a)に示すフローチャートに従って説明する。
撮影部160は、被検眼の前眼部を撮像し、前眼部画像を取得する(S310)。撮像された前眼部の画像はUI制御部120へ送られ。UI制御部120は、前眼部の画像に対して加工を行い、表示部130に前眼部の画像を表示させる。そして、表示部130は前眼部画像を表示する(S320)。表示部130に前眼部画像が表示された後、図示しない操作者は、前眼部画像上で操作部140を用いてドラッグを行う(S330)。次に、UI制御部120は、操作部140からの操作信号に基づいて、ドラッグと同時にコントロールキーが押し下げられているか否かを判断する(S535)。
ここで、ドラッグと同時にコントロールキーが押し下げられていない場合(S535のNルート参照)、UI制御部120とXYZ方向駆動制御部150とが協働することで、操作者が前眼部画像上で行ったドラッグ操作に基づいて、X方向およびY方向における撮影部160の移動量が算出される(S540)
また、ドラッグと同時にコントロールキーが押し下げられている場合(S535のYルート参照)、UI制御部120とXYZ方向駆動制御部150とが協働することで、操作者が前眼部画像上で行ったドラッグ操作に基づいて、X方向およびZ方向における撮影部160の移動量が算出される(S550)。次に、XYZ方向駆動制御部150は、S540およびS550にて算出されたX,Y,Z方向における撮影部160の移動量を、その移動量を示す電圧などの制御信号に変換する。そして、XYZ方向駆動制御部150は、Y方向駆動部171にY方向に関する制御信号を送信し、ZX方向駆動部172にZ方向およびX方向に関する制御信号を送信する。Y方向駆動部171は、XYZ方向駆動制御部150からのY方向に関する制御信号を受信すると、XYZ方向駆動制御部150からの制御信号が表す移動量に応じて撮影部160をY方向に移動する。また、ZX方向駆動部171は、XYZ方向駆動制御部150からのX,Z方向に関する制御信号を受信すると、XYZ方向駆動制御部150からの信号が表す移動量に応じて撮影部160をZ方向およびX方向に移動する(S360)。
なお、再び操作部140に対して操作を行う場合には、撮影部160の移動後に再びS310〜S330,S535,540,S550,S360の工程が行われる。
図5(b)に示すフローチャートおよび図6に示す前眼部の画像を用いて、S340の詳細な動作を説明する。
まず、S330において、図6(a)に示す表示部130における前眼部画像410上において例えばマウスである操作部140を用いてドラッグが行われた場合を考える。例えば、図6(b)に示すように、カーソル420の位置から右斜め下方にマウスを移動させてドラッグを行う。ドラッグが行われると、UI制御部120は、操作部140の動作を示す操作信号を受信することで、ドラッグ量およびドラッグ速度を算出して図示しないメモリに記憶する(S541)。なお、UI制御部120は、例えば、マウスの移動距離(ドラッグ距離)をドラッグしていた時間で除することでドラッグ速度を求めることができる。
次に、UI制御部120は、ドラッグ速度に応じた係数を用いてドラッグ量に重み付けを行う(S542)。重み付けが行われたドラッグ量の単位は画素であり、この重み付け後のドラッグ量は、撮影部160の移動量を示している。そして、次に、XYZ方向駆動制御部150は、単位が画素である重み付け後のドラッグ量(移動量)をX方向およびY方向の撮影部160の例えばセンチメートルあるいはミリメートル単位の移動量に変換する(S543)。センチメートルあるいはミリメートル単位の移動量が算出されるとS540は終了する。
次に、図5(c)に示すフローチャートおよび図6に示す前眼部の画像を用いて、S550の詳細な動作を説明する。
まず図6(c)は、S360において、ドラッグ操作に応じてX方向およびY方向に撮影部160が移動した後の前眼部画像を示す。ここで、S330において、図6(c)に示すように、前眼部画像上における上向き方向(Y方向)にドラッグを行う場合を考える。ドラッグが行われると、UI制御部120は、操作部140の動作を示す操作信号を受信することで、ドラッグ量およびドラッグ速度を算出して図示しないメモリに記憶する(S551)。次に、UI制御部120は、ドラッグ速度に応じた係数を用いてドラッグ量に重み付けを行う(S552)。重み付けが行われたドラッグ量の単位は画素であり、この重み付け後のドラッグ量は、撮影部160の移動量を示している。そして、次に、XYZ方向駆動制御部150は、単位が画素である重み付け後のドラッグ量(移動量)を、例えばセンチメートルあるいはミリメートル単位のZ方向およびX方向に関する移動量に変換する(S553)。センチメートルあるいはミリメートル単位の移動量が算出されるとS550は終了する。なお、図6(c)においては、X方向へのドラッグは行っていないため、X方向における移動量は0となる。
ここで、図6(d)は、S553において算出された移動量に基づいてZX方向駆動部172により撮影部160をZ方向に移動させた後S320において表示部130に表示される前眼部画像である。
なお、S542およびS552は省略してもよい。すなわち、重み付けは行ってもよいし、行わなくてもよい。また、S541およびS551の処理は、S535の処理の前に行なうこととしてもよい。さらに、S542およびS552の処理は、S535の処理の前に行なうこととしてもよい。
このように、本実施形態の一例によっても第1の実施形態と同様の効果が得られる。
また、マウスによる操作は一の操作(ドラッグ操作)のみで三次元方向のアライメントを行なうことができるため、容易に三次元方向のアライメントを行うことができる。
〔3〕 第3の実施形態
本実施形態の一例では、表示部130に表示された前眼部画像に所定の領域を設け、操作が所定領域での操作であるか否かに応じてX,Y,Z方向における撮影部160の移動を行う。なお、本実施形態の一例におけるシステム1の構成は、図1に示すものと略同様であるため、詳細な説明は省略する。また、既述の符号と同一の符号は同一もしくは略同一の部分を示している。
UI制御部120は、所定の領域を表示部130の前眼部画像上の任意の位置に重ねて表示させる。UI制御部120は、この所定の領域の座標を認識しているため、所定の領域内にマウスの移動に応じて移動する指標が所定の領域に位置しているか否かを判断することができる。したがって、例えばマウスである操作部を用いたドラッグの開始位置が所定の領域内か否か判断することができる。
また、UI制御部120は、前眼部画像上でマウスのボタンを押し下げながらマウスを移動させる操作(ドラッグ)が行なわれると、UI制御部120はドラッグに応じた操作信号を受信する。マウスの移動に応じて移動する指標がドラッグ開始時に所定の領域外かつ前眼部画像上に位置している場合、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスのX方向およびY方向における移動量(ドラッグ量)をそれぞれ撮影部160のX方向およびY方向の移動量として決定する。
また、指標がドラッグ開始時に所定の領域内に位置している場合、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のY方向(紙面上下方向)の移動量を撮影部160のZ方向移動量として決定する。また、指標がドラッグ開始時に所定の領域内に位置している場合、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のX方向(紙面左右方向)の移動量を撮影部160のX方向移動量として決定する。
なお、指標がドラッグ開始時に所定の領域内に位置している場合に、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のX方向の移動量を撮影部160のX方向移動量とする必要はない。すなわち、指標がドラッグ開始時に所定の領域内に位置している場合には、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のY方向の移動量を撮影部160のZ方向移動量として決定するのみでもよい。また、指標がドラッグ開始時に所定の領域内に位置している場合と、指標がドラッグ開始時に所定の領域外かつ前眼部画像上に位置している場合の撮影部160の移動量の決定方法を逆にしてもよい。例えば、指標がドラッグ開始時に所定の領域外かつ前眼部画像上に位置している場合に、UI制御部120は、マウスのボタンを押し下げ時からボタンを離すまでのマウスの前眼画像上のY方向の移動量を撮影部160のZ方向における移動量として決定することとしてもよい。
また、UI制御部120は、操作に応じて操作部140から出力される操作信号に基づいて、前眼部画像上でのドラッグ量とドラッグの速度を図示しないメモリに記録する。さらに、UI制御部120は、ドラッグ速度に応じてドラッグ量に重み付けを行う。具体的には、ドラッグ速度と係数とが対応付けられた情報を図示しないメモリに記録されており、この情報に基づいて、UI制御部120は、ドラッグ量に重み付けを行う。例えば、UI制御部120は、ドラッグ速度が速いほどドラッグ量が大きくなるように重み付けを行う。UI制御部120は、重みづけが行なわれた信号を、XYZ方向駆動制御部150に出力する。なお、この重みづけを行なう動作は、XYZ方向駆動制御部150が行なうこととしてもよい。
XYZ方向駆動制御部150は、UI制御部により重み付けが行なわれた信号を、X,Y,Z方向における撮影部160の移動量を示す電圧などの制御信号に変換する。例えば、指標がドラッグ開始時に所定の領域外かつ前眼部画像上に位置している場合において、X方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をX方向に関して負の方向へ移動することを示す制御信号を生成する。また、例えば、指標がドラッグ開始時に所定の領域外かつ前眼部画像上に位置している場合において、Y方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をY方向に関して負の方向へ移動することを示す制御信号を生成する。
さらに、例えば、指標がドラッグ開始時に所定の領域内に位置している場合において、X方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をX方向に関して負の方向へ移動することを示す制御信号を生成する。また、例えば、指標がドラッグ開始時に所定の領域内に位置している場合において、Y方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をZ方向に関して正の方向(被検眼170に近づく方向)へ移動することを示す制御信号を生成する。なお、制御信号の内容は上述の内容に限定されるものではない。例えば、指標がドラッグ開始時に所定の領域内に位置している場合において、Y方向に関してドラッグ量が正である場合には、XYZ方向駆動制御部150は、撮影部160をZ方向に関して負の方向(被検眼170から遠ざかる方向)へ移動することを示す制御信号を生成することとしてもよい。
次に、上述の如く構成された、実施形態の一例としてのシステム1の動作を、図7(a)に示すフローチャートに従って説明する。
撮影部160は、被検眼の前眼部を撮像し、前眼部画像を取得する(S310)。撮像された前眼部の画像はUI制御部120へ転送される。UI制御部120は、前眼部の画像に対して加工を行い、表示部130に前眼部の画像を表示させる。そして、表示部130は前眼部画像を表示する(S320)。そして、UI制御部120が、所定の領域であるZX操作領域を前眼部画像に重ねて表示部130に表示させる。これにより、表示部30はZX操作領域を前眼部画像に重ねて表示する(S725)。表示部130に前眼部画像およびZX操作領域が表示された後、図示しない操作者は、前眼部画像上で操作部140を用いてドラッグを行う(S330)。UI制御部120は、ドラッグ開始位置が、ZX操作領域内か否かを判断する(S735)。
ここで、ドラッグ開始位置が、ZX操作領域外の場合(S735のNルート参照)、UI制御部120とXYZ方向駆動制御部150とが協働することで、操作者が前眼部画像上で行ったドラッグ操作に基づいて、X方向およびY方向における撮影部160の移動量が算出される(S740)
また、ドラッグ開始位置が、ZX操作領域内の場合(S735のYルート参照)、UI制御部120とXYZ方向駆動制御部150とが協働することで、操作者が前眼部画像上で行ったドラッグ操作に基づいて、X方向およびZ方向における撮影部160の移動量が算出される(S750)。
次に、XYZ方向駆動制御部150は、SS740およびS750にて算出されたX,Y,Z方向における撮影部160の移動量を、その移動量示す電圧などの制御信号に変換する。そして、XYZ方向駆動制御部150は、Y方向駆動部171にY方向に関する制御信号を送信し、ZX方向駆動部172にZ方向およびX方向に関する制御信号を送信する。Y方向駆動部171は、XYZ方向駆動制御部150からの信号を受信すると、XYZ方向駆動制御部150からの制御信号が表す移動量に応じて撮影部160をY方向に移動する。また、ZX方向駆動部171は、XYZ方向駆動制御部150からの制御信号を受信すると、XYZ方向駆動制御部150からの信号が表す移動量に応じて撮影部160をZ方向およびX方向に移動する(S360)。
なお、再び操作部140に対して操作を行う場合には、撮影部160の移動後に再びS310〜S330,S725,S735,740,S750,S360の工程が行われる。
図7(b)に示すフローチャートおよび図8に示す前眼部の画像を用いて、S340の詳細な動作を説明する。
まず、S725において、図8(a)に示す表示部130における前眼部画像410上にZX操作領域460が表示される。例えば、図8(b)に示すように、ZX操作領域460外のカーソル420の位置から右斜め下方にマウスを移動させてドラッグを行う場合を考える。ドラッグが行われると、UI制御部120は、操作部140の動作を示す操作信号を受信することで、ドラッグ量およびドラッグ速度を算出して図示しないメモリに記憶する(S741)。なお、UI制御部120は、例えば、マウスの移動距離(ドラッグ距離)をドラッグしていた時間で除することでドラッグ速度を求めることができる。
次に、UI制御部120は、は、ドラッグ速度に応じた係数を用いてドラッグ量に重み付けを行う(S742)。重み付けが行われたドラッグ量の単位は画素であり、この重み付け後のドラッグ量は、撮影部160の移動量を示している。そして、次に、XYZ方向駆動制御部150は、単位が画素である重み付け後のドラッグ量(移動量)をX方向およびY方向の撮影部160の例えばセンチメートルあるいはミリメートル単位の移動量に変換する(743)。センチメートルあるいはミリメートル単位の移動量が算出されるとS740は終了する。
次に、図7(c)に示すフローチャートおよび図8に示す前眼部の画像を用いて、S750の詳細な動作を説明する。
まず図8(c)は、S360において、ドラッグ操作に応じてX方向およびY方向に撮影部160が移動した後の前眼部画像を示す。ここで、S330において、図8(c)に示すように、前眼部画像上における上向き方向(Y方向)に、ZX操作領域460内をドラッグ開始位置として、ドラッグを行う場合を考える。ドラッグが行われると、UI制御部120は、操作部140の動作を示す操作信号を受信することで、ドラッグ量およびドラッグ速度を算出して図示しないメモリに記憶する(S751)。
次に、UI制御部120は、ドラッグ速度に応じた係数を用いてドラッグ量に重み付けを行う(S752)。重み付けが行われたドラッグ量の単位は画素であり、この重み付け後のドラッグ量は、撮影部160の移動量を示している。そして、次に、XYZ方向駆動制御部150は、単位が画素である重み付け後のドラッグ量(移動量)を、例えばセンチメートルあるいはミリメートル単位のZ方向およびX方向に関する移動量に変換する(S753)。センチメートルあるいはミリメートル単位の移動量が算出されるとS750は終了する。なお、図8(c)においては、X方向へのドラッグは行っていないため、X方向における移動量は0となる。
ここで、図8(d)は、S753において算出された移動量に基づいてZX方向駆動部172により撮影部160をZ方向に移動させた後S320において表示部130に表示される前眼部画像である。
なお、S742およびS752は省略してもよい。すなわち、重み付けは行ってもよいし、行わなくてもよい。また、S741およびS751の処理は、S735の処理の前に行なうこととしてもよい。さらに、S742およびS752の処理は、S735の処理の前に行なうこととしてもよい。
このように、本実施形態の一例によっても第1の実施形態と同様の効果が得られる。
また、キーボード等他の操作手段を用いることなく、前眼部画像上において一の操作(ドラッグ操作)のみで三次元方向のアライメントを行なうことができるため、容易に三次元方向のアライメントを行うことができる。
〔4〕 第4の実施形態
本実施形態の一例では、後述するプリズムレンズ184を通過した光により生成された前眼部の画像上の画像領域(スプリッタ領域)を上記第3の実施形態のZX操作領域とする。
図9に本実施形態の一例に係る撮影部160の構成を示す図である。撮影部160は、前眼部照明用LED161a,161b,対物レンズ162,前眼部カメラ163およびプリズムレンズ184を備えている。上述の実施形態と異なり、本実施形態の一例では、撮影部160はプリズムレンズ184を備えている。
図中、既述の符号と同一の符号は同一もしくは略同一の部分を示しているので、その詳細な説明は省略する。
プリズムレンズ184は、被検眼170と対物レンズ162と距離を調整するために用いられる。すなわち、プリズムレンズ184は、前眼部カメラ163に対する被検眼170の前眼部の像の前眼部カメラ163の光軸方向における焦点位置の調整に用いられる。プリズムレンズ184は、異なる傾斜をもつ2つのプリズムをそなえている。このプリズムレンズ184により、被検眼170と対物レンズ162との距離が適切にアライメントできていない場合、後述する図10(c)に示すようにプリズムレンズ184を通過した光により生成された前眼部画像は、左右方向にずれる。なお、プリズムレンズを通過していない光により生成された前眼部画像については上述のズレは発生しない。なお、このプリズムレンズ184は、公知の種々の手法を用いて実現可能であるため、詳細な説明は省略する。
UI制御部120は、表示部130に表示される前眼部画像上での画像にズレが発生する領域(スプリッタ領域)に基づいて、このズレが発生する領域を示す画像を表示部130に表示させる。なお、前眼部画像上での画像にズレが発生する領域は、プリズムレンズ184の大きさおよび撮影部160の光学的設計に基づいて、予め知ることができ、このズレが発生する領域を図示しないメモリ等に記憶しておくことができる。したがって、UI制御部120は、メモリを参照することで、前眼部画像上での画像にズレが発生する領域を示す画像を表示部130に表示させることができる。
本実施形態の一例では、上記第3の実施形態のZX操作領域がスプリッタにより画像が割れる領域に置き換わったのみであり、システム1の動作については図7(a)〜(c)に示した動作と同様若しくは略同様であるため詳細な説明は省略する。
なお、図10は、図8における前眼部画像に対する操作と、略同様の操作が行われた場合の前眼部画像を示す図である。
図10(a)は、前眼部画像410上のプリズムレンズ184により前眼部画像上での画像にズレが発生する領域(スプリット領域)に、ZX操作領域470が表示された状態を示している。
図10(b)は、スプリット領域に対応するZX操作領域470外の位置から右斜め下方にドラッグが行なわれることを示す図である。
第3実施形態における動作と同様に、このドラッグに伴いX,Y方向に撮影部160は移動する。その後、表示部130には、図10(c)に示す前眼部の画像が表示される。図10(c)では、被検眼170と対物レンズ162と距離が適切ではないため、スプリット領域に対応するZX操作領域470内で画像が左右にずれている。なお、図10(c)は、スプリット領域に対応するZX操作領域470内の位置からY方向にドラッグが行なわれることを示す図である。このY方向のドラッグにより、撮影部160は、ドラッグの量等に応じてZ方向に移動する。図10(d)は、撮影部160のZ方向の移動によりスプリット領域に対応するZX操作領域470内の画像にずれがなくなり、適切なアライメントができたことを示している。
このように本実施形態の一例によれば、第3の実施形態と同様の効果が得られる他、プリズムレンズ184により生じる画像のズレを見ながらZ方向のアライメントを操作部140により行なうことができるため、より容易にZ方向のアライメントを行なうことができる。
〔5〕 その他の実施形態
また、本件は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
〔6〕 その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。
例えば、上述の実施形態では、撮影部160を、X,Y,Z方向に移動することにより被検眼170に対するアライメントを行なっている。すなわち、撮影部160をZ方向に移動させることで、前眼部カメラ163に対する眼部の像の、撮影部160の光軸方向における焦点位置を移動させているが、これに限定されるものではない。例えば、図示しない駆動部により、撮影部160がそなえる対物レンズ162を撮影部160の光軸方向に移動させることで、前眼部カメラ163に対する眼部の像の、撮影部160の光軸方向における焦点位置を移動させることとしてもよい。また、例えば、撮影部160において、対物レンズ162と前眼部カメラ163との間にフォーカスレンズをそなえることとしてもよい。そして、例えば、図示しない駆動部により、このフォーカスレンズを撮影部160の光軸方向に移動させることで、前眼部カメラ163に対する眼部の像の、撮影部160の光軸方向における焦点位置を移動させることとしてもよい。
また、上述の実施形態では、撮影部160を、X,Y,Z方向に移動することにより被検眼170に対するアライメントを行なっているが、これに限定されるものではなく、被験者が顎を置く、図示しない顎置きをX,Y,Z方向に移動することによりアライメントを行なってもよい。
さらに、上述の実施形態では、操作部140としてマウスを用い、クリック,ドラッグ,ホイールの回転等の操作に基づいて撮影部160の移動量が決定されているが、操作部140を用いた動作はこれらに限定されるものではない。例えば、ダブルクリック等の操作に基づいて、撮影部160の移動量が決定されることとしてもよい。
また、上述の実施形態では、撮影部160,Y方向駆動部171およびZX方向駆動部172は眼科装置を構成しているとしたが、これに限定されるものではない。例えば、眼科装置は、XYZ方向駆動制御部150の全部または一部の機能を含むこととしてもよい。
さらに、図4等で表示部130に表示される前眼部画像とともに、XYZ方向駆動制御部150により撮影部160を移動させるためのスクロールバーを表示することとしてもよい。操作部140によりスクロールバーをドラッグ等により移動させると、スクロールバーの移動量に応じてXYZ方向駆動制御部150は撮影部160の移動量を示す制御信号を生成する。その制御信号に基づいてZX方向駆動部172が撮影部160をZ方向に移動させる。また、前眼部の画像上における操作手段140のホイール操作等に伴い撮影部160がZ方向に移動する場合、撮影部160のZ方向への移動に連動してスクロールバーが移動することとしてもよい。このようにすれば、スクロールバーを参照することで、撮影部160の移動位置を把握することが可能となる。また、スクロールバーは表示部130に表示される前眼部の画像の左右上下方向のいずれに表示してもよい。さらに、スクロールバーの両端にそれぞれ「被検者側」、「検者側」等の表示を行うことで、スクロールバーを移動させると撮影部160がどちらの方向に移動するかを明確にしてもよい。このように、「被検者側」、「検者側」等の表示を行うと、スクロールバーを参照することによる撮影部160の移動位置を把握することが、より簡単になる。

Claims (10)

  1. 撮像手段により撮像された被検眼の前眼部の画像を表示手段に表示させる表示制御手段と、
    前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御手段と、を備えたことを特徴とする制御装置。
  2. 前記制御手段は、前記操作信号に基づいて前記マウスに対する操作に応じた前記撮像手段の前記撮像手段の光軸方向における移動量を示す制御信号を出力することを特徴とする請求項1に記載の制御装置。
  3. 前記制御手段は、前記制御信号を前記撮像手段を移動させる変更手段に出力することで前記変更手段に前記撮像手段を前記撮像手段の光軸方向に移動させることを特徴とする請求項2記載の制御装置。
  4. 前記制御手段は、前記前眼部の画像上に前記指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段の光軸に直交する平面方向における前記被検眼と前記撮像手段との位置関係の変更量を示す制御信号を出力することを特徴とする請求項1に記載の制御装置。
  5. 前記制御手段は、前記操作信号に基づいて前記マウスに対する操作に応じた前記撮像手段の前記撮像手段の光軸に直交する平面方向における移動量を示す制御信号を出力することを特徴とする請求項4に記載の制御装置。
  6. 前記制御手段は、前記制御信号を前記撮像手段を移動させる変更手段に出力することで前記変更手段に撮像手段を前記撮像手段の光軸に直交する平面方向に移動させることを特徴とする請求項5に記載の制御装置。
  7. 被検眼の前眼部の画像を撮像する撮像手段と、
    表示手段に表示された前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて制御手段から出力される制御信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置を前記撮像手段の光軸方向に変更する変更手段と、を備えたことを特徴とする眼科装置。
  8. 被検眼の前眼部の画像を撮像する撮像手段と、
    前記前眼部の画像を表示する表示手段と、
    前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御手段と、
    前記制御信号に基づいて前記焦点位置を前記撮像手段の光軸方向に変更する変更手段と、をそなえたことを特徴とするシステム。
  9. 撮像手段により撮像された被検眼の前眼部の画像を表示手段に表示させる表示制御工程と、
    前記前眼部の画像上に前記表示手段の任意の位置を示す指標がある場合にマウスに対する操作に応じて前記マウスから出力される操作信号に基づいて、前記撮像手段に対する前記前眼部の像の焦点位置の前記撮像手段の光軸方向における変更量を示す制御信号を出力する制御工程と、を有することを特徴とする制御方法。
  10. 請求項9に記載の方法を、コンピュータに実行させるプログラム。
JP2012082683A 2011-03-31 2012-03-30 制御装置,眼科装置,システム,制御方法およびプログラム Active JP5230830B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012082683A JP5230830B2 (ja) 2011-03-31 2012-03-30 制御装置,眼科装置,システム,制御方法およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011079365 2011-03-31
JP2011079365 2011-03-31
JP2012082683A JP5230830B2 (ja) 2011-03-31 2012-03-30 制御装置,眼科装置,システム,制御方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013058332A Division JP6012520B2 (ja) 2011-03-31 2013-03-21 制御装置,眼科装置,システム,制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012213632A true JP2012213632A (ja) 2012-11-08
JP5230830B2 JP5230830B2 (ja) 2013-07-10

Family

ID=46087284

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012082683A Active JP5230830B2 (ja) 2011-03-31 2012-03-30 制御装置,眼科装置,システム,制御方法およびプログラム
JP2013058332A Active JP6012520B2 (ja) 2011-03-31 2013-03-21 制御装置,眼科装置,システム,制御方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013058332A Active JP6012520B2 (ja) 2011-03-31 2013-03-21 制御装置,眼科装置,システム,制御方法およびプログラム

Country Status (5)

Country Link
US (1) US8876291B2 (ja)
JP (2) JP5230830B2 (ja)
CN (1) CN102727177B (ja)
DE (1) DE102012204259A1 (ja)
GB (1) GB2491679B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016150017A (ja) * 2015-02-16 2016-08-22 株式会社トプコン 眼科装置
WO2019138916A1 (ja) * 2018-01-10 2019-07-18 株式会社ニデック 眼底撮影装置
JP2019118721A (ja) * 2018-01-10 2019-07-22 株式会社ニデック 眼底撮影装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10345903B2 (en) * 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
JP7080076B2 (ja) * 2018-03-16 2022-06-03 株式会社トプコン 眼科装置、及びその制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323712A (ja) * 2004-05-13 2005-11-24 Tomey Corporation 検査装置
JP2009160190A (ja) * 2007-12-29 2009-07-23 Nidek Co Ltd 眼科撮影装置
JP2010233998A (ja) * 2009-03-31 2010-10-21 Nidek Co Ltd 眼科装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5526072A (en) 1993-04-14 1996-06-11 Alcon Laboratories, Inc. Apparatus and technique for automatic centering and focusing a corneal topographer
US5568208A (en) 1994-03-08 1996-10-22 Van De Velde; Frans J. Modified scanning laser opthalmoscope for psychophysical applications
JPH08126611A (ja) * 1994-11-01 1996-05-21 Canon Inc 眼科装置
JP3978024B2 (ja) 2001-12-03 2007-09-19 株式会社ニデック 眼科装置及び角膜手術装置
JP4428987B2 (ja) 2003-11-17 2010-03-10 キヤノン株式会社 眼科装置
JP4843242B2 (ja) 2005-03-31 2011-12-21 株式会社トプコン 眼底カメラ
JP5160826B2 (ja) 2007-07-19 2013-03-13 株式会社トプコン 角膜観察装置
JP4933413B2 (ja) * 2007-12-11 2012-05-16 株式会社トーメーコーポレーション 前眼部光干渉断層撮影装置及び前眼部光干渉断層撮影方法
JP5355994B2 (ja) 2008-11-05 2013-11-27 株式会社ニデック 眼科撮影装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323712A (ja) * 2004-05-13 2005-11-24 Tomey Corporation 検査装置
JP2009160190A (ja) * 2007-12-29 2009-07-23 Nidek Co Ltd 眼科撮影装置
JP2010233998A (ja) * 2009-03-31 2010-10-21 Nidek Co Ltd 眼科装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016150017A (ja) * 2015-02-16 2016-08-22 株式会社トプコン 眼科装置
WO2019138916A1 (ja) * 2018-01-10 2019-07-18 株式会社ニデック 眼底撮影装置
JP2019118721A (ja) * 2018-01-10 2019-07-22 株式会社ニデック 眼底撮影装置

Also Published As

Publication number Publication date
GB2491679B (en) 2013-08-07
CN102727177A (zh) 2012-10-17
JP5230830B2 (ja) 2013-07-10
US8876291B2 (en) 2014-11-04
CN102727177B (zh) 2015-09-02
JP6012520B2 (ja) 2016-10-25
US20120249952A1 (en) 2012-10-04
JP2013116414A (ja) 2013-06-13
GB2491679A (en) 2012-12-12
GB201205482D0 (en) 2012-05-09
DE102012204259A1 (de) 2012-10-04

Similar Documents

Publication Publication Date Title
JP4916779B2 (ja) 眼底観察装置
JP5058627B2 (ja) 眼底観察装置
JP6012520B2 (ja) 制御装置,眼科装置,システム,制御方法およびプログラム
JP5017328B2 (ja) 断層像撮像装置およびその制御方法、プログラム、記憶媒体
JP6296683B2 (ja) 眼科装置および制御方法
EP2382913A1 (en) Characteristic image extraction method and ophthalmologic apparatus
JP2011229834A (ja) 被写体動き検出装置、及び方法、並びに、oct装置
WO2010047034A1 (ja) 眼底の断層撮影を行う撮影制御装置、撮影装置、撮影制御方法、プログラム、記憶媒体
JP6922358B2 (ja) 生体観察システムおよび生体観察制御プログラム
WO2021106987A1 (ja) 医用画像処理装置、光干渉断層撮影装置、医用画像処理方法、及びプログラム
CN103222847B (zh) 眼科设备和眼科设备的控制方法
JPWO2019074077A1 (ja) 眼科システム、画像信号出力方法、画像信号出力装置、プログラム、及び三次元眼底画像生成方法
WO2022036302A1 (en) Systems and methods for superimposing virtual image on real-time image
JP2016067795A5 (ja)
JP2018054817A (ja) 観察装置および方法並びに観察装置制御プログラム
JP5543536B2 (ja) 断層像撮像装置および断層撮像方法、プログラム
JP5436630B2 (ja) 断層像撮像装置および断層撮像方法、プログラム
JP6305502B2 (ja) 眼科装置及び眼科装置の作動方法
JP5726229B2 (ja) 眼科装置及び眼科方法
JP6653174B2 (ja) 断層像撮影装置
JP5054579B2 (ja) 画像処理方法および画像処理装置
JP6877830B2 (ja) 眼科装置
JP2015120090A (ja) 眼科装置、眼科装置の作動方法、及びプログラム
JPWO2015129718A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2022087264A (ja) 眼科システム、眼科情報処理装置、プログラム、及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120907

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20120907

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5230830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151