JP2022144294A - 眼科装置 - Google Patents

眼科装置 Download PDF

Info

Publication number
JP2022144294A
JP2022144294A JP2021045231A JP2021045231A JP2022144294A JP 2022144294 A JP2022144294 A JP 2022144294A JP 2021045231 A JP2021045231 A JP 2021045231A JP 2021045231 A JP2021045231 A JP 2021045231A JP 2022144294 A JP2022144294 A JP 2022144294A
Authority
JP
Japan
Prior art keywords
measurement
eye
subject
image
monitor unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021045231A
Other languages
English (en)
Inventor
靖久 石倉
Yasuhisa Ishikura
睦隆 石原
Mutsutaka Ishihara
隆史 行森
Takashi Yukimori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2021045231A priority Critical patent/JP2022144294A/ja
Publication of JP2022144294A publication Critical patent/JP2022144294A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

Figure 2022144294000001
【課題】適切に認識された被検眼の位置に基づいて装置各部を制御することができる眼科装置を提供すること。
【解決手段】被検眼Eの検査情報を測定する測定ヘッド12と、被検者Pの顔を支持する顔支持部20と、顔支持部20に支持された被検者Pの左右の被検眼Eを含む顔画像Mを撮影する広角カメラ60と、広角カメラ60によって撮影された顔画像Mを表示し、顔画像Mに対するタッチ操作を受け付けるタッチパネル式のモニタ部14と、モニタ部14が受け付けたタッチ操作を入力情報として装置各部を制御する主制御部17と、を備える。
【選択図】図3

Description

本発明は、眼科装置に関するものである。
従来から、被検者の左右の被検眼を含む顔を撮影し、撮影した顔画像をモニタ部に表示する眼科装置が知られている(例えば、特許文献1及び特許文献2参照)。
特開平10-216089号公報 特開2017-196305号公報
しかしながら、従来の眼科装置では、顔画像を撮影する撮影手段(カメラ)を、被検眼を測定する測定ヘッドの近傍に設置している。そのため、顔画像を捉える画像が広角画像になり、相対的に被検眼の画像が小さくなるので、被検眼の位置を適切に認識して装置各部を制御することが困難であった。
本発明は、上記問題に着目してなされたもので、適切に認識された被検眼の位置に基づいて装置各部を制御することができる眼科装置を提供することを目的とする。
上記目的を達成するため、本発明の眼科装置は、被検者の被検眼を測定する測定ヘッドと、前記被検者の顔を支持する顔支持部と、前記顔支持部に支持された前記被検者の左右の被検眼を含む顔画像を撮影する広角カメラと、前記広角カメラによって撮影された前記顔画像を表示し、前記顔画像に対するタッチ操作を受け付けるタッチパネル式のモニタ部と、前記モニタ部が受け付けたタッチ操作を入力情報として装置各部を制御する制御部と、を備えている。
よって、本発明の眼科装置では、適切に認識された被検眼の位置に基づいて装置各部を制御することができる。
実施例1の眼科装置の外観を示す斜視図である。 実施例1の眼科装置の外観を示す側面図である。 実施例1の眼科装置における制御系を示すブロック構成図である。 実施例1の眼科装置を用いた検査情報の測定手順を示すフローチャートである。 実施例1の眼科装置を用いた検査情報の測定手順を示すフローチャートである。 モニタ部に顔画像を表示したときの表示画面の表示例を示す図である。 モニタ部に顔画像を表示したときの表示画面の他の表示例を示す図である。 検者により顔画像上の被検眼の位置を指定されたときの表示画面の表示例を示す図である。 粗アライメント完了時点の表示画面の表示例を示す図である。 粗アライメント前の広角カメラと被検眼とのZY方向の位置関係を示す説明図である。 拡大画像への検者のタッチ操作を示す説明図である。 拡大画像へのピンチアウト操作を受け付けたときの表示画面の表示例を示す図である。 拡大画像へのピンチイン操作を受け付けたときの表示画面の表示例を示す図である。 被検眼の視認が難しいときの表示画面の表示例を示す図である。
以下、本発明の眼科装置を実施するための形態を、図面に示す実施例1に基づいて説明する。
(実施例1)
実施例1の眼科装置1は、二つの測定ヘッドを有し、オートレフラクトメータ、オートケラトメータ、ノンコンタクトトノメータ、角膜厚測定を一台に集約し、四種類の被検眼の検査情報を測定可能である。なお、実施例1の眼科装置1は、一般的に「オートケラトレフラクトトノメータ」と呼ばれる。
なお、本明細書では、各図に記すようにX軸、Y軸及びZ軸を取り、図1における左右方向(X軸正方向が右方向、負方向が左方向)、前後方向(Z軸正方向が後方向、負方向が前方向)及び上下方向(Y軸正方向が上方向、Y軸負方向が下方向、高さ方向、ということもある)を基準として明細書中の説明を行う。また、被検者P側(Z軸負方向)を眼科装置1の正面、被検者Pと対峙する側(Z軸正方向)を眼科装置1の背面、被検者Pの右側(X軸正方向)を眼科装置1の右側、被検者Pの左側(X軸負方向)を眼科装置1の左側と定義する。
眼科装置1は、図1及び図2に示すように、本体部10及び顔支持部20を有する眼科装置本体2と、眼科装置本体2が載置された光学テーブル30と、被検者Pが着座する検査椅子50と、を備えている。光学テーブル30の天板31及び検査椅子50の座面51は、いずれも昇降自在である。眼科装置1は、さらに、被検者Pの左右の被検眼Eを含む顔画像Mを撮影する広角カメラ60と、広角カメラ60によって撮影された顔画像Mを表示するモニタ部14と、眼科装置本体2及び光学テーブル30等の装置各部を制御する主制御部17(制御部)と、を備えている。
本体部10は、ベース部11と、測定ヘッド12と、モニタ部14と、操作部19と、広角カメラ60と、主制御部17と、を有しており、ベース部11及び測定ヘッド12はカバー部材13によって被覆されている。
ベース部11は、図2に示すように、測定ヘッド12をX、Y、Z方向へそれぞれ駆動する移動機構として、公知のXYZ駆動機構・駆動回路16(測定ヘッド駆動機構)を内蔵している。
測定ヘッド12は、図2に示すように、被検者Pの左右の被検眼Eのそれぞれの眼圧及び角膜厚(第1の検査情報)の測定を行うCT測定ヘッド12a(第1測定ヘッド)と、CT測定ヘッド12aの下方に配置され、被検者Pの左右の被検眼のそれぞれのレフ測定及びケラト測定を行うKR測定ヘッド12b(第2測定ヘッド)と、を有する複合測定ヘッドである。
ここで、「レフ測定」とは、被検眼Eの球面屈折力、円柱屈折力、乱視軸角度(第2の検査情報)を測定することをいう。「ケラト測定」とは、被検眼Eの角膜曲率半径、角膜屈折力、角膜乱視度、角膜乱視軸方向(第2の検査情報)を測定することをいう。「眼圧測定」では、被検眼Eにエアーを吹き付け、被検眼Eの眼圧を測定する。また、眼圧の測定値が角膜厚に影響されることから、角膜厚は被検眼Eの眼圧測定時に測定される。そして、眼科装置1は、角膜厚による眼圧の影響を考慮した眼圧補正値を算出する機能を搭載してもよい。
CT測定ヘッド12aは、図2に示すように、公知の観察・撮影用の測定光学系や測定光学系を制御する制御回路と共に、第1撮像素子151を有する第1測定光学系15aが設けられている。KR測定ヘッド12bには、図2に示すように、公知の観察・撮影用の測定光学系や測定光学系を制御する制御回路と共に、第2撮像素子152を有する第2測定光学系15bが設けられている。なお、第1測定光学系15a及び第1撮像素子151は、第1検査光軸L1上に配列されていて、CT測定ヘッド12aの内部カメラである。第2測定光学系15b及び第2撮像素子152は、第2検査光軸L2上に配列されていて、KR測定ヘッド12bの内部カメラである。また、測定ヘッド12の正面には、前眼部の照明用及び膜形状を測定する測定用の光源が輪環状に配置されている。
モニタ部14は、カラー液晶パネルの表面にタッチセンサを積層して構成されたタッチパネル式の表示画面40を有している。モニタ部14は、表示画面40に対するタッチ操作を受け付ける。なお、「タッチ操作を受け付ける」とは、表示画面40に表示している画像と接触位置との関係を対応付けて表示画面40への接触状態を認識することである。
また、モニタ部14は、カバー部材14aによって被覆されている。カバー部材14aには、制御回路ユニット等が内蔵されている。カバー部材14aは、測定ヘッド12の頂部の一縁に支持され、水平軸回り(X軸又はZ軸回り)及び垂直軸周り(Y軸周り)に回動自在に設けられている。これにより、表示画面40は、検者の位置、姿勢、目線の高さ等に応じて、所望の角度や方向に配置可能である。例えば、図2に示すように本体部10の背面方向に表示画面40を向けることや、図1に示すように本体部10の正面方向に表示画面40を向けることができる。また、モニタ部14を本体部10の右側又は左側に配置し、表示画面40を本体部10の右側又は左側に向けることもできる。
本体部10のベース部11と測定ヘッド12とモニタ部14とは、電気的に接続されている。また、本体部10は、図3に示すように、顔支持部20及び光学テーブル30と電気的に接続されている。これにより、ベース部11と測定ヘッド12とモニタ部14との間、さらには本体部10と顔支持部20と光学テーブル30との間で、データや操作指示の通信等が可能となっている。また、例えばベース部11に設けられた電力供給部から、測定ヘッド12、モニタ部14及び顔支持部20、さらには光学テーブル30に電力を供給する構成とすることもできる。なお、光学テーブル30の電力供給部は、眼科装置本体2とは別個に設けた構成とすることもできる。
モニタ部14を被覆するカバー部材14aに内蔵された制御回路ユニットは、マイクロプロセッサ、RAM、ROM、EEPROM、フラッシュメモリ等を含んで構成され、図3に示す主制御部17と、内部メモリ17aと、記憶部18として機能する。主制御部17は、主にマイクロプロセッサからなり、内部メモリ17aは主にRAM等からなり、記憶部18は主にROM、EEPROM、フラッシュメモリ等からなる。
主制御部17には、図3に示すように、第1測定光学系15a、第2測定光学系15b、XYZ駆動機構・駆動回路16、モニタ部14、記憶部18、操作部19、広角カメラ60、顔支持部20の駆動機構25、光学テーブル30のテーブル制御部33等が接続されている。主制御部17は、記憶部18又は内部メモリ17aに記憶したプログラムを例えばROM上に展開し、操作部19からの操作入力信号に応じて、これら眼科装置1の各部を統括的に制御する。
操作部19は、本体部10の電源ボタン、光学テーブル30の電源ボタン34及び昇降レバー35等を含み、これらに対する操作入力を受け付ける。操作部19が受け付けた操作入力信号は、主制御部17やテーブル制御部33に送出される。また、眼科装置1に検者又は被検者Pが操作可能なコントロールレバーや操作タッチ部等が備えられたり、検者用コントローラや被検者用コントローラが備えられたりしている場合、これらも操作部19に含まれる。
さらに、操作部19には、モニタ部14のタッチパネル式の表示画面40が含まれる。すなわち、モニタ部14は、各種のアイコンや操作タッチ部、キーボード、広角カメラ60によって撮影された顔画像M等を表示画面40に表示する。表示画面40は、自身が表示しているアイコンや顔画像M等に対するタッチ操作を受け付ける。表示画面40が受け付けた操作入力信号は主制御部17に送出される。これにより、主制御部17は、モニタ部14の表示画面40で受け付けたタッチ操作を入力情報として、眼科装置1の各部を制御する。
顔支持部20は、本体部10のベース部11の前方(正面)に連結して設けられている。なお、顔支持部20は、本体部10に連結された構成に限定されるものではなく、顔支持部20が本体部10から分離し、光学テーブル30上に設置された構成でもよい。
顔支持部20は、ベース部11に連結固定された基部21と、基部21に上下動自在に設けられた顎受け部22と、基部21の左右両側に突出して設けられた一対の支柱23と、一対の支柱23の上端に設けられた額当て部24と、顎受け部22を上下方向に移動させる顔支持部移動機構としての駆動機構25と、を備えている。また、顔支持部20は、前後方向や左右方向の位置を調整可能とするため、前後方向や左右方向に移動自在に設けられていてもよい。
顎受け部22は、被検者Pの顎が載置される部材である。実施例1では、顎受け部22を基部21に対して上下動自在に設けることで、本体部10に対して上下動自在とし、顎受け部22に乗せた被検者Pの顔を測定ヘッド12に対して相対的に移動自在とする。しかしながら、他の異なる実施形態として、顔支持部20全体を本体部10に対して上下動自在に構成することで、被検者Pの顔を測定ヘッド12に対して相対的に上下動自在としてもよい。
額当て部24は、被検者Pの額が突き当てられる部材である。実施例1では、額当て部24が一対の支柱23に設けられ、前後方向位置が固定されている。しかしながら、他の異なる実施形態として、額当て部24が前後方向の位置を調整自在となっていてもよい。額当て部24の前後方向の位置調整も、適宜の駆動機構(顔支持部移動機構)によって行う構成とすることで、プログラムによる自動調整や、操作部19からの操作入力信号による調整が可能となる。さらに手動調整も行える構成としてもよい。
被検者Pは、眼科装置本体2の前方(正面)に置かれた検査椅子50に着座した状態で眼科装置本体2と対峙し、顎受け部22に顎を置くと共に、額当て部24に額を突き当てて顔(頭部)を安定させて検査情報の測定等を受ける。なお、子供等背が低い被検者Pの場合は、検査椅子50に座らずに、立った状態で顔支持部20に顔を当てて測定を行ってもよい。また、車椅子に乗った被検者Pの場合は、車椅子に乗った状態で顔支持部20に顔を当てて測定を行ってもよい。
なお、顔支持部20は、被検眼Eの検査情報の測定中に、被検者Pの顔(頭部)が不測に移動することのないよう、被検者Pの顔を支持して安定させるものであれば、何れの構成であってもよい。他の異なる実施形態として、例えば顔支持部20が、顎受け部22及び額当て部24の一方のみを有する構成であってもよい。なお、額当て部24のみを有する場合は、この額当て部24(又は顔支持部20の全体)を所定の駆動機構によって上下方向等に移動自在とすることができる。
駆動機構25は、例えば、ステッピングモータを含む駆動機構、DCモータとポテンショセンサを含む駆動機構等、公知の駆動機構によって構成される。駆動機構25は駆動することで、顎受け部22を上方向又は下方向の所定の移動方向に、所定の移動速度で、所定の移動距離(移動量)だけ移動させる。
駆動機構25は、主制御部17によって駆動制御が行われる。具体的には、主制御部17は、表示画面40に表示された広角カメラ60で撮影した左右の被検眼Eを含む顔画像Mに対するタッチ操作を操作入力信号(入力情報)として、顎受け部22の移動距離、移動方向等の移動情報を算出する。そして、主制御部17は、算出した移動情報に従って駆動機構25を制御し、顎受け部22を上下移動させる。顎受け部22の移動距離や移動方向等は、ステッピングモータのステップ数、ポテンショセンサの数値等によって検出することができ、主制御部17は、これらの数値に基づいて容易且つ高精度に顎受け部22の移動を制御できる。
なお、実施例1では、主制御部17が顔支持部制御部として機能しているが、これに限定されることはなく、主制御部17とは別個に顔支持部制御部を設けてもよい。この場合、主制御部17からの指示信号に応じて、顔支持部制御部が駆動機構25を駆動制御して顎受け部22を移動させる。
光学テーブル30は、眼科装置本体2が載置される天板31と、天板31を昇降させるテーブル移動機構としての昇降機構32と、昇降機構32の駆動を制御するテーブル制御部33と、電源ボタン34と、昇降機構32を手動で作動させるための昇降レバー35と、昇降機構32が取り付けられたキャスターベース36と、を備えている。なお、実施例1では、被検者Pが検査椅子50に座った状態(座位)で測定を行う眼科装置1であるため、光学テーブル30の高さも座位での測定に対応した高さとしている。これに対して、被検者Pが立った状態(立位)で測定を行う眼科装置1とすることもできる。この場合、検査椅子50は備える必要がなく、光学テーブル30は、立位での測定に対応した高さのものを使用する。
昇降機構32は、テーブル制御部33によって制御されて、天板31を昇降させる。これにより、被検者Pの身長や顎の位置に応じて、天板31の高さが調整される。昇降機構32は、天板31を支持する昇降杆32aと、この昇降杆32aを上下動自在に支持する支持杆32bと、昇降杆32aを上下動させる駆動部32cと、を備えている。この昇降杆32aの移動情報(移動方向、移動距離、移動速度等)は、ロータリーエンコーダ等によって検出され、テーブル制御部33に送出される。
駆動部32cは、例えば、電動アクチュエータ等から構成される電動式としているが、この構成に限定されることはない。駆動部32cとして、油圧式、空圧式、ネジ式、リンク式、その他の公知の昇降機構を用いることができる。
キャスターベース36は、光学テーブル30全体を支持する。キャスターベース36には、ロック機構付きのキャスター36aが設けられている。これにより、検者等は光学テーブル30ごと眼科装置1を所望の設置場所へ容易に移動でき、且つ、設置場所では、キャスター36aをロックすることで、不測に移動しないように眼科装置1を安定して設置できる。
テーブル制御部33は、マイクロプロセッサと、RAM、ROM、フラッシュメモリ等からなる内部メモリ33aと、等を有して構成される。テーブル制御部33は、昇降機構32、電源ボタン34及び昇降レバー35と電気的に接続されている。電源ボタン34は、ON/OFFの操作入力信号をテーブル制御部33に送出する。昇降レバー35は、押し上げ操作と押し下げ操作が自在であり、これらの操作がされると、上昇又は下降の操作入力信号をテーブル制御部33に送出する。
テーブル制御部33は、昇降レバー35からの上昇又は下降の操作入力信号を受け付けて、昇降機構32の駆動部32cを制御して駆動させ、天板31(光学テーブル30)を上下方向に移動させる。また、自動調整モードの場合には、テーブル制御部33は、主制御部17からの入力信号に基づいて駆動部32cを制御して、天板31を上下方向に移動させる。
検査椅子50は、座面51の高さ調整が可能な公知の椅子を用いることができる。例えば、ガス圧式のものであってもよいし、電動式のものであってもよい。実施例1では、検査椅子50は眼科装置本体2や光学テーブル30と連動することなく、単独で座面51の高さを調整可能なものとしているが、これに限定されることはない。例えば、モニタ部14の表示画面40に対するタッチ操作に従って、座面51を上下方向等に移動する構成とすることもできる。また、主制御部17の制御によって、顎受け部22と光学テーブル30と検査椅子50とを、各々適切な配置となるように移動制御する構成とすることもできる。
広角カメラ60は、円筒状筐体と広角レンズと撮像素子を有しており、一箇所の位置から顔支持部20に支持された被検者Pの左右の被検眼E及び被検者Pの顎を含む顔画像Mを撮影する単独のカメラである。広角カメラ60は、顔支持部20と対向する測定ヘッド12のヘッド正面の位置であって、撮影光軸L3が、CT測定ヘッド12aの第1検査光軸L1、及び、KR測定ヘッド12bの第2検査光軸L2に対してX軸方向(左右方向・水平方向)で一致する位置に配置されている。また、広角カメラ60は、撮影光軸L3が、Y軸方向(高さ方向・垂直方向)において、CT測定ヘッド12aの第1検査光軸L1の高さ位置と、KR測定ヘッド12bの第2検査光軸L2に対の高さ位置とに挟まれた中間の高さ位置に配置されている(図2を参照)。広角カメラ60によって撮影される顔画像Mは、ここでは動画像である。広角カメラ60は、電源投入後から粗アライメント完了までの初期段階、及び、CT測定ヘッド12a、KR測定ヘッド12bによる測定完了まで継続して撮影し続けてもよいし、適宜撮影を中断してもよい。
広角カメラ60のY軸方向(垂直方向)の垂直画角は、CT測定ヘッド12a及びKR測定ヘッド12bによるそれぞれの測定中、測定モードに応じて位置が異なる被検眼E及び被検者Pの顎が共に画角内に入る角度設定としている。すなわち、CT測定ヘッド12aによる測定中の被検眼Eの位置と、KR測定ヘッド12bによる測定中の被検眼Eの位置とは、Y軸方向及びZ軸方向に対してずれた位置になる。これに対し、広角カメラ60の垂直画角は、CT測定ヘッド12aによる測定中の被検眼Eが入る線を垂直画角上限線とし、KR測定ヘッド12bによる測定中の被検眼Eが入る線を垂直画角下限線として垂直画角を決めている。実施例1では、広角カメラ60の垂直画角を、例えば、70°以上の角度に設定する。
広角カメラ60のX軸方向(水平方向)の水平画角は、CT測定ヘッド12a及びKR測定ヘッド12bによるそれぞれの測定中、左右いずれかの被検眼Eの位置が撮影光軸L3上にあるとき、他方の眼も画角に捉える角度設定としている。実施例1では、広角カメラ60の水平画角を、例えば、90°以上の角度に設定する。
なお、広角カメラ60は、顔支持部20に支持された被検者Pの左右の被検眼E及び被検者Pの顎を含む顔画像Mを撮影することができればよい。すなわち、広角カメラ60は、焦点距離を短くして広い画角範囲を捉えることができる広角レンズを備える広角カメラ以外に、超広角レンズを備える超広角カメラ、魚眼レンズを備える魚眼カメラを含む撮影手段をいう。また、広角レンズ及び超広角レンズは、広い画角範囲を捉える際に発生する歪みをレンズ補正するのに対し、魚眼レンズは、その歪みをあえて修正せずにそのまま捉える点で相違する。しかし、魚眼レンズは、広い画角範囲を撮影できるレンズという意味では超広角レンズの一種といえる。
以下、図4A~図8に基づいて、実施例1の眼科装置1において電源を入れてから所定の検査情報の測定が完了するまでの動作の一例を説明する。なお、図4A及び図4Bのフローチャートに示す測定手順は、一人の被検者Pの左右の被検眼Eの検査情報をそれぞれ測定することを前提とし、眼科装置1の電源が投入されたときに開始される。
ステップS1では、被検者Pの被検眼Eの検査情報を測定するにあたり、検者が眼科装置1(眼科装置本体2及び光学テーブル30)の電源を投入すると、主制御部17は、XYZ駆動機構・駆動回路16により測定ヘッド12を初期位置に移動させる。
ステップS2では、ステップS1での測定ヘッド12の初期位置移動に続き、主制御部17は、顔支持部20が有する検出センサ26による検出値に基づいて、被検者Pが顎受け部22に顔を乗せたか否かを判断する。主制御部17は、被検者Pが顎受け部22に顔を乗せていない間はステップS2の判断を繰り返し、被検者Pが顎受け部22に顔を乗せたと判断すると、ステップS3へ進む。
ステップS3では、ステップS2での被検者Pが顎受け部22に顔を乗せたとの判断に続き、主制御部17は、広角カメラ60によって被検者Pの左右の被検眼E及び顎を含む顔画像Mの撮影を開始させる。なお、広角カメラ60による撮影は、所定の測定が終了するまで継続する。
ステップS4では、ステップS3での顔画像Mの撮影開始に続き、主制御部17は、図5又は図6に示すように、広角カメラ60の撮像素子で捉えた顔画像Mを、モニタ部14の表示画面40に表示させる。また、主制御部17は、測定ヘッド12のXYZ方向の可動範囲を示す第1枠マーク41と、第1枠マーク41に対する標準的な被検眼位置(標準測定位置)を示す一対の第2枠マーク42と、を顔画像Mに重畳して表示画面40に表示させる。
ここで、表示画面40に表示される顔画像Mは、図5に示すように、撮像素子で捉えた顔画像Mのうち被検者Pの顎を含まない領域の画像(例えば、顔画像Mの上部画像)であってもよいし、図6に示すように、左右の被検眼E及び被検者Pの顎をいずれも含む領域の画像(例えば、顔画像Mの全体画像)であってもよい。顔画像Mは、表示画面40の中央部に設定された方形の第1表示領域40aに表示される。
また、第1表示領域40aにおいて顔画像Mのうち被検者Pの顎を含まない領域を表示する場合、主制御部17は、図5に示すように、広角カメラ60の撮像素子で捉えた顔画像Mのうち、少なくとも被検者Pの顎を含む領域の画像(例えば、顔画像Mの下部画像、以下「顎画像M´」という)を、表示画面40に表示させる。なお、顎画像M´は、第1表示領域40aの下側に設定された第2表示領域40bに表示される。
なお、モニタ部14の表示画面40には、第1表示領域40aや第2表示領域40bに加え、各種アイコンを表示する第3表示領域40cが設定されている。主制御部17は、第3表示領域40cに、ここでは被検者PのIDを入力するためのIDタッチ部T1、手動で右眼を選択するためのRタッチ部T2、顎受け部22を手動操作に基づいて上下動させるための顎受け上下動タッチ部T3、測定モードを設定するためのモード設定タッチ部T4(モード設定アイコン)、セットアップ画面を表示するセットアップタッチ部T5、手動で左眼を選択するためのLタッチ部T6、測定ヘッド12を手動操作に基づいて前後方向(Z軸方向)へ移動させるための測定ヘッド前後タッチ部T7、自動モードと手動モードを切り替えるためのA/Mタッチ部T8等を表示させる。なお、第3表示領域40cに表示されるアイコンは、図5や図6等に示すものに限らず、適宜必要なアイコンが表示される。
ステップS5では、ステップS4での顔画像Mの表示に続き、主制御部17は、測定モードを設定し、ステップS6へ進む。ここで、測定モードは、検者がモニタ部14に表示されたモード設定タッチ部T4をタッチ操作(タップ操作)し、モニタ部14が受け付けた操作入力信号に基づいて設定される。ここでは、設定モードは、CT測定ヘッド12aにより眼圧及び角膜厚の測定を行う第1測定モードと、KR測定ヘッド12bによりレフ測定及びケラト測定を行う第2測定モードと、CT測定ヘッド12aによる眼圧及び角膜厚の測定及びKR測定ヘッド12bによるレフ測定及びケラト測定を続けて行う第3測定モードのいずれかが設定される。なお、モード設定タッチ部T4は、検者によるタッチ操作、つまり設定される測定モードに応じて表示状態が切り替えられる。
ステップS6では、ステップS5での測定モードの設定又はステップS9でのタッチ操作を二回受け付けていないとの判断又はステップS16での粗アライメントの中断に続き、検者は、第1表示領域40aに表示された顔画像Mを目視し、被検眼Eの位置を確認してから顔画像M上の被検眼Eに所定のタッチ操作(ここでは、タップ操作)を行い、被検眼Eの画像上のXY方向の位置指定を行う。第1表示領域40aに対するタッチ操作は、モニタ部14によって受け付けられる。
ステップS7では、ステップS6での検者による被検眼EのXY方向の位置指定に続き、主制御部17は、図7に示すように、検者が接触した位置に十字状のタップマーク43を表示させる。タップマーク43は、顔画像Mに重畳して表示される。なお、主制御部17は、検者が接触した位置が、顔画像Mを画像解析して得られた画像上の被検眼Eの位置から、予め設定した所定距離以上乖離していると判断したときは、エラーメッセージを表示画面40に表示し、タッチ操作のやり直しを警告してもよい。
ステップS8では、ステップS7でのタップマーク43の表示に続き、主制御部17は、予め設定された拡大率で顔画像Mを拡大して拡大画像M1を生成し、生成した拡大画像M1のうち、モニタ部14に対する接触位置を基準にして定めた所定範囲を表示画面40に表示させる。拡大画像M1は、図7に示すように、例えば第2表示領域40bに隣接して設定された第4表示領域40dに表示される。また、拡大画像M1には、タップマーク43が重畳して表示される。拡大画像M1は、顔画像Mがタップされたタイミングでの静止画である。なお、図7では、検者が左右の被検眼Eに対してそれぞれタッチ操作を行った後の状態を示している。左右いずれか一方の被検眼Eのみに対してタッチ操作したときは、タップマーク43は一つだけ表示されるし、拡大画像M1も一つだけ示される。
ステップS9では、ステップS8での拡大画像M1の表示に続き、主制御部17は、モニタ部14が所定のタッチ操作(顔画像Mへのタップ操作)を二回受け付けたか否か判断する。主制御部17は、モニタ部14がタッチ操作を二回受け付けていないと判断したときは、ステップS6へ戻り、モニタ部14がタッチ操作を二回受け付けたと判断したときは、ステップS10へ進む。なお、「モニタ部14がタッチ操作を二回受け付けた状態」とは、検者によって左右の被検眼EのXY位置がそれぞれ指定された状態である。
ステップS10では、ステップS9でのタッチ操作(タップ操作)を二回受け付けたとの判断に続き、主制御部17は、時間差で受けた二回のタッチ操作の順に基づいて、測定ヘッド12による左右の被検眼Eの測定の順番を設定する。ここで、時間差で受けた二回のタッチ操作が、左右の被検眼Eのどちらの位置を指定した操作であるかは、第1表示領域40aに対する二カ所の接触位置の相対的な位置関係から判断される。すなわち、一回目のタッチ操作での接触位置が、二回目のタッチ操作での接触位置よりも左側であるときは、左眼の検査情報を先に測定し、続いて右眼の検査情報を測定する順番に設定する。
ステップS11では、ステップS10での測定順の設定に続き、主制御部17は、二つのタップマーク43と、一対の第2枠マーク42との上下方向の高さを一致させるため、顎受け部22のY軸方向への移動距離を算出する。ここで、顎受け部22のY軸方向への移動距離として、検者が顔画像Mをタッチ操作したことで指定した画像上の被検眼EのXY位置に基づき、広角カメラ60の撮影光軸L3から顔画像M上の被検眼Eまでの上下方向の距離(ΔY´)が算出される。ΔY´の詳細な算出方法は後述する。
ステップS12では、ステップS11でのΔY´の算出又はステップS17での粗アライメント未完了との判断に続き、主制御部17は、駆動機構25を制御し、顎受け部22をΔY´だけY軸方向に移動させる。これにより、被検者Pの顔が顎受け部22と共に上下動し、広角カメラ60によって撮影された顔画像Mに対するタッチ操作を入力情報とする粗アライメントの実行が開始される。なお、粗アライメントとは、顎受け部22を移動させることで、被検眼Eと測定ヘッド12の位置のずれを、測定ヘッド12のXYZ方向の可動範囲内に収めることである。
ステップS13では、ステップS12での顎受け部22の移動制御(粗アライメントの実行開始)に続き、主制御部17は、モニタ部14に対する所定のタッチ操作(ここでは、第4表示領域40dに表示された拡大画像M1に対するタップ操作)をモニタ部14が受け付けたか否かを判断する。主制御部17は、モニタ部14がタッチ操作を受け付けていない場合(拡大画像M1に対するタップ操作なし)はステップS15へ進み、モニタ部14がタッチ操作を受け付けた(拡大画像M1に対するタップ操作あり)と判断すると、ステップS14へ進む。
ステップS14では、ステップS13での拡大画像M1へのタッチ操作(タップ操作)を受け付けたとの判断に続き、主制御部17は、拡大画像M1に対する接触位置を被検眼Eの新たなXY位置の情報として、顎受け部22の移動制御(粗アライメント)を修正する。具体的には、まず、主制御部17は、第1表示領域40a及び第4表示領域40dに表示していたタップマーク43を一旦消去する。そして、主制御部17は、第4表示領域40dに対する接触位置にタップマーク43を再表示させる。また、タップマーク43と拡大画像M1との位置関係に基づき、第1表示領域40aにもタップマーク43を再表示させる。そして、主制御部17は、検者が第4表示領域40dをタッチ操作したことで、被検眼EのXY位置が再度指定されたとする。つまり、主制御部17は、拡大画像M1に対する接触位置を画像上の被検眼EのXY位置とし、新たに設定された被検眼位置に基づいてΔY´を再度算出する。そして、主制御部17は、新たに算出されたΔY´を目標値として顎受け部22をY軸方向に移動させる。
ステップS15では、ステップS13での拡大画像M1へのタッチ操作(タップ操作)を受け付けていないとの判断又はステップS14での粗アライメントの修正に続き、主制御部17は、モニタ部14に対する所定のタッチ操作(ここでは、第1表示領域40aに表示された顔画像Mに対するスワイプ操作)をモニタ部14が受け付けたか否かを判断する。主制御部17は、モニタ部14がタッチ操作を受け付けていない場合(顔画像Mに対するスワイプ操作なし)はステップS17へ進み、モニタ部14がタッチ操作を受け付けた(顔画像Mに対するスワイプ操作あり)と判断すると、ステップS16へ進む。
ステップS16では、ステップS15での顔画像Mへのタッチ操作(スワイプ操作)を受け付けたとの判断に続き、主制御部17は、顎受け部22の移動を停止する。つまり、粗アライメントを中断する。そして、ここでは被検眼位置の再指定(顔画像Mへのタッチ操作)を促すエラーメッセージを表示画面40に表示し、ステップS6に戻る。これにより、検者は、被検眼位置の再指定を行い、粗アライメントをやり直すことができる。なお、粗アライメントを中断してエラーメッセージを表示した後ステップS6へ戻らず、エンドへ進んでもよい。
ステップS17では、ステップS15での顔画像Mへのタッチ操作(スワイプ操作)を受け付けていないとの判断に続き、主制御部17は、顎受け部22のY軸方向への移動が完了したか否かを判断する。Y軸方向への移動が完了した場合、すなわち、顎受け部22がΔY´だけ移動した場合は、粗アライメントが完了したとしてステップS18へ進む。一方、顎受け部22の移動が未完了の場合は、ステップS12へ戻る。
なお、顎受け部22をΔY´だけY軸方向に移動して粗アライメントが完了すると、二つのタップマーク43と、一対の第2枠マーク42との上下方向の位置が近づくため、図8に示すように、画像上の被検眼Eと標準測定位置(第2枠マーク42)とのY軸方向のズレが小さくなる。しかしながら、ΔY´は、検者が顔画像Mをタッチ操作したことで指定した画像上の被検眼位置(以下「被検眼指定位置B」という、図9参照)に基づいて算出された値である。つまり、図9に模式的に示すように、被検眼Eの実際の位置(被検眼実位置C)は、被検眼指定位置Bに対してY軸方向にΔY-ΔY´だけずれている。さらに、被検眼実位置Cは、被検眼指定位置Bに対してZ軸方向にΔZだけずれている。ここで、「ΔY」は、被検眼実位置Cと広角カメラ60の撮影光軸L3とのY軸方向の実ズレ距離である。すなわち、ΔY-ΔY´は、被検眼Eの実際の上下方向の位置を広角カメラ60の撮影光軸L3に一致させるための顎受け部22の移動補正距離となる。また、「ΔZ」は、被検眼実位置Cと被検眼指定位置BとのZ軸方向の実ズレ距離である。
これにより、粗アライメント完了後、顎受け部22を、さらにΔY-ΔY´だけY軸方向にさらに移動させることで、被検眼Eの実際の上下方向の位置と標準測定位置(第2枠マーク42)とのY軸方向のズレをさらに小さくすることができる。また、後述する精密アライメント前に、予め測定ヘッド12をΔZだけZ軸方向に移動させることで、精密アライメントの時間短縮を図ることができる。ΔY-ΔY´及びΔZの詳細な算出方法は後述する。
ステップS18では、ステップS17での粗アライメントの完了との判断又はステップS23での測定未完了との判断に続き、主制御部17は、図8に示すように、第4表示領域40dにおける表示を切り替える。すなわち、主制御部17は、ステップS10にて設定された測定の順番に従って、測定対象の被検眼Eの拡大画像M1(図8では左眼の拡大画像M1)のみを第4表示領域40dに表示させる。なお、測定対象の被検眼Eの拡大画像M1は、第1表示領域40aに対する二カ所の接触位置の相対的な位置関係から判断する。すなわち、左眼を先に測定する場合、第1表示領域40aに対する接触位置が相対的に左側である接触位置を中心にした所定範囲の拡大画像M1を表示する。
ステップS19では、ステップS18での第4表示領域40dの切り替えに続き、検者は、第4表示領域40dに表示された拡大画像M1に所定のタッチ操作(ここでは、タップ操作)を行い、被検眼Eの特徴点(例えば瞳孔位置)の指定を行う。第4表示領域40dに対するタッチ操作は、モニタ部14によって受け付けられる。また、主制御部17は、検者が接触した位置に十字状のタップマーク43を表示させる(図8参照)。タップマーク43は、拡大画像M1に重畳して表示される。
ステップS20では、ステップS19での検者による画面上の特徴点の指定又はステップS21での精密アライメント未完了との判断に続き、主制御部17は、ステップS5にて設定された測定モードに従って測定に使用するCT測定ヘッド12a又はKR測定ヘッド12bを移動させ、指定された特徴点に対する精密アライメントの自動調整を行う。このとき、主制御部17は、第4表示領域40dにアライメント中心を示す十字状のアライメントマーク44を表示させる(図8参照)。
なお、精密アライメントの自動調整では、主制御部17により第4表示領域40dに表示したタップマーク43とアライメントマーク44との距離を演算し、距離演算値に基づいてXYZ駆動機構・駆動回路16を駆動制御する。そして、距離演算値に基づいて測定ヘッド12(CT測定ヘッド12a又はKR測定ヘッド12bを)を上下左右方向(Y軸方向及びX軸方向)に移動すると共に、特徴点像のピントが合焦するように、測定ヘッド12を前後方向(Z軸方向)に移動する。
ステップS21は、ステップS20での精密アライメントの自動調整に続き、主制御部17は、精密アライメント完了であるか否かを判断する。精密アライメントが未完了である場合は、ステップS20へ戻り、精密アライメントが完了である場合は、ステップS22へ進む。
ステップS22では、ステップS21での精密アライメントの完了判断に続き、主制御部17は、被検眼Eの検査情報の測定を自動的に開始する。ここで、主制御部17は、被検眼Eの検査情報の測定中、広角カメラ60によって撮影された顔画像Mを表示画面40に継続して表示してもよい。このとき、検査情報の測定前よりも第1表示領域40aの面積を縮小し、表示画面40内の任意の位置に設定してもよい。
ステップS23では、ステップS22での先に測定する被検眼Eの測定に続き、主制御部17は、測定結果を記憶部18へ記憶し、必要な測定がすべて完了したか否かを判断する。必要な検査情報の測定が未完了である場合は、ステップS18へ戻り、必要な測定がすべて完了した場合は、エンドへ進む。
以下、ステップS11におけるΔY´の算出方法と、ステップS17におけるΔY-ΔY´及びΔZの算出方法を、図9に基づいて説明する。図9では、被検眼Eと広角カメラ60とのY軸方向(上下方向)及びZ軸方向(前後方向)の位置関係を模式的に示している。
図9において61は、広角カメラ60の撮影光学系を示し、直線L3は撮影光学系61の撮影光軸を示し、点Aは撮影光学系61のレンズ主点を示す。また、点Bは、顔画像M上での被検眼Eの位置(被検眼指定位置)を示す。なお、被検眼指定位置BのXY方向の位置は、検者が顔画像Mをタッチ操作することで設定され、被検眼指定位置BのZ方向の位置は、広角カメラ60のピントが合焦する位置に設定される。ΔY´を算出する際、被検眼Eが顔画像M上の位置である被検眼指定位置Bに存在することを前提とする。また、点Cは、被検眼Eの実際の位置(被検眼実位置)を示す。さらに、点Dは、広角カメラ60の撮像素子62に捉えた被検眼像の中心位置(以下、「被検眼像位置」という)を示す。そして、図9における「s」は、撮影光学系61のレンズ主点Aから被検眼指定位置Bまでの前後方向(Z軸方向)の距離である。図9における「s´」は、撮影光学系61のレンズ主点Aから広角カメラ60の撮像素子62までの前後方向(Z軸方向)の距離(焦点距離)である。
そして、二つのタップマーク43と、一対の第2枠マーク42との上下方向の位置を一致させるための顎受け部22の移動距離ΔY´は、下記式(1)から算出される。
ΔY´ = (s/s´)×Δy´ ・・・(1)
なお、Δy´は、広角カメラ60の撮影光軸L3から被検眼像位置Dまでの上下方向(Z軸方向)の距離である。「Δy´」は、撮像素子62に捉えた被検眼像から検出する。
ここで、顎受け部22の移動距離ΔY´は、図9に示すように、広角カメラ60の撮影光軸L3から顔画像M上の被検眼Eまでの上下方向の距離である。つまり、主制御部17は、広角カメラ60のレンズ主点Aから顔画像M上の被検眼E(被検眼指定位置B)までの前後方向の距離(s)と、レンズ主点Aから被検眼像位置Dまでの前後方向の距離(s´)と、広角カメラ60の撮影光軸L3から被検眼像位置Dまでの上下方向の距離(Δy´)に基づいて、撮影光軸L3から顔画像M上の被検眼E(被検眼指定位置B)までの上下方向の距離(ΔY´)を算出する。
また、ΔY´は、被検眼Eが顔画像M上の位置である被検眼指定位置Bに存在することを前提として算出されるが、被検眼Eは、実際は被検眼指定位置Bからずれた位置(被検眼実位置C)に存在している。そのため、被検眼実位置Cと広角カメラ60の撮影光軸L3とのY軸方向の実ズレ距離ΔYは、被検眼実位置Cと被検眼指定位置BとのZ軸方向の実ズレ距離ΔZを加味して、下記式(2)から算出される。
ΔY = ((s+ΔZ)/s´)×Δy´ ・・・(2)
さらに、ΔYとΔY´との差異(被検眼実位置Cと被検眼指定位置BとのY軸方向のズレ距離)は、下記式(3)によって算出される。
ΔY-ΔY´ = ((s+ΔZ)/s´)×Δy2´ ・・・(3)
ここで、「Δy2´」は、顎受け部22をΔY´だけ移動させる粗アライメントが完了した時点での撮影光学系61の撮影光軸L3から被検眼像位置Dまでの上下方向(Z軸方向)の距離である。また、上記式(3)によって求められる被検眼実位置Cと被検眼指定位置BとのY軸方向のズレ距離は、被検眼Eの実際の上下方向の位置を撮影光軸L3に一致させるための顎受け部22の移動補正距離である。すなわち、主制御部17は、顎受け部22の移動距離(ΔY´)と、広角カメラ60の撮影光軸L3から被検眼実位置Cまでの上下方向の距離(ΔY)と、に基づいて、顎受け部22の移動補正距離(ΔY-ΔY´)を算出する。
そして、式(2)及び式(3)における未知の値はΔY及びΔZである。そのため、式(2)及び式(3)を連立方程式として解くことで、未知の値であるΔY及びΔZを算出することができる。
この結果、粗アライメント前の広角カメラ60の撮影光軸L3から実際の被検眼Eまでの上下方向の距離(ΔY)を求めることができる。
さらに、被検眼指定位置Bから実際の被検眼Eまでの前後方向の距離ΔZを求めることで、粗アライメント前の広角カメラ60のレンズ主点Aから実際の被検眼Eまでの前後方向の距離(s+ΔZ)を求めることができる。つまり、主制御部17は、広角カメラ60の撮影光軸L3から被検眼実位置Cまでの上下方向の距離(ΔY)と、被検眼Eの実際の上下方向の位置を撮影光軸L3に一致させるための顎受け部22の移動補正距離(ΔY-ΔY´)と、に基づいて、広角カメラ60のレンズ主点Aから実際の被検眼Eまでの前後方向の距離(s+ΔZ)を算出する。
以下、実施例1の眼科装置1における特徴作用を説明する。
実施例1の眼科装置1は、被検者Pの被検眼Eを測定する測定ヘッド12と、被検者Pの顔を支持する顔支持部20と、顔支持部20に支持された被検者Pの左右の被検眼Eを含む顔画像Mを撮影する広角カメラ60と、広角カメラ60によって撮影された顔画像Mを表示し、顔画像Mに対するタッチ操作を受け付けるタッチパネル式のモニタ部14と、を備えている。さらに、実施例1の眼科装置1は、モニタ部14が受け付けたタッチ操作を入力情報として装置各部を制御する主制御部17を備えている。
すなわち、眼科装置1では、被検眼Eを測定する際、図4Aに示すフローチャートにおいて、ステップS1、ステップS2、ステップS3、ステップS4へと進み、広角カメラ60によって撮影した顔画像Mをモニタ部14の表示画面40に表示する。このとき、広角カメラ60によって撮影した顔画像Mにおいて、被検者Pの左右の被検眼Eが表示されるため、相対的に被検眼Eの画像も小さくなり、画像処理では被検眼Eの位置を適切に認識することが難しくなる。
これに対し、実施例1の眼科装置1では、ステップS5、ステップS6へと進み、検者の顔画像Mへのタッチ操作(タップ操作)によって画像上の被検眼EのXY位置が指定されたら、ステップS7、ステップS8、ステップS9へと進む。さらに、検者が顔画像Mに対して二回タッチ操作を行い、左右の被検眼EのXY位置がそれぞれ指定されたら、ステップS10、ステップS11へと進み、顔画像Mに対する検者のタッチ操作に基づいて被検眼Eの位置を設定し、顎受け部22のY軸方向への移動距離(ΔY´)を算出する。そして、ステップS12へと進み、顎受け部22を移動させて粗アライメントを実行する。
このように、顎受け部22を移動させて粗アライメントを実行する際、主制御部17は、顔画像Mに対する検者のタッチ操作に基づいて被検眼Eの位置を設定し、顎受け部22のY軸方向への移動距離(ΔY´)を算出する。このため、顔画像Mにおいて相対的に被検眼Eの画像が小さくなり、画像処理による被検眼Eの認識が難しい場合であっても、モニタ部14が受け付けた検者によるタッチ操作を入力情報とすることで、主制御部17は画像上の被検眼EのXY位置を適切に認識することができる。これにより、実施例1の眼科装置1では、適切に認識された被検眼EのXY位置に基づいて顎受け部22を制御することができる。
また、実施例1の眼科装置1では、測定ヘッド12で左右の被検眼Eをそれぞれ測定するとき、主制御部17が、モニタ部14が顔画像Mに対して時間差で受け付けたタッチ操作の順に基づいて、左右の被検眼Eの測定の順番を設定する。つまり、図4Aに示すフローチャートのステップS6において、検者が顔画像Mに対してタッチ操作を行い、画面上の被検眼EのXY位置を指定したら、ステップS7、ステップS8、ステップS9へと進む。そして、顔画像Mに対して二回のタッチ操作が行われ、画像上の左右の被検眼EのXY位置がそれぞれ指定されたら、ステップS10へと進み、検者が左右の被検眼EのXY位置を指定するために時間差で受けた二回のタッチ操作の順に基づいて、測定ヘッド12による左右の被検眼Eの測定の順番を設定する。
これにより、主制御部17は、検者が左右の被検眼Eの測定の順番を設定するための操作を改めて行うことなく、左右の被検眼Eの測定順を設定することができる。そのため、検者の負担を軽減し、被検眼Eの測定を容易に行うことができる。
また、実施例1の眼科装置1では、図4Aに示すフローチャートのステップS8において、モニタ部14がタッチ操作として顔画像Mに対するタップ操作を受け付けたとき、主制御部17が、予め設定された拡大率で顔画像Mを拡大して拡大画像M1を生成する。そして、主制御部17は、拡大画像M1のうち、モニタ部14に対する接触位置を基準にした所定範囲をモニタ部14に設定された第4表示領域40dに表示させる。
すなわち、検者が顔画像Mにタッチ操作することで、顔画像Mは、検者が接触した位置を中心とする所定の領域が自動的に拡大されてモニタ部14に表示される。このため、検者は、顔画像Mのうち、自身が接触した位置を中心とする所定の領域を視認しやすく、被検眼Eの特徴点のXY位置を精度よく設定することが可能となる。また、拡大画像M1は、検者が顔画像Mをタッチ操作(タップ操作)しただけで所定の拡大率で自動的に拡大されて表示されるので、拡大画像M1を表示させるための検者の操作が不要となり、検者の負担軽減を図ることができる。
また、実施例1の眼科装置1では、モニタ部14が拡大画像M1に対するタッチ操作(タップ操作)を受け付けたとき、主制御部17が、拡大画像M1に対する接触位置を被検眼Eの位置情報として顎受け部22を制御する。すなわち、図4Aに示すフローチャートのステップS10において、左右の被検眼Eの測定順を、顔画像Mに対する時間差で受けたタッチ操作の順に基づいて設定した後、ステップS11へと進み、顎受け部22のY軸方向への移動距離(ΔY´)を算出する。続いて、ステップS12へと進み、主制御部17が顎受け部22を移動させて粗アライメントを実行する。そして、ステップS13へと進み、拡大画像M1へのタッチ操作があると判断されたら、ステップS14へと進む。これにより、主制御部17は、検者による拡大画像M1へタッチ操作により、被検眼EのXY位置が再度指定されたとして、拡大画像M1に対する接触位置を画像上の被検眼EのXY位置に設定し直し、顎受け部22の移動制御(粗アライメント)を修正する。
これにより、顔画像Mよりも視認しやすい拡大画像M1に基づいて被検眼EのXY位置を設定することができ、さらに精度よく認識された被検眼EのXY位置に基づいて顎受け部22を移動させることができる。この結果、粗アライメントの精度を向上させることができる。
さらに、実施例1の眼科装置1では、測定ヘッド12が、眼圧及び角膜厚の測定を行うCT測定ヘッド12aと、レフ測定及びケラト測定を行うKR測定ヘッド12bと、を有する複合測定ヘッドである。そして、図4Aに示すフローチャートのステップS5において、モニタ部14がモード設定タッチ部T4に対するタッチ操作を受けたとき、主制御部17が測定ヘッド12による測定モードを設定する。
これにより、検者のモニタ部14に対するタッチ操作によって測定モードを設定することができ、複数の測定モードの中から任意の測定モードを選択して設定するときの操作性の向上を図ることができる。特に、実施例1では、モニタ部14に表示されたモード設定タッチ部T4が、検者によるタッチ操作応じて表示状態が切り替えられるため、検者が設定されている測定モードを認識しながら操作することが可能となり、さらに操作性を向上させることができる。
以上、本発明の及び眼科装置を実施例1に基づいて説明してきたが、具体的な構成については、この実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
以下、モニタ部14に対する様々なタッチ操作と、モニタ部14が当該タッチ操作を受け付けたときの主制御部17による装置各部の制御内容の例を説明する。
実施例1では、図4Aに示すフローチャートのステップS9で顔画像Mに対するタッチ操作が二回行われたと判断されたとき、ステップS10へと進んで左右の被検眼Eの測定順番を設定する例を示した。しかしながら、これに限らない。例えば、測定ヘッド12で左右の被検眼Eをそれぞれ測定するとき、顔画像Mに対するタッチ操作が二回行われないと判断された後(ステップS9においてNOと判断された後)、主制御部17が、顔画像Mに対して所定のタッチ操作(例えば、「長押し」や「ダブルタップ」等)が行われたか否かを判断する。そして、顔画像Mに対して「長押し」等の所定のタッチ操作が行われたと判断したとき、主制御部17は、当該タッチ操作が行われた位置の近傍に表示されている被検眼Eに対する測定を制限してもよい。つまり、検者が被検眼EのXY位置をタッチ操作によって指定する際、タップ操作以外のタッチ操作(「長押し」や「ダブルタップ」等)を行った場合は、当該タッチ操作によってXY位置が指定された被検眼Eに対する測定を制限する。なお、「測定を制限する」とは、例えば、眼圧や角膜厚、レフ測定、ケラト測定の全ての測定を行わないことだけでなく、一部の検査項目の測定を行わないことも含む。
これにより、主制御部17は、モニタ部14が受けた「長押し」等の所定のタッチ操作を入力情報として、測定を制限する被検眼Eを設定することができる。そのため、検者は、病理眼等の影響によって測定を制限する被検眼Eを、モニタ部14に対するタッチ操作によって容易に指定することができ、眼科装置1の操作性の向上を図ることができる。
また、例えば、図4Aに示すステップS8において拡大画像M1が表示された後、図10Aに示すように、モニタ部14がタッチ操作として拡大画像M1に対するピンチアウト操作を受け付けたとき、主制御部17は、図10Bに示すように、ピンチアウト操作を受け付けた拡大画像M1を拡大してモニタ部14に表示させてもよい。このときの拡大画像M1の拡大率は、拡大画像M1に対する二つの接触位置α1、α2の移動距離に応じて設定される。また、拡大画像M1は、二つの接触位置α1、α2の中間位置を基準にして拡大される。
さらに、図4Aに示すステップS8において拡大画像M1が表示された後、モニタ部14がタッチ操作として拡大画像M1に対するピンチイン操作を受け付けたとき(図10A参照)、主制御部17は、図10Cに示すように、ピンチイン操作を受け付けた拡大画像M1を縮小してモニタ部14に表示させてもよい。このときの拡大画像M1の縮小率は、拡大画像M1に対する二つの接触位置α1、α2の移動距離に応じて設定される。また、拡大画像M1は、二つの接触位置α1、α2の中間位置を基準にして縮小される。
このように、主制御部17は、モニタ部14が受け付けた拡大画像M1に対するピンチアウト操作やピンチイン操作を入力情報として、拡大画像M1を拡大又は縮小して表示させることができる。そのため、検者は、顔画像M上で接触した位置を基準とする所定範囲の顔画像Mを、所望の拡大率や縮小率で適宜表示することができ、顔画像Mの視認性を向上させることができる。
また、例えば、図4Bに示すステップS22において被検眼Eの検査情報を測定中、モニタ部14がタッチ操作として顔画像Mに対するスワイプ操作又はフリック操作を受け付けたとき、主制御部17は、モニタ部14(第1表示領域40a)に対する接触位置の移動方向に応じて所定の制御を行ってもよい。具体的には、例えば、接触位置が上方向に移動するスワイプ操作又はフリック操作をモニタ部14が受け付けたとき、主制御部17は、測定ヘッド12による測定動作の強制終了制御を行う。また、例えば、接触位置が下方向に移動するスワイプ操作又はフリック操作をモニタ部14が受け付けたとき、主制御部17は、測定ヘッド12を測定位置からZ軸方向に沿って後退させる移動制御を行う。また、例えば、接触位置が左方向に移動するスワイプ操作又はフリック操作をモニタ部14が受け付けたとき、主制御部17は、測定ヘッド12による測定モードの切替制御を行う。さらに、例えば、接触位置が右方向に移動するスワイプ操作又はフリック操作をモニタ部14が受けたとき、主制御部17は、モニタ部14の表示の切替制御(例えば、測定値を表示する状態から測定結果のサマリデータを表示する状態へ表示を切り替える等)を行う。
なお、スワイプ操作又はフリック操作の操作方向と主制御部17による制御の内容とは任意に対応付けることができ、上述した関係に限られない。例えば、左右方向のスワイプ操作によって、測定ヘッド12による測定動作の強制終了制御を行うようにしてもよい。
このように、主制御部17は、測定ヘッド12による測定中にモニタ部14が受け付けたスワイプ操作又はフリック操作を入力情報として、測定の強制終了や、測定ヘッド12の移動制御、測定モードの切替制御、モニタ部14の表示切替制御等を行うことができる。そのため、検者は、モニタ部14に対するタッチ操作によって測定の中断や表示の切替等を容易に行うことができ、眼科装置1の操作性の向上を図ることができる。
また、実施例1の眼科装置1では、広角カメラ60が、顔支持部20に支持された被検者Pの左右の被検眼E及び顎を含む顔画像Mを撮影する。そして、図4に示すフローチャートのステップS4において顔画像Mをモニタ部14に表示する際、図5に示すように顔画像Mの一部を表示してもよいし、図6に示すように顔画像Mの全部を表示してもよい例を示した。しかしながら、これに限らない。例えば、ステップS4において図5に示すように、顔画像Mとして被検者Pの顎を含まない領域の画像を表示した状態で、モニタ部14がタッチ操作として顔画像Mにピンチイン操作を受け付けると、主制御部17が第1表示領域40aに表示される画像を縮小したり切り替えたりして、図6に示すように、顔画像Mとして左右の被検眼E及び被検者Pの顎を含む領域の画像(例えば、撮像素子で捉えた顔画像Mの全体画像)を表示させてもよい。
これにより、検者は、モニタ部14に対するタッチ操作によって顔画像Mとして表示される範囲を容易に変更することができ、必要に応じて顔支持部20による被検者Pの顎の支持状態を適宜確認することができる。このため、顎受け部22を移動させて行う粗アライメントを、遠隔操作等であっても安心して行うことが可能となる。
また、実施例1では、図4Aに示すステップS6において、検者が顔画像Mを目視し、顔画像M上の被検眼Eにタッチ操作(タップ操作)を行って、被検眼Eの画像上のXY方向の位置指定を行う例を示した。しかしながら、これに限らない。例えば被検者Pが目を閉じている等によって顔画像M上の被検眼Eを視認できない場合等では、主制御部17は、モニタ部14の表示画面40に、図11に示す眉アイコン45a、目頭アイコン45b、目じりアイコン45cを表示させる。なお、各アイコン45a~45cの表示は、例えば検者がセットアップタッチ部T5をタッチ操作し、モニタ部14が受け付けた操作入力信号に基づいて行われる。
そして、各アイコン45a~45cが表示されたら、検者は、例えば、まず眉アイコン45aをタッチ操作(タップ操作)する。続いて顔画像Mを目視し、被検者Pの眉の位置を確認してから顔画像M上の被検者Pの眉にタッチ操作(タップ操作)を行う。これにより、主制御部17は、被検者Pの眉の画像上のXY方向の位置指定が行われたと認識する。なお、検者が目頭アイコン45bをタッチ操作(タップ操作)し、続いて顔画像M上の被検者Pの目頭にタッチ操作(タップ操作)を行ったときは、主制御部17は、被検者Pの目頭の画像上のXY方向の位置指定が行われたと認識する。また、検者が目じりアイコン45cをタッチ操作(タップ操作)し、続いて顔画像M上の被検者Pの目じりにタッチ操作(タップ操作)を行ったときは、主制御部17は、被検者Pの目じりの画像上のXY方向の位置指定が行われたと認識する。
これにより、主制御部17は、検者のタッチ操作によって指定された画像上の目頭と目じりの位置関係や、眉と目頭、目じりの三カ所の位置関係等から被検眼EのXY位置を推定することができる。この結果、画像上の被検眼Eの視認が難しい場合であっても、主制御部17は、被検眼Eの位置を認識して装置各部を制御することが可能となる。
また、実施例1では、粗アライメント実行時、主制御部17が、画像上の被検眼EのXY位置に基づいて顎受け部22のY軸方向への移動距離(ΔY´)を算出し、算出した移動距離に基づいて駆動機構25を制御して、顎受け部22を自動的に移動させる例を示した。しかしながら、これに限らない。例えば、主制御部17が、算出した移動距離(ΔY´)をモニタ部14に表示させ、検者が視認できるようにする。これに対し、検者が、モニタ部14に表示された顎受け部22のY軸方向への移動距離(ΔY´)を視認し、顎受け上下動タッチ部T3をタッチ操作する。主制御部17は、顎受け上下動タッチ部T3に対するタッチ操作を入力情報としてして駆動機構25を制御し、顎受け部22を移動させる。すなわち、顎受け部22を手動操作に基づいて移動させてもよい。
この場合であっても、主制御部17は、広角カメラ60によって撮影された顔画像Mに対するタッチ操作を入力情報として、顎受け部22の移動距離を算出し、モニタ部14に表示させる表示制御を行うことができる。
また、実施例1の眼科装置1では、広角カメラ60によって撮影された顔画像Mに、被検者Pの左右の被検眼Eと顎とを含む例を示した。しかしながら、顔画像Mは、少なくとも被検者Pの左右の被検眼Eを含む画像であればよく、被検者Pの顎は広角カメラ60とは別の撮影手段によって撮影してもよいし、撮影しなくてもよい。
また、実施例1の眼科装置1では、顔画像Mへのタッチ操作を受けるモニタ部14を眼科装置本体2に取り付けた例を示した。しかし、モニタ部14は、眼科装置本体2に対して着脱可能とし、モニタ部14を検者が持って操作してもよい。また、モニタ部14とは別個に、表示部及びタッチパネルやキーボード等の操作部を備えたタブレット端末、スマートフォン等の情報端末、専用端末等のコントローラを備え、当該コントローラをモニタ部として用いてもよい。この場合、コントローラの表示部に、モニタ部14の表示画面40に表示される画面と同様の画面(顔画像Mを含む)を表示する。これにより、検者は、モニタ部14やコントローラを保持して、眼科装置本体2から離れた所望の場所から被検眼Eの位置を適切に指定することができる。
また、実施例1の眼科装置1では、測定ヘッド12として、CT測定ヘッド12aとKR測定ヘッド12bを有する複合測定ヘッドの例を示した。しかし、測定ヘッド12は、複合測定ヘッドに限られるものではなく、単一の測定ヘッドであってもよい。さらに、測定ヘッド12の種類もCT測定ヘッド12aや、KR測定ヘッド12bに限られるものではなく、例えば角膜形状測定ヘッド、眼底撮影ヘッド、眼軸長測定ヘッド、内皮細胞測定ヘッド等のように、眼科装置1に適用される様々な測定ヘッドであってもよい。
実施例1の眼科装置1では、広角カメラ60が、円筒状筐体と広角レンズと撮像素子を有して構成された例を示した。しかし、広角カメラ60としては、焦点深度を広げるため、ピンホール絞りや合焦レンズ手段等を追加した構成としてもよい。
1 眼科装置
2 眼科装置本体
10 本体部
12 測定ヘッド
12a CT測定ヘッド(第1測定ヘッド)
12b KR測定ヘッド(第2測定ヘッド)
14 モニタ部
40 表示画面
17 主制御部(制御部)
19 操作部
20 顔支持部
22 顎受け部
24 額当て部
60 広角カメラ
E 被検眼
M 顔画像
M1 拡大画像
P 被検者

Claims (10)

  1. 被検者の被検眼を測定する測定ヘッドと、
    前記被検者の顔を支持する顔支持部と、
    前記顔支持部に支持された前記被検者の左右の被検眼を含む顔画像を撮影する広角カメラと、
    前記広角カメラによって撮影された前記顔画像を表示し、前記顔画像に対するタッチ操作を受け付けるタッチパネル式のモニタ部と、
    前記モニタ部が受け付けたタッチ操作を入力情報として装置各部を制御する制御部と、
    を備えることを特徴とする眼科装置。
  2. 請求項1に記載された眼科装置において、
    前記制御部は、前記測定ヘッドで前記左右の被検眼をそれぞれ測定するとき、前記モニタ部が前記顔画像に対して時間差で受け付けたタッチ操作の順に基づいて、前記測定ヘッドによる前記左右の被検眼の測定の順番を設定する
    ことを特徴とする眼科装置。
  3. 請求項1又は請求項2に記載された眼科装置において、
    前記制御部は、前記測定ヘッドで前記左右の被検眼をそれぞれ測定するとき、前記モニタ部が受け付けた所定のタッチ操作に基づいて、前記測定ヘッドによる前記左右の被検眼のいずれか一方の測定を制限する
    ことを特徴とする眼科装置。
  4. 請求項1から請求項3のいずれか一項に記載された眼科装置において、
    前記制御部は、前記モニタ部がタッチ操作として前記顔画像に対するタップ操作を受け付けたとき、予め設定された拡大率で前記顔画像を拡大した拡大画像のうち、前記モニタ部に対する接触位置を基準にした所定範囲を前記モニタ部に表示させる
    ことを特徴とする眼科装置。
  5. 請求項4に記載された眼科装置において、
    前記制御部は、前記モニタ部がタッチ操作として前記拡大画像に対するタップ操作を受け付けたとき、前記拡大画像に対する接触位置を前記被検眼の位置情報として前記装置各部を制御する
    ことを特徴とする眼科装置。
  6. 請求項4又は請求項5に記載された眼科装置において、
    前記制御部は、前記モニタ部がタッチ操作として前記拡大画像に対するピンチアウト操作を受け付けたとき、前記拡大画像に対する二つの接触位置の移動距離に応じて設定される拡大率で前記拡大画像を拡大して前記モニタ部に表示させる
    ことを特徴とする眼科装置。
  7. 請求項4から請求項6のいずれか一項に記載された眼科装置において、
    前記制御部は、前記モニタ部がタッチ操作として前記拡大画像に対するピンチイン操作を受け付けたとき、前記拡大画像に対する二つの接触位置の移動距離に応じて設定される縮小率で前記拡大画像を縮小して前記モニタ部に表示させる
    ことを特徴とする眼科装置。
  8. 請求項1から請求項7のいずれか一項に記載された眼科装置において、
    前記制御部は、前記モニタ部がタッチ操作としてスワイプ操作又はフリック操作を受け付けたとき、前記モニタ部に対する接触位置の移動方向に応じて、前記測定ヘッドの測定動作の強制終了制御と、前記測定ヘッドの測定位置からの移動制御と、前記測定ヘッドの測定モードの切替制御と、前記モニタ部の表示の切替制御と、の少なくとも一つを行う
    ことを特徴とする眼科装置。
  9. 請求項1から請求項8のいずれか一項に記載された眼科装置において、
    前記広角カメラは、前記顔画像に前記顔支持部に支持された前記被検者の顎を含んで撮影し、
    前記制御部は、前記モニタ部がタッチ操作としてピンチイン操作を受け付けたとき、前記顔画像のうち、少なくとも前記左右の被検眼及び前記顎を含む所定の領域を前記モニタ部に表示させる
    ことを特徴とする眼科装置。
  10. 請求項1から請求項9のいずれか一項に記載された眼科装置において、
    前記測定ヘッドは、第1の検査情報を測定するための第1測定ヘッドと、第2の検査情報を測定するための第2測定ヘッドと、を有し、
    前記制御部は、前記モニタ部にモード設定アイコンを表示させると共に、前記モニタ部が前記モード設定アイコンに対するタッチ操作を受け付けたとき、前記第1測定ヘッドによる第1の検査情報を測定する第1測定モードと、前記第2測定ヘッドによる第2の検査情報を測定する第2測定モードと、前記第1測定ヘッドによる第1の検査情報及び前記第2測定ヘッドによる第2の検査情報を測定する第3測定モードと、のいずれかの測定モードを設定する
    ことを特徴とする眼科装置。
JP2021045231A 2021-03-18 2021-03-18 眼科装置 Pending JP2022144294A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021045231A JP2022144294A (ja) 2021-03-18 2021-03-18 眼科装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021045231A JP2022144294A (ja) 2021-03-18 2021-03-18 眼科装置

Publications (1)

Publication Number Publication Date
JP2022144294A true JP2022144294A (ja) 2022-10-03

Family

ID=83453670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021045231A Pending JP2022144294A (ja) 2021-03-18 2021-03-18 眼科装置

Country Status (1)

Country Link
JP (1) JP2022144294A (ja)

Similar Documents

Publication Publication Date Title
US9380934B2 (en) Optometry apparatus controller, optometry system, and storage medium having optometry apparatus program stored therein
KR101640536B1 (ko) 안과용 시스템들을 위한 이미지-프로세서-제어된 오정렬 감소
US10307058B2 (en) Ophthalmologic apparatus
CN107495919B (zh) 眼科装置
JP2007175352A (ja) 眼科装置
KR101637944B1 (ko) 안과장치 및 얼라인먼트 방법
US20230329551A1 (en) Ophthalmic apparatus and non-transitory computer-readable storage medium
JP5953740B2 (ja) 眼底検査装置
JP7394671B2 (ja) 眼科装置
JP6723843B2 (ja) 眼科装置
JP7300950B2 (ja) 被検者情報取得装置、眼科装置及び眼科システム
JP7437554B2 (ja) 眼科装置及び眼科システム
JP7029992B2 (ja) 眼科装置の操作端末、眼科検査の方法およびプログラム
JP2009072513A (ja) 眼科装置
JP6499884B2 (ja) 眼科装置
JP7344055B2 (ja) 眼科装置及び眼科装置の制御方法
JP2022144294A (ja) 眼科装置
JP2022144295A (ja) 眼科装置
JP6239872B2 (ja) 眼科装置及び眼科装置の制御方法
JP2022120647A (ja) 眼科装置
JP7365778B2 (ja) 眼科装置
JP7236884B2 (ja) 眼科装置
JP2003019117A (ja) 眼底カメラ
JP2022144296A (ja) 眼科装置
JP7491446B1 (ja) 眼科撮影装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240213