以下に、本発明の好ましい実施形態を、図面を参照して詳しく説明する。
なお、以下に説明する実施形態は、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの態様に限られるものではない。また、各図面中、同様の構成要素には同一の符号を付して詳細な説明は適宜省略する。
[眼科装置の全体構成]
図1は、本発明の実施形態に係る眼科装置を表す概略図である。
なお、図1(A)は、本実施形態に係る眼科装置を正面からみたときの正面図である。図1(B)は、本実施形態に係る眼科装置を側方からみたときの側面図である。
本実施形態に係る眼科装置2は、被検眼に光を照射し、被検眼で反射した光の検出結果に基づいて被検眼の特性に関する情報を取得する。すなわち、本実施形態に係る眼科装置2は、被検眼で反射された光に基づいて被検眼を検査する眼科装置であり、任意の他覚検査を行う装置である。他覚検査には、被検眼の特性を取得するための測定と、被検眼の画像を取得するための撮影と、が含まれる。
眼科撮影装置の例としては、光コヒーレンストモグラフィ(Optical Coherence Tomography、OCT)を用いて断面像を得る光干渉断層計や、眼底を写真撮影する眼底カメラや、共焦点光学系を用いたレーザ走査により眼底の画像を得る走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope、SLO)や、スリット光を用いて角膜の光切片を切り取ることにより画像を得るスリットランプなどが挙げられる。
眼科測定装置の例としては、被検眼の屈折特性を測定する眼屈折検査装置(レフラクトメータ、ケラトメータ)や、眼圧計や、角膜の特性(角膜厚、細胞分布等)を得るスペキュラーマイクロスコープや、ハルトマン−シャックセンサを用いて被検眼の収差情報を得るウェーブフロントアナライザや、眼軸長測定装置などが挙げられる。
本実施形態では、眼科装置2が眼底カメラである場合を例に挙げて説明する。但し、本実施形態に係る眼科装置2は、眼底カメラであることに限定されるわけではなく、例を挙げて前述した眼科撮影装置および眼科測定装置のいずれか単独の装置であってもよく、いずれか複数の組み合わされた装置であってもよい。
図1(A)および図1(B)に表したように、本実施形態に係る眼科装置2は、ベース部410と、筐体420と、レンズ収容部430と、支持部440と、を備える。ベース部410は、光学系駆動部3A(図3参照)等の駆動系や、演算制御ユニット200(図3参照)を格納する。筐体420は、ベース部410上に設けられ、検査光学系3(図2参照)を格納する。レンズ収容部430は、筐体420の前面に突出して設けられ、対物レンズ22(図2参照)を収容する。レンズ収容部430には、前眼部カメラ300が設けられている。
前眼部カメラ300は、ステレオカメラとして2台のカメラ(第1前眼部カメラ300Aおよび第2前眼部カメラ300B)を有し、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bを用いて被検眼Eの前眼部Ea(図2参照)を異なる方向から実質的に同時に撮影する。つまり、前眼部カメラ300は、被検眼Eの前眼部Eaの画像(前眼部画像)を取得する。本実施形態の前眼部カメラ300は、本発明の「画像取得部」の一例である。以下の説明では、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bをまとめて前眼部カメラ300と称することがある。
支持部440は、ベース部410上に設けられ、被検者の顔を支持するための「顎受け」および「額当て」を有する。
本願明細書においては、顔が支持部440に支持された被検者から見て、左右方向をx方向とし、上下方向(鉛直方向)をy方向とし、x方向およびy方向と直交する方向(筐体420およびレンズ収容部430の奥行き方向)をz方向とする。
[検査光学系]
図2は、本実施形態の検査光学系を表す概略図である。
本実施形態の検査光学系3は、筐体420およびレンズ収容部430に設けられ、被検眼Eの特性に関する情報を取得し、被検眼Eを光学的に検査する。本実施形態に係る眼科装置2の検査光学系3は、眼底カメラユニット4を有する。眼底カメラユニット4は、従来の眼底カメラの光学系と同様の光学系を有する。
眼底カメラユニット4には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。なお、被検眼Eの前眼部Eaに光学系のピントが合っている場合、眼底カメラユニット4は前眼部Eaの観察画像を取得することができる。
撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像や、または近赤外光もしくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット4は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
眼底カメラユニット4は、照明光学系10と、撮影光学系30と、アライメント光学系50と、フォーカス光学系60と、を有する。照明光学系10は、眼底Efに照明光を照射する。撮影光学系30は、照明光が眼底Efで反射された眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。
照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。さらに、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。
そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
観察照明光が眼底Efで反射された眼底反射光は、対物レンズ22により屈折され、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー56を透過し、合焦レンズ31を経由し、ミラー32により反射される。さらに、眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。
CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)は、表示部241(図3参照)に表示される。なお、撮影光学系のピントが前眼部に合っている場合、被検眼Eの前眼部Eaの観察画像が表示部241に表示される。
撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光が眼底Efで反射された眼底反射光は、観察照明光の眼底反射光と同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。
CCDイメージセンサ38は、たとえば所定のフレームレートで眼底反射光を検出する。CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)は、表示部241に表示される。なお、観察画像を表示する表示部241と撮影画像を表示する表示部241は、互いに同一のものであってもよいし、互いに異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は、被検眼Eを固視させるための指標であり、眼底撮影時などに使用される。LCD39から出力された光の一部は、ハーフミラー39Aに反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー56を経由し、孔開きミラー21の孔部を通過し、対物レンズ22により屈折されて眼底Efに投影される。
LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などが挙げられる。また、固視標の表示位置を任意に変更することも可能である。
アライメント光学系50は、被検眼Eに対する装置光学系(検査光学系)の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー56により反射され、孔開きミラー21の孔部を通過し、対物レンズ22を通過して平行光束として被検眼Eの角膜に投影される。
アライメント光が角膜で反射された角膜反射光は、対物レンズ22、および孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した角膜反射光の一部は、ダイクロイックミラー56を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。
CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示部241に表示される。検者は、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
なお、本実施形態に係る眼科装置2は、前眼部カメラ300を用いてオートアライメントを実行することができる。そのため、アライメント指標を用いたオートアライメントが可能なことは必須な事項ではない。ただし、前眼部カメラ300を用いたオートアライメントが成功しなかった場合などにアライメント指標を用いたオートアライメントを行えるように構成したり、前眼部カメラ300を用いたオートアライメントとアライメント指標を用いたオートアライメントとを選択的に使用できるように構成したりすることも可能である。
フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。さらに、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、対物レンズ22により屈折されて眼底Efに投影される。
フォーカス光が眼底Efで反射された眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示部241に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
図2に表したように、前眼部カメラ300は、照明光学系10の光路および撮影光学系30の光路から外れた位置に設けられている。つまり、前眼部カメラ300は、照明光学系10および撮影光学系30と非同軸に設けられている。
なお、本実施形態では、前眼部カメラ300は、2台のカメラ(第1前眼部カメラ300Aおよび第2前眼部カメラ300B)を有しているが、1台のカメラであってもよく、3台以上のカメラを有していてもよい。後述の演算処理を考慮すると、前眼部カメラ300は、互いに異なる2方向から実質的に同時に前眼部Eaを撮影可能であることがより好ましい。
また、本実施形態では、照明光学系10および撮影光学系30とは別個に前眼部カメラ300が設けられているが、例えば撮影光学系30は、前眼部カメラ300と同様に前眼部Eaの撮影を行うことができる。つまり、2台以上の前眼部カメラ300のうちの1台の前眼部カメラを、撮影光学系30を含む構成によって担うようにしてもよい。いずれにしても、本実施形態は、互いに異なる2以上の方向から実質的に同時に前眼部Eaを撮影可能に構成されていればよい。
なお、「実質的に同時」とは、2台以上の前眼部カメラ300による撮影において、眼球運動を無視できる程度の撮影タイミングのズレを許容することを示す。それにより、2台以上の前眼部カメラ300は、被検眼Eが実質的に同じ位置(向き)にあるときの画像を取得することができる。
また、2台以上の前眼部カメラ300による撮影は、動画撮影でもよく静止画撮影でもよい。本実施形態では、前眼部カメラ300が動画撮影を行う場合を例に挙げて説明する。動画撮影の場合、演算制御ユニット200は、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記した実質的に同時の前眼部Eaの撮影を実現することができる。また、動画撮影の場合、2台以上の前眼部カメラ300から演算制御ユニット200に対して実質的に同時に入力された信号同士が対応付けられてもよい。一方、静止画撮影の場合、演算制御ユニット200は、撮影タイミングを合わせるよう制御することにより、上記した実質的に同時の前眼部Eaの撮影を実現することができる。
[演算制御ユニット]
図3は、本実施形態の演算制御ユニットを表すブロック図である。
演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。演算制御ユニット200は、眼底カメラユニット4を含む検査光学系3と、光学系駆動部3Aと、前眼部カメラ300と、ユーザインターフェイス240と、を制御する。例えば、演算制御ユニット200は、前眼部カメラ300により取得された前眼部Eaの画像(前眼部画像)や、眼底カメラユニット4により取得された眼底Efの画像(眼底画像)を表示部241に表示させる。
また、眼底カメラユニット4の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、前眼部カメラ300の動作制御などを行う。
演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置2を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえば前眼部画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
眼底カメラユニット4を含む検査光学系3および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
[制御部]
眼科装置2の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212と、光学系位置取得部213と、検査制御部215と、が設けられている。
[主制御部]
主制御部211は、前述した各種の動作制御を行う。なお、合焦レンズ31の移動制御は、図示しない合焦駆動部を制御して合焦レンズ31を光軸方向に移動させるものである。それにより、撮影光学系30の合焦位置が変更される。
主制御部211は、光学系駆動部3Aを制御して、検査光学系3を3次元的に移動させることができる。この制御は、オートアライメントやトラッキングにおいて実行される。ここで、トラッキングとは、被検眼Eの眼球運動に合わせて検査光学系3を移動させるものである。トラッキングは、たとえばアライメントよりも後の段階で実行される(場合によっては、ピント合わせも事前に実行される)。トラッキングは、検査光学系3の位置を眼球運動に追従させることにより、アライメント(およびピント)が合った好適な位置関係を維持する機能である。
本実施形態の前眼部カメラ300は、筐体420の前面に突出して設けられたレンズ収容部430に設けられている。そのため、主制御部211は、光学系駆動部3A(撮影移動部)を制御することにより前眼部カメラ300を移動させることができる。また、2台以上の前眼部カメラ300をそれぞれ独立に移動させることが可能な撮影移動部を設けることができる。
具体的には、撮影移動部は、各前眼部カメラ300に対して設けられた駆動機構(アクチュエータ、動力伝達機構等)を含む構成であってもよい。また、撮影移動部は、単一のアクチュエータにより発生された動力を前眼部カメラ300ごとに設けられた動力伝達機構によって伝達することにより、2台以上の前眼部カメラ300を移動させるように構成されていてもよい。
また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。
[記憶部]
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、前眼部像の画像データ(前眼部画像のデータ)、眼底像の画像データ(眼底画像のデータ)、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置2を動作させるための各種プログラムやデータが記憶されている。
[光学系位置取得部]
光学系位置取得部213は、眼科装置2に搭載された検査光学系3の現在位置を取得する。検査光学系3は、被検眼Eを光学的に検査するために用いられる光学系である。本実施形態の眼科装置2における検査光学系3は、被検眼Eの画像を得るための光学系である。
光学系位置取得部213は、たとえば、主制御部211による光学系駆動部3Aの移動制御の内容を表す情報を受けて、光学系駆動部3Aにより移動される検査光学系3の現在位置を取得する。この処理の具体例として、主制御部211は、所定のタイミング(装置起動時、患者情報入力時など)で光学系駆動部3Aを制御して、検査光学系3を所定の初期位置に移動させる。それ以降、主制御部211は、光学系駆動部3Aを制御する度に、移動制御の内容を記録する。それにより、移動制御の内容の履歴が得られる。光学系位置取得部213は、制御内容の履歴を参照して現在までの制御内容を取得し、取得した制御内容に基づいて検査光学系3の現在位置を求める。
また、主制御部211が光学系駆動部3Aを制御する度に制御内容を光学系位置取得部213に送信し、光学系位置取得部213が主制御部211から送信された制御内容を受ける度に検査光学系3の現在位置を逐次求めてもよい。他の構成例として、検査光学系3の位置を検知する位置センサが光学系位置取得部213に設けられていてもよい。
以上のようにして、光学系位置取得部213が検査光学系3の現在位置を取得した場合、主制御部211は、光学系位置取得部213により取得された検査光学系3の現在位置と、後述の解析部231により求められた被検眼Eの3次元位置と、に基づいて、光学系駆動部3Aにより検査光学系3を移動させることができる。具体的には、主制御部211は、光学系位置取得部213による取得結果によって検査光学系3の現在位置を認識し、解析部231による解析結果によって被検眼Eの3次元位置を認識する。
そして、主制御部211は、被検眼Eの3次元位置に対する検査光学系3の位置が所定の位置関係になるように、検査光学系3の現在位置を起点として検査光学系3の位置を変更する。被検眼Eの3次元位置に対する検査光学系3の所定の位置関係は、x方向およびy方向の位置がそれぞれ一致し、かつ、z方向の距離が所定の作動距離になるような位置関係である。ここで、作動距離とは、ワーキングディスタンスとも呼ばれる既定値であり、検査光学系3を用いた検査時における被検眼Eと検査光学系3との間の距離を意味する。
[検査制御部]
検査制御部215は、検査光学系3による被検眼Eの検査に関する動作を制御する。すなわち、検査制御部215は、被検眼Eの特性に関する情報の取得動作を制御する。具体的には、検査制御部215は、被検眼Eの検査(被検眼Eの特性に関する情報の取得)の開始の制御を実行したり、被検眼Eの検査の停止の制御を実行したり、被検眼Eの検査の開始を抑える制御を実行したりする。また、検査制御部215は、被検眼Eの検査の停止の制御を自動的に解除する制御を実行したり、被検眼Eの検査の開始を抑える制御を自動的に解除する制御を実行したりする。検査制御部215が実行する制御の詳細については、後述する。
[画像形成部]
画像形成部220は、CCDイメージセンサ35、38から出力された検出信号に基づいて、眼底Efの画像データを形成する。この処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。また、画像形成部220は、前眼部カメラ300により取得された前眼部Eaの画像データを形成する。画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、本願明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
[画像処理部]
画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット4により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。画像処理部230は、解析部231と、画像判定部232と、画像合成部233と、を有する。
[解析部]
解析部231は、2台以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像を解析することで、被検眼Eの3次元位置を求める。解析部231は、被検眼Eの3次元位置を求める処理を実行するための構成の一例として、画像補正部2311と、特徴位置特定部2312と、3次元位置算出部2313と、角膜反射位置検出部2314と、角度算出部2315と、を有する。
[画像補正部]
画像補正部2311は、前眼部カメラ300により得られた各撮影画像の歪みを、記憶部212に記憶されている収差情報に基づいて補正する。この処理は、たとえば、歪曲収差を補正するための補正係数に基づく公知の画像処理技術によって実行される。なお、前眼部カメラ300の光学系が撮影画像に与える歪曲収差が十分に小さい場合などには、収差情報および画像補正部2311は、必ずしも設けられていなくともよい。
[特徴位置特定部]
特徴位置特定部2312は、(画像補正部2311により歪曲収差が補正された)各撮影画像を解析することで、前眼部Eaの所定の特徴部位に相当する撮影画像中の位置(特徴位置と呼ぶ)を特定する。所定の特徴部位としては、たとえば被検眼Eの瞳孔中心または角膜頂点が用いられる。以下、瞳孔中心を特定する処理の具体例を説明する。
まず、特徴位置特定部2312は、前眼部Eaの撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、特徴位置特定部2312は、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、特徴位置特定部2312は、瞳孔の形状を考慮して瞳孔領域を特定してもよい。つまり、特徴位置特定部2312は、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定してもよい。
次に、特徴位置特定部2312は、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、特徴位置特定部2312は、瞳孔領域の輪郭を特定するとともに、瞳孔領域の輪郭(の近似円または近似楕円)の中心位置を特定し、その中心位置を瞳孔中心とすることができる。また、特徴位置特定部2312は、瞳孔領域の重心を求め、その重心位置を瞳孔中心としてもよい。なお、特徴位置特定部2312は、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に前眼部Eaの撮影画像の画素値の分布に基づいて特徴位置を特定することが可能である。
[3次元位置算出部]
3次元位置算出部2313は、2台以上の前眼部カメラ300の位置と、特徴位置特定部2312により特定された2以上の撮影画像中の特徴位置と、に基づいて、被検眼Eの特徴部位の3次元位置を算出する。3次元位置算出部2313が被検眼Eの特徴部位の3次元位置を算出する処理について、図4(A)および図4(B)を参照しつつ説明する。
図4は、被検眼と前眼部カメラとの間の位置関係を示す模式図である。
なお、図4(A)は、被検眼Eと、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bと、の間の位置関係を示す上面図である。図4(B)は、被検眼Eと、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bと、の間の位置関係を示す側面図である。図4(A)に表した距離Bは、第1前眼部カメラ300Aと第2前眼部カメラ300Bとの間の距離(基線長)である。図4(A)および図4(B)に表した距離Hは、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bの基線と、被検眼Eの特徴部位Pと、の間の距離(撮影距離)である。図4(A)および図4(B)に表した距離fは、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bのそれぞれと、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bのそれぞれの画面平面と、の間の距離(画面距離)である。
このような配置状態において、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bによる撮影画像の分解能は次式で表される。ここで、Δpは画素分解能を表す。
xy方向の分解能(平面分解能):Δxy=H・Δp/f
z方向の分解能(奥行き分解能):Δz=H・H・Δp/(B×f)
3次元位置算出部2313は、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bの位置と、2つの撮影画像における特徴部位Pに相当する特徴位置と、に対して、図4(A)および図4(B)に示す配置関係を考慮した公知の三角法を適用することにより、特徴部位Pの3次元位置、つまり被検眼Eの3次元位置を算出する。なお、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bの位置は、既知である。
3次元位置算出部2313により算出された被検眼Eの3次元位置は、制御部210に送られる。制御部210は、3次元位置算出部2313による被検眼Eの3次元位置の算出結果に基づいて、検査光学系3の光軸を被検眼Eの軸に合わせるように、かつ、被検眼Eに対する検査光学系3の距離が所定の作動距離になるように光学系駆動部3Aを制御する。
また、前眼部カメラ300が前眼部Eaを異なる方向から並行して動画撮影する場合、たとえば次のような処理(1)および(2)を行うことにより、被検眼Eの動きに対する検査光学系3のトラッキングを実行することが可能である。
(1)解析部231が、2台以上の前眼部カメラ300による動画撮影において実質的に同時に得られた2以上のフレームを逐次に解析することで、被検眼Eの3次元位置を逐次に求める。
(2)制御部210が、解析部231により逐次に求められる被検眼Eの3次元位置に基づき光学系駆動部3Aを逐次に制御することにより、検査光学系3の位置を被検眼Eの動きに追従させる。
解析部231は、3次元位置算出部2313により取得された被検眼Eの3次元位置に基づいて、被検眼Eと検査光学系3との間の変位を求めることができる。被検眼Eと検査光学系3との間の変位を求める処理は、前眼部カメラ300の位置および検査光学系3の位置が既知であることを利用して実行される。なお、検査光学系3の位置は、あらかじめ決められた所定位置であり、たとえば、対物レンズ22の前面(被検眼E側の面)と、検査光学系3の光軸とが交差する位置である。
[角膜反射位置検出部]
角膜反射位置検出部2314は、検査光学系3の光軸に平行な光線が被検眼Eの内部で結合することにより得られる点像に基づいて、被検眼Eの角膜反射の位置を検出する。
[角度算出部]
角度算出部2315は、角膜反射位置検出部2314により検出された被検眼Eの角膜反射の位置と、特徴位置特定部2312により特定された被検眼Eの瞳孔中心の位置と、に基づいて視軸と検査光学系3の光軸との間の角度を算出する。
角膜反射位置検出部2314が被検眼Eの角膜反射の位置を検出する処理、および角度算出部2315が視軸と検査光学系3の光軸との間の角度を算出する処理について、図5〜図7を参照しつつ説明する。
図5は、被検眼の視軸および瞳孔軸の関係を例示する水平断面図(概要図)である。
図6は、点光源により被検眼の内部に形成される点像を説明する角膜近傍の拡大図である。
図7は、瞳孔軸と検査光学系の光軸との間の角度を説明する模式図である。
なお、図7(a)は、瞳孔像Epの瞳孔中心PCの位置が角膜反射Brの位置に一致している状態を表す模式図である。図7(b)は、瞳孔像Epの瞳孔中心PCの位置が角膜反射Brの位置からずれている状態を表す模式図である。
角膜反射位置検出部2314は、アライメント光学系50のLED51からの平行光束K(図6参照)が被検眼Eの内部で結像して得られる輝点Qに基づいて、被検眼Eの角膜反射Br(図7(a)および図7(b)参照)の位置を検出する。本実施形態の「平行光束K」は、本発明の「検査光学系の光軸に平行な光線」の一例である。被検眼Eの角膜反射Brの位置は、すなわち輝点Qの像である輝点像の位置である。本実施形態の「輝点Qの像である輝点像」は、本発明の「点像」の一例である。
図6に示すように、アライメント光学系50のLED51からの平行光束Kが眼球に入射すると、アライメント光の輝点Qが角膜頂点Eptと角膜曲率中心Roとの中間位置(角膜Ecの曲率半径rの半分(r/2)の位置)に形成される。被検眼Eの角膜反射Brは、すなわち被検眼Eの内部に形成された輝点Qの像(プルキンエ像)である。
角度算出部2315は、被検眼Eの瞳孔中心PCの位置と被検眼Eの角膜反射Brの位置とに基づいて、瞳孔中心PCと角膜反射Brとの間の距離doを算出する。また、角度算出部2315は、距離doと、角膜曲率中心Roと瞳孔中心PCとの間の距離roと、に基づいて、瞳孔軸PXと検査光学系3の光軸との間の角度θを算出する。また、角度算出部2315は、角度θと、瞳孔軸PXと視軸VXとの間の角度λと、に基づいて、視軸VXと検査光学系3の光軸との間の角度θ1を算出する。なお、何点かの固視点が被検者に提示されるとともに、問題なく固視しているか否かの自覚判断が行われ、この自覚判断に基づいて角度θ1の補正が行われてもよい。また、これらの平均補正値が実装されてもよい。さらに、角度算出部2315は、算出した角度θ、θ1を表示部241に表示してもよい。
被検眼Eの瞳孔中心PCの位置は、被検眼Eが固視標を固視した状態において特徴位置特定部2312により特定される。被検眼Eの角膜反射Brの位置は、被検眼Eが固視標を固視した状態において角膜反射位置検出部2314により検出される。角度算出部2315は、例えば、ヒルシュベルグ(Hirschberg)法に基づいて瞳孔中心PCと角膜反射Brとの間の距離doを算出する。但し、距離doの算出方法は、ヒルシュベルグ法に基づいた手法に限定されるわけではない。
視軸VXは、被検眼Eが固視をしている固視標(固視点)と瞳孔中心PCとを結ぶ軸であり、被検眼Eが見ている方向を示す。瞳孔軸PXは、瞳孔中心PCから角膜Ecと垂直方向に出る軸であり、被検眼Eが向いている方向を示す。例えば斜視のない正常な被検眼Eであっても、視軸VXは瞳孔軸PXよりもやや鼻側(図5において下方)にずれている。視軸VXと瞳孔軸PXとの間の角度λは、正常な被検眼Eでも個体差があり、平均値としては約+5°程度である。
被検眼Eにおける視軸VXおよび瞳孔軸PXについては、アライメント光学系50のLED51に基づく角膜反射Brの位置から知ることができる。また、被検眼Eにおける瞳孔軸PXについては、瞳孔中心PCの位置から知ることができる。
角膜頂点Eptの位置と角膜反射Brの位置との間の距離dと、角膜Ecの曲率半径r(つまり角膜曲率中心Roと角膜頂点Eptとの間の距離)と、瞳孔軸PXと検査光学系3の光軸との間の角度θと、は、次式(1)のような関係式で表される。
sinθ = d/r ・・・(1)
しかし、ここでは、角度算出部2315は、瞳孔中心PCの位置と角膜反射Brの位置との間の距離do(dx及びdyを区別せずに説明する場合には、距離doとして説明する。)と、角膜曲率中心Roと瞳孔中心PCとの間の距離roを用いて、次式(2)に基づいて、角度θを求める。これにより、前眼部画像に基づいて、より効率的に角度θ等を算出できる。
sinθ = do/ro ・・・(2)
角度算出部2315は、先に求めた距離doを式(2)に代入することにより、角度θを算出できる。距離roは、例えば平均値を用いることができる。具体的には、距離roは、角膜の曲率半径rから、角膜頂点Eptと瞳孔中心PCとの間の距離r’を差分することで求められる。例えば、曲率半径rの平均値=7.7mm、距離r’の平均値=3.6mm(ただし、瞳孔中心PCを水晶体の前面とした場合の平均値)とした場合、距離ro=(7.7−3.6)mm=4.1mmとなる。
なお、瞳孔中心PCと角膜反射Brの各位置は、角膜の屈折作用の影響を受け易く、また、距離roには個人差がある。そのため、図7(a)のような斜視のない被検眼Eの瞳孔軸PXや、他の様々な方向を向いた被検眼Eの瞳孔軸PXに関する、距離doおよび距離roを収集し、これらの連立方程式に基づいて、距離roを最適化してもよい。または、ケラト測定により取得された角膜の曲率半径rの実測値から、距離roを最適化してもよい。
また、上記式(1)および式(2)を用いた算出手順に代えて、次式(3)によっても、角度θを算出することができる。
sinθ = D/Lo ・・・(3)
上記式(3)中、「Lo」は角膜頂点Eptと眼球回旋点Oとの間の距離を示し、「D」は角膜頂点Eptの位置と眼球回旋点Oの位置との間の距離を示す。なお、角膜頂点Eptと眼球回旋点Oとの間の距離Loは予め決められた値(例えば、平均的な値である13mm)であってよい。あるいは、別の機器による測定において、距離Loの実距離が既知である場合には、この値が入力可能とされていてもよい。角膜Ecの曲率半径rは、例えば角膜形状測定(ケラト測定)により取得された実測値を用いることが可能である。初期値として、角膜Ecの曲率半径rの平均値(7.7mm)が用いられてもよい。またこの場合も、距離Loに代えて瞳孔中心PCと眼球回旋点Oとの間の距離を用い、距離Dに代えて、前眼部画像における瞳孔中心PCの位置と眼球回旋点Oの位置との距離を用いて算出してもよい。
さらに、角度θの他の算出手法として、例えば、角膜反射Brの変位Δ(図7(b)参照)を用いることもできる。変位Δは対象眼のみを固視させた状態において、眼球回旋点Oと角膜反射Brとの間のずれ量として表すことができる。
角膜反射Brの変位Δは、次式(4)のように表される。
Δ=(Lo − r)・sinθ ・・・(4)
上記式(4)中、「Lo」は角膜頂点Eptと眼球回旋点Oとの間の距離を示し、「r」は角膜Ecの曲率半径rを示す。この場合においても、角膜頂点Eptと眼球回旋点Oとの間の距離Loは予め決められた値(例えば、平均的な値である13mm)であってよい。あるいは、別の機器による測定において、距離Loの実距離が既知である場合には、この値が入力可能とされていてもよい。角膜Ecの曲率半径rは、例えば角膜形状測定(ケラト測定)により取得された実測値または平均値(7.7mm)を用いることが可能である。
[画像判定部]
画像判定部232は、特徴位置特定部2312の特定結果に基づいて、検査光学系3が被検眼Eの特性に関する情報を取得可能であるか否かを判定する。例えば、画像判定部232は、特徴位置特定部2312が被検眼Eの瞳孔に相当する画像領域を特定できない場合に検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。特徴位置特定部2312が被検眼Eの瞳孔に相当する画像領域を特定できない場合としては、例えば被検者が瞬きを行った場合や眼瞼を閉じている場合などが挙げられる。あるいは、例えば、画像判定部232は、角度算出部2315により算出された角度θ1が閾値以上である場合に検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。角度θ1が閾値以上である場合としては、例えば被検眼Eの視線が検査光学系3の光軸から大きくずれている場合や、被検眼Eの固視が安定していない場合や、被検者の頭部が傾いている場合などが挙げられる。
また、画像判定部232は、2台以上の前眼部カメラ300のうちの少なくとも1台の前眼部カメラにより得られた撮影画像を解析することで、前眼部Eaの画像が撮影画像中の所定領域に含まれているか否か判定する。
所定領域は、前眼部カメラ300による撮影範囲内においてあらかじめ設定され、たとえば撮影範囲の中心を含む領域として設定される。ここで、所定領域の範囲は、前眼部カメラ300による撮影条件(前眼部カメラ300の位置、撮影倍率等)に応じて変化可能とされている。また、所定領域の範囲は、後述の特徴点の設定に応じて決定可能とされている。また、所定領域は、被検者の顔を支持する支持部440(顎受けおよび額当て等。図1(A)および図1(B)参照。)の位置または支持部440の近傍位置に相当するように設定可能とされている。
画像判定部232が実行する処理の具体例を説明する。まず、画像判定部232は、前眼部Eaの所定の特徴点に相当する画像領域を撮影画像中から特定する。特徴点としては、瞳孔中心、瞳孔輪郭、虹彩中心、虹彩輪郭、角膜頂点などが挙げられる。特徴点に相当する画像領域の特定処理は、たとえば特徴位置特定部2312が実行する処理と同様である。なお、特徴点と特徴部位とが同一の場合には、特徴位置特定部2312による特定結果を画像判定部232が行う処理に利用することができる。
次に、画像判定部232は、特定された特徴点が撮影画像(のフレーム)中の所定領域に含まれているか否か判定する。特徴点が撮影画像中の所定領域に含まれているか否かを画像判定部232が判定する処理は、画像判定部232が所定領域に相当する座標と特徴点の座標とを比較することによって行われる。
画像判定部232は、判定結果を制御部210に送る。制御部210は、前眼部Eaの画像が所定領域に含まれていないと判定された場合に、光学系駆動部3A(撮影移動部)を制御して前眼部カメラ300を支持部440(つまり被検者の顔)から離れる方向および/または支持部440の外側方向に移動させる。支持部440から離れる方向とは、図1(B)に示す座標系における−z方向である。
また、支持部440の外側方向とは、前眼部カメラ300が検査光学系3の光軸から離れる方向である。検査光学系3から離れる方向については、水平方向(±x方向)および/または垂直方向(±y方向)において定義することが可能である。つまり、xy平面内の任意の方向において、検査光学系3から離れる方向を定義することが可能である。
また、前眼部カメラ300の移動方向および/または移動距離については、たとえば、移動前における前眼部カメラ300と支持部440との位置関係に基づいて設定することができる。また、画像判定部232による判定処理と、前眼部カメラ300の移動処理とを交互に行うことにより、前眼部カメラ300を好適な位置に追い込んでいくように制御を行うことも可能である。
また、特徴点に相当する画像領域と所定領域との間の距離(ピクセル数)に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成してもよい。また、特徴点に相当する画像領域と所定領域内の所定位置(たとえば中心位置)との間の距離に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成することも可能である。
[画像合成部]
画像合成部233は、2台以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像の合成画像を形成する。合成画像の例として、2以上の撮影画像に基づく立体画像や視点変換により得られる画像(視点変換画像)などが挙げられる。視点変換画像の視点は、たとえば検査光学系3の光軸上に設定される。合成画像は、公知の画像合成処理を用いることにより得られる。
以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
[ユーザインターフェイス]
ユーザインターフェイス240は、表示部241と、操作部242と、を有する。表示部241は、前述した演算制御ユニット200の表示デバイスや他の表示装置を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242は、眼科装置2の筐体420や外部に設けられた各種のボタンやキーを含んでいてもよい。
たとえば眼科装置2が従来の眼科装置と同様の筐体を有する場合、操作部242は、筐体420に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼科装置2の筐体420に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
[眼科装置の動作]
次に、眼科装置2の動作について説明する。本実施形態の動作例では、オートアライメントを含む一連の動作の全体的な流れを説明する。
図8は、本実施形態に係る眼科装置の第1動作例を例示するフローチャートである。
図9は、本実施形態のオートアライメントを説明する模式図である。
まず、ステップS1において、制御部210は、図9(A)に示す撮影画面1000を表示部241に表示させる。撮影画面1000内の左側の表示領域(第1表示領域)1001には、眼底カメラユニット4により取得される赤外観察画像(前眼部Eaの正面画像)2000がリアルタイムで動画表示される。また、撮影画面1000内の右側の表示領域(第2表示領域)1002には、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bのいずれか一方により取得される前眼部画像2100が動画表示される。第2表示領域1002の下方には、「Capture START」ボタン1003が設けられている。
続いて、ステップS2において、「Capture START」ボタン1003が操作(クリック)されると、制御部210は、オートアライメントを行うためのアライメント画面1010(図9(B)参照)を表示部241に表示させる。アライメント画面1010には、少なくとも、オートアライメントを行うために用いられる画像が表示される。
眼科装置2の第1動作例では、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bにより取得される2つの前眼部画像を用いたオートアライメントについて説明する。眼科装置2の第1動作例では、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bにより取得される被検眼Eの2つの前眼部画像が合成表示される。2つの前眼部画像はそれぞれリアルタイムで取得され、2つの前眼部画像の合成画像はリアルタイムで動画表示される。つまり、2つの前眼部画像の合成表示は、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bにより実質的に同時に取得された2つの前眼部画像(静止画像)に基づく合成画像(静止画像)を1フレームとする動画表示である。
ここで、各フレーム(各合成画像)の作成方法を説明する。1つのフレームは、上記のように、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bにより実質的に同時に取得された2つの前眼部画像に基づく。フレームの作成方法の第1例として、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bのいずれか一方の前眼部画像の部分画像と、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bのいずれか他方の前眼部像の部分画像と、を並列表示させることができる。前眼部画像の部分画像としては、各々のフレームにおいて互いに異なる部分が用いられる。各部分画像は、部分画像の元となる前眼部画像の一部をトリミングすることによって得られる。トリミングの処理は、制御部210または画像処理部230によって実行される。
図9(B)に示すアライメント画面1010には、第1表示領域1011と第2表示領域1012とが設けられている。第1表示領域1011には、第1前眼部カメラ300Aにより取得された前眼部画像のうちフレームの上半分に相当する第1部分画像2110が表示される。第2表示領域1012には、第2前眼部カメラ300Bにより取得された前眼部画像のうちフレームの下半分に相当する第2部分画像2120が表示される。
アライメント画面1010において、第1表示領域1011は相対的に上方の位置に配置され、第2表示領域1012は相対的に下方の位置に配置されている。ここで、第1表示領域1011の下端と第2表示領域1012の上端とが互いに接している。このように、眼科装置2の第1動作例においては、2つの部分画像がそれらの位置関係に応じた配列で表示される。
光学系駆動部3Aにより検査光学系3が±z方向に移動されると、被検眼Eに対する第1前眼部カメラ300Aおよび第2前眼部カメラ300Bの位置の変化に伴い、第1部分画像2110および第2部分画像2120は、相対的に横方向に変位する。また、光学系駆動部3Aにより検査光学系3がxy方向において移動されると、被検眼Eに対する第1前眼部カメラ300Aおよび第2前眼部カメラ300Bの位置の変化に伴い、第1部分画像2110および第2部分画像2120は、一体的に、検査光学系3の移動方向に応じた方向に、それぞれ第1表示領域1011および第2表示領域1012において変位する。
前述したように、解析部231は、第1部分画像2110(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第1特徴領域)を特定する。同様に、解析部231は、第2部分画像2120(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第2特徴領域)を特定する。各特徴領域としては、たとえば瞳孔や瞳孔輪郭や瞳孔中心などが挙げられる。図9(b)において、第1特徴領域2110aおよび第2特徴領域2120aのそれぞれは、瞳孔輪郭に相当する。
さらに、解析部231は、第1特徴領域2110aと第2特徴領域2120aとの変位を算出する。第1特徴領域2110aと第2特徴領域2120aとの変位は、横方向における変位を含む。前述したように、横方向における変位は、±z方向における検査光学系3の位置ズレに相当する。解析部231は、解析部231により算出された第1特徴領域2110aと第2特徴領域2120aとの間の変位に相当する、検査光学系3の移動方向および移動距離を求める。
解析部231が検査光学系3の移動方向および移動距離を求める処理は、たとえば、特徴領域間の変位と、移動方向および移動距離と、が関連付けられた情報を参照して実行される。特徴領域間の変位と、移動方向および移動距離と、が関連付けられた情報は、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。
制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部3Aを制御することにより、検査光学系3を+z方向または−z方向に移動させる。制御部210が検査光学系3を+z方向または−z方向に移動させる処理を実行することによって、第1特徴領域2110aと第2特徴領域2120aとが合致するようにすなわち第1特徴領域2110aと第2特徴領域2120aとが組み合わされて瞳孔を示す画像が形成されるように、z方向のアライメントが実行される(図9(C)参照)。
図9(C)に示すアライメント画面1010の略中央に提示されている括弧2101および括弧2101に囲まれた円2102は、アライメントにおけるターゲット位置を示している。括弧2101は瞳孔輪郭のターゲット位置であり、円2102は瞳孔中心のターゲット位置である。
また、解析部231は、第1特徴領域2110aおよび第2特徴領域2120aのそれぞれの位置と、ターゲット位置(括弧2101、円2102)と、の間の変位を算出する。さらに、解析部231は、解析部231により算出された変位に相当する検査光学系3の移動方向および移動距離を求める。解析部231が検査光学系3の移動方向および移動距離を求める処理は、たとえば、特徴領域とターゲット位置との間の変位と、移動方向および移動距離と、が関連付けられた情報を参照して実行される。特徴領域とターゲット位置との間の変位と、移動方向および移動距離と、が関連付けられた情報は、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。
制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部3Aを制御することにより、+x方向若しくは−x方向および/または+y方向若しくは−y方向に検査光学系3を移動させる。制御部210が+x方向若しくは−x方向および/または+y方向若しくは−y方向に検査光学系3を移動させる処理を実行することによって、xy方向のアライメントが行われる。xy方向におけるアライメント状態とz方向におけるアライメント状態とを両立させることで、検査光学系3は、被検眼Eに対して3次元的に好適な位置に配置される。このとき、アライメント画面1010は、図9(C)に示すような表示状態となる。
なお、図9(B)および図9(C)に示す「Capture STOP」ボタン1013は、オートアライメントの動作例の処理を中止(または中断)するために操作(クリック)される。
続いて、ステップS3において、検者は、被検眼Eの検査を開始させるためのトリガ操作を、操作部242を用いて行う。オートフォーカスが実行される場合には、オートフォーカスの完了が被検眼Eの検査開始のトリガとして用いられてもよい。この場合には、ステップS3は不要である。
続いて、ステップS4において、検査制御部215は、被検眼Eの検査を開始する。すなわち、検査制御部215は、検査光学系3による被検眼Eの特性に関する情報の取得動作を開始する。これにより、検査光学系3は、被検眼Eの特性に関する情報の取得を開始する。
被検眼Eの検査が開始されると、ステップS5において、制御部210は、前眼部カメラ300を制御し、被検眼Eの前眼部Eaを撮像して前眼部画像を取得する。ステップS2に関して前述したオートアライメントにおいて、前眼部カメラ300は、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bの双方により前眼部画像を取得している。ステップS5では、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bの少なくとも一方が前眼部画像を取得すればよい。
続いて、前眼部画像の取得が完了すると、ステップS6において、制御部210は、特徴位置特定部2312を制御し、前眼部Eaの瞳孔に相当する画像領域を特定する。特徴位置特定部2312は、前眼部カメラ300が得た前眼部画像から前眼部Eaの瞳孔輪郭を抽出し、瞳孔輪郭に囲まれる領域を瞳孔に相当する画像領域として特定する。
続いて、ステップS7において、画像判定部232は、特徴位置特定部2312が瞳孔に相当する画像領域の特定に成功したか否かを判断する。すなわち、画像判定部232は、特徴位置特定部2312の特定結果に基づいて、検査光学系3が被検眼Eの特性に関する情報を取得可能であるか否かを判定する。特徴位置特定部2312が瞳孔に相当する画像領域を特定できた場合には(ステップS7:YES)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得可能であると判定する。そして、ステップS8において、特徴位置特定部2312は、画像領域(瞳孔領域)の中心位置を特定することにより瞳孔中心PCの位置を特定する。例えば、特徴位置特定部2312は、前眼部画像から抽出した前眼部Eaの瞳孔輪郭の中心位置を瞳孔中心PCの位置として特定する。また、特徴位置特定部2312は、瞳孔輪郭の径を算出してもよい。
一方で、特徴位置特定部2312が瞳孔に相当する画像領域を特定できなかった場合には(ステップS7:NO)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。特徴位置特定部2312が瞳孔に相当する画像領域を特定できない場合としては、例えば被検者が瞬きを行った場合や眼瞼を閉じている場合などが挙げられる。そして、ステップS13において、検査制御部215は、検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御を実行する。すなわち、検査制御部215は、被検眼Eの検査を停止する制御を実行する。
ステップS13に続くステップS14において、検査制御部215は、検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御を実行した後、所定時間が経過したか否かを判断する。所定時間が経過していない場合には(ステップS14:NO)、ステップS14において、検査制御部215は、所定時間が経過したか否かを引き続き判断する。
一方で、所定時間が経過した場合には(ステップS14:YES)、ステップS6において、制御部210は、特徴位置特定部2312を制御し、前眼部Eaの瞳孔に相当する画像領域を特定する。すなわち、検査制御部215は、検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御を実行した後、所定時間が経過すると、検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御を自動的に解除する制御を実行し、特徴位置特定部2312による前眼部Eaの瞳孔に相当する画像領域の特定を再び開始させる。
ステップS8に続くステップS9において、角膜反射位置検出部2314は、アライメント光学系50のLED51からの平行光束Kが被検眼Eの内部で結像して得られる輝点Qに基づいて、被検眼Eの角膜反射Brの位置を検出する。続いて、ステップS10において、角度算出部2315は、被検眼Eの瞳孔中心PCの位置と被検眼Eの角膜反射Brの位置とに基づいて、瞳孔中心PCと角膜反射Brとの間の距離doを算出する。また、角度算出部2315は、距離doと、角膜曲率中心Roと瞳孔中心PCとの間の距離roと、に基づいて、瞳孔軸PXと検査光学系3の光軸との間の角度θを算出する。また、角度算出部2315は、角度θと、瞳孔軸PXと視軸VXとの間の角度λと、に基づいて、視軸VXと検査光学系3の光軸との間の角度θ1を算出する
続いて、ステップS11において、画像判定部232は、角度算出部2315により算出された視軸VXと検査光学系3の光軸との間の角度θ1が所定の閾値以上であるか否かを判断する。すなわち、画像判定部232は、角度算出部2315の算出結果に基づいて、検査光学系3が被検眼Eの特性に関する情報を取得可能であるか否かをさらに判定する。視軸VXと検査光学系3の光軸との間の角度θ1が所定の閾値以上である場合には(ステップS11:YES)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。角度θ1が閾値以上である場合としては、例えば被検眼Eの視線が検査光学系3の光軸から大きくずれている場合や、被検眼Eの固視が安定していない場合や、被検者の頭部が傾いている場合などが挙げられる。そして、検査制御部215は、ステップS13およびステップS14に関して前述した処理を実行する。
一方で、視軸VXと検査光学系3の光軸との間の角度θ1が所定の閾値未満である場合には(ステップS11:NO)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得可能であると判定する。そして、ステップS12において、画像形成部220は、検査光学系3からの検出信号に基づいて被検眼Eの特性に関する情報(本実施形態に係る眼科装置2では眼底画像)を形成する。制御部210は、形成された眼底画像を記憶部212に記憶させる。制御部210は、ステップS12の処理が終了したことに応じて、眼科装置2の第1動作例の処理を終了させる。
本実施形態に係る眼科装置2の第1動作例によれば、検査制御部215は、検査光学系3が被検眼Eの特性に関する情報を取得不可能であることを画像判定部232が判定すると、検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御を実行する。すなわち、検査光学系3が被検眼Eの特性に関する情報を取得不可能である場合には、検査制御部215は、被検眼Eの検査中において被検眼Eの検査を停止する。そのため、検者が被検眼Eの検査を行った後になってはじめて検査エラーに気付くことを抑えることができる。これにより、被検眼Eで反射された光に基づいて被検眼Eを検査する眼科装置2において、被検眼Eの検査エラーが生ずることを未然に回避することができる。そして、検査の精度や確度を確保しつつ、検査時間の短縮を図ることができる。
また、画像判定部232は、特徴位置特定部2312が被検眼Eの瞳孔に相当する画像領域を特定できない場合に検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。このように、画像判定部232は、被検眼Eの瞳孔に相当する画像領域の有無に応じて、例えば被検者が瞬きを行った可能性があることや眼瞼を閉じている可能性があることを判定し、検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。これにより、例えば被検者が瞬きを行った場合や眼瞼を閉じている場合であっても、被検眼Eの検査エラーが生ずることを未然に回避することができる。
また、被検眼Eの検査エラーの発生が未然に回避された後、所定の時間が経過すると、検査制御部215は、検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御を自動的に解除する制御を実行する。そのため、検者が眼科装置2をわざわざ再操作して検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御を解除しなくともよい。そして、画像判定部232が特徴位置特定部2312の特定結果に基づいて検査光学系3が被検眼Eの特性に関する情報を取得可能であることを判定すると、検査光学系3による被検眼Eの特性に関する情報の取得が自動的に開始される。これにより、検者の二度手間が生ずることを抑え、検査時間の短縮の向上を図ることができる。
また、画像判定部232は、角度算出部2315の算出結果に基づいて検査光学系3が被検眼Eの特性に関する情報を取得可能であるか否かをさらに判定し、視軸VXと検査光学系3の光軸との間の角度θ1が閾値以上である場合に検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。このように、画像判定部232は、検査光学系3の光軸に対する視軸VXの傾斜角度に応じて、例えば被検眼Eの視線が検査光学系3の光軸から大きくずれている可能性があることや、被検眼Eの固視が安定していない可能性があることや、被検者の頭部が傾いている可能性があることを判定し、検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。これにより、例えば被検眼Eの視線が検査光学系3の光軸から大きくずれている場合や、被検眼Eの固視が安定していない場合や、被検者の頭部が傾いている場合であっても、被検眼Eの検査エラーが生ずることを未然に回避することができる。
また、前眼部カメラ300は、ステレオカメラとして2台のカメラ(第1前眼部カメラ300Aおよび第2前眼部カメラ300B)を有し、第1前眼部カメラ300Aおよび第2前眼部カメラ300Bを用いて被検眼Eの前眼部Eaを異なる方向から実質的に同時に撮影する。これにより、特徴位置特定部2312は、被検眼Eの瞳孔に相当する画像領域と被検眼Eの瞳孔中心PCの位置とをより高精度に特定することができるとともに、角膜反射位置検出部2314は、角膜反射Brの位置をより高精度に検出することができる。例えば、眼科装置2は、被検眼Eで反射した光と瞼で反射した光とを高精度に識別することができる。また、例えば、眼科装置2は、肌の色の違いの識別やアイシャドウの色の違いの識別などのように、処理において混乱が生ずる可能性がある場合であっても、色の違いを高精度に識別することができる。これにより、被検眼Eの検査エラーが生ずることを未然に、より確実に回避することができる。
また、眼底画像と比較して解析を行いやすい前眼部画像の情報を有効に活用することができる。すなわち、前眼部画像の像質は、眼底画像の像質よりも高い。また、前眼部画像のデータの容量は、眼底画像のデータの容量よりも少ない。つまり、眼底画像のデータの容量よりも少ない容量のデータとして前眼部画像を記憶部212に記憶させることができる。また、眼底画像と比較して、前眼部画像では二値化圧縮が容易である。そして、今後、被検眼Eの検査の遠隔化や自動化が推進される場合において、前眼部画像の情報を検査エラーの原因の分析や解析に有効に活用することができる。
さらに、特徴位置特定部2312が被検眼Eの瞳孔に相当する画像領域を特定できない場合において、画像判定部232は、略円形の画像領域の欠け方に応じて、被検者が瞬きを行った場合や眼瞼を閉じている場合と、被検眼Eの視線が検査光学系3の光軸からずれている場合や被検眼Eの固視が安定していない場合と、を判別することができる。例えば、略円形の画像領域の上部が欠けることにより、特徴位置特定部2312が被検眼Eの瞳孔に相当する画像領域を特定できない場合には、画像判定部232は、被検者が瞬きを行った可能性があることや眼瞼を閉じている可能性があることを判定する。一方で、略円形の画像領域の下部が欠けることにより、特徴位置特定部2312が被検眼Eの瞳孔に相当する画像領域を特定できない場合には、画像判定部232は、被検眼Eの視線が下方を向いている可能性があることを判定する。
図10は、本実施形態に係る眼科装置の第2動作例を例示するフローチャートである。
眼科装置2の第2動作例では、検査光学系3が被検眼Eの特性に関する情報を取得不可能である場合には、検査制御部215は、被検眼Eの検査開始前において被検眼Eの検査開始を抑える。この点において、眼科装置2の第2動作例は、眼科装置2の第1動作例とは相違する。
まず、ステップS21〜S23の処理は、図8に関して前述したステップS1〜S3の処理と同様である。ステップS23に続くステップS24において、制御部210は、前眼部カメラ300を制御し、被検眼Eの前眼部Eaを撮像して前眼部画像を取得する。すなわち、眼科装置2の第2動作例では、制御部210は、被検眼Eの検査開始(検査光学系3による被検眼Eの特性に関する情報の取得開始)の前において、被検眼Eの前眼部画像を取得する。ステップS24の処理は、図8に関して前述したステップS5の処理と同様である。
ステップS24に続くステップS25〜S26の処理は、図8に関して前述したステップS6〜S7の処理と同様である。すなわち、眼科装置2の第2動作例では、画像判定部232は、被検眼Eの検査開始の前において、特徴位置特定部2312の特定結果に基づいて、検査光学系3が被検眼Eの特性に関する情報を取得可能であるか否かを判定する。
特徴位置特定部2312が瞳孔に相当する画像領域を特定できた場合には(ステップS26:YES)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得可能であると判定する。そして、ステップS27において、特徴位置特定部2312は、画像領域(瞳孔領域)の中心位置を特定することにより瞳孔中心PCの位置を特定する。
一方で、特徴位置特定部2312が瞳孔に相当する画像領域を特定できなかった場合には(ステップS26:NO)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。そして、ステップS33において、検査制御部215は、検査光学系3による被検眼Eの特性に関する情報の取得開始を抑える制御を実行する。すなわち、検査制御部215は、被検眼Eの検査開始を抑える制御を実行する。
ステップS33に続くステップS34の処理は、図8に関して前述したステップS14の処理と同様である。
ステップS27に続くステップS28〜S30の処理は、図8に関して前述したステップS9〜S11の処理と同様である。すなわち、眼科装置2の第2動作例では、画像判定部232は、被検眼Eの検査開始の前において、角度算出部2315の算出結果に基づいて、検査光学系3が被検眼Eの特性に関する情報を取得可能であるか否かをさらに判定する。
視軸VXと検査光学系3の光軸との間の角度θ1が所定の閾値以上である場合には(ステップS30:YES)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得不可能であると判定する。そして、検査制御部215は、ステップS33およびステップS34に関して前述した処理を実行する。
一方で、視軸VXと検査光学系3の光軸との間の角度θ1が所定の閾値未満である場合には(ステップS30:NO)、画像判定部232は、検査光学系3が被検眼Eの特性に関する情報を取得可能であると判定する。そして、ステップS31において、検査制御部215は、被検眼Eの検査を開始する。すなわち、検査制御部215は、検査光学系3による被検眼Eの特性に関する情報の取得動作を開始する。これにより、検査光学系3は、被検眼Eの特性に関する情報の取得を開始する。ステップS31の処理は、図8に関して前述したステップS4の処理と同様である。ステップS31に続くステップS32の処理は、図8に関して前述したステップS12の処理と同様である。
本実施形態に係る眼科装置2の第2動作例によれば、検査制御部215は、検査光学系3が被検眼Eの特性に関する情報を取得不可能であることを画像判定部232が判定すると、検査光学系3による被検眼Eの特性に関する情報の取得開始を抑える制御を実行する。すなわち、検査光学系3が被検眼Eの特性に関する情報を取得不可能である場合には、検査制御部215は、被検眼Eの検査開始前において被検眼Eの検査開始を抑える。そのため、検者が被検眼Eの検査を行った後になってはじめて検査エラーに気付くことを抑えることができる。これにより、被検眼Eで反射された光に基づいて被検眼Eを検査する眼科装置2において、被検眼Eの検査エラーが生ずることを未然に回避することができる。そして、検査の精度や確度を確保しつつ、検査時間の短縮を図ることができる。また、眼科装置2の第1動作例に関して前述した効果と同様の効果が得られる。
図11および図12は、本実施形態に係る眼科装置の第3動作例を例示するフローチャートである。
眼科装置2の第3動作例では、検査光学系3が被検眼Eの特性に関する情報を取得不可能である場合には、検査制御部215は、被検眼Eの検査開始前において被検眼Eの検査開始を抑えるとともに、被検眼Eの検査中において被検眼Eの検査を停止する。すなわち、眼科装置2の第3動作例は、眼科装置2の第1動作例と、眼科装置2の第2動作例と、を組み合わせた動作例である。この点において、眼科装置2の第3動作例は、眼科装置2の第1動作例および第2動作例とは相違する。
ステップS41〜S53の処理は、図10に関して前述したステップS21〜S31、S33〜S34に関して前述した処理と同様である。また、ステップS54〜S62の処理は、図8に関して前述したステップS8〜S14の処理と同様である。
本実施形態に係る眼科装置2の第2動作例によれば、検査制御部215は、検査光学系3が被検眼Eの特性に関する情報を取得不可能であることを画像判定部232が判定すると、検査光学系3による被検眼Eの特性に関する情報の取得開始を抑える制御と、検査光学系3による被検眼Eの特性に関する情報の取得を停止する制御と、を実行する。すなわち、検査光学系3が被検眼Eの特性に関する情報を取得不可能である場合には、検査制御部215は、被検眼Eの検査開始前において被検眼Eの検査開始を抑えるとともに、被検眼Eの検査中において被検眼Eの検査を停止する。そのため、検者が被検眼Eの検査を行った後になってはじめて検査エラーに気付くことを抑えることができる。これにより、被検眼Eで反射された光に基づいて被検眼Eを検査する眼科装置2において、被検眼Eの検査エラーが生ずることを未然に回避することができる。そして、検査の精度や確度を確保しつつ、検査時間の短縮を図ることができる。また、眼科装置2の第1動作例に関して前述した効果と同様の効果が得られる。
以上、本発明の実施形態について説明した。しかし、本発明は、上記実施形態に限定されず、特許請求の範囲を逸脱しない範囲で種々の変更を行うことができる。上記実施形態の構成は、その一部を省略したり、上記とは異なるように任意に組み合わせたりすることができる。