JP2021159165A - 情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システム - Google Patents
情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システム Download PDFInfo
- Publication number
- JP2021159165A JP2021159165A JP2020061541A JP2020061541A JP2021159165A JP 2021159165 A JP2021159165 A JP 2021159165A JP 2020061541 A JP2020061541 A JP 2020061541A JP 2020061541 A JP2020061541 A JP 2020061541A JP 2021159165 A JP2021159165 A JP 2021159165A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- processing device
- observation condition
- condition
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/13—Ophthalmic microscopes
- A61B3/135—Slit-lamp microscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0008—Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
- A61B3/0058—Operational features thereof characterised by display arrangements for multiple images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/06—Means for illuminating specimens
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Abstract
【課題】観察における操作を容易に行うことが可能な情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システムを提供すること。【解決手段】上記目的を達成するため、本技術の一形態に係る情報処理装置は、生成部を具備する。前記生成部は、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する。観察における操作を容易に行うことが可能となる。【選択図】図5
Description
本技術は、細隙灯顕微鏡に適用可能な情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システムに関する。
特許文献1に記載の眼科システムでは、スリットランプ顕微鏡を含む眼科撮影装置により被検眼の3次元画像が取得される。取得された3次元画像に基づいて、機械学習及びデータマイニングが実行され、知識が格納される。格納された知識と被検眼の3次元画像とに基づいて、診断支援情報が生成される。これにより、人工知能による解析が好適に行われるように図られている(特許文献1の段落[0017][0020]図8等)。
細隙灯顕微鏡(スリットランプ顕微鏡)は、照明部と撮影部との操作が人の手により行われる。このため、照明の向きやカメラの位置等の観察が行われた際の条件を再現することが難しい。このように、細隙灯顕微鏡において、観察における操作を容易に行うことを可能とする技術が求められている。
以上のような事情に鑑み、本技術の目的は、観察における操作を容易に行うことが可能な情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、生成部を具備する。
前記生成部は、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する。
前記生成部は、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する。
この情報処理装置では、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する。これにより、観察における操作を容易に行うことが可能となる。
本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成することを含む。
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成するステップ。
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成するステップ。
本技術の一形態に係る眼科顕微鏡システムは、細隙灯顕微鏡と、情報処理装置とを具備する。
前記情報処理装置は、生成部を具備する。
前記生成部は、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する。
前記情報処理装置は、生成部を具備する。
前記生成部は、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
図1は、本技術に係る観察システムの概要を説明するための模式図である。なお、観察システム100は、本技術に係る眼科顕微鏡システムの一実施形態に相当する。
図1に示すように、観察システム100は、細隙灯顕微鏡1及び情報処理装置10を有する。
細隙灯顕微鏡1及び情報処理装置10は、有線又は無線を介して、通信可能に接続されている。各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能である。
細隙灯顕微鏡1及び情報処理装置10は、有線又は無線を介して、通信可能に接続されている。各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能である。
細隙灯顕微鏡1は、照明光学系2及び撮影光学系3を有し、被検眼の観察が可能である。ユーザ(例えば医師)は、照明光学系2及び撮影光学系3を手動又は電動で操作し、被検眼の観察を行う。
照明光学系2は、被検眼に向けてスリット光を照射することが可能である。
撮影光学系3は、被検眼からの反射光を撮影することが可能である。例えば、撮影光学系は、被検眼を撮影可能な右眼用のカメラ及び左眼用のカメラを有する。
なお、照明光学系2及び撮影光学系3の具体的な構成は限定されない。例えば、被検眼を撮影するための撮像装置及び撮影素子として、CMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサが用いられてもよい。
照明光学系2は、被検眼に向けてスリット光を照射することが可能である。
撮影光学系3は、被検眼からの反射光を撮影することが可能である。例えば、撮影光学系は、被検眼を撮影可能な右眼用のカメラ及び左眼用のカメラを有する。
なお、照明光学系2及び撮影光学系3の具体的な構成は限定されない。例えば、被検眼を撮影するための撮像装置及び撮影素子として、CMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサが用いられてもよい。
本実施形態では、細隙灯顕微鏡1は、表示部4を有する。表示部4は、情報処理装置10により生成される差分情報が提示される。
なお、細隙灯顕微鏡1の構成は限定されない。例えば、表示部4の位置を変更可能な駆動機構等を有してもよい。また例えば、細隙灯顕微鏡1は、表示部4を有さず、PC(Personal Computer)等のデバイスに差分情報が提示されてもよい。
なお、細隙灯顕微鏡1の構成は限定されない。例えば、表示部4の位置を変更可能な駆動機構等を有してもよい。また例えば、細隙灯顕微鏡1は、表示部4を有さず、PC(Personal Computer)等のデバイスに差分情報が提示されてもよい。
観察条件とは、細隙灯顕微鏡1に含まれる照明光学系2に関する照明条件、及び細隙灯顕微鏡1に含まれる撮影光学系3に関する撮影条件を少なくとも含む。
照明条件とは、被検眼に照射されるスリット光の位置、照明光学系2の位置、スリット光の光量、またはスリット光の幅(形状)の少なくとも1つを含む。
撮影条件は、撮影光学系3の位置、倍率、又は撮影方向の少なくとも一方を含む。
本実施形態では、観察条件は、細隙灯顕微鏡1により被検眼を観察する際のリアルタイムの条件を示す現在条件と、細隙灯顕微鏡1による被検眼の観察に関して基準となる条件を示す基準条件とを含む。例えば、所定の方向からスリット光を照射する照明条件と、所定の方向から被検眼を撮影する撮影条件とが基準条件となる。
照明条件とは、被検眼に照射されるスリット光の位置、照明光学系2の位置、スリット光の光量、またはスリット光の幅(形状)の少なくとも1つを含む。
撮影条件は、撮影光学系3の位置、倍率、又は撮影方向の少なくとも一方を含む。
本実施形態では、観察条件は、細隙灯顕微鏡1により被検眼を観察する際のリアルタイムの条件を示す現在条件と、細隙灯顕微鏡1による被検眼の観察に関して基準となる条件を示す基準条件とを含む。例えば、所定の方向からスリット光を照射する照明条件と、所定の方向から被検眼を撮影する撮影条件とが基準条件となる。
差分情報は、観察条件の差分を示す情報である。本実施形態では、現在条件と基準条件との差分が差分情報として生成される。例えば、現在の照明光学系2の位置と、基準の照明光学系2の位置との差分が差分情報として生成される。具体的には、照明光学系2の位置を示す座標から誤差3cm等の差分情報が生成される。
情報処理装置10は、細隙灯顕微鏡1の観察条件を取得し、差分情報を生成することが可能である。本実施形態では、情報処理装置10は、生成された差分情報を、細隙灯顕微鏡1に搭載される表示部4に提示する。例えば、情報処理装置10は、差分情報がユーザに識別可能に表示されたGUI(Graphical User Interface)を表示部4に表示させる。
なお、本実施形態において、現在条件は、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件に相当する。基準条件は、細隙灯顕微鏡による被検眼の観察に関して基準となる観察条件である第2の観察条件に相当する。
図2は、観察システム100の機能的な構成例を示すブロック図である。
情報処理装置10は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図8参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
例えばPC等の任意のコンピュータにより、情報処理装置10を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしてのガイド情報生成部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
プログラムは、例えば種々の記録媒体を介して情報処理装置10にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
例えばPC等の任意のコンピュータにより、情報処理装置10を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしてのガイド情報生成部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
プログラムは、例えば種々の記録媒体を介して情報処理装置10にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
図2に示すように情報処理装置は、画像取得部11、画像解析部12、観察条件推定部13、撮影計画生成部14、及びガイド情報生成部15を有する。
画像取得部11は、被検眼を含む撮影画像を取得する。本実施形態では、画像取得部11は、撮影光学系3により撮影された撮影画像を取得する。すなわち、現在の撮影条件における撮影画像が撮影され、画像取得部11により取得される。
また本実施形態では、画像取得部11は、基準条件における撮影画像である基準画像を取得する。なお、基準画像を取得する方法は限定されず、細隙灯顕微鏡1により所定の観察条件で撮影された撮影画像を基準画像として設定してもよい。また例えば、異なる被検眼(患者)を含む基準画像が外部から取得されてもよい。
取得された撮影画像及び基準画像は、画像解析部12に出力される。
また本実施形態では、画像取得部11は、基準条件における撮影画像である基準画像を取得する。なお、基準画像を取得する方法は限定されず、細隙灯顕微鏡1により所定の観察条件で撮影された撮影画像を基準画像として設定してもよい。また例えば、異なる被検眼(患者)を含む基準画像が外部から取得されてもよい。
取得された撮影画像及び基準画像は、画像解析部12に出力される。
画像解析部12は、撮影画像及び基準画像の解析を行う。例えば、画像解析部12は、画像認識、閾値処理、セグメンテーション、画像信号の解析等を用いて、解析を行う。解析方法は限定されず、任意の方法が用いられてよい。例えば、機械学習により、画像の解析が行われてもよい。
また例えば、画像解析部12は、撮影画像及び基準画像から、虹彩、強膜上の血管構造、眼瞼等の位置を認識することが可能である。
本実施形態では、画像解析部12により行われた解析結果が、観察条件推定部13及び撮影計画生成部14に出力される。
また例えば、画像解析部12は、撮影画像及び基準画像から、虹彩、強膜上の血管構造、眼瞼等の位置を認識することが可能である。
本実施形態では、画像解析部12により行われた解析結果が、観察条件推定部13及び撮影計画生成部14に出力される。
観察条件推定部13は、観察条件を推定する。本実施形態では、解析結果に基づいて、観察条件を推定する。
例えば、虹彩等の眼球の位置関係に基づいて、撮影光学系3の位置が推定される。また例えば、撮影画像の特徴抽出やハフ変換等に基づいて、撮影光学系3の撮影方向や倍率が推定される。また例えば、撮影画像の画像信号に基づいて、撮影光学系3の絞り、F値、レンズの(又はセンサの取得する)色、露光、又はシャッタースピードが推定される。
例えば、撮影画像の画像信号に基づいて、照明光学系2から照射されるスリット光の光量、波長、フィルタの有無や種類が推定される。また例えば、撮影画像の閾値処理に基づいて、照明光学系2の照明方向や、スリット光の形状(幅や角度)が推定される。また例えば、撮影画像の画像認識に基づいて、徹照法等の観察手段が推定される。
また本実施形態では、推定された現在条件及び基準条件がガイド情報生成部15に出力される。
例えば、虹彩等の眼球の位置関係に基づいて、撮影光学系3の位置が推定される。また例えば、撮影画像の特徴抽出やハフ変換等に基づいて、撮影光学系3の撮影方向や倍率が推定される。また例えば、撮影画像の画像信号に基づいて、撮影光学系3の絞り、F値、レンズの(又はセンサの取得する)色、露光、又はシャッタースピードが推定される。
例えば、撮影画像の画像信号に基づいて、照明光学系2から照射されるスリット光の光量、波長、フィルタの有無や種類が推定される。また例えば、撮影画像の閾値処理に基づいて、照明光学系2の照明方向や、スリット光の形状(幅や角度)が推定される。また例えば、撮影画像の画像認識に基づいて、徹照法等の観察手段が推定される。
また本実施形態では、推定された現在条件及び基準条件がガイド情報生成部15に出力される。
撮影計画生成部14は、教師データを収集するための撮影計画を生成する。本実施形態では、ユーザの作りたい学習アルゴリズムとユーザの指定する撮影画像の枚数とに基づいて、撮影計画が生成される。
撮影計画とは、ユーザの指定する学習アルゴリズムの教師データを満たす撮影画像を取得するための観察条件である。
例えば、ユーザが、100枚の撮影画像で被検眼の白内障か否かを判定することが可能な学習アルゴリズムを指定したとする。この場合、撮影計画生成部14は、白内障を患う被検眼を対象に、所定の角度及び所定の光量が設定された観察条件の、各々の撮影画像を10枚ずつ撮影するような撮影計画を生成する。
撮影計画とは、ユーザの指定する学習アルゴリズムの教師データを満たす撮影画像を取得するための観察条件である。
例えば、ユーザが、100枚の撮影画像で被検眼の白内障か否かを判定することが可能な学習アルゴリズムを指定したとする。この場合、撮影計画生成部14は、白内障を患う被検眼を対象に、所定の角度及び所定の光量が設定された観察条件の、各々の撮影画像を10枚ずつ撮影するような撮影計画を生成する。
ガイド情報生成部15は、差分情報及び撮影計画を含むガイド情報を生成する。例えば、ガイド情報生成部15は、観察条件推定部13から出力される推定結果に基づいて、差分情報を生成する。
本実施形態では、ガイド情報生成部15は、差分情報がユーザに識別可能に表示されたGUIを表示部4に表示させる。
また本実施形態では、ガイド情報生成部15は、撮影計画がユーザに識別可能に表示されたGUIを表示部4に表示させる。
なお、ガイド情報を生成する方法は限定されない。例えば、照明光学系2及び撮影光学系3の観察条件に相当する観察値が細隙灯顕微鏡1から取得されてもよい。具体的には、現在条件に相当する撮影光学系3の座標を示す観察値と、基準条件に相当する撮影光学系4の座標を示す観察値との差に基づいて、差分情報が生成される。
本実施形態では、ガイド情報生成部15は、差分情報がユーザに識別可能に表示されたGUIを表示部4に表示させる。
また本実施形態では、ガイド情報生成部15は、撮影計画がユーザに識別可能に表示されたGUIを表示部4に表示させる。
なお、ガイド情報を生成する方法は限定されない。例えば、照明光学系2及び撮影光学系3の観察条件に相当する観察値が細隙灯顕微鏡1から取得されてもよい。具体的には、現在条件に相当する撮影光学系3の座標を示す観察値と、基準条件に相当する撮影光学系4の座標を示す観察値との差に基づいて、差分情報が生成される。
なお、本実施形態において、ガイド情報生成部15は、細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する生成部に相当する。
なお、本実施形態において、観察条件推定部13は、被検眼を含む撮影画像に基づいて、前記細隙灯顕微鏡に関する観察条件を推定する推定部に相当する。
なお、本実施形態において、ガイド情報生成部15及び表示部4は、差分情報をユーザに提示する提示部として機能する。
なお、本実施形態において、撮影計画生成部14は、機械学習に用いられる教師データとして前記撮影画像を取得するための撮影計画を生成する計画生成部に相当する。
なお、本実施形態において、表示部4は、細隙灯顕微鏡に含まれる画像表示部に相当する。
なお、本実施形態において、観察条件推定部13は、被検眼を含む撮影画像に基づいて、前記細隙灯顕微鏡に関する観察条件を推定する推定部に相当する。
なお、本実施形態において、ガイド情報生成部15及び表示部4は、差分情報をユーザに提示する提示部として機能する。
なお、本実施形態において、撮影計画生成部14は、機械学習に用いられる教師データとして前記撮影画像を取得するための撮影計画を生成する計画生成部に相当する。
なお、本実施形態において、表示部4は、細隙灯顕微鏡に含まれる画像表示部に相当する。
図3は、画像解析の一例を示す模式図である。図3では、画像解析部12により解析される画像の例として、図3A〜Cが図示される。
図3Aは、被検眼に対してスリット光が照射されている状態の画像の模式図である。
図3Aに示すように、被検眼20に対してスリット光21が照射されている。画像解析部12により撮影画像の画像信号が解析されることで、観察条件推定部13は、照射されているスリット光の光量、照明光学系2の位置、及び撮影光学系3の位置を推定することが可能である。
図3Aに示すように、被検眼20に対してスリット光21が照射されている。画像解析部12により撮影画像の画像信号が解析されることで、観察条件推定部13は、照射されているスリット光の光量、照明光学系2の位置、及び撮影光学系3の位置を推定することが可能である。
図3Bは、徹照法により被検眼を観察している状態の画像の模式図である。
例えば、画像解析部12は、機械学習により図3Bの被検眼25が徹照法で観察されていることが解析されてもよい。
例えば、画像解析部12は、機械学習により図3Bの被検眼25が徹照法で観察されていることが解析されてもよい。
図3Cは、照明光学系2から蛍光が照射されている状態の画像の模式図である。
図3Cでは、フルオレセインが被検眼30に投与されている。例えば、画像解析部12は、色彩等からフルオレセインが用いられたこと、及び照明光学系2から蛍光に対応する波長が照射されたことを解析することが可能である。
図3Cでは、フルオレセインが被検眼30に投与されている。例えば、画像解析部12は、色彩等からフルオレセインが用いられたこと、及び照明光学系2から蛍光に対応する波長が照射されたことを解析することが可能である。
図4は、ガイド情報の生成の一例を示すフローチャートである。
ユーザが所定の条件における撮影画像を撮影したい場合、画像取得部11により、所定の条件を満たす基準画像が取得される(ステップ101)。例えば、被検眼を所定の角度からスリット光を照射し、正面から撮影している撮影画像をユーザが撮影したいとする。この場合、画像取得部11は、該条件を満たす基準画像を取得する。
基準画像を取得する方法は限定されず、基準画像に対して画像認識が用いられ、条件を満たすか否か判定されてもよい。また基準画像に基準条件が紐づけられて、該基準条件を参照して取得されてもよい。
画像解析部12により基準画像が解析され、観察条件推定部13により基準条件が推定される(ステップ102)。
基準画像を取得する方法は限定されず、基準画像に対して画像認識が用いられ、条件を満たすか否か判定されてもよい。また基準画像に基準条件が紐づけられて、該基準条件を参照して取得されてもよい。
画像解析部12により基準画像が解析され、観察条件推定部13により基準条件が推定される(ステップ102)。
画像取得部11は、細隙灯顕微鏡1により撮影された撮影画像を取得する(ステップ103)。観察条件推定部13により、取得された撮影画像から現在条件を推定する(ステップ104)。
ガイド情報生成部15により、推定された基準条件及び現在条件に基づいて、差分情報が生成される。また差分情報がユーザに識別可能に表示されたGUIが表示部4に表示される(ステップ105)。
図5は、ガイド表示GUIの一例を示す模式図である。
図5に示すように、ガイド表示GUI40は、画像表示部41と、ガイド表示部42と、チャート表示部43とを有する。本実施形態では、ガイド情報及びガイドテキストが差分情報としてガイド表示GUI40に表示される。
画像表示部41は、細隙灯顕微鏡1により撮影される撮影画像とガイド情報とを表示する。図5に示すように、画像表示部41にガイド情報(点線45)が図示されている。図5では、点線45は、基準画像の虹彩の輪郭を示す。すなわち、撮影画像の虹彩の輪郭46を点線45に合わせることで、撮影光学系3の観察条件を基準条件に合わせることが可能である。
本実施形態では、画像表示部41は、ガイドテキストを表示する。例えば、現在の被検眼の瞳孔の中心と、点線45の中心との距離がガイドテキスト「誤差:xxmm」が表示される。
本実施形態では、画像表示部41は、ガイドテキストを表示する。例えば、現在の被検眼の瞳孔の中心と、点線45の中心との距離がガイドテキスト「誤差:xxmm」が表示される。
ガイド表示部42は、現在条件と基準条件とを一致させるためのガイドテキストを表示する。例えば、図5では、カメラ(撮影光学系3)の位置を基準条件と一致させるためのガイドテキスト「カメラの位置を調整してください。」がガイド表示部42に表示される。
ガイド表示部42に表示されるガイドテキストは、チャート表示部43のチャートと連動して表示される。
ガイド表示部42に表示されるガイドテキストは、チャート表示部43のチャートと連動して表示される。
チャート表示部43は、現在条件と基準条件とを一致させるためのチャートを表示する。図5では、「カメラの設定調整」、「カメラの位置調整」、及び「照明の位置調整」がチャートとして表示される。また図5では、「カメラの位置調整」が行われており、「カメラの位置調整」の枠が太線で表示される。これにより、ユーザは、観察条件のどの条件を一致させるかを容易に理解できる。
またチャート表示部43は、表示されているチャートが完了した場合、新しくチャートを表示する。現在条件の全ての条件が基準条件に一致した場合、チャート表示部43の表示が完了する。
またチャート表示部43は、表示されているチャートが完了した場合、新しくチャートを表示する。現在条件の全ての条件が基準条件に一致した場合、チャート表示部43の表示が完了する。
図6は、ガイド表示GUIの他の例を示す模式図である。
図6では、ガイド表示GUI50は、図5のガイド表示GUI40のチャートが進行した状態のGUIである。すなわち、「カメラの位置調整」のチャートが完了し、「照明の位置調整」のチャートを実施する段階のGUIである。
図6に示すように、画像表示部41は、現在の照明の位置51を、基準の照明の位置に調節するためのガイド情報(点線52)を表示する。また画像表示部41は、現在のスリット光の位置と、点線52の位置との差をガイドテキスト「スリット向き:xx°」を表示する。
なお、差分情報の提示方法は限定されない。例えば、「カメラをxxmm動かしてください」等のガイドテキストが音声により提示されてもよい。またガイド表示GUIの構成は限定されず、ユーザが任意に設定できてもよい。
ユーザは、図5及び図6におけるガイドテキストに従い、現在条件を基準条件に一致させるように調整する(ステップ106)。ユーザが現在条件の調整が完了した場合(ステップ107のYES)、ユーザは、所望する基準条件における撮影(観察)を実行することができる(ステップ108)。
図7は、撮影計画の生成の処置の一例を示すフローチャートである。
ユーザは、所望する学習アルゴリズム、及び学習アルゴリズムを生成するための教師データである撮影画像の枚数を指定する(ステップ201)。
撮影計画生成部14は、指定された条件を満たす撮影計画を生成する(ステップ202)。本実施形態では、撮影計画生成部14は、指定された条件に対して十分な分布をもつように撮影計画を生成する。例えば、被検眼をあらゆる角度から、スリット光の光量を強弱様々な光量で撮影を行う撮影計画が生成される。
ガイド情報生成部15は、生成された撮影計画をガイド情報として生成し、表示部4に表示させる(ステップ203)。例えば、図5に示すガイド表示GUI40のように、撮影計画に含まれる観察条件と現在条件とを一致させるGUIが表示部4に表示されてもよい。また例えば、音声により、撮影計画がユーザに提示されてもよい。
ユーザは、撮影計画に従い撮影を実行する(ステップ204)。撮影計画生成部14により取得された撮影画像が撮影計画を満たすか否かが判定される(ステップ205)。取得された撮影画像が撮影計画の教師データとして十分ではない場合(ステップ205のNO)、新教師データを取得するための撮影計画が新たに生成される(ステップ202)。これにより、機械学習用の教師データを効率的に作成することが可能となる。
以上、本実施形態に係る観察システム100は、細隙灯顕微鏡1により被検眼を観察する際の観察条件である第1の観察条件と、細隙灯顕微鏡1による被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報が生成される。これにより、観察における操作を容易に行うことが可能となる。
一般に、観察又は画像に基づく検査や診断において、観察像や得られる画像は様々な条件によって変化する。定量的、再現性のある結果のためには、出来る限り条件が揃った均一な条件下での観察又は画像が望ましい。特に経過観察等の比較を行う検査又は診断を行う場合には、病変部のみの変化に注目するためより重要となる。
また画像を用いた人工知能(AI:Artificial Intelligence)を用いた診断においても、画像の取得条件が重要である。これは機械学習モデルを生成する学習時と機械学習モデルを用いて診断を行う利用時の双方について言える。機械学習においては、学習時に様々な条件で取得された情報が均一に含まれることが望ましい。また学習させたモデルを用いる際には評価を行う画像の取得条件は教師データに含まれる取得条件と乖離がないことが求められる。
そこで本技術では、人間の手が介入することが多い細隙灯顕微鏡の使用(例えば細隙灯顕微鏡による観察時の設定)において、同じ条件での観察又は画像取得が行えるように、現在の条件と基準となる条件との差分に関する差分情報が生成される。この結果、以前の画像と同じ条件での観察を容易にし、定量的かつ再現性のある検査及び診断が可能となる。
また基準となる条件と一致させるための差分情報が提示されるため、細隙灯顕微鏡の習熟を必要とせず、簡単かつ迅速に観察時の条件を設定することができる。また所定の条件での撮影画像を取得できるため、機械学習用の教師データを効率的に作成できる。さらに機械学習を用いて評価を行う際、条件を揃えて高精度な検査及び診断を行うことができる。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記の実施形態では、学習アルゴリズムの生成方法として教師データが用いられた。これに限定されず、様々な学習アルゴリズム及びその生成方法が用いられてもよい。
例えばDNN(Deep Neural Network:深層ニューラルネットワーク)等を用いた任意の機械学習アルゴリズムが用いられてもよい。例えばディープラーニング(深層学習)を行うAI(人工知能)等を用いることで、学習アルゴリズムの生成を向上させることが可能となる。
例えば学習アルゴリズムの生成を行うために学習部及び識別部が構築される。学習部は、入力された情報(学習データ)に基づいて機械学習を行い、学習結果を出力する。また、識別部は、入力された情報と学習結果に基づいて、当該入力された情報の識別(判断や予測等)を行う。
学習部における学習手法には、例えばニューラルネットワークやディープラーニングが用いられる。ニューラルネットワークとは、人間の脳神経回路を模倣したモデルであって、入力層、中間層(隠れ層)、出力層の3種類の層から成る。
ディープラーニングとは、多層構造のニューラルネットワークを用いたモデルであって、各層で特徴的な学習を繰り返し、大量データの中に潜んでいる複雑なパターンを学習することができる。
ディープラーニングは、例えば画像内のオブジェクトや音声内の単語を識別する用途として用いられる。例えば、画像や動画の認識に用いられる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等が用いられる。
また、このような機械学習を実現するハードウェア構造としては、ニューラルネットワークの概念を組み込まれたニューロチップ/ニューロモーフィック・チップが用いられ得る。
例えばDNN(Deep Neural Network:深層ニューラルネットワーク)等を用いた任意の機械学習アルゴリズムが用いられてもよい。例えばディープラーニング(深層学習)を行うAI(人工知能)等を用いることで、学習アルゴリズムの生成を向上させることが可能となる。
例えば学習アルゴリズムの生成を行うために学習部及び識別部が構築される。学習部は、入力された情報(学習データ)に基づいて機械学習を行い、学習結果を出力する。また、識別部は、入力された情報と学習結果に基づいて、当該入力された情報の識別(判断や予測等)を行う。
学習部における学習手法には、例えばニューラルネットワークやディープラーニングが用いられる。ニューラルネットワークとは、人間の脳神経回路を模倣したモデルであって、入力層、中間層(隠れ層)、出力層の3種類の層から成る。
ディープラーニングとは、多層構造のニューラルネットワークを用いたモデルであって、各層で特徴的な学習を繰り返し、大量データの中に潜んでいる複雑なパターンを学習することができる。
ディープラーニングは、例えば画像内のオブジェクトや音声内の単語を識別する用途として用いられる。例えば、画像や動画の認識に用いられる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等が用いられる。
また、このような機械学習を実現するハードウェア構造としては、ニューラルネットワークの概念を組み込まれたニューロチップ/ニューロモーフィック・チップが用いられ得る。
機械学習の問題設定には、教師あり学習、教師なし学習、半教師学習、強化学習、逆強化学習、能動学習、転移学習等がある。
例えば教師あり学習は、与えられたラベル付きの学習データ(教師データ)に基づいて特徴量を学習する。これにより、未知のデータのラベルを導くことが可能となる。
また、教師なし学習は、ラベルが付いていない学習データを大量に分析して特徴量を抽出し、抽出した特徴量に基づいてクラスタリングを行う。これにより、膨大な未知のデータに基づいて傾向の分析や未来予測を行うことが可能となる。
また、半教師学習は、教師あり学習と教師なし学習を混在させたものであって、教師あり学習で特徴量を学ばせた後、教師なし学習で膨大な訓練データを与え、自動的に特徴量を算出させながら繰り返し学習を行う方法である。
また、強化学習は、ある環境内におけるエージェントが現在の状態を観測して取るべき行動を決定する問題を扱うものである。エージェントは、行動を選択することで環境から報酬を習得し、一連の行動を通じて報酬が最も多く得られるような方策を学習する。このように、ある環境における最適解を学習することで、人間の判断力を再現し、また、人間を超える判断力をコンピュータに習得させることが可能となる。
機械学習によって、仮想的なセンシングデータを生成することも可能である。例えば、入力された画像情報から位置情報を生成するなど、あるセンシングデータから別のセンシングデータを予測して入力情報として使用することが可能である。
また、複数のセンシングデータから別のセンシングデータを生成することも可能である。また、必要な情報を予測し、センシングデータから所定の情報を生成することも可能である。
例えば教師あり学習は、与えられたラベル付きの学習データ(教師データ)に基づいて特徴量を学習する。これにより、未知のデータのラベルを導くことが可能となる。
また、教師なし学習は、ラベルが付いていない学習データを大量に分析して特徴量を抽出し、抽出した特徴量に基づいてクラスタリングを行う。これにより、膨大な未知のデータに基づいて傾向の分析や未来予測を行うことが可能となる。
また、半教師学習は、教師あり学習と教師なし学習を混在させたものであって、教師あり学習で特徴量を学ばせた後、教師なし学習で膨大な訓練データを与え、自動的に特徴量を算出させながら繰り返し学習を行う方法である。
また、強化学習は、ある環境内におけるエージェントが現在の状態を観測して取るべき行動を決定する問題を扱うものである。エージェントは、行動を選択することで環境から報酬を習得し、一連の行動を通じて報酬が最も多く得られるような方策を学習する。このように、ある環境における最適解を学習することで、人間の判断力を再現し、また、人間を超える判断力をコンピュータに習得させることが可能となる。
機械学習によって、仮想的なセンシングデータを生成することも可能である。例えば、入力された画像情報から位置情報を生成するなど、あるセンシングデータから別のセンシングデータを予測して入力情報として使用することが可能である。
また、複数のセンシングデータから別のセンシングデータを生成することも可能である。また、必要な情報を予測し、センシングデータから所定の情報を生成することも可能である。
上記の実施形態では、ユーザの指定した撮影計画に必要な教師データである撮影画像が細隙灯顕微鏡1により撮影された。これに限定されず、撮影計画を満たす撮影画像は任意に取得されてもよい。例えば、被検眼を正面から撮影した100枚の撮影画像を他のユーザから取得し、被検眼を所定の角度から撮影した300枚の撮影画像をさらに他のユーザから取得してもよい。
上記の実施形態では、表示部4にガイド表示GUI40が表示された。これに限定されず、例えば、細隙灯顕微鏡1の接眼レンズを覗き込むことでガイド表示GUI40がユーザに提示されてもよい。
図8は、情報処理装置10のハードウェア構成例を示すブロック図である。
情報処理装置10は、CPU61、ROM62、RAM63、入出力インタフェース65、及びこれらを互いに接続するバス64を備える。入出力インタフェース65には、表示部66、入力部67、記憶部68、通信部69、及びドライブ部70等が接続される。
表示部66は、例えば液晶、EL等を用いた表示デバイスである。入力部67は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部67がタッチパネルを含む場合、そのタッチパネルは表示部66と一体となり得る。
記憶部68は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部70は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体71を駆動することが可能なデバイスである。
通信部69は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部69は、有線及び無線のどちらを利用して通信するものであってもよい。通信部69は、情報処理装置10とは、別体で使用される場合が多い。
上記のようなハードウェア構成を有する情報処理装置10による情報処理は、記憶部68またはROM62等に記憶されたソフトウェアと、情報処理装置10のハードウェア資源との協働により実現される。具体的には、ROM62等に記憶された、ソフトウェアを構成するプログラムをRAM63にロードして実行することにより、本技術に係る情報処理方法が実現される。
プログラムは、例えば記録媒体71を介して情報処理装置10にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置10にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システムが実行され、本技術に係る情報処理装置が構築されてもよい。
すなわち本技術に係る情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システムの実行は、例えば、観察条件の推定、GUIの出力、及び撮影計画の生成等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
各図面を参照して説明した観察条件推定部、撮影計画生成部、ガイド情報生成部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
本開示において、「中心」「中央」「均一」「等しい」「同じ」「直交」「平行」「対称」「延在」「軸方向」「円柱形状」「円筒形状」「リング形状」「円環形状」等の、形状、サイズ、位置関係、状態等を規定する概念は、「実質的に中心」「実質的に中央」「実質的に均一」「実質的に等しい」「実質的に同じ」「実質的に直交」「実質的に平行」「実質的に対称」「実質的に延在」「実質的に軸方向」「実質的に円柱形状」「実質的に円筒形状」「実質的にリング形状」「実質的に円環形状」等を含む概念とする。
例えば「完全に中心」「完全に中央」「完全に均一」「完全に等しい」「完全に同じ」「完全に直交」「完全に平行」「完全に対称」「完全に延在」「完全に軸方向」「完全に円柱形状」「完全に円筒形状」「完全にリング形状」「完全に円環形状」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
なお、本技術は以下のような構成も採ることができる。
(1)
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する生成部
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、さらに、
前記被検眼を含む撮影画像に基づいて、前記観察条件を推定する推定部を具備する
情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
前記観察条件は、前記細隙灯顕微鏡に含まれる照明光学系に関する照明条件、及び前記細隙灯顕微鏡に含まれる撮影光学系に関する撮影条件を少なくとも含む
情報処理装置。
(4)(2)に記載の情報処理装置であって、
前記推定部は、前記撮影画像に基づいて、前記照明条件を推定する
情報処理装置。
(5)(3)に記載の情報処理装置であって、
前記照明条件は、位置、照明方向、光量、又は照明光の形状の少なくとも1つを含む
情報処理装置。
(6)(2)に記載の情報処理装置であって、
前記推定部は、前記撮影画像に基づいて、前記撮影条件を推定する
情報処理装置。
(7)(3)に記載の情報処理装置であって、
前記撮影条件は、位置、倍率、又は撮影方向の少なくとも一方を含む
情報処理装置。
(8)(3)に記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に含まれる第1の照明条件と、前記第2の観察条件に含まれる第2の照明条件との差分に基づいて、前記差分情報を生成する
情報処理装置。
(9)(3)に記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に含まれる第1の撮影条件と、前記第2の観察条件に含まれる第2の撮影条件との差分に基づいて、前記差分情報を生成する
情報処理装置。
(10)(1)から(9)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記差分情報をユーザに提示する提示部を具備する
情報処理装置。
(11)(10)に記載の情報処理装置であって、
前記提示部は、前記差分情報が前記ユーザに識別可能に表示されたGUI(Graphical User Interface)を提示する
情報処理装置。
(12)(10)又は(11)に記載の情報処理装置であって、
前記提示部は、前記差分情報を前記ユーザに音声で提示する
情報処理装置。
(13)(10)から(12)のうちいずれか1つに記載の情報処理装置であって、
前記細隙灯顕微鏡は、画像表示部を含み、
前記提示部は、前記GUIを前記画像表示部に表示させる
情報処理装置。
(14)(1)から(13)のうちいずれか1つに記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に相当する第1の観察値と、前記第2の観察条件に相当する第2の観察値との差に基づいて、前記差分情報を生成する
情報処理装置。
(15)(1)から(14)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記撮影画像を機械学習に用いられる教師データとして取得するための撮影計画を生成する計画生成部を具備する
情報処理装置。
(16)(15)に記載の情報処理装置であって、
前記撮影計画をユーザに提示する提示部を具備し、
前記提示部は、前記撮影計画が前記ユーザに識別可能に表示されたGUI(Graphical User Interface)を提示する
情報処理装置。
(17)
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する
ことをコンピュータシステムが実行する情報処理方法。
(18)
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成するステップ
をコンピュータシステムに実行させるプログラム。
(19)
細隙灯顕微鏡と、
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する生成部
を具備する情報処理装置と
を具備する眼科顕微鏡システム。
(1)
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する生成部
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、さらに、
前記被検眼を含む撮影画像に基づいて、前記観察条件を推定する推定部を具備する
情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
前記観察条件は、前記細隙灯顕微鏡に含まれる照明光学系に関する照明条件、及び前記細隙灯顕微鏡に含まれる撮影光学系に関する撮影条件を少なくとも含む
情報処理装置。
(4)(2)に記載の情報処理装置であって、
前記推定部は、前記撮影画像に基づいて、前記照明条件を推定する
情報処理装置。
(5)(3)に記載の情報処理装置であって、
前記照明条件は、位置、照明方向、光量、又は照明光の形状の少なくとも1つを含む
情報処理装置。
(6)(2)に記載の情報処理装置であって、
前記推定部は、前記撮影画像に基づいて、前記撮影条件を推定する
情報処理装置。
(7)(3)に記載の情報処理装置であって、
前記撮影条件は、位置、倍率、又は撮影方向の少なくとも一方を含む
情報処理装置。
(8)(3)に記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に含まれる第1の照明条件と、前記第2の観察条件に含まれる第2の照明条件との差分に基づいて、前記差分情報を生成する
情報処理装置。
(9)(3)に記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に含まれる第1の撮影条件と、前記第2の観察条件に含まれる第2の撮影条件との差分に基づいて、前記差分情報を生成する
情報処理装置。
(10)(1)から(9)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記差分情報をユーザに提示する提示部を具備する
情報処理装置。
(11)(10)に記載の情報処理装置であって、
前記提示部は、前記差分情報が前記ユーザに識別可能に表示されたGUI(Graphical User Interface)を提示する
情報処理装置。
(12)(10)又は(11)に記載の情報処理装置であって、
前記提示部は、前記差分情報を前記ユーザに音声で提示する
情報処理装置。
(13)(10)から(12)のうちいずれか1つに記載の情報処理装置であって、
前記細隙灯顕微鏡は、画像表示部を含み、
前記提示部は、前記GUIを前記画像表示部に表示させる
情報処理装置。
(14)(1)から(13)のうちいずれか1つに記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に相当する第1の観察値と、前記第2の観察条件に相当する第2の観察値との差に基づいて、前記差分情報を生成する
情報処理装置。
(15)(1)から(14)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記撮影画像を機械学習に用いられる教師データとして取得するための撮影計画を生成する計画生成部を具備する
情報処理装置。
(16)(15)に記載の情報処理装置であって、
前記撮影計画をユーザに提示する提示部を具備し、
前記提示部は、前記撮影計画が前記ユーザに識別可能に表示されたGUI(Graphical User Interface)を提示する
情報処理装置。
(17)
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する
ことをコンピュータシステムが実行する情報処理方法。
(18)
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成するステップ
をコンピュータシステムに実行させるプログラム。
(19)
細隙灯顕微鏡と、
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する生成部
を具備する情報処理装置と
を具備する眼科顕微鏡システム。
1…細隙灯顕微鏡
2…照明光学系
3…撮影光学系
12…画像解析部
13…観察条件推定部
14…撮影計画生成部
15…ガイド情報生成部
40…ガイド表示GUI
100…観察システム
2…照明光学系
3…撮影光学系
12…画像解析部
13…観察条件推定部
14…撮影計画生成部
15…ガイド情報生成部
40…ガイド表示GUI
100…観察システム
Claims (19)
- 細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する生成部
を具備する情報処理装置。 - 請求項1に記載の情報処理装置であって、さらに、
前記被検眼を含む撮影画像に基づいて、前記観察条件を推定する推定部を具備する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記観察条件は、前記細隙灯顕微鏡に含まれる照明光学系に関する照明条件、及び前記細隙灯顕微鏡に含まれる撮影光学系に関する撮影条件を少なくとも含む
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記推定部は、前記撮影画像に基づいて、前記照明条件を推定する
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記照明条件は、位置、照明方向、光量、又は照明光の形状の少なくとも1つを含む
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記推定部は、前記撮影画像に基づいて、前記撮影条件を推定する
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記撮影条件は、位置、倍率、又は撮影方向の少なくとも一方を含む
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に含まれる第1の照明条件と、前記第2の観察条件に含まれる第2の照明条件との差分に基づいて、前記差分情報を生成する
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に含まれる第1の撮影条件と、前記第2の観察条件に含まれる第2の撮影条件との差分に基づいて、前記差分情報を生成する
情報処理装置。 - 請求項1に記載の情報処理装置であって、さらに、
前記差分情報をユーザに提示する提示部を具備する
情報処理装置。 - 請求項10に記載の情報処理装置であって、
前記提示部は、前記差分情報が前記ユーザに識別可能に表示されたGUI(Graphical User Interface)を提示する
情報処理装置。 - 請求項10に記載の情報処理装置であって、
前記提示部は、前記差分情報を前記ユーザに音声で提示する
情報処理装置。 - 請求項10に記載の情報処理装置であって、
前記細隙灯顕微鏡は、画像表示部を含み、
前記提示部は、前記GUIを前記画像表示部に表示させる
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記生成部は、前記第1の観察条件に相当する第1の観察値と、前記第2の観察条件に相当する第2の観察値との差に基づいて、前記差分情報を生成する
情報処理装置。 - 請求項1に記載の情報処理装置であって、さらに、
前記撮影画像を機械学習に用いられる教師データとして取得するための撮影計画を生成する計画生成部を具備する
情報処理装置。 - 請求項15に記載の情報処理装置であって、さらに、
前記撮影計画をユーザに提示する提示部を具備し、
前記提示部は、前記撮影計画が前記ユーザに識別可能に表示されたGUI(Graphical User Interface)を提示する
情報処理装置。 - 細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する
ことをコンピュータシステムが実行する情報処理方法。 - 細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成するステップ
をコンピュータシステムに実行させるプログラム。 - 細隙灯顕微鏡と、
細隙灯顕微鏡により被検眼を観察する際の観察条件である第1の観察条件と、前記細隙灯顕微鏡による前記被検眼の観察に関して基準となる観察条件である第2の観察条件との差分に関する差分情報を生成する生成部
を具備する情報処理装置と
を具備する眼科顕微鏡システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020061541A JP2021159165A (ja) | 2020-03-30 | 2020-03-30 | 情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システム |
PCT/JP2021/009523 WO2021199990A1 (ja) | 2020-03-30 | 2021-03-10 | 情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システム |
CN202180022948.5A CN115334954A (zh) | 2020-03-30 | 2021-03-10 | 信息处理装置、信息处理方法、程序和眼科显微镜系统 |
US17/906,702 US20230139476A1 (en) | 2020-03-30 | 2021-03-10 | Information processing apparatus, information processing method, program, and ophthalmic microscope system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020061541A JP2021159165A (ja) | 2020-03-30 | 2020-03-30 | 情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021159165A true JP2021159165A (ja) | 2021-10-11 |
Family
ID=77928659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020061541A Pending JP2021159165A (ja) | 2020-03-30 | 2020-03-30 | 情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230139476A1 (ja) |
JP (1) | JP2021159165A (ja) |
CN (1) | CN115334954A (ja) |
WO (1) | WO2021199990A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003290145A (ja) * | 2002-04-01 | 2003-10-14 | Canon Inc | 眼科撮影装置 |
WO2012172907A1 (ja) * | 2011-06-14 | 2012-12-20 | 株式会社トプコン | 細隙灯顕微鏡 |
JP6180767B2 (ja) * | 2013-03-28 | 2017-08-16 | 株式会社トプコン | スリットランプ顕微鏡 |
JP6518126B2 (ja) * | 2015-05-13 | 2019-05-22 | 株式会社トプコン | 細隙灯顕微鏡 |
-
2020
- 2020-03-30 JP JP2020061541A patent/JP2021159165A/ja active Pending
-
2021
- 2021-03-10 CN CN202180022948.5A patent/CN115334954A/zh active Pending
- 2021-03-10 US US17/906,702 patent/US20230139476A1/en active Pending
- 2021-03-10 WO PCT/JP2021/009523 patent/WO2021199990A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021199990A1 (ja) | 2021-10-07 |
CN115334954A (zh) | 2022-11-11 |
US20230139476A1 (en) | 2023-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200005433A (ko) | 클라우드 서버 및 클라우드 서버 기반의 진단 보조 시스템 | |
US11974808B2 (en) | Anterior eye disease diagnostic system and diagnostic method using same | |
Chaturvedi et al. | Automated diabetic retinopathy grading using deep convolutional neural network | |
CA3202916A1 (en) | Automatic annotation of condition features in medical images | |
JP7332463B2 (ja) | 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム | |
Akram et al. | Segmentation and classification of skin lesions using hybrid deep learning method in the Internet of Medical Things | |
WO2021199990A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び眼科顕微鏡システム | |
WO2021200115A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び情報処理システム | |
Hanđsková et al. | Diabetic rethinopathy screening by bright lesions extraction from fundus images | |
Baba et al. | Detection of diabetic retinopathy with retinal images using CNN | |
Singh et al. | A Deep Learning Approach to Analyze Diabetic Retinopathy Lesions using Scant Data | |
Chen et al. | DeepLab and bias field correction based automatic cone photoreceptor cell identification with adaptive optics scanning laser ophthalmoscope images | |
Agarwal et al. | Computer-Aided Cataract Detection Using MLP and SVM | |
Rao et al. | OCTAI: Smartphone-based Optical Coherence Tomography Image Analysis System | |
US11880976B2 (en) | Image retention and stitching for minimal-flash eye disease diagnosis | |
Sridevi et al. | Improvised Detection of Diabetic Retinopathy Using Fast R CNN | |
Ali et al. | Classifying Three Stages of Cataract Disease using CNN | |
Bali et al. | FUNDUS and OCT Image Classification Using DL Techniques | |
US11503998B1 (en) | Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases | |
Gupta et al. | Diabetic retinopathy detection using an efficient artificial intelligence method | |
US20240127446A1 (en) | Semi-supervised fundus image quality assessment method using ir tracking | |
Yoshitsugu et al. | Development of The AI Pipeline for Corneal Opacity Detection | |
Martins | Glaucoma in Fundus Image | |
Naz et al. | RetinaCare: Diabetic Retinopathy Detection with VGG16-based Web Application | |
Stahl | Gaze recognition |