JP2022104840A - 検査方法 - Google Patents

検査方法 Download PDF

Info

Publication number
JP2022104840A
JP2022104840A JP2022072355A JP2022072355A JP2022104840A JP 2022104840 A JP2022104840 A JP 2022104840A JP 2022072355 A JP2022072355 A JP 2022072355A JP 2022072355 A JP2022072355 A JP 2022072355A JP 2022104840 A JP2022104840 A JP 2022104840A
Authority
JP
Japan
Prior art keywords
learning
inference
data
subject
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022072355A
Other languages
English (en)
Other versions
JP7094468B1 (ja
Inventor
雅貴 吉田
Masaki Yoshida
汐理 宮崎
Shiori Miyazaki
誠 長谷川
Makoto Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lion Corp
Original Assignee
Lion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020217684A external-priority patent/JP2022102758A/ja
Application filed by Lion Corp filed Critical Lion Corp
Priority to JP2022072355A priority Critical patent/JP7094468B1/ja
Application granted granted Critical
Publication of JP7094468B1 publication Critical patent/JP7094468B1/ja
Publication of JP2022104840A publication Critical patent/JP2022104840A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測すること。【解決手段】機械学習実行プログラムは、学習用被検体の目を描出している画像を示す学習用画像データと、当該目の最大開瞼時間を示す学習用開瞼データとを問題とし、当ドライアイに関する検査が実施された際における当該目を描出している画像を示す学習用検査画像データと、検査の結果を示す学習用検査結果データとを答えとする教師データを取得し、機械学習プログラムを教師データにより学習させる。ドライアイ検査プログラムは、推論用被検体の目を描出している画像を示す推論用画像データと、当該目の最大開瞼時間を示す推論用開瞼データとを取得し、学習済みの機械学習プログラムに推論用画像データ及び推論用開瞼データを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、推定した結果を示す症状データを出力させる。【選択図】図2

Description

本発明は、検査方法に関する。
現在、特に先進国において、パーソナルコンピュータ、スマートフォン、タブレット等、ディスプレイが搭載されている電子機器が広く普及しているため、目の不調を自覚する人が急激に増加している。更に、インターネットを介したオンラインサービスの増加、テレワークを推進する企業の増加等により、目の不調を自覚する人の数が更に増加していくと予想される。
このような生活習慣により比較的頻繁に引き起こされる目の不調の一例として、涙液層の不安定化を伴うドライアイが挙げられる。例えば、涙液層の安定性の指標となる涙液層破壊時間を調べるためには、眼科医がフルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察している状態で、瞬きをして目を開けた直後から涙液層が破綻するまでの時間を測定する必要がある。或いは、特許文献1に開示されている眼科診断支援装置を使用した診察を受ける必要がある。
この眼科診断支援装置は、症例データ格納部と、機械学習部と、患者データ取得部と、対比判定部と、結果表示部とを備える。症例データ格納部は、眼科診断画像データと診断結果との組み合わせからなる複数の症例基礎画像データを格納する。機械学習部は、特徴画像要素を抽出するとともに症例基礎画像データを分類する。患者データ取得部は、患者の患者眼科診断画像データを取得する。対比判定部は、患者眼科診断画像データと症例基礎画像データとを対比し、データ同士の類似性判定を実行する。結果表示部は、類似性判定の結果を表示する。
特開2020-036835号公報
しかしながら、上述した眼科診断支援装置は、医療機関で使用される検査機器を使用して眼科診断データを取得する必要があるため、目の不調を自覚している人のドライアイの有無や程度を簡易に検査することができない。
本発明は、上述した事情に鑑みてなされたものであり、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる検査方法を提供しようとするものである。
本発明の一態様は、推論用被検体の目を描出している推論用画像を示す推論用画像データを取得し、学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の状態を示す学習用状態データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データを入力し、前記機械学習プログラムに前記推論用被検体の目の状態を推定させ、前記機械学習プログラムに前記推論用被検体の目の状態を示す推論用データを出力させる、検査方法であって、前記推論用被検体の角膜に映り込んでいる照明を描出している前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データを前記推論用画像データとして取得し、前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを前記学習用画像データとして前記問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を前記答えとして更に含んでいる前記教師データを使用して学習した前記機械学習プログラムに、前記推論用被検体の目に現れているドライアイの症状を推定させ、前記推論用被検体の目に現れているドライアイの症状を示す症状データを前記推論用データとして出力させる、検査方法である。
本発明の一態様は、上述した検査方法であって、前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データを更に取得し、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データを前記問題の一部として更に含んでおり、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を前記答えとして更に含んでいる前記教師データを使用して学習した前記機械学習プログラムに、前記推論用被検体の目に現れているドライアイの症状を推定させ、前記推論用被検体の目に現れているドライアイの症状を示す症状データを前記推論用データとして出力させる。
本発明の一態様は、上述した検査方法であって、前記推論用被検体の目の涙液メニスカスを描出している前記推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データを前記推論用画像データとしてさらに取得し、前記学習用被検体の目の涙液メニスカスを描出している前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データをさらに前記学習用画像データとして前記問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を前記答えとして更に含んでいる前記教師データを使用して学習した前記機械学習プログラムに、前記推論用被検体の目に現れているドライアイの症状を推定させ、前記推論用被検体の目に現れているドライアイの症状を示す症状データを前記推論用データとして出力させる。
本発明によれば、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。
第一実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。 第一実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。 第一実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。 第一実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。 第一実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。 第一実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。 第二実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。 第二実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。 第二実施形態に係る学習用画像から涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像の一例を示す図である。 第二実施形態に係る学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像の一例を示す図である。 第二実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。 第二実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。 第二実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。 第二実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。 第三実施形態に係る機械学習プログラムが涙液層破壊時間を調べる検査の結果を予測する際に学習用被検体の目を描出している学習用画像のうち重点的に考慮した部分の一例を示す図である。
[第一実施形態]
図1から図3を参照しながら第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。
図1は、第一実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図1に示した機械学習実行装置10aは、後述する機械学習装置700aの学習フェーズにおいて機械学習装置700aに機械学習を実行させる装置である。また、図1に示すように、機械学習実行装置10aは、プロセッサ11aと、主記憶装置12aと、通信インターフェース13aと、補助記憶装置14aと、入出力装置15aと、バス16aとを備える。
プロセッサ11aは、例えば、CPU(Central Processing Unit)であり、後述する機械学習実行プログラム100aを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる。また、プロセッサ11aは、機械学習実行プログラム100a以外のプログラムを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる上で必要な機能を実現させてもよい。
主記憶装置12aは、例えば、RAM(Random Access Memory)であり、プロセッサ11aにより読み出されて実行される機械学習実行プログラム100aその他プログラムを予め記憶している。
通信インターフェース13aは、図1に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN(Local Area Network)、イントラネットである。
補助記憶装置14aは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、フラッシュメモリ(Flash Memory)、ROM(Read Only Memory)である。
入出力装置15aは、例えば、入出力ポート(Input/Output Port)である。入出力装置15aは、例えば、図1に示したキーボード811a、マウス812a、ディスプレイ910aが接続される。キーボード811a及びマウス812aは、例えば、機械学習実行装置10aを操作するために必要なデータを入力する作業に使用される。ディスプレイ910aは、例えば、機械学習実行装置10aのグラフィカルユーザインターフェース(GUI:Graphical User Interface)を表示する。
バス16aは、プロセッサ11a、主記憶装置12a、通信インターフェース13a、補助記憶装置14a及び入出力装置15aを互いにデータの送受信が可能なように接続している。
図2は、第一実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10aは、プロセッサ11aを使用して機械学習実行プログラム100aを読み出して実行し、図2に示した教師データ取得機能101a及び機械学習実行機能102aを実現させる。
教師データ取得機能101aは、一つの学習用画像データ及び学習用開瞼データを問題とし、一つの学習用検査画像データ及び学習用検査結果データの少なくとも一方を答えとする教師データを取得する。
学習用画像データは、教師データの問題の一部を構成しており、学習用被検体の目を描出している学習用画像を示すデータである。学習用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。
学習用開瞼データは、教師データの問題の一部を構成しており、学習用画像が撮影された目を学習用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。
例えば、学習用開瞼データは、学習用被検体が瞬きをして目を開けた直後から次に瞬きをするまでの間を少なくとも撮影している動画に映し出されている瞼の動きに基づいて算出されている最大開瞼時間を示していてもよい。
或いは、学習用開瞼データは、学習用被検体の自己申告に基づいており、ユーザインターフェースを使用して入力された最大開瞼時間を示していてもよい。当該ユーザインターフェースは、例えば、図1に示したディスプレイ910aに表示される。或いは、当該ユーザインターフェースは、学習用被検体が契約しているスマートフォンに搭載されているタッチパネルディスプレイに表示される。
学習用検査画像データは、教師データの答えの一部を構成しており、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している学習用検査画像を示すデータである。このような検査としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査が挙げられる。したがって、例えば、学習用検査画像データは、フルオレセインにより染色され、スリットランプを使用して観察されている目を描出している画像又は動画を示すデータとなる。
学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査に基づいて涙液層破壊時間の長さを表している0以上1以下の数値が挙げられる。
この数値は、0以上0.5未満である場合、涙液層破壊時間が10秒以上であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、涙液層破壊時間が10秒未満であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。
例えば、教師データ取得機能101aは、1280個の教師データを取得する。この場合、1280個の学習用画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像を示している。また、この場合、1280個の学習用開瞼データは、それぞれ学習用被検体の最大開瞼時間を表す値を示している1280個の値を示している。
また、この場合、1280個の学習用検査画像データは、それぞれ上述した1280枚の学習用画像それぞれに描出されている学習用被検体の目についてドライアイの症状に関する検査が実施された際に撮影された学習用検査画像を示している。また、1280個の学習用検査結果データは、それぞれ1280枚の学習用検査画像が撮影された際に実施されたドライアイの症状に関する検査の結果を示す0以上1以下の数値1280個を示している。
なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している620個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している660個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。
機械学習実行機能102aは、機械学習装置700aに実装されている機械学習プログラム750aに教師データを入力し、機械学習プログラム750aを学習させる。例えば、機械学習実行機能102aは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を含んでいる機械学習プログラム750aをバックプロパゲーション(Backpropagation)により学習させる。
例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる540個の教師データを機械学習プログラム750aに入力する。この540個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる580個の教師データを機械学習プログラム750aに入力する。この580個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
そして、機械学習実行機能102aは、これら1120個の教師データにより機械学習プログラム750aを学習させる。
また、例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
これにより、機械学習実行機能102aは、上述した1120個の教師データにより機械学習プログラム750aを学習させることにより得られた機械学習プログラム750aの特性を評価してもよい。
なお、機械学習実行機能102aは、テストデータを使用して機械学習プログラム750aの特性を評価する際に、例えば、クラス活性化マッピング(CAM:Class Activation Mapping)を使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。
次に、図3を参照しながら第一実施形態に係る機械学習実行プログラム100aが実行する処理の一例を説明する。図3は、第一実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100aは、図3に示した処理を少なくとも一回実行する。
ステップS11において、教師データ取得機能101aは、学習用画像データと、学習用開瞼データとを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。
ステップS12において、機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。
次に、図4から図6を参照しながら第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。
図4は、第一実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図4に示したドライアイ検査装置20aは、機械学習実行プログラム100aにより学習済みの機械学習装置700aの推論フェーズにおいて機械学習装置700aを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図5に示すように、ドライアイ検査装置20aは、プロセッサ21aと、主記憶装置22aと、通信インターフェース23aと、補助記憶装置24aと、入出力装置25aと、バス26aとを備える。
プロセッサ21aは、例えば、CPUであり、後述するドライアイ検査プログラム200aを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる。また、プロセッサ21aは、ドライアイ検査プログラム200a以外のプログラムを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる上で必要な機能を実現させてもよい。
主記憶装置22aは、例えば、RAMであり、プロセッサ21aにより読み出されて実行されるドライアイ検査プログラム200aその他プログラムを予め記憶している。
通信インターフェース23aは、図5に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。
補助記憶装置24aは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。
入出力装置25aは、例えば、入出力ポートである。入出力装置25aは、例えば、図5に示したキーボード821a、マウス822a、ディスプレイ920aが接続される。キーボード821a及びマウス822aは、例えば、ドライアイ検査装置20aを操作するために必要なデータを入力する作業に使用される。ディスプレイ920aは、例えば、ドライアイ検査装置20aのグラフィカルユーザインターフェースを表示する。
バス26aは、プロセッサ21a、主記憶装置22a、通信インターフェース23a、補助記憶装置24a及び入出力装置25aを互いにデータの送受信が可能なように接続している。
図5は、第一実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20aは、プロセッサ21aを使用してドライアイ検査プログラム200aを読み出して実行し、図5に示したデータ取得機能201a及び症状推定機能202aを実現させる。
データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。
推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。
推論用開瞼データは、推論用画像が撮影された目を推論用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。
例えば、推論用開瞼データは、推論用被検体が瞬きをして目を開けた直後から次に瞬きをするまでの間を少なくとも撮影している動画に映し出されている瞼の動きに基づいて算出されている最大開瞼時間を示していてもよい。
或いは、推論用開瞼データは、推論用被検体の自己申告に基づいており、ユーザインターフェースを使用して入力された最大開瞼時間を示していてもよい。当該ユーザインターフェースは、例えば、図4に示したディスプレイ920aに表示される。或いは、当該ユーザインターフェースは、推論用被検体が契約しているスマートフォンに搭載されているタッチパネルディスプレイに表示される。
症状推定機能202aは、機械学習実行機能102aにより学習済みの機械学習プログラム750aに推論用画像データ及び推論用開瞼データを入力し、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202aは、機械学習プログラム750aにこれら二つのデータを入力し、推論用被検体の目の涙液層破壊時間の長さを表す数値を推定させる。
そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目の涙液層破壊時間の長さを表す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液層破壊時間の長さを表す数値をディスプレイ920aに表示するために使用される。
次に、図6を参照しながら第一実施形態に係るドライアイ検査プログラム200aが実行する処理の一例を説明する。図6は、第一実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。
ステップS21において、データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。
ステップS22において、症状推定機能202aは、学習済みの機械学習プログラム750aに、推論用画像データ及び推論用開瞼データを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
以上、第一実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。
機械学習実行プログラム100aは、教師データ取得機能101aと、機械学習実行機能102aとを備える。
教師データ取得機能101aは、学習用画像データと、学習用開瞼データとを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。学習用画像データは、学習用被検体の目を描出している画像を示すデータである。学習用開瞼データは、学習用画像が撮影された目を学習用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。学習用検査画像データは、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している画像を示すデータである。学習用検査結果データは、ドライアイの症状に関する検査の結果を示すデータである。
機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。
これにより、機械学習実行プログラム100aは、学習用画像データ及び学習用開瞼データに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750aを生成することができる。
また、機械学習実行プログラム100aは、学習用画像データだけではなく、学習用開瞼データを問題として含んでいる教師データを使用して機械学習プログラム750aを学習させる。したがって、機械学習実行プログラム100aは、ドライアイの症状に関する検査の結果を更に精度良く予測することができる機械学習プログラム750aを生成することができる。
ドライアイ検査プログラム200aは、データ取得機能201aと、症状推定機能202aとを備える。
データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用開瞼データは、推論用画像が撮影された目を推論用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。
症状推定機能202aは、機械学習実行プログラム100aにより学習済みの機械学習プログラム750aに推論用画像データ及び推論用開瞼データを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
これにより、ドライアイ検査プログラム200aは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。
次に、機械学習プログラム750aを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100aにより奏される効果の具体例を比較例と第一実施形態に係る実施例とを対比させて説明する。
この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用開瞼データが除かれているデータを教師データとして機械学習プログラムを学習させた例である。
このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータ及び学習用被検体の目が異常であることを表している80個のテストデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。
一方、機械学習実行プログラム100aにより学習した機械学習プログラム750aは、同じテストデータを使用して特性を評価すると、予測精度80%及び偽陰性率20%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。
なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。
また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。
なお、機械学習実行プログラム100aが有する機能の少なくとも一部は、回路部(circuitry)を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは,例えば、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)である。
また、機械学習実行プログラム100aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。
また、第一実施形態では、機械学習実行装置10aと、機械学習装置700aと、ドライアイ検査装置20aとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。
[第二実施形態]
図7から図11を参照しながら第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法は、第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法と異なり、後述する学習用画像データから切り出した学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を問題として含む教師データを使用する。
図7は、第二実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図7に示した機械学習実行装置10bは、後述する機械学習装置700bの学習フェーズにおいて機械学習装置700bに機械学習を実行させる装置である。また、図8に示すように、機械学習実行装置10bは、プロセッサ11bと、主記憶装置12bと、通信インターフェース13bと、補助記憶装置14bと、入出力装置15bと、バス16bとを備える。
プロセッサ11bは、例えば、CPUであり、後述する機械学習実行プログラム100bを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる。
また、プロセッサ11bは、機械学習実行プログラム100b以外のプログラムを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる上で必要な機能を実現させてもよい。
主記憶装置12bは、例えば、RAMであり、プロセッサ11bにより読み出されて実行される機械学習実行プログラム100bその他プログラムを予め記憶している。
通信インターフェース13bは、図8に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。
補助記憶装置14bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。
入出力装置15bは、例えば、入出力ポートである。入出力装置15bは、例えば、図1に示したキーボード811b、マウス812b、ディスプレイ910bが接続される。
キーボード811b及びマウス812bは、例えば、機械学習実行装置10bを操作するために必要なデータを入力する作業に使用される。ディスプレイ910bは、例えば、機械学習実行装置10bのグラフィカルユーザインターフェースを表示する。
バス16bは、プロセッサ11b、主記憶装置12b、通信インターフェース13b、補助記憶装置14b及び入出力装置15bを互いにデータの送受信が可能なように接続している。
図8は、第二実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10bは、プロセッサ11bを使用して機械学習実行プログラム100bを読み出して実行し、図8に示した教師データ取得機能101b及び機械学習実行機能102bを実現させる。
教師データ取得機能101bは、一つの学習用涙液メニスカス画像データ及び一つの学習用照明画像データの少なくとも一方を問題とし、一つの学習用検査画像データ及び学習用検査結果データの少なくとも一方を答えとする教師データを取得する。
学習用画像データは、学習用被検体の目を描出している学習用画像を示すデータである。学習用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。
学習用涙液メニスカス画像データは、学習用被検体の目を描出している学習用画像から学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示すデータであり、学習用画像の一種である。涙液メニスカスは、角膜と下瞼との間に形成される涙の層であり、涙液の量を反映している。涙液メニスカスが低い場合、涙液が少なく、涙液メニスカスが高い場合、涙液が多い。また、学習用涙液メニスカス画像は、例えば、学習用画像のうち涙液メニスカスが描出されている領域を切り出すことにより生成される。図9は、第二実施形態に係る学習用画像から涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像の一例を示す図である。教師データ取得機能101bは、例えば、図9に示した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを取得する。
学習用照明画像データは、学習用被検体の目を描出している学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示すデータであり、学習用画像の一種である。このような照明は、例えば、学習用画像が撮影される部屋の天井に設置された蛍光灯である。また、学習用照明画像は、例えば、学習用画像のうち学習用被検体の角膜に映り込んでいる照明が描出されている領域を切り出すことにより生成される。図10は、第二実施形態に係る学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像の一例を示す図である。教師データ取得機能101bは、例えば、図10に示した学習用照明画像を示す学習用照明画像データを取得する。
学習用検査画像データは、教師データの答えの一部を構成しており、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している学習用検査画像を示すデータである。このような検査としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査が挙げられる。したがって、例えば、学習用検査画像データは、フルオレセインにより染色され、スリットランプを使用して観察されている目を描出している画像又は動画を示すデータとなる。
学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査に基づいて涙液層破壊時間の長さを表している0以上1以下の数値が挙げられる。
この数値は、0以上0.5未満である場合、涙液層破壊時間が10秒以上であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、涙液層破壊時間が10秒未満であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。
例えば、教師データ取得機能101bは、1280個の教師データを取得する。この場合、1280個の学習用涙液メニスカス画像データおよび学習用照明画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像の涙液メニスカスが描出されている領域及び角膜に映りこんでいる照明が描出されている領域を切り出すことにより生成された画像を示している。
また、この場合、1280個の学習用検査画像データは、それぞれ上述した1280枚の学習用画像それぞれに描出されている学習用被検体の目についてドライアイの症状に関する検査が実施された際に撮影された学習用検査画像を示している。また、1280個の学習用検査結果データは、それぞれ1280枚の学習用検査画像が撮影された際に実施されたドライアイの症状に関する検査の結果を示す0以上1以下の数値1280個を示している。
なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している620個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している660個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。
機械学習実行機能102bは、機械学習装置700bに実装されている機械学習プログラム750bに教師データを入力し、機械学習プログラム750bを学習させる。例えば、機械学習実行機能102bは、畳み込みニューラルネットワークを含んでいる機械学習プログラム750bをバックプロパゲーションにより学習させる。
例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる540個の教師データを機械学習プログラム750bに入力する。この540個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる580個の教師データを機械学習プログラム750bに入力する。この580個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
そして、機械学習実行機能102bは、これら1120個の教師データにより機械学習プログラム750bを学習させる。
また、例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
これにより、機械学習実行機能102bは、上述した1120個の教師データにより機械学習プログラム750bを学習させることにより得られた機械学習プログラム750bの特性を評価してもよい。
なお、機械学習実行機能102bは、テストデータを使用して機械学習プログラム750bの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。
次に、図11を参照しながら第二実施形態に係る機械学習実行プログラム100bが実行する処理の一例を説明する。図11は、第二実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100bは、図11に示した処理を少なくとも一回実行する。
ステップS31において、教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。
ステップS32において、機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。
次に、図12から図14を参照しながら第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法と異なり、後述する推論用学習用画像データから切り出した推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方を取得する。
図12は、第二実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図12に示したドライアイ検査装置20bは、機械学習実行プログラム100bにより学習済みの機械学習装置700bの推論フェーズにおいて機械学習装置700bを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図12に示すように、ドライアイ検査装置20bは、プロセッサ21bと、主記憶装置22bと、通信インターフェース23bと、補助記憶装置24bと、入出力装置25bと、バス26bとを備える。
プロセッサ21bは、例えば、CPUであり、後述するドライアイ検査プログラム200bを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる。また、プロセッサ21bは、ドライアイ検査プログラム200b以外のプログラムを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる上で必要な機能を実現させてもよい。
主記憶装置22bは、例えば、RAMであり、プロセッサ21bにより読み出されて実行されるドライアイ検査プログラム200bその他プログラムを予め記憶している。
通信インターフェース23bは、図12に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。
補助記憶装置24bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。
入出力装置25bは、例えば、入出力ポートである。入出力装置25bは、例えば、図12に示したキーボード821b、マウス822b、ディスプレイ920bが接続される。キーボード821b及びマウス822bは、例えば、ドライアイ検査装置20bを操作するために必要なデータを入力する作業に使用される。ディスプレイ920bは、例えば、ドライアイ検査装置20bのグラフィカルユーザインターフェースを表示する。
バス26bは、プロセッサ21b、主記憶装置22b、通信インターフェース23b、補助記憶装置24b及び入出力装置25bを互いにデータの送受信が可能なように接続している。
図13は、第二実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20bは、プロセッサ21bを使用してドライアイ検査プログラム200bを読み出して実行し、図13に示したデータ取得機能201b及び症状推定機能202bを実現させる。
データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。
推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。
推論用涙液メニスカス画像データは、推論用被検体の目を描出している推論用画像から推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示すデータである。また、推論用涙液メニスカス画像は、例えば、推論用画像のうち涙液メニスカスが描出されている領域を切り出すことにより生成される。
推論用照明画像データは、推論用被検体の目を描出している推論用画像から推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示すデータである。また、推論用照明画像は、例えば、推論用画像のうち推論用被検体の角膜に映り込んでいる照明が描出されている領域を切り出すことにより生成される。
症状推定機能202bは、機械学習実行機能102bにより学習済みの機械学習プログラム750bに推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202bは、機械学習プログラム750bにこれらのデータを入力し、推論用被検体の目の涙液層破壊時間の長さを表す数値を推定させる。
そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目の涙液層破壊時間の長さを表す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液層破壊時間の長さを表す数値をディスプレイ920bに表示するために使用される。
次に、図14を参照しながら第二実施形態に係るドライアイ検査プログラム200bが実行する処理の一例を説明する。図14は、第二実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。
ステップS41において、データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。
ステップS42において、症状推定機能202bは、学習済みの機械学習プログラムに、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラムに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
以上、第二実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。
機械学習実行プログラム100bは、教師データ取得機能101bと、機械学習実行機能102bとを備える。
教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。学習用涙液メニスカス画像データは、学習用被検体の涙液メニスカスを描出している学習用涙液メニスカス画像を示すデータである。学習用照明画像データは、学習用被検体の角膜に映り込んでいる照明を描出している学習用照明画像を示すデータである。学習用検査画像データは、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している画像を示すデータである。学習用検査結果データは、ドライアイの症状に関する検査の結果を示すデータである。
機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。
これにより、機械学習実行プログラム100bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750bを生成することができる。
また、機械学習実行プログラム100bは、学習用画像データから切り出された学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を問題として含んでいる教師データを使用して機械学習プログラム750bを学習させる。したがって、機械学習実行プログラム100bは、ドライアイの症状に関する検査の結果を更に精度良く予測することができる機械学習プログラム750bを生成することができる。
ドライアイ検査プログラム200bは、データ取得機能201bと、症状推定機能202bとを備える。
データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。推論用涙液メニスカス画像データは、推論用被検体の涙液メニスカスを描出している推論用涙液メニスカス画像を示すデータである。推論用照明画像データは、推論用被検体の角膜に映り込んでいる照明を描出している推論用照明画像を示すデータである。
症状推定機能202bは、機械学習実行プログラム100bにより学習済みの機械学習プログラム750bに推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。
そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
これにより、ドライアイ検査プログラム200bは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。
次に、機械学習プログラム750bを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100bにより奏される効果の具体例を比較例と第二実施形態に係る実施例とを対比させて説明する。
この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを教師データとして機械学習プログラムを学習させた例である。
このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータ及び学習用被検体の目が異常であることを表している80個のテストデータから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。
一方、機械学習実行プログラム100bにより学習用涙液メニスカス画像データを使用して学習した機械学習プログラム750bは、学習用涙液メニスカス画像データのみを含むテストデータを使用して特性を評価すると、予測精度77%及び偽陰性率23%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。
また、機械学習実行プログラム100bにより学習用照明画像データを使用して学習した機械学習プログラム750bは、学習用照明画像データのみを含むテストデータを使用して特性を評価すると、予測精度77%及び偽陰性率23%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。
また、機械学習実行プログラム100bにより学習用涙液メニスカス画像データ及び学習用照明画像データを使用して学習した機械学習プログラム750bは、学習用涙液メニスカス画像データ及び学習用照明画像データを含むテストデータを使用して特性を評価すると、予測精度82%及び偽陰性率18%を示した。この特性は、比較例に係る機械学習プログラムの特性、学習用涙液メニスカス画像データを使用して学習した機械学習プログラム750bの特性及び学習用照明画像データを使用して学習した機械学習プログラム750bの特性を上回っている。
なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。
また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。
なお、機械学習実行プログラム100bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは,例えば、LSI、ASIC、FPGA、GPUである。
また、機械学習実行プログラム100bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。
また、第二実施形態では、機械学習実行装置10bと、機械学習装置700bと、ドライアイ検査装置20bとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。
[第三実施形態]
上述した第一実施形態では、教師データ取得機能101aが第二実施形態で説明した学習用涙液メニスカス画像データ及び学習用照明画像データを問題の一部に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101aは、学習用開瞼データに加え、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を上述した学習用画像データとしている教師データを取得してもよい。また、この場合、データ取得機能201aは、推論用開瞼データに加え、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方を上述した推論用画像データとして取得する。そして、この場合、症状推定機能202aは、機械学習プログラム750aに、推論用開瞼データに加え、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に基づいて推論用被検体の目に現れているドライアイの症状を推定させる。
また、上述した第二実施形態では、教師データ取得機能101bが第一実施形態で説明した学習用開瞼データを問題の一部に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データに加え、学習用開瞼データを問題としている教師データを取得してもよい。また、この場合、データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に加え、更に推論用開瞼データを取得する。そして、この場合、症状推定機能202bは、機械学習プログラム750bに、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に加え、推論用開瞼データに基づいて推論用被検体の目に現れているドライアイの症状を推定させる。
さらに、第三実施形態に係る機械学習実行機能102aは、テストデータを使用して機械学習プログラム750aの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。同様に、第三実施形態に係る機械学習実行機能102bは、テストデータを使用して機械学習プログラム750bの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。
図15は、第三実施形態に係る機械学習プログラムが涙液層破壊時間を調べる検査の結果を予測する際に学習用被検体の目を描出している学習用画像のうち重点的に考慮した部分の一例を示す図である。例えば、第三実施形態に係る機械学習実行機能102aは、勾配加重クラス活性化マッピングを使用して図15に示した学習用画像のうち楕円C11で囲まれている領域、楕円C12で囲まれている領域及び楕円C2で囲まれている領域が機械学習プログラム750aによる涙液層破壊時間を調べる検査の予測に一定以上の影響を与えていると評価する。また、図15を参照しながら説明した事項は、第三実施形態に係る機械学習実行機能102bについても当てはまる。
なお、これらの楕円で囲まれている領域に含まれている三段階のグレースケールは、角膜上皮障害に関する検査の結果の予測に影響を与えた度合いを示している。楕円C11で囲まれている領域及び楕円C12で囲まれている領域は、いずれも学習用被検体の涙液メニスカスを描出している領域の上に重ねて表示されている。楕円C2で囲まれている領域は、学習用被検体の角膜に映り込んでいる照明を描出している領域の上に重ねて表示されている。
次に、学習用開瞼データと、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題として含んでいる教師データを使用して学習させ、推論用開瞼データと、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とに基づいて推論用被検体の目に現れているドライアイの症状を推定させる場合に奏される効果の具体例について説明する。また、以下の説明では、教師データ取得機能101aが学習用開瞼データを取得し、データ取得機能201aが推論用開瞼データを取得する場合を例に挙げて説明する。
この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを教師データとして機械学習プログラムを学習させた例である。
このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータ及び学習用被検体の目が異常であることを表している80個のテストデータから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。
一方、機械学習実行プログラム100aにより学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを使用して学習した機械学習プログラム750aは、学習用涙液メニスカス画像データ及び学習用照明画像データを含むテストデータを使用して特性を評価すると、予測精度90%及び偽陰性率10%を示した。この特性は、比較例に係る機械学習プログラムの特性、第一実施形態に係る機械学習プログラム750aの特性及び第二実施形態に係る機械学習プログラム750bの特性を上回っている。
なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。
また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。
なお、上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、推論用被検体の目にドライアイ点眼薬が点眼される前後で使用されてもよい。上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、このようなタイミングで使用されることにより、推論用被検体が抱えるドライアイの症状に対して当該ドライアイ点眼薬が有している有効性を検証する手段ともなり得る。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成は、この実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲内において種々の組み合わせ、変形、置換及び設計変更の少なくとも一つが加えられることがある。
また、上述した本発明の実施形態の効果は、一例として示した効果である。したがって、本発明の実施形態は、上述した効果以外にも上述した実施形態の記載から当業者が認識し得る他の効果も奏し得る。
10a,10b…機械学習実行装置、100a,100b…機械学習実行プログラム、101a,101b…教師データ取得機能、102a,102b…機械学習実行機能、20a,20b…ドライアイ検査装置、200a,200b…ドライアイ検査プログラム、201a,201b…データ取得機能、202a,202b…症状推定機能、700a,700b…機械学習装置、750a,750b…機械学習プログラム

Claims (3)

  1. 推論用被検体の目を描出している推論用画像を示す推論用画像データを取得し、
    学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の状態を示す学習用状態データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データを入力し、前記機械学習プログラムに前記推論用被検体の目の状態を推定させ、前記機械学習プログラムに前記推論用被検体の目の状態を示す推論用データを出力させる、
    検査方法であって、
    前記推論用被検体の角膜に映り込んでいる照明を描出している前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データを前記推論用画像データとして取得し、
    前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを前記学習用画像データとして前記問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を前記答えとして更に含んでいる前記教師データを使用して学習した前記機械学習プログラムに、前記推論用被検体の目に現れているドライアイの症状を推定させ、前記推論用被検体の目に現れているドライアイの症状を示す症状データを前記推論用データとして出力させる、
    検査方法。
  2. 前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データを更に取得し、
    前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データを前記問題の一部として更に含んでおり、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を前記答えとして更に含んでいる前記教師データを使用して学習した前記機械学習プログラムに、前記推論用被検体の目に現れているドライアイの症状を推定させ、前記推論用被検体の目に現れているドライアイの症状を示す症状データを前記推論用データとして出力させる、
    請求項1に記載の検査方法。
  3. 前記推論用被検体の目の涙液メニスカスを描出している前記推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データを前記推論用画像データとしてさらに取得し、
    前記学習用被検体の目の涙液メニスカスを描出している前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データをさらに前記学習用画像データとして前記問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を前記答えとして更に含んでいる前記教師データを使用して学習した前記機械学習プログラムに、前記推論用被検体の目に現れているドライアイの症状を推定させ、前記推論用被検体の目に現れているドライアイの症状を示す症状データを前記推論用データとして出力させる、
    請求項1又は請求項2に記載の検査方法。
JP2022072355A 2020-12-25 2022-04-26 検査方法 Active JP7094468B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022072355A JP7094468B1 (ja) 2020-12-25 2022-04-26 検査方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020217684A JP2022102758A (ja) 2020-12-25 2020-12-25 機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置
JP2022072355A JP7094468B1 (ja) 2020-12-25 2022-04-26 検査方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020217684A Division JP2022102758A (ja) 2020-10-28 2020-12-25 機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置

Publications (2)

Publication Number Publication Date
JP7094468B1 JP7094468B1 (ja) 2022-07-01
JP2022104840A true JP2022104840A (ja) 2022-07-11

Family

ID=87761036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022072355A Active JP7094468B1 (ja) 2020-12-25 2022-04-26 検査方法

Country Status (1)

Country Link
JP (1) JP7094468B1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080273171A1 (en) * 2007-05-04 2008-11-06 Advanced Medical Optics, Inc. Methods and devices for measuring tear film and diagnosing tear disorders
WO2019031424A1 (ja) * 2017-08-07 2019-02-14 興和株式会社 涙液状態評価方法、コンピュータプログラム、装置
WO2019168142A1 (ja) * 2018-03-02 2019-09-06 興和株式会社 画像分類方法、装置及びプログラム
JP2019155011A (ja) * 2018-03-16 2019-09-19 株式会社トプコン 携帯端末及び携帯端末の制御方法
US10468142B1 (en) * 2018-07-27 2019-11-05 University Of Miami Artificial intelligence-based system and methods for corneal diagnosis
EP3666177A1 (en) * 2017-10-31 2020-06-17 Samsung Electronics Co., Ltd. Electronic device and method for determining degree of conjunctival hyperemia by using same
CN111700582A (zh) * 2020-06-23 2020-09-25 温州医科大学附属眼视光医院 一种基于智能终端的常见眼表疾病诊断系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080273171A1 (en) * 2007-05-04 2008-11-06 Advanced Medical Optics, Inc. Methods and devices for measuring tear film and diagnosing tear disorders
WO2019031424A1 (ja) * 2017-08-07 2019-02-14 興和株式会社 涙液状態評価方法、コンピュータプログラム、装置
EP3666177A1 (en) * 2017-10-31 2020-06-17 Samsung Electronics Co., Ltd. Electronic device and method for determining degree of conjunctival hyperemia by using same
WO2019168142A1 (ja) * 2018-03-02 2019-09-06 興和株式会社 画像分類方法、装置及びプログラム
JP2019155011A (ja) * 2018-03-16 2019-09-19 株式会社トプコン 携帯端末及び携帯端末の制御方法
US10468142B1 (en) * 2018-07-27 2019-11-05 University Of Miami Artificial intelligence-based system and methods for corneal diagnosis
CN111700582A (zh) * 2020-06-23 2020-09-25 温州医科大学附属眼视光医院 一种基于智能终端的常见眼表疾病诊断系统

Also Published As

Publication number Publication date
JP7094468B1 (ja) 2022-07-01

Similar Documents

Publication Publication Date Title
Van Der Heijden et al. Validation of automated screening for referable diabetic retinopathy with the IDx‐DR device in the Hoorn Diabetes Care System
Gali et al. Cataract grading systems: a review of past and present
Phan et al. Evaluation of deep convolutional neural networks for glaucoma detection
Mursch-Edlmayr et al. Artificial intelligence algorithms to diagnose glaucoma and detect glaucoma progression: translation to clinical practice
Lo et al. Epiretinal membrane detection at the ophthalmologist level using deep learning of optical coherence tomography
Al-Jarrah et al. Non-proliferative diabetic retinopathy symptoms detection and classification using neural network
KR102354980B1 (ko) 전안부 질환 진단 시스템 및 이를 이용한 진단 방법
Norouzifard et al. Automated glaucoma diagnosis using deep and transfer learning: Proposal of a system for clinical testing
Wang et al. Feasibility assessment of infectious keratitis depicted on slit-lamp and smartphone photographs using deep learning
JP2020036835A (ja) 眼科診断支援装置、眼科診断支援方法、及び眼科診断支援プログラム
Chen et al. Early detection of visual impairment in young children using a smartphone-based deep learning system
Kang et al. Artificial intelligence and corneal diseases
Tahvildari et al. Application of artificial intelligence in the diagnosis and management of corneal diseases
Kapoor et al. The role of artificial intelligence in the diagnosis and management of glaucoma
Chen et al. A deep learning model for screening multiple abnormal findings in ophthalmic ultrasonography (with video)
JP7094468B1 (ja) 検査方法
Babu et al. Efficient detection of glaucoma using double tier deep convolutional neural network
WO2022092134A1 (ja) 検査方法、機械学習実行方法、検査装置及び機械学習実行方法
Srisuriyajan et al. Cytomegalovirus retinitis screening using machine learning technology
JP2022102758A (ja) 機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置
Tabuchi et al. Developing an iOS application that uses machine learning for the automated diagnosis of blepharoptosis
Tiwari et al. Broad analysis of deep learning techniques for diabetic retinopathy screening
JP2022102759A (ja) 機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置
JP2022102757A (ja) 機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置
Singh Artificial intelligence in ophthalmology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220512

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220621

R150 Certificate of patent or registration of utility model

Ref document number: 7094468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350