JP2014530730A - 目の症状を特定するためのシステムおよび方法 - Google Patents

目の症状を特定するためのシステムおよび方法 Download PDF

Info

Publication number
JP2014530730A
JP2014530730A JP2014537719A JP2014537719A JP2014530730A JP 2014530730 A JP2014530730 A JP 2014530730A JP 2014537719 A JP2014537719 A JP 2014537719A JP 2014537719 A JP2014537719 A JP 2014537719A JP 2014530730 A JP2014530730 A JP 2014530730A
Authority
JP
Japan
Prior art keywords
image
eye
utility
pupil
operable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014537719A
Other languages
English (en)
Inventor
ナイジェル・アンドリュー・サイモン・バーナード
ロン・ユリエル・マオー
ユヴァル・ヤシヴ
Original Assignee
アイリス・メディカル・テクノロジーズ・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイリス・メディカル・テクノロジーズ・リミテッド filed Critical アイリス・メディカル・テクノロジーズ・リミテッド
Publication of JP2014530730A publication Critical patent/JP2014530730A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F04POSITIVE - DISPLACEMENT MACHINES FOR LIQUIDS; PUMPS FOR LIQUIDS OR ELASTIC FLUIDS
    • F04CROTARY-PISTON, OR OSCILLATING-PISTON, POSITIVE-DISPLACEMENT MACHINES FOR LIQUIDS; ROTARY-PISTON, OR OSCILLATING-PISTON, POSITIVE-DISPLACEMENT PUMPS
    • F04C2270/00Control; Monitoring or safety arrangements
    • F04C2270/04Force
    • F04C2270/041Controlled or regulated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)

Abstract

画像データを処理し、対象者の目の画像内に異常が存在するかどうかを判定し、対応する出力データを生成するように構成され、動作可能なプロセッサユーティリティを含む電子装置であって、前記プロセッサユーティリティが、対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を画像データの中で選択するように構成され、動作可能であり、画像が画像処理に適するかどうかを判定するために画像を前処理し、画像の判定された適性の指示を与えるようにさらに構成され、動作可能である第1のプロセッサと、1組の所定のパラメータから目の特徴の1つまたは複数のパラメータを決定するために好適な画像に画像処理アルゴリズムを適用するように構成され、動作可能な目の特徴検出ユーティリティと、前記1つまたは複数のパラメータを処理し、分析し、画像内に異常が存在するかどうかを示すデータを生成するように構成され、動作可能な目の症状特定器ユーティリティとを含む、電子デバイス。

Description

本発明は、一般に、医療機器の分野のものであり、斜視などの対象者の目の異常を特定するための装置および方法に関する。
斜視は、両目の間の視軸のずれであり、弱視 - メガネによって改善され得ない片目の視力の低下 - の主な原因である。弱視は、西洋諸国においてはその他のすべての原因を合わせたよりも大きな、子供および若年成人の片目の失明の原因となっている。子供の2%〜4%が初期段階の斜視を発症することが分かった。したがって、斜視および弱視が効果的に治療されるべきである場合、それを早期に検出することが不可欠である。知られている治療方法の有効性は、7または8歳まで年齢が上がるにつれて低下し、7または8歳を過ぎると、失明は永久的になる。米国小児科学会(American Academy of Pediatricians)などの世界中の多数の医療団体が、少なくとも4歳以下での視覚スクリーニング(vision screening)を推奨している。それにもかかわらず、5歳未満の子供はスクリーニング(screen)することが難しく、米国のこの年齢層で視覚検査(vision test)を受けるは3人に1人に満たない。また、弱視の原因となる可能性があるさまざまなその他の症状が存在し、そのような症状には、両目の水晶体の間の屈折力の違いである不同視および白内障の症状である混濁を含む。
斜視の検出および診断のためのこれまでの検査は、通常、人手による検査であり、専門家によって行われる必要がある。ヒルシュベルク検査(Hirschberg Test)および遮蔽検査(Cover Test)を含むこれらの人手による検査は、眼科医および視能訓練士によって最もうまく行われる。ヒルシュベルク検査は、患者の目の中を光で照らし、角膜の表面からの光の反射(プルキンエ像)の対称性に関して目を視覚的に検査することをともなう。遮蔽検査は、1回毎に片方の目を覆い、患者が特定の目標に視線を固定している間に目の動きを観察することをともなう。斜視およびその他の症状は、やはり人手による(視覚的な)検査であるブルックナー検査(Bruckner Test)によっても検査され得る。これらの検査は、乳児および幼児などの協力的でない患者に対して行うことが難しい。概して、一般医および小児科医などの第一線の医療従事者が、斜視に関して患者をスクリーニングするが、それらの医療従事者は、これらの人手による検査の熟達した専門家ではないので、このことは、他の医療機関への過小な紹介(under-referral)と過大な紹介(over-referral)との両方につながる。
さまざまな目の疾患/異常の判定を容易にする技術の開発が、試みられてきた。例えば、米国特許第7,854,509号は、被験者からの口頭での情報提供、または被験者がスクリーニング中に決まった位置から動かないことを必要としない視覚をスクリーニングするための製品および方法を記載する。製品は、撮像デバイス、少なくとも1つの検査灯(test light)、解釈プログラムを含む処理ユニット、およびディスプレイを含む。方法は、人の目の画像を撮影するステップと、画像を確認するステップと、画像を綿密に調べるステップと、画像を評価するステップと、結果を表示するステップとを含む。都合の良いことに、製品および方法は、運用者の特別な訓練を必要としない。
米国特許第7,854,509号
斜視、不同視、瞳孔不同症、ならびに網膜芽細胞腫および白内障などのさまざまな目の症状を簡単に自動で検出するための新規性のある技術が、当技術分野で必要とされている。
本発明は、請求項1による装置を提供する。本発明のさらなる任意の実施形態および態様が、請求項2以降に記載されている。
本発明の一態様によれば、対象者の目の異常に関連する目の症状を全自動で検出するための装置および方法が提供される。この技術は、子供もしくは乳児、または比較的協力的でない可能性があるその他の対象者の目の症状を特定するために検査手順を用いて使用され得る。その検査手順は、簡単で、迅速である可能性があり、熟達した専門の運用者を必要としない。さらに、検査は、対象者の目の単一の画像を示すデータを利用することができ、その画像は、携帯電話デバイス、スマートフォン、およびポータブルコンピュータ、PDAなどのほとんどの可搬型電子デバイスに通常搭載されているデジタルカメラによって取得され得る。また、本発明の装置は、特に本発明を実装するために設計されたデジタルカメラまたは検眼鏡に取り付けられる可能性がある。
斜視を診断するためのこれまでの検査、例えば、ヒルシュベルク検査は、熟達した専門家を必要とする人手による検査であり、中程度から重度の斜視の検出に限定される。概して比較的協力的でない子供/乳児の目の症状を検査するとき、検査は、さらに正確性または信頼性が落ちる。目の症状を特定するための自動の(コンピュータ化された)システムは、より正確な診断をもたらす可能性があり、比較的少ない患者の協力を必要としながら非常に短時間で少なくとも予備的な結果を提供する可能性がある。
本発明は、パーソナルコンピュータ、ラップトップ、またはスマートフォン、タブレット、デジタルカメラ、もしくは検眼鏡などの任意のハンドヘルドコンピューティングデバイスである任意の電子デバイスに本発明の技術またはプロセッサユーティリティ(utility)が組み込まれることを可能にする、画像データを処理し、分析するための新規性のある手法を提供する。電子デバイスは、その電子デバイスに取り付けられたカメラユニットを利用して検査対象部位の1枚もしくは複数枚の画像を取得し、画像データを提供するか、または外部のカメラユニットもしくはストレージデバイスから画像データを受信するために外部のカメラユニットもしくはストレージデバイスに(有線もしくは無線信号送信によって)接続することができる可能性があり、したがって、オンライン(リアルタイム)かまたはオフラインかのどちらかの検査モードで動作する。したがって、本発明を実施するように構成された電子デバイスは、画像データを受信し、分析するように事前にプログラミングされたソフトウェアアプリケーションとして構成されるプロセッサユーティリティを含み、分析結果およびその他の指示を運用者に提供するための出力ユーティリティ(例えば、スクリーン)をさらに含むか、またはそのような出力ユーティリティに接続することができる可能性がある。
以下で説明される非限定的な例において、本発明の装置は、装置と一体のカメラユニットを含むコンピューティングデバイスとして言及される。しかし、本発明はそのような一体的な装置構成に限定されず、カメラ、スマートフォン、携帯電話、検眼鏡を含むが、これらに限定されない、画像データを受信し、処理するための任意の電子またはコンピューティングデバイスに組み込まれ得るチップまたはソフトウェア/ハードウェアユーティリティとして実装される可能性があると解される。
本発明の電子装置がカメラユニットと一体である最も単純な例(例えば、カメラユニットを含むハンドヘルドコンピューティングデバイス)においては、ユーザが、フラッシュライトまたはその他の光源を利用して対象者の顔の1枚または複数枚の画像を取得するようにカメラユニットを操作する。画像データは、このデータを分析し、対象者の異常な目の症状を特定し、それらの症状を示す出力データを生成するための、本発明に従って事前にプログラミングされるプロセッサユーティリティによって受信される。この目的で、プロセッサユーティリティは、画像がさらなる処理に使用されるべき適切な画像であるか、または別の画像が必要とされるのかを判定するために前記画像内の対象部位(すなわち、対象者の左および/または右目部分)の存在および位置を特定するためのいわゆる前処理を実行する。適切な範囲/部位は、対象者の目の1つまたは複数の異常を検出するための望ましい目の特徴を含む範囲/部位である。そのような目の部位は、例えば、対象者の左目および右目のうちの少なくとも一方に関する瞳孔と光源の反射(目の表面からの光の反射はプルキンエ像として広く知られている)に関連する明るい範囲とを含む。
本発明の1つの幅広い態様によれば、画像データを処理し、対象者の目の異常を示す1つまたは複数の症状を判定し、対応する出力データを生成するように構成され、動作可能なプロセッサユーティリティを含む可搬型電子デバイスであって、前記プロセッサユーティリティが、対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を画像データの中で選択するように構成され、動作可能である第1のプロセッサと、1組の所定のパラメータから目の特徴の1つまたは複数のパラメータを決定するために選択された画像内の対象部位に画像処理アルゴリズムを適用するように構成され、動作可能な目の特徴検出ユーティリティと、前記1つまたは複数のパラメータを処理し、分析し、対象者の目の症状を示すデータを生成するように構成され、動作可能な目の症状特定器ユーティリティとを含む、可搬型電子デバイスが、提供される。
目の特徴の1組の所定のパラメータは、目の特徴の幾何学パラメータ、位置パラメータ、および色に関連するパラメータのうちの少なくとも1つを含む可能性がある。目の特徴のそのようなパラメータは、以下、すなわち、目の少なくとも一方の瞳孔の位置、目の少なくとも一方のプルキンエ像の位置、瞳孔の少なくとも一方の物理的な寸法、少なくとも1つのプルキンエ像の物理的な寸法、両方の目の瞳孔の平均的色、および両方の目のプルキンエ像の平均的色のうちの1つまたは複数を含む可能性がある。
対象部位は、左目の部位および右目の部位のうちの少なくとも一方、および好ましくはこれらの目の部位の両方を含む選択された画像の一部である。選択された画像内の対象部位は、所定の撮像条件に対応する少なくとも1つの特徴を含む部位である可能性もある。所定の撮像条件に対応するそのような特徴は、プルキンエ像を含む可能性がある。
デバイスは、所定の参照データを記憶するためのメモリユーティリティを含むことが好ましい。後者は、顔の特徴に対応するピクセル値を示す第1の参照データと、目の特徴に対応するピクセル値を示す第2の参照データとを含む。
本発明の一部の実施形態において、第1のプロセッサモジュールは、第1の参照データを使用して画像を処理して、第1の参照データに従って画像内のピクセルを分類し、対象部位に関する異なるカテゴリにピクセルをグループ分けすることに基づいて前記画像内の対象部位についてのおおざっぱなデータを取得することによって画像の選択を実行するように構成され、動作可能である。
本発明の一部の実施形態において、目の特徴検出モジュールは、第2の参照データを使用して対象部位を処理して、前記第2の参照データに従って対象部位内のピクセルを分類し、少なくとも片目の特徴に関するピクセルを計数することによって目の特徴の幾何学パラメータおよび/または位置パラメータおよび/または色に関連するパラメータのうちの前記1つまたは複数のおおざっぱな値を取得するように構成され、動作可能である。目の特徴検出モジュールは、前記少なくとも1つの特徴に関連するピクセルを分類し直し、前記分類し直されたピクセルの値を重み付けするためにそのようなパラメータのうちの1つまたは複数のおおざっぱな値を使用することができる。
判定されるべき目の特徴は、左目の部位および右目の部位のうちの少なくとも一方の中の瞳孔およびプルキンエ像のうちの少なくとも一方を含む。上で示されたように、目の特徴のパラメータは、目の少なくとも一方の瞳孔の位置、目の少なくとも一方のプルキンエ像の位置、瞳孔の少なくとも一方の物理的な寸法、少なくとも1つのプルキンエ像の物理的な寸法、ならびに/または一方もしくは両方の目の瞳孔および/もしくはプルキンエ像の平均的色を含む可能性がある。
本発明の一部の実施形態において、目の症状特定器モジュールは、少なくとも両目の特徴のパラメータの間の関連を決定するように構成され、動作可能であり、前記少なくとも両目の特徴は、同じ目の部位または異なる目の部位に関する。
本発明の一部の実施形態において、目の症状特定器モジュールは、右目のプルキンエ像の中心および瞳孔の中心の左目のプルキンエ像の中心および瞳孔の中心に対する相対位置の間の関連を決定し、前記関連の所定の値からのずれを特定する。そのようなずれは、斜視の症状に対応する非対称性の度合いを示す。所定の値は、左目の部位および右目の部位の相対位置の間の差、ならびに左の瞳孔と右の瞳孔との間の距離の特定の関数である可能性がある。
本発明の一部の実施形態において、目の症状特定器モジュールは、画像内の左目の部位および右目の部位の少なくとも一方の瞳孔の中心とプルキンエ像の中心との間のベクトル距離の形式で前記関連を決定し、前記関連の所定の値からのずれを特定する。このずれは、前記少なくとも一方の目の斜視の症状を示す。
本発明の一部の実施形態において、目の症状特定器モジュールは、左目の部位および右目の部位のプルキンエ像の半径の間の関連を決定し、前記関連の所定の値からのずれが不同視の症状を示すことを特定する。
本発明の一部の実施形態において、目の症状特定器モジュールは、左目の部位および右目の部位のプルキンエ像および/または瞳孔のピクセルの平均的色の間の関連を決定し、前記関連の所定の値からのずれを特定する。例えば、所定の値(閾値)からのそのようなずれは、不同視の症状を示す。
本発明の一部の実施形態において、目の症状特定器モジュールは、左目の部位および右目の部位の瞳孔のピクセルの平均的色の間の関連を決定し、前記関連の所定の値からのずれが目に網膜芽細胞腫または白内障が存在することを示すことを特定する。
本発明の一部の実施形態において、目の症状特定器ユーティリティは、左目の部位および右目の部位の瞳孔の半径の間の関連を決定し、前記関連の所定の値からのずれが瞳孔不同症の症状を示すことを特定するように構成され、動作可能である。
本発明の装置は、電話デバイス(例えば、スマートフォン)、PDAデバイス、パーソナルコンピュータ、デジタルカメラ、タブレット、ラップトップ、または特別に設計された検眼鏡として構成されるか、またはそれらに組み込まれる可能性がある。
第1のプロセッサモジュールは、画像データを処理し、対象者の目に対応する選択された画像内の画像データを特定すると、目の特徴検出モジュールによって処理されるべき前記画像データを抽出するように構成され、動作可能である可能性がある。
プロセッサユーティリティは、適切な画像を選択するために第1のプロセッサモジュールによって処理されるべき画像のストリームを含む画像データを生成するための(内部または外部)撮像装置を動作させるように構成され、動作可能である可能性がある。一部の実施形態において、プロセッサユーティリティは、追加の画像の要求データを生成するように選択的に動作する。
本発明の特定の実施形態において、画像データの処理は、以下、すなわち、選択された画像内の右目の部位および左目の部位の位置を特定することと、対象者の右目および左目に関して、プルキンエ像に対応する目の部位内の範囲の位置を特定することと、右目の部位および左目の部位のプルキンエ像の寸法を決定することと、前記右のプルキンエ像の寸法および前記左のプルキンエ像の寸法の間の関連を決定することと、前記関連を示すデータを分析し、対象者の不同視の症状を示すデータを生成することとを含む。
本発明の特定の実施形態において、画像データの処理は、以下、すなわち、選択された画像内の右目の部位および左目の部位の位置を特定することと、右目の部位および左目の部位の瞳孔に対応する範囲の位置を特定することと、対象者の右目および左目に関して、プルキンエ像に対応する目の部位内の範囲の位置を特定することと、右目の部位および左目の部位に関して、瞳孔に対するプルキンエ像の相対位置を決定することと、前記相対位置を分析し、対象者の斜視の症状を示すデータを生成することとを含む。
本発明の別の幅広い態様によれば、周囲の画像を取得し、対象者の少なくとも一方の目の少なくとも1枚の画像を含む画像データを生成するためのフレームグラバーと、画像の取得の時間の間、前記周囲を照らすための光源と、前記撮像装置に接続され、前記少なくとも1枚の画像を処理し、対象者の目の異常を示す1つまたは複数の症状を判定し、対応する出力データを生成するように構成され、動作可能なプロセッサユーティリティとを含むハンドヘルド電子デバイスが、提供される。
本発明のさらなる態様によれば、カメラユニット、プロセッサユーティリティ、メモリユーティリティ、およびユーザインターフェースユーティリティを含むハンドヘルドデバイスを使用して特定の1つまたは複数の目の症状に関して対象者を非侵襲的にスクリーニングするための方法が、提供される。方法は、
a. 対象者から特定の距離でカメラユニットによって撮影された1枚または複数枚の画像を示す画像データを提供するためにカメラユニットを操作するステップであって、前記距離が、数センチメートルから数メートルまでの範囲にある、ステップと、
b. 対象者の一方または両方の目の少なくとも1枚の画像が前記画像データの中に存在することを確認するために前記画像データを処理するステップと、
c. 対象者の一方または両方の目の前記少なくとも1枚の画像を処理し、瞳孔およびプルキンエ像の少なくとも一方を含む少なくとも片目の特徴の位置、寸法、および色に関連するパラメータのうちの少なくとも1つを決定し、所定の閾値データに対して少なくとも片目の特徴の位置パラメータ、寸法パラメータ、および色パラメータのうちの前記少なくとも1つを分析するステップと、
d. 目の症状のうちの1つまたは複数が存在することまたは存在しないことを示すデータを生成するステップとを含む。
本発明のさらに別の幅広い態様によれば、電子デバイスに組み込むための制御ユニットであって、撮像装置に接続するための接続ユーティリティと、撮像装置から受信された画像データを処理し、撮像される対象者の目の1つまたは複数の異常を示す出力データを生成するように構成され、動作可能であるプロセッサユーティリティであって、前記処理することが、対象者の右目および左目のうちの少なくとも一方の目の特徴の幾何学パラメータ、位置パラメータ、および色に関連するパラメータのうちの少なくとも1つの決定を含む、プロセッサユーティリティとを含む、制御ユニットが、提供される。
本発明のさらなる幅広い態様によれば、非一時的なコンピュータアクセス可能媒体に組み込まれ、対象者の目に対応する画像データを処理し、対象者の目の1つまたは複数の異常を示す出力データを生成するように構成され、動作可能なコンピュータ可読プログラムコードであって、前記処理することが、対象者の右目および左目のうちの少なくとも一方の目の特徴の幾何学パラメータ、位置パラメータ、および色に関連するパラメータのうちの少なくとも1つの決定を含む、コンピュータ可読プログラムコードを含むコンピュータプログラム製品が、提供される。
コンピュータプログラム製品は、対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を画像データの中で選択し、1組の所定のパラメータから目の特徴の1つまたは複数のパラメータを決定するために選択された画像内の対象部位に画像処理アルゴリズムを適用し、前記1つまたは複数のパラメータを処理し、分析し、対象者の目の症状を示すデータを生成することができる。この目的で、コンピュータプログラムは、顔の特徴および目の特徴にそれぞれ対応するピクセル値を示す特定の第1の参照データおよび第2の参照データにアクセスする。そのような参照データは、プログラムがアクセスすることができる外部ストレージユーティリティに記憶される可能性があり、または実際にはプログラム自体の一部である可能性がある。プログラムは、画像データを処理して、第1の参照データに従って画像内のピクセルを分類し、対象部位に関する異なるカテゴリのピクセルをグループ分けすることに基づいて対象部位についてのおおざっぱなデータを取得するために前記第1の参照データを使用し、それによって、対象部位を含む適切な画像を画像データの中で選択する。次いで、第2の参照データが、選択された適切な画像を処理して、前記第2の参照データに従って対象部位内のピクセルを分類し、少なくとも片目の特徴に関するピクセルを計数することによって目の特徴の前記少なくとも1つのパラメータのおおざっぱな値を取得するために使用される。
本発明のさらに別の態様によれば、画像データを処理し、対象者の目の異常を示す1つまたは複数の症状を判定し、対応する出力データを生成するように構成され、動作可能なプロセッサユーティリティを含む電子デバイスであって、前記プロセッサユーティリティが、
対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を画像データの中で選択するように構成され、動作可能である第1のプロセッサであって、前記選択することが、顔の特徴に対応するピクセル値を示す第1の参照データを使用して画像を処理して、前記第1の参照データに従って画像内のピクセルを分類し、対象部位に関する異なるカテゴリのピクセルをグループ分けすることに基づいて前記画像内の対象部位についてのおおざっぱなデータを取得することを含む、第1のプロセッサと、
目の特徴の幾何学パラメータおよび位置パラメータのうちの1つまたは複数を決定するために選択された画像内の対象部位に画像処理アルゴリズムを適用するように構成され、動作可能な目の特徴検出ユーティリティであって、前記画像処理アルゴリズムを適用することが、目の特徴に対応するピクセル値を示す第2の参照データを使用して、前記第2の参照データに従って対象部位内のピクセルを分類し、少なくとも片目の特徴に関するピクセルを計数することによって目の特徴の幾何学パラメータおよび位置パラメータのうちの前記1つまたは複数の値を取得することを含む、目の特徴検出ユーティリティと、
前記1つまたは複数の幾何学パラメータおよび位置パラメータを処理し、分析し、対象者の目の症状を示すデータを生成するように構成され、動作可能な目の症状特定器ユーティリティとを含む、電子デバイスが、提供される。
本発明を理解し、本発明が実際にどのように実施され得るかを見るために、以降で、実施形態が、添付の図面を参照して、非限定的な例としてのみ説明される。
本発明による、異常な目の症状を検出するための電子デバイスの例のブロック図である。 どのようにして本発明のハンドヘルドデバイスがカメラユニットに関連するラップトップコンピュータに組み込まれるか、またはカメラユニット自体に組み込まれ、異常な目の症状を検出するために使用され得るかを示す図である。 本発明の装置が、デジタルカメラユニットを通常含む電話デバイスまたは特別に設計されたデジタルカメラにどのようにして組み込まれ得るのかを例示する図である。 本発明の装置が、デジタルカメラユニットを通常含む電話デバイスまたは特別に設計されたデジタルカメラにどのようにして組み込まれ得るのかを例示する図である。 どのようにして本発明が検眼鏡機器に組み込まれ、検眼鏡機器内で動作するように設計され得るのかを示す図である。 異常な目の症状を検出するための本発明の方法を例示する図である。 本発明による画像処理技術のより詳細な例を示す、画像処理方法の流れ図である。 本発明による画像処理技術のより詳細な例を示し、処理されている画像内で連続的に検出されたさまざまな特徴を示す図である。 本発明による画像処理技術のより詳細な例を示し、処理されている画像内で連続的に検出されたさまざまな特徴を示す図である。 本発明による画像処理技術のより詳細な例を示し、処理されている画像内で連続的に検出されたさまざまな特徴を示す図である。 本発明による画像処理技術のより詳細な例を示し、処理されている画像内で連続的に検出されたさまざまな特徴を示す図である。 本発明による画像処理技術のより詳細な例を示し、処理されている画像内で連続的に検出されたさまざまな特徴を示す図である。
上で示されたように、特に子供または乳児のさまざまな目の異常を特定することは、通常、極めて熟達した専門家を必要とする複雑な仕事である。ヒルシュベルク検査などの特定の種類の現在使用されている検査は、限られた目の症状を限られた正確性で見つけることしかできない。遮蔽検査およびブルックナー検査を含む追加のテストが、斜視などのこれらの症状の一部に関する「最も信頼できる基準(gold standard)」の検査であると考えられているが、これらは、特に乳児および非常に幼い子供に対して行われるとき、高度な技能および経験を必要とする。
本発明は、目の異常に関連する目の症状を簡単に全自動で特定することを可能にし、客観的で参照可能な検査結果をもたらす新規性のある技術を提供することによって上記の問題を解決する。本発明の技術は、入力画像データに応答してコンピュータに組み込まれたソフトウェアを介して、ハンドヘルドであるかまたはハンドヘルドではないコンピューティングデバイスによって実行される可能性がある。
図1は、異常な目の症状を検出するように構成され、動作可能な本発明の装置10をブロック図によって例示する。装置10は、画像データ240を受信し、処理するように構成され、その画像データ240に本発明の画像処理技術を適用するプロセッサユーティリティ100を含む制御ユニット(コンピューティングデバイス)として構成される。画像データは、対象部位を含む対象者の顔の少なくとも1枚の画像を含む。後者は、対象者の左目および右目のうちの少なくとも一方の所定の目の特徴、例えば、左の瞳孔および右の瞳孔、または左目および右目のうちの少なくとも一方に関する瞳孔およびプルキンエ像を含む。
図で例示されたように、装置10は、撮像装置200をその装置10の構造の一部として含む可能性があり、または外部の撮像装置に接続することができる可能性がある。本明細書において使用される用語「撮像装置」は、カメラユニット自体か、またはカメラユニットからの画像データが記憶されるストレージデバイスかのどちらかを指すことに留意されたい。ストレージデバイスは、本発明のプロセッサユーティリティと一体であるか、またはプロセッサユーティリティによってアクセス可能であるスタンドアロンデバイスかのどちらかである可能性がある。以下の説明においてはそのような撮像装置がカメラユニットと呼ばれるが、本発明の原理はこの特定の例に限定されず、撮像装置はストレージデバイスによって構成される可能性もあると解される。外部の撮像装置が使用される場合、画像データ240が、通信ネットワークによってプロセッサユーティリティに送信される可能性がある。
画像データ240は、単一の画像、または対象者の一連の静止画像を含む。本発明の一部の実施形態において、画像データは、所定の撮像条件に対応し、例えば、プルキンエ像のような目の部位の特徴を含む。この目的で、(1枚または複数枚の)画像は、フラッシュライトなどの点状の光源220からの光で対象者の顔を照らしている間に取得される。フラッシュ光源220は、カメラユニット200と一体であるか、または別のユニットである可能性がある。本発明の目的のために、画像の取得は、ユーザ/運用者が訓練された専門家であることを必要としない。本発明の画像処理技術を適用するために必要とされるのは、画像が適切な対象部位、すなわち、対象者の右目および左目のうちの少なくとも一方の像を含む部位を含むという条件である。一部の応用に関しては、以下でさらに説明されるように、対象部位は、対象者の左目と右目との両方の画像を含む必要がある。
プロセッサユーティリティ100は、異なる機能を実行するように構成され、動作可能ないくつかの処理モジュールを含む。第1のプロセッサモジュール、いわゆるプリプロセッサモジュール110は、画像データを受信し、処理し、対象部位を含む画像、すなわち、対象者の両目のうちの少なくとも一方の所定の目の特徴を含む画像を選択するように構成され、動作可能である。第2のプロセッサモジュールは、目の特徴、例えば、両方の目の瞳孔、または左目の部位および右目の部位のうちの一方の瞳孔およびプルキンエ像の幾何学パラメータ、位置パラメータ、および色に関連するパラメータのうちの1つまたは複数を含む目の特徴の1組の所定のパラメータ/症状を決定するために、選択された画像内の対象部位を処理する(つまり、対象部位に画像処理アルゴリズムを適用する)ように構成される目の特徴検出モジュール120である。別のプロセッサモジュールは、目の特徴の幾何学パラメータおよび/または位置パラメータおよび/または色パラメータを処理し、分析し、目の症状を示す出力データを生成するように構成され、動作可能な目の症状特定器130である。
図に示されるように、装置10は、(例えば、ネットワークを介して)外部のシステムと通信するための通信モジュール150と、ユーザインターフェースユーティリティ155と、分析結果および/または処理されるべき画像データ、ならびに前処理および目の特徴の検出のために使用される特定の参照データ(ルックアップテーブルパラメータ)を記憶するためのメモリユーティリティ160とをさらに含む可能性がある。装置は、画像自体を表示し、さらにおそらくは結果を視覚的に表示するためのスクリーンも含む可能性がある。入力データ(参照データおよび/または画像データ)は、外部のストレージシステムとのデバイスの通信によってアクセスされる可能性があり、分析結果は、外部ストレージシステムに送信される可能性があると解される。
本発明は、目の特徴検出モジュールによって実行され、任意の知られている好適なカメラユニットによって撮影された単一の画像に適用可能な画像処理技術を提供する。本発明は、目の特徴の検出が適用されるための妥当な画像の選択を可能にする効果的な前処理技術も提供する。前処理(画像内の目の部位の位置特定)および画像処理(目の特徴の検出)は、対象部位、すなわち、前処理を目的とする対象者の顔および画像処理を目的とする目の部位内の異なる特徴に関連するピクセル値(輝度/色)を示す特定の参照データの使用と、それぞれの部位内でのさらなるピクセルの分類および計数とに基づく。本発明のこれらの技術が、さらに、以下でより詳細に説明される。
上で示されたように、本発明の技術は、異常な目の症状を特定するための訓練された専門家の必要性をなくすか、または少なくとも大幅に減らす。本発明の装置(プロセッサユーティリティ)が、外部のカメラユニットに関連するラップトップのようなコンピュータデバイス、もしくはカメラユニット自体に(図2)、または内蔵カメラユニットを通常含むスマートフォンデバイスに(図3A〜図3B)、またはカメラユニットを備える検眼鏡にどのようにして組み込まれ得るのかを示す図2、図3A〜図3B、および図3Cが、参照される。運用者(ユーザ)は、カメラユニットを操作して、日常の素人の写真撮影と同様に、単純な普通の写真を撮ることだけを求められることに留意されたい。撮像装置は、本発明の目的では、ストレージデバイスである可能性もあると上で説明されているが、これらの非限定的な例は、カメラユニットによって構成された撮像装置を示すことに留意されたい。
図2に示されるように、乳児50の目の症状を特定するために、訓練された専門家である可能性があり、または訓練された専門家ではない可能性がある運用者が、カメラユニット200(プロ用のカメラである必要はない)をそのカメラユニット200の「フラッシュモード」で操作し、つまり、フラッシュライト220を利用して、好ましくは対象者の顔の中心に位置決めされ、ズームされる乳児の顔の部位55の1枚または複数枚の写真画像を撮影する。この目的で、画像は、カメラユニットのパラメータに従って決定される適切な距離uから取得される。距離uは、カメラユニットで使用されるレンズの焦点距離に応じて変わる可能性があり、標準的な市販のカメラユニットに関して、距離uは、25cmから300cmまでの間である。運用者が便利なように、距離が設定された距離であることは必須ではなく、一定範囲の距離が完全に許容されることに留意されたい。処理されるべき画像は、静止画像、またはビデオストリームを形成する一連の画像である可能性がある。しかし、本発明の目的では、適切な目の部位の単一の画像の処理だけで十分であり、実際には、単に、対象部位、すなわち、所望の目の特徴を含む部位の適切な表現を含む画像を選択するために、一連の画像を取得する能力が好ましいということに留意されたい。
カメラユニット200は、周囲の画像を取得し、対象者の1枚または複数枚の画像を含む、それらの周囲を示す画像データ240を生成するフレームグラバー(図示せず)を含む。この画像データ240は、オンラインで(リアルタイムで)またはオフラインで(後で)装置10に送信されるように、カメラユニット内またはカメラユニット外のメモリカードまたは任意のその他のメモリユーティリティに記憶される可能性がある。カメラユニットは、有線または無線通信を介して、またはSDカードなどを経由して画像データを転送することによってコンピュータデバイス10と通信することができる。コンピュータデバイス10に取り付けられる本発明のプロセッサユーティリティは、異常な目の症状を検出するための画像データを受信し、処理し、結果をコンピュータディスプレイ上に適切な形式で表示する。
本発明の装置10は、カメラユニット自体200に組み込まれる/取り付けられる可能性があると解される。この場合、パーソナルコンピュータは、まったく使用されない可能性があり、または結果を転送し、結果を表示するためにのみ使用される可能性がある。
図3Aおよび図3Bは、内蔵カメラユニット200およびフラッシュ光源220、例えば、LEDまたはキセノン光源を含み、本発明のプロセッサユーティリティ(図示せず)と、スマートフォンデバイスに通常含まれるメモリユーティリティおよび入力/出力インターフェース(例えば、タッチスクリーン)155とを取り付けられた、スマートフォンの形態のハンドヘルド電子デバイス10を示す。また、電話デバイスは、ワイヤレスネットワーク通信用に構成される可能性がある。図3Bに示されるように、処理されるべき画像、対象者の典型的な顔画像300が、スクリーンに表示される可能性がある。画像は、対象者の右目および/または左目のみを示す部分的な顔画像である可能性がある。また、対象部位(目の特徴)は、プロセッサによって特定されると、表示される画像上で印を付けられる可能性があり、これらの対象部位は、右目および左目の右および左の瞳孔310およびプルキンエ320(フラッシュライトの反射)のような目の特徴である可能性がある。
図3Cは、本発明の電子デバイスとして構成される検眼鏡デバイス10を示す。概して、検眼鏡デバイス10は、ハンドル部80および検査ヘッド82を有し、上述のように構成されたカメラユニット200、フラッシュ光源220、およびプロセッサユーティリティ100をさらに含む。カメラユニット200および光源220は、検査ヘッド82の部分に置かれ、一方、プロセッサは、部分80および82のうちのどちらか一方に置かれる可能性があり、またはプロセッサのモジュールは、両方の部分に分散される可能性がある。詳細に示されていないが、ディスプレイが、部分80および82のどちらか一方にさらに設けられる可能性があり、また、適切なデータ通信ユーティリティが、参照データにアクセスし、および/または結果を転送するために外部のデバイスと通信するために使用される可能性があることに留意されたい。
したがって、本発明の装置(すなわち、プロセッサユーティリティ、およびおそらくは所定の参照データを記憶しているそのプロセッサユーティリティに関連するメモリ)は、コンピュータソフトウェアアプリケーション、例えば、スマートフォンアプリケーションの形態でハンドヘルド(または可搬型)コンピューティングデバイスに組み込まれ得る。プロセッサユーティリティは、ユーザによって有効化されると、フラッシュライトを利用して対象者の顔の画像を撮影するようにユーザに指示を与え、画像が対象部位を含まないことを検出すると、適切な画像が与えられるまで別の画像を撮影するようにユーザに要求し、次いで、それぞれの画像データを処理し、結果を出力するように構成される可能性がある。プロセッサユーティリティは、画像が対象部位を含むかどうかをオンザフライ(on-the-fly)で判定するように構成される可能性がある。つまり、プロセッサユーティリティは、ユーザがシャッターを切って画像を撮影する前に、ファインダの画像に現在示されている画像が適切な画像を表すか否かを判定するように構成される可能性がある。概して、ファインダの画像は、デジタルカメラにおいてユーザに対して表示され、ユーザは、ファインダの画像が適切な画像であると処理ユーティリティが判定し、このことをユーザに示すまでカメラを位置決めする可能性がある。そのとき、ユーザが、画像を撮影する可能性があり、または画像が、その時点でデバイスによって自動的に撮影される可能性がある。
プロセッサユーティリティ(図1の100)によって実行される本発明の方法の例を示す図4が、参照される。
最初に、対象者の顔の異なる特徴に関連するピクセル値(輝度/色)を示す第1の参照データRD1と、対象者の目の部位の異なる特徴に関連するピクセル値(輝度/色)を示す第2の参照データRD2とを含む特定の参照データ(またはルックアップテーブル)が、与えられる(ステップ400)。例えば、参照データは、さまざまな肌の種類(色)に典型的な主な色の値(RGB値)に関する範囲と、強膜のピクセルに典型的なRGBの範囲、瞳孔の範囲に関連するピクセルに典型的な色の範囲などを含む可能性がある。参照データは、さまざまなテスト画像に基づいて事前に生成された参照データであり、生成されると、実際の検査で使用するために記憶されると解される。
入力画像データが、プロセッサユーティリティによって受信され(ステップ402)、プロセッサユーティリティが、対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を画像データの中で選択する、つまり、この画像データが、左目(LE)の部位および右目(RE)の部位のうちの少なくとも一方を適切に示す画像、またはほとんどの応用に関しては、左目の部位と右目の部位との両方を示す画像を含むかどうかを特定するための前処理手順を実行する(ステップ404)ようにそのプロセッサユーティリティのモジュール110を動作させる。この文脈においては、次のこと、すなわち、以下でさらに説明されるように、ほとんどの応用は、同じ画像内に示された対象者の両目の分析を必要とするが、1つの選択された目の部位を別々に分析すれば十分であるいくつかの応用が存在することに留意されたい。以下の例において、我々は、対象者の適切な画像を、左目の部位と右目の部位との両方の適切な表現を含む画像と見なすが、本発明はこの特定の例に限定されず、本発明の普遍的な原理が、一方の目だけが適切に撮像されるべきである医学的応用、およびさまざまなその他の異常に対して効果的に使用され得ると解される。
入力画像データは、単一の画像を含む可能性があり、その場合、プリプロセッサモジュールが、この画像を分析し、この画像が対象部位(適切なLEの部位およびREの部位)を含まない場合、別の画像の(ユーザ、撮像装置、またはストレージデバイスに対する)要求データを生成する。代替的に、画像データは、複数の画像を含む可能性があり、その場合、プリプロセッサモジュールが、これらの画像を分析し、さらなる処理のための「妥当な」画像を選択する。上で示されたように、(一部の医学的応用、例えば、斜視の検出に関する)一部の実施形態においては、適切なLE部位およびRE部位は、それぞれの部位が瞳孔の範囲およびプルキンエ像を含むLE部位およびRE部位である。
前処理手順は、対象部位(適切なLEの部位およびREの部位)の位置を特定し、例えば、画像内でそれらの部位に印を付けるか、またはこれらの部位だけを含む顔の一部の別の画像を生成することによって対象部位を示すデータを生成する(ステップ406)ことを目的とする。この目的で、本発明によれば、プリプロセッサモジュールは、第1の参照データ(顔に関連する特徴)に従って画像内のピクセルを分類し、対象部位に関する異なるカテゴリのピクセルをグループ分けすることによってLEの部位およびREの部位の位置に関するおおざっぱなデータを得るために対応する参照データ(第1の参照データRD1)を利用する。これは、さらに、以下でより詳細に説明される。
次いで、特定の目の症状を特定するために必要とされる目の特徴の検出を目的とする画像処理手順が、選択された画像内の選択された(おおざっぱに位置を特定された)対象部位に適用される(ステップ408)。この検査の結果、画像内のすべての必要とされる目の特徴の存在が検出される場合、方法は、目の症状の特定に進むことができると解される。
この画像処理手順408は、2つの段階を有し、つまり、第1の段階(ステップ410)は、さらに以下でより詳細に説明されるようにピクセルの分類および計数を行うことによって所望の目の特徴(例えば、LEの部位およびREの部位のそれぞれに関する瞳孔および/またはプルキンエ像)に関する1組の所定のパラメータの中のパラメータのおおざっぱな値を取得するために対応する参照データ(第2の参照データRD2)を利用する。斜視の症状の検出を考えてみると、これらのパラメータは、瞳孔のおおざっぱな中心およびおおざっぱなサイズを含む可能性がある。画像処理の第1の段階の結果、これらの目の特徴が検出される場合、プロセスは第2の段階に進み、検出されない場合は、画像が別の画像で置き換えられる必要がある。画像処理手順の第2の段階(ステップ412)は、前記パラメータ、例えば、プルキンエ像の中心および半径に関する正確な値を決定することを目的とする。一部の実施形態において、システムは、一部の目の症状を検出するために1組の所定のパラメータの中の1つまたは複数のパラメータに関するおおざっぱなデータを利用することができることに留意されたい。
光源(典型的にはフラッシュライト)の反射であるプルキンエ像は、比較的明るく、カメラユニット(またはカメラユニット付近)から対象者の目への大体の方向を示す目の中の基準点として使用され得ることに留意されたい。プルキンエ像に対する瞳孔の位置は、対象者のそれぞれの目が見ている方向(視線)を示し、両目の間のこの特徴の差は、目の斜視の症状を示す可能性がある。
目の特徴に関する正確な値を決定するために、プロセッサユーティリティ(目の特徴検出モジュール)は、目の部位内のピクセルを分類し直し、このデータを処理し、分析するために動作する。より詳細には、本発明の非限定的な例においては、ピクセルの相対的な明るさが、プルキンエ像の中心および半径に関する正確なパラメータ値を決定するために使用され、次いで、この画像データは、画像からプルキンエ像を「削除する」(プルキンエ像のピクセルをその他のピクセルで置き換える)ために処理される。この手順は、さらに、以下でより詳細に説明される。目の特徴のそのように取得されたパラメータ(例えば、中心、瞳孔の大きさ、瞳孔の平均的色)についての厳密なデータが、目の症状(例えば、斜視)を判定するために使用される - ステップ414。
したがって、再び図1に目を向けると、プリプロセッサモジュール110は、入力画像データ240を処理して、適切な画像を(所望の目の特徴を含む)対象部位の像を含む画像として選択し、前記対象部位の位置を特定するように構成され、動作可能であり、一方、目の特徴検出モジュール120は、対象部位内の適切な目の特徴を特定し、その位置を特定するように構成され、動作可能である。所望の目の特徴は、左目の部位および右目の部位のうちの少なくとも一方の瞳孔およびプルキンエ像のうちの少なくとも一方を含む。検出されるべき目の特徴に関する1組の所定のパラメータは、特定の応用によって定義される。例えば、瞳孔およびプルキンエ像の幾何学パラメータおよび/または位置パラメータが、斜視を検出するために使用される可能性があり、プルキンエ像に関連するパラメータが、不同視の症状を検出するために使用される可能性があり、瞳孔に関連するパラメータが、網膜芽細胞腫および白内障の症状を検出するために使用される可能性がある。目の症状特定器130は、所望の目の特徴の検出された1組の所定のパラメータの少なくとも一部を示すデータを分析し、もしあれば、異常な症状を示すデータを生成する。
上で示されたように、本発明の一部の実施形態においては、目の特徴の検出は、それぞれの目に関してプルキンエ像の中心および瞳孔の中心の位置を特定するように働く。一部の実施形態において、目の特徴検出モジュールは、瞳孔およびプルキンエ像の半径も決定する可能性がある。ピクセル単位の形式の決定されたパラメータは、目の症状特定器モジュール130によって受信され、処理される。このモジュールは、目の特徴のパラメータの間の関連を決定し、特定の所定のモデルに基づいてこの関連を分析するように構成され、動作可能である。例えば、左目の部位の目の特徴のパラメータが、右目の部位の同様の特徴のパラメータと比較される。例えば、目の特徴のパラメータの間のそのような関連は、対象者の右目と左目との間の目の特徴の対称性の度合いである可能性がある。目の間に対称性がないことは、さまざまな異常な目の症状の存在を示す可能性がある。対称性の状態は、右目および左目に関するプルキンエ像に対する瞳孔の位置を分析することによって判定され得る。また、一部の応用に関しては、瞳孔の物理的な寸法、左目および右目のプルキンエ像の物理的な寸法、ならびに瞳孔かまたはプルキンエ像かのどちらかの色などの、目の間の追加的な対称性に関連するパラメータが決定される。
概して、本発明の技術によって決定され得る1組の所定のパラメータは、以下、すなわち、一方または両方の目のプルキンエ像の中心、一方または両方の目の瞳孔の中心、一方または両方の目の部位のプルキンエ像の寸法(半径)、一方または両方の目の部位の瞳孔の寸法(半径)、一方または両方の目の部位のプルキンエ像に関連するピクセルの平均RGB値、一方または両方の目の部位の瞳孔に関連するピクセルの平均RGB値のうちの1つまたは複数を含む。次いで、これらのパラメータのうちの1つまたは複数、例えば、それぞれの目の瞳孔の半径が、左目の部位および/または右目の部位内の目の特徴の間の関連を決定し、対象者の目の異常な目の症状を特定するために目の症状特定器によって使用される。対称性の状態を判定するために、右の瞳孔の中心から右のプルキンエ像までの距離と、左の瞳孔の中心と左のプルキンエ像との間の距離との間の関連(差)が決定される可能性がある。この関連は、ベクトルの差として計算される、つまり、横軸および縦軸に沿って別々に計算されることが好ましい。
以下は、対象者の目の特徴を示すデータが目の症状のさまざまな異常を特定するためにどのように扱われ得るのかのいくつかの例である。
例えば、斜視の症状は、右目のプルキンエ像の中心および瞳孔の中心の左目のプルキンエ像の中心および瞳孔の中心に対する相対位置の間の関連(差)を決定し、この関連が完全な対称性の状態から異常と見なされるほど大きく逸脱している(所定の閾値を超えている)かどうかを特定することによって検出され得る。より詳細には、左目の部位および右目の部位のこれらの位置の間の差が決定され、この差と、(ピクセル単位で計算される)左目の瞳孔の中心と右目の瞳孔の中心との間の距離Dとの間の関連が考慮される。概して、そのような差がD/200を超える場合、逸脱が大きいと見なされ、これは斜視を示すと考えられる。
代替的にまたは追加的に、左目の部位および/または右目の部位の目の特徴が、それぞれの目に関して斜視の症状を判定するために別々に(独立して)分析される可能性がある。より詳細には、瞳孔の中心とプルキンエ像の中心との間の距離の絶対値が、X軸(すなわち、左の瞳孔の中心と右の瞳孔の中心との間の線によって定義される軸)および/またはY軸に沿って左目の部位または右目の部位に関して計算される。そのような距離が左目の瞳孔の中心と右目の瞳孔の中心との間の距離Dに関する所定の条件を満たさない場合、このことは、それぞれの目の斜視を示すと見なされる。所定の条件は、X軸かまたはY軸かのどちらかに沿って計測される瞳孔の中心とプルキンエ像の中心との間の距離と、左目の瞳孔の中心と右目の瞳孔の中心との間の距離Dの絶対値との間の関連を定義する。X軸の距離の計算を考えると、目の部位の瞳孔の中心とプルキンエ像の中心との間の距離がD/80を超える場合、またはY軸の計算を考えると、目の部位の瞳孔の中心とプルキンエ像の中心との間の距離がD/200を超える場合、それぞれの目は、斜視であると考えられる。
不同視の症状は、左目の部位および右目の部位のプルキンエ像の半径RlおよびRrのような目の特徴を判定することによって検出され得る。これらの半径RlおよびRrの値の間の関連が所定の条件、例えば、Rl>1.25RrまたはRr>1.25Rlを満たさない場合、そのことは、不同視の症状に対応すると見なされる。代替的にまたは追加的に、不同視の症状は、左目および右目のプルキンエ像内の明るいピクセルの平均RGB値のような目の特徴をそれぞれ判定し、分析することによって特定される可能性がある。典型的なRGBカラースケールは、赤(R)色、緑(G)色、および青(B)色のそれぞれについて8ビット、つまり、各色について0から255までのスケールを利用する。異なる目の間のこれらの値の間の関連が所定の条件を満たさない場合、不同視が存在すると仮定する。そのような種類の異常を示す典型的な関連は、R色の(左目の値と右目の値との間の)平均値のうちの一方が他方よりも少なくとも10だけ明るい、および/またはG色の平均値のうちの一方が他方よりも少なくとも8だけ明るい、および/またはB色の平均値のうちの一方が他方よりも少なくとも8だけ明るい点にある。一方の目の平均R、G、およびB値のうちの1つが他方の目の対応する値よりも少なくとも18だけ明るい場合、このことは、不同視およびさらにその他のよりまれな目の病変を示す可能性がある。本発明の技術は、RGBカラースケールまたは任意の特定のカラースケールに限定されず、色およびスケールの閾値は、特定の応用、および画像データの処理で使用されるモデルに従って変わり得ると解される。
左目の部位および右目の部位内の瞳孔の半径に関して、これらの目の特徴の間の関連は、瞳孔不同症のような異常を示す可能性がある。より詳細には、左目および右目の瞳孔の半径の値が大きく異なる、例えば、一方が他方の1.4倍を超える場合、このことは、異常であり、瞳孔不同症の症状に対応すると見なされる。
したがって、上記の症状のうちの任意の1つまたは複数が特定される場合、システムは、対応する結果を出力し、おそらくはさらに、資格を持った開業医によるさらなる検査を行うことを推奨する。上記の症状のうちの任意の1つまたは複数が特定されない場合、システムは、目が正常であることを示す結果を出力し、さらなる検査はまったく必要とされない。したがって、システムは、そのような症状が検出される場合、潜在的な目の症状に関するコメント付きの合/否(Pass/Fail)結果を出力する可能性がある。
本発明の技術のより詳細な、ただし非限定的な例を示す図5Aから図5Fが、参照される。図5Aは、対象者の目のさまざまな異常を検出するための、図1に示された装置と同様のデバイスによって実行されるプロセスの流れ図を示す。カメラユニットまたはストレージデバイス(概して、撮像装置)、およびメモリユーティリティは、装置10と一体である可能性があり、または一体ではない可能性があることにやはり留意されたい。図5Bから図5Fは、処理技術の連続的な段階の間に特定された目の特徴を概略的に示す。図5Aから図5Fの例においては、画像内の左目の部位と右目の部位との両方の同時の比較分析が利用されるが、上述のように、これは必須ではないことに留意されたい。
プロセッサユーティリティは、画像データ(例えば、図5Bにおいて500と表される単一の画像)を受信し、顔の特徴に関連する参照データを利用して画像の右目の部位および左目の部位の適切な表現を特定する前処理手順を実行する(ステップ1210)。両方の目の部位が正常に検出される場合(ステップ1212)、処理手順は、目の特徴に関連する参照データに基づくこれらの部位の画像処理に進む。しかし、右目の部位および/または左目の部位の適切な画像が検出されない場合(ステップ1214)、プリプロセッサユーティリティは、対応する通知メッセージを生成し(ステップ1228)、適切な目の部位が画像内で検出されるまで、連続する画像に対してステップ1210、1212、1214を繰り返す。
この例において、前処理モジュールは、対象部位(目の部位)を含む画像を選択するために以下のようにして動作する。前処理モジュールは、さまざまな種類の肌に典型的なピクセルの色、強膜のピクセルに典型的なRGBの範囲、瞳孔のピクセルに典型的な色の範囲などの顔の特徴に関連する参照データを利用する。例えば、それぞれ約200、150、120のRGB値は、肌の白い人の顔の色に典型的である可能性があり、一方、約170、120、80のRGB値は、色の黒い人に典型的である。強膜のピクセルは、約200、210、205のRGB値を有する可能性があり、一方、瞳孔のピクセルは、約30、18、13のRGB値を有する可能性がある。そのような参照データは、特定の条件、例えば、「フラッシュ」モードで撮影される通常の撮影条件の下で撮影された数千枚の写真の大規模なデータベースから取得され、または概して、参照データは、実際の検査で使用される条件と同様の条件の下で撮影された画像に基づく。この目的で、プリプロセッサモジュールは、画像を垂直中心線で2つに分け、それぞれ半分を別々に処理して適切な右目の部位または左目の部位のそれぞれを検出するように動作し得る。
受信された画像のピクセルは、参照データから得られた上記の知られているRGB値を使用して、「肌のピクセル」(カテゴリA)、「強膜のピクセル」(カテゴリB)、「瞳孔のピクセル」(カテゴリC)、および「その他」(カテゴリD)などのさまざまな顔の特徴を表すピクセルのグループに分類される。この分類はおおざっぱなものであり、例えば、肌のぬれた部分のピクセルは、そのような肌は輝いているので強膜に関連するピクセルとして誤って分類される可能性がある。
このおおざっぱな分類は、画像がさらなる処理のために許容され得るかどうかの検査として使用される。画像のどちらか半分において、肌に関連するピクセルの数が所定の閾値(概して、画像の半分のピクセルの数の1/3)を下回るか、または強膜に関連するピクセルの数が特定の閾値(概して、それぞれ、画像の半分のピクセルの数の1/500および1/10000)を超えるもしくは下回るか、または瞳孔に関連するピクセルの数が対応する閾値(概して、それぞれ、画像の半分のピクセルの数の1/100および1/10000)を超えるもしくは下回る場合、画像は、許容できないと見なされる。したがって、対応する通知が生成され(例えば、運用者に対して表示され)、別の画像に移るかまたは撮像装置から別の画像を取得するように運用者かまたはプログラムかのどちらかに指示する。
ピクセルの分類は、異なる部類のピクセルの相対位置に基づいて検証される可能性がある。より詳細には、瞳孔に関連する、およびおそらくはさらに虹彩に関連すると分類されたピクセルは、強膜として分類されたピクセルの近傍にあるはずである。
対象部位(目の部位)のおおざっぱな位置が、目の部位の異なる部分/特徴、すなわち、図5Cにおいて502および504と表される瞳孔および強膜の範囲に関連するすべての近隣のピクセルをNピクセルを含むグループにグループ分けし、計数することによって決定される。ピクセルのこのグループの重み付けされた中心(weighted center)が計算され、長方形506がそのように得られた中心の周りに描かれ、長方形は、その長方形の高さの4倍の幅を有し、ピクセルの数Nの4倍であるエリアを包含する。
ピクセルは、目の部位内の異なる特徴のピクセルのRGB値に基づいて上述の分類技術を使用して長方形506内で分類し直されることが好ましい。より詳細には、典型的な目の部位には、約200、200、200のRGB値の強膜に関連するピクセルと、約30、15、15のRGB値のまつげまたは瞳孔に関連するピクセルとが存在することを考慮して、それぞれの目の部位において、ピクセルのRGB値によるピクセルの計数が行われる。これらの値および以下で言及される同様の値は、参照データの非限定的な例であると解される。
また、本発明または本発明の少なくとも一部の実施形態の目的のために、正常/適切であるものとして選択されるべき目の部位(ステップ1212)は、プルキンエ像508を含む。この目的で、最も明るいピクセルが、それぞれの長方形(目の部位)内で、色の変化に対する限られた許容範囲内で(例えば、254、252、250のRGB値を中心として許容範囲±4のピクセル)、プルキンエ像、すなわち、フラッシュの反射を定義するものとして特定される。
上で示されたように、適切な目の部位を特定し、その位置を特定すると、プロセッサユーティリティは、目の特徴の1組の所定のパラメータのうちの1つまたは複数のパラメータを決定するために、目の特徴に関連する参照データに基づく実際の画像処理に進む - 1220。プルキンエ像の検出を必要とする実施形態を考えると、プロセッサユーティリティは、プルキンエ像508に関連するM個の選択された(最も明るい)ピクセルを計数するように動作し、プルキンエ像のおおざっぱな中心と見なされるべきプルキンエ像の重み付けされた中心を計算する。そして、(プルキンエ像を包含するのに十分なだけ大きい)プルキンエ像のおおざっぱな半径が、プルキンエ像のピクセルの数Mの平方根として決定され、半径のサイズの2倍のサイズを有する境界正方形部位(bounding square region)510が定義される。
プルキンエ像の中心および半径のパラメータのこれらのおおざっぱな値は、より正確な値にたどり着くために以下のように使用される。正方形510内で、ピクセルは、プルキンエ像のピクセル(カテゴリPA)、プルキンエ境界ピクセル(Purkinje boundary pixel)(カテゴリPB、概して、非常に明るい値と非常に暗い値との中間の値を有する)、およびその他のピクセル(カテゴリPC)の典型的な値についての対応する参照データに従って分類し直される。より精密な重み付けされたプルキンエ像の中心512が、プルキンエ境界ピクセルの明るさをそれらのピクセルの重みとして使用することによって計算される。重み付けされた中心を計算するとき、明るいピクセル(カテゴリPA)は1ピクセルと見なされ、中間のピクセル(カテゴリPB)はそのピクセルがどれだけ明るいかに比例して1ピクセル未満と見なされる。したがって、完全に明るいピクセルと完全に暗いピクセルとの間の真ん中のピクセルは、半ピクセルと見なされる。ピクセル単位の新たに計算された中心は、整数である可能性があり、または整数ではない可能性がある。同様に、(完全な明るさに比例する)明るさによるプルキンエ像のピクセルの分類は、プルキンエ像の正確な半径を決定するために使用される。この半径Rpは、プルキンエ像のピクセルの数をπで割った数の平方根として決定され、ピクセル単位のプルキンエ像の半径は、非整数値である可能性がある。
次に、長方形部位506内で、それぞれの目の瞳孔の範囲の中心の位置が特定される。この目的で、プルキンエ像が長方形506から削除される。したがって、プロセッサは、長方形部位506のコピーを作成し、その画像を処理してその画像からプルキンエの範囲を削除し、それぞれのピクセルを瞳孔に関連するピクセルによって置き換えるように動作することができる。プルキンエ像によって包含されるエリアに関連するピクセルは、近くのその他の目の部位のピクセルの加重平均であるRGB値を今や割り当てられ、つまり、「消去される」ピクセルのそれぞれは、プルキンエ像の外側の最も近いピクセルのRGB値を割り当てられ、その結果、プルキンエ像は瞳孔の範囲502および虹彩の範囲514によっておおざっぱに置き換えられる。そのような目の部位506'(つまり、削除されたプルキンエの範囲508を有する)内のピクセルは、対応する参照データを利用して、上で示されたように、瞳孔502、虹彩514、強膜504、および(肌、まつげなどを含む)その他に対応するものとして分類し直される。
より詳細には、目の部位の暗いピクセルは、約12、12、12のRGB値を中心とするRGB値のそれぞれで±8の許容範囲で瞳孔に関連するピクセルとして分類され、K個のこれらのピクセルが決定される。次に、これらの暗いピクセルの重み付けされた中心が決定され、瞳孔のおおざっぱな中心と見なされ、瞳孔の範囲を包含するのに十分なだけ大きい瞳孔のおおざっぱな半径が、瞳孔に関連するピクセルの数Kの平方根として決定され、1辺が半径の2倍の長さである正方形が、さらなる分析のために使用される。後者は、瞳孔の中心および半径の正確な値を決定することを目的としており、ピクセルの再分類および計数を含む。この再分類は、「瞳孔のピクセル」(通常は非常に暗い)、「瞳孔の境界のピクセル」(通常はわずかにより明るい値を有する)、および「その他のピクセル」にピクセルを分けることを含む。重み付けされた中心は、この分類を使用して計算され、瞳孔の境界のピクセルはそれらのピクセルの暗さに比例する重みを与えられる。結果は、(ピクセル単位で整数である可能性があり、または整数ではない可能性がある)それぞれの目の瞳孔の正確な中心と見なされる。瞳孔の正確な半径は、瞳孔のピクセルおよび瞳孔の境界のピクセルの分類に基づいて計算される。瞳孔の半径は、瞳孔のピクセルの数をπで割った数の平方根として計算される。同様に、ピクセル単位の半径の値は、整数ではない可能性がある。
上で示されたように、目の特徴の検出段階1220の間に、必要とされる特徴のうちの1つまたは複数が適切に決定され得ない場合(ステップ1224)、別の画像データを要求する適切な通知が生成され(ステップ1228)、すべての必要とされる特徴が正常に決定される(ステップ1222)まで目の特徴の検出段階が繰り返される。プロセッサユーティリティは、特徴検出手順の失敗の回数が所定の閾値に達することを検出すると手順全体を停止するように構成される可能性があることに留意されたい。この場合、システムは、システムに与えられた画像データに対して分析が実行され得ないことを明示する、運用者への失敗の通知を生成する。
検出された目の特徴を示すデータが、目の1つまたは複数の異常、例えば、斜視の症状の存在およびおそらくはさらに度合いを決定するために目の症状特定器モジュールによって処理される(ステップ1226)。図4を参照して上で説明されたように、この手順は、計算された目の特徴のパラメータの間の1つもしくは複数の関連、および/または目の特徴のパラメータと、左目の瞳孔と右目の瞳孔との間の距離との間の関連などの決定を含む。一部の実施形態によれば、上述の異常の他に2つ以上の異常が検出される可能性がある(ステップ1230)。目の症状特定器モジュールは、目の特徴が正常な目の状態に対応することを特定し(ステップ1234)、適切な通知を生成する(ステップ1238)ことができる。何らかの異常な目の症状が検出される場合(ステップ1232)、システムは、発見された目の症状に関連する特定の詳細を含むことが好ましい対応する通知を生成する(ステップ1236)。
本明細書において開示される方法および装置は、通常は一方または両方の目および顔のかなりの部分を含む対象者のデジタル写真を主に扱う。これらのデジタル写真が、一方または両方の目のほとんどと、それぞれの目の光 - 通常はカメラのフラッシュ - の反射(プルキンエ像)との像をはっきり示すことが望ましい。本明細書において開示される方法および装置によって実行される分析は、デジタル写真がピントが合っており、十分に照明が当たっている場合、より容易に行われる。
ほとんどのユーザにとって、デジタルカメラはほとんどの大人が有している非常に基本的な写真撮影の技能に依拠するので、デジタルカメラによって写真を撮影することは難しくない。しかし、写真が本明細書において開示された方法および装置の簡単な処理を容易にするためのすべての基準を満たすという確認は、ユーザによって容易に判定されない。さらに、そのような基準は、ユーザによって迅速に、容易に決定されない。このことは、特に、対象者が子供または乳児であるときに当てはまり、したがって、子供または乳児が処置に我慢できなくなる前に、写真を迅速に確認して、追加の写真が必要とされるかどうかを判定することが重要である。
再び上述の前処理手順に戻ると、画像の確認が、撮影されたばかりの写真に関する迅速なフィードバックをユーザに与えるために使用され得る。このことは、ユーザが、撮影された画像が分析に適するかどうかをほとんど瞬間的に知り、適さない場合に、代わりの画像を撮影するように要求された後で代わりの画像を撮影することを可能にする。これは、知られているシステムにおいては、ユーザが、画像が好適であるか否かを示されず、したがって、確信を持つために、1つが好適であることを期待して多数の画像を撮影することになるので、ユーザが撮影する必要がある可能性がある画像の数を削減する。その場合にも、多数の画像の中で、基準を満たす1枚の画像が撮影されているとは限らず、そのことは、適正でない検査をする結果となり、代わりの画像がその後いつか撮影されることを必要とする。
加えて、確認が、画像がユーザによって撮影される前にファインダの画像に関するフィードバックをユーザに与えるために使用される可能性がある。写真またはファインダの画像が確認に合格する場合、その写真またはファインダの画像は、上述の分析に向いていると判定され得る。そうでない場合、ユーザは、別の写真が必要とされ、またはファインダの画像が画像処理のために許容され得ず、それはなぜなのかを説明するフィードバックを与えられる可能性がある。
前処理が撮影された写真に関わる場合、フィードバックは、代わりの画像を撮影するようにユーザに指示する、デバイスのスクリーン上に表示されるポップアップボックスを含む可能性がある。前処理がファインダの画像に関わる場合、フィードバックは、現在のファインダの画像が好適でないとの指示を含む可能性がある。指示は、ファインダの画像が好適であるとき、画像を撮影するようにユーザに指示するように変わる可能性がある。指示は、例えば、ファインダの画像が好適ではないとき赤いライトであり、ファインダの画像が好適であるとき緑のライトである可能性がある。
したがって、確認プロセスは、「成功」、つまり、撮影された写真もしくはファインダの画像が分析に適することか、または以下のうちの1つもしくは複数である可能性がある「失敗」かのどちらかを示すコードを出力するように構成される。
「失敗 - 両目がない」。この出力は、後で分析するために両目が必要とされ、前処理手順が両目が存在しないと判定する場合に、本明細書において開示された方法および装置によって生成される。この出力は、両目が写真内に見られないことを説明するメッセージによってユーザに与えられる可能性がある。
「失敗 - ピントずれ」。この出力は、撮影された写真またはファインダの画像のピントが後で画像を分析するために必要とされる閾値未満であると前処理手順が判定する場合、本明細書において開示された方法および装置によって生成される。この出力は、ユーザが次の写真のピントが合っていることを確かめるべきであることを説明するメッセージによってユーザに与えられる可能性がある。
「失敗 - 顔が小さ過ぎる」。この出力は、対象者の顔のサイズが後で画像を分析するために必要とされる閾値未満であると前処理手順が判定する場合、本明細書において開示された方法および装置によって生成される。この出力は、カメラユニットを対象者のより近くに動かすか、またはさらにズームするようにユーザに指示するメッセージによってユーザに与えられる可能性がある。
「失敗 - 顔が傾いている」。この出力は、対象者の顔がカメラユニットを真っ直ぐ見ておらず、カメラユニットに対して角度が付いていると前処理手順が判定する場合、本明細書において開示された方法および装置によって生成される。この出力は、次の写真またはファインダの画像で対象者の顔が傾いておらず真っ直ぐであるべきであることを説明するメッセージによってユーザに与えられる可能性がある。
確認は、例示的であり、両目を必要とする分析のためのプロセスを示す以下の意思決定プロセスを使用して実行される。
・確認中に目が見つからない場合、分析は停止し、確認プロセスが「失敗 - 両目がない」のコードを出力する。
・確認中に一方の目のみが発見される場合、分析は停止し、確認プロセスが「失敗 - 両目がない」のコードを出力する。
・確認中に3つ以上の目が発見される場合、分析は停止し、確認プロセスが「失敗 - 両目がない」のコードを出力する。これは、例えば、2人の人物がそれらの人物の顔が互いに近い状態で写真に写っている場合に起こる可能性がある。
・確認中に、見つかった目が所定の最小の閾値のサイズ未満である場合、分析は停止し、確認プロセスが「失敗 - 顔が小さ過ぎる」のコードを出力する。これは、例えば、カメラユニットが対象者から離れ過ぎている場合に起こる可能性がある。
・確認中に、目が閾値よりも大きな相対的な垂直な配置の差を有することが分かる場合、分析は停止され、確認プロセスが「失敗 - 顔が傾いている」のコードを出力する。相対的な垂直な配置の差は、画像の水平軸に対する目の間に引かれた線の角度によって決定され得る。閾値は、例えば、20度から40度までの範囲内にある可能性がある。特定の例において、閾値は30度である可能性がある。これは、例えば、対象者の顔が斜めに保たれている場合、またはユーザが写真を撮影するときにカメラを十分に真っ直ぐに保つことができない場合に起こる可能性がある。
・確認中に、どちらかの目の光の反射のサイズが所定の閾値の最大サイズを超える場合、分析は停止され、確認プロセスが「失敗 - ピントずれ」のコードを出力する。目の瞳孔の間の距離がdで与えられる場合、閾値の最大サイズは、d/75からd/85までの範囲内である可能性がある。1つの特定の例において、閾値の最大サイズは、d/80である可能性がある。これは、概して、写真のピントが幾分ずれているときに、反射が小さくはっきりした円からずっと大きくぼやけた区画に変わることが原因である。
・確認がいずれかのその他の段階で失敗する場合、分析は停止され、確認プロセスが「失敗 - 両目がない」のコードを出力する。
正常な対象者、すなわち、目の異常のない対象者が一部の写真で斜視であるかのように見える可能性があることがあり得る。これは、上述の対象者の画像の分析が対称性に基づいており、対称性が対象者が真っ直ぐ前を向き、カメラに注目しようとすることに依拠するためである。写真が撮影される前に対象者の目線がそれる場合、対象者は、斜視でないときに斜視であるように見える可能性がある。
これを克服するために、対象者を合格とするため、例えば、対象者が斜視ではないと判定するために1枚の画像に関する単一の「合格」の指示のみが必要とされるが、装置が対象者に関して「不合格」を返す、例えば、対象者が斜視であると判定するためには別々の画像に関する複数の「不合格」の指示が必要とされるように分析が拡張される可能性がある。これは、以下に与えられる例示的な方法のように実施され得る。
・目の症状特定器モジュールによる分析が画像(または写真)が(例えば、斜視を呈していない)正常な目を示すと判定する場合、画像は、合格とされ、対象者もまた合格とされる。ユーザへの出力は、いかなるさらなるアクションも必要とされないことをユーザに指示する。
・そうでない場合、システムは、特定の対象者に対する不合格の数に対応する数をインクリメントする。対象者が斜視であるかどうかを判定する場合、数は、対象者の「斜視に見える」画像の数を表す。この数が閾値の数未満である限り、装置は、別の画像が撮影されるべきであることをユーザに示すように構成される。閾値は、2から5までの範囲内にある可能性があり、特定の例においては3である可能性がある。
・装置は、分析がいずれかの画像を合格と判定するときにはいつでも対象者を合格とするように構成される。
・装置は、対象者に関する不合格の数が閾値に達する場合、対象者を不合格とするように構成される。
したがって、対象者は、1つの写真のみで正常であると見なされる可能性があるが、斜視の対象者 - 概して、対象者のうちのごく少数である - は、対象者がさらなる検査を必要とする可能性があると装置が正確に判定する前に、撮影された3枚の画像を有する必要がある。
したがって、本発明は、対象者の目の症状のさまざまな以上、例えば、斜視の全自動で簡単で効果的な検出のための新規性のある技術を提供する。本発明は、画像データを受信するために接続可能であるか、または画像データを生成するためのカメラユニットと一体である任意のコンピューティングシステム/電子デバイスで動作するコンピュータに組み込まれたソフトウェアとして利用され得る。そのようなコンピューティングシステムまたは電子デバイスは、パーソナルコンピュータ、ラップトップ、またはスマートフォン、タブレット、PDAなどの任意のその他のハンドヘルドコンピューティングデバイスである可能性がある。当業者は、さまざまな修正および変更が、添付の特許請求の範囲で、添付の特許請求の範囲によって定義される本発明の範囲から逸脱することなく、上述の本発明の実施形態に適用される可能性があることを容易に理解するであろう。
10 装置
50 乳児
55 顔の部位
80 ハンドル部
82 検査ヘッド
100 プロセッサユーティリティ
110 プリプロセッサモジュール
120 目の特徴検出モジュール
130 目の症状特定器
150 通信モジュール
155 ユーザインターフェースユーティリティ
160 メモリユーティリティ
200 撮像装置、カメラユニット
220 光源、フラッシュライト
240 画像データ
300 顔画像
310 瞳孔
320 プルキンエ
RD1 第1の参照データ
RD2 第2の参照データ
500 画像データ
502 瞳孔の範囲
504 強膜の範囲
506 長方形部位
506' 目の部位
508 プルキンエ像
510 境界正方形部位
512 重み付けされたプルキンエ像の中心
514 虹彩

Claims (41)

  1. 画像データを処理し、対象者の目の画像内に異常が存在するかどうかを判定し、対応する出力データを生成するように構成され、動作可能なプロセッサユーティリティを含み、前記プロセッサユーティリティが、
    前記対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を前記画像データの中で選択するように構成され、動作可能であり、前記画像が画像処理に適するかどうかを判定するために前記画像を前処理し、前記画像の判定された適性の指示を与えるようにさらに構成され、動作可能である第1のプロセッサと、
    1組の所定のパラメータから前記目の特徴の1つまたは複数のパラメータを決定するために好適な画像に画像処理アルゴリズムを適用するように構成され、動作可能な目の特徴検出ユーティリティであって、前記目の特徴の1つまたは複数のパラメータを決定することが、好適な画像内の瞳孔に関連するピクセルの数を決定することを含む、目の特徴検出ユーティリティと、
    前記1つまたは複数のパラメータを処理し、分析し、前記画像内に異常が存在するかどうかを示すデータを生成するように構成され、動作可能な目の症状特定器ユーティリティとを含む、電子装置。
  2. 前記画像データを撮影するためのカメラ組立体をさらに含む請求項1に記載の電子。
  3. 前記プロセッサユーティリティが、前記画像が両目を含むかどうかを判定し、前記画像が1つ以下の目を含む場合に否定の指示を与えるように構成される請求項1または2に記載の装置。
  4. 前記プロセッサユーティリティが、前記画像が両目を含むかどうかを判定し、前記画像が3つ以上の目を含む場合に否定の指示を与えるように構成される請求項1から3のいずれか一項に記載の装置。
  5. 前記プロセッサユーティリティが、前記画像が対象者の目を含むかどうか、および前記画像内の前記目のサイズを決定し、前記画像内の前記目が所定の閾値未満のサイズを有する場合に否定の指示を与えるように構成される請求項1から4のいずれか一項に記載の装置。
  6. 前記プロセッサユーティリティが、前記画像内の第1の目と第2の目との相対的な垂直な配置を決定し、前記第1の目と前記第2の目との相対的な垂直な配置の差が所定の閾値を超える場合に否定の指示を与えるように構成される請求項1から5のいずれか一項に記載の装置。
  7. 前記相対的な垂直な配置が、前記画像の水平軸に対する前記第1の目と前記第2の目との間に引かれた線の角度に基づいて決定され、前記閾値が、20度から40度までの範囲内にある請求項6に記載の装置。
  8. 前記プロセッサユーティリティが、前記画像がプルキンエ像の一部を形成する光の反射を含むかどうか、および前記光の反射のサイズを決定し、前記光の反射の前記サイズが所定の閾値を超える場合に否定の指示を与えるように構成される請求項1から7のいずれか一項に記載の装置。
  9. 前記プロセッサユーティリティが、第1の目の瞳孔と第2の目の瞳孔との間の距離dを決定するように構成され、前記閾値が、d/75からd/85までの範囲内にある請求項8に記載の装置。
  10. 前記目の症状特定器ユーティリティが、異常を示すいかなるデータも前記画像内に存在しない場合に前記画像を合格とし、異常を示すデータが前記画像内に存在する場合に前記画像を不合格とするように構成される請求項1から9のいずれか一項に記載の装置。
  11. 前記目の症状特定器ユーティリティが、1つの画像が合格とされる場合に、対象者の目が異常を含まないことを示すデータを生成するように構成される請求項10に記載の装置。
  12. 前記目の症状特定器ユーティリティが、対象者の不合格とされた画像の数が所定の閾値以上である場合に、対象者の目が異常を含むことを示すデータを生成するように構成される請求項10または11に記載の装置。
  13. 前記画像が、撮影された画像を含み、前記画像が好適でない場合に、前記プロセッサユーティリティが、代わりの画像が撮影される、ユーザに対する要求を生成するように構成される請求項1から12のいずれか一項に記載の装置。
  14. 前記画像が、撮影された画像が取得される前にユーザに対して表示するためのファインダの画像を含み、前記プロセッサユーティリティが、前記撮影された画像が取得される前に前記ファインダの画像が好適であるかどうかの指示を生成するように構成される請求項1から13のいずれか一項に記載の装置。
  15. 前記プロセッサユーティリティが、前記ファインダの画像が好適であると判定される場合に画像を撮影するように前記カメラを動作させるようにさらに構成される請求項14に記載の装置。
  16. 前記目の特徴の前記1組の前記所定のパラメータが、前記目の特徴の幾何学パラメータ、位置パラメータ、および色に関連するパラメータのうちの少なくとも1つを含む請求項1から15のいずれか一項に記載の装置。
  17. 顔の特徴に対応するピクセル値を示す所定の第1の参照データを記憶するためのメモリユーティリティを含む請求項1から16のいずれか一項に記載の装置。
  18. 目の特徴に対応するピクセル値を示す所定の第2の参照データを記憶するためのメモリユーティリティを含む請求項1から17のいずれか一項に記載の装置。
  19. 前記対象部位が、プルキンエ像を含む請求項1から18のいずれか一項に記載の装置。
  20. 前記第1のプロセッサが、前記第1の参照データを使用して画像を処理して、前記第1の参照データに従って前記画像内のピクセルを分類し、前記対象部位に関する異なるカテゴリのピクセルをグループ分けすることに基づいて前記画像内の前記対象部位についてのおおざっぱなデータを取得することによって前記選択を実行するように構成され、動作可能である請求項17から19のいずれか一項に記載の装置。
  21. 前記目の特徴検出ユーティリティが、第2の参照データを使用して前記対象部位を処理して、前記第2の参照データに従って前記対象部位内のピクセルを分類し、少なくとも片目の特徴に関するピクセルを計数することによって前記目の特徴の前記1つまたは複数のパラメータのおおざっぱな値を取得するように構成され、動作可能である請求項17から20のいずれか一項に記載の装置。
  22. 前記目の特徴検出ユーティリティが、前記目の特徴に関する前記1つまたは複数のパラメータの前記おおざっぱな値を使用し、前記少なくとも片目の特徴に関連する前記ピクセルを分類し直し、前記分類し直されたピクセルの値を重み付けするように構成され、動作可能である請求項21に記載の装置。
  23. 前記対象部位が、前記対象者の左目の部位と右目の部位との両方を含む請求項1から22のいずれか一項に記載の装置。
  24. 前記対象部位が、左目の部位および右目の部位のうちの少なくとも一方の中の瞳孔およびプルキンエ像のうちの少なくとも一方を含む請求項19から23のいずれか一項に記載の装置。
  25. 前記目の特徴の前記1つまたは複数のパラメータが、以下、すなわち、前記目の少なくとも一方の前記瞳孔の位置、前記目の少なくとも一方の前記プルキンエ像の位置、前記瞳孔の少なくとも一方の物理的な寸法、少なくとも1つのプルキンエ像の物理的な寸法、両方の目の前記瞳孔の平均的色、および両方の目の前記プルキンエ像の平均的色のうちの少なくとも1つを含む請求項24に記載の装置。
  26. 前記目の症状特定器ユーティリティが、少なくとも両目の特徴の前記パラメータの値の間の関連を決定するように構成され、動作可能であり、前記少なくとも両目の特徴が、同じ目の部位または異なる目の部位に関する請求項25に記載の装置。
  27. 前記目の症状特定器ユーティリティが、前記右目の前記プルキンエ像の中心および瞳孔の範囲の中心の前記左目の前記プルキンエ像の中心および瞳孔の範囲の中心に対する相対位置の間の関連を決定し、前記関連の所定の値からのずれが斜視の症状に対応する非対称性の度合いを示すことを特定するように構成され、動作可能である請求項26に記載の装置。
  28. 前記所定の値が、前記左目の部位および前記右目の部位の前記相対位置の間の差、ならびに前記左の瞳孔と前記右の瞳孔との間の距離の特定の関数である請求項27に記載の装置。
  29. 前記目の症状特定器ユーティリティが、前記画像内の前記左目の部位および前記右目の部位の少なくとも一方の瞳孔の中心とプルキンエ像の中心との間のベクトル距離の形式で前記関連を決定し、前記関連の所定の値からのずれが前記少なくとも一方の目の斜視の症状を示すことを特定するように構成され、動作可能である請求項26に記載の装置。
  30. 前記目の症状特定器ユーティリティが、前記左目の部位および前記右目の部位の前記プルキンエ像の半径の間の関連を決定し、前記関連の所定の値からのずれが不同視の症状を示すことを特定するように構成され、動作可能である請求項26から29のいずれか一項に記載の装置。
  31. 前記目の症状特定器ユーティリティが、前記左目の部位および前記右目の部位の前記プルキンエ像および前記瞳孔の範囲のうちの少なくとも一方のピクセルの平均的色の間の関連を決定し、前記関連の所定の値からのずれを特定するように構成され、動作可能である請求項26から30のいずれか一項に記載の装置。
  32. 前記関連の所定の値からの前記ずれが不同視の症状を示す請求項31に記載の装置。
  33. 前記目の症状特定器ユーティリティが、前記左目の部位および前記右目の部位の瞳孔の半径の間の関連を決定し、前記関連の所定の値からのずれが瞳孔不同症の症状を示すことを特定するように構成され、動作可能である請求項26から32のいずれか一項に記載の装置。
  34. 前記画像データの前記処理が、
    (a)選択された画像内の右目の部位および左目の部位の位置を特定することと、
    (b)前記対象者の右目および左目に関して、プルキンエ像に対応する前記目の部位内の範囲の位置を特定することと、
    (c)前記右目の部位および前記左目の部位の前記プルキンエ像の寸法を決定することと、
    (d)前記右のプルキンエ像の前記寸法および前記左のプルキンエ像の前記寸法の間の関連を決定することと、
    (e)前記関連を示すデータを分析し、前記対象者の不同視の症状を示す異常が前記画像内に存在するかどうかのデータを生成することとを含む請求項1から33のいずれか一項に記載の装置。
  35. 前記画像データの前記処理が、
    (a)選択された画像内の右目の部位および左目の部位の位置を特定することと、
    (b)前記右目の部位および前記左目の部位の瞳孔に対応する範囲の位置を特定することと、
    (c)前記対象者の右目および左目に関して、プルキンエ像に対応する前記目の部位内の範囲の位置を特定することと、
    (d)前記右目の部位および前記左目の部位に関して、前記瞳孔の範囲に対する前記プルキンエ像の相対位置を決定することと、
    (e)前記相対位置を分析し、前記対象者の斜視の症状を示す異常が前記画像内に存在するかどうかのデータを生成することとを含む請求項1から34のいずれか一項に記載の装置。
  36. 周囲の画像を取得し、前記プロセッサユーティリティによって処理されるべき前記画像データを生成するためのフレームグラバーを含む請求項1から35のいずれか一項に記載の装置。
  37. 少なくとも、前記フレームグラバーによる画像の取得の時間の間、前記周囲を照らすための光源を含む請求項36に記載の装置。
  38. 以下、すなわち、カメラユニット、電話デバイス、ポータブルコンピュータ、タブレット、PDA、検眼鏡ツールのうちの1つとして構成される請求項1から37のいずれか一項に記載の装置。
  39. 画像データを処理し、対象者の目の画像内に異常が存在するかどうかを判定し、対応する出力データを生成するように構成され、動作可能なプロセッサユーティリティを含む電子デバイスを使用して対象者の目の画像内に異常が存在するかどうかを判定するための方法であって、
    前記プロセッサユーティリティで画像データを受信するステップであって、前記画像データが、1つまたは複数の画像を示す、ステップと、
    前記対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を前記画像データの中で選択し、
    前記画像が画像処理に適するかどうかを判定するために前記画像を前処理し、
    前記画像の判定された適性の指示を与えるために、前記プロセッサユーティリティによって前記画像データを処理するステップと、
    前記画像が好適である場合に、目の特徴検出ユーティリティによって、1組の所定のパラメータから前記目の特徴の1つまたは複数のパラメータを決定するために前記画像に画像処理アルゴリズムを適用するステップであって、前記目の特徴の1つまたは複数のパラメータを決定することが、好適な画像内の瞳孔に関連するピクセルの数を決定することを含む、ステップと、
    目の症状特定器ユーティリティによって、前記1つまたは複数のパラメータを処理し、分析し、前記画像データ内に1つまたは複数の異常が存在するかまたは存在しないかを示すデータを生成するステップとを含む、方法。
  40. 非一時的なコンピュータアクセス可能媒体に組み込まれ、請求項39に記載の方法を実行するように構成され、動作可能なコンピュータ可読プログラムコードを含むコンピュータプログラム。
  41. 対象者の顔の画像を取得し、画像データを生成するためのカメラと、前記画像データを処理し、対象者の目の画像内に異常が存在するかどうかを判定し、対応する出力データを生成するように構成され、動作可能なプロセッサユーティリティとを含み、前記プロセッサユーティリティが、
    前記対象者の両目のうちの少なくとも一方の所定の目の特徴を含む対象部位を含む画像を前記画像データの中で選択するように構成され、動作可能である第1のプロセッサであって、前記選択することが、顔の特徴に対応するピクセル値を示す第1の参照データを使用して画像を処理して、前記第1の参照データに従って前記画像内のピクセルを分類し、前記対象部位に関する異なるカテゴリのピクセルをグループ分けすることに基づいて前記画像内の前記対象部位についてのおおざっぱなデータを取得することを含み、第1のプロセッサが、前記画像が画像処理に適するかどうかを判定するために前記画像を前処理し、前記画像の判定された適性の指示を与えるようにさらに構成され、動作可能である、第1のプロセッサと、
    前記目の特徴の1つまたは複数の幾何学パラメータおよび位置パラメータを決定するために好適な画像に画像処理アルゴリズムを適用するように構成され、動作可能な目の特徴検出ユーティリティであって、前記目の特徴の1つまたは複数の幾何学パラメータおよび位置パラメータを決定することが、好適な画像内の瞳孔に関連するピクセルの数を決定することを含み、前記画像処理アルゴリズムを適用することが、目の特徴に対応するピクセル値を示す第2の参照データを使用して、前記第2の参照データに従って前記対象部位内のピクセルを分類し、少なくとも片目の特徴に関するピクセルを計数することによって前記目の特徴の幾何学パラメータおよび位置パラメータのうちの前記1つまたは複数の値を取得することを含む、目の特徴検出ユーティリティと、
    前記1つまたは複数の幾何学パラメータおよび位置パラメータを処理し、分析し、前記画像内に異常が存在するかどうかを示すデータを生成するように構成され、動作可能な目の症状特定器ユーティリティとを含む、ハンドヘルド電子装置。
JP2014537719A 2011-10-24 2012-10-24 目の症状を特定するためのシステムおよび方法 Pending JP2014530730A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
IL215883 2011-10-24
IL215883A IL215883A0 (en) 2011-10-24 2011-10-24 System and method for indentifying eye conditions
GB201209325A GB2491941B (en) 2011-10-24 2012-05-23 System and method for identifying eye conditions
GB1209325.8 2012-05-23

Publications (1)

Publication Number Publication Date
JP2014530730A true JP2014530730A (ja) 2014-11-20

Family

ID=46179410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014537719A Pending JP2014530730A (ja) 2011-10-24 2012-10-24 目の症状を特定するためのシステムおよび方法

Country Status (11)

Country Link
US (1) US9149179B2 (ja)
EP (1) EP2770901A1 (ja)
JP (1) JP2014530730A (ja)
KR (1) KR20140079864A (ja)
CN (1) CN104114079A (ja)
AU (1) AU2012328140B2 (ja)
BR (1) BR112014009817A2 (ja)
CA (1) CA2853355A1 (ja)
GB (1) GB2491941B (ja)
IL (2) IL215883A0 (ja)
WO (1) WO2013061050A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123266A1 (ja) * 2016-12-28 2018-07-05 株式会社Jvcケンウッド 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP2018108166A (ja) * 2016-12-28 2018-07-12 株式会社Jvcケンウッド 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP2018108167A (ja) * 2016-12-28 2018-07-12 株式会社Jvcケンウッド 視機能検査装置、視機能検査方法、及びコンピュータプログラム
WO2022191300A1 (ja) * 2021-03-10 2022-09-15 株式会社坪田ラボ 円錐角膜及び乱視等の簡易診断補助装置及び診断補助システム

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9462941B2 (en) 2011-10-17 2016-10-11 The Board Of Trustees Of The Leland Stanford Junior University Metamorphopsia testing and related methods
WO2013059331A1 (en) 2011-10-17 2013-04-25 Digisight Technologies, Inc. System and method for providing analysis of visual function using a mobile device with display
US9655517B2 (en) 2012-02-02 2017-05-23 Visunex Medical Systems Co. Ltd. Portable eye imaging apparatus
US20150021228A1 (en) 2012-02-02 2015-01-22 Visunex Medical Systems Co., Ltd. Eye imaging apparatus and systems
US9351639B2 (en) 2012-03-17 2016-05-31 Visunex Medical Systems Co. Ltd. Eye imaging apparatus with a wide field of view and related methods
RU2015121337A (ru) * 2012-12-05 2017-01-13 Ай-Кю Лайф Системз Лтд. Компьютеризированная иридодиагностика
US9898659B2 (en) 2013-05-19 2018-02-20 Commonwealth Scientific And Industrial Research Organisation System and method for remote medical diagnosis
AU2014274060A1 (en) 2013-05-31 2015-12-17 The Board Of Trustees Of The Leland Stanford Junior University Modular lens adapters for mobile anterior and posterior segment ophthalmoscopy
WO2015070023A2 (en) * 2013-11-07 2015-05-14 Ohio State Innovation Foundation Automated detection of eye alignment
JP6322986B2 (ja) * 2013-12-09 2018-05-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9986908B2 (en) 2014-06-23 2018-06-05 Visunex Medical Systems Co. Ltd. Mechanical features of an eye imaging apparatus
US11546527B2 (en) 2018-07-05 2023-01-03 Irisvision, Inc. Methods and apparatuses for compensating for retinitis pigmentosa
US11372479B2 (en) 2014-11-10 2022-06-28 Irisvision, Inc. Multi-modal vision enhancement system
CN105796049A (zh) * 2014-12-29 2016-07-27 宇龙计算机通信科技(深圳)有限公司 一种监测视力的方法、装置及终端
EP3250106A4 (en) 2015-01-26 2019-01-02 Visunex Medical Systems Co. Ltd. A disposable cap for an eye imaging apparatus and related methods
US20160278633A1 (en) * 2015-03-23 2016-09-29 International Business Machines Corporation Monitoring a person for indications of a brain injury
US10667737B2 (en) 2015-03-23 2020-06-02 International Business Machines Corporation Monitoring a person for indications of a brain injury
US10561315B2 (en) 2015-03-25 2020-02-18 The Board Of Trustees Of The Leland Stanford Junior University Modular adapters for mobile ophthalmoscopy
CN104881683B (zh) * 2015-05-26 2018-08-28 清华大学 基于组合分类器的白内障眼底图像分类方法及分类装置
CN108475001B (zh) 2015-06-18 2021-06-11 爱丽丝视觉全球公司 使用手持式计算机进行视网膜成像的适配器
KR101691806B1 (ko) * 2015-07-13 2017-01-02 주식회사 시어스랩 전처리를 이용한 영상 디스플레이 방법 및 장치
KR20170011362A (ko) * 2015-07-22 2017-02-02 삼성전자주식회사 영상 처리 장치 및 그 방법
KR20230150397A (ko) 2015-08-21 2023-10-30 매직 립, 인코포레이티드 눈 포즈 측정을 사용한 눈꺼풀 형상 추정
EP3761232A1 (en) 2015-10-16 2021-01-06 Magic Leap, Inc. Eye pose identification using eye features
US9877649B2 (en) 2015-10-23 2018-01-30 Gobiquity, Inc. Photorefraction method and product
CN105310646B (zh) * 2015-12-09 2017-09-22 博奥颐和健康科学技术(北京)有限公司 基于白睛无影成像的人体健康状况在体分析系统
CN109310314B (zh) 2016-02-16 2022-06-10 麻省眼耳科医院 用于眼位偏斜测量的移动装置应用
CN106264443A (zh) * 2016-08-11 2017-01-04 刘东光 一种斜视智能检查分析系统
KR101854991B1 (ko) * 2016-09-12 2018-05-08 에스테 로우더, 인코포레이티드 눈 흰자위와 동공의 색을 기반으로 한 디지털 이미지 색 보정 방법 및 시스템
CN106943116B (zh) * 2017-03-13 2018-10-12 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种婴幼儿视力自动检测方法
EP3430973A1 (en) 2017-07-19 2019-01-23 Sony Corporation Mobile system and method
CN107997933B (zh) * 2017-11-27 2020-05-29 南京大学 一种具有实时评估功能的儿童视功能训练康复系统
US10413172B2 (en) 2017-12-11 2019-09-17 1-800 Contacts, Inc. Digital visual acuity eye examination for remote physician assessment
CA3091176A1 (en) 2018-02-13 2019-08-22 Frank Werblin Methods and apparatus for contrast sensitivity compensation
CN108664181B (zh) * 2018-04-03 2021-05-07 北京天使软件技术有限公司 以眼外肌解剖学位置提取和展示眼外肌mri影像数据的系统
CN108742510B (zh) * 2018-06-20 2023-06-06 首都医科大学附属北京儿童医院 适用于低龄患儿的斜视度及水平扭转角检测仪
US11406257B2 (en) * 2018-07-27 2022-08-09 Welch Allyn, Inc. Vision screening device and methods
CN109222890A (zh) * 2018-08-24 2019-01-18 微云(武汉)科技有限公司 一种眼睛健康情况确定方法、装置和存储介质
CN109407630B (zh) * 2018-09-21 2020-08-21 深圳新视智科技术有限公司 参数计算的方法、装置、终端及可读存储介质
CN109480764A (zh) * 2018-09-27 2019-03-19 深圳市莫廷影像技术有限公司 手持验光仪及验光方法
JP7277149B2 (ja) * 2019-01-18 2023-05-18 キヤノン株式会社 撮像装置及びその制御方法
CN110111316B (zh) * 2019-04-26 2023-07-18 广东工业大学 基于眼部图像识别弱视的方法及系统
KR102227969B1 (ko) * 2019-07-05 2021-03-12 가천대학교 산학협력단 얼굴이미지의 대칭성을 기반으로 사시환자와 관련된 특성정보를 제공하는 방법 및 시스템
CN110866508B (zh) * 2019-11-20 2023-06-27 Oppo广东移动通信有限公司 识别目标对象的形态的方法、装置、终端及存储介质
SE2251233A1 (en) * 2022-10-24 2024-04-25 Tobii Ab Eye tracking
CN118058701B (zh) * 2024-04-18 2024-07-12 广东省人民医院 一种弱视早期检测系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09206279A (ja) * 1996-01-31 1997-08-12 Canon Inc 眼球組織形状検出装置および視線検出装置
JPH11184622A (ja) * 1997-12-25 1999-07-09 Shimadzu Corp 視線入力装置
JP2001522679A (ja) * 1997-11-14 2001-11-20 ブラウン、スチュアート 自動光反射スクリーニング
JP2005108206A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 円中心位置検出方法および装置並びにプログラム
JP2005245791A (ja) * 2004-03-04 2005-09-15 Olympus Corp 視線方向検出装置
WO2007125794A1 (ja) * 2006-04-27 2007-11-08 Konica Minolta Holdings, Inc. データ測定装置及びデータ測定方法
JP2009254691A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 瞳孔検知方法及び装置
WO2010035472A1 (ja) * 2008-09-26 2010-04-01 パナソニック株式会社 視線方向判定装置及び視線方向判定方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001522629A (ja) * 1997-11-07 2001-11-20 サルヴィアック・リミテッド 医学用の挿入可能な閉塞器具
US6089715A (en) * 1998-10-15 2000-07-18 Eyedx, Inc. Automated photorefractive screening
US5989194A (en) * 1998-02-09 1999-11-23 Vision Partners, L.P. Method and apparatus for detecting ocular disease and abnormalities
US6523954B1 (en) * 2000-11-21 2003-02-25 Iscreen, Llc System and method for eye screening
WO2003030073A1 (en) * 2001-10-03 2003-04-10 Retinalyze Danmark A/S Quality measure
EP1602321A1 (en) * 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for image-based eye tracking for retinal diagnostic or surgery device
JP3966309B2 (ja) * 2004-07-14 2007-08-29 松下電器産業株式会社 瞳孔検出装置および虹彩認証装置
US7854509B2 (en) * 2007-12-13 2010-12-21 David Johns Vision screener

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09206279A (ja) * 1996-01-31 1997-08-12 Canon Inc 眼球組織形状検出装置および視線検出装置
JP2001522679A (ja) * 1997-11-14 2001-11-20 ブラウン、スチュアート 自動光反射スクリーニング
JPH11184622A (ja) * 1997-12-25 1999-07-09 Shimadzu Corp 視線入力装置
JP2005108206A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 円中心位置検出方法および装置並びにプログラム
JP2005245791A (ja) * 2004-03-04 2005-09-15 Olympus Corp 視線方向検出装置
WO2007125794A1 (ja) * 2006-04-27 2007-11-08 Konica Minolta Holdings, Inc. データ測定装置及びデータ測定方法
JP2009254691A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 瞳孔検知方法及び装置
WO2010035472A1 (ja) * 2008-09-26 2010-04-01 パナソニック株式会社 視線方向判定装置及び視線方向判定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今野 秀威 他: "両眼の位置検出を利用した多次元操作インタフェースの検討", 映像メディア学会誌, vol. 61, no. 4, JPN6017022691, 16 October 2009 (2009-10-16), pages 518 - 525, ISSN: 0003583906 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123266A1 (ja) * 2016-12-28 2018-07-05 株式会社Jvcケンウッド 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP2018108166A (ja) * 2016-12-28 2018-07-12 株式会社Jvcケンウッド 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP2018108167A (ja) * 2016-12-28 2018-07-12 株式会社Jvcケンウッド 視機能検査装置、視機能検査方法、及びコンピュータプログラム
US11019994B2 (en) 2016-12-28 2021-06-01 JVC Kenwood Corporation Visual performance examination device, visual performance examination method, and computer program
US11653831B2 (en) 2016-12-28 2023-05-23 Jvckenwood Corporation Visual performance examination device, visual performance examination method, and computer program
WO2022191300A1 (ja) * 2021-03-10 2022-09-15 株式会社坪田ラボ 円錐角膜及び乱視等の簡易診断補助装置及び診断補助システム
JP7182832B1 (ja) * 2021-03-10 2022-12-05 株式会社坪田ラボ 円錐角膜及び乱視等の簡易診断補助装置及び診断補助システム

Also Published As

Publication number Publication date
CN104114079A (zh) 2014-10-22
GB201209325D0 (en) 2012-07-04
BR112014009817A2 (pt) 2017-04-25
GB2491941B (en) 2013-09-25
CA2853355A1 (en) 2013-05-02
AU2012328140B2 (en) 2017-06-15
IL215883A0 (en) 2012-03-01
US20140285768A1 (en) 2014-09-25
US9149179B2 (en) 2015-10-06
WO2013061050A1 (en) 2013-05-02
KR20140079864A (ko) 2014-06-27
IL232203A0 (en) 2014-06-30
GB2491941A (en) 2012-12-19
EP2770901A1 (en) 2014-09-03
AU2012328140A1 (en) 2014-05-29

Similar Documents

Publication Publication Date Title
JP2014530730A (ja) 目の症状を特定するためのシステムおよび方法
Myers et al. Evolution of optic nerve photography for glaucoma screening: a review
JP6469387B2 (ja) 眼底解析装置
US10945637B2 (en) Image based jaundice diagnosing method and apparatus and image based jaundice diagnosis assisting apparatus
Pieczynski et al. The role of telemedicine, in-home testing and artificial intelligence to alleviate an increasingly burdened healthcare system: Diabetic retinopathy
TWI694809B (zh) 檢測眼球運動的方法、其程式、該程式的記憶媒體以及檢測眼球運動的裝置
US20180235458A1 (en) System and device for preliminary diagnosis of ocular diseases
KR101998595B1 (ko) 이미지 기반 황달 진단 방법 및 장치
CN110251066A (zh) 基于主观距离计量测量眼睛屈光不正的系统和方法
KR20150036395A (ko) 사시 검출
JP5111845B2 (ja) 眼底画像処理装置、眼底撮影装置及びプログラム
CN112837805A (zh) 基于深度学习的眼睑拓扑形态特征的提取方法
TW202221637A (zh) 影像處理系統及影像處理方法
CN115409774A (zh) 一种基于深度学习的眼检测方法及斜视筛查系统
JP6723843B2 (ja) 眼科装置
US20210390692A1 (en) Detecting and tracking macular degeneration
US10531794B1 (en) Photorefractive flash device and system
JP2023030184A (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
EP3695775A1 (en) Smartphone-based handheld optical device and method for capturing non-mydriatic retinal images
JPH06125876A (ja) 眼神経乳頭診断装置
KR102473744B1 (ko) 가림 안가림 검사 중 획득한 안구 이미지 분석을 통한 사시진단방법
JP2018198968A (ja) 眼底解析装置
US20240277224A1 (en) Optical coherence tomography (oct) self-testing system, optical coherence tomography method, and eye disease monitoring system
CN109008936A (zh) 基于参照物的屈光度检测方法和设备
JP7540711B2 (ja) 眼球運動自動記録システム、演算装置、演算方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160722

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180312