JP2022173721A - 撮像装置、眼球運動データ処理システム、および制御方法 - Google Patents

撮像装置、眼球運動データ処理システム、および制御方法 Download PDF

Info

Publication number
JP2022173721A
JP2022173721A JP2021079598A JP2021079598A JP2022173721A JP 2022173721 A JP2022173721 A JP 2022173721A JP 2021079598 A JP2021079598 A JP 2021079598A JP 2021079598 A JP2021079598 A JP 2021079598A JP 2022173721 A JP2022173721 A JP 2022173721A
Authority
JP
Japan
Prior art keywords
image
imaging
unit
imaging unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021079598A
Other languages
English (en)
Other versions
JP7449898B2 (ja
Inventor
豊 伊藤
Yutaka Ito
冬樹 山田
Fuyuki Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2021079598A priority Critical patent/JP7449898B2/ja
Priority to US17/735,597 priority patent/US20220360706A1/en
Priority to EP22171882.8A priority patent/EP4088647A1/en
Publication of JP2022173721A publication Critical patent/JP2022173721A/ja
Application granted granted Critical
Publication of JP7449898B2 publication Critical patent/JP7449898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4863Measuring or inducing nystagmus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)

Abstract

【課題】適切に診断を行うことができる眼球運動の画像データを得ることができる撮像装置、眼球運動データ処理システム、および制御方法を提供する。【解決手段】撮像装置400は、被検者2の頭部に装着する筐体と、筐体に保持され、被検者の一方の眼球を撮像する第1撮像部411と、筐体に保持され、被検者の他方の眼球を撮像する第2撮像部412と、第1撮像部411で撮像した第1画像41と、第2撮像部412で撮像した第2画像42とを同期させる演算処理部420と、を備える。演算処理部420は、同期させた第1画像41と第2画像42とを外部へ送信する。【選択図】図3

Description

本発明は、撮像装置、眼球運動データ処理システム、および制御方法に関する。
従来、耳鼻科、神経内科、脳神経外科などで、めまいや平衡機能障害などの診断においては、目への刺激、頭部への刺激、あるいは耳への刺激に対して、眼球がどのような運動をするかを調べる平衡機能検査が広く行なわれている。特許文献1では、平衡機能検査に用いられる眼球運動の記録観察法として眼球を撮像装置で撮像し、その動画像を観察、記録することで、客観的な眼球運動の画像データを得ることが開示されている。
特開2014-104120号公報
特許文献1に開示された眼球運動診察装置では、眼球運動を撮像カメラによって撮像することが行われている。しかし、眼球運動を撮像中に被検者の頭位を変更した場合、たとえば被検者は傾けた側の一方の目をつむってしまうことがあった。この一方の目の眼球運動だけを撮像カメラで撮像していた場合、その画像データに基づいて適切に診断を行うことができない。また、めまいの症状がある被検者に対して診察を行う場合、高齢者に限らず両目を開けておくことが困難なことも少なくなく、適切に診断を行うことができる眼球運動の画像データを得られないことがあった。
本開示は、このような問題を解決するためになされたものであり、適切に診断を行うことができる眼球運動の画像データを得ることができる撮像装置、眼球運動データ処理システム、および制御方法を提供することを目的とする。
本開示に従えば、平衡機能検査における眼球を撮像する撮像装置が提供される。撮像装置は、被検者の頭部に装着する筐体と、筐体に保持され、被検者の一方の眼球を撮像する第1撮像部と、筐体に保持され、被検者の他方の眼球を撮像する第2撮像部と、第1撮像部で撮像した第1画像と、第2撮像部で撮像した第2画像とを同期させる制御部と、制御部で同期させた第1画像と第2画像とを外部へ送信する通信部と、を備える。
本開示に従えば、平衡機能検査における眼球運動データを処理する眼球運動データ処理システムが提供される。眼球運動データ処理システムは、被検者の眼球を撮像する撮像装置と、撮像装置からのデータを受信し、当該データの処理を行うデータ処理装置とを備え、撮像装置は、被検者の頭部に装着する筐体と、筐体に保持され、被検者の一方の眼球を撮像する第1撮像部と、筐体に保持され、被検者の他方の眼球を撮像する第2撮像部と、第1撮像部で撮像した第1画像と、第2撮像部で撮像した第2画像とを同期させる制御部と、制御部で同期させた第1画像と第2画像とをデータ処理装置へ送信する通信部と、を備え、データ処理装置は、同期された第1画像と第2画像とを撮像装置から受信する受信部と、受信した同期された第1画像と第2画像とに対して所定のデータ処理を実行する処理部と、を備える。
本開示に従えば、被検者の頭部に装着する筐体と、筐体に保持され、被検者の一方の眼球を撮像する第1撮像部と、筐体に保持され、被検者の他方の眼球を撮像する第2撮像部と、を備える、平衡機能検査における眼球を撮像する撮像装置による制御方法が提供される。制御方法は、第1撮像部および第2撮像部に被検者の眼球を撮像させるステップと、第1撮像部で撮像した第1画像と、第2撮像部で撮像した第2画像とを同期させるステップと、同期させた第1画像と第2画像とを外部へ送信させるステップと、を含む。
本開示によれば、第1撮像部で撮像した第1画像と、第2撮像部で撮像した第2画像とを同期させるので、適切に診断を行うことができる眼球運動の画像データを得ることができる。
実施の形態1に係る眼球運動データ処理システムの構成を示す模式図である。 実施の形態1に係る撮像装置の構成を説明するための模式図である。 実施の形態1に係る眼球運動データ処理システムの全体構成を示すブロック図である。 第1撮像部および第2撮像部のそれぞれ画像データと、演算処理部が出力する画像データとを示す模式図である。 実施の形態1に係る撮像装置の制御方法を説明するためのフローチャートである。 データ処理装置のディスプレイに表示される被検者の眼球の画像と眼球運動のデータの一例を示す概略図である。 眼振検査の一例を説明するための模式図である。 眼振検査でディスプレイに表示される被検者の眼球の画像と眼球運動のデータの一例を示す概略図である。 視刺激検査の一例を説明するための模式図である。 視刺激検査でディスプレイに表示される被検者の眼球の画像と眼球運動のデータの一例を示す概略図である。 眼球の回旋運動データを処理する場合にディスプレイに表示される被検者の眼球の画像と眼球運動のデータの一例を示す概略図である。 被検者の眼球の画像と頭位の方向を示す画像とを重畳させてディスプレイに表示させた概略図である。 実施の形態2に係る眼球運動データ処理システムの全体構成を示すブロック図である。 第1撮像部および第2撮像部のそれぞれ画像データと、各々のセンサからの信号と、演算処理部が出力する画像データとを示す模式図である。 第1撮像部および第2撮像部のそれぞれ画像を交互となるように並べて画像データを出力する場合の模式図である。
本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
[実施の形態1]
図を参照して、実施の形態1に係る眼球運動データ処理システムおよび撮像装置について説明する。図1は、実施の形態1に係る眼球運動データ処理システム10の構成を示す模式図である。図2は、実施の形態に係る撮像装置400の構成を説明するための模式図である。図3は、実施の形態1に係る眼球運動データ処理システム10の全体構成を示すブロック図である。
術者1は、眼球運動データ処理システム10を用いることで、被検者2のめまいについて診断することができる。なお、「術者」は、クリニック、総合病院、および大学病院などに属する医師などの術者、医科大学の先生または生徒など、眼球運動データ処理システム10を使用する者であればいずれであってもよい。なお、術者が所属する医科は、眼科や耳鼻科のようなめまいの治療を専門とするものに限らず、内科や歯科など、その他のものであってもよい。「被検者」は、クリニック、総合病院、および大学病院の患者、医科大学における対象者など、眼球運動データ処理システム10の診断対象となる者であればいずれであってもよい。「めまい」は、目の前の世界がぐるぐる回る回転性めまい、自身がふわふわするように感じる浮動性めまい、目の前の世界が真っ暗になる失神性めまいなど、被検者2の視覚に何らかの異常が生じている状態を含む。
図1に示すように、実施の形態1に係る眼球運動データ処理システム10は、データ処理装置100を備える。データ処理装置100には、ディスプレイ300と、撮像装置400と、キーボード501と、マウス502とが接続されている。ディスプレイ300は、表示装置の一例である。また、キーボード501およびマウス502は、入力装置の一例である。
一般的に、めまいの診断においては、眼振(律動的に動く眼球の不随意運動)を観察することによって行われる。眼振には、何らの刺激も与えられていない状態で自発的に起こる自発眼振と、刺激が与えられることで起こる誘発眼振とが含まれる。さらに、誘発眼振には、頭部の位置が変位したときに誘発される頭位眼振と、体の位置が変位したときに誘発される頭位変換眼振とが含まれる。誘発眼振について、特に、頭部に生理的な回転刺激などを与えると、視野を安定させるために頭部と反対に眼球が動くことが知られており、このような現象を前庭動眼反射(VOR:Vestibulo Ocular Reflex)ともいう。
具体的に、眼球運動データ処理システム10では、被検者2の眼振を観察するために、被検者2の眼球を撮像装置400で撮像し、撮像した画像データをデータ処理装置100で加工、保存、表示などの処理を実施する。そのため、データ処理装置100は、撮像装置400に接続されている。撮像装置400は、被検者2の頭部に装着するゴーグル形状の装置で、めまいの診断に用いるため被検者2の眼球を撮像し、眼球運動の画像データを取得する装置である。図1に示すように、術者1は、被検者2に撮像装置400を装着させた状態で、眼振検査を行い、そのときに得られた被検者2の眼球運動の画像データをデータ処理装置100に入力する。データ処理装置100では、撮像装置400で取得された画像データを処理して、めまいの診断に必要な情報を術者1に提供する。
図2(A)に示す撮像装置400は、前面側に遮光カバー402が取り付けられた状態である。筐体401の上面には、データ処理装置100と接続するための配線403が設けられている。なお、撮像装置400とデータ処理装置100との接続は、有線に限られず画像データの送信に十分な通信速度を確保できるのであれば無線であってよい。
図2(B)に示す撮像装置400は、上側の筐体401aと、下側の筐体401bと、被検者2と接する接眼部401cとに分解されて図示されている。下側の筐体401bには、被検者2の右目を撮像する赤外線撮像装置の第1撮像部411と、被検者2の左目を撮像する赤外線撮像装置の第2撮像部412とが設けられている。一方、上側の筐体401aには、図示していないが、図3に示す演算処理部420が設けられている。
接眼部401cは、被検者2の前眼部を覆いつつ、被検者2の眼球を第1撮像部411および第2撮像部412で撮像できるように開口部401dを有している。接眼部401cは、装着時に被検者2の顔面に密着させるために適度の可撓性および弾発性を有する合成樹脂または軟質ゴムで形成されている。
遮光カバー402は、たとえばマグネットが設けてあり撮像装置400に対して簡単に取り付け、取り外しができるようになっている。遮光カバー402を撮像装置400から取り外した場合、被検者2は、ホットミラー410介して前方を見ることができ、視刺激信号処理装置600から発せられる指標などを見ることができる。なお、ホットミラー410は、ガラスまたは樹脂の板に、可視光は透過し近赤外光は反射するコーティングを施してあり、被検者の視野を確保しつつ、眼球の赤外線画像を取得するための光学部品である。第1撮像部411および第2撮像部412は、このホットミラー410で反射した被検者2の眼球を撮像している。
撮像装置400は、図3に示すように第1撮像部411からの画像データAと、第2撮像部412からの画像データBとを演算処理部420で処理して画像データCとしてデータ処理装置100に送信している。第1撮像部411は、赤外線撮像素子と、当該赤外線撮像素子で撮像した画像に対してフレーム毎にフレーム番号およびタイムスタンプの情報(第1情報)を付して画像データAとして演算処理部420に出力する処理回路(図示せず)とを有している。なお、第1情報に含まれる情報は、フレーム番号およびタイムスタンプに限定されず、フレーム番号およびタイムスタンプのうち少なくとも一方の情報でもよく、フレームレート、露光量、コントラストなどの情報を含んでもよい。同様に、第2撮像部412は、赤外線撮像素子と、当該赤外線撮像素子で撮像した画像に対してフレーム毎にフレーム番号およびタイムスタンプの情報(第2情報)を付して画像データBとして演算処理部420に出力する処理回路(図示せず)とを有している。なお、第2情報に含まれる情報は、フレーム番号およびタイムスタンプに限定されず、フレーム番号およびタイムスタンプのうち少なくとも一方の情報でもよく、フレームレート、露光量、コントラストなどの情報を含んでもよい。
なお、第1撮像部411および第2撮像部412は、60フレーム/秒または240フレーム/秒で画像を撮像することができる。また、第1撮像部411および第2撮像部412に用いる赤外線撮像素子は、例えば、赤外線を撮像できるCMOS(Complementary Metal Oxide Semiconductor)センサ、CCD(Charge Coupled Device)などである。
演算処理部420は、第1撮像部411で撮像した画像(第1画像)と、第2撮像部412で撮像した画像(第2画像)とを同期させて、画像データCを生成する演算処理を行っている。そのため、演算処理部420は、画像データの処理を実行する演算主体であり、コンピュータの一例であり、たとえば、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)などで構成される。また、演算処理部420は、画像などを記憶させるRAM(Random Access Memory)、プログラムなどが記憶されたROM(Read only Memory)などのメモリを有している。なお、演算処理部420は、第1撮像部411で撮像した画像と、第2撮像部412で撮像した画像とを同期させる制御部として実行される構成以外に、同期させた画像を外部へ送信する通信部として実行される構成も有している。
演算処理部420は、第1撮像部411で撮像した画像と、第2撮像部412で撮像した画像とを同期させる方法として、同期信号を用いる方法がある。具体的に、演算処理部420は、第1撮像部411および第2撮像部412のそれぞれに対して同期信号αを送信する。第1撮像部411および第2撮像部412のそれぞれは、当該同期信号αを開始信号として、動作(露光→信号取得→送信)を開始することで各々の撮像した第1画像と、第2画像と同期して取得することができる。第1撮像部411および第2撮像部412は2以上の画像データを保存するメモリがない構成であれば、仮に片方の撮像部で信号取得漏れが発生しても演算処理部420では片方の画像データしか得られず、同期が取れていない画像データを取得することはない。
また、第1撮像部411および第2撮像部412のそれぞれがタイムスタンプを画像に付す構成を有していれば、それぞれの画像に付加してあるタイムスタンプに基づいて同期する方法がある。タイムスタンプは、第1撮像部411および第2撮像部412のそれぞれのカウンタでカウントされた時間に基づき生成されるため、画像の同期に利用するには第1撮像部411のカウンタの時間と第2撮像部412のカウンタの時間とを同期させる必要がある。そのため、演算処理部420は、第1撮像部411および第2撮像部412のそれぞれに対して同期信号αを送信し、第1撮像部411および第2撮像部412は、この同期信号αに基づき各々のカウンタでカウントしている時間を同期させて調整し、それぞれの画像にタイムスタンプを付加する。演算処理部420は、同期信号αで調整された各々のタイムスタンプに基づき第1撮像部411で撮像した画像と、第2撮像部412で撮像した画像とを同期させることで、同じタイミングの右目の画像と左目の画像とを確実に取得することができる。特に、第1撮像部411および第2撮像部412が240フレーム/秒で画像を撮像する場合、それぞれの撮像部から出力された画像を単純に対応させただけでは、同じタイミングの右目の画像と左目の画像とを得ることができず、適切に診断を行うことができない。
なお、演算処理部420が、第1撮像部411および第2撮像部412のそれぞれに対して送信する同期信号αは、所定の周期(たとえば、60Hz)で繰り返すクロック信号である。しかし、これに限られず、演算処理部420は、起動のタイミングや、所定のタイミングで単発のパルス信号を同期信号αとして第1撮像部411および第2撮像部412のそれぞれに対して送信してもよい。
さらに、演算処理部420は、第1撮像部411および第2撮像部412のそれぞれに対して同期信号αを送信することなく、たとえば、第1撮像部411および第2撮像部412の電源ONのタイミングで各々のカウンタでカウントしている時間を同期させてもよい。また、演算処理部420は、それぞれの画像に付加してあるタイムスタンプに基づいて同期するのではなく、第1撮像部411および第2撮像部412のそれぞれがフレーム番号を画像に付す構成を有していれば、それぞれの画像に付加してあるフレーム番号に基づいて同期してもよい。
図4は、第1撮像部411および第2撮像部412のそれぞれ画像データと、演算処理部420が出力する画像データとを示す模式図である。第1撮像部411は、図4に示すように、1フレームの画像に対して時間情報(フレーム番号やタイムスタンプなど)を付加し画像データAとして出力する。同様に、第2撮像部412は、図4に示すように、1フレームの画像に対して時間情報(フレーム番号やタイムスタンプなど)を付加し画像データBとして出力する。演算処理部420は、図4に示すように、同じ時間情報を含む第1撮像部411の1フレームの画像と第2撮像部412の1フレームの画像とを1つの画像として加工し、加工した画像と、第1撮像部411および第2撮像部412の時間情報とを1つの画像データCとして出力する。画像データCでは、両目のリアルタイム画像を1つの画像データとしているので、データ処理装置100において遅延なく両目の画像を同時に表示させるのに適している。
次に、撮像装置400が、第1撮像部411で撮像した画像と、第2撮像部412で撮像した画像とを同期させて画像を出力する制御方法についてフローチャートを用いて説明する。図5は、実施の形態1に係る撮像装置400の制御方法を説明するためのフローチャートである。まず、演算処理部420は、第1撮像部411および第2撮像部412に対して同期信号αを送信する(ステップS11)。第1撮像部411および第2撮像部412は、当該同期信号αに基づき各々のカウンタでカウントしている時間を同期させる調整を行う。
演算処理部420は、第1撮像部411から画像データA(第1画像データ)の入力があったか否かを判断する(ステップS12)。画像データAの入力がない場合(ステップS12でNO)、演算処理部420は、処理をステップS12に戻す。画像データAの入力があった場合(ステップS12でYES)、演算処理部420は、第2撮像部412から画像データB(第2画像データ)の入力があったか否かを判断する(ステップS13)。画像データBの入力がない場合(ステップS13でNO)、演算処理部420は、処理をステップS13に戻す。なお、図5のフローチャートに示すように、演算処理部420は、第1撮像部411からの画像データAの入力と、第2撮像部412からの画像データBの入力とが同じタイミングで処理される。
画像データBの入力があった場合(ステップS13でYES)、演算処理部420は、同期信号αで調整された各々のタイムスタンプに基づき第1撮像部411で撮像した画像(第1画像)と、第2撮像部412で撮像した画像(第2画像)とを同期する(ステップS14)。なお、ステップS12およびステップS13における、第1撮像部の画像データA、および第2撮像部の画像データBの何れか1つの情報の入力が無く、かつ、他の情報の入力が有る場合には、入力がある情報のみで同期してもよい。また、何れか1の情報の入力が無い場合には、ステップ14での同期処理はせずに、ステップS12およびステップS13へ戻してもよい。演算処理部420は、同期した第1撮像部411で撮像した画像(第1画像)と、第2撮像部412で撮像した画像(第2画像)とを出力する(ステップS15)。つまり、図4に示すように、タイムスタンプに基づいて、同じタイミングで撮像された画像データAと画像データBとを隣接するように合成した画像データCを生成し出力する。
次に、同期した第1撮像部411で撮像した画像(第1画像)と、第2撮像部412で撮像した画像(第2画像)とは、データ処理装置100に送られ、めまいの診断に必要な眼球運動データの処理が行われる。図6は、データ処理装置100のディスプレイ300に表示される被検者2の眼球の画像と眼球運動のデータの一例を示す概略図である。図6に示すディスプレイ300の表示例では、画面上側に第1撮像部411で撮像した第1画像41と第2撮像部412で撮像した第2画像42とが表示されている。データ処理装置100は、当該第1画像41および第2画像42をフレーム毎にサンプリングし、サンプリングした画像を2値化して楕円近似を行う、もしくは、サンプリングした画像に対してテンプレート画像を使用してパターンマッチングを行うこと等により眼球の瞳孔の輪郭および中心を検出することができる。ディスプレイ300に表示した第1画像41および第2画像42には、データ処理装置100で検出した眼球の瞳孔の輪郭および中心を示す画像を重畳して表示してある。
データ処理装置100は、図3に示すように画像処理部110と制御部120とを含む。画像処理部110は、GPU(Graphics Processing Unit)などで構成されており、第1画像41および第2画像42をディスプレイ300に表示させたり、第1画像41および第2画像42に眼球の瞳孔の輪郭および中心を示す画像を重畳してディスプレイ300に表示させたりすることができる。また、制御部120は、楕円近似もしくはテンプレート画像を使用したパターンマッチング等により眼球の瞳孔の輪郭および中心を検出する処理を実行する演算主体であり、コンピュータの一例であり、たとえば、CPU、FPGAなどで構成される。また、制御部120は、画像などを記憶させるRAM、プログラムなどが記憶されたROMなどのメモリを有している。なお、制御部120は、同期された第1画像41と第2画像42とに対して所定のデータ処理を実行する処理部として実行される構成以外に、同期された第1画像41と第2画像42とを撮像装置400から受信する受信部として実行される構成も有している。
制御部120は、さらに第1画像41から眼球水平角度(右)、眼球垂直角度(右)、および眼球回旋角度(右)について、第2画像42から眼球水平角度(左)、眼球垂直角度(左)、および眼球回旋角度(左)についてそれぞれ演算で求める。具体的に、制御部120は、第1画像41および第2画像42のフレーム毎に検出したそれぞれの眼球の瞳孔の輪郭および中心の位置を求め、当該位置から眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)を算出する。データ処理装置100は、制御部120で算出した眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)の値の時間変化を記録し、ディスプレイ300の画面下側に対応するグラフとして表示する。
撮像装置400には、図示していないが加速度センサや角速度センサなどを含む頭部センサが設けられており、当該頭部センサが被検者2の頭部の運動に応じた測定信号を出力する。なお、頭部センサは、撮像装置400とは別に被検者2の頭部に設けてもよい。演算処理部420または制御部120は、当該頭部センサからの測定信号に基づき頭部角度および頭部角速度について演算で求める。データ処理装置100は、演算処理部420または制御部120で算出した頭部角度および頭部角速度の値の時間変化を記録し、ディスプレイ300の画面下側に対応するグラフとして表示する。頭部角度表示および頭部角速度表示のグラフは、3軸(X,Y,Z)方向の各々の頭部角度および頭部角速度の値を表示している。
さらに、めまいの診断で用いられる眼振検査の一例について説明する。図7は、眼振検査の一例を説明するための模式図である。眼振検査は、所定の条件下において行われる。たとえば、自発眼振の検査においては、術者1は、被検者2の頭部を固定して正面で注視させた状態で、そのときの被検者2の眼球運動に基づいてめまいを診断する。頭位眼振の検査においては、図7(A)に示すように、術者1は、被検者2の頭部の位置を様々な状態に変位させ、そのときに誘発される被検者2の眼球運動に基づいてめまいを診断する。頭位変換眼振の検査においては、図7(B)および図7(c)に示すように、術者1は、被検者2の体の位置および頭部の位置を変位させ、そのときに誘発される被検者2の眼球運動に基づいてめまいを診断する。
図8は、眼振検査でディスプレイに表示される被検者2の眼球の画像と眼球運動のデータの一例を示す概略図である。データ処理装置100は、眼振検査において被検者2の眼球の瞳孔や虹彩模様の画像から眼球運動データを処理する。撮像装置で被検者2の単眼のみを撮像している場合、眼振検査中の被検者2の頭位によっては一方のまぶたが下がるなどして安定して眼球の画像を得られないことがあった。しかし、撮像装置400では、被検者2の両眼の画像を第1撮像部411および第2撮像部412でそれぞれ取得して同期させてデータを処理するので、一方のまぶたが下がるなどして片方の眼球の画像が得られなくても、同じタイミングのもう一方の眼球の画像が必ず得られている。そのため、データ処理装置100は、眼振検査中に被検者2の頭位を変化させてもデータを処理することが可能な眼球の画像が確実に確保することができるので、安定して被検者2の眼球運動データを処理できる。図8に示す例では、眼球回旋角度(右,左)と頭部角度の時間変化のデータE1を処理することで眼振検査を行う。
次に、めまいの診断で用いられる視刺激検査の一例について説明する。図9は、視刺激検査の一例を説明するための模式図である。図9には、視刺激信号処理装置600で生成した視標Sを投影するためのスクリーン5が図示してあり、視刺激信号処理装置600で位置を変更することで視標Sの位置が左右に移動する様子を示してある。視標Sの位置は、左右ではなく上下、あるいは上下左右に移動してもよい。なお、視刺激検査を行う場合、被検者2は、図2に示す遮光カバー402を取り外した撮像装置400を装着しているので、ホットミラー410越しにスクリーン5に投影された視標Sを視認することができる。
視刺激信号処理装置600は、レーザ装置を含んでおり、図9に示すスクリーン5にレーザポイントを生成し視標Sとして表示する。視刺激信号処理装置600は、図3に示すようにデータ処理装置100との間でデータを送受信することが可能であるとともに、撮像装置400から同期信号βを受信している。視刺激信号処理装置600には、同期部601と処理部602とが含まれている。当該同期部601は、撮像装置400からの同期信号βに基づきカウンタでカウントしている時間を同期させて調整し、処理部602に対してタイムスタンプを提供する。視刺激信号処理装置600は、さらにバイタルサイン検知装置などの外部装置700と接続することができる。視刺激信号処理装置600は、外部装置700からバイタルサイン(心拍数、呼吸数、血圧値、脈拍数など)のアナログ信号を受信し、処理部602でデジタル信号のバイタル信号に変換する。視刺激信号処理装置600は、外部信号にバイタル信号を含め、同期部601のタイムスタンプを当該外部信号に付して撮像装置400に出力する。外部装置からの外部信号には、外部装置700のバイタル信号、視刺激信号処理装置600の視刺激信号などの外部装置の情報が含まれている。この場合、バイタルサイン情報は、図4で示す画像データCに対して、付された時間情報と同じか直近の時間情報が付された画像データAおよび画像データBへ付加される。ここで、視刺激信号には、具体的に、スクリーン上に視標が投影され視刺激が発生していること示す信号、または、視刺激である指標のスクリーン上での位置信号(XY座標の信号)などが含まれる。
図10は、視刺激検査でディスプレイに表示される被検者2の眼球の画像と眼球運動のデータの一例を示す概略図である。データ処理装置100は、図9に示す視刺激検査において被検者2の眼球の瞳孔や虹彩模様の画像から眼球運動データを処理する。視刺激検査の一例である追従性眼球運動検査は、被検者2の眼球が視標Sに対して、どのように追従するかを検査する。そのため、データ処理装置100は、図10に示す例で、眼球水平角度(右,左)と視刺激水平角度の時間変化のデータE2を処理することで追従性眼球運動検査を行う。なお、図10に示すディスプレイ300の画面下側には、視刺激信号処理装置600から受信した視刺激信号のうち、視刺激が発生していること示す信号の時間変化に対応するグラフが表示されている。また、ディスプレイ300の画面左下側には、視刺激信号に含まれる視標SのXY座標の信号に基づいて、スクリーン5に投影した視標Sの位置が左から右へ移動する様子が表示されている。なお、視標Sの位置が左右ではなく上下に移動する場合は、データE2を眼球垂直角度(右,左)と視刺激垂直角度の時間変化とし、視標Sの位置が左右上下に移動する場合は、データE2を眼球水平角度(右,左)、眼球垂直角度(右,左)、視刺激水平角度および視刺激垂直角度の時間変化とする必要がある。
視刺激検査の他の例として衝動性眼運動検査(サッカード検査)がある。衝動性眼運動検査は、左右交互に点滅させた視標Sなどを被検者2に見せて、被検者2の眼球がどのように運動するかを検査する。衝動性眼運動検査で被検者2の眼球運動データを処理するためには、画像のサンプリング時間が6ms=166fps以上必要であるとされている。そのため、撮像装置400は、60fpsの通常のサンプリング時間で被検者2の眼球を撮像するのではなく、240fpsの高速のサンプリング時間で被検者2の眼球を撮像する必要がある。
また、めまいの診断において眼球の回旋運動データを処理する場合がある。図11は、眼球の回旋運動データを処理する場合にディスプレイに表示される被検者2の眼球の画像と眼球運動のデータの一例を示す概略図である。データ処理装置100は、被検者2の眼球の瞳孔や虹彩模様の画像認識(パターンマッチング)から眼球の回旋運動データを処理する。眼球の回旋運動データを処理する場合、データ処理装置100は、図11の矢印44で示すように眼球の回旋運動を検出して眼球回旋角度の時間変化を記録し、ディスプレイ300の画面下側に対応するグラフとして表示する。眼球回旋角度(右,左)の時間変化のデータE3を調べることで被検者2の眼球の回旋運動データを処理を行う。
さらに、めまいの診断においては、眼球運動とともに頭位の方向も重要な情報であるため、術者1は眼球の画像と頭位の方向とを同時に認識できることを望んでいる。そこで、データ処理装置100は、眼球の画像と頭位の方向を示す画像とを重畳させてディスプレイ300に表示する。図12は、被検者2の眼球の画像と頭位の方向を示す画像とを重畳させてディスプレイに表示させた概略図である。図12に示す画面には、上側に第1撮像部411で撮像した第1画像41と第2撮像部412で撮像した第2画像42とが表示され、第1画像41と第2画像42との間に被検者2の頭位の方向を示す画像45が表示されている。被検者2の頭位の方向を示す画像45は、頭部センサで測定した頭部角度および頭部角加速度の情報に基づく頭位の方向を3Dモデルの頭部で示している。なお、被検者2の頭位の方向を示す画像45は、図12に示すような3Dモデルの頭部に限定されず、たとえば、2Dモデルや文字情報で表示してもよい。
以上のように、実施の形態1に係る撮像装置400は、平衡機能検査における眼球を撮像する装置である。撮像装置400は、被検者2の頭部に装着する筐体401と、筐体401に保持され、被検者2の一方の眼球を撮像する第1撮像部411と、筐体401に保持され、被検者2の他方の眼球を撮像する第2撮像部412と、第1撮像部411で撮像した第1画像41と、第2撮像部412で撮像した第2画像42とを同期させる演算処理部420(制御部)と、同期させた第1画像41と第2画像42とを外部へ送信する演算処理部420(通信部)と、を備える。
これにより、実施の形態1に係る撮像装置400は、第1撮像部411で撮像した第1画像41と、第2撮像部412で撮像した第2画像42とを同期させるので、適切に診断を行うことができる眼球運動の画像データを得ることができる。
第1撮像部411は、撮像した第1画像41ごとに第1情報を付加した画像データAとして演算処理部420に出力し、第2撮像部412は、撮像した第2画像42ごとに第2情報を付加した画像データBとして演算処理部420に出力し、演算処理部420は、画像データAに含まれる第1情報と画像データBに含まれる第2情報とに基づいて第1画像41と第2画像42とを同期させ、同期させた画像データAおよび画像データBを外部へ送信することが好ましい。これにより、演算処理部420は、画像データAに含まれる第1情報と画像データBに含まれる第2情報とに基づいて第1画像41と第2画像42とを確実に同期することができる。
演算処理部420は、同期させた第1画像41と第2画像42とを1つの画像として加工し、演算処理部420は、加工した画像と、対応する第1情報および第2情報とを含む画像データCを外部へ送信することが好ましい。これにより、演算処理部420から1つの画像として加工した第1画像41および第2画像42を受信したデータ処理装置100は、加工された1つの画像をディスプレイ300に表示する簡単な処理だけでよい。
演算処理部420は、第1撮像部411および第2撮像部412に対して同期信号αを送信し、第1撮像部411および第2撮像部412は、同期信号αに基づき第1情報および第2情報を同期させることが好ましい。これにより、演算処理部420は、第1撮像部411の第1情報と第2撮像部412の第2情報とを確実に同期させる調整を行うことができる。なお、第1撮像部411および第2撮像部412に対して送信する同期信号αは、所定の周期で繰り返す信号であることが好ましい。
第1情報および第2情報は、少なくともタイムスタンプの情報を含むことが好ましい。演算処理部420は、画像データAに含まれるタイムスタンプと画像データBに含まれるタイムスタンプとに基づいて第1画像41と第2画像42とを確実に同期することができる。
実施の形態1に係る眼球運動データ処理システム10は、平衡機能検査における眼球運動データを処理するシステムである。眼球運動データ処理システム10は、被検者2の眼球を撮像する撮像装置400と、撮像装置400からのデータを受信し、当該データの処理を行うデータ処理装置100とを備える。撮像装置400は、被検者2の頭部に装着する筐体401と、筐体401に保持され、被検者2の一方の眼球を撮像する第1撮像部411と、筐体401に保持され、被検者2の他方の眼球を撮像する第2撮像部412と、第1撮像部411で撮像した第1画像41と、第2撮像部412で撮像した第2画像42とを同期させる演算処理部420(制御部)と、同期させた第1画像と第2画像とをデータ処理装置100へ送信する演算処理部420(通信部)と、を備える。データ処理装置100は、同期された第1画像と第2画像とを撮像装置400から受信する制御部120(受信部)と、受信した同期された第1画像と第2画像とに対して所定のデータ処理を実行する制御部120(処理部)と、を備える。
実施の形態1に係る撮像装置400による制御方法は、第1撮像部411および第2撮像部412に被検者2の眼球を撮像させるステップと、第1撮像部411で撮像した第1画像41と、第2撮像部412で撮像した第2画像とを同期させるステップと、同期させた第1画像41と第2画像42とを外部へ送信させるステップと、を含む。
[実施の形態2]
実施の形態1に係る眼球運動データ処理システム10では、撮像装置400において第1撮像部411で撮像した第1画像41と、第2撮像部412で撮像した第2画像42とを同期させる構成について説明した。実施の形態2に係る眼球運動データ処理システムでは、さらに撮像装置400に設けたセンサの情報を同期させる構成について説明する。
図13は、実施の形態2に係る眼球運動データ処理システム10aの全体構成を示すブロック図である。図13に示す眼球運動データ処理システム10aは、撮像装置400aの構成が異なる以外、図3に示した眼球運動データ処理システム10の構成と同じである。そのため、図13に示す眼球運動データ処理システム10aにおいて、図3に示した眼球運動データ処理システム10の構成と同じ構成については同じ符号を付して詳細な説明を繰り返さない。
撮像装置400aは、図13に示すように第1撮像部411からの画像データAと、第2撮像部412からの画像データBとを演算処理部420で処理して画像データCとしてデータ処理装置100に送信している。第1撮像部411は、赤外線撮像素子と、当該赤外線撮像素子で撮像した画像に対してフレーム毎にフレーム番号およびタイムスタンプの情報(第1情報)を付して画像データAとして演算処理部420に出力する処理回路(図示せず)とを有している。なお、第1情報に含まれる情報は、フレーム番号およびタイムスタンプに限定されず、フレーム番号およびタイムスタンプのうち少なくとも一方の情報でもよく、フレームレート、露光量、コントラストなどの情報を含んでもよい。同様に、第2撮像部412は、赤外線撮像素子と、当該赤外線撮像素子で撮像した画像に対してフレーム毎にフレーム番号およびタイムスタンプの情報(第2情報)を付して画像データBとして演算処理部420に出力する処理回路(図示せず)とを有している。なお、第2情報に含まれる情報は、フレーム番号およびタイムスタンプに限定されず、フレーム番号およびタイムスタンプのうち少なくとも一方の情報でもよく、フレームレート、露光量、コントラストなどの情報を含んでもよい。
撮像装置400aは、第1撮像部411および第2撮像部412以外に、被検者2と筐体401との装着状態を検出する装着センサ430、第1撮像部411および第2撮像部412の遮光状態とを検出する遮光センサ440、被検者2の頭部の動き、特に頭位の方向を検出する頭部センサ450を筐体401に設けてある。装着センサ430は、たとえば接触センサで、当該接触センサの信号がOFF信号の場合、撮像装置400aの筐体401が被検者2の頭部から外れている、または所定の位置からずれていると演算処理部420で判断することができる。遮光センサ440は、たとえば光センサで、遮光カバー402を取り付けられていて撮像装置400aの内部が暗い場合、当該光センサの信号がOFF信号となり、第1撮像部411および第2撮像部412の遮光状態を演算処理部420で判断することができる。頭部センサ450は、例えば、加速度センサ、角速度センサ、地磁気センサをそれぞれ3軸方向に設けて9つのセンサで構成する。加速度センサは、重力加速度を検知することで被検者2の頭の姿勢を検知できる。角速度センサは、被検者2の頭部の角速度を検知できる。地磁気センサは、被検者2の頭の向き(方位)を検知できる。演算処理部420では、頭部センサ450からの測定信号に基づき頭部角度および頭部角速度などについて演算で求める。なお、撮像装置400aでは、装着センサ430、遮光センサ440、および頭部センサ450のすべてが設けられている構成について説明するが、装着センサ430、遮光センサ440、および頭部センサ450のうち少なくとも1つのセンサが設けられていればよい。もちろん、撮像装置400aは、装着センサ430、遮光センサ440、および頭部センサ450以外のセンサが設けられていてもよい。
撮像装置400aでは、装着センサ430、遮光センサ440、および頭部センサ450からの信号についても第1撮像部411および第2撮像部412で撮像した画像と同期させる。具体的に、撮像装置400aが、第1撮像部411で撮像した画像と、第2撮像部412で撮像した画像と、装着センサ430、遮光センサ440、および頭部センサ450からの信号とを同期させる方法として、たとえば、それぞれの画像および各々のセンサからの信号に付加してあるタイムスタンプに基づいて同期する方法がある。タイムスタンプは、第1撮像部411、第2撮像部412、装着センサ430、遮光センサ440、および頭部センサ450のそれぞれのカウンタでカウントされた時間に基づき生成されるため、それぞれの画像および各々のセンサからの信号を同期に利用するには、各々のカウンタでカウントしている時間を同期させる必要がある。それぞれの撮像部および各々のセンサのカウンタでカウントしている時間を同期させるために演算処理部420は、第1撮像部411、第2撮像部412、装着センサ430、遮光センサ440、および頭部センサ450のそれぞれに対して同期信号αを送信している。
第1撮像部411、第2撮像部412、装着センサ430、遮光センサ440、および頭部センサ450は、この同期信号αに基づき各々のカウンタでカウントしている時間を同期させて調整し、それぞれの画像および各々のセンサからの信号にタイムスタンプを付加する。演算処理部420は、同期信号αで調整された各々のタイムスタンプに基づき第1撮像部411で撮像した画像と、第2撮像部412で撮像した画像と、装着センサ430、遮光センサ440、および頭部センサ450からの信号とを同期させることで、同じタイミングの右目の画像と左目の画像と各々のセンサからの信号とを確実に取得することができる。
演算処理部420は、それぞれの画像および各々のセンサからの信号に付加してあるタイムスタンプに基づいて同期するのではなく、それぞれの画像および各々のセンサからの信号に付加してある他の情報(たとえばフレーム番号や番号など)に基づいて同期してもよい。さらに、演算処理部420は、第1撮像部411、第2撮像部412、装着センサ430、遮光センサ440、および頭部センサ450のそれぞれに対して同期信号αを送信することなく、たとえば、それぞれの撮像部および各々のセンサの電源ONのタイミングで各々のカウンタでカウントしている時間を同期させてもよい。また、装着センサ430、遮光センサ440、および頭部センサ450は、タイムスタンプなどの情報を付加することなく、同期信号αのタイミングに合わせて検出結果を演算処理部420に出力してもよい。
演算処理部420は、同期させたそれぞれの画像および各々のセンサからの信号をデータ処理装置100に出力する。図14は、第1撮像部411および第2撮像部412のそれぞれ画像データと、各々のセンサからの信号と、演算処理部420が出力する画像データとを示す模式図である。第1撮像部411は、図14に示すように、1フレームの画像に対して時間情報(フレーム番号やタイムスタンプなど)を付加し画像データAとして出力する。同様に、第2撮像部412は、図14に示すように、1フレームの画像に対して時間情報(フレーム番号やタイムスタンプなど)を付加し画像データBとして出力する。
装着センサ430は、図14に示すように、検出した検出結果を含む装着情報(たとえばON信号またはOFF信号)に対して時間情報(タイムスタンプなど)を付加しデータFとして出力する。遮光センサ440は、図14に示すように、検出した検出結果を含む遮光情報(たとえばON信号またはOFF信号)に対して時間情報(タイムスタンプなど)を付加しデータGとして出力する。頭部センサ450は、図14に示すように、検出した検出結果を含む頭部の動きの情報(たとえば測定信号)に対して時間情報(タイムスタンプなど)を付加しデータHとして出力する。演算処理部420は、図14に示すように、同じ時間情報を含む第1撮像部411の1フレームの画像と第2撮像部412の1フレームの画像とを1つの画像として加工し、加工した画像と、第1撮像部411および第2撮像部412の時間情報と、装着センサ430のデータFと、遮光センサ440のデータGと、頭部センサ450のデータHとを1つの画像データCとして出力する。なお、図14では、装着センサ430のデータF、遮光センサ440のデータG、頭部センサ450のデータHを、加工した画像の後に順に並べているが、それぞれの時間情報をまとめ1つの時間情報とし、データFの装着情報、データGの遮光情報、データHの頭部の動きの情報を1つの情報としてまとめてもよい。
以上のように、実施の形態2に係る撮像装置400aは、筐体401に保持され、被検者2の頭部の動きを検出する頭部センサ450(第1検出部)をさらに備え、演算処理部420は、第1撮像部411で撮像した第1画像41と、第2撮像部412で撮像した第2画像42と、頭部センサ450で検出した検出結果(測定信号)とを同期させる。これにより、撮像装置400aは、第1撮像部411および第2撮像部412で画像を撮像したタイミングの被検者2の頭部の動きを正確に把握することができ、適切に診断を行うことができる。
また、筐体401に保持され、筐体401の装着状態を検出する装着センサ430をさらに備え、演算処理部420は、第1撮像部411で撮像した第1画像と、第2撮像部412で撮像した第2画像と、装着センサ430で検出した検出結果(ON信号またはOFF信号)とを同期させることが好ましい。これにより、撮像装置400aは、第1撮像部411および第2撮像部412で画像を撮像したタイミングの撮像装置400aの装着状態を把握することができ、適切に診断を行うことができる。
さらに、筐体401に保持され、第1撮像部411で撮像する部分の遮光状態と、第2撮像部412で撮像する部分の遮光状態とを検出する遮光センサ440をさらに備え、演算処理部420は、第1撮像部411で撮像した第1画像と、第2撮像部412で撮像した第2画像と、遮光センサ440で検出した検出結果(ON信号またはOFF信号)とを同期させることが好ましい。これにより、撮像装置400aは、第1撮像部411および第2撮像部412で画像を撮像したタイミングの撮像部の遮光状態を把握することができ、適切に診断を行うことができる。
[変形例]
実施の形態1では、撮像装置400が、同期させた第1画像41と第2画像42とを1つの画像として画像データCに含めて出力すると説明した。しかし、撮像装置400が出力する画像データCとして、図4に示したように同じ時間情報を含む第1撮像部411の1フレームの画像と第2撮像部412の1フレームの画像とを1つの画像として加工し、加工した画像と、第1撮像部411および第2撮像部412の時間情報とを1つの画像データCとして出力する構成に限定されない。たとえば、撮像装置400は、同じ時間情報を含む第1撮像部411の画像データAと第2撮像部412の画像データBとが交互となるように並べて画像データCとして出力してもよい。
図15は、第1撮像部411および第2撮像部412のそれぞれ画像が交互となるように並べて画像データを出力する場合の模式図である。演算処理部420は、図15に示すように、同じ時間情報を含む第1撮像部411の画像データAと第2撮像部412の画像データBとが交互となるように並べて画像データCにパッケージして出力する。同じ時間情報を含む第1撮像部411の1フレームの画像と第2撮像部412の1フレームの画像とを1つの画像として加工せずに、単に画像データAと画像データBとを1つの画像データCにパッケージして出力する。図15に示す例では、第1撮像部411の時間情報と第2撮像部412の時間情報とを分けて出力するように図示しているが、第1撮像部411の時間情報と第2撮像部412の時間情報とを1つにまとめて出力してもよい。
図15で示した変形例は、実施の形態2の撮像装置400aが出力する画像データCに対しても同様に適用することができる。
以上のように、変形例の演算処理部420は、第1画像と第2画像とを同期させた画像データAと画像データBとを交互に送信する。これにより、データ処理装置100が、同期させた画像データAと画像データBとを確実に受信することができ、同期した画像を術者1に提供することで適切にめまいの診断を行うことができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 術者、2 被検者、5 スクリーン、10,10a 眼球運動データ処理システム、100 データ処理装置、110 画像処理部、120 制御部、300 ディスプレイ、400,400a 撮像装置、401,401a,401b 筐体、401c 接眼部、401d 開口部、402 遮光カバー、403 配線、410 ガラス板、411 第1撮像部、412 第2撮像部、420 演算処理部、430 装着センサ、440 遮光センサ、450 頭部センサ、501 キーボード、502 マウス、600 刺激信号処理装置、601 同期部、602 処理部、700 外部装置。

Claims (12)

  1. 平衡機能検査における眼球を撮像する撮像装置であって、
    被検者の頭部に装着する筐体と、
    前記筐体に保持され、前記被検者の一方の眼球を撮像する第1撮像部と、
    前記筐体に保持され、前記被検者の他方の眼球を撮像する第2撮像部と、
    前記第1撮像部で撮像した第1画像と、前記第2撮像部で撮像した第2画像とを同期させる制御部と、
    前記制御部で同期させた第1画像と第2画像とを外部へ送信する通信部と、を備える、撮像装置。
  2. 前記第1撮像部は、撮像した第1画像ごとに第1情報を付加した第1画像データとして前記制御部に出力し、
    前記第2撮像部は、撮像した第2画像ごとに第2情報を付加した第2画像データとして前記制御部に出力し、
    前記制御部は、第1画像データに含まれる第1情報と第2画像データに含まれる第2情報とに基づいて第1画像と第2画像とを同期させ、
    前記通信部は、前記制御部で同期させた第1画像データおよび第2画像データを外部へ送信する、請求項1に記載の撮像装置。
  3. 前記通信部は、第1画像と第2画像とを同期させた第1画像データと第2画像データとを交互に送信する、請求項2に記載の撮像装置。
  4. 前記制御部は、同期させた第1画像と第2画像とを1つの画像として加工し、
    前記通信部は、前記制御部で加工した画像と、対応する第1情報および第2情報とを含む画像データを外部へ送信する、請求項2に記載の撮像装置。
  5. 前記制御部は、前記第1撮像部および前記第2撮像部に対して同期信号を送信し、
    前記第1撮像部および前記第2撮像部は、前記同期信号に基づき第1情報および第2情報を同期させる、請求項2~請求項4のいずれか1項に記載の撮像装置。
  6. 前記第1撮像部および前記第2撮像部に対して送信する前記同期信号は、所定の周期で繰り返す信号である、請求項5に記載の撮像装置。
  7. 第1情報および第2情報は、少なくともタイムスタンプの情報を含む、請求項2~請求項6のいずれか1項に記載の撮像装置。
  8. 前記筐体に保持され、前記被検者の頭部の動きを検出する第1検出部をさらに備え、
    前記制御部は、前記第1撮像部で撮像した第1画像と、前記第2撮像部で撮像した第2画像と、前記第1検出部で検出した検出結果とを同期させる、請求項1~請求項7のいずれか1項に記載の撮像装置。
  9. 前記筐体に保持され、前記筐体の装着状態を検出する第2検出部をさらに備え、
    前記制御部は、前記第1撮像部で撮像した第1画像と、前記第2撮像部で撮像した第2画像と、前記第2検出部で検出した検出結果とを同期させる、請求項1~請求項8のいずれか1項に記載の撮像装置。
  10. 前記筐体に保持され、前記第1撮像部で撮像する部分の遮光状態と、前記第2撮像部で撮像する部分の遮光状態とを検出する第3検出部をさらに備え、
    前記制御部は、前記第1撮像部で撮像した第1画像と、前記第2撮像部で撮像した第2画像と、前記第3検出部で検出した検出結果とを同期させる、請求項1~請求項9のいずれか1項に記載の撮像装置。
  11. 平衡機能検査における眼球運動データを処理する眼球運動データ処理システムであって、
    被検者の眼球を撮像する撮像装置と、
    前記撮像装置からのデータを受信し、当該データの処理を行うデータ処理装置とを備え、
    前記撮像装置は、
    前記被検者の頭部に装着する筐体と、
    前記筐体に保持され、前記被検者の一方の眼球を撮像する第1撮像部と、
    前記筐体に保持され、前記被検者の他方の眼球を撮像する第2撮像部と、
    前記第1撮像部で撮像した第1画像と、前記第2撮像部で撮像した第2画像とを同期させる制御部と、
    前記制御部で同期させた第1画像と第2画像とを前記データ処理装置へ送信する通信部と、を備え、
    前記データ処理装置は、
    同期された第1画像と第2画像とを前記撮像装置から受信する受信部と、
    前記受信した同期された第1画像と第2画像とに対して所定のデータ処理を実行する処理部と、を備える、眼球運動データ処理システム。
  12. 被検者の頭部に装着する筐体と、前記筐体に保持され、前記被検者の一方の眼球を撮像する第1撮像部と、前記筐体に保持され、前記被検者の他方の眼球を撮像する第2撮像部と、を備える、平衡機能検査における眼球を撮像する撮像装置による制御方法であって、
    前記第1撮像部および前記第2撮像部に前記被検者の眼球を撮像させるステップと、
    前記第1撮像部で撮像した第1画像と、前記第2撮像部で撮像した第2画像とを同期させるステップと、
    同期させた第1画像と第2画像とを外部へ送信させるステップと、を含む、制御方法。
JP2021079598A 2021-05-10 2021-05-10 撮像装置、眼球運動データ処理システム、および制御方法 Active JP7449898B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021079598A JP7449898B2 (ja) 2021-05-10 2021-05-10 撮像装置、眼球運動データ処理システム、および制御方法
US17/735,597 US20220360706A1 (en) 2021-05-10 2022-05-03 Imaging Device, Ocular Movement Data Processing System, and Control Method
EP22171882.8A EP4088647A1 (en) 2021-05-10 2022-05-05 Imaging device, ocular movement data processing system, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021079598A JP7449898B2 (ja) 2021-05-10 2021-05-10 撮像装置、眼球運動データ処理システム、および制御方法

Publications (2)

Publication Number Publication Date
JP2022173721A true JP2022173721A (ja) 2022-11-22
JP7449898B2 JP7449898B2 (ja) 2024-03-14

Family

ID=81585624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021079598A Active JP7449898B2 (ja) 2021-05-10 2021-05-10 撮像装置、眼球運動データ処理システム、および制御方法

Country Status (3)

Country Link
US (1) US20220360706A1 (ja)
EP (1) EP4088647A1 (ja)
JP (1) JP7449898B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112617745A (zh) * 2019-10-08 2021-04-09 梅州市青塘实业有限公司 一种非接触式生命体征检测装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11225968A (ja) * 1998-02-12 1999-08-24 Japan Science & Technology Corp 眼球運動観察用装着具、視標投影装置、及びこれらを用いた平衡機能検査装置
JP2001321342A (ja) * 2000-05-17 2001-11-20 New Opto Corp 眼球画像解析システム
US20030086061A1 (en) * 2001-10-01 2003-05-08 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US20110176106A1 (en) * 2006-05-01 2011-07-21 Christopher Paul Lewkowski Portable eye monitoring device and methods for using the same
JP2018207453A (ja) * 2017-06-09 2018-12-27 ソニー株式会社 制御装置、撮像装置、制御方法、プログラム及び撮像システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6003991A (en) * 1996-02-17 1999-12-21 Erik Scott Viirre Eye examination apparatus and method for remote examination of a patient by a health professional
JP3455638B2 (ja) * 1996-02-23 2003-10-14 株式会社モリタ製作所 平衡機能検査装置
EP1811890A4 (en) * 2004-11-01 2009-09-09 Eye Diagnostics Pty Ltd DEVICE AND METHOD FOR SEARCHING FOR CHANGES IN THE EYE
JP6019517B2 (ja) 2012-11-27 2016-11-02 国立大学法人京都大学 眼球運動解析システム、眼球運動診断装置および眼球運動解析システムの作動方法
TW201428675A (zh) * 2013-01-08 2014-07-16 Pixart Imaging Inc 影像產生系統與影像產生方法
JP2016033611A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 情報提供システム、表示装置、および、表示装置の制御方法
JP6638325B2 (ja) * 2015-10-30 2020-01-29 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
GB2541564B (en) * 2015-09-11 2018-07-04 General Starlight Co Inc Multi-modal optoelectronic vision system and uses thereof
KR101725712B1 (ko) * 2016-01-04 2017-04-10 연세대학교 원주산학협력단 휴대용 안진 검사장치
KR102174241B1 (ko) * 2018-12-04 2020-11-04 연세대학교 원주산학협력단 가상현실 기반의 휴대용 안진 검사장치 및 이를 이용한 검진 방법
US11642072B2 (en) * 2019-02-07 2023-05-09 The University Of Toledo Telestroke eye examination accessory
WO2021022028A1 (en) * 2019-07-31 2021-02-04 Xenon-Vr, Inc. Ophthalmologic testing systems and methods
JP7333359B2 (ja) * 2021-05-10 2023-08-24 株式会社モリタ製作所 撮像装置、眼球運動データ処理システム、および制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11225968A (ja) * 1998-02-12 1999-08-24 Japan Science & Technology Corp 眼球運動観察用装着具、視標投影装置、及びこれらを用いた平衡機能検査装置
JP2001321342A (ja) * 2000-05-17 2001-11-20 New Opto Corp 眼球画像解析システム
US20030086061A1 (en) * 2001-10-01 2003-05-08 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US20110176106A1 (en) * 2006-05-01 2011-07-21 Christopher Paul Lewkowski Portable eye monitoring device and methods for using the same
JP2018207453A (ja) * 2017-06-09 2018-12-27 ソニー株式会社 制御装置、撮像装置、制御方法、プログラム及び撮像システム

Also Published As

Publication number Publication date
US20220360706A1 (en) 2022-11-10
JP7449898B2 (ja) 2024-03-14
EP4088647A1 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
US10314485B2 (en) Portable google based VOG system with comparative left and right eye ocular response analysis with MTBI analysis using percent of saccade function of smooth pursuit test
US20210113079A1 (en) Mobile device application for ocular misalignment measurement
KR101966164B1 (ko) 가상현실을 이용한 안과 검사 시스템 및 방법
US9730583B2 (en) Method for objective diagnostics of internuclear opthalmopligia, ocular lateral pulsion, progressive supernuclear palsy and glissades eye movements
US9439592B2 (en) Eye tracking headset and system for neuropsychological testing including the detection of brain damage
US8371693B2 (en) Autism diagnosis support apparatus
JP6643161B2 (ja) 前庭試験装置
US20220354414A1 (en) Imaging Device, Ocular Movement Data Processing System, and Control Method
US11684292B2 (en) Vestibular testing apparatus
KR20200067398A (ko) 가상현실 기반의 휴대용 안진 검사장치 및 이를 이용한 검진 방법
JP7209954B2 (ja) 眼振解析システム
US20220360706A1 (en) Imaging Device, Ocular Movement Data Processing System, and Control Method
Eckert et al. Video-oculography as part of the ENG battery
Kutilek et al. Methods of measurement and evaluation of eye, head and shoulders position in neurological practice
JP2023058161A (ja) データ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラム
RU2531132C1 (ru) Способ определения скорости сложной зрительно-моторной реакции испытуемого и устройство для его осуществления
CN214906728U (zh) 一种斜视检测装置
WO2023095321A1 (ja) 情報処理装置、情報処理システム、及び情報処理方法
KR102710389B1 (ko) 가상현실 기반 안구운동 측정을 통한 어지럼증 진단방법, 장치, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 기록매체에 저장된 컴퓨터 프로그램
Kim et al. High-speed lensless eye tracker for microsaccade measurement
JP2023032224A (ja) 眼位異常検出システム、眼位異常検出方法、及び、眼位異常検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7449898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150