JP2022010272A - 立体認知能力評価システム - Google Patents

立体認知能力評価システム Download PDF

Info

Publication number
JP2022010272A
JP2022010272A JP2021185175A JP2021185175A JP2022010272A JP 2022010272 A JP2022010272 A JP 2022010272A JP 2021185175 A JP2021185175 A JP 2021185175A JP 2021185175 A JP2021185175 A JP 2021185175A JP 2022010272 A JP2022010272 A JP 2022010272A
Authority
JP
Japan
Prior art keywords
cognitive ability
reaction
measurement target
target person
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021185175A
Other languages
English (en)
Other versions
JP2022010272A5 (ja
Inventor
康 落合
Yasushi Ochiai
一希 笠井
Kazuki KASAI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Pharma Co Ltd
Original Assignee
Sumitomo Dainippon Pharma Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Dainippon Pharma Co Ltd filed Critical Sumitomo Dainippon Pharma Co Ltd
Publication of JP2022010272A publication Critical patent/JP2022010272A/ja
Publication of JP2022010272A5 publication Critical patent/JP2022010272A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/745Details of notification to user or communication with user or patient ; user input means using visual displays using a holographic display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6829Foot or ankle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Neurology (AREA)
  • Physiology (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Neurosurgery (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Ophthalmology & Optometry (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)

Abstract

【課題】立体認知能力を定量化することなどによって客観的に評価できるシステム、装置、プログラム、及び方法を提供する。【解決手段】移動する物体と測定対象者との間の距離を特定可能な移動する物体の位置を取得し、測定対象者が認識した前記物体の三次元位置に対応してなされる前記測定対象者の能動的な反応の入力を受け付け、取得された物体の位置と入力された反応とが正しく対応しているかどうかを判定することによって、測定対象者の立体認知能力を評価する。移動する物体は仮想現実ヘッドセットにより仮想現実で提供することができ、仮想現実において物体を所定の視点から見て移動開始位置から移動終了位置まで所定の視点に近付く方向の所定の移動経路で移動させたときの動画像を表示させ、その物体の位置に対する反応によって立体認知能力を評価するようにも構成できる。【選択図】図3

Description

本発明は、物体に対する反応に基づいて立体認知能力を評価する立体認知能力評価システムに関する。
立体認知能力は、物体の遠近を認識し、それに適切に対応できるかという能力である。近年、高齢者などで認知機能が低下する際に、立体認知能力も同様に低下するという傾向が観察されており、立体認知能力を評価することは、認知機能の評価に近い効果を有する可能性がある。一方、認知機能は、客観的に評価することが困難である。したがって、立体認知能力を定量化することなどによって客観的に認知機能を評価することは、認知機能の客観的な評価にも貢献し、極めて有用である。しかしながら、立体認知能力を定量化する技術は存在していなかった。
立体認知能力は、視覚情報の取得のための正常な眼の機能(瞳孔調節、眼球運動など)を前提としており、例えば移動物体などを見たときに、その移動物体の視覚情報から物体の位置関係を脳で正確に把握し、その把握した位置関係に基づいて適切かつ正確にその移動物体に対応する動作を行うことができる能力と定義されている。
ここで正常な眼の機能を確認する方法として、例えば、瞳孔測定及び近点距離測定という手法が知られている。この測定は、トライイリスという機器を用いて行うことができる。瞳孔測定は、視標からの可視光刺激に対する瞳孔反応(対光反応)を測定すること、及び、移動視標を見ているときの瞳孔変化を測定すること、を少なくとも含む。具体的には、瞳孔変化は、瞳孔近距離反射により起こり、視標が近方に移動すると瞳孔が縮小する。また、近点距離測定は、具体的には、測定対象者が、定屈折速度で接近する視標が観察中にぼやけたところで手元スイッチを押し、そのときの視標位置が近点距離として記録される。これらの測定は、眼球の状態(瞳孔)とぼやけた時点でのスイッチ押下により近点距離の測定であるが、その主目的は、近点距離の測定である。
立体認知能力は、特に移動物体を眼で正確に追尾し、その位置を正しく認識し、それに対して的確に反応する能力も含む。移動物体を眼で追尾する機能を測定するためには、瞳孔調節と輻輳反応を測定する方法が特に有用と考えられる。これらの測定方法について以下で説明する。図6は、眼の機能の測定に使用する視標の概念を表わす図である。視標は、測定対象者の眼の前方で、遠ざかる方向と近づく方向の間で移動をさせ、それを測定対象者に視認させる。移動は反復させて、その都度、測定対象者の眼の様子を確認すると好適である。
図7に、瞳孔近距離反射による、視標距離(測定対象者の眼と視標の間の距離)と瞳孔径の関係を示す。図7の(A)には視標距離が近い時は瞳孔径が小さくなることが示され、図7の(B)には視標距離が遠い時は瞳孔径が大きくなることが示されている。図7の(C)には、横軸を視標距離とし、縦軸を瞳孔径としたときのグラフを示す。実線が左眼、一点鎖線が右眼のグラフをそれぞれ示す。グラフには、視標距離が近い時は瞳孔径が小さくなり、視標距離が遠い時は瞳孔径が大きくなることが示されている。また、視標距離にかかわらず、右眼と左眼はほぼ同じ瞳孔径となることも示されている。
図8に、視標距離と瞳孔位置(輻輳開散運動)の関係を示す。図8の(A)には視標距離が近い時は左右の眼が内側寄りの輻輳状態になることが示され、図8の(B)には視標距離が遠い時は左右の眼が平行状態の開散状態になることが示されている。図8の(C)には、横軸を視標距離とし、縦軸を瞳孔位置としたときのグラフを示す。実線が左眼、一点鎖線が右眼のグラフをそれぞれ示す。グラフには、視標距離が近い時は左右の眼の瞳孔の間の距離が小さくなって輻輳の状態であること、視標距離が遠い時は左右の眼の瞳孔の間の距離が大きくなって開散の状態であることが示されている。
測定対象者が見ている視標の遠近を変化させるように移動させると、それに伴って、上述の瞳孔径の変化や輻輳開散運動のような反応が発生する。しかし、測定対象者の視認の機能が衰えていれば、それらの反応は低下する。従って、視標の遠近を変化させたときの測定対象者の瞳孔径の変化や輻輳開散運動を測定することによって、視認の機能を測定することができる。ただし、そのためには、視標の遠近を変化させるような大掛かりな装置が必要であった。また、トライイリスは、ぼやけた時点でスイッチを押下することにより測定を実施するが、この際のスイッチ押下という反応は、測定対象者の操作に関係なく一次元的に移動する視認対象物である視標が所定の位置に来たときに行なう受動的な反応であって、移動している視標に対する測定対象者の能動的な動作による反応(手などを視標に近付けるなどの、視認対象物の位置によって目標の位置が動的に定められる積極的な操作を必要とする反応)ではないため、偶然によって良い結果を得ることが可能であり、また、測定対象者の虚偽によっても良い結果を得ることが可能である。このように、視認している移動する物体にタイミングを合わせてスイッチを押下するだけというような受動的な反応に基づく測定は、その正確性に問題がある。
一方、仮想現実(VR)技術の広がりとともに、その応用分野が増えてきている。ユーザが仮想現実を提供する仮想現実ヘッドセットを装着すれば、視線方向に仮想現実上の物体が表示され、その場にいるような臨場感を得ることができる。仮想現実ヘッドセットでは、ゴーグルのような形状の筐体内に電子ディスプレイが内蔵され、そこに、視線方向に存在する物体の画像が表示され、ユーザは、この画像を、接眼レンズを通して視認することになる。電子ディスプレイは、左右の眼それぞれに別に設けられており、表示される物体の遠近方向の位置に応じて、表示される位置を変化させることによって、ユーザに適切な遠近感を提供する。すなわち、より近くの物体は、左右の電子ディスプレイに表示される対応する画像がより中央寄りに表示され、ユーザの眼に輻輳運動を惹起させることにより、近くに存在するものと認識させる。眼の機能の測定において、視標の位置を変化させることをシミュレートするために、このような仮想現実ヘッドセットを使用する可能性が考えられるが、そのような技術は存在していなかった。
一方、視覚に関する測定を利用して認知機能を評価するシステムとして、携帯型タッチスクリーンパーソナルコンピューティングデバイスを使用したシステムがある(特許文献1)。この技術では、表示した認知評価刺激に対する反応速度に基づき個人の認知評価を実行する。検査では、文字が表示されたら、ボタンを押下して反応し、それが測定される。しかし、この技術においては、表示した物体を移動させるが、物体の遠近距離に関する言及はない。また、この技術においては、測定対象者の集中度、操作方法の習熟度のような各種属性によっても測定結果が左右される。
また、被験者が短時間提示される視覚刺激を見つける検査を含む、被験者の周辺視野をマッピングするためのビデオゲームを提供するシステムがある(特許文献2)。その技術においては、ディスプレイにターゲットを表示し、それに対するユーザの反応に基づいて、緑内障の視野欠損の計測を行う。この技術においては、被験者とモニタとの間の距離は計測するが、表示されるターゲットの遠近距離に関して言及していない。
特許第6000968号公報 特表2015-502238号公報
上述のように、認知機能を客観的に評価することは困難であるため、認知機能に関連する立体認知能力を定量化することなどによって客観的に評価できるようにすることは極めて有用であるが、そのような技術は存在しなかった。また、移動している視標が所定の位置に来たときにスイッチを押下するような受動的な反応による測定では、偶然や虚偽によって良い結果が得られることがあり、その正確性に問題がある。また、立体認知能力の評価のために視認機能を確認するためには、測定対象者が視認する視標の遠近を変化させることが必要であるが、そのためには視標を物理的に移動させるような大掛かりな装置が必要であった。一方、コンピューティングデバイスで視認機能を確認する装置があるが、それも遠近感を変化させることができるものではなかった。従って、まず、立体認知能力を正確に定量化する手法が求められていた。すなわち、測定対象者に遠近を変化させた物体を視認させ、それに対する反応を測定することによって、視認機能を含む立体認知能力の評価をすることができるような、小型の装置が求められていた。
本発明は、上述の課題に鑑みてなされたものであり、立体認知能力を定量化する手法を提供することや、立体認知能力の評価をすることができる小型の装置を提供することを目的とする。
本発明の一実施形態である立体認知能力評価システムは、移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するためのものであり、前記移動する物体と前記測定対象者との間の距離を特定可能な、前記移動する物体の位置を取得する物体位置取得部と、前記測定対象者が認識した前記物体の位置に対応してなされる前記測定対象者の能動的な反応の入力を受け付ける反応入力部と、取得された前記物体の位置と入力された前記反応とが正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する立体認知能力判定部と、を有することを特徴とする。
本発明においては、前記立体認知能力判定部は、所定の時間の範囲における、取得された前記物体の前記位置と前記反応によって特定される位置との位置対応関係に基づいて前記測定対象者の前記立体認知能力を評価する、ように構成できる。本発明においては、前記位置対応関係は、前記物体の前記位置と前記反応によって特定される前記位置との最小距離、前記物体の前記位置と前記反応によって特定される前記位置との平均距離、又は前記物体の前記位置と前記反応によって特定される前記位置との最大距離と最小距離の差、のいずれかを含む、ように構成できる。
本発明においては、前記移動する物体は、前記測定対象者の操作によって出発位置から目標位置に向かって移動させられる操作対象物であり、前記反応入力部は、前記操作対象物の位置を反応の入力として受け付けるものであり、前記立体認知能力判定部は、前記操作対象物の位置と前記目標位置との差に基づいて、前記測定対象者の前記立体認知能力を評価する、ように構成できる。
本発明において、前記測定対象者の両眼の視線方向を感知する眼球状態感知部と、移動している前記物体の位置に対して、前記視線方向が正しく対応しているかどうかを判定することによって、前記測定対象者が前記物体を視覚により空間的に認識しているかを判定する視認判定部と、をさらに含み、前記立体認知能力判定部は、前記視認判定部によって前記測定対象者が前記物体を視覚により空間的に認識していると判定されている場合に、取得された前記物体の位置に対して入力された前記反応が正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する、ように構成できる。
本発明において、前記視認判定部は、前記両眼の視線方向がそれぞれ移動する前記物体の位置と所定の時間以上一致していると判定した場合に、前記測定対象者が前記物体を視覚により認識していると判定する、ように構成できる。
本発明において、前記眼球状態感知部は、前記測定対象者の両眼の瞳孔径をさらに感知するものであり、前記視認判定部は、前記物体の位置が前記所定の視点に近付くに連れて、前記両眼の瞳孔径が次第に小さくなっているとさらに判定した場合に、前記測定対象者が前記物体を視覚により空間的に認識していると判定する、ように構成できる。
本発明は、前記移動する物体は仮想現実で提供されるものであり、仮想現実の動画像を表示するための電子ディスプレイを含む仮想現実ヘッドセットと、前記仮想現実において前記物体を所定の視点から見て移動開始位置から移動終了位置まで前記所定の視点に近付く方向の所定の移動経路で移動させたときの動画像を前記電子ディスプレイに表示させる移動物体表示部と、をさらに含み、前記物体位置取得部は、前記移動物体表示部で表示される前記仮想現実における前記物体の位置を取得し、前記立体認知能力判定部は、取得された前記物体の位置に対して入力された前記反応が正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する、ように構成できる。
本発明において、前記反応入力部は、前記測定対象者の身体の所定部位に装着するセンサからの信号に基づいて前記身体の所定部位の位置を連続的に特定し、それを前記反応として入力するものであり、前記移動物体表示部は、特定された前記身体の所定部位の位置に基づいて前記仮想現実において前記測定対象者の前記身体の所定部位の少なくとも一部の画像をさらに前記電子ディスプレイに表示させるものであり、前記立体認知能力判定部は、前記視認判定部によって前記測定対象者が前記物体を空間的に認識していると判定されている場合において、前記身体の所定部位に関連する所定の箇所と前記物体との距離が所定の距離内になった場合に、前記反応が正しく対応していると判定する、ように構成できる。
本発明において、前記立体認知能力判定部は、前記物体の移動開始時から前記測定対象者が前記物体を空間的に認識していると判定されるまでの視認開始時間、前記身体の所定部位に関連する所定の箇所と前記物体との最小距離、及び前記物体の移動開始時から前記身体の所定部位に関連する所定の箇所と前記物体との距離が前記最小距離になるまでの対応時間、の3つの反応パラメータを取得し、それらに基づいて前記測定対象者の前記立体認知能力を評価する、ように構成できる。
本発明において、前記立体認知能力判定部は、前記反応パラメータのそれぞれの数値に基づいてそれぞれのスコアを算出し、それぞれの前記スコアにそれぞれの所定の重みをかけたものを合計したものに基づいて前記測定対象者の前記立体認知能力を評価する、ように構成できる。
本発明において、前記移動物体表示部による前記物体の移動、前記視認判定部による前記測定対象者が前記物体を視覚により空間的に認識しているかの判定、及び前記立体認知能力判定部による前記立体認知能力の評価は、複数の所定の測定回数だけ反復されるものであり、前記立体認知能力判定部は、前記物体の位置に対して前記反応が正しく対応していると判定された回数を出力する、ように構成できる。
本発明は、移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するための構成を単一の筐体内に有する装置としても成立する。本発明は、コンピュータによって実行されることにより、前記コンピュータに、移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するための立体認知能力評価システムを実現するためのプログラム、当該プログラムを記憶したコンピュータ読取可能記録媒体としても成立する。本発明は、移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するための段階を含む方法としても成立する。
本発明は、測定対象者との間の距離が特定可能な移動する物体の位置を取得し、測定対象者が認識した物体の位置に対応してなされる測定対象者の能動的な反応の入力を受け付け、取得された物体の位置と入力された反応とが正しく対応しているかどうかを判定することを通じて測定対象者の立体認知能力を評価する。これらによって、物体を視覚により空間的に認識することが必要な物体の位置に正しく対応した反応であるかを、物体の位置と反応とに基づいて検証することが可能となり、認知機能に関連する立体認知能力を定量化して客観的に評価することができるという効果を有する。また本発明は、移動する物体を測定対象者の操作によって出発位置から目標位置に向かって移動させられる操作対象物とし、操作対象物の位置を反応の入力として受け付け、操作対象物の位置と目標位置との差に基づいて測定対象者の立体認知能力を評価するように構成された場合、ドローンのような操作対象物の操作という興味を引き達成感をもたらす構成により測定テストに飽きさせることなく、認知機能に関連する立体認知能力を定量化して客観的に評価することができるという効果を有する。
また本発明は、視認対象物の位置によって目標の位置が動的に定められる積極的な操作を必要とする能動的な反応に基づいて測定結果を得るため、一次元的に移動する対象に対するスイッチ押下のような受動的な操作によって偶然に良い測定結果が得られる可能性が排除され、測定の客観性及び正確性が向上するという効果を有する。また、本発明は、測定対象者の各種属性(集中度、操作方法の習熟度、虚偽の性向、など)に測定結果が依存することがなく、興味を引く簡単な測定テストによる測定を実現したことにより、集中度を視認の確実度によって計測できるため、虚偽を排除した正確な測定を実施することができるという効果を有する。また、本発明は、移動する物体を仮想現実で提供することもでき、その場合の本発明は、仮想現実の動画像を表示するための電子ディスプレイを含む仮想現実ヘッドセットを使用し、仮想現実において物体を所定の視点から見て移動開始位置から移動終了位置まで所定の視点に近付く方向の所定の移動経路で移動させたときの動画像を電子ディスプレイに表示させ、測定対象者が認識した物体の位置に対応してなされる能動的な反応の入力を受け付け、取得された物体の位置と入力された反応とが正しく対応しているかどうかを判定することによって、大掛かりな装置を必要とせず、物体の移動をその遠近感も含めて正確にシミュレーションし、それに基づいた測定テストを小型の装置で実施することにより、簡単かつ確実に立体認知能力を定量化して客観的に評価することができるという効果を有する。
本発明の実施形態に係る立体認知能力評価システム100の概略の外観を示す図である。 本発明の実施形態に係る立体認知能力評価システム100の構成を示すブロック図である。 本発明の実施形態に係る立体認知能力評価システム100の機能構成を示す機能ブロック図である。 本発明の実施形態に係る立体認知能力評価システム100の動作フロー図である。 視認開始時間と反応時間を説明する図である。 移動物体に対する眼の反応(視標の動き)を説明する図である。 移動物体に対する眼の反応(瞳孔径)を説明する図である。 移動物体に対する眼の反応(輻輳開散運動)を説明する図である。 立体認知能力評価システム100の使用時のイメージ図である。 立体認知能力の測定のための投球されたボールの捕球による測定テストの表示画面の一例を表わす図である。 立体認知能力の測定のための投球されたボールの捕球による測定テストの表示画面の一例を表わす図である。 立体認知能力の測定のための投球されたボールのバットによる打撃による測定テストの表示画面の一例を表わす図である。 年齢別の反応パラメータの期待値の表の一例である。 習熟度ランク別の反応パラメータの期待値の表の一例である。 立体認知能力の測定のためのスカッシュによる測定テストの表示画面の一例を表わす図である。 立体認知能力の測定のためのスカッシュによる測定テストの測定結果の一例を表わす図である。 立体認知能力の測定のためのドライブシミュレーションによる測定テストの表示画面の一例を表わす図である。 立体認知能力の測定のためのドライブシミュレーションによる測定テストの測定結果の一例を表わす図である。 立体認知能力の測定のためのドローン着陸操作による測定テストのイメージ図である。 ドローン着陸操作による測定テストの測定結果の一例を表わす図である。
(立体認知能力評価システム100の構成)
以下では、図面を参照し、本発明の実施形態にかかる立体認知能力評価システム100の説明を行う。図1に、立体認知能力評価システム100の外観の概要を示す。図1において、破線で表した構成は、立体認知能力評価システム100の本体の内部に存在し、外部からは視認できない構成である。それらの構成の詳細については、後で図2を参照して説明する。立体認知能力評価システム100は、測定対象者に、移動する物体を視認させ、それに対する測定対象者の反応を評価することによって測定対象者の立体認知能力を評価するシステムである。本発明における、反応とは、物体の遠近を認識し、対応することを意味する。また、本発明における、測定対象者とは、立体認知能力を測定する対象である人を意味する。
立体認知能力評価システム100は、典型的には、三次元の仮想現実を表わす動画像を表示する電子ディスプレイを備えたヘッドマウントディスプレイ(ゴーグル)である仮想現実ヘッドセットの形態である。立体認知能力評価システム100には、典型的にはゴムバンドのような装着用バンドが取り付けられている。ユーザは、立体認知能力評価システム100を目の周りを覆うように当てて、そのゴムバンドを頭部に巻き付けることにより、立体認知能力評価システム100を目の周囲に装着する。
図2は、立体認知能力評価システム100の構成を示すブロック図である。立体認知能力評価システム100は、プロセッサ101、RAM102、メモリ103、電子ディスプレイ104、視線・瞳孔センサ105、腕状態センサ106、インターフェイス107から構成される。プロセッサ101は、立体認知能力評価システム100の動作を制御する各種の機能を実行するための処理回路であり、典型的にはコンピュータのような情報機器を動作させるCPUである。RAM102は、一時メモリであり、プロセッサ101が動作する際のワークエリアや、一時的なデータの格納領域などとして使用される。メモリ103は、典型的にはフラッシュROMのような不揮発性メモリであり、コンピュータプログラム及びそれの実行時に参照されるデータを記憶している。メモリ103は、コンピュータプログラムとして、立体認知能力評価プログラム103aを記憶している。なお、コンピュータプログラムが実行される際には、OS(オペレーションシステム)が使用されることが通常であるが、OSによる機能は、プロセッサ101がコンピュータプログラムを実行する機能に含まれるものとして、ここでは説明を省略している。本発明による立体認知能力評価システム100の特徴的な機能は、そのコンピュータプログラムがプロセッサ101によって実行されることにより、そのような機能に応じた実行モジュールが形成されることにより実現される。メモリ103に記憶された立体認知能力評価プログラム103aをプロセッサ101が読み出してRAM102のワークエリアを利用して実行することにより、立体認知能力評価に関する各種の機能を実現するモジュールが形成され、その機能を実現する動作を実行する。
メモリ103は、立体認知能力評価プログラム103aの実行時に参照されるデータとして、背景情報データ103bを記憶している。背景情報データ103bは、典型的には、一般的なテスト結果を示す期待値のデータであり、測定対象者の反応を期待値と比較して評価する際に参照されるデータである。
なお、立体認知能力評価プログラム103aで実現される一部の機能は、必ずしも、ヘッドマウントディスプレイの筐体内のプロセッサで実行されなくともよい。例えば、外部のスマートフォンなどに立体認知能力評価プログラム103aの一部や背景情報データ103bなどを記憶させ、スマートフォンのプロセッサで実行させることもできる。この場合、ヘッドマウントディスプレイの筐体内のプロセッサ101で実行される立体認知能力評価プログラム103aの部分による機能と、外部のスマートフォンなどで実行される立体認知能力評価プログラム103aの部分による機能とは、適宜、通信をしながら、全体として立体認知能力評価の機能を実現する。
電子ディスプレイ104は、LCD(液晶ディスプレイ)、有機ELディスプレイなどのようなフラットパネルディスプレイであり、測定対象者側に配置された接眼レンズを介して、立体認知能力評価システム100を目の周囲に装着したユーザに対して、仮想現実で移動する物体の動画像を表示する。表示させる動画像のデータを電子ディスプレイ104のデータバッファ領域に転送すると、電子ディスプレイ104はデータバッファ領域から画像のデータを読み出して、それが表わす動画像を表示する。電子ディスプレイ104は、右眼用と左眼用が独立しており、それぞれ、接眼レンズを介してユーザが視認する。表示される物体は、それの位置が無限遠の場合は、右眼用と左眼用の電子ディスプレイ104において同じ位置に表示され、左右の眼で視差が生じず、左右の眼が開散状態となることにより、ユーザに無限遠に存在している感覚を与える。表示される物体は、それの位置がユーザ側に近付くに連れ、右眼用と左眼用の電子ディスプレイ104で内側寄りに表示され、左右の眼で視差が生じ、左右の眼が輻輳状態となることにより、ユーザに近くに存在している感覚を与える。
視線・瞳孔センサ105は、電子ディスプレイ104の上側などに測定対象者側に向けて配置された、左右の眼のそれぞれの視線方向や、瞳孔の大きさを検出するためのセンサであり、眼球状態感知部として機能する構成である。視線・瞳孔センサ105は、左右の眼のそれぞれの画像をカメラのような画像取得手段で取得し、画像中の瞳の位置や瞳孔の大きさを特定することにより、視線の方向や瞳孔の大きさを求め、それを出力する。カメラとしては、可視光カメラや赤外カメラを使用することができる。物体を視認していることの判定のためには、まず、視線の方向が重要なデータである。左右の眼の視線(瞳孔の中心部の法線)のそれぞれが正確に当該物体を通過していることを確認することによって、物体の視認を確認することができる。この際、近くの物体を視認していれば、視差により左右の眼の視線が内側寄りになって輻輳状態となる。また、近付いている物体を連続的に視認していることの判定のためには、瞳孔径を追加的に使用することができる。近付いている物体を連続的に視認している場合は、瞳孔近距離反射により、瞳孔径が次第に小さくなるため、それを検出することによって視認の成否を確認できる。腕状態センサ106は、測定対象者の腕に取り付けて測定対象者の腕の位置や方向などの状態を検出するためのセンサであり、ジャイロセンサ、加速度センサ、方位センサなどのような運動、位置、方向を検出するセンサである。腕状態センサ106は、有線あるいは無線による接続により、プロセッサ101に接続される。なお、腕状態センサ106は、腕以外の身体の所定部位に取り付けるセンサで置き換え、当該身体の所定部位の位置や方向などの状態を検出するものとすることもできる。インターフェイス107は、ユーザから操作指示などの情報の入力を行ったり、ユーザに対して動作状態を表わす情報の出力を行なったりするためのユーザインターフェイスであり、操作ボタン、タッチパネル、回答選択ボタンのような入力手段や、LEDなどの出力手段を含んでいる。また、立体認知能力評価プログラム103aの一部が外部のスマートフォンなどで実行される場合、インターフェイス107は、それとの通信のための、Wi-Fi(登録商標)、Bluetooth(登録商標)などの無線通信手段も含んでいる。
(立体認知能力評価システム100の機能ブロック)
次に、立体認知能力評価システム100の機能的な構成を説明する。図3は、立体認知能力評価システム100の機能構成を示す機能ブロック図である。立体認知能力評価システム100においては、メモリ103に記憶された立体認知能力評価プログラム103aがプロセッサ101によって実行されることにより、移動物体表示部101a、物体位置取得部101b、視認判定部101c、反応入力部101d、立体認知能力判定部101eという機能ブロックを形成するモジュールが構成される。従って、図3においては、図2におけるプロセッサ101及び立体認知能力評価プログラム103aに代えて、それらによって実現される機能ブロックが示されている。以下、それらの機能ブロックについて説明する。
移動物体表示部101aは、仮想現実において物体を所定の視点から見て移動開始位置から移動終了位置まで所定の視点に近付く方向の所定の移動経路で移動させたときの動画像を前記電子ディスプレイに表示させるための機能ブロックである。移動物体表示部101aは、視認機能の測定のための移動する物体の映像を構成する連続した画像からなる動画像を生成し、それを表示するための画像データを電子ディスプレイ104に表示のために送信する。移動物体表示部101aは、例えば、投球されたボールを測定対象者が見た場合の反応を測定する場合に、背景の画像を生成するとともに、移動する物体としてのボールを、移動開始位置としての投球者による投球位置から、移動終了位置としての捕球者による捕球位置までの所定の移動経路を発生させ、ボールの位置の情報を所定の移動経路に沿って移動させると共に、捕球者からの左右の眼のそれぞれの視点からボールを見た画像を三次元レンダリングによって連続的に生成し、それを背景の画像に重ね合わせた画像データを生成して、動画像を表わすデータとして電子ディスプレイ104のデータバッファ領域に転送する。画像データは、右眼用と左眼用の電子ディスプレイ104のそれぞれのデータであり、移動する物体の位置(ユーザからの距離)に応じて、そのそれぞれの右眼用と左眼用の画像内での物体の位置が視差を生じさせるものとなっている。そのため、その動画像を電子ディスプレイ104で見た測定対象者は、現実的な遠近感でボールを見ることになる。移動物体表示部101aは、物体位置を使用した判定を実施させるために、物体位置としてのボールの位置を、物体位置取得部101bに送る。
物体位置取得部101bは、移動物体表示部101aで発生させられたシミュレーションで使用される物体の位置の情報を取得して、視認判定部101c、立体認知能力判定部101eに送る構成である。物体の位置の情報は、少なくとも物体と測定対象者との間の距離を特定可能な情報であり、典型的には三次元の位置情報である。物体と測定対象者との間の距離感は、例えば、近付いてくる物体を捕獲する場合や、前にある物体との距離を一定に保つ場合などの、視認対象物である移動する物体の位置によって動的に位置が定められる目標に対して所定の反応を行なう際に、必ず必要となる感覚である。物体の位置の情報として、測定対象者の具体的な三次元位置(三次元座標)を使用する場合においては、物体の三次元位置を使用することができ、この場合は、両者の三次元位置を表わす座標から距離の公式を使用して距離を求めることができる。また、物体の位置の情報として、測定対象者や物体の具体的な三次元位置を使用しない場合においては、物体との距離のみの情報を使用することができる。物体の位置の情報として物体の三次元位置の情報を使用する場合は、測定対象者の視線における遠近距離及び視線の方向を特定することが可能となる。物体位置取得部101bは、典型的には、移動物体表示部101aが表示のために生成した物体の位置を、視認判定部101c、立体認知能力判定部101eで使用するために取り出す構成であり、視認判定部101c、立体認知能力判定部101eなどの物体の位置を必要とする機能ブロックのために、その物体の位置を取得するルーチンが実行されることによって構成される機能ブロックである。なお、後述の変形例4のように、物体の位置が移動物体表示部101aで発生させられず、現実の物体の位置を測定テストのために使用する場合は、物体位置取得部101bは、センサなどから物体の位置を取得する。
視認判定部101cは、移動している物体の位置に対して、視線方向が正しく対応しているかどうかを判定することによって、測定対象者が物体を視覚により空間的に認識しているかを判定するための機能ブロックである。視認判定部101cは、眼球状態感知部として機能する視線・瞳孔センサ105が感知した、測定対象者の左右の眼の視線の方向のデータを受信し、左右の眼のそれぞれの視線の方向が、移動物体表示部101aから送られた物体位置と一致していて、測定対象者が視線で移動物体を追尾しているかを判定することによって、測定対象者が物体を空間的に認識しているかを判定する。視認判定部101cは、視線・瞳孔センサ105が感知した、測定対象者の左右の眼の瞳孔径のデータをさらに受信して、物体の位置が所定の視点に近付いて遠近距離が小さくなる間に、両眼の瞳孔径が次第に小さくなっているとさらに判定した場合に(遠近距離が小さくなることに応じた瞳孔近距離反射が発生している場合に)、測定対象者が物体を空間的に認識していると判定するように動作することもできる。
反応入力部101dは、測定対象者が認識した物体の三次元位置に対応してなされる測定対象者の能動的な反応の入力を受け付ける機能ブロックである。反応入力部101dは、腕状態センサ106からの測定対象者の腕の動作情報や、インターフェイス107を通じた測定対象者のボタンやタッチパネルの操作などの入力情報に基づいて、移動している物体を見ている測定対象者からの反応を入力する。なお、能動的な反応とは、移動する物体の位置によって位置が動的に定められる目標に対して行なう操作を意味する。能動的な反応としては、移動する物体を所定の場所に近付ける(この場合、移動する物体の位置によって、その物体の位置と所定の場所の位置との差分が動的に決定され、その差分を減少させることが目標となる)、移動する物体に対して身体の所定部位などを近付ける(この場合、移動する物体の位置と身体の所定部位の位置との差分が動的に決定され、その差分を減少させることが目標となる)、移動する物体と自分を一定の距離を保つ(この場合、移動する物体の位置によって、その物体の位置と自分の位置との差分が動的に決定され、その差分を一定値に保つことが目標となる)、などの所定の目的を達成するための積極的な操作のことである。能動的な反応は、測定対象者が視認対象物を視認し、それの立体認知に基づいて正確に反応することが結果に大きな影響を与える。すなわち、測定対象者が視認対象物を正確に視認しなければ、それを三次元空間の中で正確に立体認知することができない。そして、視認対象物を正確に立体認知しないと、その視認対象物によって動的に位置が定められる目標に対して正確に反応することができない。従って、能動的な反応の正確性を検証することにより、立体認知能力を正確に評価することが可能となる。一方、受動的な反応とは、典型的には、測定対象者の操作に関係なく一次元的に移動する視認対象物が所定の位置に来たことを認識して行なうような反応であり、測定対象者による立体認知の必要性が小さい反応である。そのため、受動的な反応は、偶然性により、しばしば測定結果が実際の能力以上になり得る。そのため、その測定結果は、立体認知能力を正確に評価することができるものではない。
立体認知能力判定部101eは、物体の位置と測定対象者の反応とが正しく対応しているかどうかを判定することによって、測定対象者の立体認知能力を評価する機能ブロックである。立体認知能力判定部101eは、反応入力部101dからの測定対象者の反応が物体の位置に対応していることなどを確認することによって、物体の位置に対して反応が正しく対応しているかを確認する。すなわち、移動する物体を所定の場所に近付けることが目標の反応の場合は移動する物体の位置と所定の場所の位置との差分が所定値以下に減少したこと(それらの位置が実質的に一致したこと)を確認し、移動する物体に対して身体の所定部位などを近付けることが目標の反応の場合は、移動する物体の位置と身体の所定部位の位置との差分が所定値以下に減少したこと(それらの位置が実質的に一致したこと)を確認し、移動する物体と自分を一定の距離を保つことが目標の反応の場合は、移動する物体の位置と自分の位置との差分が一定値に近いこと(それらの位置の差が実質的に一定であること)を確認する。立体認知能力判定部101eは、認識判定部によって測定対象者が物体を視覚により空間的に認識していると判定されていることを追加的な条件として、物体の位置に対して反応が正しく対応しているかどうかを判定するように構成することもできる。さらに、立体認知能力の判定に深層学習等を用いてもよい。
上述の機能ブロックの内、立体認知能力の判定のためには、特に、物体位置取得部101b、反応入力部101d、立体認知能力判定部101eが必須の機能ブロックである。図3においては、それらの機能ブロックを破線で囲んで示している。後述の変形例4では、物体位置取得部101b、反応入力部101d、立体認知能力判定部101eの機能ブロックでシステムの主要部が構成される。
(立体認知能力評価システム100の動作)
次に、立体認知能力評価システム100の動作について、図4に示す動作フローを参照して説明する。立体認知能力評価システム100は、立体認知能力を判定するために、移動する物体に対して、その位置に対応した適切な反応ができるかを、シミュレーションを使用した測定テストを実施することによって評価する。測定テストとしては、例えば、移動する物体の捕獲テストなどが典型的である。この例では、立体認知能力を判定するためにシミュレーションで実施される測定テストとして、投球されたボールの捕球操作の成否や巧拙のテストを実施する。移動する物体であるボールに対して、身体の所定部位である手部又は手部に保持された捕球具を近付けることが測定対象者の能動的な反応である。測定対象者は、ボールの位置を目標として手部又は手部に保持された捕球具をそこに近付けることになる。そのために、移動する物体としてボールを使用し、移動開始位置として投球者による投球位置を使用し、移動終了位置として捕球者による捕球位置を使用し、所定の移動経路として投球者によって投球されたボールの軌跡を使用することとし、所定の視点として捕球者からの視点を使用する。より具体的には、投球者は野球のピッチャーであり、捕球者は野球のキャッチャーである。まず、移動物体表示部101aは、移動する物体を電子ディスプレイ104に表示させる(ステップS101)。すなわち、投球されたボールを測定対象者が見た場合の反応を測定するために、移動物体表示部101aは、移動する物体としてのボールを、移動開始位置としての投球者(ピッチャー)による投球位置から、移動終了位置としての捕球者(キャッチャー)による捕球位置までの所定の移動経路(すなわち連続的なボールの位置)を発生させ、捕球者からの視点から、投球者によって投球されたボールの軌跡を表示する画像を三次元レンダリングにより連続的に生成して背景(野球のグラウンドやバッターボックス)の画像に重ね合わせた画像データを生成して、電子ディスプレイ104のデータバッファ領域に送信する。移動物体表示部101aは、一連の投球の様子の画像を生成するために、まず、記憶している典型的な投球位置(あるいは、それを乱数的に少し変化させた位置など)をボールの初期の位置とする。そして、移動物体表示部101aは、予め記憶された複数の速度及び移動経路(あるいは投球される方向)のパターンから適当なパターンを採用したり、典型的な速度及び移動経路から乱数的に少し経路などをずらしたりすることによって、速度及び移動経路を確定する。ボールの移動経路や移動中の速度は、投球時の方向や速度を初期値として、重力や空気抵抗などの物理法則に従って決定されると好適である。なお、移動経路の移動終了位置が、捕球が成功した場合の捕球位置である。そして、移動物体表示部101aは、投球位置から捕球位置まで所定の移動経路に沿ってボールの位置を移動させ、その位置に存在するボールを捕球者側の視点から見た右眼用と左眼用の一連の画像を生成して、それを動画像として表示させるため、電子ディスプレイ104のバッファ領域に転送する。なお、好適には、移動物体表示部101aは、腕状態センサ106から取得した測定対象者の腕の位置の情報に基づき、腕の末端である手部をさらに表示させる。手部の画像は、素手ではなく、手部を覆うように取り付けられた捕球者の捕球具(ミット、グローブなど)の画像とすることができる。図9には、立体認知能力評価システム100の使用時のイメージが示されている。測定対象者は、電子ディスプレイ104に仮想現実で表示されているボールを視認し、捕球のために腕を移動させる。その腕の動きは腕状態センサ106で検出され、それに基づき電子ディスプレイ104に仮想現実で表示されている手部が移動する。測定対象者は、ボールの移動を視認し、表示されている手部をボールの軌跡に交わるように移動させることによってボールを捕球する動作を行う。なお、手部の位置の情報を立体認知能力判定部101eが計算する場合は、移動物体表示部101aは、そこから手部の位置の情報を取得するようにしてもよい。
図10及び図11は、立体認知能力の測定のための投球されたボールの捕球による測定テストの表示画面の一例であり、図10及び図11の下部には、投球者1002によるボール1001の捕球者の捕球具であるミット1003までの投球と、グラウンドの背景を捕球者の視点から見た画像が表わされている。電子ディスプレイ104には、図10又は図11の下部に示した画像からなる動画像が表示される。図10及び図11の上部には、そのような投球を横から見た状態を示している。図10及び図11の上部の画像は、電子ディスプレイ104の画像の上部に追加的に表示してもいいし、表示しなくてもいい。図10の投球は、遅めの速度で山なりの経路でバッターボックスの右の方に投球されており、図11の投球は早めの速度で直線的な経路でバッターボックスの左の方に投球されている。
移動する物体を電子ディスプレイ104に表示させられている間に、視認判定部101cは、視線の方向と物体位置の差異を演算する(ステップS102)。視認判定部101cは、移動している物体の位置をリアルタイムに物体位置取得部101bから取得している。視認判定部101cは、視線・瞳孔センサ105から左右の眼の視線の方向を取得し、それと移動している物体の位置の差異を演算する。次に、視認判定部101cは、視線の方向と物体位置の差異が所定値以下であることが所定時間以上続いているかを判定することによって、両眼の視線方向が物体の位置と所定の時間以上一致しており物体を追尾しているかどうかを判定する(ステップS103)。このように、視認判定部101cは、視線・瞳孔センサ105から左右の眼の視線の方向を取得し、それが正しく、移動している物体の位置に向けられており、両眼の視線方向が物体の位置を追尾しているかどうかを判定する。これによって、測定対象者が、移動している物体を視覚により空間的に認識しているかどうかが判定される。視認判定部101cは、両眼の視線方向が物体の位置と一定時間以上一致している場合は、追尾を開始したと判断し、両眼の視線方向が物体の位置と一致し始めた時間を視認開始時間T1として記録する。すなわち、視認開始時間T1は、投球がされることによって測定が開始されてから、物体の移動開始時から測定対象者が物体を空間的に認識していると判定されるまでの時間である。視認開始時間T1は、視認の機敏さを表わすものであり、この値が小さいほど機敏な視認であると評価することができる。図5には、視認開始時間が図解で説明されている。図5のグラフの横軸は時間であり、縦軸には、視線が物体を追尾している状態や、視線が物体を非追尾の状態が示されている。このように、視認判定部101cは、両眼の視線方向が物体の位置と所定の時間以上一致しており追尾していると判定した場合に、測定対象者が物体を視覚により空間的に認識していると判定する。
視認判定部101cは、さらに、視線方向が物体の位置を所定の時間以上追尾しているのみならず、瞳孔径が小さくなっていることを追加的な条件として、測定対象者が物体を視覚により空間的に認識していると判定するようにすることも可能である(このステップは、図4に図示していない)。図5の上部には、物体までの距離と瞳孔径の状態も示されている。物体の位置が視点方向に近付くことによって物体までの距離が小さくなるに従って、瞳孔径が小さくなっている場合、視認判定部101cは、測定対象者が物体を視覚により空間的に認識していると判定する。なお、この瞳孔径による追加的な判断は、物体が視点の近傍に来たときに実施されると好適である。ステップS102の視線の方向と物体位置の差異の演算や、ステップS103の視覚による物体の空間的な認識がなされていることの判定は、後述の、測定対象者の反応に基づく立体認知能力判定の際の前提条件とすることができ、その場合、視覚による空間的な認識に基づく立体認定能力の確実な判定を行なうことができる。しかし、それらのステップを、測定対象者の反応に基づく立体認知能力判定の前に行なわないことも可能である。この場合、より簡単なシステムの構成や動作により、立体認知能力を判定することができる。
次に、立体認知能力判定部101eは、物体位置及び測定対象者の反応に基づいて、物体と手部の距離を計算する(ステップS104)。立体認知能力判定部101eは、移動している物体の位置をリアルタイムに物体位置取得部101bから取得している。立体認知能力判定部101eは、腕状態センサ106から取得した測定対象者の腕の位置の情報に基づき、腕の末端である手部の位置を特定し、手部の大きさを考慮して手部が物体を捕獲できる位置の範囲を特定する。なお、手部に捕球具(ミット、グローブなど)が取り付けられている場合は、捕球具の大きさを考慮して手部が物体を捕獲できる位置の範囲(捕球可能範囲)を特定する。そして、立体認知能力判定部101eは、移動している物体が移動終了位置に到達するまで、物体の位置と手部(あるいは捕球具)の距離を計算する。
次に、移動している物体が移動終了位置に到達するまでに、立体認知能力判定部101eは、計算した物体から手部の最小距離が所定値以下になったかどうかを判定する(ステップS105)。そして、物体から手部(あるいは捕球具)の距離が所定値以下となれば、物体が手部(あるいは捕球具)によって捕獲され、捕球が成功したと判定し、動作フローをステップS106に進める。すなわち、物体の位置に対して測定対象者の反応が正しく対応していると判定する。立体認知能力判定部101eは、手部と物体との最小距離を最小距離L1として記録し、捕球が成功したと判定したときの時間を反応時間T2として記録する。最小距離L1は、反応の精度を表わすものであり、この値が小さいほど正確な反応であると評価することができる。反応時間T2は、反応の機敏性を表わすものであり、この値が小さいほど機敏な反応であると評価することができる。図5には、反応時間T2が説明されている。反応時間T2は、物体の移動開始時から手部と物体との距離が最小距離になるまでの時間である。このように、捕球が成功したことにより、測定対象者の立体認知能力に問題ない、との判定結果とすることが可能である。なお、より精密な判定のために、複数の観点から判定を行なうことも可能である。例えば、視認開始時間T1、手部と物体との最小距離L1、及び反応時間T2、などのパラメータ(以下、反応パラメータと呼ぶ)を取得し、それらに基づいて測定対象者の立体認知能力を定量的に計算することもできる。具体的には、それぞれの反応パラメータの数値とスコアとを対応付けることによって、それぞれの反応パラメータの数値に基づいてスコアを算出し、さらに、それぞれの反応パラメータの重みを設定し、それぞれのスコアにそれぞれの重みをかけたものを合計することなどによって、立体認知能力を定量化することが可能であり、立体認知能力判定部101eはそれを計算して出力することができる。重みは、より判定結果に影響の大きい反応パラメータに対して、大きい値とすることができる。
一方、立体認知能力判定部101eは、移動している物体が移動終了位置に来ても、物体から手部(あるいは捕球具)の距離が所定値以下にならなかった場合(物体が捕球可能範囲に入らなかった場合)には、捕球は成功していないと判定し、動作フローをステップS107に進める。
立体認知能力判定部101eは、捕球が成功したと判定した場合に、成功回数Nに1を追加することによって成功回数をカウントアップする(ステップS106)。その後、動作フローをステップS107に進める。次に、立体認知能力判定部101eは、測定テストを所定の測定回数だけ実行したかを判断する(ステップS107)。測定テストを所定回数実行していなければ、ステップS101に動作フローを戻して、測定テストを最初から実行させる。すなわち、移動物体表示部101aによる物体の移動、視認判定部101cによる測定対象者が物体を視覚により空間的に認識しているかの判定、及び立体認知能力判定部101eによる立体認知能力の評価を、複数の所定の測定回数だけ反復させる。所定の測定回数としては、例えば10回などの、成功の回数が評価に意味を持つ程度の多い数だが、過度の負担にならない程度の数が望ましい。ステップS107で、測定テストを所定の測定回数で実行していれば、動作フローをステップS108に進める。
立体認知能力判定部101eは、測定テストの結果に基づき立体認知能力を判定し、その判定結果を出力する(ステップS108)。判定結果としては、まず、測定値をそのまま出力することができる。例えば、立体認知能力判定部101eは、物体の位置に対して前記反応が正しく対応していると判定された回数を出力することができる。また、回数に代えて、成功回数を測定回数で除した成功率を判定結果として出力してもよい。さらに、それぞれの反応パラメータの値(平均値)と成功回数とを合わせて判定結果として出力してもよい。
立体認知能力判定部101eは、判定結果として、測定値を年齢別の期待値と比較した結果を出力することもできる。期待値とは、多数の人に測定を実行してその測定値を平均したものであり、標準的な測定対象者に期待される値である。年齢別の期待値は、所定の年齢の範囲毎の人を母集団とした期待値である。図13には、年齢別の反応パラメータ及び成功回数の期待値の表の一例が示されている。具体的には、図13には、視認開始時間T1、手部と物体との最小距離L1、反応時間T2、成功回数Nの年齢毎の期待値が示されている。この表に示されるデータは、背景情報データ103bとして記憶されており、立体認知能力判定部101eによって参照される。なお、期待値に加えて、標準偏差のデータを記憶していてもよい。立体認知能力判定部101eは、測定対象者の年齢の入力を受けつけ、背景情報データ103bからその年齢に対応する期待値を取得し、それと測定値との比較結果を判定結果として出力することができる。比較結果は、それぞれの反応パラメータ毎に、測定値と期待値とを並べて出力したり、それらの比を出力したり、標準偏差のデータを使用して偏差値を計算して出力したりすることができる。
立体認知能力判定部101eは、判定結果として、測定値を習熟度ランク別の期待値と比較した結果を出力することもできる。図14には、習熟度ランク別の反応パラメータ及び成功回数の期待値の表の一例が示されている。具体的には、図14には、視認開始時間T1、手部と物体との最小距離L1、反応時間T2、成功回数Nの習熟度ランク毎の期待値が示されている。習熟度ランク別の期待値は、習熟度ランク毎の人を母集団とした期待値である。ここで習熟度ランクとは、例えば、捕球であれば、野球の習熟度をランク分けしたものであり、例えば、非経験者、経験者、アマチュア選手、プロ選手、トッププロなどの習熟度で分類することができる。この表に示されるデータは、背景情報データ103bとして記憶されており、立体認知能力判定部101eによって参照される。立体認知能力判定部101eは、測定対象者の測定値を習熟度ランク別の期待値と比較し、測定対象者の測定値が最も近い習熟度ランクを特定することによって巧拙の程度を定量化し、それを判定結果として出力することができる。
以上のように、立体認知能力判定部101eは、種々の観点から、立体認知能力を定量化し、それを判定結果として出力することができる。すなわち、立体認知能力判定部101eは、判定結果としては、成功回数、成功率、反応パラメータ(視認開始時間T1、手部と物体との最小距離L1、反応時間T2)などの測定値を出力することができる。また、立体認知能力判定部101eは、それらの測定値を年齢別の期待値と比較した結果(並記、比、偏差値など)を出力することができる。さらに、立体認知能力判定部101eは、それらの測定値に最も近い習熟度ランクを出力することができる。
(変形例1-投球されたボールのバットによる打撃)
上述の実施例では、投球を捕球できるかどうかによって立体認知能力を判定したが、種々のスポーツ競技や運転操作などを使用しても、同様に立体認知能力を判定することができる。図12には、立体認知能力の測定のための投球されたボールのバットによる打撃による測定テストの表示画面の一例を表している。ボールのバットによる打撃も、投球されたボールの捕球と同様に、移動する物体であるボールに対して、身体の所定部位である腕に保持されたバットを打撃のために近付けることが測定対象者の能動的な反応である。測定対象者は、ボールの位置を目標としてバットをそこに近付けることになる。この変形例1では、捕球に代えてバットによる打撃が成功したかどうかで立体認知能力の測定を行なう。このような測定のためのシステムは、上述の立体認知能力評価システム100とほぼ同じ構成とすることができるが、移動物体表示部101aは、移動する物体として野球のボール1001を使用し、移動開始位置として投球者(ピッチャー)1002による投球位置を使用し、移動終了位置としてキャッチャーによる捕球位置を使用し、所定の移動経路としてピッチャーによって投球されたボールの軌跡を使用し、所定の視点としてバッターからの視点を使用する。そして、移動物体表示部101aは、腕状態センサ106から取得した測定対象者の腕の位置の情報に基づき、腕に保持されたバット1004の位置や方向を特定し、腕に保持されたバット1004をさらに表示する。立体認知能力判定部101eは、バット1004内の所定の打撃領域と物体との距離が所定の距離内になった場合に、測定対象者の反応が正しくボールに対応していると判定する。打撃領域としては、バット1004の輪郭内の範囲を使用することや、バット1004のスイートスポットの範囲を使用することなどができる。また、バット1004のスイートスポットに近い位置のスコアを高くすることもできる。
(変形例2-スカッシュ)
また、立体認知能力を判定するためのスポーツ競技として、スカッシュを使用することができる。スカッシュも、投球されたボールの捕球と同様に、移動する物体であるボールに対して、身体の所定部位である腕に保持されたラケットを近付けることが測定対象者の能動的な反応である。測定対象者は、ボールの位置を目標としてラケットをそこに近付けることになる。図15には、立体認知能力の測定のためのスカッシュによる測定テストの表示画面の一例が示されている。この変形例2では、ボールのスカッシュのラケットによる打撃が成功したかどうかで立体認知能力の測定を行なう。このような測定のためのシステムは、上述の立体認知能力評価システム100とほぼ同じ構成とすることができるが、移動物体表示部101aは、移動する物体としてスカッシュのボール1501を使用し、移動開始位置として壁の反射位置を使用し、移動終了位置としてプレーヤの手前の位置を使用し、所定の移動経路として壁で反射したボール1501の軌跡を使用し、所定の視点としてプレーヤからの視点を使用し、スカッシュのコートを背景としてそれらを表示する。そして、移動物体表示部101aは、腕状態センサ106から取得した測定対象者の腕の位置の情報に基づき、腕に保持されたラケット1502の位置や方向を特定し、腕に保持されたラケット1502をさらに表示する。立体認知能力判定部101eは、ラケット1502内の所定の打撃領域と物体との距離が所定の距離内になった場合に、測定対象者の反応が正しくボールに対応していると判定する。打撃領域としては、ラケット1502のラケットフェイスの範囲を使用することなどができる。また、ラケット1502のラケットフェイスの中心部に近い位置のスコアを高くすることもできる。図16は、スカッシュによる測定テストの測定結果の一例を表わす図である。ここでは、成功回数(Hit)として4/10、成功の時のラケット中心からの平均の距離(誤差)、不成功(NG)時のボール1501とラケット1502の最小距離が示されている。立体認知能力判定部101eは、これらを判定結果として出力することができる。
(変形例3-ドライブシミュレーション)
また、立体認知能力を判定するための運転操作として、自動車の運転操作を使用することができる。運転操作としては、距離感に基づく立体認知能力を評価するため、前走車との距離をアクセル操作などによって一定に保つ操作などを使用することができる。この場合、前走車と自車とを一定の距離を保つことが測定対象者の能動的な反応である。測定対象者は、前走車の位置によって、その前走車と自車の位置との差分が動的に決定されるところ、その差分を一定値に保つことが反応の目標となる。図17には、立体認知能力の測定のためのドライブシミュレーションによる測定テストの表示画面の一例が示されている。この変形例3では、ドライブシミュレーションにおいて、前走車1701との距離を一定に保つことができたかどうかで立体認知能力の測定を行なう。このような測定のためのシステムは、上述の立体認知能力評価システム100とほぼ同じ構成とすることができるが、移動物体表示部101aは、移動する物体として速度が所定の範囲内で変化する前走車1701を道路及び自車のダッシュボードを背景にして測定開始時における遠近距離の位置(出発位置)に表示し、測定対象者のアクセル開度に応じて自車の速度及び位置を計算し、前走車1701の位置との差分に基づき前走車1701との距離を変化させる。アクセル開度は、腕状態センサ106を足に取り付けてそこから取得した測定対象者の足の位置の情報に基づき、足によって踏み込まれるアクセルペダルの位置に基づいた踏度を入力することなどが可能である。あるいは、立体認知能力評価システム100と接続されたアクセルペダルを有するコントロール装置を準備し、そこからアクセルペダル踏度の情報を取得することによってアクセル開度を入力することも可能である。また、手で操作するダイヤルやレバーを使用してアクセル開度を入力することもできる。また、アクセルペダルに加えて、ブレーキペダルを踏んでいることも区別し、ブレーキペダルの踏度に応じて速度を減少させるようにしてもよい。立体認知能力判定部101eは、前走車1701との距離が所定の範囲内である場合や一定値に近い場合に、測定対象者の立体認知能力が正常であると判定することができる。また、前走車の位置とアクセル操作によって特定される自車の位置との最大距離と最小距離の差が小さいほど、より正確に一定の距離を維持することができたものとして、測定対象者の立体認知能力が高いものと判定することもできる。図18は、ドライブシミュレーションによる測定テストの測定結果の一例を表わす図である。ここでは、平均車間距離、最大車間距離、最小車間距離が示されている。立体認知能力判定部101eは、これらを判定結果として出力することができる。
(変形例4-ドローン着陸操作)
また、立体認知能力を判定するための運転操作として、ドローンのような操作対象物の操作、例えばドローンの着陸操作を使用することも可能である。この場合、移動する物体であるドローンを操作対象物として所定の場所である着陸台に近付けることが測定対象者の能動的な反応である。測定対象者は、ドローンの位置によって、ドローンの位置と着陸台の位置との差分が動的に決定されるところ、その差分を減少させることが反応の目標となる。この変形例4では、実際のドローンの操縦における着陸操作の巧拙により立体認知能力の測定を行なう。このような測定のためのシステムは、上述の立体認知能力評価システム100のような電子ディスプレイを備えた仮想現実ヘッドセットは使用せず、所定のセンサと接続したスマートフォンのような情報端末などで実現することができる。その情報端末では、その情報端末のプロセッサが所定のプログラムを実行することにより、立体認知能力評価システム100の、物体位置取得部101b、反応入力部101d、立体認知能力判定部101eに相当する機能ブロックが構成される。この場合、移動する物体は、測定対象者の操作によって出発位置から目標位置に向かって移動させられる操作対象物であるドローンであり、反応入力部101dは、ドローンの位置を反応の入力として受け付けるものであり、立体認知能力判定部101eは、ドローンの位置と目標位置との差に基づいて、測定対象者の立体認知能力を評価することになる。図19には、立体認知能力の測定のためのドローン着陸操作による測定テストのイメージ図が示されている。具体的には、測定対象者が実際にドローン1901を視認した上で操縦し、ドローン1901を着陸台1902に着陸させることができたかどうか、及びその巧拙で立体認知能力の測定を行なう。着陸台1902の中心部は目標位置であり、そこに近い位置にドローン1901を着陸させると着陸操作が巧みであったと判定される。物体位置取得部101bは、ドローン1901が出発位置から発進後、ドローン1901のリアルタイムの位置を取得する。ドローン1901の位置は、少なくとも測定対象者の位置と着陸台1902の位置を結んだ直線上の一次元の位置である。ドローン1901の位置として、その直線に対して水平面内の直交方向の位置を加えた二次元の位置や、さらに高さ方向の位置を加えた三次元の位置を使用することも可能である。ドローン1901の位置については、カメラなどによってドローン1901を撮影してその画像からその位置を特定したり、距離センサでドローン1901の位置を特定したりすることができる。また、ドローン1901に位置センサを取り付けて、ドローン1901の位置を取得することもできる。反応入力部101dには、ドローン1901の位置が測定対象者の反応として入力される。立体認知能力判定部101eは、着陸台1902の中心部(目標位置)の位置を記憶しており、反応入力部101dに入力されたドローン1901の位置との差(距離)をリアルタイムに求める。立体認知能力判定部101eは、リアルタイムのドローン1901の位置と着陸台1902の位置の差(距離)に基づいて、着陸の成否や、ドローン1901の着陸台1902からの差の大きさなどを特定し、それによって立体認知能力の判定を行なう。すなわち、ドローン1901と着陸台1902との距離が着陸台1902の大きさの範囲内にあり、そこでドローン1901の移動が停止すれば、ドローン1901は着陸台1902上に着陸したと判断することができ、ドローン1901が着陸台1902の中心部により近い位置に着陸していれば着陸操作がより巧みであったと判断することができる。図20は、ドローン着陸操作による測定テストの測定結果の一例を表わす図である。ここでは、時間の経過と共に、ドローン1901の着陸台1902からの距離がどのように変化したかのグラフが示されている。立体認知能力判定部101eは、着陸台からの距離が所定の範囲内になって着陸が成功したかどうかを判断することにより、着陸の成否を判定結果として出力することができる。立体認知能力判定部101eは、さらに、着陸が成功した場合のドローン1901の着陸台1902の中心部(目標位置)からの距離を、着陸操作の巧拙を表わす判定結果として出力することができる。立体認知能力判定部101eは、所定の時間の範囲における、ドローン1901の着陸台1902の中心部からの最小距離、平均距離を判定結果として出力することもできる。
本発明は、立体認知能力を定量化することにより、対象者の立体認知能力や認知機能の客観的把握が必要とされる、医療、予防医療、医療機器などの分野で使用することができる。
100 :立体認知能力評価システム
101 :プロセッサ
101a :移動物体表示部
101b :物体位置取得部
101c :視認判定部
101d :反応入力部
101e :立体認知能力判定部
102 :RAM
103 :メモリ
103a :立体認知能力評価プログラム
103b :背景情報データ
104 :電子ディスプレイ
105 :瞳孔センサ
106 :腕状態センサ
107 :インターフェイス
1001 :ボール
1002 :投球者
1003 :ミット
1004 :バット
1501 :ボール
1502 :ラケット
1701 :前走車
1901 :ドローン
1902 :着陸台
L1 :最小距離
N :成功回数
T1 :視認開始時間
T2 :反応時間

Claims (15)

  1. 移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するための立体認知能力評価システムであって、
    前記移動する物体と前記測定対象者との間の距離を特定可能な、前記移動する物体の位置の情報を取得する物体位置取得部と、
    前記測定対象者が認識した前記物体の位置に対応してなされる前記測定対象者の能動的な反応の入力を受け付ける反応入力部と、
    取得された前記物体の位置と入力された前記反応とが正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する立体認知能力判定部と、
    を有することを特徴とする立体認知能力評価システム。
  2. 前記立体認知能力判定部は、所定の時間の範囲における、取得された前記物体の前記位置と前記反応によって特定される位置との位置対応関係に基づいて前記測定対象者の前記立体認知能力を評価することを特徴とする請求項1に記載の立体認知能力評価システム。
  3. 前記位置対応関係は、
    前記物体の前記位置と前記反応によって特定される前記位置との最小距離、
    前記物体の前記位置と前記反応によって特定される前記位置との平均距離、又は
    前記物体の前記位置と前記反応によって特定される前記位置との最大距離と最小距離の差、のいずれかを含むものである請求項2に記載の立体認知能力評価システム。
  4. 前記移動する物体は、前記測定対象者の操作によって出発位置から目標位置に向かって移動させられる操作対象物であり、
    前記反応入力部は、前記操作対象物の位置を反応の入力として受け付けるものであり、
    前記立体認知能力判定部は、前記操作対象物の位置と前記目標位置との差に基づいて、前記測定対象者の前記立体認知能力を評価する、請求項1に記載の立体認知能力評価システム。
  5. 前記測定対象者の両眼の視線方向を感知する眼球状態感知部と、
    移動している前記物体の位置に対して、前記視線方向が正しく対応しているかどうかを判定することによって、前記測定対象者が前記物体を視覚により空間的に認識しているかを判定する視認判定部と、をさらに含み、
    前記立体認知能力判定部は、前記視認判定部によって前記測定対象者が前記物体を視覚により空間的に認識していると判定されている場合に、取得された前記物体の位置に対して入力された前記反応が正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する、請求項1から3のいずれか1項に記載の立体認知能力評価システム。
  6. 前記視認判定部は、前記両眼の視線方向がそれぞれ移動する前記物体の位置と所定の時間以上一致していると判定した場合に、前記測定対象者が前記物体を視覚により認識していると判定するものである、
    請求項5に記載の立体認知能力評価システム。
  7. 前記眼球状態感知部は、前記測定対象者の両眼の瞳孔径をさらに感知するものであり、
    前記視認判定部は、前記物体の位置が前記所定の視点に近付くに連れて、前記両眼の瞳孔径が次第に小さくなっているとさらに判定した場合に、前記測定対象者が前記物体を視覚により空間的に認識していると判定するものである、
    請求項5又は6に記載の立体認知能力評価システム。
  8. 前記移動する物体は仮想現実で提供されるものであり、
    仮想現実の動画像を表示するための電子ディスプレイを含む仮想現実ヘッドセットと、
    前記仮想現実において前記物体を所定の視点から見て移動開始位置から移動終了位置まで前記所定の視点に近付く方向の所定の移動経路で移動させたときの動画像を前記電子ディスプレイに表示させる移動物体表示部と、
    をさらに含み、
    前記物体位置取得部は、前記移動物体表示部で表示される前記仮想現実における前記物体の位置を取得する、請求項5から7のいずれか1項に記載の立体認知能力評価システム。
  9. 前記反応入力部は、前記測定対象者の身体の所定部位に装着するセンサからの信号に基づいて前記身体の所定部位の位置を連続的に特定し、それを前記反応として入力するものであり、
    前記移動物体表示部は、特定された前記身体の所定部位の位置に基づいて前記仮想現実において前記測定対象者の前記身体の所定部位の少なくとも一部の画像をさらに前記電子ディスプレイに表示させるものであり、
    前記立体認知能力判定部は、前記視認判定部によって前記測定対象者が前記物体を空間的に認識していると判定されている場合において、前記身体の所定部位に関連する所定の箇所と前記物体との距離が所定の距離内になった場合に、前記反応が正しく対応していると判定するものである、
    請求項8に記載の立体認知能力評価システム。
  10. 前記立体認知能力判定部は、
    前記物体の移動開始時から前記測定対象者が前記物体を空間的に認識していると判定されるまでの視認開始時間、前記身体の所定部位に関連する所定の箇所と前記物体との最小距離、及び前記物体の移動開始時から前記身体の所定部位に関連する所定の箇所と前記物体との距離が前記最小距離になるまでの対応時間、の3つの反応パラメータを取得し、それらに基づいて前記測定対象者の前記立体認知能力を評価する、
    請求項5から9のいずれか1項に記載の立体認知能力評価システム。
  11. 前記立体認知能力判定部は、
    前記反応パラメータのそれぞれの数値に基づいてそれぞれのスコアを算出し、それぞれの前記スコアにそれぞれの所定の重みをかけたものを合計したものに基づいて前記測定対象者の前記立体認知能力を評価する、
    請求項10に記載の立体認知能力評価システム。
  12. 前記移動物体表示部による前記物体の移動、前記視認判定部による前記測定対象者が前記物体を視覚により空間的に認識しているかの判定、及び前記立体認知能力判定部による前記立体認知能力の評価は、複数の所定の測定回数だけ反復されるものであり、
    前記立体認知能力判定部は、前記物体の位置に対して前記反応が正しく対応していると判定された回数をさらに出力する、
    請求項10又は11に記載の立体認知能力評価システム。
  13. 移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するための立体認知能力評価装置であって、
    前記移動する物体と前記測定対象者との間の距離を特定可能な、前記移動する物体の位置の情報を取得する物体位置取得部と、
    前記測定対象者が認識した前記物体の位置に対応してなされる前記測定対象者の能動的な反応の入力を受け付ける反応入力部と、
    取得された前記物体の位置と入力された前記反応とが正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する立体認知能力判定部と、
    を単一の筐体内に有することを特徴とする立体認知能力評価装置。
  14. コンピュータによって実行されることにより、前記コンピュータに、移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するための立体認知能力評価システムを構成させるための立体認知能力評価プログラムであって、前記立体認知能力評価システムは、
    前記移動する物体と前記測定対象者との間の距離を特定可能な、前記移動する物体の位置の情報を取得する物体位置取得部と、
    前記測定対象者が認識した前記物体の位置に対応してなされる前記測定対象者の能動的な反応の入力を受け付ける反応入力部と、
    取得された前記物体の位置と入力された前記反応とが正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する立体認知能力判定部と、
    を有することを特徴とする立体認知能力評価プログラム。
  15. 移動する物体に対する測定対象者の反応に基づいて立体認知能力を評価するための立体認知能力評価方法であって、
    前記移動する物体と前記測定対象者との間の距離を特定可能な、前記移動する物体の位置の情報を取得する物体位置取得段階と、
    前記測定対象者が認識した前記物体の位置に対応してなされる前記測定対象者の能動的な反応の入力を受け付ける反応入力段階と、
    取得された前記物体の位置と入力された前記反応とが正しく対応しているかどうかを判定することによって、前記測定対象者の前記立体認知能力を評価する立体認知能力段階と、
    を有することを特徴とする立体認知能力評価方法。
JP2021185175A 2020-05-08 2021-11-12 立体認知能力評価システム Pending JP2022010272A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020082634 2020-05-08
JP2020082634 2020-05-08
JP2021553308A JP6995255B1 (ja) 2020-05-08 2021-05-07 立体認知能力評価システム
PCT/JP2021/017539 WO2021225166A1 (ja) 2020-05-08 2021-05-07 立体認知能力評価システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021553308A Division JP6995255B1 (ja) 2020-05-08 2021-05-07 立体認知能力評価システム

Publications (2)

Publication Number Publication Date
JP2022010272A true JP2022010272A (ja) 2022-01-14
JP2022010272A5 JP2022010272A5 (ja) 2024-05-07

Family

ID=78467987

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021553308A Active JP6995255B1 (ja) 2020-05-08 2021-05-07 立体認知能力評価システム
JP2021185175A Pending JP2022010272A (ja) 2020-05-08 2021-11-12 立体認知能力評価システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021553308A Active JP6995255B1 (ja) 2020-05-08 2021-05-07 立体認知能力評価システム

Country Status (6)

Country Link
US (1) US20230172527A1 (ja)
EP (1) EP4148707A4 (ja)
JP (2) JP6995255B1 (ja)
CN (1) CN115515475A (ja)
CA (1) CA3182568A1 (ja)
WO (1) WO2021225166A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2623790A (en) * 2022-10-27 2024-05-01 Okulo Ltd Systems and methods for assessing visuo-cognitive function
CN115953930B (zh) * 2023-03-16 2023-06-06 深圳市心流科技有限公司 基于视觉追踪的专注力训练方法、装置、终端及存储介质
CN117030635B (zh) * 2023-10-09 2023-12-15 自贡市凤祥化工有限公司 一种基于多指标测定的硫酸铝的质量分析方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH045948A (ja) * 1990-04-24 1992-01-09 Nissan Motor Co Ltd 認知機能測定装置
JP5076217B2 (ja) * 2007-12-27 2012-11-21 有限会社ラルゴ 野球のピッチングシステム
JP5869770B2 (ja) * 2010-03-16 2016-02-24 国立大学法人 東京大学 視覚認知検査システム、訓練システムおよび支援システム
DK2643782T3 (da) 2010-11-24 2020-11-09 Digital Artefacts Llc Systemer og fremgangsmåder til bedømmelse af kognitiv funktion
EP2793682A1 (en) 2011-12-20 2014-10-29 ICheck Health Connection Inc. Video game to monitor visual field loss in glaucoma
US8864310B2 (en) * 2012-05-01 2014-10-21 RightEye, LLC Systems and methods for evaluating human eye tracking
US9788714B2 (en) * 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
US10300362B2 (en) * 2015-04-23 2019-05-28 Win Reality, Llc Virtual reality sports training systems and methods
US10046229B2 (en) * 2016-05-02 2018-08-14 Bao Tran Smart device
EP3709861B1 (en) * 2017-11-14 2024-06-05 Vivid Vision, Inc. Systems for visual field analysis
JP2019159518A (ja) * 2018-03-09 2019-09-19 株式会社国際電気通信基礎技術研究所 視認状態検知装置、視認状態検知方法および視認状態検知プログラム

Also Published As

Publication number Publication date
US20230172527A1 (en) 2023-06-08
CN115515475A (zh) 2022-12-23
WO2021225166A1 (ja) 2021-11-11
CA3182568A1 (en) 2021-11-11
JP6995255B1 (ja) 2022-01-14
JPWO2021225166A1 (ja) 2021-11-11
EP4148707A1 (en) 2023-03-15
EP4148707A4 (en) 2024-05-29

Similar Documents

Publication Publication Date Title
JP6995255B1 (ja) 立体認知能力評価システム
US20190176020A1 (en) Ball-striking assist method, ball-striking assist system, and portable electronic device
JP6234928B2 (ja) スポーツアイテムのユーザ依存の状態を検出するシステム及び方法
US20070021199A1 (en) Interactive games with prediction method
US20030032484A1 (en) Game apparatus for mixed reality space, image processing method thereof, and program storage medium
WO2011009302A1 (zh) 一种基于多跟踪点的人体动作识别方法
US9737817B1 (en) Method and apparatus for simulating a gaming event
US20070021207A1 (en) Interactive combat game between a real player and a projected image of a computer generated player or a real player with a predictive method
KR102231202B1 (ko) 어라운드 뷰를 통한 골프스윙분석기
JPWO2007069751A1 (ja) 記憶力テスト装置、判断力テスト装置、比較力テスト装置、コーディネーショントレーニング装置、及びワーキングメモリトレーニング装置
US10773147B2 (en) Virtual golf simulation apparatus
WO2016010476A2 (en) Method and device for providing guiding for executing a golf swing
KR20180112656A (ko) 인터랙티브 트램펄린 놀이 시스템 및 그 제어방법
US11173387B2 (en) Method and apparatus for simulating a gaming event
JP4833919B2 (ja) 眼球運動計測によるゴルフ技量評価方法
de Oliveira et al. Experts appear to use angle of elevation information in basketball shooting.
JP7339053B2 (ja) 評価方法、評価システム、および評価プログラム
KR101950243B1 (ko) 증강현실 또는 가상현실 체험을 제공하는 골프연습장치
CN109475773B (zh) 用于模拟游戏事件的方法和设备
KR20150058111A (ko) 골프레슨 정보제공을 위한 골프 연습 시스템 및 이를 이용한 골프레슨 정보제공을 위한 정보 처리방법
JP7037279B2 (ja) ゲームプログラム、方法、および情報処理装置
KR20150025833A (ko) 골프레슨 정보제공을 위한 골프 연습 시스템 및 이를 이용한 골프레슨 정보제공을 위한 정보 처리방법
KR102433084B1 (ko) 가상 현실 게임용 플레이어 감정 분석 방법, 플레이어 감정 기반 가상 현실 서비스 운용 방법 및 가상 현실 시스템
WO2020166153A1 (ja) 評価装置、評価方法、及び評価プログラム
KR101948861B1 (ko) 야구 게임 및 시뮬레이션의 투수 역할을 위한 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240424