JP2020151092A - 自閉症治療支援システム、自閉症治療支援装置、及びプログラム - Google Patents

自閉症治療支援システム、自閉症治療支援装置、及びプログラム Download PDF

Info

Publication number
JP2020151092A
JP2020151092A JP2019051419A JP2019051419A JP2020151092A JP 2020151092 A JP2020151092 A JP 2020151092A JP 2019051419 A JP2019051419 A JP 2019051419A JP 2019051419 A JP2019051419 A JP 2019051419A JP 2020151092 A JP2020151092 A JP 2020151092A
Authority
JP
Japan
Prior art keywords
user
unit
treatment support
autism
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019051419A
Other languages
English (en)
Other versions
JP6787601B2 (ja
Inventor
シング・マヤンク・クマール
Kumar Shing Mayank
さゆり シーセン
Sayuri Theisen
さゆり シーセン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Impute
Impute Co Ltd
Original Assignee
Impute
Impute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Impute, Impute Co Ltd filed Critical Impute
Priority to JP2019051419A priority Critical patent/JP6787601B2/ja
Priority to PCT/JP2020/012331 priority patent/WO2020189760A1/ja
Priority to US17/440,885 priority patent/US20220160227A1/en
Publication of JP2020151092A publication Critical patent/JP2020151092A/ja
Application granted granted Critical
Publication of JP6787601B2 publication Critical patent/JP6787601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Educational Administration (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Eye Examination Apparatus (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Rehabilitation Tools (AREA)

Abstract

【課題】自閉症患者の視覚的な集中力を改善することができる自閉症治療支援システム、自閉症治療支援装置、及びプログラムを提供する。【解決手段】本技術は、自閉症治療支援システム、自閉症治療支援装置、及びプログラムに関する。自閉症治療支援システムは、自閉症治療支援装置の表示部に対するユーザの目の動きを追跡する追跡部と、上記ユーザの上記表示部に対する注視に関して、上記ユーザの目の動きの傾向を分析する分析部と、上記ユーザの目の動きの傾向、及び上記ユーザの目の動きの傾向に基づいて決定された上記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、上記決定したトレーニング内容を反映したトレーニングプログラムを上記自閉症治療支援装置上で実行する実行部とを備える。【選択図】図1

Description

本技術は、自閉症治療支援システム、自閉症治療支援装置、及びプログラムに関する。
従来、自閉症の治療法として、ABA(Applied Behavior Analysis)療法が知られている。自閉症とは、対人的相互反応の質的障害、コミュニケーションの質的障害、興味の限局、反復行動等を特徴とする発達障害である。以下、「自閉症」は、自閉症スペクトラム障害の一つに分類される自閉性障害に限らず、自閉症スペクトラム障害を含む広義の自閉症を指すものとする。
自閉症を治療するためには、ABA療法を早期に実施することが好ましい。したがって、患者が自閉症であるか否かを早期に診断することが望まれる。
自閉症患者には、他人とのアイコンタクトを避ける等の傾向がある。言い換えれば、自閉症患者の目の動き(視線)は、健常者の目の動きと異なる。そこで、視線追跡(アイトラッキング)技術を利用して自閉症を診断するための方法が提案されている。
例えば、特許文献1に開示されている自閉症診断方法では、画像を見る被験者の視線位置情報を検出した後、被験者の視線位置情報と自閉症者及び/又は定型発達者の視線位置情報とを比較する視線位置評価アルゴリズムにより、被験者の視線位置を評価することにより、被験者が自閉症であるか否かを判断している。
特開2013−223713号公報
ところで、自閉症を治療するためには、自閉症患者の視覚的な集中力を改善することが重要である。しかしながら、特許文献1に記載の方法は、自閉症を診断することができても、視覚的な集中力を改善することは困難であった。
本技術は、このような状況に鑑みてなされたものであり、自閉症患者の視覚的な集中力を改善することができる自閉症治療支援システム、自閉症治療支援装置、及びプログラムを提供することを目的とする。
本技術の一実施形態に係る自閉症治療支援システムは、
自閉症治療支援装置の表示部に対するユーザの目の動きを追跡する追跡部と、
上記ユーザの上記表示部に対する注視に関して、上記ユーザの目の動きの傾向を分析する分析部と、
上記ユーザの目の動きの傾向、及び上記ユーザの目の動きの傾向に基づいて決定された上記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
上記決定したトレーニング内容を反映したトレーニングプログラムを上記自閉症治療支援装置上で実行する実行部と
を備える。
上記自閉症治療支援システムにおいて、
上記決定部は、上記トレーニング内容を、
上記表示部に表示された物体を上記ユーザが注視する頻度、
上記ユーザが上記物体を注視する継続時間、
上記ユーザが注視している物体における注視点、並びに
上記注視点の移動速度及び移動範囲
の少なくとも1つに基づいて決定してもよい。
本技術の一実施形態に係る自閉症治療支援装置は、
表示部に対するユーザの目の動きを追跡する追跡部と、
上記ユーザの上記表示部に対する注視に関して、上記ユーザの目の動きの傾向を分析する分析部と、
上記ユーザの目の動きの傾向、及び上記ユーザの目の動きの傾向に基づいて決定された上記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
上記決定したトレーニング内容を反映したトレーニングプログラムを実行する実行部と
を備える。
本技術の一実施形態に係るプログラムは、
自閉症治療支援装置を、
上記自閉症治療支援装置の表示部に対するユーザの目の動きを追跡する追跡部と、
上記ユーザの上記表示部に対する注視に関して、上記ユーザの目の動きの傾向を分析する分析部と、
上記ユーザの目の動きの傾向、及び上記ユーザの目の動きの傾向に基づいて決定された上記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
上記決定したトレーニング内容を反映したトレーニングプログラムを上記自閉症治療支援装置上で実行する実行部
として機能させる。
本技術によれば、自閉症患者の視覚的な集中力を改善することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術の一実施形態に係る自閉症治療支援システムにおける自閉症治療支援装置のハードウェア構成を示すブロック図である。 上記自閉症治療支援装置の機能的構成を示すブロック図である。 上記自閉症治療支援装置の動作を示すフローチャートである。 上記自閉症治療支援装置の表示部に表示される画像の一例を模式的に示す図である。 上記自閉症治療支援装置上で実行するトレーニングプログラムにおけるトレーニング内容の一例を示す表である。 上記自閉症治療支援装置の表示部に表示される画像の一例を模式的に示す図である。
以下、図面を参照して、本技術の実施の形態について説明する。
本技術の一実施形態に係る自閉症治療支援システムは、自閉症治療支援装置を含む。以下、自閉症治療支援装置としてタブレット端末を用いた例について説明する。
(自閉症治療支援装置のハードウェア構成)
図1は、本技術の一実施形態に係る自閉症治療支援装置のハードウェア構成を示すブロック図である。自閉症治療支援装置1は、典型的には、タブレット端末である。以下、自閉症治療支援装置1を「タブレット端末1」と記載する。
タブレット端末1は、制御部11、操作部12、記憶部13、通信インターフェース14、音声入力部15、音声出力部16、及びカメラ17を有する。制御部11は、上記各部の動作制御を行う。また、制御部11は、上記各部との間で信号又はデータを送受信する。
制御部11は、CPU(Central Processing Unit)等を含む。制御部11のCPUは、ROM(Read Only Memory)に記録されたプログラムをRAM(Random Access Memory)にロードして実行する。
操作部12は、タッチパネル等のポインティングデバイスである。操作部12は、ユーザによる操作に対応する信号を生成する。操作部12は、生成した信号を制御部11に出力する。操作部12は、LCD(Liquid Crystal Display)又は有機EL(Electroluminescence)ディスプレイ等の表示部12aを含む。
記憶部13は、ROMと、RAMと、HDD(Hard Disk Drive)等の大容量の記憶装置とを含む。ROMは、制御部11が実行するプログラム及びデータ等を格納する。RAMには、ROMに格納されたプログラムがロードされる。
通信インターフェース14は、ネットワークNに接続するためのインターフェースである。
音声入力部15は、マイクロフォン、増幅器、A/D変換器等を含む。音声入力部15は、ユーザが入力した音声のデータを受け付ける。音声入力部15は、入力されたデータをデジタル音声データに変換して制御部11に出力する。
音声出力部16は、スピーカ等を含む。ただし、音声の出力が可能であれば、どのようなデバイスであってもよい。音声出力部16は、制御部11から供給された音声データに対応する音声を出力する。
カメラ17は、撮像素子及びレンズ等を含む。カメラ17は、撮像により得られたデータを制御部11に供給する。撮像素子としては、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の公知の撮像素子を用いることができる。
(自閉症治療支援装置の機能的構成)
図2は、自閉症治療支援装置の機能的構成を示すブロック図である。
タブレット端末1は、ROMに記憶されたプログラムを実行することにより、追跡部111と、分析部112と、決定部113と、実行部114として機能する。
追跡部111は、タブレット端末1の表示部12aに対するユーザの目の動きを追跡する。
分析部112は、ユーザの表示部12aに対する注視に関して、ユーザの目の動きの傾向を分析する。
決定部113は、ユーザの目の動きの傾向、及びユーザの目の動きの傾向に基づいて決定されたユーザが習得すべき技能に基づいて、トレーニング内容を決定する。
実行部114は、決定したトレーニング内容を反映したトレーニングプログラムをタブレット端末1上で実行する。
(自閉症治療支援装置の動作)
図3は、自閉症治療支援装置の動作を示すフローチャートである。図4は、自閉症治療支援装置の表示部に表示される画像の一例を模式的に示す図面である。
追跡部111は、ユーザの目の動き(視線)を追跡する(ステップS101)。具体的には、追跡部111は、カメラ17により撮像されたユーザの目を含む画像から、ユーザの瞳孔の位置を検出する。追跡部111は、検出したユーザの瞳孔の位置と、表示部12a及びカメラ17との位置関係に基づいて、ユーザが表示部12aのどの位置を見ているかを検出する。例えば、ユーザが操作部12を操作して表示部12a上のアイテム121を動かしているとき、表示部12aに表示されたキャラクター131がユーザに対して音声出力部16を介して質問をしているとき、当該質問にユーザが音声入力部15を介して答えているとき、等にユーザが表示部12aのどの位置を見ているかを検出する。なお、ユーザの視線を検出する方法としては、ユーザが表示部12aのどの位置を見ているかを検出できるものであれば、公知の視線検出方法を用いてもよい。
追跡部111は、上記検出した位置を表す信号を生成する。追跡部111は、生成した信号を視線情報として分析部112に送信する。
分析部112は、ユーザの目の動きの傾向を分析する(ステップS102)。具体的には、分析部112は、追跡部111から送信された視線情報を受信する。分析部112は、受信した視線情報に基づいて、ユーザの目の動きの傾向を分析する。例えば、分析部112は、所定の時間内に表示部12aに表示されている各物体(キャラクター、アイテム、及び背景を含む)を注視する頻度を算出する。以下、上記物体を注視する頻度を「注視頻度」と呼ぶ。
分析部112は、ユーザが各物体を注視する時の視点の位置(以下、「注視点」と呼ぶ)を判定する。例えば、分析部112は、当該注視点に対応する表示部12a上の位置座標を算出する。
また、分析部112は、所定の時間内に上記注視点が移動する速度を算出する。例えば、分析部112は、移動前の注視点の位置座標と移動後の位置座標との距離を移動時間で除算することで、注視点の移動速度を算出する。
また、分析部112は、所定の時間内に上記注視点が移動する範囲を判定する。例えば、分析部112は、表示部12a上の位置座標に基づいて、注視点に対応するキャラクター131等の部位(目、口、手、足等)を判定する。また、分析部112は、当該部位の形や色、模様等を判定してもよい。
分析部112は、所定の時間内にユーザが各物体を注視した回数(注視回数)を算出する。例えば、分析部112は、キャラクター131の所定の範囲(すなわち、表示部12a上の所定の位置座標)内に注視点が入る度に注視回数をインクリメントする。上記所定の範囲は、キャラクター131全体としてもよいし、上記部位としてもよい。
分析部112は、以上のようにして、所定の時間内にユーザが各物体を注視した回数(注視頻度)を算出する。また、分析部112は、上記部位毎に注視頻度を算出してもよい。例えば、分析部112は、ユーザがキャラクター131の目の部分を注視する頻度を算出することで、ユーザのキャラクター131に対するアイコンタクト(注視)の頻度を算出することができる。また、分析部112は、色毎に上記注視頻度を算出してもよい。
また、分析部112は、所定の時間内にユーザがキャラクター131等を注視した継続時間を算出する。例えば、分析部112は、キャラクター131の所定の範囲(すなわち、表示部12a上の所定の位置座標)内に注視点が入った時から出ていく時までの時間を計測する。上記所定の範囲は、キャラクター131全体としてもよいし、上記部位としてもよい。
上記継続時間としては、ユーザがキャラクター131等を注視した時間(以下、注視時間という)の合計時間を用いることができる。例えば、ユーザがキャラクター131を3回注視し、それぞれの注視時間が2.5秒、5.3秒、及び4.2秒だった場合、継続時間を12.0秒とすることができる。あるいは、注視時間のうち最長のもの(本例の場合、5.3秒)を継続時間として用いてもよい。その他、最初に注視した物体の注視時間を継続時間として用いてもよい。また、各物体が表示部12aに表示される表示時間が異なる場合、当該表示時間の上記所定の時間に対する割合に応じた値を継続時間に乗算してもよい。
分析部112は、以上のようにして算出した注視頻度や継続時間等を、各物体と関連付けて記憶部13のテーブル13a(図2参照)に登録する。なお、分析部112は、必ずしも上記した算出や判定の全てを実施する必要はない。分析部112は、テーブル13aに注視頻度等を登録したことを決定部113に通知する。本例においては、部位毎に継続時間等を算出している。
決定部113は、トレーニング内容を決定する(ステップ103)。具体的には、決定部113は、分析部112から上記通知を受ける。決定部113は、テーブル13aを参照し、登録された情報を読み出す。決定部113は、読み出した登録情報に基づいて、トレーニング内容を決定する。トレーニング内容は、後述のトレーニングプログラムに使用するキャラクター、アイテム、背景、及びユーザが習得すべき技能等を含む。
例えば、決定部113は、注視頻度が最も多いキャラクターをメインキャラクターとして設定する。例えば、図2のテーブル13aに示す例の場合、決定部113は、キャラクター131をメインキャラクターとして設定する。また、決定部113は、継続時間が最も長いキャラクターをメインキャラクターとして設定してもよい。この場合、決定部113は、キャラクター133をメインキャラクターとして設定する。なお、メインキャラクターは、トレーニングプログラムにおいて、ティーチャー(教師)として使用される。
決定部113は、同様にして、メインキャラクターに設定されたキャラクター以外のキャラクターをサブキャラクターとして設定してもよい。例えば、図5のAに示すように、各キャラクターに継続時間が長い順に優先順位を付けてもよい。
また、決定部113は、上記部位の形や色、模様等に応じて、各キャラクターの状態設定を行ってもよい。当該状態設定は、キャラクターの部位の形や色、模様等を設定することを含む。例えば、キャラクターの各部位の色を、継続時間のより長い色に設定してもよい。この場合、分析部112は、表示部12a全体に含まれる色ごとに注視頻度や継続時間を算出してもよい。分析部112は、算出した注視頻度や継続時間を各物体ではなく各色に関連付けてテーブル13aに登録すればよい。
決定部113は、使用キャラクターと同様にして、トレーニングプログラムに使用するアイテム、背景等を決定する。
また、決定部113は、受信した分析情報に基づいて、ユーザが習得すべき技能を決定する。技能は、継続して物体を注視する(継続注視)技能、移動する物体を追跡する(追跡注視)技能、物体の特定の部位(キャラクター等の目に相当する部分)を注視する(アイコンタクト)技能等を含む。例えば、決定部113は、上記継続時間や移動速度に基づいて、ユーザの技能レベルを判定する。この場合、技能レベルを判定するための閾値(継続時間の範囲)をあらかじめ設定しておいてもよい。例えば、継続時間が0秒〜1.0秒の場合、継続注視の技能レベルは1、継続時間が1.0秒〜2.0秒の場合、継続注視の技能レベルは2、以下同様に、レベル3、4…、というように閾値を設定することができる。また、必ずしも継続時間が長いほど高いレベルとする必要はなく、技能毎に好ましいと考えられる任意の閾値を設定してもよい。
以上のように、決定部113は、表示部12aに表示されたキャラクター131等をユーザが注視する頻度、ユーザがキャラクター131等を注視する継続時間、ユーザが注視しているキャラクター131等における注視点、並びに当該注視点の移動速度及び移動範囲の少なくとも1つに基づいてトレーニング内容を決定する。図5は、タブレット端末1上で実行するトレーニングプログラムにおけるトレーニング内容の一例を示す表である。図5のAには、使用するキャラクターの優先順位及び状態設定を表す情報が示されている。本例では、優先順位の高いキャラクター131がメインキャラクターとして設定されている。また、キャラクター131の色を赤に変更する状態設定が行われている。また、図5のBには、ユーザが習得すべき技能のレベルが示されている。本例では、ユーザの継続注視技能のレベルが最も低いレベルとして設定されている。
決定部113は、決定したトレーニング内容に基づいて、記憶部13に記録されたトレーニングプログラムを更新する。図5の例では、トレーニングプログラムは、メインキャラクターとしてキャラクター131を用い、主に継続注視技能をトレーニングするトレーニングプログラムに更新される。決定部113は、トレーニングプログラムを更新したことを実行部114に通知する。
実行部114は、決定部113により更新されたプログラム(以下、更新プログラムという)をタブレット端末1上で実行する(ステップ104)。具体的には、実行部114は、決定部113から上記通知を受ける。実行部114は、記憶部13に記憶された更新プログラムを読み出す。実行部114は、当該読み出した更新プログラムを、タブレット端末1上で実行する。
以上のようにして、タブレット端末1の表示部12aには、更新プログラムに基づく画像が表示される。図6は、タブレット端末1の表示部12aに表示される、更新プログラムに基づく画像の一例を模式的に示す図である。図6に示す例においては、メインキャラクターとして、色が赤に変更されたキャラクター131が表示部12aに表示されている。
本例において、キャラクター131は、ユーザが物体を見る継続時間等に基づいて決定されたキャラクターである。すなわち、キャラクター131は、ユーザが最も興味を示すと考えられるキャラクターである。キャラクター131は、更新プログラムにおいて、ユーザが各技能をトレーニングするためのティーチャーとしての役割を果たす。ユーザは、自分の好きなキャラクターに視線の使い方等を教えてもらえるため、効率よく視覚的な集中力をトレーニングすることができる。
また、本例において、ユーザは、継続注視技能をトレーニングするための課題(項目)を中心に、プログラムを進めていく。例えば、ユーザは、キャラクター131と音声入力部15及び音声出力部16を介して会話しながら、課題を実施していく。本例において、継続注視技能は、ユーザが最も技能レベルが低い技能である。すなわち、継続注視技能は、最もユーザが習得すべきであると考えられる技能である。ユーザは、自己の技能のレベルに応じて最適な課題を実施することができるため、効率よく視覚的な集中力をトレーニングすることができる。
以上のようにして、ユーザは、自己の嗜好とトレーニングすべき技能とを反映したプログラムにより、効率よく視覚的な集中力をトレーニングすることができる。
(変形例)
上記実施形態においては、自閉症治療支援装置をタブレット端末として説明したが、これに限られない。例えば、スマートフォン、ラップトップPC(Personal Computer)、デスクトップPC、その他のあらゆる視聴覚装置等を自閉症治療支援装置として用いることができる。自閉症治療支援装置としてデスクトップPC等を用いた場合、操作部としてマウス、キーボード、スイッチ等の各種の入力装置を用いてもよい。
また、カメラ、音声入力部、音声出力部等は、自閉症治療支援装置に内蔵されていなくてもよい。例えば、自閉症治療支援装置とは別個のカメラ、マイクロフォン、スピーカ等を用いてもよい。
また、記憶部として、インターネット(クラウド)上の記憶部を用いてもよい。この場合、自閉症治療支援装置の制御部11は、通信インターフェース14を介して当該記憶部と通信を行えばよい。さらに、分析部として、クラウド上の人工知能(AI)を用いてもよい。この場合、公知のアルゴリズムにより、クラウド上の記憶部に記憶されたデータを利用して、当該人工知能に学習させればよい。同様に、決定部における技能レベルの判定も、当該人工知能に行わせてもよい。
また、トレーニングプログラムにおいて使用する各物体は、ユーザが任意に選択してもよい。また、選択された物体の色等もユーザが任意に選択してもよい。すなわち、トレーニングプログラムにおいて使用される各物体は、ユーザがカスタマイズ可能である。
(まとめ)
自閉症患者には、対人的相互反応の質的障害、コミュニケーションの質的障害、興味の限局、反復行動等の問題がある。従来、視線追跡(アイトラッキング)技術を利用して被験者の視線を追跡することにより、被験者が自閉症であるか否かの判断が行われている。
本技術によれば、自閉症患者に最適な視線の使い方等のトレーニング内容をプログラムに組み込むことにより、自閉症患者はゲーム感覚で視線の動かし方等の練習をすることができる。これにより、自閉症患者に適切な視線の使い方を習得させることができる。その結果、他人とのアイコンタクトの適切な頻度及びその維持等の対人相互関係に必要な社会性スキルを向上させることができる。
さらに、本技術は、以下の構成とすることも可能である。
(1)
自閉症治療支援装置の表示部に対するユーザの目の動きを追跡する追跡部と、
上記ユーザの上記表示部に対する注視に関して、上記ユーザの目の動きの傾向を分析する分析部と、
上記ユーザの目の動きの傾向、及び上記ユーザの目の動きの傾向に基づいて決定された上記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
上記決定したトレーニング内容を反映したトレーニングプログラムを上記自閉症治療支援装置上で実行する実行部と
を備える
自閉症治療支援システム。
(2)
(1)に記載の自閉症治療支援システムであって、
上記決定部は、上記トレーニング内容を、
上記表示部に表示された物体を上記ユーザが注視する頻度、
上記ユーザが上記物体を注視する継続時間、
上記ユーザが注視している物体における注視点、並びに
上記注視点の移動速度及び移動範囲
の少なくとも1つに基づいて決定する
自閉症治療支援システム。
(3)
表示部に対するユーザの目の動きを追跡する追跡部と、
上記ユーザの上記表示部に対する注視に関して、上記ユーザの目の動きの傾向を分析する分析部と、
上記ユーザの目の動きの傾向、及び上記ユーザの目の動きの傾向に基づいて決定された上記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
上記決定したトレーニング内容を反映したトレーニングプログラムを実行する実行部と
を備える
自閉症治療支援装置。
(4)
自閉症治療支援装置を、
上記自閉症治療支援装置の表示部に対するユーザの目の動きを追跡する追跡部と、
上記ユーザの上記表示部に対する注視に関して、上記ユーザの目の動きの傾向を分析する分析部と、
上記ユーザの目の動きの傾向、及び上記ユーザの目の動きの傾向に基づいて決定された上記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
上記決定したトレーニング内容を反映したトレーニングプログラムを上記自閉症治療支援装置上で実行する実行部と
として機能させるプログラム。
1 タブレット端末
111 追跡部
112 分析部
113 決定部
114 実行部

Claims (4)

  1. 自閉症治療支援装置の表示部に対するユーザの目の動きを追跡する追跡部と、
    前記ユーザの前記表示部に対する注視に関して、前記ユーザの目の動きの傾向を分析する分析部と、
    前記ユーザの目の動きの傾向、及び前記ユーザの目の動きの傾向に基づいて決定された前記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
    前記決定したトレーニング内容を反映したトレーニングプログラムを前記自閉症治療支援装置上で実行する実行部と
    を具備する
    自閉症治療支援システム。
  2. 請求項1に記載の自閉症治療支援システムであって、
    前記決定部は、前記トレーニング内容を、
    前記表示部に表示された物体を前記ユーザが注視する頻度、
    前記ユーザが前記物体を注視する継続時間、
    前記ユーザが注視している物体における注視点、並びに
    前記注視点の移動速度及び移動範囲
    の少なくとも1つに基づいて決定する
    自閉症治療支援システム。
  3. 表示部に対するユーザの目の動きを追跡する追跡部と、
    前記ユーザの前記表示部に対する注視に関して、前記ユーザの目の動きの傾向を分析する分析部と、
    前記ユーザの目の動きの傾向、及び前記ユーザの目の動きの傾向に基づいて決定された前記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
    前記決定したトレーニング内容を反映したトレーニングプログラムを実行する実行部と
    を具備する
    自閉症治療支援装置。
  4. 自閉症治療支援装置を、
    前記自閉症治療支援装置の表示部に対するユーザの目の動きを追跡する追跡部と、
    前記ユーザの前記表示部に対する注視に関して、前記ユーザの目の動きの傾向を分析する分析部と、
    前記ユーザの目の動きの傾向、及び前記ユーザの目の動きの傾向に基づいて決定された前記ユーザが習得すべき技能に基づいて、トレーニング内容を決定する決定部と、
    前記決定したトレーニング内容を反映したトレーニングプログラムを前記自閉症治療支援装置上で実行する実行部と
    として機能させるプログラム。
JP2019051419A 2019-03-19 2019-03-19 自閉症治療支援システム、自閉症治療支援装置、及びプログラム Active JP6787601B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019051419A JP6787601B2 (ja) 2019-03-19 2019-03-19 自閉症治療支援システム、自閉症治療支援装置、及びプログラム
PCT/JP2020/012331 WO2020189760A1 (ja) 2019-03-19 2020-03-19 自閉症治療支援システム、自閉症治療支援装置、及びプログラム
US17/440,885 US20220160227A1 (en) 2019-03-19 2020-03-19 Autism treatment assistant system, autism treatment assistant device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051419A JP6787601B2 (ja) 2019-03-19 2019-03-19 自閉症治療支援システム、自閉症治療支援装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020151092A true JP2020151092A (ja) 2020-09-24
JP6787601B2 JP6787601B2 (ja) 2020-11-18

Family

ID=72520262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051419A Active JP6787601B2 (ja) 2019-03-19 2019-03-19 自閉症治療支援システム、自閉症治療支援装置、及びプログラム

Country Status (3)

Country Link
US (1) US20220160227A1 (ja)
JP (1) JP6787601B2 (ja)
WO (1) WO2020189760A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114566258A (zh) * 2022-01-18 2022-05-31 华东师范大学 一种自闭症评估对象中文构音障碍矫治方案的规划系统
WO2022123706A1 (ja) * 2020-12-09 2022-06-16 Impute株式会社 自閉症治療支援システム、自閉症治療支援装置、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258450A (zh) * 2013-03-22 2013-08-21 华中师范大学 面向孤独症儿童的智能学习平台
JP2013169375A (ja) * 2012-02-22 2013-09-02 Jvc Kenwood Corp 脳機能疾患診断支援装置および脳機能疾患診断支援方法
JP2013223713A (ja) * 2012-03-21 2013-10-31 Hamamatsu Univ School Of Medicine 自閉症診断支援方法およびシステム並びに自閉症診断支援装置
JP2016034466A (ja) * 2014-07-31 2016-03-17 株式会社Jvcケンウッド トレーニング支援装置、トレーニング支援方法およびプログラム
US20170188930A1 (en) * 2014-09-10 2017-07-06 Oregon Health & Science University Animation-based autism spectrum disorder assessment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013169375A (ja) * 2012-02-22 2013-09-02 Jvc Kenwood Corp 脳機能疾患診断支援装置および脳機能疾患診断支援方法
JP2013223713A (ja) * 2012-03-21 2013-10-31 Hamamatsu Univ School Of Medicine 自閉症診断支援方法およびシステム並びに自閉症診断支援装置
CN103258450A (zh) * 2013-03-22 2013-08-21 华中师范大学 面向孤独症儿童的智能学习平台
JP2016034466A (ja) * 2014-07-31 2016-03-17 株式会社Jvcケンウッド トレーニング支援装置、トレーニング支援方法およびプログラム
US20170188930A1 (en) * 2014-09-10 2017-07-06 Oregon Health & Science University Animation-based autism spectrum disorder assessment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022123706A1 (ja) * 2020-12-09 2022-06-16 Impute株式会社 自閉症治療支援システム、自閉症治療支援装置、及びプログラム
CN114566258A (zh) * 2022-01-18 2022-05-31 华东师范大学 一种自闭症评估对象中文构音障碍矫治方案的规划系统
CN114566258B (zh) * 2022-01-18 2023-04-21 华东师范大学 一种孤独症评估对象中文构音障碍矫治方案的规划系统

Also Published As

Publication number Publication date
US20220160227A1 (en) 2022-05-26
WO2020189760A1 (ja) 2020-09-24
JP6787601B2 (ja) 2020-11-18

Similar Documents

Publication Publication Date Title
KR102477327B1 (ko) 인지 능력 측정을 위한 프로세서 구현 시스템 및 방법
US10474793B2 (en) Systems, apparatus and methods for delivery and augmentation of behavior modification therapy and teaching
US20120277594A1 (en) Mental health and well-being
JP6636670B1 (ja) 学習システム、学習講義提供方法、およびプログラム
WO2020189760A1 (ja) 自閉症治療支援システム、自閉症治療支援装置、及びプログラム
Rothacher et al. Visual capture of gait during redirected walking
Llobera et al. The subjective sensation of synchrony: an experimental study
Sharma et al. Keep calm and do not carry-forward: Toward sensor-data driven ai agent to enhance human learning
Cabrera et al. Kinect as an access device for people with cerebral palsy: A preliminary study
Porcino et al. Identifying cybersickness causes in virtual reality games using symbolic machine learning algorithms
US11928891B2 (en) Adapting physical activities and exercises based on facial analysis by image processing
Perepelkina et al. Artificial hand illusions dynamics: Onset and fading of static rubber and virtual moving hand illusions
KR20200032927A (ko) 감정 상태를 개선시키는 방법 및 그 장치
Maurer et al. Can Stephen Curry really know?—Conscious access to outcome prediction of motor actions
US20220369973A1 (en) Extended reality system to treat subjects associated with autism spectrum disorder
US20230127335A1 (en) Intelligent and adaptive measurement system for remote education
Shrestha et al. An algorithm for automatically detecting dyslexia on the fly
Kreyenmeier et al. Rapid Audiovisual Integration Guides Predictive Actions
KR102348692B1 (ko) 가상중재 인지재활시스템
Delahaye et al. Avatar error in your favor: Embodied avatars can fix users’ mistakes without them noticing
US20240164672A1 (en) Stress detection
KR102359061B1 (ko) 사용자의 주의집중여부판단에 기반한 인지재활시스템
Okamoto et al. Characterizing eye-gaze positions of people with severe motor dysfunction: Novel scoring metrics using eye-tracking and video analysis
D’Aquino et al. Imagining interceptions: Eye movements as an online indicator of covert motor processes during motor imagery
CN117120958A (zh) 压力检测

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201007

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201007

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201022

R150 Certificate of patent or registration of utility model

Ref document number: 6787601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04