CN110866434B - 一种针对自闭症患者的表情识别训练方法及系统 - Google Patents
一种针对自闭症患者的表情识别训练方法及系统 Download PDFInfo
- Publication number
- CN110866434B CN110866434B CN201910726448.4A CN201910726448A CN110866434B CN 110866434 B CN110866434 B CN 110866434B CN 201910726448 A CN201910726448 A CN 201910726448A CN 110866434 B CN110866434 B CN 110866434B
- Authority
- CN
- China
- Prior art keywords
- expression recognition
- patient
- training
- expression
- training mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 181
- 238000012549 training Methods 0.000 title claims abstract description 162
- 238000000034 method Methods 0.000 title claims abstract description 31
- 206010003805 Autism Diseases 0.000 title claims abstract description 22
- 208000020706 Autistic disease Diseases 0.000 title claims abstract description 22
- 238000003058 natural language processing Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 206010058314 Dysplasia Diseases 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 208000035475 disorder Diseases 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 208000037804 stenosis Diseases 0.000 description 1
- 230000036262 stenosis Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Evolutionary Biology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Rehabilitation Tools (AREA)
Abstract
本发明提出的一种针对自闭症患者的表情识别训练方法及系统,包括虚拟现实装置,自然语言处理装置和表情识别训练装置,虚拟现实装置向患者展示一系列包括多个训练模式的表情识别训练场景,表情识别训练装置获取患者反馈指令,根据反馈指令评估患者的表情识别完成度并确定患者所接受的训练模式,使患者在虚拟场景中避免面对不认识的人,借助动作捕捉和语音识别技术帮助患者能够逐步识别和认知人物的表情,慢慢地摆脱社交障碍的困扰。
Description
技术领域
本发明涉及辅助康复训练领域,具体涉及一种针对自闭症患者的表情识别训练方法及系统。
背景技术
自闭症,又称儿童孤独症,是广泛性发育障碍的一种亚型,以男性多见,起病于婴幼儿期,主要表现为不同程度的言语发育障碍、人际交往障碍、兴趣狭窄和行为方式刻板。根据国际统计比例,自闭症的发病率约占全球人口总数的万分之八至十五,呈逐年上升的趋势,
自闭症的治疗主要是使用训练干预方法。针对患者进行个体化的教育和社交训练是目前最有效、最主要的治疗方法。其中表情识别作为社交训练的一个重要分支,是解决自闭症社交障碍的重要途径之一。自闭症患者的一个重要表现是难以与人沟通且注意力不集中,不能识别对话人的神态表情,因此难以进行交流互动。因此通过辅助治疗手段,帮助病人实现表情识别训练是一个亟待解决的难题。
发明内容
本发明的目的是提供一种针对自闭症患者的表情识别训练方法及系统,以便于解决现有技术中存在的上述问题。
为了达到上述目的,本发明一方面提供一种针对自闭症患者的表情识别训练方法,包括以下步骤:
向患者展示一系列表情识别训练场景,所述表情识别训练场景包括多个训练模式;
获取患者反馈指令,根据所述反馈指令评估患者的表情识别完成度,以确定患者所接受的所述训练模式。
在其中一个实施例中,所述方法还包括建立训练模式:
所述训练模式包括第一训练模式,所述第一训练模式展示多个表情识别对象,用以提供患者建立多个表情识别对象之间的逻辑关系。
具体的,在第一训练模式中,获取患者的身体姿态和动作轨迹,判断患者是否正确建立了所述第一训练模式提供的多个表情识别对象之间的逻辑关系,并评估患者的表情识别结果。
在其中一个实施例中,所述方法还包括建立训练模式:
所述训练模式包括第二训练模式,所述第二训练模式展示一个或多个表情识别对象,用以提供患者对一个或多个表情识别对象进行识别。
具体的,在第二练模式中,获取患者的语音信息,判断患者是否正确识别第二训练模式提供的一个或多个表情识别对象,并评估患者的表情识别结果。
在其中一个实施例中,所述方法还包括建立训练模式难度等级:
根据表情识别对象的复杂度建立不同难度等级的第一训练模式和第二训练模式。
具体的,根据患者的表情识别结果,设定患者接收相应难度等级的第一训练模式或第二训练模式的表情识别训练。
在其中一个实施例中,所述方法的表情识别对象采用VR图像、视频、音频和图片等媒体中的一种或多种。
具体的,所述表情识别对象包括了各种人物表情,所述表情识别训练场景为教室、走廊、体育馆、花园、厕所、食堂等虚拟场景。
另一方面,本发明还提供一种针对自闭症患者的表情识别训练系统,包括:
虚拟现实装置,用以向患者展现一表情识别训练场景,所述表情识别训练场景中包括多个表情识别对象;
自然语言处理装置,用以获取患者的反馈语音信息并进行分析处理,并将处理结果发送到表情识别训练装置;
表情识别训练装置,用以提供多种训练模式的表情识别训练场景,并且评估患者的表情识别完成度,根据表情识别完成度确定患者所需接受的训练模式。
在其中一个实施例中,所述虚拟现实装置通过六轴传感器和光学定位系统获取位姿信息和运动轨迹,所述虚拟现实装置包括可佩带式头盔显示器和手握式控制器。
在其中一个实施例中,所述表情识别训练装置根据虚拟现实装置的位姿信息和运动轨迹,判断患者是否建立了多个表情识别对象之间的逻辑关系,并评估患者的表情识别结果。
在其中一个实施例中,所述表情识别训练装置根据所述自然语言处理装置的语音处理结果,判断患者是否建立了一个或多个表情识别对象之间的逻辑关系,并评估患者的表情识别结果。
在其中一个实施例中,所述自然语音处理装置包括麦克风和扬声器,所述麦克风用以接收患者所发出的识别语音,所述扬声器用以播放表情识别训练装置下达的教学指令。
在其中一个实施例中,所述表情识别对象采用VR图像、视频、音频和图片等媒体中的一种或多种。
具体的,所述表情识别对象包括了各种人物表情,所述表情识别训练场景为教室、走廊、体育馆、花园、厕所、食堂等虚拟场景。
上述实施例提供的一种针对自闭症患者的表情识别训练方法及系统,包括虚拟现实装置,自然语言处理装置和表情识别训练装置,虚拟现实装置向患者展示一系列包括多个训练模式的表情识别训练场景,表情识别训练装置获取患者反馈指令,根据反馈指令评估患者的表情识别完成度并确定患者所接受的训练模式,使患者在虚拟场景中避免面对不认识的人,借助动作捕捉和语音识别技术帮助患者能够逐步识别和认知人物的表情,慢慢地摆脱社交障碍的困扰。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例的自闭症患者的表情识别训练方法的流程图;
图2为本发明一个实施例对患者识别表情的评估和相应训练模式确定的方法流程图;
图3为本发明一个实施例向患者展示表情识别训练场景的示意图;
图4为本发明一个实施例的针对自闭症患者的表情识别训练方法的系统架构图;
图5为本发明一个实施例的虚拟现实装置的示意图;
图6为本发明一个实施例的表情识别训练装置的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面参照附图描述根据本发明实施例提出的针对自闭症患者的表情识别训练方法及系统,首先将参照附图描述根据本发明实施例提出的自闭症患者的表情识别训练方法。
图1是本发明一个实施例的自闭症患者的表情识别训练方法的流程图。
如图1所示,该自闭症患者的表情识别训练方法包括以下步骤:
在步骤S101中,向自闭症患者展示一系列的表情识别训练场景,其中表情训练场景包括多个训练模式。
进一步的,在本发明的一个实施例中,为了避免自闭症患者在面对陌生环境和治疗者时感到恐慌和手足无措,进而影响对自闭症患者的治疗效果。本发明的实施例为自闭症患者提供一个利用虚沉现实技术搭建的表情识别训练环境。患者在虚拟现实环境中无需面对不认识的人,使患者在与虚拟现实环境中的互动过程中接收表情识别训练。
具体而言,采用虚拟现实技术搭建的表情识别训练场景中包括训练场景、人物和表情识别对象。训练场景包括了教室、走廊、体育馆、花园、厕所、食堂等学校常见的场所或遥远的星球,深邃的海底或者是某个历史遗迹等自然景色。训练场景可定时切换以保证患者的好奇感,防止患者出现强烈的不适感。人物包括老师、同学、父母等一个或多个人物形象,人物在训练环境中起到媒介作用,可通过语音向患者发布训练介绍、训练指令,训练提醒,训练成绩等信息,帮助患者在虚拟环境中完成表情识别训练。
进一步的,在本发明的一个实施例中,表情识别对象是虚拟教学训练的主要内容,表情识别对象不仅包括人类的喜、怒、哀、乐等简单表情,还包括困惑、厌恶、生气、恐惧、高兴、悲伤和惊讶等复杂表情。表情识别对象可以采用VR图像、视频、音频和图片等媒体中的一种或多种方式。在表情识别训练场景中,一个或多个表情识别对象被展示于虚拟环境中,患者通过动作或语音完成对表情的识别或建立表情之间和/否的逻辑关系。
如图3所示,当患者被提供一个表情识别对象时,患者可通过语音回答该表情的名称或根据语音发布的训练指令回答关于该表情的问题。患者也可被提供多个表情图像,患者通过动作或语音对表情识别对象进行选择,如选择相同表情并建立连接关系或回答相同表情的个数。
在步骤S102中,获取患者反馈指令,根据所述反馈指令评估患者的表情识别完成度,以确定患者所接受的所述训练模式。
进一步的,在本发明的一个实施例中,患者通过动作或语音识别表情识别对象之后,记录患者的姿态行为、运动轨迹和语音信息,根据对患者动作的记录,判断患者对表情图像识别的正确率。
图2为本发明一个实施例对患者识别表情的评估和相应训练模式确定的方法流程图。
如图2所示,该对患者识别表情的评估和相应训练模式确定的方法包括以下步骤:
S201,确定表情识别训练场景的阶段。
进一步的,在本发明的一个实施例中,表情识别训练场景分为训练和测试两种阶段。在训练阶段中,会多次重复同一训练模式的表情识别训练场景。在测试阶段中,系统提供表情识别测试,并对患者的表情识别结果进行评估。
S202,设置患者的初始训练模式。
进一步的,在本发明的一个实施例中,表情识别训练场景的训练模式分为简单、中等和复杂三个训练模式。患者的初始训练模式可通过两种方式进行设置,第一种系统通过人工设定患者的初始训练模式,第二种系统根据用户上一轮测试的表情识别结果自动设置。
更进一步的,在本发明的一个实施例中,表情识别训练场景的简单训练模式包括6个表情识别对象,其6个表情识别对象均采用简单表情,患者可通过动作选取相同的两个表情进行识别。表情识别训练场景的中等训练模式同样包括6个表情识别对象,其6个表情识别对象均采用复杂表情,患者可通过动作选取相同的两个表情进行识别。表情识别训练场景的复杂训练模式包括一个复杂表情,患者可通过语音描述该表情进行识别。
S203,评估患者的表情识别结果,设定患者所接受的训练模式。
进一步的,在本发明的一个实施例中,系统根据当前训练模式的表情识别成功率来判定表情识别结果。其中,当患者在当前训练模式多次成功识别表情时,患者可进入下一难度的训练模式接收进一步的测试。当患者在当前训练模式未成功判定表情识别结果时,患者则进入训练阶段,多次重复同一训练模式的表情识别训练场景,以加强患者的表情识别能力。
图4为本发明一种针对自闭症患者的表情识别训练系统的系统架构图。
如图4所示,本实施例提供的一种针对自闭症患者的表情识别训练系统包括:虚拟现实装置401,自然语言处理装置402和表情识别训练装置403。
虚拟现实装置401,用以向患者展现表情识别训练场景。自然语言处理装置 402,用以获取患者的反馈语音信息并进行分析处理,并将处理结果发送到表情识别训练装置。表情识别训练装置403,用以提供多种训练模式的表情识别训练场景,并且评估患者的表情识别完成度,根据表情识别完成度确定患者所需接受的训练模式。
如图5所示,本实施例提供的虚拟现实装置,包括可佩带式头盔显示器501 和手握式控制器502。可佩带式头盔现实器501向患者展现表情识别处理场,用户操作手握式控制器502发送操作指令。
进一步的,在一个实施例中,可佩带式头盔显示器501和手握式控制器502 均通过六轴传感器和光学定位系统获取空间位置和角度信息。可佩带式头盔显示器501记录用户的头部运动信息,用户身上也可绑定若干个传感器,从而记录使用过程中用户的四肢运动信息。这些运动信息可以传送到表情识别训练装置403,在每次训练结束后,可以使用这些运动信息模拟出一个虚拟的人物,从而让用户可以看到自己训练时的肢体动作,更好的促进用户的交互能力。
如图6所示,表情识别训练装置403为一种计算机可读存储介质,上存储有计算机程序,该程序被处理器执行时实现完成本发明实施例所述对患者识别表情的评估和相应训练模式确定的方法,该方法可以包括以下步骤:
S201,确定表情识别训练场景的阶段。
S202,设置患者的初始训练模式。
S203,评估患者的表情识别结果,设定患者所接受的训练模式。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言-诸如Java、 Smalltalk、C++,还包括常规的过程式程序设计语言-诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种针对自闭症患者的表情识别训练方法,其特征在于,包括以下步骤:
向患者展示一系列表情识别训练场景,所述表情识别训练场景包括多个训练模式, 所述训练模式包括第一训练模式和第二训练模式,所述第一训练模式展示多个表情识别对象,用以提供患者建立多个表情识别对象之间的逻辑关系,所述第二训练模式展示一个或多个表情识别对象,用以提供患者对一个或多个表情识别对象进行识别;
获取患者反馈指令,根据所述反馈指令评估患者的表情识别完成度,以确定患者所接受的所述训练模式,包括:
获取患者的身体姿态和动作轨迹,判断患者是否正确建立了所述第一训练模式提供的多个表情识别对象之间的逻辑关系,并评估患者的表情识别结果,取患者的语音信息,判断患者是否正确识别第二训练模式提供的一个或多个表情识别对象,并评估患者的表情识别结果;
根据表情识别对象的复杂度建立不同难度等级的第一训练模式和第二训练模式,根据患者的表情识别结果,设定患者接收相应难度等级的第一训练模式或第二训练模式的表情识别训练。
2.如权利要求1所述的一种针对自闭症患者的表情识别训练方法,其特征在于,所述表情识别对象采用VR图像、视频、音频和图片等媒体中的一种或多种。
3.如权利要求2所述的一种针对自闭症患者的表情识别训练方法,其特征在于,所述表情识别对象包括了各种人物表情,所述第一训练模式和第二训练模式具有多种表情识别训练场景,所述表情识别训练场景为教室、走廊、体育馆、花园、厕所、食堂等虚拟场景。
4.如权利要求1所述方法的一种针对自闭症患者的表情识别训练系统,其特征在于,包括:
虚拟现实装置,用以向患者展现一表情识别训练场景,所述表情识别训练场景中包括多个表情识别对象;
自然语言处理装置,用以获取患者的反馈语音信息并进行分析处理,并将处理结果发送到表情识别训练装置;
表情识别训练装置,用以提供多种训练模式的表情识别训练场景,并且评估患者的表情识别完成度,根据表情识别完成度确定患者所需接受的训练模式。
5.如权利要求4所述的一种针对自闭症患者的表情识别及能力评估系统,其特征在于,所述虚拟现实装置通过六轴传感器和光学定位系统获取位姿信息和运动轨迹,所述虚拟现实装置包括可佩带式头盔显示器和手握式控制器。
6.如权利要求5所述的一种针对自闭症患者的表情识别及能力评估系统,其特征在于,所述表情识别训练装置根据虚拟现实装置获取的位姿信息和运动轨迹,判断患者是否建立了多个表情识别对象之间的逻辑关系,并评估患者的表情识别结果。
7.如权利要求6所述的一种针对自闭症患者的表情识别及能力评估系统,其特征在于,所述表情识别训练装置根据所述自然语言处理装置的语音处理结果,判断患者是否建立了一个或多个表情识别对象之间的逻辑关系,并评估患者的表情识别结果。
8.如权利要求6所述的一种针对自闭症患者的表情识别及能力评估系统,其特征在于,所述自然语音处理装置包括麦克风和扬声器,所述麦克风用以接收患者所发出的识别语音,所述扬声器用以播放表情识别训练装置下达的教学指令。
9.如权利要求8所述的一种针对自闭症患者的表情识别训练方法,其特征在于,所述表情识别对象采用VR图像、视频、音频和图片等媒体中的一种或多种。
10.如权利要求9所述的一种针对自闭症患者的表情识别训练方法,其特征在于,所述表情识别对象包括了各种人物表情,所述表情识别训练场景为教室、走廊、体育馆、花园、厕所、食堂等虚拟场景。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910726448.4A CN110866434B (zh) | 2019-08-07 | 2019-08-07 | 一种针对自闭症患者的表情识别训练方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910726448.4A CN110866434B (zh) | 2019-08-07 | 2019-08-07 | 一种针对自闭症患者的表情识别训练方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110866434A CN110866434A (zh) | 2020-03-06 |
CN110866434B true CN110866434B (zh) | 2024-04-30 |
Family
ID=69652102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910726448.4A Active CN110866434B (zh) | 2019-08-07 | 2019-08-07 | 一种针对自闭症患者的表情识别训练方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110866434B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112331305A (zh) * | 2020-10-30 | 2021-02-05 | 中国科学院软件研究所 | 一种计算机辅助的自闭症儿童情感社交康复训练系统 |
CN116168805B (zh) * | 2023-01-20 | 2023-08-01 | 北京瑞帆科技有限公司 | 一种用于认知训练的思维训练装置及认知训练系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008085436A1 (en) * | 2006-12-27 | 2008-07-17 | Case Western Reserve University | Situated simulation for training, education, and therapy |
CN108939511A (zh) * | 2018-07-18 | 2018-12-07 | 广州市三甲医疗信息产业有限公司 | 基于虚拟现实的四肢康复训练方法与系统 |
CN109903604A (zh) * | 2019-01-30 | 2019-06-18 | 上海市精神卫生中心(上海市心理咨询培训中心) | 一种基于虚拟现实的神经发育障碍绘画训练系统及训练方法 |
CN109919712A (zh) * | 2019-01-30 | 2019-06-21 | 上海市精神卫生中心(上海市心理咨询培训中心) | 神经发育障碍购物训练系统及其训练方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10405786B2 (en) * | 2013-10-09 | 2019-09-10 | Nedim T. SAHIN | Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device |
-
2019
- 2019-08-07 CN CN201910726448.4A patent/CN110866434B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008085436A1 (en) * | 2006-12-27 | 2008-07-17 | Case Western Reserve University | Situated simulation for training, education, and therapy |
CN108939511A (zh) * | 2018-07-18 | 2018-12-07 | 广州市三甲医疗信息产业有限公司 | 基于虚拟现实的四肢康复训练方法与系统 |
CN109903604A (zh) * | 2019-01-30 | 2019-06-18 | 上海市精神卫生中心(上海市心理咨询培训中心) | 一种基于虚拟现实的神经发育障碍绘画训练系统及训练方法 |
CN109919712A (zh) * | 2019-01-30 | 2019-06-21 | 上海市精神卫生中心(上海市心理咨询培训中心) | 神经发育障碍购物训练系统及其训练方法 |
Non-Patent Citations (1)
Title |
---|
改善自闭症儿童表情识别能力的计算机面部表情识别训练;申寻兵等;《科技视界》;20130905(第25期);正文第3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN110866434A (zh) | 2020-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lan | Immersion into virtual reality for language learning | |
Herumurti et al. | Overcoming glossophobia based on virtual reality and heart rate sensors | |
US10315118B2 (en) | Identifying an individual's abilities, skills and interests through gaming data analytics | |
Brandão et al. | An augmented reality gamebook for children with autism spectrum disorders | |
Schneider et al. | Presentation Trainer: what experts and computers can tell about your nonverbal communication | |
CN111027486A (zh) | 一种中小学课堂教学效果大数据辅助分析评价系统及其方法 | |
US10606346B2 (en) | Method and apparatus to compose a story for a user depending on an attribute of the user | |
Vasudevan | Multimodal Play and Adolescents: Notes on Noticing Laughter. | |
JP2012516463A (ja) | コンピュータ実行方法 | |
CN110866434B (zh) | 一种针对自闭症患者的表情识别训练方法及系统 | |
Van Galen | Agency, shame, and identity: Digital stories of teaching | |
Uzuegbunam et al. | MEBook: multimedia social greetings intervention for children with autism spectrum disorders | |
CN109817244A (zh) | 口语评测方法、装置、设备和存储介质 | |
Shea | Student perceptions of a mobile augmented reality game and willingness to communicate in Japanese | |
US20190369837A1 (en) | Methods and system for reducing implicit bias with virtual environments | |
Pennington et al. | Using robot-assisted instruction to teach students with intellectual disabilities to use personal narrative in text messages | |
Nassauer et al. | Video data analysis: How to use 21st century video in the social sciences | |
Selvarani | An interactive number learning augmented reality application for autistic preschool children | |
Saunders | Where writing happens: Elevating student writing and developing voice through digital storytelling | |
CN110957021A (zh) | 一种针对自闭症患者的逻辑思维能力训练方法及系统 | |
Mykoniatis et al. | Virtual humans for interpersonal and communication skills’ training in crime investigations | |
Chambers et al. | James: Physical education teacher | |
Kam | Mobile learning games for low-income children in India: Lessons from 2004–2009 | |
Cecilia et al. | Games as educational strategy: A case of tangible interaction for users of Alternative and Augmentative Communication | |
Johnson | Constructing virtual role-play simulations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |