CN113627312A - 一种通过眼动追踪来协助瘫痪失语者语言输出的系统 - Google Patents

一种通过眼动追踪来协助瘫痪失语者语言输出的系统 Download PDF

Info

Publication number
CN113627312A
CN113627312A CN202110893020.6A CN202110893020A CN113627312A CN 113627312 A CN113627312 A CN 113627312A CN 202110893020 A CN202110893020 A CN 202110893020A CN 113627312 A CN113627312 A CN 113627312A
Authority
CN
China
Prior art keywords
user
text
words
voice
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110893020.6A
Other languages
English (en)
Inventor
陈祥雨
肖明慧
陈美华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202110893020.6A priority Critical patent/CN113627312A/zh
Publication of CN113627312A publication Critical patent/CN113627312A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种通过眼动追踪来辅助瘫痪失语者语言输出的系统,系统学习分析用户视线注视过的物品、外部环境中语言类和非语言类声音和此刻用户输出的语言文本,并存储到系统的词典模型中。用户再以某种顺序注视一系列物品时,或收集到外部环境声音时,系统会通过显示装置,将物品和外部环境音对应的用户词典模型中的候选文本显示出来,供用户选择并转换成声音通过扬声器发出。系统还提供紧急情况下可使用的预置紧急文本。本发明通过学习用户本身周围的环境物品和环境声音输入,和用户个体本身的语言历史习惯,使用户可以更有效率的将周围环境转换为更贴近自己习惯的语言输出,可以为瘫痪失语者等用户得以和外部进行基本且重要的语言交流。

Description

一种通过眼动追踪来协助瘫痪失语者语言输出的系统
技术领域
本发明涉及一种图像识别与语言输入技术,属于语言信息技术领域,具体为一种通过眼动追踪来协助瘫痪失语者语言输出的系统。
背景技术
现实中存在病人出现丧失语言输出的情形。例如:嘴部无法说话且手脚瘫痪的病人、发声器官插管且手脚不方便活动的病人。这些病人既不能说话,也不能写字,只能通过他人询问,自身眨眼等原始方法进行低效的沟通。
中国讯飞和美国微软的眼动追踪键盘输入法,其大致原理是:通过让用户佩戴眼镜式屏幕,在屏幕上显示虚拟键盘,然后通过眼动仪追踪用户视线,获取用户视线注视的键盘上的按键来实现虚拟键盘打字功能。
存在的问题:
(1)存在不会使用键盘输入、或使用键盘输入效率低下的用户,例如:不会拼音等键盘输入法的人、视力不佳不易区分紧密排列字母按键的人等等。所以,此类用户,不适合上述虚拟键盘。
(2)上述现有虚拟键盘输入,未能考虑用户与周围环境的交互。例如:身边对话者说出的语言内容、周围环境中可以看到的物品或文字、周围可以听到的非语言类声响等等。
(3)上述现有虚拟键盘输入,未能直接提供用户的个性化交互信息。例如:病人的最紧急的疼痛、呼吸困难、如厕、进食进水等信息;病人身边亲人姓名、常用物品、常去地点等信息;病人的喜怒哀乐等情感信息。
发明内容
本发明要解决部分用户不会键盘输入法、或因视力等原因导致键盘输入法效率低下,从而无法使用眼镜式屏幕和眼动仪追踪来进行语言输入的问题。
本发明要解决使用眼镜式屏幕和眼动仪追踪的虚拟键盘输入法中,无法为用户提供与周围交互环境和用户个性化需求相关的快速语言输入的问题。
一种通过眼动追踪来协助瘫痪失语者语言输出的系统,包括硬件部分、软件部分;
硬件部分包括:外部识别摄像头:用于拍摄外部环境;
头戴式透镜眼镜显示器:半透明设计,用户透过显示器看到周围环境;
视频输出接口:将头戴式透镜眼镜显示器中显示的内容,实时输出到外部视频播放设备;
眼动仪:追踪用户眼镜焦点,完成互动操作;
以及麦克风、扬声器;
软件部分包括:词典联想组句模块:显示备选的词语或语句;
声音文本互转模块:将语言类和非语言类声音转换为文本;
图像识别模块:将图像识别为文本;
词典存储模块:存储用户按时间顺序注视过的和输出的“物品组+文本组”记录;
眼动词语编辑模块:对用户注视的词语显示编辑功能菜单。
进一步地,所述系统包含前台学习模式:用于用户主动的向系统进行外部环境相关语言的输入;
后台学习模式:用于系统在后台识别与学习用户的语音和注视过的物品,用户无需确认操作;
词典训练分析模式:用于系统对词典存储模块中的图像和文本进行模型训练,最终获得的模型为:当向模型输入某图像或词语时,模型输出所对应的最相关的文本;
正常使用模式:系统通过用户视线停留的物品,自动生成可选的文本,用户选择确认后,文本通过声音文本互转模块生成语音,并通过扬声器播放;
紧急使用模式:系统中设有特殊预置文本词典,供用户在紧急情况下使用。
进一步地,所述前台学习模式的具体流程如下:
(1)外部识别摄像头开启,将视频信号传递给图像识别模块,图像识别模块识别视场中的物品;
(2)眼动仪跟踪用户视线,确定用户视线停留过的物品;
(3)用户说话,进行语音输出;
(4)系统开始计时;
(5)麦克风收集用户上述语音,并将语音数据传递给声音文本互转模块;
(6)声音文本互转模块将上述语音转换成备选文本选项;
(7)头戴式透镜眼镜显示器高亮显示用户视线停留的物品,图像识别模块将此物品转换为备选文本选项并显示在物品旁边;
(8)眼动仪记录用户眼动切换注视物品的时刻;
(9)用户语音输出结束;
(10)系统停止计时;
(11)头戴式透镜眼镜显示器显示上述备选文本选项、和眼动仪确定的用户视线停留过的物品截图,文本选项按眼动时刻进行文本分隔,并按用户语音输出和视线停留的时刻顺序进行排列;在计时时间段内,第n时刻的文本和第n时刻眼动仪确定的用户视线停留的物品一同高亮显示,文本分割为词语,并标注词性;
(12)用户通过眼动词语编辑模块编辑上述分隔显示的词语;
(13)头戴式透镜眼镜显示器提示用户进行确认;
(14)用户通过眼动仪注视提示来进行确认;
(15)用户确认后,上述文本选项和一组物品截图,按照上述时刻顺序,作为一条“物品组+文本组”记录,存储到词典存储模块;
(16)回到并重复步骤(2)-(15),继续向系统的词典存储模块输入更多的“物品组+文本组”记录;
(17)结束前台学习模式。
进一步地,所述后台学习模式的具体流程如下:
(1)外部识别摄像头开启,将视频信号传递给图像识别模块,图像识别模块识别视场中的物品;
(2)眼动仪跟踪用户视线,确定用户视线停留过的物品;
(3)用户说话,进行语音输出;
(4)系统开始计时;
(5)麦克风收集用户时长为T的语音片段,并将语音数据传递给声音文本互转模块;
(6)声音文本互转模块将上述语音片段转换成文本;
(7)图像识别模块将此物品转换为文本;
(7)眼动仪记录用户眼动切换注视物品的时刻;
(8)用户语音输出结束;
(9)系统停止计时;
(10)系统后台调取计时时间段内的文本和眼动仪确定的用户视线停留过的物品截图,文本选项按眼动时刻进行文本分割,并按用户语音输出和视线停留的时刻顺序进行排列;在计时时间段内,第n时刻的文本和第n时刻眼动仪确定的用户视线停留的物品进行对齐;文本分割为词语,并标注词性;
(11)上述文本选项和一组物品截图,按照上述时刻顺序,作为一条“物品组+文本组”记录,存储到词典存储模块;
(12)回到并重复步骤(3)-(11),继续向词典存储模块输入更多的“物品组+文本组”记录;
(13)结束后台学习模式。
进一步地,所述词典训练分析模式的具体流程如下:
(1)提取词典存储模块中按眼动时刻拆分存储的“物品组+文本组”;
(2)提取每个文本片段里的词语,并标注每个词语的词性;
(3)将词典存储的“物品组+文本组”输入到训练系统进行学习训练;
(4)词典模型训练:物品图像作为输入参数,带有词性的词语作为输出参数;
(5)参数权重设置:前台学习模式中物品图像对应的词语的权重,大于后台学习模式中物品图像对应的词语的权重;
(6)词典模型训练完毕;
(7)当向模型输入一个或多个物品图像或词语时,输出为一个文本列表,文本列表包含词语,词语按词性进行分类,每个词性分类中的各个词语按相关度从高到低进行排序。
进一步地,所述正常使用模式的具体流程如下:
(1)外部识别摄像头开启,将视频信号传递给图像识别模块,图像识别模块识别视场中的物品;
(2)眼动仪跟踪用户视线,确定用户视线停留过的物品;
(3)头戴式透镜眼镜显示器,高亮显示用户视线停留的物品;
(4)物品图像输入到词典模型,头戴式透镜眼镜显示器显示词典模型输出的文本列表,文本列表中包含按词性分类和相关度高低排序的候选文本;
(5)用户通过眼动仪来选择词语;
(6)系统将用户已选择的词语按照用户选择的顺序,组成原始句子;
(7)词典联想组句模块,调取用户的词典模型,将候选词语,按照词典模型中的规则,进行重新排序,生成多个联想句子;
(8)系统通过麦克风收集周围环境中的语言类声响;
(9)系统通过声音文本互转模块,将上述语言类声响,转换为文本,并分割成词语,显示在头戴式透镜眼镜显示器中,作为步骤(4)中的候选词语,供用户选择;
(10)系统监测上述周围环境中语言类声响转换成的文本是否为问句;
(11)若系统监测到上述问句,头戴式透镜眼镜显示器中显示快速应答选项,用语通过眼动仪来选择进行回答;
(12)系统通过麦克风收集周围环境中的非语言类声响;
(13)系统通过声音文本互转模块,将上述非语言类声响,转换为文本,并分割成词语,显示在头戴式透镜眼镜显示器中,作为步骤(4)中的候选词语,供用户选择;
(14)重复(4)-(13)的步骤;
(15)原始句子和联想句子,组成候选句子列表,用户通过眼动仪来选择候选句子;
(16)确定选择后的句子,在头戴式透镜眼镜显示器中,显示于待发声区域;
(17)系统在头戴式透镜眼镜显示器中,存在一个或多个待发声区域;
(18)待发声区域的句子中的词语分隔显示;
(19)用户通过眼动词语编辑模块来编辑上述分隔显示的词语;
(20)待发声区域句子旁,设置快捷编辑按钮,用户通过眼动仪选择快捷编辑按钮后,系统弹出句子编辑选项;
(21)头戴式透镜眼镜显示器中,在待发声区域旁,设置发声按钮;
(22)用户通过眼动仪来选择发声;
(23)通过声音文本互转模块将上述待发声区域的句子转化成语音,语音通过扬声器播放出来;
(24)所有在正常模式中,经用户确定发声的句子,也作为一条“物品组+文本组”记录,存储到词典存储模块。
进一步地,所述紧急使用模式的具体流程如下:
(1)头戴式透镜眼镜显示器中,在明显位置设置紧急模式激活区;
(2)用户通过眼动仪来激活紧急使用模式;
(3)系统在头戴式透镜眼镜显示器中显示预置的紧急文本词语;
(4)用户通过眼动仪选择词语;
(5)特殊预置文本词典根据用户已选择的词语,生成联想词语列表;
(6)用户通过眼动仪在上述联想词语列表中选择词语,系统通过特殊预置文本词典,将已选择的所有词语,按词典中句子生成规则生成联想句子;
(7)回到步骤(5),直到用户生成最终的句子,并显示于头戴式透镜眼镜显示器中的待发声区域;
(8)通过声音文本互转模块将上述待发声区域的句子转化成语音,语音通过扬声器播放出来;
(9)用户一旦激活紧急使用模式,系统扬声器发出警报声,吸引其他人员前来协助;
(10)视频输出接口会自动输出头戴式透镜眼镜显示器中显示的视频,以使其他人员实时指导用户的想法,并快速了解用户意图。
有益效果:本发明通过学习用户本身周围的环境物品和环境声音输入,和用户个体本身的语言历史习惯,使用户可以更有效率的将周围环境转换为更贴近自己习惯的语言输出,可以为瘫痪失语者等用户得以和外部进行基本且重要的语言交流。
附图说明
图1是本发明中的前台学习模式中的物体识别;
图2是本发明中的前台学习模式中的用户输出的语音转换成文本;
图3是本发明中的后台学习模式中用户先后注视过的两个物体;
图4是本发明系统后台对用户注视过的物体和用户输出语言的后台分析;
图5是本发明正常使用模式中系统对物品的识别文本和用户按顺序注视选择文本;
图6是本发明正常使用模式中生成的原始句子和联想句子以及用户对句子进行编辑;
图7是本发明正常使用模式中系统将外部语言问句的声音转换为文本并提供快速应答选项;
图8是本发明正常使用模式中用户对外部语言转换的文本进行选择造句;
图9是本发明正常使用模式中系统将外部非语言声音转化为文本并提供候选句子;
图10是本发明紧急使用模式中用户激活紧急候选词;
图11是本发明紧急使用模式中用户选择候选词后系统提供联想候选句子。
具体实施方式
本发明公开了一种通过眼动追踪来协助瘫痪失语者语言输出的系统,包括硬件部分、软件部分;
硬件部分包括:外部识别摄像头:用于拍摄外部环境;
头戴式透镜眼镜显示器:半透明设计,用户透过显示器看到周围环境;
视频输出接口:将头戴式透镜眼镜显示器中显示的内容,实时输出到外部视频播放设备;
眼动仪:追踪用户眼镜焦点,完成互动操作;
以及麦克风、扬声器;
软件部分包括:词典联想组句模块,用于显示备选的词语或语句;
声音文本互转模块,用于将语言类和非语言类声音转换为文本;
图像识别模块,用于将图像识别为文本;
词典存储模块,用于存储用户按时间顺序注视过的和输出的“物品组+文本组”记录;
眼动词语编辑模块,用于对用户注视的词语显示编辑功能菜单。
系统包含五种模式,分别为:
前台学习模式,用于用户主动的向系统进行外部环境相关语言的输入;
后台学习模式,用于系统在后台识别与学习用户的语音和注视过的物品,用户无需确认操作;
词典训练分析模式,用于系统对词典存储模块中的图像和文本进行模型训练,最终获得的模型为:当向模型输入某图像或词语时,模型输出所对应的最相关的文本;
正常使用模式,系统通过用户视线停留的物品,自动生成可选的文本,用户选择确认后,文本通过声音文本互转模块生成语音,并通过扬声器播放;
紧急使用模式,系统中设有特殊预置文本词典,供用户在生命健康等重要的紧急特殊情况下使用。
实施例1:
前台学习模式举例:
(1)如图1所示,用户视线先后注视物品:杯子和茶叶盒。眼动仪记录,第1秒注视杯子,第2秒注视茶叶盒。
(2)物品旁显示图像识别模块识别出来的备选文本,如图,杯子识别为“杯子、缸子、水杯”,茶叶盒识别为“茶、茶叶、盒子、罐子”。
(3)如图2所示,用户语音输出“拿杯子泡杯茶喝”,按眼动时刻分隔,第1秒说出“拿杯子”,第2秒说出“泡杯茶喝”。
(4)系统将用户语音转化成文本,分割成词语,并标注词性。
(5)头戴式透镜眼镜显示器,将用户注视过的物品,按眼动时间顺序排列显示:用户语音转化的文本,也按眼动时间顺序分隔进行排列。
(6)用户注视分隔词语“杯子”,激活词语编辑模块,“杯子”下方显示出图像识别模块识别出来的、或“杯子”的同义词等:“缸子、水杯”等。
(7)用户可以注视相应的词语,替换到句子中的“杯子”。
(8)用户注视“确认”按钮,将这组“物品组+文本组”记录,即{第一秒:[水杯图像],[拿](动词),[杯子](名词),[缸子](名词),[水杯](名词);第2秒:[茶叶盒图像],[泡](动词),[杯](量词),[茶](名词),[茶叶](名词),[盒子](名词),[罐子](名词)},存储到词典存储模块。
实施例2:
后台学习模式举例:
(1)如图3所示,用户视线先后注视物品:杯子和咖啡盒。眼动仪记录,第1秒注视杯子,第2秒注视咖啡盒。
(2)如图4所示,系统后台图像识别模块识别出图像对应的备选文本,如图,杯子识别为“杯子、缸子、水杯”,咖啡盒识别为“咖啡、盒子、罐子”。
(3)用户语音输出“拿杯子冲杯咖啡喝吧”,按眼动时刻分隔,第1秒说出“拿杯子”,第2秒说出“冲杯咖啡喝吧”。
(4)系统后台将用户语音转化成文本,分割成词语,并标注词性。
(5)系统后台将这组“物品组+文本组”记录,即{第一秒:[水杯图像],[拿](动词),[杯子](名词),[缸子](名词),[水杯](名词);第2秒:[咖啡盒图像],[冲](动词),[杯](量词),[咖啡](名词),[盒子](名词),[罐子](名词),[喝](动词),[吧](助词)},存储到词典存储模块。
实施例3:
正常使用模式举例:
(1)如图5所示,图像识别模块识别出视场中的人脸和咖啡盒子。人脸识别出两个选项“小王”和“小张”。咖啡盒子分别被识别出动词“冲”和“喝”、名词“咖啡”和“罐子”。
(2)用户按顺序分别注视了“小王”、“冲”、“咖啡”、“喝”。如图6所示,系统按此顺序,组成的原始句子为“小王冲咖啡喝”。
(3)词典联想组句模块,调取用户的词典模型,将上述用户注视过的词语,在词典模型中搜索并分析。此例中,如图6所示,用户词典模型中搜索到包含候选词语“小王”、“喝”和“咖啡”的历时句子:“小王请喝咖啡”。
(4)如图6所示,用户注视联想句子“小王请喝咖啡”中的名词“咖啡”,激活眼动词语编辑模块,系统弹出词语菜单,此例中“咖啡”下方弹出了可替换的同类词“茶”。
(5)用户最终用“茶”替换“咖啡”,则最终确认后的句子为“小王请喝茶”,显示于待发声区域。
(6)用户通过选择“发声”,系统通过声音文本互转模块将上述待发声区域的句子转化成语音,语音通过扬声器播放出来。
(7)系统通过麦克风收集周围环境中的语言类声响。如图7所示,此例中,小王回话“谢谢,我给你也冲杯茶吗?”
(8)如图7所示,系统通过声音文本互转模块,将小王的回话,转换为文本,并分割成词语,显示在头戴式透镜眼镜显示器中。
(9)如图7所示,系统监测到小王的回话为问句,头戴式透镜眼镜显示器中显示快速应答选项,“好的谢谢”和“不用谢谢”。用户可通过眼动仪来选择进行回答。
(10)如图8所示,此处用户选择通过注视小王回话中的分割词语来组成新的原始句子。
(11)用户按顺序选择了“我”、“冲”、注视“茶”激活菜单,并在同类语中注视选择了“咖啡”。
(12)如图8所示,则最终句子为“我冲咖啡”,显示于待发声区域。
(13)用户通过选择“发声”,系统通过声音文本互转模块将上述待发声区域的句子转化成语音,语音通过扬声器播放出来。
(14)如图9所示,系统通过麦克风收集周围环境中的非语言类声响。此例中,系统收集到环境音中的敲门声。
(15)系统通过声音文本互转模块,将此敲门声,转换为文本“敲门声”,并分割成词语。
(16)如图9所示,用户词典模型进行联想和历史句子搜索,提供了三个候选句子“有人敲门”、“去开门”和“你爸回来了”。
(17)用户可选择相应句子进行发声。
实施例4:
紧急使用模式举例:
(1)如图10所示,头戴式透镜眼镜显示器中,在右上角明显位置,设置紧急模式激活区。
(2)用户通过眼动仪来激活紧急使用模式。
(3)如图10所示,系统在头戴式透镜眼镜显示器中显示预置的紧急文本词语:“疼、厕所、呼吸”。
(4)如图11所示,用户通过眼动仪来选择了词语“疼”。
(5)特殊预置文本词典根据用户已选择的词语,生成联想文本列表。如图11所示,“心脏疼”、“头疼”、“胃疼”。
(6)用户通过选择“发声”,声音文本互转模块将上述待发声区域的句子转化成语音,语音通过扬声器播放出来。
(7)用户一旦激活紧急使用模式,系统扬声器发出警报声,吸引其他人员前来协助。
(8)用户一旦激活紧急使用模式,视频输出接口会自动输出头戴式透镜眼镜显示器中显示的视频,以使其他人员可以实时指导用户的想法,并快速了解用户意图。
实施例5:
词典训练分析模式举例:
(1)提取词典存储模块中按眼动时刻顺序拆分存储的“物品组+文本组”;
(2)将所有文本拆分为词语,并标注每个词语的词性,包括:人名、名词、动词、量词、介词、语气助词、形容词、否定词等。
(3)给定一个物品图像,按以下顺序搜索词典存储模块中的文本:①此物品被图像识别模块识别出的文本、②此物体在此眼动时刻对应的文本组中出现频率最多的名词、③动词、④形容词、⑤量词等等。
(4)给定一个文本词语,搜索此词语在所有文本组中前后n个词语内,出现频率最多的①名词、②动词、③形容词、④量词,等等。n可以取1,2,3等整数。
(5)参数权重设置:前台学习模式中物品图像或词语对应的文本的频率权重,大于后台学习模式中物品图像或词语对应的文本的频率权重;
(6)当向模型输入一个或多个物品图像或文本词语时,输出为一个文本列表,文本列表包含词语,词语按词性进行分类,每个词性分类中的各个词语按上述频率从高到低进行排序。

Claims (7)

1.一种通过眼动追踪来协助瘫痪失语者语言输出的系统,其特征在于,包括硬件部分、软件部分;
硬件部分包括:外部识别摄像头:用于拍摄外部环境;
头戴式透镜眼镜显示器:半透明设计,用户透过显示器看到周围环境;
视频输出接口:将头戴式透镜眼镜显示器中显示的内容,实时输出到外部视频播放设备;
眼动仪:追踪用户眼镜焦点,完成互动操作;
以及麦克风、扬声器;
软件部分包括:词典联想组句模块:显示备选的词语或语句;
声音文本互转模块:将语言类和非语言类声音转换为文本;
图像识别模块:将图像识别为文本;
词典存储模块:存储用户按时间顺序注视过的和输出的“物品组+文本组”记录;
眼动词语编辑模块:对用户注视的词语显示编辑功能菜单。
2.根据权利要求1所述的一种通过眼动追踪来协助瘫痪失语者语言输出的系统,其特征在于,所述系统包含前台学习模式:用于用户主动的向系统进行外部环境相关语言的输入;
后台学习模式:用于系统在后台识别与学习用户的语音和注视过的物品,用户无需确认操作;
词典训练分析模式:用于系统对词典存储模块中的图像和文本进行模型训练,最终获得的模型为:当向模型输入某图像或词语时,模型输出所对应的最相关的文本;
正常使用模式:系统通过用户视线停留的物品,自动生成可选的文本,用户选择确认后,文本通过声音文本互转模块生成语音,并通过扬声器播放;
紧急使用模式:系统中设有特殊预置文本词典,供用户在紧急情况下使用。
3.根据权利要求2所述的一种通过眼动追踪来协助瘫痪失语者语言输出的系统,其特征在于,所述前台学习模式的具体流程如下:
(1)外部识别摄像头开启,将视频信号传递给图像识别模块,图像识别模块识别视场中的物品;
(2)眼动仪跟踪用户视线,确定用户视线停留过的物品;
(3)用户说话,进行语音输出;
(4)系统开始计时;
(5)麦克风收集用户上述语音,并将语音数据传递给声音文本互转模块;
(6)声音文本互转模块将上述语音转换成备选文本选项;
(7)头戴式透镜眼镜显示器高亮显示用户视线停留的物品,图像识别模块将此物品转换为备选文本选项并显示在物品旁边;
(8)眼动仪记录用户眼动切换注视物品的时刻;
(9)用户语音输出结束;
(10)系统停止计时;
(11)头戴式透镜眼镜显示器显示上述备选文本选项、和眼动仪确定的用户视线停留过的物品截图,文本选项按眼动时刻进行文本分隔,并按用户语音输出和视线停留的时刻顺序进行排列;在计时时间段内,第n时刻的文本和第n时刻眼动仪确定的用户视线停留的物品一同高亮显示,文本分割为词语,并标注词性;
(12)用户通过眼动词语编辑模块编辑上述分隔显示的词语;
(13)头戴式透镜眼镜显示器提示用户进行确认;
(14)用户通过眼动仪注视提示来进行确认;
(15)用户确认后,上述文本选项和一组物品截图,按照上述时刻顺序,作为一条“物品组+文本组”记录,存储到词典存储模块;
(16)回到并重复步骤(2)-(15),继续向系统的词典存储模块输入更多的“物品组+文本组”记录;
(17)结束前台学习模式。
4.根据权利要求2所述的一种通过眼动追踪来协助瘫痪失语者语言输出的系统,其特征在于,所述后台学习模式的具体流程如下:
(1)外部识别摄像头开启,将视频信号传递给图像识别模块,图像识别模块识别视场中的物品;
(2)眼动仪跟踪用户视线,确定用户视线停留过的物品;
(3)用户说话,进行语音输出;
(4)系统开始计时;
(5)麦克风收集用户时长为T的语音片段,并将语音数据传递给声音文本互转模块;
(6)声音文本互转模块将上述语音片段转换成文本;
(7)图像识别模块将此物品转换为文本;
(7)眼动仪记录用户眼动切换注视物品的时刻;
(8)用户语音输出结束;
(9)系统停止计时;
(10)系统后台调取计时时间段内的文本和眼动仪确定的用户视线停留过的物品截图,文本选项按眼动时刻进行文本分割,并按用户语音输出和视线停留的时刻顺序进行排列;在计时时间段内,第n时刻的文本和第n时刻眼动仪确定的用户视线停留的物品进行对齐;文本分割为词语,并标注词性;
(11)上述文本选项和一组物品截图,按照上述时刻顺序,作为一条“物品组+文本组”记录,存储到词典存储模块;
(12)回到并重复步骤(3)-(11),继续向词典存储模块输入更多的“物品组+文本组”记录;
(13)结束后台学习模式。
5.根据权利要求2所述的一种通过眼动追踪来协助瘫痪失语者语言输出的系统,其特征在于,所述词典训练分析模式的具体流程如下:
(1)提取词典存储模块中按眼动时刻拆分存储的“物品组+文本组”;
(2)提取每个文本片段里的词语,并标注每个词语的词性;
(3)将词典存储的“物品组+文本组”输入到训练系统进行学习训练;
(4)词典模型训练:物品图像作为输入参数,带有词性的词语作为输出参数;
(5)参数权重设置:前台学习模式中物品图像对应的词语的权重,大于后台学习模式中物品图像对应的词语的权重;
(6)词典模型训练完毕;
(7)当向模型输入一个或多个物品图像或词语时,输出为一个文本列表,文本列表包含词语,词语按词性进行分类,每个词性分类中的各个词语按相关度从高到低进行排序。
6.根据权利要求2所述的一种通过眼动追踪来协助瘫痪失语者语言输出的系统,其特征在于,所述正常使用模式的具体流程如下:
(1)外部识别摄像头开启,将视频信号传递给图像识别模块,图像识别模块识别视场中的物品;
(2)眼动仪跟踪用户视线,确定用户视线停留过的物品;
(3)头戴式透镜眼镜显示器,高亮显示用户视线停留的物品;
(4)物品图像输入到词典模型,头戴式透镜眼镜显示器显示词典模型输出的文本列表,文本列表中包含按词性分类和相关度高低排序的候选文本;
(5)用户通过眼动仪来选择词语;
(6)系统将用户已选择的词语按照用户选择的顺序,组成原始句子;
(7)词典联想组句模块,调取用户的词典模型,将候选词语,按照词典模型中的规则,进行重新排序,生成多个联想句子;
(8)系统通过麦克风收集周围环境中的语言类声响;
(9)系统通过声音文本互转模块,将上述语言类声响,转换为文本,并分割成词语,显示在头戴式透镜眼镜显示器中,作为步骤(4)中的候选词语,供用户选择;
(10)系统监测上述周围环境中语言类声响转换成的文本是否为问句;
(11)若系统监测到上述问句,头戴式透镜眼镜显示器中显示快速应答选项,用语通过眼动仪来选择进行回答;
(12)系统通过麦克风收集周围环境中的非语言类声响;
(13)系统通过声音文本互转模块,将上述非语言类声响,转换为文本,并分割成词语,显示在头戴式透镜眼镜显示器中,作为步骤(4)中的候选词语,供用户选择;
(14)重复(4)-(13)的步骤;
(15)原始句子和联想句子,组成候选句子列表,用户通过眼动仪来选择候选句子;
(16)确定选择后的句子,在头戴式透镜眼镜显示器中,显示于待发声区域;
(17)系统在头戴式透镜眼镜显示器中,存在一个或多个待发声区域;
(18)待发声区域的句子中的词语分隔显示;
(19)用户通过眼动词语编辑模块来编辑上述分隔显示的词语;
(20)待发声区域句子旁,设置快捷编辑按钮,用户通过眼动仪选择快捷编辑按钮后,系统弹出句子编辑选项;
(21)头戴式透镜眼镜显示器中,在待发声区域旁,设置发声按钮;
(22)用户通过眼动仪来选择发声;
(23)通过声音文本互转模块将上述待发声区域的句子转化成语音,语音通过扬声器播放出来;
(24)所有在正常模式中,经用户确定发声的句子,也作为一条“物品组+文本组”记录,存储到词典存储模块。
7.根据权利要求2所述的一种通过眼动追踪来协助瘫痪失语者语言输出的系统,其特征在于,所述紧急使用模式的具体流程如下:
(1)头戴式透镜眼镜显示器中,在明显位置设置紧急模式激活区;
(2)用户通过眼动仪来激活紧急使用模式;
(3)系统在头戴式透镜眼镜显示器中显示预置的紧急文本词语;
(4)用户通过眼动仪选择词语;
(5)特殊预置文本词典根据用户已选择的词语,生成联想词语列表;
(6)用户通过眼动仪在上述联想词语列表中选择词语,系统通过特殊预置文本词典,将已选择的所有词语,按词典中句子生成规则生成联想句子;
(7)回到步骤(5),直到用户生成最终的句子,并显示于头戴式透镜眼镜显示器中的待发声区域;
(8)通过声音文本互转模块将上述待发声区域的句子转化成语音,语音通过扬声器播放出来;
(9)用户一旦激活紧急使用模式,系统扬声器发出警报声,吸引其他人员前来协助;
(10)视频输出接口会自动输出头戴式透镜眼镜显示器中显示的视频,以使其他人员实时指导用户的想法,并快速了解用户意图。
CN202110893020.6A 2021-08-04 2021-08-04 一种通过眼动追踪来协助瘫痪失语者语言输出的系统 Pending CN113627312A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110893020.6A CN113627312A (zh) 2021-08-04 2021-08-04 一种通过眼动追踪来协助瘫痪失语者语言输出的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110893020.6A CN113627312A (zh) 2021-08-04 2021-08-04 一种通过眼动追踪来协助瘫痪失语者语言输出的系统

Publications (1)

Publication Number Publication Date
CN113627312A true CN113627312A (zh) 2021-11-09

Family

ID=78382702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110893020.6A Pending CN113627312A (zh) 2021-08-04 2021-08-04 一种通过眼动追踪来协助瘫痪失语者语言输出的系统

Country Status (1)

Country Link
CN (1) CN113627312A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103885743A (zh) * 2012-12-24 2014-06-25 大陆汽车投资(上海)有限公司 结合注视跟踪技术的语音文本输入方法和系统
CN106774836A (zh) * 2016-11-23 2017-05-31 上海擎感智能科技有限公司 智能眼镜及其控制方法、控制装置
CN110785688A (zh) * 2017-04-19 2020-02-11 奇跃公司 可穿戴系统的多模式任务执行和文本编辑
CN111949131A (zh) * 2020-08-17 2020-11-17 陈涛 一种基于眼动追踪技术的眼动交互方法、系统及设备
CN112507799A (zh) * 2020-11-13 2021-03-16 幻蝎科技(武汉)有限公司 基于眼动注视点引导的图像识别方法、mr眼镜及介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103885743A (zh) * 2012-12-24 2014-06-25 大陆汽车投资(上海)有限公司 结合注视跟踪技术的语音文本输入方法和系统
CN106774836A (zh) * 2016-11-23 2017-05-31 上海擎感智能科技有限公司 智能眼镜及其控制方法、控制装置
CN110785688A (zh) * 2017-04-19 2020-02-11 奇跃公司 可穿戴系统的多模式任务执行和文本编辑
CN111949131A (zh) * 2020-08-17 2020-11-17 陈涛 一种基于眼动追踪技术的眼动交互方法、系统及设备
CN112507799A (zh) * 2020-11-13 2021-03-16 幻蝎科技(武汉)有限公司 基于眼动注视点引导的图像识别方法、mr眼镜及介质

Similar Documents

Publication Publication Date Title
US10977452B2 (en) Multi-lingual virtual personal assistant
WO2021160191A1 (zh) 一种实现人机协同的语音通讯系统及方法
US6377925B1 (en) Electronic translator for assisting communications
CN110462730A (zh) 促进以多种语言与自动化助理的端到端沟通
JP6392374B2 (ja) ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイ装置の操作方法
JP4745036B2 (ja) 音声翻訳装置および音声翻訳方法
Dachkovsky et al. Visual intonation in two sign languages
Wilkinson et al. On the use of graphic resources in interaction by people with communication disorders
JPWO2018163647A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
Cutler Abstraction-based efficiency in the lexicon
Lidestam et al. Visual phonemic ambiguity and speechreading
Kaiser Multimodal new vocabulary recognition through speech and handwriting in a whiteboard scheduling application
CN113627312A (zh) 一种通过眼动追踪来协助瘫痪失语者语言输出的系统
US20240096236A1 (en) System for reply generation
Kumar et al. Real time detection and conversion of gestures to text and speech to sign system
WO2022117292A1 (en) Method of training a neural network
Zhao Speech-recognition technology in health care and special-needs assistance [Life Sciences]
Fretheim et al. Token-reflexive, anaphoric and deictic functions of ‘here’
Lelandais et al. The verbal, vocal, and gestural expression of (in) dependency in two types of subordinate constructions
JP2002207413A (ja) 行動認識発話型語学学習装置
Fujie et al. Recognition of positive/negative attitude and its application to a spoken dialogue system
Ferré et al. Intensive gestures in French and their multimodal correlates
Spiegel et al. Applying speech synthesis to user interfaces
Steger Talking With Siri: Analyzing and Detecting Error Patterns in Speech Recognition Technology

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination