CN110134253A - 一种基于多点触控的盲文输入方法及装置 - Google Patents

一种基于多点触控的盲文输入方法及装置 Download PDF

Info

Publication number
CN110134253A
CN110134253A CN201910330899.6A CN201910330899A CN110134253A CN 110134253 A CN110134253 A CN 110134253A CN 201910330899 A CN201910330899 A CN 201910330899A CN 110134253 A CN110134253 A CN 110134253A
Authority
CN
China
Prior art keywords
touch
touch point
digit
sub
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910330899.6A
Other languages
English (en)
Inventor
周江南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Qiming barrier free Technology Co.,Ltd.
Original Assignee
Wuhan Netming Accessibility Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Netming Accessibility Technology Co Ltd filed Critical Wuhan Netming Accessibility Technology Co Ltd
Priority to CN201910330899.6A priority Critical patent/CN110134253A/zh
Publication of CN110134253A publication Critical patent/CN110134253A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于多点触控的盲文输入方法及装置,该方法首先将触控式输入设备的触摸区域划分为两个子区域,分别用于采集盲文方的左右两列点位;然后开启触摸点位数采集进程,采集两个子区域的触摸点位数;最后汇总所述两个子区域的触摸点位数,并匹配盲文对照表,将所述汇总后的触摸点位数转换成文字符号。本发明依托有多点触控的输入终端屏幕,结合国家通用的盲文设计一种新型的快捷输入方法,不需要找到去寻找相关按钮,只需要多个手指同时按住屏幕,根据手指抬起的先后顺序完成相关的操作。

Description

一种基于多点触控的盲文输入方法及装置
技术领域
本发明涉及辅助输入法技术领域,具体涉及一种基于多点触控的盲文输入方法及装置。
背景技术
目前信息输入方式都在人眼看到输入按钮的基础上,通过对固定区域的输入盘或者输入按钮进行操作来完成的输入。但是针对视力残疾人或者眼睛不方便实时看到按钮的时候是无法方便进行信息输入的,另外通过语音输入也会在户外的时候也会泄露隐私,同时语音输入很多情况下也会出现不准确的情况。
国外盲人手机输入基本都采的六点盲文输入法,他们输入法目前已经支持英文、阿拉伯文、西班牙文和法文的六点盲文输入。汉语是世界上使用人数最多的语音,中国也是盲人最多的国家,但是目前没有成熟的六点盲文手机输入法支持输入中文,现在中国已经是全球移动互联网最发达的国家,但是针对中国1700万的视障者没有成熟的六点盲文输入法,目前中国绝大多数盲人不会使用明眼人使用的普通拼音输入法,会用拼音输入法的盲人首先要摸索到要找的字母才能点击输入一个字母,输入一个汉字摸索点击的非常多,而且重码率非常高,盲人使用起来非常非常麻烦。盲人从学校毕业后所学的六点盲文再也无用途。
国内研究六点盲文输入法专利,第一步先寻找输入按钮或者记忆很多相关的折线,不是输入效率低,就是学习成本非常高。
发明内容
本发明针对现有技术中存在的技术问题,提供一种基于多点触控的盲文输入方法及装置。本发明依托有多点触控的输入终端屏幕,结合国家通用的盲文设计一种新型的快捷输入方法,不需要找到去寻找相关按钮,只需要多个手指同时按住屏幕,根据手指抬起的先后顺序完成相关的操作。
本发明解决上述技术问题的技术方案如下:
一方面,本发明提供一种基于多点触控的盲文输入方法,该方法基于触控式输入设备实现,包括以下步骤:
步骤1,将触控式输入设备的触摸区域划分为两个子区域,分别用于采集盲文方的左右两列点位;
步骤2,开启触摸点位数采集进程,采集两个子区域的触摸点位数;
步骤3,汇总所述两个子区域的触摸点位数,并匹配盲文对照表,将所述汇总后的触摸点位数转换成文字符号。
本发明的有益效果在于:
本发明依托有多点触控的基于触控式输入设备,结合国家通用的盲文设计的一种新型的快捷输入方法,不需要找到去寻找相关按钮,只需要多个手指同时按住屏幕,根据手指抬起的先后顺序完成相关的操作。充分利用盲人或低视力人群在盲人学校所学的六点盲文,不需要学习额外输入法则,大大降低了盲人或低视力人群的学习成本。
进一步,所述的开启触摸点位数采集进程,采集两个子区域的触摸点位数,包括:
步骤201,获取某一时刻所述触摸区域的触摸点个数及位置坐标;
步骤202,若触摸点个数及位置坐标满足预设触发条件,则记录触发时刻,并开始触摸点位数采集进程,依次采集两个子区域的触摸点位数。
优选地,所述的触摸点个数及位置坐标满足预设触发条件,则记录触发时刻并开始触摸点位数采集进程,包括:若触摸点个数其中一个子区域为3另一个子区域为0、或者两个子区域均为3,则记录触发时刻并开始触摸点位数采集进程。
在进行盲文输入时,需要使用者将左右手各三根手指分别触摸所述触摸区域的两个子区域,进而触发采集进程。无需寻找特制的输入按钮,基于触摸屏幕即可实现触摸点的采集,同时操作简单,便于视力障碍人群进行快捷操作,同时降低了误触操作。
进一步,所述的触摸点位数采集进程,包括:
步骤203,分别监听两个子区域的手指或触摸介质的抬起动作;
步骤204,若两个子区域的手指或触摸介质的抬起时刻与触发时刻间隔不大于预设阈值,则将抬起的手指或触摸介质对应的点位记为凸起点,并缓存,否则忽略抬起动作;
步骤205,若一个所述子区域的三支手指均离开触摸区域,则判定该区触摸点位数采集完毕;
步骤206,若两个子区域均判定触摸点位数采集完毕,则退出触摸点位数采集进程,并根据缓存的凸起点汇总两个子区域的触摸点位数
优选的,所述步骤204,还包括:
若已缓存凸起点对应的手指或触摸介质再次触摸所述触摸区域,则删除已缓存的凸起点,若所有已缓存的凸起点对应的手指或触摸介质均再次放置在所述触摸区域,则重新开启触摸点位数采集进行并更新触发时刻。
当触摸进程触发后,两个子区域均已采集完触摸点位数,且触摸区域上没有手指或触摸介质放置,则退出触摸点位数采集进程,此时统计两个子区域缓存的凸起点,并组合生成盲文的方,并退出触摸点位数采集进程。
当触摸进程触发后,以其中一个子区域为例,当在预设阈值时长内抬起一个手指时,则记录该手指对应的点位为凸起点,若抬起两个或三个手指,同样记录两个或三个手指对应的点位为凸起点。当触摸进程出发后,超过预设阈值时长,则抬起手指不记录手指对应的凸起点。而当已记录了凸起点的手指在预设阈值时长内或者超出预设阈值时长后又重新放置在该子区域上,则将该凸起点从缓存中删除。
第二方面,本发明还提供一种基于多点触控的盲文输入装置,包括触控式输入设备,所述输入装置还包括:
区域划分模块,用于将触控式输入设备的触摸区域划分为两个子区域,分别用于采集盲文方的左右两列点位;
触摸采集模块,用于执行触摸点位数采集进程,采集两个子区域的触摸点位数;
盲文匹配模块,用于汇总所述两个子区域的触摸点位数,并匹配盲文对照表,将所述汇总后的触摸点位数转换成文字符号。
进一步,所述触摸采集模块包括:
获取模块,用于获取某一时刻所述触摸区域的触摸点个数及位置坐标;
进程开启及采集模块,用于判断触摸点个数及位置坐标是否满足预设触发条件,用于记录触发时刻,用于开启触摸点位数采集进程,用于采集两个子区域的触摸点位数。
进一步,所述触摸采集模块还包括:
监听模块,用于分别监听两个子区域的手指或触摸介质的抬起动作;
凸起点缓存模块,用于根据两个子区域的手指或触摸介质的抬起时刻与触发时刻间隔差值,判定是否将抬起的手指或触摸介质对应的点位记为凸起点并缓存;
采集完毕判断模块,用于根据所述子区域的三支手指是否均离开触摸区域,判定该区触摸点位数采集完毕;
汇总模块,用于根据所述子区域触摸点位数采集完毕的判定结果,退出触摸点位数采集进程,并根据缓存的凸起点汇总两个子区域的触摸点位数。
进一步,所述凸起点缓存模块还用于:
若已缓存凸起点对应的手指或触摸介质再次触摸所述触摸区域,则删除已缓存的凸起点,若所有已缓存的凸起点对应的手指或触摸介质均再次放置在所述触摸区域,则重新开启触摸点位数采集进行并更新触发时刻。
第三方面,本发明还提供一种基于多点触控的盲文输入装置,包括触控式输入设备,所述输入装置还包括处理器和存储器;
所述存储器,存储有用于实现上述的一种基于基于多点触控的盲文输入方法的计算机软件程序;
所述处理器,用于读取并执行所述存储器中存储的计算机软件程序,实现上述的一种基于基于多点触控的盲文输入方法。
附图说明
图1为本发明实施例提供的基于多点触控的盲文输入方法流程图;
图2为本发明实施例提供的触摸点位数采集进程流程图;
图3为本发明实施例提供的装置结构图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
实施例1
如图1所示,本实施例提供一种基于多点触控的盲文输入方法,该方法基于触控式输入设备实现,包括以下步骤:
步骤1,将触控式输入设备的触摸区域划分为左右两区,分别用于采集盲文方的左右两列点位;本实施例将触摸区域划分为左右两区,但是不排除根据实际需求将触摸区域划分为上下两区,或者按照触摸区域对角线划分成斜上和斜下两区
步骤2,开启触摸点位数采集进程,采集左右两区的触摸点位数;
具体的,该步骤包括以下子步骤:
步骤201,获取某一时刻所述触摸区域的触摸点个数及位置坐标;
步骤202,若触摸点个数及位置坐标满足预设触发条件,则记录触发时刻,并开始触摸点位数采集进程,依次采集左右两区的触摸点位数。
所述的触摸点个数及位置坐标满足预设触发条件,则记录触发时刻并开始触摸点位数采集进程,包括:若触摸点个数左区为3右区为0、或者左区为0右区为3,或者左区为3右区为3,则记录触发时刻并开始触摸点位数采集进程。在进行盲文输入时,需要使用者将左右手各三根手指分别触摸所述触摸区域的左右两区,进而触发采集进程。无需寻找特制的输入按钮,基于触摸屏幕即可实现触摸点的采集,同时操作简单,便于视力障碍人群进行快捷操作,同时降低了误触操作。
步骤3,汇总所述左右两区的触摸点位数,并匹配盲文对照表,将所述汇总后的触摸点位数转换成文字符号。
方是盲文里最小的、可独立运用的单位。每方有三行两列六个固定位置。每方中的六个固定位置为点位。左列自上而下的点位分别是1、2、3,右列自上而下的点位分别是4、5、6。触摸区域的左区对应方的左列,右区对应方的右列,左手的三个手指分别对应左侧自上而下的1、2、3三个点位,右手的三个手指分别对应右侧自上而下的4、5、6三个点位。
本发明依托有多点触控的基于触控式输入设备,结合国家通用的盲文设计的一种新型的快捷输入方法,不需要找到去寻找相关按钮,只需要多个手指同时按住屏幕,根据手指抬起的先后顺序完成相关的操作。充分利用盲人或低视力人群在盲人学校所学的六点盲文,不需要学习额外输入法则,大大降低了盲人或低视力人群的学习成本。
进一步,在上述实施例的基础上,本实施中所述的触摸点位数采集进程,如图2所示,包括:
步骤203,分别监听左右两区的手指或触摸介质的抬起动作;
步骤204,若左右两区的手指或触摸介质的抬起时刻与触发时刻间隔不大于预设阈值,则将抬起的手指或触摸介质对应的点位记为凸起点,并缓存,否则忽略抬起动作;
步骤205,若左区或右区的三支手指均离开触摸区域,则判定该区触摸点位数采集完毕;
步骤206,若左区和右区均判定触摸点位数采集完毕,则退出触摸点位数采集进程,并根据缓存的凸起点汇总左右两区的触摸点位数。
优选的,所述步骤204,还包括:
若已缓存凸起点对应的手指或触摸介质再次触摸所述触摸区域,则删除已缓存的凸起点,若所有已缓存的凸起点对应的手指或触摸介质均再次放置在所述触摸区域,则重新开启触摸点位数采集进行并更新触发时刻。
当触摸进程触发后,左右两区均已采集完触摸点位数,且触摸区域上没有手指或触摸介质放置,则退出触摸点位数采集进程,此时统计左右两区缓存的凸起点,并组合生成盲文的方,并退出触摸点位数采集进程。
当触摸进程触发后,以左区为例,当在预设阈值时长内抬起一个手指时,则记录该手指对应的点位为凸起点,若抬起两个或三个手指,同样记录两个或三个手指对应的点位为凸起点。当触摸进程出发后,超过预设阈值时长,则抬起手指不记录手指对应的凸起点。而当已记录了凸起点的手指在预设阈值时长内或者超出预设阈值时长后又重新放置在左区上,则将该凸起点从缓存中删除。
例如,在输入“六”时,“六”的拼音为“liou”
首先输入声母“l”,其对应的点位为123。
将双手六个手指按在触摸屏幕的左右两侧区域,触发触摸点位数采集进程。
左侧三个手指同时抬起,缓存1、2、3三个点位,然后右侧三个手指抬起,触摸屏幕上没有手指接触,统计触摸点位数为123;
然后输入韵母“iou”其对应的点位为1256。
将双手六个手指按在触摸屏幕的左右两侧区域,触发触摸点位数采集进程。
左侧三个手指同时抬起,记录1、2、3三个点位,但是由于左侧点位数应该为1、2,所以3为错误记录,此时将左侧位于下方的手指重新放置在左侧触摸区域上,删除已记录的点位3;右侧手指抬起位于下方的两个手指,记录5、6两个点位,右侧区域输入的触摸点位数为5、6,测试屏幕上没有手指接触,统计触摸点位数1256;
然后再进行组合123+1256,对应liou,完成输入。
实施例2
本发明还提供一种基于多点触控的盲文输入装置,包括触控式输入设备,所示触控式输入设备可以为智能手机、平板电脑、人机界面等等,所述输入装置还包括:
区域划分模块,用于将触控式输入设备的触摸区域划分为左右两区,分别用于采集盲文方的左右两列点位;
触摸采集模块,用于执行触摸点位数采集进程,采集左右两区的触摸点位数;
盲文匹配模块,用于汇总所述左右两区的触摸点位数,并匹配盲文对照表,将所述汇总后的触摸点位数转换成文字符号。
进一步,所述触摸采集模块包括:
获取模块,用于获取某一时刻所述触摸区域的触摸点个数及位置坐标;
进程开启及采集模块,用于判断触摸点个数及位置坐标是否满足预设触发条件,用于记录触发时刻,用于开启触摸点位数采集进程,用于采集两个子区域的触摸点位数。
进一步,所述触摸采集模块还包括:
监听模块,用于分别监听左右两区的手指或触摸介质的抬起动作;
凸起点缓存模块,用于根据左右两区的手指或触摸介质的抬起时刻与触发时刻间隔差值,判定是否将抬起的手指或触摸介质对应的点位记为凸起点并缓存;
采集完毕判断模块,用于根据左区或右区的三支手指是否均离开触摸区域,判定该区触摸点位数采集完毕;
汇总模块,用于根据左区和右区触摸点位数采集完毕的判定结果,退出触摸点位数采集进程,并根据缓存的凸起点汇总左右两区的触摸点位数。
进一步,所述凸起点缓存模块还用于:
若已缓存凸起点对应的手指或触摸介质再次触摸所述触摸区域,则删除已缓存的凸起点,若所有已缓存的凸起点对应的手指或触摸介质均再次放置在所述触摸区域,则重新开启触摸点位数采集进行并更新触发时刻。
实施例3
本发明还提供一种基于多点触控的盲文输入装置,包括触控式输入设备,所述输入装置还包括处理器和存储器;
所述存储器,存储有用于实现上述的一种基于基于多点触控的盲文输入方法的计算机软件程序;
所述处理器,用于读取并执行所述存储器中存储的计算机软件程序,实现上述的一种基于基于多点触控的盲文输入方法。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于多点触控的盲文输入方法,该方法基于触控式输入设备实现,其特征在于,包括以下步骤:
步骤1,将触控式输入设备的触摸区域划分为两个子区域,分别用于采集盲文方的左右两列点位;
步骤2,开启触摸点位数采集进程,采集两个子区域的触摸点位数;
步骤3,汇总所述两个子区域的触摸点位数,并匹配盲文对照表,将所述汇总后的触摸点位数转换成文字符号。
2.根据权利要求1所述的方法,其特征在于,所述的开启触摸点位数采集进程,采集两个子区域的触摸点位数,包括:
步骤201,获取某一时刻所述触摸区域的触摸点个数及位置坐标;
步骤202,若触摸点个数及位置坐标满足预设触发条件,则记录触发时刻,并开始触摸点位数采集进程,依次采集两个子区域的触摸点位数。
3.根据权利要求2所述的方法,其特征在于,所述的触摸点个数及位置坐标满足预设触发条件,则记录触发时刻并开始触摸点位数采集进程,包括:若触摸点个数其中一个子区域为3另一个子区域为0、或者两个子区域均为3,则记录触发时刻并开始触摸点位数采集进程。
4.根据权利要求2或3任一项所述的方法,其特征在于,所述的触摸点位数采集进程,包括:
步骤203,分别监听两个子区域的手指或触摸介质的抬起动作;
步骤204,若两个子区域的手指或触摸介质的抬起时刻与触发时刻间隔不大于预设阈值,则将抬起的手指或触摸介质对应的点位记为凸起点,并缓存,否则忽略抬起动作;
步骤205,若一个所述子区域的三支手指均离开触摸区域,则判定该区触摸点位数采集完毕;
步骤206,若两个子区域均判定触摸点位数采集完毕,则退出触摸点位数采集进程,并根据缓存的凸起点汇总两个子区域的触摸点位数。
5.根据权利要求4所述的方法,其特征在于,所述步骤204,还包括:
若已缓存凸起点对应的手指或触摸介质再次触摸所述触摸区域,则删除已缓存的凸起点,若所有已缓存的凸起点对应的手指或触摸介质均再次放置在所述触摸区域,则重新开启触摸点位数采集进行并更新触发时刻。
6.一种基于多点触控的盲文输入装置,包括触控式输入设备,其特征在于,包括:
区域划分模块,用于将触控式输入设备的触摸区域划分为两个子区域,分别用于采集盲文方的左右两列点位;
触摸采集模块,用于执行触摸点位数采集进程,采集两个子区域的触摸点位数;
盲文匹配模块,用于汇总所述两个子区域的触摸点位数,并匹配盲文对照表,将所述汇总后的触摸点位数转换成文字符号。
7.根据权利要求6所述的方法,其特征在于,所述触摸采集模块包括:
获取模块,用于获取某一时刻所述触摸区域的触摸点个数及位置坐标;
进程开启及采集模块,用于判断触摸点个数及位置坐标是否满足预设触发条件,用于记录触发时刻,用于开启触摸点位数采集进程,用于采集两个子区域的触摸点位数。
8.根据权利要求7所述的方法,其特征在于,所述触摸采集模块还包括:
监听模块,用于分别监听两个子区域的手指或触摸介质的抬起动作;
凸起点缓存模块,用于根据两个子区域的手指或触摸介质的抬起时刻与触发时刻间隔差值,判定是否将抬起的手指或触摸介质对应的点位记为凸起点并缓存;
采集完毕判断模块,用于根据所述子区域的三支手指是否均离开触摸区域,判定该区触摸点位数采集完毕;
汇总模块,用于根据所述子区域触摸点位数采集完毕的判定结果,退出触摸点位数采集进程,并根据缓存的凸起点汇总两个子区域的触摸点位数。
9.根据权利要求8所述的方法,其特征在于,所述凸起点缓存模块还用于:
若已缓存凸起点对应的手指或触摸介质再次触摸所述触摸区域,则删除已缓存的凸起点。
10.一种基于多点触控的盲文输入装置,包括触控式输入设备,其特征在于,还包括处理器和存储器;
所述存储器,存储有用于实现权利要求1-5任一项所述的一种基于基于多点触控的盲文输入方法的计算机软件程序;
所述处理器,用于读取并执行所述存储器中存储的计算机软件程序,实现权利要求1-5任一项所述的一种基于基于多点触控的盲文输入方法。
CN201910330899.6A 2019-04-23 2019-04-23 一种基于多点触控的盲文输入方法及装置 Pending CN110134253A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910330899.6A CN110134253A (zh) 2019-04-23 2019-04-23 一种基于多点触控的盲文输入方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910330899.6A CN110134253A (zh) 2019-04-23 2019-04-23 一种基于多点触控的盲文输入方法及装置

Publications (1)

Publication Number Publication Date
CN110134253A true CN110134253A (zh) 2019-08-16

Family

ID=67570853

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910330899.6A Pending CN110134253A (zh) 2019-04-23 2019-04-23 一种基于多点触控的盲文输入方法及装置

Country Status (1)

Country Link
CN (1) CN110134253A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825306A (zh) * 2019-10-29 2020-02-21 深圳市证通电子股份有限公司 盲文输入方法、装置、终端及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140033140A1 (en) * 2012-07-11 2014-01-30 Guang Dong Oppo Mobile Telecommunications Corp., Ltd. Quick access function setting method for a touch control device
CN103729087A (zh) * 2013-12-09 2014-04-16 河海大学 一种多点触摸手势识别的输入法
JP2015064814A (ja) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 操作入力装置、及びこれを備える情報処理装置
CN108255314A (zh) * 2018-01-15 2018-07-06 南京特殊教育师范学院 一种基于注音提示多点触摸手势识别的盲文输入法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140033140A1 (en) * 2012-07-11 2014-01-30 Guang Dong Oppo Mobile Telecommunications Corp., Ltd. Quick access function setting method for a touch control device
JP2015064814A (ja) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 操作入力装置、及びこれを備える情報処理装置
CN103729087A (zh) * 2013-12-09 2014-04-16 河海大学 一种多点触摸手势识别的输入法
CN108255314A (zh) * 2018-01-15 2018-07-06 南京特殊教育师范学院 一种基于注音提示多点触摸手势识别的盲文输入法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825306A (zh) * 2019-10-29 2020-02-21 深圳市证通电子股份有限公司 盲文输入方法、装置、终端及可读存储介质

Similar Documents

Publication Publication Date Title
JP3135747B2 (ja) 入出力装置
US20110063231A1 (en) Method and Device for Data Input
Ashtiani et al. BlinkWrite2: an improved text entry method using eye blinks
CN100587660C (zh) 一种手写字符预测识别的方法和装置
CN103365573B (zh) 一种对多键输入字符进行识别的方法和装置
WO2013189290A1 (zh) 一种触摸屏键盘及其输入方法
CN109614847A (zh) 管理实时手写识别
US20110004849A1 (en) Inputting method by predicting a word and electronic device for practicing the method
CN104978043B (zh) 终端设备的键盘、终端设备的输入方法和终端设备
CN104464720A (zh) 以语音识别来选择控制客体的装置及方法
CN1641538A (zh) 一种可调的触摸屏软键盘的实现方法
CN104598148B (zh) 一种电脑触摸屏手写汉字方法
US9531404B2 (en) Computer input device and method of using the same
CN108646910A (zh) 一种基于深度图像的三维动态手指文本输入系统及方法
CN103941993B (zh) 一种环形菜单式滑行输入法
US20120256860A1 (en) Directional Finger Recognition Authoring
CN110134253A (zh) 一种基于多点触控的盲文输入方法及装置
Belatar et al. Text entry for mobile devices and users with severe motor impairments: handiglyph, a primitive shapes based onscreen keyboard
JP2004013736A (ja) 操作表示装置
Poláček et al. Predictive scanning keyboard operated by hissing
CN108255314A (zh) 一种基于注音提示多点触摸手势识别的盲文输入法
CN103543950B (zh) 基于触控轨迹的盲用点字输入装置与方法
WO2013016876A1 (zh) 一种双指手势文字输入方法
CN109348000A (zh) 扣合折屏手机结构和四方格大键位华汉拼音两笔输入法
Paisios et al. Mobile brailler: Making touch-screen typing accessible to visually impaired users

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210906

Address after: 518000 201e-1, block a, building 5, tus Xiexin, No. 333, Longfei Avenue, huanggekeng community, Longcheng street, Longgang District, Shenzhen, Guangdong

Applicant after: Shenzhen Qiming barrier free Technology Co.,Ltd.

Address before: 430000 12902, science and technology building, 243 Luoyu Road, Donghu New Technology Development Zone, Wuhan, Hubei Province

Applicant before: Wuhan Netming Accessibility Technology Co.,Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190816