CN106716329B - 具有盲文支持功能的触控荧幕装置及其控制方法 - Google Patents
具有盲文支持功能的触控荧幕装置及其控制方法 Download PDFInfo
- Publication number
- CN106716329B CN106716329B CN201580048896.3A CN201580048896A CN106716329B CN 106716329 B CN106716329 B CN 106716329B CN 201580048896 A CN201580048896 A CN 201580048896A CN 106716329 B CN106716329 B CN 106716329B
- Authority
- CN
- China
- Prior art keywords
- touch screen
- point
- braille
- input
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/02—Devices for Braille writing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及一种具有盲文支持功能的触控荧幕装置及其控制方法,所述触控荧幕装置包括:一触控荧幕,感测用户的触控位置;以及一控制器,根据该触控荧幕的使用方向进入第一模式和第二模式中的至少一个,该控制器在第一模式中将该触控荧幕识别为一个盲文单元,以及在第二模式中将该触控荧幕识别为两个盲文单元,从而根据用户的触控位置接收盲文输入。通过使用该装置,可以在触控荧幕上容易且精确地输入六点盲文以及输入十二点系统的缩写和符号。
Description
技术领域
本发明涉及具有盲文支持功能的触控荧幕装置及其控制方法。更具体而言,本发明涉及具有盲文支持功能的触控荧幕装置及其控制方法,从而可以容易且精确地在触控荧幕上输入六点盲文和十二点系统的缩写和符号。
背景技术
触控荧幕装置是应用了触控荧幕输入方法的显示装置,该方法用于在不使用键盘的情况下在屏幕上触控字母或特定位置。触控荧幕装置广泛地用于诸如计算机装置、移动通信终端、自助服务终端、汽车AV系统等的各种领域。另外,触控荧幕输入方法应用于用来提款的多数ATM机、公共场所向导计算机装置等。
然而,与物理配置的按钮不同,当使用触控荧幕时,用户不可能感觉到触控所显示的按钮或键。因此,视觉障碍用户或视力不佳的用户难以看到他或她输入什么。尤其,在智能手机的情况下,通过在触控荧幕上显示键盘来执行输入。因此,视觉障碍的用户难以输入文本等。
为了解决这样的问题,通常,当用手指触控触控荧幕上的键盘时,输出语音以支持输入;然而,视觉障碍的人仍然难以触控精确的位置。
因此,需要一种通过在触控荧幕上使用盲文来容易且精确地输入字母的技术。
[现有技术文献]
(专利文献1)韩国专利申请公开号10-2011-0029593:具有盲文支持功能的触控荧幕和使用该触控荧幕的显示装置。
发明内容
技术问题
提出本发明以解决现有技术中的问题。本发明旨在提出一种具有盲文支持功能的触控荧幕装置及其控制方法,从而可以容易且精确地在触控荧幕上输入六点盲文和十二点系统的缩写和符号。
技术解决方案
为了实现上述目的,根据本发明的一个方面,提供了一种触控荧幕装置,该装置包括:一触控荧幕,感测用户的触控位置;以及一控制器,根据触控荧幕的使用方向进入第一模式和第二模式中的至少一个,控制器在第一模式中将触控荧幕识别为一个盲文单元,以及在第二模式中将触控荧幕识别为两个盲文单元,从而根据用户的触控位置接收盲文输入。
在此,当在纵向方向上使用触控荧幕时,控制器可以进入第一模式,并且基于触控荧幕的四个边以及划分触控的虚拟划分线二者控制器可以将用户的触控位置与六点盲文匹配,从而接收盲文输入。
此外,当在横向方向上使用触控荧幕时,控制器可以进入第二模式,将触控荧幕划分为第一区域和第二区域,并且控制器可以将在第一区域和第二区域上输入的用户的触控位置匹配到十二点盲文,从而接收盲文输入。
另外,控制器可以根据预设的用户输入将盲文输入模式切换到韩文输入模式、英语输入模式、数字输入模式以及特殊符号输入模式中的至少一个。
此外,控制器在第一模式中根据用户的触控位置可以接收通用盲文输入,并且控制器在第二模式中根据用户的触控位置接收缩写盲文输入。
同时,触控荧幕装置还可以包括粘附在触控荧幕上的保护膜,保护膜以压印或雕刻的形式标记盲文单元。
根据另一方面,提供了一种用于触控荧幕装置的控制方法,该方法包括:(A)执行盲文输入功能,用于通过触控荧幕接收盲文输入;(B)根据触控荧幕的使用方向进入第一模式和第二模式中的至少一个;以及(C)在第一模式中将触控荧幕识别为一个盲文单元,以及在第二模式中将触控荧幕识别为两个盲文单元,从而根据用户的触控位置接收盲文输入。
在此,步骤(B)包括:当在纵向方向上使用触控荧幕时进入第一模式,并且步骤(C)包括:基于触控荧幕的四个边以及划分触控荧幕的虚拟划分线二者将用户的触控位置与六点盲文匹配,从而接收盲文输入。
另外,步骤(B)包括:当在横向方向上使用触控荧幕时进入第二模式,并且步骤(C)包括:将触控荧幕划分为第一区域和第二区域,并且将在第一区域和第二区域上输入的用户的触控位置与十二点盲文匹配,从而接收盲文输入。
另外,步骤(C)包括:将触控荧幕四边内的初始触控点或初始拖动线识别为作为六个点中间的点2或5的标准点或中间标准线,并且将在标准线或标准点上方触控的点识别为六个点的点1或4,以及将在标准线或标准点下方触控的点识别为点3或6,由此所述多个点对应于六点盲文以便接收盲文输入。
另外,步骤(C)包括:将位置最靠近左边缘线的点识别为左点1、2以及3中的一个,点在触控荧幕的四个边内被触控,以及将位置最接近右边缘线的点识别为右点4、5以及6中的一个,从而接收盲文输入。
同时,该方法还包括:将被触控一次的点识别为处于ON状态,并且当再次触控ON状态的点时,将所述点识别为处于OFF状态,从而校正和接收盲文输入。
有益效果
如上所述,根据本发明具有盲文支持功能的触控荧幕装置及其控制方法,可以在触控荧幕上容易且精确地输入六点盲文。
此外,根据本发明具有盲文支持功能的触控荧幕装置及其控制方法,可以容易且精确地输入十二点系统的缩写和符号。
附图说明
图1是根据本发明实施例显示具有盲文支持功能的触控荧幕装置的控制方框图。
图2是显示盲文结构的图示。
图3是显示韩文盲文的表格。
图4和图5是显示韩文缩写盲文的表格。
图6是根据本发明第一示例性实施例显示盲文输入方法示例的图示。
图7和图8是根据本发明实施例显示在可变位置处的盲文输入方法示例的图示。
图9是根据本发明实施例显示盲文校正方法示例的图示。
图10是根据本发明第二示例性实施例显示盲文输入方法示例的图示。
图11是根据本发明实施例具有盲文支持功能的触控荧幕装置的控制流程图。
具体实施方式
在下文中,将参照附图详细描述本发明的示例性实施例。在所有附图中,相同的附图标记表示相同或相似的部件,并且将省略其重复描述。
图1是根据本发明实施例显示具有盲文支持功能的触控荧幕装置的控制方框图。
如图1所示,触控荧幕装置包括:一触控输入单元(110),用于用户的触控输入;一显示单元(120),用于显示数据;一控制器(130),其处理用户通过触控输入单元(110)的输入,并且将处理的结果显示在显示单元(120)上;以及一存储器(140),用于存储控制数据以控制触控输入单元、显示单元以及控制器中的每个部件。
当触控输入单元(110)与诸如用户手指等用户的身体部分接触时,感测到接触,从而感测用户的触控位置。根据用户输入的感测类型,触控输入单元(110)可以被配置为各种类型,诸如电容型、红外线型、电阻型、声波型等。
显示单元(120)根据控制器(130)的控制显示数据。触控输入单元(110)层叠在显示单元(120)上,使得在提供屏幕的同时感测用户的触控位置,藉此提供一触控荧幕(100)。
存储器(140)存储一盲文系统识别信息,其用于通过触控荧幕(100)提供的盲文屏幕、以及一控制程序,其根据盲文系统识别方法通过识别用户输入以用于处理诸如字母、数字、符号、字间距等的输入。
基于存储在存储器(140)中的控制程序,控制器(130)可以使用触控荧幕(100)提供电子输入功能。控制器(130)根据触控荧幕(100)的使用方向通过将使用模式区分为第一方向和第二方向来识别用户输入的盲文。
图2是显示由控制器130接收的盲文输入配置的示例的图示。
如图2所示,盲文由六个点(纵向3点、横向2点)组成。六个点具有各自唯一的数字,从左上到左下的点1-2-3以及从右上到右下的点4-5-6。根据字系统,盲文由64个不同的点形状组成,64个不同的点形状取决于在矩形盲文单元中选择性地压印的点的数量和位置,并且通过其连续组合形成字母系统。
图3是显示韩文的词首辅音和词尾辅音的盲文表。在韩文中,64个点形状中作为不具有点的空白的一个用于空格单词,其他63个点形状用来分配给13个词首辅音(起始音)、14个词尾辅音(最后位置组)、21个元音、27个缩约词、7个缩略语、数字、标点符号等。
图4是显示类型1缩写盲文的表格,图5是显示类型2缩写盲文的表格。
控制器(130)根据触控荧幕(100)的使用方向可以进入用于识别六个点的第一模式和用于识别12个点的第二模式以便识别用户输入。
图6是根据本发明第一示例性实施例显示盲文输入方法的示例的图示,并且图6显示在纵向方向上使用触控荧幕(100)的第一模式中盲文输入识别方法的示例。
如图6所示,在其中在纵向方向上使用触控荧幕(100)的第一模式中,控制器130将触控荧幕(100)识别为一个盲文单元。
如图6(a)所示,控制器(130)将用户在触控荧幕(100)上输入的六个点水平和垂直地划分为4个区域,从而可以由用户输入字母、数字、特殊符号等。
基于触控荧幕(100)四条边的边缘线ABEF和横向划分线CD二者,控制器(130)可以基于哪条线最靠近用户输入的位置来识别六个点。
例如,当点位于中间线CD上方时,将到上线AB的距离(第一距离)与到中间线CD的距离(第二距离)进行比较,从而最接近线CD的点可以被识别为在6个点中间的点2或5,并且最接近上线AB的点可以被识别为六个点中的点1或4。
此外,当点位于中间线CD下方时,将到下线EF的距离与到中间线CD的距离进行比较,从而最接近线CD的点可以被识别为点2或5,以及最接近下线EF的点可以被识别为点3或6。
另外,如图6(b)所示,控制器(130)可以基于左边缘线AE和右边缘线BF中的哪一条线最接近该点来将该点识别为左点(1,2,3)或右点(4,5,6)。
图7和图8是根据本发明实施例在可变位置处的盲文输入方法的示例的图示。
参照图7和图8,在第一或第二模式中,控制器(130)将在触控荧幕四条边的边缘线内的初始触控点或初始拖动线识别为在六个点的中间的点2或5或中间标准线。
接下来,控制器(130)将触控点的位置与标准点或标准线的位置进行比较。更接近上边缘线而不是标准线或标准点的点或者在标准线上方触控的点被识别为点1或4。靠近标准线或标准点而不是下边缘线的点或者在标准线下方触控的点被识别为点3或点6。
如上所述,控制器(130)根据用户输入可变地设置标准线,使得可以在触控荧幕(100)上的任何位置接收顶部、中间、底部盲文输入。
当根据本发明实施例校正在输入期间被误写的盲文时,控制器(130)将被触控一次的点识别为处于ON状态,并且当再次触控处于ON状态的点时控制器(130)将该点识别为处于OFF状态,从而校正在输入期间被误写的盲文。
图10是根据本发明第二示例性实施例显示盲文输入方法示例的图示,并且图10在横向使用触控荧幕(100)的第二模式中显示盲文输入识别方法的示例。
如图10所示,在横向使用触控荧幕(100)的第二模式中,控制器(130)通过切换到缩写输入模式以将触控荧幕(100)识别为两个盲文单元。
控制器(130)可以将触控荧幕(100)划分为两个左和右盲文单元,并且控制器(130)可以识别在各个盲文单元上输入的六个点,从而接收来自用户的缩写。
基于触控荧幕(100)四条边的边缘线acfh、纵向划分线bg以及横向划分线de,控制器(130)可以基于哪条线最靠近用户输入的位置来识别六个点。
例如,最接近中间线de的点可以被识别为在6个点的中间的点2或5,并且最接近上线ab的点可以被识别为六个点中的点1或4。另外,最接近下线fg的点可以被识别为在六个点底部处的点3或点6。另外,最接近线bc的点可以被识别为随后六个点的点1或4,以及最接近线gh的点可以被识别为随后六个点的点3或6。
另外,在线af和线bg之间的区域上输入的点可以被识别为左六点,并且在线bg和线ch之间的区域上输入的点可以被识别为右六点。
同时,根据预设的用户输入,例如,在触控荧幕(100)上纵向或横向拖动或者捏合/拉出等,控制器(130)可以执行诸如空格、退格、输入等的功能。
另外,根据预设的用户输入,控制器(130)可以将触控荧幕(100)的输入模式切换为韩文、英语、数字以及特殊符号模式中的至少一种。例如,为虚拟图形的各个侧面设置韩文、英语、数字、特殊符号模式。当相关侧被拖动时,可以切换模式。或者,为触控荧幕(100)的四个侧面设置相应的输入模式,并且可以根据作为从触控荧幕(100)的特定边缘到屏幕内侧的方向或者从屏幕内侧到触控荧幕(100)的边缘的方向的拖动输入来切换输入模式。
同时,保护膜粘附在触控荧幕(100)上,以便以压印或雕刻的形式标记将触控荧幕(100)分割的线CD(参考图5)或线bg和线de(参考图6),由此用户可以容易地识别盲文输入区域。
图11是根据本发明实施例具有盲文支持功能的触控荧幕(100)装置的控制流程图。
当执行盲文输入功能时,在步骤S100,控制器(130)识别触控荧幕(100)的使用方向。控制器(130)识别触控荧幕(100)是在第一方向还是在第二方向上使用,并且这里,第一方向可以是纵向方向,第二方向可以是横向方向。
当在步骤S110识别出在第一方向,即在纵向方向上使用触控荧幕(100)时,控制器(130)在步骤S120进入第一模式。
纵向方向是触控荧幕(100)的垂直长度长于触控荧幕的水平长度的状态。在第一模式中,控制器(130)将整个触控荧幕(100)识别为一个盲文单元。接下来,在步骤S130,控制器(130)识别用户在触控荧幕(100)上输入的六个点。在此,基于触控荧幕(100)四条边的边缘线ABEF和横向划分线CD二者,控制器(130)可以基于哪条线最接近用户输入的位置来识别六个点。
当在步骤S210中识别出触控荧幕(100)在第二方向上即在横向上使用时,控制器(130)在步骤S220进入第二模式。
横向方向是触控荧幕(100)的水平长度长于触控荧幕的垂直长度的状态。在第二模式中,在步骤S230,控制器(130)通过将触控荧幕划分为两个区域以将整个触控荧幕(100)识别为两个盲文单元。接下来,控制器(130)识别12个点,12个点中的六个点在一个区域上输入。
接下来,在步骤S250,控制器(130)通过组合识别的盲文解释输入的字母。控制器(130)在第一模式中将盲文输入识别为六点系统的盲文,以及控制器(130)在第二模式中将盲文输入识别为十二点系统的缩写。
在步骤S260,控制器(130)根据解释的字母执行反馈。控制器(130)可以写入文本消息,或者可以根据输入盲文输出语音。
本领域普通技术人员可以理解,各种替代、修改以及等同物是可能的,而不改变本发明的精神或本质特征。因此,为了说明的目的,已经描述了本发明的优选实施例,并且优选实施例不应被解释为是限制性的。本发明的范围由所附权利要求而不是上面给出的描述来限定。此外,本发明不仅覆盖示例性实施例,而且覆盖可以包括在由所附权利要求限定的本发明的精神和范围内的各种替代、修改、等同物以及其他实施例。
[附图中的附图标记的说明]
100 触控荧幕
110 触控输入单元
120 显示单元
130 控制器
140 存储器
Claims (11)
1.一种触控荧幕装置,其包括:
触控荧幕,感测用户的触控位置;以及
控制器,其根据所述触控荧幕的使用方向进入第一模式和第二模式中的至少一个,所述使用方向为纵向方向或横向方向,所述控制器在第一模式中将所述触控荧幕识别为一个盲文单元,并且所述控制器在第二模式中将所述触控荧幕识别为两个盲文单元,从而根据所述用户的触控位置接收盲文输入,
其中,所述纵向方向是所述触控荧幕的垂直长度长于所述触控荧幕的水平长度的状态,所述横向方向是所述触控荧幕的水平长度长于触控荧幕的垂直长度的状态;
其中,将所述触控荧幕四边内的初始触控点或初始拖动线识别为作为六个点中间的点2或5的标准点或中间标准线,以及
将在所述标准线或所述标准点上方触控的点识别为所述六个点中的点1或4,以及将在所述标准线或所述标准点下方触控的点识别为点3或6,由此所述多个点对应于六点盲文以便接收盲文输入。
2.根据权利要求1所述的触控荧幕装置,其中当在纵向方向上使用所述触控荧幕时,所述控制器进入所述第一模式,并且基于所述触控荧幕的四个边和划分所述触控荧幕的虚拟划分线二者,所述控制器将所述用户的所述触控位置与六点盲文匹配,从而接收所述盲文输入。
3.根据权利要求1所述的触控荧幕装置,其中当在横向方向上使用所述触控荧幕时,所述控制器进入所述第二模式,所述控制器将所述触控荧幕划分为第一区域和第二区域,并且所述控制器将在所述第一区域和所述第二区域上输入的所述用户的所述触控位置与十二点盲文匹配,从而接收所述盲文输入。
4.根据权利要求1所述的触控荧幕装置,其中所述控制器根据预设的用户输入将盲文输入模式切换到韩文输入模式、英语输入模式、数字输入模式以及特殊符号输入模式中的至少一个。
5.根据权利要求1所述的触控荧幕装置,其中所述控制器在所述第一模式中根据所述用户的所述触控位置接收通用盲文输入,并且所述控制器在所述第二模式中根据所述用户的所述触控位置接收缩写盲文输入。
6.根据权利要求1所述的触控荧幕装置,进一步包括:
保护膜,粘附在所述触控荧幕上,所述保护膜以压印或雕刻的形式标记盲文单元。
7.一种触控荧幕装置的控制方法,所述方法包括:
(A)执行盲文输入功能,用于通过触控荧幕接收盲文输入;
(B)根据所述触控荧幕的使用方向进入第一模式和第二模式中的至少一个,所述使用方向为纵向方向或横向方向,所述纵向方向是所述触控荧幕的垂直长度长于所述触控荧幕的水平长度的状态,所述横向方向是所述触控荧幕的水平长度长于触控荧幕的垂直长度的状态;以及
(C)在第一模式中将所述触控荧幕识别为一个盲文单元,以及在第二模式中将所述触控荧幕识别为两个盲文单元,从而根据用户的触控位置接收所述盲文输入,
其中,步骤(C)进一步包括:
将所述触控荧幕四边内的初始触控点或初始拖动线识别为作为六个点中间的点2或5的标准点或中间标准线,以及
将在所述标准线或所述标准点上方触控的点识别为所述六个点中的点1或4,以及将在所述标准线或所述标准点下方触控的点识别为点3或6,由此所述多个点对应于六点盲文以便接收盲文输入。
8.根据权利要求7所述的方法,其中
步骤(B)包括:当在纵向方向上使用所述触控荧幕时进入所述第一模式,以及
步骤(C)包括:基于所述触控荧幕的四个边和划分所述触控荧幕的虚拟划分线二者将所述用户的所述触控位置与六点盲文匹配,从而接收所述盲文输入。
9.根据权利要求7所述的方法,其中
步骤(B)包括:当在横向方向上使用所述触控荧幕时进入所述第二模式,以及
步骤(C)包括:将所述触控荧幕划分为第一区域和第二区域,并且将在所述第一区域和所述第二区域上输入的所述用户的所述触控位置与十二点盲文匹配,从而接收所述盲文输入。
10.根据权利要求7所述的方法,其中步骤(C)包括
将位置最接近左边缘线的点识别为左点1、2以及3中的一个点,所述点在所述触控荧幕的四个边内被触控,以及
将位置最接近右边缘线的点识别为右点4、5以及6中的一个点,从而接收盲文输入。
11.根据权利要求7所述的方法,还包括:
将被触控一次的点识别为处于ON状态,并且当再次触控处于ON状态的点时将所述点识别为处于OFF状态,从而校正和接收盲文输入。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140120380 | 2014-09-11 | ||
KR10-2014-0120380 | 2014-09-11 | ||
KR1020140128480A KR101646742B1 (ko) | 2014-09-11 | 2014-09-25 | 점자 지원 기능이 구비된 터치스크린 장치 및 그 제어방법 |
KR10-2014-0128480 | 2014-09-25 | ||
PCT/KR2015/008885 WO2016039538A2 (ko) | 2014-09-11 | 2015-08-25 | 점자 지원 기능이 구비된 터치스크린 장치 및 그 제어방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106716329A CN106716329A (zh) | 2017-05-24 |
CN106716329B true CN106716329B (zh) | 2020-03-24 |
Family
ID=55650950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580048896.3A Active CN106716329B (zh) | 2014-09-11 | 2015-08-25 | 具有盲文支持功能的触控荧幕装置及其控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10181269B2 (zh) |
KR (1) | KR101646742B1 (zh) |
CN (1) | CN106716329B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10725651B2 (en) * | 2015-06-11 | 2020-07-28 | ProKarma, Inc. | Gesture-based braille-to-text conversion system |
SI25207A (sl) * | 2016-05-10 | 2017-11-30 | Feelif d.o.o. | Pripomoček za multimedijsko upravljanje račnalniških naprav za slepe in slabovidne osebe |
KR102032196B1 (ko) * | 2017-07-20 | 2019-10-15 | 최한솔 | 점자 인식이 가능한 하이브리드 워치 |
KR102055696B1 (ko) * | 2018-05-25 | 2020-01-22 | 가천대학교 산학협력단 | 촉각인터페이스장치를 통하여 대화수단을 제공하는 시스템, 방법, 및 비일시적 컴퓨터-판독가능 매체 |
US10795463B2 (en) | 2018-10-22 | 2020-10-06 | Deere & Company | Machine control using a touchpad |
WO2024071186A1 (ja) * | 2022-09-30 | 2024-04-04 | 株式会社Ubitone | 携帯情報端末 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1323004A (zh) * | 2001-06-08 | 2001-11-21 | 清华大学 | 汉语盲文到汉字的自动转换方法 |
CN1752903A (zh) * | 2005-10-26 | 2006-03-29 | 熊猫电子集团有限公司 | 移动信息终端的盲文输入方法 |
JP2008124599A (ja) * | 2006-11-09 | 2008-05-29 | Nec Corp | 点字対応携帯端末装置 |
CN101521857A (zh) * | 2008-12-22 | 2009-09-02 | 康佳集团股份有限公司 | 一种辅助盲人阅读短消息的方法和终端 |
KR20110029593A (ko) * | 2009-09-16 | 2011-03-23 | 세메스 주식회사 | 약액 공급 장치 및 방법 |
JP2012064066A (ja) * | 2010-09-17 | 2012-03-29 | Shinano Kenshi Co Ltd | 携帯端末 |
CN102591476A (zh) * | 2012-01-06 | 2012-07-18 | 浙江宇天科技股份有限公司 | 支持盲文的手机的信息输入方法及支持盲文输入的手机 |
CN103885705A (zh) * | 2012-12-21 | 2014-06-25 | 三星电子株式会社 | 输入方法、应用该方法的终端装置及计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090030537A (ko) | 2007-09-20 | 2009-03-25 | 사회복지법인 대한예수교 장로회 실로암시각장애인복지회 | 점자디스플레이가 설치된 노트북컴퓨터 및 키보드에점자디스플레이가 고정 설치된 데스크 탑 컴퓨터 |
US8633907B2 (en) * | 2010-07-06 | 2014-01-21 | Padmanabhan Mahalingam | Touch screen overlay for visually impaired persons |
KR101123212B1 (ko) | 2011-03-31 | 2012-03-20 | (주) 에스엔아이솔라 | 시각 장애인을 위한 터치스크린 장치 및 그 장치에서 문자 입력 방법 |
KR101371325B1 (ko) | 2012-10-17 | 2014-03-11 | 박성훈 | 스마트 폰을 포함한 정보통신기기의 완성한글 생성방법 및 입력방법 |
-
2014
- 2014-09-25 KR KR1020140128480A patent/KR101646742B1/ko active IP Right Grant
-
2015
- 2015-08-25 CN CN201580048896.3A patent/CN106716329B/zh active Active
-
2017
- 2017-02-24 US US15/441,642 patent/US10181269B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1323004A (zh) * | 2001-06-08 | 2001-11-21 | 清华大学 | 汉语盲文到汉字的自动转换方法 |
CN1752903A (zh) * | 2005-10-26 | 2006-03-29 | 熊猫电子集团有限公司 | 移动信息终端的盲文输入方法 |
JP2008124599A (ja) * | 2006-11-09 | 2008-05-29 | Nec Corp | 点字対応携帯端末装置 |
CN101521857A (zh) * | 2008-12-22 | 2009-09-02 | 康佳集团股份有限公司 | 一种辅助盲人阅读短消息的方法和终端 |
KR20110029593A (ko) * | 2009-09-16 | 2011-03-23 | 세메스 주식회사 | 약액 공급 장치 및 방법 |
JP2012064066A (ja) * | 2010-09-17 | 2012-03-29 | Shinano Kenshi Co Ltd | 携帯端末 |
CN102591476A (zh) * | 2012-01-06 | 2012-07-18 | 浙江宇天科技股份有限公司 | 支持盲文的手机的信息输入方法及支持盲文输入的手机 |
CN103885705A (zh) * | 2012-12-21 | 2014-06-25 | 三星电子株式会社 | 输入方法、应用该方法的终端装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106716329A (zh) | 2017-05-24 |
US20170169730A1 (en) | 2017-06-15 |
KR101646742B1 (ko) | 2016-08-08 |
KR20160030816A (ko) | 2016-03-21 |
US10181269B2 (en) | 2019-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106716329B (zh) | 具有盲文支持功能的触控荧幕装置及其控制方法 | |
US6104317A (en) | Data entry device and method | |
US10175882B2 (en) | Dynamic calibrating of a touch-screen-implemented virtual braille keyboard | |
US20120311476A1 (en) | System and method for providing an adaptive touch screen keyboard | |
US9870067B2 (en) | Input device for arabic letters | |
KR101554256B1 (ko) | 햅틱 패턴을 이용한 시각 장애인용 문자 표시 방법, 이 방법이 적용된 터치스크린 및 이를 이용한 디스플레이 장치 | |
CN105468271A (zh) | 手写符号的识别方法、系统与装置 | |
US20180373333A1 (en) | Method of displaying characters for the blind using haptic patterns | |
KR20220039661A (ko) | 전자장치에서 문자 입력할 때 간단한 오타 수정 방법 등 | |
US9207775B2 (en) | Systems and methods for positioning keys in limited key space of handheld mobile wireless devices | |
US20090243897A1 (en) | Method and apparatus for entering alphanumeric data via keypads or display screens | |
KR20110082956A (ko) | 터치스크린의 한글 입력 방법 | |
US20190265880A1 (en) | Swipe-Board Text Input Method | |
KR101162243B1 (ko) | 터치스크린 패널의 문자입력방법 | |
US10416781B2 (en) | Letter input method using touchscreen | |
KR102341505B1 (ko) | 사용자 단말용 점자 키패드 및 점자 스크린에 키패드가 부착된 사용자 단말 | |
US10430029B2 (en) | Character input assist device | |
JP2015043560A (ja) | ソフトウエアキーボードプログラム、文字入力装置および文字入力方法 | |
US10725659B2 (en) | Letter input method using touchscreen | |
WO2016039538A2 (ko) | 점자 지원 기능이 구비된 터치스크린 장치 및 그 제어방법 | |
KR101898194B1 (ko) | 점자 입력을 위한 터치스크린 장치의 동작 방법 | |
Kuno et al. | Meyboard: A QWERTY-Based Soft Keyboard for Touch-Typing on Tablets | |
KR101034284B1 (ko) | 문자입력장치 | |
KR20230128238A (ko) | 3d 터치를 이용한 문자 입력 및 문자 수정 방법 | |
KR20080072606A (ko) | 한글을 입력할 수 있는 디지털 정보 처리 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |