CN113302672A - 变速语音发音机器 - Google Patents
变速语音发音机器 Download PDFInfo
- Publication number
- CN113302672A CN113302672A CN201980088905.XA CN201980088905A CN113302672A CN 113302672 A CN113302672 A CN 113302672A CN 201980088905 A CN201980088905 A CN 201980088905A CN 113302672 A CN113302672 A CN 113302672A
- Authority
- CN
- China
- Prior art keywords
- phoneme
- touch
- letter
- sequential
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims description 66
- 238000009877 rendering Methods 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 28
- 230000001351 cycling effect Effects 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000002035 prolonged effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004224 protection Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B17/00—Teaching reading
- G09B17/04—Teaching reading for increasing the rate of reading; Reading rate control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B17/00—Teaching reading
- G09B17/003—Teaching reading electrically operated apparatus or devices
- G09B17/006—Teaching reading electrically operated apparatus or devices with audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/04—Speaking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
- G10L2013/105—Duration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
示例机器使触敏屏幕呈现图形用户界面,该图形用户界面描绘与包括第一字母和第二字母的单词对齐的滑块控件。滑块控件的第一区域对应于第一字母,并且滑块控件的第二区域对应于第二字母。示例机器检测在第一区域内开始并且进入第二区域的触摸与拖动输入。响应于触摸与拖动输入在第一区域内开始,示例机器呈现与第一字母对应的第一音素,第一音素的呈现可以包括第一音素的音频回放。响应于触摸与拖动输入进入第二区域,示例机器呈现与第二字母对应的第二音素,第二音素的呈现可以包括第二音素的音频回放。
Description
相关申请
本申请要求2018年12月13日提交的美国专利申请第16/219,659号的优先权权益,其全部内容通过引用并入本文中。
技术领域
本文中公开的主题总体上涉及促进阅读技能的教学或学习的专用机器(包括这样的专用机器的软件配置的计算机化变体以及对这样的变体的改进)的技术领域,并且本文中公开的主题涉及以下技术:通过该技术,与促进阅读技能的教学或学习的其他专用机器相比,这样的专用机器得到改进。特别地,本公开内容提出了促进字母(例如,由多个字母构成的单词的变速发音)及字母组成的单词的变速语音发音的系统和方法。
背景技术
机器可以被配置成通过向一个或更多个用户呈现教导一种或更多种阅读技能的练习或者以其他方式引导一个或更多个用户完成对一种或更多种阅读技能的实践来与机器(例如,计算机或其他装置)的一个或更多个用户交互。例如,机器可以在图形用户界面(GUI)内呈现字母(例如,字母“A”或字母“B”)、播放对所呈现的字母进行发音的角色的音频或视频记录,并且然后提示用户(例如,学习阅读的儿童)也对所呈现的字母进行发音。
附图说明
在附图的各个图中通过示例而非限制的方式示出了一些实施方式。
图1至图5是根据一些示例实施方式的具有触敏显示屏的机器的正视图,在该触敏显示屏上呈现适合于变速语音发音的GUI。
图6是示出根据一些示例实施方式的适合于变速语音发音的机器的部件的框图。
图7至图10是示出根据一些示例实施方式的机器在执行变速语音发音方法时的操作的流程图。
图11是示出根据一些示例实施方式的能够从机器可读介质读取指令并且执行本文中讨论的任何一种或更多种方法的机器的部件的框图。
具体实施方式
示例方法(例如,算法)促进机器对音素的变速发音,并且示例系统(例如,由专用软件配置的专用机器)被配置成促进(例如,执行)音素的变速发音。示例仅代表可能的变型。除非另有明确说明,否则结构(例如,诸如模块的结构性部件)是可选的,并且可以被组合或再分,并且操作(例如,在过程、算法或其他功能中)可以按顺序变化或被组合或再分。在以下描述中,出于说明的目的,阐述了多个具体细节以提供对各种示例实施方式的透彻理解。然而,对于本领域技术人员明显的是,可以在没有这些特定细节的情况下实践本主题。
机器可以被特别配置(例如,通过适当的硬件模块、软件模块或这两者组合)成表现为或以其他方式充当变速语音发音机器,例如,该变速语音发音机器以根据诸如触敏显示屏上的触摸与拖动输入的变速用户输入而变化的发音速度来对单词的音素进行发音。根据本文中讨论的系统和方法,与也对音素进行发音但缺少本文中描述的行为的其他机器相比,技术上改进了变速语音发音机器。这样的技术改进包括:对用户作出更敏感响应(例如,当用户动态地改变触摸与拖动输入的速度时);向用户提供更大程度的控制(例如,对单词发音的速度);向用户提供更自然的发声听觉反馈(例如,以高发音速度、以低发音速度、或两者兼有);向用户提供更自然的观看视觉反馈(例如,以呈现在显示屏上的动画化嘴部运动的形式);使得用户能够快速且方便地体验对单词进行的若干不同发音速度(例如,通过响应于以不同速度的重复的触摸与拖动输入来重复地对该单词进行发音);或者以上任何合适的组合。
为了提供这些技术特征和益处,变速语音发音机器被配置成在机器的触敏显示屏上呈现GUI,其中GUI描绘与单词对齐的滑块控件。单词包括(例如,至少)按顺序第一字母和按顺序第二字母。如GUI中所描绘的,滑块控件的第一区域对应于单词的按顺序第一字母,并且滑块控件的第二区域对应于单词的按顺序第二字母。
机器还被配置成经由触敏显示屏检测在滑块控件的第一区域内开始并且进入滑块控件的第二区域的触摸与拖动输入(例如,轻扫手势)。响应于在滑块控件的第一区域内开始的触摸与拖动输入,机器呈现或以其他方式使得呈现与单词的按顺序第一字母对应的第一音素,并且第一音素的呈现可以包括第一音素的音频回放。响应于触摸与拖动输入进入滑块控件的第二区域,机器呈现或以其他方式使得呈现与单词的按顺序第二字母对应的第二音素,并且第二音素的呈现可以包括第二音素的音频回放。
图1至图5是根据一些示例实施方式的具有显示屏101的机器100(例如,诸如移动装置的装置)的正视图,在显示屏101上呈现适合于变速语音发音的GUI 110。如图1所示,显示屏101是触敏的并且被配置成接受来自用户的一个或更多个手指的一个或更多个触摸输入,并且作为示例,手指140被示出为触摸机器100的显示屏101。
GUI 110呈现在显示屏101上并且描绘(例如,除了其他之外)单词120(例如,如描绘的,“CAT”,或替选地“DOG”、“MOM”、“DAD”、“BABY”、“APPLE”、“SCHOOL”或“BACKPACK”)和滑块控件130(例如,滑块条)。滑块控件130可以视觉上与单词120对齐。例如,滑块控件130和单词120都可以沿着同一直线或者沿着两条平行线。作为另一示例,滑块控件130和单词120都可以沿着同一曲线或者沿着相隔恒定距离的两条曲线。
如图1所示,滑块控件130可以包括滑动元件131,例如,指示对单词120或其音素进行发音的进展的位置指示条或其他标记(例如,光标)。还如图1所示,单词120包括一个或更多个字母,并且因此可以包括(例如,除其他文本字符之外)按顺序第一字母121(例如,“C”)和按顺序第二字母122(例如,“A”)。单词120还可以包括按顺序第三字母123(例如,“T”)。例如,单词120可以是辅音-元音-辅音(CVC)单词,例如“cat”或“dog”,并且因此,单词120包括按顺序第一字母121、按顺序第二字母122和按顺序第三字母123。
滑块控件130的不同区域对应于单词120的不同字母,并且滑块控件130的每个区域可以在视觉上与单词120的对应字母对齐。因此,参照图1,滑块控件130的第一区域对应于按顺序第一字母121(例如“C”),并且可以在视觉上与按顺序第一字母121对齐,并且滑块控件130的第二区域对应于按顺序第二字母122(例如,“A”),并且可以在视觉上与按顺序第二字母122对齐。类似地,滑块控件130的第三区域可以对应于按顺序第三字母123(例如,“T”),并且可以在视觉上与按顺序第三字母123对齐。
另外,GUI 110可以包括化身150或其他人物(例如,卡通人物),并且可以用一个或更多个移动部来使化身150动画化或以其他方式表现(例如,以二维或三维)。例如,化身150可以具有动画化嘴部151,该动画化嘴部151基于(例如,根据、响应或两者)机器100当前发音的音素而改变其形状。
如图1所示,手指140在显示屏101上执行触摸与拖动输入(例如,轻扫手势)。为了开始触摸与拖动输入,手指140正在滑块控件130的第一区域内的位置(例如,第一位置)处触摸显示屏101,并且显示屏101检测到手指140正在该位置处触摸显示屏101。因此,触摸与拖动输入在滑块控件130的第一区域内开始(例如,触及)。如上所述,滑块控件130的第一区域对应于按顺序第一字母121(例如,“C”)。响应于检测到手指140触摸GUI 110内的所示位置,GUI 110在同一位置处呈现滑动元件131。如上所述,滑动元件131可以指示在对单词120的音素发音时所达到的进展程度(例如,如图1中所示的是没有进展)。可以相应地以中性外形(例如,诸如微笑或嘴唇闭合的无表情外形的中性嘴部外形)示出化身150的动画化嘴部151。
响应于触摸与拖动输入在滑块控件130的第一区域内开始,机器100呈现与对应于滑块控件130的第一区域的按顺序第一字母121(例如,“C”)对应的第一音素。第一音素的该呈现可以包括第一音素的音频回放(例如,记录对第一音素进行发音的角色的声音文件的音频回放)。根据一些示例实施方式,第一音素的呈现包括以与第一音素对应的第一外形(例如,第一嘴部形状)显示动画化嘴部151,并且在第一音素的音频回放期间可以保持直到呈第一外形的动画化嘴部151的显示。在某些示例实施方式中,第一音素的呈现包括或伴随有改变按顺序第一字母121的颜色(例如,在第一音素的音频回放期间从第一颜色到第二颜色,并且然后在第一音素的音频回放之后再次改变回其颜色)。
如图2所示,手指140继续在显示屏101上执行触摸与拖动输入,并且触摸与拖动输入仍然在滑块控件130的第一区域内。即,手指140正在处于滑块控件130的第一区域内的位置(例如,第二位置)处触摸显示屏101,并且显示屏101检测到手指140正在该位置处触摸显示屏101。因此,触摸与拖动输入继续,但是保持在滑块控件130的第一区域内。响应于检测到手指140触摸GUI 110内的所示位置,GUI 110在同一位置处呈现滑动元件131。如上所述,滑动元件131可以指示在对单词120的音素发音时所达到的进展程度(例如,如图2所示,直到与第一顺序字母对应的音素的发音的进展)。
响应于触摸与拖动输入保持在滑块控件130的第一区域内,在第一音素是元音音素的情况下,机器100可以维持(例如,延长)第一音素的音频回放。这可以通过使元音音素的至少一部分重复循环来执行,并且只要触摸与拖动输入保持在滑块控件130的第一区域内,就可以执行这样的重复循环。另一方面,响应于触摸与拖动输入保持在滑块控件130的第一区域内,在第一音素是辅音音素的情况下,机器100可以在恰好一次迭代之后中止(例如,停止)辅音音素的音频回放。例如,机器100可以在完成辅音音素的单次回放之后开始回放静音,并且此后只要触摸与拖动输入保持在滑块控件130的第一区域内就继续回放静音。作为另一示例,只要触摸与拖动输入保持在滑块控件130的第一区域内,机器100可以将其自身限制为仅回放背景声音、背景音乐或背景声音与背景音乐的任何合适的组合,而不回放诸如记录或合成语音的任何前景音频。
如图3所示,手指140继续在显示屏101上执行触摸与拖动输入,并且触摸与拖动输入已经进入滑块控件130的第二区域。即,手指140正在滑块控件130的第二区域内的位置(例如,第三位置)处触摸显示屏101,并且显示屏101检测到手指140正在该位置处触摸显示屏101。因此,触摸与拖动输入继续,并且现在处于滑块控件130的第二区域内。响应于检测到手指140触摸GUI 110内的所示位置,GUI 110在同一位置处呈现滑动元件131。如上所述,滑动元件131可以指示在对单词120的音素发音时所达到的进展程度(例如,如图3所示,直到与第二顺序字母对应的音素的发音的进展)。
响应于触摸与拖动输入进入滑块控件130的第二区域,机器100呈现与对应于滑块控件130的第二区域的按顺序第二字母122(例如,“A”)对应的第二音素。第二音素的呈现可以包括第二音素的音频回放(例如,记录对第二音素发音的角色的声音文件的音频回放)。根据一些示例实施方式,第二音素的呈现包括以与第二音素对应的第二外形(例如,第二嘴部外形)显示动画化嘴部151,并且可以在第二音素的音频回放期间保持第二外形的动画化嘴部151的显示。在某些示例实施方式中,第二音素的呈现包括或伴随有改变按顺序第二字母122的颜色(例如,在第二音素的音频回放期间从第一颜色到第二颜色,并且然后在第二音素的音频回放之后再次改变回其颜色)。
此外,响应于触摸与拖动输入保持在滑块控件130的第二区域内,在第二音素是元音音素的情况下,机器100可以维持(例如,延长)第二音素的音频回放。这可以通过使元音音素的至少一部分重复循环来执行,并且只要触摸与拖动输入保持在滑块控件130的第二区域内,就可以执行这样的重复循环。另一方面,响应于触摸与拖动输入保持在滑块控件130的第二区域内,在第二音素是辅音音素的情况下,机器100可以在恰好一次迭代之后中止(例如,停止)辅音音素的音频回放。例如,机器100可以在完成辅音音素的单次回放之后开始回放静音,并且此后只要触摸与拖动输入保持在滑块控件130的第二区域内就继续回放静音。作为另一示例,只要触摸与拖动输入保持在滑块控件130的第二区域内,机器100可以将其自身限制为仅回放背景声音、背景音乐或背景声音与背景音乐的任何合适的组合,而不回放诸如记录或合成语音的任何前景音频。
如图4所示,手指140继续在显示屏101上执行触摸与拖动输入,并且触摸与拖动输入已经进入滑块控件130的第三区域。即,手指140正在处于滑块控件130的第三区域内的位置(例如,第四位置)处触摸显示屏101,并且显示屏101检测到手指140正在该位置处触摸显示屏101。因此,触摸与拖动输入继续,并且现在处于滑块控件130的第三区域内。响应于检测到手指140触摸GUI 110内的所示位置,GUI 110在同一位置处呈现滑动元件131。如上所述,滑动元件131可以指示在对单词120的音素发音时所达到的进展程度(例如,如图4所示,直到与第三顺序字母对应的音素的发音的进展)。
响应于触摸与拖动输入进入滑块控件130的第三区域,机器100呈现与对应于滑块控件130的第三区域的按顺序第三字母123(例如,“T”)对应的第三音素。第三音素的呈现可以包括第三音素的音频回放(例如,记录对第三音素发音的角色的声音文件的音频回放)。根据一些示例实施方式,第三音素的呈现包括以与第三音素对应的第三外形(例如,第二嘴部外形)显示动画化嘴部151,并且可以在第二音素的音频回放期间保持直到呈第三外形的动画化嘴部151的显示。在某些示例实施方式中,第三音素的呈现包括或伴随有改变按顺序第三字母123的颜色(例如,在第三音素的音频回放期间从第一颜色到第二颜色,并且然后在第三音素的音频回放之后再次改变回其颜色)。
此外,响应于触摸与拖动输入保持在滑块控件130的第三区域内,在第三音素是元音音素的情况下,机器100可以维持(例如,延长)第三音素的音频回放。这可以通过使元音音素的至少一部分重复循环来执行,并且只要触摸与拖动输入保持在滑块控件130的第三区域内,就可以执行这样的重复循环。另一方面,响应于触摸与拖动输入保持在滑块控件130的第三区域内,在第三音素是辅音音素的情况下,机器100可以在恰好一次迭代之后中止(例如,停止)辅音音素的音频回放。例如,机器100可以在完成辅音音素的单次回放之后开始回放静音,并且此后只要触摸与拖动输入保持在滑块控件130的第三区域内就继续回放静音。作为另一示例,只要触摸与拖动输入保持在滑块控件130的第三区域内,机器100可以将其自身限制为仅回放背景声音、背景音乐或背景声音与背景音乐的任何合适的组合,而不回放诸如记录或合成语音的任何前景音频。
如图5所示,手指140通过仅在处于滑块控件130的第三区域内的位置处(例如,第五位置)抬离显示屏101而结束在显示屏101上的触摸与拖动输入,并且显示屏101检测到手指140已经移动至显示屏101上的该位置处,并且然后停止触摸显示屏101。因此,触摸与拖动输入已经在滑块控件130的第三区域内结束。如上所述,滑块控件130的第三区域对应于按顺序第三字母123(例如,“T”)。响应于检测到手指140在GUI 110内的所示位置处抬离显示屏101,GUI 110在相同位置处呈现滑动元件131。如上所述,滑动元件131可以指示在对单词120的音素进行发音时所达到的进展程度(例如,如图5所示,进展至完成)。化身150的动画化嘴部151可以相应地回复到中性外形(例如,诸如嘴唇闭合的无表情外形或微笑的中性嘴部外形)。
图6是示出根据一些示例实施方式的被配置成用于变速语音发音的机器100的部件的框图。机器100被示出为包括:触摸输入检测器610、音素呈现生成器620和显示屏101,它们都被配置成彼此通信(例如,经由总线、共享存储器或开关)。触摸输入检测器610可以是或包括触摸输入模块或类似地适合的软件代码,该触摸输入模块或类似地适合的软件代码用于检测发生在显示屏101上的一个或更多个触摸输入(例如,触摸与拖动输入)。音素呈现生成器620可以是或包括音素表现模块或类似地适合的软件代码,该音素表现模块或类似适合的软件代码用于表现或以其他方式生成一个或更多个音素的呈现(例如,经由机器100或其任何部分,包括经由GUI 110、经由机器100的音频回放子系统或经由这两者)。
如图6所示,触摸输入检测器610、音素呈现生成器620或这两者可以形成存储(例如,安装)在机器100上的app 600(例如,移动app)的全部或部分(例如,响应于或以其他方式作为经由网络接收来自一个或更多个服务器机器的数据的结果)。此外,一个或更多个处理器699(例如,硬件处理器、数字处理器或其任何合适的组合)可以包括(例如,临时地或永久地)在app 600、触摸输入检测器610、音素呈现生成器620或其任何合适的组合中。
可以单独使用硬件(例如,处理器699中的一个或更多个)或硬件和软件的组合来实现本文中描述的部件(例如,模块)中的任何一个或更多个。例如,本文中描述的任何部件可以物理地包括被配置成执行本文中针对该部件所描述的操作的处理器699中的一个或更多个的布置(例如,处理器699的子集或其中的处理器)。作为另一示例,本文中描述的任何部件可以包括软件、硬件或这两者,其将处理器699中的一个或更多个的布置配置成执行本文中针对该部件所描述的操作。因此,本文中描述的不同部件可以包括并且配置在不同时间点处的处理器699的不同布置或者在不同时间点处的处理器699的单个布置。本文中所描述的每个部件(例如,模块)是用于执行本文中针对该部件所描述的操作的装置的示例。此外,本文中所描述的任何两个或更多个部件可以组合在单个部件中,并且本文中针对单个部件所描述的功能可以在多个部件之间再分。此外,根据各种示例实施方式,本文中描述为在单个系统或机器(例如,单个装置)内实现的部件可以跨多个系统或机器(例如,多个装置)分布。
机器100可以是、包括或以其他方式实现在专用(例如,专门的或其他非常规和非通用)计算机中,该专用计算机已经被修改以执行本文中所描述的功能中的一个或更多个(例如,由专用软件例如专用应用、操作系统、固件、中间件或其他软件程序的一个或更多个软件模块配置或编程)。例如,下面关于图11讨论能够实现本文中所描述的任何一种或更多种方法的专用计算机系统,并且因此这样的专用计算机可以是用于执行本文中所讨论的任何一种或更多种方法的装置。在这样的专用计算机的技术领域内,与缺少本文中讨论的结构或除此之外不能执行本文中讨论的功能的其他专用计算机相比,已经由本文中讨论的结构特别修改(例如,由专用软件配置)以执行本文中讨论的功能的专用计算机在技术上得到改进。因此,根据本文所讨论的系统和方法配置的专用机器提供了对类似专用机器的技术的改进。
因此,如下面关于图11所描述的,机器100可以全部或部分地在专用(例如,专门)计算机系统中实现。根据各种示例实施方式,机器100可以是或包括台式计算机、车载计算机、家庭媒体系统(例如,家庭影院系统或其他家庭娱乐系统)、平板计算机、导航装置、便携式媒体装置、智能电话或可穿戴装置(例如,智能手表、智能眼镜、智能服装或智能首饰)。
图7至图10是示出根据一些示例实施方式的机器100在执行变速语音发音的方法700时的操作的流程图。可以由机器100使用以上关于图6描述的部件(例如,模块)、使用一个或更多个处理器(例如,微处理器或其他硬件处理器)或者使用其任何合适的组合来执行方法700中的操作。如图7所示,方法700包括操作710、操作720、操作730和操作740。
在操作710中,app 600将GUI 110呈现在显示屏101(例如,触摸屏或其他触敏显示屏)上,或者以其他方式使GUI 110呈现在显示屏101上。如上所述,GUI 110描绘滑块控件130,并且滑块控件130与单词120对齐,这也由GUI 110描绘。还如上面所述,单词120包括(例如,至少)按顺序第一字母121和按顺序第二字母122。此外,滑块控件130的第一区域(例如,滑块控件130靠近按顺序第一字母121的区域)对应于按顺序第一字母121,并且滑块控件的第二区域(例如,滑块控件130靠近按顺序第二字母122的区域)对应于按顺序第二字母122。在一些示例实施方式中,由app 600的音素呈现生成器620执行操作710。操作710的视觉效果可以如图1所示表现。
在操作720中,触摸输入检测器610检测(例如,经由、使用、结合或不然基于显示屏101)在滑块控件130的第一区域内开始并且进入滑块控件130的第二区域的触摸与拖动输入。操作720的视觉效果可以如图1至图3所示表现。
在操作730中,音素呈现生成器620通过呈现与单词120的按顺序第一字母121对应的第一音素来响应在滑块控件130的第一区域内开始的触摸与拖动输入。如以上关于图1和图2所述,第一音素的呈现可以包括执行或以其他方式引起第一音素的音频回放(例如,除了其他之外)。
在操作740中,音素呈现生成器620通过呈现与单词120的按顺序第二字母122对应的第二音素来响应进入滑块控件130的第二区域的触摸与拖动输入。如以上关于图3所述,第二音素的呈现可以包括执行或以其他方式引起第二音素的音频回放(例如,除了其他之外)。
如图8所示,除了先前描述的操作中的任何一个或更多个之外,方法700可以包括操作820、操作830、操作832、操作840和操作842中的一个或更多个。操作820可以作为操作720的一部分(例如,前导任务、子例程或部分)来执行,其中触摸输入检测器610检测到触摸与拖动输入在滑块控件130的第一区域中开始并且进入滑块控件130的第二区域。在操作820中,触摸输入检测器610响应于检测到触摸与拖动输入而触发单词120的发音的呈现。
例如,在包括操作820的示例实施方式中,触摸与拖动输入可以具有特定持续时间,并且触摸输入检测器610可以触发发音的呈现,该发音的持续时间与触摸与拖动输入的持续时间同延(例如,不管触摸与拖动输入的持续时间结果是多长)。在这种情况下,单词120的发音的呈现可以包括执行下游操作730和740,其中在触摸与拖动输入的持续时间内呈现第一音素和第二音素。
作为另一示例,在包括操作820的示例实施方式中,触摸与拖动输入可以具有特定速度(例如,显示屏101上的移动速度),并且触摸输入检测器610可以以基于触摸与拖动输入的速度(例如,移动速度)而确定的速度(例如,回放单词120的相继音素的语音速度)来触发发音的呈现。在这种情况下,单词128的发音的呈现可以包括执行下游操作730和740,其中以基于触摸与拖动输入的移动速度而确定的语音速度来呈现第一音素和第二音素。
作为操作730的一部分,取决于与按顺序第一字母121对应的第一音素是辅音音素还是元音音素,可以执行操作830或操作832。在操作830中,第一音素是元音音素,并且只要触摸与拖动输入停留在滑块控件130的第一区域中(例如,直到触摸与拖动输入离开第一区域),作为呈现第一音素的一部分,音素呈现生成器620将元音音素维持(例如,延长)达无限持续时间。如上所述,只要触摸与拖动输入保持在第一区域中,这可以通过使元音音素的至少一部分循环来执行。替选地,在操作832中,第一音素是辅音音素,并且只要触摸与拖动输入停留在滑块控件130的第一区域中(例如,直到触摸与拖动输入离开第一区域),作为呈现第一音素的一部分的音素呈现生成器620播放辅音音素并且随后静音达无限持续时间。如上所述,这可以通过恰好回放辅音音素一次并且然后回放静音或仅回放背景音频(例如,背景声音、背景音乐或这两者)而不回放任何前景音频(例如,不回放任何记录语音、合成语音或这两者)来执行。
作为操作740的一部分,取决于与按顺序第二字母122对应的第二音素是辅音音素还是元音音素,可以执行操作840或操作842。在操作840中,第二音素是元音音素,并且只要触摸与拖动输入停留在滑块控件130的第二区域中(例如,直到触摸与拖动输入离开第二区域),作为呈现第二音素的一部分,音素呈现生成器620将元音音素维持(例如,延长)达无限持续时间。如上所述,只要触摸与拖动输入保持在第二区域中,这可以通过使元音音素的至少一部分循环来执行。替选地,在操作842中,第二音素是辅音音素,并且只要触摸与拖动输入停留在滑块控件130的第二区域中(例如,直到触摸与拖动输入离开第二区域),作为呈现第二音素的一部分,音素呈现生成器620播放辅音音素并且随后静音达无限持续时间。如上所述,这可以通过恰好回放辅音音素一次并且然后回放静音或仅回放背景音频(例如,背景声音、背景音乐或这两者)而不回放任何前景音频(例如,不回放任何记录语音、合成语音或这两者)来执行。
如图9所示,除了先前描述的操作中的任何一个或更多个之外,方法700还可以包括操作930、操作932、操作940和操作942中的一个或更多个。
根据各种示例实施方式,操作930和操作932中的一个或两个可以作为操作730的一部分来执行。在操作930中,作为呈现第一音素的一部分,音素呈现生成器620以与第一音素对应的第一外形(例如,第一嘴部外形)来描绘化身150的动画化嘴部151或使GUI 110描绘化身150的呈第一外形的动画化嘴部151。这可以通过访问并且表现第一外形的二维图像或第一外形的三维模型来执行,或者以其他方式使这样的二维图像或三维模型由GUI 110访问并且表现来执行。
在操作932中,作为呈现第一音素的一部分,音素呈现生成器620通过将颜色从第一颜色(例如,诸如蓝色的默认颜色)改变为第二颜色(例如,诸如黄色的突出显示颜色)来改变按顺序第一字母121的颜色。
根据各种示例实施方式,操作940和操作942中的一个或两个可以作为操作740的一部分来执行。在操作940中,作为呈现第二音素的一部分,音素呈现生成器620以与第二音素对应的第二外形(例如,第二嘴部外形)来描绘化身150的动画化嘴部151或使GUI 110描绘化身150的呈第二外形的动画化嘴部151。这可以通过访问并且表现第二外形的二维图像或第二外形的三维模型来执行,或者以其他方式使这样的二维图像或三维模型由GUI 110访问并且表现来执行。
在操作942中,作为呈现第二音素的一部分,音素呈现生成器620通过将颜色从第一颜色(例如,诸如蓝色的默认颜色)改变为第二颜色(例如,诸如黄色的突出显示颜色)来改变按顺序第二字母122的颜色。
如图10所示,除了先前描述的操作中的任何一个或更多个之外,方法700还可以包括操作1050、操作1052、操作1060、操作1062、操作1080和操作1082中的一个或更多个。
根据某些示例实施方式,由触摸输入检测器610(例如,经由显示屏101)检测单词120的各个字母121、122和123上的单独触摸输入,并且各个字母上(例如,按顺序第一字母121上)的每个单独触摸输入触发该字母的对应音素的呈现(例如,第一音素的音频回放,其中,动画化嘴部151的外形改变为或未改变为对应嘴部外形,以及改变或未改变第一顺序字母121的颜色)。
在操作1050中,触摸输入检测器610检测(例如,经由、使用、结合或除此之外基于显示屏101)在GUI 110正在呈现(例如,显示)单词120内的按顺序第一字母121(例如,“C”)的显示屏101的位置处的触摸输入(例如,单击或双击)。作为响应,在操作1052中,音素呈现生成器620呈现与单词120的按顺序第一字母121对应的第一音素。可以以与上面针对第一音素所描述的方式类似的方式来执行这样的呈现。例如,可以根据对那些操作的上述讨论适当地执行操作830、操作832、操作930和操作932中的任何一个或更多个。
在操作1060中,触摸输入检测器610检测(例如,经由、使用、结合或除此之外基于显示屏101)在GUI 110正在呈现(例如,显示)单词120内的按顺序第二字母122(例如,“A”)的显示屏101的位置处的触摸输入(例如,单击或双击)。作为响应,在操作1062中,音素呈现生成器620呈现与单词120的按顺序第二字母122对应的第二音素。可以以与上面针对第二音素所描述的方式类似的方式来执行这样的呈现。例如,可以根据对那些操作的上述讨论适当地执行操作840、操作842、操作940和操作942中的任何一个或更多个。
在单词120(例如,“CAT”)具有按顺序第三字母(例如,“T”)的情况下,可以以与上面针对操作720和操作740所描述的方式类似的方式来执行操作1080和操作1082中的一个或两个。在操作1080中,触摸输入检测器610检测(例如,经由、使用、结合或除此之外基于显示屏101)在滑块控件130的第一区域内开始并且进入滑块控件130的第二区域的触摸与拖动输入已经进入滑块控件130的第三区域。如上所述,第三区域可以对应于按顺序第三字母123(例如,“T”),并且可以在视觉上与按顺序第三字母123对齐。这可以是当单词120是三个字母长或更长时的情况,包括当单词120是CVC单词时的情况。
在操作1082中,音素呈现生成器620通过呈现与单词120的按顺序第三字母123对应的第三音素来响应进入滑块控件130的第三区域的触摸与拖动输入。第三音素的呈现可以包括执行或以其他方式引起第三音素的音频回放(例如,除了其他之外)。具体地,可以以与上面针对第二音素所描述的方式类似的方式来执行第三音素的这样的呈现。例如,可以根据对那些操作的上述讨论适当地针对第三音素执行与操作840、操作842、操作940和操作942中的任何一个或更多个类似的一个或更多个操作。
此外,在单词120(例如,“BABY”)具有按顺序第四字母的情况下(例如,“Y”),可以执行与操作1080和操作1082类似的一个或更多个操作。例如,触摸输入检测器610可以检测在滑块控件130的第一区域内开始、进入滑块控件130的第二区域并且进入滑块控件130的第三区域的触摸与拖动输入现在已经进入滑块控件130的第四区域。第四区域可以对应于按顺序第四字母(例如,“Y”),并且可以在视觉上与按顺序第四字母对齐。
同样地,音素呈现生成器620可以通过呈现与单词120的按顺序第四字母(例如,“Y”)对应的第四音素来响应进入滑块控件130的第四区域的触摸与拖动输入。第四音素的呈现可以包括执行或以其他方式引起第四音素的音频回放(例如,除了其他之外)。可以以与上面针对第二音素或第三音素所描述的方式类似的方式来执行第四音素的这样的呈现。例如,可以根据对那些操作的上述讨论适当地针对第四音素执行与操作840、操作842、操作940和操作942中的任何一个或更多个类似的一个或更多个操作。
根据各种示例实施方式,当单词120具有五个或更多个字母时,机器100可以以与上面针对按顺序第四字母描述的方式类似的方式处理超过按顺序第四字母的附加字母。
根据各种示例实施方式,本文描述的一种或更多种方法可以促进机器100对音素的变速发音。此外,本文描述的一种或更多种方法可以促进相对于对音素发音或试图对音素发音的其他机器的技术改进,包括:更响应于用户(例如,当用户动态地改变触摸与拖动输入的速度时);向用户提供更大程度的控制(例如,对单词发音的速度);向用户提供更自然的发声听觉反馈(例如,以高发音速度、以低发音速度、或两者兼有);向用户提供更自然的观看视觉反馈(例如,以呈现在显示屏上的动画化嘴部运动的形式);使得用户能够快速且方便地体验对单词进行的若干不同发音速度(例如,通过响应于以不同速度的重复触摸与拖动输入来重复对该词进行发音);或者以上任何合适的组合。因此,与先前存在的系统和方法的能力相比,本文描述的一种或更多种方法可以促进阅读技能的教导或学习,以及增强用户对阅读技能的享受。
当综合考虑这些效果时,本文描述的一种或更多种方法可以消除对不然在音素的变速发音中将涉及到某些努力或资源的需要,或者对在阅读技能的教导或学习中涉及的其他任务的需要。可以通过使用(例如,依赖于)实现本文描述的一种或更多种方法的专用机器来减少用户在执行这些任务时所付出的努力。可以类似地减少由一个或更多个系统或机器(例如,网络环境内)使用的计算资源(例如,与缺少本文中所讨论的结构或除此之外不能执行本文中所讨论的功能的系统或机器相比)。这样的计算资源的示例包括处理器周期、网络业务、计算能力、主存储器使用、图形表现能力、图形存储器使用、数据存储容量、功耗和冷却能力。
图11是示出根据一些示例实施方式的能够从机器可读介质1122(例如,非暂态机器可读介质、机器可读存储介质、计算机可读存储介质或其任何合适的组合)读取指令1124并且全部地或部分地执行本文中讨论的任何一种或更多种方法的机器1100的部件的框图。具体地,图11示出了呈计算机系统(例如,计算机)的示例形式的机器1100,在机器1100中可以全部地或部分地执行用于使机器1100执行本文中讨论的任何一种或更多种方法的指令1124(例如,软件、程序、应用程序、小应用、app(应用)或其他可执行代码)。
在替选实施方式中,机器1100作为独立装置操作或者可以通信地耦接(例如,联网)至其他机器。在联网部署中,机器1100可以在服务器-客户端网络环境中以服务器机器或客户端机器的资格操作,或者在分布式(例如,对等)网络环境中作为对等机器操作。机器1100可以是服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、蜂窝电话、智能电话、机顶盒(STB)、个人数字助理(PDA)、web设备、网络路由器、网络交换机、网桥或者能够按顺序地或以其他方式执行指定要由该机器采取的动作的指令1124的任何机器。此外,虽然仅示出了单个机器,但是术语“机器”也应当被认为包括单独地或联合地执行指令1124以执行本文中讨论的任何一种或更多种方法中的全部或部分方法的机器的任何集合。
机器1100包括处理器1102(例如,一个或更多个中央处理单元(CPU)、一个或更多个图形处理单元(GPU)、一个或更多个数字信号处理器(DSP)、一个或更多个专用集成电路(ASIC)、一个或更多个射频集成电路(RFIC)或其任何合适的组合)、主存储器1104和静态存储器1106,它们被配置成经由总线1108彼此通信。处理器1102包含固态数字微电路(例如,电子、光学或两者),其可以由指令1124中的一些或全部临时或永久配置,使得处理器1102能够被配置成整体或部分地执行本文中描述的任何一种或更多种方法。例如,处理器1102的一组一个或更多个微电路能够被配置成执行本文中描述的一个或更多个模块(例如,软件模块)。在一些示例实施方式中,处理器1102是多核CPU(例如,双核CPU、四核CPU、8核CPU或128核CPU),其中多个核中的每一个充当能够整体或部分地执行本文中讨论的任何一种或更多种方法的单独处理器。尽管本文中所述的有益效果可以由至少具有处理器1102的机器1100提供,但是如果不包含处理器的不同类型的机器(例如,纯机械系统、纯液压系统或混合机械-液压系统)被配置成执行本文中所描述的一种或更多种方法,则这些相同的有益效果可以由这样的无处理器的机器来提供。
机器1100还可以包括图形显示器1110(例如,等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪、阴极射线管(CRT)或者能够显示图形或视频的任何其他显示器)。机器1100还可以包括字母数字输入装置1112(例如,键盘或小键盘)、指针输入装置1114(例如,鼠标、触摸板、触摸屏、轨迹球、操纵杆、指示笔、运动传感器、眼睛跟踪装置、数据手套或其他指向仪器)、数据存储区1116、音频生成装置1118(例如,声卡、放大器、扬声器、耳机插孔或其任何合适的组合)以及网络接口装置1120。
数据存储区1116(例如,数据存储装置)包括机器可读介质1122(例如,有形和非暂态机器可读存储介质),在其上存储有体现本文描述的方法或功能中的任何一种或更多种方法或功能的指令1124。指令1124还可以在其由机器1100执行之前或期间完全或至少部分地驻留在主存储器1104内、静态存储器1106内、处理器1102内(例如,处理器的高速缓冲存储器内)或其任何合适的组合。因此,主存储器1104、静态存储器1106和处理器1102可以被视为机器可读介质(例如,有形且非暂态机器可读介质)。可以经由网络接口装置1120通过网络190发送或接收指令1124。例如,网络接口装置1120可以使用任何一种或更多种传输协议(例如,超文本传输协议(HTTP))来传送指令1124。
在一些示例实施方式中,机器1100可以是便携式计算装置(例如,智能电话、平板计算机或可穿戴装置)并且可以具有一个或更多个附加输入部件1130(例如,传感器或计量器)。这样的输入部件1130的示例包括图像输入部件(例如,一个或更多个摄像装置)、音频输入部件(例如,一个或更多个麦克风)、方向输入部件(例如,罗盘)、位置输入部件(例如,全球定位系统(GPS)接收器)、取向部件(例如,陀螺仪)、运动检测部件(例如,一个或更多个加速计)、海拔检测部件(例如,高度计)、温度输入部件(例如,温度计)、以及气体检测部件(例如,气体传感器)。由这些输入部件1130中的任何一个或更多个收集的输入数据可以是可访问的并且可用于由本文描述的模块中的任何一个使用(例如,具有适当的隐私通知和保护,诸如选择加入同意或选择退出同意,根据用户偏好、适用的规则或其任何适当的组合来实现)。
如本文中所使用的,术语“存储器”是指能够临时或永久地存储数据的机器可读介质,并且可以被认为包括但不限于随机存取存储器(RAM)、只读存储器(ROM)、缓冲存储器、闪存和高速缓冲存储器。虽然机器可读介质1122在示例实施方式中被示出为单个介质,但是术语“机器可读介质”应当被认为包括能够存储指令的单个介质或多个介质(例如,集中式数据库或分布式数据库,或相关联的高速缓存和服务器)。术语“机器可读介质”还应当被认为包括能够承载(例如,存储或传送)用于由机器1100执行的指令1124的任何介质或多个介质的组合,使得指令1124在由机器1100的一个或更多个处理器(例如,处理器1102)执行时使机器1100整体或部分地执行本文描述的任何一种或更多种方法。相应地,“机器可读介质”是指单个存储设备或装置,以及包括多个存储设备或装置的基于云的存储系统或存储网络。因此,术语“机器可读介质”应当被认为包括但不限于呈固态存储器芯片、光盘、磁盘或其任何合适的组合的示例形式的一个或更多个有形且非暂态数据储存库(例如,数据卷(data volume))。
本文所使用的“非暂态”机器可读介质特别地排除传播信号本身。根据各种示例实施方式,用于由机器1100执行的指令1124可以经由载体介质(例如,机器可读载体介质)来传送。这样的载体介质的示例包括非瞬态载体介质(例如,非瞬态机器可读存储介质,诸如可从一个位置物理地移动到另一位置的固态存储器)和瞬态载体介质(例如,传送指令1124的载波或其他传播信号)。
某些示例实施方式在本文中被描述为包括模块。模块可以构成软件模块(例如,存储或以其他方式在机器可读介质或传输介质中实施的代码)、硬件模块或其任何合适的组合。“硬件模块”是能够执行某些操作的有形(例如,非暂态)物理部件(例如,一个或多个处理器的集合),并且可以以某种物理方式被配置或布置。在各种示例实施方式中,可以通过软件(例如,应用或其一部分)将一个或更多个计算机系统或者其一个或更多个硬件模块配置为硬件模块,该硬件模块进行操作以执行本文中针对该模块描述的操作。
在一些示例实施方式中,硬件模块可以机械地、电子地、液压地或其任何合适的组合来实现。例如,硬件模块可以包括被永久地配置成执行某些操作的专用电路或逻辑电路。硬件模块可以是或包括专用处理器,例如现场可编程门阵列(FPGA)或ASIC。硬件模块还可以包括由软件临时配置以执行某些操作的可编程逻辑或电路。作为示例,硬件模块可以包括CPU或其他可编程处理器内所包含的软件。将理解的是,可以通过成本和时间考虑来驱动机械地、液压地、在专用和永久配置的电路中或者在临时配置的电路(例如,由软件配置)中实现硬件模块的决定。
相应地,短语“硬件模块”应当被理解成包括有形实体,该有形实体可以是被物理构造的、永久配置的(例如,硬连线的)或临时配置的(例如,编程的)而以特定方式操作或者执行本文中描述的某些操作。此外,如本文中使用的,短语“硬件实现的模块”是指硬件模块。考虑其中硬件模块被临时配置(例如,被编程)的示例实施方式,硬件模块中的每一个无需在任一时刻处均被配置或实例化。例如,在硬件模块包括由软件配置成为专用处理器的CPU的情况下,CPU可以在不同时间处被配置为各自不同的专用处理器(例如,分别被包括在不同的硬件模块中)。软件(例如,软件模块)可以相应地将一个或更多个处理器配置成例如在一个时刻成为或除此之外构成特定硬件模块,并且在不同时刻成为或除此之外构成不同的硬件模块。
硬件模块可以向其他硬件模块提供信息并且接收来自其他硬件模块的信息。因此,所描述的硬件模块可以被认为是在通信上耦接的。在同时存在多个硬件模块的情况下,可以通过硬件模块中的两个或更多个之间或之中的信号传输(例如,通过的电路和总线)来实现通信。在其中多个硬件模块在不同时间处被配置或实例化的实施方式中,可以例如通过将信息存储在多个硬件模块可以访问的存储器结构中并且在该存储器结构中检索信息来实现在这样的硬件模块之间的通信。例如,一个硬件模块可以执行操作,并且将该操作的输出存储在其通信上耦接至的存储器(例如,存储器装置)中。然后,另外的硬件模块可以在随后的时间处访问存储器,以检索和处理所存储的输出。硬件模块还可以发起与输入或输出装置的通信,并且可以对资源进行操作(例如,对来自计算资源的信息进行收集)。
本文中描述的示例方法的各种操作可以至少部分地由被临时配置(例如,由软件)或永久配置成执行相关操作的一个或更多个处理器来执行。无论是临时地被配置还是永久地被配置,这样的处理器都可以构成处理器实现的模块,所述处理器实现的模块操作为执行本文中描述的一个或更多个操作或功能。如本文中使用的,“处理器实现的模块”指的是硬件模块,其中硬件包括一个或更多个处理器。相应地,由于处理器是硬件的示例,因此本文中描述的操作可以至少部分地是处理器实现的、硬件实现的或两者实现的,并且本文中讨论的任何一种或更多种方法内的至少一些操作可以由一个或更多个处理器实现的模块、硬件实现的模块或其任何合适的组合来执行。
此外,这样的一个或更多个处理器可以在“云计算”环境中或作为服务(例如,在“软件即服务”(SaaS)实现内)执行操作。例如,在本文讨论的任何一种或更多种方法内的至少一些操作可以由一组计算机(例如,作为包括处理器的机器的示例)执行,这些操作可经由网络(例如,因特网)以及经由一个或更多个适当的接口(例如,应用程序接口(API))来访问。某些操作的执行可以分布在一个或更多个处理器中,无论是仅驻留在单个机器内还是跨多个机器布置。在一些示例实施方式中,一个或更多个处理器或硬件模块(例如,处理器实现的模块)可以位于单个地理位置(例如,在家庭环境、办公环境或服务器群中)。在其他示例实施方式中,一个或更多个处理器或硬件模块可以跨多个地理位置分布。
遍及本说明书,多个实例可以实现被描述为单个实例的部件、操作或结构。虽然一个或更多个方法的个别操作被示出和描述为分离的操作,但是个别操作中的一个或更多个可以同时执行并且不要求以所示的顺序执行操作。在示例配置中作为分离的部件和功能呈现的结构及其功能可以被实现为具有组合功能的组合结构或部件。类似地,作为单个部件呈现的结构和功能可以被实现为分离的部件和功能。这些和其他变型、修改、添加以及改进落入本文中的主题的范围内。
本文中讨论的主题的一些部分可以以对作为位或二进制数字信号存储在存储器(例如,计算机存储器或其他存储器)内的数据的操作的算法或符号表示的方式来呈现。这样的算法或符号表示是数据处理领域的普通技术人员用于将他们工作的实质传达给领域其他技术人员的技术的示例。如本文中使用的,“算法”是导致期望结果的操作或者类似处理的自洽序列。在此上下文中,算法和操作涉及对物理量的物理操纵。典型地,但不是必须地,这样的量可以采用能够由机器存储、访问、传输、组合、比较或者以其他方式操纵的电、磁或光信号的形式。有时,主要出于通用原因,使用诸如“数据”、“内容”、“位”、“值”、“元素”、“符号”、“字符”、“项”、“号码”、“数字”等词汇来指代这样的信号较便捷。但是,这些词语仅是便捷标签,并且将与适当的物理量相关联。
除非另有明确说明,否则本文中使用诸如“访问”、“处理”、“检测”、“计算”、“运算”、“确定”、“生成”、“呈现”、“显示”等词的讨论指代机器(例如,计算机)可执行的动作或处理,所述机器操纵或变换被表示为一个或更多个存储器(例如,易失性存储器、非易失性存储器或其任何合适的组合)、寄存器或者接收、存储、发送或显示信息的其他机器部件内的物理(例如,电子的、磁的或光的)量的数据。此外,除非另外特别说明,否则如在专利文献中常见的,在本文中使用无量词修饰的术语,以包括一个或多于一个实例。最后,除非另有明确说明,否则如本文所使用的,连词“或”是指非排他性的“或”。
以下列举的描述描述了本文中讨论的方法、机器可读介质和系统(例如,机器、装置或其他设备)的各种示例。
第一示例提供了一种方法,包括:
通过机器的一个或更多个处理器在装置的触敏显示屏上呈现图形用户界面(GUI),所述GUI描绘与单词对齐的滑块控件,所述单词包括按顺序第一字母和按顺序第二字母,所述滑块控件的第一区域对应于所述单词的按顺序第一字母,所述滑块控件的第二区域对应于所述单词的按顺序第二字母;
经由所述触敏显示屏并且通过所述机器的一个或更多个处理器来检测在所述滑块控件的第一区域内开始并且进入所述滑块控件的第二区域的触摸与拖动输入;
通过所述机器的一个或更多个处理器并且响应于所述触摸与拖动输入在所述滑块控件的第一区域内开始,呈现与所述单词的按顺序第一字母对应的第一音素,所述第一音素的呈现包括所述第一音素的音频回放;以及
通过所述机器的一个或更多个处理器并且响应于所述触摸与拖动输入进入所述滑块控件的第二区域,呈现与所述单词的按顺序第二字母对应的第二音素,所述第二音素的呈现包括所述第二音素的音频回放。
第二示例提供了根据第一示例的方法,其中:
所述按顺序第一字母为元音,并且所述第一音素为元音音素;并且
所述第一音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。因此,在所述单词的第一字母是元音的情况下,通过使元音音素的至少一部分重复循环,延长了所述对应元音音素的呈现(例如,在延长的持续时间内执行)。
第三示例提供了根据第一示例或第二示例的方法,其中:
所述按顺序第二字母为元音,并且所述第二音素为元音音素;并且
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。因此,在所述单词的第二字母是元音的情况下,通过使所述元音音素的至少一部分重复循环,延长了所述对应元音音素的呈现(例如,在延长的持续时间内执行)。
第四示例提供了根据第一示例的方法,其中:
所述按顺序第一字母为辅音,并且所述第一音素为辅音音素;并且
所述第一音素的呈现包括:在所述辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就进行静音的音频回放。因此,在所述单词的第一字母是辅音的情况下,对应辅音音素的呈现不会延长,而是通过在所述辅音音素的回放之后进行对静音的重复回放(例如,通过循环)来在固定持续时间内执行。
第五示例提供了根据第一示例或第四示例的方法,其中:
所述按顺序第二字母为辅音,并且所述第二音素为辅音音素;并且
所述第二音素的呈现包括:在所述辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就进行静音的音频回放。因此,在所述单词的第二字母是辅音的情况下,对应辅音音素的呈现不会延长,而是通过在所述辅音音素的回放之后进行静音的重复回放(例如,通过循环)来在固定持续时间内执行。
第六示例提供了根据第一示例至第五示例中任一项所述的方法,其中:
所检测到的触摸与拖动输入具有持续时间,并且触发与所述触摸与拖动输入的持续时间同延的所述单词的发音的呈现;并且
所述单词的发音的呈现包括所述第一音素和第二音素在所述触摸与拖动输入的持续时间内的呈现。因此,在所述触摸与拖动输入是轻扫手势的情况下,所述轻扫手势的持续时间确定总体上整个单词的发音的持续时间。
第七示例提供了根据第一示例至第六示例中任一项所述的方法,其中:
所检测到的触摸与拖动输入具有移动速度,并且触发以基于所述触摸与拖动输入的移动速度确定的语音速度对所述单词的发音的呈现;并且
所述单词的发音的呈现包括以基于所述触摸与拖动输入的移动速度确定的所述语音速度来呈现所述第一音素和所述第二音素。因此,在所述触摸与拖动输入是轻扫手势的情况下,所述轻扫手势的速度(例如,速率)确定总体上整个单词的发音的速度。
第八示例提供了根据第一示例至第七示例中任一项所述的方法,其中:
所述GUI还描绘动画化嘴部;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以与所述第一音素对应的第一嘴部外形显示所述动画化嘴部;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以与所述第二音素对应的第二嘴部外形显示所述动画化嘴部。因此,在所述GUI中描绘动画化化身或其他动画化角色的情况下,动画化化身或其他动画化角色的动画化嘴部可以根据(例如,随同)每个顺序音素的音频回放来改变外形。
第九示例提供了根据第一示例至第八示例中任一项所述的方法,其中:
在检测到所述触摸与拖动输入之前,所述GUI以第一颜色描绘所述单词;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以第二颜色描绘所述单词的按顺序第一字母;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以所述第二颜色描绘所述单词的按顺序第二字母。因此,通过扩展,当对所述单词的每个顺序字母发音时,所述字母可以通过颜色的对应变化被突出显示。
第十示例提供了根据第一示例至第九示例中任一项所述的方法,还包括:
经由所述触敏显示屏检测在所述单词的按顺序第一字母上的触摸输入;以及
响应于所述触摸输入,呈现与所述单词的按顺序第一字母对应的所述第一音素,所述第一音素的呈现包括所述第一音素的音频回放。因此,用户(例如,学习阅读的儿童)可以逐个触摸单词的每个字母(例如,所述第一字母)以听到其对应音素。
第十一示例提供了根据第一示例至第十示例中任一项所述的方法,还包括:
经由所述触敏显示屏检测在所述单词的按顺序第二字母上的触摸输入;以及
响应于所述触摸输入,呈现与所述单词的按顺序第二字母对应的所述第二音素,所述第二音素的呈现包括所述第二音素的音频回放。因此,用户(例如,学习阅读的儿童)可以逐个触摸单词的每个字母(例如,第二个字母)以听到其对应音素。
第十二示例提供了根据第一示例至第十一示例中任一项所述的方法,其中:
所述单词是辅音-元音-辅音单词(例如,“cat”(“猫”)或“dog”(“狗”)),其中所述按顺序第一字母是第一辅音,所述按顺序第二字母是元音,并且按顺序第三字母是第二辅音;
所述第一音素是第一辅音音素,所述第二音素是元音音素,并且所述按顺序第三字母对应于第二辅音音素;
所述第一音素的呈现包括:在所述第一辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就进行静音的音频回放;
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放;并且
所述方法还包括:
经由所述触敏显示屏检测所述触摸与拖动输入进入所述滑块控件的第三区域,所述第三区域对应于所述单词的按顺序第三字母;以及
响应于所述触摸与拖动输入进入所述滑块控件的第三区域,呈现与所述单词的按顺序第三字母对应的所述第二辅音音素,所述第二辅音音素的呈现包括:对所述第二辅音音素进行音频回放,随后只要所述触摸与拖动输入保持在所述滑块控件的第三区域内,就进行静音的音频回放。因此,通过扩展,可以以类似的方式(例如,逐字母、逐音素、或两者)对长于三个字母的单词发音。
第十三示例提供了一种机器可读介质(例如,非暂态机器可读存储介质),所述机器可读介质包括指令,所述指令在由机器的一个或更多个处理器执行时使所述机器执行操作,所述操作包括:
在装置的触敏显示屏上呈现图形用户界面(GUI),所述GUI描绘与单词对齐的滑块控件,所述单词包括按顺序第一字母和按顺序第二字母,所述滑块控件的第一区域对应于所述单词的按顺序第一字母,所述滑块控件的第二区域对应于所述单词的按顺序第二字母;
经由所述触敏显示屏检测在所述滑块控件的第一区域内开始并且进入所述滑块控件的第二区域的触摸与拖动输入;
响应于所述触摸与拖动输入在所述滑块控件的第一区域内开始,呈现与所述单词的按顺序第一字母对应的第一音素,所述第一音素的呈现包括所述第一音素的音频回放;以及
响应于所述触摸与拖动输入进入所述滑块控件的第二区域,呈现与所述单词的按顺序第二字母对应的第二音素,所述第二音素的呈现包括所述第二音素的音频回放。
第十四示例提供了根据第十三示例的机器可读介质,其中:
所述按顺序第一字母为辅音,并且所述第一音素为辅音音素;并且
所述第一音素的呈现包括:在所述辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就进行静音的音频回放。因此,在所述单词的第一字母是元音的情况下,通过使所述元音音素的至少一部分重复循环,延长了对应元音音素的呈现(例如,在延长的持续时间内执行)。
第十五示例提供了根据第十三示例或第十四示例的机器可读介质,其中:
所述按顺序第二字母为元音,并且所述第二音素为元音音素;并且
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。因此,在所述单词的第二字母是元音的情况下,通过使所述元音音素的至少一部分重复循环,延长了对应元音音素的呈现(例如,在延长的持续时间内执行)。
第十六示例提供了根据第十三示例至第十五示例中任一项所述的机器可读介质,其中:
所述GUI还描绘动画化嘴部;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以与所述第一音素对应的第一嘴部外形显示所述动画化嘴部;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以与所述第二音素对应的第二嘴部外形显示所述动画化嘴部。因此,在所述GUI中描绘动画化化身或其他动画化角色的情况下,动画化化身或其他动画化角色的动画化嘴部可以根据(例如,随同)每个顺序音素的音频回放来改变外形。
第十七示例提供了一种系统(例如,计算机系统或其他数据处理机器),包括:
一个或更多个处理器;以及
存储器,其存储指令,所述指令在由所述一个或更多个处理器中的至少一个处理器执行时使所述系统执行操作,所述操作包括:
在装置的触敏显示屏上呈现图形用户界面(GUI),所述GUI描绘与单词对齐的滑块控件,所述单词包括按顺序第一字母和按顺序第二字母,所述滑块控件的第一区域对应于所述单词的按顺序第一字母,所述滑块控件的第二区域对应于所述单词的按顺序第二字母;
经由所述触敏显示屏检测在所述滑块控件的第一区域内开始并且进入所述滑块控件的第二区域的触摸与拖动输入;
响应于所述触摸与拖动输入在所述滑块控件的第一区域内开始,呈现与所述单词的按顺序第一字母对应的第一音素,所述第一音素的呈现包括所述第一音素的音频回放;以及
响应于所述触摸与拖动输入进入所述滑块控件的第二区域,呈现与所述单词的按顺序第二字母对应的第二音素,所述第二音素的呈现包括所述第二音素的音频回放。
第十八示例提供了根据第十七示例的系统,其中:
所述按顺序第二字母为元音,并且所述第二音素为元音音素;并且
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。因此,在所述单词的第二字母是元音的情况下,通过使所述元音音素的至少一部分重复循环,延长对应元音音素的呈现(例如,在延长的持续时间内执行)。
第十九示例提供了根据第十七示例或第十八示例的系统,其中:
所检测到的触摸与拖动输入具有持续时间,并且触发与所述触摸与拖动输入的持续时间同延的所述单词的发音的呈现;并且
所述单词的发音的呈现包括所述第一音素和第二音素在所述触摸与拖动输入的持续时间内的呈现。因此,在所述触摸与拖动输入是轻扫手势的情况下,所述轻扫手势的持续时间确定总体上整个单词的发音的持续时间。
第二十示例提供了根据第十七示例至第十九示例中任一项所述的系统,其中:
所述GUI还描绘动画化嘴部;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以与所述第一音素对应的第一嘴部外形显示所述动画化嘴部;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以与所述第二音素对应的第二嘴部外形显示所述动画化嘴部。因此,在所述GUI中描绘动画化化身或其他动画化角色的情况下,动画化化身或其他动画化角色的动画化嘴部可以根据(例如,随同)每个顺序音素的音频回放来改变外形。
第二十一示例提供了一种承载机器可读指令的载体介质,所述机器可读指令用于控制机器执行在前述示例的任何一个中执行的操作(例如,方法操作)。
Claims (20)
1.一种方法,包括:
通过机器的一个或更多个处理器在装置的触敏显示屏上呈现图形用户界面(GUI),所述GUI描绘与单词对齐的滑块控件,所述单词包括按顺序第一字母和按顺序第二字母,所述滑块控件的第一区域对应于所述单词的按顺序第一字母,所述滑块控件的第二区域对应于所述单词的按顺序第二字母;
经由所述触敏显示屏并且通过所述机器的一个或更多个处理器来检测触摸与拖动输入,所述触摸与拖动输入在所述滑块控件的第一区域内开始并且进入所述滑块控件的第二区域;
通过所述机器的一个或更多个处理器并且响应于所述触摸与拖动输入在所述滑块控件的第一区域内开始,呈现与所述单词的按顺序第一字母对应的第一音素,所述第一音素的呈现包括所述第一音素的音频回放;以及
通过所述机器的一个或更多个处理器并且响应于所述触摸与拖动输入进入所述滑块控件的第二区域,呈现与所述单词的按顺序第二字母对应的第二音素,所述第二音素的呈现包括所述第二音素的音频回放。
2.根据权利要求1所述的方法,其中,
所述按顺序第一字母为元音,并且所述第一音素为元音音素;并且
所述第一音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。
3.根据权利要求1或权利要求2所述的方法,其中:
所述按顺序第二字母为元音,并且所述第二音素为元音音素;并且
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。
4.根据权利要求1所述的方法,其中,
所述按顺序第一字母为辅音,并且所述第一音素为辅音音素;并且
所述第一音素的呈现包括:在所述辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就进行静音的音频回放。
5.根据权利要求1或权利要求4所述的方法,其中:
所述按顺序第二字母为辅音,并且所述第二音素为辅音音素;并且
所述第二音素的呈现包括:在所述辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就进行静音的音频回放。
6.根据权利要求1所述的方法,其中,
所检测到的触摸与拖动输入具有持续时间,并且触发与所述触摸与拖动输入的持续时间同延的所述单词的发音的呈现;并且
所述单词的发音的呈现包括所述第一音素和所述第二音素在所述触摸与拖动输入的持续时间内的呈现。
7.根据权利要求1所述的方法,其中,
所检测到的触摸与拖动输入具有移动速度,并且触发以基于所述触摸与拖动输入的移动速度确定的语音速度对所述单词的发音的呈现;并且
所述单词的发音的呈现包括以基于所述触摸与拖动输入的移动速度确定的所述语音速度对所述第一音素和所述第二音素的呈现。
8.根据权利要求1所述的方法,其中,
所述GUI还描绘动画化嘴部;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以与所述第一音素对应的第一嘴部外形显示所述动画化嘴部;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以与所述第二音素对应的第二嘴部外形显示所述动画化嘴部。
9.根据权利要求1所述的方法,其中,
所述GUI在检测到所述触摸与拖动输入之前以第一颜色描绘所述单词;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以第二颜色描绘所述单词的按顺序第一字母;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以所述第二颜色描绘所述单词的按顺序第二字母。
10.根据权利要求1所述的方法,还包括:
经由所述触敏显示屏检测在所述单词的按顺序第一字母上的触摸输入;以及
响应于所述触摸输入,呈现与所述单词的按顺序第一字母对应的所述第一音素,所述第一音素的呈现包括所述第一音素的音频回放。
11.根据权利要求1所述的方法,还包括:
经由所述触敏显示屏检测在所述单词的按顺序第二字母上的触摸输入;以及
响应于所述触摸输入,呈现与所述单词的按顺序第二字母对应的所述第二音素,所述第二音素的呈现包括所述第二音素的音频回放。
12.根据权利要求1所述的方法,其中,
所述单词为辅音-元音-辅音单词,其中,所述按顺序第一字母为第一辅音,所述按顺序第二字母为元音,并且按顺序第三字母为第二辅音;
所述第一音素为第一辅音音素,所述第二音素为元音音素,并且所述按顺序第三字母对应于第二辅音音素;
所述第一音素的呈现包括:在所述第一辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就进行静音的音频回放;
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放;并且
所述方法还包括:
经由所述触敏显示屏检测到所述触摸与拖动输入进入所述滑块控件的第三区域,所述第三区域对应于所述单词的按顺序第三字母;以及
响应于所述触摸与拖动输入进入所述滑块控件的第三区域,呈现与所述单词的按顺序第三字母对应的所述第二辅音音素,所述第二辅音音素的呈现包括:对所述第二辅音音素进行音频回放,随后只要所述触摸与拖动输入保持在所述滑块控件的第三区域内,就进行静音的音频回放。
13.一种机器可读介质,所述机器可读介质包括指令,所述指令在由机器的一个或更多个处理器执行时使所述机器执行操作,所述操作包括:
在装置的触敏显示屏上呈现图形用户界面(GUI),所述GUI描绘与单词对齐的滑块控件,所述单词包括按顺序第一字母和按顺序第二字母,所述滑块控件的第一区域对应于所述单词的按顺序第一字母,所述滑块控件的第二区域对应于所述单词的按顺序第二字母;
经由所述触敏显示屏检测在所述滑块控件的第一区域内开始并且进入所述滑块控件的第二区域的触摸与拖动输入;
响应于所述触摸与拖动输入在所述滑块控件的第一区域内开始,呈现与所述单词的按顺序第一字母对应的第一音素,所述第一音素的呈现包括所述第一音素的音频回放;以及
响应于所述触摸与拖动输入进入所述滑块控件的第二区域,呈现与所述单词的按顺序第二字母对应的第二音素,所述第二音素的呈现包括所述第二音素的音频回放。
14.根据权利要求13所述的机器可读介质,其中:
所述按顺序第一字母为辅音,并且所述第一音素为辅音音素;并且
所述第一音素的呈现包括:在所述辅音音素的音频回放之后,只要所述触摸与拖动输入保持在所述滑块控件的第一区域内,就进行静音的音频回放。
15.根据权利要求13或权利要求14所述的机器可读介质,其中:
所述按顺序第二字母为元音,并且所述第二音素为元音音素;并且
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。
16.根据权利要求13所述的机器可读介质,其中:
所述GUI还描绘动画化嘴部;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以与所述第一音素对应的第一嘴部外形显示所述动画化嘴部;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以与所述第二音素对应的第二嘴部外形显示所述动画化嘴部。
17.一种系统,包括:
一个或更多个处理器;以及
存储器,其存储指令,所述指令在由所述一个或更多个处理器中的至少一个处理器执行时使所述系统执行操作,所述操作包括:
在装置的触敏显示屏上呈现图形用户界面(GUI),所述GUI描绘与单词对齐的滑块控件,所述单词包括按顺序第一字母和按顺序第二字母,所述滑块控件的第一区域对应于所述单词的按顺序第一字母,所述滑块控件的第二区域对应于所述单词的按顺序第二字母;
经由所述触敏显示屏检测在所述滑块控件的第一区域内开始并且进入所述滑块控件的第二区域的触摸与拖动输入;
响应于所述触摸与拖动输入在所述滑块控件的第一区域内开始,呈现与所述单词的按顺序第一字母对应的第一音素,所述第一音素的呈现包括所述第一音素的音频回放;以及
响应于所述触摸与拖动输入进入所述滑块控件的第二区域,呈现与所述单词的按顺序第二字母对应的第二音素,所述第二音素的呈现包括所述第二音素的音频回放。
18.根据权利要求17所述的系统,其中:
所述按顺序第二字母为元音,并且所述第二音素为元音音素;并且
所述第二音素的呈现包括:只要所述触摸与拖动输入保持在所述滑块控件的第二区域内,就使所述元音音素的至少一部分重复循环,从而维持所述元音音素的音频回放。
19.根据权利要求17或权利要求18所述的系统,其中:
所检测到的触摸与拖动输入具有持续时间,并且触发与所述触摸与拖动输入的持续时间同延的所述单词的发音的呈现;并且
所述单词的发音的呈现包括所述第一音素和所述第二音素在所述触摸与拖动输入的持续时间内的呈现。
20.根据权利要求17所述的系统,其中:
所述GUI还描绘动画化嘴部;
所述第一音素的呈现还包括在所述第一音素的音频回放期间以与所述第一音素对应的第一嘴部外形显示所述动画化嘴部;并且
所述第二音素的呈现还包括在所述第二音素的音频回放期间以与所述第二音素对应的第二嘴部外形显示所述动画化嘴部。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/219,659 US11361760B2 (en) | 2018-12-13 | 2018-12-13 | Variable-speed phonetic pronunciation machine |
US16/219,659 | 2018-12-13 | ||
PCT/US2019/064962 WO2020123297A1 (en) | 2018-12-13 | 2019-12-06 | Variable-speed phonetic pronunciation machine |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113302672A true CN113302672A (zh) | 2021-08-24 |
Family
ID=71072844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980088905.XA Pending CN113302672A (zh) | 2018-12-13 | 2019-12-06 | 变速语音发音机器 |
Country Status (8)
Country | Link |
---|---|
US (2) | US11361760B2 (zh) |
EP (1) | EP3895149A4 (zh) |
JP (1) | JP2022519981A (zh) |
KR (1) | KR20210092318A (zh) |
CN (1) | CN113302672A (zh) |
AU (1) | AU2019398095B2 (zh) |
CA (1) | CA3123139C (zh) |
WO (1) | WO2020123297A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11361760B2 (en) | 2018-12-13 | 2022-06-14 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150206445A1 (en) | 2014-01-17 | 2015-07-23 | Originator Inc. | Multi-sensory learning with feedback |
US11410656B2 (en) * | 2019-07-31 | 2022-08-09 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
US11494434B2 (en) | 2019-07-31 | 2022-11-08 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
KR102096965B1 (ko) * | 2019-09-10 | 2020-04-03 | 방일성 | 양동이 돌리기 원리를 응용한 영어 학습 방법 및 장치 |
CN116027946B (zh) * | 2023-03-28 | 2023-07-18 | 深圳市人马互动科技有限公司 | 互动小说中图片信息处理方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120179967A1 (en) * | 2011-01-06 | 2012-07-12 | Tivo Inc. | Method and Apparatus for Gesture-Based Controls |
US20120223959A1 (en) * | 2011-03-01 | 2012-09-06 | Apple Inc. | System and method for a touchscreen slider with toggle control |
WO2013086575A1 (en) * | 2011-12-15 | 2013-06-20 | Phan Thi My Ngoc Nguyen | Speech visualisation tool |
US20140234809A1 (en) * | 2013-02-15 | 2014-08-21 | Matthew Colvard | Interactive learning system |
US20170075539A1 (en) * | 2015-09-10 | 2017-03-16 | Qualcomm Incorporated | Dynamic Control Schemes for Simultaneously-Active Applications |
US20180033335A1 (en) * | 2015-02-19 | 2018-02-01 | Tertl Studos, LLC | Systems and methods for variably paced real-time translation between the written and spoken forms of a word |
US9927957B1 (en) * | 2014-12-11 | 2018-03-27 | Audible, Inc. | Rotary navigation of synchronized content |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3715812A (en) * | 1970-12-07 | 1973-02-13 | L Novak | Color coded pronunciation symbol system |
US5182557A (en) * | 1989-09-20 | 1993-01-26 | Semborg Recrob, Corp. | Motorized joystick |
US5451163A (en) * | 1990-12-18 | 1995-09-19 | Joseph R. Black | Method of teaching reading including displaying one or more visible symbols in a transparent medium between student and teacher |
JP3149574B2 (ja) * | 1992-09-30 | 2001-03-26 | ヤマハ株式会社 | カラオケ装置 |
US5878396A (en) * | 1993-01-21 | 1999-03-02 | Apple Computer, Inc. | Method and apparatus for synthetic speech in facial animation |
US5995119A (en) * | 1997-06-06 | 1999-11-30 | At&T Corp. | Method for generating photo-realistic animated characters |
US6307576B1 (en) * | 1997-10-02 | 2001-10-23 | Maury Rosenfeld | Method for automatically animating lip synchronization and facial expression of animated characters |
US7554542B1 (en) * | 1999-11-16 | 2009-06-30 | Possible Worlds, Inc. | Image manipulation method and system |
US7483832B2 (en) * | 2001-12-10 | 2009-01-27 | At&T Intellectual Property I, L.P. | Method and system for customizing voice translation of text to speech |
US7663628B2 (en) * | 2002-01-22 | 2010-02-16 | Gizmoz Israel 2002 Ltd. | Apparatus and method for efficient animation of believable speaking 3D characters in real time |
US20040029083A1 (en) * | 2002-08-06 | 2004-02-12 | Coleman Edmund Benedict | Phonemically organized keyboard attached to a speech synthesizer: a machine for teaching the sounds of the letters to young children |
JP4370811B2 (ja) * | 2003-05-21 | 2009-11-25 | カシオ計算機株式会社 | 音声表示出力制御装置、および音声表示出力制御処理プログラム |
JP3569278B1 (ja) * | 2003-10-22 | 2004-09-22 | 有限会社エース | 発音学習支援方法、学習者端末及び処理プログラム並びに該プログラムを記録した記録媒体 |
TWI255412B (en) * | 2004-09-29 | 2006-05-21 | Inventec Corp | System and method for displaying an image according to audio signals |
US20080180305A1 (en) * | 2005-07-25 | 2008-07-31 | Mcrae Kimberly A | Control interface for controlling multiple functional devices or a multiple purpose device having a plurality of modes |
US20070041365A1 (en) * | 2005-08-09 | 2007-02-22 | Sunman Engineering, Inc. | EBay and Google VoIP telephone |
US20070248938A1 (en) * | 2006-01-27 | 2007-10-25 | Rocketreader Pty Ltd | Method for teaching reading using systematic and adaptive word recognition training and system for realizing this method. |
US20070208567A1 (en) * | 2006-03-01 | 2007-09-06 | At&T Corp. | Error Correction In Automatic Speech Recognition Transcripts |
JP4914808B2 (ja) * | 2007-11-19 | 2012-04-11 | かおり 大友 | 単語学習装置、対話型学習システムおよび単語学習プログラム |
KR100989836B1 (ko) * | 2008-02-01 | 2010-10-29 | 주식회사 오 코스모스 | 문자열 예측 입력방법 및 그 방법이 구현되는 전자장치 |
US8070492B1 (en) * | 2008-08-26 | 2011-12-06 | Mckinnis Sandra | Reading tool with display window for teaching eye tracking |
NZ581044A (en) * | 2009-02-19 | 2011-07-29 | Unicus Invest Pty Ltd | A system adapted to enhancing the reading ability of a user with dyslexia |
JP5178607B2 (ja) * | 2009-03-31 | 2013-04-10 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置 |
KR20110097578A (ko) | 2010-02-24 | 2011-08-31 | 성낙윤 | 한글 발음 학습방법 및 그 장치 |
US8872836B2 (en) * | 2011-01-25 | 2014-10-28 | Qualcomm Incorporated | Detecting static images and reducing resource usage on an electronic device |
JP2012215645A (ja) * | 2011-03-31 | 2012-11-08 | Speakglobal Ltd | コンピュータを利用した外国語会話練習システム |
JP5795869B2 (ja) * | 2011-04-04 | 2015-10-14 | シャープ株式会社 | 意思確認システムおよび方法 |
RU2510954C2 (ru) * | 2012-05-18 | 2014-04-10 | Александр Юрьевич Бредихин | Способ переозвучивания аудиоматериалов и устройство для его осуществления |
US8995698B2 (en) * | 2012-07-27 | 2015-03-31 | Starkey Laboratories, Inc. | Visual speech mapping |
KR101554619B1 (ko) | 2013-04-09 | 2015-09-21 | 조건희 | 터치 스크린을 활용한 어학 학습 시스템 및 어학 학습 방법 |
KR101641874B1 (ko) | 2014-03-28 | 2016-07-22 | 차보영 | 방범용 cctv 다기능 비상벨 |
US9323984B2 (en) * | 2014-06-06 | 2016-04-26 | Wipro Limited | System and methods of adaptive sampling for emotional state determination |
US9495088B2 (en) * | 2014-12-26 | 2016-11-15 | Alpine Electronics, Inc | Text entry method with character input slider |
US20170069220A1 (en) * | 2015-09-08 | 2017-03-09 | Kenneth Thornton | Method for Creating and Displaying Individualized Learning Material for Reading |
CN105487780B (zh) * | 2016-01-15 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 控件显示方法及装置 |
GB2548154A (en) * | 2016-03-11 | 2017-09-13 | Sony Computer Entertainment Europe Ltd | Virtual reality |
WO2017197178A1 (en) * | 2016-05-11 | 2017-11-16 | OgStar Reading, LLC | Interactive multisensory learning process and tutorial device |
US10319250B2 (en) * | 2016-12-29 | 2019-06-11 | Soundhound, Inc. | Pronunciation guided by automatic speech recognition |
US10861347B2 (en) | 2017-01-06 | 2020-12-08 | Alex B. Tavares | Device and method for teaching phonics using a touch detecting interface |
US20180268732A1 (en) * | 2017-03-15 | 2018-09-20 | John Thiel | Phonetic system and method for teaching reading |
WO2018236933A1 (en) * | 2017-06-19 | 2018-12-27 | Niantic, Inc. | PROVIDING A VIRTUAL EXPERIENCE SHARED IN A LOCATION-BASED GAME |
US20190095775A1 (en) * | 2017-09-25 | 2019-03-28 | Ventana 3D, Llc | Artificial intelligence (ai) character system capable of natural verbal and visual interactions with a human |
US11361760B2 (en) | 2018-12-13 | 2022-06-14 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
-
2018
- 2018-12-13 US US16/219,659 patent/US11361760B2/en active Active
-
2019
- 2019-12-06 JP JP2021533447A patent/JP2022519981A/ja active Pending
- 2019-12-06 CA CA3123139A patent/CA3123139C/en active Active
- 2019-12-06 WO PCT/US2019/064962 patent/WO2020123297A1/en active Search and Examination
- 2019-12-06 EP EP19896169.0A patent/EP3895149A4/en active Pending
- 2019-12-06 CN CN201980088905.XA patent/CN113302672A/zh active Pending
- 2019-12-06 KR KR1020217021726A patent/KR20210092318A/ko not_active Application Discontinuation
- 2019-12-06 AU AU2019398095A patent/AU2019398095B2/en active Active
-
2022
- 2022-05-04 US US17/736,298 patent/US11694680B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120179967A1 (en) * | 2011-01-06 | 2012-07-12 | Tivo Inc. | Method and Apparatus for Gesture-Based Controls |
US20120223959A1 (en) * | 2011-03-01 | 2012-09-06 | Apple Inc. | System and method for a touchscreen slider with toggle control |
WO2013086575A1 (en) * | 2011-12-15 | 2013-06-20 | Phan Thi My Ngoc Nguyen | Speech visualisation tool |
US20140234809A1 (en) * | 2013-02-15 | 2014-08-21 | Matthew Colvard | Interactive learning system |
US9927957B1 (en) * | 2014-12-11 | 2018-03-27 | Audible, Inc. | Rotary navigation of synchronized content |
US20180033335A1 (en) * | 2015-02-19 | 2018-02-01 | Tertl Studos, LLC | Systems and methods for variably paced real-time translation between the written and spoken forms of a word |
US20170075539A1 (en) * | 2015-09-10 | 2017-03-16 | Qualcomm Incorporated | Dynamic Control Schemes for Simultaneously-Active Applications |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11361760B2 (en) | 2018-12-13 | 2022-06-14 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
US11694680B2 (en) | 2018-12-13 | 2023-07-04 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
Also Published As
Publication number | Publication date |
---|---|
CA3123139A1 (en) | 2020-06-18 |
EP3895149A4 (en) | 2022-01-19 |
KR20210092318A (ko) | 2021-07-23 |
AU2019398095A1 (en) | 2021-07-29 |
US20200193975A1 (en) | 2020-06-18 |
US11361760B2 (en) | 2022-06-14 |
AU2019398095B2 (en) | 2023-06-29 |
JP2022519981A (ja) | 2022-03-28 |
US11694680B2 (en) | 2023-07-04 |
CA3123139C (en) | 2023-10-10 |
WO2020123297A1 (en) | 2020-06-18 |
EP3895149A1 (en) | 2021-10-20 |
US20220262351A1 (en) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11694680B2 (en) | Variable-speed phonetic pronunciation machine | |
CN107491181B (zh) | 语言输入的动态短语扩展 | |
US8751971B2 (en) | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface | |
US20200081544A1 (en) | Method and apparatus for providing sight independent activity reports responsive to a touch gesture | |
US10642574B2 (en) | Device, method, and graphical user interface for outputting captions | |
US20170345411A1 (en) | Unit-selection text-to-speech synthesis based on predicted concatenation parameters | |
US11934780B2 (en) | Content suggestion system | |
KR102460273B1 (ko) | 개선된 지오-펜스 선택 시스템 | |
EP2988231A1 (en) | Method and apparatus for providing summarized content to users | |
US10628025B2 (en) | Device, method, and graphical user interface for generating haptic feedback for user interface elements | |
US11232640B2 (en) | Augmented reality interaction, modeling, and annotation system | |
US20180068476A1 (en) | Information processing device, information processing method, and program | |
US9600094B2 (en) | Apparatus, method, and program product for directing motion of a writing device | |
US11663723B2 (en) | Image segmentation system | |
US11899918B2 (en) | Method, apparatus, electronic device and storage medium for invoking touch screen magnifier | |
US20220383769A1 (en) | Speech synthesizer with multimodal blending | |
US10649640B2 (en) | Personalizing perceivability settings of graphical user interfaces of computers | |
US20210390138A1 (en) | VideoChat | |
EP3128397B1 (en) | Electronic apparatus and text input method for the same | |
Kalis et al. | Enabling Gesture-based Application Interaction on Head Mounted VR Display | |
KR20230102565A (ko) | 한국어 회화 학습 콘텐츠 제공 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |