JP2022519981A - 可変速度音素発音機械 - Google Patents
可変速度音素発音機械 Download PDFInfo
- Publication number
- JP2022519981A JP2022519981A JP2021533447A JP2021533447A JP2022519981A JP 2022519981 A JP2022519981 A JP 2022519981A JP 2021533447 A JP2021533447 A JP 2021533447A JP 2021533447 A JP2021533447 A JP 2021533447A JP 2022519981 A JP2022519981 A JP 2022519981A
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- touch
- presenting
- sequential
- zone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims description 81
- 230000015654 memory Effects 0.000 claims description 27
- 230000033001 locomotion Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 13
- 230000008929 regeneration Effects 0.000 claims 1
- 238000011069 regeneration method Methods 0.000 claims 1
- 230000009471 action Effects 0.000 description 30
- 230000006870 function Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000002459 sustained effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 230000004224 protection Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B17/00—Teaching reading
- G09B17/04—Teaching reading for increasing the rate of reading; Reading rate control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B17/00—Teaching reading
- G09B17/003—Teaching reading electrically operated apparatus or devices
- G09B17/006—Teaching reading electrically operated apparatus or devices with audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/04—Speaking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
- G10L2013/105—Duration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
いくつかの実施形態は、例示であって限定するものではないが、添付の図面の図に示されている。
実施例1は、以下を備えている方法を提供し、前記方法は、
機械の1つまたは複数のプロセッサによって、装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、スライダ制御の第1ゾーンは単語の第1順次アルファベット文字に対応し、スライダ制御の第2ゾーンは単語の第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
前記スライダ制御の第1ゾーン内で始まり前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して、前記機械の1つまたは複数のプロセッサによって、検出する工程と、
前記機械の1つまたは複数のプロセッサによって、スライダ制御の第1ゾーン内で始まるタッチアンドドラッグ入力に応答して、単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第2ゾーンに入る前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と
を備えている。
前記第1順次アルファベット文字は母音であり、前記第1音素は母音音素であり、および
前記第1音素を提示する工程は、前記タッチアンドドラッグ入力がスライダ制御の第1ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させることを備えている。したがって、単語の第1文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで、延長される(例えば、延長された期間に実行される)。
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている。したがって、単語の第2文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで延長される(例えば、延長した期間実行される)。
第1順次アルファベット文字は子音であり、第1音素は子音音素であり、および
前記第1音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の第1ゾーン内に留まっている限り、無音のオーディオ再生を備えている。したがって、単語の第1文字が子音である場合、対応する子音音素の提示は延長されず、代わりに、子音音素の再生後に、無音の繰り返し再生(例えば、ルーピングによる)が所定期間実行される。
前記第2音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まる限り、無音のオーディオ再生を備えている。したがって、単語の第2文字が子音である場合、対応する子音音素の提示は延長されず、代わりに、子音音素の再生後に、無音の繰り返し再生(例えば、ルーピングによる)が所定期間実行される。
検出されたタッチアンドドラッグ入力は、持続時間を有し、タッチアンドドラッグ入力の持続時間に一致(coextensive)して単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に、第1音素および第2音素を提示する工程を備えている。したがって、タッチアンドドラッグ入力がスワイプジェスチャーである場合、スワイプジェスチャーの持続時間は、完全な単語の全体の発音の持続時間を決定する。
検出されたタッチアンドドラッグ入力は、移動速度を有し、タッチアンドドラッグ入力の移動速度に基づき決定された発話速度(speecn speed)で、単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の移動速度に基づき決定された発話速度で、第1音素および第2音素を提示する工程を備えている。したがって、タッチアンドドラッグ入力がスワイプジェスチャーである場合には、スワイプジェスチャーの速さ(例えば、速度)は、完全な単語の全体の発音の速度を決定する。
前記GUIはさらに、アニメーション化された口を描写する。
第1音素を提示する工程はさらに、第1音素のオーディオ再生中に、第1音素に対応する第1口形状でアニメーション口を表示する工程を備えており、および
第2音素を提示する工程はさらに、第2音素のオーディオ再生中に、第2音素に対応する第2口形状でアニメーション口を表示する工程を備えている。したがって、アニメーションアバターまたは他のアニメーションキャラクターがGUIに描かれている場合、そのアニメーション口は、各順次音素のオーディオ再生に合わせて(例えば、ユニゾンで)形状を変化させることができる。
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記単語の第1順次アルファベット文字を第2色で描写する工程を備えており、および
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記単語の第2順次アルファベット文字を第2色で描写する工程を備えている。したがって、拡張によって、単語の各順次文字が発音されると、その文字は、対応する色の変化によって強調されてもよい。
タッチ感応表示画面を介して、単語の第1順次アルファベット文字に対するタッチ入力を検出する工程と、
前記タッチ入力に応答して、前記単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、を備えている。したがって、ユーザ(例えば、読むことを学んでいる子供)は、単語の各文字(例えば、第1文字)を1つずつタッチして、その対応する音素を聞くことができる。
前記タッチ入力に応答して、前記単語の第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、を備えている。したがって、ユーザ(例えば、読み方を学習している子供)は、単語の各文字(例えば、第2文字)を1つずつタッチして、対応する音素を聞くことができる。
前記単語は、前記第1順次アルファベット文字が第1子音であり、前記第2順次アルファベット文字が母音であり、第3順次アルファベット文字が第2子音である、子音-母音-子音の単語(例えば、「cat」または「dog」)であり
前記第1音素は第1子音音素であり、前記第2音素は母音音素であり、前記第3順次アルファベット文字は第2子音音素に対応しており、
前記第1音素を提示する工程は、前記第1子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まる限り、無音のオーディオ再生を備えており、
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力がスライダ制御の前記第2ゾーン内に留まる限り、母音音素の少なくとも一部を繰り返しループさせることで、母音音素のオーディオ再生を持続させる工程を備えており、および、前記方法はさらに、
前記タッチ感応表示画面を介して、前記タッチアンドドラッグ入力がスライダ制御の第3ゾーンに入ったことを検出する工程であって、前記第3ゾーンは前記単語の前記第3順次アルファベット文字に対応している、前記検出する工程と、
前記タッチアンドドラッグ入力が前記スライダ制御の前記第3ゾーンに入ったことに応答して、前記単語の第3順次アルファベットに対応する第2子音音素を提示する工程であって、前記第2子音音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第3ゾーン内に留まる限り、前記第2子音音素のオーディオ再生に続いて、無音のオーディオ再生を備えている、前記第2子音音素を提示する工程と、を備えている。したがって、その延長線上で、3文字よりも長い単語も同様の方法(例えば、1文字ずつ、音素ずつ、またはその両方)で発音することができる。
前記スライダ制御の第1ゾーン内で始まり前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
前記スライダ制御の第1ゾーン内で始まったタッチアンドドラッグ入力に応答して、単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、第1音素を提示する工程は第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力に応答して、前記単語の第2順次アルファベットに対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、を備えている。
前記第1順次アルファベット文字は子音であり、前記第1音素は子音音素であり、および
前記第1音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の第1ゾーン内に留まっている限り、無音のオーディオ再生を備えている。したがって、単語の第1文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部の繰り返しのループによって延長される(例えば、延長した期間、実行される)。
第2順次アルファベット文字は母音であり、第2音素は母音音素であり、および
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている。したがって、単語の第2文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで、延長される(例えば、延長された期間に実行される)。
前記GUIはさらに、アニメーション口を描写し、
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状で前記アニメーション口を表示する工程を備えており、および
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状で前記アニメーション口を表示する工程を備えている。したがって、アニメ化されたアバターまたは他のアニメ化されたキャラクターがGUIに描写される場合、そのアニメ化された口は、各順次音素のオーディオ再生に応じて(例えば、ユニゾンで)、形状を変化させることができる。
1つまたは複数のプロセッサと、および
前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサによって実行されると、システムに以下の動作を行わせる命令を記憶するメモリと、を備えており、前記動作は、
装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描いており、前記スライダ制御の第1ゾーンは前記単語の第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の第2順次アルファベット文字に対応している、前記GUIを提示する工程と、
前記スライダ制御の第1ゾーン内で始まり前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
前記スライダ制御の第1ゾーン内で始まったタッチアンドドラッグ入力に応答して、単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力に応答して、前記単語の第2順次アルファベットに対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程とを備えている。
前記第2順次アルファベット文字は母音であり、前記第2音素は母音音素であり、および
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている。したがって、単語の第2文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで、延長される(例えば、延長された期間実行される)。
検出された前記タッチアンドドラッグ入力は、持続時間を有し、タッチアンドドラッグ入力の持続時間に一致して単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に、第1音素および第2音素を提示する工程を備えている。したがって、タッチアンドドラッグ入力がスワイプジェスチャーである場合、スワイプジェスチャーの持続時間が、完全な単語の全体の発音の持続時間を決定する。
Claims (20)
- 機械の1つまたは複数のプロセッサによって、装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、前記スライダ制御の第1ゾーンは前記単語の前記第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の前記第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
前記タッチ感応表示画面を介して、前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第1ゾーン内で始まり前記スライダ制御の前記第2ゾーンに入るタッチアンドドラッグ入力を検出する工程と、
前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第1ゾーン内で始まる前記タッチアンドドラッグ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第2ゾーンに入る前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、
を備えている、方法。 - 前記第1順次アルファベット文字は母音であり、
前記第1音素は母音音素であり、および
前記第1音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
請求項1に記載の方法。 - 前記第2順次アルファベット文字は母音であり、
前記第2音素は母音音素であり、
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
請求項1または2に記載の方法。 - 前記第1順次アルファベット文字は子音であり、
前記第1音素は子音音素であり、および
前記第1音素を提示する工程は、前記子音音素のオーディオ再生後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まる限り、無音のオーディオ再生を備えている、
請求項1に記載の方法。 - 前記第2順次アルファベット文字は子音であり、
前記第2音素は子音音素であり、
前記第2音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まる限り、無音のオーディオ再生を備えている、
請求項1または4に記載の方法。 - 検出された前記タッチアンドドラッグ入力は持続時間を有し、前記タッチアンドドラッグ入力の前記持続時間に一致して単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に前記第1音素および前記第2音素を提示する工程を備えている、
請求項1に記載の方法。 - 検出された前記タッチアンドドラッグ入力は移動速度を有し、前記タッチアンドドラッグ入力の前記移動速度に基づき決定された発話速度で、前記単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の前記移動速度に基づき決定された発話速度で、前記第1音素および前記第2音素を提示する工程を備えている、
請求項1に記載の方法。 - 前記GUIはさらに、アニメーション口を描写し、
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状で前記アニメーション口を表示する工程を備えており、および
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状で前記アニメーション口を表示する工程を備えている、
請求項1に記載の方法。 - 前記GUIは、前記タッチアンドドラッグ入力が検出される前に、前記単語を第1色で描写し、
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記単語の前記第1順次アルファベット文字を第2色で描写する工程を備えており、および
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記単語の前記第2順次アルファベット文字を第2色で描写する工程を備えている、
請求項1に記載の方法。 - 前記方法はさらに、
前記タッチ感応表示画面を介して、前記単語の前記第1順次アルファベット文字に対するタッチ入力を検出する工程と、
前記タッチ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する前記第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と
を備えている、請求項1に記載の方法。 - 前記方法はさらに、
前記タッチ感応表示画面を介して、前記単語の前記第2順次アルファベット文字に対するタッチ入力を検出する工程と、
前記タッチ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する前記第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と
を備えている、請求項1に記載の方法。 - 前記単語は、前記第1順次アルファベット文字が第1子音であり、前記第2順次アルファベット文字が母音であり、第3順次アルファベット文字が第2子音である、子音-母音-子音の単語であり、
前記第1音素は第1子音音素であり、前記第2音素は母音音素であり、前記第3順次アルファベット文字は第2子音音素に対応し、
前記第1音素を提示する工程は、前記第1子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まる限り、無音のオーディオ再生を備えており、
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まる限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えており、
前記方法はさらに、
前記タッチ感応表示画面を介して、前記タッチアンドドラッグ入力が前記スライダ制御の第3ゾーンに入ったことを検出する工程であって、前記第3ゾーンは前記単語の前記第3順次アルファベット文字に対応している、検出する工程と、
前記タッチアンドドラッグ入力が前記スライダ制御の前記第3ゾーンに入ったことに応答して、前記単語の前記第3順次アルファベット文字に対応する前記第2子音音素を提示する工程であって、前記第2子音音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第3ゾーン内に留まる限り、前記第2子音音素のオーディオ再生に続いて、無音のオーディオ再生を備えている、前記第2子音音素を提示する工程と
を備えている、請求項1に記載の方法。 - 機械の1つまたは複数のプロセッサによって実行されると、前記機械に以下の動作を実行させる命令を備えている機械可読媒体であって、前記動作は、
装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、前記スライダ制御の第1ゾーンは前記単語の前記第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の前記第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
前記スライダ制御の前記第1ゾーン内で始まり前記スライダ制御の前記第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
前記スライダ制御の前記第1ゾーン内で始まった前記タッチアンドドラッグ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記スライダ制御の前記第2ゾーンに入った前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、
を備えている、機械可読媒体。 - 前記第1順次アルファベット文字は子音であり、
前記第1音素は子音音素であり、および
前記第1音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まっている限り、無音のオーディオ再生を備えている、
請求項13に記載の機械可読媒体。 - 前記第2順次アルファベット文字は母音であり、
前記第2音素は母音音素であり、および
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に残っている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
請求項13または14に記載の機械可読媒体。 - 前記GUIはさらに、アニメーション口を描写し
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状でアニメーション口を表示する工程を備えており、および
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状でアニメーション口を表示する工程を備えている、
請求項13に記載の機械可読媒体。 - 1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサのうち少なくとも1つのプロセッサによって実行されるとシステムに以下の動作を実行させる命令を格納するメモリと、
を備えているシステムであって、
前記動作は、
装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、前記スライダ制御の第1ゾーンは前記単語の前記第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の前記第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
前記スライダ制御の前記第1ゾーン内で始まり前記スライダ制御の前記第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
前記スライダ制御の前記第1ゾーン内で始まった前記タッチアンドドラッグ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記スライダ制御の前記第2ゾーンに入った前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と
を備えている、システム。 - 前記第2順次アルファベット文字は母音であり、
前記第2音素は母音音素であり、および
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
請求項17に記載のシステム。 - 検出された前記タッチアンドドラッグ入力は、持続時間を有し、前記タッチアンドドラッグ入力の前記持続時間に一致して単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に前記第1音素および前記第2音素を提示する工程を備えている、
請求項17または18に記載のシステム。 - 前記GUIはさらに、アニメーション口を描写し
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状で前記アニメーション口を表示する工程を備えており、
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状で前記アニメーション口を表示する工程を備えている、
請求項17に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/219,659 US11361760B2 (en) | 2018-12-13 | 2018-12-13 | Variable-speed phonetic pronunciation machine |
US16/219,659 | 2018-12-13 | ||
PCT/US2019/064962 WO2020123297A1 (en) | 2018-12-13 | 2019-12-06 | Variable-speed phonetic pronunciation machine |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022519981A true JP2022519981A (ja) | 2022-03-28 |
Family
ID=71072844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533447A Pending JP2022519981A (ja) | 2018-12-13 | 2019-12-06 | 可変速度音素発音機械 |
Country Status (8)
Country | Link |
---|---|
US (2) | US11361760B2 (ja) |
EP (1) | EP3895149A4 (ja) |
JP (1) | JP2022519981A (ja) |
KR (1) | KR102697680B1 (ja) |
CN (1) | CN113302672A (ja) |
AU (1) | AU2019398095B2 (ja) |
CA (1) | CA3123139C (ja) |
WO (1) | WO2020123297A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11694680B2 (en) | 2018-12-13 | 2023-07-04 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150206445A1 (en) | 2014-01-17 | 2015-07-23 | Originator Inc. | Multi-sensory learning with feedback |
US11410656B2 (en) * | 2019-07-31 | 2022-08-09 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
US11494434B2 (en) | 2019-07-31 | 2022-11-08 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
KR102096965B1 (ko) * | 2019-09-10 | 2020-04-03 | 방일성 | 양동이 돌리기 원리를 응용한 영어 학습 방법 및 장치 |
CN116027946B (zh) * | 2023-03-28 | 2023-07-18 | 深圳市人马互动科技有限公司 | 互动小说中图片信息处理方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004347786A (ja) * | 2003-05-21 | 2004-12-09 | Casio Comput Co Ltd | 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム |
JP2005128177A (ja) * | 2003-10-22 | 2005-05-19 | Ace:Kk | 発音学習支援方法、学習者端末及び処理プログラム並びに該プログラムを記録した記録媒体 |
JP2009122581A (ja) * | 2007-11-19 | 2009-06-04 | Kaori Otomo | 単語学習装置、対話型学習システムおよび単語学習プログラム |
JP2012215645A (ja) * | 2011-03-31 | 2012-11-08 | Speakglobal Ltd | コンピュータを利用した外国語会話練習システム |
JP2012220991A (ja) * | 2011-04-04 | 2012-11-12 | Sharp Corp | 意思確認システムおよび方法 |
US20150112687A1 (en) * | 2012-05-18 | 2015-04-23 | Aleksandr Yurevich Bredikhin | Method for rerecording audio materials and device for implementation thereof |
US20180033335A1 (en) * | 2015-02-19 | 2018-02-01 | Tertl Studos, LLC | Systems and methods for variably paced real-time translation between the written and spoken forms of a word |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3715812A (en) * | 1970-12-07 | 1973-02-13 | L Novak | Color coded pronunciation symbol system |
US5182557A (en) * | 1989-09-20 | 1993-01-26 | Semborg Recrob, Corp. | Motorized joystick |
US5451163A (en) * | 1990-12-18 | 1995-09-19 | Joseph R. Black | Method of teaching reading including displaying one or more visible symbols in a transparent medium between student and teacher |
JP3149574B2 (ja) * | 1992-09-30 | 2001-03-26 | ヤマハ株式会社 | カラオケ装置 |
US5878396A (en) * | 1993-01-21 | 1999-03-02 | Apple Computer, Inc. | Method and apparatus for synthetic speech in facial animation |
US5995119A (en) * | 1997-06-06 | 1999-11-30 | At&T Corp. | Method for generating photo-realistic animated characters |
US6307576B1 (en) * | 1997-10-02 | 2001-10-23 | Maury Rosenfeld | Method for automatically animating lip synchronization and facial expression of animated characters |
US7554542B1 (en) * | 1999-11-16 | 2009-06-30 | Possible Worlds, Inc. | Image manipulation method and system |
US7483832B2 (en) * | 2001-12-10 | 2009-01-27 | At&T Intellectual Property I, L.P. | Method and system for customizing voice translation of text to speech |
US7663628B2 (en) * | 2002-01-22 | 2010-02-16 | Gizmoz Israel 2002 Ltd. | Apparatus and method for efficient animation of believable speaking 3D characters in real time |
US20040029083A1 (en) * | 2002-08-06 | 2004-02-12 | Coleman Edmund Benedict | Phonemically organized keyboard attached to a speech synthesizer: a machine for teaching the sounds of the letters to young children |
TWI255412B (en) * | 2004-09-29 | 2006-05-21 | Inventec Corp | System and method for displaying an image according to audio signals |
US20080180305A1 (en) * | 2005-07-25 | 2008-07-31 | Mcrae Kimberly A | Control interface for controlling multiple functional devices or a multiple purpose device having a plurality of modes |
US20070041365A1 (en) * | 2005-08-09 | 2007-02-22 | Sunman Engineering, Inc. | EBay and Google VoIP telephone |
US20070248938A1 (en) * | 2006-01-27 | 2007-10-25 | Rocketreader Pty Ltd | Method for teaching reading using systematic and adaptive word recognition training and system for realizing this method. |
US20070208567A1 (en) * | 2006-03-01 | 2007-09-06 | At&T Corp. | Error Correction In Automatic Speech Recognition Transcripts |
US20110060585A1 (en) * | 2008-02-01 | 2011-03-10 | Oh Eui Jin | Inputting method by predicting character sequence and electronic device for practicing the method |
US8070492B1 (en) * | 2008-08-26 | 2011-12-06 | Mckinnis Sandra | Reading tool with display window for teaching eye tracking |
NZ581044A (en) * | 2009-02-19 | 2011-07-29 | Unicus Invest Pty Ltd | A system adapted to enhancing the reading ability of a user with dyslexia |
JP5178607B2 (ja) * | 2009-03-31 | 2013-04-10 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置 |
KR20110097578A (ko) | 2010-02-24 | 2011-08-31 | 성낙윤 | 한글 발음 학습방법 및 그 장치 |
US20120179967A1 (en) * | 2011-01-06 | 2012-07-12 | Tivo Inc. | Method and Apparatus for Gesture-Based Controls |
US8872836B2 (en) * | 2011-01-25 | 2014-10-28 | Qualcomm Incorporated | Detecting static images and reducing resource usage on an electronic device |
US20120223959A1 (en) * | 2011-03-01 | 2012-09-06 | Apple Inc. | System and method for a touchscreen slider with toggle control |
AU2012100262B4 (en) * | 2011-12-15 | 2012-05-24 | Nguyen, Phan Thi My Ngoc Ms | Speech visualisation tool |
US8995698B2 (en) * | 2012-07-27 | 2015-03-31 | Starkey Laboratories, Inc. | Visual speech mapping |
US20140234809A1 (en) | 2013-02-15 | 2014-08-21 | Matthew Colvard | Interactive learning system |
KR101554619B1 (ko) | 2013-04-09 | 2015-09-21 | 조건희 | 터치 스크린을 활용한 어학 학습 시스템 및 어학 학습 방법 |
KR101641874B1 (ko) | 2014-03-28 | 2016-07-22 | 차보영 | 방범용 cctv 다기능 비상벨 |
US9323984B2 (en) * | 2014-06-06 | 2016-04-26 | Wipro Limited | System and methods of adaptive sampling for emotional state determination |
US9927957B1 (en) * | 2014-12-11 | 2018-03-27 | Audible, Inc. | Rotary navigation of synchronized content |
US9495088B2 (en) * | 2014-12-26 | 2016-11-15 | Alpine Electronics, Inc | Text entry method with character input slider |
US20170069220A1 (en) * | 2015-09-08 | 2017-03-09 | Kenneth Thornton | Method for Creating and Displaying Individualized Learning Material for Reading |
US9639234B2 (en) * | 2015-09-10 | 2017-05-02 | Qualcomm Incorporated | Dynamic control schemes for simultaneously-active applications |
CN105487780B (zh) * | 2016-01-15 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 控件显示方法及装置 |
GB2548154A (en) * | 2016-03-11 | 2017-09-13 | Sony Computer Entertainment Europe Ltd | Virtual reality |
WO2017197178A1 (en) * | 2016-05-11 | 2017-11-16 | OgStar Reading, LLC | Interactive multisensory learning process and tutorial device |
US10319250B2 (en) * | 2016-12-29 | 2019-06-11 | Soundhound, Inc. | Pronunciation guided by automatic speech recognition |
US10861347B2 (en) | 2017-01-06 | 2020-12-08 | Alex B. Tavares | Device and method for teaching phonics using a touch detecting interface |
US20180268732A1 (en) * | 2017-03-15 | 2018-09-20 | John Thiel | Phonetic system and method for teaching reading |
US10737178B2 (en) * | 2017-06-19 | 2020-08-11 | Niantic, Inc. | Providing a shared virtual experience in a location-based game |
WO2019060889A1 (en) * | 2017-09-25 | 2019-03-28 | Ventana 3D, Llc | ARTIFICIAL INTELLIGENCE (IA) CHARACTER SYSTEM CAPABLE OF NATURAL VERBAL AND VISUAL INTERACTIONS WITH A HUMAN BEING |
US11361760B2 (en) | 2018-12-13 | 2022-06-14 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
-
2018
- 2018-12-13 US US16/219,659 patent/US11361760B2/en active Active
-
2019
- 2019-12-06 CN CN201980088905.XA patent/CN113302672A/zh active Pending
- 2019-12-06 EP EP19896169.0A patent/EP3895149A4/en not_active Withdrawn
- 2019-12-06 CA CA3123139A patent/CA3123139C/en active Active
- 2019-12-06 KR KR1020217021726A patent/KR102697680B1/ko active IP Right Grant
- 2019-12-06 WO PCT/US2019/064962 patent/WO2020123297A1/en active Search and Examination
- 2019-12-06 JP JP2021533447A patent/JP2022519981A/ja active Pending
- 2019-12-06 AU AU2019398095A patent/AU2019398095B2/en active Active
-
2022
- 2022-05-04 US US17/736,298 patent/US11694680B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004347786A (ja) * | 2003-05-21 | 2004-12-09 | Casio Comput Co Ltd | 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム |
JP2005128177A (ja) * | 2003-10-22 | 2005-05-19 | Ace:Kk | 発音学習支援方法、学習者端末及び処理プログラム並びに該プログラムを記録した記録媒体 |
JP2009122581A (ja) * | 2007-11-19 | 2009-06-04 | Kaori Otomo | 単語学習装置、対話型学習システムおよび単語学習プログラム |
JP2012215645A (ja) * | 2011-03-31 | 2012-11-08 | Speakglobal Ltd | コンピュータを利用した外国語会話練習システム |
JP2012220991A (ja) * | 2011-04-04 | 2012-11-12 | Sharp Corp | 意思確認システムおよび方法 |
US20150112687A1 (en) * | 2012-05-18 | 2015-04-23 | Aleksandr Yurevich Bredikhin | Method for rerecording audio materials and device for implementation thereof |
US20180033335A1 (en) * | 2015-02-19 | 2018-02-01 | Tertl Studos, LLC | Systems and methods for variably paced real-time translation between the written and spoken forms of a word |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11694680B2 (en) | 2018-12-13 | 2023-07-04 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
Also Published As
Publication number | Publication date |
---|---|
EP3895149A4 (en) | 2022-01-19 |
KR102697680B1 (ko) | 2024-08-21 |
US11361760B2 (en) | 2022-06-14 |
AU2019398095A1 (en) | 2021-07-29 |
CA3123139A1 (en) | 2020-06-18 |
KR20210092318A (ko) | 2021-07-23 |
EP3895149A1 (en) | 2021-10-20 |
US20200193975A1 (en) | 2020-06-18 |
AU2019398095B2 (en) | 2023-06-29 |
CN113302672A (zh) | 2021-08-24 |
CA3123139C (en) | 2023-10-10 |
US20220262351A1 (en) | 2022-08-18 |
US11694680B2 (en) | 2023-07-04 |
WO2020123297A1 (en) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022519981A (ja) | 可変速度音素発音機械 | |
US20180239512A1 (en) | Context based gesture delineation for user interaction in eyes-free mode | |
US8656296B1 (en) | Selection of characters in a string of characters | |
KR102151286B1 (ko) | 애플리케이션과의 상호작용으로서의 다모드 사용자 표현 및 사용자 인텐서티 검출 기법 | |
US8751971B2 (en) | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface | |
US20140282242A1 (en) | Systems and methods for content-aware selection | |
US20140281950A1 (en) | Device, Method, and Graphical User Interface for Generating Haptic Feedback for User Interface Elements | |
US20140210729A1 (en) | Gesture based user interface for use in an eyes-free mode | |
KR101949493B1 (ko) | 멀티미디어 콘텐츠의 재생을 제어하기 위한 방법 및 시스템 | |
US20140215339A1 (en) | Content navigation and selection in an eyes-free mode | |
TW201506685A (zh) | 以語音辨識來選擇控制客體的裝置及方法 | |
KR102298618B1 (ko) | 바운딩 박스 생성 장치 및 그를 이용한 바운딩 박스 생성 방법 | |
JP2019101739A (ja) | 情報処理装置、情報処理システムおよびプログラム | |
TWI554983B (zh) | 電子裝置、學習方法及其電腦程式產品 | |
US20220383769A1 (en) | Speech synthesizer with multimodal blending | |
EP3128397B1 (en) | Electronic apparatus and text input method for the same | |
KR20170009487A (ko) | 청크 기반 언어 학습 방법 및 이를 수행하는 전자 기기 | |
KR20150059912A (ko) | 드래그 앤 드롭 방식을 이용하여 한글을 입력하는 사용자 인터페이스 제공 방법 및 장치 | |
KR20230173491A (ko) | 중국어 학습 콘텐츠 제공 방법 및 장치 | |
KR20230116526A (ko) | 디스플레이 장치 및 그 제어 방법 | |
US20160358626A1 (en) | Chronological event information for multimedia content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20210714 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221027 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230712 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240109 |