JP2022519981A - 可変速度音素発音機械 - Google Patents

可変速度音素発音機械 Download PDF

Info

Publication number
JP2022519981A
JP2022519981A JP2021533447A JP2021533447A JP2022519981A JP 2022519981 A JP2022519981 A JP 2022519981A JP 2021533447 A JP2021533447 A JP 2021533447A JP 2021533447 A JP2021533447 A JP 2021533447A JP 2022519981 A JP2022519981 A JP 2022519981A
Authority
JP
Japan
Prior art keywords
phoneme
touch
presenting
sequential
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021533447A
Other languages
English (en)
Inventor
ブラウ-マッキャンドリス、ベラ
ドナルド マッキャンドリス、ブルース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Learning Squared Inc
Original Assignee
Square Panda Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Panda Inc filed Critical Square Panda Inc
Publication of JP2022519981A publication Critical patent/JP2022519981A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B17/00Teaching reading
    • G09B17/04Teaching reading for increasing the rate of reading; Reading rate control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B17/00Teaching reading
    • G09B17/003Teaching reading electrically operated apparatus or devices
    • G09B17/006Teaching reading electrically operated apparatus or devices with audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • G10L2013/105Duration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

例示的な機械は、タッチ感応画面に、第1アルファベット文字と第2アルファベット文字とを備えている単語に整列したスライダ制御を描写するGUIを提示させる。スライダ制御の第1ゾーンは第1アルファベット文字に対応し、スライダ制御の第2ゾーンは第2アルファベット文字に対応する。例示的な機械は、第1ゾーン内で始まり第2ゾーンに入るタッチアンドドラッグ入力を検出する。第1ゾーン内で始まるタッチアンドドラッグ入力に応答して、例示的な機械は、第1アルファベット文字に対応する第1音素を提示し、これは第1音素のオーディオ再生を備えてもよい。第2ゾーンに入るタッチアンドドラッグ入力に応答して、例示的な機械は、第2アルファベット文字に対応する第2音素を提示し、これは第2音素のオーディオ再生を備えてもよい。

Description

本明細書に開示されている主題は、一般に、読書スキルの教育または学習を容易にする特殊目的機械の技術分野に関し、そのような特殊目的機械のソフトウェア構成コンピュータ化された変種およびそのような変種の改良を備えており、そのような特殊目的機械が、読書スキルの教育または学習を容易にする他の特殊目的機械と比較して改良されるようになる技術に関する。具体的には、本開示は、アルファベット文字の可変速度音素発音(例えば、複数のアルファベット文字で作られた単語の可変速度発音)およびそれらで構成された単語を容易にするシステムおよび方法を扱う。
機械は、1人または複数のユーザに1つまたは複数の読書スキルを教えるか、さもなければ1人または複数のユーザに1つまたは複数の読書スキルの練習を案内するエクササイズを提示することで、機械(例えば、コンピュータまたは他の装置)の1人または複数のユーザと対話するように構成されてもよい。例えば、機械は、グラフィカルユーザインタフェース(GUI)内でアルファベット文字(例えば、文字「A」または文字「B」)を提示し、提示されたアルファベット文字を俳優が発音するオーディオまたはビデオ記録を再生し、その後、提示されたアルファベット文字も発音するようにユーザ(例えば、読み方を学んでいる子供)に促すことができる。
米国特許出願公開第2018/033335号明細書
しかし、引き続き依然として可変速度音素発音機械の改良の余地がある。
改良された可変速度音素発音機械が提供される。
いくつかの実施形態は、例示であって限定するものではないが、添付の図面の図に示されている。
いくつかの例示的な実施形態による、可変速度の音素発音に適したGUIが提示されるタッチ感応表示画面を有する機械の顔面図。 いくつかの例示的な実施形態による、可変速度の音素発音に適したGUIが提示されるタッチ感応表示画面を有する機械の顔面図。 いくつかの例示的な実施形態による、可変速度の音素発音に適したGUIが提示されるタッチ感応表示画面を有する機械の顔面図。 いくつかの例示的な実施形態による、可変速度の音素発音に適したGUIが提示されるタッチ感応表示画面を有する機械の顔面図。 いくつかの例示的な実施形態による、可変速度の音素発音に適したGUIが提示されるタッチ感応表示画面を有する機械の顔面図。 いくつかの例示的な実施形態による、可変速度音素発音に適した機械の構成要素を示すブロック図。 いくつかの例示的な実施形態による、可変速度音素発音の方法を実行する際の機械の動作を示すフローチャート。 いくつかの例示的な実施形態による、可変速度音素発音の方法を実行する際の機械の動作を示すフローチャート。 いくつかの例示的な実施形態による、可変速度音素発音の方法を実行する際の機械の動作を示すフローチャート。 いくつかの例示的な実施形態による、可変速度音素発音の方法を実行する際の機械の動作を示すフローチャート。 いくつかの例示的な実施形態による、機械可読媒体から命令を読み取り、本明細書で議論される方法論のうちの任意の1つまたは複数を実行することができる、機械の構成要素を示すブロック図。
例示的な方法(例えば、アルゴリズム)は、機械(マシン)による音素の可変速度の発音を容易にし、例示的なシステム(例えば、特別な目的のソフトウェアによって構成された特別な目的の機械)は、音素の可変速度の発音を容易にする(例えば、実行する)ように構成される。例は、可能なバリエーションを例示しているに過ぎない。特に明示されていない限り、構造体(例えば、モジュールなどの構造構成要素)は任意であり、組み合わせたり、細分化されたりしてもよく、また、(例えば、手順、アルゴリズム、その他の機能における)動作は、順序が異なったり、組み合わせたり、細分化されたりしてもよい。以下の説明では、説明のために、様々な例示的な実施形態の完全な理解を提供するために、多数の具体的な詳細が記載されている。しかし、当業者には、本主題がこれらの具体的な詳細なしに実施されてもよいことが明らかであろう。
機械は、例えば、タッチ感応表示画面(touch-sensitive display screen)上でのタッチアンドドラッグ入力(touch and drag input)などの可変速度ユーザ入力に応じて変化する発音速度で単語の音素を発音する可変速度音素発音機械(variable-speed phonetic pronunciation machine)として動作するか、またはその他の機能を果たすように(例えば、適切なハードウェアモジュール、ソフトウェアモジュール、またはその両方の組み合わせによって)特別に構成されてもよい。本明細書で説明したシステムおよび方法に従って、可変速度音素発音機械は、同じく音素を発音するが本明細書で説明した振る舞いを持たない他の機械と比較して、技術的に改善されている。このような技術的な改良には、ユーザに対してより応答性が高いこと(例えば、ユーザがタッチアンドドラッグ入力の速度を動的に変化させるとき)、ユーザに対してより高度な制御(例えば、単語が発音される速度に対する制御)を提供すること、ユーザに対してより自然な音の聴覚フィードバックを提供すること(例えば、高い発音速度のとき、低い発音速度のとき、またはその両方)が含まれる。また、このような技術的な改良には、より自然な外観の視覚フィードバックを提供すること(例えば、表示画面上に提示されるアニメーション化された口の動きの形で)、ユーザが或る単語の複数の異なる発音速度を迅速かつ便利に試すことを可能にすること(例えば、異なる速度で繰り返されるタッチアンドドラッグ入力に応じて、その単語を繰り返し発音することで)、またはそれらの任意の適切な組み合わせが含まれる。
これらの技術的特徴および利点を提供するために、可変速度音素発音機械は、機械のタッチ感応表示画面上にGUIを提示するように構成されており、GUIは、単語に整列しているスライダ制御を描いている。単語は、(例えば、少なくとも)第1順次アルファベット文字(sequentially first alphabetic letter)と第2順次アルファベット文字を備えている。GUIに描かれているように、スライダ制御の第1ゾーンは、単語の第1順次アルファベット文字に対応し、スライダ制御の第2ゾーンは、単語の第2順次アルファベット文字に対応する。
機械はさらに、タッチ感応表示画面を介して、スライダ制御の第1ゾーン内で始まりスライダ制御の第2ゾーンに入るタッチアンドドラッグ入力(例えば、スワイプジェスチャー)を検出するように構成される。スライダ制御の第1ゾーン内で始まるタッチアンドドラッグ入力に応答して、機械は、単語の第1順次アルファベット文字に対応する第1音素を提示するか、またはその他の方法で提示させ、第1音素を提示する工程は、第1音素のオーディオ再生を備えてもよい。スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力に応答して、機械は、単語の第2順次アルファベット文字に対応する第2音素を提示するか、さもなければ提示させ、第2音素を提示する工程は、第2音素のオーディオ再生を備えてもよい。
図1~図5は、いくつかの例示的な実施形態による、可変速度音素発音に適したGUI110が提示される表示画面101を有する機械100(例えば、モバイル装置などの装置)のフェースビューである。図1に示すように、表示画面101は、タッチ感応であり、ユーザの1つまたは複数の指からの1つまたは複数のタッチ入力を受け入れるように構成されており、一例として、指140は、機械100の表示画面101に触れているように図示されている。
GUI110は、表示画面101上に提示され、(例えば、とりわけ)単語120(例えば、描かれているように「CAT」、または代替的に「DOG」、「MOM」、「DAD」、「BABY」、「APPLE」、「SCHOOL」、または「BACKPACK」)と、スライダ制御130(例えば、スライダバー)とを描写している。スライダ制御130は、単語120に視覚的に並んでいてもよい。例えば、スライダ制御130と単語120の両方が、同じ直線に沿っていてもよいし、2つの平行線に沿っていてもよい。別の例として、スライダ制御130と単語120の両方が、同じ曲線に沿ってもよいし、所定距離を隔てた2つの曲線に沿ってもよい。
図1に示すように、スライダ制御130は、単語120またはその音素の発音の進捗を示す位置表示バーまたは他のマーカー(例えば、カーソル)などのスライド要素131を備えてもよい。図1にさらに示すように、単語120は、1つまたは複数のアルファベット文字を備えており、したがって、(例えば、他のテキスト文字の中に)第1順次アルファベット文字121(例えば、「C」)および第2順次アルファベット文字122(例えば、「A」)を備えてもよい。また、単語120は、第3順次アルファベット文字123(例えば、「T」)をさらに備えていてもよい。例えば、単語120は、「cat」または「dog」などの子音-母音-子音(CVC)の単語であってもよく、それに応じて、第1順次アルファベット文字121、第2順次アルファベット文字122、および第3順次アルファベット文字123を備えている。
スライダ制御130の異なるゾーンは、単語120の異なるアルファベット文字に対応しており、スライダ制御130の各ゾーンは、単語120の対応するアルファベット文字に視覚的に位置合わせされてもよい。したがって、図1を参照すると、スライダ制御130の第1ゾーンは、第1順次アルファベット文字121(例えば、「C」)に対応し、第1順次アルファベット文字121に視覚的に位置合わせされてもよく、スライダ制御130の第2ゾーンは、第2順次アルファベット文字122(例えば、「A」)に対応し、第2順次アルファベット文字122に視覚的に位置合わせされてもよい。同様に、スライダ制御130の第3ゾーンは、第3順次アルファベット文字123(例えば、「T」)に対応し、第3順次アルファベット文字123に視覚的に整列してもよい。
さらに、GUI110は、アバター150または他のキャラクタ(例えば、カートゥーンキャラクタ)を備えていてもよく、アバター150は、1つまたは複数の可動部を有するアニメーションまたは他の方法でレンダリング(例えば、2次元または3次元で)されてもよい。例えば、アバター150は、機械100によって現在発音されている音素に基づき(例えば、それに応じて、あるいはその両方に応じて)その形状を変化させる、アニメーション口(animated mouth)151を有していてもよい。
図1に示すように、指140は、表示画面101上でタッチアンドドラッグ入力(例えば、スワイプジェスチャー)を行っている。タッチアンドドラッグ入力を開始するために、指140は、スライダ制御130の第1ゾーン内に存在する位置(例えば、第1位置)で表示画面101に触れており、表示画面101は、指140がその位置で表示画面101に触れていることを検出している。したがって、タッチアンドドラッグ入力は、スライダ制御130の第1ゾーン内で始まっている(例えば、タッチダウン)。上述したように、スライダ制御130の第1ゾーンは、第1順次アルファベット文字121(例えば、「C」)に対応している。GUI110内の図示された位置に指140が触れたことが検出されたことに応答して、GUI110は、同じ位置にスライド要素131を提示する。上述したように、スライド要素131は、単語120の音素の発音がどの程度進んだか(例えば、図1に例示したように、進んでいない)を示してもよい。それに応じて、アバター150のアニメーション口151は、ニュートラルな形状(例えば、笑顔や、唇を閉じた無表情な形状などのニュートラルな口の形状)で表示されてもよい。
スライダ制御130の第1ゾーン内で始まるタッチアンドドラッグ入力に応答して、機械100は、スライダ制御130の第1ゾーンに対応する第1順次アルファベット文字121(例えば、「C」)に対応する第1音素を提示する。この第1音素の提示は、第1音素のオーディオ再生(例えば、俳優が第1音素を発音している様子を記録したサウンドファイルのオーディオ再生)を備えてもよい。いくつかの例示的な実施形態によれば、第1音素の提示は、第1音素に対応する第1形状(例えば、第1口形状)でアニメーション口151を表示する工程を備えており、第1形状でのアニメーション口151の表示は、第1音素のオーディオ再生中までは維持されてもよい。特定の例示的な実施形態では、第1音素の提示は、第1順次アルファベット文字121の色を変更する工程(例えば、第1音素のオーディオ再生中に第1色から第2色に変更し、第1音素のオーディオ再生後に再びその色を戻す工程)を備えているか、またはそれを伴う。
図2に示すように、指140は表示画面101上でタッチアンドドラッグ入力を続けており、タッチアンドドラッグ入力はまだスライダ制御130の第1ゾーン内にある。すなわち、指140は、スライダ制御130の第1ゾーン内に存在する位置(例えば、第2位置)で表示画面101に触れており、表示画面101は、その位置で指140が表示画面101に触れていることを検出していることになる。したがって、タッチアンドドラッグ入力は継続されるが、スライダ制御130の第1ゾーン内に留まる。GUI110内の図示された位置に指140が触れていることが検出されたことに応答して、GUI110は、同じ位置にスライド要素131を提示する。上述したように、スライド要素131は、単語120の音素の発音において達成された進捗度合い(進捗の度合い)(例えば、図2に例示されているように、第1順次アルファベット文字に対応する音素の発音までの進捗)を示してもよい。
タッチアンドドラッグ入力がスライダ制御130の第1ゾーン内に残っていることに応答して、第1音素が母音音素である状況では、機械100は、第1音素のオーディオ再生を持続(例えば、延長)してもよい。これは、母音音素の少なくとも一部を繰り返しループさせることで実行されてもよく、そのような繰り返しループは、タッチアンドドラッグ入力がスライダ制御130の第1ゾーン内に留まっている間、実行されてもよい。一方、タッチアンドドラッグ入力がスライダ制御130の第1ゾーン内に残っていることに応答して、第1音素が子音音素である状況では、機械100は、ちょうど1回の反復の後に子音音素のオーディオ再生を停止(例えば、中止)してもよい。例えば、機械100は、子音音素の1回の再生が完了した後に無音再生を開始し、その後、タッチアンドドラッグ入力がスライダ制御130の第1ゾーン内に留まっている限り、無音再生を継続してもよい。別の例として、機械100は、タッチアンドドラッグ入力がスライダ制御130の第1ゾーン内に留まっている限り、録音または合成された音声などの前景オーディオを再生せずに、背景音、背景音楽、またはそれらの任意の適切な組み合わせのみを再生するように制限してもよい。
図3に示すように、指140は、表示画面101上でタッチアンドドラッグ入力を実行し続け、タッチアンドドラッグ入力は、スライダ制御130の第2ゾーンに入っている。すなわち、指140は、スライダ制御130の第2ゾーン内に存在する位置(例えば、第3位置)で表示画面101に触れており、表示画面101は、その位置で指140が表示画面101に触れていることを検出している。したがって、タッチアンドドラッグ入力は継続され、現在はスライダ制御130の第2ゾーン内にある。GUI110内の図示された位置に指140が触れていることが検出されたことに応答して、GUI110は、同じ位置にスライド要素131を提示する。上述したように、スライド要素131は、単語120の音素を発音する際に到達した進捗度合い(例えば、図3に例示されているように、第2順次アルファベット文字に対応する音素の発音までの進捗)を示してもよい。
スライダ制御130の第2ゾーンに入るタッチアンドドラッグ入力に応答して、機械100は、スライダ制御130の第2ゾーンに対応する、第2順次アルファベット文字122(例えば、「A」)に対応する第2音素を提示する。この第2音素の提示は、第2音素のオーディオ再生(例えば、俳優が第2音素を発音している様子を記録したサウンドファイルのオーディオ再生)を備えてもよい。いくつかの例示的な実施形態によれば、第2音素の提示は、第2音素に対応する第2形状(例えば、第2口形状)でアニメーション口151を表示することを備えており、第2形状でのアニメーション口151の表示は、第2音素のオーディオ再生中で維持されてもよい。特定の例示的な実施形態では、第2音素の提示は、第2順次アルファベット文字122の色を変更すること(例えば、第2音素のオーディオ再生中に第1色から第2色に変更し、第2音素のオーディオ再生後に再びその色を戻すこと)を備えているか、またはそれを伴う。
さらに、タッチアンドドラッグ入力がスライダ制御130の第2ゾーン内に残っていることに応答して、第2音素が母音音素である状況では、機械100は、第2音素のオーディオ再生を持続(例えば、延長)してもよい。これは、母音音素の少なくとも一部を繰り返しループさせることで実行されてもよく、そのような繰り返しのループは、タッチアンドドラッグ入力がスライダ制御130の第2ゾーン内に留まっている限り、実行されてもよい。一方、タッチアンドドラッグ入力がスライダ制御130の第2ゾーン内に残っていることに応答して、第2音素が子音音素である状況では、機械100は、ちょうど1回の反復の後に子音音素のオーディオ再生を停止(例えば、中止)してもよい。例えば、機械100は、子音音素の1回の再生が完了した後に無音再生を開始し、その後、タッチアンドドラッグ入力がスライダ制御130の第2ゾーン内に留まっている限り、無音再生を継続してもよい。別の例として、機械100は、タッチアンドドラッグ入力がスライダ制御130の第2ゾーン内に留まっている限り、録音または合成された音声などの前景オーディオを再生せずに、背景音、背景音楽、またはそれらの任意の適切な組み合わせのみを再生するように制限してもよい。
図4に示すように、指140は、表示画面101上でタッチアンドドラッグ入力を実行し続け、タッチアンドドラッグ入力は、スライダ制御130の第3ゾーンに入っている。すなわち、指140は、スライダ制御130の第3ゾーン内に存在する位置(例えば、第4位置)で表示画面101に触れており、表示画面101は、その位置で指140が表示画面101に触れていることを検出している。したがって、タッチアンドドラッグ入力は継続され、現在はスライダ制御130の第3ゾーン内にある。GUI110内の図示された位置に指140が触れたことが検出されたことに応答して、GUI110は、同じ位置にスライド要素131を提示する。上述したように、スライド要素131は、単語120の音素を発音する際に到達した進捗度合い(例えば、図4に例示されているように、第3順次アルファベット文字に対応する音素の発音までの進捗)を示してもよい。
スライダ制御130の第3ゾーンに入るタッチアンドドラッグ入力に応答して、機械100は、スライダ制御130の第3ゾーンに対応する第3順次アルファベット文字123(例えば、「T」)に対応する第3音素を提示する。この第3音素の提示は、第3音素のオーディオ再生(例えば、俳優が第3音素を発音している様子を記録したサウンドファイルのオーディオ再生)を備えてもよい。いくつかの例示的な実施形態によれば、第3音素の提示は、第3音素に対応する第3形状(例えば、第3口形状)でアニメーション口151を表示することを備えており、第3形状でのアニメーション口151までの表示は、第2音素のオーディオ再生中で維持されてもよい。特定の例示的な実施形態では、第3音素の提示は、第3順次アルファベット文字123の色を変更すること(例えば、第3音素のオーディオ再生中に第1色から第2色に変更し、第3音素のオーディオ再生後に再びその色を変更すること)を備えているか、またはそれを伴う。
さらに、タッチアンドドラッグ入力がスライダ制御130の第3ゾーン内に残っていることに応答して、第3音素が母音音素である状況では、機械100は、第3音素のオーディオ再生を持続(例えば、延長)させてもよい。これは、母音音素の少なくとも一部を繰り返しループさせることで実行されてもよく、そのような繰り返しのループは、タッチアンドドラッグ入力がスライダ制御130の第3ゾーン内に留まっている限り、実行されてもよい。一方、タッチアンドドラッグ入力がスライダ制御130の第3ゾーン内に残っていることに応答して、第3音素が子音音素である状況では、機械100は、ちょうど1回の反復(ワン・イテレーション)の後に子音音素のオーディオ再生を停止(例えば、中止)してもよい。例えば、機械100は、子音音素の1回の再生が完了した後に無音再生を開始し、その後、タッチアンドドラッグ入力がスライダ制御130の第3ゾーン内に留まっている限り、無音再生を継続してもよい。別の例として、機械100は、タッチアンドドラッグ入力がスライダ制御130の第3ゾーン内に留まっている限り、録音または合成された音声などの前景オーディオを再生せずに、背景音、背景音楽、またはそれらの任意の適切な組み合わせのみを再生するように制限してもよい。
図5に示すように、指140は、スライダ制御130の第3ゾーン内に存在する位置(例えば、第5位置)で表示画面101から離昇(リフトオフ)することで表示画面101上でのタッチアンドドラッグ入力を終えており、表示画面101は、指140が表示画面101上のこの位置まで移動した後、表示画面101への接触をやめたことを検出している。したがって、タッチアンドドラッグ入力は、スライダ制御130の第3ゾーン内で終了したことになる。上述したように、スライダ制御130の第3ゾーンは、第3順次アルファベット文字123(例えば、「T」)に対応している。GUI110内の図示された位置で、表示画面101から持ち上げられた指140が検出されたことに応答して、GUI110は、同じ位置にスライド要素131を提示する。上述したように、スライド要素131は、単語120の音素を発音する際に到達した進捗度合い(例えば、図5に例示したように、完了までの進捗)を示してもよい。それに応じて、アバター150のアニメーション口151は、ニュートラルな形状(例えば、笑顔や、唇を閉じた無表情な形状などのニュートラルな口形状)に戻ってもよい。
図6は、いくつかの例示的な実施形態による、可変速度音素発音のために構成された機械100の構成要素を示すブロック図である。機械100は、タッチ入力検出器610、音素提示生成器620、および表示画面101を備えているものとして示されており、これらはすべて、(例えば、バス、共有メモリ、またはスイッチを介して)互いに通信するように構成されている。タッチ入力検出器610は、表示画面101上で発生する1つまたは複数のタッチ入力(例えば、タッチアンドドラッグ入力)を検出するためのタッチ入力モジュールまたは同様の適切なソフトウェアコードであってもよいし、それを備えていてもよい。音素提示生成器620は、1つまたは複数の音素の提示をレンダリングまたはその他の方法で生成するための音素レンダリングモジュールまたは同様に適切なソフトウェアコードであるか、またはそれを備えていてもよい(例えば、GUI110を介して、機械100のオーディオ再生サブシステムを介して、またはその両方を含む、機械100またはその任意の部分を介して)。
図6に示すように、タッチ入力検出器610、音素提示生成器620、またはその両方は、(例えば、ネットワークを介して1つまたは複数のサーバ機械から受信されるデータに応答して、またはそうでなければその結果として)機械100に格納(例えば、インストール)されるアプリ600(例えば、モバイルアプリ)のすべてまたは一部を形成してもよい。さらに、1つまたは複数のプロセッサ699(例えば、ハードウェアプロセッサ、デジタルプロセッサ、またはそれらの任意の適切な組み合わせ)は、アプリ600、タッチ入力検出器610、音素提示生成器620、またはそれらの任意の適切な組み合わせに(例えば、一時的または恒久的に)含まれていてもよい。
本明細書に記載された構成要素(例えば、モジュール)の任意の1つまたは複数は、ハードウェアのみ(例えば、プロセッサ699の1つまたは複数)、またはハードウェアとソフトウェアの組み合わせを使用して実装されてもよい。例えば、本明細書に記載された任意の構成要素は、その構成要素について本明細書に記載された動作を実行するように構成された、1つまたは複数のプロセッサ699(例えば、プロセッサ699のサブセットまたはプロセッサ699の中のサブセット)の配置を物理的に備えていることができる。別の例として、本明細書で説明する任意の構成要素は、その構成要素について本明細書で説明する動作を実行するようにプロセッサ699の1つまたは複数の配置を構成するソフトウェア、ハードウェア、またはその両方を備えてもよい。したがって、本明細書で説明する異なる構成要素は、異なる時点でプロセッサ699の異なる配置を備えており、構成してもよいし、異なる時点でプロセッサ699の単一の配置を構成してもよい。本明細書で説明した各構成要素(例えば、モジュール)は、その構成要素について本明細書で説明した動作を実行するための手段の一例である。さらに、本明細書で説明した任意の2つ以上の構成要素を単一の構成要素に組み合わせてもよく、単一の構成要素について本明細書で説明した機能を複数の構成要素に細分化してもよい。さらに、様々な例示的な実施形態によれば、単一のシステムまたは機械(例えば、単一の装置)内に実装されるものとして本明細書で説明される構成要素は、複数のシステムまたは機械(例えば、複数の装置)に分散されてもよい。
機械100は、本明細書に記載された機能のうちの1つまたは複数を実行するように変更された(例えば、特別目的のアプリケーション、オペレーティングシステム、ファームウェア、ミドルウェア、または他のソフトウェアプログラムの1つまたは複数のソフトウェアモジュールなどの特別目的のソフトウェアによって構成またはプログラムされた)特別目的の(例えば、特化された、またはそうでなければ従来とは異なる、非汎用の)コンピュータであるか、そのようなコンピュータを備えている、またはそうでなければそのようなコンピュータが実装されてもよい。例えば、本明細書に記載された方法論(methodologies)のいずれか1つまたは複数を実施することができる特殊目的のコンピュータシステムについては、図11に関して後述するが、そのような特殊目的のコンピュータは、それに応じて、本明細書に記載された方法論のいずれか1つまたは複数を実施するための手段となり得る。そのような特別目的のコンピュータの技術分野において、本明細書で論じられる機能を実行するために本明細書で論じられる構造によって特別に変更された(例えば、特別目的のソフトウェアによって構成された)特別目的のコンピュータは、本明細書で論じられる構造を欠くかさもなければ本明細書で論じられる機能を実行することができない他の特別目的のコンピュータと比較して、技術的に改善される。したがって、本明細書で論じたシステムおよび方法に従って構成された特別目的機械は、同様の特別目的機械の技術に対する改善を提供する。
したがって、機械100は、図11に関して以下に説明するように、全体または部分的に、特殊目的(例えば、特化した)コンピュータシステムに実装されてもよい。様々な例示的な実施形態によれば、機械100は、デスクトップコンピュータ、車両コンピュータ、ホームメディアシステム(例えば、ホームシアターシステムまたは他のホームエンターテイメントシステム)、タブレットコンピュータ、ナビゲーション装置、ポータブルメディア装置、スマートフォン、またはウェアラブル装置(例えば、スマートウォッチ、スマートグラス、スマートウェア、またはスマートジュエリー)であってもよいし、それらを備えてもよい。
図7~図10は、いくつかの例示的な実施形態による、可変速度音素発音の方法700を実行する際の機械100の動作を示すフローチャートである。方法700における動作は、機械100によって、図6に関して上述した構成要素(例えば、モジュール)を使用して、1つまたは複数のプロセッサ(例えば、マイクロプロセッサまたは他のハードウェアプロセッサ)を使用して、またはそれらの任意の適切な組み合わせを使用して、実行されてもよい。図7に示すように、方法700は、動作710、720、730、および740を備えている。
動作710において、アプリ600は、表示画面101(例えば、タッチスクリーンまたは他のタッチ感応表示画面)上にGUI110を提示するか、またはそうでなければ、表示画面101上にGUI110が提示されるようにする。上述したように、GUI110には、スライダ制御130が描かれており、スライダ制御130は、GUI110によっても描かれている単語120に整列している。さらに上述したように、単語120は、(例えば、少なくとも)第1順次アルファベット文字121と第2順次アルファベット文字122とを備えている。さらに、スライダ制御130の第1ゾーン(例えば、第1順次アルファベット文字121の近傍のスライダ制御130の領域)は、第1順次アルファベット文字121に対応し、スライダ制御の第2ゾーン(例えば、第2順次アルファベット文字122の近傍のスライダ制御130の領域)は、第2順次アルファベット文字122に対応する。いくつかの例示的な実施形態では、動作710は、アプリ600の音素提示生成器620によって実行される。動作710の視覚効果は、図1に示されるように現れてもよい。
動作720において、タッチ入力検出器610は、スライダ制御130の第1ゾーン内で始まりスライダ制御130の第2ゾーンに入るタッチアンドドラッグ入力を検出する(例えば、表示画面101を介して、使用して、連動して、またはその他の方法で、表示画面101に基づき検出する)。動作720の視覚効果は、図1~図3に示されるように現れてもよい。
動作730では、音素提示生成器620は、単語120の第1順次アルファベット文字121に対応する第1音素を提示することで、スライダ制御130の第1ゾーン内で始まるタッチアンドドラッグ入力に応答する。図1および図2に関して上述したように、第1音素の提示は、(例えば、とりわけ)第1音素のオーディオ再生を実行するか、または他の方法で引き起こすことを備えてもよい。
動作740では、音素提示生成器620は、単語120の第2順次アルファベット文字122に対応する第2音素を提示することで、スライダ制御130の第2ゾーンに入るタッチアンドドラッグ入力に応答する。図3に関して上述したように、第2音素の提示は、(例えば、とりわけ)第2音素のオーディオ再生を実行するか、または他の方法で引き起こすことを備えてもよい。
図8に示すように、先に説明した動作のいずれか1つまたは複数に加えて、方法700は、動作820、830、832、840、および842のうちの1つまたは複数を備えてもよい。動作820は、タッチアンドドラッグ入力がスライダ制御130の第1ゾーンで開始してスライダ制御130の第2ゾーンに入ることをタッチ入力検出器610が検出する動作720の一部(例えば、前駆タスク、サブルーチン、または部分)として、実行されてもよい。動作820では、そのタッチ入力検出器610は、タッチアンドドラッグ入力の検出に応答して、単語120の発音の提示をトリガする。
例えば、動作820を備えている例示的な実施形態では、タッチアンドドラッグ入力は、或る持続時間を有してもよく、タッチ入力検出器610は、タッチアンドドラッグ入力の持続時間(例えば、持続時間がどんなに長くなっても)に一致(coextensive)する持続時間を有する発音の提示をトリガしてもよい。この状況では、単語120の発音の提示は、タッチアンドドラッグ入力の持続時間内に、第1音素および第2音素が提示される下流の動作730および740を実行することを備えてもよい。
別の例として、動作820を備えている例示的な実施形態では、タッチアンドドラッグ入力は、所定速度(例えば、表示画面101上の移動速度)を有してもよく、タッチ入力検出器610は、タッチアンドドラッグ入力の速度(例えば、移動速度)に基づき決定される速度(例えば、単語120の順次音素が再生される発話速度)での発音の提示をトリガしてもよい。この状況では、単語128の発音を提示することは、タッチアンドドラッグ入力の移動速度に基づき決定された発話速度で、第1音素および第2音素を提示する下流の動作730および740を実行することを備えてもよい。
動作730の一部として、第1順次アルファベット文字121に対応する第1音素が子音音素であるか母音音素であるかに応じて、動作830または動作832のいずれかが実行されてもよい。動作830では、第1音素は母音音素であり、音素提示生成器620は、第1音素を提示することの一部として、タッチアンドドラッグ入力がスライダ制御130の第1ゾーンに留まる限り(例えば、タッチアンドドラッグ入力が第1ゾーンを出るまで)、母音音素を不定期間で持続させる(例えば、延長させる)。上述したように、これは、タッチアンドドラッグ入力が第1ゾーンに留まる限り、母音音素の少なくとも一部をループさせることで実行されてもよい。あるいは、動作832において、第1音素は子音音素であり、音素提示生成器620は、第1音素を提示することの一部として、タッチアンドドラッグ入力がスライダ制御130の第1ゾーンに留まる限り(例えば、タッチアンドドラッグ入力が第1ゾーンを出るまで)、子音音素に続いて無音を不定期間で再生する。上述したように、これは、子音音素を正確に1回再生し、その後、無音を再生するか、または前景オーディオ(例えば、録音された音声、合成された音声、またはその両方)を伴わない背景オーディオ(例えば、背景音、背景音楽、またはその両方)のみを再生することで実行されてもよい。
動作740の一部として、第2順次アルファベット文字122に対応する第2音素が子音音素であるか母音音素であるかに応じて、動作840または動作842のいずれかが実行されてもよい。動作840では、第2音素は母音音素であり、音素提示生成器620は、第2音素を提示することの一部として、タッチアンドドラッグ入力がスライダ制御130の第2ゾーンに留まる限り(例えば、タッチアンドドラッグ入力が第2ゾーンを出るまで)、母音音素を不定期間で持続させる(例えば、延長させる)。上述したように、これは、タッチアンドドラッグ入力が第2ゾーンに留まる限り、母音音素の少なくとも一部をループさせることで実行されてもよい。あるいは、動作842において、第2音素は子音音素であり、音素提示生成器620は、第2音素を提示することの一部として、タッチアンドドラッグ入力がスライダ制御130の第2ゾーンに留まる限り(例えば、タッチアンドドラッグ入力が第2ゾーンを出るまで)、子音音素に続いて無音を不定期間で再生する。上述したように、これは、子音音素を正確に1回再生し、その後、無音を再生するか、または前景オーディオ(例えば、録音された音声、合成された音声、またはその両方)を含まない背景オーディオ(例えば、背景音、背景音楽、またはその両方)のみを再生することで実行されてもよい。
図9に示すように、先に説明した動作のいずれか1つまたは複数に加えて、方法700は、動作930、932、940、および942のうちの1つまたは複数を備えてもよい。
動作930および動作932の一方または両方は、様々な例示的な実施形態によれば、動作730の一部として実行されてもよい。動作930において、音素提示生成器620は、第1音素を提示することの一部として、アバター150のアニメーション口151を、第1音素に対応する第1形状(例えば、第1口形状)で、GUI110に描写する、または描写させる。これは、第1形状の2次元画像または第1形状の3次元モデルにアクセスしてレンダリングするか、またはそのような2次元画像または3次元モデルをGUI110によってアクセスさせてレンダリングさせることで実行されてもよい。
動作932において、音素提示生成器620は、第1音素を提示することの一部として、第1順次アルファベット文字121の色を第1色(例えば、青などのデフォルト色)から第2色(例えば、黄色などのハイライト色)に変更することで、第1順次アルファベット文字121の色を変更する。
動作940および動作942の一方または両方は、様々な例示的な実施形態によれば、動作740の一部として実行されてもよい。動作940では、音素提示生成器620は、第2音素を提示することの一部として、アバター150のアニメーション口151を、第2音素に対応する第2形状(例えば、第2口形状)でGUI110に描写する、または描写させる。これは、第2形状の2次元画像または第2形状の3次元モデルにアクセスしてレンダリングするか、またはそのような2次元画像または3次元モデルをGUI110によってアクセスさせてレンダリングさせることで実行されてもよい。
動作942において、音素提示生成器620は、第2音素を提示することの一部として、第2順次アルファベット文字122の色を第1色(例えば、青などのデフォルト色)から第2色(例えば、黄色などのハイライト色)に変更することで、第2順次アルファベット文字122の色を変更する。
図10に示すように、先に説明した動作のいずれか1つまたは複数に加えて、方法700は、動作1050、1052、1060、1062、1080、および1082のうちの1つまたは複数を備えてもよい。
特定の例示的な実施形態によれば、単語120の個々の第1、第2、第3順次アルファベット文字121、122、および123上の個々のタッチ入力は、タッチ入力検出器610によって(たとえば、表示画面101を介して)検出される。個々のアルファベット文字上(例えば、第1順次アルファベット文字121上)の各個々のタッチ入力は、そのアルファベット文字に対応する音素の提示(例えば、アニメーション口151が対応する口形状へと形状を変えることを伴うかまたは伴わない、および第1順次アルファベット文字121の色を変えることを伴うかまたは伴わない、第1音素のオーディオ再生)をトリガする。
動作1050において、タッチ入力検出器610は、GUI110が単語120内の第1順次アルファベット文字121(例えば、「C」)を提示(例えば、表示)している表示画面101の位置において、タッチ入力(例えば、シングルタップまたはダブルタップ)を検出する(例えば、表示画面101を介して、使用して、連動して、またはその他の方法で、表示画面101に基づき)。これを受けて、動作1052において、音素提示生成器620は、単語120の第1順次アルファベット文字121に対応する第1音素を提示する。このような提示は、第1音素について上述したものと同様の方法で行うことができる。例えば、動作830、832、930、および932のうちの任意の1つまたは複数が、それらの動作に関する上記の議論に従って、適切に実行されてもよい。
動作1060において、タッチ入力検出器610は、GUI110が単語120内の第2順次アルファベット文字122(例えば、「A」)を提示(例えば、表示)している表示画面101の位置において、タッチ入力(例えば、シングルタップまたはダブルタップ)を検出する(例えば、表示画面101を介して、使用して、連動して、またはその他の方法で、表示画面101に基づき)。これを受けて、動作1062において、音素提示生成器620は、単語120の第2順次アルファベット文字122に対応する第2音素を提示する。このような提示は、第2音素について上述したものと同様の方法で行うことができる。例えば、動作840、842、940、および942のうちの任意の1つまたは複数が、それらの動作についての上記の議論に従って、適切に実行されてもよい。
単語120(例えば、「CAT」)が第3順次アルファベット文字(例えば、「T」)を有する状況では、動作720および740について上述したものと同様の方法で、動作1080および1082の一方または両方を実行してもよい。動作1080において、タッチ入力検出器610は、(例えば、表示画面101を介して、使用して、連動して、またはその他の方法で、表示画面101に基づき)、スライダ制御130の第1ゾーン内で始まりスライダ制御130の第2ゾーンに入ったタッチアンドドラッグ入力が、スライダ制御130の第3ゾーンに入ったことを検出する。上述したように、第3ゾーンは、第3順次アルファベット文字123(例えば、「T」)に対応していてもよく、第3順次アルファベット文字123に視覚的に一致していてもよい。これは、単語120がCVC単語である場合を含め、単語120が3文字以上の長さである場合であってもよい。
動作1082において、音素提示生成器620は、単語120の第3順次アルファベット文字123に対応する第3音素を提示することで、スライダ制御130の第3ゾーンに入るタッチアンドドラッグ入力に応答する。第3音素の提示は、(例えば、とりわけ)第3音素のオーディオ再生を実行するか、または他の方法で引き起こすことを備えてもよい。具体的には、第3音素のそのような提示は、第2音素について上述したものと同様の方法で実行されてもよい。例えば、動作840、842、940、および942のいずれか1つまたは複数に類似する1つまたは複数の動作を、それらの動作に関する上記の議論に従って、適宜、第3音素に対して実行してもよい。
さらに、単語120(例えば、「BABY」)が第4順次アルファベット文字(例えば、「Y」)を有する状況では、動作1080および1082に類似した1つまたは複数の動作が実行されてもよい。例えば、タッチ入力検出器610は、スライダ制御130の第1ゾーン内で始まり、スライダ制御130の第2ゾーンに入り、スライダ制御130の第3ゾーンに入ったタッチアンドドラッグ入力が、今、スライダ制御130の第4ゾーンに入ったことを検出してもよい。第4ゾーンは、第4順次アルファベット文字(例えば、「Y」)に対応していてもよく、第4順次アルファベット文字に視覚的に整列していてもよい。
同様に、音素提示生成器620は、単語120の第4順次アルファベット文字(例えば、「Y」)に対応する第4音素を提示することで、スライダ制御130の第4ゾーンに入るタッチアンドドラッグ入力に応答してもよい。第4音素の提示は、(例えば、とりわけ)第4音素のオーディオ再生を実行するか、または他の方法で引き起こすことを備えてもよい。第4音素のそのような提示は、第2音素または第3音素について上述したものと同様の方法で実行されてもよい。例えば、動作840、842、940、および942のいずれか1つまたは複数に類似する1つまたは複数の動作が、それらの動作に関する上記の議論に従って、適宜、第4音素に対して実行されてもよい。
様々な例示的な実施形態によれば、単語120が5つ以上のアルファベット文字を有する場合、第4順次アルファベット文字を超える追加のアルファベット文字は、第4順次アルファベット文字について上述したものと同様の方法で機械100によって処理されてもよい。
様々な例示的な実施形態によれば、本明細書に記載された方法論の1つまたは複数は、機械100による音素の可変速度発音を容易にすることができる。さらに、本明細書に記載された方法論の1つまたは複数は、音素を発音する、または発音を試みる他の機械に対する技術的改善を促進することができ、これには、ユーザに対してより応答的であること(例えば、ユーザがタッチアンドドラッグ入力の速度を動的に変化させるとき)、ユーザに対してより高度な制御(例えば、単語が発音される速度に対する)を提供することが含まれる。さらに、ユーザに対してより自然な音の聴覚的フィードバックを提供すること(例えば、高い発音速度のとき、低い発音速度のとき、またはその両方)、より自然な外観の視覚的フィードバック(例えば、表示画面上に提示されるアニメーション口の動きの形で)をユーザに提供すること、ユーザが、(例えば、異なる速度で繰り返されるタッチアンドドラッグ入力に応答して単語を繰り返し発音することで)単語のいくつかの異なる発音速度を迅速かつ便利に試すことができること、またはこれらの任意の適切な組み合わせを提供することが含まれる。したがって、本明細書に記載されている1つまたは複数の方法論は、既存のシステムおよび方法の能力と比較して、読書スキルの指導または学習を容易にするとともに、ユーザの楽しみを高めることができる。
これらの効果を総合的に考えると、本明細書に記載されている1つまたは複数の方法論は、そうでなければ音素の可変速度発音または読書スキルの指導または学習に関与する他のタスクに関与するであろう特定の努力または資源の必要性を回避することができる。これらのタスクを実行する際にユーザが費やす努力は、本明細書に記載された1つまたは複数の方法論を実装する特別目的の機械を使用する(例えば、依存する)ことで低減され得る。1つまたは複数のシステムまたは機械(例えば、ネットワーク環境内)によって使用されるコンピューティングリソースも同様に、(例えば、本明細書で説明する構造を持たないか、または本明細書で説明する機能を実行できないシステムまたは機械と比較して)削減され得る。このようなコンピューティングリソースの例には、プロセッササイクル、ネットワークトラフィック、計算容量、メインメモリ使用量、グラフィックスレンダリング容量、グラフィックスメモリ使用量、データストレージ容量、電力消費量、および冷却容量が含まれる。
図11は、いくつかの例示的な実施形態による、機械可読媒体1122(例えば、非一過性の機械可読媒体、機械可読記憶媒体、コンピュータ可読記憶媒体、またはそれらの任意の適切な組み合わせ)から命令1124を読み取ることができ、本明細書で議論される方法論のうちの任意の1つまたは複数を全体または部分的に実行することができる、機械1100の構成要素を示すブロック図である。具体的には、図11は、コンピュータシステム(例えば、コンピュータ)の例示的な形態の機械1100を示しており、その中では、機械1100に本明細書で論じられる方法論のうちの任意の1つまたは複数を実行させるための命令1124(例えば、ソフトウェア、プログラム、アプリケーション、アプレット、アプリ、または他の実行可能コード)が、全体または部分的に実行され得る。
代替的な実施形態では、機械1100は、スタンドアロン装置として動作するか、または他の機械に通信可能に結合(例えば、ネットワーク化)されてもよい。ネットワーク化された展開では、機械1100は、サーバ・クライアントネットワーク環境におけるサーバ機械またはクライアント機械の能力で動作してもよく、あるいは、分散型(例えば、ピアツーピア)ネットワーク環境におけるピア機械として動作してもよい。機械1100は、サーバコンピュータ、クライアントコンピュータ、パーソナルコンピュータ(PC)、タブレットコンピュータ、ラップトップコンピュータ、ネットブック、セルラー電話、スマートフォン、セットトップボックス(STB)、パーソナルデジタルアシスタント(PDA)、ウェブアプライアンス、ネットワークルータ、ネットワークスイッチ、ネットワークブリッジ、または、その機械が取るべきアクションを指定する命令1124を順次またはその他の方法で実行することができる任意の機械であってもよい。さらに、単一の機械のみが図示されているが、「機械」という用語は、個別にまたは共同で命令1124を実行して、本明細書で議論される任意の1つまたは複数の方法論のすべてまたは一部を実行する、任意の機械の集合体も含むとみなされるものとする。
機械1100は、プロセッサ1102(例えば、1つまたは複数の中央処理装置(CPU)、1つまたは複数のグラフィックス処理装置(GPU)、1つまたは複数のデジタル信号プロセッサ(DSP)、1つまたは複数の特定用途向け集積回路(ASIC)、1つまたは複数の無線周波数集積回路(RFIC)、またはそれらの任意の適切な組み合わせ)、メインメモリ1104、およびスタティックメモリ1106を備えており、これらは、バス1108を介して互いに通信するように構成されている。プロセッサ1102は、プロセッサ1102が本明細書に記載されている方法論のうちの任意の1つまたは複数を全体的または部分的に実行するように構成可能であるように、命令1124の一部または全部によって一時的または恒久的に構成可能なソリッドステートデジタルマイクロ回路(例えば、電子的、光学的、またはその両方)を含む。例えば、プロセッサ1102の1つまたは複数のマイクロ回路のセットは、本明細書に記載された1つまたは複数のモジュール(例えば、ソフトウェアモジュール)を実行するように構成可能であってもよい。いくつかの例示的な実施形態では、プロセッサ1102は、複数のコアのそれぞれが、本明細書で説明した方法論のうちの任意の1つまたは複数を全体または部分的に実行することができる別個のプロセッサとして動作する、マルチコアCPU(例えば、デュアルコアCPU、クアッドコアCPU、8コアCPU、または128コアCPU)である。本明細書に記載された有益な効果は、少なくともプロセッサ1102を有する機械1100によって提供されてもよいが、これらの同じ有益な効果は、プロセッサレスの機械が本明細書に記載された方法論のうちの1つまたは複数を実行するように構成されている場合、プロセッサを含まない別の種類の機械(例えば、純粋な機械システム、純粋な油圧システム、または機械-油圧ハイブリッドシステム)によって提供されてもよい。
機械1100はさらに、グラフィックディスプレイ1110(例えば、プラズマディスプレイパネル(PDP)、発光ダイオード(LED)ディスプレイ、液晶ディスプレイ(LCD)、プロジェクタ、陰極線管(CRT)、またはグラフィックまたはビデオを表示することができる任意の他のディスプレイ)を備えてもよい。また、機械1100は、英数字入力装置1112(例えば、キーボードまたはキーパッド)、ポインタ入力装置1114(例えば、マウス、タッチパッド、タッチスクリーン、トラックボール、ジョイスティック、スタイラス、モーションセンサ、アイトラッキング装置、データグローブ、または他のポインティングインスツルメント)、データストレージ1116、オーディオ生成装置1118(例えば、サウンドカード、アンプ、スピーカ、ヘッドフォンジャック、またはそれらの任意の適切な組み合わせ)、およびネットワークインタフェース装置1120を備えていることができる。
データストレージ1116(例えば、データストレージ装置)は、本明細書に記載されている方法論または機能のうちの任意の1つまたは複数を具現化する命令1124が格納されている機械可読媒体1122(例えば、有形かつ非一時的な機械可読記憶媒体)を含む。また、命令1124は、機械1100によるその実行の前または実行中に、完全にまたは少なくとも部分的に、メインメモリ1104内、スタティックメモリ1106内、プロセッサ1102内(例えば、プロセッサのキャッシュメモリ内)、またはそれらの任意の適切な組み合わせに存在してもよい。したがって、メインメモリ1104、スタティックメモリ1106、およびプロセッサ1102は、機械可読媒体(例えば、有形および非一時的な機械可読媒体)と見なされてもよい。命令1124は、ネットワークインタフェース装置1120を介して、ネットワーク190上で送信または受信されてもよい。例えば、ネットワークインタフェース装置1120は、任意の1つまたは複数の転送プロトコル(例えば、ハイパーテキスト転送プロトコル(HTTP))を使用して、命令1124を通信してもよい。
いくつかの例示的な実施形態では、機械1100は、ポータブルコンピューティング装置(例えば、スマートフォン、タブレットコンピュータ、またはウェアラブル装置)であってもよく、1つまたは複数の追加の入力構成要素(入力部)1130(例えば、センサまたはゲージ)を有してもよい。このような入力構成要素1130の例には、画像入力部(例えば、1つまたは複数のカメラ)、音声入力部(例えば、1つまたは複数のマイク)、方向入力部(例えば、コンパス)、位置入力部(例えば、全地球測位システム(GPS)受信機など)、方位計(ジャイロスコープなど)、動き検出部(1つまたは複数の加速度計など)、高度検出部(高度計など)、温度入力部(温度計など)、およびガス検出部(ガスセンサなど)が含まれる。これらの入力構成要素1130のいずれか1つまたは複数によって収集された入力データは、本明細書に記載されているモジュールのいずれかによってアクセス可能であり、使用可能であってもよい(例えば、ユーザの好み、適用される規制、またはそれらの任意の適切な組み合わせに従って実装された、オプトイン同意またはオプトアウト同意などの適切なプライバシー通知および保護を伴う)。
本明細書で使用されるように、「メモリ」という用語は、データを一時的または恒久的に保存することができる機械可読媒体を意味し、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、バッファメモリ、フラッシュメモリ、およびキャッシュメモリを含むが、これらに限定されないと捉えてよい。機械可読媒体1122は、例示的な実施形態では単一の媒体であることが示されているが、「機械可読媒体」という用語は、命令を格納することができる単一の媒体または複数の媒体(例えば、集中型または分散型のデータベース、または関連するキャッシュおよびサーバ)を含むものとみなされるべきである。また、「機械可読媒体」という用語は、機械1100の1つまたは複数のプロセッサ(例えば、プロセッサ1102)によって実行されたときに、命令1124が本明細書に記載された方法論のうちの任意の1つまたは複数を機械1100に全部または一部実行させるように、機械1100による実行のための命令1124を運ぶ(例えば、記憶または通信する)ことができる任意の媒体、または複数の媒体の組み合わせを含むとみなされるものとする。したがって、「機械可読媒体」とは、単一の記憶装置またはデバイスだけでなく、複数の記憶装置またはデバイスを含むクラウドベースのストレージシステムまたはストレージネットワークも指す。「機械可読媒体」という用語は、それに応じて、ソリッドステートメモリチップ、光ディスク、磁気ディスク、またはそれらの任意の適切な組み合わせの例示的な形態の1つまたは複数の有形かつ非一時的なデータリポジトリ(例えば、データボリューム)を含むが、これらに限定されないものとする。
本明細書で使用される「非一過性の」機械可読媒体は、それ自体を伝播する信号を特に除外する。様々な例示的な実施形態によれば、機械1100による実行のための命令1124は、キャリア媒体(例えば、機械可読キャリア媒体)を介して通信され得る。このようなキャリア媒体の例には、非一時的なキャリア媒体(例えば、或る場所から別の場所に物理的に移動可能なソリッドステートメモリなどの非一時的な機械可読記憶媒体)および一時的なキャリア媒体(例えば、命令1124を通信する搬送波または他の伝搬信号)が含まれる。
特定の例示的な実施形態は、モジュールを含むものとして本明細書に記載されている。モジュールは、ソフトウェアモジュール(例えば、機械可読媒体または伝送媒体に格納されたまたはその他の方法で具現化されたコード)、ハードウェアモジュール、またはそれらの任意の適切な組み合わせを構成することができる。「ハードウェアモジュール」とは、特定の動作を行うことができる有形の(例えば、非一時的な)物理的構成要素(例えば、1つまたは複数のプロセッサのセット)であり、特定の物理的な方法で構成または配置されていてもよい。様々な例示的実施形態において、1つまたは複数のコンピュータシステムまたはその1つまたは複数のハードウェアモジュールは、ソフトウェア(例えば、アプリケーションまたはその一部)によって、そのモジュールについて本明細書に記載されている動作を実行するように動作するハードウェアモジュールとして構成されてもよい。
いくつかの例示的な実施形態では、ハードウェアモジュールは、機械的、電子的、油圧的、またはそれらの任意の適切な組み合わせで実装されてもよい。例えば、ハードウェアモジュールは、特定の動作を実行するように恒久的に構成された専用回路または論理を備えてもよい。ハードウェアモジュールは、フィールドプログラマブルゲートアレイ(FPGA)やASICなどの専用プロセッサであってもよいし、それを備えていてもよい。また、ハードウェアモジュールは、特定の動作を行うようにソフトウェアによって一時的に構成されたプログラマブルな論理または回路を備えていてもよい。一例として、ハードウェアモジュールは、CPUや他のプログラマブルプロセッサに包含されるソフトウェアを備えてもよい。ハードウェアモジュールを機械的に、油圧的に、専用の恒久的に構成された回路に、または一時的に構成された回路(例えば、ソフトウェアによって構成されたもの)に実装するという決定は、コストおよび時間を考慮して行われることがあることを理解されたい。
したがって、「ハードウェアモジュール」という語句は、本明細書に記載されている特定の方法で動作したり、特定の動作を実行したりするように、物理的に構築されたり、恒久的に構成されたり(例えば、ハードワイヤード)、一時的に構成されたり(例えば、プログラムされたり)する有形の実体を包含すると理解すべきである。さらに、本明細書では、「ハードウェア実装されたモジュール」という表現は、ハードウェアモジュールを意味する。ハードウェアモジュールが一時的に構成される(例えば、プログラムされる)例示的な実施形態を考慮すると、ハードウェアモジュールの各々は、時間内の任意の1つのインスタンスで構成またはインスタンス化される必要はない。例えば、ハードウェアモジュールが、ソフトウェアによって特殊用途プロセッサになるように構成されたCPUを含む場合、CPUは、異なる時間にそれぞれ異なる特殊用途プロセッサ(例えば、それぞれが異なるハードウェアモジュールに含まれる)として構成されてもよい。ソフトウェア(例えば、ソフトウェアモジュール)は、それに応じて、例えば、或る時点では特定のハードウェアモジュールになるかまたはその他の方法で構成され、異なる時点では異なるハードウェアモジュールになるかまたはその他の方法で構成されるように、1つまたは複数のプロセッサを構成してもよい。
ハードウェアモジュールは、他のハードウェアモジュールに情報を提供し、他のハードウェアモジュールから情報を受け取ることができる。したがって、記述されたハードウェアモジュール同士は、通信可能に結合されているとみなすことができる。複数のハードウェアモジュールが同時期に存在する場合、通信は、2つ以上のハードウェアモジュール同士間またはそれら同士間の信号伝送(例えば、回路およびバスを介して)によって達成されてもよい。複数のハードウェアモジュールが異なる時期に構成またはインスタンス化される実施形態では、そのようなハードウェアモジュール同士間の通信は、例えば、複数のハードウェアモジュールがアクセスできるメモリ構造への情報の保存および取得を通じて達成されてもよい。例えば、1つのハードウェアモジュールは、或る動作を実行し、その動作の出力を、通信可能に結合されたメモリ(例えば、メモリ装置)に格納することができる。後日、別のハードウェアモジュールがメモリにアクセスし、保存された出力を取り出して処理することができる。また、ハードウェアモジュールは、入力装置または出力装置との通信を開始することができ、リソース(例えば、コンピューティングリソースからの情報のコレクション)上で動作することができる。
本明細書に記載されている例示的な方法の様々な動作は、関連する動作を実行するように一時的に(例えば、ソフトウェアによって)構成されているか、または恒久的に構成されている1つまたは複数のプロセッサによって、少なくとも部分的に実行されてもよい。一時的または恒久的に構成されているかどうかにかかわらず、そのようなプロセッサは、本明細書に記載されている1つまたは複数の動作または機能を実行するように動作するプロセッサ実装モジュールを構成してもよい。本明細書では、「プロセッサ実装済みモジュール」とは、ハードウェアが1つまたは複数のプロセッサを含むハードウェアモジュールを指す。したがって、プロセッサはハードウェアの一例であるため、本明細書で説明する動作は、少なくとも部分的にプロセッサ実装、ハードウェア実装、またはその両方であってもよく、本明細書で説明する方法のいずれか1つまたは複数の中の少なくとも一部の動作は、1つまたは複数のプロセッサ実装モジュール、ハードウェア実装モジュール、またはそれらの任意の適切な組み合わせによって実行されてもよい。
さらに、そのような1つまたは複数のプロセッサは、「クラウドコンピューティング」環境において、またはサービスとして(例えば、「サービスとしてのソフトウェア」(SaaS)の実装内で)、動作を実行してもよい。例えば、本明細書で説明する方法のいずれか1つまたは複数内の少なくともいくつかの動作は、(例えば、複数のプロセッサを含む複数の機械の例として)コンピュータのグループによって実行されてもよく、これらの動作は、ネットワーク(例えば、インターネット)を介して、および1つまたは複数の適切なインタフェース(例えば、アプリケーションプログラムインタフェース(API))を介してアクセス可能である。特定の動作の実行は、単一の機械内にのみ存在するか、または複数の機械にまたがって展開されるかにかかわらず、1つまたは複数のプロセッサに分散されてもよい。いくつかの例示的な実施形態では、1つまたは複数のプロセッサまたはハードウェアモジュール(例えば、プロセッサ実装モジュール)は、単一の地理的な場所(例えば、家庭環境、オフィス環境、またはサーバファーム内)に配置されてもよい。他の例示的な実施形態では、1つまたは複数のプロセッサまたはハードウェアモジュールは、多数の地理的な場所に分散していてもよい。
本明細書では、複数のインスタンスが、単一のインスタンスとして記述された構成要素、動作、または構造を実装することがある。1つまたは複数の方法の個々の動作が別々の動作として図示および説明されているが、個々の動作の1つまたは複数が同時に実行されてもよく、動作が図示された順序で実行されることを要求するものではない。例示された構成において、個別の構成要素および機能として提示された構造およびその機能は、結合された機能を持つ結合された構造または構成要素として実装されてもよい。同様に、単一の構成要素として提示された構造と機能は、別々の構成要素と機能として実装されてもよい。これらおよびその他の変形、修正、追加、および改良は、本明細書の主題の範囲内に入る。
本明細書で議論される主題の一部は、メモリ(例えば、コンピュータメモリまたは他の機械メモリ)内のビットまたはバイナリデジタル信号として格納されたデータに対する動作のアルゴリズムまたは記号的表現の観点から提示されてもよい。このようなアルゴリズムまたは記号的表現は、データ処理技術に精通した当業者が、自分の仕事の本質を当業者に伝えるために使用する技術の例である。本明細書では、「アルゴリズム」とは、所望の結果を導く自己矛盾のない一連の動作または同様の処理のことである。この文脈では、アルゴリズムと動作は、物理量の物理的な動作を含む。必ずしもそうではないが、このような量は、電気信号、磁気信号、または光学信号の形をしており、機械によって保存、アクセス、転送、結合、比較、またはその他の方法で動作することができる。「データ」、「コンテンツ」、「ビット」、「値」(バリュー)、「要素」(エレメント)、「シンボル」、「キャラクター」、「用語」(ターム)、「数」(ナンバー)、「ナンバリング」(ヌーメラル)などの言葉を使って、このような信号を参照することは、主に一般的な使用方法の理由から、時に便利である。しかし、これらの言葉は単なる便利なラベルであり、適切な物理量と関連付けられるべきものである。
特に明記しない限り、「アクセスする」、「処理する」、「検出する」、「コンピューティングする」、「計算する」、「決定する」(判定する)、「生成する」、「提示する」、「表示する」などの言葉を用いた本明細書の議論は、機械(例えば、コンピュータ)によって実行可能なアクションまたはプロセスを指す。機械(例えば、コンピュータ)は、情報を受信、保存、送信、または表示する1つまたは複数のメモリ(例えば、揮発性メモリ、不揮発性メモリ、またはそれらの適切な組み合わせ)、レジスタ、または他の機械構成要素内の物理的(例えば、電子的、磁気的、または光学的)量として表されるデータを操作または変換する。さらに、特に明記しない限り、本明細書では、特許文書で一般的なように、「a」または「an」という用語を、1つのインスタンスというよりも1つまたは複数のインスタンスを含む意味で使用している。最後に、本明細書では、特に明記しない限り、接続詞「または」は、非排他的な「または」を意味する。
以下の列挙された説明は、本明細書で議論される方法、機械可読媒体、およびシステム(例えば、機械、デバイス、または他の装置)の様々な例を説明するものである。
実施例1は、以下を備えている方法を提供し、前記方法は、
機械の1つまたは複数のプロセッサによって、装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、スライダ制御の第1ゾーンは単語の第1順次アルファベット文字に対応し、スライダ制御の第2ゾーンは単語の第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
前記スライダ制御の第1ゾーン内で始まり前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して、前記機械の1つまたは複数のプロセッサによって、検出する工程と、
前記機械の1つまたは複数のプロセッサによって、スライダ制御の第1ゾーン内で始まるタッチアンドドラッグ入力に応答して、単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第2ゾーンに入る前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と
を備えている。
実施例2は、実施例1による方法を提供するものであって
前記第1順次アルファベット文字は母音であり、前記第1音素は母音音素であり、および
前記第1音素を提示する工程は、前記タッチアンドドラッグ入力がスライダ制御の第1ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させることを備えている。したがって、単語の第1文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで、延長される(例えば、延長された期間に実行される)。
実施例3は、実施例1または実施例2による方法を提供し、ここでは第2順次アルファベット文字は母音であり、第2音素は母音音素であり、および
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている。したがって、単語の第2文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで延長される(例えば、延長した期間実行される)。
実施例4は、実施例1による方法を提供し、ここでは
第1順次アルファベット文字は子音であり、第1音素は子音音素であり、および
前記第1音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の第1ゾーン内に留まっている限り、無音のオーディオ再生を備えている。したがって、単語の第1文字が子音である場合、対応する子音音素の提示は延長されず、代わりに、子音音素の再生後に、無音の繰り返し再生(例えば、ルーピングによる)が所定期間実行される。
実施例5は、実施例1または実施例4による方法を提供し、ここでは第2順次アルファベット文字は子音であり、第2音素は子音音素であり、および
前記第2音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まる限り、無音のオーディオ再生を備えている。したがって、単語の第2文字が子音である場合、対応する子音音素の提示は延長されず、代わりに、子音音素の再生後に、無音の繰り返し再生(例えば、ルーピングによる)が所定期間実行される。
実施例6は、実施例1~5のいずれか1つによる方法を提供し、以下の通りである。
検出されたタッチアンドドラッグ入力は、持続時間を有し、タッチアンドドラッグ入力の持続時間に一致(coextensive)して単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に、第1音素および第2音素を提示する工程を備えている。したがって、タッチアンドドラッグ入力がスワイプジェスチャーである場合、スワイプジェスチャーの持続時間は、完全な単語の全体の発音の持続時間を決定する。
実施例7は、実施例1~6のいずれか1つによる方法を提供し、以下のとおりである。
検出されたタッチアンドドラッグ入力は、移動速度を有し、タッチアンドドラッグ入力の移動速度に基づき決定された発話速度(speecn speed)で、単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の移動速度に基づき決定された発話速度で、第1音素および第2音素を提示する工程を備えている。したがって、タッチアンドドラッグ入力がスワイプジェスチャーである場合には、スワイプジェスチャーの速さ(例えば、速度)は、完全な単語の全体の発音の速度を決定する。
実施例8は、実施例1~7のいずれか1つによる方法を提供し、以下の通りである。
前記GUIはさらに、アニメーション化された口を描写する。
第1音素を提示する工程はさらに、第1音素のオーディオ再生中に、第1音素に対応する第1口形状でアニメーション口を表示する工程を備えており、および
第2音素を提示する工程はさらに、第2音素のオーディオ再生中に、第2音素に対応する第2口形状でアニメーション口を表示する工程を備えている。したがって、アニメーションアバターまたは他のアニメーションキャラクターがGUIに描かれている場合、そのアニメーション口は、各順次音素のオーディオ再生に合わせて(例えば、ユニゾンで)形状を変化させることができる。
実施例9は、実施例1~8のいずれか1つによる方法を提供し、ここでは前記GUIは、前記タッチアンドドラッグ入力の検出に先立って、前記単語を第1色で描写し、
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記単語の第1順次アルファベット文字を第2色で描写する工程を備えており、および
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記単語の第2順次アルファベット文字を第2色で描写する工程を備えている。したがって、拡張によって、単語の各順次文字が発音されると、その文字は、対応する色の変化によって強調されてもよい。
実施例10は、実施例1~9のいずれか1つによる方法を提供するものであり、さらに
タッチ感応表示画面を介して、単語の第1順次アルファベット文字に対するタッチ入力を検出する工程と、
前記タッチ入力に応答して、前記単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、を備えている。したがって、ユーザ(例えば、読むことを学んでいる子供)は、単語の各文字(例えば、第1文字)を1つずつタッチして、その対応する音素を聞くことができる。
実施例11は、実施例1~10のいずれか1つによる方法を提供し、さらに、タッチ感応表示画面を介して、単語の第2順次アルファベット文字に対するタッチ入力を検出する工程と、
前記タッチ入力に応答して、前記単語の第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、を備えている。したがって、ユーザ(例えば、読み方を学習している子供)は、単語の各文字(例えば、第2文字)を1つずつタッチして、対応する音素を聞くことができる。
実施例12は、実施例1~11のいずれか1つによる方法を提供し、
前記単語は、前記第1順次アルファベット文字が第1子音であり、前記第2順次アルファベット文字が母音であり、第3順次アルファベット文字が第2子音である、子音-母音-子音の単語(例えば、「cat」または「dog」)であり
前記第1音素は第1子音音素であり、前記第2音素は母音音素であり、前記第3順次アルファベット文字は第2子音音素に対応しており、
前記第1音素を提示する工程は、前記第1子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まる限り、無音のオーディオ再生を備えており、
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力がスライダ制御の前記第2ゾーン内に留まる限り、母音音素の少なくとも一部を繰り返しループさせることで、母音音素のオーディオ再生を持続させる工程を備えており、および、前記方法はさらに、
前記タッチ感応表示画面を介して、前記タッチアンドドラッグ入力がスライダ制御の第3ゾーンに入ったことを検出する工程であって、前記第3ゾーンは前記単語の前記第3順次アルファベット文字に対応している、前記検出する工程と、
前記タッチアンドドラッグ入力が前記スライダ制御の前記第3ゾーンに入ったことに応答して、前記単語の第3順次アルファベットに対応する第2子音音素を提示する工程であって、前記第2子音音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第3ゾーン内に留まる限り、前記第2子音音素のオーディオ再生に続いて、無音のオーディオ再生を備えている、前記第2子音音素を提示する工程と、を備えている。したがって、その延長線上で、3文字よりも長い単語も同様の方法(例えば、1文字ずつ、音素ずつ、またはその両方)で発音することができる。
実施例13は、機械の1つまたは複数のプロセッサによって実行されると、機械に以下の動作を実行させる命令を備えている機械可読媒体(例えば、非一時的機械可読記憶媒体)を提供する。
動作は、装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描いており、前記スライダ制御の第1ゾーンは前記単語の第1順次アルファベット文字に対応しており、前記スライダ制御の第2ゾーンは前記単語の第2順次アルファベット文字に対応している、前記GUIを提示する工程と、
前記スライダ制御の第1ゾーン内で始まり前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
前記スライダ制御の第1ゾーン内で始まったタッチアンドドラッグ入力に応答して、単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、第1音素を提示する工程は第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力に応答して、前記単語の第2順次アルファベットに対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、を備えている。
実施例14は、実施例13による機械可読媒体を提供し、以下の通りである。
前記第1順次アルファベット文字は子音であり、前記第1音素は子音音素であり、および
前記第1音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の第1ゾーン内に留まっている限り、無音のオーディオ再生を備えている。したがって、単語の第1文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部の繰り返しのループによって延長される(例えば、延長した期間、実行される)。
実施例15は、実施例13または実施例14による機械可読媒体を提供し、以下の通りである。
第2順次アルファベット文字は母音であり、第2音素は母音音素であり、および
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている。したがって、単語の第2文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで、延長される(例えば、延長された期間に実行される)。
実施例16は、実施例13~15のいずれか1つに記載の機械可読媒体を提供し、
前記GUIはさらに、アニメーション口を描写し、
前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状で前記アニメーション口を表示する工程を備えており、および
前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状で前記アニメーション口を表示する工程を備えている。したがって、アニメ化されたアバターまたは他のアニメ化されたキャラクターがGUIに描写される場合、そのアニメ化された口は、各順次音素のオーディオ再生に応じて(例えば、ユニゾンで)、形状を変化させることができる。
実施例17は、以下を備えているシステム(例えば、コンピュータシステムまたは他のデータ処理機械)を提供しており、システムは、
1つまたは複数のプロセッサと、および
前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサによって実行されると、システムに以下の動作を行わせる命令を記憶するメモリと、を備えており、前記動作は、
装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描いており、前記スライダ制御の第1ゾーンは前記単語の第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の第2順次アルファベット文字に対応している、前記GUIを提示する工程と、
前記スライダ制御の第1ゾーン内で始まり前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
前記スライダ制御の第1ゾーン内で始まったタッチアンドドラッグ入力に応答して、単語の第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
前記スライダ制御の第2ゾーンに入るタッチアンドドラッグ入力に応答して、前記単語の第2順次アルファベットに対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程とを備えている。
実施例18は、実施例17によるシステムを提供し、以下のとおりである。
前記第2順次アルファベット文字は母音であり、前記第2音素は母音音素であり、および
前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている。したがって、単語の第2文字が母音である場合、対応する母音音素を提示する工程は、母音音素の少なくとも一部を繰り返しループさせることで、延長される(例えば、延長された期間実行される)。
実施例19は、実施例17または実施例18によるシステムを提供し、以下の通りである。
検出された前記タッチアンドドラッグ入力は、持続時間を有し、タッチアンドドラッグ入力の持続時間に一致して単語の発音の提示をトリガし、
前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に、第1音素および第2音素を提示する工程を備えている。したがって、タッチアンドドラッグ入力がスワイプジェスチャーである場合、スワイプジェスチャーの持続時間が、完全な単語の全体の発音の持続時間を決定する。
実施例20は、実施例17~19のいずれか1つによるシステムを提供し、前記GUIはさらにアニメーション口を描写し、前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状で前記アニメーション口を表示する工程を備えており、および前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状で前記アニメーション口を表示する工程を備えている。したがって、アニメーションアバターまたは他のアニメーションキャラクターがGUIに描かれている場合、そのアニメーション口は、各順次音素のオーディオ再生に応じて(例えば、ユニゾンで)形状を変化させてもよい。
実施例21は、実施例1~20のいずれか1つで実行される動作(例えば、方法の動作)を実行するように機械を制御するための機械可読命令を担持するキャリア媒体を提供する。

Claims (20)

  1. 機械の1つまたは複数のプロセッサによって、装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、前記スライダ制御の第1ゾーンは前記単語の前記第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の前記第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
    前記タッチ感応表示画面を介して、前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第1ゾーン内で始まり前記スライダ制御の前記第2ゾーンに入るタッチアンドドラッグ入力を検出する工程と、
    前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第1ゾーン内で始まる前記タッチアンドドラッグ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
    前記機械の1つまたは複数のプロセッサによって、前記スライダ制御の前記第2ゾーンに入る前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、
    を備えている、方法。
  2. 前記第1順次アルファベット文字は母音であり、
    前記第1音素は母音音素であり、および
    前記第1音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
    請求項1に記載の方法。
  3. 前記第2順次アルファベット文字は母音であり、
    前記第2音素は母音音素であり、
    前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
    請求項1または2に記載の方法。
  4. 前記第1順次アルファベット文字は子音であり、
    前記第1音素は子音音素であり、および
    前記第1音素を提示する工程は、前記子音音素のオーディオ再生後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まる限り、無音のオーディオ再生を備えている、
    請求項1に記載の方法。
  5. 前記第2順次アルファベット文字は子音であり、
    前記第2音素は子音音素であり、
    前記第2音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まる限り、無音のオーディオ再生を備えている、
    請求項1または4に記載の方法。
  6. 検出された前記タッチアンドドラッグ入力は持続時間を有し、前記タッチアンドドラッグ入力の前記持続時間に一致して単語の発音の提示をトリガし、
    前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に前記第1音素および前記第2音素を提示する工程を備えている、
    請求項1に記載の方法。
  7. 検出された前記タッチアンドドラッグ入力は移動速度を有し、前記タッチアンドドラッグ入力の前記移動速度に基づき決定された発話速度で、前記単語の発音の提示をトリガし、
    前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の前記移動速度に基づき決定された発話速度で、前記第1音素および前記第2音素を提示する工程を備えている、
    請求項1に記載の方法。
  8. 前記GUIはさらに、アニメーション口を描写し、
    前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状で前記アニメーション口を表示する工程を備えており、および
    前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状で前記アニメーション口を表示する工程を備えている、
    請求項1に記載の方法。
  9. 前記GUIは、前記タッチアンドドラッグ入力が検出される前に、前記単語を第1色で描写し、
    前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記単語の前記第1順次アルファベット文字を第2色で描写する工程を備えており、および
    前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記単語の前記第2順次アルファベット文字を第2色で描写する工程を備えている、
    請求項1に記載の方法。
  10. 前記方法はさらに、
    前記タッチ感応表示画面を介して、前記単語の前記第1順次アルファベット文字に対するタッチ入力を検出する工程と、
    前記タッチ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する前記第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と
    を備えている、請求項1に記載の方法。
  11. 前記方法はさらに、
    前記タッチ感応表示画面を介して、前記単語の前記第2順次アルファベット文字に対するタッチ入力を検出する工程と、
    前記タッチ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する前記第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と
    を備えている、請求項1に記載の方法。
  12. 前記単語は、前記第1順次アルファベット文字が第1子音であり、前記第2順次アルファベット文字が母音であり、第3順次アルファベット文字が第2子音である、子音-母音-子音の単語であり、
    前記第1音素は第1子音音素であり、前記第2音素は母音音素であり、前記第3順次アルファベット文字は第2子音音素に対応し、
    前記第1音素を提示する工程は、前記第1子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まる限り、無音のオーディオ再生を備えており、
    前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まる限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えており、
    前記方法はさらに、
    前記タッチ感応表示画面を介して、前記タッチアンドドラッグ入力が前記スライダ制御の第3ゾーンに入ったことを検出する工程であって、前記第3ゾーンは前記単語の前記第3順次アルファベット文字に対応している、検出する工程と、
    前記タッチアンドドラッグ入力が前記スライダ制御の前記第3ゾーンに入ったことに応答して、前記単語の前記第3順次アルファベット文字に対応する前記第2子音音素を提示する工程であって、前記第2子音音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第3ゾーン内に留まる限り、前記第2子音音素のオーディオ再生に続いて、無音のオーディオ再生を備えている、前記第2子音音素を提示する工程と
    を備えている、請求項1に記載の方法。
  13. 機械の1つまたは複数のプロセッサによって実行されると、前記機械に以下の動作を実行させる命令を備えている機械可読媒体であって、前記動作は、
    装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、前記スライダ制御の第1ゾーンは前記単語の前記第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の前記第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
    前記スライダ制御の前記第1ゾーン内で始まり前記スライダ制御の前記第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
    前記スライダ制御の前記第1ゾーン内で始まった前記タッチアンドドラッグ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
    前記スライダ制御の前記第2ゾーンに入った前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と、
    を備えている、機械可読媒体。
  14. 前記第1順次アルファベット文字は子音であり、
    前記第1音素は子音音素であり、および
    前記第1音素を提示する工程は、前記子音音素のオーディオ再生の後、前記タッチアンドドラッグ入力が前記スライダ制御の前記第1ゾーン内に留まっている限り、無音のオーディオ再生を備えている、
    請求項13に記載の機械可読媒体。
  15. 前記第2順次アルファベット文字は母音であり、
    前記第2音素は母音音素であり、および
    前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に残っている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
    請求項13または14に記載の機械可読媒体。
  16. 前記GUIはさらに、アニメーション口を描写し
    前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状でアニメーション口を表示する工程を備えており、および
    前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状でアニメーション口を表示する工程を備えている、
    請求項13に記載の機械可読媒体。
  17. 1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサのうち少なくとも1つのプロセッサによって実行されるとシステムに以下の動作を実行させる命令を格納するメモリと、
    を備えているシステムであって、
    前記動作は、
    装置のタッチ感応表示画面上にグラフィカルユーザインタフェース(GUI)を提示する工程であって、前記GUIは、第1順次アルファベット文字および第2順次アルファベット文字を備えている単語に整列したスライダ制御を描写し、前記スライダ制御の第1ゾーンは前記単語の前記第1順次アルファベット文字に対応し、前記スライダ制御の第2ゾーンは前記単語の前記第2順次アルファベット文字に対応する、前記GUIを提示する工程と、
    前記スライダ制御の前記第1ゾーン内で始まり前記スライダ制御の前記第2ゾーンに入るタッチアンドドラッグ入力を、前記タッチ感応表示画面を介して検出する工程と、
    前記スライダ制御の前記第1ゾーン内で始まった前記タッチアンドドラッグ入力に応答して、前記単語の前記第1順次アルファベット文字に対応する第1音素を提示する工程であって、前記第1音素を提示する工程は前記第1音素のオーディオ再生を備えている、前記第1音素を提示する工程と、および
    前記スライダ制御の前記第2ゾーンに入った前記タッチアンドドラッグ入力に応答して、前記単語の前記第2順次アルファベット文字に対応する第2音素を提示する工程であって、前記第2音素を提示する工程は前記第2音素のオーディオ再生を備えている、前記第2音素を提示する工程と
    を備えている、システム。
  18. 前記第2順次アルファベット文字は母音であり、
    前記第2音素は母音音素であり、および
    前記第2音素を提示する工程は、前記タッチアンドドラッグ入力が前記スライダ制御の前記第2ゾーン内に留まっている限り、前記母音音素の少なくとも一部を繰り返しループさせることで、前記母音音素のオーディオ再生を持続させる工程を備えている、
    請求項17に記載のシステム。
  19. 検出された前記タッチアンドドラッグ入力は、持続時間を有し、前記タッチアンドドラッグ入力の前記持続時間に一致して単語の発音の提示をトリガし、
    前記単語の発音を提示する工程は、前記タッチアンドドラッグ入力の持続時間内に前記第1音素および前記第2音素を提示する工程を備えている、
    請求項17または18に記載のシステム。
  20. 前記GUIはさらに、アニメーション口を描写し
    前記第1音素を提示する工程はさらに、前記第1音素のオーディオ再生中に、前記第1音素に対応する第1口形状で前記アニメーション口を表示する工程を備えており、
    前記第2音素を提示する工程はさらに、前記第2音素のオーディオ再生中に、前記第2音素に対応する第2口形状で前記アニメーション口を表示する工程を備えている、
    請求項17に記載のシステム。
JP2021533447A 2018-12-13 2019-12-06 可変速度音素発音機械 Pending JP2022519981A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/219,659 US11361760B2 (en) 2018-12-13 2018-12-13 Variable-speed phonetic pronunciation machine
US16/219,659 2018-12-13
PCT/US2019/064962 WO2020123297A1 (en) 2018-12-13 2019-12-06 Variable-speed phonetic pronunciation machine

Publications (1)

Publication Number Publication Date
JP2022519981A true JP2022519981A (ja) 2022-03-28

Family

ID=71072844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021533447A Pending JP2022519981A (ja) 2018-12-13 2019-12-06 可変速度音素発音機械

Country Status (8)

Country Link
US (2) US11361760B2 (ja)
EP (1) EP3895149A4 (ja)
JP (1) JP2022519981A (ja)
KR (1) KR102697680B1 (ja)
CN (1) CN113302672A (ja)
AU (1) AU2019398095B2 (ja)
CA (1) CA3123139C (ja)
WO (1) WO2020123297A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11694680B2 (en) 2018-12-13 2023-07-04 Learning Squared, Inc. Variable-speed phonetic pronunciation machine

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150206445A1 (en) 2014-01-17 2015-07-23 Originator Inc. Multi-sensory learning with feedback
US11410656B2 (en) * 2019-07-31 2022-08-09 Rovi Guides, Inc. Systems and methods for managing voice queries using pronunciation information
US11494434B2 (en) 2019-07-31 2022-11-08 Rovi Guides, Inc. Systems and methods for managing voice queries using pronunciation information
KR102096965B1 (ko) * 2019-09-10 2020-04-03 방일성 양동이 돌리기 원리를 응용한 영어 학습 방법 및 장치
CN116027946B (zh) * 2023-03-28 2023-07-18 深圳市人马互动科技有限公司 互动小说中图片信息处理方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347786A (ja) * 2003-05-21 2004-12-09 Casio Comput Co Ltd 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム
JP2005128177A (ja) * 2003-10-22 2005-05-19 Ace:Kk 発音学習支援方法、学習者端末及び処理プログラム並びに該プログラムを記録した記録媒体
JP2009122581A (ja) * 2007-11-19 2009-06-04 Kaori Otomo 単語学習装置、対話型学習システムおよび単語学習プログラム
JP2012215645A (ja) * 2011-03-31 2012-11-08 Speakglobal Ltd コンピュータを利用した外国語会話練習システム
JP2012220991A (ja) * 2011-04-04 2012-11-12 Sharp Corp 意思確認システムおよび方法
US20150112687A1 (en) * 2012-05-18 2015-04-23 Aleksandr Yurevich Bredikhin Method for rerecording audio materials and device for implementation thereof
US20180033335A1 (en) * 2015-02-19 2018-02-01 Tertl Studos, LLC Systems and methods for variably paced real-time translation between the written and spoken forms of a word

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3715812A (en) * 1970-12-07 1973-02-13 L Novak Color coded pronunciation symbol system
US5182557A (en) * 1989-09-20 1993-01-26 Semborg Recrob, Corp. Motorized joystick
US5451163A (en) * 1990-12-18 1995-09-19 Joseph R. Black Method of teaching reading including displaying one or more visible symbols in a transparent medium between student and teacher
JP3149574B2 (ja) * 1992-09-30 2001-03-26 ヤマハ株式会社 カラオケ装置
US5878396A (en) * 1993-01-21 1999-03-02 Apple Computer, Inc. Method and apparatus for synthetic speech in facial animation
US5995119A (en) * 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
US6307576B1 (en) * 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
US7554542B1 (en) * 1999-11-16 2009-06-30 Possible Worlds, Inc. Image manipulation method and system
US7483832B2 (en) * 2001-12-10 2009-01-27 At&T Intellectual Property I, L.P. Method and system for customizing voice translation of text to speech
US7663628B2 (en) * 2002-01-22 2010-02-16 Gizmoz Israel 2002 Ltd. Apparatus and method for efficient animation of believable speaking 3D characters in real time
US20040029083A1 (en) * 2002-08-06 2004-02-12 Coleman Edmund Benedict Phonemically organized keyboard attached to a speech synthesizer: a machine for teaching the sounds of the letters to young children
TWI255412B (en) * 2004-09-29 2006-05-21 Inventec Corp System and method for displaying an image according to audio signals
US20080180305A1 (en) * 2005-07-25 2008-07-31 Mcrae Kimberly A Control interface for controlling multiple functional devices or a multiple purpose device having a plurality of modes
US20070041365A1 (en) * 2005-08-09 2007-02-22 Sunman Engineering, Inc. EBay and Google VoIP telephone
US20070248938A1 (en) * 2006-01-27 2007-10-25 Rocketreader Pty Ltd Method for teaching reading using systematic and adaptive word recognition training and system for realizing this method.
US20070208567A1 (en) * 2006-03-01 2007-09-06 At&T Corp. Error Correction In Automatic Speech Recognition Transcripts
US20110060585A1 (en) * 2008-02-01 2011-03-10 Oh Eui Jin Inputting method by predicting character sequence and electronic device for practicing the method
US8070492B1 (en) * 2008-08-26 2011-12-06 Mckinnis Sandra Reading tool with display window for teaching eye tracking
NZ581044A (en) * 2009-02-19 2011-07-29 Unicus Invest Pty Ltd A system adapted to enhancing the reading ability of a user with dyslexia
JP5178607B2 (ja) * 2009-03-31 2013-04-10 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置
KR20110097578A (ko) 2010-02-24 2011-08-31 성낙윤 한글 발음 학습방법 및 그 장치
US20120179967A1 (en) * 2011-01-06 2012-07-12 Tivo Inc. Method and Apparatus for Gesture-Based Controls
US8872836B2 (en) * 2011-01-25 2014-10-28 Qualcomm Incorporated Detecting static images and reducing resource usage on an electronic device
US20120223959A1 (en) * 2011-03-01 2012-09-06 Apple Inc. System and method for a touchscreen slider with toggle control
AU2012100262B4 (en) * 2011-12-15 2012-05-24 Nguyen, Phan Thi My Ngoc Ms Speech visualisation tool
US8995698B2 (en) * 2012-07-27 2015-03-31 Starkey Laboratories, Inc. Visual speech mapping
US20140234809A1 (en) 2013-02-15 2014-08-21 Matthew Colvard Interactive learning system
KR101554619B1 (ko) 2013-04-09 2015-09-21 조건희 터치 스크린을 활용한 어학 학습 시스템 및 어학 학습 방법
KR101641874B1 (ko) 2014-03-28 2016-07-22 차보영 방범용 cctv 다기능 비상벨
US9323984B2 (en) * 2014-06-06 2016-04-26 Wipro Limited System and methods of adaptive sampling for emotional state determination
US9927957B1 (en) * 2014-12-11 2018-03-27 Audible, Inc. Rotary navigation of synchronized content
US9495088B2 (en) * 2014-12-26 2016-11-15 Alpine Electronics, Inc Text entry method with character input slider
US20170069220A1 (en) * 2015-09-08 2017-03-09 Kenneth Thornton Method for Creating and Displaying Individualized Learning Material for Reading
US9639234B2 (en) * 2015-09-10 2017-05-02 Qualcomm Incorporated Dynamic control schemes for simultaneously-active applications
CN105487780B (zh) * 2016-01-15 2021-03-19 腾讯科技(深圳)有限公司 控件显示方法及装置
GB2548154A (en) * 2016-03-11 2017-09-13 Sony Computer Entertainment Europe Ltd Virtual reality
WO2017197178A1 (en) * 2016-05-11 2017-11-16 OgStar Reading, LLC Interactive multisensory learning process and tutorial device
US10319250B2 (en) * 2016-12-29 2019-06-11 Soundhound, Inc. Pronunciation guided by automatic speech recognition
US10861347B2 (en) 2017-01-06 2020-12-08 Alex B. Tavares Device and method for teaching phonics using a touch detecting interface
US20180268732A1 (en) * 2017-03-15 2018-09-20 John Thiel Phonetic system and method for teaching reading
US10737178B2 (en) * 2017-06-19 2020-08-11 Niantic, Inc. Providing a shared virtual experience in a location-based game
WO2019060889A1 (en) * 2017-09-25 2019-03-28 Ventana 3D, Llc ARTIFICIAL INTELLIGENCE (IA) CHARACTER SYSTEM CAPABLE OF NATURAL VERBAL AND VISUAL INTERACTIONS WITH A HUMAN BEING
US11361760B2 (en) 2018-12-13 2022-06-14 Learning Squared, Inc. Variable-speed phonetic pronunciation machine

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347786A (ja) * 2003-05-21 2004-12-09 Casio Comput Co Ltd 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム
JP2005128177A (ja) * 2003-10-22 2005-05-19 Ace:Kk 発音学習支援方法、学習者端末及び処理プログラム並びに該プログラムを記録した記録媒体
JP2009122581A (ja) * 2007-11-19 2009-06-04 Kaori Otomo 単語学習装置、対話型学習システムおよび単語学習プログラム
JP2012215645A (ja) * 2011-03-31 2012-11-08 Speakglobal Ltd コンピュータを利用した外国語会話練習システム
JP2012220991A (ja) * 2011-04-04 2012-11-12 Sharp Corp 意思確認システムおよび方法
US20150112687A1 (en) * 2012-05-18 2015-04-23 Aleksandr Yurevich Bredikhin Method for rerecording audio materials and device for implementation thereof
US20180033335A1 (en) * 2015-02-19 2018-02-01 Tertl Studos, LLC Systems and methods for variably paced real-time translation between the written and spoken forms of a word

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11694680B2 (en) 2018-12-13 2023-07-04 Learning Squared, Inc. Variable-speed phonetic pronunciation machine

Also Published As

Publication number Publication date
EP3895149A4 (en) 2022-01-19
KR102697680B1 (ko) 2024-08-21
US11361760B2 (en) 2022-06-14
AU2019398095A1 (en) 2021-07-29
CA3123139A1 (en) 2020-06-18
KR20210092318A (ko) 2021-07-23
EP3895149A1 (en) 2021-10-20
US20200193975A1 (en) 2020-06-18
AU2019398095B2 (en) 2023-06-29
CN113302672A (zh) 2021-08-24
CA3123139C (en) 2023-10-10
US20220262351A1 (en) 2022-08-18
US11694680B2 (en) 2023-07-04
WO2020123297A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP2022519981A (ja) 可変速度音素発音機械
US20180239512A1 (en) Context based gesture delineation for user interaction in eyes-free mode
US8656296B1 (en) Selection of characters in a string of characters
KR102151286B1 (ko) 애플리케이션과의 상호작용으로서의 다모드 사용자 표현 및 사용자 인텐서티 검출 기법
US8751971B2 (en) Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US20140282242A1 (en) Systems and methods for content-aware selection
US20140281950A1 (en) Device, Method, and Graphical User Interface for Generating Haptic Feedback for User Interface Elements
US20140210729A1 (en) Gesture based user interface for use in an eyes-free mode
KR101949493B1 (ko) 멀티미디어 콘텐츠의 재생을 제어하기 위한 방법 및 시스템
US20140215339A1 (en) Content navigation and selection in an eyes-free mode
TW201506685A (zh) 以語音辨識來選擇控制客體的裝置及方法
KR102298618B1 (ko) 바운딩 박스 생성 장치 및 그를 이용한 바운딩 박스 생성 방법
JP2019101739A (ja) 情報処理装置、情報処理システムおよびプログラム
TWI554983B (zh) 電子裝置、學習方法及其電腦程式產品
US20220383769A1 (en) Speech synthesizer with multimodal blending
EP3128397B1 (en) Electronic apparatus and text input method for the same
KR20170009487A (ko) 청크 기반 언어 학습 방법 및 이를 수행하는 전자 기기
KR20150059912A (ko) 드래그 앤 드롭 방식을 이용하여 한글을 입력하는 사용자 인터페이스 제공 방법 및 장치
KR20230173491A (ko) 중국어 학습 콘텐츠 제공 방법 및 장치
KR20230116526A (ko) 디스플레이 장치 및 그 제어 방법
US20160358626A1 (en) Chronological event information for multimedia content

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221027

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240109