JP2014500525A - 単語学習音楽ファイルのための伴奏と音声のマッチング方法 - Google Patents

単語学習音楽ファイルのための伴奏と音声のマッチング方法 Download PDF

Info

Publication number
JP2014500525A
JP2014500525A JP2013536546A JP2013536546A JP2014500525A JP 2014500525 A JP2014500525 A JP 2014500525A JP 2013536546 A JP2013536546 A JP 2013536546A JP 2013536546 A JP2013536546 A JP 2013536546A JP 2014500525 A JP2014500525 A JP 2014500525A
Authority
JP
Japan
Prior art keywords
beat
strong
word
weak
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013536546A
Other languages
English (en)
Inventor
チョル パク、サン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amosedu Co ltd
Original Assignee
Amosedu Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amosedu Co ltd filed Critical Amosedu Co ltd
Publication of JP2014500525A publication Critical patent/JP2014500525A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/062Combinations of audio and printed presentations, e.g. magnetically striped cards, talking books, magnetic tapes with printed texts thereon
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/022Demisyllables, biphones or triphones being the recognition units

Abstract

本発明は、単語学習音楽ファイルのための伴奏と音声のマッチング方法に関し、より詳細には、強/弱/中強/弱の4つのビートからなる4分の4拍子のリズムを持つ伴奏に、単語(音声)の強勢を合わせてマッチングする方法に関する。本発明に係る単語学習音楽ファイルのための伴奏と音声のマッチング方法は、一節が強(第1ビート)/弱(第2ビート)/中強(第3ビート)/弱(第4ビート)の4つのビートで構成される4分の4拍子からなる伴奏に、原語音声と翻訳音声からなる単語音声をマッチングさせるものであって、前記節一つに単語一つが対応するようにマッチングし、前記単語を第一音節に強勢がある強拍子型と第一音節に強勢がない弱拍子型に区分して、強拍子型の単語は、当該節の第1ビートに原語音声が来るようにマッチングし、当該節の第3ビートに翻訳音声が来るようにマッチングし、弱拍子型の単語は、前節の第4ビートと当該節の第1ビートに原語音声が来るようにマッチングし、当該節の第3ビートに翻訳音声が来るようにマッチングすることを特徴とする。

Description

本発明は、単語学習音楽ファイルのための伴奏と音声のマッチング方法に関し、より詳細には、強/弱/中強/弱の4つのビートからなる4分の4拍子のリズムを持つ伴奏に、単語(音声)の強勢を合わせてマッチングする方法に関する。
社会がグローバル化していく中で、英語、日本語、漢字などの外国語が社会生活において非常に重要な位置を占めるようになった。
これに伴い、効果的に言語学習をするためのさまざまな方法が開発されており、たとえば、外国語を学習するにあたり、外国語学院に直接登録および出席して講師の講義を聞く方法や、講師の講義を録画し、録画された内容をインターネットを通じて提供する方法や、映画やテレビドラマを通じて語学勉強をしたり、あるいはラジオ番組におけるポップソングを利用した外国語学習方法を提供したりするものがある。
ところが、言語習得の基本となる単語能力の開発は、個人の努力に依存する傾向が支配的であり、同じ言葉を繰り返し聞かなければならないため、飽きや退屈さを感じるようになって単語学習に対する影響は微々たるものであるのが現実である。
たとえば、従来の英単語の発音学習方式は、英単語を発音するために、英単語(アルファベット)を基準に発音記号を表記したり、ハングルで発音を表記したりすることにより、「単語(アルファベット)」と「音(発音)」との関連性を通じて英単語を発音させる学習方式であったが、学習効果においては限界があった。
一方、単語学習の効果を高めるために、伴奏と言葉(音声)を合成して、音楽ファイル形式で作成し、この音楽に付いて歌いながら単語を学習させて、退屈さを感じないようにする学習方式が開示されている。
しかし、こうした音楽ファイルを利用した学習方式は、伴奏の強勢(ビート)と実際の単語の強勢とが合わず、耳に障ることで脳内への入力がうまくいかず、情報伝達力が低下するので、この学習方式もやはり学習効果が低下するという問題点があった。
本発明は、上述した問題点を解決するために案出されたものであり、強/弱/中強/弱の4つのビートからなる4分の4拍子のリズムを持つ伴奏に、単語(音声)の強勢を合わせてマッチングすることにより、伴奏の強勢と実際の単語の強勢が合って耳に障らず、知らず知らずのうちに自然に単語の強勢が身に付き、情報伝達力が高くて学習効果を高めることができる単語学習音楽ファイルのための伴奏と音声のマッチング方法を提供するところにその目的がある。
上述した目的を達成するための本発明に係る単語学習音楽ファイルのための伴奏と音声のマッチング方法は、一節が強(第1ビート)/弱(第2ビート)/中強(第3ビート)/弱(第4ビート)の4つのビートで構成される4分の4拍子からなる伴奏に、原語音声と翻訳音声からなる単語音声をマッチングさせるものであって、
前記節一つに単語一つが対応するようにマッチングし、
前記単語を第一音節に強勢がある強拍子型と第一音節に強勢がない弱拍子型に区分して、
強拍子型の単語は、当該節の第1ビートに原語音声が来るようにマッチングし、当該節の第3ビートに翻訳音声が来るようにマッチングし、
弱拍子型の単語は、前節の第4ビートと当該節の第1ビートに原語音声が来るようにマッチングし、当該節の第3ビートに翻訳音声が来るようにマッチングすることを特徴とする。
上述した課題の解決手段によれば、強/弱/中強/弱の4つのビートからなる4分の4拍子のリズムを持つ伴奏に、言葉(音声)の強勢を合わせてマッチングすることにより、伴奏の強勢と実際の単語の強勢が合うため耳に障らず、知らず知らずのうちに自然に単語の強勢が身に付き、情報伝達力が高いため学習効果を高めることができる。
本発明の一実施例によるマッチング方法を示す図面である。 本発明の他の実施例によるマッチング方法を示す図面である。 本発明の他の実施例によるマッチング方法を示す図面である。 本発明の他の実施例によりテキスト画像をマッチングした場合における、実際の出力画面の例示図である。 本発明の他の実施例によりテキスト画像をマッチングした場合における、実際の出力画面の例示図である。 本発明の他の実施例によりテキスト画像をマッチングした場合における、実際の出力画面の例示図である。 本発明の他の実施例によりテキスト画像をマッチングした場合における、実際の出力画面の例示図である。 本発明の他の実施例によりテキスト画像をマッチングした場合における、実際の出力画面の例示図である。 本発明の他の実施例によりテキスト画像をマッチングした場合における、実際の出力画面の例示図である。
以下、本発明の実施例について、添付の図面を参考に、その構成および作用を説明することとする。
以下の説明においては、学習しようとする単語として英単語を例に挙げて説明することとする。
本発明においては、単語(音声)とマッチングする伴奏は4分の4拍子であり、この4分の4拍子は一節が4分音符4つからなっており強/弱/中強/約を基本的な流れとする4ビート(beat)で構成される。
前記の強は強く(strong)、弱は弱く(weak)、中強は少し強く(middle strong)を意味する。
一方、英単語は、単語の音節に強勢(stress)があり、強勢のある音節では強く発音しなければならない。
下記表1は、音節がある英単語の類型を示したものである。
表1に示されたところのように、英単語の類型を、bell,rooster,abnegate,temporaryのように、第一音節に強勢がある強拍子型の単語と、tonight,underby,abiogenic,abiogeneticのように、第一音節でなく他の音節に強勢がある弱拍子型の単語とに分けることができる。
また、前記強拍子の単語は、その音節の数に応じて、bellのような強1音節、roosterのような強2音節、abnegateのような強3音節、temporaryのような強4音節等に区分することができる。
前記弱拍子は、第二音節に強勢があり(弱1音節)、その第二番目以降の音節数がいくつであるかに応じて、tonightのような弱1音節/強1音節、utensilのような弱1音節/強2音節、unanimousのような弱1音節/強3音節、contemporaryのような弱1音節/強4音節等に区分することができる。
また、第三音節に強勢があり(弱2音節)、その第三番目以降の音節数がいくつであるかに応じて、underbuyのような弱2音節/強1音節、universalのような弱2音節/強2音節、universityのような弱2音節/強3音節等に区分することができる。
また、第四音節に強勢があり(弱3音節)、その第四番目以降の音節数がいくつであるかに応じて、abiogenicのような弱3音節/強2音節、abiochemistryのような弱3音節/強3音節等に区分することができる。
また、第五音節に強勢があり、その第五番目以降の音節数がいくつであるかに応じて、abiogeneticのような弱4音節/強2音節等に区分することができる。
このような第一音節に強勢があるかないかに応じて強拍子型と弱拍子型に類型を示すことができ、弱拍子型の場合には、強勢のない音節以降の音節数と強勢のある音節以降の音節数に応じて、弱n音節と強n音節とに区分して類型を分けることができ、強拍子型の場合には、強勢のある第一音節以降の音節数に応じて、強n音節に区分して分けることができる。
このとき、前記したところのように、nは1〜4であることが分かる。
図1は、本発明の一実施形態による伴奏と音声のマッチング方法を説明するための図面である。
図1に示されたところのように、4分の4拍子の一節(bar)は、4つのビートからなり、このうち、第1ビートは強、第2ビートは弱、第3ビートは中強、第4ビートは弱、を基本的な流れとする。
前記4分の4拍子の節が多数繰り返されて一つの伴奏が構成されるが、本発明においては、約30節で一つの伴奏が構成される。
また、節一つに一つの単語の音声(原語音声と翻訳音声)を対応させるが、最初の音節に強勢がある強拍子型単語は、当該節の第1ビートに原語音声が来るようにマッチングし、第3ビートに翻訳音声が来るようにマッチングする。
すなわち、図1に示されたところのように、bell,rooster,abnegate,temporaryといった強拍子型単語は、当該節の第1ビートに、bell,rooster,abnegate,temporaryの原語音声をマッチングし、第3ビートに、鐘、雄鶏、放棄する、一時的な、の意味を持つ翻訳音声をマッチングする。
このとき、原語音声にマッチングされる第1ビートをさらに4等分して(1ビートは、16分音符4つからなる)、強1音節は第1ビートの1/4区域に、強2音節は第1ビートの1/4区域と2/4区域に、強3音節は第1ビートの1/4区域〜3/4区域に、強4音節は、第1ビートの1/4区域〜4/4区域に来るようにマッチングする。
すなわち、前記当該節の第1ビートを4等分して、原語音声の当該強n音節数だけ4等分された第1ビートの該当区域を前から占めるようにマッチングする。
第一音節に強勢のない弱拍子型単語は、当該節の第1ビートに合わせて原語音声の強n音節をマッチングし、前節の第4ビートに合わせて原語音声の弱n音節をマッチングし、第3ビートに合わせて翻訳音声をマッチングする。
このとき、強勢のある音節が第1ビートの1/4区域に位置するようにマッチングし、これを基準として残りの原語音声の音節を第1ビートと前節の第4ビートに対応するようにマッチングする。
すなわち、強2音節は第1ビートの1/4区域と2/4区域に、強3音節は第1ビートの1/4区域〜4/3区域に、強4音節は第1ビートの1/4区域〜4/4区域に対応するようにマッチングし、弱1音節は前節の第4ビートの4/4区域に、弱2音節は前節の第4ビートの3/4区域と4/4区域に、弱3音節は前節の第4ビートの2/4区域〜4/4区域に、弱4音節は1/4区域〜4/4区域に対応するようにマッチングする。
これをもう少し詳細に説明すると、図1に示されたところのように、弱拍子型単語のうち、弱1音節/強n音節からなる単語は、原語音声の弱1音節が前節の第4ビートの4/4区域に対応するようにマッチングし、原語音声の強n音節は前記強拍子型の場合と同様にマッチングする。
同様に、弱2音節/強n音節からなる単語は、原語音声の弱2音節が前節の第4ビートの3/4区域と4/4区域に対応するようにマッチングし、原語音声の強n音節は前記強拍子型の場合と同様にマッチングする。
このような方式で、弱n音節の原語音声が前節の第4ビートに、強n音節の原語音声は当該節の第1ビートに、翻訳音声は当該節の第3ビートに合わせてマッチングする。
すなわち、前記当該節の第1ビートを4等分して、原語音声の該当強n音節数だけ4等分された第1ビートの該当区域を前から占めるようにマッチングし、前記前節の第4ビートを4等分して、原語音声の該当弱n音節数だけ4等分された第4ビートの該当区域を後ろから占めるようにマッチングする。
図2と図3は、本発明の他の実施例によるマッチング方法を示す図面であって、伴奏と音声だけでなく、テキスト(イメージ)をマッチングする場合の図面である。
伴奏と音声は、図1に示したところのようにマッチングし、テキストのうち、原語テキストは前節の第4ビートから当該節の第3ビートまで出力されるようにマッチングし、翻訳テキストは当該節の第2ビートと第3ビートに出力されるようにマッチングする。
これにより、単語のテキストが画面に表示されてから、当該単語の音声が出力される。
本発明においては、テキスト(イメージ)がまず出力され、0.5秒〜0.7秒経過して音声が後から出力されるようにする。
図4〜図9は、本発明の他の実施例により、テキスト(イメージ)をマッチングした場合に、実際に出力される画面の例示図である。
本発明においては、原語テキストが画面に出力されてから、原語テキストが消えた後に翻訳テキストが新たに出力されるのでなく、原語テキスト画面に翻訳テキスト覆われる方式で出力される。これにより、前記した原語音声、翻訳音声と単語のテキストやイメージがマッチングされて再生される。

Claims (8)

  1. 一節が強(第1ビート)/弱(第2ビート)/中強(第3ビート)/弱(第4ビート)の4つのビートで構成される4分の4拍子からなる伴奏に、原語音声と翻訳音声からなる単語音声をマッチングさせる方法であって、
    前記節一つに単語一つが対応するようにマッチングし、
    前記単語を、第一音節に強勢がある強拍子型と第一音節に強勢がない弱拍子型とに区分して、
    強拍子型の単語は、当該節の第1ビートに原語音声が来るようにマッチングし、当該節の第3ビートに翻訳音声が来るようにマッチングし、
    弱拍子型の単語は、前節の第4ビートと当該節の第1ビートに原語音声が来るようにマッチングし、当該節の第3ビートに翻訳音声が来るようにマッチングすることを特徴とする、単語学習音楽ファイルのための伴奏と音声のマッチング方法。
  2. 前記強拍子型の単語は、第一音節以降の音節数に応じて強n(n=1〜4)音節に区分し、当該節の第1ビートを4等分に分けて、原語音声の当該強n音節数だけ4等分された第1ビートの当該区域を前から占めるようにマッチングすることを特徴とする、請求項1に記載の単語学習音楽ファイルのための伴奏と音声のマッチング方法。
  3. 前記弱拍子型の言葉は、強勢のない音節以降の音節数と強勢のある音節以降の音節数に応じて弱n(n=1〜4)音節と強n(n=1〜4)音節に区分して、弱n音節は前節の第4ビートに、強n音節は当該節の第1ビートに対応するようにマッチングすることを特徴とする、請求項1に記載の単語学習音楽ファイルのための伴奏と音声のマッチング方法。
  4. 前記当該節の第1ビートを4等分に分けて、原語音声の当該強n音節数だけ4等分された第1ビートの当該区域を前から占めるようにマッチングすることを特徴とする、請求項3に記載の単語学習音楽ファイルのための伴奏と音声のマッチング方法。
  5. 前記前節の第4ビートを4等分に分けて、原語音声の当該弱n音節数だけ4等分された第4ビートの該当区域を後ろから占めるようにマッチングすることを特徴とする、請求項3に記載の単語学習音楽ファイルのための伴奏と音声のマッチング方法。
  6. 前記単語のテキスト(イメージ)のうち、原語テキストは、前節の第4ビートから当該節の第3ビートまで画面に出力されるようにマッチングし、翻訳テキストは、当該節の第2ビートと第3ビートに画面に出力されるようにマッチングすることを特徴とする、請求項1〜5のいずれか一項に記載の単語学習音楽ファイルのための伴奏と音声のマッチング方法。
  7. 前記単語のテキストが画面に表示され、0.5〜0.7秒経過後に単語音声が画面に出力されるようにマッチングすることを特徴とする、請求項6に記載の単語学習音楽ファイルのための伴奏と音声のマッチング方法。
  8. 前記原語音声、翻訳音声と単語のテキストやイメージがマッチングされて再生されることを特徴とする、請求項1〜5のいずれか一項に記載の単語学習音楽ファイルのための伴奏と音声のマッチング方法。
JP2013536546A 2011-07-07 2012-07-05 単語学習音楽ファイルのための伴奏と音声のマッチング方法 Pending JP2014500525A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0067192 2011-07-07
KR1020110067192A KR101112422B1 (ko) 2011-07-07 2011-07-07 단어학습 음악파일을 위한 반주와 음성의 매칭방법
PCT/KR2012/005331 WO2013005997A2 (ko) 2011-07-07 2012-07-05 단어학습 음악파일을 위한 반주와 음성의 매칭방법

Publications (1)

Publication Number Publication Date
JP2014500525A true JP2014500525A (ja) 2014-01-09

Family

ID=45840190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013536546A Pending JP2014500525A (ja) 2011-07-07 2012-07-05 単語学習音楽ファイルのための伴奏と音声のマッチング方法

Country Status (5)

Country Link
JP (1) JP2014500525A (ja)
KR (1) KR101112422B1 (ja)
CN (1) CN103221987A (ja)
SG (1) SG187533A1 (ja)
WO (1) WO2013005997A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247768A (zh) * 2017-06-05 2017-10-13 北京智能管家科技有限公司 语音点歌方法、装置、终端及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105280206B (zh) * 2014-06-23 2018-08-07 广东小天才科技有限公司 一种音频的播放方法、装置
KR20190046312A (ko) 2017-10-26 2019-05-07 주식회사 앰버스 영어 능력 개선 장치 및 방법
KR20210015064A (ko) * 2019-07-31 2021-02-10 삼성전자주식회사 전자장치와 그의 제어방법, 및 기록매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331087A (ja) * 2000-05-18 2001-11-30 Akihiro Kawamura 外国語学習支援装置
JP2011013295A (ja) * 2009-06-30 2011-01-20 Brother Industries Ltd 配信装置及び配信方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050007017A (ko) * 2003-07-10 2005-01-17 남창우 바로크 음악과 주기 반복을 통한 외국어 학습3시스템구현방법
KR20060028839A (ko) * 2004-09-30 2006-04-04 박순복 뜻과 소리로 풀어가는 저절로 연상영어 학습방법과 그 학습방법이 이용된 기록매체와 전자매체
KR101025665B1 (ko) * 2009-10-16 2011-03-30 박상철 음악기반 언어 학습방법과 이를 활용한 학습장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331087A (ja) * 2000-05-18 2001-11-30 Akihiro Kawamura 外国語学習支援装置
JP2011013295A (ja) * 2009-06-30 2011-01-20 Brother Industries Ltd 配信装置及び配信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247768A (zh) * 2017-06-05 2017-10-13 北京智能管家科技有限公司 语音点歌方法、装置、终端及存储介质

Also Published As

Publication number Publication date
CN103221987A (zh) 2013-07-24
WO2013005997A2 (ko) 2013-01-10
WO2013005997A3 (ko) 2013-04-11
SG187533A1 (en) 2013-03-28
KR101112422B1 (ko) 2012-02-27

Similar Documents

Publication Publication Date Title
Prauscello Singing Alexandria: music between practice and textual transmission
Eidsheim Synthesizing race: Towards an analysis of the performativity of vocal timbre
Engwall et al. Designing the user interface of the computer-based speech training system ARTUR based on early user tests
Zhan et al. The role of technology in teaching and learning Chinese characters
Hailpern et al. Vocsyl: Visualizing syllable production for children with ASD and speech delays
Bundgaard-Nielsen et al. Discrimination of multiple coronal stop contrasts in Wubuy (Australia): A natural referent consonant account
KR101102520B1 (ko) 한글 자모의 메트릭스 결합 관계를 기반으로 하는 시청각 한글학습 시스템 및 그 운영 방법
Bliss et al. Seeing speech: Ultrasound-based multimedia resources for pronunciation learning in indigenous languages
US20100318346A1 (en) Second language pronunciation and spelling
JP2014500525A (ja) 単語学習音楽ファイルのための伴奏と音声のマッチング方法
Lacabex et al. Two phonetic-training procedures for young learners: Investigating instructional effects on perceptual awareness
Schwartz Writing Chiwere: Orthography, literacy, and language revitalization
Gilbert De-scribing orality: performance and the recuperation of voice
Guillén Galve et al. New research genres and English prosody: an exploratory analysis of academic English intonation in Video Methods Articles in experimental biology
Bowden Punjabi tonemics and the Gurmukhi script: A preliminary study
Yoo et al. Teaching Korean rhythms in music class through improvisation, composition, and student performance
Nadeem et al. Stress out of stress: stressing unaccented syllables dilemma
Yang Teaching Chinese intonation and rhythm
Gajewska Why has phonodidactics become “the neglected orphan” of ESL/EFL pedagogy? Explaining methodology-and ELF--related motives behind a reluctance towards pronunciation teaching
Wakefield Cantonese as a second language: Issues, experiences and suggestions for teaching and learning
JP7383325B1 (ja) 英語学習システム、英語教授方法及びプログラム
Dogantan-Dack Practice-as-research in music performance
Mahatkarsa et al. Android-Based Flute Learning Media
Park Lexical stress sensitivity and reading in English: A systematic review and two empirical explorations among Korean-English bilinguals
Nushi et al. Google dictionary: A critical review

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140530

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140827

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141216