JP4669988B2 - Language learning device - Google Patents

Language learning device Download PDF

Info

Publication number
JP4669988B2
JP4669988B2 JP2005021734A JP2005021734A JP4669988B2 JP 4669988 B2 JP4669988 B2 JP 4669988B2 JP 2005021734 A JP2005021734 A JP 2005021734A JP 2005021734 A JP2005021734 A JP 2005021734A JP 4669988 B2 JP4669988 B2 JP 4669988B2
Authority
JP
Japan
Prior art keywords
learner
sound
voice
speech
phoneme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005021734A
Other languages
Japanese (ja)
Other versions
JP2006208806A (en
Inventor
隆弘 足立
玲子 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005021734A priority Critical patent/JP4669988B2/en
Publication of JP2006208806A publication Critical patent/JP2006208806A/en
Application granted granted Critical
Publication of JP4669988B2 publication Critical patent/JP4669988B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a language learning device capable of effectively presenting a stimulation sound for learning whose acoustic features are operated to a learner. <P>SOLUTION: In the foreign language learning device 300, a hard disk 324 stores a model speech of a foreign language in the form of an original speech database 3242 and also stores the degree of attainment of a learner and amplification rages of acoustically featured parts included in the model speech in the form of an amplification degree database 3246 while making them correspond to each other. A learning control section 3220 synthesizes a stimulation speech by selectively amplifying acoustically featured parts at a designated amplification rate and updates the amplification rate into a less one when a correct answer rate when the stimulation speech is imparted to the learner meets level-up conditions predetermined according to the degree of attainment. <P>COPYRIGHT: (C)2006,JPO&amp;NCIPI

Description

本発明は、言語学習を行うための言語学習装置の構成に関する。   The present invention relates to a configuration of a language learning apparatus for performing language learning.

近年、コンピュータで実現される文字または音声の入出力システムや、リレーショナルデータベースシステム、音声認識システムを外国語の学習に利用する試みが盛んに行われている。すなわち、このような外国語学習装置においては、学習者は、コンピュータが出題する問題に応じて、キーボード操作やマウス操作または音声により回答をパーソナルコンピュータに入力する。そして、上記パーソナルコンピュータに搭載された当該外国語に対応したデータベースシステムや音声認識システムが、学習者の理解度や発音の正しさを判定し、その結果を学習者へのフィードバックとして表示するという方式である。   In recent years, there have been many attempts to use a character or speech input / output system implemented by a computer, a relational database system, or a speech recognition system for learning a foreign language. That is, in such a foreign language learning apparatus, the learner inputs an answer to the personal computer by a keyboard operation, a mouse operation, or a voice in accordance with a problem to be asked by the computer. The database system and the speech recognition system corresponding to the foreign language installed in the personal computer determine the learner's understanding and correctness of pronunciation and display the result as feedback to the learner. It is.

また、学習者に自分の発音した文章について、各単語毎に評価点を示し、学習者の発音した外国語の文章に対する発音の評価結果を、学習者の外国語発音練習に対して効率的にフィードバックするための外国語学習装置も提案されている(たとえば、特許文献1を参照)。   Also, the learner's pronunciation of the sentence is indicated for each word, and the pronunciation evaluation result for the learner's pronunciation of the foreign language sentence is efficiently used for the learner's pronunciation of the foreign language. A foreign language learning apparatus for feedback is also proposed (see, for example, Patent Document 1).

ところで、これまで、効果的な学習を可能にすることを目的とし、学習用刺激として用いる音声を操作し、音響的特徴の強調や話速の操作などを行う学習実験が数多く行われてきたものの、その結果として芳しい結果が得られたとはいい難い状況である。   By the way, many learning experiments have been conducted so far, in order to enable effective learning, operating voices used as learning stimuli, enhancing acoustic features, controlling speech speed, etc. As a result, it is difficult to obtain a good result.

その一方、音声刺激を高音質の音声(CDクォリティ)、ストリーミング放送品質音声(インターネットラジオ等)、携帯電話品質音声にそれぞれ変換し、まずこれらの明瞭性を日本語母語話者、米語母語話者で測定した後に、次に日本語母語話者を被験者とし、これら音声を用いて学習実験を行った結果、米語母語話者にとって明瞭性の高い音声形式(および音韻)を学習刺激として使用した群は訓練効果が認められたが、明瞭性の低い音声形式で学習を行った群では訓練効果が低い、または認められなかったことが報告されている(たとえば、非特許文献1、非特許文献2を参照)。   On the other hand, voice stimuli are converted into high-quality sound (CD quality), streaming broadcast quality sound (Internet radio, etc.) and mobile phone quality sound, respectively. First, these intelligibility is converted into Japanese native speakers and American native speakers. After measuring the above, the results of conducting a learning experiment using Japanese native speakers as subjects, and using a speech format (and phonology) that was clear to American native speakers as a learning stimulus. However, it was reported that the training effect was low or was not recognized in the group in which learning was performed in a speech format with low clarity (for example, Non-Patent Document 1 and Non-Patent Document 2). See).

これらのことを合わせて検討すると、従来行われていた刺激の操作では、何らかの音響的操作を行っているものの、その結果として明瞭性の操作は行えていない可能性が高く、その結果、訓練効果に対しても有意な差が出ていない可能性が考えられる。
特開2001−265211号公報明細書 足立、山田、「圧縮音声の第二言語音声学習利用に関する妥当性の検討」,日本音響学会講演論文集,3−5−19,pp.503−504(2003.3) 足立、山田、「第二言語の音韻知覚学習に及ぼす音声品質の影響――QCELP形式とPCM形式の比較」,2004年春季研究発表会(ASJ)講演論文集,pp.437−438
Considering these things together, it is highly likely that some conventional acoustic manipulations have been performed acoustically, but as a result, clarity has not been achieved, resulting in training effects. It is possible that there is no significant difference for.
JP 2001-265 211 A Adachi, Yamada, “Examination of Validity of Second Language Speech Learning Using Compressed Speech”, Acoustical Society of Japan, 3-5-19, pp. 503-504 (20033.3) Adachi, Yamada, “Effect of speech quality on phonological perception learning in second language: Comparison between QCELP and PCM formats”, 2004 Spring Meeting (ASJ) Proceedings, pp. 437-438

さらに、音韻対立によって、音響的差異、聴取時の手掛かりが一般には共に異なる。そのため、たとえば、/r/と/l/(以下RLと略す)、/b/と/v/(以下BVと略す)、/s/と/θ/(以下STHと略す)は、日本語母語話者にとって知覚困難な音韻だが、雑音付加の影響がそれぞれ異なる可能性がある。このように、ある母語を有する話者にとって、知覚弁別に困難がある音韻対を「音韻対立のある音韻対」と呼ぶことにする。   Furthermore, acoustic differences and clues at the time of listening generally differ due to phoneme conflicts. Therefore, for example, / r / and / l / (hereinafter abbreviated as RL), / b / and / v / (hereinafter abbreviated as BV), / s / and / θ / (hereinafter abbreviated as STH) are Japanese native languages. The phoneme is difficult to perceive for the speaker, but the effect of adding noise may be different. Thus, for a speaker having a certain native language, a phoneme pair having difficulty in perceptual discrimination will be referred to as a “phoneme pair having a phoneme conflict”.

このため、たとえば、雑音が同じ強度で音響的特徴をマスクした場合でも、音韻知覚を行う際に使用している音響的特徴が被験者の母語によって異なるため、学習者にとっての明瞭性が異なる可能性もある。したがって、このような音韻対立のある音韻対は、まさに、学習者が聞き取り学習の対象とするべきものであるものの、学習者の母語によって、また、対立する音韻の種類によって、音響的操作を動的に変更する必要性がある可能性があることになる。   For this reason, for example, even when noise masks acoustic features with the same intensity, the acoustic features used for phonological perception differ depending on the subject's native language, so the clarity for the learner may vary There is also. Therefore, a phoneme pair with such a phoneme conflict is exactly what the learner should be listening to, but the acoustic operation is controlled by the learner's native language and by the type of the phoneme that conflicts. There may be a need to change.

しかしながら、従来は、外国語の学習において、学習者に対し、どのように音響的特徴が操作された学習用の刺激音を呈示するかについて、その方法が必ずしも明らかでない、という問題があった。   However, conventionally, in learning a foreign language, there has been a problem that the method is not always clear as to how to present a learning stimulus sound with an acoustic feature manipulated to a learner.

本発明は、上記のような問題を解決するためになされたものであって、その目的は、音響的特徴が操作された学習用の刺激音を効果的に学習者に呈示することが可能な言語学習装置を提供することである。   The present invention has been made to solve the above-described problems, and its purpose is to effectively present a learning stimulus sound in which an acoustic feature is manipulated to a learner. It is to provide a language learning device.

このような目的を達成するために、本発明の言語学習装置は、言語のモデル音声を記憶するとともに、学習者の到達度と当該モデル音声に含まれる音響的特徴部分の強調率とを対応付けて記憶するための記憶手段と、モデル音声について、指定された強調率当該モデル音声の音響的特徴部分を選択的に強調した刺激音声を合成するための刺激音合成手段とを備え、刺激音合成手段は、記憶手段から入力されたモデル音声の各々において、音響的特徴部分が存在する時間軸上の位置を特定するための検出手段を含み、刺激音合成手段は、特定された位置に応じて、音響的特徴部分を選択的に強調し、刺激音声を課題として学習者に与えるための音声信号を当該刺激音声を再生する音声出力装置に対して出力し、当該学習者からの回答を受付けるためのインタフェース手段と、強調率を指定して課題として与えられた刺激音声に対する当該学習者の正答率を算出して、刺激音合成手段を制御し、学習者に対して刺激音声を与えた場合の正答率が、到達度に応じて予め定められるレベルアップ条件を満たすことに応じて、刺激音合成手段に対して指定する強調率を減少させるように更新する学習制御手段とをさらに備える。
好ましくは、記憶手段は、モデル音声と関連付けて、モデル音声の時間軸上のいずれの位置に当該モデル音声についての音響的特徴を有する音韻の成分が存在するかを示す位置情報を格納しており、検出手段は、位置情報に基づいて、音響的特徴部分が存在する時間軸上の位置を特定する。
好ましくは、刺激音合成手段は、モデル音声に対して周波数分析を行って、当該モデル音声中の音韻の音響的特徴をパラメータ化する周波数分析手段をさらに含み、検出手段は、周波数分析手段の分析結果に基づいて、音響的特徴部分が存在する時間軸上の位置を特定する。
In order to achieve such an object, the language learning device of the present invention stores a model speech of a language and associates a learner's achievement with an enhancement rate of an acoustic feature portion included in the model speech. storage means for storing Te, the model voice, a stimulus sound synthesizing means for synthesizing selectively emphasized stimulate speech acoustic characteristic portion of the model voice given emphasis ratio, stimuli The synthesizing unit includes a detecting unit for identifying a position on the time axis where the acoustic feature portion exists in each of the model sounds input from the storage unit, and the stimulation sound synthesizing unit is in accordance with the identified position. Then, the acoustic features are selectively emphasized, and a sound signal for giving the stimulus sound to the learner as a task is output to the sound output device that reproduces the stimulus sound, and an answer from the learner is received. And interface means for, by calculating the correct rate of the learner with respect to a given stimulus speech as a problem by specifying the enhancement factor, and controls the stimuli synthesis means, when stimulated speech for the learner correct answer rate of, in response to the level-up condition is satisfied, which is predetermined according to achievement, further comprising a learning control means for updating to reduce the enhancement rate specified for stimuli synthetic means.
Preferably, the storage unit stores positional information indicating in which position on the time axis of the model voice a phonological component having an acoustic characteristic of the model voice exists in association with the model voice. The detecting means specifies the position on the time axis where the acoustic feature portion exists based on the position information.
Preferably, the stimulus sound synthesis means further includes frequency analysis means for performing frequency analysis on the model voice and parameterizing the acoustic characteristics of the phonemes in the model voice, and the detection means is analyzed by the frequency analysis means. Based on the result, the position on the time axis where the acoustic feature portion exists is specified.

好ましくは、学習制御手段は、学習者に対して刺激音声を与えた場合の正答率が、到達度に応じて予め定められるレベルダウン条件を満たすことに応じて、増幅率を増加させるように更新する。   Preferably, the learning control unit updates the amplification rate so that the correct answer rate when the stimulus is given to the learner satisfies a level-down condition that is determined in advance depending on the degree of achievement. To do.

好ましくは、音響的特徴部分は、対立音韻部分に対応し、記憶手段は、到達度を対立音韻ごとに分類して格納しており、学習制御手段は、刺激音合成手段に、指定された対立音韻ごとに、記憶手段に格納された到達度を参照して刺激音声を生成させ、インタフェース手段は、生成された刺激音を学習者に対して呈示するための音声信号を出力する。 Preferably, the acoustic feature portion corresponds to the opposite phoneme portion, the storage means classifies and stores the degree of achievement for each opposite phoneme, and the learning control means sends the specified conflict to the stimulus sound synthesis means. for each phoneme, with reference to the stored achievement in the storage means to generate a stimulus sound, interface means outputs the audio signal for presenting the generated stimuli voice for the learner.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

なお、以下では、本発明を説明するにあたり、日本語を母語とする学習者が、英語を学習する場合を例にとって説明する。ただし、本発明は、日本語以外を母語とする学習者が、母語以外の言語を学習する場合にも適用できるものであり、より一般に、外国語学習装置に適用可能なものである。   In the following description, the present invention will be described by taking as an example a case where a learner whose native language is Japanese learns English. However, the present invention can also be applied to a case where a learner whose mother tongue is other than Japanese learns a language other than his / her native language, and more generally can be applied to a foreign language learning apparatus.

また、本発明は、母語の聴取が未熟な学習者が自身の母語について学習する場合に、さらに一般的な言語学習装置としても適用可能なものである。この場合は、以下の説明において、学習者にとっての外国語の母語話者には、学習者の母語の母語習熟者が相当するものとすればよい。   The present invention can also be applied as a more general language learning device when a learner who is not sufficiently familiar with the native language learns about his / her own native language. In this case, in the following description, the learner's native language proficiency may correspond to the foreign language native speaker for the learner.

後に説明するように、英単語音声に対して複数の性質の異なる雑音を付加し、日本語母語話者と米語母語話者に対して呈示した場合、雑音の種類や強度が明瞭性に及ぼす影響(正答率という絶対値ではなく、その相対的な傾向)は両者で異なることが実験により明らかになった。このことは、雑音が同じ強度で音響的特徴をマスクした場合でも、音韻知覚を行う際に使用している音響的特徴が被験者の母語によって異なるため、明瞭性が異なることを示唆している。たとえば、破裂音に関しては、破裂音成分の選択的強調や音量の操作により、明瞭性を操作することが可能であることが実験の結果で示唆された。   As will be explained later, the effects of noise type and intensity on clarity when multiple noises with different characteristics are added to English speech and presented to native Japanese speakers and native American speakers Experiments have shown that the percentage of correct answers is not an absolute value but a relative trend. This suggests that, even when noise masks the acoustic features with the same intensity, the clarity is different because the acoustic features used when performing phonological perception differ depending on the mother tongue of the subject. For example, with regard to plosives, experimental results suggested that clarity can be manipulated by selectively emphasizing plosive components and manipulating volume.

本発明の外国語学習装置は、このような知見を用いて、初等学習者に対しては明瞭性の高い音声を呈示して訓練効果を高め、一定の能力が身に付いた後に音響的特徴を操作することにより明瞭性を低下させ、次第により困難な課題を学習させ、最終的に母語話者に近い能力を習得させるという方法を用いるものである。   The foreign language learning apparatus of the present invention uses such knowledge to present a clear voice to the primary learner to enhance the training effect, and to acquire the acoustic characteristics after having acquired a certain ability Is used to reduce clarity, gradually learn more difficult tasks, and finally acquire the ability close to the native speaker.

(本発明のシステム構成)
図1は、本発明の外国語学習装置を用いたシステム1000の一例を示す概念図である。
(System configuration of the present invention)
FIG. 1 is a conceptual diagram showing an example of a system 1000 using the foreign language learning apparatus of the present invention.

図1を参照して、システム1000は、学習者2に対してある難易度のステップの学習課題を順次提示して、学習者からの課題に対する回答に基づいて、学習者に当該ステップに対する訓練を与えるか、または次のステップの学習課題をさらに学習者に提示していくという処理を実行するためのコンピュータ100を備える。   Referring to FIG. 1, the system 1000 sequentially presents learning tasks of a certain difficulty level to the learner 2, and trains the learner for the step based on answers to the tasks from the learner. The computer 100 for performing the process of giving or presenting the learning subject of the next step to a learner further is provided.

このコンピュータ100は、CD−ROM(Compact Disc Read-Only Memory )などの記録媒体上の情報を読込むためのディスクドライブ108およびフレキシブルディスク(Flexible Disk、以下FD)116に情報を読み書きするためのFDドライブ106を備えたコンピュータ本体102と、コンピュータ本体102に接続された表示装置としてのディスプレイ104と、同じくコンピュータ本体102に接続された入力装置としてのキーボード110およびマウス112と、音声入力装置としてのマイク132と、音声出力装置としてのスピーカ134とを含む。   The computer 100 includes a disk drive 108 for reading information on a recording medium such as a CD-ROM (Compact Disc Read-Only Memory) and an FD drive 106 for reading / writing information on a flexible disk (FD) 116. A computer main body 102, a display 104 as a display device connected to the computer main body 102, a keyboard 110 and a mouse 112 as input devices also connected to the computer main body 102, and a microphone 132 as a voice input device. And a speaker 134 as an audio output device.

なお、マイク132やスピーカ134は、ヘッドセットによりユーザ2が装着するヘッドフォンとマイクとすることもできる。   Note that the microphone 132 and the speaker 134 may be a headphone and a microphone worn by the user 2 using a headset.

システム1000は、さらに、学習者2に対して与える課題を呈示するためのサーバコンピュータ300と、サーバコンピュータ300とコンピュータ100とを接続するためのネットワーク400とを備える。ネットワークとしては、たとえば、インターネット等を用いることができる。すなわち、以下の説明では、コンピュータ102本体はクライアント機としての機能するものとして説明する。ただし、サーバ300での問題呈示の機能をコンピュータ100自体が保持していてもよい。   The system 1000 further includes a server computer 300 for presenting a task to be given to the learner 2, and a network 400 for connecting the server computer 300 and the computer 100. As the network, for example, the Internet or the like can be used. That is, in the following description, the computer 102 main body will be described as functioning as a client machine. However, the computer 100 itself may hold the function of presenting a problem in the server 300.

したがって、本発明において、主要な部分は、問題呈示機能を有する外国語学習問題呈示装置であるサーバコンピュータ300である。   Therefore, in the present invention, the main part is the server computer 300 which is a foreign language learning problem presentation device having a problem presentation function.

図2は、このサーバコンピュータ300のハードウェア構成をブロック図形式で示す図である。   FIG. 2 is a block diagram showing the hardware configuration of the server computer 300. As shown in FIG.

サーバコンピュータ300は、コンピュータ本体302と、コンピュータ本体302に接続された表示装置としてのディスプレイ304と、同じくコンピュータ本体302に接続された入力装置としてのキーボード310およびマウス312とを含む。   The server computer 300 includes a computer main body 302, a display 304 as a display device connected to the computer main body 302, and a keyboard 310 and a mouse 312 as input devices also connected to the computer main body 302.

図2に示されるように、コンピュータ本体302は、ディスクドライブ308およびFDドライブ306に加えて、それぞれバスBSに接続されたCPU(Central Processing Unit )320と、ROM(Read Only Memory)およびRAM(Random Access Memory)を含むメモリ322と、直接アクセスメモリ装置、たとえば、ハードディスク324と、ネットワーク400と通信を行うためのインタフェース328とを含んでいる。ディスクドライブ108には、たとえば、CD−ROM318が装着される。FDドライブ306にはFD316が装着される。   As shown in FIG. 2, in addition to the disk drive 308 and the FD drive 306, the computer main body 302 includes a CPU (Central Processing Unit) 320, ROM (Read Only Memory), and RAM (Random) connected to the bus BS, respectively. A memory 322 including an Access Memory, a direct access memory device, such as a hard disk 324, and an interface 328 for communicating with the network 400. For example, a CD-ROM 318 is mounted on the disk drive 108. An FD 316 is attached to the FD drive 306.

後に説明するように、本発明の外国語学習装置が動作するにあたっては、その動作の基礎となる情報を格納するデータベースは、ハードディスク324に格納されるものとして説明を行う。   As will be described later, when the foreign language learning apparatus of the present invention operates, a database that stores information that is the basis of the operation will be described as being stored in the hard disk 324.

なお、CD−ROM118は、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体であれば、他の媒体、たとえば、DVD−ROM(Digital Versatile Disc)やメモリカードなどでもよく、その場合は、コンピュータ本体302には、これらの媒体を読取ることが可能なドライブ装置が設けられる。   The CD-ROM 118 may be another medium, such as a DVD-ROM (Digital Versatile Disc) or a memory card, as long as it can record information such as a program installed in the computer main body. In this case, the computer main body 302 is provided with a drive device that can read these media.

本発明の外国語学習装置の主要部は、コンピュータハードウェアと、CPU320により実行されるソフトウェアとにより構成される。一般的にこうしたソフトウェアはCD−ROM318、FD316等の記憶媒体に格納されて流通し、ディスクドライブ308またはFDドライブ306等により記憶媒体から読取られてハードディスク324に一旦格納される。または、当該装置がネットワーク400に接続されている場合には、ネットワーク上の他のサーバから一旦ハードディスク324にコピーされる。そうしてさらにハードディスク324からメモリ322中のRAMに読出されてCPU320により実行される。なお、ネットワーク接続されている場合には、ハードディスク324に格納することなくRAMに直接ロードして実行するようにしてもよい。   The main part of the foreign language learning apparatus of the present invention is composed of computer hardware and software executed by the CPU 320. Generally, such software is stored and distributed in a storage medium such as a CD-ROM 318 or FD 316, read from the storage medium by the disk drive 308 or FD drive 306, and temporarily stored in the hard disk 324. Alternatively, when the device is connected to the network 400, it is temporarily copied to the hard disk 324 from another server on the network. Then, the data is further read from the hard disk 324 to the RAM in the memory 322 and executed by the CPU 320. In the case of network connection, the program may be directly loaded into the RAM and executed without being stored in the hard disk 324.

図1および図2に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、FD316、CD−ROM318、ハードディスク324等の記憶媒体に記憶されたソフトウェアである。   The computer hardware itself and its operating principle shown in FIGS. 1 and 2 are general. Therefore, the most essential part of the present invention is software stored in a storage medium such as the FD 316, the CD-ROM 318, and the hard disk 324.

図1に示したように、コンピュータ100がネットワーク400を介してサーバ300に接続している場合において、動作の基礎となる情報を格納するデータベースが、サーバ300内のハードディスク324等の記憶装置に格納されているときは、コンピュータ100はクライアント機として動作し、以下に説明するような学習者に与える課題のデータをサーバ300から受け取りこれを表示または出力し、回答のデータをサーバに返すという処理を行う。   As shown in FIG. 1, when the computer 100 is connected to the server 300 via the network 400, a database that stores information that is the basis of the operation is stored in a storage device such as the hard disk 324 in the server 300. When the computer 100 is operated, the computer 100 operates as a client machine, receives the assignment data given to the learner as described below from the server 300, displays or outputs it, and returns the answer data to the server. Do.

図3は、本発明の外国語学習装置の構成を機能ブロックで示す図である。   FIG. 3 is a functional block diagram showing the configuration of the foreign language learning apparatus of the present invention.

図3に示すとおり、CPU320内には、機能ブロックとして、音声処理プログラムに基づいて、周波数分析を実行する周波数分析部3202と、音声の明瞭化処理を行う明瞭化処理部3204と、外国語学習プログラムに基づいて、後に説明するような問題呈示フローを制御する学習制御部3220が含まれる。   As shown in FIG. 3, in the CPU 320, as a functional block, a frequency analysis unit 3202 that performs frequency analysis based on a speech processing program, a clarification processing unit 3204 that performs speech clarification processing, and a foreign language learning A learning control unit 3220 for controlling a problem presentation flow as will be described later is included based on the program.

なお、以下の説明では、音声の明瞭化処理において、「音韻の強調」は、当該音韻部分を選択的に増幅することにより行うものとして説明する。ただし、当該音韻以外の不要部分を選択的に減衰させることによっても当該音韻について「音韻の強調」を行うことができる。   In the following description, it is assumed that “phoneme enhancement” is performed by selectively amplifying the phoneme portion in the speech clarification process. However, “phoneme enhancement” can also be performed on the phoneme by selectively attenuating unnecessary portions other than the phoneme.

また、CPU120とバスBSにより接続されるハードディスク324内には、学習者2に提示するためのモデル音声であって無響室などで録音された英語を母国語とする話者によるオリジナル音声データを格納したオリジナル音声データベース3242と、予め用意された正答率と到達レベルとの対応関係を学習する音韻ごとに示す対応テーブルを格納する到達レベルデータベース3244と、予め用意された到達レベルと音響的特徴部分に対する増幅量の対応テーブルを格納する増幅度データベース3246と、対立音韻等の音響的な特徴部分の存在を検出する際に用いられる音韻音響モデルを記録した音韻音響モデルデータベース3248とが、記録されているものとする。音韻音響モデルとしては、特に限定されないが、たとえば、隠れマルコフモデルを用いることができる。   Also, in the hard disk 324 connected to the CPU 120 by the bus BS, original voice data by a speaker whose native language is English recorded in an anechoic room or the like is model voice to be presented to the learner 2. The stored original speech database 3242, the arrival level database 3244 storing a correspondence table shown for each phoneme for learning the correspondence between the correct answer rate and the arrival level prepared in advance, the arrival level and acoustic feature portion prepared in advance An amplification degree database 3246 that stores a correspondence table of amplification amounts with respect to sound, and a phonological acoustic model database 3248 that records a phonological acoustic model used when detecting the presence of an acoustic feature such as an opposite phoneme are recorded. It shall be. The phonological acoustic model is not particularly limited. For example, a hidden Markov model can be used.

ここで、学習者2に提示する刺激音(学習用のモデル音声)は、オリジナル音声データベース3242内のデータに、後に説明するように明瞭化処理部3204で音響的特徴部分に対する選択的な増幅を行うことで生成される。   Here, the stimulating sound (model voice for learning) to be presented to the learner 2 is selectively amplified with respect to the acoustic feature portion by the clarification processing unit 3204 as will be described later on the data in the original voice database 3242. Generated by doing.

また、到達レベルデータベース3244に格納されるデータは、たとえば、正答率10%区切りにすることが考えられる他、70%までは10%区切り、それ以上は5%区切りのように難易度に関する詳細な設定も可能とする。なお、到達レベルは学習音韻毎に予め設定されているものとする。このとき、到達レベルの区分は、学習対象となる音韻(音響的特徴部分、たとえば、対立音韻部分)ごとに、異なる区分わけとしていてもよい。   Further, the data stored in the achievement level database 3244 may be divided into 10% correct answer ratios, for example, 10% up to 70%, and 5% for more than 70%. Setting is also possible. Note that the reaching level is set in advance for each learning phoneme. At this time, the division of the reaching level may be different for each phoneme (acoustic feature portion, for example, an opposite phoneme portion) to be learned.

(音響的特徴の強調)
図4は、図3で説明した周波数分析部3202や、明瞭化処理部3204の動作をより詳しく説明するためのブロック図である。
(Enhancement of acoustic features)
FIG. 4 is a block diagram for explaining the operations of the frequency analysis unit 3202 and the clarification processing unit 3204 described in FIG. 3 in more detail.

図4を参照して、周波数分析部202は、デジタル量子化されているオリジナル音声データを受け取って、FFT(Fast Fourier Transform)もしくはウェーブレット(wavelet)変換などのアルゴリズムを用いて変換して周波数分析をし、音声信号中に含まれる
各周波数成分の強度を時系列で分割して解析し、当該音韻の音響的特徴をパラメータ化する。この部分は、このように学習時に逐次演算を行う方法以外にも、たとえば、予め演算済みのデータを格納しておくこととしてもよい。
Referring to FIG. 4, frequency analysis unit 3 202 receives digitally quantized original voice data, converts it using an algorithm such as FFT (Fast Fourier Transform) or wavelet transform, and performs frequency analysis. The intensity of each frequency component contained in the speech signal is divided and analyzed in time series, and the acoustic features of the phoneme are parameterized. In this part, in addition to the method of performing the sequential calculation at the time of learning as described above, for example, data that has been calculated in advance may be stored.

続いて、対立音韻検出部3206は、以下のようにして、音響的特徴を検出して、特徴部分を選択的に増幅処理部3208に送る。すなわち、知覚に用いられる音響的特徴は音韻によって異なり、また、複数の特徴を併用していると言われている。本装置では複数存在する音響的特徴のうち、代表的な物を強調する。以下はその例である。   Subsequently, the conflict phoneme detection unit 3206 detects an acoustic feature as follows and selectively sends the feature portion to the amplification processing unit 3208. In other words, it is said that the acoustic features used for perception vary depending on phonemes, and a plurality of features are used in combination. In this apparatus, a representative thing is emphasized among a plurality of acoustic features. The following is an example.

1)/r/−/l/対立の場合、第三フォルマントの遷移が弁別に用いられると考えられていることから、周波数分析を行った後にフォルマントトラッキングを行い、/r/または/l/音韻が発話されている領域の第三フォルマントとして検出された周波数帯の周波数成分については増幅処理部3208で増幅する。       1) In the case of / r /-/ l / conflict, it is considered that the transition of the third formant is used for discrimination. Therefore, formant tracking is performed after frequency analysis, and / r / or / l / phoneme. The frequency processing component 3208 amplifies the frequency component of the frequency band detected as the third formant in the region where is uttered.

2)/b/−/v/対立の場合、/b/に存在するバズバーと呼ばれるパルス状の音響成分などが弁別に使用されていると考えられる。そこで、破裂音の存在する部分とその周辺の全周波数成分については増幅処理部3208で増幅する。       2) In the case of / b / − / v / conflict, it is considered that a pulsed acoustic component called buzz bar existing in / b / is used for discrimination. Therefore, the amplification processing unit 3208 amplifies the portion where the plosive sound exists and all the frequency components around it.

3)/s/−/th/は、摩擦音成分が表れる周波数帯域(上限、下限、幅など)によって弁別が行われると考えられる。そこで、摩擦音成分が存在する領域の全周波数成分については増幅処理部3208で増幅する。       3) It is considered that / s / − / th / is discriminated by a frequency band (upper limit, lower limit, width, etc.) in which a frictional sound component appears. Therefore, the amplification processing unit 3208 amplifies all frequency components in the region where the frictional sound component exists.

まず、前提として、オリジナル音声データベース3242には、オリジナル音声のデジタルデータと関連付けて、各オリジナル音声データにおいて、時間軸上でどこに上述したような音響的特徴を有する音韻の成分が存在しているかというデータも格納しているものとする。   First, as a premise, in the original voice database 3242, in relation to the digital data of the original voice, where in each original voice data the phoneme component having the acoustic characteristics as described above exists on the time axis. It is assumed that data is also stored.

つまり、対立音韻検出部3206は、オリジナル音声データベース3242から、音韻成分の位置情報を受け取って、オリジナル音声データにおいていずれの音響的特徴成分も存在しない位置の場合、増幅処理部3208に対して増幅処理を行わなずそのまま出力することを指示する。これに対して、対立音韻検出部3206は、オリジナル音声データにおいていずれかの音響的特徴成分が存在する位置の場合、増幅処理部3208に対して、指定する範囲内(時間)の信号の増幅を行うように指示を出す。増幅処理部1208での増幅の強度は、算出された増幅量に応じた増幅率で行うが、オリジナル音声の音量は音声ファイル毎に異なるため、全ての単語音声の平均音圧と現在呈示しようとしている単語音声の音圧の差によって増幅量を重み付けし、計算によって求まった増幅率で増幅を行う。   That is, the confrontation phoneme detection unit 3206 receives position information of phonological components from the original speech database 3242, and performs amplification processing on the amplification processing unit 3208 when there is no acoustic feature component in the original speech data. It is instructed to output as it is without performing. On the other hand, the confrontation phoneme detection unit 3206 amplifies the signal within a specified range (time) to the amplification processing unit 3208 when any acoustic feature component exists in the original audio data. Give instructions to do. The intensity of amplification in the amplification processing unit 1208 is performed at an amplification factor corresponding to the calculated amplification amount. However, since the volume of the original voice differs for each voice file, an attempt is made to present the average sound pressure of all word sounds and the current presentation. The amount of amplification is weighted by the difference in sound pressure of the word speech, and amplification is performed with the amplification factor obtained by calculation.

出力された音声データについては、さらに、必要に応じて、音声品質を犠牲にしない範囲で所定の圧縮処理を行ってもよい。   The output audio data may be further subjected to a predetermined compression process as long as the audio quality is not sacrificed, if necessary.

コンピュータ102の側では、音声再生のためにデジタルアナログ変換装置を行ってスピーカ134から再生させる。   On the computer 102 side, a digital-to-analog conversion device is used for audio reproduction and is reproduced from the speaker 134.

図5は、オリジナル音声データベースに格納される音声データを再生した場合の音声波形の一例を示す図である。   FIG. 5 is a diagram showing an example of a sound waveform when sound data stored in the original sound database is reproduced.

図5では、英語を母国語とした米国人が発話した「LAB」という英単語音声を波形で示している。   In FIG. 5, the English word speech “LAB” spoken by an American whose native language is English is shown as a waveform.

図6(a)は、図5の波形を周波数分析した結果を示す図である。   FIG. 6A is a diagram showing the result of frequency analysis of the waveform of FIG.

すなわち、図5に示した波形を周波数分析すると,図6(a)のような声紋パターンが得られる。図6(a)の500ms前後の縦に薄く出ている部分が「バズバー」と呼ばれる音響成分である。このようにパワーが弱い(図中ではパワーの強度を黒色の濃さで示している)と、”B”と知覚されず、”V”と知覚されてしまう可能性がある。   That is, when the waveform shown in FIG. 5 is subjected to frequency analysis, a voiceprint pattern as shown in FIG. 6A is obtained. In FIG. 6 (a), a thin portion vertically extending around 500 ms is an acoustic component called “buzz bar”. Thus, when the power is weak (in the figure, the intensity of the power is indicated by the darkness of black), “B” may not be perceived and “V” may be perceived.

図6(b)は、破裂音成分を検出し、破裂音成分の部分のみを増幅した音声の声紋パターンを示す図である。   FIG. 6B is a diagram showing a voiceprint pattern of a voice in which a plosive sound component is detected and only the plosive sound component portion is amplified.

なお、図6(b)において、増幅の強度は先行する音声に合わせて適度に増幅し、また、前後の音声との繋がりを良くするため,エンベロープをかけて増幅している。すなわち、破裂音部分に近づくにつれて、次第に増幅率を大きくし、最大の増幅率の後は次第に増幅率を下げている。   In FIG. 6B, the intensity of amplification is moderately amplified in accordance with the preceding voice, and is amplified with an envelope in order to improve the connection with the preceding and following voices. That is, the gain is gradually increased as the plosive portion is approached, and the gain is gradually decreased after the maximum gain.

図6(b)において、”LA”の部分は増幅していないほか、エンベロープをかけて増幅することにより、全体として音量が大きくなり、耳障りなほど大きく聞こえたりすることはない。しかし,破裂音成分は大きく増幅されているため、聞き取る側では、”B”と知覚しやすくなり、単語として”LAB”との判断が容易となる。   In FIG. 6B, the “LA” portion is not amplified, and the volume is increased as a whole by amplifying with the envelope, so that it does not sound harshly loud. However, since the plosive component is greatly amplified, it becomes easier for the listener to perceive “B” and to easily determine “LAB” as a word.

図7は、図3に示した学習制御部3220が行う処理を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining processing performed by the learning control unit 3220 shown in FIG.

図7を参照して、まず、学習制御部3220は、学習者に対し、たとえば、学習者2が指定した対立音韻について、オリジナル音声を用いてテストを行い、学習者の到達度(熟達度/能力)を確認する(ステップS100)。   With reference to FIG. 7, first, the learning control unit 3220 performs a test on the learner using, for example, the confrontation phoneme designated by the learner 2 using the original speech, and the learner's achievement (expertise / (Capability) is confirmed (step S100).

続いて、学習制御部3220は、到達レベルデータベース3244を参照して、テストの結果(正答率)から、学習者が学習を行う上で適切だと考えられる特徴強調増幅量を導出する(S102)。   Subsequently, the learning control unit 3220 refers to the achievement level database 3244 and derives a feature enhancement amplification amount that is considered appropriate for the learner from the test result (correct answer rate) (S102). .

学習制御部3202は、オリジナル音声データベース3242内の音声データ(自然発話音声)に対し、音響的特徴を上記増幅量だけ増幅した学習用刺激を動的に生成する(S104)。   The learning control unit 3202 dynamically generates a learning stimulus in which the acoustic feature is amplified by the amplification amount with respect to the sound data (naturally-spoken speech) in the original sound database 3242 (S104).

このような訓練用音声刺激を用いて学習者2に訓練を行い、その際の平均正答率を求める(S106)。   The learner 2 is trained using such training voice stimulation, and the average correct answer rate at that time is obtained (S106).

学習制御部3202は、上記平均正答率がレベルアップ条件を満たしていれば(S108)、特徴強調増幅量を、たとえば所定のレベル分だけ減少させる(S110)。一方、学習制御部3202は、平均正答率がレベルダウン条件を満たしていれば(S112)、特徴強調増幅量を、たとえば所定のレベル分だけ増加させる(S114)。   If the average correct answer rate satisfies the level-up condition (S108), the learning control unit 3202 reduces the feature enhancement amplification amount by, for example, a predetermined level (S110). On the other hand, if the average correct answer rate satisfies the level down condition (S112), the learning control unit 3202 increases the feature enhancement amplification amount by, for example, a predetermined level (S114).

学習制御部3202は、オリジナル音声の刺激で充分な成績を収めたと判断した時点で(S116)、学習を終了する。   When the learning control unit 3202 determines that sufficient results have been achieved by stimulation of the original voice (S116), the learning control unit 3202 ends the learning.

ここで、「レベルアップ条件」とは、たとえば、学習者2の現在の到達度について、音韻ごとに定められた目標の正答率を続けて所定回超える等の条件であり、「レベルダウン条件」とは、たとえば、学習者2の現在の到達度について、音韻ごとに定められた規定の正答率を続けて所定回下回る等の条件である。所定回は、1回でもよいし、到達度に応じて、所定回が異なるように設定しておいてもよい。   Here, the “level-up condition” is a condition that, for example, the current achievement level of the learner 2 continuously exceeds the target correct answer rate determined for each phoneme a predetermined number of times, and the “level-down condition” The condition is, for example, that the current achievement level of the learner 2 falls below a prescribed correct answer rate determined for each phoneme a predetermined number of times. The predetermined number of times may be one time, or the predetermined number of times may be set to be different depending on the degree of achievement.

ここで、ステップS102の特徴強調増幅量の導出方法について、さらに詳しく説明する。   Here, the method for deriving the feature enhancement amplification amount in step S102 will be described in more detail.

上述のとおり、オリジナル音声、もしくは適度な増幅量で音響的特徴を強調した音声を用いて聴取テストを行った後、増幅度データベース3246中の予め用意された正答率と到達レベルの対応テーブルに上記テスト結果をマッピングし、学習者の到達レベルを特定する。なお、到達レベルは学習音韻毎に算出する。その上で、到達レベルデータベース3244中の予め用意された到達レベルと増幅量の対応テーブルに当てはめ、学習者に対して適切な増幅量を算出する。   As described above, after performing the listening test using the original voice or the voice that emphasizes the acoustic features with an appropriate amplification amount, the correspondence table of the correct answer rate and the arrival level prepared in advance in the amplification degree database 3246 Map test results and identify learner achievement levels. The arrival level is calculated for each learning phoneme. After that, it is applied to the correspondence table of the achievement level and amplification amount prepared in advance in the achievement level database 3244, and the amplification amount appropriate for the learner is calculated.

以上のような学習課題の与え方によって、音響的特徴を強調された学習用の刺激音を効果的に学習効果を上げられるように学習者に呈示することが可能となる。   By giving the learning task as described above, it is possible to present the learning stimulus sound with enhanced acoustic features to the learner so that the learning effect can be effectively improved.

以下では、上述したような音韻対立のある単語等について、音響的特徴の強調が聞き取り結果に与える影響を示唆する実験条件および実験結果についてさらに詳しく説明する。   In the following, experimental conditions and experimental results that suggest the influence of the enhancement of acoustic features on the listening results will be described in more detail for words and the like that have phonemic conflicts as described above.

[実験結果]
音韻対立によって、音響的差異、聴取時の手掛かりが、母国語の異なる聞き手の間では一般に異なる。そのため、例えば/b/と/v/(以下BVと略)、/s/と/θ/(以下STHと略)も日本語母語話者にとって知覚困難な音韻だが、雑音付加の影響がRLの場合と異なる可能性がある。
[Experimental result]
Due to phonological conflict, acoustic differences and clues at the time of listening generally differ among listeners of different native languages. Therefore, for example, / b / and / v / (hereinafter abbreviated as BV) and / s / and / θ / (hereinafter abbreviated as STH) are phonemes that are difficult to perceive for Japanese native speakers. It may be different.

そこで、以下の実験では、日本語母語話者(以下JAと略)、米語母語話者(以下AEと略)を対象とし、RL、BV、STHで対立する米単語音声に対して性質の異なる雑音を付加し、明瞭性を測定する実験を行った。また、米語母語話者を対象として行った予備実験の結果、音韻によって呈示音圧の影響を受けることが確認されたため、これも併せて検証を行った。   Therefore, in the following experiments, Japanese native speakers (hereinafter abbreviated as JA) and American native speakers (hereinafter abbreviated as AE) are targeted, and the characteristics are different with respect to US word speech that opposes RL, BV, and STH. An experiment was conducted to add clarity and measure clarity. In addition, as a result of a preliminary experiment conducted with native speakers of American language, it was confirmed that the phoneme was affected by the sound pressure presented, so this was also verified.

(1 実験方法)
(1.1 刺激)
RL対(right−1ight等)、BV対(base−vase等)、STH対(mouse−mouth等)の3種類の音韻で対立する音韻最小対の英単語対を使用して実験を行った。各対立毎に50、30、30対(合計110対)の合計220語を米語母語話者2名(男性1名、女性1名)が発話したものを刺激音声とした。無響室で収録された音声は単語毎に44.1kHz、16bitの精度でPCM(Pulse Code Modulation)形式のファイルとして保存された。
(1 Experimental method)
(1.1 Stimulation)
Experiments were performed using English word pairs of the smallest phoneme pairs that oppose each other in three phonemes: RL pairs (right-1ight etc.), BV pairs (base-base etc.), and STH pairs (mouse-mouth etc.). For each confrontation, a total of 220 words of 50, 30, and 30 pairs (a total of 110 pairs) spoken by two American native speakers (one male and one female) was used as a stimulus voice. The voice recorded in the anechoic room was saved as a file in PCM (Pulse Code Modulation) format with an accuracy of 44.1 kHz and 16 bits for each word.

雑音付加実鹸用の刺激として、各単語をヘッドホンを通じて出力したときの音圧レベル(A特性)のピーク値の単語間の平均が、RL対立およびSTH対立では59dB、BV対立では同65dBとなるように振幅を調整した。   As a stimulus for adding noise, the average of the sound pressure level (A characteristic) peak value when each word is output through headphones is 59 dB in the RL and STH conflicts, and 65 dB in the BV conflict. The amplitude was adjusted as follows.

ノイズジェネレータで生成したホワイトノイズおよびピンクノイズを、ヘッドホンを通じて出力したときの音圧レベル(A特性)のピーク値を各条件のSN仕になるように振幅を調整し、本実験に用いる音声に付加した。雑音は、音声よりも前後200msずつ長い持続時間のものを重ね合わせた。   Adjusting the amplitude so that the peak value of the sound pressure level (A characteristic) when white noise and pink noise generated by the noise generator are output through headphones is in accordance with the SN of each condition, added to the sound used in this experiment did. Noises with a duration longer by 200 ms before and after the voice were superimposed.

図8は、実験条件として用いたSN比を示す図である。   FIG. 8 is a diagram showing the SN ratio used as an experimental condition.

また、明瞭性に対する呈示音圧の影響を測定するための刺激として、各単語をヘッドホンを通じて出力したときの音圧レベル(A特性)ピークの平均が、各音韻対立で39dBから69dBとなるように5dBステップで振幅を調整した。   Further, as a stimulus for measuring the influence of the presented sound pressure on the clarity, the average of the sound pressure level (A characteristic) peak when each word is output through the headphones is from 39 dB to 69 dB in each phoneme confrontation. The amplitude was adjusted in 5 dB steps.

(1.2 実験参加者)
JA実験では、日本語を母語とし、3ケ月以上の外国滞在経験のない大学生11人が実験に参加した。AE実験では、23才から43才までの米語母語話者3人が実験に参加した。全員が正常な聴力を持つことを確認した。
(1.2 Experiment participants)
In the JA experiment, 11 university students who were native speakers of Japanese and had no experience of staying abroad for more than 3 months participated in the experiment. In the AE experiment, three American native speakers from the age of 23 to 43 participated in the experiment. All confirmed that they had normal hearing.

(1.3 手続き)
実鹸は3日間に分けて防音室内で行った。コンピュータ画面上に音韻最小対をなす英単語2語を視覚呈示し、同時にどちらか一方の単語をヘッドホンより両耳呈示した。実験参加者は、きこえた単語が画面上の単語対のどちらであったかを判断し、選択した。
(1.3 Procedure)
The actual saponification was carried out in a soundproof room for 3 days. Two English words that form the smallest phoneme pair were visually presented on the computer screen, and at the same time, either word was presented in both ears via headphones. Participants in the experiment judged and selected which word was the word pair on the screen.

(雑音付加音声セッション)
付加した雑音の種類別に2日間に分けて行った。それぞれ話音別の2つのセクションから構成され、話者の順序は一定であった。各セクションは全SN仕の音声を含んだ音韻対立毎のブロックからなり、RL、BV、STH対立の順で提示した。各ブロック内で全音声刺激をランダムな順序で呈示し、回答の正誤に関するフイードバックは行わなかった。
(Noise-added voice session)
It was divided into two days according to the type of added noise. Each section consisted of two sections for each sound, and the order of the speakers was constant. Each section is composed of blocks for each phoneme confrontation including all SN-speech sounds, and presented in the order of RL, BV, and STH confrontation. All voice stimuli were presented in a random order within each block, and no feedback was given regarding the correctness of the answers.

(音圧変動セッション)
雑音付加音声セッション終了後に音圧変動セッションを実施した。刺激が異なる以外は、構成および方法は雑音付加音声セッションと同じものを用いた。
(Sound pressure fluctuation session)
A sound pressure fluctuation session was conducted after the noise-added speech session. Except for the different stimuli, the structure and method were the same as for the noisy speech session.

(2 結果)
(JA実験)
図9は、JA実験における雑音付加音声セッションの結果を示す図である。
(2 results)
(JA experiment)
FIG. 9 is a diagram showing the result of a noise-added voice session in the JA experiment.

いずれの音韻対立においても、SN比が低下した際に、正答率が低下する傾向があることが示された。   In any phonological conflict, it was shown that the correct answer rate tends to decrease when the SN ratio decreases.

雑音の種類およびSN比を被験者内要因とし、正答率を逆正弦変換した値を従属変数とした2要因分散分析を各音韻対立毎に行った。なお、BV対立においては、ホワイトノイズ条件の−9dB条件を分析から除いた。その結果、何れの音韻対立においても、SN比要因の主効果が有意である(RL、BV、STH音韻対立でそれぞれ[F(6,60)=24.950,p<0.01]、[F(7,70)=18.641,P<0.01],[F(6,60)=32.152,P<0.01])が、雑音の種類の要因の主効果、交互作用共に有意ではなかった。   A two-factor ANOVA was performed for each phoneme confrontation, with the noise type and the signal-to-noise ratio as factors within the subject, and the correct answer rate as a dependent variable. In the BV conflict, the -9 dB condition of the white noise condition was excluded from the analysis. As a result, the main effect of the S / N ratio factor is significant in any phoneme conflict ([F (6,60) = 24.950, p <0.01], [<0.01] in the RL, BV, and STH phoneme conflicts, respectively). F (7,70) = 18.641, P <0.01], [F (6,60) = 32.15, P <0.01]) is the main effect and interaction of noise type factors Both were not significant.

次に、図10は、JA実験における音圧変動セッションの結果を示す図である。   Next, FIG. 10 is a diagram showing a result of a sound pressure fluctuation session in the JA experiment.

音韻対立および呈示音圧を被験者内要因とし、正答率を逆正弦変換した値を従属変数とした2要因分散分析を行った。その結果、呈示音圧要因の主効果が有意であった[F(6,60)=10.503,P<0.01]。音韻対立要因の主効果、交互作用共に有意でなかったものの、39dB条件と63dB条件の2点の正答率を比較した場合、BV対立で他音韻対立よりも大きな正答率の変化が見られた。   A two-factor ANOVA was performed with phonological confrontation and presented sound pressure as factors within the subject, and the correct answer rate as the dependent variable. As a result, the main effect of the presenting sound pressure factor was significant [F (6,60) = 10.503, P <0.01]. Although the main effect and interaction of phonological confrontation factors were not significant, when the correct answer rates of the 39 dB condition and the 63 dB condition were compared, the BV confrontation showed a greater change in the correct answer rate than the other phonological confrontation.

(AE実験)
図11は、AE実験における各音韻対立における雑音付加音声セッションの結果を示す図である。いずれの音韻対立においても、SN比の低下に伴って正答率が低下する傾向があることが示された。
(AE experiment)
FIG. 11 is a diagram illustrating a result of a noise-added speech session in each phoneme conflict in the AE experiment. In any phoneme conflict, it was shown that the correct answer rate tends to decrease as the SN ratio decreases.

次に、図12は、AE実験における音圧変動セッションの結果を示す図である。RLおよびSTH対立では、実験に使用した呈示音圧範囲における変化は殆んど見られないが、BV対立では、正答率が呈示音圧の影響を受けやすいことが示された。   Next, FIG. 12 is a diagram showing the results of the sound pressure fluctuation session in the AE experiment. The RL and STH conflicts showed little change in the presented sound pressure range used in the experiment, but the BV conflict showed that the correct answer rate was susceptible to the presented sound pressure.

以上の解析結果をまとめると、日本語母語話者、米語母語話者共に全ての音韻対立においてSN比の低下に伴って正答率が低下した。さらに、母語、音韻対、呈示音圧に対する雑音付加の影響の関係について、以下のような関係が明らかになった。   Summarizing the above analysis results, the correct answer rate decreased with a decrease in the S / N ratio in all phoneme confrontations for both Japanese native speakers and American native speakers. Furthermore, the following relations were clarified in relation to the influence of noise addition on the mother tongue, phoneme pair, and presented sound pressure.

(母語と非母語)
米語母語話者では、BV以外の音韻対において、雑音付加の影響を受けにくいSN比のレンジが存在するのに対し、日本語母語話者では、僅かな雑音付加で正答率が低下する傾向が示された。
(Native and non-native)
For American native speakers, there is a signal-to-noise ratio range that is unlikely to be affected by noise addition in phoneme pairs other than BV, whereas for Japanese native speakers, the correct answer rate tends to decrease with slight noise addition. Indicated.

また、雑音の種類の影響が、実験参加者の母語により異なる場合があった(例:RL対立のAE−15dB条件とJA−9dB条件間の比較)。これは、母語により知覚に使用する音響的特徴が異なっていたことを示唆する。   In addition, the influence of the noise type may differ depending on the native language of the experiment participant (example: comparison between AE-15 dB condition and JA-9 dB condition of RL conflict). This suggests that the acoustic features used for perception differed depending on the mother tongue.

(音韻対)
音韻対により雑音の影響が異なった。RL対立は本実鹸で使用した雑音に対する耐性が比較的高かったが、BV対立は僅かな雑音付加によっても大きく影響を受け、STH対立ではほぼ一定の割合で正答率が低下した。これは、音韻対によって弁別に使用される音響的特徴が異なり、同じ雑音を付加した場合においても、異なる影響を及ぼしていることを示している。
(Phoneme pair)
The effect of noise was different for each phoneme pair. The RL conflict was relatively resistant to the noise used in the actual sapon, but the BV conflict was greatly affected by the addition of a little noise, and the correct answer rate decreased at an almost constant rate in the STH conflict. This indicates that the acoustic features used for discrimination differ depending on phoneme pairs, and even when the same noise is added, different effects are exerted.

(呈示音圧)
日本語母語話者、米語母語話者いずれの場合でも、BV対立では呈示音圧が低い場合に正答率が大きく低下した。BV音の知覚は呈示音圧の影響を大きく受けることを示している。
(Present sound pressure)
In both cases of Japanese native speakers and American native speakers, the correct answer rate greatly decreased when the sound pressure presented was low in the BV confrontation. It shows that the perception of BV sound is greatly affected by the presented sound pressure.

(明瞭化処理部3204の構成の変形例)
明瞭化処理部3204の構成については、図4において説明したが、以下に説明するような他の構成を有していてもよい。
(Modification of the configuration of the clarification processing unit 3204)
The configuration of the clarification processing unit 3204 has been described with reference to FIG. 4, but may have other configurations as described below.

図13は、このような明瞭化処理部3204の構成の変形例を示す図である。   FIG. 13 is a diagram illustrating a modification of the configuration of the clarification processing unit 3204.

すなわち、図4では、特徴音韻成分の位置情報をオリジナル音声データベース3242から受け取る構成としていたが、以下に説明するようにオリジナル音声データについて特徴音韻成分を随時検出しつつ、選択的に増幅することとしてもよい。   That is, in FIG. 4, the position information of the characteristic phoneme component is received from the original speech database 3242. However, as described below, the feature phoneme component is selectively amplified while detecting the feature phoneme component as needed. Also good.

つまり、図13に示す対立音韻検出部3206は、いずれの音響的特徴成分が検出されなかった場合、そのまま何も処理を行わず、後段の処理を行う信号選択部1210にデータを送る。これに対して、対立音韻検出部3206は、音響的特徴成分が検出された場合、信号を増幅処理部3208に送り、増幅処理部3208は、検出された範囲内(時間)の信号の増幅を行って、後段の処理を行う信号選択部3210にデータを送る。図13の例でも、増幅処理部1208での増幅の強度は、算出された増幅量に応じた増幅率で行うが、オリジナル音声の音量は音声ファイル毎に異なるため、全ての単語音声の平均音圧と現在呈示しようとしている単語音声の音圧の差によって増幅量を重み付けし、計算によって求まった増幅率で増幅を行うものとしてもよい。   That is, when no acoustic feature component is detected, the conflict phoneme detection unit 3206 shown in FIG. 13 does not perform any processing as it is and sends data to the signal selection unit 1210 that performs subsequent processing. In contrast, when the acoustic feature component is detected, the allelic phoneme detection unit 3206 sends a signal to the amplification processing unit 3208, and the amplification processing unit 3208 amplifies the signal within the detected range (time). The data is sent to the signal selection unit 3210 that performs the subsequent processing. Also in the example of FIG. 13, the amplification intensity in the amplification processing unit 1208 is performed at an amplification factor corresponding to the calculated amplification amount. However, since the volume of the original voice differs for each voice file, the average sound of all the word voices The amplification amount may be weighted by the difference between the pressure and the sound pressure of the word speech to be presented at present, and the amplification may be performed with the amplification factor obtained by calculation.

信号選択部3210では、対立音韻検出部3206から送出される増幅を行っていないデータおよび増幅処理部1208からの増幅されたデータを選択的に合成して、特徴が強調された音声データとして出力する。出力された音声データについては、さらに、図13の例でも、必要に応じて、音製品質を犠牲にしない範囲で所定の圧縮処理を行ってもよい。   The signal selection unit 3210 selectively synthesizes the non-amplified data sent from the allelic phoneme detection unit 3206 and the amplified data from the amplification processing unit 1208, and outputs the resultant as voice data with enhanced features. . Further, in the example of FIG. 13, the output audio data may be subjected to a predetermined compression process within a range that does not sacrifice the quality of the sound product, if necessary.

このような構成でも図4に示したのと同様の処理を行うことができる。   With such a configuration, the same processing as shown in FIG. 4 can be performed.

以上説明したように、本発明の言語学習装置または外国語学習装置では、音声の明瞭性を評価基準とした音響的操作を加えることにより、初等学習者には知覚容易な課題を呈示し、充分に習熟した学習者に対しては知覚困難な課題を動的に生成、または予め作成して呈示するので、効果的な学習課題の呈示が可能となる。   As described above, in the language learning device or the foreign language learning device of the present invention, by applying an acoustic operation based on the clarity of speech as an evaluation criterion, the primary learner is presented with an easily perceptible problem. Since a difficultly perceptible task is dynamically generated or created in advance and presented to a learner who has mastered the above, an effective learning task can be presented.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の外国語学習装置を用いたシステム1000の一例を示す概念図である。It is a conceptual diagram which shows an example of the system 1000 using the foreign language learning apparatus of this invention. サーバコンピュータ300のハードウェア構成をブロック図形式で示す図である。It is a figure which shows the hardware constitutions of the server computer 300 in a block diagram format. 本発明の外国語学習装置の構成を機能ブロックで示す図である。It is a figure which shows the structure of the foreign language learning apparatus of this invention with a functional block. 図3で説明した周波数分析部3202や、明瞭化処理部3204の動作をより詳しく説明するためのブロック図である。FIG. 4 is a block diagram for explaining in more detail the operations of the frequency analysis unit 3202 and the clarification processing unit 3204 described in FIG. 3. オリジナル音声データベースに格納される音声データを再生した場合の音声波形の一例を示す図である。It is a figure which shows an example of the audio | voice waveform at the time of reproducing | regenerating the audio | speech data stored in an original audio | voice database. 波形を周波数分析した結果および選択的な増幅をした結果を示す図である。It is a figure which shows the result of having frequency-analyzed the waveform, and the result of having selectively amplified. 図3に示した学習制御部3202が行う処理を説明するためのフローチャートである。4 is a flowchart for explaining processing performed by a learning control unit 3202 illustrated in FIG. 3. 実験条件として用いたSN比を示す図である。It is a figure which shows the S / N ratio used as experiment conditions. JA実験における雑音付加音声セッションの結果を示す図である。It is a figure which shows the result of the noise addition voice session in JA experiment. JA実験における音圧変動セッションの結果を示す図である。It is a figure which shows the result of the sound pressure fluctuation | variation session in JA experiment. AE実験における各音韻対立における雑音付加音声セッションの結果を示す図である。It is a figure which shows the result of the noise addition audio | voice session in each phoneme confrontation in AE experiment. AE実験における音圧変動セッションの結果を示す図である。It is a figure which shows the result of the sound pressure fluctuation | variation session in AE experiment. 明瞭化処理部3204の構成の変形例を示す図である。FIG. 18 is a diagram illustrating a modification of the configuration of the clarification processing unit 3204.

符号の説明Explanation of symbols

100 コンピュータ、102 コンピュータ本体、104 ディスプレイ、106 FDドライブ、108 ディスクドライブ、110 キーボード、112 マウス、118 CD−ROM、132 マイク、134 スピーカ、300 サーバコンピュータ、302 コンピュータ本体、304 ディスプレイ、306 FDドライブ、308 ディスクドライブ、310 キーボード、312 マウス、318 CD−ROM、320 CPU、322 メモリ、324 ハードディスク、328 インタフェース、1000 システム、3202 周波数分析部、3204 明瞭化処理部、3220 学習制御部、3242 オリジナル音声データベース、3244 到達レベルデータベース、3246 増幅度データベース、3248 音韻音響モデルデータベース。   100 computer, 102 computer main body, 104 display, 106 FD drive, 108 disk drive, 110 keyboard, 112 mouse, 118 CD-ROM, 132 microphone, 134 speaker, 300 server computer, 302 computer main body, 304 display, 306 FD drive, 308 disk drive, 310 keyboard, 312 mouse, 318 CD-ROM, 320 CPU, 322 memory, 324 hard disk, 328 interface, 1000 system, 3202 frequency analysis unit, 3204 clarification processing unit, 3220 learning control unit, 3242 original speech database , 3244 reaching level database, 3246 amplification degree database, 3248 phonological acoustic model Database.

Claims (5)

言語学習装置であって、
モデル音声を記憶するとともに、学習者の到達度と当該モデル音声に含まれる音響的特徴部分の強調率とを対応付けて記憶するための記憶手段と、
前記モデル音声について、指定された強調率で当該モデル音声の前記音響的特徴部分を選択的に強調した刺激音声を合成するための刺激音合成手段とを備え
前記刺激音合成手段は、前記記憶手段から入力された前記モデル音声の各々において、前記音響的特徴部分が存在する時間軸上の位置を特定するための検出手段を含み、前記刺激音合成手段は、特定された前記位置に応じて、前記音響的特徴部分を選択的に強調し、
前記刺激音声を課題として前記学習者に与えるための音声信号を当該刺激音声を再生する音声出力装置に対して出力し、当該学習者からの回答を受付けるためのインタフェース手段と、
前記強調率を指定して前記課題として与えられた前記刺激音声に対する当該学習者の正答率を算出して、前記刺激音合成手段を制御し、前記学習者に対して前記刺激音声を与えた場合の正答率が、前記到達度に応じて予め定められるレベルアップ条件を満たすことに応じて、前記刺激音合成手段に対して指定する前記強調率を減少させるように更新する学習制御手段とをさらに備える、言語学習装置。
A language learning device,
Storage means for storing the model voice and storing the learner's reach and the enhancement rate of the acoustic feature portion included in the model voice in association with each other;
For the model voice, a stimulus sound synthesizing means for synthesizing selectively emphasized stimulate speech said acoustic characteristic portion of the model voice given emphasis ratio,
The stimulating sound synthesizing unit includes a detecting unit for specifying a position on the time axis where the acoustic feature portion exists in each of the model sounds input from the storage unit, and the stimulating sound synthesizing unit includes Selectively accentuate the acoustic feature according to the identified location;
An interface means for outputting an audio signal for giving the stimulating sound to the learner as a task to an audio output device for reproducing the stimulating sound and receiving an answer from the learner;
To calculate the correct answer rate of the learner with respect to the stimulus speech given as the problems by specifying the enhancement factor if, by controlling the stimuli combining means, giving said stimulus voice to the learner the percentage of correct answers, the in response to reaching levels up condition is satisfied, which is predetermined according to, further a learning control means for updating to reduce the enhancement rate specified for the stimuli combining means A language learning device.
前記記憶手段は、前記モデル音声と関連付けて、前記モデル音声の時間軸上のいずれの位置に当該モデル音声についての前記音響的特徴を有する音韻の成分が存在するかを示す位置情報を格納しており、The storage means stores, in association with the model sound, position information indicating in which position on the time axis of the model sound a phonological component having the acoustic feature for the model sound exists. And
前記検出手段は、前記位置情報に基づいて、前記音響的特徴部分が存在する時間軸上の位置を特定する、請求項1記載の言語学習装置。The language learning apparatus according to claim 1, wherein the detection unit specifies a position on a time axis where the acoustic feature portion exists based on the position information.
前記刺激音合成手段は、前記モデル音声に対して周波数分析を行って、当該モデル音声中の音韻の音響的特徴をパラメータ化する周波数分析手段をさらに含み、The stimulating sound synthesizing unit further includes a frequency analyzing unit that performs frequency analysis on the model voice and parameterizes an acoustic characteristic of a phoneme in the model voice,
前記検出手段は、前記周波数分析手段の分析結果に基づいて、前記音響的特徴部分が存在する時間軸上の位置を特定する、請求項1記載の言語学習装置。The language learning apparatus according to claim 1, wherein the detection unit specifies a position on a time axis where the acoustic feature portion exists based on an analysis result of the frequency analysis unit.
前記学習制御手段は、前記学習者に対して前記刺激音声を与えた場合の前記正答率が、前記到達度に応じて予め定められるレベルダウン条件を満たすことに応じて、前記強調率を増加させるように更新する、請求項2または3に記載の言語学習装置。 The learning control means, the correct answer rate when given the stimulus voice to the learner, the in response to reach level down condition is satisfied is determined in advance according to increase the emphasis rate The language learning apparatus according to claim 2 , which is updated as follows. 前記音響的特徴部分は、対立音韻部分に対応し、
前記記憶手段は、前記到達度を前記対立音韻ごとに分類して格納しており、
前記学習制御手段は、前記刺激音合成手段に、指定された前記対立音韻ごとに、前記記憶手段に格納された前記到達度を参照して前記刺激音声を生成させ、
前記インタフェース手段は、生成された前記刺激音を前記学習者に対して呈示するための前記音声信号を出力する、請求項2または3に記載の言語学習装置。
The acoustic feature portion corresponds to an opposing phoneme portion;
The storage means classifies and stores the degree of achievement for each of the opposing phonemes,
The learning control means causes the stimulation sound synthesizing means to generate the stimulation sound with reference to the degree of achievement stored in the storage means for each of the designated allophones,
Said interface means, said outputs an audio signal for presenting against the generated the stimuli voice the learner, language learning device according to claim 2 or 3.
JP2005021734A 2005-01-28 2005-01-28 Language learning device Active JP4669988B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005021734A JP4669988B2 (en) 2005-01-28 2005-01-28 Language learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005021734A JP4669988B2 (en) 2005-01-28 2005-01-28 Language learning device

Publications (2)

Publication Number Publication Date
JP2006208806A JP2006208806A (en) 2006-08-10
JP4669988B2 true JP4669988B2 (en) 2011-04-13

Family

ID=36965731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005021734A Active JP4669988B2 (en) 2005-01-28 2005-01-28 Language learning device

Country Status (1)

Country Link
JP (1) JP4669988B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101347991B1 (en) * 2012-09-04 2014-01-09 손현성 Method improving sharpness of vowel phoneme

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH033950U (en) * 1989-06-02 1991-01-16
JPH10511472A (en) * 1994-12-08 1998-11-04 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア Method and apparatus for improving speech recognition between speech impaired persons
JP2000081897A (en) * 1998-09-03 2000-03-21 Kanaasu Data Kk Method of recording speech information, speech information recording medium, and method and device of reproducing speech information
JP2001265211A (en) * 2000-01-14 2001-09-28 Atr Ningen Joho Tsushin Kenkyusho:Kk Device and method for studying foreign language, and medium therefor
JP2003504646A (en) * 1998-10-07 2003-02-04 コグニティヴ コンセプツ インコーポレイテッド Systems and methods for training phonological recognition, phonological processing and reading skills

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH033950U (en) * 1989-06-02 1991-01-16
JPH10511472A (en) * 1994-12-08 1998-11-04 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア Method and apparatus for improving speech recognition between speech impaired persons
JP2000081897A (en) * 1998-09-03 2000-03-21 Kanaasu Data Kk Method of recording speech information, speech information recording medium, and method and device of reproducing speech information
JP2003504646A (en) * 1998-10-07 2003-02-04 コグニティヴ コンセプツ インコーポレイテッド Systems and methods for training phonological recognition, phonological processing and reading skills
JP2001265211A (en) * 2000-01-14 2001-09-28 Atr Ningen Joho Tsushin Kenkyusho:Kk Device and method for studying foreign language, and medium therefor

Also Published As

Publication number Publication date
JP2006208806A (en) 2006-08-10

Similar Documents

Publication Publication Date Title
US11095991B2 (en) Hearing evaluation and configuration of a hearing assistance-device
US10475467B2 (en) Systems, methods and devices for intelligent speech recognition and processing
Kondo Subjective quality measurement of speech: its evaluation, estimation and applications
US11043210B2 (en) Sound processing apparatus utilizing an electroencephalography (EEG) signal
US6289310B1 (en) Apparatus for enhancing phoneme differences according to acoustic processing profile for language learning impaired subject
US11727949B2 (en) Methods and apparatus for reducing stuttering
US20050080626A1 (en) Voice output device and method
CN106572818A (en) Hearing system with user-specific programming
JP2000152394A (en) Hearing aid for moderately hard of hearing, transmission system having provision for the moderately hard of hearing, recording and reproducing device for the moderately hard of hearing and reproducing device having provision for the moderately hard of hearing
JP4680099B2 (en) Audio processing apparatus and audio processing method
JP4644876B2 (en) Audio processing device
JP4669988B2 (en) Language learning device
Ahmetovic et al. Enhancing screen reader intelligibility in noisy environments
US11783846B2 (en) Training apparatus, method of the same and program
JPH1195652A (en) Hearing training method and sound processing method for hearing training as well as sound processing apparatus for hearing training and recording medium for hearing training
JP4669989B2 (en) Language learning device
Kobayashi et al. Performance Evaluation of an Ambient Noise Clustering Method for Objective Speech Intelligibility Estimation
JP2005202335A (en) Method, device, and program for speech processing
KR102310542B1 (en) Apparatus for testing hearing ability using monosyllable and method of the same
JPS5879400A (en) Hearing aid
Morita et al. Timbre and Height Differences in Self-perceived Own Voices
Needleman Quantification of context effects in speech perception: Influence of prosody
Yamamoto et al. GESI: Gammachirp Envelope Similarity Index for Predicting Intelligibility of Simulated Hearing Loss Sounds
Matsumoto et al. Case study: Experimental study on optimum level of synthetic speech simulating Lombard effect
Iglehart Costs and benefits of peak clipping in amplification for profound hearing loss

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101221

R150 Certificate of patent or registration of utility model

Ref document number: 4669988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250