JP2010262090A - Learning support program and learning support device - Google Patents

Learning support program and learning support device Download PDF

Info

Publication number
JP2010262090A
JP2010262090A JP2009111733A JP2009111733A JP2010262090A JP 2010262090 A JP2010262090 A JP 2010262090A JP 2009111733 A JP2009111733 A JP 2009111733A JP 2009111733 A JP2009111733 A JP 2009111733A JP 2010262090 A JP2010262090 A JP 2010262090A
Authority
JP
Japan
Prior art keywords
accent
original text
learning support
original
support program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009111733A
Other languages
Japanese (ja)
Other versions
JP5340797B2 (en
Inventor
Yuichiro Ito
裕一朗 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2009111733A priority Critical patent/JP5340797B2/en
Publication of JP2010262090A publication Critical patent/JP2010262090A/en
Application granted granted Critical
Publication of JP5340797B2 publication Critical patent/JP5340797B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a learning support program and a learning support device, for learning natural pronunciation of an original text. <P>SOLUTION: The learning support device (10) includes a storage medium (48) and a computer (42). The storage medium stores original content information (781a, 781d) showing the content of the original text (ES) to be the object of language learning, and accent position information (781c) showing the position of accent with respect to the original on time base. The computer displays (S111), while notifying (S55, S105) the content of the original text on the basis of the original content information, accent images (G, AP1, AP2, ...) for notifying the position of the accent on time base with respect to the original text to a user on a screen (14) on the basis of the accent position information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、学習支援プログラムおよび学習支援装置に関し、特にたとえば、語学学習を支援する、学習支援プログラムおよび学習支援装置に関する。   The present invention relates to a learning support program and a learning support apparatus, and more particularly to a learning support program and a learning support apparatus that support language learning, for example.

この種の背景技術としては、たとえば特許文献1に開示された語学学習システムが知られている。この語学学習システムは、教師用端末および複数の学習者用端末を含む。教師用端末は、原文テキストから音声合成データを生成し、生成した音声合成データに適したリズム音を選択し、選択したリズム音のテンポを指定し、指定したテンポでリズム音を再生し、そして再生リズム音を各学習者用端末に配信する。各学習者用端末は、原文テキストの文字を表示しつつ、再生リズム音を受信して出力する。   As this type of background art, for example, a language learning system disclosed in Patent Document 1 is known. The language learning system includes a teacher terminal and a plurality of learner terminals. The teacher terminal generates speech synthesis data from the original text, selects a rhythm sound suitable for the generated speech synthesis data, specifies the tempo of the selected rhythm sound, plays the rhythm sound at the specified tempo, and Distribute playback rhythm sound to each learner's terminal. Each learner's terminal receives and outputs the playback rhythm sound while displaying the characters of the original text.

特開2008−164701号公報JP 2008-164701 A

ところで、英語などの原文の自然な発音(会話したり朗読したりする場合の発音)では一般に、音列をアクセント(強く発音する音)の位置で区切ると、各区間(発音範囲)の時間長は均一にはならない。   By the way, in natural pronunciation of the original text such as English (pronunciation when talking or reading), generally speaking, if the string is separated by the position of the accent (strongly pronounced sound), the time length of each section (pronunciation range) Will not be uniform.

この点、特許文献1の背景技術では、学習者は、原文を再生リズム音に合わせて発音する、つまりアクセントが再生リズム音の位置にくるように各区間の時間長を伸縮させるので、各区間の時間長が均一となる。このような原文の発音は、歌唱には適するが、会話や朗読では不自然に感じられる。   In this regard, in the background art of Patent Document 1, the learner pronounces the original text in accordance with the reproduced rhythm sound, that is, the time length of each section is expanded or contracted so that the accent comes to the position of the reproduced rhythm sound. The time length is uniform. Such original pronunciation is suitable for singing, but feels unnatural in conversation and reading.

また、このような各区間の不均一な時間長は、原文テキストの文字からは判別し難い。   Further, such a nonuniform time length of each section is difficult to distinguish from the characters of the original text.

それゆえに、この発明の主たる目的は、新規な、学習支援プログラムおよび学習支援装置を提供することである。   Therefore, a main object of the present invention is to provide a novel learning support program and learning support apparatus.

この発明の他の目的は、原文の自然な発音を身につけさせることができる、学習支援プログラムおよび学習支援装置を提供することである。   Another object of the present invention is to provide a learning support program and a learning support apparatus that can acquire the natural pronunciation of the original text.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、語学学習の対象となる原文の内容を示す原文内容情報と原文に関しアクセントの時間軸上での位置を示すアクセント位置情報とを記憶した記憶媒体を有する学習支援装置のコンピュータを、原文内容情報に基づいて、原文の内容をユーザに報知する原文内容報知手段、および原文内容報知手段によって原文の内容が報知されているときに、原文に関しアクセントの時間軸上での位置をユーザに報知するためのアクセント画像をアクセント位置情報に基づいて画面に表示するアクセント画像表示手段として機能させる、学習支援プログラムである。   According to a first aspect of the present invention, there is provided a computer of a learning support apparatus having a storage medium storing original content information indicating the content of an original text to be language-learned and accent position information indicating the position of the original text on the time axis. The original text content notifying means for notifying the user of the content of the original text based on the original text content information, and when the original text content is notified by the original text content notifying means, the user can determine the position of the accent on the time axis with respect to the original text. This is a learning support program that causes an accent image for notification to be displayed on the screen based on the accent position information.

第1の発明では、学習支援プログラムは、語学学習の対象となる原文(ES)の内容を示す原文内容情報(781a,781d)と原文に関しアクセントの時間軸上での位置を示すアクセント位置情報(781c)とを記憶した記憶媒体(48)を有する学習支援装置(10)のコンピュータ(42)を、原文内容報知手段(S55,S105)およびアクセント画像表示手段(S111)として機能させる。原文内容報知手段は、原文内容情報に基づいて、原文の内容をユーザに報知する。アクセント画像表示手段は、原文内容報知手段によって原文の内容が報知されているときに、原文に関しアクセントの時間軸における位置を示すアクセント画像(G,AP1,AP2,…)をアクセント位置情報に基づいて画面(14)に表示する。   In the first invention, the learning support program includes original text content information (781a, 781d) indicating the content of the original text (ES) to be language-learned and accent position information indicating the position of the original text on the time axis ( The computer (42) of the learning support device (10) having the storage medium (48) storing 781c) is caused to function as original text content notification means (S55, S105) and accent image display means (S111). The original text content notifying means notifies the user of the content of the original text based on the original text content information. Based on the accent position information, the accent image display means displays an accent image (G, AP1, AP2,...) Indicating the position of the accent on the time axis with respect to the original text when the content of the original text is reported by the text content notifying means. Display on screen (14).

第1の発明によれば、原文の内容を報知しながら、原文のアクセントの時間軸上での位置を視覚的に示すことで、ユーザは、アクセントを発音すべきタイミングと、アクセントで区切られた各区間の時間長とがわかるので、原文の自然な発音を身につけることができる。   According to the first aspect of the invention, by visually indicating the position of the original accent on the time axis while notifying the content of the original, the user is divided by the timing at which the accent should be pronounced and the accent. Knowing the time length of each section, you can learn the natural pronunciation of the original text.

第2の発明は、第1の発明に従属する学習支援プログラムであって、コンピュータを、原文内容報知手段によって報知されている原文をアクセント位置情報に基づいてアクセントの時間軸上での位置で時間区間に区切り、時間軸上での時間区間の位置および長さを示す時間区間画像を画面に表示する時間区間画像表示手段としてさらに機能させる。   A second invention is a learning support program subordinate to the first invention, wherein the computer is adapted to time the original text informed by the original text content notifying means at the position of the accent on the time axis based on the accent position information. It further functions as a time section image display means for displaying a time section image which is divided into sections and shows the position and length of the time section on the time axis on the screen.

第2の発明では、学習支援プログラムは、コンピュータを時間区間画像表示手段(S113)としてさらに機能させる。時間区間画像表示手段は、原文内容報知手段によって報知されている原文をアクセント位置情報に基づいてアクセントの時間軸上での位置で時間区間に区切り、時間軸上での時間区間の位置および長さを示す時間区間画像(GB1,GB2,…)を画面に表示する。   In the second invention, the learning support program causes the computer to further function as time interval image display means (S113). The time interval image display means divides the original text notified by the original text content notification means into time intervals at the position of the accent on the time axis based on the accent position information, and the position and length of the time interval on the time axis. Are displayed on the screen.

第2の発明によれば、さらに時間区間画像を表示することで、各時間区間の相対的な長さ(テンポの伸縮)を直感的に認識させることができる。   According to the second aspect of the present invention, it is possible to intuitively recognize the relative length (tempo expansion / contraction) of each time section by further displaying the time section image.

第3の発明は、第1の発明に従属する学習支援プログラムであって、コンピュータを、アクセント画像表示手段によって表示されたアクセント画像のうち現時点で発音すべきアクセント画像を強調表示する強調表示手段としてさらに機能させる。   A third invention is a learning support program subordinate to the first invention, wherein the computer is used as highlighting means for highlighting an accent image to be pronounced at present among accent images displayed by the accent image display means. Make it work further.

第3の発明では、学習支援プログラムは、コンピュータを強調表示手段(S43)としてさらに機能させる。強調表示手段は、アクセント画像表示手段によって表示されたアクセント画像のうち現時点で発音すべきアクセント画像を強調表示する。   In the third invention, the learning support program further causes the computer to function as highlighting means (S43). The highlighting display unit highlights an accent image to be pronounced at the present time among the accent images displayed by the accent image display unit.

第3の発明によれば、時間の進行に連れてアクセント画像を強調表示していくことで、原文を適切な速さで発音させることができる。   According to the third aspect, the original text can be pronounced at an appropriate speed by highlighting the accent image as time progresses.

第4の発明は、第3の発明に従属する学習支援プログラムであって、コンピュータを、原文内容報知手段によって報知されている原文をアクセント位置情報に基づいてアクセントの時間軸上での位置で時間区間に区切り、時間軸上での時間区間の位置および長さを示す時間区間画像を画面に表示する時間区間画像表示手段としてさらに機能させ、強調表示手段は、時間区間画像表示手段によって表示された時間区間画像のうち現時点に対応する時間区間画像をさらに強調表示する。   A fourth aspect of the invention is a learning support program according to the third aspect of the invention, in which the computer is used to time the original sentence informed by the original sentence content notifying means at the position of the accent on the time axis based on the accent position information. The time interval image display means is further displayed as the time interval image display means for dividing the interval and displaying the time interval image indicating the position and length of the time interval on the time axis on the screen. The highlighting means is displayed by the time interval image display means. Of the time interval images, the time interval image corresponding to the current time is further highlighted.

第4の発明では、学習支援プログラムは、コンピュータを時間区間画像表示手段(S113)としてさらに機能させる。時間区間画像表示手段は、原文内容報知手段によって報知されている原文をアクセント位置情報に基づいてアクセントの時間軸上での位置で時間区間に区切り、時間軸上での時間区間の位置および長さを示す時間区間画像を画面に表示する。強調表示手段は、時間区間画像表示手段によって表示された時間区間画像のうち現時点に対応する時間区間画像をさらに強調表示する。   In the fourth invention, the learning support program causes the computer to further function as time interval image display means (S113). The time interval image display means divides the original text notified by the original text content notification means into time intervals at the position of the accent on the time axis based on the accent position information, and the position and length of the time interval on the time axis. Is displayed on the screen. The highlighting means further highlights the time interval image corresponding to the current time among the time interval images displayed by the time interval image display means.

第4の発明によれば、さらに時間区間画像を強調表示していくことで、現時点の時間区間を明確に認識させることができる。   According to the fourth aspect of the present invention, the current time interval can be clearly recognized by further highlighting the time interval image.

第5の発明は、第1ないし第4のいずれかの発明に従属する学習支援プログラムであって、コンピュータを、時間軸上での現時点の位置を示す現時点位置画像を画面に表示する現時点位置画像表示手段としてさらに機能させる。   A fifth invention is a learning support program according to any one of the first to fourth inventions, wherein the computer displays a current position image indicating a current position on the time axis on a screen. It further functions as a display means.

第5の発明では、学習支援プログラムは、コンピュータを現時点位置画像表示手段(S15)としてさらに機能させる。現時点位置画像表示手段は、時間軸上での現時点の位置を示す現時点位置画像(P)を画面に表示する。   In the fifth invention, the learning support program causes the computer to further function as current position image display means (S15). The current position image display means displays a current position image (P) indicating the current position on the time axis on the screen.

第5の発明によれば、ユーザは、アクセントと現時点との位置関係がわかるので、発音の速さ(テンポ)の調整が可能となる。   According to the fifth aspect, since the user can know the positional relationship between the accent and the current time, the speed of pronunciation (tempo) can be adjusted.

第6の発明は、第1ないし第5のいずれかの発明に従属する学習支援プログラムであって、コンピュータを、アクセントに対応するアクセント音をアクセント位置情報に基づく時間間隔で再生するアクセント音再生手段としてさらに機能させる。   A sixth invention is a learning support program according to any one of the first to fifth inventions, wherein the computer reproduces an accent sound corresponding to an accent at time intervals based on accent position information. As a further function.

第6の発明では、学習支援プログラムは、コンピュータをアクセント音再生手段(S39,34)としてさらに機能させる。アクセント音再生手段は、アクセントに対応するアクセント音をアクセント位置情報に基づく時間間隔で再生する。   In the sixth invention, the learning support program causes the computer to further function as accent sound reproduction means (S39, 34). The accent sound reproducing means reproduces the accent sound corresponding to the accent at time intervals based on the accent position information.

第6の発明によれば、ユーザは、さらにアクセント音を通じて各区間の時間長を聴覚的にも認識するので、自然な発音が容易に行える。   According to the sixth aspect of the invention, the user can also audibly recognize the time length of each section through the accent sound, so that natural pronunciation can be easily performed.

第7の発明は、第1ないし第6のいずれかの発明に従属する学習支援プログラムであって、原文内容情報は原文の文字を示す原文文字情報(781a)を含み、原文内容報知手段(S105)は原文文字情報に基づいて原文の文字を画面に表示する。   The seventh invention is a learning support program according to any one of the first to sixth inventions, wherein the original text content information includes original text information (781a) indicating the original text, and the original text content notifying means (S105). ) Displays the original text on the screen based on the original text information.

第7の発明によれば、原文の文字を表示することで、原文の内容を視覚的に報知すると共に、正しい綴りを認識させることができる。   According to the seventh aspect, by displaying the original text, the contents of the original text can be visually notified and the correct spelling can be recognized.

第8の発明は、第7の発明に従属する学習支援プログラムであって、コンピュータを、原文内容報知手段によって表示された原文をアクセント位置情報に基づいてアクセントの時間軸上での位置で時間区間に区切り、原文内容報知手段によって表示された原文の文字列のうち現時点に対応する時間区間に属する文字列を強調表示する文字列強調表示手段としてさらに機能させる。   An eighth invention is a learning support program according to the seventh invention, wherein the computer displays the original text displayed by the original text content notifying means at a time interval at a position on the time axis of the accent based on the accent position information. The character string highlighting means for highlighting the character string belonging to the time section corresponding to the current time among the character strings of the original text displayed by the text content notification means.

第8の発明では、学習支援プログラムは、コンピュータを文字列強調表示手段(S43)としてさらに機能させる。文字列強調表示手段は、原文内容報知手段によって表示された原文をアクセント位置情報に基づいてアクセントの時間軸上での位置で時間区間に区切り、原文内容報知手段によって表示された原文の文字列のうち現時点に対応する時間区間に属する文字列を強調表示する。   In the eighth invention, the learning support program causes the computer to further function as character string highlighting means (S43). The character string highlighting means divides the original text displayed by the original text content notifying means into time intervals at the position on the time axis of the accent based on the accent position information, and the character string of the original text displayed by the original text content notifying means is displayed. Among them, the character string belonging to the time interval corresponding to the current time is highlighted.

第8の発明によれば、さらに文字列を時間区間単位で強調表示していくことで、原文を適切な文字列単位で発音させることができる。   According to the eighth aspect, by further highlighting the character string in units of time intervals, the original sentence can be pronounced in appropriate character string units.

第9の発明は、第1ないし第8のいずれかの発明に従属する学習支援プログラムであって、原文内容情報は原文の音声を示す原文音声情報(781d)をさらに含み、原文内容報知手段(S55)は原文音声情報に基づいて原文の音声を再生する。   A ninth invention is a learning support program according to any one of the first to eighth inventions, wherein the original text content information further includes original text audio information (781d) indicating the original voice, and the original text content notifying means ( In step S55, the original sound is reproduced based on the original sound information.

第9の発明によれば、原文の音声つまりお手本を再生することで、原文の内容を聴覚的に報知すると共に、正しい発音を認識させることができる。   According to the ninth aspect, by reproducing the voice of the original text, that is, the model, the contents of the original text can be audibly notified and the correct pronunciation can be recognized.

第10の発明は、第9の発明に従属する学習支援プログラムであって、コンピュータを、原文の音声の再生速度を設定する再生速度設定手段としてさらに機能させ、原文内容報知手段は、再生速度設定手段によって設定された再生速度で原文の音声を再生する。   A tenth invention is a learning support program according to the ninth invention, further causing the computer to function as a reproduction speed setting means for setting a reproduction speed of the original sound, wherein the original content notifying means is a reproduction speed setting means. The original sound is reproduced at the reproduction speed set by the means.

第10の発明では、学習支援プログラムは、コンピュータを再生速度設定手段(S1)としてさらに機能させる。再生速度設定手段は原文の音声の再生速度を設定し、原文内容報知手段は再生速度設定手段によって設定された再生速度で原文の音声を再生する。   In the tenth invention, the learning support program causes the computer to further function as reproduction speed setting means (S1). The reproduction speed setting means sets the reproduction speed of the original sound, and the original content notification means reproduces the original sound at the reproduction speed set by the reproduction speed setting means.

第10の発明によれば、習熟度に応じた再生速度を設定することで、学習効果を高めることができる。   According to the tenth aspect, the learning effect can be enhanced by setting the reproduction speed according to the proficiency level.

第11の発明は、第9または第10の発明に従属する学習支援プログラムであって、原文内容報知手段は、原文の音声を繰り返し再生する。   An eleventh invention is a learning support program according to the ninth or tenth invention, wherein the original text content notifying means repeatedly reproduces the original voice.

第11の発明によれば、お手本を繰り返し再生し、ユーザに繰り返し発音させることで、正しい発音を身につけさせることができる。   According to the eleventh aspect, it is possible to acquire the correct pronunciation by repeatedly reproducing the model and causing the user to repeat the pronunciation.

第12の発明は、第11の発明に従属する学習支援プログラムであって、原文内容報知手段は、原文の音声を繰り返す毎に音量が小さくなるように再生する。   The twelfth invention is a learning support program subordinate to the eleventh invention, and the original text content notifying means reproduces the volume so that the volume decreases every time the original text is repeated.

第12の発明によれば、徐々にお手本に頼らずに発音させていくことで、正しい発音が身に付きやすくなる。   According to the twelfth aspect of the present invention, it is easy to acquire correct pronunciation by gradually generating a sound without depending on a model.

第13の発明は、第12の発明に従属する学習支援プログラムであって、コンピュータを、原文内容報知手段による所定の回数の音声再生が終了した後に、原文内容報知手段による再生を行わずにアクセント画像表示手段による表示を行うよう制御する再生表示制御手段、および再生表示制御手段によって制御されているときのユーザの発音をユーザ発音情報として録音する録音手段としてさらに機能させる。   A thirteenth aspect of the invention is a learning support program according to the twelfth aspect of the present invention, in which the computer is activated without performing reproduction by the original content notifying unit after the predetermined number of times of voice reproduction by the original content notifying unit has been completed. It further functions as reproduction display control means for controlling display by the image display means, and recording means for recording user's pronunciation when controlled by the reproduction display control means as user pronunciation information.

第13の発明では、学習支援プログラムは、コンピュータを再生表示制御手段(S51)および録音手段(S53,86)としてさらに機能させる。再生表示制御手段は、原文内容報知手段による所定の回数の音声再生が終了した後に、原文内容報知手段による再生を行わずにアクセント画像表示手段による表示を行うよう制御する。録音手段は、再生表示制御手段によって制御されているときのユーザの発音をユーザ発音情報として録音する。   In the thirteenth invention, the learning support program causes the computer to further function as reproduction display control means (S51) and recording means (S53, 86). The reproduction display control means controls to display the accent image display means without performing reproduction by the original text content notification means after the predetermined number of times of sound reproduction by the original text content notification means has been completed. The recording means records the user's pronunciation as controlled by the reproduction display control means as user pronunciation information.

第13の発明によれば、お手本を徐々に小さくして最後は再生せず、このときにユーザの発音を録音するので、身についた発音を鮮明に(お手本がかぶらないように)録音することができる。   According to the thirteenth aspect, the model is gradually reduced and is not played back at the end, and the user's pronunciation is recorded at this time, so that the pronunciation that has been worn is clearly recorded (so that the model does not get worn). Can do.

第14の発明は、第5の発明に従属する学習支援プログラムであって、コンピュータを、現時点位置画像表示手段によって現時点位置画像が画面に表示されているときのユーザの発音をユーザ発音情報として録音する録音手段としてさらに機能させる。   A fourteenth aspect of the invention is a learning support program according to the fifth aspect of the invention, in which the computer records the user's pronunciation as the user pronunciation information when the current position image is displayed on the screen by the current position image display means. It further functions as a recording means.

第14の発明では、学習支援プログラムはコンピュータを録音手段(S53,86)としてさらに機能させる。録音手段は、現時点位置画像表示手段によって現時点位置画像が画面に表示されているときのユーザの発音をユーザ発音情報として録音する。   In the fourteenth invention, the learning support program causes the computer to further function as recording means (S53, 86). The recording means records the user's pronunciation when the current position image is displayed on the screen by the current position image display means as user pronunciation information.

第14の発明によれば、現時点位置画像を通じてお手本の発音の速さをユーザに示しながら、ユーザの発音を録音することができる。   According to the fourteenth aspect, the user's pronunciation can be recorded while showing the user how fast the model is pronounced through the current position image.

第15の発明は、第13または第14の発明に従属する学習支援プログラムであって、コンピュータを、録音手段によって録音されたユーザ発音情報と記憶媒体に記憶されている原文内容情報とに基づいてユーザが原文を発声するリズムの正確性を評価する評価手段としてさらに機能させる。   A fifteenth aspect of the invention is a learning support program according to the thirteenth or fourteenth aspect of the invention, in which the computer is operated based on the user pronunciation information recorded by the recording means and the original content information stored in the storage medium. It further functions as an evaluation means for evaluating the accuracy of the rhythm in which the user utters the original text.

第15の発明では、学習支援プログラムは、コンピュータを評価手段(S78)としてさらに機能させる。評価手段は、録音手段によって録音されたユーザ発音情報と記憶媒体に記憶されている原文内容情報とに基づいて、ユーザが原文を発声するリズムの正確性を評価する。   In the fifteenth aspect, the learning support program causes the computer to further function as evaluation means (S78). The evaluation means evaluates the accuracy of the rhythm in which the user utters the original text based on the user pronunciation information recorded by the recording means and the original text content information stored in the storage medium.

第15の発明によれば、録音したものを評価することで、学習の成果を認識させ、学習意欲を高めることができる。   According to the fifteenth aspect, by evaluating the recorded one, the learning result can be recognized and the willingness to learn can be increased.

第16の発明は、第1ないし第15のいずれかの発明に従属する学習支援プログラムであって、コンピュータを、所定のリズムに従うチック音をユーザに発音を開始させる所定の時点より前に再生するチック音再生手段としてさらに機能させる。   A sixteenth aspect of the present invention is a learning support program according to any one of the first to fifteenth aspects of the present invention, wherein the computer reproduces a tick sound that follows a predetermined rhythm before a predetermined point in time when the user starts sounding. It further functions as a tick sound reproducing means.

第16の発明では、学習支援プログラムは、コンピュータをチック音再生手段(S27)としてさらに機能させる。チック音再生手段は、所定のリズムに従うチック音をユーザに発音を開始させる所定の時点より前に再生する。   In the sixteenth invention, the learning support program causes the computer to further function as tick sound reproducing means (S27). The tick sound reproducing means reproduces a tick sound according to a predetermined rhythm before a predetermined time point when the user starts to pronounce.

第16の発明によれば、チック音によって、発音開始のタイミングを認識させることができる。また、発音の平均的な速さを事前に認識させることができる。   According to the sixteenth aspect, the timing of the start of sound generation can be recognized by the tick sound. In addition, the average speed of pronunciation can be recognized in advance.

第17の発明は、語学学習の対象となる原文(ES)の内容を示す原文内容情報(781a,781d)と原文に関しアクセントの時間軸上での位置を示すアクセント位置情報(781c)とを記憶した記憶媒体(48)、原文内容情報に基づいて原文の内容をユーザに報知する原文内容報知手段(S55,S105)、および原文内容報知手段によって原文の内容が報知されているときに原文に関しアクセントの時間軸上での位置をユーザに報知するためのアクセント画像(G,AP1,AP2,…)をアクセント位置情報に基づいて画面に表示するアクセント画像表示手段(S111)を備える、学習支援装置(10)である。   The seventeenth invention stores original text content information (781a, 781d) indicating the content of an original text (ES) to be language-learned and accent position information (781c) indicating the position of the original text on the time axis. Storage medium (48), original text content notifying means (S55, S105) for notifying the user of the content of the original text based on the original text content information, and an accent on the original text when the original text content notifying means is informed A learning support apparatus comprising accent image display means (S111) for displaying an accent image (G, AP1, AP2,...) On the screen based on the accent position information for informing the user of the position on the time axis. 10).

第17の発明でも、第1の発明と同様に、ユーザは、原文の自然な発音を身につけることができる。   In the seventeenth invention, similarly to the first invention, the user can acquire the natural pronunciation of the original text.

この発明によれば、原文の自然な発音を身につけさせることができる、学習支援プログラムおよび学習支援装置が実現される。   According to the present invention, a learning support program and a learning support device that can acquire the natural pronunciation of the original text are realized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例であるゲーム装置の外観図であり、開状態における正面を示す。It is an external view of the game device which is one Example of this invention, and shows the front in an open state. ゲーム装置の外観図であり、開状態における側面を示す。It is an external view of a game device, and shows the side in an open state. ゲーム装置の外観図であり、(A)は閉状態における一方側面を、(B)は閉状態における上面を、(C)は閉状態における他方側面を、そして(D)は閉状態における下面をそれぞれ示す。2A and 2B are external views of a game apparatus, wherein FIG. 1A shows one side surface in a closed state, FIG. 1B shows an upper surface in the closed state, FIG. 1C shows the other side surface in the closed state, and FIG. Each is shown. ゲーム装置がユーザによって把持された様子を示す図解図である。It is an illustration figure which shows a mode that the game device was hold | gripped by the user. ゲーム装置の電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of the electric constitution of a game device. トレーニング画面の一例を示す図解図である。It is an illustration figure which shows an example of a training screen. 再生画面の一例を示す図解図である。It is an illustration figure which shows an example of a reproduction | regeneration screen. (A)〜(C)はトレーニング画面の変化の一部(前半)を示す図解図である。(A)-(C) is an illustration figure which shows a part of change (first half) of a training screen. (A)〜(C)はトレーニング画面の変化の他の一部(後半)を示す図解図である。(A)-(C) are the illustrations which show the other part (latter half) of the change of a training screen. (A)〜(E)はチックマークに与えられるアニメーション効果の一例を示す図解図である。(A)-(E) is an illustration figure which shows an example of the animation effect given to a tick mark. (A)〜(E)はアクセントマークに与えられるアニメーション効果の一例を示す図解図である。(A)-(E) is an illustration figure which shows an example of the animation effect given to an accent mark. メインメモリのメモリマップの一部を示す図解図である。It is an illustration figure which shows a part of memory map of a main memory. 問題データの一例を示す図解図である。It is an illustration figure which shows an example of problem data. 語学学習処理で利用される定数および変数と、音声波形,チックマークおよびアクセントマークとの関係を時間軸に沿って示す図解図である。It is an illustration figure which shows the relationship between the constant and variable utilized by a language learning process, and a speech waveform, a tick mark, and an accent mark along a time axis. CPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement. CPU動作の他の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement. CPU動作のその他の一部を示すフロー図である。It is a flowchart which shows the other part of CPU operation | movement. CPU動作のさらにその他の一部を示すフロー図である。It is a flowchart which shows a part of others of CPU operation | movement. CPU動作の他の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement. CPU動作のその他の一部を示すフロー図である。It is a flowchart which shows the other part of CPU operation | movement.

図1〜図3には、本発明の一実施例であるゲーム装置10の外観が示される。ゲーム装置10は折り畳み型のゲーム装置であり、図1および図2は、開いた状態(開状態)におけるゲーム装置10を示し、図3は、閉じた状態(閉状態)におけるゲーム装置10を示している。また、図1は、開状態におけるゲーム装置10の正面図であり、図2は、開状態におけるゲーム装置の側面図である。ゲーム装置10は、2つの表示装置(LCD12および14)および2つのカメラ(カメラ16および18)を有し、カメラによって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータを保存したりすることができる。   1 to 3 show the appearance of a game apparatus 10 that is an embodiment of the present invention. The game apparatus 10 is a folding game apparatus. FIGS. 1 and 2 show the game apparatus 10 in an open state (open state), and FIG. 3 shows the game apparatus 10 in a closed state (closed state). ing. FIG. 1 is a front view of the game apparatus 10 in the open state, and FIG. 2 is a side view of the game apparatus in the open state. The game apparatus 10 has two display devices (LCDs 12 and 14) and two cameras (cameras 16 and 18), picks up an image with the camera, displays the picked-up image on a screen, and data of the picked-up image Can be saved.

ゲーム装置10は、開いた状態において両手または片手で把持することができるような小型のサイズとされる。   The game apparatus 10 has a small size that can be held with both hands or one hand in the open state.

ゲーム装置10は、下側ハウジング20および上側ハウジング22という2つのハウジングを有する。下側ハウジング20と上側ハウジング22とは、開閉可能(折り畳み可能)に接続されている。この実施例では、各ハウジング20および22はともに横長の長方形の板状形状であり、互いの長辺部分で回転可能に接続されている。   The game apparatus 10 has two housings, a lower housing 20 and an upper housing 22. The lower housing 20 and the upper housing 22 are connected so as to be openable and closable (foldable). In this embodiment, each of the housings 20 and 22 has a horizontally long rectangular plate shape, and is connected so as to be rotatable at the long side portions of each other.

上側ハウジング22は、下側ハウジング20の上側の一部で回動自在に支持されている。これによって、ゲーム装置10は、閉状態(下側ハウジング20と上側ハウジング22とのなす角度が約0°の状態(図3参照))と、開状態(下側ハウジング20と上側ハウジング22とのなす角度が約180°の状態(図2参照))とをとることができる。ユーザは通常、開状態でゲーム装置10を使用し、ゲーム装置10を使用しない場合には閉状態としてゲーム装置10を保管する。また、ゲーム装置10は、上記閉状態および開状態のみでなく、下側ハウジング20と上側ハウジング22とのなす角度を、ヒンジに発生する摩擦力などによって閉状態と開状態との間の任意の角度に維持することができる。つまり、上側ハウジング22を下側ハウジング20に対して任意の角度で静止させることができる。   The upper housing 22 is rotatably supported by a part of the upper side of the lower housing 20. As a result, the game apparatus 10 is in a closed state (a state where the angle between the lower housing 20 and the upper housing 22 is approximately 0 ° (see FIG. 3)) and an open state (the lower housing 20 and the upper housing 22 are separated from each other). A state where the angle formed is about 180 ° (see FIG. 2)). The user normally uses the game apparatus 10 in the open state, and stores the game apparatus 10 in the closed state when the game apparatus 10 is not used. In addition to the above-described closed state and open state, the game apparatus 10 can set an angle between the lower housing 20 and the upper housing 22 to an arbitrary value between the closed state and the open state by a frictional force generated in the hinge. Can be maintained at an angle. That is, the upper housing 22 can be made stationary with respect to the lower housing 20 at an arbitrary angle.

まず、下側ハウジング20に設けられる構成について説明する。図1に示すように、ゲーム装置10は、下側LCD(液晶表示装置)12を有する。下側LCD12は横長形状であり、長辺方向が下側ハウジング20の長辺方向に一致するように配置される。下側LCD12は下側ハウジング20に収納される。下側LCD12は、下側ハウジング20の内側面に設けられる。したがって、ゲーム装置10を使用しない場合には閉状態としておくことによって、下側LCD12の画面が汚れたり傷ついたりすることを防止することができる。なお、この実施例では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用してもよい。また、ゲーム装置10は任意の解像度の表示装置を利用することができる。なお、ゲーム装置10を撮像装置として利用する場合、下側LCD12は主に、カメラ16または18で撮像されている画像をリアルタイムに表示(スルー表示)するために用いられる。   First, the structure provided in the lower housing 20 will be described. As shown in FIG. 1, the game apparatus 10 includes a lower LCD (liquid crystal display device) 12. The lower LCD 12 has a horizontally long shape, and is arranged such that the long side direction coincides with the long side direction of the lower housing 20. The lower LCD 12 is housed in the lower housing 20. The lower LCD 12 is provided on the inner side surface of the lower housing 20. Therefore, when the game apparatus 10 is not used, it is possible to prevent the screen of the lower LCD 12 from becoming dirty or damaged by keeping the game apparatus 10 closed. In this embodiment, an LCD is used as the display device. However, any other display device such as a display device using EL (Electro Luminescence) may be used. The game apparatus 10 can use a display device having an arbitrary resolution. When the game apparatus 10 is used as an imaging apparatus, the lower LCD 12 is mainly used for displaying an image captured by the camera 16 or 18 in real time (through display).

下側ハウジング20の内側面はほぼ平面状に形成される。当該内側面の中央には、下側LCD12を露出させるための開口部20bが形成される。当該開口部20bの左側(図示y軸負側)には開口部20cが形成され、当該開口部20bの右側には開口部20dが形成される。開口部20bおよび20cは、各キートップ(各ボタン24a〜24eの上面)を露出させるためのものである。そして、下側ハウジング20の内部に収納される下側LCD12の画面が開口部20bから露出し、各キートップが開口部20cおよび20dから露出される。このように、下側ハウジング20の内側面には、中央に設けられる下側LCD12用の開口部20bの左右両側に非画面領域(図1に示す点線領域A1およびA2。具体的には、各ボタン24a〜24eを配置するための領域;ボタン配置領域)がそれぞれ設けられる。   The inner surface of the lower housing 20 is formed in a substantially flat shape. In the center of the inner side surface, an opening 20b for exposing the lower LCD 12 is formed. An opening 20c is formed on the left side (the y-axis negative side in the drawing) of the opening 20b, and an opening 20d is formed on the right side of the opening 20b. The openings 20b and 20c are for exposing the key tops (the upper surfaces of the buttons 24a to 24e). The screen of the lower LCD 12 housed in the lower housing 20 is exposed from the opening 20b, and the key tops are exposed from the openings 20c and 20d. Thus, on the inner side surface of the lower housing 20, non-screen areas (dotted line areas A1 and A2 shown in FIG. 1; specifically, each of the left and right sides of the opening 20b for the lower LCD 12 provided in the center. An area for arranging the buttons 24a to 24e; a button arrangement area) is provided.

下側ハウジング20には、入力装置として、各ボタン24a〜24iおよびタッチパネル28が設けられる。図1に示されるように、各ボタン24a〜24iのうち、方向入力ボタン24a、ボタン24b、ボタン24c、ボタン24d、ボタン24e、および電源ボタン24fは、下側ハウジング20の内側面に設けられる。方向入力ボタン24aは例えば選択操作等に用いられ、各ボタン24b〜24eは例えば決定操作やキャンセル操作等に用いられる。電源ボタン24fは、ゲーム装置10の電源をオン/オフするために用いられる。ここでは、方向入力ボタン24aおよび電源ボタン24fは、下側ハウジング20の中央付近に設けられる下側LCD12に対して一方の側の(図1では左側)に設けられ、ボタン24b〜24eは下側LCD12に対して他方の側(図1では右側)に設けられる。方向入力ボタン24aおよびボタン24b〜24eは、ゲーム装置10に対する各種操作を行うために用いられる。   The lower housing 20 is provided with buttons 24a to 24i and a touch panel 28 as input devices. As shown in FIG. 1, among the buttons 24 a to 24 i, the direction input button 24 a, the button 24 b, the button 24 c, the button 24 d, the button 24 e, and the power button 24 f are provided on the inner surface of the lower housing 20. The direction input button 24a is used for, for example, a selection operation, and the buttons 24b to 24e are used for, for example, a determination operation or a cancel operation. The power button 24f is used to turn on / off the power of the game apparatus 10. Here, the direction input button 24a and the power button 24f are provided on one side (left side in FIG. 1) with respect to the lower LCD 12 provided near the center of the lower housing 20, and the buttons 24b to 24e are provided on the lower side. It is provided on the other side (right side in FIG. 1) with respect to the LCD 12. The direction input button 24 a and the buttons 24 b to 24 e are used for performing various operations on the game apparatus 10.

図3(A)は閉状態におけるゲーム装置10の左側面図であり、図3(B)は当該ゲーム装置10の正面図であり、図3(C)は当該ゲーム装置10の右側面図であり、そして図3(D)は当該ゲーム装置10の背面図である。図3(C)に示されるように、また、図3(A)に示されるように、音量ボタン24iは、下側ハウジング20の左側面に設けられる。音量ボタン24iは、ゲーム装置10が備えるスピーカ34の音量を調整するために用いられる。また、図3(D)に示されるように、ボタン24hは、下側ハウジング20の上面の右端部に設けられる。ボタン24gは、下側ハウジング20の上面の左端部に設けられる。各ボタン24gおよび24hは、ゲーム装置10に対して例えば撮影指示操作(シャッタ操作)を行うために用いられる。各ボタン24gおよび24hの両方をシャッターボタンとして機能させてもよく、この場合、右利きのユーザはボタン24hを使用し、左利きのユーザはボタン24gを使用することができ、いずれのユーザにも使い勝手が良い。なお、ゲーム装置10は、各ボタン24gおよび24hを常にシャッターボタンとして有効としておいてもよいし、右利きか左利きかの設定をして(メニュープログラムなどによりユーザに設定入力をさせ、設定されたデータを記憶しておく)、右利き設定のときにはボタン24hのみ有効とし、左利き設定のときにはボタン24gのみ有効とするようにしてもよい。   3A is a left side view of the game apparatus 10 in the closed state, FIG. 3B is a front view of the game apparatus 10, and FIG. 3C is a right side view of the game apparatus 10. FIG. 3D is a rear view of the game apparatus 10. As shown in FIG. 3C and as shown in FIG. 3A, the volume button 24 i is provided on the left side surface of the lower housing 20. The volume button 24 i is used to adjust the volume of the speaker 34 provided in the game apparatus 10. Further, as shown in FIG. 3D, the button 24 h is provided at the right end portion of the upper surface of the lower housing 20. The button 24 g is provided at the left end portion of the upper surface of the lower housing 20. The buttons 24g and 24h are used to perform, for example, a shooting instruction operation (shutter operation) on the game apparatus 10. Both buttons 24g and 24h may function as shutter buttons. In this case, a right-handed user can use the button 24h, and a left-handed user can use the button 24g. Is good. Note that the game apparatus 10 may always make each button 24g and 24h effective as a shutter button, or set right-handed or left-handed (by allowing the user to input settings through a menu program or the like) Data is stored), only the button 24h may be valid when the right-handed setting is set, and only the button 24g may be enabled when the left-handed setting is set.

図1に示されるように、ゲーム装置10は、各操作ボタン24a〜24iとは別の入力装として、タッチパネル28をさらに備えている。タッチパネル28は、下側LCD12の画面上に装着されている。なお、この実施例では、タッチパネル28は抵抗膜方式のタッチパネルである。ただし、タッチパネルは抵抗膜方式に限らず、任意の押圧式のタッチパネルを用いることができる。この実施例では、タッチパネル28として、下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル28の解像度と下側LCD12の解像度が一致している必要はない。また、下側ハウジング20の右側面には挿入口30(図1および図3(D)に示す点線)が設けられている。挿入口30は、タッチパネル28に対する操作を行うために用いられるタッチペン36を収納することができる。なお、タッチパネル28に対する入力は通常タッチペン36を用いて行われるが、タッチペン36に限らずユーザの指でタッチパネル28を操作することも可能である。   As shown in FIG. 1, the game apparatus 10 further includes a touch panel 28 as an input device different from the operation buttons 24 a to 24 i. The touch panel 28 is mounted on the screen of the lower LCD 12. In this embodiment, the touch panel 28 is a resistive film type touch panel. However, the touch panel is not limited to the resistive film type, and any press-type touch panel can be used. In this embodiment, the touch panel 28 having the same resolution (detection accuracy) as that of the lower LCD 12 is used. However, the resolution of the touch panel 28 and the resolution of the lower LCD 12 are not necessarily the same. Further, an insertion port 30 (dotted line shown in FIGS. 1 and 3D) is provided on the right side surface of the lower housing 20. The insertion slot 30 can accommodate a touch pen 36 that is used to perform an operation on the touch panel 28. In addition, although the input with respect to the touchscreen 28 is normally performed using the touch pen 36, it is also possible to operate the touchscreen 28 not only with the touch pen 36 but with a user's finger | toe.

図3(A)に示されるように、下側ハウジング20の右側面には開閉可能なカバー部11Bが設けられる。このカバー部11Bの内側には、ゲーム装置10とメモリカード38とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード38は、コネクタに着脱自在に装着される。メモリカード38は、例えば、ゲーム装置10によって撮像された画像のデータを記憶(保存)するために用いられる。   As shown in FIG. 3A, a cover portion 11 </ b> B that can be opened and closed is provided on the right side surface of the lower housing 20. A connector (not shown) for electrically connecting the game apparatus 10 and the memory card 38 is provided inside the cover portion 11B. The memory card 38 is detachably attached to the connector. The memory card 38 is used, for example, for storing (saving) data of an image captured by the game apparatus 10.

図1に示されるように、下側ハウジング20の軸部20aの左側部分には、3つのLED26a〜26cが取り付けられる。ここで、ゲーム装置10は他の機器との間で無線通信を行うことが可能であり、第1LED26aは、無線通信が確立している場合に点灯する。第2LED26bは、ゲーム装置10の充電中に点灯する。第3LED26cは、ゲーム装置10の電源がオンである場合に点灯する。したがって、3つのLED26a〜26cによって、ゲーム装置10の通信確立状況、充電状況、および、電源のオン/オフ状況をユーザに通知することができる。   As shown in FIG. 1, three LEDs 26 a to 26 c are attached to the left side portion of the shaft portion 20 a of the lower housing 20. Here, the game apparatus 10 can perform wireless communication with other devices, and the first LED 26a lights up when wireless communication is established. The second LED 26b is turned on while the game apparatus 10 is being charged. The third LED 26c is lit when the power of the game apparatus 10 is on. Therefore, the three LEDs 26 a to 26 c can notify the user of the communication establishment status, the charging status, and the power on / off status of the game apparatus 10.

以上に説明したように、下側ハウジング20には、ゲーム装置10に対する操作入力を行うための入力装置(タッチパネル28および各ボタン24a〜24i)が設けられる。したがって、ユーザは、ゲーム装置10を使用する際には下側ハウジング20を把持してゲーム装置10に対する操作を行うことができる。図4は、ユーザがゲーム装置10を両手で把持した様子を示す図である。図4に示すように、ユーザは、各LCD12および14がユーザの方向を向く状態で、両手の掌と中指、薬指および小指とで下側ハウジング20の側面および外側面(内側面の反対側の面)を把持する。このように把持することで、ユーザは、下側ハウジング20を把持したまま、各ボタン24a〜24eに対する操作を親指で行い、ボタン24gおよび24hに対する操作を人差し指で行うことができる。   As described above, the lower housing 20 is provided with the input device (touch panel 28 and buttons 24 a to 24 i) for performing operation input to the game apparatus 10. Therefore, the user can hold the lower housing 20 and operate the game device 10 when using the game device 10. FIG. 4 is a diagram illustrating a state in which the user holds the game apparatus 10 with both hands. As shown in FIG. 4, with the LCDs 12 and 14 facing the direction of the user, the user uses the palm and middle finger of both hands, the ring finger and the little finger on the side surface and the outer surface (on the opposite side of the inner surface). Grip the surface). By gripping in this way, the user can operate the buttons 24a to 24e with the thumb while holding the lower housing 20, and can operate the buttons 24g and 24h with the index finger.

一方、上側ハウジング22には、画像を撮像するための構成(カメラ)、および、撮像した画像を表示するための構成(表示装置)が設けられる。以下、上側ハウジング22に設けられる構成について説明する。   On the other hand, the upper housing 22 is provided with a configuration (camera) for capturing an image and a configuration (display device) for displaying the captured image. Hereinafter, the structure provided in the upper housing 22 will be described.

図1に示すように、ゲーム装置10は、上側LCD14を有する。上側LCD14は上側ハウジング22に収納される。上側LCD14は横長形状であり、長辺方向が上側ハウジング22の長辺方向に一致するように配置される。上側LCD14は、上側ハウジング22の内側面(ゲーム装置10が閉状態となった場合に内側となる面)に設けられる。したがって、ゲーム装置10を使用しない場合には閉状態としておくことによって、上側LCD14の画面が汚れたり傷ついたりすることを防止することができる。なお、下側LCD12と同様、上側LCD14に代えて、他の任意の方式および任意の解像度の表示装置を利用してもよい。なお、他の実施形態においては、上側LCD14上にもタッチパネルを設けてもよい。   As shown in FIG. 1, the game apparatus 10 includes an upper LCD 14. The upper LCD 14 is accommodated in the upper housing 22. The upper LCD 14 has a horizontally long shape and is arranged such that the long side direction coincides with the long side direction of the upper housing 22. The upper LCD 14 is provided on the inner surface of the upper housing 22 (the surface that becomes the inner side when the game apparatus 10 is closed). Therefore, when the game apparatus 10 is not used, the screen of the upper LCD 14 can be prevented from becoming dirty or damaged by keeping the game apparatus 10 closed. As in the case of the lower LCD 12, instead of the upper LCD 14, a display device having any other method and arbitrary resolution may be used. In other embodiments, a touch panel may also be provided on the upper LCD 14.

また、ゲーム装置10は、2つのカメラ16および18を有する。各カメラ16および18はともに上側ハウジング22に収納される。図1に示されるように、内側カメラ16は、上側ハウジング22の内側面に取り付けられる。一方、図3(B)に示されるように、外側カメラ18は、内側カメラ16が取り付けられる面の反対側の面、すなわち、上側ハウジング22の外側面(ゲーム装置10が閉状態となった場合に外側となる面)に取り付けられる。これによって、内側カメラ16は、上側ハウジング22の内側面が向く方向を撮像することが可能であり、外側カメラ18は、内側カメラ16の撮像方向の逆方向、すなわち、上側ハウジング22の外側面が向く方向を撮像することが可能である。以上のように、この実施例では、2つのカメラ16および18が撮像方向が互いに逆方向となるように設けられる。したがって、ユーザはゲーム装置10を持ち替えることなく、異なる2方向を撮像することができる。例えば、ユーザは、ゲーム装置10からユーザの方を見た景色を内側カメラ16で撮影することができるとともに、ゲーム装置10からユーザの反対側の方向を見た景色を外側カメラ18で撮影することができる。   The game apparatus 10 includes two cameras 16 and 18. Each camera 16 and 18 is housed in the upper housing 22. As shown in FIG. 1, the inner camera 16 is attached to the inner surface of the upper housing 22. On the other hand, as shown in FIG. 3B, the outer camera 18 has a surface opposite to the surface to which the inner camera 16 is attached, that is, the outer surface of the upper housing 22 (when the game apparatus 10 is in a closed state). Attached to the outer surface). As a result, the inner camera 16 can capture an image in the direction in which the inner surface of the upper housing 22 faces, and the outer camera 18 has a direction opposite to the image capturing direction of the inner camera 16, that is, the outer surface of the upper housing 22 is It is possible to image the direction in which it faces. As described above, in this embodiment, the two cameras 16 and 18 are provided so that the imaging directions are opposite to each other. Therefore, the user can image two different directions without changing the game apparatus 10. For example, the user can shoot a scene viewed from the game apparatus 10 with the inner camera 16 and shoot a scene viewed from the game apparatus 10 in the direction opposite to the user with the outer camera 18. Can do.

また、内側カメラ16は、上側ハウジング22の下側の中央部に形成される軸部22aの中央に取り付けられる。つまり、内側カメラ16は、2つのハウジング20および22が接続される部分の中央に取り付けられる。したがって、ゲーム装置10を開状態にした場合、内側カメラ16は、2つのLCD12および14の間に配置されることになる(図1参照)。換言すれば、内側カメラ16は、ゲーム装置10の中心付近に配置されることになる。なお、「ゲーム装置10の中心」とは、ゲーム装置10の操作面(開状態における各ハウジング20および22の内側面からなる面)の中心という意味である。なお、内側カメラ16は、LCD12および14の横方向の中心付近に配置されているということもできる。
この実施例では、ゲーム装置10を開状態にした場合に内側カメラ16はゲーム装置10の中心付近に配置されるので、ユーザは、内側カメラ16によってユーザ自身を撮影する場合、ユーザがゲーム装置10に正対する位置でゲーム装置10を把持すればよい。つまり、通常の把持位置でゲーム装置を把持すれば、ユーザは撮像範囲の中心付近に位置することになり、ユーザ自身を撮像範囲内に収めることが容易になる。
The inner camera 16 is attached to the center of a shaft portion 22 a formed at the lower center portion of the upper housing 22. That is, the inner camera 16 is attached to the center of the portion where the two housings 20 and 22 are connected. Accordingly, when the game apparatus 10 is opened, the inner camera 16 is disposed between the two LCDs 12 and 14 (see FIG. 1). In other words, the inner camera 16 is arranged near the center of the game apparatus 10. The “center of the game apparatus 10” means the center of the operation surface of the game apparatus 10 (the surface formed by the inner surfaces of the housings 20 and 22 in the open state). It can be said that the inner camera 16 is disposed in the vicinity of the center in the horizontal direction of the LCDs 12 and 14.
In this embodiment, when the game apparatus 10 is in the open state, the inner camera 16 is disposed near the center of the game apparatus 10, so that when the user shoots the user himself / herself with the inner camera 16, the user What is necessary is just to hold | maintain the game device 10 in the position which opposes. In other words, if the game device is gripped at the normal gripping position, the user is positioned near the center of the imaging range, and the user can easily be within the imaging range.

また、図3(B)に示されるように、外側カメラ18は、ゲーム装置10を開状態とした場合において上側ハウジング22の上部(下側ハウジング20から遠い側の部分)に配置される。なお、外側カメラ18は、ゲーム装置10を把持するユーザを撮影するものではないので、ゲーム装置10の中心に設ける必要性は高くない。   As shown in FIG. 3B, the outer camera 18 is disposed on the upper portion of the upper housing 22 (a portion far from the lower housing 20) when the game apparatus 10 is in the open state. Note that the outer camera 18 does not photograph a user who holds the game apparatus 10, and therefore, it is not necessary to provide the outer camera 18 at the center of the game apparatus 10.

また、図1または図3(B)に示されるように、マイク32は、上側ハウジング22に収納されている。具体的には、マイク32は、上側ハウジング22の軸部22aに取り付けられる。この実施例では、マイク32は、内側カメラ16の周囲(図ではy軸の側方)に取り付けられ、より具体的には、内側カメラ16からy軸正方向側の側方に取り付けられる。また、軸部22aにおいては、マイク32がゲーム装置10外部の音を検知することができるように、マイク32に対応する位置(内側カメラ16の側方)にマイクロフォン用孔22cが設けられる。なお、マイク32は下側ハウジング20に収納されてもよい。たとえば、マイクロフォン用孔22cを下側ハウジング20の内側面、具体的には下側ハウジング20の内側面の左下部分(ボタン配置領域A1)に設け、マイク32を、下側ハウジング20内における、マイクロフォン用孔22cの近傍に配置することができる。
また、マイク32は、その集音方向(感度が最大となる方向)が内側カメラ16の撮像方向(光軸)と略並行(言い換えれば集音方向および撮像方向がそれぞれy軸と略並行)となる向きに取り付けられる。これによって、内側カメラ16の撮像範囲内で発せられた音声は、マイク32によって好適に捉えられる。すなわち、マイク32入力の検出とユーザの検出とを同時行うことができるとともに、検出の精度を向上させることができる。
Further, as shown in FIG. 1 or FIG. 3B, the microphone 32 is housed in the upper housing 22. Specifically, the microphone 32 is attached to the shaft portion 22 a of the upper housing 22. In this embodiment, the microphone 32 is attached to the periphery of the inner camera 16 (the side of the y-axis in the figure), and more specifically, is attached to the side of the inner camera 16 on the y-axis positive direction side. In addition, in the shaft portion 22a, a microphone hole 22c is provided at a position corresponding to the microphone 32 (side the inner camera 16) so that the microphone 32 can detect sound outside the game apparatus 10. The microphone 32 may be housed in the lower housing 20. For example, the microphone hole 22 c is provided in the inner surface of the lower housing 20, specifically, the lower left portion (button arrangement region A 1) of the inner surface of the lower housing 20, and the microphone 32 is a microphone in the lower housing 20. It can arrange | position in the vicinity of the use hole 22c.
Further, the microphone 32 has a sound collection direction (direction in which the sensitivity is maximized) substantially parallel to the imaging direction (optical axis) of the inner camera 16 (in other words, the sound collection direction and imaging direction are substantially parallel to the y axis, respectively). It is attached in the direction. As a result, the sound emitted within the imaging range of the inner camera 16 is preferably captured by the microphone 32. That is, the detection of the microphone 32 input and the user detection can be performed simultaneously, and the detection accuracy can be improved.

図3(B)に示されるように、上側ハウジング22の外側面には、第4LED26dが取り付けられる。第4LED26dは、外側カメラ18の周囲(この実施例では、外側カメラ18の右側)に取り付けられる。第4LED26dは、内側カメラ16または外側カメラ18によって撮影が行われた(シャッターボタンが押下された)時点で点灯する。また、内側カメラ16または外側カメラ18によって動画が撮影される間点灯する。第4LED26dによって、ゲーム装置10による撮影が行われた(行われている)ことを撮影対象者に通知することができる。   As shown in FIG. 3B, the fourth LED 26 d is attached to the outer surface of the upper housing 22. The fourth LED 26d is attached around the outer camera 18 (in this embodiment, on the right side of the outer camera 18). The fourth LED 26d is turned on at the time when photographing is performed by the inner camera 16 or the outer camera 18 (the shutter button is pressed). Further, it lights up while a moving image is shot by the inner camera 16 or the outer camera 18. The fourth LED 26d can notify the subject of photographing that photographing by the game apparatus 10 has been performed (performed).

また、上側ハウジング22の内側面はほぼ平面状に形成される。図1に示すように、当該内側面の中央には、上側LCD14を露出させるための開口部21Bが形成される。上側ハウジング22の内部に収納される上側LCD14の画面は、開口部21Bから露出する。また、上記開口部21Bの左右両側には音抜き孔22dがそれぞれ1つずつ形成される。音抜き孔22dの奥の上側ハウジング22内にはスピーカ34が収納されている。音抜き孔22dは、スピーカ34からの音を外部に放出するための孔である。   Further, the inner side surface of the upper housing 22 is formed in a substantially flat shape. As shown in FIG. 1, an opening 21B for exposing the upper LCD 14 is formed at the center of the inner side surface. The screen of the upper LCD 14 housed in the upper housing 22 is exposed from the opening 21B. Further, one sound release hole 22d is formed on each of the left and right sides of the opening 21B. A speaker 34 is accommodated in the upper housing 22 behind the sound release hole 22d. The sound release hole 22d is a hole for releasing sound from the speaker 34 to the outside.

このように、上側ハウジング22の内側面には、中央に設けられる上側LCD14用の開口部21Bの左右両側に非画面領域(図1に示す点線領域B1およびB2。具体的には、スピーカ34を配置するための領域;スピーカ配置領域)がそれぞれ設けられる。2つの音抜き孔22dは、左右方向については、各スピーカ配置領域の左右方向における中央部付近に配置され、上下方向については、各スピーカ配置領域の下部領域(下側ハウジング20に近い側の領域)に配置される。   In this way, on the inner side surface of the upper housing 22, non-screen areas (dotted line areas B1 and B2 shown in FIG. 1; specifically, the speaker 34 is provided on the left and right sides of the opening 21B for the upper LCD 14 provided in the center. A region for placement; a speaker placement region) is provided. The two sound release holes 22d are arranged in the vicinity of the center in the left-right direction of each speaker arrangement region in the left-right direction, and the lower region (region closer to the lower housing 20) of each speaker arrangement region in the up-down direction. ).

なお、上記のように、下側ハウジング20および上側ハウジング22に左右方向に関して同じ位置に非画面領域をそれぞれ設けたことで、ゲーム装置10は、図4に示すような横持ちで把持される場合だけでなく、縦持ち(図4に示す状態からゲーム装置10を左または右回りに90°回転させた状態)で把持される場合にも持ちやすい構成となっている。   As described above, when the non-screen area is provided at the same position in the left-right direction in the lower housing 20 and the upper housing 22, the game apparatus 10 is held in a horizontal manner as shown in FIG. In addition, it is configured to be easy to hold even when it is held vertically (when the game apparatus 10 is rotated 90 ° counterclockwise or clockwise from the state shown in FIG. 4).

以上に説明したように、上側ハウジング22には、画像を撮像するための構成であるカメラ16および18、および、撮像された画像を表示するための表示手段である上側LCD14が設けられる。一方、下側ハウジング20には、ゲーム装置10に対する操作入力を行うための入力装置(タッチパネル28および各ボタン24a〜24i)が設けられる。したがって、ゲーム装置10を撮像装置として使用する際には、ユーザは、上側LCD14に表示される撮像画像(カメラによって撮像された画像)を見ながら、下側ハウジング20を把持して入力装置に対する入力を行うことができる。   As described above, the upper housing 22 is provided with the cameras 16 and 18 that are configured to capture an image, and the upper LCD 14 that is a display means for displaying the captured image. On the other hand, the lower housing 20 is provided with an input device (touch panel 28 and buttons 24a to 24i) for performing an operation input to the game apparatus 10. Therefore, when using the game apparatus 10 as an imaging apparatus, the user grasps the lower housing 20 while viewing the captured image (image captured by the camera) displayed on the upper LCD 14 and inputs to the input apparatus. It can be performed.

また、上側ハウジング22のカメラ16近傍には、音声を入力するための構成であるマイク32が設けられており、したがってゲーム装置10は、録音装置としても使用可能である。さらに、ユーザがマイク32を通して音声入力を行い、ゲーム装置10はこのマイク入力情報に基づいてゲーム処理や語学学習処理(後述)を実行することもできる。   Further, a microphone 32 that is a structure for inputting sound is provided in the vicinity of the camera 16 of the upper housing 22, and thus the game apparatus 10 can also be used as a recording apparatus. Further, the user can input voice through the microphone 32, and the game apparatus 10 can execute game processing and language learning processing (described later) based on the microphone input information.

図5は、ゲーム装置10の内部構成(電気的構成)を示すブロック図である。図5に示すように、ゲーム装置10は、CPU42、メインメモリ48、メモリ制御回路50、保存用データメモリ52、プリセットデータ用メモリ54、メモリカードインターフェース(メモリカードI/F)44、無線通信モジュール56、ローカル通信モジュール58、リアルタイムクロック(RTC)39、電源回路46、およびインターフェース回路(I/F回路)40等の電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて下側ハウジング20(または上側ハウジング22でもよい)内に収納される。   FIG. 5 is a block diagram showing an internal configuration (electrical configuration) of the game apparatus 10. As shown in FIG. 5, the game apparatus 10 includes a CPU 42, a main memory 48, a memory control circuit 50, a storage data memory 52, a preset data memory 54, a memory card interface (memory card I / F) 44, a wireless communication module. 56, a local communication module 58, a real-time clock (RTC) 39, a power supply circuit 46, and an interface circuit (I / F circuit) 40 and other electronic components. These electronic components are mounted on an electronic circuit board and housed in the lower housing 20 (or the upper housing 22).

CPU42は、各種のプログラムを実行するための情報処理手段である。ゲーム装置10を撮像装置として利用する場合には、そのためのプログラムがゲーム装置10内のメモリ(例えば保存用データメモリ52)に記憶される。CPU42が当該プログラムを実行することで、ゲーム装置10は撮影装置として機能する。なお、CPU42によって実行されるプログラムは、ゲーム装置10内のメモリに予め記憶されていてもよいし、メモリカード38から取得されてもよいし、他の機器との通信によって他の機器から取得されてもよい。   The CPU 42 is information processing means for executing various programs. When the game apparatus 10 is used as an imaging apparatus, a program for that purpose is stored in a memory (for example, the storage data memory 52) in the game apparatus 10. When the CPU 42 executes the program, the game apparatus 10 functions as a photographing apparatus. The program executed by the CPU 42 may be stored in advance in a memory in the game apparatus 10, may be acquired from the memory card 38, or acquired from another device through communication with another device. May be.

CPU42には、メインメモリ48、メモリ制御回路50、およびプリセットデータ用メモリ54が接続される。また、メモリ制御回路50には保存用データメモリ52が接続される。メインメモリ48は、CPU42のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ48は、ゲーム処理や語学学習処理に用いられる各種データを記憶したり、外部(メモリカード38や他の機器等)から取得されるプログラムを記憶したりする。この実施例では、メインメモリ48として例えばPSRAM(Pseudo−SRAM)を用いる。保存用データメモリ52は、CPU42によって実行されるプログラムや各カメラ16および18によって撮像された画像のデータ等を記憶するための記憶手段である。保存用データメモリ52は、例えばNAND型フラッシュメモリで構成される。メモリ制御回路50は、CPU42の指示に従って、保存用データメモリ52に対するデータの読み出しおよび書き込みを制御する回路である。プリセットデータ用メモリ54は、ゲーム装置10において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶するための記憶手段である。プリセットデータ用メモリ54としては、SPI(Serial Peripheral Interface)バスによってCPU42と接続されるフラッシュメモリを用いることができる。   A main memory 48, a memory control circuit 50, and a preset data memory 54 are connected to the CPU 42. A storage data memory 52 is connected to the memory control circuit 50. The main memory 48 is a storage means used as a work area or buffer area for the CPU 42. That is, the main memory 48 stores various data used for game processing and language learning processing, and stores programs acquired from the outside (such as the memory card 38 and other devices). In this embodiment, for example, PSRAM (Pseudo-SRAM) is used as the main memory 48. The storage data memory 52 is a storage unit for storing a program executed by the CPU 42, data of images taken by the cameras 16 and 18, and the like. The storage data memory 52 is composed of, for example, a NAND flash memory. The memory control circuit 50 is a circuit that controls reading and writing of data with respect to the storage data memory 52 in accordance with instructions from the CPU 42. The preset data memory 54 is a storage unit for storing data (preset data) such as various parameters set in advance in the game apparatus 10. As the preset data memory 54, a flash memory connected to the CPU 42 by an SPI (Serial Peripheral Interface) bus can be used.

メモリカードI/F44はCPU42に接続される。メモリカードI/F44は、コネクタに装着されたメモリカード38に対するデータの読み出しおよび書き込みをCPU42の指示に従って行う。この実施例では、各カメラ16および18によって撮像された画像データがメモリカード38に書き込まれたり、メモリカード38に記憶された画像データがメモリカード38から読み出されて保存用データメモリ52に記憶されたりする。   The memory card I / F 44 is connected to the CPU 42. The memory card I / F 44 reads and writes data to and from the memory card 38 attached to the connector in accordance with instructions from the CPU 42. In this embodiment, image data captured by each camera 16 and 18 is written to the memory card 38, or image data stored in the memory card 38 is read from the memory card 38 and stored in the storage data memory 52. Or

無線通信モジュール56は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール58は、所定の通信方式により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール56およびローカル通信モジュール58はCPU42に接続される。CPU42は、無線通信モジュール56を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール58を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。   The wireless communication module 56 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. Further, the local communication module 58 has a function of performing wireless communication with the same type of game device by a predetermined communication method. The wireless communication module 56 and the local communication module 58 are connected to the CPU 42. The CPU 42 transmits / receives data to / from other devices via the Internet using the wireless communication module 56, and transmits / receives data to / from other game devices of the same type using the local communication module 58. be able to.

また、CPU42には、RTC60および電源回路46が接続される。RTC60は、時間をカウントしてCPU42に出力する。CPU42は、RTC60によって計時された時間に基づいて、現在時刻(日付)を計算したり、画像取り込み等の動作タイミングを検知したりする。電源回路46は、ゲーム装置10が有する電源(電池;下ハウジングに収納される)からの電力を制御し、ゲーム装置10の各部品に電力を供給する。   In addition, an RTC 60 and a power supply circuit 46 are connected to the CPU 42. The RTC 60 counts the time and outputs it to the CPU 42. The CPU 42 calculates the current time (date) based on the time counted by the RTC 60 and detects the operation timing such as image capture. The power supply circuit 46 controls power from a power source (battery; housed in the lower housing) of the game apparatus 10 and supplies power to each component of the game apparatus 10.

また、ゲーム装置10は、マイク32およびスピーカ34を備えている。マイク32およびスピーカ34はそれぞれI/F回路40に接続される。マイク32は、ユーザの音声を検知して音声信号をI/F回路40に出力する。スピーカ34は、I/F回路40からの音声信号に応じた音声を出力する。I/F回路40はCPU42に接続される。また、タッチパネル28はI/F回路40に接続される。I/F回路40は、マイク32およびスピーカ34の制御を行う音声制御回路と、タッチパネルの制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。変換された音声データ(語学学習を行う場合はユーザの発音データ)は、メインメモリ48の音声エリア(語学学習を行う場合は録音エリア86:図12参照)に書き込まれる。ゲーム装置10を録音装置として利用する場合には、音声エリアに格納された音声データは、後にメモリ制御回路50を介して保存用データメモリ52に書き込まれる(必要に応じてさらに、メモリカードI/F44を介してメモリカード38に記録される)。また、音声エリアに格納された音声データ(マイク入力情報)は、各種のゲーム処理にも利用される。タッチパネル制御回路は、タッチパネル28からの信号に基づいて所定の形式のタッチ位置データを生成してCPU42に出力する。タッチ位置データは、タッチパネル28の入力面のうちで入力が行われた位置の座標を示す。なお、タッチパネル制御回路は、タッチパネル28からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU42は、タッチ位置データを取得することにより、タッチパネル28に対して入力が行われた位置を知ることができる。   Further, the game apparatus 10 includes a microphone 32 and a speaker 34. The microphone 32 and the speaker 34 are each connected to the I / F circuit 40. The microphone 32 detects the user's voice and outputs a voice signal to the I / F circuit 40. The speaker 34 outputs a sound corresponding to the sound signal from the I / F circuit 40. The I / F circuit 40 is connected to the CPU 42. The touch panel 28 is connected to the I / F circuit 40. The I / F circuit 40 includes a voice control circuit that controls the microphone 32 and the speaker 34 and a touch panel control circuit that controls the touch panel. The voice control circuit performs A / D conversion and D / A conversion on the voice signal, or converts the voice signal into voice data of a predetermined format. The converted voice data (user's pronunciation data when language learning is performed) is written in the voice area of the main memory 48 (recording area 86 when language learning is performed: see FIG. 12). When the game apparatus 10 is used as a recording apparatus, the sound data stored in the sound area is later written into the storage data memory 52 via the memory control circuit 50 (if necessary, the memory card I / It is recorded on the memory card 38 via F44). The voice data (microphone input information) stored in the voice area is also used for various game processes. The touch panel control circuit generates touch position data in a predetermined format based on a signal from the touch panel 28 and outputs it to the CPU 42. The touch position data indicates the coordinates of the position where the input is performed on the input surface of the touch panel 28. The touch panel control circuit reads signals from the touch panel 28 and generates touch position data at a rate of once per predetermined time. The CPU 42 can know the position where the input has been made on the touch panel 28 by acquiring the touch position data.

操作部24は、上記各ボタン24a〜24iからなり、CPU42に接続される。操作部24からCPU42へは、各ボタン24a〜24iに対する入力状況(押下されたか否か)を示す操作データが出力される。CPU42は、操作部24から操作データを取得することによって、操作部24に対する入力に従った処理を実行する。   The operation unit 24 includes the buttons 24a to 24i and is connected to the CPU 42. Operation data indicating the input status (whether or not the button is pressed) for each of the buttons 24 a to 24 i is output from the operation unit 24 to the CPU 42. The CPU 42 obtains operation data from the operation unit 24 to execute processing according to the input to the operation unit 24.

各カメラ16および18はCPU42に接続される。各カメラ16および18は、CPU42の指示に従って画像を撮像し、撮像した画像データをCPU42に出力する。CPU42は、各カメラ16および18からの画像データをメインメモリ48の画像エリア(図示せず)に書き込む。ゲーム装置10を撮像装置として利用する場合には、画像エリアに格納された画像データは、後にメモリ制御回路50を介して保存用データメモリ52に書き込まれる(必要に応じてさらに、メモリカードI/F44を介してメモリカード38に記録される)。また、画像エリアに格納された画像データは、各種のゲーム処理にも利用される。   Each camera 16 and 18 is connected to the CPU 42. Each camera 16 and 18 captures an image in accordance with an instruction from the CPU 42 and outputs the captured image data to the CPU 42. The CPU 42 writes the image data from each camera 16 and 18 in an image area (not shown) of the main memory 48. When the game apparatus 10 is used as an imaging apparatus, the image data stored in the image area is later written into the storage data memory 52 via the memory control circuit 50 (if necessary, the memory card I / It is recorded on the memory card 38 via F44). The image data stored in the image area is also used for various game processes.

また、各LCD12および14はCPU42に接続される。各LCD12および14はCPU42の指示に従って画像を表示する。ゲーム装置10を撮像装置として利用する場合、CPU42は、各カメラ16および18のいずれかから取得した画像を上側LCD14に表示させ、所定の処理によって生成した操作画面を下側LCD12に表示させる。ゲーム装置10でゲームをプレイする場合には、LCD12および14の一方または両方にゲーム画像が表示される。   Each LCD 12 and 14 is connected to the CPU 42. Each LCD 12 and 14 displays an image in accordance with an instruction from the CPU 42. When the game apparatus 10 is used as an imaging apparatus, the CPU 42 displays an image acquired from one of the cameras 16 and 18 on the upper LCD 14 and displays an operation screen generated by a predetermined process on the lower LCD 12. When a game is played on the game apparatus 10, a game image is displayed on one or both of the LCDs 12 and 14.

以上のように構成されたゲーム装置10で語学学習を行うとき、CPU42は、図6に示すようなトレーニング画面を上側LCD14(以下“LCD14”)に表示する。トレーニング画面は、語学学習の対象である英文(原文)ESたとえば“Did you hear about the poster ?”と、英文ESの発音を示すカナ文KSたとえば“ディッジュー ヒア アバウト ザ ポウスター?”と、時間軸を示すガイドGと、英文ESを発音する際に連続的に発音すべき発音範囲の発音時間長をガイドGに沿って示すガイドバーGB1〜GB3と、英文ESを発音する際のアクセントの位置をガイドGに沿って示すアクセントマークAP1〜AP3とを含む。アクセントマークAP1〜AP3のうちAP2は、他の2つと比べて相対的に強く発音されるべきアクセントの位置をユーザに認識させるため、強調表示されている。   When language learning is performed with the game apparatus 10 configured as described above, the CPU 42 displays a training screen as shown in FIG. 6 on the upper LCD 14 (hereinafter “LCD 14”). The training screen shows the English language text that is the subject of language learning, such as “Did you hear about the poster?”, The Kana sentence KS that indicates the pronunciation of the English text ES, such as “Didge here about the pooster?” Guide bar GB1 to GB3 that show along the guide G the pronunciation time length of the pronunciation range that should be continuously pronounced when the English ES is pronounced, and the position of the accent when the English ES is pronounced Accent marks AP1 to AP3 shown along G are included. Of the accent marks AP1 to AP3, AP2 is highlighted to allow the user to recognize the position of the accent that should be pronounced relatively strongly compared to the other two.

一般に、英文ESなどの文章を発音する際には、一文内にいくつかのアクセントが現れる。この実施例では、こうしたアクセントで区切られた範囲(あるアクセントから次のアクセントの直前までの範囲)を、連続的に発音すべき発音範囲(以下“発音範囲”)と定義する。したがって、アクセントマークAP1,AP2,…は、ガイドバーGB1,GB2,…の先頭の位置に表示されることになる。   In general, when a sentence such as English ES is pronounced, several accents appear in one sentence. In this embodiment, a range delimited by such accents (a range from one accent to the next immediately before the next accent) is defined as a tone generation range (hereinafter referred to as “sound generation range”) to be continuously generated. Therefore, the accent marks AP1, AP2,... Are displayed at the top positions of the guide bars GB1, GB2,.

CPU42はまた、トレーニング画面をLCD14に表示した状態で、英文ESの音声をスピーカ34を通して再生する。トレーニング画面は、現時点の位置をガイドGに沿って示す現時点位置ポインタPをさらに含む。   The CPU 42 also reproduces the English ES audio through the speaker 34 with the training screen displayed on the LCD 14. The training screen further includes a current position pointer P that indicates the current position along the guide G.

CPU42はまた、英文ESの音声再生を開始する前に、所定数ここでは2個のチック音を一定のリズム(時間間隔)で再生する。このため、トレーニング画面は、チック音の位置をガイドGに沿って示すチックマークTP1およびTP2をさらに含む。   The CPU 42 also reproduces a predetermined number, here two tic sounds at a constant rhythm (time interval) before starting to reproduce the English ES. For this reason, the training screen further includes tick marks TP1 and TP2 that indicate the position of the tick sound along the guide G.

このように構成されたトレーニング画面は、図8(A)〜図8(C)および図9(A)〜図9(C)に示すように変化する。図8(A)〜図8(C)はチック音が再生される期間(つまりユーザが英文ESを発音する前の準備期間)の画面変化を示し、図9(A)〜図9(C)はアクセント音が再生される期間(つまりユーザが英文ESを発音する発音期間)の画面変化を示している。なお、図8(A)〜図8(C)および図9(A)〜図9(C)からは、チックマークTP1およびTP2ならびにアクセントマークAP1〜AP3に加えられるアニメーション効果(図10,図11参照:後述)は取り除かれている。   The training screen configured as described above changes as shown in FIGS. 8A to 8C and FIGS. 9A to 9C. FIGS. 8A to 8C show screen changes during the period in which the tick sound is reproduced (that is, the preparation period before the user pronounces the English sentence ES), and FIGS. 9A to 9C. Indicates a screen change during a period in which the accent sound is reproduced (that is, a pronunciation period in which the user pronounces the English sentence ES). 8A to FIG. 8C and FIG. 9A to FIG. 9C, animation effects added to the tick marks TP1 and TP2 and the accent marks AP1 to AP3 (FIGS. 10 and 11). Reference: below) has been removed.

まず準備期間について、図8(A)に示すように、当初、英文ES,カナ文KSおよびガイドバーGB1〜GB3は、いずれもグレーで表示され、現時点位置ポインタPは、ガイドGの左端付近たとえばチックマークTP1の位置に置かれる。   First, regarding the preparation period, as shown in FIG. 8A, initially, the English sentence ES, the kana sentence KS, and the guide bars GB1 to GB3 are all displayed in gray, and the current position pointer P is near the left end of the guide G. It is placed at the position of the tick mark TP1.

チックマークTP1に対応する最初のチック音が再生されると、図8(B),図8(C)に示すように、現時点位置ポインタPは、一定速度で右向きに移動する動きを開始する。2番目のチック音は、現時点位置ポインタPが次のチックマークTP2を通過するとき再生される。そして現時点位置ポインタPが最初のアクセントマークAP1を通過するタイミングで、英文ESの音声再生が開始される。ユーザは、事前に再生される2個のチック音を通して、発音のリズムおよび発音開始のタイミングを認識することができる。   When the first tick sound corresponding to the tick mark TP1 is reproduced, as shown in FIGS. 8B and 8C, the current position pointer P starts moving to the right at a constant speed. The second tick sound is reproduced when the current position pointer P passes the next tick mark TP2. Then, at the timing when the current position pointer P passes the first accent mark AP1, the audio reproduction of the English sentence ES is started. The user can recognize the rhythm of the pronunciation and the timing of the pronunciation start through the two tic sounds reproduced in advance.

図8(A)〜図8(C)のように現時点位置ポインタPがチックマークTP1およびアクセントマークAP1の間に位置する期間は、英文ES,カナ文KSおよびガイドバーGB1〜GB3には、何の変化も生じない。一方、チックマークTP1およびTP2には、図10(A)〜図10(E)に示すようなアニメーション効果が加えられる。   As shown in FIGS. 8A to 8C, during the period in which the current position pointer P is located between the tick mark TP1 and the accent mark AP1, the English ES, the Kana sentence KS, and the guide bars GB1 to GB3 are No change occurs. On the other hand, animation effects as shown in FIGS. 10A to 10E are applied to the tick marks TP1 and TP2.

図10(A)は最初のチック音が出力されるタイミングに対応しており、このときチックマークTP1は最大まで強調表示されている。この後、図10(B)に示すように、現時点位置ポインタPがチックマークTP2に向かって移動するに連れて、チックマークTP1の強調度合いは減少していく。そして、図10(C)に示すように、現時点位置ポインタPがチックマークTP2を通過するとき、つまり2番目のチック音が出力されるタイミングで、チックマークTP2は最大まで強調表示される。チックマークTP1の強調は、現時点位置ポインタPがチックマークTP2に到達する前に解除される。   FIG. 10A corresponds to the timing when the first tick sound is output. At this time, the tick mark TP1 is highlighted to the maximum. Thereafter, as shown in FIG. 10B, as the current position pointer P moves toward the tick mark TP2, the degree of emphasis of the tick mark TP1 decreases. As shown in FIG. 10C, when the current position pointer P passes the tick mark TP2, that is, at the timing when the second tick sound is output, the tick mark TP2 is highlighted to the maximum. The emphasis of the tick mark TP1 is released before the current position pointer P reaches the tick mark TP2.

その後、図10(D)に示すように、現時点位置ポインタPがアクセントマークAP1に向かって移動するに連れてチックマークTP2の強調度合は減少していき、図10(E)に示すように、現時点位置ポインタPがアクセントマークAP1に到達する前にチックマークTP2の強調は解除される。このようなアニメーション効果をチックマークTP1およびTP2に加えることで、発音開始のタイミングが取りやすくなる。   Thereafter, as shown in FIG. 10D, as the current position pointer P moves toward the accent mark AP1, the degree of emphasis of the tick mark TP2 decreases, and as shown in FIG. The emphasis of the tick mark TP2 is canceled before the current position pointer P reaches the accent mark AP1. By adding such an animation effect to the tick marks TP1 and TP2, the timing for starting sound generation can be easily obtained.

次に、発音期間に関し、図9(A)に示すように、現時点位置ポインタPがアクセントマークAP1を経てガイドバーGB1の範囲内に入ると、このガイドバーGB1の色がグレーから赤に変化し、さらには、英文ESおよびカナ文KSのうちガイドバーGB1に対応する部分つまり“Did you”および“ディッジュー”の色も、グレーから赤に変化する。   Next, regarding the sound generation period, as shown in FIG. 9A, when the current position pointer P enters the range of the guide bar GB1 via the accent mark AP1, the color of the guide bar GB1 changes from gray to red. Further, the color corresponding to the guide bar GB1, that is, “Did you” and “Didge” in the English sentence ES and the kana sentence KS also changes from gray to red.

その後、図9(B)に示すように、現時点位置ポインタPがアクセントマークAP2を経てガイドバーGB2の範囲内に入ると、このガイドバーGB2の色がグレーから赤に変化し、さらには、英文ESおよびカナ文KSのうちガイドバーGB2に対応する部分つまり“hear about the”および“ヒア アバウト ザ”の色も、グレーから赤に変化する。一方、ガイドバーGB1,“Did you”および“ディッジュー”の色は、赤から黒に変化する。   Thereafter, as shown in FIG. 9B, when the current position pointer P enters the range of the guide bar GB2 through the accent mark AP2, the color of the guide bar GB2 changes from gray to red. Of ES and Kana sentence KS, the color corresponding to the guide bar GB2, that is, “hear about the” and “here about the” also changes from gray to red. On the other hand, the colors of the guide bars GB1, “Did you” and “Diddy” change from red to black.

その後、図9(C)に示すように、現時点位置ポインタPがアクセントマークAP3を経てガイドバーGB3の範囲内に入ると、このガイドバーGB3の色がグレーから赤に変化し、さらには、英文ESおよびカナ文KSのうちガイドバーGB3に対応する部分つまり“poster ?”および“ポウスター?”の色も、グレーから赤に変化する。一方、ガイドバーGB2,“hear about the”および“ヒア アバウト ザ”の色は、赤から黒に変化する。ガイドバーGB1,“Did you”および“ディッジュー”の色は、黒もまま変化しない。   Thereafter, as shown in FIG. 9C, when the current position pointer P enters the range of the guide bar GB3 via the accent mark AP3, the color of the guide bar GB3 changes from gray to red. Of ES and Kana sentence KS, the color corresponding to the guide bar GB3, that is, “poster?” And “Powster?” Also changes from gray to red. On the other hand, the colors of the guide bars GB2, “hear about the” and “here about the” change from red to black. The colors of the guide bars GB1, “Did you” and “Didge” remain black.

こうして、現時点位置ポインタPの進行に連れてガイドバーGB1〜GB3の色を変化させ、さらに英文ESおよびカナ文KSの対応部分も同様に変化させることで、ユーザは、現時点での発音範囲および発音時間長を一目で認識することがでる。一方、アクセントマークAP1〜AP3には、図11(A)〜図11(E)に示すようなアニメーション効果が加えられる。   Thus, the user changes the color of the guide bars GB1 to GB3 as the current position pointer P advances, and also changes the corresponding portions of the English sentence ES and the kana sentence KS in the same manner, so that the user can pronounce the current pronunciation range and pronunciation. You can recognize the length of time at a glance. On the other hand, an animation effect as shown in FIGS. 11A to 11E is applied to the accent marks AP1 to AP3.

図11(A)は図10(E)のタイミングに対応しており、このときアクセントマークAP1は未だ強調表示されていない。この後、図11(B)に示すように、現時点位置ポインタPがアクセントマークAP1に向かって移動していき、そして、図11(C)に示すように、現時点位置ポインタPがアクセントマークAP1およびAP2の間の所定位置に到達した時点で、アクセントマークAP1は最大まで強調表示される。   FIG. 11A corresponds to the timing of FIG. 10E, and at this time, the accent mark AP1 is not yet highlighted. Thereafter, as shown in FIG. 11B, the current position pointer P moves toward the accent mark AP1, and as shown in FIG. 11C, the current position pointer P is changed to the accent mark AP1 and the accent mark AP1. When the predetermined position between AP2 is reached, the accent mark AP1 is highlighted up to the maximum.

その後、アクセントマークAP1の強調は、図11(D)に示すように、現時点位置ポインタPがアクセントマークAP1から遠ざかるに連れて減少していき、そして図11(E)に示すように、現時点位置ポインタPがアクセントマークAP2に到達する前に解除される。以降、アクセントマークAP2,AP3についても、同様のアニメーション効果が加えられる。このようなアニメーション効果をアクセントマークAP1〜AP3に加えることで、アクセントの発音タイミングを認識しやすくなる。   Thereafter, accentuation of the accent mark AP1 decreases as the current position pointer P moves away from the accent mark AP1, as shown in FIG. 11D, and as shown in FIG. It is released before the pointer P reaches the accent mark AP2. Thereafter, the same animation effect is applied to the accent marks AP2 and AP3. By adding such an animation effect to the accent marks AP1 to AP3, it becomes easy to recognize the timing of the accent sounding.

図8(A)〜図8(C)および図9(A)〜図9(C)のようなトレーニング画面の変化は、所定回数ここでは5回繰り返される。音声再生時の音量は、繰り返しの度に減少していき、最後の1回つまり5回目ではゼロとなる。ユーザは、5回に渡って英文ESの発音を行うが、最初の4回はトレーニング画面を見ながら再生音声を真似て発音を行い、最後の1回はトレーニング画面だけで(再生音声なしで)発音を行う。この5回目の発音が、マイク32を通して録音される。   The changes in the training screen as shown in FIGS. 8A to 8C and FIGS. 9A to 9C are repeated a predetermined number of times, here five times. The volume at the time of sound reproduction decreases with each repetition, and becomes zero at the last time, that is, the fifth time. The user pronounces the English ES over 5 times, but the first 4 times reproduces the sound reproduced while observing the training screen, and the last time only on the training screen (without the playback sound) Perform pronunciation. This fifth pronunciation is recorded through the microphone 32.

録音が完了すると、CPU42は、図7に示すような再生画面をLCD14に表示して、録音された発音の音声をvscaleと同時にスピーカ34から再生する。この再生画面は、英文ESと、お手本音声の波形WP1と、ユーザ(あなた)の発音音声の波形WP2と、現時点位置ポインタPとを含む。現時点位置ポインタPは、現時点の時間軸(ガイドG)上での位置を示す。現時点位置ポインタPの移動に連れて、英文ESの色がトレーニング画面(図6参照)におけるそれと同じ要領で変化し、かつ2つの波形WP1およびWP2の描画が進行する。描画が完了すると、CPU42は、2つの波形WP1およびWP2のレベルを主としてアクセントAP1,AP2,…の位置で比較して、お手本およびユーザ発音の間の類似度を評価する。そして、評価結果を示す評価スコア(図示せず)を表示する。   When the recording is completed, the CPU 42 displays a reproduction screen as shown in FIG. 7 on the LCD 14 and reproduces the sound of the recorded pronunciation from the speaker 34 simultaneously with the vscale. This reproduction screen includes an English sentence ES, a model voice waveform WP1, a user (you) pronunciation voice waveform WP2, and a current position pointer P. The current position pointer P indicates the current position on the time axis (guide G). As the current position pointer P moves, the color of the English sentence ES changes in the same manner as that on the training screen (see FIG. 6), and drawing of two waveforms WP1 and WP2 proceeds. When the drawing is completed, the CPU 42 compares the levels of the two waveforms WP1 and WP2 mainly at the positions of the accents AP1, AP2,..., And evaluates the similarity between the model and the user pronunciation. Then, an evaluation score (not shown) indicating the evaluation result is displayed.

次に、このような語学学習を実現するための具体的な情報処理について、図12〜図20により説明する。図12には、語学学習を行う場合のメインメモリ48のメモリマップが示される。図12を参照して、メインメモリ48にはプログラムエリア48aおよびデータエリア48bが形成され、プログラムエリア48aには、図15〜図20のフローチャートに対応するメインプログラム70が格納される。メインプログラム70は、トレーニング画面などの描画を行うための画像処理プログラム72と、英文ESの音声を再生しかつユーザの発音の録音するための音声処理プログラム74とをサブルーチンとして含む。プログラムエリア48aにはさらに、I/F回路40等を制御して映像や音声の入出力を行うための入出力制御プログラム76なども格納されている。   Next, specific information processing for realizing such language learning will be described with reference to FIGS. FIG. 12 shows a memory map of the main memory 48 when language learning is performed. Referring to FIG. 12, a program area 48a and a data area 48b are formed in main memory 48, and main program 70 corresponding to the flowcharts of FIGS. 15 to 20 is stored in program area 48a. The main program 70 includes, as subroutines, an image processing program 72 for drawing a training screen and the like, and a voice processing program 74 for reproducing the English ES voice and recording the user's pronunciation. The program area 48a further stores an input / output control program 76 for controlling the I / F circuit 40 and the like to input and output video and audio.

一方、データエリア48bは、問題エリア78,定数エリア80,変数エリア82,描画エリア84および録音エリア86などを含む。問題エリア78には、問題1データ781,問題2データ782,…が格納される。問題1データ781の構成を図13に示す。問題1データ781は、英文ESを示すテキストデータ781aと、カナ文KSを示すテキストデータ781bと、アクセントの時間軸上での位置T(1),T(2),…および強弱を示すアクセント情報781cと、英文の音声を示す波形データ781dと、英文の音声のデータサイズ(サンプル数および/または時間長W)を示すサイズ情報781eを含む。問題2データ782,…も、同様に構成される。なお、図13の例では、単語の先頭にアクセントがきているが、単語の途中にアクセントがくる場合もある。   On the other hand, the data area 48b includes a problem area 78, a constant area 80, a variable area 82, a drawing area 84, a recording area 86, and the like. The problem area 78 stores problem 1 data 781, problem 2 data 782,. The structure of the problem 1 data 781 is shown in FIG. Problem 1 data 781 includes text data 781a indicating English ES, text data 781b indicating Kana sentence KS, and accent information indicating positions T (1), T (2),... 781c, waveform data 781d indicating English speech, and size information 781e indicating the data size (number of samples and / or time length W) of English speech. The problem 2 data 782,... Is configured similarly. In the example of FIG. 13, an accent is placed at the beginning of a word, but an accent may appear in the middle of the word.

定数エリア80には、メインプログラム70によって参照される各種の定数(V,N,T(n),STEP,Ttick,Ntick:後述)が記憶される。変数エリア82には、メインプログラム70によって制御される各種の変数(step,scale,tv,vscale,score:後述)が記憶される。描画エリア84には、トレーニング画面(図6参照)や再生画面(図7参照)に対応する画像データが記憶される。録音エリア86には、マイク32を通して入力された音声データつまりユーザの発音が記憶される。   In the constant area 80, various constants (V, N, T (n), STEP, Ttick, Ntick: described later) referred to by the main program 70 are stored. The variable area 82 stores various variables (step, scale, tv, vsscale, score: described later) controlled by the main program 70. The drawing area 84 stores image data corresponding to the training screen (see FIG. 6) and the playback screen (see FIG. 7). In the recording area 86, voice data inputted through the microphone 32, that is, user's pronunciation is stored.

図14には、上記の定数および変数のうち主要なものと、音声波形,チックマークおよびアクセントマークとの関係が、時間軸に沿って図解されている。“V”はお手本の音声データを、“scale”は“V”の再生倍率(たとえば0.5倍,1倍,1.5倍)を、そして“vscale”は“V”を“scale”倍に伸縮したものをそれぞれ示す。   FIG. 14 illustrates the relationship between the main ones of the above constants and variables and the speech waveform, tick mark, and accent mark along the time axis. “V” is the audio data of the model, “scale” is the playback magnification of “V” (eg 0.5 times, 1 time, 1.5 times), and “vscale” is “V” times “scale” times The stretched parts are shown in.

“t”は現在時刻(基準時刻0からの経過時間)を、“tv”は再生開始時刻をそれぞれ示す。  “T” indicates the current time (elapsed time from the reference time 0), and “tv” indicates the reproduction start time.

“Ttick”はチック音の時間間隔を示しており、このためチックマーク(TP1およびTP2)間の間隔は、“Ttick”の“scale”倍つまり“Ttick×scale”となる。2番目のチックマークTP2と1番目のアクセントマークAP1との間隔もまた、“Ttick×scale”である。   “Ttick” indicates the time interval of the tick sound. Therefore, the interval between the tick marks (TP1 and TP2) is “scale” times “Ttick”, that is, “Ttick × scale”. The interval between the second tick mark TP2 and the first accent mark AP1 is also “Ttick × scale”.

“Ntick”はチック音の個数(ここでは2個)を、“N”はアクセントの個数(ここでは4個)をそれぞれ示す。T(n)は、scale=1で再生した際のn番目(1≦n≦N)のアクセントの再生開始時刻(tv)からの時間を示す。このため、アクセントマークAP1は“tv”から“T(1)×scale”だけ右に、アクセントマークAP2は“tv”から“T(2)×scale”だけ右に、アクセントマークAP3は“tv”から“T(3)×scale”だけ右に、そしてアクセントマークAP4は“tv”から“T(4)×scale”だけ右に、それぞれ位置している。   “Ntick” indicates the number of tic sounds (here, 2), and “N” indicates the number of accents (here, 4). T (n) indicates the time from the reproduction start time (tv) of the nth (1 ≦ n ≦ N) accent when reproduction is performed with scale = 1. Therefore, the accent mark AP1 is “T (1) × scale” to the right from “tv”, the accent mark AP2 is “T (2) × scale” to the right from “tv”, and the accent mark AP3 is “tv”. The accent mark AP4 is positioned to the right by “T (3) × scale”, and the accent mark AP4 is positioned to the right by “T (4) × scale” from “tv”.

したがって、音声再生開始に先立ってチック音が一定時間“Ttick×scale”毎に発生し、最後(2番目)のチック音から“Ttick×scale”後に最初のアクセント音が発生する。音声再生は、この1番目のアクセント音よりも“T(1)×scale”だけ前に開始される(tv=Ttick×scale×2−T(1)×scale)。2番目のアクセント音は、1番目のアクセント音から“T(2)×scale−T(1)×scale”後に発生し、3番目のアクセント音は、2番目のアクセント音から“T(3)×scale−T(2)×scale”後に発生し、そして4番目のアクセント音は、3番目のアクセント音から“T(4)×scale−T(3)×scale”後に発生する。ここでT(1),T(2),…は、お手本の音声データ毎に定められた定数であるため、アクセント音の間隔は、一般に一定ではない。   Therefore, a tick sound is generated every “Ttick × scale” for a predetermined time prior to the start of audio reproduction, and the first accent sound is generated after “Ttick × scale” from the last (second) tick sound. The sound reproduction is started by “T (1) × scale” before the first accent sound (tv = Ttick × scale × 2-T (1) × scale). The second accent sound is generated after “T (2) × scale−T (1) × scale” from the first accent sound, and the third accent sound is generated from the second accent sound by “T (3)”. * Scale-T (2) * scale "occurs, and the fourth accent sound occurs after" T (4) * scale-T (3) * scale "from the third accent sound. Here, T (1), T (2),... Are constants determined for each model voice data, and therefore the interval between accent sounds is generally not constant.

CPU42は、このようなメインメモリ48のプログラムおよびデータに基づいて、図15〜図20のフローチャートに従う語学学習処理を実行する。この処理は、問題が選択される度に実行される。図15を参照して、いずれかの問題たとえば問題1が選択されると、最初、ステップS1〜S7を通じて各種変数(図12〜図14参照)に初期値をセットする。詳しくは、ステップS1では変数scaleに“1”をセットし、ステップS3では変数stepに“1”をセットする。ここで変数stepは、現時点での繰り返し回数を示す。ステップS5では、定数Ttick,Ntick,T(1)およびscaleから“(Ttick×Ntick−T(1))×scale”つまり再生開始時刻(図14参照:前述)を計算し、結果を変数tvにセットする。ステップS7では、定数Vおよびscaleから“V×scale”を計算し、結果を変数vscaleにセットする。なお、“V”はお手本の音声データを、“vscale”は“V” お手本の音声データを伸縮して得られた音声データをそれぞれ示すが、説明の便宜のため、定数V,変数vscaleのように記す。そしてステップS9で、描画エリア84に対して描画を行い、これにより図6のようなトレーニング画面がLCD14に表示される。このトレーニング画面描画処理は、詳しくは図20のサブルーチンに従って実行される。   The CPU 42 executes a language learning process according to the flowcharts of FIGS. 15 to 20 based on the program and data of the main memory 48 as described above. This process is executed each time a problem is selected. Referring to FIG. 15, when any problem, for example, problem 1 is selected, first, initial values are set to various variables (see FIGS. 12 to 14) through steps S1 to S7. Specifically, “1” is set to the variable scale in step S1, and “1” is set to the variable step in step S3. Here, the variable step indicates the number of repetitions at the current time. In step S5, “(Ttick × Ntick−T (1)) × scale”, that is, the reproduction start time (see FIG. 14: described above) is calculated from the constants Ttick, Ntick, T (1) and scale, and the result is set to the variable tv. set. In step S7, “V × scale” is calculated from the constants V and scale, and the result is set in the variable vscale. Note that “V” indicates the audio data of the model, and “vscale” indicates the audio data obtained by expanding and contracting the audio data of the “V” model. To In step S9, drawing is performed on the drawing area 84, whereby a training screen as shown in FIG. This training screen drawing process is executed according to the subroutine of FIG. 20 in detail.

図20を参照して、まず、ステップS101でガイドGを含む初期画面を描画し、ステップS103では問題データたとえば問題1データ781(図13参照)を読み込み、ステップS105では問題1データ781に含まれているテキストデータ781aおよび781bに基づいて英文ESおよびカナ文KSを描画する。次に、ステップS107で、問題1データ781に含まれているサイズ情報781eに基づいて伸縮率を計算する。たとえば、トレーニング画面(図6参照)の横サイズ(表示幅)が時間長W0に相当する場合、伸縮率(k)は、英文の音声(vscale)の時間長Wから“k=W0/(tv+W)”のように計算される。   Referring to FIG. 20, first, an initial screen including guide G is drawn in step S101, problem data, for example, problem 1 data 781 (see FIG. 13) is read in step S103, and included in problem 1 data 781 in step S105. An English ES and a Kana sentence KS are drawn based on the text data 781a and 781b. In step S107, the expansion / contraction rate is calculated based on the size information 781e included in the problem 1 data 781. For example, when the horizontal size (display width) of the training screen (see FIG. 6) corresponds to the time length W0, the expansion / contraction rate (k) is calculated from the time length W of the English speech (vscale) by “k = W0 / (tv + W). ) ”.

ステップS109ではチックマークTP1,TP2を伸縮後の間隔で描画する。伸縮後の間隔は、“Ttick×scale×k”のように計算される(図14参照)。ステップS111ではアクセントマークAP1〜AP3を伸縮後の間隔で描画する。伸縮後の間隔は、たとえばアクセントマークAP1およびAP2の間隔については、“{T(2)×scale−T(1)×scale}×k”のように計算される(図14参照)。そしてステップS113では、ガイドバーGB1〜GB3を伸縮後の長さで描画する。伸縮後の長さは、たとえばガイドバーGB1については、“{T(2)×scale−T(1)×scale−D1}×k”のように計算される(図14参照)。ここでD1は、ガイドバーGB1の末尾とアクセントマークAP2との隙間の長さを示す。ガイドバーGB2については、“{T(3)×scale−T(2)×scale−D2}×k”のように計算される。これにより、LCD14には図6のようなトレーニング画面が表示される。その後、上位層のルーチンに復帰する。   In step S109, the tick marks TP1 and TP2 are drawn at intervals after expansion / contraction. The interval after expansion / contraction is calculated as “Ttick × scale × k” (see FIG. 14). In step S111, the accent marks AP1 to AP3 are drawn at intervals after expansion / contraction. The interval after expansion / contraction is calculated, for example, as “{T (2) × scale−T (1) × scale} × k” for the interval between the accent marks AP1 and AP2 (see FIG. 14). In step S113, the guide bars GB1 to GB3 are drawn with the length after expansion / contraction. For example, for the guide bar GB1, the length after expansion / contraction is calculated as “{T (2) × scale−T (1) × scale−D1} × k” (see FIG. 14). Here, D1 indicates the length of the gap between the end of the guide bar GB1 and the accent mark AP2. The guide bar GB2 is calculated as “{T (3) × scale−T (2) × scale−D2} × k”. As a result, a training screen as shown in FIG. 6 is displayed on the LCD 14. Thereafter, the process returns to the upper layer routine.

再び図15を参照して、次に、ステップS11で変数tに“0”をセットし、ステップS13では英文ES,カナ文KSおよびガイドバーGB1〜GB3の表示色をグレーにする。そしてステップS15で、ガイドG上の現時点位置ポインタPを変数tに対応する位置へと移動する。ステップS17ではスピード変更操作の有無を判別し、NOであればステップS23に進む。操作部24やタッチパネル28を通してスピード変更操作が行われると、ステップS17からステップS19に移って、変更後のスピードに対応する再生倍率を計算し、結果を変数scaleにセットする。そして、ステップS21で音声再生または録音を停止した後、ステップS3に戻る。なお、現時点で音声再生も録音も行われていなければ、ステップS21は素通りとなる。   Referring to FIG. 15 again, next, in step S11, “0” is set to the variable t, and in step S13, the display colors of the English sentence ES, the kana sentence KS, and the guide bars GB1 to GB3 are made gray. In step S15, the current position pointer P on the guide G is moved to a position corresponding to the variable t. In step S17, it is determined whether or not there is a speed change operation. If NO, the process proceeds to step S23. When a speed change operation is performed through the operation unit 24 or the touch panel 28, the process proceeds from step S17 to step S19, the reproduction magnification corresponding to the speed after the change is calculated, and the result is set in a variable scale. Then, after the sound reproduction or recording is stopped in step S21, the process returns to step S3. Note that if neither voice playback nor recording is performed at this time, step S21 is passed.

図16を参照して、ステップS23では変数nに“1”をセットする。ここでの変数nはチックの番号を示す。ステップS25では変数tが“Ttick×scale×(n−1)”を跨いだか否かを判別し、ここでNOであれば直ちにステップS31に進む。ステップS25でYESであれば、当該n番目のチックに関してステップS27およびS29の処理を実行した後、ステップS31に進む。ステップS27ではチック音の再生を行い、ステップS29ではチックマーク(TPn)のアニメーションを開始する。チックマーク(TP1およびTP2)のアニメーションは、図10(A)〜図10(E)に示す要領で進行する。   Referring to FIG. 16, “1” is set to variable n in step S23. The variable n here indicates the number of ticks. In step S25, it is determined whether or not the variable t has crossed “Ttick × scale × (n−1)”. If “NO” here, the process immediately proceeds to step S31. If “YES” in the step S25, the processes of the steps S27 and S29 are executed for the n-th tick, and then the process proceeds to the step S31. In step S27, a tick sound is reproduced. In step S29, animation of a tick mark (TPn) is started. The animation of the tick marks (TP1 and TP2) proceeds in the manner shown in FIGS. 10 (A) to 10 (E).

ステップS31では変数nをインクリメントし、次のステップS33では変数nが定数Ntick以下であるか否かを判別する。ここでYESであればステップS25に戻り、NOであればステップS35に進む。   In step S31, the variable n is incremented, and in the next step S33, it is determined whether or not the variable n is equal to or less than a constant Ntick. If “YES” here, the process returns to the step S25, and if “NO”, the process proceeds to the step S35.

図17を参照して、ステップS35では変数nに“1”をセットする。ここでの変数nはアクセントの番号を示す。ステップS37では変数tが“tv+scale×T(n)”を跨いだか否かを判別し、ここでNOであれば直ちにステップS45に進む。ステップS37でYESであれば、当該n番目のアクセントに関してステップS39〜S43の処理を実行した後、ステップS45に進む。ステップS39ではアクセント音の再生を行い、ステップS41ではアクセントマーク(APn)のアニメーションを開始し、ステップS43では英文ES,カナ文KSおよびガイドバーGB1,GB2,…の表示色を“0〜(n−1)”の部分は黒に、“n”の部分は赤にする。アクセントマーク(AP1,AP2,…)のアニメーションは、図11(A)〜図11(E)に示す要領で進行する。英文ES,カナ文KSおよびガイドバーGB1〜GB3の表示色は、図9(A)〜図9(C)に示す要領で変化する。   Referring to FIG. 17, in step S35, “1” is set to variable n. The variable n here indicates an accent number. In step S37, it is determined whether or not the variable t has crossed “tv + scale × T (n)”. If “NO” here, the process immediately proceeds to a step S45. If “YES” in the step S37, the process of the steps S39 to S43 is executed for the nth accent, and then the process proceeds to the step S45. In step S39, an accent sound is reproduced. In step S41, an accent mark (APn) animation is started. In step S43, the display colors of English ES, Kana sentence KS, and guide bars GB1, GB2,. -1) "" is black and "n" is red. The animation of the accent marks (AP1, AP2,...) Proceeds in the manner shown in FIGS. 11 (A) to 11 (E). The display colors of the English sentence ES, the kana sentence KS, and the guide bars GB1 to GB3 change in the manner shown in FIG. 9 (A) to FIG. 9 (C).

ステップS45では変数nをインクリメントし、次のステップS47では変数nが定数N以下であるか否かを判別する。ここでYESであればステップS37に戻り、NOであればステップS49に進む。   In step S45, the variable n is incremented, and in the next step S47, it is determined whether or not the variable n is a constant N or less. If “YES” here, the process returns to the step S37, and if “NO”, the process proceeds to the step S49.

図18を参照して、ステップS49では変数tが変数tvを跨いだか否かを判別し、NOであれば直ちにステップS57に進む。ステップS49でYESであれば、変数stepが定数STEPに達したか否かをステップS51でさらに判別する。step=STEPであれば、ステップS53で録音処理を開始した後、ステップS57に進む。step<STEPであれば、ステップS55で、変数stepから音量を算出し、変数vscaleを当該音量で再生開始する。なお、音量の算出には、n=1のとき最大値をとり、nの増加に連れて値が減少し、そして“n=Nのとき0”または“n=N−1のとき最小値”となるような関数(もしくはこのような算出結果を記載したテーブル)が用いられる。そしてステップS57に進む。   Referring to FIG. 18, in step S49, it is determined whether or not variable t straddles variable tv. If NO, the process immediately proceeds to step S57. If “YES” in the step S49, it is further determined whether or not the variable step has reached the constant STEP in a step S51. If step = STEP, the recording process is started in step S53, and then the process proceeds to step S57. If step <STEP, in step S55, the volume is calculated from the variable step, and reproduction of the variable vscale is started at the volume. In calculating the volume, the maximum value is obtained when n = 1, the value decreases as n increases, and “0 when n = N” or “minimum value when n = N−1”. A function (or a table describing such a calculation result) is used. Then, the process proceeds to step S57.

ステップS57では、変数tが変数tvに{変数vscaleの再生時間}を加算した値以上であるか否かを判別し、NOであればステップS59で、一定時間待機した後、変数tの値を更新する(t=t+待機時間)。そして、ステップS15に戻る。ステップS57でYESであれば、変数stepが定数STEPに達したか否かをステップS59で再び判別する。ステップS59でNOであれば、ステップS63で変数stepをインクリメントした後、ステップS11に戻る。ステップS59でYESであれば、ステップS61で録音を停止した後、ステップS73に進む。   In step S57, it is determined whether or not the variable t is equal to or greater than the value obtained by adding {reproduction time of variable vsscale} to variable tv. If NO, the process waits for a predetermined time in step S59, and then sets the value of variable t. Update (t = t + standby time). Then, the process returns to step S15. If “YES” in the step S57, it is determined again in a step S59 whether or not the variable step has reached the constant STEP. If “NO” in the step S59, the variable step is incremented in a step S63, and then, the process returns to the step S11. If “YES” in the step S59, the recording is stopped in a step S61, and then, the process proceeds to the step S73.

図19を参照して、ステップS73では、変数vscaleと録音エリア86の録音データ(ユーザ発音)とを主としてアクセントの位置におけるレベルで比較して、両者の類似度を示す評価スコアを算出する。算出結果は、変数scoreにセットされる。ステップS75では、再生画面(つまり英文ES,変数vscaleの波形WP1,および録音データの波形WP2:図7参照)の描画エリア84への描画と、変数vscaleの再生と、録音データの再生とを開始する。ステップS77では、変数tに“0”をセットし、ステップS79では現時点位置ポインタPを変数tに対応する位置へと移動させる。ステップS81では、変数tが{変数vscaleの再生時間}以上であるか否かを判別し、NOであればステップS83で、一定時間待機した後、変数tの値を更新する(t=t+待機時間)。そして、ステップS79に戻る。   Referring to FIG. 19, in step S73, the variable vscale and the recorded data (user pronunciation) in the recording area 86 are compared mainly at the level at the accent position, and an evaluation score indicating the similarity between the two is calculated. The calculation result is set in a variable score. In step S75, drawing of the playback screen (that is, English ES, waveform WP1 of variable vsscale and waveform WP2 of recorded data: see FIG. 7) in drawing area 84, playback of variable vsscale, and playback of recorded data is started. To do. In step S77, “0” is set to the variable t. In step S79, the current position pointer P is moved to a position corresponding to the variable t. In step S81, it is determined whether or not the variable t is equal to or greater than {reproduction time of variable vsscale}. If NO, the value of variable t is updated after waiting for a predetermined time in step S83 (t = t + standby). time). Then, the process returns to step S79.

ステップS81でYESであれば、ステップS85で変数scoreの値を描画する。ステップS87では聴き直し操作の有無を判別し、YESであればステップS75に戻る。ステップS87でNOであれば、終了操作の有無をステップS89でさらに判別し、ここでもNOであればステップS87に戻る。ステップS89でYESであれば、この問題(問題1)に関する語学学習処理は終了となり、次の問題(問題2)について同様の処理が実行される。   If “YES” in the step S81, the value of the variable score is drawn in a step S85. In step S87, it is determined whether or not a re-listening operation is performed. If YES, the process returns to step S75. If NO in step S87, the presence / absence of an end operation is further determined in step S89, and if NO in this case, the process returns to step S87. If “YES” in the step S89, the language learning process regarding the problem (problem 1) is ended, and the same process is executed for the next problem (problem 2).

以上から明らかなように、この実施例のゲーム装置10は、CPU42およびメインメモリ48を備える。メインメモリ48は、語学学習の対象となる原文ESの内容を示す原文内容情報(原文文字情報781aおよび原文音声情報781d)と、原文に関しアクセントの時間軸上での位置を示すアクセント位置情報781cとを記憶しており(図13参照)、CPU42は、原文ESの内容を原文内容情報(781a,781d)に基づいて報知(文字を表示または音声を再生)する(S55,S105)。また、このような報知を行っているときに、原文ESに関しアクセントの時間軸上での位置をユーザに報知するためのアクセント画像(つまり時間軸を示すガイドGおよびアクセント位置を示すアクセントマークAP1,AP2,…)を、アクセント位置情報781cに基づいてLCD14に表示する(S111)。   As is clear from the above, the game apparatus 10 of this embodiment includes a CPU 42 and a main memory 48. The main memory 48 includes original text content information (original text character information 781a and original text audio information 781d) indicating the contents of the original ES to be language-learned, and accent position information 781c indicating the position of the original text on the time axis. (See FIG. 13), the CPU 42 notifies the contents of the original text ES based on the original text content information (781a, 781d) (displays characters or reproduces voice) (S55, S105). Further, during such notification, an accent image (that is, a guide G indicating the time axis and an accent mark AP1, indicating the accent position) for notifying the user of the position of the accent on the time axis regarding the original ES. AP2,...) Are displayed on the LCD 14 based on the accent position information 781c (S111).

こうして、原文ESの内容を報知しながら、原文ESのアクセント(AP1,AP2,…)の時間軸(G)上での位置を視覚的に示すことで、ユーザは、アクセントを発音すべきタイミングと、アクセントで区切られた各区間の時間長とがわかるので、原文の自然な発音を身につけることができる。   Thus, by visually indicating the position of the accent (AP1, AP2,...) On the time axis (G) of the original ES while notifying the content of the original ES, the user can determine the timing at which the accent should be pronounced. Because you know the length of each section separated by accents, you can acquire the natural pronunciation of the original text.

なお、チック音やアクセント音の再生、チックマークやアクセントマークのアニメーション、ガイドバーの表示といった処理は、この実施例では、現在時刻(変数t)がある値を跨いだか否かを判定して開始しているが、他の実施例では、処理を開始するフレーム(の番号)を予め計算しておいて、現フレームがそのフレームになったか否かを判定して開始してもよい。   It should be noted that the processes such as the reproduction of the tick sound and accent sound, the animation of the tick mark and accent mark, and the display of the guide bar are started in this embodiment by determining whether or not the current time (variable t) has crossed a certain value. However, in another embodiment, the frame (number) for starting processing may be calculated in advance, and it may be started by determining whether or not the current frame has become that frame.

なお、この実施例では、原文ESの言語は英語であるが、ドイツ語,フランス語,中国語など他の外国語についても、自然な発音を身につけさせることができる。原文ESを日本語とし、カナ文KSを外国語で表記すれば、日本語の学習も行える。   In this embodiment, the language of the original document ES is English, but natural pronunciation can be acquired for other foreign languages such as German, French, and Chinese. If the original sentence ES is Japanese and the kana sentence KS is written in a foreign language, Japanese can be learned.

以上では、ゲーム装置10について説明したが、この発明は、原文内容情報781a,781dおよびアクセント位置情報781cを記憶する記憶媒体と、原文内容情報781a,781dに基づいて原文ESを報知(原文ESの文字を表示および/または原文ESの音声を再生)しながらアクセント位置情報781cに基づいてアクセント画像を画面に表示するコンピュータとを備える、学習支援装置(PCや携帯端末など)に適用できる。   Although the game apparatus 10 has been described above, the present invention notifies the original ES based on the storage medium storing the original content information 781a and 781d and the accent position information 781c, and the original content information 781a and 781d. The present invention can be applied to a learning support device (such as a PC or a portable terminal) that includes a computer that displays an accent image on the screen based on the accent position information 781c while displaying characters and / or reproducing the voice of the original ES.

10 …ゲーム装置
14 …(上側)LCD
32 …マイク
34 …スピーカ
42 …CPU
48 …メインメモリ
G …ガイド(時間軸)
P …現時点位置ポインタ
TP1,TP2 …チックマーク
AP1〜AP4 …アクセントマーク
GB1〜GB4 …ガイドバー(時間区間画像)
10 ... Game device 14 ... (Upper) LCD
32 ... Microphone 34 ... Speaker 42 ... CPU
48 ... main memory G ... guide (time axis)
P ... Current position pointer TP1, TP2 ... Tick mark AP1 to AP4 ... Accent mark GB1 to GB4 ... Guide bar (time interval image)

Claims (17)

語学学習の対象となる原文の内容を示す原文内容情報と前記原文に関しアクセントの時間軸上での位置を示すアクセント位置情報とを記憶した記憶媒体を有する学習支援装置のコンピュータを、
前記原文内容情報に基づいて、前記原文の内容をユーザに報知する原文内容報知手段、および
前記原文内容報知手段によって前記原文の内容が報知されているときに、前記原文に関しアクセントの前記時間軸上での位置を前記ユーザに報知するためのアクセント画像を前記アクセント位置情報に基づいて画面に表示するアクセント画像表示手段として機能させる、学習支援プログラム。
A computer of a learning support apparatus having a storage medium storing original text content information indicating the content of an original text to be subjected to language learning and accent position information indicating a position of the original text on the time axis with respect to the original text,
Based on the original text content information, an original text content notifying means for notifying a user of the content of the original text, and when the content of the original text is notified by the original text content notifying means, the accent on the original text on the time axis A learning support program that causes an accent image for notifying the user of the position of the image to be displayed on a screen based on the accent position information.
前記コンピュータを、
前記原文内容報知手段によって報知されている原文を前記アクセント位置情報に基づいて前記アクセントの時間軸上での位置で時間区間に区切り、前記時間軸上での前記時間区間の位置および長さを示す時間区間画像を前記画面に表示する時間区間画像表示手段としてさらに機能させる、請求項1に記載の学習支援プログラム。
The computer,
Based on the accent position information, the original text informed by the original text content notifying means is divided into time intervals at the position of the accent on the time axis, and indicates the position and length of the time interval on the time axis The learning support program according to claim 1, which further functions as time interval image display means for displaying a time interval image on the screen.
前記コンピュータを、
前記アクセント画像表示手段によって表示されたアクセント画像のうち現時点で発音すべきアクセント画像を強調表示する強調表示手段としてさらに機能させる、請求項1に記載の学習支援プログラム。
The computer,
The learning support program according to claim 1, wherein the learning support program further functions as highlight display means for highlighting an accent image to be pronounced at the present time among the accent images displayed by the accent image display means.
前記コンピュータを、
前記原文内容報知手段によって報知されている原文を前記アクセント位置情報に基づいて前記アクセントの時間軸上での位置で時間区間に区切り、前記時間軸上での前記時間区間の位置および長さを示す時間区間画像を前記画面に表示する時間区間画像表示手段としてさらに機能させ、
前記強調表示手段は、前記時間区間画像表示手段によって表示された時間区間画像のうち前記現時点に対応する時間区間画像をさらに強調表示する、請求項3記載の学習支援プログラム。
The computer,
Based on the accent position information, the original text informed by the original text content notifying means is divided into time intervals at the position of the accent on the time axis, and indicates the position and length of the time interval on the time axis Further function as time interval image display means for displaying the time interval image on the screen,
The learning support program according to claim 3, wherein the highlighting unit further highlights a time interval image corresponding to the current time among the time interval images displayed by the time interval image display unit.
前記コンピュータを、
前記時間軸上での現時点の位置を示す現時点位置画像を前記画面に表示する現時点位置画像表示手段としてさらに機能させる、請求項1ないし4のいずれかに記載の学習支援プログラム。
The computer,
5. The learning support program according to claim 1, further causing a current position image display unit to display a current position image indicating a current position on the time axis on the screen.
前記コンピュータを、
前記アクセントに対応するアクセント音を前記アクセント位置情報に基づく時間間隔で再生するアクセント音再生手段としてさらに機能させる、請求項1ないし5のいずれかに記載の学習支援プログラム。
The computer,
6. The learning support program according to claim 1, further causing an accent sound corresponding to the accent to be played back as an accent sound reproducing unit that reproduces the accent sound at time intervals based on the accent position information.
前記記憶媒体は前記原文内容情報として前記原文の文字を示す原文文字情報を記憶しており、
前記原文内容報知手段は、前記原文文字情報に基づいて前記原文の文字を前記画面に表示する、請求項1ないし6のいずれかに記載の学習支援プログラム。
The storage medium stores original text information indicating characters of the original text as the original text content information,
The learning support program according to any one of claims 1 to 6, wherein the source text content notifying unit displays the source text on the screen based on the source text information.
前記コンピュータを、
前記原文内容報知手段によって表示された原文を前記アクセント位置情報に基づいて前記アクセントの時間軸上での位置で時間区間に区切り、前記原文内容報知手段によって表示された原文の文字列のうち現時点に対応する時間区間に属する文字列を強調表示する文字列強調表示手段としてさらに機能させる、請求項7に記載の学習支援プログラム。
The computer,
Based on the accent position information, the original text displayed by the original text content notifying means is divided into time intervals at positions on the time axis of the accent, and the current text of the original text displayed by the original text content notifying means is The learning support program according to claim 7, further causing a character string highlighting means for highlighting a character string belonging to a corresponding time section.
前記記憶媒体は前記原文内容情報として前記原文の音声を示す原文音声情報を記憶しており、
前記原文内容報知手段は、前記原文音声情報に基づいて前記原文の音声を再生する、請求項1ないし8のいずれかに記載の学習支援プログラム。
The storage medium stores original audio information indicating the original audio as the original content information,
The learning support program according to any one of claims 1 to 8, wherein the source text content notifying means reproduces the source text based on the source text information.
前記コンピュータを、前記原文の音声の再生速度を設定する再生速度設定手段としてさらに機能させ、
前記原文内容報知手段は、前記再生速度設定手段によって設定された再生速度で前記原文の音声を再生する、請求項9に記載の学習支援プログラム。
Allowing the computer to further function as a playback speed setting means for setting the playback speed of the original audio;
The learning support program according to claim 9, wherein the source text content notifying unit plays back the voice of the source text at a playback speed set by the playback speed setting unit.
前記原文内容報知手段は、前記原文の音声を繰り返し再生する、請求項9または10に記載の学習支援プログラム。   The learning support program according to claim 9 or 10, wherein the original text content notifying means repeatedly reproduces the voice of the original text. 前記原文内容報知手段は、前記原文の音声を繰り返す毎に音量が小さくなるように再生する、請求項11に記載の学習支援プログラム。   The learning support program according to claim 11, wherein the source text content notifying unit reproduces the source text so that the volume decreases every time the source text is repeated. 前記コンピュータを、
前記原文内容報知手段による所定の回数の音声再生が終了した後に、前記原文内容報知手段による再生を行わずに前記アクセント画像表示手段による表示を行うよう制御する、再生表示制御手段、および
前記再生表示制御手段によって制御されているときのユーザの発音をユーザ発音情報として録音する録音手段としてさらに機能させる、請求項12に記載の学習支援プログラム。
The computer,
A reproduction display control means for controlling the display by the accent image display means without performing the reproduction by the original text content notification means after the predetermined number of times of sound reproduction by the original text content notification means has been completed; and the reproduction display The learning support program according to claim 12, further causing it to function as a recording unit that records a user's pronunciation when controlled by the control unit as user pronunciation information.
前記コンピュータを、
前記現時点位置画像表示手段によって前記現時点位置画像が前記画面に表示されているときのユーザの発音をユーザ発音情報として録音する録音手段としてさらに機能させる、請求項5に記載の学習支援プログラム。
The computer,
6. The learning support program according to claim 5, wherein the learning support program further functions as recording means for recording a user's pronunciation as user pronunciation information when the current position image is displayed on the screen by the current position image display means.
前記コンピュータを、
前記録音手段によって録音されたユーザ発音情報と前記記憶媒体に記憶されている前記原文内容情報とに基づいて前記ユーザが前記原文を発声するリズムの正確性を評価する評価手段としてさらに機能させる、請求項13または14に記載の学習支援プログラム。
The computer,
The apparatus further functions as an evaluation unit that evaluates accuracy of a rhythm in which the user utters the original sentence based on user pronunciation information recorded by the recording unit and the original content information stored in the storage medium. Item 15. The learning support program according to item 13 or 14.
前記コンピュータを、
所定のリズムに従うチック音を前記ユーザに発音を開始させる所定の時点より前に再生するチック音再生手段としてさらに機能させる、請求項1ないし15のいずれかに記載の学習支援プログラム。
The computer,
The learning support program according to any one of claims 1 to 15, wherein the learning support program further functions as a tick sound reproducing unit that reproduces a tick sound according to a predetermined rhythm before a predetermined point in time when the user starts sounding.
語学学習の対象となる原文の内容を示す原文内容情報と前記原文に関しアクセントの時間軸上での位置を示すアクセント位置情報とを記憶した記憶媒体、
前記原文内容情報に基づいて、前記原文の内容をユーザに報知する原文内容報知手段、および
前記原文内容報知手段によって前記原文の内容が報知されているときに、前記原文に関しアクセントの前記時間軸上での位置を前記ユーザに報知するためのアクセント画像を前記アクセント位置情報に基づいて画面に表示するアクセント画像表示手段を備える、学習支援装置。
A storage medium storing original text content information indicating the content of the original text subject to language learning and accent position information indicating the position of the accent on the time axis with respect to the original text;
Based on the original text content information, an original text content notifying means for notifying a user of the content of the original text, and when the content of the original text is notified by the original text content notifying means, the accent on the original text on the time axis A learning support apparatus comprising accent image display means for displaying an accent image for informing the user of the position at the position based on the accent position information.
JP2009111733A 2009-05-01 2009-05-01 Learning support program and learning support apparatus Active JP5340797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009111733A JP5340797B2 (en) 2009-05-01 2009-05-01 Learning support program and learning support apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009111733A JP5340797B2 (en) 2009-05-01 2009-05-01 Learning support program and learning support apparatus

Publications (2)

Publication Number Publication Date
JP2010262090A true JP2010262090A (en) 2010-11-18
JP5340797B2 JP5340797B2 (en) 2013-11-13

Family

ID=43360212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009111733A Active JP5340797B2 (en) 2009-05-01 2009-05-01 Learning support program and learning support apparatus

Country Status (1)

Country Link
JP (1) JP5340797B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125203A (en) * 2013-12-26 2015-07-06 カシオ計算機株式会社 Sound output device and sound output program
US9137483B2 (en) 2012-12-20 2015-09-15 Casio Computer Co., Ltd. Video playback device, video playback method, non-transitory storage medium having stored thereon video playback program, video playback control device, video playback control method and non-transitory storage medium having stored thereon video playback control program
US9253436B2 (en) 2012-12-20 2016-02-02 Casio Computer Co., Ltd. Video playback device, video playback method, non-transitory storage medium having stored thereon video playback program, video playback control device, video playback control method and non-transitory storage medium having stored thereon video playback control program
US9483953B2 (en) 2011-08-10 2016-11-01 Casio Computer Co., Ltd. Voice learning apparatus, voice learning method, and storage medium storing voice learning program
JP2016197184A (en) * 2015-04-05 2016-11-24 一瀬 敏樹 Pronunciation learning content providing device, system, program, and method
JP2016197185A (en) * 2015-04-05 2016-11-24 一瀬 敏樹 Pronunciation learning content providing device, system, program, and method
JP2017156615A (en) * 2016-03-03 2017-09-07 ブラザー工業株式会社 Reading aloud training device, display control method, and program

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0625905B2 (en) * 1984-10-12 1994-04-06 松下電器産業株式会社 Pronunciation practice device
JPH07295466A (en) * 1994-03-02 1995-11-10 N I S:Kk English conversation learning method and learning apparatus
JPH10116020A (en) * 1996-10-14 1998-05-06 Kenzo Nakada Method for learning foreign language by voice and teaching material for learning foreign language by voice used for the method
JP2001142388A (en) * 1999-11-15 2001-05-25 Yamaha Corp Musical performance exercising device and recording medium
JP2001178965A (en) * 2001-02-28 2001-07-03 Konami Co Ltd Dance game device
JP2003131553A (en) * 2001-10-22 2003-05-09 Land Computer:Kk Pronunciation learning assistance system
JP2003186379A (en) * 2001-12-13 2003-07-04 Animo:Kk Program for voice visualization processing, program for voice visualization figure display and for voice and motion image reproduction processing, program for training result display, voice-speech training apparatus and computer system
JP2006505167A (en) * 2002-11-01 2006-02-09 シンクロ アーツ リミテッド Method and apparatus for use in sound replacement that automatically synchronizes with an image
JP2006518872A (en) * 2003-01-30 2006-08-17 ムービーラーン・システムズ・リミテッド・ピイティイー A system for learning languages with content recorded on a single medium
JP2007192882A (en) * 2006-01-17 2007-08-02 Yamaha Corp Evaluation apparatus, evaluation method, and program
JP2007206317A (en) * 2006-02-01 2007-08-16 Yamaha Corp Authoring method and apparatus, and program
JP2008003529A (en) * 2006-06-20 2008-01-10 Minako Miyato Intonation (tone) curve code
JP2008040196A (en) * 2006-08-08 2008-02-21 Matsushita Electric Works Ltd Sensory stimulation device
JP2008040344A (en) * 2006-08-09 2008-02-21 Yamaha Corp Speech evaluating device

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0625905B2 (en) * 1984-10-12 1994-04-06 松下電器産業株式会社 Pronunciation practice device
JPH07295466A (en) * 1994-03-02 1995-11-10 N I S:Kk English conversation learning method and learning apparatus
JPH10116020A (en) * 1996-10-14 1998-05-06 Kenzo Nakada Method for learning foreign language by voice and teaching material for learning foreign language by voice used for the method
JP2001142388A (en) * 1999-11-15 2001-05-25 Yamaha Corp Musical performance exercising device and recording medium
JP2001178965A (en) * 2001-02-28 2001-07-03 Konami Co Ltd Dance game device
JP2003131553A (en) * 2001-10-22 2003-05-09 Land Computer:Kk Pronunciation learning assistance system
JP2003186379A (en) * 2001-12-13 2003-07-04 Animo:Kk Program for voice visualization processing, program for voice visualization figure display and for voice and motion image reproduction processing, program for training result display, voice-speech training apparatus and computer system
JP2006505167A (en) * 2002-11-01 2006-02-09 シンクロ アーツ リミテッド Method and apparatus for use in sound replacement that automatically synchronizes with an image
JP2006518872A (en) * 2003-01-30 2006-08-17 ムービーラーン・システムズ・リミテッド・ピイティイー A system for learning languages with content recorded on a single medium
JP2007192882A (en) * 2006-01-17 2007-08-02 Yamaha Corp Evaluation apparatus, evaluation method, and program
JP2007206317A (en) * 2006-02-01 2007-08-16 Yamaha Corp Authoring method and apparatus, and program
JP2008003529A (en) * 2006-06-20 2008-01-10 Minako Miyato Intonation (tone) curve code
JP2008040196A (en) * 2006-08-08 2008-02-21 Matsushita Electric Works Ltd Sensory stimulation device
JP2008040344A (en) * 2006-08-09 2008-02-21 Yamaha Corp Speech evaluating device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013017893; 藤本 健、大坪 知樹: BASIC MASTER SONAR LE 初版, 20050725, p.042-043,045-048, 株式会社ビー・エヌ・エヌ新社 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9483953B2 (en) 2011-08-10 2016-11-01 Casio Computer Co., Ltd. Voice learning apparatus, voice learning method, and storage medium storing voice learning program
US9137483B2 (en) 2012-12-20 2015-09-15 Casio Computer Co., Ltd. Video playback device, video playback method, non-transitory storage medium having stored thereon video playback program, video playback control device, video playback control method and non-transitory storage medium having stored thereon video playback control program
US9253436B2 (en) 2012-12-20 2016-02-02 Casio Computer Co., Ltd. Video playback device, video playback method, non-transitory storage medium having stored thereon video playback program, video playback control device, video playback control method and non-transitory storage medium having stored thereon video playback control program
JP2015125203A (en) * 2013-12-26 2015-07-06 カシオ計算機株式会社 Sound output device and sound output program
JP2016197184A (en) * 2015-04-05 2016-11-24 一瀬 敏樹 Pronunciation learning content providing device, system, program, and method
JP2016197185A (en) * 2015-04-05 2016-11-24 一瀬 敏樹 Pronunciation learning content providing device, system, program, and method
JP2017156615A (en) * 2016-03-03 2017-09-07 ブラザー工業株式会社 Reading aloud training device, display control method, and program

Also Published As

Publication number Publication date
JP5340797B2 (en) 2013-11-13

Similar Documents

Publication Publication Date Title
JP5456370B2 (en) Pronunciation evaluation program, pronunciation evaluation apparatus, pronunciation evaluation system, and pronunciation evaluation method
JP5340797B2 (en) Learning support program and learning support apparatus
JP4260215B1 (en) Imaging device
US20080165195A1 (en) Method, apparatus, and software for animated self-portraits
US8913172B2 (en) Information processing apparatus and computer-readable storage medium recording information processing program
CN110322760B (en) Voice data generation method, device, terminal and storage medium
JP6405316B2 (en) Entertainment device, display control method, program, and information storage medium
US20100185981A1 (en) Display controlling program and display controlling apparatus
CN112487940B (en) Video classification method and device
CN110491241B (en) Vocal music sounding training device and method thereof
JP2010253284A (en) Information inputting apparatus
CN110992927A (en) Audio generation method and device, computer readable storage medium and computing device
JP2001307124A (en) Image processing system, image processor and image pickup device
JP2017032693A (en) Video recording/playback device
JP4748568B2 (en) Singing practice system and singing practice system program
JP2008257427A (en) Electronic device and camera
JPWO2006011342A1 (en) Music generation method
JP2017181724A (en) Musical score display control method, musical score display control unit, and musical score display control program
JP6836877B2 (en) Wind instrument practice support device and practice support method
JP2006349845A (en) Electronic book display device
JP2019022011A (en) Information acquisition device and control method of the information acquisition device
JP7263957B2 (en) Information device, automatic setting method and automatic setting program
WO2011162508A2 (en) Method and device for learning pronunciation by using comparison images
CN111028823A (en) Audio generation method and device, computer readable storage medium and computing device
JP2017146402A (en) Learning support device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130807

R150 Certificate of patent or registration of utility model

Ref document number: 5340797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250