JP4985714B2 - Voice display output control device and voice display output control processing program - Google Patents

Voice display output control device and voice display output control processing program Download PDF

Info

Publication number
JP4985714B2
JP4985714B2 JP2009140670A JP2009140670A JP4985714B2 JP 4985714 B2 JP4985714 B2 JP 4985714B2 JP 2009140670 A JP2009140670 A JP 2009140670A JP 2009140670 A JP2009140670 A JP 2009140670A JP 4985714 B2 JP4985714 B2 JP 4985714B2
Authority
JP
Japan
Prior art keywords
pronunciation
image
accent
display
correct
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009140670A
Other languages
Japanese (ja)
Other versions
JP2009301038A (en
Inventor
嘉行 村田
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009140670A priority Critical patent/JP4985714B2/en
Publication of JP2009301038A publication Critical patent/JP2009301038A/en
Application granted granted Critical
Publication of JP4985714B2 publication Critical patent/JP4985714B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、音声,テキスト,画像などのデータを同期して出力するための音声表示出力制御装置および音声表示出力制御処理プログラムに関する。 The present invention also relates voice, text, audio display output controller for data synchronization with the output of an image, and audio display output control processing program.

従来、例えば言語学習装置として、言語の音声を出力しその口型を表示させるものがある。   2. Description of the Related Art Conventionally, for example, there is a language learning device that outputs language speech and displays its mouth shape.

この言語学習装置では、マイクとカメラによって、母国語使用者の音声情報と口型のイメージデータを予めサンプルデータメモリに記録する。そして、学習者の音声情報と口型のイメージデータを前記マイクとカメラによって記録し、この学習者と前記サンプルデータメモリに予め記録された母国語使用者とのそれぞれの音声情報の波形とこれに対応する各口型のイメージデータとを対比しチャート形式で表示する。   In this language learning apparatus, voice information of a native language user and mouth-shaped image data are recorded in a sample data memory in advance by a microphone and a camera. Then, the learner's voice information and mouth-shaped image data are recorded by the microphone and the camera, and the waveforms of the respective voice information of the learner and the native language user recorded in advance in the sample data memory and Corresponding image data of each corresponding mouth shape is displayed in a chart format.

これにより、母国語使用者と学習者との言語発音の差異を明確に分析し表示しようとするものである(例えば、特許文献1参照。)。   Thereby, it is intended to clearly analyze and display the difference in language pronunciation between the native language user and the learner (see, for example, Patent Document 1).

特開2001−318592号公報JP 2001-318592 A

このような、従来の言語学習装置を用いると、手本である母国語使用者の発音音声とその口型イメージを知ることができるが、各言語のアクセントについては、主にアクセント部分の発音音声が強調されることで知らされるだけであって、口型イメージそのものには明確な違いが現れないため、各学習言語におけるアクセントのタイミングが分かり辛い問題がある。   Using such a conventional language learning device, it is possible to know the voice of the native language user who is a model and its mouth image, but the accent of each language is mainly the voice of the accent part. However, there is a problem that the timing of accents in each learning language is difficult to understand because there is no clear difference in the mouth image itself.

本発明は、前記のような問題に鑑みてなされたもので、音声出力に同期した画像の表示において、アクセントのタイミングを明確に現すことが可能になる音声表示出力制御装置および音声表示出力制御処理プログラムを提供することを目的とする。 The present invention has been made in view of the above problems, in the display of a synchronized image to the audio output, the audio display output control device it is possible to represent the timing of the accent clearly, and audio display output control an object of the present invention is to provide a treatment program.

本発明の請求項1に係る音声表示出力制御装置では、単語記憶手段は複数の単語別に当該各単語それぞれの正しいアクセント付き発音記号および誤りアクセント付き発音記号を対応付けて記憶し、正誤アクセント選択手段により記憶した単語別の正しいアクセント付き発音記号および誤りアクセント付き発音記号の何れか一方を選択すると、音声表示出力制御手段により、選択された一方の正しいアクセント付き発音記号または誤りアクセント付き発音記号に対応した発音音声を出力させる一方で、正しいアクセント付き発音記号に対応した発音音声が出力される場合と、誤りアクセント付き発音記号に対応した発音音声が出力される場合とにおいて異なる表示形態で顔画像を表示させ、前記音声表示出力制御手段は、表示される顔画像に含まれている口の部分を、出力される発音音声に同期して当該発音音声に対応した口型の画像に変更して表示させことを特徴とするIn the voice display output control apparatus according to claim 1 of the present invention, the word storage means stores the correct accented phonetic symbol and the phonetic symbol with error accent of each word in association with each other, and stores the correct and incorrect accent selection means. If you select one of the correct accented phonetic symbols and error accented phonetic symbols for each word, the voice display output control means will respond to the selected correct accented phonetic symbol or error accented phonetic symbol. while outputting the sound audio, and the case where sound sound corresponding to the correct accented phonetic symbol is output, the face image in different display forms in the case where the sound sounds corresponding error accented phonetic symbols are output is displayed, the audio display output control means, including a face image to be displayed Is the portion of the mouth is characterized in that in synchronization with the sound sound output Ru is displayed by changing the image of the mouth type corresponding to the pronunciation speech.

これによれば、単語別の正しいアクセント付き発音記号か誤りアクセント付き発音記号かの何れか一方を選択すると、この選択された一方の正しいアクセント付き発音記号または誤りアクセント付き発音記号に対応した発音音声を出力させることができる一方で、正しいアクセントに対応した発音音声が出力される場合と、誤りアクセント対応した発音音声が出力される場合とにおいて異なる表示形態で顔画像を表示させることができる。この場合、表示される画像に含まれる口の部分について、発音音声に同期して対応した口型の画像に変更して表示させるようにしたので、発音音声に対応する口型画像の変化を確認しつつ視覚と聴覚により効果的にアクセントを学習できる。 According to this, when either the correct accented phonetic symbol or the error accented phonetic symbol is selected for each word, the pronunciation sound corresponding to the selected correct accented phonetic symbol or the error accented phonetic symbol is selected. Can be output , and the face image can be displayed in different display forms when the pronunciation sound corresponding to the correct accent is output and when the pronunciation sound corresponding to the error accent is output. In this case, the mouth portion included in the displayed image is changed to a mouth-shaped image corresponding to the pronunciation sound and displayed, so the change of the mouth-shaped image corresponding to the pronunciation sound is confirmed. However, you can learn accents more effectively by vision and hearing.

本発明の請求項2に係る音声表示出力制御装置では、前記請求項1に係る音声表示出力制御装置にあって、さらに、発音音声が出力された際に、アクセント検出手段により前記アクセント付き発音記号中のアクセントを検出し、画像変化表示制御手段によりアクセントの検出に同期して前記音声表示出力制御手段の制御により表示される画像を変化させる。 The voice display output control device according to claim 2 of the present invention is the voice display output control device according to claim 1, and further, when the phonetic sound is output, the accented phonetic symbol by the accent detecting means. The accent is detected, and the image displayed by the control of the audio display output control means is changed in synchronization with the detection of the accent by the image change display control means.

これによれば、さらに、単語の発音音声が出力された際に該当単語のアクセント付き発音記号中のアクセントを検出し、アクセントの検出に同期して画像を変化させるようにしたので、音声のみでなく視覚的にもアクセントのタイミングを確認できて効果的にアクセントのタイミングを学習することができることになる。 According to this, when the pronunciation sound of the word is output, the accent in the accented phonetic symbol of the corresponding word is detected, and the image is changed in synchronization with the detection of the accent. The timing of the accent can be confirmed visually, and the timing of the accent can be learned effectively .

本発明の請求項3に係る音声表示出力制御装置では、前記請求項1又は2に係る音声表示出力制御装置にあって、正誤アクセント表示制御手段により各単語別に対応付けられた正しいアクセント付き発音記号および誤りアクセント付き発音記号を並べて表示させ、発音記号選択手段によりこの正誤アクセント表示制御手段の制御により並べて表示された正しいアクセント付き発音記号および誤りアクセント付き発音記号の何れかを選択することができる。 The voice display output control apparatus according to claim 3 of the present invention is the voice display output control apparatus according to claim 1 or 2 , wherein the correct accented phonetic symbol associated with each word by the correct / incorrect accent display control means. The phonetic symbols with error accents can be displayed side by side, and the correct phonetic symbols with correct accents and the phonetic symbols with error accents displayed side by side under the control of the correct / incorrect accent display control means can be selected by the phonetic symbol selection means.

これによれば、さらに、正しいアクセント付き発音記号と誤りアクセント付き発音記号とを並べて表示させ、表示された中から何れかのアクセント付き発音記号を選択するようにしたので、正しいアクセント付き発音記号と誤りアクセント付き発音記号とを視覚的に比較確認して効果的に正誤アクセントを学習することができる。 According to this, since the correct accented phonetic symbol and the error accented phonetic symbol are displayed side by side and one of the displayed accented phonetic symbols is selected, the correct accented phonetic symbol and It is possible to effectively learn correct / incorrect accents by visually comparing and confirming phonetic symbols with error accents.

以上のように、本発明の請求項1に係る音声出力装置によれば、単語別の正しいアクセント付き発音記号か誤りアクセント付き発音記号かの何れか一方を選択すると、この選択された一方の正しいアクセント付き発音記号または誤りアクセント付き発音記号に対応した発音音声を出力させることができる一方で、正しいアクセントに対応した発音音声が出力される場合と、誤りアクセント対応した発音音声が出力される場合とにおいて異なる表示形態で顔画像を表示させることができる。この場合、表示される画像に含まれる口の部分について、発音音声に同期して対応した口型の画像に変更して表示させるようにしたので、発音音声に対応する口型画像の変化を確認しつつ視覚と聴覚により効果的にアクセントを学習できる。 As described above, according to the audio output equipment according to claim 1 of the present invention, by selecting one of or different correct accented phonetic symbols or the error accented phonetic words, on one of the selected While the phonetic voice corresponding to the correct accented phonetic or the error accented phonetic symbol can be output, the phonetic voice corresponding to the correct accent is output and the phonetic audio corresponding to the error accent is output And face images can be displayed in different display forms. In this case, the mouth portion included in the displayed image is changed to a mouth-shaped image corresponding to the pronunciation sound and displayed, so the change of the mouth-shaped image corresponding to the pronunciation sound is confirmed. However, you can learn accents more effectively by vision and hearing.

本発明の請求項2に係る音声表示出力制御装置によれば、さらに、単語の発音音声が出力された際に該当単語のアクセント付き発音記号中のアクセントを検出し、アクセントの検出に同期して画像を変化させるようにしたので、音声のみでなく視覚的にもアクセントのタイミングを確認できて効果的にアクセントのタイミングを学習することができることになる。 According to the voice display output control device according to claim 2 of the present invention, when the pronunciation sound of the word is output, the accent in the accented phonetic symbol of the corresponding word is detected, and in synchronization with the detection of the accent Since the image is changed, the accent timing can be confirmed visually as well as the voice, and the accent timing can be learned effectively .

本発明の請求項3に係る音声表示出力制御装置によれば、さらに、正しいアクセント付き発音記号と誤りアクセント付き発音記号とを並べて表示させ、表示された中から何れかのアクセント付き発音記号を選択するようにしたので、正しいアクセント付き発音記号と誤りアクセント付き発音記号とを視覚的に比較確認して効果的に正誤アクセントを学習することができる。 According to the voice display output control device of the present invention , the correct accented phonetic symbol and the error accented phonetic symbol are displayed side by side, and one of the accented phonetic symbols is selected from the displayed ones. Thus, correct correct accented phonetic symbols and erroneous accented phonetic symbols can be visually compared and confirmed to effectively learn correct and incorrect accents.

よって、本発明によれば、音声出力に同期した画像の表示において、アクセントのタイミングを明確に現すことが可能になる音声表示出力制御装置および音声表示出力制御処理プログラムを提供できる。 Therefore, the present invention can provide a display of a synchronized image to the audio output, the audio display output control device it is possible to represent the timing of the accent clearly, and the audio display output control processing program.

本発明の音声表示出力制御装置(画像表示制御装置)の実施形態に係る携帯機器10の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the portable apparatus 10 which concerns on embodiment of the audio | voice display output control apparatus (image display control apparatus) of this invention. 前記携帯機器10のメモリ12に記憶される辞書データベース12bのうち1つの見出語「low」についての同期再生用リンクデータを示す図であり、同図(A)は各ファイルNoと格納先アドレスを示すテーブル、同図(B)は当該テキストファイルNoに従い格納されているテキストデータ「low」を示す図、同図(C)はテキスト口同期ファイルNoに従い格納されているテキストの文字,発音記号,口型番号を示す図。It is a figure which shows the link data for synchronous reproduction | regeneration about one headword "low" among the dictionary databases 12b memorize | stored in the memory 12 of the said portable apparatus 10, The figure (A) shows each file No. and storage destination address. FIG. 4B shows the text data “low” stored according to the text file No., and FIG. 4C shows the text characters and phonetic symbols stored according to the text mouth synchronization file No. The figure which shows a mouth type number. 前記携帯機器10のメモリ12に記憶され、辞書の見出語検索における発音口型画像の同期表示のためにユーザ設定により選択的に使用されるキャラクタ画像データ12dを示す図。The figure which shows the character image data 12d memorize | stored in the memory 12 of the said portable apparatus 10, and is selectively used by a user setting for the synchronous display of the pronunciation mouth type | mold image in the search for a dictionary word. 前記携帯機器10のメモリ12に記憶され、辞書の見出語検索における発音口型画像の同期表示のためにキャラクタ画像(12d:No1〜No3)の口画像エリア(X1,Y1,X2,Y2)に合成表示される音声別口画像データ12eを示す図。Mouth image areas (X1, Y1, X2, Y2) of character images (12d: No1 to No3) stored in the memory 12 of the portable device 10 for the synchronous display of pronunciation mouth type images in the dictionary word search The figure which shows the audio | voice separate mouth image data 12e synthesize | combined and displayed. 前記携帯機器10のメモリ12に格納された辞書タイムコードファイル12fにおける見出語「low」に対応付けられたファイルNo23のタイムコードファイル12f23(12i)を示す図。The figure which shows the time code file 12f23 (12i) of the file No23 matched with the headword "low" in the dictionary time code file 12f stored in the memory 12 of the said portable apparatus 10. FIG. 前記携帯機器10の辞書タイムコードファイル12fn(図5参照)にて記述される各種コマンドのコマンドコードとそのパラメータデータに基づき解析処理される命令内容を対応付けて示す図。The figure which matches and shows the command code | cord | chord of the various commands described in the dictionary time code file 12fn (refer FIG. 5) of the said portable apparatus 10, and the command content analyzed based on the parameter data. 前記携帯機器10の辞書処理プログラム12aに従ったメイン処理を示すフローチャート。The flowchart which shows the main process according to the dictionary processing program 12a of the said portable device 10. 前記携帯機器10のメイン処理に伴う見出語同期再生処理を示すフローチャート。4 is a flowchart showing a headword synchronized reproduction process associated with a main process of the mobile device 10. 前記携帯機器10の見出語同期再生処理に伴う各見出語文字のハイライト表示に応じて割り込みで実行されるテキスト対応口表示処理を示すフローチャート。The flowchart which shows the text corresponding | compatible mouth display process performed by interruption according to the highlight display of each entry word character accompanying the entry word synchronous reproduction | regeneration process of the said portable device. 前記携帯機器10のメイン処理内のキャラクタ設定処理に伴う同期再生用キャラクタ画像の設定表示状態を示す図。The figure which shows the setting display state of the character image for synchronous reproduction accompanying the character setting process in the main process of the said portable device. 前記携帯機器10のメイン処理内の見出語検索処理に伴う検索見出語表示画面G2を示す図。The figure which shows the search word display screen G2 accompanying the word search process in the main process of the said portable device. 前記携帯機器10の見出語検索処理における同期再生処理に伴いキャラクタ画像No3の設定状態において検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は発音音声の出力に同期した見出語文字表示ウインドウW1およびアクセント未対応の発音口型表示ウインドウW2の変化状態を示す図、同図(C)は発音音声の出力に同期した見出語文字表示ウインドウW1およびアクセント対応の発音口型表示ウインドウW2の変化状態を示す図。With the synchronous reproduction process in the search term search process of the portable device 10, the search word display window W1 and the pronunciation window display window W2 displayed on the search search word display screen G2 in the setting state of the character image No3. FIG. 6A is a diagram showing the setting display states of the headword character display window W1 and the pronunciation-mouth-type display window W2 for the search headword display screen G2, FIG. Is a diagram showing a change state of the headword character display window W1 synchronized with the output of the pronunciation voice and the pronunciation type display window W2 not corresponding to the accent, and FIG. The figure which shows the change state of the display window W1 and the sounding mouth type | mold display window W2 corresponding to an accent. 前記携帯機器10の見出語検索処理における同期再生処理に伴いキャラクタ画像No1の設定状態において検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図。With the synchronous reproduction process in the search term search process of the portable device 10, the search word display window W1 and the pronunciation window display window W2 displayed on the search search word display screen G2 in the setting state of the character image No1. FIG. 6A is a diagram showing the setting display states of the headword character display window W1 and the pronunciation-mouth-type display window W2 for the search headword display screen G2, FIG. FIG. 7 is a diagram showing a change state of a headword character display window W1 and a pronunciation mouth type display window W2 in synchronization with the output of the pronunciation sound. 前記携帯機器10のメイン処理内の見出語検索処理に伴い米国/英国の2国の発音形態を収録した英和辞書を利用した場合の検索見出語表示画面G2を示す図。The figure which shows the search headword display screen G2 at the time of using the English-Japanese dictionary which recorded the pronunciation form of the US / UK two countries with the headword search process in the main process of the said portable device. 前記携帯機器10の見出語検索処理における同期再生処理に伴い米国式発音[米]を指定した場合に検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は米国式発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図。The headword character display window W1 and the pronunciation window displayed on the search headword display screen G2 when the American pronunciation [US] is designated in accordance with the synchronized playback processing in the headword search processing of the portable device 10. FIG. 6A is a diagram showing the display state of the type display window W2, and FIG. 6A is a diagram showing the setting display state of the headword character display window W1 and the pronunciation type display window W2 for the search headword display screen G2. FIG. 5B is a diagram showing a change state of the headword character display window W1 and the pronunciation window display window W2 synchronized with the output of the American pronunciation sound. 前記携帯機器10の見出語検索処理における同期再生処理に伴い英国式発音[英]を指定した場合に検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は英国式発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図。The headword character display window W1 and the pronunciation window displayed on the search headword display screen G2 when English pronunciation [English] is designated in accordance with the synchronized playback processing in the headword search processing of the portable device 10. FIG. 6A is a diagram showing the display state of the type display window W2, and FIG. 6A is a diagram showing the setting display state of the headword character display window W1 and the pronunciation type display window W2 for the search headword display screen G2. FIG. (B) is a diagram showing a change state of the headword character display window W1 and the pronunciation opening type display window W2 synchronized with the output of the English pronunciation sound. 前記携帯機器10のアクセントテスト処理に伴い不正解を選択した場合の操作表示状態を示す図であり、同図(A)はアクセントテスト出題表示画面G3を示す図、同図(B)は出題対象の見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(C)は誤りアクセントの発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図。It is a figure which shows the operation display state at the time of selecting an incorrect answer with the accent test process of the said portable apparatus 10, The figure (A) is a figure which shows the accent test question display screen G3, The figure (B) is a question subject. The figure which shows the setting display state of the headword character display window W1 and the pronunciation type display window W2 for the headword display screen G2 of FIG. The figure which shows the change state of the display window W1 and the sound emission port type display window W2. 前記携帯機器10のアクセントテスト処理に伴い正解を選択した場合の操作表示状態を示す図であり、同図(A)はアクセントテスト出題表示画面G3を示す図、同図(B)は出題対象の見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(C)は正解アクセントの発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図。It is a figure which shows the operation display state at the time of selecting the correct answer with the accent test process of the said portable apparatus 10, The figure (A) is a figure which shows the accent test question display screen G3, The figure (B) is a question subject. The figure which shows the setting display state of the headword character display window W1 and the pronunciation type display window W2 with respect to the headword display screen G2, The figure (C) is the headword character display synchronized with the output of the pronunciation sound of a correct accent. The figure which shows the change state of the window W1 and the sound emission port type display window W2. 前記携帯機器10の第2実施形態の見出語同期再生処理を示すフローチャート。The flowchart which shows the word-synchronization reproduction | regeneration processing of 2nd Embodiment of the said portable device. 前記携帯機器10の第3実施形態の見出語同期再生処理を示すフローチャート。10 is a flowchart showing a headword synchronized reproduction process of the third embodiment of the mobile device 10;

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1実施形態)
図1は本発明の音声表示出力制御装置(画像表示制御装置)の実施形態に係る携帯機器10の電子回路の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an electronic circuit of a portable device 10 according to an embodiment of an audio display output control device (image display control device) of the present invention.

この携帯機器(PDA:personal digital assistants)10は、各種の記録媒体に記録されたプログラム、又は、通信伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。   This portable device (PDA: personal digital assistants) 10 is configured by a computer that reads a program recorded on various recording media or a program transmitted by communication and whose operation is controlled by the read program. The electronic circuit includes a CPU (central processing unit) 11.

CPU11は、メモリ12内のFLASHメモリ12Aに予め記憶されたPDA制御プログラム、あるいはROMカードなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれたPDA制御プログラム、あるいはインターネットなどの通信ネットワークN上の他のコンピュータ端末(30)から電送制御部15を介して前記メモリ12に読み込まれたPDA制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶されたPDA制御プログラムは、スイッチやキーからなる入力部17aおよびマウスやタブレットからなる座標入力装置17bからのユーザ操作に応じた入力信号、あるいは電送制御部15に受信される通信ネットワークN上の他のコンピュータ端末(30)からの通信信号、あるいはBluetooth(R)による近距離無線接続や有線接続による通信部16を介して受信される外部の通信機器(PC:personal computer)20からの通信信号に応じて起動される。   The CPU 11 is a PDA control program stored in advance in the FLASH memory 12A in the memory 12, or a PDA control program read from the external recording medium 13 such as a ROM card into the memory 12 via the recording medium reading unit 14, or the Internet. The operation of each part of the circuit is controlled in accordance with the PDA control program read into the memory 12 from the other computer terminal (30) on the communication network N such as The stored PDA control program is input on the communication network N received by an input signal corresponding to a user operation from the input unit 17a composed of switches and keys and the coordinate input device 17b composed of a mouse and a tablet, or to the power transmission control unit 15. Communication from other computer terminals (30) No., or the external communication device that is received via the communication unit 16 by the short-range wireless connection or a wired connection using Bluetooth (R) (PC: personal computer) is activated in response to the communication signal from 20.

前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、通信部16、入力部17a、座標入力装置17bが接続される他に、LCDからなる表示部18、マイクを備え音声を入力する音声入力部19a、左右チャンネルのスピーカL,Rを備え音声を出力するステレオ音声出力部19bなどが接続される。   The CPU 11 is connected to the memory 12, the recording medium reading unit 14, the power transmission control unit 15, the communication unit 16, the input unit 17a, and the coordinate input device 17b. Are connected to a sound input unit 19a for inputting a sound, a stereo sound output unit 19b for outputting sound with left and right channel speakers L and R, and the like.

また、CPU11には、処理時間計時用のタイマが内蔵される。   The CPU 11 has a built-in timer for processing time counting.

この携帯機器10のメモリ12は、FLASHメモリ(EEP−ROM)12A、RAM12Bを備えて構成される。   The memory 12 of the portable device 10 includes a FLASH memory (EEP-ROM) 12A and a RAM 12B.

FLASHメモリ(EEP−ROM)12Aには、当該携帯機器10の全体の動作を司るシステムプログラムや電送制御部15を介して通信ネットワークN上の各コンピュータ端末(30)とデータ通信するためのネット通信プログラム、通信部16を介して外部の通信機器(PC)20とデータ通信するための外部機器通信プログラムが記憶される他に、スケジュール管理プログラムやアドレス管理プログラム、そして辞書の見出語検索や検索見出語に対応する音声・テキスト・顔画像(含む口型合成画像)などの各種データの同期再生、および当該顔画像(キャラクタ)の種類設定、および見出語アクセントの出題テストを行うための辞書処理プログラム12aなど、種々のPDA制御プログラムが記憶される。   The FLASH memory (EEP-ROM) 12A has network communication for data communication with each computer terminal (30) on the communication network N via the system program that controls the overall operation of the portable device 10 and the power transmission control unit 15. In addition to storing programs, external device communication programs for data communication with an external communication device (PC) 20 via the communication unit 16, schedule management programs, address management programs, and dictionary search and search For synchronized playback of various data such as speech, text, and face images (including mouth-shaped composite images) corresponding to headwords, setting the type of the face image (character), and testing the headword accent Various PDA control programs such as the dictionary processing program 12a are stored.

また、FLASHメモリ(EEP−ROM)12Aにはさらに、辞書データベース12b(図2参照)、辞書音声データ12c、キャラクタ画像データ12d(図3参照)、音声別口(型)画像データ12e(図4参照)、および辞書タイムコードファイル12f(図5・図6参照)が記憶される。   Further, the FLASH memory (EEP-ROM) 12A further includes a dictionary database 12b (see FIG. 2), dictionary voice data 12c, character image data 12d (see FIG. 3), and voice separate mouth (type) image data 12e (FIG. 4). And a dictionary time code file 12f (see FIGS. 5 and 6) are stored.

辞書データベース12bとしては、英和辞書、和英辞書、国語辞書など、各種の辞書のデータが記憶されると共に、図2に示すように、辞書内の全ての見出語についてそれぞれその見出語No、音声・テキスト・画像の同期再生を簡単に行うためのタイムコードファイルのNoと格納先アドレス、画像再生ウインドウを設定するためのHTMLファイルのNoと格納先アドレス、テキストファイルのNoと格納先アドレス、テキストの各文字,発音記号,口型番号を対応付けたテキスト口同期ファイルのNoと格納先アドレス、音声データであるサウンドファイルのNoと格納先アドレス、辞書内容のデータ番号と格納先アドレスが、それぞれリンク付けられて記憶される。   As the dictionary database 12b, data of various dictionaries such as an English-Japanese dictionary, a Japanese-English dictionary, a national language dictionary, and the like are stored. As shown in FIG. Time code file No and storage destination address for easy synchronized playback of audio, text, and images, HTML file No and storage destination address for setting an image playback window, Text file No and storage destination address, No. and storage address of text mouth synchronization file that associates each character, phonetic symbol, mouth type number of text, No and storage address of sound file that is voice data, data number and storage address of dictionary contents, Each is linked and stored.

なお、各実施形態において、明細書上で記載される発音記号については、正式な発音記号の入力が困難なため類似の文字を代用し、正式な発音記号については図面上にて記載する。   In each embodiment, for phonetic symbols described in the specification, it is difficult to input formal phonetic symbols, so similar characters are substituted, and formal phonetic symbols are described on the drawings.

図2は前記携帯機器10のメモリ12に記憶される辞書データベース12bのうち1つの見出語「low」についての同期再生用リンクデータを示す図であり、同図(A)は各ファイルNoと格納先アドレスを示すテーブル、同図(B)は当該テキストファイルNoに従い格納されているテキストデータ「low」を示す図、同図(C)はテキスト口同期ファイルNoに従い格納されているテキストの文字,発音記号,口型番号を示す図である。   FIG. 2 is a diagram showing synchronous reproduction link data for one headword “low” in the dictionary database 12b stored in the memory 12 of the portable device 10, and FIG. A table showing storage destination addresses, FIG. 5B shows the text data “low” stored according to the text file No., and FIG. 4C shows text characters stored according to the text mouth synchronization file No. , Phonetic symbols, mouth type numbers.

辞書音声データ12cとしては、前記辞書データベース12bにおける各見出語毎の発音のための音声データがそのサウンドファイルNoとアドレスに対応付けられて記憶される。   As the dictionary voice data 12c, voice data for pronunciation for each headword in the dictionary database 12b is stored in association with the sound file No. and the address.

図3は前記携帯機器10のメモリ12に記憶され、辞書の見出語検索における発音口型画像の同期表示のためにユーザ設定により選択的に使用されるキャラクタ画像データ12dを示す図である。   FIG. 3 is a diagram showing character image data 12d that is stored in the memory 12 of the portable device 10 and that is selectively used by user settings for synchronous display of pronunciation-portable images in a dictionary search for a dictionary.

キャラクタ画像データ12dとしては、本実施形態の場合、3種類のキャラクタ画像(顔画像)No1〜No3が用意され、個々のキャラクタ画像No1,No2,No3には、その口型画像の合成矩形領域を対角する2点の座標として指定するための口画像エリアデータ(X1,Y1,X2,Y2)が対応付けられて記憶される。   In this embodiment, three types of character images (face images) No1 to No3 are prepared as the character image data 12d, and each character image No1, No2, No3 has a combined rectangular area of its mouth-shaped image. Mouth image area data (X1, Y1, X2, Y2) for designating as coordinates of two diagonal points are stored in association with each other.

なお、この3種類のキャラクタ画像(顔画像)No1〜No3には、それぞれさらに、辞書検索された見出語のアクセントのタイミングで発音の強調を表現するためのアクセント顔画像No1′〜No3′(図12(C)(2),図13(B)(2)参照)が記憶され、さらには、米語または英語の発音音声が指定された場合の米語用キャラクタ画像No1US〜No3US(図15参照)や英語用キャラクタ画像No1UK〜No3UK(図16参照)、およびそのアクセント顔画像No1US′〜No3US′(図15(B)(2)参照)やNo1UK′〜No3UK′(図16(B)(2)参照)が記憶される。   The three types of character images (face images) No1 to No3 are further accented face images No1 'to No3' (for expressing pronunciation emphasis at the timing of the accent of the found word searched in the dictionary. 12 (C) (2) and FIG. 13 (B) (2)) are stored, and further, American character images No1US to No3US when American or English pronunciation sounds are designated (see FIG. 15). And English character images No1UK to No3UK (see FIG. 16), and accent face images No1US ′ to No3US ′ (see FIG. 15B (2)) and No1UK ′ to No3UK ′ (FIG. 16B (2) Reference) is stored.

図4は前記携帯機器10のメモリ12に記憶され、辞書の見出語検索における発音口型画像の同期表示のためにキャラクタ画像(12d:No1〜No3)の口画像エリア(X1,Y1,X2,Y2)に合成表示される音声別口画像データ12eを示す図である。   FIG. 4 is stored in the memory 12 of the portable device 10 and is used for the synchronous display of the pronunciation mouth type images in the dictionary word search, the mouth image areas (X1, Y1, X2) of the character images (12d: No1 to No3). , Y2) is a diagram showing voice-specific mouth image data 12e synthesized and displayed.

音声別口(型)画像データ12eとしては、前記辞書データベース12bに記憶された全ての見出し語の発音に要する各発音記号に対応付けた口型画像12e1,12e2,…がそれぞれその口番号No.nに対応付けられて記憶される。   As the mouth-specific mouth image data 12e, mouth-shaped images 12e1, 12e2,... Associated with each phonetic symbol required for pronunciation of all headwords stored in the dictionary database 12b are the mouth number No. It is stored in association with n.

また、前記携帯機器10のメモリ12に記憶される辞書タイムコードファイル12fは、辞書検索された見出語に対応する音声・テキスト・顔画像(含む口型合成画像)の同期再生を行うための指令ファイル(図5参照)であり、全ての見出語毎ではなく、文字数と発音記号数およびその発音タイミングが同じである複数の見出語毎に用意され、所定のアルゴリズムにより圧縮・暗号化されている。   Further, the dictionary time code file 12f stored in the memory 12 of the portable device 10 is used for synchronous reproduction of voice / text / face images (including mouth-shaped composite images) corresponding to the searched words in the dictionary. This command file (see Fig. 5) is prepared not for every headword but for each headword that has the same number of characters, number of phonetic symbols, and pronunciation timing, and is compressed and encrypted using a predetermined algorithm. Has been.

図5は前記携帯機器10のメモリ12に格納された辞書タイムコードファイル12fにおける見出語「low」に対応付けられたファイルNo23のタイムコードファイル12f23(12i)を示す図である。   FIG. 5 is a diagram showing a time code file 12f23 (12i) of the file No. 23 associated with the headword “low” in the dictionary time code file 12f stored in the memory 12 of the portable device 10.

タイムコードファイル12fnには、予めヘッダ情報Hとして記述設定される一定時間間隔の基準処理単位時間(例えば25ms)で各種データ(音声・テキスト・画像)を同期再生するコマンド処理を行うためのタイムコードが記述配列されるもので、この各タイムコードは、命令を指示するコマンドコードと、当該コマンドに関わるデータ内容(テキストファイル/サウンドファイル/イメージファイルなど)を対応付けするための参照番号や指定数値からなるパラメータデータとの組み合わせにより構成される。   In the time code file 12fn, a time code for performing command processing for synchronously reproducing various data (speech, text, and images) at a reference processing unit time (for example, 25 ms) at a predetermined time interval described and set as header information H in advance. Each time code is a reference number or a specified numerical value for associating a command code indicating an instruction with data contents (text file / sound file / image file etc.) related to the command. It is comprised by the combination with the parameter data which consists of.

例えば図5で示す見出語「low」のタイムコードファイル12f23によるファイル再生時間は、予め設定された基準処理単位時間が25msである場合、40ステップのタイムコードからなる再生処理を経て1秒間となる。   For example, the file playback time by the time code file 12f23 of the headword “low” shown in FIG. 5 is 1 second after a playback process consisting of a time code of 40 steps when a preset reference processing unit time is 25 ms. Become.

図6は前記携帯機器10の辞書タイムコードファイル12fn(図5参照)にて記述される各種コマンドのコマンドコードとそのパラメータデータに基づき解析処理される命令内容を対応付けて示す図である。   FIG. 6 is a diagram in which command codes of various commands described in the dictionary time code file 12fn (see FIG. 5) of the portable device 10 are associated with instruction contents to be analyzed based on parameter data thereof.

タイムコードファイル12fnに使用されるコマンドとしては、標準コマンドと拡張コマンドがあり、標準コマンドには、LT(i番目テキストロード).VD(i番目テキスト文節表示).BL(文字カウンタリセット・i番目文節ブロック指定).HN(ハイライト無し・文字カウンタカウントアップ).HL(i番目文字までハイライト・文字カウント).LS(1行スクロール・文字カウンタカウントアップ).DH(i番目HTMLファイル表示).DI(i番目イメージファイル表示).PS(i番目サウンドファイルプレイ).CS(クリアオールファイル).PP(基本タイムi秒間停止).FN(処理終了).NP(無効)の各コマンドがある。   Commands used for the time code file 12fn include standard commands and extended commands. The standard commands include LT (i-th text load). VD (i-th text phrase display). BL (Character counter reset / i-th phrase block designation). HN (no highlight, character counter count up). HL (up to i-th character, character count). LS (1 line scrolling / character counter count up). DH (i-th HTML file display). DI (i-th image file display). PS (i-th sound file play). CS (Clear All File). PP (pause for basic time i seconds). FN (end of processing). There are NP (invalid) commands.

また、メモリ12内のRAM12Bには、辞書データベース12bの検索処理に伴う見出語がその見出語番号に従い読み出されて記憶される検索見出語メモリ12g、検索された見出語に対応する意味内容などの辞書データが前記辞書データベース12bからその辞書データ番号に従い読み出されて記憶される見出語対応辞書データメモリ12h、検索された見出語に対応した音声・テキスト・画像の同期再生を行うためのタイムコードファイル12fn(図5参照)が前記辞書データベース12b内のタイムコードファイルNoに従い辞書タイムコードファイル12fの中から読み出され伸張・復号化されて記憶される再生タイムコードファイルメモリ12iが用意される。   Further, in the RAM 12B in the memory 12, a search word memory 12g in which a search word associated with the search processing of the dictionary database 12b is read and stored according to the search word number corresponds to the searched search word. Dictionary data memory 12h, in which dictionary data such as meaning contents to be read is read out from the dictionary database 12b according to the dictionary data number and stored, and voice / text / image synchronization corresponding to the searched entry A reproduction time code file 12fn (see FIG. 5) for reproduction is read out from the dictionary time code file 12f according to the time code file No in the dictionary database 12b, decompressed, decoded and stored. A memory 12i is prepared.

さらに、このメモリ12内のRAM12Bには、見出語検索画面G2上でテキスト・画像の同期再生用ウインドウW1,W2(図12・図13参照)を設定するためのHTMLファイルが、前記辞書データベース12bからHTMLファイルNoに従い読み出されて記憶される同期用HTMLファイルメモリ12j、検索見出語のテキストデータが前記辞書データベース12bからそのテキストファイルNoに従い読み出されて記憶される同期用テキストファイルメモリ12k、検索見出語の発音音声データが前記辞書データベース12b内のサウンドファイルNoに従い前記辞書音声データ12cの中から読み出されて記憶される同期用サウンドファイルメモリ12m、検索見出語の発音画像表示用としてユーザ設定されたキャラクタ画像が前記キャラクタ画像データ12d(図3参照)の中から読み出されて記憶される同期用イメージファイルメモリ12n、この同期用イメージファイルメモリ12nに記憶されたキャラクタ画像における口型画像の合成領域を示す口画像エリアデータ(X1,Y1;X2,Y2)が記憶される口画像エリアメモリ12p、そして、前記タイムコードファイルメモリ12iに記憶された検索見出語に対応するタイムコードファイル12fnに従い音声・テキストに同期再生すべきキャラクタ画像と口型画像とが展開合成されて記憶される画像展開バッファ12qなどが用意される。   Further, in the RAM 12B in the memory 12, HTML files for setting the text / image synchronous reproduction windows W1 and W2 (see FIGS. 12 and 13) on the headword search screen G2 are stored in the dictionary database. A synchronization HTML file memory 12j that is read from and stored in accordance with the HTML file No. 12b, and a text file memory for synchronization in which the search headword text data is read from the dictionary database 12b and stored in accordance with the text file No. 12k, synchronization sound file memory 12m in which the pronunciation sound data of the search headword is read out from the dictionary sound data 12c and stored according to the sound file No in the dictionary database 12b, and the pronunciation image of the search headword Character image set by user for display A synchronization image file memory 12n that is read out from the character image data 12d (see FIG. 3) and stored, and a mouth that indicates a composition area of the mouth image in the character image stored in the synchronization image file memory 12n Mouth image area memory 12p in which image area data (X1, Y1; X2, Y2) are stored, and voice / text according to time code file 12fn corresponding to the search headword stored in time code file memory 12i An image expansion buffer 12q or the like is prepared in which a character image to be synchronized and a mouth image are expanded and synthesized and stored.

すなわち、この携帯機器(PDA)10のFLASHメモリ12Aに記憶されている辞書処理プログラム12aを起動させて検索された見出語が「low」であり、これに対応して辞書タイムコードファイル12f内から読み出されて再生タイムコードファイルメモリ12iに記憶されたタイムコードファイル12fが、例えば図5で示したタイムコードファイル12f23であり、設定処理単位時間毎のコマンド処理に伴い3番目のコマンドコード“DI”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“DI”はi番目のイメージファイル表示命令であるため、パラメータデータi=00からリンク付けられる同期用イメージファイル12nに記憶されたキャラクタ画像12dnが読み出されて表示される。   That is, the entry word searched by activating the dictionary processing program 12a stored in the FLASH memory 12A of the portable device (PDA) 10 is “low”, and in the dictionary time code file 12f corresponding to this The time code file 12f read from and stored in the reproduction time code file memory 12i is, for example, the time code file 12f23 shown in FIG. 5, and the third command code “ When “DI” and parameter data “00” are read, this command “DI” is the i-th image file display command, and is stored in the synchronization image file 12n linked from the parameter data i = 00. The character image 12dn is read and displayed.

また、設定処理単位時間毎のコマンド処理に伴い4番目のコマンドコード“PS”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“PS”はi番目のサウンドファイル再生命令であるため、パラメータデータi=00からリンク付けられる同期用サウンドファイル12mに記憶された音声データ12cnが読み出されて出力される。   When the fourth command code “PS” and parameter data “00” are read in accordance with the command processing for each set processing unit time, this command “PS” is the i-th sound file playback command. The audio data 12cn stored in the synchronization sound file 12m linked from the parameter data i = 00 is read and output.

また、設定処理単位時間毎のコマンド処理に伴い6番目のコマンドコード“VD”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“VD”はi番目のテキスト文節表示命令であるため、パラメータデータi=00に従い、テキストの0番目の文節(この場合は、同期用テキストファイルメモリ12kに記憶された検索見出語のテキストファイル「low」が表示される。   When the sixth command code “VD” and parameter data “00” are read in accordance with the command processing for each set processing unit time, this command “VD” is the i-th text phrase display command. According to the parameter data i = 00, the 0th clause of the text (in this case, the text file “low” of the search word stored in the synchronization text file memory 12k is displayed.

さらに、設定処理単位時間毎のコマンド処理に伴い9番目のコマンドコード“NP”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“NP”は無効命令であるため、現状のファイル出力状態が維持される。   Further, when the ninth command code “NP” and parameter data “00” are read in accordance with the command processing for each set processing unit time, this command “NP” is an invalid instruction, and therefore the current file output State is maintained.

なお、この図5で示したファイル内容のタイムコードファイル12f23(12i)に基づいた検索見出語に対応する発音音声・テキスト・画像(口型画像)の同期再生についての詳細な動作は、後述にて改めて説明する。   The detailed operation of the synchronized playback of pronunciation speech / text / image (mouth-shaped image) corresponding to the search word based on the time code file 12f23 (12i) having the file contents shown in FIG. 5 will be described later. I will explain it again.

次に、前記構成の携帯機器10による各種の動作について説明する。   Next, various operations performed by the mobile device 10 having the above-described configuration will be described.

図7は前記携帯機器10の辞書処理プログラム12aに従ったメイン処理を示すフローチャートである。   FIG. 7 is a flowchart showing main processing according to the dictionary processing program 12a of the portable device 10.

図8は前記携帯機器10のメイン処理に伴う見出語同期再生処理を示すフローチャートである。   FIG. 8 is a flowchart showing a headword synchronized reproduction process accompanying the main process of the portable device 10.

図9は前記携帯機器10の見出語同期再生処理に伴う各見出語文字のハイライト表示に応じて割り込みで実行されるテキスト対応口表示処理を示すフローチャートである。   FIG. 9 is a flowchart showing a text corresponding mouth display process executed by interruption in accordance with the highlight display of each entry word character accompanying the entry synchronized playback process of the portable device 10.

図10は前記携帯機器10のメイン処理内のキャラクタ設定処理に伴う同期再生用キャラクタ画像の設定表示状態を示す図である。   FIG. 10 is a diagram showing a setting display state of the character image for synchronous reproduction accompanying the character setting process in the main process of the portable device 10.

入力部17aの「設定」キー17a1およびカーソルキー17a2の操作によりキャラクタ画像の設定モードに切り替えられると(ステップS1→S2)、FLASHメモリ12Aに記憶されている例えば3種類のキャラクタ画像データ12d1(No1),12d2(No2),12d3(No3)[図3参照]が読み出され、図10に示すように、キャラクタ画像の一覧選択画面G1として表示部18に表示される(ステップS3)。   When the character image setting mode is switched by operating the “setting” key 17a1 and the cursor key 17a2 of the input unit 17a (step S1 → S2), for example, three types of character image data 12d1 (No1) stored in the FLASH memory 12A ), 12d2 (No2), 12d3 (No3) [see FIG. 3] are read and displayed on the display unit 18 as a character image list selection screen G1, as shown in FIG. 10 (step S3).

このキャラクタ画像の一覧選択画面G1において、カーソルキー17a3の操作により各キャラクタ画像の選択フレームXが移動操作されてユーザ所望のキャラクタ画像(例えば12d3(No3))が選択されると共に、「訳/決定(音声)」キー17a4による決定操作により当該キャラクタ画像の選択が検知されると(ステップS4)、この選択検知されたキャラクタ画像12dnが読み出され、RAM12B内の同期用イメージファイルメモリ12nに転送格納される(ステップS5)。また、この選択検知されたキャラクタ画像12dnの口型画像の合成領域を示す口画像エリアデータ(X1,Y1;X2,Y2)も読み出され、RAM12B内の口画像エリアメモリ12pに転送格納される(ステップS6)。   In this character image list selection screen G1, the selection frame X of each character image is moved by the operation of the cursor key 17a3 to select a user desired character image (for example, 12d3 (No 3)). When the selection of the character image is detected by the determination operation using the (voice) key 17a4 (step S4), the character image 12dn detected by the selection is read out and stored in the synchronization image file memory 12n in the RAM 12B. (Step S5). Mouth image area data (X1, Y1; X2, Y2) indicating the synthesized area of the mouth-shaped image of the character image 12dn that has been selected and detected is also read out and transferred to the mouth image area memory 12p in the RAM 12B. (Step S6).

これにより、見出語検索に伴い、当該見出語の発音音声に同期表示させるべき口型画像合成対象のキャラクタ画像が選択設定される。   Thus, the character image to be synthesized with the mouth-shaped image to be displayed in synchronization with the pronunciation sound of the headword is selected and set along with the headword search.

図11は前記携帯機器10のメイン処理内の見出語検索処理に伴う検索見出語表示画面G2を示す図である。   FIG. 11 is a diagram showing a search word entry display screen G2 accompanying the word search process in the main process of the portable device 10.

辞書データベース12bに記憶されている例えば英和辞書の辞書データに基づいて見出語検索を行うのに、入力部17aの「英和」キー17a5の操作により英和辞書の検索モードに設定した後に、検索対象の見出語(例えば「low」)を入力すると(ステップS7→S8)、当該入力された見出語と一致及び一致文字を先頭に含む複数の見出語が前記英和辞書の辞書データから検索されて読み出され、検索見出語の一覧(図示せず)として表示部18に表示される(ステップS9)。   For example, in order to perform a headword search based on dictionary data of an English-Japanese dictionary stored in the dictionary database 12b, after setting the English-Japanese dictionary search mode by operating the "English-Japanese" key 17a5 of the input unit 17a, the search target Is entered (for example, “low”) (steps S 7 → S 8), a plurality of headwords that match and match the input headword are searched from the dictionary data of the English-Japanese dictionary. Then, it is read out and displayed on the display unit 18 as a list of search terms (not shown) (step S9).

この検索見出語の一覧画面において、ユーザ入力した検索対象の見出語と一致する見出語(この場合「low」)がカーソルキーにより選択指示されて「訳/決定(音声)」キー17a4が操作されると(ステップS10)、当該選択検知された見出語「low」がRAM12B内の見出語メモリ12gに記憶されると共に、この見出語「low」に対応する発音/品詞/意味内容などの辞書データが読み出されてRAM12B内の見出語対応辞書データメモリ12hに記憶され、図11に示すように、検索見出語表示画面G2として表示部18に表示される(ステップS11)。   In this search headword list screen, the headword (in this case, “low”) that matches the search target headword input by the user is selected and designated by the cursor key, and the “translation / decision (voice)” key 17a4 Is operated (step S10), the selected and detected headword "low" is stored in the headword memory 12g in the RAM 12B, and the pronunciation / part of speech / corresponding to the headword "low" is stored. Dictionary data such as meaning contents is read out and stored in the entry word corresponding dictionary data memory 12h in the RAM 12B, and displayed on the display unit 18 as a search entry display screen G2 as shown in FIG. S11).

ここで、前記検索表示された見出語「low」について、その発音音声を出力させるのと同時に、当該見出語の文字,発音記号と発音の口型画像を同期表示させるために、「訳/決定(音声)」キー17a4が操作されると(ステップS12)、図8における同期再生処理に移行される(ステップSA)。   Here, for the headword “low” displayed in the search, the pronunciation voice is output, and at the same time, the character, phonetic symbol and pronunciation mouth image of the headword are synchronously displayed. When the “/ decision (voice)” key 17a4 is operated (step S12), the process proceeds to the synchronous reproduction process in FIG. 8 (step SA).

図12は前記携帯機器10の見出語検索処理における同期再生処理に伴いキャラクタ画像No3の設定状態において検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は発音音声の出力に同期した見出語文字表示ウインドウW1およびアクセント未対応の発音口型表示ウインドウW2の変化状態を示す図、同図(C)は発音音声の出力に同期した見出語文字表示ウインドウW1およびアクセント対応の発音口型表示ウインドウW2の変化状態を示す図である。   FIG. 12 shows a headword character display window W1 displayed on the search headword display screen G2 in the setting state of the character image No3 in accordance with the synchronous reproduction processing in the headword search processing of the portable device 10 and the pronunciation type. It is a figure which shows the display state of the display window W2, The figure (A) is a figure which shows the setting display state of the headword character display window W1 and the pronunciation type display window W2 with respect to the search headword display screen G2. (B) is a diagram showing a change state of the headword character display window W1 synchronized with the output of the pronunciation sound and the pronunciation type display window W2 not corresponding to the accent, and FIG. It is a figure which shows the change state of the spoken word display window W1 and the pronunciation opening type | mold display window W2 corresponding to an accent.

前記検索見出語表示画面G2が表示されている状態での「訳/決定(音声)」キー17a4の操作に伴い、図8における同期再生処理(ステップSA)が起動されると、RAM12B内の各ワークエリアのクリア処理などのイニシャライズ処理が行われ(ステップA1)、まず、辞書データベース12bに記憶されている今回の検索見出語「low」についての同期再生用リンクデータ(図2参照)に基づき、見出語検索画面G2上でテキスト・画像の同期再生用ウインドウW1,W2(図12参照)を設定するためのHTMLファイルがそのHTMLファイルNo3に従い読み出され同期用HTMLファイルメモリ12jに書き込まれる。また、検索見出語のテキストデータ「low(発音記号付)」がそのテキストファイルNo4222に従い読み出され同期用テキストファイルメモリ12kに書き込まれる。また、検索見出語の発音音声データがそのサウンドファイルNo4222に従い読み出され同期用サウンドファイルメモリ12mに書き込まれる(ステップA2)。   When the synchronous reproduction process (step SA) in FIG. 8 is started in accordance with the operation of the “translation / decision (voice)” key 17a4 in the state where the search headword display screen G2 is displayed, Initialization processing such as clear processing of each work area is performed (step A1). First, the synchronous reproduction link data (refer to FIG. 2) for the current search term “low” stored in the dictionary database 12b is stored. Based on the headword search screen G2, the HTML file for setting the synchronous playback windows W1 and W2 (see FIG. 12) of the text / image is read according to the HTML file No3 and written to the synchronization HTML file memory 12j. It is. In addition, the text data “low (with phonetic symbol)” of the search headword is read according to the text file No 4222 and written into the synchronization text file memory 12k. Further, the pronunciation voice data of the search headword is read according to the sound file No 4222 and written into the synchronization sound file memory 12m (step A2).

なお、検索見出語の発音画像表示用としてユーザ設定されたキャラクタ画像(この場合、12d3(No3))は、前記キャラクタ設定処理に伴うステップS5に従って、既にキャラクタ画像データ12d(図3参照)の中から読み出されて同期用イメージファイルメモリ12nに書き込まれ、さらに当該キャラクタ画像12d3(No3)における発音口型画像合成エリアである口画像エリアデータ(X1,Y1;X2,Y2)も前記キャラクタ設定処理に伴うステップS6に従って、既に口画像エリアメモリ12pに書き込まれている。   It should be noted that the character image (in this case, 12d3 (No 3)) set by the user for displaying the search headline pronunciation image is already stored in the character image data 12d (see FIG. 3) in accordance with step S5 accompanying the character setting process. It is read from the inside and written to the synchronization image file memory 12n, and the mouth image area data (X1, Y1; X2, Y2), which is the pronunciation mouth type image composition area in the character image 12d3 (No3), is also set in the character setting. According to step S6 accompanying the process, it has already been written in the mouth image area memory 12p.

すると、FLASHメモリ12A内に辞書タイムコードファイル12fとして記憶されている各種見出語対応の暗号化された音声・テキスト・画像の同期再生用タイムコードファイル12fnの中から、今回の検索見出語「low」に対応するタイムコードファイル12f23(図5参照)が、前記同期再生用リンクデータ(図2参照)に記述されたタイムコードファイルNo23に従い解読復号化されて読み出され、RAM12B内のタイムコードファイルメモリ12iに転送されて格納される(ステップA3)。   Then, from the time code file 12fn for synchronized playback of encrypted voice / text / image corresponding to various headwords stored as the dictionary time code file 12f in the FLASH memory 12A, the current search headword The time code file 12f23 (see FIG. 5) corresponding to “low” is decoded and read according to the time code file No23 described in the synchronous reproduction link data (see FIG. 2), and the time in the RAM 12B is read. It is transferred and stored in the code file memory 12i (step A3).

こうして、前記検索見出語「low」に対応する発音音声・テキスト・発音口型画像の同期再生用の各種ファイルのRAM12Bへの読み込み設定、およびこれらのファイルを同期再生するためのタイムコードファイル12f23のRAM12Bへの転送設定が完了すると、タイムコードファイルメモリ12iに格納されたタイムコードファイル(CASファイル)12f23(図5参照)のCPU11による処理単位時間(例えば25ms)が当該タイムコードファイル12f23のヘッダ情報Hとして設定される(ステップA4)。   In this way, the setting of reading various files for synchronous reproduction of the pronunciation voice / text / speaking mouth type image corresponding to the search headword “low” into the RAM 12B and the time code file 12f23 for synchronous reproduction of these files. When the transfer setting to the RAM 12B is completed, the processing unit time (for example, 25 ms) by the CPU 11 of the time code file (CAS file) 12f23 (see FIG. 5) stored in the time code file memory 12i is the header of the time code file 12f23. Information H is set (step A4).

そして、前記タイムコードファイルメモリ12iに格納されたタイムコードファイル12f23の先頭に読み出しポインタがセットされると共に、各同期用ファイルメモリ12j,12k,12m,12nに書き込まれた各種ファイルの先頭に読み出しポインタがセットされ(ステップA5)、当該各同期ファイルの再生処理タイミングを計時するためのタイマがスタートされる(ステップA6)。   A read pointer is set at the head of the time code file 12f23 stored in the time code file memory 12i, and at the top of various files written in the synchronization file memories 12j, 12k, 12m, and 12n. Is set (step A5), and a timer for timing the reproduction processing timing of each synchronous file is started (step A6).

このステップA6において、処理タイマがスタートされると、前記ステップA4にて設定された今回のタイムコードファイル12f23に応じた処理単位時間(25ms)毎に、前記ステップA5にて設定された読み出しポインタの初期位置の当該タイムコードファイル12f23(図5参照)のコマンドコードおよびそのパラメータデータが読み出される(ステップA7)。   In step A6, when the processing timer is started, the read pointer set in step A5 is set every processing unit time (25 ms) corresponding to the current time code file 12f23 set in step A4. The command code and parameter data of the time code file 12f23 (see FIG. 5) at the initial position are read (step A7).

そして、前記タイムコードファイル12f23(図5参照)から読み出されたコマンドコードが、“FN”か否か判断され(ステップA8)、“FN”と判断された場合には、その時点で当該同期再生処理の停止処理が指示実行される(ステップA8→A9)。   Then, it is determined whether or not the command code read from the time code file 12f23 (see FIG. 5) is “FN” (step A8). If “FN” is determined, the synchronization is performed at that time. A reproduction process stop process is instructed (step A8 → A9).

一方、前記タイムコードファイル12f23(図5参照)から読み出されたコマンドコードが、“FN”ではないと判断された場合には、当該コマンドコードの内容(図6参照)に対応する処理が実行される(ステップA10)。   On the other hand, when it is determined that the command code read from the time code file 12f23 (see FIG. 5) is not “FN”, processing corresponding to the content of the command code (see FIG. 6) is executed. (Step A10).

そして、前記タイマによる計時時間が次の処理単位時間(25ms)に到達したと判断された場合には、RAM12Bに格納されたタイムコードファイル12f23(図5参照)に対する読み出しポインタが次の位置に移動セットされ(ステップA11→A12)、前記ステップA7における当該読み出しポインタの位置のタイムコードファイル12f23(図5参照)のコマンドコードおよびそのパラメータデータ読み出しからの処理が繰り返される(ステップA12→A7〜A10)。   When it is determined that the time measured by the timer has reached the next processing unit time (25 ms), the read pointer for the time code file 12f23 (see FIG. 5) stored in the RAM 12B moves to the next position. Set (step A11 → A12), and the process from reading the command code and its parameter data in the time code file 12f23 (see FIG. 5) at the position of the read pointer in step A7 is repeated (steps A12 → A7 to A10). .

ここで、図5で示す検索見出語「low」のタイムコードファイル12f23に基づいた、発音音声・テキスト・発音口型画像ファイルの同期再生出力動作について詳細に説明する。   Here, the synchronized playback output operation of the pronunciation voice / text / speech mouth type image file based on the time code file 12f23 of the search word “low” shown in FIG. 5 will be described in detail.

すなわち、このタイムコードファイル12f23は、そのヘッダHに予め記述設定された(基準)処理単位時間(例えば25ms)毎にコマンド処理が実行されるもので、まず、タイムコードファイル12f23(図5参照)の第1コマンドコード“CS”(クリアオールファイル)およびそのパラメータデータ“00”が読み出されると、全ファイルの出力をクリアする指示が行われ、テキスト・音声・画像ファイルの出力がクリアされる(ステップA10)。   That is, the time code file 12f23 is a command process executed every (reference) processing unit time (for example, 25 ms) preset in the header H. First, the time code file 12f23 (see FIG. 5). When the first command code “CS” (clear all file) and its parameter data “00” are read out, an instruction to clear the output of all the files is given, and the output of the text / audio / image file is cleared ( Step A10).

第2コマンドコード“DH”(i番目HTMLファイル表示)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードDHと共に読み出されたパラメータデータ(i=0)に応じて、RAM12B内の同期用HTMLファイルメモリ12jからHTMLデータの見出語テキスト・画像フレームデータが読み出され、図12(A)に示すように、表示部18に対する見出語検索画面G2上でのテキスト・画像の同期再生用ウインドウW1,W2が設定される(ステップA10)。   When the second command code “DH” (i-th HTML file display) and its parameter data “00” are read, synchronization in the RAM 12B is performed according to the parameter data (i = 0) read together with the command code DH. The headword text / image frame data of the HTML data is read from the HTML file memory 12j, and the text / image is synchronized on the headword search screen G2 with respect to the display unit 18 as shown in FIG. Playback windows W1 and W2 are set (step A10).

第3コマンドコード“DI”(i番目イメージファイル表示)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードDIと共に読み出されたパラメータデータ(i=0)に応じて、RAM12B内の同期用イメージファイルメモリ12nから前記キャラクタ設定処理(ステップS2〜S6)にて設定記憶されたキャラクタ画像12d(この場合No3)が読み出され、図12(A)に示すように、前記見出語検索画面G2上でHTMLファイルで設定された画像の同期再生用ウインドウW2に表示される(ステップA10)。   When the third command code “DI” (i-th image file display) and its parameter data “00” are read, synchronization in the RAM 12B is performed according to the parameter data (i = 0) read together with the command code DI. The character image 12d (No. 3 in this case) set and stored in the character setting process (steps S2 to S6) is read from the image file memory 12n, and as shown in FIG. The image is displayed in the synchronized playback window W2 for the image set in the HTML file on the screen G2 (step A10).

第4コマンドコード“PS”(i番目サウンドファイルプレイ)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードPSと共に読み出されたパラメータデータ(i=0)に応じて、RAM12B内の同期用サウンドファイルメモリ12mから前記ステップA2にて設定記憶された検索見出語「low」に対応する発音音声データが読み出され、ステレオ音声出力部19bからの音声出力が開始される(ステップA10)。   When the fourth command code “PS” (i-th sound file play) and its parameter data “00” are read, synchronization in the RAM 12B is performed according to the parameter data (i = 0) read together with the command code PS. The pronunciation sound data corresponding to the search headword “low” set and stored in the step A2 is read from the sound file memory 12m, and the sound output from the stereo sound output unit 19b is started (step A10). .

第5コマンドコード“LT”(i番目テキストロード)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードLTと共に読み出されたパラメータデータ(i=0)に応じて、RAM12B内の同期用テキストファイルメモリ12kに前記ステップA2にて設定記憶された検索見出語「low」に対応する1文節のテキストデータ「l」「o」「w」(含む発音記号)が指定される(ステップA10)。   When the fifth command code “LT” (i-th text load) and its parameter data “00” are read, the synchronization data in the RAM 12B is read according to the parameter data (i = 0) read together with the command code LT. Text data “l”, “o”, “w” (including phonetic symbols) corresponding to the search headword “low” set and stored in step A2 is specified in the text file memory 12k (step A10). ).

第6コマンドコード“VD”(i番目テキスト文節表示)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードVDと共に読み出されたパラメータデータ(i=0)に応じて、前記第5コマンドコード“LT”に従い指定された1文節のテキストデータ「l」「o」「w」(含む発音記号)が読み出され、図12(A)に示すように、前記見出語検索画面G2上のテキスト同期再生用ウインドウW1に表示される(ステップA10)。   When the sixth command code “VD” (i-th text phrase display) and its parameter data “00” are read, the fifth command is determined according to the parameter data (i = 0) read together with the command code VD. The text data “l”, “o”, “w” (including phonetic symbols) specified according to the code “LT” is read out, and as shown in FIG. Are displayed in the text synchronized playback window W1 (step A10).

第7コマンドコード“BL”(文字カウンタリセット・i番目文節ブロック指定)およびそのパラメータデータ“00”が読み出されると、前記テキスト同期再生用ウインドウW1で表示中の検索見出語「low」の文字カウンタがリセットされる(ステップA10)。   When the seventh command code “BL” (character counter reset / i-th clause block designation) and its parameter data “00” are read, the character of the search term “low” being displayed in the text synchronous playback window W1 The counter is reset (step A10).

そして、第8コマンドコード“HL”(i番目文字までハイライト・文字カウント)およびそのパラメータデータ“01”が読み出されると、当該コマンドコードHLと共に読み出されたパラメータデータ(i=1)に応じて、図12(A)に示すように、テキスト同期再生用ウインドウW1に表示されている検索見出語「low」(含む発音記号)のうち1番目の文字「l」およびこれに対応する発音記号まで、色替え表示,反転表示,下線表示などによるハイライト(識別)表示HLが行われ、文字カウンタが同2番目の文字およびこれに対応する発音記号までカウントアップされる(ステップA10)。   When the eighth command code “HL” (highlight / character count up to i-th character) and its parameter data “01” are read, the parameter data (i = 1) read together with the command code HL is read. Then, as shown in FIG. 12A, the first character “l” in the search headword “low” (including phonetic symbols) displayed in the text synchronous playback window W1 and the pronunciation corresponding thereto. Up to the symbol, highlight (identification) display HL by color change display, reverse display, underline display, etc. is performed, and the character counter counts up to the second character and the corresponding phonetic symbol (step A10).

このタイムコードファイル12f23による検索見出語「low」の各文字およびこれに対応する発音記号に対するハイライト(識別)表示に際しては、図9におけるテキスト対応口表示処理の割り込みが行われる。   At the time of highlight (identification) display for each character of the search headword “low” and its corresponding phonetic symbol by the time code file 12f23, the text corresponding mouth display processing in FIG. 9 is interrupted.

すなわち、今回ハイライト(識別)表示HLされた検索見出語「low」の文字「l」が検知されると(ステップB1)、この検知文字「l」に対応する発音口型画像が、辞書データベース12b内のテキスト口同期ファイル(図2(C)参照)により示されるテキスト「l」に対応する口番号「36」に従い、音声別口画像データ12e(図4参照)の中から発音口型画像12e2(No36)として読み出される(ステップB2)。そして、このハイライト(識別)表示された検索見出語「low」の文字「l」に対する発音口型画像12e2(No36)は、図12(A)(図12(B)(1))に示すように、見出語検索画面G2上の画像同期再生用ウインドウW2に表示されているキャラクタ画像12d(No3)の口画像合成領域に対して、RAM12B内の口画像エリアメモリ12pに記憶されている口画像エリア(X1,Y1;X2,Y2)に従い合成されて表示される(ステップB3)。   That is, when the character “l” of the search headword “low” that is highlighted (identified) HL this time is detected (step B1), the pronunciation type image corresponding to the detected character “l” is converted into the dictionary. According to the mouth number “36” corresponding to the text “l” indicated by the text mouth synchronization file (see FIG. 2C) in the database 12b, the pronunciation mouth type is selected from the speech-specific mouth image data 12e (see FIG. 4). It is read out as image 12e2 (No36) (step B2). Then, the pronunciation type image 12e2 (No36) for the character “l” of the search headword “low” displayed in this highlight (identification) is shown in FIG. 12 (A) (FIG. 12 (B) (1)). As shown, the mouth image area memory 12p in the RAM 12B stores the mouth image composition area of the character image 12d (No 3) displayed in the image synchronized playback window W2 on the headword search screen G2. Are synthesized and displayed according to the mouth image area (X1, Y1; X2, Y2) (step B3).

ここで、前記テキスト口同期ファイル(図2(C)参照)により示される今回のハイライト(識別)表示テキスト「l」の発音記号に対するアクセントマークの有無が判断される(ステップB4)。このハイライト(識別)表示テキスト「l」の発音記号[l]の場合にはアクセントマーク無しと判断されるので、キャラクタ画像12d(No3)はその通常の顔画像のままの表示が維持される(ステップB4→B5)。   Here, it is determined whether or not there is an accent mark for the phonetic symbol of the current highlight (identification) display text “l” indicated by the text mouth synchronization file (see FIG. 2C) (step B4). In the case of the phonetic symbol [l] of the highlight (identification) display text “l”, it is determined that there is no accent mark, so that the character image 12d (No 3) is kept displayed as its normal face image. (Step B4 → B5).

なお、ここでアクセントマーク有りと判断された場合には、前記キャラクタ画像12d(No3)は、発音強調表現用のアクセント顔画像No3′(図12(C)(2)参照)に変更表示される(ステップB4→B6)。   If it is determined that there is an accent mark, the character image 12d (No. 3) is changed to an accent face image No. 3 ′ (see FIGS. 12C and 12) for pronunciation emphasis expression. (Step B4 → B6).

そして、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力開始されている検索見出語「low」に対応する発音音声データの出力タイミングと、本タイムコードファイル12f23による処理単位時間(25ms)に応じた検索見出語「low」の1文字毎の識別表示タイミングとは、予め対応付けされて当該タイムコードファイル12f23が作成されているので、当該検索見出語「low」の1文字目「l」の識別表示とその発音口型画像12e(No36)の同期合成表示の際には、これに対応する発音記号を読み上げるところの発音音声が同期出力されることになる。   Then, the output timing of pronunciation sound data corresponding to the search headword “low” started to be output from the stereo sound output unit 19b according to the fourth command code “PS”, and the processing unit by the time code file 12f23 Since the time code file 12f23 is created in association with the identification display timing for each character of the search headword “low” corresponding to the time (25 ms), the search headword “low” is created. In the case of the identification display of the first character “l” and the synthesizing display of the sound mouth image 12e (No. 36), the pronunciation sound that reads out the corresponding phonetic symbol is synchronously output.

これにより、検索見出語「low」の第1文字目「l」の識別表示、その発音口型画像12e3(No36)の設定キャラクタ画像12d(No3)への合成表示、ならびにその発音音声の出力が同期して行われる。   As a result, the identification display of the first character “l” of the search headword “low”, the synthesis display of the pronunciation mouth image 12e3 (No36) to the set character image 12d (No3), and the output of the pronunciation sound Are performed synchronously.

そして、第9コマンドコード“NP”が読み出されると、現在の検索見出語「low」に対応するキャラクタ画像およびテキストデータの同期表示画面および発音音声データの同期出力状態が維持される。   When the ninth command code “NP” is read out, the character image and text data synchronous display screen corresponding to the current search headword “low” and the synchronized output state of the pronunciation voice data are maintained.

この後、第12コマンドコード“HL”、第35コマンドコード“HL”に従い、図12(C)(2)、図12(C)(3)に示すように、テキスト同期再生用ウインドウW1では、検索見出語のテキストデータ「low」とその発音記号が、順次、2番目の文字「o」と発音記号[o]、3番目の文字「w」と発音記号[u]というように、ハイライト(識別)表示HLされて行く(ステップA10)。そして、これと共に、画像同期再生用ウインドウW2では、前記図9におけるテキスト対応の口表示処理に応じて、設定キャラクタ画像12d(No3)の口画像エリア(X1,Y1;X2,Y2)に合成すべき発音口型画像も、前記テキスト口同期ファイル(図2(C)参照)に従い、口番号9に対応する発音口型画像12e(No9)、口番号8に対応する発音口型画像12e(No8)として音声別口画像12eの中から読み出され、順次合成されて同期表示される(ステップB1〜B3)。   Thereafter, in accordance with the twelfth command code “HL” and the thirty-fifth command code “HL”, as shown in FIGS. 12 (C) (2) and 12 (C) (3), in the text synchronous playback window W1, The text data “low” of the search headword and its phonetic symbol are sequentially high, such as the second character “o” and the phonetic symbol [o], the third character “w” and the phonetic symbol [u]. The light (identification) display HL is displayed (step A10). At the same time, in the image synchronous reproduction window W2, the mouth image area (X1, Y1; X2, Y2) of the set character image 12d (No3) is synthesized in accordance with the mouth display processing corresponding to the text in FIG. The phonetic mouth type image also corresponds to the mouth mouth type file 12e (No8) corresponding to the mouth number 8 and the sounding mouth type image 12e (No8) corresponding to the mouth number 8 in accordance with the text mouth synchronization file (see FIG. ) Are read out from the voice-specific mouth image 12e, and are sequentially synthesized and displayed synchronously (steps B1 to B3).

さらに、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている検索見出語「low」の発音音声データも、同テキスト「low」とその発音記号のハイライト(識別)表示部分を読み上げるところの音声が順次同期出力される。   Furthermore, the pronunciation sound data of the search headword “low” output from the stereo sound output unit 19b in response to the fourth command code “PS” is also highlighted (identification) of the text “low” and its pronunciation symbol. ) The sound of reading out the display part is sequentially output synchronously.

なお、前記検索見出語「low」の各文字「l」「o」「w」毎のハイライト(識別)表示HLに同期させたテキスト対応口表示処理による各発音口型画像12e(No36)→12e(No9)→12e(No8)の設定キャラクタ画像12d(No3)に対する合成切り替え表示(ステップB1〜B5)に際し、図12(B)(2)で示したように、2番目の文字「o」とその発音記号のハイライト(識別)表示HLに伴い発音口型画像12e(No9)を合成表示させるときには、当該ハイライト(識別)表示テキスト「o」の発音記号にはアクセントマーク有りと判断されるので、図12(C)(2)で示したように、このときのキャラクタ画像12d(No3)は、発音強調表現用のアクセント顔画像No3′に変更されて表示される(ステップB4→B6)。   It should be noted that each sound mouth type image 12e (No36) by the text corresponding mouth display processing synchronized with the highlight (identification) display HL for each character “l”, “o”, “w” of the search headword “low”. In the composite switching display (steps B1 to B5) for the set character image 12d (No3) of 12e (No9) → 12e (No8), as shown in FIG. "And the phonetic symbol image 12e (No. 9) in combination with the highlight (identification) display HL of the phonetic symbol, it is determined that the phonetic symbol of the highlight (identification) display text" o "has an accent mark. Therefore, as shown in FIG. 12C (2), the character image 12d (No 3) at this time is changed to the accent face image No 3 ′ for pronunciation emphasis expression and displayed (S -Up B4 → B6).

つまり、図12で示した検索見出語「Low」のアクセント文字「o」に対する発音音声の出力と同期したハイライト(識別)表示HL、発音口型画像12e(No9)の切り替え合成表示に際しては、当該口型画像12e(No9)の合成先である図12(B)(2)で示した通常の設定キャラクタ(顔)画像12d(No3)が、図12(C)(2)で示した例えば頭部の発汗や口元の皺によって強く発音している状態を表現するアクセント対応の顔画像12d(No3′)に変更表示されるので、ユーザは検索見出語「Low」の発音音声とその発声タイミングおよび各文字「L」「o」「w」とその発音記号の対応部分、さらには各発音口型画像12e(No36→No9→No8)を、そのそれぞれの同期再生により容易に学習できるばかりでなく、アクセントに応じて発声強調するタイミングをリアルに学習できるようになる。   That is, when the combined display of the highlight (identification) display HL synchronized with the output of the pronunciation speech for the accent character “o” of the search headword “Low” shown in FIG. The normal set character (face) image 12d (No. 3) shown in FIG. 12 (B) (2), which is the composition destination of the mouth image 12e (No. 9), is shown in FIG. 12 (C) (2). For example, since the face image 12d (No 3 ′) corresponding to an accent representing a state of strong pronunciation due to sweating of the head or heels of the mouth is displayed, the user can pronounce the search sound word “Low” and its sound The utterance timing and the corresponding portions of the letters “L”, “o”, “w” and their phonetic symbols, as well as the phonetic mouth type images 12e (No36 → No9 → No8) can be easily learned by their respective synchronized playback. Not, the speech emphasizes timing will be able to learn in real depending on the accent.

図13は前記携帯機器10の見出語検索処理における同期再生処理に伴いキャラクタ画像No1の設定状態において検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図である。   FIG. 13 shows a headword character display window W1 and a pronunciation type that are displayed on the search headword display screen G2 in the setting state of the character image No1 in accordance with the synchronized playback processing in the headword search processing of the portable device 10. It is a figure which shows the display state of the display window W2, The figure (A) is a figure which shows the setting display state of the headword character display window W1 and the pronunciation type display window W2 with respect to the search headword display screen G2. (B) is a figure which shows the change state of the headword character display window W1 and the pronunciation window display window W2 which synchronized with the output of the pronunciation sound.

すなわち、前記図7のステップS1〜S6によるキャラクタ設定処理において、予め記憶された3種類のキャラクタ画像データ12d(No1),12d(No2),12c(No3)[図3参照]の中からアニメ調のキャラクタ画像12d(No1)が選択設定された状態で、前記ステップS7〜SAと同様に検索対象の見出語「low」についての見出語検索処理および同期再生処理、そして図9におけるテキスト対応口表示処理が行われた場合には、図13(A)および図13(B)に示すように、検索見出語表示画面G2に対する見出語文字表示ウインドウW1には、検索見出語「low」およびその発音記号の発音音声出力に同期させたハイライト(識別)表示HLが順次行われる。これに伴い、発音口型表示ウインドウW2には、前記キャラクタ設定処理(ステップS1〜S6)において設定されたアニメ調のキャラクタ画像12d(No1)を基本の顔画像として、前記発音音声出力およびテキスト(含む発音記号)のハイライト表示HLに同期させた各発音口型画像12e(No36→No9→No8)が順次切り替え合成されて表示される。   That is, in the character setting process in steps S1 to S6 in FIG. 7, the animation style is selected from the three types of character image data 12d (No1), 12d (No2), 12c (No3) [see FIG. 3] stored in advance. In the state in which the character image 12d (No1) is selected and set, the headword search processing and synchronous playback processing for the headword “low” to be searched are performed as in Steps S7 to SA, and the text correspondence in FIG. When the mouth display processing is performed, as shown in FIG. 13A and FIG. 13B, the search word “window” on the search word display window W1 for the search word display screen G2 is displayed. "Low" and the highlight (identification) display HL synchronized with the sound output of the phonetic symbols are sequentially performed. Accordingly, the sound output type display window W2 uses the animated character image 12d (No. 1) set in the character setting process (steps S1 to S6) as a basic face image and outputs the sound output and text ( Each of the sound source type images 12e (No. 36 → No. 9 → No. 8) synchronized with the highlight display HL (including phonetic symbols) is sequentially switched and combined and displayed.

そして、図13(B)(2)で示したように、検索見出語「low」の2番目の文字「o」とその発音記号のハイライト(識別)表示HLに伴い発音口型画像12e(No9)を合成表示させるときには、当該ハイライト(識別)表示テキスト「o」の発音記号にはアクセントマーク有りと判断されるので、このときのアニメ調キャラクタ画像12d(No1)は、発音強調表現用のアクセント顔画像No1′に変更されて表示される(ステップB4→B6)。   Then, as shown in FIG. 13 (B) (2), the pronunciation mouth type image 12e accompanying the highlight (identification) display HL of the second character “o” of the search headword “low” and its pronunciation symbol. When (No9) is compositely displayed, it is determined that there is an accent mark in the phonetic symbol of the highlight (identification) display text “o”, so that the animation character image 12d (No1) at this time is pronounced emphasis expression The accent face image No1 ′ is changed to be displayed (step B4 → B6).

つまり、図13で示したアニメ調のキャラクタ画像12d(No1)を選択設定した場合の、検索見出語「Low」のアクセント文字「o」に対する発音音声の出力と同期したハイライト(識別)表示HL、発音口型画像12e(No9)の切り替え合成表示に際しても、当該口型画像12e(No9)の合成先である通常のアニメ調キャラクタ(顔)画像12d(No1)が、例えば頭部の発汗や身体の動揺によって強く発音している状態を表現するアクセント対応の顔画像12d(No1′)に変更表示されるので、ユーザは検索見出語「Low」の発音音声とその発声タイミングおよび各文字「L」「o」「w」とその発音記号の対応部分、さらには各発音口型画像12e(No36→No9→No8)を、そのそれぞれの同期再生により容易に学習できるばかりでなく、アクセントに応じて発声強調するタイミングをリアルに学習できるようになる。   That is, the highlight (identification) display synchronized with the output of the pronunciation voice for the accent character “o” of the search headword “Low” when the anime-like character image 12d (No1) shown in FIG. 13 is selected and set. When switching and displaying the HL and the pronunciation mouth image 12e (No9), the normal animation character (face) image 12d (No1), which is the composition destination of the mouth image 12e (No9), is, for example, sweating of the head. Or the accent-corresponding face image 12d (No1 ') representing a state of strong pronunciation due to body shake, the user can pronounce the search headline "Low", its utterance timing, and each character. Corresponding portions of “L”, “o”, “w” and their phonetic symbols, as well as each phonetic mouth type image 12e (No36 → No9 → No8), for their respective synchronized playback Ri easily not only be learning, the speech emphasizes timing will be able to learn in real depending on the accent.

なお、前記図11〜図13を参照して説明した見出語検索に伴うテキスト・発音音声・発音口型画像の同期再生処理では、辞書データベース12bとして予め記憶される英和辞書データの内容が、米国系1国の発音にのみ対応する内容である場合について説明したが、例えば、次の図14〜図16を参照して説明するように、辞書データベース12bとして予め記憶される英和辞書データの内容が、米国系および英国系の2国の発音に対応する内容を有する場合に、米国系または英国系の何れか1国の発音形態を指定して見出語検索に伴うテキスト・発音音声・発音口型画像の同期再生処理を行うようにしてもよい。   In the synchronous reproduction process of the text, pronunciation sound, and pronunciation mouth image associated with the headword search described with reference to FIGS. 11 to 13, the contents of the English-Japanese dictionary data stored in advance as the dictionary database 12b are: Although the case where the content corresponds only to the pronunciation of one American country has been described, for example, as described with reference to FIGS. 14 to 16, the content of English-Japanese dictionary data stored in advance as the dictionary database 12b If the phonetic content has content corresponding to the pronunciation of two countries, American and English, specify the pronunciation form of either one of the American or British languages and use the text, pronunciation, and pronunciation Mouth-shaped image synchronous reproduction processing may be performed.

図14は前記携帯機器10のメイン処理内の見出語検索処理に伴い米国/英国の2国の発音形態を収録した英和辞書を利用した場合の検索見出語表示画面G2を示す図である。   FIG. 14 is a diagram showing a search headword display screen G2 when an English-Japanese dictionary containing pronunciation forms of two countries of the United States / UK is used in the headword search process in the main process of the mobile device 10. .

辞書データベース12bに記憶されている例えば米国/英国の2国の発音形態を収録した英和辞書の辞書データに基づいて見出語検索を行うのに、入力部17aの「英和」キー17a5の操作により英和辞書の検索モードに設定した後に、検索対象の見出語(例えば「laugh」)を入力すると(ステップS7→S8)、当該入力された見出語と一致及び一致文字を先頭に含む複数の見出語が前記英和辞書の辞書データから検索されて読み出され、検索見出語の一覧(図示せず)として表示部18に表示される(ステップS9)。   In order to search for a word based on dictionary data of an English-Japanese dictionary that records pronunciation forms of, for example, two countries of the US / UK stored in the dictionary database 12b, the “English-Japanese” key 17a5 of the input unit 17a is operated. After the search mode of the English-Japanese dictionary is set, when a search word (for example, “law”) is input (step S7 → S8), a plurality of matching words and matching characters at the head are entered. The headwords are retrieved from the dictionary data of the English-Japanese dictionary and read out, and displayed on the display unit 18 as a list of search headwords (not shown) (step S9).

この検索見出語の一覧画面において、ユーザ入力した検索対象の見出語と一致する見出語(この場合「laugh」)がカーソルキーにより選択指示されて「訳/決定(音声)」キー17a4が操作されると(ステップS10)、当該選択検知された見出語「laugh」がRAM12B内の見出語メモリ12gに記憶されると共に、この見出語「laugh」に対応する米国/英国の2国の発音/品詞/意味内容などの辞書データが読み出されてRAM12B内の見出語対応辞書データメモリ12hに記憶され、図14に示すように、検索見出語表示画面G2として表示部18に表示される(ステップS11)。   On this search headword list screen, the headword (in this case, “laugh”) that matches the search target headword input by the user is selected and instructed by the cursor key, and the “translation / decision (voice)” key 17a4. Is operated (step S10), the selected and detected headword “laugh” is stored in the headword memory 12g in the RAM 12B, and the US / UK corresponding to the headword “laugh” is stored. Dictionary data such as pronunciation / parts of speech / meaning contents of the two countries is read out and stored in the dictionary data memory 12h corresponding to the entry word in the RAM 12B. As shown in FIG. 14, the display unit is displayed as the search entry display screen G2. 18 (step S11).

ここで、前記検索表示された見出語「laugh」について、その米国式発音[laef]または英国式発音[la:f]の何れか一方の発音音声を選択的に出力させるのと同時に、これに対応した見出語の文字,発音記号と発音の口型画像を同期表示させるために、検索見出語表示画面G2上の辞書データに表示されている米国方言または英国方言の識別子[米]または[英]の何れかが指定されると共に(ステップS11a)、「訳/決定(音声)」キー17a4が操作されると(ステップS12)、図8における同期再生処理に移行される(ステップSA)。   Here, at the same time as outputting the pronunciation sound of either the American pronunciation [laef] or the English pronunciation [la: f] of the headword “laugh” displayed in the search, In order to synchronize and display the headword characters, phonetic symbols and pronunciation mouth images corresponding to the US dialect or English dialect identifier [US] displayed in the dictionary data on the search headword display screen G2 When either [English] is specified (step S11a) and the “translation / decision (voice)” key 17a4 is operated (step S12), the process proceeds to the synchronous reproduction process in FIG. 8 (step SA). ).

図15は前記携帯機器10の見出語検索処理における同期再生処理に伴い米国式発音[米]を指定した場合に検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は米国式発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図である。   FIG. 15 shows a headword character display window W1 displayed on the search headword display screen G2 when the American pronunciation [US] is designated in accordance with the synchronized playback processing in the headword search processing of the portable device 10. FIG. 6A shows the display state of the pronunciation window type display window W2, and FIG. 9A shows the setting display state of the word entry character display window W1 and the pronunciation window type display window W2 with respect to the search word entry display screen G2. FIG. 6B is a diagram showing a change state of the headword character display window W1 and the pronunciation-mouth type display window W2 synchronized with the output of the American pronunciation sound.

すなわち、前記検索見出語表示画面G2上の辞書データに表示されている米国方言または英国方言の識別子[米]または[英]の何れかが指定されて、図8における同期再生処理に移行されると、当該同期再生処理のステップA2では、例えば米国方言識別子[米]が指定された場合は、キャラクタ設定処理(ステップS2〜S6)において予め設定されたアニメ調キャラクタ画像12d(No1)に対応して米語用キャラクタ画像12d(No1US)が読み出され、RAM12B内の同期用イメージファイルメモリ12nに転送される。またこれと共に、辞書データベース12bに記憶されている今回の検索見出語「laugh」についての同期再生用リンクデータ(図2参照)に基づき、見出語検索画面G2上でテキスト・画像の同期再生用ウインドウW1,W2(図15参照)を設定するためのHTMLファイルがそのHTMLファイルNoに従い読み出され同期用HTMLファイルメモリ12jに書き込まれる。また、検索見出語のテキストデータ「laugh(米国方言発音記号付)」がそのテキストファイルNoに従い読み出され同期用テキストファイルメモリ12kに書き込まれる。また、検索見出語の米国方言の発音音声データがそのサウンドファイルNoに従い読み出され同期用サウンドファイルメモリ12mに書き込まれる(ステップA2)。   That is, either the US dialect or the English dialect identifier [US] or [English] displayed in the dictionary data on the search headword display screen G2 is designated, and the process proceeds to the synchronous playback process in FIG. Then, in step A2 of the synchronous reproduction process, for example, when the US dialect identifier [US] is designated, it corresponds to the animation character image 12d (No1) set in advance in the character setting process (steps S2 to S6). Then, the American character image 12d (No1US) is read and transferred to the synchronization image file memory 12n in the RAM 12B. At the same time, based on the link data for synchronous reproduction (see FIG. 2) for the current search headword “laugh” stored in the dictionary database 12b, the text / image is synchronously reproduced on the headword search screen G2. An HTML file for setting the windows W1 and W2 (see FIG. 15) is read according to the HTML file No and written to the synchronization HTML file memory 12j. In addition, the text data “search (with the American dialect phonetic symbol)” of the search headword is read according to the text file No and written into the synchronization text file memory 12k. In addition, pronunciation voice data of the American dialect of the search headword is read according to the sound file No and written into the sound file memory for synchronization 12m (step A2).

すると、FLASHメモリ12A内に辞書タイムコードファイル12fとして記憶されている各種見出語対応の暗号化された音声・テキスト・画像の同期再生用タイムコードファイル12fnの中から、今回の検索見出語「laugh」に対応するタイムコードファイル12fn(図5参照)が、前記同期再生用リンクデータ(図2参照)に記述されたタイムコードファイルNoに従い解読復号化されて読み出され、RAM12B内のタイムコードファイルメモリ12iに転送されて格納される(ステップA3)。   Then, from the time code file 12fn for synchronized playback of encrypted voice / text / image corresponding to various headwords stored as the dictionary time code file 12f in the FLASH memory 12A, the current search headword The time code file 12fn (see FIG. 5) corresponding to “law” is decoded and decoded according to the time code file No described in the synchronous reproduction link data (see FIG. 2), and the time in the RAM 12B is read. It is transferred and stored in the code file memory 12i (step A3).

そして、前記検索見出語「laugh」に対応するタイムコードファイル12fnに従った発音音声・見出語文字・発音口型画像の同期再生処理が、既に説明した検索見出語「low」の場合と同様に、ステップA7〜A12による各コマンドコードに応じた再生処理および図9におけるテキスト対応口表示処理により開始されると、検索見出語表示画面G2上のテキスト同期再生用ウインドウW1には、検索見出語「laugh」と共に米国方言の発音記号が表示され、また、画像同期再生用ウインドウW2には、設定されたアニメ調キャラクタ画像で例えば米国旗Fを持っているデザインの米語用キャラクタ画像12d(No1US)が口型画像合成の対象画像として表示される。   In the case where the synchronized playback processing of the pronunciation voice / word word character / speech mouth image according to the time code file 12fn corresponding to the search word “laugh” is the search word “low” already described. In the same manner as described above, when the reproduction process corresponding to each command code in steps A7 to A12 and the text corresponding mouth display process in FIG. 9 are started, the text synchronized reproduction window W1 on the search word display screen G2 includes The phonetic symbol of the US dialect is displayed together with the search headword “laugh”, and the character synchronization image for American English designed to have, for example, the US flag F in the image-synchronized playback window W2 12d (No1US) is displayed as the target image for the mouth image synthesis.

これにより、検索見出語「laugh」の米国方言の発音音声出力に同期して、図15(B)(1)〜(3)に示すように、テキスト同期再生用ウインドウW1では、当該検索見出語「laugh」およびその発音記号の先頭文字からのハイライト(識別)表示HLが順次なされると共に、画像同期再生用ウインドウW2では、前記米語用キャラクタ画像12d(No1US)をベースとして、その口画像エリア(X1,Y1;X2,Y2)に対し、各発音記号の口番号に対応した発音口型画像12e(Non1→Non2→Non3)が音声別口画像データ12eの中から読み出され順次切り替え合成されて表示される。   As a result, in synchronism with the output of the pronunciation of the American dialect of the search headword “law”, as shown in FIGS. 15 (B) (1) to (3), the text synchronous playback window W1 The word “laugh” and the highlight (identification) display HL from the first character of the phonetic symbol are sequentially displayed, and in the image synchronous reproduction window W2, the mouth of the character image 12d (No1US) is used as a base. For the image area (X1, Y1; X2, Y2), the sound mouth type image 12e (Non1 → Non2 → Non3) corresponding to the mouth number of each phonetic symbol is read out from the mouth image data 12e according to sound and switched sequentially. It is synthesized and displayed.

そして、この場合にも前記同様のテキスト対応口表示処理に従って、検索見出語「Laugh」のアクセント文字「au」に対する発音音声の出力と同期したハイライト(識別)表示HL、発音口型画像12e(Non2)の切り替え合成表示に際し、当該口型画像12e(Non2)の合成先である米語用キャラクタ(顔)画像12d(No1US)が、例えば頭部の発汗や身体の動揺によって強く発音している状態を表現するアクセント対応の顔画像12d(No1US′)に変更表示されるので、ユーザは検索見出語「Laugh」の米国方言の発音音声とその発声タイミングおよび各文字「L」「au」「gh」とその発音記号の対応部分、さらには各発音口型画像12e(Non1→Non2→Non3)を、そのそれぞれの同期再生により容易に学習できるばかりでなく、米国方言アクセントに応じて発声強調するタイミングをリアルに学習できるようになる。   In this case as well, according to the same text corresponding mouth display process, the highlight (identification) display HL synchronized with the output of the pronunciation sound for the accent character “au” of the search headword “Laugh”, the pronunciation type image 12e At the time of switching composition display of (Non2), the American character (face) image 12d (No1US), which is the composition destination of the mouth image 12e (Non2), is pronounced strongly by, for example, sweating of the head or shaking of the body. Since the face image 12d (No1US ') corresponding to the accent representing the state is displayed, the user can pronounce the pronunciation voice of the US dialect of the search headword “Laugh”, its utterance timing, and each letter “L” “au” “ gh "and the corresponding part of the phonetic symbol, and further each of the phonetic mouth type images 12e (Non1-> Non2-> Non3) Not only can be easily learned by the raw, the speech emphasizes timing will be able to learn in the real according to the US dialect accent.

図16は前記携帯機器10の見出語検索処理における同期再生処理に伴い英国式発音[英]を指定した場合に検索見出語表示画面G2上にウインドウ表示される見出語文字表示ウインドウW1および発音口型表示ウインドウW2の表示状態を示す図であり、同図(A)は検索見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(B)は英国式発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図である。   FIG. 16 shows a headword character display window W1 displayed on the search headword display screen G2 when English pronunciation [English] is designated in accordance with the synchronized playback processing in the headword search processing of the portable device 10. FIG. 6A shows the display state of the pronunciation window type display window W2, and FIG. 9A shows the setting display state of the word entry character display window W1 and the pronunciation window type display window W2 with respect to the search word entry display screen G2. FIG. 4B is a diagram showing a change state of the headword character display window W1 and the pronunciation type display window W2 synchronized with the output of the English pronunciation sound.

すなわち、前記図14で示した検索見出語表示画面G2上の辞書データに表示されている米国方言または英国方言の識別子[米]または[英]のうち、例えば英国方言識別子[英]が指定されて(ステップS11a)、図8における同期再生処理(ステップSA)に移行されると、当該同期再生処理のステップA2では、キャラクタ設定処理(ステップS2〜S6)において予め設定されたアニメ調キャラクタ画像12d(No1)に対応して英語用キャラクタ画像12d(No1UK)が読み出され、RAM12B内の同期用イメージファイルメモリ12nに転送される。またこれと共に、辞書データベース12bに記憶されている今回の検索見出語「laugh」についての同期再生用リンクデータ(図2参照)に基づき、見出語検索画面G2上でテキスト・画像の同期再生用ウインドウW1,W2(図16参照)を設定するためのHTMLファイルがそのHTMLファイルNoに従い読み出され同期用HTMLファイルメモリ12jに書き込まれる。また、検索見出語のテキストデータ「laugh(英国方言発音記号付)」がそのテキストファイルNoに従い読み出され同期用テキストファイルメモリ12kに書き込まれる。また、検索見出語の英国方言の発音音声データがそのサウンドファイルNoに従い読み出され同期用サウンドファイルメモリ12mに書き込まれる(ステップA2)。   That is, among the dialect identifiers [US] or [English] displayed in the dictionary data on the search word display screen G2 shown in FIG. 14, for example, the English dialect identifier [English] is designated. When the process proceeds to the synchronized playback process (step SA) in FIG. 8 (step S11a), in step A2 of the synchronized playback process, the animation character image preset in the character setting process (steps S2 to S6). The English character image 12d (No1UK) is read in correspondence with 12d (No1) and transferred to the synchronization image file memory 12n in the RAM 12B. At the same time, based on the link data for synchronous reproduction (see FIG. 2) for the current search headword “laugh” stored in the dictionary database 12b, the text / image is synchronously reproduced on the headword search screen G2. The HTML file for setting the windows W1 and W2 (see FIG. 16) is read according to the HTML file No and written to the synchronization HTML file memory 12j. In addition, the text data “search (with English dialect phonetic symbols)” of the search headword is read according to the text file No. and written into the synchronization text file memory 12k. Also, the pronunciation voice data of the English dialect of the search headword is read according to the sound file No and written into the sound file memory for synchronization 12m (step A2).

すると、FLASHメモリ12A内に辞書タイムコードファイル12fとして記憶されている各種見出語対応の暗号化された音声・テキスト・画像の同期再生用タイムコードファイル12fnの中から、今回の検索見出語「laugh」に対応するタイムコードファイル12fn(図5参照)が、前記同期再生用リンクデータ(図2参照)に記述されたタイムコードファイルNoに従い解読復号化されて読み出され、RAM12B内のタイムコードファイルメモリ12iに転送されて格納される(ステップA3)。   Then, from the time code file 12fn for synchronized playback of encrypted voice / text / image corresponding to various headwords stored as the dictionary time code file 12f in the FLASH memory 12A, the current search headword The time code file 12fn (see FIG. 5) corresponding to “law” is decoded and decoded according to the time code file No described in the synchronous reproduction link data (see FIG. 2), and the time in the RAM 12B is read. It is transferred and stored in the code file memory 12i (step A3).

そして、前記検索見出語「laugh」に対応するタイムコードファイル12fnに従った発音音声・見出語文字・発音口型画像の同期再生処理が、既に説明した検索見出語「low」の場合と同様に、ステップA7〜A12による各コマンドコードに応じた再生処理および図9におけるテキスト対応口表示処理により開始されると、検索見出語表示画面G2上のテキスト同期再生用ウインドウW1には、検索見出語「laugh」と共に英国方言の発音記号が表示され、また、画像同期再生用ウインドウW2には、設定されたアニメ調キャラクタ画像で例えば英国帽M1をかぶりステッキM2を持っているデザインの英語用キャラクタ画像12d(No1UK)が口型画像合成の対象画像として表示される。   In the case where the synchronized playback processing of the pronunciation voice / word word character / speech mouth image according to the time code file 12fn corresponding to the search word “laugh” is the search word “low” already described. In the same manner as described above, when the reproduction process corresponding to each command code in steps A7 to A12 and the text corresponding mouth display process in FIG. 9 are started, the text synchronized reproduction window W1 on the search word display screen G2 includes The phonetic symbol of the English dialect is displayed together with the search headline “laugh”, and the image synchronized playback window W2 has a design that has a walking stick M2 wearing, for example, a British cap M1 with a set anime-like character image. An English character image 12d (No1UK) is displayed as a target image for mouth-shaped image synthesis.

これにより、検索見出語「laugh」の英国方言の発音音声出力に同期して、図16(B)(1)〜(3)に示すように、テキスト同期再生用ウインドウW1では、当該検索見出語「laugh」およびその発音記号の先頭文字からのハイライト(識別)表示HLが順次なされると共に、画像同期再生用ウインドウW2では、前記英語用キャラクタ画像12d(No1UK)をベースとして、その口画像エリア(X1,Y1;X2,Y2)に対し、各発音記号の口番号に対応した発音口型画像12e(Non1→Non2→Non3)が音声別口画像データ12eの中から読み出され順次切り替え合成されて表示される。   As a result, in synchronization with the pronunciation voice output of the English dialect of the search headword “law”, as shown in FIGS. 16 (B) (1) to (3), the text synchronous playback window W1 The word “laugh” and the highlight (identification) display HL from the first character of the phonetic symbol are sequentially displayed, and in the image synchronous reproduction window W2, the English character image 12d (No1UK) is used as a base. For the image area (X1, Y1; X2, Y2), the sound mouth type image 12e (Non1 → Non2 → Non3) corresponding to the mouth number of each phonetic symbol is read out from the mouth image data 12e according to sound and switched sequentially. It is synthesized and displayed.

そして、この場合にも前記同様のテキスト対応口表示処理に従って、検索見出語「Laugh」のアクセント文字「au」に対する発音音声の出力と同期したハイライト(識別)表示HL、発音口型画像12e(Non2)の切り替え合成表示に際し、当該口型画像12e(Non2)の合成先である英語用キャラクタ(顔)画像12d(No1UK)が、例えば頭部の発汗や身体の動揺によって強く発音している状態を表現するアクセント対応の顔画像12d(No1UK′)に変更表示されるので、ユーザは検索見出語「Laugh」の英国方言の発音音声とその発声タイミングおよび各文字「L」「au」「gh」とその発音記号の対応部分、さらには各発音口型画像12e(Non1→Non2→Non3)を、そのそれぞれの同期再生により容易に学習できるばかりでなく、英国方言のアクセントに応じて発声強調するタイミングをリアルに学習できるようになる。   In this case as well, according to the same text corresponding mouth display process, the highlight (identification) display HL synchronized with the output of the pronunciation sound for the accent character “au” of the search headword “Laugh”, the pronunciation type image 12e At the time of switching composition display of (Non2), the English character (face) image 12d (No1UK), which is the composition destination of the mouth image 12e (Non2), is pronounced strongly by, for example, sweating of the head or shaking of the body. Since the face image 12d (No1UK ') corresponding to the accent representing the state is displayed, the user can pronounce the pronunciation of the English dialect of the search headword "Laugh", its utterance timing, and the letters "L", "au", " gh "and the corresponding part of the phonetic symbol, and further each of the phonetic mouth type images 12e (Non1-> Non2-> Non3) Not only can be easily learned by the raw, the speech emphasizes timing will be able to learn in real depending on the accent of the British dialect.

次に、前記構成の携帯機器10のメイン処理に伴い、例えば英単語アクセントの正解/不正解を当てるテストを行うことができるアクセントテスト処理について説明する。   Next, with reference to the main process of the mobile device 10 having the above-described configuration, for example, an accent test process capable of performing a test for applying a correct / incorrect answer of an English word accent will be described.

図17は前記携帯機器10のアクセントテスト処理に伴い不正解を選択した場合の操作表示状態を示す図であり、同図(A)はアクセントテスト出題表示画面G3を示す図、同図(B)は出題対象の見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(C)は誤りアクセントの発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図である。   FIG. 17 is a diagram showing an operation display state when an incorrect answer is selected in accordance with the accent test process of the mobile device 10, and FIG. 17A shows an accent test question display screen G3, and FIG. Is a diagram showing the setting display state of the headword character display window W1 and the pronunciation window display window W2 with respect to the headword display screen G2 of the subject, and FIG. It is a figure which shows the change state of the outgoing character display window W1 and the pronunciation window type display window W2.

図18は前記携帯機器10のアクセントテスト処理に伴い正解を選択した場合の操作表示状態を示す図であり、同図(A)はアクセントテスト出題表示画面G3を示す図、同図(B)は出題対象の見出語表示画面G2に対する見出語文字表示ウインドウW1および発音口型表示ウインドウW2の設定表示状態を示す図、同図(C)は正解アクセントの発音音声の出力に同期した見出語文字表示ウインドウW1および発音口型表示ウインドウW2の変化状態を示す図である。   FIG. 18 is a diagram showing an operation display state when a correct answer is selected in accordance with the accent test process of the mobile device 10, where FIG. 18A shows an accent test question display screen G3, and FIG. The figure which shows the setting display state of the headword character display window W1 and the pronunciation window type display window W2 with respect to the headword display screen G2 of a question subject, The figure (C) is the headword synchronized with the output of the pronunciation sound of a correct answer accent. It is a figure which shows the change state of the word character display window W1 and the pronunciation window type display window W2.

すなわち、入力部17aにおける「アクセントテスト」キー17a6が操作されアクセントテストモードに設定されると(ステップS13)、辞書データベース12cに予め記憶されている辞書データの中からランダムに見出単語が選択され(ステップS14)、図17(A)に示すように、ランダム選択された単語「low」について「o」部分にアクセントのある正しいアクセントの発音記号と「u」部分にアクセントのある誤ったアクセントの発音記号とを選択項目Et/Efとして出題したアクセントテスト出題表示画面G3が表示部18に表示される(ステップS15)。   That is, when the “accent test” key 17a6 in the input unit 17a is operated to set the accent test mode (step S13), a found word is randomly selected from the dictionary data stored in advance in the dictionary database 12c. (Step S14), as shown in FIG. 17 (A), for the randomly selected word “low”, a correct accent phonetic symbol with an accent in the “o” part and an incorrect accent with an accent in the “u” part. An accent test question display screen G3 with the phonetic symbols as selection items Et / Ef is displayed on the display unit 18 (step S15).

このアクセントテスト出題表示画面G3において、カーソルキー17a2の操作により選択フレームXを移動させ、例えば誤ったアクセントの発音記号のある選択項目Efが選択検知されると(ステップS16)、前記キャラクタ設定処理(ステップS2〜S6)において予め発音口型画像の合成先として選択設定されていたキャラクタ画像およびその関連画像(この場合はアニメ調キャラクタ画像12d(No1)およびそのアクセント対応画像(No1′))が、例えば黄色の通常色から青色のキャラクタ画像(No1BL)(No1BL′)に変更設定される(ステップS17→S18)。   In this accent test question display screen G3, when the selection frame X is moved by operating the cursor key 17a2, and a selection item Ef having a phonetic symbol with an incorrect accent is selected and detected (step S16), the character setting process ( In step S2 to S6), the character image and its related image (in this case, the anime-like character image 12d (No1) and its accent corresponding image (No1 ')) that have been selected and set in advance as the synthesis destination of the pronunciation mouth type image are For example, the yellow normal color is changed to the blue character image (No1BL) (No1BL ′) (steps S17 → S18).

またこれと共に、出題単語「low」に対応して辞書音声データ12cの中から読み出される発音音声データが、前記ユーザ選択された誤ったアクセントの発音記号に応じた音声データに補正される(ステップS19)。   At the same time, the phonetic voice data read out from the dictionary voice data 12c corresponding to the question word “low” is corrected to voice data corresponding to the phonetic symbol of the erroneous accent selected by the user (step S19). ).

すると、出題単語「low」がRAM12B内の見出語メモリ12gに記憶されると共に、この見出語「low」に対応する発音/品詞/意味内容などの辞書データが読み出されてRAM12B内の見出語対応辞書データメモリ12hに記憶され、図17(B)に示すように、出題単語に対応した検索見出語表示画面G2として表示部18に表示される(ステップS20)。   Then, the question word “low” is stored in the headword memory 12g in the RAM 12B, and dictionary data such as pronunciation / part of speech / semantic content corresponding to the headword “low” is read out and stored in the RAM 12B. It is stored in the entry word corresponding dictionary data memory 12h and displayed on the display unit 18 as a search entry word display screen G2 corresponding to the question word as shown in FIG. 17B (step S20).

ここで、前記ユーザにより選択したアクセントの出題単語「low」について、その発音音声を出力させるのと同時に、当該見出単語の文字,発音記号と発音の口型画像を同期表示させるために、「訳/決定(音声)」キー17a4が操作されると(ステップS21)、図8における同期再生処理に移行される(ステップSA)。   Here, for the accented question word “low” selected by the user, at the same time that the pronunciation sound is output, the character of the found word, the pronunciation symbol, and the mouth-shaped image of the pronunciation are displayed in synchronization. When the “translation / decision (voice)” key 17a4 is operated (step S21), the process proceeds to the synchronous reproduction process in FIG. 8 (step SA).

すると、同期再生処理のステップA2では、前記誤ったアクセントのユーザ選択に応じて青色に変更されたアニメ調キャラクタ画像12d(No1BL)が読み出され、RAM12B内の同期用イメージファイルメモリ12nに転送される。またこれと共に、辞書データベース12bに記憶されている今回の出題単語「low」についての同期再生用リンクデータ(図2参照)に基づき、検索見出語表示画面G2上でテキスト・画像の同期再生用ウインドウW1,W2(図17(B)参照)を設定するためのHTMLファイルがそのHTMLファイルNoに従い読み出され同期用HTMLファイルメモリ12jに書き込まれる。また、出題単語のテキストデータ「low(誤り発音記号付)」が読み出され同期用テキストファイルメモリ12kに書き込まれる。また、出題単語の誤りアクセントに応じて補正した発音音声データが読み出され同期用サウンドファイルメモリ12mに書き込まれる(ステップA2)。   Then, in step A2 of the synchronous reproduction process, the animation character image 12d (No1BL) changed to blue according to the user selection of the wrong accent is read out and transferred to the synchronization image file memory 12n in the RAM 12B. The At the same time, based on the synchronous reproduction link data (see FIG. 2) for the current question word “low” stored in the dictionary database 12b, for synchronous reproduction of text and images on the search word display screen G2. An HTML file for setting the windows W1 and W2 (see FIG. 17B) is read according to the HTML file No and written to the synchronization HTML file memory 12j. Also, the text data “low (with error pronunciation symbol)” of the question word is read and written in the synchronization text file memory 12k. Further, the pronunciation sound data corrected according to the error accent of the question word is read and written into the synchronization sound file memory 12m (step A2).

すると、FLASHメモリ12A内に辞書タイムコードファイル12fとして記憶されている各種見出語対応の暗号化された音声・テキスト・画像の同期再生用タイムコードファイル12fnの中から、今回の出題単語「low」に対応するタイムコードファイル12fn(図5参照)が、前記同期再生用リンクデータ(図2参照)に記述されたタイムコードファイルNoに従い解読復号化されて読み出され、RAM12B内のタイムコードファイルメモリ12iに転送されて格納される(ステップA3)。   Then, the current question word “low” is selected from the timecode file 12fn for synchronized playback of encrypted voice / text / image corresponding to various headwords stored as a dictionary timecode file 12f in the FLASH memory 12A. The time code file 12fn (see FIG. 5) corresponding to “” is decoded and decoded in accordance with the time code file No described in the synchronous reproduction link data (see FIG. 2), and the time code file in the RAM 12B is read out. It is transferred to the memory 12i and stored (step A3).

そして、前記出題単語「low」に対応するタイムコードファイル12fnに従った誤りアクセントの発音音声・見出語文字・発音口型画像の同期再生処理が、既に説明した検索見出語「low」の場合と同様に、ステップA7〜A12による各コマンドコードに応じた再生処理および図9におけるテキスト対応口表示処理により開始される。すると、図17(B)に示すように、検索見出語表示画面G2上のテキスト同期再生用ウインドウW1(Ef)には、出題単語「low」と共にユーザ選択による誤ったアクセントの発音記号が表示され、また、画像同期再生用ウインドウW2には、誤りアクセントのユーザ選択により青色変更されたアニメ調キャラクタ画像12d(No1BL)が口型画像合成の対象画像として表示される。   Then, the synchronized playback processing of the pronunciation sound, the headword character, and the pronunciation mouth type image of the error accent according to the time code file 12fn corresponding to the question word “low” is performed for the search headword “low” already described. As in the case, the process is started by the reproduction process corresponding to each command code in steps A7 to A12 and the text corresponding mouth display process in FIG. Then, as shown in FIG. 17 (B), in the synchronized text reproduction window W1 (Ef) on the search word display screen G2, the accented phonetic symbol by the user selection is displayed together with the question word “low”. In addition, in the image synchronized playback window W2, the animation-like character image 12d (No1BL) whose color is changed to blue by the user selection of the error accent is displayed as a target image for mouth-shaped image synthesis.

これにより、出題単語「low」に対応する誤ったアクセントの発音音声出力に同期して、図17(C)(1)〜(3)に示すように、テキスト同期再生用ウインドウW1(Ef)では、当該出題単語「low」およびその誤った発音記号の先頭文字からのハイライト(識別)表示HLが順次なされると共に、画像同期再生用ウインドウW2では、前記誤ったアクセントの選択により青色変更されたアニメ調キャラクタ画像12d(No1BL)をベースとして、その口画像エリア(X1,Y1;X2,Y2)に対し、各発音記号の口番号に対応した発音口型画像12e(No36→No9→No8)が音声別口画像データ12eの中から読み出され順次切り替え合成されて表示される。   As a result, in synchronism with the sound output of the wrong accent corresponding to the question word “low”, as shown in FIGS. 17 (C) (1) to (3), the text synchronized playback window W1 (Ef) Then, the highlight (identification) display HL from the question word “low” and the head character of the incorrect phonetic symbol is sequentially performed, and in the image synchronous reproduction window W2, the blue color is changed by the selection of the incorrect accent. On the basis of the anime-like character image 12d (No1BL), for the mouth image area (X1, Y1; X2, Y2), the pronunciation mouth type image 12e (No36 → No9 → No8) corresponding to the mouth number of each phonetic symbol. It is read out from the voice-specific mouth image data 12e, sequentially switched and synthesized and displayed.

そして、この場合にも前記同様のテキスト対応口表示処理に従って、見出単語「Low」の誤ったアクセント文字「u」に対する発音音声の出力と同期したハイライト(識別)表示HL、発音口型画像12e(No8)の切り替え合成表示に際し、当該口型画像12e(No8)の合成先である青色変更されたアニメ調キャラクタ(顔)画像12d(No1BL)が、例えば頭部の発汗や身体の動揺によって強く発音している状態を表現するアクセント対応の青色顔画像12d(No1BL′)に変更表示されるので、ユーザは出題単語「Low」の誤ったアクセントの発音音声とその誤った発声タイミングおよび各対応する発音口型画像12e(No36→No9→No8)を、誤ったアクセントによるものとして明確に学習できるようになる。   In this case as well, according to the same text corresponding mouth display process, the highlight (identification) display HL synchronized with the output of the pronunciation sound for the erroneous accent character “u” of the found word “Low”, the pronunciation type image When switching and displaying 12e (No8), the blue-colored animated character (face) image 12d (No1BL), which is the composition destination of the mouth image 12e (No8), is caused by, for example, sweating of the head or shaking of the body. Since it is changed and displayed in the accent-corresponding blue face image 12d (No1BL ') expressing the state of strong pronunciation, the user can pronounce the wrong accent pronunciation voice of the question word "Low", its wrong utterance timing, and each correspondence So that the pronunciation mouth type image 12e (No36 → No9 → No8) to be clearly learned can be learned as an erroneous accent. That.

一方、図18(A)に示すように、アクセントテスト出題表示画面G3において、カーソルキー17a2の操作により選択フレームXを移動させ、例えば正しいアクセントの発音記号のある選択項目Etが選択検知されると(ステップS16)、前記キャラクタ画像12d(No1)の青色変更処理(ステップS18)や誤りアクセントに応じた発音音声の補正処理(ステップS19)が行われることなく、図8における同期再生処理に移行される(ステップS17→SA)。   On the other hand, as shown in FIG. 18A, when the selection frame X is moved by operating the cursor key 17a2 on the accent test question display screen G3, for example, the selection item Et having a correct phonetic symbol is selected and detected. (Step S16) The process proceeds to the synchronous reproduction process in FIG. 8 without performing the blue color changing process (Step S18) of the character image 12d (No1) or the pronunciation sound correcting process (Step S19) according to the error accent. (Step S17 → SA).

すると、前記図13を参照して前述した、アニメ調キャラクタ画像12e(No1)が設定されている状態での検索見出語「low」に対応する発音音声・テキスト・発音口型画像の同期再生処理と同様にして、図18(B)に示すように、検索見出語表示画面G2上のテキスト同期再生用ウインドウW1(Et)には、出題単語「low」と共にユーザ選択による正しいアクセントの発音記号が表示され、また、画像同期再生用ウインドウW2には、予め設定された通りの通常色のアニメ調キャラクタ画像12d(No1)が口型画像合成の対象画像として表示される。   Then, as described above with reference to FIG. 13, the synchronized reproduction of the pronunciation voice / text / speech mouth type image corresponding to the search word “low” in the state where the animation character image 12e (No. 1) is set. In the same manner as the processing, as shown in FIG. 18B, in the text synchronized playback window W1 (Et) on the search word display screen G2, the correct accent pronunciation by the user selection together with the question word “low” is displayed. A symbol is displayed, and an animation-like character image 12d (No. 1) of a normal color as set in advance is displayed as a target image for mouth-shaped image synthesis in the image synchronous reproduction window W2.

これにより、出題単語「low」に対応する正しいアクセントの発音音声出力に同期して、図18(C)(1)〜(3)に示すように、テキスト同期再生用ウインドウW1(Et)では、当該出題単語「low」およびその正しい発音記号の先頭文字からのハイライト(識別)表示HLが順次なされると共に、画像同期再生用ウインドウW2では、予め設定された通りの通常色のアニメ調キャラクタ画像12d(No1)をベースとして、その口画像エリア(X1,Y1;X2,Y2)に対し、各発音記号の口番号に対応した発音口型画像12e(No36→No9→No8)が音声別口画像データ12eの中から読み出され順次切り替え合成されて表示される。   Thus, in synchronism with the sound output of the correct accent corresponding to the question word “low”, as shown in FIGS. 18 (C) (1) to (3), in the text synchronized playback window W1 (Et), Highlight (identification) display HL from the first word of the question word “low” and its correct phonetic symbol is sequentially performed, and in the image synchronous reproduction window W2, an animation character image of a normal color as set in advance. On the basis of 12d (No1), for the mouth image area (X1, Y1; X2, Y2), the sound mouth type image 12e (No36 → No9 → No8) corresponding to the mouth number of each phonetic symbol is the voice-specific mouth image. The data 12e is read out, sequentially switched and combined and displayed.

そして、この場合にも前記同様のテキスト対応口表示処理に従って、見出単語「Low」の正しいアクセント文字「o」に対する発音音声の出力と同期したハイライト(識別)表示HL、発音口型画像12e(No9)の切り替え合成表示に際し、当該口型画像12e(No9)の合成先であるアニメ調キャラクタ(顔)画像12d(No1)が、例えば頭部の発汗や身体の動揺によって強く発音している状態を表現するアクセント対応の顔画像12d(No1′)に変更表示されるので、ユーザは出題単語「Low」の正しいアクセントの発音音声とその正しい発声タイミングおよび各対応する発音口型画像12e(No36→No9→No8)を明確に学習できるようになる。   In this case as well, according to the same text corresponding mouth display processing, the highlight (identification) display HL synchronized with the output of the pronunciation sound for the correct accent character “o” of the found word “Low”, the pronunciation type image 12e. When switching and displaying (No9), the animated character (face) image 12d (No1), which is the composition destination of the mouth-shaped image 12e (No9), is pronounced strongly by, for example, sweating of the head or shaking of the body. Since the face image 12d (No1 ') corresponding to the accent representing the state is changed and displayed, the user can pronounce the correct accent pronunciation voice of the question word "Low", its correct utterance timing, and each corresponding pronunciation mouth image 12e (No36). → No9 → No8) can be clearly learned.

したがって、前記構成の第1実施形態の携帯機器10による見出語検索に伴う発音音声・テキスト・発音口型画像の同期再生機能によれば、検索対象の見出語「low」を入力して当該検索見出語に対応する辞書データを検索し、検索見出語表示画面G2として表示させた状態で、「訳/決定(音声)」キー17a4を操作すると、当該検索見出語「low」のタイムコードファイル12f23に従い、ステレオ音声出力部19bから出力される発音音声に同期して、テキスト同期再生用ウインドウW1において、検索見出語「low」およびその発音記号のハイライト(識別)表示HLが順次なされると共に、画像同期再生用ウインドウW2では、予め設定されたキャラクタ画像12d(No3)をベースとして、その口画像エリア(X1,Y1;X2,Y2)に対し、各発音記号の口番号に対応した発音口型画像12e(No36→No9→No8)が音声別口画像データ12eの中から読み出され順次切り替え合成されて表示される。   Therefore, according to the synchronized playback function of the pronunciation speech / text / speech mouth type image accompanying the search for the headword by the mobile device 10 of the first embodiment having the above-described configuration, the search word “low” is input. When the dictionary data corresponding to the search headword is searched and displayed as the search headword display screen G2, when the “translation / decision (voice)” key 17a4 is operated, the search headword “low” is displayed. In accordance with the time code file 12f23, the search headword “low” and its phonetic symbol highlight (identification) display HL in the synchronized text playback window W1 in synchronization with the pronunciation sound output from the stereo sound output unit 19b. In the image synchronized playback window W2, the mouth image area (X1) is set based on the character image 12d (No. 3) set in advance. Y1; X2, Y2), the pronunciation type images 12e (No36 → No9 → No8) corresponding to the mouth numbers of the phonetic symbols are read out from the voice-specific mouth image data 12e, sequentially switched and combined and displayed. The

しかも、前記検索見出語「Low」のアクセント文字「o」に対する発音音声の出力と同期したハイライト(識別)表示HL、発音口型画像12e(No9)の切り替え合成表示に際しては、当該口型画像12e(No9)の合成先であるキャラクタ(顔)画像12d(No3)が、例えば頭部の発汗や口元の動揺によって強く発音している状態を表現するアクセント対応の顔画像12d(No3′)に変更表示されるので、ユーザは検索見出語「Low」の発音音声とその発声タイミングおよび各文字「L」「o」「w」とその発音記号の対応部分、さらには各発音口型画像12e(No36→No9→No8)を、そのそれぞれの同期再生により容易に学習できるばかりでなく、アクセントに応じて発声強調するタイミングをリアルに学習できるようになる。   In addition, when the highlight (identification) display HL synchronized with the output of the pronunciation sound for the accent character “o” of the search headline “Low” and the combined speech display of the pronunciation mouth type image 12e (No9), An accent-corresponding face image 12d (No3 ') representing a state in which the character (face) image 12d (No3), which is the synthesis destination of the image 12e (No9), is pronounced strongly by, for example, sweating of the head or shaking of the mouth Therefore, the user can pronounce the pronunciation sound of the search word “Low”, its utterance timing, the corresponding part of each of the characters “L”, “o”, “w” and their pronunciation symbols, and each sound mouth type image. 12e (No36 → No9 → No8) can be easily learned by the respective synchronized playback, and the timing for emphasizing the voice according to the accent can be learned realistically. It becomes possible way.

さらに、前記構成の第1実施形態の携帯機器10による見出語検索に伴う発音音声・テキスト・発音口型画像の同期再生機能によれば、例えば米国方言と英国方言の発音記号を有する辞書データベース12bに基づき見出語検索を行った際に、図15または図16で示したように、米音[米]または英音[英]を指定して「訳/決定(音声)」キー17a4を操作すると、指定された米音または英音の発音音声に同期して、テキスト同期再生用ウインドウW1において、検索見出語「laugh」およびその米音または英音発音記号のハイライト(識別)表示HLが順次なされると共に、画像同期再生用ウインドウW2では、予め設定されたキャラクタ画像12d(No1)が米音表現用(No1US)または英音表現用(No1UK)としてベース表示され、その口画像エリア(X1,Y1;X2,Y2)に対し、米音または英音の各発音記号の口番号に対応した発音口型画像12e(Non1→Non2→Non3)が音声別口画像データ12eの中から読み出され順次切り替え合成されて表示されるので、検索見出語に対応する米国方言の発音音声およびその発音記号・発音口型と英国方言の発音音声およびその発音記号・発音口型とを明確に区別して学習できるようになる。   Furthermore, according to the synchronized playback function of pronunciation voice / text / speaking mouth type image accompanying the search for the headword by the mobile device 10 of the first embodiment having the above-described configuration, for example, a dictionary database having phonetic symbols of the US dialect and the English dialect When the headword search is performed based on 12b, as shown in FIG. 15 or FIG. 16, the US sound [US] or the English sound [English] is designated and the “translation / decision (voice)” key 17a4 is set. When operated, in synchronization with the specified pronunciation sound of the US or English sound, the search headword “rough” and the highlighted (identification) display of the US sound or English phonetic symbol in the text synchronized playback window W1. HL is sequentially performed, and in the image synchronous reproduction window W2, a preset character image 12d (No1) is used for expressing the US sound (No1US) or for expressing the English sound (No1UK). For the mouth image area (X1, Y1; X2, Y2), the sound source type image 12e (Non1-> Non2-> Non3) corresponding to the mouth number of each phonetic symbol of English or English sound is displayed for each voice. Since it is read out from the mouth image data 12e, and is sequentially switched and synthesized, it is displayed as a pronunciation of the American dialect corresponding to the search headword and its pronunciation symbol / speaking type and pronunciation of the English dialect and its pronunciation symbol.・ Learning can be clearly distinguished from pronunciation type.

また、前記構成の第1実施形態の携帯機器10による見出語検索に伴う発音音声・テキスト・発音口型画像の同期再生機能によれば、辞書データベース12bに収録される各見出単語には、正しいアクセントの発音記号と共に誤ったアクセントの発音記号を有し、図17および図18で示すように、「アクセントテスト」キー17a6が操作されると、ランダム選択された見出単語「low」が正しいアクセントの発音記号および誤ったアクセントの発音記号と共にアクセントテスト出題表示画面G3として表示される。そして、正しいアクセントの発音記号が選択された場合には、その正しい発音音声出力に同期して通常の設定キャラクタ画像12d(No1)をベースとした各発音口型画像12e(No36→No9→No8)の切り替え合成表示が行われ、誤ったアクセントの発音記号が選択された場合には、その誤った発音音声出力に同期して青色変更されたキャラクタ画像12d(No1BL)をベースとした各発音口型画像12e(No36→No9→No8)の切り替え合成表示が行われ、しかも正誤何れのアクセント部分の同期再生時にも、前記口型画像合成ベースとしてのキャラクタ画像12e(No1)(No1BL)がアクセント対応のキャラクタ画像12e(No1′)(No1BL′)に変更表示されるので、各種単語の正しいアクセントの発音と、誤ったアクセントの発音とを、そのそれぞれに応じた音声・テキスト・画像の同期再生により明確に学習できるようになる。   Further, according to the synchronized playback function of pronunciation speech / text / speech mouth type image accompanying the search for the entry word by the portable device 10 of the first embodiment having the above-described configuration, each found word recorded in the dictionary database 12b When the correct accent phonetic symbol and the wrong accent phonetic symbol are included, and the “accent test” key 17a6 is operated as shown in FIGS. 17 and 18, the randomly selected found word “low” is displayed. A correct accent phonetic symbol and a wrong accent phonetic symbol are displayed as an accent test question display screen G3. When a correct accented phonetic symbol is selected, each of the pronunciation mouth type images 12e (No36 → No9 → No8) based on the normal set character image 12d (No1) in synchronization with the correct pronunciation voice output. When the phonetic symbol of the wrong accent is selected and each of the phonetic symbols is selected based on the character image 12d (No1BL) whose color is changed in blue in synchronization with the erroneous phonetic sound output. The combined display of images 12e (No36 → No9 → No8) is performed, and the character image 12e (No1) (No1BL) as the mouth-shaped image composite base is accent-compatible even when the correct and incorrect accent parts are reproduced. Since the character image 12e (No1 ') (No1BL') is displayed in a modified manner, correct access of various words is possible. And pronunciation cement, and pronunciation wrong accent, it becomes possible to clearly learn the synchronous reproduction of the audio-text image corresponding to the respective.

なお、前記第1実施形態では、検索見出語に対応する発音音声・テキスト(発音記号付き)・発音口型画像の同期生再処理を、タイムコードファイル12fに従った同期再生処理による発音音声出力に同期させたテキスト文字の順次ハイライト(識別)表示、および当該1文字ずつの順次識別表示に伴い割り込みで実行されるテキスト対応口表示処理による識別表示文字対応の発音記号に応じた発音口型画像の切り替え合成表示により行う構成としたが、次の第2実施形態おいて説明するように、アクセント記号付きの発音記号を含む各種の発音記号とそのそれぞれの発音音声データおよび発音顔画像を予め対応付けて複数組み記憶させ、再生すべき見出語の文字を先頭から順番に強調表示させるのに伴い、順次その強調表示文字の発音記号に対応付けられた発音音声データの出力および顔画像データの表示を行う構成としてもよい。   In the first embodiment, the synchronized live reprocessing of the pronunciation speech / text (with pronunciation symbols) / speech mouth type image corresponding to the search headword is performed by the synchronized playback processing according to the time code file 12f. Pronunciation type corresponding to the phonetic symbol corresponding to the identification display character by the text corresponding mouth display processing executed by interruption in accordance with the sequential identification display of the text characters synchronized with each other and the sequential identification display of each character As described in the second embodiment, various phonetic symbols including phonetic symbols with accent symbols and their respective phonetic voice data and phonetic face images are stored in advance. A plurality of sets are stored in association with each other, and as the headword characters to be reproduced are highlighted in order from the top, the phonetic symbols of the highlighted characters are sequentially It may be configured to perform display output and the face image data pronunciation audio data correlated.

(第2実施形態)
図19は前記携帯機器10の第2実施形態の見出語同期再生処理を示すフローチャートである。
(Second Embodiment)
FIG. 19 is a flowchart showing a headword synchronized reproduction process of the mobile device 10 according to the second embodiment.

すなわち、この第2実施形態の携帯機器10では、アクセント記号付きの発音記号を含む各種の発音記号と、そのそれぞれの発音音声データ、および当該各種の発音記号に応じた発音音声データに対応して異なる形態の口部分や表情からなる発音顔画像を、予めメモリ12内に複数組み記憶させる。   That is, in the mobile device 10 according to the second embodiment, various phonetic symbols including accented phonetic symbols, their respective phonetic voice data, and phonetic voice data corresponding to the various phonetic symbols. A plurality of pronunciation face images composed of mouth portions and facial expressions of different forms are stored in the memory 12 in advance.

そして、例えば辞書データベース12bとして予め記憶される英和辞書を対象に、任意の見出語「low」が入力されて検索され、前記図11で示したように、検索見出語表示画面G2として表示された状態で、その発音音声および発音顔画像の同期再生を行わせるべく「訳/決定(音声)」キー17a4が操作されると、図19に示す第2実施形態の同期再生処理が開始される。   For example, an arbitrary headword “low” is input and searched for an English-Japanese dictionary stored in advance as the dictionary database 12b, and displayed as a search headword display screen G2 as shown in FIG. When the “translation / decision (speech)” key 17a4 is operated in order to perform the synchronized reproduction of the pronunciation voice and the pronunciation face image, the synchronous reproduction process of the second embodiment shown in FIG. 19 is started. The

この第2実施形態の同期再生処理が開始されると、前記図12または図13で示すように、まず、検索見出語表示画面G2上にテキスト同期再生用ウインドウW1が開かれ検索見出語「low」の各文字と発音記号がその発音順に先頭から強調識別表示HLされる(ステップC1)。そして、この強調識別表示HLされた見出文字の発音記号が読み出されて(ステップC2)、アクセント記号付きであるか否か判断される(ステップC3)。   When the synchronous playback process of the second embodiment is started, as shown in FIG. 12 or FIG. 13, the text synchronous playback window W1 is first opened on the search word display screen G2, and the search word search is started. The characters “low” and the phonetic symbols are highlighted and displayed HL from the top in the order of their pronunciation (step C1). Then, the phonetic symbol of the found character that has been highlighted and displayed HL is read (step C2), and it is determined whether or not it has an accent symbol (step C3).

ここで、図12(B)(1)または図13(B)(1)で示すように、今回強調表示HLされた見出単語「low」における文字「l」の発音記号がアクセント記号無しである場合には、前記メモリ12に予め記憶された当該発音記号に対応するアクセント無しの発音音声データが読み出されてステレオ音声出力部19bから出力されるのと共に(ステップC3→C4)、これに対応付けられたアクセント無しの発音顔画像が読み出されて画像同期再生用ウインドウW2に表示される(ステップC5)。   Here, as shown in FIG. 12 (B) (1) or FIG. 13 (B) (1), the phonetic symbol of the character “l” in the found word “low” highlighted HL this time is without an accent symbol. In some cases, unaccented pronunciation voice data corresponding to the phonetic symbol stored in advance in the memory 12 is read out and output from the stereo voice output unit 19b (steps C3 → C4). The accented pronunciation face image is read and displayed on the image synchronous reproduction window W2 (step C5).

すると、現在出力中の検索見出語「low」の次の文字「o」が読み出され(ステップC6→C7)、再び前記ステップC1からの処理に戻り、図12(B)(2)または図13(B)(2)で示すように、その発音記号と共に強調識別表示HLされる(ステップC1)。   Then, the character “o” next to the currently searched search term “low” is read (step C 6 → C 7), and the process returns to step C 1 again. As shown in FIG. 13B (2), the emphasis identification display HL is displayed together with the phonetic symbol (step C1).

そして、今回強調表示HLされた見出単語「low」における文字「o」の発音記号がアクセント記号有りであると判断された場合には(ステップC2,C3)、前記メモリ12に予め記憶された当該発音記号に対応するアクセント有りの発音音声データが読み出されてステレオ音声出力部19bから出力されるのと共に(ステップC3→C8)、図12(C)(2)または図13(B)(2)で示すように、これに対応付けられた例えば頭部の発汗や身体の動揺によってアクセント有り表現する発音顔画像が読み出されて画像同期再生用ウインドウW2に表示される(ステップC9)。   When it is determined that the phonetic symbol of the character “o” in the found word “low” highlighted HL this time has an accent symbol (steps C2 and C3), it is stored in the memory 12 in advance. Accented phonetic voice data corresponding to the phonetic symbol is read out and output from the stereo voice output unit 19b (step C3 → C8), and FIG. 12 (C) (2) or FIG. 13 (B) ( As shown in 2), a pronunciation face image expressed with an accent by, for example, sweating of the head or shaking of the body is read out and displayed in the image synchronous reproduction window W2 (step C9).

したがって、この第2実施形態の携帯機器10による場合でも、検索見出語「Low」のアクセント文字「o」をハイライト(識別)表示HLしたことに伴う、発音音声の出力および発音顔画像の表示に際しては、そのアクセント付きの発音記号に基づき当該発音顔画像が、例えば頭部の発汗や身体の動揺によって強く発音している状態を表現するアクセント対応の顔画像として表示されるので、ユーザは検索見出語「Low」の各文字「L」「o」「w」と発音音声、さらには各発音顔画像を、そのそれぞれの対応出力により容易に学習できるばかりでなく、アクセントに応じて発声強調する部分をリアルに学習できるようになる。   Therefore, even in the case of the portable device 10 according to the second embodiment, the output of the pronunciation sound and the pronunciation face image associated with the highlight (identification) display HL of the accent character “o” of the search headword “Low” are displayed. At the time of display, since the pronunciation face image is displayed as an accent-corresponding face image expressing a state of strong pronunciation due to sweating of the head or shaking of the body based on the accented phonetic symbol, the user can In addition to being able to easily learn each sound “L”, “o”, “w” of the search headword “Low” and pronunciation sounds, and each pronunciation face image by their corresponding outputs, they can also speak according to the accent. The part to emphasize can be learned realistically.

なお、この第2実施形態において、前記メモリ12に予め記憶されたアクセント記号付きの発音記号を含む各種の発音記号と、そのそれぞれの発音音声データ、および当該各種の発音記号に応じた発音音声データに対応して異なる形態の口部分や表情からなる発音顔画像について、アクセント付き発音記号に対応付けられた発音音声の出力はアクセント無し発音記号に対応付けられた発音音声より大きく設定され、また、アクセント付き発音記号に対応付けられた発音顔画像の口部分の開き具合はアクセント無し発音記号に対応付けられた発音顔画像の口部分の開き具合より大きく設定される。さらに、この顔画像における表情は、アクセント付き発音記号に対応付けられた発音顔画像の表情の方が、アクセント無し発音記号に対応付けられた発音顔画像の表情よりも強調されて設定される。   In the second embodiment, various phonetic symbols including accented phonetic symbols stored in advance in the memory 12, their respective phonetic voice data, and phonetic voice data corresponding to the various phonetic symbols. For the pronunciation face image consisting of mouth parts and facial expressions of different forms corresponding to, the output of the pronunciation speech associated with the accented phonetic symbol is set larger than the pronunciation speech associated with the accentless phonetic symbol, The opening degree of the mouth portion of the pronunciation face image associated with the accented phonetic symbol is set larger than the opening degree of the mouth portion of the pronunciation face image associated with the accented phonetic symbol. Further, the facial expression in the face image is set such that the facial expression of the pronunciation face image associated with the accented phonetic symbol is more emphasized than the facial expression of the pronunciation face image associated with the accentless pronunciation symbol.

なお、前記第2実施形態では、アクセント記号付きの発音記号を含む各種の発音記号と、そのそれぞれの発音音声データ、および当該各種の発音記号に応じた発音音声データに対応して異なる形態の口部分や表情からなる発音顔画像を予め記憶し、検索見出語の各文字をその発音順に強調表示すると共に、その発音記号に対応付けられた発音音声を読み出して出力し、また同発音記号に対応付けられ発音顔画像を読み出して表示する構成としたが、次の第3実施形態において説明するように、辞書データベース12bにある各見出語のそれぞれに対応して当該見出し語の発音音声と発音顔画像とを予め組み合わせて記憶させ、検索見出語の文字表示に伴いその発音音声および発音顔画像を読み出して出力し、この際の発音音声信号のピークレベルを検出してアクセント部分を判断し、前記発音顔画像の口や表情の形態を異なる表示形態に変更制御する構成としてもよい。   In the second embodiment, various phonetic symbols including accented phonetic symbols, their respective phonetic speech data, and different forms of mouth corresponding to the phonetic speech data corresponding to the various phonetic symbols. Pre-recorded pronunciation face images consisting of parts and facial expressions, highlight each character of the search headword in the order of its pronunciation, and read out and output the pronunciation sound associated with the pronunciation symbol, Although the corresponding pronunciation face image is read and displayed, as described in the next third embodiment, the pronunciation sound of the entry word corresponding to each entry word in the dictionary database 12b The pronunciation face image is stored in combination, and the pronunciation voice and the pronunciation face image are read and output along with the character display of the search headword. Determining an accent moiety by detecting the Le, may be configured to change control to the mouth and facial expressions of the form a different display form of the sound face image.

(第3実施形態)
図20は前記携帯機器10の第3実施形態の見出語同期再生処理を示すフローチャートである。
(Third embodiment)
FIG. 20 is a flowchart showing a headword synchronized reproduction process of the mobile device 10 according to the third embodiment.

すなわち、この第3実施形態の携帯機器10では、辞書データベース12bの各辞書データにある各見出語のそれぞれに対応して当該見出し語の発音音声と発音顔画像とを予め組み合わせて記憶させる。   That is, in the mobile device 10 according to the third embodiment, the pronunciation sound and the pronunciation face image of the entry word are stored in combination in advance corresponding to each entry word in each dictionary data of the dictionary database 12b.

そして、例えば辞書データベース12bとして予め記憶される英和辞書を対象に、任意の見出語「low」が入力されて検索され、前記図11で示したように、検索見出語表示画面G2として表示された状態で、その発音音声および発音顔画像の同期再生を行わせるべく「訳/決定(音声)」キー17a4が操作されると、図20に示す第3実施形態の同期再生処理が開始される。   For example, an arbitrary headword “low” is input and searched for an English-Japanese dictionary stored in advance as the dictionary database 12b, and displayed as a search headword display screen G2 as shown in FIG. In this state, when the “translation / decision (voice)” key 17a4 is operated so as to perform the synchronized reproduction of the pronunciation sound and the pronunciation face image, the synchronous reproduction process of the third embodiment shown in FIG. 20 is started. The

この第3実施形態の同期再生処理が開始されると、前記図12または図13で示すように、まず、検索見出語表示画面G2上にテキスト同期再生用ウインドウW1が開かれ検索見出語「low」の各文字がその発音順に先頭から強調識別表示HLされる(ステップD1)。そして、この強調識別表示HLされた見出文字に対応する部分の発音音声データが読み出され(ステップD2)、ステレオ音声出力部19bから出力される(ステップD3)。   When the synchronous playback process of the third embodiment is started, as shown in FIG. 12 or FIG. 13, the text synchronous playback window W1 is first opened on the search word display screen G2, and the search word search is started. Each character of “low” is highlighted and displayed HL from the top in the order of pronunciation (step D1). Then, the pronunciation sound data of the portion corresponding to the found character that has been highlighted and displayed HL is read (step D2) and output from the stereo sound output unit 19b (step D3).

ここで、例えば今回強調表示HLされた見出単語「low」における文字「l」に対応する部分の発音音声データの信号(波形)レベルが一定値以上の音声信号レベル(アクセント部分)か否か判断されるもので(ステップD4)、一定音声信号レベル以上ではない、つまりアクセント部分ではないと判断された場合には、当該検索見出語に対応付けられて記憶された発音顔画像が読み出されてそのまま画像同期再生用ウインドウW2に表示される(ステップD5)。   Here, for example, whether the signal (waveform) level of the pronunciation sound data of the portion corresponding to the character “l” in the found word “low” highlighted HL this time is a sound signal level (accent portion) of a certain value or more. If it is determined (step D4) and it is determined that it is not higher than a certain audio signal level, that is, it is not an accent part, a pronunciation face image stored in association with the search word is read out. Then, it is displayed as it is on the image synchronous reproduction window W2 (step D5).

すると、現在出力中の検索見出語「low」の次の文字「o」が読み出され(ステップD6→D7)、再び前記ステップD1からの処理に戻り、強調識別表示HLされる(ステップD1)。   Then, the character “o” next to the currently searched search word “low” is read (step D6 → D7), and the process returns to the process from step D1 again, and the highlight identification display HL is displayed (step D1). ).

すると、今回強調識別表示HLされた見出文字「o」に対応する部分の発音音声データが読み出され(ステップD2)、ステレオ音声出力部19bから出力されると共に(ステップD3)、当該強調表示HLされた単語文字「o」に対応する部分の発音音声データの信号(波形)レベルが一定値以上の音声信号レベル(アクセント部分)か否か判断される(ステップD4)。   Then, the pronunciation sound data of the portion corresponding to the found character “o” that has been highlighted and displayed this time is displayed (step D2), output from the stereo sound output unit 19b (step D3), and the highlighted display. It is determined whether or not the signal (waveform) level of the pronunciation sound data of the portion corresponding to the word character “o” subjected to the HL is a sound signal level (accent portion) of a predetermined value or more (step D4).

ここで、一定音声信号レベル以上である、つまりアクセント部分であると判断された場合には、当該検索見出語に対応付けられて記憶された発音顔画像が読み出されると共に、当該顔画像はその口部分の開き具合が大きくまたその表情が強い顔画像に変更制御(例えば図12(B)(2)→図12(C)(2))され、画像同期再生用ウインドウW2に表示される(ステップD4→D8)。   Here, when it is determined that the sound signal level is equal to or higher than a certain audio signal level, that is, an accent portion, the pronunciation face image stored in association with the search headword is read and the face image is The face image is controlled to be changed to a face image with a large opening degree and a strong expression (for example, FIG. 12 (B) (2) → FIG. 12 (C) (2)), and is displayed in the image synchronous reproduction window W2 ( Step D4 → D8).

なお、前記発音音声の音声信号波形レベルが一定値以上と判断されてアクセント部分であると判断された場合には、強調表示されている検索見出語の対応文字をさらに表示色の変更や付加あるいは文字フォントの変更などにより、アクセント部分の文字であることを示す形態に変更制御して表示させる構成としてもよい。   If the sound signal waveform level of the pronunciation sound is determined to be a certain value or more and is determined to be an accent part, the display color of the highlighted search word is further changed or added. Or it is good also as a structure which changes and displays in the form which shows that it is a character of an accent part by changing a character font.

したがって、この第3実施形態の携帯機器10による場合でも、検索見出語「Low」のアクセント文字「o」をハイライト(識別)表示HLしたことに伴う、発音音声の出力および発音顔画像の表示に際しては、そのときの発音音声信号レベルが一定値以上であることに基づき当該発音顔画像が、例えば口部分の開き具合が大きくまたその表情が強いアクセント対応の顔画像に変更制御されて表示されるので、ユーザは検索見出語「Low」の各文字「L」「o」「w」とその発音音声、さらには発音顔画像を、そのそれぞれの対応出力により容易に学習できるばかりでなく、アクセントに応じて発声強調する部分をリアルに学習できるようになる。   Therefore, even in the case of the mobile device 10 according to the third embodiment, the output of the pronunciation sound and the pronunciation face image associated with the highlight (identification) display HL of the accent character “o” of the search headword “Low” are displayed. At the time of display, based on the sound signal level at that time being equal to or higher than a certain value, the sound generation face image is changed and displayed, for example, as an accent-corresponding face image with a large mouth opening and a strong expression. Therefore, the user not only can easily learn the characters “L”, “o”, “w” of the search headword “Low”, their pronunciation sounds, and also the pronunciation face images by their corresponding outputs. This makes it possible to learn realistically the part that emphasizes the utterance according to the accent.

なお、前記各実施形態における検索見出語の各文字(テキスト)・発音音声・発音顔画像(含む発音口型画像)の同期再生機能の説明では、当該見出語のアクセントが1箇所に存在する場合について説明したが、検索見出語のアクセントが第1アクセントと第2アクセントの2箇所に存在する場合には、各アクセント部分に対応して表示するアクセント対応の発音顔画像(含む発音口型画像)を、第1アクセントの場合と第2アクセントの場合とで、例えば口の開き具合の大小や表情の強弱などによって異なる形態にして表示させる構成としてもよい。   In the description of the synchronized playback function for each character (text), pronunciation sound, and pronunciation face image (including pronunciation mouth image) of the search headword in each of the embodiments, the accent of the headword exists in one place. In the case where the accent of the search word is present in two places, the first accent and the second accent, the accent-corresponding pronunciation face image (corresponding pronunciation mouth to be displayed) corresponding to each accent portion is described. The type image) may be displayed in different forms depending on, for example, the size of the opening of the mouth, the strength of the facial expression, or the like depending on whether the first accent or the second accent.

なお、前記各実施形態において記載した携帯機器10による各処理の手法、すなわち、図7のフローチャートに示す第1実施形態での辞書処理プログラム12aに従ったメイン処理、図8のフローチャートに示す前記メイン処理に伴う見出語同期再生処理、図9のフローチャートに示す前記見出語同期再生処理に伴う各見出語文字のハイライト表示に応じて割り込みで実行されるテキスト対応口表示処理、図19のフローチャートに示す第2実施形態での見出語同期再生処理、図20のフローチャートに示す第3実施形態での見出語同期再生処理などの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード、DATA・CARD等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13に記憶されたプログラムを記録媒体読取部14によってメモリ12に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記各実施形態において説明した検索見出語に対応する各文字(テキスト)・発音音声・発音顔画像(含む発音口型画像)の同期再生機能を実現し、前述した手法による同様の処理を実行することができる。   Note that each processing method by the portable device 10 described in each embodiment, that is, main processing according to the dictionary processing program 12a in the first embodiment shown in the flowchart of FIG. 7, the main shown in the flowchart of FIG. Entry-synchronized playback process associated with the process, text-corresponding mouth display process executed by interruption in accordance with the highlight display of each entry word associated with the entry-synchronized playback process shown in the flowchart of FIG. 9, FIG. Each method such as the headword synchronized playback process in the second embodiment shown in the flowchart of FIG. 20 and the headword synchronized playback process in the third embodiment shown in the flowchart of FIG. 20 can be executed by the computer. Programs include memory cards (ROM cards, RAM cards, DATA / CARD, etc.), magnetic disks (floppy disks, hard disks, etc.). De disks, etc.), optical disk (CD-ROM, DVD, etc.) can be distributed and stored in the external recording medium 13 such as a semiconductor memory. Various computer terminals having a communication function with the communication network (Internet) N read the program stored in the external recording medium 13 into the memory 12 by the recording medium reading unit 14, and the operation is performed by the read program. By being controlled, a synchronized reproduction function of each character (text), pronunciation sound, and pronunciation face image (including pronunciation mouth type image) corresponding to the search headword described in each embodiment is realized, and the method described above A similar process can be executed.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した検索見出語に対応する各文字(テキスト)・発音音声・発音顔画像(含む発音口型画像)の同期再生機能を実現することもできる。   The program data for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and the above-mentioned data can be transmitted from a computer terminal connected to the communication network (Internet) N. It is also possible to capture the program data and realize a synchronized reproduction function of each character (text), pronunciation sound, and pronunciation face image (including pronunciation mouth image) corresponding to the search headword described above.

なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。   Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment, or some constituent requirements are combined, the problem described in the column of the problem to be solved by the invention can be solved, When the effects described in the column of the effect of the invention can be obtained, a configuration in which these constituent elements are deleted or combined can be extracted as an invention.

10 …携帯機器
11 …CPU
12 …メモリ
12A…FLASHメモリ
12B…RAM
12a…辞書処理プログラム
12b…辞書データベース
12c…辞書音声データ
12d…キャラクタ画像データ
12d(No.n)…設定キャラクタ画像
12d(No.n′)…アクセント対応顔画像
12d(No.nUS)…米語用設定キャラクタ画像
12d(No.nUS′)…米語用アクセント対応顔画像
12d(No.nUK)…英語用設定キャラクタ画像
12d(No.nUK′)…英語用アクセント対応顔画像
12d(No.nBL)…青色変更設定キャラクタ画像
12d(No.nBL′)…アクセント対応の青色顔画像
12e…音声別口画像データ
12f…辞書タイムコードファイル
12g…見出語データメモリ
12h…見出語対応辞書データメモリ
12i…タイムコードファイルNo23
12j…同期用HTMLファイルメモリ
12k…同期用テキストファイルメモリ
12m…同期用サウンドファイルメモリ
12n…同期用イメージファイルメモリ
12p…口画像エリアメモリ
12q…画像展開バッファ
13 …外部記録媒体
14 …記録媒体読取部
15 …電送制御部
16 …通信部
17a…入力部
17b…座標入力装置
18 …表示部
19a…音声入力部
19b…ステレオ音声出力部
20 …通信機器(自宅PC)
30 …Webサーバ
N …通信ネットワーク(インターネット)
X …選択フレーム
H …タイムコードテーブルのヘッダ情報
G1 …キャラクタ画像の一覧選択画面
G2 …見出語検索画面
G3 …アクセントテスト出題表示画面
W1 …見出語文字表示ウインドウ(テキスト同期再生用ウインドウ)
W2 …発音口型表示ウインドウ(画像同期再生用ウインドウ)
HL …ハイライト(識別)表示
Et …正解アクセント選択項目
Ef …誤りアクセント選択項目
10 ... Mobile device 11 ... CPU
12 ... Memory 12A ... FLASH memory 12B ... RAM
12a ... Dictionary processing program 12b ... Dictionary database 12c ... Dictionary voice data 12d ... Character image data 12d (No. n) ... Set character image 12d (No. n ') ... Accent corresponding face image 12d (No. nUS) ... For American English Set character image 12d (No. nUS ') ... American accent-corresponding face image 12d (No. nUK) ... English set character image 12d (No. nUK') ... English accent-corresponding face image 12d (No. nBL) ... Blue change setting character image 12d (No. nBL ') ... Accent-corresponding blue face image 12e ... Voice-specific mouth image data 12f ... Dictionary time code file 12g ... Yomi word data memory 12h ... Yomi word correspondence dictionary data memory 12i ... Time code file No23
12j ... HTML file memory for synchronization 12k ... Text file memory for synchronization 12m ... Sound file memory for synchronization 12n ... Image file memory for synchronization 12p ... Mouth image area memory 12q ... Image expansion buffer 13 ... External recording medium 14 ... Recording medium reading unit DESCRIPTION OF SYMBOLS 15 ... Electric transmission control part 16 ... Communication part 17a ... Input part 17b ... Coordinate input device 18 ... Display part 19a ... Audio | voice input part 19b ... Stereo audio | voice output part 20 ... Communication apparatus (home PC)
30 ... Web server N ... Communication network (Internet)
X ... selection frame H ... header information G1 of time code table ... character image list selection screen G2 ... headword search screen G3 ... accent test question display screen W1 ... headword character display window (text synchronous playback window)
W2… Speaking mouth type display window (window for synchronized playback of images)
HL ... Highlight (identification) display Et ... Correct accent selection item Ef ... Error accent selection item

Claims (4)

複数の単語別に、当該各単語それぞれの正しいアクセント付き発音記号および誤りアクセント付き発音記号を対応付けて記憶している単語記憶手段と、
この単語記憶手段に記憶した単語別の正しいアクセント付き発音記号および誤りアクセント付き発音記号の何れか一方を選択する正誤アクセント選択手段と、
この正誤アクセント選択手段により何れか一方のアクセント付き発音記号を選択すると、この選択された一方の正しいアクセント付き発音記号または誤りアクセント付き発音記号に対応した発音音声を出力させる一方で、正しいアクセント付き発音記号に対応した発音音声が出力される場合と、誤りアクセント付き発音記号に対応した発音音声が出力される場合とにおいて異なる表示形態で顔画像を表示させる音声表示出力制御手段と、を備え
前記音声表示出力制御手段は、表示される顔画像に含まれている口の部分を、出力される発音音声に同期して当該発音音声に対応した口型の画像に変更して表示させる口画像表示制御手段を備えることを特徴とする音声表示出力制御装置。
A word storage means for storing a correct accented phonetic symbol and an error accented phonetic symbol for each of the plurality of words in association with each other;
Correct / incorrect accent selection means for selecting one of the correct accented phonetic symbols and error accented phonetic symbols for each word stored in the word storage means;
When one of the accented phonetic symbols is selected by the correct / incorrect accent selection means, the selected phonetic symbol with correct accent or the phonetic symbol corresponding to the error accented phonetic symbol is output, while the correct accented pronunciation is output. Voice display output control means for displaying a face image in a different display form when a pronunciation sound corresponding to a symbol is output and when a pronunciation sound corresponding to a pronunciation symbol with an error accent is output ,
The voice display output control means changes the mouth portion included in the displayed face image to a mouth-shaped image corresponding to the pronunciation sound and displays the mouth portion in synchronization with the output sound sound. audio display output control apparatus comprising: a display control unit.
前記音声表示出力制御手段の制御により発音音声が出力された際に、前記アクセント付き発音記号中のアクセントを検出するアクセント検出手段と、
このアクセント検出手段によるアクセントの検出に同期して前記音声表示出力制御手段の制御により表示される画像を変化させる画像変化表示制御手段と、
を備えることを特徴とする請求項1に記載の音声表示出力制御装置。
An accent detection means for detecting an accent in the accented phonetic symbol when a pronunciation sound is output under the control of the voice display output control means;
Image change display control means for changing the face image displayed by the control of the voice display output control means in synchronization with the detection of the accent by the accent detection means;
The voice display output control device according to claim 1, further comprising:
前記単語記憶手段に記憶した各単語別に対応付けられた正しいアクセント付き発音記号および誤りアクセント付き発音記号を並べて表示させる正誤アクセント表示制御手段を備え、
前記正誤アクセント選択手段は、この正誤アクセント表示制御手段の制御により並べて表示された正しいアクセント付き発音記号および誤りアクセント付き発音記号の何れかを選択する発音記号選択手段を備えていることを特徴とする請求項1又は2に記載の音声表示出力制御装置。
Correct correct / incorrect accent display control means for displaying a correct accented phonetic symbol and a correct accented phonetic symbol associated with each word stored in the word storage means,
The correct / incorrect accent selection means includes pronunciation symbol selection means for selecting either a correct accented phonetic symbol and a correct accented phonetic symbol displayed side by side under the control of the correct / incorrect accent display control means. The voice display output control device according to claim 1.
電子機器のコンピュータを制御して音声と画像とを出力させるための音声表示出力制御処理プログラムであって、
前記コンピュータを、
複数の単語別に、当該各単語それぞれの正しいアクセント付き発音記号および誤りアクセント付き発音記号を対応付けて記憶している単語記憶手段記憶した単語別の正しいアクセント付き発音記号および誤りアクセント付き発音記号の何れか一方を選択する正誤アクセント選択手段、
この正誤アクセント選択手段により何れか一方のアクセント付き発音記号を選択すると、この選択された一方の正しいアクセント付き発音記号または誤りアクセント付き発音記号に対応した発音音声を出力させる一方で、正しいアクセント付き発音記号に対応した発音音声が出力される場合と、誤りアクセント付き発音記号に対応した発音音声が出力される場合とにおいて異なる表示形態で顔画像を表示させる音声表示出力制御手段、として機能させ、
前記音声表示出力制御手段は、表示される顔画像に含まれている口の部分を、出力される発音音声に同期して当該発音音声に対応した口型の画像に変更して表示させる口画像表示制御手段、として機能させるようにしたコンピュータ読み込み可能な音声表示出力制御処理プログラム。
An audio display output control processing program for controlling a computer of an electronic device to output sound and an image,
The computer,
The correct accented phonetic symbol and the correct accented phonetic symbol for each word stored in the word storage means that stores the correct accented phonetic symbol and the error accented phonetic symbol for each word in association with each other. Correct / incorrect accent selection means for selecting either one,
When one of the accented phonetic symbols is selected by the correct / incorrect accent selection means, the selected phonetic symbol with correct accent or the phonetic symbol corresponding to the error accented phonetic symbol is output, while the correct accented pronunciation is output. Function as voice display output control means for displaying a face image in a different display form when the pronunciation sound corresponding to the symbol is output and when the pronunciation sound corresponding to the pronunciation symbol with an error accent is output ,
The voice display output control means changes the mouth portion included in the displayed face image to a mouth-shaped image corresponding to the pronunciation sound and displays the mouth portion in synchronization with the output sound sound. A computer-readable audio display output control processing program adapted to function as display control means .
JP2009140670A 2009-06-12 2009-06-12 Voice display output control device and voice display output control processing program Expired - Fee Related JP4985714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009140670A JP4985714B2 (en) 2009-06-12 2009-06-12 Voice display output control device and voice display output control processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009140670A JP4985714B2 (en) 2009-06-12 2009-06-12 Voice display output control device and voice display output control processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003143499A Division JP4370811B2 (en) 2003-05-21 2003-05-21 Voice display output control device and voice display output control processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012014690A Division JP2012098753A (en) 2012-01-27 2012-01-27 Audio display output control device, image display control device, audio display output control process program and image display control process program

Publications (2)

Publication Number Publication Date
JP2009301038A JP2009301038A (en) 2009-12-24
JP4985714B2 true JP4985714B2 (en) 2012-07-25

Family

ID=41547927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009140670A Expired - Fee Related JP4985714B2 (en) 2009-06-12 2009-06-12 Voice display output control device and voice display output control processing program

Country Status (1)

Country Link
JP (1) JP4985714B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112188304B (en) * 2020-09-28 2022-11-15 广州酷狗计算机科技有限公司 Video generation method, device, terminal and storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05204389A (en) * 1992-01-23 1993-08-13 Matsushita Electric Ind Co Ltd User dictionary registering system for voice rule synthesis
JPH06110494A (en) * 1992-09-08 1994-04-22 Osaka Gas Co Ltd Pronounciation learning device
JPH06348297A (en) * 1993-06-10 1994-12-22 Osaka Gas Co Ltd Pronunciation trainer
JPH09244677A (en) * 1996-03-06 1997-09-19 Fujitsu Ltd Speech synthesis system
SE520065C2 (en) * 1997-03-25 2003-05-20 Telia Ab Apparatus and method for prosodigenesis in visual speech synthesis
WO1999046732A1 (en) * 1998-03-11 1999-09-16 Mitsubishi Denki Kabushiki Kaisha Moving picture generating device and image control network learning device
US7149690B2 (en) * 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
JP2002207728A (en) * 2001-01-12 2002-07-26 Fujitsu Ltd Phonogram generator, and recording medium recorded with program for realizing the same
JP2003107980A (en) * 2001-09-21 2003-04-11 J Burger James English conversation learning support device and english conversation learning support method

Also Published As

Publication number Publication date
JP2009301038A (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP4370811B2 (en) Voice display output control device and voice display output control processing program
US20190196666A1 (en) Systems and Methods Document Narration
US8352269B2 (en) Systems and methods for processing indicia for document narration
US8370151B2 (en) Systems and methods for multiple voice document narration
US9478219B2 (en) Audio synchronization for document narration with user-selected playback
JP2005070645A (en) Text and voice synchronizing device and text and voice synchronization processing program
JP6641680B2 (en) Audio output device, audio output program, and audio output method
JP4985714B2 (en) Voice display output control device and voice display output control processing program
JP2012098753A (en) Audio display output control device, image display control device, audio display output control process program and image display control process program
JP4591481B2 (en) Display control apparatus and display control processing program
JP2006139162A (en) Language learning system
JP4677869B2 (en) Information display control device with voice output function and control program thereof
KR20140082127A (en) Apparatus and method for learning word by using native speaker's pronunciation data and origin of a word
KR102112059B1 (en) Method for making hangul mark for chinese pronunciation on the basis of listening, and method for displaying the same, learning foreign language using the same
JP5057764B2 (en) Speech synthesis apparatus and speech synthesis program
JP4111005B2 (en) Voice display output control device and voice display output control processing program
JP2009075526A (en) Comprehensive english learning system using speech synthesis
KR20060006282A (en) A portable file player and a file search method in the player
JP2021043306A (en) Electronic apparatus, sound reproduction method, and program
JP2016004172A (en) Pronunciation learning support apparatus and program
JP2004302286A (en) Information output device, information output program
KR20220136801A (en) Method and apparatus for providing associative chinese learning contents using images
WO2010083354A1 (en) Systems and methods for multiple voice document narration
KR20140087955A (en) Apparatus and method for learning english preposition by using native speaker's pronunciation data and image data.
KR20140075145A (en) Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4985714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees