JP2015184285A - 表示制御装置及びプログラム - Google Patents

表示制御装置及びプログラム Download PDF

Info

Publication number
JP2015184285A
JP2015184285A JP2014057492A JP2014057492A JP2015184285A JP 2015184285 A JP2015184285 A JP 2015184285A JP 2014057492 A JP2014057492 A JP 2014057492A JP 2014057492 A JP2014057492 A JP 2014057492A JP 2015184285 A JP2015184285 A JP 2015184285A
Authority
JP
Japan
Prior art keywords
language
user
reading
sentence
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014057492A
Other languages
English (en)
Inventor
亙 阿部
Wataru Abe
亙 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014057492A priority Critical patent/JP2015184285A/ja
Publication of JP2015184285A publication Critical patent/JP2015184285A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • Machine Translation (AREA)

Abstract

【課題】 ユーザが不正確に発声した読み方で他国語の文又は語句を容易かつ効果的に検索できるようにする。
【解決手段】 表示制御装置(電子辞書1)は、第一国語の文又は語句と、第一国語読みとを対応付けて記憶する第一国語記憶手段(日中データベース群82)と、いずれかの第一国語の文又は語句を表示させる第一国語表示制御手段(CPU20)と、表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段(CPU20)と、発声音声データを音声認識して第一国語の文字列を決定するユーザ発声文字列決定手段(CPU20)と、第一国語の文字列をユーザ読みとして第一国語の文又は語句に対応付けて登録するユーザ読み登録手段(CPU20)と、ユーザ操作により入力された第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を表示させるユーザ読み表示制御手段(CPU20)とを備える。
【選択図】図2

Description

本発明は、表示制御装置及びプログラムに関する。
従来、第一言語の発話音声の入力を受け付けて音声認識することにより、文字列を生成し、その文字列を第二言語に翻訳する音声翻訳装置が知られている(例えば特許文献1参照)。このような音声翻訳装置を用いてユーザは他国語(第一国語)を学習する場合もある。
特開2010−079647号公報
ここで、例えば中国人であるユーザが日本語学習をする場合、日本語の会話文や語句を発声して暗記し、暗記した会話文などを思い出して発声する学習方法が行われているが、中国人が他国語(第一国語)である日本語を正確に発音して日本語の読みを覚えることは困難である。特に、他国語(第一国語)を発声したとしても、母国語(第二国語)の発声体系に引きずられてしまい、他国語の読みを不正確に覚えてしまうことも想定される。こうした場合、会話文や語句を他国語の読みで検索しようとしても、その読みを不正確に覚えているために所望する検索結果が得られないことになる。
本発明の課題は、ユーザが他国語(第一国語)を発声した読み方が不正確な場合でも、ユーザの読み方で他国語(第一国語)の文又は語句を容易かつ効果的に検索できるようにすることである。
請求項1記載の発明では、
第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けて複数組記憶する第一国語記憶手段と、
前記第一国語記憶手段に記憶されたいずれかの第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段と、を備えることを特徴とする表示制御装置が提供される。
本発明によれば、ユーザが他国語(第一国語)を発声した読み方が不正確な場合でも、ユーザの読み方で他国語(第一国語)の文又は語句を容易かつ効果的に検索することができる。
(a)は電子辞書の概略構成を示す平面図であり、(b)はタブレットパソコンを示す平面図である。 電子辞書の機能構成を示すブロック図である。 日本語表記候補テーブルの内容の一例を示す説明図である。 日本語学習処理の流れを示すフローチャートである。 日本語学習処理の流れを示すフローチャートである。 日本語学習処理の流れを示すフローチャートである。 図1の電子辞書における表示内容の一例を示す説明図である。 図1の電子辞書における表示内容の一例を示す説明図である。 図1の電子辞書における表示内容の一例を示す説明図である。
以下、添付図面を参照して、本発明に係る表示制御装置を電子辞書に適用した場合の実施形態の一例を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。
[1 外観構成]
図1(a)は、電子辞書1の平面図である。
なお、本発明に係る表示制御装置としての電子辞書1は、日本向けに製造されたものであるが、中国人のユーザが使用する場合を例示して説明する。ユーザが母国語とする言語(中国語)からすると日本語が他国語となるため、以下ではそれを踏まえて説明する。
図1(a)に示すように、電子辞書1は、メインディスプレイ10、サブディスプレイ11、カードスロット12、及びキー群2を備えている。
メインディスプレイ10及びサブディスプレイ11は、ユーザによるキー群2の操作に応じた文字や符号等、各種データを表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescence Display)等によって構成されている。なお、本実施の形態におけるメインディスプレイ10及びサブディスプレイ11は、いわゆるタッチパネル110(図2参照)と一体的に形成されており、手書き入力等の操作を受け付け可能となっている。
カードスロット12は、種々の情報を記憶した外部情報記憶媒体12a(図2参照)を着脱可能に設けられている。
キー群2は、ユーザから電子辞書1を操作するための操作を受ける各種キーを有している。具体的には、キー群2は、訳/決定キー2bと、文字キー2cと、辞書選択キー2dと、カーソルキー2eと、戻るキー2gと、音声キー2h等とを有している。
訳/決定キー2bは、各種処理の実行、見出し語の決定等に使用されるキーである。文字キー2cは、ユーザによる文字の入力等に使用されるキーであり、本実施形態においては、“A”〜“Z”キーを備えている。
カーソルキー2eは、画面内にあるカーソルの移動等に使用されるキーであり、本実施の形態においては上下左右の方向を指定可能となっている。
戻るキー2gは、前回表示した画面に戻るとき等に使用されるキーである。
音声キー2hは、選択された語句や会話文を音声で出力するためのキーである。
[2 内部構成]
続いて、電子辞書1の内部構成について説明する。図2は、電子辞書1の内部構成を示すブロック図である。
この図に示すように、電子辞書1は、表示部40、入力部30、音声出力部50、音声入力部55、記録媒体読取部60、CPU(Central Processing Unit)20、記憶部80、通信部90を備え、各部はバスで相互にデータ通信可能に接続されて構成されている。
表示部40は、上述のメインディスプレイ10及びサブディスプレイ11を備えており、CPU20から入力される表示信号に基づいて各種情報をメインディスプレイ10やサブディスプレイ11に表示するようになっている。
入力部30は、上述のキー群2やタッチパネル110を備えており、押下されたキーやタッチパネル110の位置に対応する信号をCPU20に出力するようになっている。
音声出力部50は例えばスピーカであり、CPU20が記憶部80から読み出し再生した音声データを出力するようになっている。
音声入力部55は例えばマイクであり、外部からの音を取り込んで発声音声データとして記憶部80に記憶するようになっている。
記録媒体読取部60は、上述のカードスロット12を備えており、当該カードスロット12に装着された外部情報記憶媒体12aから情報を読み出したり、当該外部情報記憶媒体12aに情報を記録したりするようになっている。
ここで、外部情報記憶媒体12aには、辞書データベース等が格納されるようになっている。なお、この辞書データベースは後述の記憶部80における日中データベース群82と言語は異なるものの同様のデータ構造を有しているため、ここでは説明を省略する。
CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部30から入力される操作信号等に応じて記憶部80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果を記憶部80に保存するとともに、当該処理結果を表示部40に適宜出力させる。
記憶部80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するとともに、CPU20の作業領域として機能するメモリである。本実施形態においては、記憶部80は、本発明に係るプログラムとしての日本語学習制御プログラム81と、音声認識プログラム83と、日中データベース群82等とを記憶している。なお、本実施形態では日中データベース群82のみを示しているが、その他の日本語−外国語のデータベース群や、外国語−外国語のデータベース群も記憶部80に記憶されている。
日本語学習制御プログラム81は、後述の日本語学習処理(図3参照)をCPU20に実行させるためのプログラムである。
音声認識プログラム83は、ユーザが発声したことにより音声入力部55を介して入力された発声音声データに対して周知の音声認識処理を施すことで、その発声音声データの内容を認識するようにCPU20に実行させるためのプログラムである。
具体的に音声認識プログラム83では、ユーザが日本語の会話文又は語句を発声したことにより取得した発声音声データを音声認識し、その認識結果に対して、複数の候補を照合することによって、複数の候補の中からユーザが発声した文字列を決定するようになっている。ここで複数の候補については後述する。
日中データベース群82は、本発明に係る第一国語記憶手段であり、日中辞書データベース821と、日本語音声会話コンテンツ822と、日本語表記候補テーブル823と、ユーザ読みデータ824とを備えている。
日中辞書データベース821は、日本語の語句と、その語句の日本語読みと、その語句の中国語訳とを対応付けて複数記憶している。
日本語音声会話コンテンツ822は、日本語の会話文と、その会話文の日本語読みと、日本語読みの音声データと、その会話文の中国語訳とを対応付けて複数記憶している。
日本語表記候補テーブル823は、日本語の読みを学習する際に用いられるものであり、日本語の語句及び会話文のそれぞれに対して、中国人が日本語読みで誤発声する可能性の高い複数の候補をテーブル化して記憶している。
図3は、日本語(第一国語)表記候補テーブル823の内容の一例を示す説明図である。
図3に示すように、日本語表記候補テーブル823には、ジャンル、中国語訳(第二国語訳)、日本語(第一国語の文又は語句)、日本語での正式読み(図3中「正式読み」:第一国語読み)、複数の読み候補(図3中「読み候補」:第一国語の誤り読み候補)、ユーザ選択欄(図3中「ユーザ読み」)が一つの中国語訳(第二国語訳)毎に設けられている。
ここで、日本語の正式読みとは、日本語の語句又は会話文(例、「上手な」・・・)の正式読みをひらがなで表記したもの(例:「(A)じょうずな」)であり、本発明に係る第一国語読みである。
また、誤り読み候補(第一国語の誤り読み候補)とは日本語(第一国語)の語句又は会話文を中国人が日本語で誤発声してしまうであろう誤りの候補をひらがなで表記したものである(例、「(1)じょずな」、「(2)じようずな」、「(3)じょうず」)。
これら日本語の正式読み(第一国語読み)と複数の読み候補(第一国語の誤り読み候補)とを合わせたものが、前述した音声認識プログラム83で用いられる複数の候補である。
また、ユーザ選択欄は、日本語学習時のユーザ主体の情報(ユーザ学習情報)が登録される欄であり、ユーザ音声読み欄とユーザ選択読み欄とを備えている。
ユーザ音声読み欄では、ユーザが語句を日本語で発声した際に、複数の候補のうち、音声認識処理で認識された文字列に該当する候補が記憶される。例えば、「上手な」という日本語をユーザが発声し、音声認識で認識された文字列が「じょずな」である場合には(1)「じょずな」がユーザ音声読み欄に登録される。
ユーザ選択読み欄では、ユーザ音声読み欄に登録された内容をユーザが視認し、日本語の正式読みとは異なる文字列と判断した場合に、複数の候補から再度ユーザ操作によって選択された候補(ユーザ読み)が記憶される。例えば、上述したように、ユーザ音声読み欄に「上手な」という読みとして「じょずな」が登録されていた場合、ユーザ操作によって「じょうずな」が選択されたとすると、ユーザ選択読み欄には(A)「じょうずな」が登録される。
ユーザ読みデータ824は、前述のユーザ選択欄での登録内容をユーザ学習情報として、その語句又は会話文に対応付けて記憶している。
通信部90は、無線或いは有線によって例えばインターネットNなどの回線を通じて外部のサーバ装置100と通信自在になっており、サーバ装置100から情報を読み取ったり、サーバ装置100に情報を送信したりするようになっている。
[3 動作]
続いて、電子辞書1の動作について、図面を参照しつつ説明する。
図4〜図6は、CPU20が日本語学習制御プログラム81を読み出して実行する日本語学習処理の流れを示すフローチャートである。
なお、日本語学習制御プログラム81の実行以前には、電子辞書1に対してユーザが母国語とする言語(中国語)を設定する。これにより、電子辞書1では、中国人向けのコンテンツが選択できるようになる。
図4に示すように、中国人向けの日本語学習処理においてまずCPU20は、ユーザ操作により日本語会話が選択されたか否かを判定し(ステップS1)、日本語会話が選択されていないと判定した場合(ステップS1;NO)にはステップS12に移行し、選択されていると判定した場合(ステップS1;YES)にはステップS2に移行する。
次に、CPU20は、ユーザ操作により学習対象(語句又は会話文)が選択されると(ステップS2)、その選択された学習対象と当該学習対象の日本語訳とを日中データベース群82から読み出してメインディスプレイ10に表示させる(ステップS3)。
次いで、CPU20は、ユーザ操作により音声モード「比較」が選択されたか否かを判定し、選択されていない場合(ステップS4;NO)には他の処理へと移行し、選択されている場合(ステップS4;YES)には、メインディスプレイ10に表示された学習対象をユーザが発声したことにより音声入力部55に入力された発声音声データを記憶部80に記憶する(ステップS5)。
次いで、CPU20は、記憶部80に記憶された発声音声データを読み出して、音声認識プログラム83に基づいて音声認識し、その認識結果に対して、複数の候補を照合することによって、複数の候補(日本語の正式読みと複数の読み候補)の中から一つの候補を決定することにより、ユーザが発声した日本語の読みの文字列を決定する(ステップS6)。
次いで、CPU20は、文字認識により決定された候補を語句毎にメインディスプレイ10に表示させるとともに、複数の候補(日本語の正式読みと、複数の誤り読み候補)もランダムに並べて語句毎にメインディスプレイ10に表示させる。(ステップS7)。なお、ここで学習対象が一つの語句であれば、その語句に対して、文字認識により決定された候補と、複数の候補とがランダムに並べて表示される。また学習対象が文章である場合には、その文章をなす複数の語句のそれぞれに対して、文字認識により決定された候補と、複数の候補とがランダムに並べて表示される。
次いで、メインディスプレイ10に表示された内容を基に、ユーザがタッチパネル110に対するタッチ操作又はキー群2のうちのカーソルキー2eと決定キー2bとの操作によって、語句毎に一つの候補がユーザ読みとして選択され、CPU20に入力される(ステップS8)。
次いで、CPU20は、表示中の複数の候補(日本語の正式読みと、複数の誤り読み候補)のうち、日本語の正式読みと、ステップS8でユーザ操作によって選択された候補(ユーザ読み)と、音声認識で決定された候補とを語句毎に識別表示し(ステップS9)、前記決定された候補と、前記選択された候補とを語句毎にユーザ選択欄に登録する(ステップS10)。例えば、日本語の正式読みを赤枠で囲んで識別表示し、ユーザ操作によって選択された候補を緑の網掛けで識別表示し、音声認識で決定された候補を黄色の網掛けで識別表示する。
次いで、CPU20は、ユーザ操作により別の学習対象が選択されたか否かを判定し(ステップS11)、選択されていないと判定した場合(ステップS11;NO)にはステップS4に移行し、選択されていると判定した場合(ステップS11;YES)にはステップS3に移行する。
また、CPU20は、ステップS1で日本語会話が選択されていないと判定した場合(ステップS1;NO)には、ユーザ操作により日中辞書が選択されたか否かを判定し(ステップS12)、日中辞書が選択されていないと判定した場合(ステップS12;NO)には他の処理に移行し、選択されていると判定した場合(ステップS12;YES)にはステップS13に移行する。
ステップS13では、CPU20は、ユーザ操作により標準読み検索が選択されたか否かを判定し、標準読み検索が選択されていないと判定した場合(ステップS13;NO)にはステップS21に移行し、選択されていると判定した場合(ステップS13;YES)にはステップS14に移行する。ここで、標準読み検索とは、日本語の正式読みに基づいて検索を実行する検索処理のことである。
CPU20は、標準読み検索を実行し、ユーザ操作により読みが入力されると(ステップS14)、日本語の正式読みを基準にして文字入力毎に日中データベース群82から前方一致検索して該当の見出しをメインディスプレイ10に一覧表示する(ステップS15)。
なお、標準読み検索の開始時においては、CPU20は、前回の入力内容をメインディスプレイ10に表示しており、これにより新規入力だけでなく前回の入力内容を修正することも可能となっている。
次いで、CPU20は、一覧表示されている見出しから何れかの見出しがユーザ操作により選択されると(ステップS16)、選択された見出しの語句又は会話文と、中国語訳と、日本語の正式読みとをメインディスプレイ10に表示する(ステップS17)。
次に、CPU20は、選択された見出し語の語句又は会話文に対して、ユーザ学習情報が登録されているか否かを判定し(ステップS18)、登録されていない場合(ステップS18;NO)はステップS20に移行し、登録されている場合(ステップS18;YES)は、ユーザ学習情報の登録内容と、日本語の正式読みとをメインディスプレイ10に識別表示させる(ステップS19)。
次いで、CPU20は、キー群2の戻るキー2gが操作されたか否かを判定し(ステップS20)、操作された場合にはステップS14に移行し、そうでない場合は他の処理を実行する。
また、CPU20は、ステップS13で標準読み検索が選択されていないと判定した場合(ステップS13;NO)には、ユーザ操作によりユーザ聞き取り読み検索(しゃべったまま検索)が選択されたか否かを判定し(ステップS21)、選択されていないと判定した場合(ステップS21;NO)にはステップS22に移行し、選択されていると判定した場合(ステップS21;YES)にはステップS23に移行する。ここで、ユーザ聞き取り読み検索(しゃべったまま検索)とは、ユーザ学習情報に対応して、ユーザがしゃべった読みに基づく音声認識のユーザ読みやユーザ自身が登録したユーザ登録読みに基づいて検索を実行する検索処理のことである。
ステップS22では、CPU20は、他の操作が行われていると判断した場合(ステップS22;YES)には他の処理へ移行し、他の操作が行われていないと判断した場合(ステップS22;NO)にはステップS13に移行する。
CPU20は、ユーザ聞き取り読み検索(しゃべったまま検索)を実行し、ユーザ操作により読みが入力されると(ステップS23)、入力された読みに前方一致するユーザ学習情報があるか否かを判定し(ステップS24)、ない場合(ステップS24;NO)には「ユーザから登録された読みに一致する見出しがありません」をメインディスプレイ10に表示する(ステップS25)。
なお、ユーザ聞き取り読み検索の開始時においては、CPU20は、前回の入力内容をメインディスプレイ10に表示しており、これにより新規入力だけでなく前回の入力内容を修正することも可能となっている。
次いで、CPU20は、ユーザ操作により標準読み検索に切り替える指示が入力されたか否かを判定し(ステップS26)、入力されていない場合(ステップS26;NO)にはステップS23に移行し、入力されている場合(ステップS26;YES)にはステップS14に移行する。
また、CPU20は、ステップS24で、入力された読みに前方一致するユーザ学習情報があると判定した場合(ステップS24;YES)には前方一致するユーザ学習情報を有する見出しをメインディスプレイ10に一覧表示する(ステップS27)。
次いで、CPU20は、一覧表示されている見出しから何れかの見出しがユーザ操作により選択されると(ステップS28)、ユーザ学習情報の登録内容と、日本語の正式読みとをメインディスプレイ10に識別表示させる(ステップS29)。
次いで、CPU20は、キー群2の戻るキー2gが操作されたか否かを判定し(ステップS30)、操作された場合にはステップS23に移行し、そうでない場合は他の処理を実行する。
[4 動作例]
続いて、図面を参照しつつ、上述した電子辞書1の動作を具体的に説明する。
まず、図7(a)に示すように、ユーザにより中国人用の日本語会話が選択され(ステップS1;YES)、その後、学習対象として「人と会う」ジャンルの「上手な日本語ですね。」が選択されると(ステップS2)、メインディスプレイ10の上画面10aに「上手な日本語ですね。」とその中国語訳C1が表示される(ステップS3)。
次いで、ユーザにより「聞き比べ」アイコンi1がタッチされると、メインディスプレイ10の下画面10bには「マイクに向かって発音しましょう。最後に正式読みで再生された音声と、発音した音声を聞き比べることができます。」が表示される。
この表示によりユーザは「上手な日本語ですね」を発声する。このとき、実際の発声内容は吹き出しf1に示すように「じょずな にほご ですね」であったとする。
この発声内容は、音声入力部55を介して発声音声データとして記憶部80に記憶され(ステップS5)、音声認識がなされる(ステップS6)。
音声認識の完了後には、図7(b)に示すように、上画面10aには「上手な日本語ですね」と中国語訳C1との間に日本語の正式読み「じょうずな にほんご ですね」が表示され、下画面10bには、「上手な日本語ですね」をなす各語句「上手な」、「日本語」、「ですね」の複数の候補(日本語の正式読みと、複数の誤り読み候補)がランダムな順で表示される(ステップS7)。具体的に「上手な」に対しては、日本語の正式読みである「じょうずな」と、誤り読み候補である「じようずな」、「じょずな」、「じょうず」がランダムな順に表示されている(本実施形態では、上から順に「じょうずな」、「じょずな」、「じようずな」、「じょうず」と表示されている)。「日本語」に対しては上から順に「にほご」、「にほんご」、「にほんこ」、「にほこ」が表示されている。「ですね」に対しては上から順に「ですえ」、「です」、「でね」、「ですね」が表示されている。そして、これら複数の候補のうち、音声認識によって決定された文字列に該当する候補に対しては、黄色の網掛け90y(図ではドット網掛け)が施されることで識別表示されている。
その後、ユーザは音声認識によって決定された文字列が、自分が発声したと思う文字列と異なっていると判断した場合には、自分が日本語の正式読みだと思う候補を選択する(ステップS8)。このとき選択した候補に対しては緑色の網掛け90g(図では斜線網掛け)が施されることで識別表示されている。
次いで、訳/決定キー2bが操作されると、図7(c)に示すように、日本語の正式読みに対しては赤枠91rが施されることで識別表示されている。これにより、日本語の正式読みと、ユーザ操作により選択された候補(ユーザ読み)と、音声認識で決定された候補とが識別表示される(ステップS9)。さらに、音声認識で決定された候補と、ユーザ操作により選択された候補とは、語句毎に日本語表記候補テーブル823のユーザ選択欄に登録される(ステップS10)。この登録内容は、ユーザ学習情報としてその語句に対応付けてユーザ読みデータ824に記憶している。
具体的には、ユーザ選択欄のユーザ音声読み欄では、「上手な」に対しては(1)「じょずな」、「日本語」に対しては(2)「にほご」、「ですね」に対しては(A)「ですね」が登録される。また、ユーザ選択欄のユーザ選択読み欄では、「じょずな」が「じょうずな」に修正されたために「上手な」に対しては(A)「じょうずな」が登録され、「にほご」が「にほんご」に修正されたため「日本語」に対しては(A)「日本語」が登録される。
また、訳/決定キー2bが操作されたことに伴い、日本語音声会話コンテンツ822にある日本語読みの音声データが再生され(図7(c)中、吹き出しf2)、その後、記憶部80にある発声音声データも再生される(図7(c)中、吹き出しf3)。
これにより、ユーザが日本語の正式読みと、自分の発声内容とを聞き比べすることができ、日本語の発声学習の効率化が図られることとなる。
図7(d)は、別の学習候補が選ばれた際の表示内容を示す説明図である。
学習候補として「人と会う」ジャンルの「北大学です。」が選択されると、メインディスプレイ10の上画面10aに「北大学です。」とその中国語訳C2が表示される。
次いで、ユーザにより「聞き比べ」アイコンi1がタッチされて、「北大学です。」が吹き出しf4に示すように「きだ だいあく です」と発声されたとする。この発声内容は、音声入力部55を介して発声音声データとして記憶部80に記憶され、音声認識がなされる。
音声認識の完了後には、上画面10aには「北大学です」と中国語訳C2との間に日本語の正式読み「きた だいがく です」が表示され、下画面10bには、「北大学です」をなす各語句「北」、「大学」、「です」の複数の候補がランダムに表示される。具体的に「北」に対しては上から順に「きだ」、「きた」、「ぎだ」、「べい」が表示されている。「大学」に対しては上から順に「だいあく」、「だいがく」、「だいかく」、「だいが」が表示されている。「です」に対しては上から順に「でせ」、「です」、「で」、「でさ」が表示されている。
これら複数の候補のうち、音声認識によって決定された文字列に該当する候補に対しては、黄色の網掛け90yが施されるとともに、ユーザが選択した候補に対しては緑色の網掛け90gが施される。音声認識で決定された候補と、ユーザ操作により選択された候補(ユーザ読み)とは、語句毎に日本語表記候補テーブル823のユーザ選択欄に登録される。
具体的には、ユーザ選択欄のユーザ音声読み欄では、「北」に対しては(A)「きだ」、「大学」に対しては(1)「だいあく」、「です」に対しては(A)「です」が登録される。また、ユーザ選択欄のユーザ選択読み欄では、「きだ」が「ぎだ」に間違って修正されたために「きた」に対しては(3)「ぎだ」が登録され、「だいあく」が「だいがく」に修正されたため「大学」に対しては(A)「だいがく」が登録される。
その後、訳/決定キー2bが操作されると、日本語の正式読みに対しては赤枠91rが施されるとともに、日本語音声会話コンテンツ822にある日本語読みの音声データが再生され(図7(d)中、吹き出しf5)、その後、記憶部80にある発声音声データも再生される(図7(d)中、吹き出しf6)。
図7(e)は、別の学習候補が選ばれた際の表示内容を示す説明図である。
学習候補として「買い物」ジャンルの「7個ください。」が選択されると、メインディスプレイ10の上画面10aに「7個ください。」とその中国語訳C3が表示される。
次いで、ユーザにより「聞き比べ」アイコンi1がタッチされて、「7個ください」が吹き出しf7に示すように「ならこ ください」と発声されたとする。この発声内容は、音声入力部55を介して発声音声データとして記憶部80に記憶され、音声認識がなされる。
音声認識の完了後には、上画面10aには「7個ください」と中国語訳C3との間に日本語の正式読み「ななこ ください」が表示され、下画面10bには、「7個ください」をなす各語句「7個」、「下さい」の複数の候補がランダムに表示される。具体的に「7個」に対しては上から順に「なんこ」、「ななこ」、「ならこ」、「なながー」が表示されている。「下さい」に対しては上から順に「ください」、「くたさえ」、「くたさい」、「くださえ」が表示されている。
これら複数の候補のうち、音声認識によって決定された文字列に該当する候補に対しては、黄色の網掛け90yが施されるとともに、ユーザが選択した候補に対しては緑色の網掛け90gが施される。音声認識で決定された候補と、ユーザ操作により選択された候補(ユーザ読み)とは、語句毎に日本語表記候補テーブル823のユーザ選択欄に登録される。
具体的には、ユーザ選択欄のユーザ音声読み欄では、「7個」に対しては(1)「ならこ」、「下さい」に対しては(A)「ください」が登録される。また、ユーザ選択欄のユーザ選択読み欄では、修正されなかったために何も登録されない。
その後、訳/決定キー2bが操作されると、日本語の正式読みに対しては赤枠91rが施されるとともに、日本語音声会話コンテンツ822にある日本語読みの音声データが再生され(図7(e)中、吹き出しf8)、その後、記憶部80にある発声音声データも再生される(図7(e)中、吹き出しf9)。
次に、ユーザ操作により標準読み検索が選択された場合(ステップS13;YES)には、図8(a)に示すように、メインディスプレイ10には、「かな検索」と記載された検索欄101が表示されている。この検索欄101にはユーザ操作によって所望の文字列が入力される(ステップS14)。この際、CPU20は、標準読み検索を実行しており、日本語の正式読みを基準にして文字入力毎に日中データベース群82から前方一致検索して該当の見出しをメインディスプレイ10に一覧表示する(ステップS15)。このとき「ならこ」が検索欄101に入力されたとすると、メインディスプレイ10には、「奈良公園は」が表示される。この「奈良公園は」がユーザ操作で選択されると(ステップS16)、その選択された見出しの会話文「奈良公園はどこ?」と、その日本語の正式読み「ならこうえんはどこ?」と、中国語訳C4とがメインディスプレイ10に表示される(ステップS17)。
さらに、「奈良公園はどこ?」に対してユーザ学習情報が登録されていない場合(ステップS18;NO)を例示しているため、これ以上の表示はなされていないが、登録されている場合(ステップS18;YES)には、「奈良公園はどこ?」の日本語の正式読みと、ユーザ学習情報の登録内容とが識別表示される(ステップS19)。
ここで、ユーザは、意図する見出しが表示されていないと判断すると、図8(b)に示すように、検索欄101の「かな検索」部分をタッチする。これによりCPU20では、ユーザ操作によりユーザ聞き取り読み検索(しゃべったまま検索)が選択されたと判定され(ステップS21;YES)、「かな検索」部分が「しゃべったまま検索」に切り替わる。検索欄101内にすでに入力された文字列をCPU20は、ユーザ操作により入力された読みとする(ステップS23)。この際、CPU20は、ユーザ聞き取り読み検索を実行しており、入力された読み「ならこ」に前方一致するユーザ学習情報がある場合(ステップS24;YES)には、前方一致するユーザ学習情報を有する「7個ください」をメインディスプレイ10に表示する(ステップS27)。このとき、「7個ください」のみが表示されているので、CPU20は、「7個ください」がユーザにより選択されたものとする(ステップS28)。その後、上画面10aには「7個ください」と中国語訳C3との間に日本語の正式読み「ななこ ください」が表示される。これに加えて、下画面10bには、「7個」に対しては上から順に「なんこ」、「ななこ」、「ならこ」、「なながー」が表示され、「下さい」に対しては上から順に「ください」、「くたさえ」、「くたさい」、「くださえ」が表示されている。
そして、「7個下さい」に登録されているユーザ学習情報を基に、「ならこ」に対しては黄色の網掛け90yを施し、「ななこ」に対しては赤枠91rを施して識別表示する。同様に、「ください」に対しては黄色の網掛け90yを施すとともに赤枠91rを施して識別表示する。
これにより、登録時のユーザの発声内容と日本語の正式読みとが、登録以降にも確認することができ、ユーザの日本語の習得状況を客観的に把握することができる。
以上のように、ユーザ操作によって入力された日本語読みの候補(文字列)が、学習対象である語句又は会話文に対して登録される。その後、ユーザ操作によって文字列が入力されると、この入力された文字列が登録された日本語の文又は語句が表示される。つまり、日本語の学習によって誤った読みをユーザが記憶していたとしても、一度登録されてしまえばその誤った文字列で検索することができる。したがって、ユーザが日本語を発声した読み方が不正確な場合でも、ユーザが読んだ文字列で日本語の文又は語句を容易かつ効果的に検索することができる。
また、メインディスプレイ10に表示された文又は語句の日本語の正式読み(第一国語読み)に対して、ユーザ操作によって決定された日本語の文字列が合わせて表示されるので、ユーザが記憶する誤った読みで検索したとしても、その検索結果とともに正式読みも表示されることになり、ユーザ自身が誤った読みを記憶していることをユーザに認識させることができる。
また、発声音声データを音声認識し、当該認識結果に対して、複数の候補(日本語の正式読み及び複数の読み候補)を照合することによって、複数の候補の中からユーザが発声した日本語の文字列を決定するので、予め用意された複数の候補に対して音声認識の結果を落とし込むことができる。したがって、複雑な音声認識処理を用いなくても、ユーザの発した音声を複数の候補の中から容易に認識することができる。
また、日本語の会話文又語句と、中国語の訳(第二国語訳)とを合わせて表示しているので、ユーザの自国語(第二国語)の意味も視認しつつ日本語の会話文又は語句を学習することができる。したがって効率的な日本語学習が可能となる。
なお、本発明を適用可能な実施形態は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
例えば、本発明に係る表示制御装置を電子辞書1として説明したが、本発明が適用可能なものは、このような製品に限定されず、携帯電話、パソコン、PDA(Personal Digital Assistant)、ゲーム機などの電子機器全般に適用可能であり、図1(b)に示すようなタブレットパソコン1Aに特に好適に適用される。また、本発明に係る日本語学習制御プログラム81は、電子辞書1に対して着脱可能な外部情報記憶媒体12aに記憶されることとしてもよい。
また、本実施形態では、日中データベース群82が記憶部80に記憶されている場合を例示して説明しているが、これらは外部のサーバ装置100に記憶されていてもよい。この場合、CPU20は、通信部90を介してサーバ装置100にある日中データベース群82を取得する。
また、本実施形態では、中国人が日本語を学習する場合を例示して説明したが、その他の外国人が日本語を学習する場合においても本発明を実施することが可能である。
例えば、図9はインドネシア人が日本語を学習する場合の表示例を示している。
この場合、学習候補として「挨拶」ジャンルの「今晩は」が選択されている。
そして、ユーザにより「聞き比べ」アイコンi1がタッチされて、「今晩は」が吹き出しf10に示すように「こばんは」と発声されたとする。この発声内容は、音声入力部55を介して発声音声データとして記憶部80に記憶され、音声認識がなされる。
音声認識の完了後には、上画面10aには「今晩は」と、日本語の正式読み「こんばんは」と、インドネシア語訳C5とが表示され、下画面10bには、「今晩は」の複数の候補がランダムに表示される。具体的に「今晩は」に対して上から順に「こばんは」、「こーばんは」、「こんばんは」が表示されている。
これら複数の候補のうち、音声認識によって決定された文字列に該当する候補に対しては、黄色の網掛け90yが施されている。この場合にはユーザが選択した候補はないので緑色の網掛け90gは施されていない。音声認識で決定された候補は、日本語表記候補テーブル823のユーザ選択欄に登録される。
その後、訳/決定キー2bが操作されると、日本語の正式読みに対しては赤枠91rが施されるとともに、日本語音声会話コンテンツ822にある日本語読みの音声データが再生され(図9(a)中、吹き出しf11)、その後、記憶部80にある発声音声データも再生される(図9(a)中、吹き出しf12)。
次に、図9(b)に示すように、ユーザ操作によりユーザ聞き取り読み検索が選択されて「しゃべったまま検索」の検索欄101内に「こばんは」が入力されたとする。この際、CPU20は、ユーザ聞き取り読み検索を実行しており、入力された読み「こばんは」に前方一致するユーザ学習情報がある複数の見出しから、ユーザ操作によって「今晩は」が選択されると、上画面10aには今晩は」と、日本語の正式読み「こんばんは」と、インドネシア語訳C5とが表示される。これに加えて、下画面10bには、「今晩は」に対して上から順に「こばんは」、「こーばんは」、「こんばんは」が表示されている。
そして、「今晩は」に登録されているユーザ学習情報を基に、「こばんは」に対しては黄色の網掛け90yを施し、「こんばんは」に対しては赤枠91rを施して識別表示する。
これにより、登録時のユーザの発声内容と日本語の正式読みとが、登録以降にも確認することができ、インドネシア語を自国語(第二国語)とするユーザの日本語の習得状況を客観的に把握することができる。
以上、本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲をその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けて複数組記憶する第一国語記憶手段と、
前記第一国語記憶手段に記憶されたいずれかの第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段と、を備えることを特徴とする表示制御装置。
<請求項2>
請求項1記載の表示制御装置において、
前記第一国語記憶手段は、第一国語の文又は語句と、前記第一国語読みに対応する第一国語誤り読み候補とを対応付けて複数組記憶していて、
前記ユーザ発声文字列決定手段は、前記ユーザ音声取得手段により取得された発声音声データを音声認識して、前記第一国語の文又は語句に対応する第一国語読み及び前記誤り候補のうちから、前記ユーザが発声した第一国語の文字列をユーザ読みとして決定することを特徴とする表示制御装置。
<請求項3>
請求項2記載の表示制御装置において、
前記第一国語記憶手段は、第一国語の文又は語句と、前記第一国語読みに対応する第一国語誤り読み候補とを対応付けて複数組記憶していて、
前記ユーザ発声文字列決定手段により決定された第一国語の文字列を前記表示部に表示させるユーザ発声文字列表示制御手段と、
前記第一国語の文又は語句に対応する第一国語読み及び複数の前記誤り読み候補をランダムな順で前記表示部に表示させる読み候補表示制御手段と、
前記読み候補表示制御手段によりランダムに表示された第一国語読み及び複数の前記誤り読み候補のうちのいずれかを、ユーザ操作によりユーザ読みとして選択するユーザ読み選択手段と、を備え、
前記ユーザ読み登録手段は、前記ユーザ読み選択手段で選択されたユーザ読みを、前記表示された第一国語又は語句に対応付けて登録するユーザ選択読み登録手段を備えることを特徴とする表示制御装置。
<請求項4>
請求項1〜3のいずれか一項に記載の表示制御装置において、
前記第一国語表示制御手段は、前記表示された第一国語の文又は語句の第一国語読みと、ユーザ読み登録手段にユーザ読みとして登録された前記第一国語の文字列と、を合わせて前記表示部に表示させることを特徴とする表示制御装置。
<請求項5>
請求項1〜4のいずれか一項に記載の表示制御装置において、
前記第一国語記憶手段は、第一国語の文又は語句と、当該文又は語句の第一国語読みと、前記文又は語句の第二国語訳と、を対応付けて複数組記憶し、
前記第一国語表示制御手段は、前記第一国語記憶手段に記憶されたいずれかの第一国語の文又は語句を読み出して前記表示部に表示させる際に、当該第一国語の文又は語句に対応する前記文又は語句の第二国語訳も合わせて前記表示部に表示させることを特徴とする表示制御装置。
<請求項6>
第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けられた状態で外部から取得する第一国語取得手段と、
前記第一国語取得手段で取得された第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段と、を備えることを特徴とする表示制御装置。
<請求項7>
請求項1〜6のいずれか一項に記載の表示制御装置において、
前記表示部と、
キー群及びタッチパネルの少なくとも一方とを備え、
前記ユーザ操作は、前記キー群及び前記タッチパネルの少なくとも一方に対して行われることを特徴とする表示制御装置。
<請求項8>
コンピュータを、
第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けて複数組記憶する第一国語記憶手段と、
前記第一国語記憶手段に記憶されたいずれかの第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段として機能させることを特徴とするプログラム。
<請求項9>
コンピュータを、
第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けられた状態で外部から取得する第一国語取得手段と、
前記第一国語取得手段で取得された第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段として機能させることを特徴とするプログラム。
1 電子辞書
10 メインディスプレイ
20 CPU
30 入力部
40 表示部
50 音声出力部
55 音声入力部
60 記録媒体読取部
80 記憶部
81 日本語学習制御プログラム
82 日中データベース群
83 音声認識プログラム
90 通信部

Claims (9)

  1. 第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けて複数組記憶する第一国語記憶手段と、
    前記第一国語記憶手段に記憶されたいずれかの第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
    前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
    前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
    前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
    ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段と、を備えることを特徴とする表示制御装置。
  2. 請求項1記載の表示制御装置において、
    前記第一国語記憶手段は、第一国語の文又は語句と、前記第一国語読みに対応する第一国語誤り読み候補とを対応付けて複数組記憶していて、
    前記ユーザ発声文字列決定手段は、前記ユーザ音声取得手段により取得された発声音声データを音声認識して、前記第一国語の文又は語句に対応する第一国語読み及び前記誤り候補のうちから、前記ユーザが発声した第一国語の文字列をユーザ読みとして決定することを特徴とする表示制御装置。
  3. 請求項2記載の表示制御装置において、
    前記第一国語記憶手段は、第一国語の文又は語句と、前記第一国語読みに対応する第一国語誤り読み候補とを対応付けて複数組記憶していて、
    前記ユーザ発声文字列決定手段により決定された第一国語の文字列を前記表示部に表示させるユーザ発声文字列表示制御手段と、
    前記第一国語の文又は語句に対応する第一国語読み及び複数の前記誤り読み候補をランダムな順で前記表示部に表示させる読み候補表示制御手段と、
    前記読み候補表示制御手段によりランダムに表示された第一国語読み及び複数の前記誤り読み候補のうちのいずれかを、ユーザ操作によりユーザ読みとして選択するユーザ読み選択手段と、を備え、
    前記ユーザ読み登録手段は、前記ユーザ読み選択手段で選択されたユーザ読みを、前記表示された第一国語又は語句に対応付けて登録するユーザ選択読み登録手段を備えることを特徴とする表示制御装置。
  4. 請求項1〜3のいずれか一項に記載の表示制御装置において、
    前記第一国語表示制御手段は、前記表示された第一国語の文又は語句の第一国語読みと、ユーザ読み登録手段にユーザ読みとして登録された前記第一国語の文字列と、を合わせて前記表示部に表示させることを特徴とする表示制御装置。
  5. 請求項1〜4のいずれか一項に記載の表示制御装置において、
    前記第一国語記憶手段は、第一国語の文又は語句と、当該文又は語句の第一国語読みと、前記文又は語句の第二国語訳と、を対応付けて複数組記憶し、
    前記第一国語表示制御手段は、前記第一国語記憶手段に記憶されたいずれかの第一国語の文又は語句を読み出して前記表示部に表示させる際に、当該第一国語の文又は語句に対応する前記文又は語句の第二国語訳も合わせて前記表示部に表示させることを特徴とする表示制御装置。
  6. 第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けられた状態で外部から取得する第一国語取得手段と、
    前記第一国語取得手段で取得された第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
    前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
    前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
    前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
    ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段と、を備えることを特徴とする表示制御装置。
  7. 請求項1〜6のいずれか一項に記載の表示制御装置において、
    前記表示部と、
    キー群及びタッチパネルの少なくとも一方とを備え、
    前記ユーザ操作は、前記キー群及び前記タッチパネルの少なくとも一方に対して行われることを特徴とする表示制御装置。
  8. コンピュータを、
    第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けて複数組記憶する第一国語記憶手段と、
    前記第一国語記憶手段に記憶されたいずれかの第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
    前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
    前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
    前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
    ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段として機能させることを特徴とするプログラム。
  9. コンピュータを、
    第一国語の文又は語句と、当該文又は語句の第一国語読みとを対応付けられた状態で外部から取得する第一国語取得手段と、
    前記第一国語取得手段で取得された第一国語の文又は語句を読み出して表示部に表示させる第一国語表示制御手段と、
    前記第一国語表示制御手段により表示された第一国語の文又は語句に対応してユーザが発声した発声音声データを取得するユーザ音声取得手段と、
    前記ユーザ音声取得手段により取得された発声音声データを音声認識することにより、前記ユーザが発声した第一国語の文字列を決定するユーザ発声文字列決定手段と、
    前記ユーザ発声文字列決定手段により決定された前記第一国語の文字列をユーザ読みとして、前記表示部に表示された第一国語の文又は語句に対応付けて登録するユーザ読み登録手段と、
    ユーザ操作により入力された前記第一国語の文字列に対応するユーザ読みの第一国語の文又は語句を前記表示部に表示させるユーザ読み表示制御手段として機能させることを特徴とするプログラム。
JP2014057492A 2014-03-20 2014-03-20 表示制御装置及びプログラム Pending JP2015184285A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014057492A JP2015184285A (ja) 2014-03-20 2014-03-20 表示制御装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014057492A JP2015184285A (ja) 2014-03-20 2014-03-20 表示制御装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2015184285A true JP2015184285A (ja) 2015-10-22

Family

ID=54350944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014057492A Pending JP2015184285A (ja) 2014-03-20 2014-03-20 表示制御装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2015184285A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095176A (ja) * 2018-12-13 2020-06-18 株式会社Ecc 語学学習用装置および語学学習用プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095176A (ja) * 2018-12-13 2020-06-18 株式会社Ecc 語学学習用装置および語学学習用プログラム
JP7195593B2 (ja) 2018-12-13 2022-12-26 株式会社Ecc 語学学習用装置および語学学習用プログラム

Similar Documents

Publication Publication Date Title
CN105283914B (zh) 用于识别语音的系统和方法
JP6213089B2 (ja) 音声学習支援装置、音声学習支援方法及びコンピュータの制御プログラム
TWI437449B (zh) 多重模式輸入方法及輸入方法編輯器系統
US20140223272A1 (en) Selective synchronous presentation
CN104123931B (zh) 语言学习方法与装置以及计算机可读记录媒体
JP2015531915A (ja) 対応メディアコンテンツ部分の整合
US20150073801A1 (en) Apparatus and method for selecting a control object by voice recognition
KR102043419B1 (ko) 아동언어학습을 위한 음성인식 기반 학습 시스템 및 학습방법
US20160180741A1 (en) Pronunciation learning device, pronunciation learning method and recording medium storing control program for pronunciation learning
WO2014181508A1 (en) Information processing apparatus, information processing method, and program
JP2015036788A (ja) 外国語の発音学習装置
KR101670326B1 (ko) 언어 문장 패턴 제안을 위한 생성 시스템
JP2010198241A (ja) 中国語入力装置およびプログラム
CN105786204A (zh) 信息处理方法和电子设备
US11556708B2 (en) Method and apparatus for recommending word
KR20170009486A (ko) 청크 기반 언어 학습용 데이터베이스 구축 방법 및 이를 수행하는 전자 기기
JP2011076384A (ja) 情報出力装置及び情報出力プログラム
JP2008186376A (ja) 音声出力装置及び音声出力プログラム
JP6641680B2 (ja) 音声出力装置、音声出力プログラムおよび音声出力方法
US8489389B2 (en) Electronic apparatus with dictionary function and computer-readable medium
JP2015184285A (ja) 表示制御装置及びプログラム
KR20090054951A (ko) 주니어용 단어 학습방법 및 이를 적용한 단어 학습장치
KR20130128172A (ko) 장애인을 위한 이동통신 단말기 및 문자생성방법
JP4924148B2 (ja) 発音学習支援装置及び発音学習支援プログラム
JP4369529B1 (ja) 英語教育システム及び英語教育プログラム