JP2004265146A - Electronic dictionary managing device and dictionary data transmitting program - Google Patents

Electronic dictionary managing device and dictionary data transmitting program Download PDF

Info

Publication number
JP2004265146A
JP2004265146A JP2003054831A JP2003054831A JP2004265146A JP 2004265146 A JP2004265146 A JP 2004265146A JP 2003054831 A JP2003054831 A JP 2003054831A JP 2003054831 A JP2003054831 A JP 2003054831A JP 2004265146 A JP2004265146 A JP 2004265146A
Authority
JP
Japan
Prior art keywords
information
dictionary
data
headword
meaning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003054831A
Other languages
Japanese (ja)
Other versions
JP4348968B2 (en
Inventor
Takashi Koshiro
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003054831A priority Critical patent/JP4348968B2/en
Publication of JP2004265146A publication Critical patent/JP2004265146A/en
Application granted granted Critical
Publication of JP4348968B2 publication Critical patent/JP4348968B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a transmit destination electronic device to easily utilize result of dictionary search in a transmit source electronic device. <P>SOLUTION: An electronic dictionary server 14 receives specifying information for identifying a dictionary received from a communication electronic dictionary 10 of a transmission source, flag word information, category information of word meanings and specifying information of a dictionary mounted on the electronic device of the transmission destination. In the case that the dictionary of the transmission source is different from that of the transmission destination, the flag word information and the category information of word meanings corresponding to the dictionary of the transmission destination are detected and transmitted based on the received flag word information and the category information. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、電子化された見出し語情報に対応する説明情報のデータを送信する電子辞書管理装置、及び辞書データ送信プログラムに関する。
【0002】
【従来の技術】
一般に、英和辞典、和英辞典、国語辞典、百科事典など各種の事典や辞書の内容を電子化して記録し、簡単に検索することができる機能が搭載された電子辞書(装置)が広く利用されている。こうした電子辞書では、見出し語と、その見出し語に対応する説明内容とが関連付けられて記録されており、見出し語を選択するあるいは文字列を入力することで、この入力された見出し語(あるいは文字列)に対応する説明内容を表示させることができる。
【0003】
近年では、携帯電話などにおいても英和辞典などの電子辞書の機能を搭載し、この電子辞書によって検索した単語や検索結果を電子メールの本文やメモに貼り付けて利用できるようになっている。
【0004】
また、特許文献1に掲載されているように電子辞書に通信機能を搭載し、パーソナルコンピュータなど他の電子装置と通信することができるものも考えられている。特許文献1に記載されている電子辞書は、パーソナルコンピュータの表示部で表示された英文のテキスト中で検索対象とする単語が範囲指定されることで、この範囲指定された単語データを通信によって受信し、この単語データについての検索を実行して、検索結果をパーソナルコンピュータに送信して表示させることができる。
【0005】
【特許文献1】
特開2001−188795号公報
【0006】
【発明が解決しようとする課題】
従来の電子辞書を利用する場合には、検索しようとする単語などを探して、その単語を見出し語として逐次選択(あるいは入力)しなければならず作業が非常に煩雑となっていた。また、電子辞書が高機能化する程、1つの単語に対して複数の語義の説明情報が用意されていることが多く、見出し語を指定して検索された検索結果から、自らが必要としている内容の語義についての説明情報を、その説明情報を確認しながら探さなくてはならなかった。さらに従来の電子辞書では、見出し語の指定に応じて検索した結果(説明内容)については、その電子辞書を使用しているユーザだけしか参照することができない。電子辞書には、ヒストリ機能と呼ばれる過去の検索結果を保存する機能を有しているものもあるが、このヒストリ機能を使用しても、実際に検索を実行した電子辞書でなければ検索結果を利用することができなかった。
【0007】
また、携帯電話に搭載された電子辞書の機能では、電子メールに検索結果を貼り付けることで、電子メールの本文として他の携帯電話の利用者に検索結果を閲覧させることができる。しかしながら、電子辞書の検索結果としてではなく、メール本文として閲覧できるだけである。さらに、電子メールの送信側では、例えば電子辞書の機能によって、ある1つの単語に対して多数の語義についての説明情報が得られた場合には、辞書から検索された説明情報の全てを送信するか、あるいは前述と同様にして必要とする語義の説明情報を的確に選択してメールに貼り付けて送信しなければならない。
【0008】
また、特許文献1に掲載された電子辞書においても、パーソナルコンピュータからの要求に応じて検索を実行するので、その検索結果についてはパーソナルコンピュータにおいて利用できるのみとなっていた。また、電子辞書を利用するたびに通信によって検索要求を送信し、その検索結果を取得しなければならなかった。さらに、この場合も電子辞書によって検索された検索結果が1つの単語に対して複数の語義の説明情報が含まれる場合には、必要とする語義の説明情報をさらに探す必要がある。
【0009】
さらに、電子辞書(装置)の違いによって記録されている辞書の内容が異なる場合がある。特に、見出し語に対応して複数の語義がある場合には、電子辞書毎に語義の数や優先順(記載順)が異なっている場合がある。従って、ある電子辞書に記録されたある見出し語に対する語義に関する情報(例えば、語義の記載順などを表す語義番号)を知り得たとしても、他の電子辞書で利用することで必要とする語義の説明情報を得ることはできなかった。
【0010】
本発明は、前記のような問題に鑑みなされたもので、送信元の電子機器において辞書検索等によって特定した見出し語や語義のデータを、他の電子機器において簡単に利用させることを可能にする電子辞書管理装置、辞書データ送信プログラムを提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明の請求項1の電子辞書管理装置によれば、受信手段により、送信元の電子機器から同機器に搭載された辞書を識別するための第1の特定情報と前記辞書で用いられる見出し語情報と語義の分類情報、及び送信先の電子機器に搭載された辞書を識別するための第2の特定情報とが受信され、特定情報判別手段により、前記受信手段によって受信された前記第1の特定情報と前記第2の特定情報とが一致するかが判別される。前記特定情報判別手段によって特定情報が一致しないと判別された場合に、情報検出手段により、前記見出し語情報と前記分類情報をもとに、前記送信先の電子機器に送信する前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報が検出され、送信手段により、前記情報検出手段によって検出された前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報を前記送信先の電子機器に送信される。
【0012】
これにより、見出し語情報に対して複数の語義の説明情報がある場合であっても、送信元の電子機器における辞書検索によって得られた見出し語情報と語義の分類情報を利用して、送信先の電子機器に搭載された辞書の該当する見出し語情報の語義の分類情報に対応する説明情報を簡単に利用させることができる。
【0013】
本発明の請求項2の電子辞書管理装置によれば、語義リンク記録手段により、複数の辞書に記録された共通する見出し語情報毎に、各辞書の見出し語情報に対応する語義の分類情報が前記複数の辞書間で同じ語義同士を関連づけて記録される。そして、前記情報検出手段により、前記語義リンク記録手段により関連付けて記録された各辞書の見出し語に対応する語義の分類情報をもとに、前記見出し語情報と語義の分類情報が検出される。
【0014】
これにより、語義リンク記録手段によって記録された、各辞書の見出し語情報毎の語義の分類情報の関連づけを参照することで、受信した見出し語情報と語義の分類情報に対する送信先の電子機器の辞書における見出し語情報と語義情報を簡単に取得して、送信先の電子機器に送信することができる。
【0015】
本発明の請求項3の電子辞書管理装置によれば、音声送信依頼受信手段により、前記送信元の電子機器から前記送信先の電子機器に対する音声の送信依頼が受信され、前記音声送信依頼受信手段によって音声の送信依頼を受信した場合に、音声データ生成手段により、前記情報検出手段によって検出された前記見出し語と語義の分類情報に対応する情報の音声データが生成され、音声送信手段により、前記音声データ生成手段によって生成された音声データが前記送信先の電子機器に送信される。
【0016】
これにより、送信元の電子機器から受信した音声の送信依頼に応じて、送信先の電子機器に対して、見出し語情報と語義の分類情報に加えて、語義の分類情報に対応する情報(例えば辞書に記録される説明情報)の音声データを送信して、送信先の電子機器において情報内容を音声によって出力させることができる。
【0017】
本発明の請求項4の電子辞書管理装置によれば、前記音声送信依頼受信手段により、前記送信依頼と共に音質の種類を示すデータが受信され、前記音声データ生成手段により、前記音声送信依頼受信手段によって受信した音質の種類を示すデータに応じた音声データが生成される。
【0018】
これにより、送信先の電子機器に対して送信される音声データが再生された時の音質を、送信元の電子機器から指定することができる。
【0019】
本発明の請求項5の電子辞書管理装置によれば、前記音声送信依頼受信手段によって受信される音質の種類を示すデータは、人物を示すデータとする。
【0020】
これにより、歴史上の人物や著名人などの有名人(人物)を送信元の電子機器から指定して、送信先の電子機器においての有名人による(擬似)音声を出力させることができる。
【0021】
本発明の請求項6の電子辞書管理装置によれば、記録手段により、見出し語情報に対応して語義の分類情報毎に分類された説明情報が記録され、説明情報取得手段により、前記情報検出手段によって検出された見出し語情報と語義の分類情報に対応する説明情報が前記記録手段から取得され、前記送信手段によって、前記説明情報が前記送信先の電子機器に送信される。
【0022】
これにより、語義の分類情報に対応する説明情報が送信先の電子機器に記録されていない場合、すなわち辞書が搭載されていない場合であっても、電子辞書管理装置から説明情報を送信することで、送信先の説明情報の内容を利用することができる。
【0023】
本発明の請求項7の電子辞書管理装置によれば、前記記録手段により記録される説明情報は、前記電子機器に搭載された辞書において用いられる見出し語情報と語義の分類情報のそれぞれに対して記録された情報の一部であるとする。
【0024】
これにより、送信先の電子機器では、電子辞書管理装置から受信した情報を一覧表示させるなど、見出し語情報と語義の分類情報に対応する情報の全てを必要としない処理に利用することができる。
【0025】
本発明の請求項8の電子辞書管理装置によれば、辞書記録手段により、見出し語情報に対応する説明情報が記録され、受信手段により、送信元の電子機器から見出し語情報が受信される。音声データ生成手段により、前記受信手段によって受信された見出し語情報に対応する前記辞書記録手段に記録された説明情報を読み上げるための音声データが生成され、送信手段により、前記受信手段によって受信された見出し語情報と前記音声データ生成手段によって生成された音声データとが送信先の電子機器に対して送信される。
【0026】
これにより、送信元の電子機器における辞書検索によって得られた見出し語情報に該当する説明情報を、送信先の電子機器において音声によって取得させることができる。
【0027】
本発明の請求項9の電子辞書管理装置によれば、前記受信手段によって、前記送信元の電子機器から見出し語情報と共に音質の種類を示すデータを受信され、前記音声データ生成手段によって、前記受信手段によって受信した音質の種類を示すデータに応じた音声データが生成される。
【0028】
これにより、送信先の電子機器に対して送信される音声データが再生された時の音質を、送信元の電子機器から指定することができる。
【0029】
本発明の請求項10の電子辞書管理装置によれば、前記受信手段によって受信される音質の種類を示すデータが人物を示すデータとする。
【0030】
これにより、歴史上の人物や著名人などの有名人(人物)を送信元の電子機器から指定して、送信先の電子機器においての有名人による(擬似)音声を出力させることができる。
【0031】
本発明の請求項11の電子辞書管理装置によれば、前記送信手段によって、前記受信手段によって受信された見出し語情報に対応する前記辞書記録手段に記録された説明情報が送信先の電子機器に対して送信される。
【0032】
これにより、説明情報を読み上げるための音声データだけでなく、説明情報が送信され、送信先の電子機器において説明情報を表示させるなど、他の処理に利用することができる。
【0033】
本発明の請求項12の辞書データ送信プログラムによれば、コンピュータにより実行させることで、送信元の電子機器から同機器に搭載された辞書を識別するための第1の特定情報と前記辞書で用いられる見出し語情報と語義の分類情報、及び送信先の電子機器に搭載された辞書を識別するための第2の特定情報とを受信する受信手段と、前記受信手段によって受信された前記第1の特定情報と前記第2の特定情報とが一致するかを判別する特定情報判別手段と、前記特定情報判別手段によって特定情報が一致しないと判別された場合に、前記見出し語情報と前記分類情報をもとに、前記送信先の電子機器に送信する前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報を検出する情報検出手段と、前記情報検出手段によって検出された前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報を前記送信先の電子機器に送信する送信手段とに機能させることができる。
【0034】
これにより、コンピュータにおいて、見出し語情報に対して複数の語義の説明情報がある場合であっても、送信元の電子機器における辞書検索によって得られた見出し語情報と語義の分類情報を利用して、送信先の電子機器に搭載された辞書の該当する見出し語情報の語義の分類情報に対応する説明情報を簡単に利用させることができる。
【0035】
本発明の請求項請求項13の辞書データ送信プログラムによれば、コンピュータにより実行させることで、見出し語情報に対応する説明情報を記録する辞書記録手段と、送信元の電子機器から見出し語情報を受信する受信手段と、前記受信手段によって受信された見出し語情報に対応する、前記辞書記録手段に記録された説明情報を読み上げるための音声データを生成する音声データ生成手段と、前記受信手段によって受信された見出し語情報と前記音声データ生成手段によって生成された音声データとを送信先の電子機器に対して送信する送信手段とに機能させることができる。
【0036】
これにより、コンピュータにより、送信元の電子機器における辞書検索によって得られた見出し語情報に該当する説明情報を、送信先の電子機器において音声によって取得させることができる。
【0037】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0038】
図1は、本実施形態における電子辞書検索履歴管理システムの構成を示すブロック図である。図1に示すように、電子辞書検索履歴管理システムは、複数の通信電子辞書10(10a,10b、10c,10d)がそれぞれインターネット14と接続されている。通信電子辞書10は、例えば通信機能が搭載された辞書検索専用装置、パーソナルコンピュータ、携帯電話、PDA(personal digital assistant)などの各種電子機器によって実現される。なお、通信電子辞書10は、インターネット14だけに限らず、公衆回線網などの各種通信系を含むネットワークを介して接続することもできる。
【0039】
通信電子辞書10は、見出し語情報と、その見出し語情報に対応して少なくとも1つの語義の分類情報(語義番号)ごとに分類された説明情報を記録する辞書データを有し、見出し語が選択される、あるいは文字列が入力されることで、この入力された見出し語(あるいは文字列)に対応する語義番号と説明情報とを検索して表示する電子辞書機能が搭載されている。通信電子辞書10は、通信機能によって、インターネット12を通じて、他の情報機器(電子辞書サーバ14、パーソナルコンピュータ、他の通信電子辞書など)との通信によりデータを送受信することができる。
【0040】
電子辞書サーバ14(電子辞書管理装置)は、辞書データ送信サービスを提供するもので、ネットワーク上のサーバシステムやパーソナルコンピュータなどの情報機器によって実現される。電子辞書サーバ14は、通信電子辞書10によって実行された検索結果の情報、例えば見出し語情報と語義番号とを、インターネット14を通じて受信し、この情報に対応する検索結果の情報を送信元の通信電子辞書10から指示された他の通信電子辞書10に対して送信する機能を有する。電子辞書サーバ14は、例えば見出し語情報と語義番号を他の通信電子辞書10に対して送信することで、他の通信電子辞書10において送信元の通信電子辞書10において実行された辞書検索によって得られた情報を出力(表示、音声出力)させることができる。また、電子辞書サーバ14は、送信先の通信電子辞書10に対して検索結果を送信する際に、検索結果の内容(説明情報など)を読み上げる音声データを作成して送信する機能をも有する。
【0041】
図2は、本実施形態における通信電子辞書10(10a,10b,10c,10d)の構成を示すブロック図である。通信電子辞書10は、見出し語情報と、その見出し語情報に対応して少なくとも1つの語義の分類情報(語義番号)ごとに分類された説明情報を記録する辞書の辞書データを有し、見出し語が選択される、あるいは文字列が入力されることで、この入力された見出し語(あるいは文字列)に対応する語義番号と説明情報とを検索して表示する電子辞書機能が搭載されている。通信電子辞書10は、さらに通信機能が搭載されており、インターネット12を通じて電子辞書サーバ14との間の通信により検索結果の履歴(ヒストリ)のデータを送受信することができる。ヒストリデータには、検索された見出し語だけでなく、見出し語に対して複数の語義がある場合にユーザが検索結果として選択した語義の語義番号を含んでいる。
【0042】
図2に示すように、通信電子辞書10は、CPU20がメモリ22、記録装置24、入力部26、表示部27、音声出力部28、及び通信部29と相互に接続されて構成される。
【0043】
CPU20は、通信電子辞書10全体の制御を司るもので、メモリ22に記録されたプログラムを実行することにより各種の処理を実行する。CPU20は、メモリ22に記録された辞書管理制御プログラム22a(電子辞書プログラム)を実行することにより、入力された文字列(見出し語)をもとに辞書データ22bを検索し、該当する見出し語に対応する説明情報を表示する電子辞書機能(辞書検索処理(図10、図11)、受信ヒストリ表示処理(図12))を実現する。
【0044】
メモリ22は、CPU20によってアクセスされるプログラムやデータが記録されるもので、本実施形態では例えば辞書管理制御プログラム22aなどの各種プログラムや、各プログラムを実行する際に用いられる各種データの他、作業用のデータを一時的に記録するためのワークエリアなどが設定される。辞書管理制御プログラム22aの実行に伴って格納される各種データとしては、見出し語情報と少なくとも1つの語義番号ごとに分類された説明情報とが関連付けられて記録された辞書の内容が電子化された辞書データ22b、辞書データ22bを用いた検索結果(見出し語、語義番号)の履歴を記録するMyヒストリデータ22c、他の通信電子辞書10において実行された検索結果を受信して記録する受信ヒストリデータ22d、他の通信電子辞書に対して送信した検索結果(見出し語、語義番号)の履歴を記録する送信ヒストリデータ22e、他の通信電子辞書の利用者に関するデータ、例えば、アドレス、利用者名、利用者の似顔絵を図像化したアイコンデータ、利用者が所持している通信電子辞書に搭載されている辞書名(辞書を識別する特定情報)などを含むデータが記録された似顔絵友達帳データ22f、電子辞書サーバ14から受信した他の通信電子辞書10により実行された検索結果と共に受信した有名人音声合成データ22g、他の通信電子辞書に対して検索結果と共に有名人音声合成データの送信を電子辞書サーバ14に対して要求するために用いられる有名人データ22h、辞書データ22bに記録されたデータ(例えばテキストデータ)をもとに検索結果を読み上げさせる音声の音声データを生成するための音声合成用データ22kなどが含まれる。
【0045】
なお、辞書データ22bには、辞書を識別する特定情報、すなわち辞書名のデータが付加されているものとする。また、似顔絵友達帳データ22fに登録されるデータ(アドレス、利用者名、アイコンデータ、辞書名など)は、必ずしも全てが登録されている必要はない。また、有名人データ22hには、電子辞書サーバ14において音声合成データを生成することができる複数の人物、ここでは歴史上の人物や著名人などの有名人に関するデータが含まれており、例えばそれぞれの有名人についての有名人名のデータと似顔絵を図像化したアイコンデータが含まれているものとする。アイコンデータは、送信先や有名人別・音声合成用データを指定させるための指定表示画面を表示する際に用いられる(図15(b)参照)。有名人データ22hは、電子辞書サーバ14からインターネット12を通じてダウンロードすることができるものとする。また、音声合成用データ22kには、限られた種類の音声を生成するためのデータのみが含まれているものとする(例えば男性音声と女性音声の2種類あるいは何れか1種類など)。また、辞書データ22bと対応づけて、各見出し語のそれぞれの語義についての先頭の内容(先頭データ)だけを登録したテーブル(語義見出しテーブル)が用意されていても良い。
【0046】
記録装置24は、記録媒体25を有しており、記録媒体25に対するプログラム、データ等の記録や読み出しを実行する。記録媒体25は磁気的、光学的記録媒体、もしくは半導体メモリで構成され、記録装置24に固定的に設けたもの、もしくは着脱自在に装着するものである。また、記録媒体25に記録されるプログラム、データ等は、通信回線等を介して接続された他の機器から受信して記録する構成にしても良く、さらに、通信回線等を介して接続された他の機器側に記録媒体を備えた記録装置を設け、この記録媒体に記録されているプログラムやデータを、通信回線を介して使用する構成にしても良い。
【0047】
入力部26は、複数の文字キーが配列されたキーボードや、マウスなどポインティングデバイスにより構成され、データや各種の指示を入力するために用いられる。また、入力部26には、上下左右方向を指示するためのカーソルキー、検索履歴を表示するヒストリーモードへの移行を指示するためのヒストリーキー、辞書データ22bの説明情報中に含まれる用例の表示を指示するための用例キー、検索に利用する辞書を選択するための辞書キー、入力した検索文字列(見出し語)に対する説明情報の表示や選択決定などを指示するための訳/決定キー、音声データの再生の実行を指示するための音声キーなどが設けられている。
【0048】
表示部27は、各種情報を表示するためのもので、メモリ22に格納された各種プログラムの実行に伴う画面を表示する。
音声出力部28は、各種音声を出力するためのもので、メモリ22に格納された各種プログラムの実行に伴う音声を出力する。特に音声出力部28は、辞書管理制御プログラム22aの実行に伴って、検索結果の内容(説明情報など)を読み上げる音声出力に用いられる。
通信部29は、CPU20の制御のもとで、インターネット12や各種ネットワークを介して他の情報機器(電子辞書サーバ14、パーソナルコンピュータ、他の通信電子辞書など)との通信を実行する。
【0049】
図3は、本実施形態における電子辞書サーバ14の構成を示すブロック図である。
図3に示すように、電子辞書サーバ14は、CPU30がメモリ32、記録装置34、入力部36、表示部37、及び通信部38と相互に接続されて構成される。
【0050】
CPU30は、電子辞書サーバ14全体の制御を司るもので、メモリ32に記録されたプログラムを実行することにより各種の処理を実行する。CPU30は、メモリ32に記録された辞書データ送信プログラム32aを実行することにより、インターネット12を通じて受信した検索結果を、指定された他の通信電子辞書10などに送信する辞書データ送信サービス機能(サーバ処理(図13))を実現する。
【0051】
メモリ32は、CPU30によってアクセスされるプログラムやデータが記録されるもので、本実施形態では例えば辞書データ送信プログラム32aなどの各種プログラムや、各プログラムを実行する際に用いられる各種データの他、作業用のデータを一時的に記録するためのワークエリアなどが設定される。辞書データ送信プログラム32aの実行に伴って格納される各種データとしては、通信電子辞書10に搭載された電子辞書機能で用いられる複数の異なる辞書に記録された共通する見出し語毎に、各辞書の見出し語に対応する語義の語義番号(分類情報)を複数の辞書間で同じ語義同士を関連づけて記録する語義リンクテーブル32b(詳細については後述する(図8、図9))、通信電子辞書10から受信した検索結果(見出し語、語義番号)を各通信電子辞書10毎に分類して記録する個別ヒストリデータ33c、個別ヒストリデータ33cに記録された検索結果を指定された送信先に送信する際に、検索結果の内容を特定の音質による音声、すなわち本実施形態では有名人による音声によって読み上げる音声データを生成するための有名人別・音声合成用データ33dなどが含まれている。有名人別・音声合成用データ33dは、例えば著名人や歴史上の人物の顔や年齢から顔骨格データを作成して、その人が発する音声の特徴をもった音声を合成する技術を用いて作成される。この有名人別・音声合成用データ33dを用いることで、例えばテキストデータから、それを著名人や歴史上の人物などの有名人が読み上げた場合の擬似音声を合成することができる。
【0052】
記録装置34は、記録媒体35を有しており、記録媒体35に対するプログラム、データ等の記録や読み出しを実行する。記録媒体35は磁気的、光学的記録媒体、もしくは半導体メモリで構成され、記録装置34に固定的に設けたもの、もしくは着脱自在に装着するものである。また、記録媒体35に記録されるプログラム、データ等は、通信回線等を介して接続された他の機器から受信して記録する構成にしても良く、さらに、通信回線等を介して接続された他の機器側に記録媒体を備えた記録装置を設け、この記録媒体に記録されているプログラムやデータを、通信回線を介して使用する構成にしても良い。
【0053】
入力部36は、複数の文字キーが配列されたキーボードや、マウスなどポインティングデバイスにより構成される。
【0054】
表示部37は、各種情報を表示するためのもので、メモリ32に格納された各種プログラムの実行に伴う画面を表示する。
通信部38は、CPU30の制御のもとでインターネット12を通じて他の電子機器(通信電子辞書10など)との通信を実行する。
【0055】
次に、通信電子辞書10において扱われる各データの詳細について説明する。
図4には、Myヒストリデータ22cとして記録されるデータの一例を示している。図4に示すように、検索結果の履歴として、辞書データ22bに対する検索対象となった見出し語と、この見出し語に対応する少なくとも1つある語義から選択された語義の品詞及び語義番号と、検索が実行された日付を示すデータとが対応づけられて順次記録される。
【0056】
図5には、受信ヒストリデータ22dとして記録されるデータの一例を示している。図5に示すように、電子辞書サーバ14を通じて受信した他の通信電子辞書10における検索結果として、見出し語、品詞、語義番号と共に、送信者名、検索が実行された日付、音声データ管理用の各データが対応づけて順次記録される。音声データ管理用データには、音声データの有無と、音声データ有りの場合に音声データの生成に用いた音声合成用データが何れの有名人(人物)のものであるかを示すデータが含まれる。例えば、図5の見出し語「life」に対応する音声データ管理用データには、音声データ「有」、有名人名「マリ*ン」が記録されている。
【0057】
図6には、送信ヒストリデータ22eとして記録されるデータの一例を示している。図6に示すように、電子辞書サーバ14を通じて他の通信電子辞書に対して送信した検索結果として見出し語、品詞及び語義番号の他、送信先名、送信日を示す日付、音声データ管理用の各データが対応づけて順次記録される。音声データ管理用データには、音声データの有無と、音声データ有りの場合に音声データの生成に用いた音声合成用データが何れの有名人のものであるかを示すデータが含まれる。例えば、検索結果として、見出し語「problem」、語義番号「1」、品詞「名(名詞)」については、友人の「ミユキ」「アミ」に対して、11月25日に、音声データ「有」、有名人「マリ*ン」の音声合成用のデータを用いて合成された音声データを共に送信したことを示すデータが記録されている。
【0058】
図7には、似顔絵友達帳データ22fとして記録されるデータの一例を示している。図7に示すように、似顔絵友達帳データ22fには、他の通信電子辞書の利用者、すなわち検索結果の送信先に関するデータとして、例えば利用者名(名前)、アドレス、利用者の似顔絵を図像化したアイコンデータ、利用者が所持している通信電子辞書に搭載されている辞書名(辞書を識別する特定情報)などを含むデータが対応づけて記録されている。例えば、利用者「ミユキ」が使用している通信電子辞書10では、辞書名「ニュ○セ○チュリー英和辞書」の辞書データ22bが搭載されていることを示している。
【0059】
次に、電子辞書サーバ14において管理される語義リンクテーブル32bの詳細について説明する。図8及び図9には、本実施形態における語義リンクテーブル32bのデータ構成の一例を示している。
【0060】
語義リンクテーブル32bは、複数の異なる辞書に記録された共通する見出し語毎に、各辞書の見出し語に対応する語義の語義番号(分類情報)を複数の辞書間で同じ語義同士を関連づけて記録するもので、異なる辞書の辞書データにそれぞれ対応する複数の語義見出しテーブルを組み合わせて作成されている。語義見出しテーブルは、通信電子辞書10で用いられる辞書(辞書データ22b)に登記憶されている見出し語毎に、見出し語に対して辞書データ22bに登録されている説明情報の一部として、品詞と語義番号(語義の分類情報)と説明情報のうち先頭部分にあるデータ(先頭データ)とが対応づけられて格納されている。1つの見出し語に対して複数の品詞についての説明情報が記録されている場合には、各品詞のそれぞれについての先頭データが記録されている。また、1つの見出し語について複数の語義についての説明内容が記録される場合には、語義のそれぞれについての先頭データが語義番号と対応づけて記録されている。
【0061】
例えば、図8及び図9に示すジ○ニアス英和辞書に対応する語義見出しテーブルでは、見出し語「life」については、品詞として「名(名詞)」が登録されているが、この品詞について12つの語義番号1〜12が記録されており、それぞれの語義番号1〜12に対応する先頭データ、すなわち[生命、命…][生物、生き物…][人生、この世に生きること]…がそれぞれの語義番号と対応づけられて記録されている。図8及び図9には、その他にもニュ○セ○チュリー英和辞書、デ○リーコ○サイス英和辞書についての語義見出しテーブルが含まれている。
【0062】
そして、各辞書(ジ○ニアス英和辞書、ニュ○セ○チュリー英和辞書、デ○リーコ○サイス英和辞書)に対応する語義見出しテーブルは、各見出し語毎に、各辞書の見出し語に対応する語義の語義番号を複数の辞書間で同じ(あるいは類似した)語義同士を関連づけている。
【0063】
例えば、見出し語「life」に対応する語義「生命」については、ジ○ニアス英和辞書の語義番号「1」、ニュ○セ○チュリー英和辞書の語義番号「1」、デ○リーコ○サイス英和辞書の語義番号「2」とが対応付けられている。なお、図9に示す見出し語「remember」のように、例えばデ○リーコ○サイス英和辞書のみに「遺産を残してくれる」の語義が登録されており、ジ○ニアス英和辞書及びニュ○セ○チュリー英和辞書には該当する語義が登録されていない。こうした場合、見出し語「remember」に対して語義番号として「0」を記録しておく。
【0064】
なお、図8及び図9に示す語義リンクテーブル32bでは、各辞書毎に見出し語と対応づけて品詞、語義番号、及び先頭データとを対応づけて登録しているが、見出し語と対応づけて語義番号のみが登録された構成とすることもできる。
【0065】
次に、本実施形態における通信電子辞書10の動作について、図10乃至図12に示すフローチャートを参照しながら説明する。ここでは、通信電子辞書10aの利用者の名前が「タロウ」であり、同様にして、通信電子辞書10bの利用者は「ミユキ」、通信電子辞書10cの利用者は「アミ」、通信電子辞書10dの利用者は「ツヨシ」であるとして説明する。
【0066】
まず、通信電子辞書10における辞書検索処理について、図10及び図11に示すフローチャートを参照しながら説明する。
【0067】
例えば「タロウ」は、教科書に掲載された英文中の単語の意味を通信電子辞書10を使って調べるものとする。「タロウ」は、通信電子辞書10に用意されているジ○ニアス英和辞書辞書(辞書データ22b)を検索対象とする辞書として、例えば「英和」辞書を示す辞書キーを押すことで指定する。CPU20は、辞書キーが押されることで、英和辞書を検索する辞書モードに移行する。英和辞書を検索する辞書モードの初期画面では、検索文字列を入力するための入力欄の他、Myヒストリデータ22c、受信ヒストリデータ22d、送信ヒストリデータ22eの内容を表示するためのタグ(「MYヒストリ」「受信ヒストリ」「送信ヒストリ」)が設けられている。
【0068】
CPU20は、入力部26を通じて「タロウ」により、検索対象とする検索文字列(単語)が入力され(ステップA1)、「訳/決定」キーの操作によって検索実行が指示されると、この検索文字列(単語)について辞書データ22bに登録された見出し語を対象として検索を実行する(ステップA2)。
【0069】
例えば、図14(a)に示すように、検索対象とする辞書として「英和」(ここではジ○ニアス英和辞書を示す)が指定され、検索文字列として図7(a)に示す英文中の単語「life」が入力されたものとする。
【0070】
CPU20は、辞書データ22bから検索対象とする検索文字列(単語)に該当する見出し語が得られると、その見出し語と、この見出し語に対応する各語義の語義番号と説明情報とを表示部27において一覧表示させる(ステップA3)。例えば、図14(b)に示すように、見出し語(検索文字列)「life」に対応する複数の語義の語義番号と先頭データの内容が、表示部27の画面で表示可能な分(ここでは語義番号1〜5)について表示される。
【0071】
また、CPU20は、この検索によって得られた検索結果、すなわち現在検索対象となった見出し語を示すデータをMYヒストリデータ22dに仮登録し(ステップA4)、表示画面中に設けられたヒストリ表示エリア(例えば表示画面中の上部に設けられる)に、MYヒストリデータ22dから最後に登録された順に3単語を読み出して表示させる(ステップA5)。図14(b)に示す例では、「in shape」「kind」「life」の単語がMYヒストリデータ22dの最新3単語として表示されている。
【0072】
ここで、上または下方向のスクロールキーが押された場合(ステップA7)、CPU20は、反転カーソルの位置を現在の語義番号から上または下の次の語義番号に移動させる。そして、スクロールキーが繰り返し押され、反転カーソルの位置が画面端の語義番号にまで移動されると、画面スクロールさせて新たな語義番号に反転カーソルの位置を移動させて、この語義番号に対応する説明情報を表示させる(ステップA8)。こうして、任意の語義についての説明情報を表示させることができる。
【0073】
説明情報には語義に対して「用例」に関する情報が付加されている。そして、この「用例」の情報が付加された語義に対しては「用例」を表す記号が表示されている。CPU20は、用例キーが押されると(ステップA11)、その時の反転カーソルが位置している語義番号に対応する説明情報に「用例」の情報が付加されていれば用例表示モードへ移行し、その語義についての「用例」の情報を表示させる。また、辞書キーが押されると(ステップA12)、CPU20は、指定された辞書を検索対象として辞書検索処理を実行するための辞書モードに移行する。
【0074】
また、音声キーが押された場合(ステップA9)、CPU20は、現在、反転カーソルによって指定されている見出し語の語義の内容を読み上げるための音声データを生成し、この音声データに基づく音声を音声出力部28から出力させる(ステップA10)。この際、CPU20は、例えば辞書データ22bに記録されている指定された見出し語の語義のデータ(例えばテキストデータ)をもとに、音声合成用データ22kを用いて音声データを生成する。
【0075】
一方、見出し語に対する語義番号と各語義の説明情報が一覧表示されている状態でヒストリキーが押された場合(ステップA6、Yes)、CPU20は、ヒストリモードに移行し、ヒストリ表示エリアの現在の見出し語(ここでは「life」)を例えば反転表示などによって強調表示する。そして、検索結果として表示されている見出し語に対する複数の語義についての一覧表示において、最初の語義(例えば語義番号のみ)を例えば反転カーソル表示などにより強調表示する(ステップA13)。例えば、図14(c)に示すように、「ヒストリ」キーを押すことで、ヒストリ表示エリア中の最新の見出し語「life」が反転表示されると共に、検索結果として一覧表示されている語義番号「1」が反転カーソル表示される。
【0076】
ここで、上または下方向のスクロールキーが押された場合(ステップA14)、CPU20は、反転カーソルの位置を現在の語義番号から上または下の次の語義番号に移動させる。そして、スクロールキーが繰り返し押され、反転カーソルの位置が画面端の語義番号にまで移動されると、画面スクロールさせて新たな語義番号に反転カーソルの位置を移動させて、この語義番号に対応する説明情報を表示させる(ステップA15)。例えば、図15(a)に示すように、下スクロールキーが複数回押されることで、語義番号「6」に移動され、それに伴って画面スクロールにより語義番号「6」の説明情報を表示させる。また、Myヒストリデータ22cに仮登録された最新の単語(ここでは「life」)に対して指定された語義番号「6」と品詞「名(名詞)」を追加登録し、ヒストリ表示エリアにおいて見出し語と共に品詞と語義番号とを表示させる。
【0077】
ここで、「訳/決定」キーが押された場合(ステップA16、Yes)、CPU20は、検索結果の送信先と有名人音声を指定するための指定表示画面(サブウィンドウ)を表示させる(ステップA17)。CPU20は、似顔絵友達帳データ22fに予め記録されている他の通信電子辞書の利用者に関するデータをもとに、利用者名と利用者の似顔絵を図像化したアイコンとを対応づけて一覧表示し、また有名人音声合成データ22gに含まれる有名人名のデータとアイコンデータをもとに、有名人名と有名人の似顔絵を図像化したアイコンとを対応づけて一覧表示する。
【0078】
例えば、図15(b)に示すように、送信先と有名人音声の指定表示画面を表示する。図15(b)に示す例では、送信先として、「ミユキ」「アミ」「ツヨシ」などの利用者(友人)の名前とアイコンとが対応付けて表示されている。また、検索結果を他の通信電子辞書に対して送信しないことを指示するための「送信せず」の項目も用意されている。また、「マリ*ン」「ジョンレ*ン」などの有名人の名前とアイコンとが対応付けて表示されている。また、有名人音声無しを指示するための「音声なし」の項目も用意されている。さらに、指定表示画面における指定内容の最終確認を指示するための項目(「よろしいですか?」[はい][いいえ])が用意されている。
【0079】
なお、指定表示画面の初期状態では「送信せず」「音声なし」、「試聴する?」[いいえ]、「よろしいですか?」[はい]が指定された状態にあるものとする。また、有名人の何れかが指定された場合には、「試聴する?」[はい]、「よろしいですか?」[いいえ]に自動設定して、ユーザによる変更操作が必要となるようにし、不用意に検索結果の送信が実行されないようにする。
【0080】
ここで、「送信せず」が指定され、「よろしいですか?」の項目で「はい」が指定された状態で「訳/決定」キーが押された場合には(ステップA19)(図15(b))、CPU20は、見出し語と反転カーソルによって指定されている語義番号と品詞を示すデータとを、Myヒストリデータ22cに登録して辞書検索処理を終了する(ステップA20)。
【0081】
一方、例えば左右方向のカーソルキーが押されることで、「友人のアイコン」が指定された場合(ステップA18、Yes)、CPU20は、指定された友人に対して検索結果を送信するための処理を実行する。
【0082】
例えば、図15(c)では、右カーソルキーが押されることで、送信先の指定表示画面において「ミユキ」と「アミ」(ここでは2人)が送信先として指定されている。なお、送信先としては複数指定するだけでなく、当然ながら1人毎に指定することができる。
【0083】
ここで、下カーソルキーが押された場合には、CPU20は、指定対象項目を有名人音声の有無に変更して、カーソル(図15中、矩形枠で表す)を[音声なし]の位置に変更する。ここでは、左右カーソルキーの操作によって何れかの有名人を選択することができる。ここで、左右カーソルキーが操作されると、CPU20は、その操作に応じて、有名人名とアイコンの位置に順次カーソルを移動させる。
【0084】
何れかの有名人が指定され(ステップA21,A22)、「試聴する?」の項目が[はい]に選択された状態で「訳/決定」キーが押された場合(ステップA23,A24)、CPU20は、指定された有名人と、辞書データ22bに付加された辞書名のデータ(辞書を識別する特定情報)と、先に指定されている見出し語の語義番号の情報と共に試聴用音声データの送信要求を、通信部29からインターネット12を通じて電子辞書サーバ14に送信する(ステップA25)。
【0085】
例えば、図15(c)に示す指定表示画面では、有名人として「マリ*ン」が指定され、「試聴する?」の項目が[はい]に選択された状態で「訳/決定」キーが押されたことで、有名人「マリ*ン」の情報が見出し語「life」の語義番号「6」の情報と共に電子辞書サーバ14に対して送信される。
【0086】
通信電子辞書10は、電子辞書サーバ14に対して、有名人と見出し語の語義番号の情報を送信することで、この送信した見出し語の語義番号に該当する内容を指定した有名人の音声によって読み上げる有名人音声合成データを電子辞書サーバ14から受信する。なお、電子辞書サーバ14が通信電子辞書10に対して有名人音声合成データを送信する処理については後述する(図12、サーバ処理)。
【0087】
CPU20は、通信部29を通じて有名人音声合成データを受信すると、有名人音声合成データ22gとして記録すると共に、このデータをもとに音声出力部28から音声を出力させる(ステップA26)。例えば、図15(c)に示すように、見出し語「life」の語義番号「6」に対応する内容「生活、暮し(方)、生き方、country life、いなかの生活…」を有名人「マリ*ン」の音声によって出力させる。
【0088】
これにより、通信電子辞書10のユーザ(例えば「タロウ」)は、送信先として指定している「ミユキ」「アミ」に対して電子辞書サーバ14から送信される有名人音声合成データによって出力される音声内容を確認することができる。なお、ここで出力された音声を確認することで別の有名人の音声を送信したい場合には、カーソルキーの操作によって別の有名人(例えば「ジョンレ*ン」)を指定して、前述と同様にして、その指定した有名人の音声によって読み上げられる内容を確認することができる。
【0089】
ここで、カーソルキーの操作により、最終確認のための項目「よろしいですか?」が[はい]に指定され、「訳/決定」キーが押された場合(ステップA27)、CPU20は、送信先として指定された「友人」(ここでは「ミユキ」「アミ」)について、似顔絵友達帳データ22fを参照して、友人が所持している通信電子辞書のアドレスと辞書名のデータを読み出し、このデータとMyヒストリデータ22cに登録されたデータ、すなわち見出し語、語義番号(及び品詞のデータ))と共に、辞書データ22bに付加された辞書名のデータ、指定表示画面で指定された有名人の情報を、他の端末への送信依頼と共に電子辞書サーバ14に通信部29を通じて送信する(ステップA31)。
【0090】
そして、CPU20は、送信したヒストリデータ(見出し語、語義番号(及び品詞))と辞書名のデータの他、送信先名、日付、音声データ管理用データの各データを送信ヒストリデータ22eとして記録する(ステップA30)。例えば、図6に示す送信ヒストリデータ22eでは、見出し語「life」に対しては、品詞「名(名詞)」、語義番号「6」、送信先名「ミユキ・アミ」、日付「11/25」、音声データ管理用データ「有(有名人指定有り)、マリ*ン(有名人名)」が記録されている。
【0091】
CPU20は、電子辞書サーバ14に対して、検索結果の他の端末への送信依頼が完了すると、図16(a)に示すように、表示部27における表示画面を元の検索結果を表示する画面に戻す。
【0092】
こうして、「タロウ」は通信電子辞書10における辞書(ジ○ニアス英和辞書)を用いた検索結果(ヒストリデータ)の友人への送信依頼を、検索結果の内容を読み上げる有名人を指定して電子辞書サーバ14に対して要求をすることができる。
【0093】
一方、送信先と有名人音声の指定表示画面において「音声なし」が指定され、最終確認のための項目「よろしいですか?」が[はい]に指定され、「訳/決定」キーが押された場合(ステップA28)、CPU20は、送信先として指定された「友人」について、似顔絵友達帳データ22fを参照して、友人が所持している通信電子辞書のアドレスと辞書名のデータを読み出し、このデータとMyヒストリデータ22cに登録されたデータ、すなわち見出し語、語義番号(及び品詞のデータ))と共に、辞書データ22bに付加された辞書名のデータ(辞書を識別する特定情報)を、他の端末への送信依頼と共に電子辞書サーバ14に通信部29を通じて送信する(ステップA29)。
【0094】
そして、CPU20は、送信したヒストリデータ(見出し語、語義番号(及び品詞))と辞書名のデータの他、送信先名、日付、音声データ管理用データの各データを送信ヒストリデータ22eとして記録する(ステップA30)。
【0095】
こうして、「タロウ」は、例えば教科書に記載されている単語「problem」「remember」「precious」について、前述と同様にして通信電子辞書10(ジ○ニアス英和辞書)を用いて検索を実行し、検索結果ヒストリデータ、すなわち「problem、名、1」「remember、動他、2」「precious、形、1」を「ミユキ」「アミ」に対して送信したものとする。
【0096】
この他の通信電子辞書に対して送信したヒストリデータは、送信ヒストリデータ22eとして記録される。ここで、「英和」辞書を示す辞書キーが押され、英和辞書を検索する辞書モードに移行すると、CPU20は、英和辞書を検索する辞書モードの初期画面を表示させる。ここで、例えば図16(b)に示すように、右カーソルキーが2回押されることで、「送信ヒストリ」タグが指定されると、CPU20は、受信ヒストリデータ22dの内容、すなわち見出し語、語義番号、及び品詞と対応づけて、送信先の友人の似顔絵を表すアイコンと日付と共に、見出し語と語義番号から検索される辞書データ22bの説明情報を表示する。
図16(b)に示す例では、友人の「ツヨシ」に対して、11月23日に見出し語「kind」についてのヒストリデータを送信し、「ミユキ」「アミ」に対して、11月25日に見出し語「life」「problem」「remember」「precious」についてのヒストリデータを送信したことが分かる。
なお、友人の似顔絵のアイコンを表示させることで、視覚的に容易に送信先の相手を把握し、通信電子辞書10を用いて検索の対象となった書籍など(例えば送信者が同じクラスに所属していれば授業で使用する教科書など)を推測することができる。また、日付を表示させることで、送信者と日付をもとにして、必要としているヒストリ(検索結果)であるかを推測することができる。例えば、当日の日付であれば、翌日の英語の授業で扱われる教科書中の単語の検索結果であることが推測できる。
【0097】
次に、電子辞書サーバ14におけるサーバ処理について、図12に示すフローチャートを参照しながら説明する。
CPU30は、通信部38を通じて端末からの通信があると(ステップC1)、他の端末へのヒストリデータの送信依頼であるか、あるいは試聴用音声データの送信要求であるかを判別する(ステップC2)。
【0098】
ここで、試聴用音声データの送信要求であった場合(ステップC2、No)、CPU30は、送信元の通信電子辞書10において(図11、ステップA25)指定された有名人と辞書名と見出し語の語義番号の情報を取得できた場合(ステップC8)、辞書名に該当する語義見出しテーブルが語義リンクテーブル32bにあるか判別する(ステップC9)。ここで、該当する語義見出しテーブルがある場合、CPU30は、語義リンクテーブル32bの該当する語義見出しテーブルを対象として、指定された見出し語の語義番号に対応する先頭データを読み出す(ステップC10)。
【0099】
そして、CPU30は、有名人別・音声合成用データ33dとして予め用意されている複数の有名人についての音声合成用データのうち、送信元の通信電子辞書10において指定された有名人音声合成用のデータを用いて、語義リンクテーブル32bから読み出された先頭データを読み上げる有名人の音声による音声データ(試聴用有名人音声合成データ)を生成して、通信部38を通じて要求元の通信電子辞書10に対して送信する(ステップC11)。この際、有名人音声合成データを格納するファイルを圧縮することでデータ量を少なくし、送信コストを低減させるようにしても良い。
【0100】
有名人音声合成データを受信した通信電子辞書10では、有名人音声合成データを再生することで、辞書の内容(先頭データ)を有名人の音声によって読み上げ(試聴)させることができる(図11、ステップA25)。
【0101】
一方、通信電子辞書10からの通信により他の端末へのヒストリデータの送信依頼を受信した場合(ステップC2、No)、CPU30は、通信電子辞書10から受信した送信元の通信電子辞書10で使用されている辞書(以下、送信元辞書と称する)の辞書名と送信先の通信電子辞書10で使用されている辞書(以下、送信先辞書と称する)の辞書名のデータをもとに、それぞれの辞書名に該当する語義見出しテーブルが語義リンクテーブル32bにあるか判別する(ステップC3)。ここで、該当する語義見出しテーブルがある場合、CPU30は、語義リンクテーブル32bの送信元辞書に該当する語義見出しテーブルを対象として、受信したヒストリデータ中の見出し語の語義番号に対応する送信先辞書の語義番号を読み出す(ステップC4)。
【0102】
例えば、「タロウ」が使用する通信電子辞書10aの送信元辞書がジ○ニアス英和辞書であり、見出し語「life」の語義番号「6」を取得し、送信先辞書(「ミユキ」が使用している通信電子辞書10bに搭載されている辞書)がニュ○セ○チュリー英和辞書であれば、図8に示す語義リンクテーブル32bに関連付けられた語義番号をもとに、ジ○ニアス英和辞書における見出し語「life」の語義番号「6」(「生活、暮らし(方)、生き方…」の語義を示す)に対応する、ニュ○セ○チュリー英和辞書用の語義番号「13」(「(特定の)生活…、暮らし方…」の語義を示す)を読み出す。
【0103】
CPU30は、指定された送信先の他の通信電子辞書に対してヒストリデータ、すなわち見出し語、語義リンクテーブル32bを用いて送信先の辞書に合わせて変換した語義番号(及び品詞のデータ)、送信先の辞書名のデータ(辞書を識別する特定情報)、及び送信者名の各データを、通信部28を通じて送信する(ステップC5)。
【0104】
また、送信元の通信電子辞書10から「有名人の情報」を受信している場合(ステップC6、Yes)、CPU30は、有名人別・音声合成用データ33dとして予め用意されている複数の有名人についての音声合成用データのうち、送信元の通信電子辞書10において指定された有名人音声合成用のデータを用いて、語義リンクテーブル32bから読み出された先頭データを読み上げる有名人の音声による音声データ(有名人音声合成データ)を生成して、通信部38を通じて送信先の通信電子辞書10に対して送信する(ステップC7)。この際、有名人音声合成データを格納するファイルを圧縮することでデータ量を少なくし、送信コストを低減させるようにしても良い。
【0105】
また、有名人音声合成データに、該当する有名人名を示すデータとアイコン(例えば有名人の似顔絵)を表示するためのアイコンデータを付加して送信するようにしても良い。これにより送信先の通信電子辞書10に有名人データが記録されていなくても、有名人名とアイコンとを表示させることができる。
【0106】
なお、前述した説明では、電子辞書サーバ14では送信元の通信電子辞書10から指定された有名人の声を出力させるための有名人音声合成データ(試聴用も含む)を、語義リンクテーブル32bに記録された見出し語の各語義番号に対応する先頭データを対象にして生成しているが、通信電子辞書10で使用されている辞書(ジ○ニアス英和辞書、ニュ○セ○チュリー英和辞書、デ○リーコ○サイス英和辞書など)の辞書データを記録しておくことで、先頭データだけではなく、辞書データ中の説明情報の全てを読み上げるための有名人音声合成データを生成するようにしても良い。説明情報に「用例」などの付加情報がある場合には、これら「用例」を読み上げるための有名人音声合成データを生成することもできる。
【0107】
このようにして、電子辞書サーバ14におけるサーバ処理では、送信元の通信電子辞書10における辞書(例えば、ジ○ニアス英和辞書)を用いた検索結果(ヒストリデータ)を、送信先の通信電子辞書に搭載されている辞書(例えば、ニュ○セ○チュリー英和辞書)に合わせて、検索対象となった見出し語の語義番号に変換して送信することができる。この際、送信元から検索結果を読み上げるための「有名人の情報」を取得している場合には、指定された有名人の擬似音声によって検索結果を読み上げる音声合成データを生成して、送信先の通信電子辞書10に対して送信することができる。
【0108】
なお、図12に示すサーバ処理では、送信元の通信電子辞書10から受信した見出し語と語義番号を、語義リンクテーブル32bを用いて送信先の辞書における見出し語の語義番号に変換して、ヒストリデータとして送信先の通信電子辞書10に送信しているが、語義番号だけでなく語義の内容(説明情報)を送信先の通信電子辞書10に送信するようにしても良い。例えば、語義リンクテーブル32bに記録された送信先の辞書(送信元の通信電子辞書10により指定された辞書)の先頭データ(説明情報の一部)を送信する。また、電子辞書サーバ14に各通信電子辞書10に搭載される辞書が記録されている場合には、該当する語義の説明情報の全てを送信するようにしても良い。
【0109】
こうして、電子辞書サーバ14から辞書の内容(説明情報)を送信先の通信電子辞書10に送信することで、送信先の通信電子辞書10に辞書が搭載されていなくても辞書を利用することができる。例えば、通信電子辞書10が携帯電話などによって実現され記憶容量に制限があるために辞書データの全てを記録できない場合であっても、他の通信電子辞書10から提供される有効な辞書検索結果については詳細な説明情報を取得することができるようになる。
【0110】
なお、送信先の通信電子辞書10に説明情報を送信する場合、送信先の通信電子辞書10に搭載された辞書における説明情報ではなく、送信元の通信電子辞書10に搭載された辞書の説明情報を送信するようにしても良い。また、送信先の通信電子辞書10に対しては、常に該当する語義の説明情報(あるいはその一部)を常に送信するようにしても良いし、送信先の辞書が予め決められた特定の辞書、例えば情報量が少ない辞書である場合に説明情報を送信するようにしても良い。
【0111】
次に、通信電子辞書10における受信ヒストリ表示処理について、図13及び図10(前述した辞書検索処理の一部)に示すフローチャートを参照しながら説明する。
【0112】
ここでは、ユーザ「ミユキ」が使用する通信電子辞書10bを対象として、電子辞書サーバ14を通じて、他の通信電子辞書からヒストリデータを受信する場合について説明する。
【0113】
例えばユーザ「ミユキ」は、通信電子辞書10に用意されているニュ○セ○チュリー英和辞書(辞書データ22b)を検索対象とする辞書として、例えば「英和」辞書を示す辞書キーを押すことで指定する。CPU20は、辞書キーが押されることで、英和辞書を検索する辞書モードに移行する。英和辞書を検索する辞書モードの初期画面では、検索文字列を入力するための入力欄の他、Myヒストリデータ22c、受信ヒストリデータ22d、送信ヒストリデータ22eの内容を表示するためのタグ(「MYヒストリ」「受信ヒストリ」「送信ヒストリ」)が設けられている。例えば、図17(a)に示すように、「MYヒストリ」「受信ヒストリ」「送信ヒストリ」タグが表示された初期画面が表示される(「MYヒストリ」が選択された状態)。ここでは、任意にタグを指定して、該当するヒストリの内容を一覧表示させることができる。
【0114】
ここで、通信電子辞書10は、電子辞書サーバ14から通信部29を通じてヒストリデータの受信があった場合(ステップB1、Yes)、先頭の受信したヒストリデータを指定し(ステップB9)、その受信したヒストリデータ(見出し語、辞書名、語義番号(及び品詞)、送信者名を示す各データ)を読み出す(ステップB3)。
【0115】
そして、CPU30は、受信したヒストリデータについての見出し語、辞書名、語義番号(及び品詞)、送信者名を示す各データを、受信ヒストリデータ22dとして登録する(ステップB4)。また、CPU30は、ヒストリデータを受信した日付のデータを対応づけて登録する。
【0116】
ここで、ヒストリデータと共に有名人音声合成データを受信した場合(ステップB5、Yes)、CPU30は、受信した有名人音声合成データを有名人音声合成データ22gとして保存する(ステップB6)。この際、有名人音声合成データにアイコンデータが付加されていた場合には、有名人音声合成データと関連付けてアイコンデータも保存する。また、CPU30は、受信ヒストリデータ22dの音声データ管理用データに、音声データ有りを示すデータと共に、有名人を示すデータを登録する(ステップB7)。例えば、図5に示す見出し語「life」に対する音声データ管理用データには、音声データ「有り」を示すデータと、有名人名として「マリ*ン」が登録されている。
【0117】
以下、同様にして、電子辞書サーバ14から受信したヒストリデータが他にあれば、同様の処理をそれぞれのヒストリデータに対して繰り返して実行する(ステップB3〜B8)。
【0118】
全ての受信したヒストリデータを受信ヒストリデータ22dとして登録すると(ステップB8、No)、CPU20は、受信ヒストリデータ22dをもとに受信ヒストリを一覧表示させる(ステップB9)。なお、「英和」辞書モードに移行した初期画面において、図17(b)に示すように、例えば右カーソルキーが押された場合に、選択タグを「受信ヒストリ」に移動させて、受信ヒストリデータ22dをもとに受信ヒストリを一覧表示させることもできる。
【0119】
CPU20は、受信ヒストリデータ22dから見出し語、語義番号(自辞書用)、品詞のデータを表示する。また、このデータと対応づけて送信者名のデータに応じて似顔絵友達帳データ22fから読み出したアイコンデータによる友人のアイコン(似顔絵アイコン)と受信日とを表示させる。また、受信したヒストリデータの見出し語と自辞書用に変換された語義番号に応じて、辞書データ22bから該当する語義の内容(説明情報)を読み出して表示する。なお、通信電子辞書10の辞書データ22bと対応づけて、各見出し語のそれぞれの語義についての先頭の内容だけを登録したテーブル(語義リンクテーブル32bの語義見出しテーブルに相当するもの)が記憶されている場合には、受信したヒストリデータの見出し語と語義番号をもとに、このテーブルを検索して該当する語義の先頭データのみを取得して一覧表示に供することができる。
【0120】
また、ヒストリデータと共に有名人音声合成データを受信している場合には、有名人のアイコンデータをもとにして、音声出力が可能であることを表すようにアイコンを表示させる。図17(b)に示す一覧表示の例では、各見出し語について同じ有名人「マリ*ン」のアイコンデータが表示されている。なお、アイコンは、単なる有名人の似顔絵を表すだけでなく、音声付きであることが明示されるように「吹き出し」の形状パターンが付加されている。「吹き出し」が付加された有名人のアイコンの詳細を図18(b)に示している。
【0121】
また、CPU20は、受信ヒストリの表示エリアにおいて、現在選択されている見出し語(初期段階では先頭の見出し語)(品詞及び語義番号を含む)に反転カーソルを設定し、反転表示により強調する(ステップB10)。
【0122】
ここで、上または下方向のスクロールキーが押された場合(ステップB11)、CPU20は、反転カーソルの位置を現在の見出し語から上または下の次の見出し語に移動させる。そして、スクロールキーが繰り返し押され、反転カーソルの位置が画面端の見出し語にまで移動されると、画面スクロールさせて新たな見出し語に反転カーソルの位置を移動させて、この見出し語に対応する先頭データを表示させる(ステップB12)。こうして、何れかの見出し語と語義番号の組みを任意に選択することができる。例えば、図17(c)は、受信ヒストリに一覧表示された複数のヒストリデータから見出し語「life」が反転カーソルによって選択されている状態を表している。
【0123】
ここで、「音声」キーが押された場合(ステップB13、Yes)、CPU20は、反転カーソルによって指定されている見出し語と語義に対応する有名人音声合成データを記録していれば、音声出力部28によって該当する有名人音声合成データを再生させて、見出し語に対応する説明情報(この場合では先頭データ)を読み上げる有名人の擬似音声を出力させる(ステップB14)。
【0124】
同様にして、カーソルキーの操作によって任意の見出し語(語義)を指定し、「音声」キーを押すことで、該当する見出し語の語義の内容(先頭データ)を有名人の音声によって読み上げさせることができる(ステップB11〜B14)。
【0125】
また、何れかの見出し語が反転カーソルによって指定された状態で「訳/決定」キーが押された場合(ステップB15)、CPU20は、現在選択されている見出し語及び語義番号に応じて、辞書データ22bから対応する説明情報を読み出して表示させる(ステップB16)。また、CPU20は、この検索によって得られた検索結果、すなわち現在検索対象となった見出し語を示すデータをMYヒストリデータ22dに登録し、表示画面中に設けられたヒストリ表示エリア(例えば表示画面中の上部に設けられる)に、MYヒストリデータ22dから最後に登録された順に3単語を読み出して表示させる(ステップB17)。図18(a)に示す例では、「remember」「problem」の他、最後に説明情報を表示させた「life」の単語がMYヒストリデータ22dの最新3単語として表示されている。
【0126】
なお、説明情報を表示する画面中においても、電子辞書サーバ14から有名人音声合成データを受信していることを表すように有名人のアイコンを表示させている。図18(a)に示す例では、画面右上隅に有名人「マリ*ン」のアイコン(詳細は図18(b)に示す)を表示している。
【0127】
以下、「ミユキ」が使用する通信電子辞書10bでは、前述した辞書検索処理におけるステップA6以降の処理を実行することができる。例えば、上下カーソルキーの操作によって、前後の語義の説明情報を表示させたり(ステップA7,A8)、説明情報中の「用例」を選択して用例の内容を表示させるといったことができる(ステップA11)。また、「音声」キーが押された場合(ステップA9)、CPU20は、現在表示中の見出し語と語義に対応する有名人音声合成データ(ここでは語義の先頭データに対応する)が記録されていれば、この該当する有名人音声合成データを音声出力部28によって再生させて、見出し語に対応する説明情報を読み上げる有名人の擬似音声を出力させる(ステップA10)。
なお、電子辞書サーバ14から該当する見出し語の語義の説明情報(用例などの内容を含む)を読み上げる有名人音声合成データを電子辞書サーバ14から受信して記録している場合には、先頭データを読み上げる音声だけでなく、説明情報の全てを読み上げる音声を出力させることもできる。
【0128】
次に、ユーザ「アミ」が使用する通信電子辞書10cにおける表示例について説明する。
通信電子辞書10は、電子辞書機能が搭載された専用装置に限らず、携帯電話やPDA(personal digital assistant)などの携帯を目的とした装置に電子辞書機能を搭載して実現されても良い。携帯を目的とした携帯電話やPDAなど、記憶容量や表示画面が比較的小さい電子機器によって通信電子辞書10を実現する場合には、例えば情報量を少なくしたデ○リーコ○サイス英和辞書などの辞書データを扱うようにすることが好ましい。
【0129】
ユーザ「アミ」が使用する通信電子辞書10cは、例えば携帯電話によって実現されるものとして、情報量を少なくしたデ○リーコ○サイス英和辞書の辞書データ22bが記録されているものとする。また、通信電子辞書10cは、ユーザ「ミユキ」の使用する通信電子辞書10bと同じヒストリデータを他の通信電子辞書から受信しているものとする。
【0130】
図19(a)には、ユーザ「アミ」の通信電子辞書10cの初期画面を表している。ここで、右カーソルキーの操作によって「受信ヒストリ」タグが選択されると、図19(b)に示すように、他の通信電子辞書から受信した受信ヒストリデータ22dの内容が一覧表示される。通信電子辞書10cは、電子辞書サーバ14を通じて他の通信電子辞書から受信したデータをもとに、見出し語、語義番号(自辞書用)、品詞、送信元の友人の似顔絵によるアイコン、受信日を表示すると共に、受信したヒストリデータの見出し語と自辞書用に変換された語義番号に応じて、辞書データ22bから該当する語義の内容(説明情報)を読み出して表示する。図19(b)に示す例では、見出し語「life」については説明情報として「生活」のみが表示されている。
【0131】
また、電子辞書サーバ14から有名人音声合成データを受信している場合には、有名人のアイコンデータをもとにして、音声出力が可能であることを表すようにアイコンを表示させる。図19(b)に示す一覧表示の例では、「吹き出し」が付加された有名人「マリ*ン」のアイコンが表示されている(図18(b)参照)。
【0132】
受信ヒストリの一覧表示中では、図19(c)に示すように、見出し語(品詞、語義番号)をカーソルキーによる反転カーソルの移動操作によって任意に選択することができる。
【0133】
ここで、何れかの見出し語が選択された状態で「音声」キーが押された場合、CPU20は、反転カーソルによって指定されている見出し語と語義に対応する有名人音声合成データを記録していれば、音声出力部28によって該当する有名人音声合成データを再生させて、見出し語に対応する説明情報(この場合では先頭データ)を読み上げる有名人の擬似音声を出力させる。
【0134】
また、何れかの見出し語が選択された状態で「訳/決定」キーを押されることで、選択された見出し語及び語義番号をもとに、辞書データ22b(ここではデ○リーコ○サイス英和辞書)を検索して、該当する説明情報を表示させることができる。
【0135】
図20には、受信ヒストリ中から選択された見出し語「life」に該当する説明情報が表示された画面の一例を示している。なお、デ○リーコ○サイス英和辞書は、他の辞書(ジ○ニアス英和辞書、ニュ○セ○チュリー英和辞書)と比較して、説明情報の情報量を少なくした構成であるので、複数の語義についての説明情報を一括して表示している。従って、該当する語義番号に対応する説明情報(ここでは「生活」)を反転表示によって表している。
【0136】
なお、図19及び図20に示す表示画面は一例であって、携帯電話に設けられた限られた表示画面サイズに応じたフォーマットを用いることができ、例えば各図で示す表示内容を複数画面で切り替えて表示させるようにしても良い。
【0137】
このようにして、送信元の通信電子辞書10と異なる辞書を搭載している場合であっても、電子辞書サーバ14において自辞書に応じた見出し語と語義番号に変換されてヒストリデータを受信することができるので、受信したヒストリデータをもとに辞書データ22bから該当する語義番号の説明情報を検索して表示させることができる。従って、1つの見出し語に対して複数の語義の説明情報がある場合であっても、他の通信電子辞書10における辞書の語義に関する情報を利用して、必要とする説明情報を簡単に利用することが可能となる。
【0138】
なお、携帯電話などの記憶容量が限られた電子機器により通信電子辞書10が実現されている場合、電子辞書サーバ14からヒストリデータ(見出し語、語義番号)だけでなく、該当する語義の説明情報も共に受信することができる場合には、電子辞書サーバ14から受信した説明情報を用いて、受信ヒストリの一覧表示をするようにしても良い。さらに、電子辞書サーバ14から説明情報を受信できる場合には、通信電子辞書10に記録される辞書データ22bを本来の辞書の内容の一部、例えば説明情報については先頭データに該当するデータのみとすることで、辞書データ22bのデータ量を少なくして、通信電子辞書10の限られた記憶容量を有効に利用できるようにすることもできる。さらに、通信電子辞書10に辞書データ22bを全く必要としないようにしても良い。こうした通信電子辞書10は、例えば、電子辞書サーバ14に対して説明情報の送信が必要であることを通知する。電子辞書サーバ14は、送信先の通信電子辞書10から説明情報の送信要求があった場合に、ヒストリデータ(見出し語、語義番号)だけでなく、該当する語義の説明情報を送信する。この際、電子辞書サーバ14は、説明情報だけでなく見出し語と語義番号、さらには説明情報の内容を読み上げる有名人音声合成データを共に送信しても良い。また、説明情報に代えて有名人音声合成データのみを送信するようにしても良い。
【0139】
また、前述した説明では、電子辞書サーバ14において検索結果の内容を読み上げるための有名人音声合成データを生成して、送信先の通信電子辞書10に送信するとしているが、通信電子辞書10のそれぞれに有名人別・音声合成用データを保持させておくことで、通信電子辞書10において有名人音声合成データを生成して音声出力するようにしても良い。この場合、ユーザからの指示に応じて、予め音声出力の対象とする有名人の音声合成用データを電子辞書サーバ14からダウンロードして記録しておいたり、電子辞書サーバ14がヒストリデータと共に送信元の通信電子辞書10において指定された有名人の音声合成用データを送信先の通信電子辞書10に送信するようにしても良い。
【0140】
また、前述した説明では、電子辞書サーバ14から送信先の通信電子辞書10に対して、見出し語と語義番号、及びこの語義番号に対応する説明情報の内容を読み上げる音声の有名人音声合成データとを送信するとしているが、見出し語と有名人音声合成データのみを送信するようにしても良い。送信先の通信電子辞書10では、電子辞書サーバ14から受信した見出し語を表示すると共に、有名人音声合成データを再生することで、見出し語に対応する説明情報の内容を音声によって取得することができる。さらに、電子辞書サーバ14は、送信元の通信電子辞書10から見出し語と語義番号を受信するとしているが、見出し語の情報だけを受信するようにしても良い。その他の処理については、前述と同様にして実行されるものとする。
【0141】
また、通信電子辞書10における辞書データ22bでは、1つの見出し語情報に対して少なくとも1つの語義番号によって説明情報を分類しているが、語義番号によらず他の分類情報、例えば記号、文字列などによって分類する形式であっても良い。
【0142】
また、通信電子辞書10で用いられる辞書データは、ネットワークを通じて、電子辞書サーバ14からダウンロードされるものとしても良い。
【0143】
また、本発明は、前述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、前述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られるので有れば、この構成要件が削除された構成が発明として抽出され得る。
【0144】
また、前述した各実施形態において記載した処理は、コンピュータに実行させることのできるプログラム(辞書管理制御プログラム22a、辞書データ送信プログラム32a)として、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に提供することができる。また、通信媒体により伝送して各種装置に提供することも可能である。通信電子辞書あるいは電子辞書サーバを実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、または通信媒体を介してプログラムを受信し、このプログラムによって動作が制御されることにより、上述した処理を実行する。
【0145】
【発明の効果】
以上のように、本発明の請求項1の電子辞書管理装置によれば、見出し語情報に対して複数の語義の説明情報がある場合であっても、送信元の電子機器における辞書検索によって得られた見出し語情報と語義の分類情報を利用して、送信先の電子機器に搭載された辞書の該当する見出し語情報の語義の分類情報に対応する説明情報を簡単に利用させることができる。
【0146】
また本発明の請求項2の電子辞書管理装置によれば、語義リンク記録手段によって記録された、各辞書の見出し語情報毎の語義の分類情報の関連づけを参照することで、受信した見出し語情報と語義の分類情報に対する送信先の電子機器の辞書における見出し語情報と語義情報を簡単に取得して、送信先の電子機器に送信することができる。
【0147】
また本発明の請求項3の電子辞書管理装置によれば、送信元の電子機器から受信した音声の送信依頼に応じて、送信先の電子機器に対して、見出し語情報と語義の分類情報に加えて、語義の分類情報に対応する情報(例えば辞書に記録される説明情報)の音声データを送信して、送信先の電子機器において情報内容を音声によって出力させることができる。
【0148】
また本発明の請求項4の電子辞書管理装置によれば、送信先の電子機器に対して送信される音声データが再生された時の音質を、送信元の電子機器から指定することができる。
【0149】
また本発明の請求項5の電子辞書管理装置によれば、歴史上の人物や著名人などの有名人(人物)を送信元の電子機器から指定して、送信先の電子機器においての有名人による(擬似)音声を出力させることができる。
【0150】
また本発明の請求項6の電子辞書管理装置によれば、語義の分類情報に対応する説明情報が送信先の電子機器に記録されていない場合、すなわち辞書が搭載されていない場合であっても、電子辞書管理装置から説明情報を送信することで、送信先の説明情報の内容を利用することができる。
【0151】
また本発明の請求項7の電子辞書管理装置によれば、送信先の電子機器では、電子辞書管理装置から受信した情報を一覧表示させるなど、見出し語情報と語義の分類情報に対応する情報の全てを必要としない処理に利用することができる。
【0152】
また本発明の請求項8の電子辞書管理装置によれば、送信元の電子機器における辞書検索によって得られた見出し語情報に該当する説明情報を、送信先の電子機器において音声によって取得させることができる。
【0153】
また本発明の請求項9の電子辞書管理装置によれば、送信先の電子機器に対して送信される音声データが再生された時の音質を、送信元の電子機器から指定することができる。
【0154】
また本発明の請求項10の電子辞書管理装置によれば、歴史上の人物や著名人などの有名人(人物)を送信元の電子機器から指定して、送信先の電子機器においての有名人による(擬似)音声を出力させることができる。
【0155】
また本発明の請求項11の電子辞書管理装置によれば、説明情報を読み上げるための音声データだけでなく、説明情報が送信され、送信先の電子機器において説明情報を表示させるなど、他の処理に利用することができる。
【0156】
また本発明の請求項12の辞書データ送信プログラムによれば、コンピュータにより、見出し語情報に対して複数の語義の説明情報がある場合であっても、送信元の電子機器における辞書検索によって得られた見出し語情報と語義の分類情報を利用して、送信先の電子機器に搭載された辞書の該当する見出し語情報の語義の分類情報に対応する説明情報を簡単に利用させることができる。
【0157】
また本発明の請求項13の辞書データ送信プログラムによれば、コンピュータにより、送信元の電子機器における辞書検索によって得られた見出し語情報に該当する説明情報を、送信先の電子機器において音声によって取得させることができる。
【図面の簡単な説明】
【図1】本実施形態における電子辞書検索履歴管理システムの構成を示すブロック図。
【図2】本実施形態における通信電子辞書10の構成を示すブロック図。
【図3】本実施形態における電子辞書サーバ14の構成を示すブロック図。
【図4】本実施形態におけるMyヒストリデータ22cとして記録されるデータの一例を示す図。
【図5】本実施形態における受信ヒストリデータ22dとして記録されるデータの一例を示す図。
【図6】本実施形態における送信ヒストリデータ22eとして記録されるデータの一例を示す図。
【図7】本実施形態における似顔絵友達帳データ22fとして記録されるデータの一例を示す図。
【図8】本実施形態における語義リンクテーブル32bのデータ構成の一例を示す図。
【図9】本実施形態における語義リンクテーブル32bのデータ構成の一例を示す図。
【図10】本実施形態における通信電子辞書10の辞書検索処理について説明するためのフローチャート。
【図11】本実施形態における通信電子辞書10の辞書検索処理について説明するためのフローチャート。
【図12】本実施形態における通信電子辞書10の受信ヒストリ表示処理について説明するためのフローチャート。
【図13】本実施形態における電子辞書サーバ14のサーバ処理について説明するためのフローチャート。
【図14】本実施形態における通信電子辞書10(送信側)の表示画面の一例を示す図。
【図15】本実施形態における通信電子辞書10(送信側)の表示画面の一例を示す図。
【図16】本実施形態における通信電子辞書10(送信側)の表示画面の一例を示す図。
【図17】本実施形態における通信電子辞書10(受信側)の表示画面の一例を示す図。
【図18】本実施形態における通信電子辞書10(受信側)の表示画面の一例を示す図。
【図19】本実施形態における通信電子辞書10(受信側)の表示画面の一例を示す図。
【図20】本実施形態における通信電子辞書10(受信側)の表示画面の一例を示す図。
【符号の説明】
10(10a,10b,10c,10d)…通信電子辞書、12…インターネット、14…電子辞書サーバ、20,30…CPU30、22,32…メモリ、22a…辞書管理制御プログラム、22b…辞書データ、22c…Myヒストリデータ、22d…受信ヒストリデータ、22e…送信ヒストリデータ、22f…似顔絵友達帳データ、22g…有名人別・音声合成用データ、22h…有名人データ、22k…音声合成用データ、24,34…記録装置、26,36…入力部、27,37…表示部、28…音声出力部、29,38…通信部、32a…辞書データ送信プログラム、32b…語義リンクテーブル、33c…個別ヒストリデータ、33d…有名人別・音声合成用データ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an electronic dictionary management device that transmits data of explanation information corresponding to digitized headword information, and a dictionary data transmission program.
[0002]
[Prior art]
In general, electronic dictionaries (equipment) equipped with a function that enables the electronic dictionary of English-Japanese dictionaries, Japanese-English dictionaries, Japanese dictionaries, encyclopedias, and the contents of dictionaries and dictionaries to be easily searched are widely used. I have. In such an electronic dictionary, a headword and a description corresponding to the headword are recorded in association with each other. By selecting a headword or inputting a character string, the input headword (or character) is input. Column) can be displayed.
[0003]
In recent years, mobile phones and the like also have an electronic dictionary function such as an English-Japanese dictionary, and words and search results searched by the electronic dictionary can be pasted and used in the body or memo of an electronic mail.
[0004]
Further, as disclosed in Patent Literature 1, an electronic dictionary having a communication function mounted thereon and capable of communicating with another electronic device such as a personal computer has been considered. In the electronic dictionary described in Patent Literature 1, words to be searched are designated in a range of English text displayed on a display unit of a personal computer, and the word data in the designated range is received by communication. Then, a search for the word data is executed, and the search result can be transmitted to the personal computer and displayed.
[0005]
[Patent Document 1]
JP 2001-188795 A
[0006]
[Problems to be solved by the invention]
In the case of using a conventional electronic dictionary, it is necessary to search for a word or the like to be searched and to sequentially select (or input) the word as a headword, which is very complicated. In addition, as electronic dictionaries become more sophisticated, description information of a plurality of meanings is prepared for one word in many cases, and it is necessary for the user himself / herself from search results obtained by specifying a headword. I had to search for explanation information about the meaning of the content while checking the explanation information. Furthermore, in the conventional electronic dictionary, only the user who uses the electronic dictionary can refer to the result (description content) searched according to the designation of the headword. Some electronic dictionaries have a function called the history function to save past search results. However, even if this history function is used, the search results will not be saved unless the electronic dictionary actually performs the search. Could not be used.
[0007]
In addition, with the function of an electronic dictionary mounted on a mobile phone, a user of another mobile phone can view the search result as the body of the email by pasting the search result on the email. However, it can only be viewed as a mail text, not as a search result of an electronic dictionary. Further, on the transmission side of the e-mail, when explanation information about many meanings for a certain word is obtained by, for example, the function of an electronic dictionary, all the explanation information retrieved from the dictionary is transmitted. Alternatively, in the same manner as described above, it is necessary to appropriately select the necessary descriptive information and paste it into an e-mail and transmit it.
[0008]
Also, in the electronic dictionary described in Patent Document 1, a search is executed in response to a request from a personal computer, and the search result is only available on the personal computer. In addition, each time the electronic dictionary is used, a search request must be transmitted by communication, and the search result must be obtained. Further, also in this case, when the search result searched by the electronic dictionary includes a plurality of meaning information for one word, it is necessary to further search for necessary meaning information.
[0009]
Furthermore, the contents of the recorded dictionary may differ depending on the electronic dictionary (device). In particular, when there are a plurality of meanings corresponding to the headword, the number of the meanings and the order of priority (order of description) may be different for each electronic dictionary. Therefore, even if information on the meaning of a certain headword recorded in a certain electronic dictionary (for example, a meaning number indicating the order of description of the meaning) can be obtained, the meaning of the meaning required by using another electronic dictionary can be obtained. No descriptive information could be obtained.
[0010]
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and makes it possible to easily use headword and meaning data specified by a dictionary search or the like in a transmission source electronic device in another electronic device. It is an object to provide an electronic dictionary management device and a dictionary data transmission program.
[0011]
[Means for Solving the Problems]
According to the electronic dictionary management device of the first aspect of the present invention, the receiving unit uses the first specific information for identifying the dictionary mounted on the electronic device from the electronic device of the transmission source and the headword used in the dictionary. Information and semantic classification information, and second specific information for identifying a dictionary mounted on the electronic device of the transmission destination are received, and the first information received by the receiving means by the specific information determining means is received. It is determined whether or not the specific information matches the second specific information. When the specific information discriminating means determines that the specific information does not match, the information detecting means transmits the second specifying information to the destination electronic device based on the headword information and the classification information. The headword information and the meaning classification information corresponding to the dictionary indicated by the information are detected, and the transmission means detects the headword information and the meaning classification corresponding to the dictionary indicated by the second specific information detected by the information detection means. Information is transmitted to the destination electronic device.
[0012]
Thus, even when there is a plurality of meaning information in the headword information, the transmission destination electronic device uses the headword information and the meaning classification information obtained by a dictionary search in the transmission source electronic device, and transmits to the transmission destination. It is possible to easily use the explanation information corresponding to the classification information of the meaning of the corresponding headword information in the dictionary mounted on the electronic device.
[0013]
According to the electronic dictionary management device of the second aspect of the present invention, for each common entry word information recorded in a plurality of dictionaries, the meaning definition classification information corresponding to the entry word information of each dictionary is stored by the meaning link recording unit. The same meaning is associated and recorded between the plurality of dictionaries. Then, the information detecting means detects the headword information and the meaning classification information based on the meaning classification information corresponding to the headword of each dictionary recorded in association with the meaning link recording means.
[0014]
Thus, the dictionary of the electronic device of the transmission destination with respect to the received headword information and the classification information of the meaning is referred to by referring to the association of the classification information of the meaning of each headword information of each dictionary recorded by the word meaning link recording means. , The headword information and the meaning information can be easily obtained and transmitted to the destination electronic device.
[0015]
According to the electronic dictionary management device of the third aspect of the present invention, the voice transmission request receiving unit receives a voice transmission request from the transmission source electronic device to the transmission destination electronic device, and the voice transmission request receiving unit When a voice transmission request is received by the voice data generating means, voice data of information corresponding to the headword and meaning classification information detected by the information detecting means is generated, and the voice transmitting means The audio data generated by the audio data generating means is transmitted to the electronic device of the transmission destination.
[0016]
Thereby, in response to the transmission request of the sound received from the transmission source electronic device, in addition to the headword information and the meaning classification information, information corresponding to the meaning classification information (for example, By transmitting the audio data of the description information recorded in the dictionary), the content of the information can be output by audio at the destination electronic device.
[0017]
According to the electronic dictionary management apparatus of the fourth aspect of the present invention, the voice transmission request receiving means receives data indicating the type of sound quality together with the transmission request, and the voice data generation means outputs the voice transmission request receiving means As a result, audio data corresponding to the received data indicating the type of sound quality is generated.
[0018]
Thus, the sound quality when the audio data transmitted to the transmission destination electronic device is reproduced can be designated from the transmission source electronic device.
[0019]
According to the electronic dictionary management device of the fifth aspect of the present invention, the data indicating the type of sound quality received by the voice transmission request receiving means is data indicating a person.
[0020]
As a result, it is possible to designate a celebrity (person) such as a historical person or a celebrity from the electronic device of the transmission source, and output (pseudo) sound of the celebrity in the electronic device of the transmission destination.
[0021]
According to the electronic dictionary management device of the sixth aspect of the present invention, the recording means records the description information classified for each meaning classification information corresponding to the headword information, and the description information obtaining means detects the information detection information. The explanation information corresponding to the headword information and the meaning classification information detected by the means is obtained from the recording means, and the explanation information is transmitted to the transmission destination electronic device by the transmission means.
[0022]
Thereby, even if the description information corresponding to the meaning classification information is not recorded in the electronic device of the transmission destination, that is, even if the dictionary is not installed, the description information can be transmitted from the electronic dictionary management device. The content of the description information of the transmission destination can be used.
[0023]
According to the electronic dictionary management device of the seventh aspect of the present invention, the description information recorded by the recording means is used for each of the headword information and the meaning classification information used in the dictionary mounted on the electronic device. Assume that it is a part of the recorded information.
[0024]
As a result, the destination electronic device can be used for processing that does not require all of the information corresponding to the headword information and the meaning classification information, such as displaying a list of information received from the electronic dictionary management device.
[0025]
According to the electronic dictionary management device of the eighth aspect of the present invention, the dictionary recording means records the description information corresponding to the headword information, and the receiving means receives the headword information from the transmission source electronic device. The voice data generating unit generates voice data for reading out the explanation information recorded in the dictionary recording unit corresponding to the headword information received by the receiving unit, and the voice data is received by the receiving unit by the transmitting unit. The headword information and the voice data generated by the voice data generating means are transmitted to the destination electronic device.
[0026]
Thereby, the description information corresponding to the headword information obtained by the dictionary search in the transmission source electronic device can be acquired by the voice in the transmission destination electronic device.
[0027]
According to the electronic dictionary management apparatus of the ninth aspect of the present invention, the receiving means receives data indicating the type of sound quality together with the headword information from the electronic equipment of the transmission source, and receives the data by the voice data generating means. The means generates audio data corresponding to the data indicating the type of sound quality received.
[0028]
Thus, the sound quality when the audio data transmitted to the transmission destination electronic device is reproduced can be designated from the transmission source electronic device.
[0029]
According to the electronic dictionary management apparatus of the tenth aspect of the present invention, the data indicating the type of sound quality received by the receiving unit is data indicating a person.
[0030]
As a result, it is possible to designate a celebrity (person) such as a historical person or a celebrity from the electronic device of the transmission source, and output (pseudo) sound of the celebrity in the electronic device of the transmission destination.
[0031]
According to the electronic dictionary management apparatus of claim 11 of the present invention, the explanation information recorded in the dictionary recording means corresponding to the headword information received by the reception means is transmitted to the transmission destination electronic device by the transmission means. Sent to
[0032]
Thus, not only the audio data for reading out the explanation information, but also the explanation information is transmitted, and can be used for other processing such as displaying the explanation information on the electronic device of the transmission destination.
[0033]
According to the dictionary data transmission program of the twelfth aspect of the present invention, when the computer executes the dictionary data transmission program, the first specific information for identifying the dictionary mounted on the electronic device from the electronic device of the transmission source and the first specific information used in the dictionary are used. Receiving means for receiving headword information, meaning classification information, and second specific information for identifying a dictionary mounted on the electronic device of the transmission destination; and the first information received by the receiving means. Specific information determining means for determining whether the specific information matches the second specific information; and, if the specific information determining means determines that the specific information does not match, the headword information and the classification information Information detection means for detecting headword information and meaning classification information corresponding to the dictionary indicated by the second specific information to be transmitted to the transmission destination electronic device; and The classification information of the headword information and semantic corresponding to the detected second dictionary indicated by the specific information can function in a transmitting means for transmitting to the electronic apparatus of the transmission destination Te.
[0034]
With this, even if the computer has a plurality of meaning information for the headword information, the computer uses the headword information and the meaning classification information obtained by the dictionary search in the transmission source electronic device. In addition, it is possible to easily use the description information corresponding to the meaning classification information of the corresponding entry word information in the dictionary mounted on the electronic device of the transmission destination.
[0035]
According to the dictionary data transmission program of claim 13 of the present invention, the computer executes the dictionary data transmission program to record the description information corresponding to the headword information, and transmits the headword information from the transmission source electronic device. Receiving means for receiving, voice data generating means for generating voice data for reading out the explanation information recorded in the dictionary recording means corresponding to the headword information received by the receiving means, and receiving by the receiving means And transmitting means for transmitting the headword information thus generated and the voice data generated by the voice data generating means to a destination electronic device.
[0036]
This allows the computer to cause the transmission destination electronic device to acquire the explanation information corresponding to the headword information obtained by the dictionary search in the transmission source electronic device.
[0037]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0038]
FIG. 1 is a block diagram illustrating a configuration of the electronic dictionary search history management system according to the present embodiment. As shown in FIG. 1, in the electronic dictionary search history management system, a plurality of communication electronic dictionaries 10 (10a, 10b, 10c, 10d) are connected to the Internet 14, respectively. The communication electronic dictionary 10 is realized by various electronic devices such as a dictionary search device equipped with a communication function, a personal computer, a mobile phone, and a PDA (personal digital assistant). The communication electronic dictionary 10 is not limited to the Internet 14, and can be connected via a network including various communication systems such as a public line network.
[0039]
The communication electronic dictionary 10 includes dictionary data for recording headword information and explanation information classified according to at least one meaning classification information (semantic number) corresponding to the headword information. An electronic dictionary function is provided for searching for and displaying a meaning number and explanation information corresponding to the input headword (or character string) by inputting or inputting a character string. The communication electronic dictionary 10 can transmit and receive data by communication with another information device (such as the electronic dictionary server 14, a personal computer, or another communication electronic dictionary) via the Internet 12 by a communication function.
[0040]
The electronic dictionary server 14 (electronic dictionary management device) provides a dictionary data transmission service, and is realized by an information device such as a server system or a personal computer on a network. The electronic dictionary server 14 receives information of the search result executed by the communication electronic dictionary 10, for example, the headword information and the meaning number through the Internet 14, and transmits the information of the search result corresponding to this information to the communication electronic dictionary of the transmission source. It has a function of transmitting to another communication electronic dictionary 10 instructed from the dictionary 10. The electronic dictionary server 14 transmits, for example, the headword information and the meaning number to the other communication electronic dictionary 10, and obtains the information by the dictionary search executed in the communication electronic dictionary 10 of the transmission source in the other communication electronic dictionary 10. It is possible to output (display, sound output) the received information. The electronic dictionary server 14 also has a function of creating and transmitting voice data for reading out the contents (eg, explanation information) of the search result when transmitting the search result to the communication electronic dictionary 10 of the transmission destination.
[0041]
FIG. 2 is a block diagram showing a configuration of the communication electronic dictionary 10 (10a, 10b, 10c, 10d) in the present embodiment. The communication electronic dictionary 10 includes headword information and dictionary data of a dictionary that records description information classified by at least one meaning classification information (seman number) corresponding to the headword information. Is selected, or when a character string is input, an electronic dictionary function is provided for searching and displaying the meaning number and the description information corresponding to the input headword (or character string). The communication electronic dictionary 10 further includes a communication function, and can transmit and receive search result history data through communication with the electronic dictionary server 14 via the Internet 12. The history data includes not only the searched headword but also the meaning number of the meaning selected by the user as a search result when the headword has a plurality of meanings.
[0042]
As shown in FIG. 2, the communication electronic dictionary 10 includes a CPU 20 interconnected with a memory 22, a recording device 24, an input unit 26, a display unit 27, a sound output unit 28, and a communication unit 29.
[0043]
The CPU 20 controls the entire communication electronic dictionary 10, and executes various processes by executing a program recorded in the memory 22. By executing the dictionary management control program 22a (electronic dictionary program) recorded in the memory 22, the CPU 20 searches the dictionary data 22b based on the input character string (entry word), and searches for the corresponding entry word. An electronic dictionary function (dictionary search processing (FIGS. 10 and 11) and reception history display processing (FIG. 12)) for displaying corresponding explanation information is realized.
[0044]
The memory 22 stores programs and data to be accessed by the CPU 20. In the present embodiment, various programs such as the dictionary management control program 22a, various data used when executing each program, and other data are stored in the memory 22. A work area or the like for temporarily recording data for use is set. As various data stored in accordance with the execution of the dictionary management control program 22a, the contents of a dictionary in which headword information and explanation information classified by at least one meaning number are recorded in association with each other are digitized. Dictionary data 22b, My history data 22c for recording the history of search results (entry words, meaning numbers) using dictionary data 22b, and reception history data for receiving and recording search results executed in other communication electronic dictionaries 10. 22d, transmission history data 22e for recording the history of search results (entry words, meaning numbers) transmitted to other communication electronic dictionaries, data relating to users of other communication electronic dictionaries, for example, addresses, user names, Icon data of iconography of the user's portrait, the name of the dictionary installed in the communication electronic dictionary owned by the user (dictionary Caricature friend book data 22f in which data including the specific information (e.g., specific information to be identified) is recorded, celebrity voice synthesis data 22g received together with a search result executed by another communication electronic dictionary 10 received from the electronic dictionary server 14, and other communication Search based on data (for example, text data) recorded in celebrity data 22h and dictionary data 22b used to request the electronic dictionary server 14 to transmit celebrity speech synthesis data together with the search result to the electronic dictionary. The data includes voice synthesis data 22k for generating voice data of voice for reading the result.
[0045]
It is assumed that specific information for identifying a dictionary, that is, data of a dictionary name is added to the dictionary data 22b. It is not necessary that all the data (address, user name, icon data, dictionary name, etc.) registered in the portrait friend book data 22f be registered. Also, the celebrity data 22h includes data on a plurality of persons who can generate speech synthesis data in the electronic dictionary server 14, here, data on celebrities such as historical persons and celebrities. It is assumed that data of a celebrity name and icon data obtained by iconifying a portrait are included. The icon data is used when displaying a designation display screen for designating transmission destination and celebrity-specific / speech synthesis data (see FIG. 15B). The celebrity data 22h can be downloaded from the electronic dictionary server 14 via the Internet 12. It is also assumed that the voice synthesis data 22k includes only data for generating a limited type of voice (for example, two types of male voice and female voice or any one of them). Further, a table (semantic heading table) in which only the head contents (head data) of each meaning of each headword are registered in association with the dictionary data 22b may be prepared.
[0046]
The recording device 24 has a recording medium 25, and executes recording and reading of programs, data, and the like on the recording medium 25. The recording medium 25 is formed of a magnetic or optical recording medium or a semiconductor memory, and is fixedly provided in the recording device 24 or is detachably mounted. The program, data, and the like recorded on the recording medium 25 may be configured to be received and recorded from another device connected via a communication line or the like. A recording device provided with a recording medium may be provided on another device side, and the program and data recorded on the recording medium may be used via a communication line.
[0047]
The input unit 26 includes a keyboard on which a plurality of character keys are arranged, a pointing device such as a mouse, and is used to input data and various instructions. The input unit 26 also has a cursor key for instructing up, down, left, and right directions, a history key for instructing a transition to a history mode for displaying a search history, and displaying an example included in the description information of the dictionary data 22b. Key, a dictionary key for selecting a dictionary to be used for search, a translation / decision key for instructing display and selection of descriptive information for the entered search character string (entry word), voice A voice key or the like for instructing execution of data reproduction is provided.
[0048]
The display unit 27 is for displaying various information, and displays a screen accompanying execution of various programs stored in the memory 22.
The sound output unit 28 is for outputting various sounds, and outputs sounds accompanying execution of various programs stored in the memory 22. In particular, the voice output unit 28 is used for voice output for reading out the contents (eg, explanation information) of the search result as the dictionary management control program 22a is executed.
The communication unit 29 executes communication with other information devices (such as the electronic dictionary server 14, a personal computer, and other communication electronic dictionaries) via the Internet 12 and various networks under the control of the CPU 20.
[0049]
FIG. 3 is a block diagram illustrating a configuration of the electronic dictionary server 14 according to the present embodiment.
As shown in FIG. 3, the electronic dictionary server 14 is configured such that the CPU 30 is mutually connected to the memory 32, the recording device 34, the input unit 36, the display unit 37, and the communication unit 38.
[0050]
The CPU 30 controls the entire electronic dictionary server 14 and executes various processes by executing programs stored in the memory 32. The CPU 30 executes the dictionary data transmission program 32a recorded in the memory 32, thereby transmitting a search result received via the Internet 12 to another designated communication electronic dictionary 10 or the like. (FIG. 13)).
[0051]
The memory 32 stores programs and data accessed by the CPU 30. In the present embodiment, various programs such as a dictionary data transmission program 32a, various data used when executing each program, and work data are stored in the memory 32. A work area or the like for temporarily recording data for use is set. The various data stored in accordance with the execution of the dictionary data transmission program 32a include, for each common entry word recorded in a plurality of different dictionaries used in the electronic dictionary function mounted on the communication electronic dictionary 10, each dictionary entry A meaning electronic link table 32b for storing the meaning meaning number (classification information) of the meaning corresponding to the headword in a plurality of dictionaries by associating the same meaning with each other (details will be described later (FIGS. 8 and 9)). When the search results (headwords, meaning numbers) received from the individual electronic data dictionary 10 are classified and recorded for each communication electronic dictionary 10, the search results recorded in the individual history data 33c are transmitted to the designated destination. In addition, there is an option for generating voice data to read out the content of the search result by voice of a specific sound quality, that is, in this embodiment, voice of a celebrity. It is included such as a human specific and speech synthesis for data 33d. The celebrity-specific / speech synthesis data 33d is created using a technique of creating face skeleton data from the face and age of a celebrity or a historical person, for example, and synthesizing a voice having characteristics of a voice uttered by the person. Is done. By using the celebrity-specific / speech synthesis data 33d, it is possible to synthesize, for example, from text data, a pseudo-speech when a celebrity such as a celebrity or a historical person reads it out.
[0052]
The recording device 34 has a recording medium 35 and executes recording and reading of programs, data, and the like on the recording medium 35. The recording medium 35 is formed of a magnetic or optical recording medium or a semiconductor memory, and is fixedly provided in the recording device 34 or is detachably mounted. The program, data, and the like recorded on the recording medium 35 may be configured to be received and recorded from another device connected via a communication line or the like. A recording device provided with a recording medium may be provided on another device side, and the program and data recorded on the recording medium may be used via a communication line.
[0053]
The input unit 36 includes a keyboard on which a plurality of character keys are arranged, and a pointing device such as a mouse.
[0054]
The display unit 37 is for displaying various information, and displays a screen accompanying execution of various programs stored in the memory 32.
The communication unit 38 communicates with another electronic device (such as the communication electronic dictionary 10) through the Internet 12 under the control of the CPU 30.
[0055]
Next, details of each data handled in the communication electronic dictionary 10 will be described.
FIG. 4 shows an example of data recorded as My history data 22c. As shown in FIG. 4, as a history of the search results, a headword that is a search target for the dictionary data 22b, a part of speech and a meaning number of a meaning selected from at least one meaning corresponding to the headword, Are sequentially recorded in association with data indicating the date on which the is executed.
[0056]
FIG. 5 shows an example of data recorded as the reception history data 22d. As shown in FIG. 5, as search results in the other communication electronic dictionaries 10 received through the electronic dictionary server 14, as well as a headword, a part of speech, a meaning number, a sender name, a date on which the search was executed, and voice data management. Each data is sequentially recorded in association with each other. The voice data management data includes data indicating presence / absence of voice data and data indicating which celebrity (person) the voice synthesis data used for generating voice data when voice data is present. For example, in the audio data management data corresponding to the headword “life” in FIG. 5, audio data “Yes” and a celebrity name “Mali *” are recorded.
[0057]
FIG. 6 shows an example of data recorded as the transmission history data 22e. As shown in FIG. 6, as search results transmitted to another communication electronic dictionary through the electronic dictionary server 14, in addition to a headword, a part of speech, and a meaning number, a transmission destination name, a date indicating a transmission date, and audio data management. Each data is sequentially recorded in association with each other. The voice data management data includes the presence or absence of voice data, and data indicating which celebrity the voice synthesis data used to generate voice data when voice data is present. For example, as a search result, regarding the headword “problem”, the meaning number “1”, and the part of speech “name (noun)”, on November 25, the audio data “Yes” , And data indicating that the voice data synthesized using the voice synthesis data of the famous person “Mari *” has been transmitted together.
[0058]
FIG. 7 shows an example of data recorded as the portrait friend book data 22f. As shown in FIG. 7, the portrait friend book data 22f includes, for example, a user name (name), an address, and a portrait of the user as data relating to a user of another communication electronic dictionary, that is, a destination of a search result. Data including a converted icon data and a dictionary name (specific information for identifying the dictionary) installed in the communication electronic dictionary owned by the user are recorded in association with each other. For example, the communication electronic dictionary 10 used by the user "Miyuki" indicates that the dictionary data 22b of the dictionary name "New-Se-Tuly English-Japanese Dictionary" is mounted.
[0059]
Next, details of the meaning link table 32b managed in the electronic dictionary server 14 will be described. 8 and 9 show an example of the data configuration of the meaning link table 32b in the present embodiment.
[0060]
The semantic link table 32b records, for each common headword recorded in a plurality of different dictionaries, the meaning number (classification information) of the semantics corresponding to the headword of each dictionary by associating the same semantics with a plurality of dictionaries. It is created by combining a plurality of meaning meaning heading tables respectively corresponding to dictionary data of different dictionaries. The semantic heading table includes, for each headword registered in the dictionary (dictionary data 22b) used in the communication electronic dictionary 10, a part of speech as part of the description information registered in the dictionary data 22b for the headword. And the meaning number (meaning classification information) and the data at the head of the description information (head data) are stored in association with each other. When description information about a plurality of parts of speech is recorded for one headword, head data of each part of speech is recorded. In the case where the description of a plurality of meanings is recorded for one headword, the leading data of each meaning is recorded in association with the meaning number.
[0061]
For example, in the meaning heading table corresponding to the di-near English-Japanese dictionary shown in FIGS. 8 and 9, “name (noun)” is registered as a part of speech for the headword “life”. Meaning numbers 1 to 12 are recorded, and the leading data corresponding to the respective meaning numbers 1 to 12, ie, [life, life ...] [creature, living thing ...] [life, living in this world] ... It is recorded in association with the number. FIG. 8 and FIG. 9 further include a meaning heading table for the English-Japanese dictionary and the English-Japanese dictionary.
[0062]
The meaning heading table corresponding to each dictionary (Ji-Niasu English-Japanese dictionary, New X-Se-Tuly English-Japanese dictionary, and DeO-Rico-Saith English-Japanese dictionary) contains, for each headword, the meaning corresponding to the headword of each dictionary. Is associated with the same (or similar) meaning in a plurality of dictionaries.
[0063]
For example, as for the meaning “life” corresponding to the headword “life”, the meaning number “1” in the Ji-Niasu English-Japanese dictionary, the meaning number “1” in the New-Xe-Tuly English-Japanese dictionary, and the de ○ Rico ○ Sais English-Japanese dictionary Is associated with the meaning number “2”. As in the headword “remember” shown in FIG. 9, for example, the meaning of “leave the heritage” is registered only in the De-Rico-Sais English-Japanese dictionary. There is no corresponding meaning registered in the English-Japanese dictionary. In such a case, “0” is recorded as a meaning number for the headword “remember”.
[0064]
In the meaning link table 32b shown in FIGS. 8 and 9, the part of speech, the meaning number, and the leading data are registered in association with the headword for each dictionary, but are registered in association with the headword. A configuration in which only the meaning number is registered may be adopted.
[0065]
Next, the operation of the communication electronic dictionary 10 according to the present embodiment will be described with reference to the flowcharts shown in FIGS. Here, the name of the user of the communication electronic dictionary 10a is “Taro”, and similarly, the user of the communication electronic dictionary 10b is “Miyuki”, the user of the communication electronic dictionary 10c is “Ami”, and the communication electronic dictionary is The description will be made assuming that the user of 10d is “Tsushi”.
[0066]
First, a dictionary search process in the communication electronic dictionary 10 will be described with reference to flowcharts shown in FIGS.
[0067]
For example, “Taro” is assumed to check the meaning of a word in an English sentence published in a textbook using the communication electronic dictionary 10. “Taro” is specified by pressing a dictionary key indicating the “English-Japanese” dictionary, for example, as a dictionary to be searched for in the Japanese-English English-Japanese dictionary (dictionary data 22b) prepared in the communication electronic dictionary 10. When the dictionary key is pressed, the CPU 20 shifts to a dictionary mode for searching an English-Japanese dictionary. On the initial screen of the dictionary mode for searching the English-Japanese dictionary, in addition to an input field for inputting a search character string, a tag ("MY") for displaying the contents of My history data 22c, reception history data 22d, and transmission history data 22e. History, reception history, transmission history).
[0068]
The CPU 20 inputs a search character string (word) as a search target through the input unit 26 using “Taro” (step A1). When a search execution is instructed by operating a “translate / decide” key, the search character A search is executed for a column (word) for the headword registered in the dictionary data 22b (step A2).
[0069]
For example, as shown in FIG. 14 (a), "English-Japanese" (indicating the Ji-Niasu English-Japanese dictionary) is specified as a dictionary to be searched, and a search character string in the English sentence shown in FIG. It is assumed that the word "life" has been input.
[0070]
When a headword corresponding to a search character string (word) to be searched is obtained from the dictionary data 22b, the CPU 20 displays the headword, a meaning number of each meaning corresponding to the headword, and explanation information on a display unit. At 27, a list is displayed (step A3). For example, as shown in FIG. 14B, the meaning numbers of a plurality of meanings corresponding to the headword (search character string) “life” and the contents of the leading data are displayed on the screen of the display unit 27 (here. Are displayed for meaning numbers 1 to 5).
[0071]
The CPU 20 also temporarily registers, in the MY history data 22d, a search result obtained by this search, that is, data indicating a headword that is currently searched (step A4), and a history display area provided in the display screen. (Eg, provided at the top of the display screen), three words are read out from the MY history data 22d in the order of last registration and displayed (step A5). In the example shown in FIG. 14B, the words “in shape”, “kind”, and “life” are displayed as the latest three words of the MY history data 22d.
[0072]
Here, when the up or down scroll key is pressed (step A7), the CPU 20 moves the position of the reverse cursor from the current meaning number to the next meaning number above or below. When the scroll key is repeatedly pressed and the position of the reverse cursor is moved to the meaning number at the end of the screen, the screen is scrolled to move the position of the reverse cursor to a new meaning number, and the position corresponding to this meaning number is changed. The explanation information is displayed (step A8). In this way, it is possible to display the explanation information about an arbitrary meaning.
[0073]
In the explanation information, information about “example” is added to the meaning. Then, for the meaning to which the information of “example” is added, a symbol indicating “example” is displayed. When the example key is pressed (step A11), the CPU 20 shifts to the example display mode if the information of "example" is added to the explanation information corresponding to the meaning number where the reverse cursor is located at that time. Display "example" information about the meaning. When the dictionary key is pressed (step A12), the CPU 20 shifts to a dictionary mode for executing a dictionary search process with the specified dictionary as a search target.
[0074]
If the voice key is pressed (step A9), the CPU 20 generates voice data for reading out the meaning of the headword currently specified by the reverse cursor, and generates a voice based on the voice data. The output is output from the output unit 28 (step A10). At this time, the CPU 20 generates voice data using the voice synthesis data 22k based on the meaning data (for example, text data) of the specified headword recorded in the dictionary data 22b, for example.
[0075]
On the other hand, if the history key is pressed in a state where the meaning number for the headword and the explanation information of each meaning are displayed in a list (step A6, Yes), the CPU 20 shifts to the history mode, and the CPU 20 shifts to the history mode. The headword (here, “life”) is highlighted by, for example, reverse display. Then, in the list display of a plurality of meanings for the headword displayed as a search result, the first meaning (for example, only the meaning number) is highlighted by, for example, a reverse cursor display or the like (step A13). For example, as shown in FIG. 14C, by pressing the “History” key, the latest headword “life” in the history display area is highlighted and the meaning number displayed as a search result in a list. "1" is displayed as a reverse cursor.
[0076]
Here, when the up or down scroll key is pressed (step A14), the CPU 20 moves the position of the reverse cursor from the current meaning number to the next meaning number above or below. When the scroll key is repeatedly pressed and the position of the reverse cursor is moved to the meaning number at the end of the screen, the screen is scrolled to move the position of the reverse cursor to a new meaning number, and the position corresponding to this meaning number is changed. The explanation information is displayed (step A15). For example, as shown in FIG. 15A, when the down scroll key is pressed a plurality of times, the meaning number “6” is moved, and accompanying this, the explanation information of the meaning number “6” is displayed by screen scrolling. Further, a semantic number “6” and a part of speech “name (noun)” specified for the latest word (here, “life”) provisionally registered in the My history data 22c are additionally registered, and a heading is displayed in the history display area. The part of speech and the meaning number are displayed together with the word.
[0077]
Here, when the "translation / decision" key is pressed (step A16, Yes), the CPU 20 displays a designation display screen (sub-window) for designating the destination of the search result and the celebrity voice (step A17). . The CPU 20 displays a list of user names and icons representing the portraits of the users in association with each other based on the data regarding the users of the other communication electronic dictionaries pre-recorded in the portrait friend book data 22f. Also, based on the celebrity name data and the icon data included in the celebrity speech synthesis data 22g, a list is displayed in which the celebrity names and icons obtained by iconizing the portraits of the celebrities are associated with each other.
[0078]
For example, as shown in FIG. 15B, a display screen for designating a destination and a celebrity voice is displayed. In the example shown in FIG. 15B, the names of the users (friends) such as “Miyuki”, “Ami”, “Tsushi” and the icons are displayed in association with the transmission destination. In addition, an item “not transmitted” for instructing not to transmit the search result to another communication electronic dictionary is also provided. Also, names of famous people such as “Mari * n” and “John * n” are associated with icons. In addition, an item of “no voice” for instructing no celebrity voice is also provided. Further, an item (“Are you sure?” [Yes] [No]) for instructing final confirmation of the specified content on the specified display screen is provided.
[0079]
In the initial state of the designation display screen, it is assumed that “No transmission”, “No sound”, “Listen?” [No], “Are you sure?” [Yes] are designated. If any of the celebrities is specified, the setting is automatically set to "AUDIO?" [YES] or "OK?" [NO], so that a change operation by the user is required. Make sure that search results are not sent easily.
[0080]
Here, when the "Translate / Set" key is pressed while "Send No" is specified and "Yes" is specified in the "Are you sure?" Item (step A19) (FIG. 15) (B)), the CPU 20 registers the headword and the meaning number designated by the reverse cursor and the data indicating the part of speech in the My history data 22c, and ends the dictionary search process (step A20).
[0081]
On the other hand, when the “friend icon” is designated by, for example, pressing the cursor key in the left-right direction (step A18, Yes), the CPU 20 performs a process for transmitting the search result to the designated friend. Execute.
[0082]
For example, in FIG. 15C, when the right cursor key is pressed, “Miyuki” and “Ami” (here, two persons) are specified as transmission destinations on the transmission destination specification display screen. It should be noted that not only a plurality of transmission destinations can be specified, but also transmission destinations can be specified for each person.
[0083]
Here, when the down cursor key is pressed, the CPU 20 changes the designated target item to the presence or absence of celebrity voice, and changes the cursor (represented by a rectangular frame in FIG. 15) to the position of “no voice”. I do. Here, any celebrity can be selected by operating the left and right cursor keys. Here, when the left and right cursor keys are operated, the CPU 20 sequentially moves the cursor to the position of the celebrity name and the icon according to the operation.
[0084]
If any of the celebrities is designated (steps A21 and A22) and the "Translate / Set" key is pressed with the "listen?" Item selected to "Yes" (steps A23 and A24), the CPU 20 Is a request for transmission of audio data for trial listening together with data of a designated celebrity, dictionary name data (specific information for identifying the dictionary) added to the dictionary data 22b, and information of the meaning number of the headword specified earlier. Is transmitted from the communication unit 29 to the electronic dictionary server 14 via the Internet 12 (step A25).
[0085]
For example, on the designation display screen shown in FIG. 15C, "Mari * n" is designated as a celebrity, and the "Translate / Set" key is pressed while the "Listen?" Item is selected to "Yes". As a result, the information of the celebrity “Mari * n” is transmitted to the electronic dictionary server 14 together with the information of the semantic number “6” of the headword “life”.
[0086]
The communication electronic dictionary 10 transmits to the electronic dictionary server 14 information on the meaning numbers of the celebrities and the headwords to the electronic dictionary server 14, thereby reading out the contents corresponding to the meaning numbers of the headwords transmitted by the voice of the specified celebrities. The voice synthesis data is received from the electronic dictionary server 14. The process in which the electronic dictionary server 14 transmits the celebrity voice synthesis data to the communication electronic dictionary 10 will be described later (FIG. 12, server processing).
[0087]
When receiving the celebrity voice synthesis data through the communication unit 29, the CPU 20 records the data as celebrity voice synthesis data 22g, and causes the voice output unit 28 to output a voice based on the data (step A26). For example, as shown in FIG. 15C, the content “life, life (how), way of life, country life, life in the country…” corresponding to the meaning number “6” of the headword “life” is a celebrity “Mari * Output by the voice of
[0088]
As a result, the user of the communication electronic dictionary 10 (for example, “Taro”) outputs the voice output by the celebrity voice synthesis data transmitted from the electronic dictionary server 14 to “Miyuki” and “Ami” designated as the transmission destinations. You can check the contents. If you want to send another celebrity's voice by checking the output voice, specify another celebrity (for example, “John-Len”) by operating the cursor keys, and do the same as above. Thus, the content read out by the voice of the designated celebrity can be confirmed.
[0089]
Here, when the item "OK?" For the final confirmation is designated to "Yes" by the operation of the cursor key and the "translation / decision" key is pressed (step A27), the CPU 20 determines the destination. With reference to the portrait friend book data 22f, the data of the address and the dictionary name of the communication electronic dictionary owned by the friend is read out for the "friend" (here, "Miyuki" and "Ami") designated as And the data registered in the My history data 22c, that is, the data of the dictionary name added to the dictionary data 22b, the information of the celebrity designated on the designated display screen, together with the headword and the meaning number (and the data of the part of speech). The data is transmitted to the electronic dictionary server 14 via the communication unit 29 together with a transmission request to another terminal (step A31).
[0090]
Then, the CPU 20 records, as transmission history data 22e, the transmitted history data (entry word, meaning number (and part of speech)) and the data of the dictionary name, as well as the data of the transmission destination name, date, and voice data management data. (Step A30). For example, in the transmission history data 22e shown in FIG. 6, for the headword "life", the part of speech "name (noun)", the meaning number "6", the destination name "Miyuki Ami", and the date "11/25" , And voice data management data “Yes (designated celebrity), Mari * (name of celebrity)” are recorded.
[0091]
When the request for transmitting the search result to the other terminal is completed with respect to the electronic dictionary server 14, the CPU 20 changes the display screen on the display unit 27 to display the original search result, as shown in FIG. Return to
[0092]
In this way, “Taro” sends a request to a friend to transmit a search result (history data) using a dictionary (Ji-Niasu English-Japanese dictionary) in the communication electronic dictionary 10, and designates a celebrity who reads out the contents of the search result to an electronic dictionary server. 14 can be requested.
[0093]
On the other hand, "No Voice" was specified on the destination and celebrity voice specification screen, "OK" was specified for the final confirmation item "Yes", and the "Translate / Enter" key was pressed. In this case (step A28), the CPU 20 reads out the address and dictionary name of the communication electronic dictionary owned by the friend with reference to the portrait friend book data 22f for the "friend" designated as the transmission destination. Together with the data and the data registered in the My history data 22c, that is, the headword, the meaning number (and the part of speech data), the data of the dictionary name (specific information for identifying the dictionary) added to the dictionary data 22b is transmitted to other data. The data is transmitted to the electronic dictionary server 14 via the communication unit 29 together with the transmission request to the terminal (step A29).
[0094]
Then, the CPU 20 records, as transmission history data 22e, the transmitted history data (entry word, meaning number (and part of speech)) and the data of the dictionary name, as well as the data of the transmission destination name, date, and voice data management data. (Step A30).
[0095]
In this way, “Taro” performs a search for the words “problem”, “remember”, and “precious” described in, for example, a textbook using the communication electronic dictionary 10 (Ji-Niasu English-Japanese dictionary) in the same manner as described above. It is assumed that search result history data, that is, “problem, name, 1”, “remember, moving, etc., 2”, “precision, shape, 1” has been transmitted to “Miyuki” and “Ami”.
[0096]
The history data transmitted to the other communication electronic dictionaries is recorded as transmission history data 22e. Here, when the dictionary key indicating the "English-Japanese" dictionary is pressed and the mode shifts to the dictionary mode for searching the English-Japanese dictionary, the CPU 20 displays an initial screen of the dictionary mode for searching the English-Japanese dictionary. Here, as shown in FIG. 16B, for example, when the “transmission history” tag is designated by pressing the right cursor key twice, the CPU 20 sets the content of the reception history data 22d, that is, the headword, In association with the meaning number and the part of speech, an icon representing the portrait of the friend of the transmission destination and the date, as well as the description information of the dictionary data 22b searched from the headword and the meaning number are displayed.
In the example shown in FIG. 16B, the history data of the headword “kind” is transmitted to the friend “Tsushi” on November 23, and the history data of “Miyuki” and “Ami” is transmitted to the friends November 25. It can be seen that the history data for the headwords “life”, “problem”, “remember”, and “precious” were transmitted on the day.
By displaying the icon of a portrait of a friend, the recipient of the transmission destination can be easily grasped visually, and a book or the like to be searched using the communication electronic dictionary 10 (for example, the sender belongs to the same class) If so, you can guess the textbooks used in the class). In addition, by displaying the date, it is possible to guess whether the history (search result) is required based on the sender and the date. For example, if it is the date of the day, it can be inferred that it is a search result of a word in a textbook handled in an English lesson of the next day.
[0097]
Next, server processing in the electronic dictionary server 14 will be described with reference to the flowchart shown in FIG.
When there is communication from the terminal through the communication unit 38 (step C1), the CPU 30 determines whether the request is a transmission request of history data to another terminal or a transmission request of audio data for trial listening (step C2). ).
[0098]
If the request is for transmission of audio data for trial listening (step C2, No), the CPU 30 determines the name of the celebrity, the dictionary name, and the headword in the communication electronic dictionary 10 of the transmission source (FIG. 11, step A25). When the meaning number information can be acquired (step C8), it is determined whether a meaning heading table corresponding to the dictionary name exists in the meaning link table 32b (step C9). If there is a corresponding meaning heading table, the CPU 30 reads the head data corresponding to the meaning number of the specified heading for the corresponding meaning heading table in the meaning link table 32b (step C10).
[0099]
Then, the CPU 30 uses the data for celebrity speech synthesis designated in the communication electronic dictionary 10 of the transmission source among the speech synthesis data for a plurality of celebrities prepared in advance as the celebrity-specific / speech synthesis data 33d. Then, the voice data of the celebrity that reads out the head data read from the meaning meaning link table 32b (speech synthesis data for celebrity listening) is generated, and transmitted to the requesting communication electronic dictionary 10 through the communication unit 38. (Step C11). At this time, the data amount may be reduced by compressing the file storing the celebrity speech synthesis data, and the transmission cost may be reduced.
[0100]
In the communication electronic dictionary 10 that has received the celebrity voice synthesis data, the celebrity voice synthesis data is reproduced, so that the contents (head data) of the dictionary can be read out (listened to) by the voice of the celebrity (step A25 in FIG. 11). .
[0101]
On the other hand, when a history data transmission request to another terminal is received by communication from the communication electronic dictionary 10 (step C2, No), the CPU 30 uses the transmission electronic dictionary 10 received from the communication electronic dictionary 10 in the communication source electronic dictionary 10. Based on the dictionary name of the dictionary (hereinafter, referred to as a transmission source dictionary) and the dictionary name of a dictionary (hereinafter, referred to as a transmission destination dictionary) used in the communication electronic dictionary 10 of the transmission destination, respectively. It is determined whether or not the meaning heading table corresponding to the dictionary name is present in the meaning link table 32b (step C3). Here, when there is a corresponding meaning meaning heading table, the CPU 30 targets the meaning meaning heading table corresponding to the transmission source dictionary of the meaning meaning link table 32b to the transmission destination dictionary corresponding to the meaning number of the heading word in the received history data. Is read out (step C4).
[0102]
For example, the transmission source dictionary of the communication electronic dictionary 10a used by “Taro” is the J-Niasu English-Japanese dictionary, the meaning number “6” of the headword “life” is acquired, and the transmission destination dictionary (“Miyuki” If the dictionary installed in the communication electronic dictionary 10b is a New-English-Turie English-Japanese dictionary, the dictionary in the Japanese-English dictionary is created based on the meaning number associated with the meaning-link table 32b shown in FIG. The semantic number “13” (“(specified) corresponding to the semantic number“ 6 ”of the headword“ life ”(indicating the meaning of“ life, life (how), way of life ... ”) for the English-Japanese dictionary. )) Life ..., how to live ... ").
[0103]
The CPU 30 transmits history data, that is, a headword, a meaning number (and part-of-speech data) converted according to the destination dictionary using the meaning meaning link table 32b with respect to the other communication electronic dictionary specified at the transmission destination. The data of the dictionary name (specific information for identifying the dictionary) and the data of the sender name are transmitted through the communication unit 28 (step C5).
[0104]
Further, when “celebrity information” is received from the communication electronic dictionary 10 of the transmission source (step C6, Yes), the CPU 30 determines a plurality of celebrities prepared as celebrity-specific / speech synthesis data 33d in advance. Of the data for speech synthesis, using the data for celebrity speech synthesis specified in the communication electronic dictionary 10 of the transmission source, the speech data of the voice of the celebrity (the celebrity voice) reading out the leading data read from the meaning meaning link table 32b. It generates the synthesized data and transmits the generated data to the communication electronic dictionary 10 of the transmission destination through the communication unit 38 (step C7). At this time, the data amount may be reduced by compressing the file storing the celebrity speech synthesis data, and the transmission cost may be reduced.
[0105]
Also, data indicating the name of a corresponding celebrity and icon data for displaying an icon (for example, a portrait of a celebrity) may be added to the celebrity speech synthesis data and transmitted. Thus, even if celebrity data is not recorded in the communication electronic dictionary 10 of the transmission destination, the celebrity name and the icon can be displayed.
[0106]
In the above description, the electronic dictionary server 14 records the celebrity speech synthesis data (including the trial listening) for outputting the voice of the designated celebrity from the communication electronic dictionary 10 of the transmission source in the meaning link table 32b. Are generated for the head data corresponding to the respective meaning numbers of the headwords, but the dictionaries used in the communication electronic dictionary 10 (Ji-Niasu English-Japanese dictionary, New-Se-Turie English-Japanese dictionary, De-Rico By recording dictionary data such as a size English-Japanese dictionary, celebrity speech synthesis data for reading out not only the top data but also all of the explanatory information in the dictionary data may be generated. If the explanation information includes additional information such as “examples”, celebrity speech synthesis data for reading out these “examples” can be generated.
[0107]
In this manner, in the server processing in the electronic dictionary server 14, the search result (history data) using the dictionary (for example, Ji-Niasu English-Japanese dictionary) in the communication electronic dictionary 10 of the transmission source is stored in the communication electronic dictionary of the transmission destination. It can be converted into the meaning number of the headword searched and sent according to the installed dictionary (for example, New- ○-○ -Tu-uri English-Japanese dictionary). At this time, if the “celebrity information” for reading out the search result from the transmission source has been obtained, speech synthesis data that reads out the search result using the pseudo voice of the specified celebrity is generated, and the communication of the transmission destination is performed. It can be transmitted to the electronic dictionary 10.
[0108]
In the server process shown in FIG. 12, the headword and the meaning number received from the communication electronic dictionary 10 of the transmission source are converted into the meaning number of the headword in the dictionary of the transmission destination by using the meaning meaning link table 32b. Although the data is transmitted to the communication electronic dictionary 10 of the transmission destination, not only the meaning number but also the meaning (description information) of the meaning may be transmitted to the communication electronic dictionary 10 of the transmission destination. For example, the head data (part of the description information) of the destination dictionary (the dictionary specified by the source communication electronic dictionary 10) recorded in the meaning link table 32b is transmitted. Further, when a dictionary mounted on each communication electronic dictionary 10 is recorded in the electronic dictionary server 14, all the description information of the relevant meaning may be transmitted.
[0109]
By transmitting the contents (description information) of the dictionary from the electronic dictionary server 14 to the communication electronic dictionary 10 of the transmission destination, the dictionary can be used even if the communication electronic dictionary 10 of the transmission destination does not include the dictionary. it can. For example, even if all of the dictionary data cannot be recorded because the communication electronic dictionary 10 is realized by a mobile phone or the like and has a limited storage capacity, valid dictionary search results provided from other communication electronic dictionaries 10 Will be able to obtain detailed explanation information.
[0110]
When transmitting the description information to the communication electronic dictionary 10 of the transmission destination, the description information of the dictionary mounted on the communication electronic dictionary 10 of the transmission source is used instead of the description information of the dictionary mounted on the communication electronic dictionary 10 of the transmission destination. May be transmitted. Further, explanation information (or a part thereof) of the relevant meaning may be always transmitted to the communication electronic dictionary 10 of the transmission destination, or the dictionary of the transmission destination may be a predetermined specific dictionary. For example, the description information may be transmitted when the dictionary has a small amount of information.
[0111]
Next, the reception history display processing in the communication electronic dictionary 10 will be described with reference to the flowcharts shown in FIGS. 13 and 10 (part of the dictionary search processing described above).
[0112]
Here, a case where history data is received from another communication electronic dictionary through the electronic dictionary server 14 for the communication electronic dictionary 10b used by the user "Miyuki" will be described.
[0113]
For example, the user “Miyuki” is designated as a dictionary to be searched using the New-English-Turis English-Japanese dictionary (dictionary data 22b) prepared in the communication electronic dictionary 10 by pressing a dictionary key indicating the “English-Japanese” dictionary, for example. I do. When the dictionary key is pressed, the CPU 20 shifts to a dictionary mode for searching an English-Japanese dictionary. On the initial screen of the dictionary mode for searching the English-Japanese dictionary, in addition to an input field for inputting a search character string, a tag ("MY") for displaying the contents of My history data 22c, reception history data 22d, and transmission history data 22e. History, reception history, transmission history). For example, as shown in FIG. 17A, an initial screen displaying the tags “MY history”, “reception history”, and “transmission history” is displayed (a state in which “MY history” is selected). Here, the contents of the corresponding history can be displayed as a list by arbitrarily specifying a tag.
[0114]
Here, when the communication electronic dictionary 10 receives history data from the electronic dictionary server 14 through the communication unit 29 (step B1, Yes), the communication electronic dictionary 10 specifies the first received history data (step B9) and receives the received history data. History data (each data indicating a headword, a dictionary name, a meaning number (and part of speech), and a sender name) is read (step B3).
[0115]
Then, the CPU 30 registers the headword, dictionary name, meaning number (and part of speech), and data indicating the sender name of the received history data as the received history data 22d (step B4). Further, the CPU 30 registers the data of the date on which the history data was received in association with each other.
[0116]
Here, when the celebrity speech synthesis data is received together with the history data (step B5, Yes), the CPU 30 stores the received celebrity speech synthesis data as celebrity speech synthesis data 22g (step B6). At this time, if icon data is added to the celebrity speech synthesis data, the icon data is also stored in association with the celebrity speech synthesis data. Further, the CPU 30 registers data indicating a celebrity together with data indicating presence of voice data in the voice data management data of the reception history data 22d (step B7). For example, in the voice data management data corresponding to the headword “life” shown in FIG. 5, data indicating voice data “present” and “mari * in” as a celebrity name are registered.
[0117]
Hereinafter, in the same manner, if there is any other history data received from the electronic dictionary server 14, the same processing is repeatedly performed on each piece of history data (steps B3 to B8).
[0118]
When all the received history data is registered as the received history data 22d (No in step B8), the CPU 20 displays the received history in a list based on the received history data 22d (step B9). In addition, in the initial screen after shifting to the “English / Japanese” dictionary mode, as shown in FIG. 17B, for example, when the right cursor key is pressed, the selected tag is moved to “Reception history” and the reception history data is changed. A list of reception histories can also be displayed based on 22d.
[0119]
The CPU 20 displays headword, meaning number (for own dictionary), and part of speech data from the received history data 22d. In addition, in association with this data, a friend icon (portrait icon) based on the icon data read from the portrait friend book data 22f and the reception date are displayed according to the data of the sender name. In addition, according to the headword of the received history data and the meaning number converted for the own dictionary, the contents (description information) of the meaning are read out from the dictionary data 22b and displayed. In addition, a table (corresponding to the meaning heading table of the meaning link table 32b) in which only the head content of each meaning of each heading word is stored in association with the dictionary data 22b of the communication electronic dictionary 10. In this case, based on the headword and meaning number of the received history data, the table can be searched to obtain only the head data of the corresponding meaning and provide the list.
[0120]
When celebrity speech synthesis data is received together with history data, an icon is displayed based on celebrity icon data to indicate that voice output is possible. In the example of the list display shown in FIG. 17B, the icon data of the same celebrity "Mari * n" is displayed for each headword. The icon is not only a mere portrait of a celebrity, but also has a “speech balloon” shape pattern added to clearly indicate that the icon has sound. FIG. 18B shows the details of the icon of the celebrity to which the “speech balloon” is added.
[0121]
In addition, the CPU 20 sets a reverse cursor to the currently selected headword (in the initial stage, the first headword) (including the part of speech and the meaning number) in the display area of the reception history, and emphasizes the inverted headword by the reverse display (step). B10).
[0122]
Here, when the up or down scroll key is pressed (step B11), the CPU 20 moves the position of the reverse cursor from the current headword to the next headword above or below. Then, when the scroll key is repeatedly pressed and the position of the reverse cursor is moved to the headword at the end of the screen, the screen is scrolled to move the position of the reverse cursor to a new headword, and the position corresponding to this headword is changed. The first data is displayed (step B12). In this way, any combination of a headword and a meaning number can be arbitrarily selected. For example, FIG. 17C shows a state in which the headword “life” is selected by a reverse cursor from a plurality of pieces of history data listed in the reception history.
[0123]
If the "voice" key is pressed (step B13, Yes), the CPU 20 outputs the voice output unit if celebrity voice synthesis data corresponding to the headword and the meaning specified by the reverse cursor is recorded. 28, the corresponding celebrity voice synthesis data is reproduced, and a pseudo voice of a celebrity that reads out the explanation information (head data in this case) corresponding to the headword is output (step B14).
[0124]
Similarly, by specifying an arbitrary headword (sense) by operating the cursor keys and pressing the “voice” key, the meaning (head data) of the corresponding headword can be read out by the voice of a celebrity. (Steps B11 to B14).
[0125]
If the "translation / decision" key is pressed in a state where any of the headwords is designated by the reverse cursor (step B15), the CPU 20 sets the dictionary according to the currently selected headword and meaning number. The corresponding explanation information is read from the data 22b and displayed (step B16). Further, the CPU 20 registers the search result obtained by this search, that is, data indicating the headword that is currently searched for in the MY history data 22d, and sets a history display area provided on the display screen (for example, in the display screen). Are read from the MY history data 22d in the order of last registration and displayed (step B17). In the example illustrated in FIG. 18A, the word “life” for which the explanation information is displayed last is displayed as the latest three words of the MY history data 22d in addition to “remember” and “problem”.
[0126]
In the screen displaying the explanation information, a celebrity icon is displayed so as to indicate that celebrity speech synthesis data is received from the electronic dictionary server 14. In the example shown in FIG. 18A, an icon of the famous person "Mari * n" (details are shown in FIG. 18B) is displayed in the upper right corner of the screen.
[0127]
Hereinafter, the communication electronic dictionary 10b used by "Miyuki" can execute the processing after step A6 in the dictionary search processing described above. For example, by operating the up and down cursor keys, explanation information of the meaning before and after can be displayed (steps A7 and A8), or "example" in the explanation information can be selected to display the contents of the example (step A11). ). If the "voice" key is pressed (step A9), the CPU 20 records celebrity speech synthesis data corresponding to the currently displayed headword and meaning (corresponding to the head data of the meaning here). For example, the corresponding celebrity voice synthesis data is reproduced by the voice output unit 28, and a pseudo voice of a celebrity that reads out explanation information corresponding to the headword is output (step A10).
If celebrity speech synthesis data is read from the electronic dictionary server 14 to read the explanation information (including contents such as examples) of the meaning of the corresponding headword from the electronic dictionary server 14 and is recorded, the leading data is Not only the voice to be read out, but also the voice to read out all the explanation information can be output.
[0128]
Next, a display example in the communication electronic dictionary 10c used by the user "Ami" will be described.
The communication electronic dictionary 10 is not limited to a dedicated device equipped with an electronic dictionary function, and may be realized by installing an electronic dictionary function on a device intended for carrying, such as a mobile phone or a PDA (personal digital assistant). When the communication electronic dictionary 10 is realized by an electronic device having a relatively small storage capacity and a small display screen, such as a mobile phone or a PDA for carrying, a dictionary such as a De-Rico-Sice English-Japanese dictionary with a reduced amount of information is used. It is preferable to handle data.
[0129]
The communication electronic dictionary 10c used by the user "Ami" is assumed to be realized by, for example, a mobile phone, and is assumed to have recorded therein dictionary data 22b of a De * Rico * Sice English-Japanese dictionary with a reduced amount of information. Further, it is assumed that the communication electronic dictionary 10c receives the same history data from another communication electronic dictionary as the communication electronic dictionary 10b used by the user "Miyuki".
[0130]
FIG. 19A illustrates an initial screen of the communication electronic dictionary 10c of the user “Ami”. Here, when the “reception history” tag is selected by operating the right cursor key, the contents of the reception history data 22d received from another communication electronic dictionary are displayed in a list, as shown in FIG. 19B. The communication electronic dictionary 10c, based on data received from another communication electronic dictionary through the electronic dictionary server 14, stores a headword, a meaning number (for own dictionary), a part of speech, an icon based on a portrait of a friend of the transmission source, and a reception date. At the same time, the content (description information) of the relevant meaning is read from the dictionary data 22b and displayed according to the headword of the received history data and the meaning number converted for the own dictionary. In the example shown in FIG. 19B, only “life” is displayed as the explanation information for the headword “life”.
[0131]
When celebrity speech synthesis data is received from the electronic dictionary server 14, an icon is displayed to indicate that voice output is possible based on celebrity icon data. In the example of the list display shown in FIG. 19B, the icon of the famous person "Mari * n" to which the "speech balloon" is added is displayed (see FIG. 18B).
[0132]
As shown in FIG. 19 (c), during the display of the received history list, a headword (part of speech, meaning number) can be arbitrarily selected by moving the reverse cursor with the cursor key.
[0133]
Here, when the "voice" key is pressed with any headword selected, the CPU 20 records celebrity speech synthesis data corresponding to the headword and the meaning specified by the reverse cursor. For example, the corresponding celebrity voice synthesis data is reproduced by the voice output unit 28, and a pseudo voice of a celebrity that reads out explanation information (head data in this case) corresponding to the headword is output.
[0134]
By pressing the "translation / decision" key while any one of the headwords is selected, the dictionary data 22b (here, de-Rico-Sice English-Japanese) is generated based on the selected headword and the meaning number. Dictionaries), and the corresponding explanation information can be displayed.
[0135]
FIG. 20 shows an example of a screen on which the explanation information corresponding to the headword “life” selected from the reception history is displayed. In addition, since the De-Rico-Sais English-Japanese dictionary has a configuration in which the amount of explanation information is reduced as compared with other dictionaries (Ji-Nias English-Japanese dictionary, New-Se-Turie English-Japanese dictionary), a plurality of Is displayed collectively. Therefore, the explanation information (here, “life”) corresponding to the relevant meaning number is displayed in reverse video.
[0136]
The display screens shown in FIGS. 19 and 20 are examples, and a format according to a limited display screen size provided in a mobile phone can be used. For example, the display contents shown in each figure can be displayed on a plurality of screens. The display may be switched.
[0137]
In this way, even when a dictionary different from the communication electronic dictionary 10 of the transmission source is installed, the electronic dictionary server 14 converts the entry into a headword and a meaning number corresponding to the own dictionary and receives the history data. Therefore, it is possible to search and display the description information of the corresponding meaning number from the dictionary data 22b based on the received history data. Therefore, even when there is a plurality of meaning information for one headword, the necessary explanation information is easily used by using the information about the meaning of the dictionary in the other communication electronic dictionary 10. It becomes possible.
[0138]
When the communication electronic dictionary 10 is realized by an electronic device having a limited storage capacity such as a mobile phone, not only the history data (entry word, meaning number) but also explanation information of the corresponding meaning from the electronic dictionary server 14. If both can be received, a list of received histories may be displayed using the explanation information received from the electronic dictionary server 14. Further, when the explanation information can be received from the electronic dictionary server 14, the dictionary data 22b recorded in the communication electronic dictionary 10 is a part of the original dictionary contents, for example, the explanation information includes only the data corresponding to the head data. By doing so, the data amount of the dictionary data 22b can be reduced, and the limited storage capacity of the communication electronic dictionary 10 can be effectively used. Further, the communication electronic dictionary 10 may not require the dictionary data 22b at all. The communication electronic dictionary 10 notifies the electronic dictionary server 14 that transmission of explanatory information is necessary, for example. The electronic dictionary server 14 transmits not only the history data (entry word, meaning number) but also the explanation information of the relevant meaning when a request for transmitting the explanation information is made from the communication electronic dictionary 10 of the transmission destination. At this time, the electronic dictionary server 14 may transmit not only the explanation information but also a headword and a meaning number, and also celebrity speech synthesis data that reads out the contents of the explanation information. Alternatively, only the celebrity speech synthesis data may be transmitted instead of the explanation information.
[0139]
Further, in the above description, the electronic dictionary server 14 generates celebrity speech synthesis data for reading out the content of the search result and transmits the data to the communication electronic dictionary 10 of the transmission destination. By holding celebrity-specific / speech synthesis data, celebrity speech synthesis data may be generated in the communication electronic dictionary 10 and output as speech. In this case, in response to an instruction from the user, the data for speech synthesis of a celebrity to be output as a sound is downloaded from the electronic dictionary server 14 and recorded in advance, or the electronic dictionary server 14 transmits the data of the transmission source together with the history data. The data for voice synthesis of a celebrity designated in the communication electronic dictionary 10 may be transmitted to the communication electronic dictionary 10 of the transmission destination.
[0140]
In the above description, the electronic dictionary server 14 transmits the headword, the meaning number, and the celebrity speech synthesis data of the speech to read out the content of the explanation information corresponding to the meaning number to the communication electronic dictionary 10 of the transmission destination. Although the transmission is described, only the headword and celebrity speech synthesis data may be transmitted. In the communication electronic dictionary 10 of the transmission destination, by displaying the headword received from the electronic dictionary server 14 and reproducing the celebrity voice synthesis data, the contents of the explanation information corresponding to the headword can be obtained by voice. . Further, although the electronic dictionary server 14 receives the headword and the meaning number from the communication electronic dictionary 10 of the transmission source, the electronic dictionary server 14 may receive only the information of the headword. Other processes are performed in the same manner as described above.
[0141]
In the dictionary data 22b of the communication electronic dictionary 10, the description information is classified by at least one meaning number with respect to one entry word information. However, other classification information such as a symbol or a character string is used regardless of the meaning number. For example, it may be a format of classifying according to.
[0142]
The dictionary data used in the communication electronic dictionary 10 may be downloaded from the electronic dictionary server 14 via a network.
[0143]
Further, the present invention is not limited to the above-described embodiment, and can be variously modified in an implementation stage without departing from the gist thereof. Further, the functions executed in the above-described embodiments may be implemented in combination as appropriate as much as possible. The embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent features. For example, even if some components are deleted from all the components shown in the embodiment, if the effect is obtained, a configuration from which the components are deleted can be extracted as an invention.
[0144]
Further, the processing described in each of the above-described embodiments is performed by a computer (dictionary management control program 22a, dictionary data transmission program 32a), for example, a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD, etc.). -ROM, DVD, etc.), and can be written to a recording medium such as a semiconductor memory and provided to various devices. Further, it is also possible to transmit the data via a communication medium and provide the data to various devices. The computer that realizes the communication electronic dictionary or the electronic dictionary server reads the program recorded on the recording medium or receives the program via the communication medium, and executes the above-described processing by controlling the operation of the program. I do.
[0145]
【The invention's effect】
As described above, according to the electronic dictionary management device of the first aspect of the present invention, even when there is a plurality of meaning information in the headword information, it can be obtained by dictionary search in the transmission source electronic device. By using the headword information and the meaning classification information thus obtained, it is possible to easily use the description information corresponding to the meaning classification information of the corresponding headword information in the dictionary mounted on the electronic device of the transmission destination.
[0146]
According to the electronic dictionary management apparatus of the second aspect of the present invention, the received headword information can be referred to by referring to the association of the meaning classification information for each headword information of each dictionary recorded by the meaning link recording means. The headword information and the meaning information in the dictionary of the electronic device of the transmission destination for the classification information of the meaning and the meaning can be easily obtained and transmitted to the electronic device of the transmission destination.
[0147]
According to the electronic dictionary management device of the third aspect of the present invention, in response to a transmission request of the voice received from the transmission source electronic device, the transmission destination electronic device transmits the headword information and the meaning classification information to the transmission destination electronic device. In addition, it is possible to transmit audio data of information (for example, explanation information recorded in a dictionary) corresponding to the meaning classification information, and output the information content by voice at the electronic device of the transmission destination.
[0148]
According to the electronic dictionary management device of the fourth aspect of the present invention, the sound quality at the time when the audio data transmitted to the transmission destination electronic device is reproduced can be designated from the transmission source electronic device.
[0149]
According to the electronic dictionary management apparatus of the present invention, a celebrity (person) such as a historical person or a celebrity is designated from the transmission source electronic device, and the celebrity in the transmission destination electronic device ( (Pseudo) sound can be output.
[0150]
According to the electronic dictionary management device of the sixth aspect of the present invention, even when the description information corresponding to the semantic classification information is not recorded in the electronic device of the transmission destination, that is, even when the dictionary is not mounted, By transmitting the description information from the electronic dictionary management device, the contents of the description information of the transmission destination can be used.
[0151]
Further, according to the electronic dictionary management device of the present invention, the destination electronic device displays the information received from the electronic dictionary management device in a list, and displays the information corresponding to the headword information and the semantic classification information. It can be used for processing that does not require all.
[0152]
Further, according to the electronic dictionary management device of the present invention, it is possible for the transmission destination electronic device to acquire the explanation information corresponding to the headword information obtained by the dictionary search in the transmission source electronic device by voice. it can.
[0153]
Further, according to the electronic dictionary management device of the ninth aspect of the present invention, the sound quality at the time of reproducing the audio data transmitted to the transmission destination electronic device can be designated from the transmission source electronic device.
[0154]
According to the electronic dictionary management apparatus of the tenth aspect of the present invention, a celebrity (person) such as a historical person or a celebrity is designated from the transmission source electronic device, and the celebrity in the transmission destination electronic device ( (Pseudo) sound can be output.
[0155]
According to the electronic dictionary management device of the present invention, not only audio data for reading out the explanation information but also the explanation information is transmitted, and other processing such as displaying the explanation information on the electronic device of the transmission destination is performed. Can be used for
[0156]
According to the dictionary data transmission program of the twelfth aspect of the present invention, even when there is a plurality of meaning information in the headword information, the dictionary data can be obtained by a dictionary search in the transmission source electronic device. By using the headword information and the meaning classification information, it is possible to easily use the description information corresponding to the meaning classification information of the corresponding headword information in the dictionary mounted on the electronic device of the transmission destination.
[0157]
According to the dictionary data transmission program of the present invention, the computer obtains, by voice, the explanation information corresponding to the headword information obtained by the dictionary search in the transmission source electronic device in the transmission destination electronic device. Can be done.
[Brief description of the drawings]
FIG. 1 is an exemplary block diagram showing the configuration of an electronic dictionary search history management system according to an embodiment.
FIG. 2 is a block diagram showing a configuration of a communication electronic dictionary 10 according to the embodiment.
FIG. 3 is a block diagram showing a configuration of the electronic dictionary server 14 in the embodiment.
FIG. 4 is a view showing an example of data recorded as My history data 22c in the embodiment.
FIG. 5 is a view showing an example of data recorded as reception history data 22d in the embodiment.
FIG. 6 is a view showing an example of data recorded as transmission history data 22e in the embodiment.
FIG. 7 is a view showing an example of data recorded as a portrait friend book data 22f in the embodiment.
FIG. 8 is a diagram showing an example of a data configuration of a meaning link table 32b according to the embodiment.
FIG. 9 is a view showing an example of the data configuration of a meaning link table 32b according to the embodiment.
FIG. 10 is a flowchart for explaining a dictionary search process of the communication electronic dictionary 10 according to the embodiment.
FIG. 11 is a flowchart for explaining a dictionary search process of the communication electronic dictionary 10 in the embodiment.
FIG. 12 is a flowchart for explaining a reception history display process of the communication electronic dictionary 10 in the embodiment.
FIG. 13 is a flowchart for explaining server processing of the electronic dictionary server 14 in the embodiment.
FIG. 14 is a view showing an example of a display screen of the communication electronic dictionary 10 (transmission side) in the embodiment.
FIG. 15 is a view showing an example of a display screen of the communication electronic dictionary 10 (transmission side) in the embodiment.
FIG. 16 is a view showing an example of a display screen of the communication electronic dictionary 10 (transmission side) in the embodiment.
FIG. 17 is a view showing an example of a display screen of the communication electronic dictionary 10 (reception side) in the embodiment.
FIG. 18 is a view showing an example of a display screen of the communication electronic dictionary 10 (reception side) in the embodiment.
FIG. 19 is a view showing an example of a display screen of the communication electronic dictionary 10 (reception side) in the embodiment.
FIG. 20 is a view showing an example of a display screen of the communication electronic dictionary 10 (reception side) in the embodiment.
[Explanation of symbols]
10 (10a, 10b, 10c, 10d): communication electronic dictionary, 12: Internet, 14: electronic dictionary server, 20, 30: CPU 30, 22, 32: memory, 22a: dictionary management control program, 22b: dictionary data, 22c ... My history data, 22d ... Reception history data, 22e ... Transmission history data, 22f ... Caricature friend book data, 22g ... Celebrity / voice synthesis data, 22h ... Celebrity data, 22k ... Speech synthesis data, 24, 34 ... Recording device, 26, 36 input unit, 27, 37 display unit, 28 audio output unit, 29, 38 communication unit, 32a dictionary data transmission program, 32b meaning link table, 33c individual history data, 33d … Celebrity-specific data for speech synthesis.

Claims (13)

送信元の電子機器から同機器に搭載された辞書を識別するための第1の特定情報と前記辞書で用いられる見出し語情報と語義の分類情報、及び送信先の電子機器に搭載された辞書を識別するための第2の特定情報とを受信する受信手段と、
前記受信手段によって受信された前記第1の特定情報と前記第2の特定情報とが一致するかを判別する特定情報判別手段と、
前記特定情報判別手段によって特定情報が一致しないと判別された場合に、前記見出し語情報と前記分類情報をもとに、前記送信先の電子機器に送信する前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報を検出する情報検出手段と、
前記情報検出手段によって検出された前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報を前記送信先の電子機器に送信する送信手段とを具備したことを特徴とする電子辞書管理装置。
The first specific information for identifying the dictionary mounted on the electronic device from the transmission source electronic device, the headword information and the meaning classification information used in the dictionary, and the dictionary mounted on the transmission destination electronic device Receiving means for receiving the second specific information for identification;
Specific information determining means for determining whether the first specific information and the second specific information received by the receiving means match,
When the specific information discrimination means determines that the specific information does not match, based on the headword information and the classification information, the dictionary indicated by the second specific information transmitted to the electronic device of the transmission destination Information detecting means for detecting corresponding headword information and semantic classification information;
Transmitting means for transmitting headword information and meaning classification information corresponding to the dictionary indicated by the second specific information detected by the information detecting means to the destination electronic device. Dictionary management device.
複数の辞書に記録された共通する見出し語情報毎に、各辞書の見出し語情報に対応する語義の分類情報を前記複数の辞書間で同じ語義同士を関連づけて記録する語義リンク記録手段を有し、
前記情報検出手段は、前記語義リンク記録手段により関連付けて記録された各辞書の見出し語に対応する語義の分類情報をもとに、前記見出し語情報と語義の分類情報を検出することを特徴とする請求項1記載の電子辞書管理装置。
For each common headword information recorded in a plurality of dictionaries, there is a meaning link recording means for recording the classification information of the meaning corresponding to the headword information of each dictionary by associating the same meaning between the plurality of dictionaries. ,
The information detecting means detects the headword information and the meaning classification information based on the meaning classification information corresponding to the headword of each dictionary recorded in association with the meaning link recording means. The electronic dictionary management device according to claim 1.
前記送信元の電子機器から前記送信先の電子機器に対する音声の送信依頼を受信する音声送信依頼受信手段と、
前記音声送信依頼受信手段によって音声の送信依頼を受信した場合に、前記情報検出手段によって検出された前記見出し語と語義の分類情報に対応する情報の音声データを生成する音声データ生成手段と、
前記音声データ生成手段によって生成された音声データを前記送信先の電子機器に送信する音声送信手段とを具備したことを特徴とする請求項1記載の電子辞書管理装置。
Voice transmission request receiving means for receiving a voice transmission request to the transmission destination electronic device from the transmission source electronic device,
When receiving a voice transmission request by the voice transmission request receiving means, voice data generating means for generating voice data of information corresponding to the headword and meaning classification information detected by the information detecting means,
2. The electronic dictionary management device according to claim 1, further comprising: a voice transmitting unit that transmits the voice data generated by the voice data generating unit to the electronic device of the transmission destination.
前記音声送信依頼受信手段は、前記送信依頼と共に音質の種類を示すデータを受信し、
前記音声データ生成手段は、前記音声送信依頼受信手段によって受信した音質の種類を示すデータに応じた音声データを生成することを特徴とする請求項3記載の電子辞書管理装置。
The voice transmission request receiving means receives data indicating the type of sound quality together with the transmission request,
4. The electronic dictionary management device according to claim 3, wherein the voice data generation unit generates voice data corresponding to data indicating a type of sound quality received by the voice transmission request receiving unit. 5.
前記音声送信依頼受信手段によって受信される音質の種類を示すデータは、人物を示すデータであることを特徴とする請求項4記載の電子辞書管理装置。5. The electronic dictionary management device according to claim 4, wherein the data indicating the type of sound quality received by the voice transmission request receiving unit is data indicating a person. 見出し語情報に対応して語義の分類情報毎に分類された説明情報を記録する記録手段と、
前記情報検出手段によって検出された見出し語情報と語義の分類情報に対応する説明情報を前記記録手段から取得する説明情報取得手段とを具備し、
前記送信手段は、前記説明情報を前記送信先の電子機器に送信することを特徴とする請求項1記載の電子辞書管理装置。
Recording means for recording the description information classified for each semantic classification information corresponding to the headword information;
An explanation information acquisition unit for acquiring explanation information corresponding to the headword information and the meaning classification information detected by the information detection unit from the recording unit,
2. The electronic dictionary management device according to claim 1, wherein the transmitting unit transmits the explanation information to the electronic device of the transmission destination.
前記記録手段により記録される説明情報は、前記電子機器に搭載された辞書において用いられる見出し語情報と語義の分類情報のそれぞれに対して記録された情報の一部であることを特徴とする請求項6記載の電子辞書管理装置。The description information recorded by the recording means is a part of information recorded for each of headword information and meaning classification information used in a dictionary mounted on the electronic device. Item 7. The electronic dictionary management device according to Item 6. 見出し語情報に対応する説明情報を記録する辞書記録手段と、
送信元の電子機器から見出し語情報を受信する受信手段と、
前記受信手段によって受信された見出し語情報に対応する、前記辞書記録手段に記録された説明情報を読み上げるための音声データを生成する音声データ生成手段と、
前記受信手段によって受信された見出し語情報と前記音声データ生成手段によって生成された音声データとを送信先の電子機器に対して送信する送信手段とを具備したことを特徴とする電子辞書管理装置。
Dictionary recording means for recording explanation information corresponding to the headword information;
Receiving means for receiving headword information from a transmission source electronic device;
Voice data generating means for generating voice data for reading out the explanation information recorded in the dictionary recording means, corresponding to the headword information received by the receiving means,
An electronic dictionary management device, comprising: transmission means for transmitting headword information received by the reception means and voice data generated by the voice data generation means to a destination electronic device.
前記受信手段は、前記送信元の電子機器から見出し語情報と共に音質の種類を示すデータを受信し、
前記音声データ生成手段は、前記受信手段によって受信した音質の種類を示すデータに応じた音声データを生成することを特徴とする請求項8記載の電子辞書管理装置。
The receiving means receives data indicating the type of sound quality together with the headword information from the electronic device of the transmission source,
9. The electronic dictionary management device according to claim 8, wherein the audio data generation unit generates audio data corresponding to data indicating a type of sound quality received by the reception unit.
前記受信手段によって受信される音質の種類を示すデータは、人物を示すデータであることを特徴とする請求項8記載の電子辞書管理装置。9. The electronic dictionary management device according to claim 8, wherein the data indicating the type of sound quality received by the receiving unit is data indicating a person. 前記送信手段は、前記受信手段によって受信された見出し語情報に対応する前記辞書記録手段に記録された説明情報を送信先の電子機器に対して送信することを特徴とする請求項8記載の電子辞書管理装置。9. The electronic apparatus according to claim 8, wherein the transmitting unit transmits the explanation information recorded in the dictionary recording unit corresponding to the headword information received by the receiving unit to an electronic device of a transmission destination. Dictionary management device. コンピュータを、
送信元の電子機器から同機器に搭載された辞書を識別するための第1の特定情報と前記辞書で用いられる見出し語情報と語義の分類情報、及び送信先の電子機器に搭載された辞書を識別するための第2の特定情報とを受信する受信手段と、前記受信手段によって受信された前記第1の特定情報と前記第2の特定情報とが一致するかを判別する特定情報判別手段と、
前記特定情報判別手段によって特定情報が一致しないと判別された場合に、前記見出し語情報と前記分類情報をもとに、前記送信先の電子機器に送信する前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報を検出する情報検出手段と、
前記情報検出手段によって検出された前記第2の特定情報が示す辞書に対応する見出し語情報と語義の分類情報を前記送信先の電子機器に送信する送信手段とに機能させるための辞書データ送信プログラム。
Computer
The first specific information for identifying the dictionary mounted on the electronic device from the transmission source electronic device, the headword information and the meaning classification information used in the dictionary, and the dictionary mounted on the transmission destination electronic device Receiving means for receiving second specific information for identification; specific information determining means for determining whether the first specific information and the second specific information received by the receiving means match; ,
When the specific information discrimination means determines that the specific information does not match, based on the headword information and the classification information, the dictionary indicated by the second specific information transmitted to the electronic device of the transmission destination Information detecting means for detecting corresponding headword information and semantic classification information;
A dictionary data transmission program for causing a transmission unit to transmit headword information corresponding to a dictionary indicated by the second specific information detected by the information detection unit and semantic classification information to the transmission destination electronic device. .
コンピュータを、
見出し語情報に対応する説明情報を記録する辞書記録手段と、
送信元の電子機器から見出し語情報を受信する受信手段と、
前記受信手段によって受信された見出し語情報に対応する、前記辞書記録手段に記録された説明情報を読み上げるための音声データを生成する音声データ生成手段と、
前記受信手段によって受信された見出し語情報と前記音声データ生成手段によって生成された音声データとを送信先の電子機器に対して送信する送信手段とに機能させるための辞書データ送信プログラム。
Computer
Dictionary recording means for recording explanation information corresponding to the headword information;
Receiving means for receiving headword information from a transmission source electronic device;
Voice data generating means for generating voice data for reading out the explanation information recorded in the dictionary recording means, corresponding to the headword information received by the receiving means,
A dictionary data transmission program for causing the headword information received by the reception unit and the audio data generated by the audio data generation unit to function as a transmission unit that transmits the electronic data to a destination electronic device.
JP2003054831A 2003-02-28 2003-02-28 Electronic dictionary management device, dictionary data transmission program Expired - Fee Related JP4348968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003054831A JP4348968B2 (en) 2003-02-28 2003-02-28 Electronic dictionary management device, dictionary data transmission program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003054831A JP4348968B2 (en) 2003-02-28 2003-02-28 Electronic dictionary management device, dictionary data transmission program

Publications (2)

Publication Number Publication Date
JP2004265146A true JP2004265146A (en) 2004-09-24
JP4348968B2 JP4348968B2 (en) 2009-10-21

Family

ID=33119059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003054831A Expired - Fee Related JP4348968B2 (en) 2003-02-28 2003-02-28 Electronic dictionary management device, dictionary data transmission program

Country Status (1)

Country Link
JP (1) JP4348968B2 (en)

Also Published As

Publication number Publication date
JP4348968B2 (en) 2009-10-21

Similar Documents

Publication Publication Date Title
JP6803719B2 (en) Message providing method, message providing device, display control method, display control device and computer program
US7308479B2 (en) Mail server, program and mobile terminal synthesizing animation images of selected animation character and feeling expression information
US8819533B2 (en) Interactive multimedia diary
JP5247983B2 (en) Actionable email document
JP5799621B2 (en) Information processing apparatus, information processing method, and program
JP2017215996A (en) Change request form annotation
US20060065707A1 (en) Information processing system, information processing method, program, and recording system
JP2007299352A (en) Apparatus, method and program for outputting message
JP2002334086A (en) Information processor, its method, recording medium, and program
JP2002288213A (en) Data-forwarding device, data two-way transmission device, data exchange system, data-forwarding method, data-forwarding program, and data two-way transmission program
JP2003016104A (en) Retrieving device and program recording medium
JP2008523759A (en) Method and system for synthesizing video messages
JP4354354B2 (en) Data processing system and method
JP4526215B2 (en) Data transfer device, communication device, data transfer method, communication method, machine-readable recording medium on which data transfer program is recorded, machine-readable recording medium on which communication program is recorded, data transfer program, communication program, and data communication system
JP2004145418A (en) Program and device for creating email
JP4348968B2 (en) Electronic dictionary management device, dictionary data transmission program
JP4228697B2 (en) Communication electronic dictionary, electronic dictionary program
JP2005209024A (en) Operation support apparatus and operation support method
JP4957787B2 (en) Information display control device, electronic dictionary program
JP2006017932A (en) Learning device, cellular phone, learning device control method, learning device control program, and recording medium
JP4501501B2 (en) Information display control device, electronic dictionary program
JP2006202321A (en) Information processor, information processing method, and program
JP3711399B2 (en) Data transmission apparatus and recording medium recording data transmission processing program
JP2001337893A (en) Supporting system for composing e-mail message
JP4269727B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090713

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4348968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees