JP5234730B2 - 電子機器、その制御方法およびコンピュータプログラム - Google Patents

電子機器、その制御方法およびコンピュータプログラム Download PDF

Info

Publication number
JP5234730B2
JP5234730B2 JP2007287580A JP2007287580A JP5234730B2 JP 5234730 B2 JP5234730 B2 JP 5234730B2 JP 2007287580 A JP2007287580 A JP 2007287580A JP 2007287580 A JP2007287580 A JP 2007287580A JP 5234730 B2 JP5234730 B2 JP 5234730B2
Authority
JP
Japan
Prior art keywords
data
keyword
image
dictionary
headword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007287580A
Other languages
English (en)
Other versions
JP2009116531A5 (ja
JP2009116531A (ja
Inventor
直人 花谷
亮 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007287580A priority Critical patent/JP5234730B2/ja
Priority to US12/680,865 priority patent/US20110252062A1/en
Priority to PCT/JP2008/069539 priority patent/WO2009060760A1/ja
Priority to CN200880109586A priority patent/CN101809575A/zh
Publication of JP2009116531A publication Critical patent/JP2009116531A/ja
Publication of JP2009116531A5 publication Critical patent/JP2009116531A5/ja
Application granted granted Critical
Publication of JP5234730B2 publication Critical patent/JP5234730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Description

本発明は、電子機器、その制御方法およびコンピュータプログラムに関し、入力された情報に基づいて辞書データから見出し語を検索する、電子機器、その制御方法およびコンピュータプログラムに関する。
従来から、電子辞書など、辞書機能を備える電子機器が多く存在している。そして、このような電子辞書において利便性を向上させるための技術も種々開示されている。たとえば、特許文献1(特開平6−44308号公報)には、キーワード選択を行なう項目を予め指定しておくことにより、入力された文章のデータを単語に分割し、分割された単語の中で不適当である単語を適宜削除した上で、それ以外の単語をキーワード辞書ファイルに登録する技術が開示されている。
また、近年の情報処理装置における技術の発展に伴い、情報処理装置全般において、構成要素の性能が向上し、これにより、このような装置全般の性能が向上している。このようなことから、近年の電子辞書には、見出し語に関連したデータとして、テキストデータだけではなく、画像データや音声データ等のオブジェクトデータも格納されるようになっている。これにより、電子辞書では、ユーザに対して、見出し語に対応した情報として、文字情報だけでなく画像や音声も提供することができ、利便性の向上が図られてきた。
特開平6−44308号公報
上記したような従来の電子機器では、ユーザが情報を入力すれば、当該情報に基づいて見出し語の検索が行なわれ、検索結果である見出し語について、文字情報だけでなく、画像や音声を提供することができた。
なお、このような電子機器では、画像や音声は付属的に提供されていたが、ユーザの中には、自分が入力した情報に対応した見出し語だけではなく、自分が入力した情報に対応した画像や音声を、検索結果として得ることを望む場合があった。しかしながら、従来の電子機器では、画像や音声はあくまで見出し語に付随する情報として扱われてきたので、このような検索はできなかった。
本発明は係る実情に鑑み考え出されたものであり、その目的は、電子機器において、見出し語に対して付属的に提供されてきた画像や音声の中で、ユーザが入力した情報に対応したものをユーザに提供できるようにすることである。
本発明に従った電子機器は、入力手段と、見出し語と前記見出し語に関連付けられたテキストデータおよびオブジェクトデータとを含む辞書データから、前記入力手段を介して入力された情報に基づいて、前記辞書データの見出し語を検索する検索手段と、前記オブジェクトデータをキーワードと関連付ける情報を記憶する関連情報記憶手段とを備え、前記検索手段は、前記入力手段を介して入力された情報に対応する前記関連情報記憶手段中の前記キーワードを検索し、検索結果である前記キーワードに前記関連情報記憶手段において関連付けられた前記オブジェクトデータを検索し、検索結果である前記オブジェクトデータと前記辞書データにおいて関連付けられている見出し語を検索することを特徴とする。
また、電子機器は、前記辞書データの中から前記キーワードを抽出する抽出手段をさらに備えることが好ましい。
また、電子機器では、前記抽出手段は、前記辞書データにおいて前記オブジェクトデータに関連付けられている前記見出し語を前記キーワードとして抽出することが好ましい。
また、電子機器では、前記抽出手段は、前記辞書データにおいて前記オブジェクトデータに関連付けられている前記テキストデータの中で、特定の記号に対して一定の条件を満たすデータを前記キーワードとして抽出することが好ましい。
また、電子機器は、前記入力手段を介して入力されたデータを記憶する入力データ記憶手段をさらに備え、前記抽出手段は、前記辞書データにおいて前記オブジェクトデータに関連付けられている前記テキストデータの中から、前記入力データ記憶手段に記憶されたデータと一致するデータを前記キーワードとして抽出することが好ましい。
また、電子機器では、前記抽出手段は、前記オブジェクトデータについて抽出したキーワードに漢字が含まれる場合には、当該キーワードのかな表記をされた文字列を、さらに前記オブジェクトデータに関連する前記キーワードとして抽出することが好ましい。
また、電子機器では、前記オブジェクトデータは、画像データであることが好ましい。
また、電子機器では、前記オブジェクトデータは、音声データであることが好ましい。
本発明に従った電子機器の制御方法は、所定の記憶装置に記憶された見出し語と前記見出し語に関連付けられたテキストデータおよびオブジェクトデータとを含む辞書データを利用して検索を行なう電子機器の制御方法であって、前記電子機器が、前記オブジェクトデータを前記オブジェクトデータのキーワードと関連付ける情報を関連付けて記憶するステップと、前記電子機器に入力された情報に対応する前記キーワードに関連付けられて記憶された前記オブジェクトデータを検索するステップと、検索結果である前記オブジェクトデータと前記辞書データにおいて関連付けられている見出し語を検索するステップとを備えることを特徴とする。
本発明に従ったコンピュータプログラムは、コンピュータに、上記した電子機器の制御方法を実行させるためのコンピュータプログラムであることを特徴とする。
本発明によれば、電子機器において、辞書データにおいて見出し語と関連付けられているオブジェクトデータについて、当該オブジェクトデータとそのキーワードとを関連付ける情報が記憶される。そして、電子機器では、当該キーワードを介して、入力された情報に対応するオブジェクトデータが検索され、そして、検索結果であるオブジェクトデータに辞書データにおいて関連付けられている見出し語が、最終的な検索結果としてユーザに与えられる。
これにより、電子機器において、ユーザが情報を入力すると、当該情報に対応したオブジェクトデータに辞書データにおいて関連付けられている見出し語が検索結果としてユーザに与えられる。つまり、ユーザは、情報を入力すれば、当該情報に対応するオブジェクトデータを、検索結果として与えられた見出し語を介して、電子機器に出力させることができる。
したがって、本発明によれば、電子機器が、見出し語に対して付属的に提供されてきた画像や音声の中で、ユーザが入力した情報に対応したものをユーザに提供できるようになるため、電子機器の利便性を向上させることができる。
以下、本発明の電子機器の一実施形態である電子辞書について、図面を参照しつつ説明する。なお、本発明の電子機器は、電子辞書に限定されない。つまり、本発明の電子機器は、汎用のパーソナルコンピュータ等の、電子辞書以外の機能を有する装置によって構成されることも意図される。
図1は、電子辞書のハードウェア構成を模式的に示す図である。図1を参照して、電子辞書1は、当該電子辞書1の動作を全体的に制御するCPU(Central Processing Unit)10を含む。また、電子辞書1は、ユーザからの情報の入力を受付ける入力部20、情報を表示する表示部30、RAM(Random Access Memory)40、および、ROM(Read Only Memory)50を含む。
入力部20は、複数のボタンおよび/またはキーを含む。ユーザは、それらを操作することにより、電子辞書1に対して情報を入力することができる。なお、具体的には、入力部20には、辞書データを表示させたい見出し語等を入力するための文字入力キー21、選択中の情報を確定する情報を入力するための決定キー22、表示部30に表示されるカーソルを移動させるためのカーソルキー23、および、特定の情報の入力に利用されるSキー24が含まれる。
RAM4には、選択画像・ワード記憶領域41、入力テキスト記憶領域42、候補キーワード記憶領域43、および、キーワード選択要否設定記憶領域44が含まれる。
ROM50には、画像・キーワード対応テーブル記憶部51、キーワード・画像IDリスト対応テーブル記憶部52、画像ID・見出し語対応テーブル記憶部53、手動入力キーワード記憶部54、辞書データベース(DB)記憶部55、辞書検索プログラム記憶部56、および、画像表示プログラム記憶部57が含まれる。
辞書DB記憶部55には、辞書データが記憶される。辞書データでは、複数の見出し語のそれぞれに対して種々のデータが関連付けられて記憶されている。図2に、辞書データのデータ構造の一例を模式的に示す。
図2を参照して、辞書データには、「アーヘン大聖堂」「イエローストーン」「アクロポリス」等の複数見出し語が含まれる。そして、図2では、各見出し語に関連する情報が横一列に並べられて示されている。
各見出し語には、「大分類」「小分類」の2段階で、分類を表わす情報が付与されている。また、辞書データでは、各見出し語に対して背番号(図2中の「連番ID」)が付与されている。また、辞書データでは、各見出し語に対し「見出し読み」として読み仮名が関連付けられて記憶され、さらに、各見出し語に関連する国の名前(図2中の「国名」)が付与されている。また、辞書データでは、各見出し語に対して説明文(図2中の「本文」)が付与されているとともに、当該見出し語に関連付けて表示部30に表示させる画像を特定する情報(図2中の「画像ID」)、画像IDで特定される各画像の表示部30における表示位置を特定する情報(図2中の「画像のポジション」)が関連付けられて記憶されている。なお、複数の見出し語の中には、画像IDを関連付けられているものもあれば、関連付けられていないものもある。
本実施の形態では、見出し語に対応するオブジェクトデータの一例として画像データが採用されて説明が行なわれるが、本発明のオブジェクトデータは画像データに限定されない。オブジェクトデータは、画像データの他に、音声データ、動画データ、および/または、これらが組合されたデータであってもよい。
上記した画像IDで特定される各画像の実データは、辞書DB記憶部55内に、(たとえば図4に示されるように)上記した辞書データとは別に記憶されている。なお、図4の縦軸は、画像の実データを記憶する記憶領域のアドレスを示している。また、辞書DB記憶部55には、辞書データ中の画像IDと各画像の実データの記憶場所(アドレス)とを関連付ける情報である画像ID・アドレス対応テーブルが、さらに記憶されている。このテーブルの構成を、図3に模式的に示す。
図3を参照して、画像ID・アドレス対応テーブルでは、各画像IDに対応する画像の実データについての記憶場所の先頭のアドレスが示されている。CPU10は、画像IDの値で特定される画像を表示部30に表示させる際には、画像ID・アドレス対応テーブルにおいて、当該画像IDに対応する実データの記憶場所を取得し、当該記憶場所に記憶されてデータを、表示部30への表示に利用する。
図5は、画像・キーワード対応テーブル記憶部51に記憶されている画像・キーワード対応テーブルのデータ構成を模式的に示す図である。
図5を参照して、当該テーブルでは、各画像についての情報が横一列で並べられている。なお、当該テーブルでは、画像IDの数値の順に、各画像についての情報が縦に並べられている。なお、当該テーブルでは、画像IDがjという変数の値に対応している。
図5に示されたテーブルでは、各画像IDに関連付けられて、画像の見出し名とともに、複数のキーワード(キーワード1、キーワード2、キーワード3、…)が記憶されている。本実施の形態の電子辞書1では、図2に示されるような辞書データに基づいて、図5に示されるような画像・キーワード対応テーブルが作成される。つまり、図2に示されたような辞書データに基づいて、各見出し語に対して付属的に表示(オブジェクトデータが音声データの場合には、再生または出力)される画像データなどのオブジェクトデータに関連付けられたキーワードが記憶されるようになる。これにより、電子辞書1では、各オブジェクトが表示等されている際に(または、再生等がされた直後に)入力部20に対して特定の操作がなされたことなどの特定の条件が成立することによって、画像・キーワード対応テーブルにおいて当該オブジェクトのデータに関連付けられているキーワードに基づいた(キーワードをキーとした)、辞書データの見出し語の検索を行なうことができる。図5に示されるような画像・キーワード対応テーブルがどのように作成されるかについては、後述する。
なお、画像・キーワード対応テーブルでは、各画像に関連付けられたキーワードの順序を特定する変数として、変数nが定義されている。
図6は、キーワード・画像IDリスト対応テーブル記憶部52(図1参照)に記憶されている、キーワード・画像IDリスト対応テーブルのデータ構造を模式的に示す図である。図6を参照して、当該テーブルでは、図5においてキーワードとして記憶されている文字列ごとに、図5のテーブルにおいて関連付けて記憶されているすべての画像(画像ID)が記憶されている。
図7は、画像ID・見出し語対応テーブル記憶部53(図1参照)に記憶されている画像・見出し語対応テーブルのデータ構成の一例を模式的に示す図である。当該テーブルでは、各画像の画像IDと画像の見出し名(各画像IDで特定される画像データのファイル名)とが関連付けられて記憶されている。
図8は、手動入力キーワード記憶部54(図1参照)に記憶されているデータの構造の一例を模式的に示す図である。ここでは、ユーザが、文字入力キー21などのキーを操作することにより入力したキーワードが記憶されている。
図9は、表示部30における、辞書データ(図2参照)における1つの見出し語に対応する情報の表示態様の一例を示す図である。
図2と図9を主に参照して、画面90では、辞書データにおける見出し読みの欄に記憶されたデータに対応する情報91、見出し語の欄に記憶されたデータに対応して表示される情報92、国名の欄に記憶されているデータに基づいて表示される情報96、小分類の欄に記憶されるデータに基づいて表示される情報98、画像IDの欄に記憶されるデータに基づいて表示される画像90A、および、本文の欄に記憶されたデータに基づいて表示される情報94,99が表示されている。画像90Aの表示部30における表示位置は、画像のポジションの欄に記憶されている情報に基づいて決定される。CPU10は、画像表示プログラム記憶部57に記憶されたプログラムに従った処理を実行することにより、辞書データに含まれるデータを、たとえば図9に示すように、表示部30に表示させる。なお、CPU10は、辞書データにおいて音声データを特定する情報が記憶されている場合には、図9に示したような画面90を表示部30に表示させるとともに当該音声ファイルを再生(出力)しても良いし、画面90に音声ファイルの再生を指示するボタンを表示させ、当該ボタンを選択する操作がなされたことに応じて当該ファイルを再生しても良い。
電子辞書1では、出荷時に、または、辞書データや当該辞書データに対して検索を行なうためのプログラムがインストールされた際に、図5を参照して説明したような画像・キーワード対応テーブルを作成する。CPU10は、辞書検索プログラム記憶部56に記憶されたプログラムに従って、当該テーブルを作成する。ここで、CPU10が当該テーブルの作成の際に実行する処理について、当該処理(画・キーワード対応テーブル作成処理)のフローチャートである図16を参照して、説明する。
図16を参照して、画・キーワード対応テーブル作成処理では、CPU10は、まずステップS10で、変数jを0にセットして、ステップS20へ処理を進める。変数jとは、上記したように、画・キーワード対応テーブルにおける画像データの背番号に対応した変数である。つまり、以降の処理において、変数jの値により、処理対象となっている画像データが画・キーワード対応テーブル中のどの画像データであるかが特定される。なお、本実施の形態では、予め、画像ID・アドレス対応テーブル(図3参照)に記憶されているすべての画像IDについて、画・キーワード対応テーブルに記憶され、各画像IDに対して変数jの値が割り振られているものとする。
ステップS20では、CPU10は、変数n、および、変数iの値を、いずれも0にセットして、ステップS30へ処理を進める。変数nとは、図5を参照して説明したように、各画像に関連付けられて記憶されるキーワードの順序を特定する値である。また、変数iは、これ以降の処理で利用される変数である。
ステップS30では、変数の値が配列Pの要素数よりも小さい値であるか否かを判断する。配列Pの要素数とは、辞書DB記憶部55において記憶されているオブジェクトの実データの数を意味する。そして、CPU10は、変数の値が配列Pの要素数よりも小さいと判断するとステップS40へ処理を進め、そうではないと判断すると処理を終了させる。
ステップS40では、CPU10は、現在処理対象となっている画像データに対して、当該画像データが辞書データにおいて関連付けられている見出し語のデータを、当該画像データのキーワードとして関連付けるための処理である見出し情報抽出処理を実行する。なお、この処理の内容を、当該処理のサブルーチンのフローチャートである図17を参照して、説明する。
図17を参照して、見出し情報抽出処理では、CPU10はまずステップS41で、CPU10は、画像・キーワード対応テーブルのS[j][n]で特定される位置のキーワードとして、現在処理対象となっている画像が辞書データにおいて関連付けられて記憶されている見出し語を抽出して記憶させて、ステップS42へ処理を進める。なお、S[j][n]とは、画像・キーワード対応テーブルにおいて、j番目の画像IDについての、n番目のキーワードに対応する記憶位置である。また、ステップS41では、CPU10は、上記したように見出し語を記憶させた後、変数nを1加算更新させる。
ステップS42では、CPU10は、直前のステップS41で抽出および記憶の対象となった見出し語に漢字が含まれるか否かを判断し、含まれると判断するとステップS43へ処理を進め、含まれないと判断するとステップS44へ処理を進める。
ステップS43では、CPU10は、ステップS41で抽出および記憶の対象となった見出し語のかな表記されたもの(漢字を仮名に変換されたもの、具体的には、辞書データの「見出し読み」)を、画像・キーワード対応テーブルのS[j][n]で特定される位置に記憶させ、そして、変数nを1加算更新させて、ステップS44へ処理を進める。
ステップS44では、CPU10は、他に辞書データにおいて画像P[j](処理対象の画像)と関連付けられて記憶されている見出し語が存在するか否かを判断し、存在すると判断するとステップS41へ処理を戻し、存在しないと判断すると図16へ処理をリターンさせる。
以上、図17を参照して説明した見出し情報抽出処理により、画像・キーワード対応テーブルでは、各画像について、当該画像が辞書データにおいて関連付けられているすべての見出し語を、キーワードとして記憶される。また、記憶される見出し語が漢字を含む場合には、そのかな表記されたものについても、漢字を含む見出し語とは別に、キーワードとして、画像・キーワード対応テーブルに記憶される。
図16を参照して、ステップS40で見出し情報抽出処理を行なった後、CPU10は、ステップS50で、各画像について、辞書データにおいて「小分類」の欄に関連付けられて記憶されているデータを、画像・キーワード対応テーブルにキーワードとして記憶させる処理である、分類情報抽出処理を実行する。この処理の内容を、当該処理のサブルーチンのフローチャートである図18を参照して説明する。
図18を参照して、分類情報抽出処理では、CPU10は、ステップS51で、iの値が配列Qの要素数よりも小さい値となっているか否かを判断し、そうであると判断するとステップS52へ処理を進め、そうではないと判断すると処理をリターンさせる。なお、配列Qの要素数とは、辞書データにおいて、「小分類」の欄に記憶させるための情報の種類の総数を意味する。本実施の形態では、図2に示されるように、「小分類」の欄には、少なくとも「文化遺産」「自然遺」という少なくとも2種類の情報が示されている。したがって、本実施の形態では、配列Qの要素数は、少なくとも2以上であると言える。
ステップS52では、CPU10は、画像P[j](処理対象となっている画像)が、小分類として記憶可能な情報の中のQ[i]番目の情報に、辞書データにおいて関連付けられているか否かを判断し、そうであると判断するとステップS53へ処理を進め、そうではないと判断するとステップS56へ処理を進める。
ステップS53では、Q[i]番目の小分類の名称を、画像・キーワード対応テーブルのS[j][n]の位置にキーワードとして記憶させ、さらに、変数nを1加算更新して、ステップS54へ処理を進める。
ステップS54では、CPU10は、直前のステップS53でキーワードとして記憶させた文言に漢字が含まれるか否かを判断し、含まれると判断するとステップS55へ処理を進め、含まれないと判断するとステップS56へ処理を進める。
ステップS55では、CPU10は、ステップS53でキーワードとして記憶された小分類の名称のかな表記を、画像・キーワード対応テーブルのS[j][n]で特定される位置にキーワードとして記憶させて、ステップS56へ処理を進める。
ステップS56では、CPU10は、変数iを1加算更新して、ステップS51へ処理を戻す。
そして、分類情報抽出処理では、変数iの値が、上記した配列Qの要素数以上となった場合には、CPU10は、処理を図16に戻す。
図16を参照して、ステップS50で分類情報抽出処理を行なった後、CPU10は、ステップS60で、各画像について、辞書データにおいて本文として関連付けられて記憶されている情報の中から、抽出した情報を、画像・キーワード対応テーブルにおいてキーワードとして抽出して記憶させる処理である、本文中キーワード抽出処理を実行して、ステップS70へ処理を進める。なお、当該処理について、当該処理のサブルーチンのフローチャートである図19を参照して説明する。
図19を参照して、本文中キーワード抽出処理では、CPU10は、ステップS61で、その他のキーワード抽出処理を実行して、ステップS62へ処理を進める。ここで、この処理の内容について、当該処理のサブルーチンのフローチャートである図20を参照して説明する。
図20を参照して、その他のキーワード抽出処理では、CPU10は、ステップS611で、処理対象となっている画像に辞書データにおいて関連付けられている「本文」の中で、検索対象となっていない文が存在するか否かを判断し、存在すると判断するとステップS612へ処理を進め、存在しないと判断するとステップS615へ処理を進める。なお、ここで、処理対象となっている「本文」とは、処理対象となっている画像に、辞書データにおいて関連付けられている見出し語の本文である。また、検索対象となっていないとは、これから説明するステップS612〜ステップS614の処理対象となっていないという意味である。
ステップS612では、CPU10は、処理対象となっている「本文」の、検索対象とされていない部分の先頭から、大括弧([])で囲まれた文字列を検索し、そのような文字列があると判断すると、その後に続く文を抽出して、ステップS613へ処理を進める。ここで、CPU10は、次に大括弧で挟まれた文字列の直前までの文を抽出する。
ステップS613では、直前のステップS612で抽出した文を字句解析し、当該文から、最初に表われた名詞をキーワードとして抽出し、ステップS614へ処理を進める。
ステップS614では、CPU10は、直前のステップS613で抽出したキーワードは、現在処理対象となっている画像に関連付けられて、既に画像・キーワード対応テーブルに記憶されているか否かを判断し、そうであると判断するとステップS611へ処理を戻し、そうではないと判断するとステップS616へ処理を進める。
一方、ステップS615では、CPU10は、処理対象となっている画像に関連付けられた「本文」の中で、手動入力キーワード(図3参照)に含まれるキーワードに一致する文字列であって、画像・キーワード対応テーブルにおいて処理対象となっている画像のキーワードとして記憶されていない文字列があるか否かを判断し、そのような文字列があると判断するとステップS616へ処理を進め、そのような文字列がないと判断するとステップS618へ処理を進める。
ステップS616では、CPU10は、ステップS613で抽出したキーワード、または、ステップS615で抽出した文字列を、キーワードの候補として、RAM40の候補キーワード記憶領域43に一時的に記憶させて、ステップS617へ処理を進める。
ステップS617では、CPU10は、キーワード抽出フラグF1をONして、処理を図19へリターンさせる。
一方、ステップS618では、CPU10は、上記したキーワード抽出フラグF1をOFFして、処理を図19にリターンさせる。
図19を参照して、ステップS61でその他のキーワード抽出処理を実行した後、CPU10は、ステップS62で、ステップS61のその他のキーワード抽出処理において、キーワード候補が抽出できたか否かを判断し、抽出できたと判断するとステップS63へ処理を進め、抽出できなかったと判断すると、そのまま処理を図16へ戻す。なお、ここでは、上記したキーワード抽出フラグF1がONである場合にはキーワード候補が抽出できたと判断され、また、当該フラグがOFFであると判断するとキーワード候補が抽出できなかったと判断する。
ステップS63では、CPU10は、ステップS61のその他のキーワード抽出処理においてRAM40の候補キーワード記憶領域43に一時的に記憶させていたキーワード候補を、画像・キーワード対応テーブルのS[j][n]で特定される位置にキーワードとして記憶させ、さらに、変数nを1加算更新させて、ステップS64へ処理を進める。なお、ステップS63では、CPU10は、キーワードを画像・キーワード対応テーブルに記憶させた後、候補キーワード記憶領域43の記憶内容をクリアする。
ステップS64では、CPU10は、直前のステップS63でキーワードとして記憶させた文字列が漢字を含むか否かを判断し、含むと判断するとステップS65の処理を行なった後図16へ処理を戻す。一方、漢字を含まないと判断すると、そのまま処理を図16へ戻す。
ステップS65では、CPU10は、ステップS63でキーワードとして記憶させた文字列のかな表記されたものを、画像・キーワード対応テーブルのS[j][n]で特定される位置に記憶させ、さらに、変数nを1加算更新させる。
図16を参照して、ステップS60の本文中キーワード抽出処理を実行した後、CPU10は、ステップS70で、変数jを1加算更新して、ステップS20へ処理を戻す。これにより、処理対象となる画像が変更される。
そして、ステップS20では、CPU10は、上記したように変数nと変数lと変数iの値として0をセットしてステップS30へ処理を進め、ステップS30で変数jの値が配列Pの要素数以上となった場合には、処理を終了させる。
以上説明した本実施の形態では、辞書データにおいて見出し語と関連付けられた各画像について、画像・キーワード対応テーブルとして、キーワードを関連付けて記憶することができる。なお、各画像について、関連したキーワードを抽出してくる際には、当該画像が辞書データにおいて関連付けられている見出し語(および、そのかな表記されたもの)、小分類(および、そのかな表記されたもの)、ならびに、辞書データの本文において大括弧の後に続く文の中で最初に出現する名詞、つまり、大括弧という記号に対して一定の条件を満たすテキストデータが、キーワードとして抽出され、画像・キーワード対応テーブルにキーワードとして記憶される。
なお、本実施の形態では、画像・キーワード対応テーブルにおいてキーワードとして記憶されている各文字列について、当該テーブルにおいて関連付けられて記憶されているすべての画像についての画像IDを記憶される新たなテーブル(キーワード・画像IDリスト対応テーブル)が作成される。ここで、このようなテーブルを作成するための処理の内容について、当該処理のフローチャートである図21を参照して説明する。
図21を参照して、キーワード・画像IDリスト対応テーブル作成処理では、CPU10は、まずステップSA10で、変数jの値として0をセットして、ステップSA20へ処理を進める。なお、変数jとは、上記した画像・キーワード対応テーブルに対して定義された変数jと同じ意味を有する変数である。
ステップSA20では、CPU10は、変数jが配列Sの要素数よりも小さい値であるか否かを判断し、そうであると判断するとステップSA30へ処理を進める。
ステップSA30では、CPU10は、変数nが配列S[]の要素数よりも小さい値であるか否かを判断し、そうであると判断するとステップSA50へ処理を進め、そうではないと判断するとステップSA40へ処理を進める。
ここで、配列S[j]の要素数とは、画像・キーワード対応テーブルにおいてキーワードを記憶されている画像の総数に対応する値であり、具体的には、当該総数に1を加えた値である。画像・キーワード対応テーブルでは、jが「0」から定義されているからである。
また、S[j][n]とは、上記した画像・キーワード対応テーブル作成処理において扱われていたS[j][n]と同じ意味を有する変数である。
ステップSA50では、CPU10は、画像・キーワード対応テーブルのS[j][n]の位置に記憶されているキーワードが、既に、キーワード・画像IDリスト対応テーブルにおいて現在の処理対象の画像に関連付けられて記憶されているか否かを判断し、そうであると判断するとステップSA60へ処理を進め、そうではないと判断するとステップSA70へ処理を進める。
ステップSA70では、画像・キーワード対応テーブルのS[j][n]の位置にあるキーワードを、キーワード・画像IDリスト対応テーブルのキーワードの欄に新たに追加して、さらに、新たに追加したキーワードに関連付けて、画像・キーワード対応テーブルにおいて当該キーワードが関連付けられている画像IDを記憶させて、ステップSA80に処理を進める。
ステップSA60では、CPU10は、キーワード・画像IDリスト対応テーブルにおいて画像・キーワード対応テーブルのS[j][n]のキーワードと同じキーワードに関連付けられる画像IDとして、画像・キーワード対応テーブルにおいて関連付けられていた画像IDを追加させて、ステップSA80へ処理を進める。
ステップSA80では、CPU10が、変数nを1加算更新して、ステップSA30へ処理を戻す。
一方、ステップSA40では、CPU10は、変数jを1加算更新して、ステップSA20へ処理を戻す。
そして、ステップSA20で、変数jが配列Sの要素数以上となったと判断すると、CPU10は、ステップSA90で、キーワード・画像IDリスト対応テーブルにおいて、キーワードが文字コード順になるようにデータをソートして、処理を終了させる。
次に、電子辞書1において、辞書データに基づいて、入力部20を介して入力された文字列に基づいて検索された見出し語についての情報の表示、および、表示された情報の中に画像が含まれる場合であって、入力部20に対して特定の操作がなされたことを条件として表示された画像に関連付けられたキーワードに基づいて辞書データが検索され、当該検索結果が表示される。ここで、このような一連の動作を実現するための処理(リンク検索処理)について、当該処理のフローチャートである図22を参照して説明する。
リンク検索処理では、CPU10は、まずステップSB10で、入力文字列に基づく検索結果を表示する処理を実行して、ステップSB20へ処理を進める。なお、ステップSB10における処理について、当該処理のサブルーチンのフローチャートである図23を参照して、説明する。
図23を参照して、入力文字列に基づく検索結果を表示させる処理では、CPU10は、ステップSB101で、入力部20を介してユーザから入力された文字列を受付けて、ステップSB102へ処理を進める。
ステップSB102では、CPU10は、入力された文字列をキーワードとして辞書データの見出し語の検索を行ない、ステップSB103へ処理を進める。なお、入力された文字列をキーワードとして辞書データの見出し語を検索する処理内容については、周知の技術を採用することができるため、ここでは説明を繰り返さない。
ステップSB103では、CPU10は、ステップSB102の検索結果としてリストアップされた見出し語を表示部30へ表示させて、ステップSB104へ処理を進める。
ステップSB104では、CPU10は、ステップSB103で表示された見出し語の中から、見出し語を選択するための情報が入力部20を介して入力されたか否かを判断し、入力されたと判断するとステップSB105へ処理を進める。
ステップSB105では、CPU10は、選択された見出し語のページを、表示部30に表示させて、処理を図22へリターンさせる。なお、ステップSB105の処理により表示される見出し語のページの表示態様としては、たとえば図9に示した画面90を挙げることができる。
なお、選択された見出し語のページの表示態様としては、図9に示された画面90の他に、図10に示される画面100を挙げることもできる。
図10を参照して、画面100では、辞書データにおける見出し読みの欄に記憶されたデータに対応する情報101、見出し語の欄に記憶されたデータに対応して表示される情報102、国名の欄に記憶されているデータに基づいて表示される情報106、小分類の欄に記憶されるデータに基づいて表示される情報108、および、本文の欄に記憶されたデータに基づいて表示される情報104,110が表示されている。なお、画面100では、画面90の画像90Aのような、画像IDの欄に記憶されるデータに対応した画像は表示されず、その代わりに、アイコン100Xが表示されている。画面90の代わりに画面100を表示した場合には、CPU10は、アイコン100Xに対して操作がなされたことを条件として、画像IDの欄に記憶されているデータに対応した画像を表示部30に表示させる。なお、画面100が、辞書データにおいて画像IDを関連付けられていない見出し語についてのページを表示するものであれば、CPU10は、画面100にアイコン100Xを表示させない。
図22に戻って、ステップSB10で入力文字列に基づく検索結果を表示させる処理を行なった後、CPU10は、ステップSB20で、電子辞書1をオブジェクト選択モードとするための指示が入力部20を介して入力されたか否かを判断し、入力されたと判断するとステップSB30へ処理を進める。なお、オブジェクト選択モードとは、図9に示されたような画面90においてオブジェクト(画像90A)またはオブジェクトに対応するアイコン(たとえば、音声データを再生するためのアイコン)を選択することができるモードである。
ステップSB30では、CPU10は、表示させていた画像に基づく検索結果を表示させる処理を実行した後、ステップSB20へ処理を戻す。なお、オブジェクト選択モードにするための指示とは、たとえば、Sキー24に対して操作がなされたことによって入力される。ステップSB30の処理について、当該処理のサブルーチンのフローチャートである図24を参照して説明する。
図24を参照して、表示した画像に基づく検索結果を表示する処理では、CPU10は、まずステップSB301で、表示部30に表示させたオブジェクト(またはテキストデータ)の中で、ユーザからオブジェクトを選択するための操作を受付けて、ステップSB302へ処理を進める。
ステップSB302では、CPU10は、ステップSB301で受付けた操作が、画像を選択する操作であり、かつ、当該操作を確定するための操作を受付けたか否かを判断し、そうであるとは判断するとステップSB303へ処理を進める。
ステップSB303では、CPU10は、画像・キーワード対応テーブルにおいて、ステップSB302で選択された画像に関連付けられて記憶されているキーワードを抽出して、ステップSB304へ処理を進める。
ステップSB304では、キーワード選択要否設定記憶領域44において、記憶されている設定内容をチェックし、キーワード選択が必要と設定されているか否かを判断する。そして、そのように設定されていると判断するとステップSB305へ処理を進め、そのようには設定されていないと判断すると、つまり、キーワード選択は不要である旨の設定が記憶されていると判断すると、ステップSB306へ処理を進める。ここで、キーワード選択要否設定記憶領域44における設定内容は、たとえば、キーワード選択が必要であるか不要であるかについての設定情報であり、ユーザが入力部20を介して情報を入力することにより(または、デフォルト)で設定されている。
ステップSB305では、CPU10は、ステップSB303で抽出されたキーワードが1つであるか否かを判断し、そうであると判断するとステップSB306へ処理を進め、そうではないと判断すると、つまり、ステップSB303で抽出されたキーワードが複数であると判断すると、ステップSB307へ処理を進める。
ステップSB307では、CPU10は、ステップSB303で抽出した複数のキーワードから、キーワードを選択する情報の入力を受付けて、ステップSB308へ処理を進める。なお、ステップSB307においてキーワードを選択する情報の入力を受付ける際に、図11に示すような画面を表示する。
図11を参照して、画面110には、図9に示された見出し語についてのページの上から被さるように、画面110Bが表示されている。なお、画面110の情報111,112,114,116,118,119および画像110Aは、それぞれ、画面90における情報91,92,94,96,98,99および画像90Aに対応する。そして、画面110Bには、画像・キーワード対応テーブルにおいて画像110Aの画像IDに関連付けられたキーワードがリスト表示されている。ユーザは、リスト表示されているキーワードの中から入力部20を適宜操作することによりキーワードを選択する。ステップSB307では、ユーザによってこのように選択されたときの情報を、CPU10が受付ける。
図24に戻って、ステップSB308では、ステップSB307で受付けた情報によって選択されたキーワードに基づいて、辞書データの見出し語の検索を行ない、ステップSB309へ処理を進める。
ステップSB30では、ステップSB303で抽出されたキーワードのすべてに基づいて、辞書データの見出し語の検索を行ない、ステップSB309へ処理を進める。なお、ステップSB306での検索は、すべてのキーワードについての、or検索であってもよいし、and検索であってもよい。
ステップSB309では、検索結果として得られた見出し語の一覧を、表示部30に表示させて、ステップSB310へ処理を進める。ここでは、たとえば、表示部30には、図12に示されるような画面が表示される。
図12を参照して、画面120では、図9の情報91,92および画像90Aにそれぞれ対応する情報121,122および画像120Aとともに、ステップSB306またはステップSB308の検索結果である見出し語の一覧を表示する画面である画面120Bが表示されている。
ステップSB310では、CPU10は、ステップSB309で表示させた検索結果の中から、見出し語を選択する情報が入力されたか否かを判断し、入力されたと判断すると、ステップSB311へ処理を進める。
ステップSB311では、CPU10は、選択された見出し語のページを、たとえば図9に示す画面90のように表示させて、処理を図22に戻す。
以上説明した本実施の形態では、表示部30において、辞書データの見出し語に関連する情報として表示された画像が選択されることにより、当該画像に関連付けられたキーワードに基づいた見出し語の検索を行なうことができる。なお、図11を参照して説明したように、画像に複数のキーワードが関連付けられている場合には、関連付けられている複数のキーワードを表示部30に表示させ、ユーザから、当該複数のキーワードの中からキーワードを選択する情報を入力させることもできる。
また、本実施の形態では、オブジェクトデータの一例として画像データが採用されて、説明が行なわれた。なお、オブジェクトデータとして、辞書データで見出し語に関連付けられた音声データが採用された場合、図11の画面110Bに示したような、オブジェクトデータに関連付けられたキーワードの一覧表示は、たとえば、音声データの再生中に入力部20に対して特別な操作がなされたことを条件として、当該音声データに関連付けられているキーワードの一覧画面が表示されるようにすることが考えられる。
また、以上説明した本実施の形態では、辞書データが電子辞書1本体内に格納されている場合について説明がなされたが、辞書データは必ずしも電子辞書1本体内に格納されている必要はない。つまり、電子辞書1は、辞書DB55を備えている必要はない。そして、電子辞書1は、たとえばネットワークを介して接続される機器に格納される辞書データを利用することにより、画像・キーワード対応テーブル等を作成するように構成されていてもよい。
なお、電子辞書1では、図10に示したように、見出し語についてのページの表示態様として、当該見出し語に関連付けられた画像を直接表示させず、当該画像に対応するアイコンを表示させるものが採用されても良い。そして、図10に示されるように見出し語についてのページが表示される際の、リンク検索処理の変形例を、以下に説明する。
図25は、リンク検索処理の変形例のフローチャートである。図25を参照して、リンク検索処理の変形例では、CPU10は、まずステップSC10で、入力文字列に基づく検索結果を表示する処理を実行して、ステップSC20へ処理を進める。なお、ステップSC10における処理について、当該処理のサブルーチンのフローチャートである図26を参照して、説明する。
図26を参照して、この変形例における、入力文字列に基づく検索結果を表示させる処理では、図23を参照して説明した処理と同様の処理が行なわれる。つまり、CPU10は、ステップSC101で、入力部20を介してユーザから入力された文字列を受付け、ステップSC102で、入力された文字列をキーワードとして辞書データの見出し語の検索を行ない、ステップSC103で、ステップSC102の検索結果としてリストアップされた見出し語を表示部30へ表示させて、ステップSC104へ処理を進める。そして、CPU10は、ステップSC104で、ステップSC103で表示された見出し語の中から、見出し語を選択するための情報が入力部20を介して入力されたか否かを判断し、入力されたと判断するとステップSC105へ処理を進める。そして、CPU10は、ステップSC105で、選択された見出し語のページを表示部30に表示させて、処理を図25へリターンさせる。
図25に戻って、ステップSC10で入力文字列に基づく検索結果を表示させる処理を行なった後、CPU10は、ステップSC20で、表示対象となっている見出し語に辞書データで関連付けられた画像を、表示部30で全画面表示させる指示がなされたか否かを判断する。なお、この指示は、たとえば、入力部20に対して、アイコン100Xを選択しかつ当該選択を確定させる操作により実現される。そして、指示がなされたと判断するとステップSC30へ処理を進める。
ステップSC30では、CPU10は、表示させていた画像に基づく検索結果を表示させる処理を実行した後、ステップSC20へ処理を戻す。ステップSC30の処理について、当該処理のサブルーチンのフローチャートである図27を参照して説明する。
図27を参照して、表示した画像に基づく検索結果を表示する処理では、CPU10は、まずステップSC301で、表示部30に、たとえば図13に示すように画像を全画面表示させて、ステップSC302に処理を進める。なお、図13に示される画面130では、画面130のほぼ全域に渡って、直前に表示されていた画面(画面100)の見出し語に関連付けられた画像130Aが表示されている。
図27に戻って、ステップSC302では、CPU10は、Sキー24が操作されたか否かを判断し、操作されたと判断するとステップSC303へ処理を進める。
ステップSC303では、CPU10は、画像・キーワード対応テーブルにおいて、ステップSC302で選択された画像に関連付けられて記憶されているキーワードを抽出して、ステップSC304へ処理を進める。
ステップSC304では、キーワード選択要否設定記憶領域44において、記憶されている設定内容をチェックし、キーワード選択が必要と設定されているか否かを判断する。そして、そのように設定されていると判断するとステップSC305へ処理を進め、そのようには設定されていないと判断すると、つまり、キーワード選択は不要である旨の設定が記憶されていると判断すると、ステップSC306へ処理を進める。ここで、キーワード選択要否設定記憶領域44における設定内容は、たとえば、キーワード選択が必要であるか不要であるかについての設定情報であり、ユーザが入力部20を介して情報を入力することにより(または、デフォルト)で設定されている。
ステップSC305では、CPU10は、ステップSC303で抽出されたキーワードが1つであるか否かを判断し、そうであると判断するとステップSC306へ処理を進め、そうではないと判断すると、つまり、ステップSC303で抽出されたキーワードが複数であると判断すると、ステップSC307へ処理を進める。
ステップSC307では、CPU10は、ステップSC303で抽出した複数のキーワードから、キーワードを選択する情報の入力を受付けて、ステップSC308へ処理を進める。なお、ステップSC307においてキーワードを選択する情報の入力を受付ける際に、図14に示すような画面を表示する。
図14参照して、画面140には、図13に示された画面130の上から被さるように、画面140Bが表示されている。なお、画面140の画像140Aは、画面130における画像130Aに対応する。そして、画面140Bには、画像・キーワード対応テーブルにおいて画像140Aの画像IDに関連付けられたキーワードがリスト表示されている。ユーザは、リスト表示されているキーワードの中から入力部20を適宜操作することによりキーワードを選択する。ステップSC307では、ユーザによってこのように選択されたときの情報を、CPU10が受付ける。
図27に戻って、ステップSC308では、ステップSC307で受付けた情報によって選択されたキーワードに基づいて、辞書データの見出し語の検索を行ない、ステップSC309へ処理を進める。
ステップSC30では、ステップSC303で抽出されたキーワードのすべてに基づいて、辞書データの見出し語の検索を行ない、ステップSC309へ処理を進める。なお、ステップSC306での検索は、すべてのキーワードについての、or検索であってもよいし、and検索であってもよい。
ステップSC309では、検索結果として得られた見出し語の一覧を、表示部30に表示させて、ステップSC310へ処理を進める。ここでは、たとえば、表示部30には、図15に示されるような画面が表示される。
図15を参照して、画面150では、図13の画像130Aに対応する画像150Aとともに、ステップSC306またはステップSC308の検索結果である見出し語の一覧を表示する画面である画面150Bが表示されている。
ステップSC310では、CPU10は、ステップSC309で表示させた検索結果の中から、見出し語を選択する情報が入力されたか否かを判断し、入力されたと判断すると、ステップSC311へ処理を進める。
ステップSC311では、CPU10は、選択された見出し語のページを、たとえば図10に示す画面100のように表示させて、処理を図25に戻す。
以上説明したように、本実施の形態では、電子辞書1において、辞書データ中の各見出し語についてのページの表示態様として、図9に示される画面90および図10に示される画面100が例示されている。なお、いずれの表示態様で表示が行なわれる場合であっても、入力文字列に基づく検索結果表示処理(図23または図26参照)では、入力された文字列に基づいた検索の結果である見出し語が、一旦表示部30にリスト表示された後で、見出し語のページが表示される。このようなリスト表示の画面は、たとえば図28に示されるような画面が挙げられる。図28を参照して、画面200では、ユーザが入力した文字列を表示する表示欄201と、項目202〜204として、検索結果である見出し語がリスト表示されている。
電子辞書1では、ユーザから入力された文字列に対して、辞書データ中の見出し語だけでなく、オブジェクトデータ(本実施の形態では、画像データ)に関連付けられたキーワードの検索を行なうことができる。なお、このような検索の結果としてユーザに提供される情報としては、まず、上記したキーワードの検索が行なわれ、次に、検索結果であるキーワードにキーワード・画像IDリスト対応テーブルで関連付けられた画像IDが抽出され、そして、抽出された画像IDに辞書データで関連付けられている見出し語が抽出された後、その見出し語が提供される。このような態様で行なわれる検索のためにCPU10が実行する処理(入力文字列に対応した画像検索処理)について、当該処理のフローチャートを図29に示す。
図29を参照して、入力文字列に対応した画像検索処理では、CPU10は、ステップSD10で、入力部20を介してユーザから入力された文字列を受付けて、ステップSD20へ処理を進める。
ステップSD20では、CPU10は、入力された文字列に合致するキーワードを、キーワード・画像IDリスト対応テーブルから検索して、ステップSD30へ処理を進める。なお、入力された文字列をキーワードとして当該テーブル内のキーワードを検索する処理内容については、周知の技術を採用することができるため、ここでは説明を繰り返さない。
ステップSD30では、CPU10は、キーワード・画像IDリスト対応テーブル(または、画像・キーワード対応テーブル)においてステップSD20の検索結果としてリストアップされたキーワードに関連付けられて記憶されている画像IDを抽出し、そして、当該画像IDに画像ID・見出し語対応テーブルにおいて関連付けられている見出し語を取得(ピックアップ)して、ステップSD40へ処理を進める。
ステップSD40では、CPU10は、ステップSD30で取得した見出し語を、たとえば図28に示すように表示部30へ表示させて、ステップSD50へ処理を進める。
ステップSD50では、CPU10は、ステップSD40で表示された見出し語の中から、見出し語を選択するための情報が入力部20を介して入力されたか否かを判断し、入力されたと判断するとステップSD60へ処理を進める。
ステップSD60では、CPU10は、選択された見出し語のページを、表示部30に表示させて、処理を終了させる。
なお、以上説明した入力文字列に対応した画像検索処理では、ROM50に記憶されたキーワード・画像ID対応テーブルと画像ID・見出し語対応テーブルが参照されたが、電子辞書1の構成はこれに限定されない。少なくとも画像・キーワード対応テーブルまたはキーワード・画像IDリスト対応テーブルがROM50に記憶されていれば、当該処理は実行可能である。
また、本実施の形態では、辞書データから画像ID・見出し語対応テーブルが作成され、また、画像ID・見出し語対応テーブルに基づいて画像・キーワード対応テーブルが作成されたが、これらのテーブルは、必ずしも電子辞書1において作成される必要はない。つまり、これらのテーブルは、予め作成されたものがROM50に記憶されても良い。また、これらのテーブルは、必ずしもROM50に記憶されている必要はなく、電子辞書1がネットワーク等を介して接続可能な装置の記憶装置に記憶されていても良い。そして、辞書検索プログラム記憶部56に記憶された辞書検索プログラムや画像表示プログラム記憶部57に記憶された画像表示プログラムは、CPU10が必要に応じて当該記憶装置にアクセスすることにより、本実施の形態において説明した各処理を実行するように構成されていても良い。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明の電子機器の一実施の形態である電子辞書のハードウェア構成を模式的に示す図である。 図1の電子辞書において記憶されている辞書データのデータ構造を模式的に示す図である。 図1の電子辞書において記憶されている、画像ID・アドレス対応テーブルのデータ構造を模式的に示す図である。 図1の電子辞書における、画像の実データの記憶態様を説明するための図である。 図1の電子辞書において記憶されている、画像・キーワード対応テーブルのデータ構造を模式的に示す図である。 図1の電子辞書において記憶されている、キーワード・画像IDリスト対応テーブルのデータ構造を模式的に示す図である。 図1の電子辞書において記憶されている、画像ID・見出し語対応テーブルのデータ構造を模式的に示す図である。 図1の電子辞書において記憶されている、手動入力キーワードのデータ構造を模式的に示す図である。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書において実行される画像・キーワード対応テーブル作成処理のフローチャートである。 図16の見出し情報抽出処理のサブルーチンのフローチャートである。 図16の分類情報抽出処理のサブルーチンのフローチャートである。 図16の本文中キーワード抽出処理のサブルーチンのフローチャートである。 図1の電子辞書において実行される、その他のキーワード抽出処理のフローチャートである。 図1の電子辞書において実行される、キーワード・画像IDリスト対応テーブル作成処理のフローチャートである。 図1の電子辞書において実行される、リンク検索処理のフローチャートである。 図22の、入力文字列に基づく検索結果表示処理のサブルーチンのフローチャートである。 図22の、表示した画像に基づく検索結果表示処理のサブルーチンのフローチャートである。 図22の処理の変形例のフローチャートである。 図23に示した処理の変形例の処理のフローチャートである。 図24に示した処理の変形例の処理のフローチャートである。 図1の電子辞書の表示部に表示される画面の一例を示す図である。 図1の電子辞書において実行される、入力文字列に基づいた画像検索処理のフローチャートである。
符号の説明
1 電子辞書、10 CPU、20 入力部、21 文字入力キー、22 決定キー、23 カーソルキー、24 Sキー、30 表示部、40 RAM、41 選択画像・ワード記憶領域、42 入力テキスト記憶領域、43 候補キーワード記憶領域、44 キーワード選択要否設定記憶領域、50 ROM、51 画像・キーワード対応テーブル記憶部、52 キーワード画像IDリスト対応テーブル記憶部、53 画像ID・見出し語対応テーブル記憶部、54 手動入力キーワード記憶部、55 辞書DB記憶部、56 辞書検索プログラム記憶部、57 画像表示プログラム記憶部、90,100,110,120,130,140,150,200 画面。

Claims (10)

  1. 入力手段と、
    見出し語と前記見出し語に関連付けられたテキストデータおよびオブジェクトデータとを含む辞書データから、前記入力手段を介して入力された情報に基づいて、前記辞書データの見出し語を検索する検索手段と、
    前記オブジェクトデータをキーワードと関連付ける情報を記憶する関連情報記憶手段とを備え、
    前記検索手段は、前記入力手段を介して入力された情報に対応する前記関連情報記憶手段中の前記キーワードを検索し、検索結果である前記キーワードに前記関連情報記憶手段において関連付けられた前記オブジェクトデータを検索し、検索結果である前記オブジェクトデータと前記辞書データにおいて関連付けられている見出し語を検索する、電子機器。
  2. 前記辞書データの中から前記キーワードを抽出する抽出手段をさらに備える、請求項1に記載の電子機器。
  3. 前記抽出手段は、前記辞書データにおいて前記オブジェクトデータに関連付けられている前記見出し語を前記キーワードとして抽出する、請求項2に記載の電子機器。
  4. 前記抽出手段は、前記辞書データにおいて前記オブジェクトデータに関連付けられている前記テキストデータの中で、特定の記号に対して一定の条件を満たすデータを前記キーワードとして抽出する、請求項2または請求項3に記載の電子機器。
  5. 前記入力手段を介して入力されたデータを記憶する入力データ記憶手段をさらに備え、
    前記抽出手段は、前記辞書データにおいて前記オブジェクトデータに関連付けられている前記テキストデータの中から、前記入力データ記憶手段に記憶されたデータと一致するデータを前記キーワードとして抽出する、請求項2〜請求項4のいずれかに記載の電子機器。
  6. 前記抽出手段は、前記オブジェクトデータについて抽出したキーワードに漢字が含まれる場合には、当該キーワードのかな表記をされた文字列を、さらに前記オブジェクトデータに関連する前記キーワードとして抽出する、請求項2〜請求項5のいずれかに記載の電子機器。
  7. 前記オブジェクトデータは、画像データである、請求項1〜請求項6のいずれかに記載の電子機器。
  8. 前記オブジェクトデータは、音声データである、請求項1〜請求項6のいずれかに記載の電子機器。
  9. 所定の記憶装置に記憶された見出し語と前記見出し語に関連付けられたテキストデータおよびオブジェクトデータとを含む辞書データを利用して検索を行なう電子機器の制御方法であって、
    前記電子機器が、
    前記オブジェクトデータを前記オブジェクトデータのキーワードと関連付ける情報を関連付けて記憶するステップと、
    前記電子機器に入力された情報に対応する前記キーワードに関連付けられて記憶された前記オブジェクトデータを検索するステップと、
    検索結果である前記オブジェクトデータと前記辞書データにおいて関連付けられている見出し語を検索するステップとを備える、電子機器の制御方法。
  10. コンピュータに、請求項9に記載の電子機器の制御方法を実行させるためのコンピュータプログラム。
JP2007287580A 2007-11-05 2007-11-05 電子機器、その制御方法およびコンピュータプログラム Active JP5234730B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007287580A JP5234730B2 (ja) 2007-11-05 2007-11-05 電子機器、その制御方法およびコンピュータプログラム
US12/680,865 US20110252062A1 (en) 2007-11-05 2008-10-28 Electronic device for searching for entry word in dictionary data, control method thereof and program product
PCT/JP2008/069539 WO2009060760A1 (ja) 2007-11-05 2008-10-28 辞書データの見出し語を検索する電子機器、その制御方法およびプログラム製品
CN200880109586A CN101809575A (zh) 2007-11-05 2008-10-28 检索辞典数据的标题字的电子设备及其制造方法和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007287580A JP5234730B2 (ja) 2007-11-05 2007-11-05 電子機器、その制御方法およびコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2009116531A JP2009116531A (ja) 2009-05-28
JP2009116531A5 JP2009116531A5 (ja) 2010-12-16
JP5234730B2 true JP5234730B2 (ja) 2013-07-10

Family

ID=40625654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007287580A Active JP5234730B2 (ja) 2007-11-05 2007-11-05 電子機器、その制御方法およびコンピュータプログラム

Country Status (4)

Country Link
US (1) US20110252062A1 (ja)
JP (1) JP5234730B2 (ja)
CN (1) CN101809575A (ja)
WO (1) WO2009060760A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101797202B1 (ko) * 2009-11-13 2017-11-14 삼성전자주식회사 디스플레이 장치, 그 오디오 원격 출력방법, 모바일 기기, 및 그 오디오 출력방법
JP5471742B2 (ja) * 2010-04-08 2014-04-16 カシオ計算機株式会社 辞書検索装置及びプログラム
WO2011155350A1 (ja) * 2010-06-08 2011-12-15 シャープ株式会社 コンテンツ再生装置、コンテンツ再生装置の制御方法、制御プログラム、及び記録媒体
US9671825B2 (en) * 2011-01-24 2017-06-06 Apple Inc. Device, method, and graphical user interface for navigating through an electronic document
WO2014045318A1 (ja) * 2012-09-21 2014-03-27 富士通株式会社 圧縮プログラム、圧縮方法及び圧縮装置
US11250203B2 (en) 2013-08-12 2022-02-15 Microsoft Technology Licensing, Llc Browsing images via mined hyperlinked text snippets
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
KR101929372B1 (ko) 2014-05-30 2018-12-17 애플 인크. 하나의 디바이스의 사용으로부터 다른 디바이스의 사용으로의 전환
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
CN112199000A (zh) 2014-09-02 2021-01-08 苹果公司 多维对象重排
US10275472B2 (en) * 2016-03-01 2019-04-30 Baidu Usa Llc Method for categorizing images to be associated with content items based on keywords of search queries
US10289700B2 (en) 2016-03-01 2019-05-14 Baidu Usa Llc Method for dynamically matching images with content items based on keywords in response to search queries
US10235387B2 (en) 2016-03-01 2019-03-19 Baidu Usa Llc Method for selecting images for matching with content based on metadata of images and content in real-time in response to search queries
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US10572586B2 (en) * 2018-02-27 2020-02-25 International Business Machines Corporation Technique for automatically splitting words
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09265472A (ja) * 1996-03-28 1997-10-07 Hitachi Ltd 画像データベースシステム
JPH11224256A (ja) * 1998-02-05 1999-08-17 Nippon Telegr & Teleph Corp <Ntt> 情報検索方法および情報検索プログラムを記録した記録媒体
US6493705B1 (en) * 1998-09-30 2002-12-10 Canon Kabushiki Kaisha Information search apparatus and method, and computer readable memory
JP4086377B2 (ja) * 1998-09-30 2008-05-14 キヤノン株式会社 情報検索装置及び方法
JP2000112958A (ja) * 1998-09-30 2000-04-21 Canon Inc 情報検索装置及びその方法、コンピュータ可読メモリ
JP2002132796A (ja) * 2000-10-24 2002-05-10 Kyodo Printing Co Ltd 画像特徴量対キーワード辞書を記録したコンピュータ読み取り可能な記録媒体、画像特徴量対キーワード辞書構築装置及びその方法並びに画像データベース構築補助装置及びその方法
US7451076B2 (en) * 2003-06-30 2008-11-11 Casio Computer Co., Ltd. Information display control apparatus, server, and program which display example sentences with respect to input or selected words and addition words
JP2006172338A (ja) * 2004-12-20 2006-06-29 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US20070124330A1 (en) * 2005-11-17 2007-05-31 Lydia Glass Methods of rendering information services and related devices
JP4277858B2 (ja) * 2006-02-06 2009-06-10 カシオ計算機株式会社 情報表示制御装置及びプログラム

Also Published As

Publication number Publication date
WO2009060760A1 (ja) 2009-05-14
JP2009116531A (ja) 2009-05-28
US20110252062A1 (en) 2011-10-13
CN101809575A (zh) 2010-08-18

Similar Documents

Publication Publication Date Title
JP5234730B2 (ja) 電子機器、その制御方法およびコンピュータプログラム
US7742924B2 (en) System and method for updating information for various dialog modalities in a dialog scenario according to a semantic context
JPH11219368A (ja) 情報検索装置及び情報検索方法
US20080077397A1 (en) Dictionary creation support system, method and program
JP2002244680A (ja) 演奏情報検索装置
JP4420210B2 (ja) プログラム開発支援装置および処理方法
JP4587165B2 (ja) 情報処理装置及びその制御方法
JP4754849B2 (ja) 文書検索装置、文書検索方法、および文書検索プログラム
JP2008052676A (ja) コンピュータ実行可能なプログラム、方法、および処理装置
JP2003186590A (ja) 機器操作学習装置
JP2007257369A (ja) 情報検索装置
JP2009116530A (ja) 電子機器、その制御方法およびコンピュータプログラム
JP2005173999A (ja) 電子ファイル検索装置、電子ファイル検索システム、電子ファイル検索方法、プログラムおよび記録媒体
JPH07219587A (ja) 音声処理装置および方法
JP2009069874A (ja) コンテンツ検索装置、コンテンツ検索方法、プログラム、および記録媒体
JP2006190060A (ja) データベース検索方法、データベース検索プログラムおよび原稿処理機
JP4218692B2 (ja) 演奏情報検索装置
Dmitriev 31, a new program for creating Internet-accessible interactive keys and taxonomic databases and its application for taxonomy of Cicadina (Homoptera)
JP5152857B2 (ja) 電子機器、表示制御方法、およびプログラム
JP2004118476A (ja) 電子辞書装置、電子辞書の検索結果表示方法、プログラムおよび記録媒体
JP4301879B2 (ja) 抄録作成支援システム及び特許文献検索システム
JP2005322148A (ja) ブラウザ装置
JP3498635B2 (ja) 情報検索方法及びその装置並びにコンピュータ可読記録媒体
JP3734101B2 (ja) ハイパーメディア構築支援装置
JPH10260981A (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130321

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5234730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3