JPH06131403A - Multimedium word dictionary and its retrieval device - Google Patents

Multimedium word dictionary and its retrieval device

Info

Publication number
JPH06131403A
JPH06131403A JP4277015A JP27701592A JPH06131403A JP H06131403 A JPH06131403 A JP H06131403A JP 4277015 A JP4277015 A JP 4277015A JP 27701592 A JP27701592 A JP 27701592A JP H06131403 A JPH06131403 A JP H06131403A
Authority
JP
Japan
Prior art keywords
word dictionary
information
word
natural language
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4277015A
Other languages
Japanese (ja)
Inventor
Yukari Saitou
由香梨 斎藤
Juichiro Yamazaki
重一郎 山崎
Takahiro Saito
孝広 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4277015A priority Critical patent/JPH06131403A/en
Publication of JPH06131403A publication Critical patent/JPH06131403A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE:To not only display a natural language but also display a picture and output sounds at the time of retrieval of a word by registering natural language information, picture information, and sound information related to one word in a word dictionary as items of this word. CONSTITUTION:A multimedium word dictionary where natural language information related words, picture information related to words, and sound information related to words are registered as items of words is used as the word dictionary. Since natural language information, picture information, and sound information are simultaneously acquired at the time of accessing the word dictionary by a keyword in this constitution, required information is selectively taken and is outputted from a display device. For example, when the word dictionary is accessed by keyword 'snow grouse', pictures of a snow grouse in summer and winter are displayed and its song is outputted so that the snow grouse can be intelligibly explained to persons. Further, the retrieval time is short because it is sufficient if a data base is retrieved only once.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はマルチメディア単語辞書
及びその検索装置に係り、特に単語についての説明を自
然言語のみでなく画像や音声でも説明して、単語を検索
した結果、その内容が理解し易いように辞書を構成する
とともに、必要な内容が容易に検索できる検索装置を提
供するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multimedia word dictionary and a search device therefor, and in particular, explanations of words are explained not only in natural language but also in images and voices, and as a result of searching words, the contents are understood. The present invention provides a search device that configures a dictionary so that it is easy to perform, and that can easily search for necessary contents.

【0002】[0002]

【従来の技術】従来の単語辞書は、単語についての説明
を自然言語を使って記述しているため、画像や音声で説
明した方が理解し易い項目についても言語で説明をして
いた。例えば「ウミネコ」を単語辞書で引くと、それが
どういう鳥であるのかという説明文が提示される。この
場合、「ウミネコ」の外見については「カモメに似てい
る」と記述されるだけであり、「ウミネコ」の鳴き声も
「ネコに似ている」と記述されているのみである。
2. Description of the Related Art In a conventional word dictionary, explanation of a word is described in natural language, and therefore, an item which is easier to understand with an image or a voice is also explained in the language. For example, if you look up "black-tailed gull" in the word dictionary, an explanation of what kind of bird it is is presented. In this case, the appearance of "black-tailed gull" is only described as "similar to a seagull", and the cry of "black-tailed gull" is also described as "similar to a cat".

【0003】[0003]

【発明が解決しようとする課題】したがって従来の単語
辞書では、このように自然言語を使用して説明している
ため、人間に直観的にわかりにくかった。
Therefore, since the conventional word dictionary is explained by using the natural language as described above, it is difficult for a human to intuitively understand.

【0004】また画像や音声のデータを検索できるよう
なデータベースシステムでは、検索したい対象が一つの
単語についての情報であっても、その単語の情報が一つ
の辞書内で管理していないため、検索した結果の自然言
語、画像、音声に対して直接問い合わせを行うことはで
きなかった。
In a database system capable of retrieving image and sound data, even if the object to be retrieved is information on one word, the information on that word is not managed in one dictionary. It was not possible to make direct inquiries about the natural language, images, and sounds resulting from the above.

【0005】例えば「ライチョウ」について検索を行う
場合、「ライチョウ」の画像を検索した後で「ライチョ
ウ」の性質について問い合わせたい場合、従来はその画
像に付けられたキーワードを介して「ライチョウ」に関
する説明文の情報を検索しなければならなかった。また
「ライチョウ」の鳴き声が聞きたい場合も、画像に対し
て「この鳴き声を聞きたい」と音声の検索を行うと、画
像に付けられた「ライチョウ」というキーワードを介し
て音声データを検索することが必要であり、検索の手間
がかかっていた。
For example, in the case of searching for "grouse", when the user wants to inquire about the property of "grouse" after searching for the image of "grouse", conventionally, a description about "grouse" is given via the keyword attached to the image. I had to retrieve the information in the sentence. Also, when you want to hear the call of "grouse", if you search the image for the voice "I want to hear this call", you can retrieve the voice data via the keyword "grouse" attached to the image. Was needed and the search was troublesome.

【0006】[0006]

【課題を解決するための手段】本発明は、前記の問題点
を改善するため、図1に示す如く、単語辞書を、単語に
関する自然言語情報と、単語に関する画像情報(静止
画、動画)と、単語に関する音声情報をその単語の辞書
に登録したマルチメディア単語辞書を用いるものであ
る。
In order to solve the above problems, the present invention, as shown in FIG. 1, uses a word dictionary for natural language information about words and image information (still images, moving images) about words. , A multimedia word dictionary in which voice information about a word is registered in the word dictionary.

【0007】[0007]

【作用】本発明では、単語辞書を前記の如く構成してい
るので、キーワード、例えば「ライチョウ」で単語辞書
をアクセスする場合、前記の如く自然言語情報と、画像
情報と、音声情報を同時に獲得できるので、このうち必
要なものを容易に選択取得し、ディスプレイあるいはス
ピーカより出力することができる。例えば「ライチョ
ウ」の夏の画像、冬の画像を表示したり、鳴き声を出力
できるので、人間に直観的にわかり易く説明することが
できる。しかも、データベースに対する検索は1回です
むので検索を短時間で行うことができる。
In the present invention, since the word dictionary is constructed as described above, when accessing the word dictionary with a keyword, for example, "grouse", natural language information, image information, and voice information are obtained at the same time as described above. Therefore, it is possible to easily select and obtain a necessary one of these and output it from the display or the speaker. For example, a summer image and a winter image of "grouse" can be displayed and a squealing voice can be output, so that it can be explained intuitively and easily to humans. Moreover, since the search for the database is performed only once, the search can be performed in a short time.

【0008】[0008]

【実施例】本発明の一実施例を図2〜図9にもとづき説
明する。図2、図3は本発明におけるマルチメディア単
語辞書説明図を示し、図4は本発明における検索装置の
構成図及びその動作説明図を示し、図5は入力解析部の
動作説明図、図6はオブジェクト検索部の動作説明図、
図7はオブジェクト提示部の動作説明図、図8、図9は
それぞれ対話型検索状態説明図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described with reference to FIGS. 2 and 3 are explanatory views of a multimedia word dictionary according to the present invention, FIG. 4 is a block diagram of a search device according to the present invention and an operation explanatory diagram thereof, FIG. 5 is an operation explanatory diagram of an input analysis unit, and FIG. Is an operation explanation diagram of the object search part,
FIG. 7 is an operation explanatory diagram of the object presenting unit, and FIGS. 8 and 9 are interactive retrieval state explanatory diagrams, respectively.

【0009】本発明における単語辞書は、図2(A)に
示す如く、見出し語(検索対象となる単語、例えば「ラ
イチョウ」)と、各項目(品詞、漢字、説明などの項
目)からなる。各項目には、それがどういう種類のデー
タであるのか(テキスト、静止画、動画、音声等)を示
すフラグが付加されている。
As shown in FIG. 2A, the word dictionary according to the present invention includes headwords (words to be searched, for example, "grouse") and respective items (items of speech, kanji, explanations, etc.). Each item is provided with a flag indicating what kind of data it is (text, still image, moving image, voice, etc.).

【0010】例えば、図2(B)に示す「ライチョウ」
の場合には、見出し語として「ライチョウ」が、項目と
して「品詞」、「漢字」、「説明」、「夏のライチョ
ウ」、「冬のライチョウ」、「鳴き声」が、種類を示す
データとして「テキスト」、「静止画」、「音声」がそ
れぞれ記載されている。
For example, the "grouse" shown in FIG. 2 (B).
In the case of, the headword is "grouse", the items are "part of speech", "kanji", "description", "summer grouse", "winter grouse", and "calling", and the data indicating the type is " “Text”, “still image”, and “voice” are described respectively.

【0011】また図3に示す「メロディクロック」の場
合には、見出し語として「メロディクロック」が、項目
として「品詞」、「品名」、「説明」、「外観」、「か
らくりの動作」、「メロディー音」が、種類を示すデー
タとして「テキスト」、「静止画」、「動画」、「音
声」がそれぞれ記載されている。
In the case of "Melody Clock" shown in FIG. 3, "Melody Clock" is used as the entry word, and "Part of speech", "Product name", "Description", "Appearance", "Karakuri action", and “Melody sound” describes “text”, “still image”, “moving image”, and “voice” as data indicating the type.

【0012】したがって、検索項目として「ライチョ
ウ」でこの辞書を検索するとき、図2(B)に示す内容
が全部抽出されて、これにもとづき、テキスト、画像、
音声等を直ちに選択出力することができる。
Therefore, when the dictionary is searched with "grouse" as the search item, all the contents shown in FIG. 2B are extracted, and the text, image,
The voice or the like can be immediately selected and output.

【0013】次に本発明の検索装置について図4(A)
にもとづき説明する。同図において1はユーザ入出力
部、2は検索部、3は入力解析部、4はオブジェクト検
索部、5はオブジェクト提示部、6は単語辞書である。
Next, the retrieval device of the present invention is shown in FIG.
I will explain based on this. In the figure, 1 is a user input / output unit, 2 is a search unit, 3 is an input analysis unit, 4 is an object search unit, 5 is an object presentation unit, and 6 is a word dictionary.

【0014】その動作の概略を図4(B)に示す。先ず
前記ユーザ入出力部1より入力文が検索部2に入力され
ると、入力解析部3がこの入力を解析して、これが終了
通知でなければ、オブジェクト検索部4が単語辞書6よ
りオブジェクトの検索を行い、その検索結果の提示をオ
ブジェクト提示部5を経由してユーザ入出力部1に対し
て行う。ユーザは所定の検索が行われた後、ユーザ入出
力部1より終了通知を入力すれば、これが入力解析部3
により解読され、検索処理は終了される。
The outline of the operation is shown in FIG. First, when an input sentence is input to the search unit 2 from the user input / output unit 1, the input analysis unit 3 analyzes the input, and if this is not a termination notification, the object search unit 4 searches the word dictionary 6 for an object. A search is performed and the search result is presented to the user input / output unit 1 via the object presentation unit 5. If the user inputs an end notification from the user input / output unit 1 after performing a predetermined search, this will be input to the input analysis unit 3
And the search process is terminated.

【0015】以下、図4(A)に示す各部について説明
する。ユーザ入出力部1は検索すべき内容をユーザが入
力したり、検索の結果が得られたオブジェクトをユーザ
に対して出力するものであり、キーボード、表示部、ス
ピーカ等を有する。
Each section shown in FIG. 4A will be described below. The user input / output unit 1 is used by the user to input the contents to be searched and output the object obtained as a result of the search, and includes a keyboard, a display unit, a speaker, and the like.

【0016】検索部2はユーザ入出力部1を介してユー
ザが要求した事項を解読してこれにもとづき単語辞書を
アクセスして所要の内容を得て、これをユーザ入出力部
1に送出するものである。
The search unit 2 decodes the item requested by the user via the user input / output unit 1, accesses the word dictionary based on this, obtains the required contents, and sends it to the user input / output unit 1. It is a thing.

【0017】入力解析部3は、ユーザ入出力部1からの
入力文を処理してユーザが何を要求しているのか、何を
検索しようとしているのかを抽出するものであり、図5
に示す如き下記の処理を行う。
The input analysis unit 3 processes the input sentence from the user input / output unit 1 and extracts what the user requests and what the user is trying to retrieve.
The following processing is performed as shown in.

【0018】まず入力した自然言語の文を、単語に区
切る形態素解析を行う。 次に形態素解析の結果を意味解析する。なお、これら
形態素解析と意味解析は従来の技術であり、意味解析に
よりユーザが検索したい対象、それについての指示(例
えば表示するのか質問しているのか)、対象の更に細か
い項目について聞いているのか等の情報が得られる。
First, a morphological analysis is performed to divide the input natural language sentence into words. Next, the result of the morphological analysis is semantically analyzed. It should be noted that these morphological analysis and semantic analysis are conventional techniques, and whether the user wants to search by semantic analysis, the instruction (for example, whether to display or question), and whether the user is asking about more detailed items of the target. Etc. information is obtained.

【0019】そして意味解析した結果から、ユーザの
指示の種類(表示要求であるか、質問に対しての回答要
求であるか)、質問内容(指示の種類が質問に対しての
回答要求である場合)、検索対象名、項目指示(検索対
象のどの部分についての情報を求めるか)等を抽出す
る。
From the result of the semantic analysis, the type of the user's instruction (whether it is a display request or an answer request to the question) and the question content (the instruction type is an answer request to the question). In the case), the search target name, the item designation (which part of the search target about which information is to be obtained), etc. are extracted.

【0020】例えば、「ライチョウについて教えてくだ
さい」という文がユーザ入出力部1から入力されたと
き、入力解析部3は前記処理を行って解析し、指示種類
=回答要求、質問内容=なし、検索対象名=ライチョ
ウ、項目指示=なしとなる。
For example, when a sentence "Tell me about grouse" is input from the user input / output unit 1, the input analysis unit 3 performs the above-mentioned processing to analyze, and the kind of instruction = answer request, question content = none, Search target name = grouse and item designation = none.

【0021】また、「ライチョウはどこに住みますか
?」という文の場合、指示種類=回答要求、質問内容=
(ライチョウX住む)、検索対象名=ライチョウ、項目
指示=なしのようになる。ここで(ライチョウX住む)
は、ライチョウの住む場所Xを求めることを表す。
In the case of the sentence "Where does the grouse live?", The type of instruction = answer request, the content of the question =
(Grouse X live), search target name = grouse, item designation = none. Here (live grouse X)
Indicates that the place X where the grouse lives is to be obtained.

【0022】さらに「メロディクロックという時計の音
色が聞きたい」という文は、指示種類=表示要求、質問
内容=なし、検索対象名=メロディクロック、項目指示
=音色のようになる。
Further, the sentence "I want to hear the timbre of a clock called melody clock" is as follows: instruction type = display request, question content = none, search target name = melody clock, item designation = tone.

【0023】オブジェクト検索部4は、入力解析部3で
抽出したユーザの指示種類、質問内容、検索対象名、そ
の項目指示の情報をもとにしてデータを検索するもので
あって、図6に示す如き下記の処理を行う。
The object retrieving unit 4 retrieves data based on the user's instruction type, question content, retrieval target name, and item instruction information extracted by the input analyzing unit 3. The following processing is performed as shown.

【0024】先ず検索対象名を単語辞書6の見出し語
から検索する。 ユーザの指示が表示要求であれば次に項目指示の有無
をチエックする。 項目指示がなければ、前記で検索した全項目をオブ
ジェクト提示部5に渡す。
First, the search target name is searched from the entry word of the word dictionary 6. If the user's instruction is a display request, the presence or absence of the item instruction is checked next. If there is no item instruction, all the items retrieved above are passed to the object presentation unit 5.

【0025】しかし項目指示があれば項目指示の内容
と辞書の各項目を比較し、一番近い項目のデータを選び
オブジェクト提示部5に渡す。 また前記においてユーザの指示が表示要求でなけれ
ば説明項目のデータを取り出す。そして説明文の中から
質問されている単語を含む文章を検索し、質問に対する
回答であるフラグを付けて、オブジェクト提示部5に渡
す。
However, if there is an item instruction, the content of the item instruction is compared with each item in the dictionary, and the data of the item closest to the item is selected and passed to the object presenting section 5. If the user's instruction is not a display request in the above, the data of the explanation item is taken out. Then, the explanation sentence is searched for a sentence including the word being queried, a flag that is an answer to the question is attached, and the sentence is passed to the object presenting unit 5.

【0026】例えば前記「ライチョウについて教えてく
ださい」という文が入力解析部3で解析された結果は、
前記の如く、指示種類=回答要求、質問内容=なし、検
索対象名=ライチョウ、項目指示=なしであり、項目指
示がないので、前記のように、「ライチョウ」で検索
した全項目をオブジェクト提示部5に渡すことになる。
For example, the result of the sentence "Tell me about grouse" analyzed by the input analysis unit 3 is:
As described above, since the type of instruction = answer request, question content = none, search target name = grouse, item instruction = none, and there is no item instruction, as described above, all items retrieved by “grouse” are presented as objects. It will be passed to Part 5.

【0027】また「メロディクロックという時計の音色
が聞きたい」を入力解析部3で解析した結果は、指示種
類=表示要求、質問内容=なし、検索対象名=メロディ
クロック、項目指示音色となるが、この場合、前記の
ように、項目指示の「音色」に一番近いのは「メロディ
ー音」であるので、これが選ばれ、オブジェクト提示部
5に渡される。
Further, the result of analyzing "I want to hear the timbre of the clock called melody clock" by the input analysis unit 3 is instruction type = display request, question content = none, search target name = melody clock, item designated timbre. In this case, as described above, the "melody sound" is the closest to the "timbre" of the item instruction, so this is selected and passed to the object presenting section 5.

【0028】また前記「ライチョウはどこに住みますか
?」を入力解析部3で解析した結果は、指示種類=回答
要求、質問内容=(ライチョウX住む)、検索対象名=
ライチョウ、項目指示=なしとなっており、これは前記
に示す如く、表示要求でなく、質問に対しての回答を
要求しているので、ライチョウの説明の項目を検索して
その文の中から「住む」を含む文章を検索し、質問回答
フラグをつけ、オブジェクト提示部5に渡す。
In addition, the result of analyzing "where do grouses live?" By the input analysis unit 3 is as follows: instruction type = answer request, question content = (grouse X live), search target name =
Grouse, item designation = None, which is not a display request as described above, but a response to a question is requested. Therefore, search for the item of grouse description and select from the sentence. A sentence including “live” is searched, a question answer flag is attached, and the object presenting unit 5 is passed.

【0029】オブジェクト提示部5は、オブジェクト検
索部4で検索した結果を、そのデータの種類に応じて、
ユーザ入出力部1の画面に表示したり、音声を出力する
処理を行うものであり、図7に示す如き、下記の処理を
行う。
The object presenting section 5 retrieves the results retrieved by the object retrieval section 4 according to the type of data.
The processing for displaying on the screen of the user input / output unit 1 and outputting sound is performed, and the following processing is performed as shown in FIG. 7.

【0030】ユーザ入出力部1に送出提示するデータ
があれば次のに移行するが、データがなくなれば動作
を終了する。 提示するデータがあれば、その提示するデータの種類
をみて画像であればユーザ入出力部1に対して画像の表
示処理を行う。
If there is data to be sent and presented to the user input / output unit 1, the operation proceeds to the next step, but if there is no more data, the operation ends. If there is data to be presented, the type of the data to be presented is checked, and if it is an image, the image display processing is performed on the user input / output unit 1.

【0031】しかしにおいてデータの種類が画像で
なく、提示するデータが音声であればユーザ入出力部1
に対して音声の出力処理を行う。 しかしにおいてデータの種類が音声でなく、質問に
対する回答フラグが付加されていれば、テキスト文末の
変換を行って、例えば「〜である」調から「〜です又は
〜であります」調に変換する。そしてユーザ入出力部1
に対してテキストの表示処理を行って前記に戻る。し
かし質問回答フラグがついてなければ、ユーザ入出力部
1に対してこのテキストの表示処理を行って前記に戻
る。
However, if the data type is not an image but the presented data is voice, the user input / output unit 1
The voice output processing is performed on the. However, if the type of data is not voice and the answer flag to the question is added in, the text sentence end is converted, for example, from "to be" to "to or is" key. And the user input / output unit 1
The display processing of the text is performed for and the process returns to the above. However, if the question answer flag is not attached, this text display processing is performed on the user input / output unit 1 and the process returns to the above.

【0032】このようにして画像についてはユーザ入出
力部1で画像表示され、例えば鳴き声の如き音声データ
についてはユーザ入出力部1でスピーカより音声出力さ
れる。そしてテキストについてはユーザ入出力部1でテ
キスト表示されるが、この場合、質問に対する回答の場
合には、文末が前記デスマス調に変換されて表示され
る。
In this way, the image is displayed on the user input / output unit 1 as to the image, and the voice data such as squeal is output from the speaker by the user input / output unit 1. The text is displayed on the user input / output unit 1 in this case. In this case, in the case of an answer to the question, the end of the sentence is converted into the Desmus tone and displayed.

【0033】これにより例えば図8に示す如く、「ライ
チョウについて教えて下さい」という質問をユーザ入出
力部1から行えば、この場合は前記の如く、項目指示=
なしと入力解析部3で解析され、オブジェクト検索部4
は辞書6より「ライチョウ」で検索した全項目をオブジ
ェクト提示部5に渡し、これにもとづき図8に示す如き
表示がユーザ入出力部1の表示部で行われ、また鳴き声
がスピーカより出力される。
As a result, for example, as shown in FIG. 8, if a question "Tell me about grouse" is asked from the user input / output unit 1, in this case, the item instruction =
None, the input analysis unit 3 analyzes and the object search unit 4
Passes all the items searched by "grouse" from the dictionary 6 to the object presenting unit 5, and based on this, the display as shown in FIG. 8 is performed on the display unit of the user input / output unit 1 and the crying is output from the speaker. .

【0034】同様にメロディクロックに関し、図9
(A)に示す如き質問Qを順次行うことにより応答Aが
順次出力されることになり、ライチョウに関し図9
(B)に示す如き質問Qを順次行うことにより、応答A
が順次出力されることになる。この図8、図9に示すよ
うにして対話型検索を行うことができる。
Similarly, regarding the melody clock, FIG.
By sequentially asking the question Q as shown in (A), the response A is sequentially output.
Answering question A as shown in FIG.
Will be sequentially output. The interactive search can be performed as shown in FIGS.

【0035】従って単に単語辞書のみならずオンライン
ショッピング等の場合も非常に有効なものとなる。
Therefore, not only the word dictionary but also online shopping is very effective.

【0036】[0036]

【発明の効果】本発明によれば、単語辞書を一つの単語
に関する自然言語情報、画像情報、音声情報をその単語
の項目として登録しているので、単語を検索する場合自
然言語表示のみならず画像表紙、音声出力等を行うこと
ができるので、ユーザにとって非常に内容の理解し易い
辞書を構成することができる。
According to the present invention, the word dictionary is registered with the natural language information, the image information, and the voice information concerning one word as the items of the word. Therefore, when searching for a word, not only the natural language display but also the natural language display is performed. Since the image cover, voice output, etc. can be performed, it is possible to construct a dictionary whose contents are very easy for the user to understand.

【0037】しかも一つの単語の項目としてこれらを登
録しているので、これらを検索するとき単語の検索にも
とづきこれらの項目のデータを同時に得ることができる
ので、自然言語情報、画像情報、音声情報として個別に
検索する必要がないので検索速度が向上するのみなら
ず、一つの単語の項目としてこれらの各情報が登録され
ているので、これらのデータのメンテナンスも容易にな
る。
Moreover, since these items are registered as one word item, the data of these items can be obtained at the same time on the basis of the word search when searching these items. Therefore, natural language information, image information, and voice information can be obtained. Since it is not necessary to search individually, not only the search speed is improved, but also because each of these pieces of information is registered as one word item, maintenance of these data becomes easy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理図である。FIG. 1 is a principle diagram of the present invention.

【図2】本発明の辞書説明図(その1)である。FIG. 2 is a dictionary explanatory diagram (1) of the present invention.

【図3】本発明の辞書説明図(その2)である。FIG. 3 is an explanatory diagram (part 2) of the dictionary of the present invention.

【図4】本発明の検索装置及び動作説明図である。FIG. 4 is an explanatory diagram of a search device and operation of the present invention.

【図5】入力解析部の動作説明図である。FIG. 5 is an operation explanatory diagram of the input analysis unit.

【図6】オブジェクト検索部の動作説明図である。FIG. 6 is an operation explanatory diagram of an object search unit.

【図7】オブジェクト提示部の動作説明図である。FIG. 7 is an operation explanatory diagram of the object presenting unit.

【図8】対話型検索状態説明図(その1)である。FIG. 8 is an explanatory diagram (1) of an interactive search state.

【図9】対話型検索状態説明図(その2)である。FIG. 9 is an explanatory diagram (2) of an interactive search state.

【符号の説明】[Explanation of symbols]

1 ユーザ入出力部 2 検索部 3 入力解析部 4 オブジェクト検索部 5 オブジェクト提示部 6 単語辞書 1 user input / output unit 2 search unit 3 input analysis unit 4 object search unit 5 object presentation unit 6 word dictionary

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 見出し語と、この見出し語に関する自然
言語情報を項目として登録した単語辞書において、 この見出し語に関する画像情報を項目として登録するこ
とを特徴とするマルチメディア単語辞書。
1. A multimedia word dictionary in which a headword and natural language information about the headword are registered as items, and image information about the headword is registered as an item.
【請求項2】 見出し語と、この見出し語に関する自然
言語情報を項目として登録した単語辞書において、 この見出し語に関する音声情報を項目として登録するこ
とを特徴とするマルチメディア単語辞書。
2. A multimedia word dictionary in which a headword and natural language information about the headword are registered as items, and voice information about the headword is registered as an item.
【請求項3】 見出し語と、この見出し語に関する自然
言語情報を項目として登録した単語辞書において、 この見出し語に関する画像情報と、音声情報をそれぞれ
項目として登録することを特徴とするマルチメディア単
語辞書。
3. A multimedia word dictionary in which a headword and natural language information related to this headword are registered as items, and image information and voice information related to this headword are respectively registered as items. .
【請求項4】 見出し語と、この見出し語に関する自然
言語情報を項目として登録するとともに、この見出し語
に関する画像情報及び音声情報の少なくとも1つが項目
として登録されているマルチメディア単語辞書(6)
と、 ユーザから入力された入力文を解析して要求及び検索対
象を抽出する入力解析手段(3)と、 前記入力解析手段(3)において抽出された情報にもと
づきマルチメディア単語辞書(6)を検索するオブジェ
クト検索手段(4)と、 前記オブジェクト検索手段(4)において検索した結果
をユーザに出力するオブジェクト提示手段(5)を具備
し、 入力文を前記入力解析手段(3)により解析して、これ
にもとづき前記オブジェクト検索手段(4)が前記マル
チメディア単語辞書(6)を検索して所定の情報を抽出
し、これを前記オブジェクト提示部(5)によりユーザ
に回答するようにしたことを特徴とする検索装置。
4. A multimedia word dictionary (6) in which an entry word and natural language information regarding this entry word are registered as items, and at least one of image information and audio information regarding this entry word is registered as an item.
An input analysis means (3) for analyzing an input sentence input by a user to extract a request and a search target; and a multimedia word dictionary (6) based on the information extracted by the input analysis means (3). An object retrieval means (4) for retrieving and an object presentation means (5) for outputting the retrieval result in the object retrieval means (4) to the user are provided, and the input sentence is analyzed by the input analysis means (3). Based on this, the object searching means (4) searches the multimedia word dictionary (6) to extract predetermined information, and the object presenting section (5) answers this to the user. Characteristic search device.
JP4277015A 1992-10-15 1992-10-15 Multimedium word dictionary and its retrieval device Withdrawn JPH06131403A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4277015A JPH06131403A (en) 1992-10-15 1992-10-15 Multimedium word dictionary and its retrieval device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4277015A JPH06131403A (en) 1992-10-15 1992-10-15 Multimedium word dictionary and its retrieval device

Publications (1)

Publication Number Publication Date
JPH06131403A true JPH06131403A (en) 1994-05-13

Family

ID=17577585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4277015A Withdrawn JPH06131403A (en) 1992-10-15 1992-10-15 Multimedium word dictionary and its retrieval device

Country Status (1)

Country Link
JP (1) JPH06131403A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6161108A (en) * 1997-04-28 2000-12-12 Justsystem Corp. Method and apparatus for managing images, a method and apparatus for retrieving images, and a computer-readable recording medium with a program for making a computer execute the methods stored therein
WO2002025902A1 (en) * 2000-09-25 2002-03-28 Yamaha Corporation Mobile terminal device
JP2017509049A (en) * 2014-01-14 2017-03-30 マイクロソフト テクノロジー ライセンシング,エルエルシー Coherent question answers in search results

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6161108A (en) * 1997-04-28 2000-12-12 Justsystem Corp. Method and apparatus for managing images, a method and apparatus for retrieving images, and a computer-readable recording medium with a program for making a computer execute the methods stored therein
WO2002025902A1 (en) * 2000-09-25 2002-03-28 Yamaha Corporation Mobile terminal device
JP2017509049A (en) * 2014-01-14 2017-03-30 マイクロソフト テクノロジー ライセンシング,エルエルシー Coherent question answers in search results

Similar Documents

Publication Publication Date Title
KR100653506B1 (en) System for providing information converted in response to search request
US6044365A (en) System for indexing and retrieving graphic and sound data
US20130158994A1 (en) Retrieval and presentation of network service results for mobile device using a multimodal browser
JP2013521567A (en) System including client computing device, method of tagging media objects, and method of searching a digital database including audio tagged media objects
JP2001125896A (en) Natural language interactive system
JP2000081892A (en) Device and method of adding sound effect
JPH10275157A (en) Data processor
JP3789614B2 (en) Browser system, voice proxy server, link item reading method, and storage medium storing link item reading program
JPH11224256A (en) Information retrieving method and record medium recording information retrieving program
JP4441782B2 (en) Information presentation method and information presentation apparatus
JP2023027749A (en) Method and apparatus for determining broadcasting style, equipment, and computer storage medium
US20040246237A1 (en) Information access method, system and storage medium
CN106406882A (en) Method and device for displaying post background in forum
WO2007029207A2 (en) Method, device and system for providing search results
JPH06131403A (en) Multimedium word dictionary and its retrieval device
JP2007199315A (en) Content providing apparatus
JP4079275B2 (en) Conversation support device
JP4057962B2 (en) Question answering apparatus, question answering method and program
JP2006301967A (en) Conversation support device
CN109284364B (en) Interactive vocabulary updating method and device for voice microphone-connecting interaction
JP2002197107A (en) Natural language dialogue system
JP2022117756A (en) Tagging method and tagging device
JP3222193B2 (en) Information retrieval device
JP2555009B2 (en) Audio file device
JP2001357066A (en) Retrieval server for retrieving contents on the basis of human emotion and method for controlling system having the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000104