JP2002032397A - Retrieving device - Google Patents

Retrieving device

Info

Publication number
JP2002032397A
JP2002032397A JP2001134733A JP2001134733A JP2002032397A JP 2002032397 A JP2002032397 A JP 2002032397A JP 2001134733 A JP2001134733 A JP 2001134733A JP 2001134733 A JP2001134733 A JP 2001134733A JP 2002032397 A JP2002032397 A JP 2002032397A
Authority
JP
Japan
Prior art keywords
data
search
information
document
target data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001134733A
Other languages
Japanese (ja)
Other versions
JP3469561B2 (en
Inventor
Seiji Miike
誠司 三池
Akira Morishita
明 森下
Yasutsugu Kawakura
康嗣 川倉
Miyoshi Fukui
美佳 福井
Hisako Tanaka
久子 田中
Yoichi Takebayashi
洋一 竹林
Hiroshi Mizoguchi
博 溝口
Satoshi Ito
聡 伊藤
Shigenobu Seto
重宣 瀬戸
Yoshikuni Matsumura
善邦 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001134733A priority Critical patent/JP3469561B2/en
Publication of JP2002032397A publication Critical patent/JP2002032397A/en
Application granted granted Critical
Publication of JP3469561B2 publication Critical patent/JP3469561B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a retrieving device which enables a user to retrieve a document, even when the user can not recall the document, title, and retrieval expression having contents and even when the user can not express the title and contents of the document well in a natural language. SOLUTION: This device is provided with a 1st storing means for storing data such as the document, sound and image as an object of an operation of inputting, editing and retrieving, etc., as operation object data; an acquiring means for acquiring time series image data obtained by photographing a self- device for performing operations of the operation object data and the vicinity of the self-device; an extracting means for extracting the image data of a scene, having a characteristic for making environment specifiable in operating the operation object data as environment information; a selecting means for selecting the environment information, when retrieval is carried out; a retrieving means for retrieving the operation object data made to correspond to the environment selected by the selecting means among pieces of the operation object data stored in the 1st storing means; and an outputting means for outputting the operation object data which are retrieved by the retrieving means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、検索装置に関す
る。
The present invention relates to a search device.

【0002】[0002]

【従来の技術】従来の文書検索装置やワードプロセッサ
では、利用者が過去に検索した文書を再び得るために
は、検索した文書のタイトルまたは内容などを思い出し
て文書を呼び出すか、過去の検索に用いた検索式を思い
出すなどしてデータを検索する必要があった。このと
き、検索式は文字列で入力し、文書のタイトルまたは内
容などはそれらそのものを表す自然言語表現かそれらに
類似した自然言語表現を入力する必要があった。従っ
て、検索式や、文書のタイトルや内容を思い出せない場
合、あるいはそれらを文字列や自然言語表現で表せない
場合には検索することができなかった。
2. Description of the Related Art In a conventional document search apparatus or word processor, in order for a user to obtain a document retrieved in the past, the user can recall the document by recalling the title or contents of the retrieved document or use it in the past retrieval. It was necessary to search the data by remembering the search formula that was used. At this time, it is necessary to input a search expression as a character string, and to input a natural language expression representing the document itself or a natural language expression similar thereto as the title or contents of the document. Therefore, if the search formula, the title and the contents of the document cannot be remembered, or if they cannot be represented by a character string or a natural language expression, the search cannot be performed.

【0003】[0003]

【発明が解決しようとする課題】上述したように、検索
式や、文書のタイトルや内容を思い出せない場合、ある
いはそれらを文字列や自然言語表現で表せない場合には
それらを検索し、抽出することができなかった。
As described above, when the retrieval formula, the title and contents of the document cannot be remembered, or when they cannot be represented by a character string or natural language expression, they are retrieved and extracted. I couldn't do that.

【0004】そこで、本願発明は検索式や、文書のタイ
トルや内容を思い出せない場合や、文書のタイトルや内
容を自然言語表現で表せない場合でも検索できるように
する検索装置を提供することを目的とする。
[0004] Therefore, an object of the present invention is to provide a search device that enables a search even when a search formula, a title or contents of a document cannot be remembered, or a title or contents of a document cannot be expressed in a natural language expression. And

【0005】[0005]

【課題を解決するための手段】本発明は、入力・編集・
検索などの操作の対象としての文書、音声、画像等のデ
ータを操作対象データとして記憶する第1の記憶手段
と、前記操作対象データに対し操作を行う自装置や自装
置周辺を撮影した時系列な画像データを取得する取得手
段と、この取得手段で取得した画像データのうち、前記
操作対象データに対する操作の際の環境を特定可能にす
るための特徴あるシーンの画像データを環境情報として
抽出する抽出手段と、前記操作対象データに、該操作対
象データに対する操作の時刻に対応する前記環境情報と
して抽出された画像データを対応付けて記憶する第2の
記憶手段と、検索時に、前記環境情報を選択するための
選択手段と、前記第1の記憶手段で記憶された操作対象
データの中から、前記選択手段で選択された環境情報に
対応付けられた操作対象データを検索する検索手段と、
この検索手段で検索された操作対象データを出力する出
力手段とを具備する。
SUMMARY OF THE INVENTION The present invention provides an input / edit / edit
First storage means for storing data such as a document, a sound, an image, etc., as an operation target data as an operation target such as a search; Means for acquiring unique image data, and among the image data acquired by the acquiring means, image data of a characteristic scene for enabling an environment at the time of operation on the operation target data to be specified is extracted as environment information. Extracting means; second storage means for storing the image data extracted as the environment information corresponding to the time of the operation on the operation target data in association with the operation target data; and A selection unit for selecting, and an operation associated with the environment information selected by the selection unit from the operation target data stored in the first storage unit And retrieval means for retrieving the elephant data,
Output means for outputting the operation target data searched by the search means.

【0006】[0006]

【作用】利用者が過去にデータを作成、検索等を行った
ときの状況・場面・環境等を表現する内容を入力し、こ
れを解析し、解析結果をデータと共に記憶する。したが
って、記憶した状況・場面・環境等を手がかりにして所
望のデータを検索するものである。
The present invention inputs the contents expressing the situation, scene, environment, and the like when the user has created and searched for data in the past, analyzes the contents, and stores the analysis results together with the data. Therefore, desired data is searched based on the stored situation, scene, environment, and the like.

【0007】[0007]

【実施例】具体的な実施例を説明する前に、本発明に係
る検索装置の基本的な思想および用語の定義等について
説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Before describing a specific embodiment, the basic concept of the retrieval apparatus according to the present invention and the definition of terms will be described.

【0008】ワードプロセッサに代表されるように、今
日の多くの情報機器では、システムに入力したデータを
後に加工して再利用することが多い。しかし、入力した
データ数が増えてくる程、再利用したいときに必要なデ
ータを検索するのに手間がかかるという問題がある。
In many information devices today, as represented by word processors, data input to the system is often processed and reused later. However, there is a problem that as the number of input data increases, it takes time to search for necessary data when it is desired to reuse the data.

【0009】本発明に係る検索装置は、検索の対象とな
るデータの検索キーとして、システムにデータを入力す
る際や、そのデータを加工・編集するときなど、該デー
タにアクセスする際(「システム利用時」と呼ぶ)のユ
ーザ自身やシステムあるいは周囲の状況を表す情報
(「環境情報」と呼ぶ)を利用するものであり、この環
境情報の抽出を半ば自動的に行うことを特徴としてい
る。
The search device according to the present invention is used as a search key for data to be searched when accessing the data, such as when inputting data into the system or when processing or editing the data. The information (referred to as "environment information") representing the user himself / herself, the system or the surrounding situation (referred to as "environment information") is used, and this environment information is extracted semi-automatically.

【0010】従来、システムに既に入力されている多く
のデータの中から必要なものを検索する場合、データフ
ァイル名などのようにユーザがデータに意識的に付加す
るラベルがないか、または不適切なとき、データ生成時
刻などシステムによる自動付加の比較的簡単な物理的ラ
ベル類を補助的に検索キーとして使う以外にはなく、そ
の場合、多くの検索の実行では、その物理的ラベルから
検索対象への対応づけをユーザの記憶に頼る部分が大き
かった。
Conventionally, when searching for necessary data from among many data already input to the system, there is no label such as a data file name that the user intentionally adds to the data, or an inappropriate label is used. In such cases, there is no other way than to use relatively simple physical labels automatically added by the system, such as the data generation time, as a search key. The part that relied on the user's memory for mapping to was large.

【0011】しかし一方、人間が検索を必要とする場面
では、探したいデータを思い浮かべる際に、時刻のよう
な物理的ラベルからよりも、「…した頃の」,「…して
いる時に」,「…にいた時の」,「…と一緒にいた時
の」といったシステムにアクセスしていた時のユーザや
周囲の状況に関連づけている場合が多く、上記のような
物理的なラベルからの検索は不便な場合もあった。
On the other hand, in a situation where a human needs a search, when he / she thinks of the data he / she wants to search, he / she is more likely to use “when” and “when doing” than a physical label such as time. , “When we were at…” and “when we were with…” are often related to the user or the surrounding situation when accessing the system, Searching was sometimes inconvenient.

【0012】本発明に係る検索装置では、検索データに
アクセスしている時のユーザ、システムあるいは周囲の
状況を得ることのできる物理的なラベル・データを取り
込むデバイスを有し、これにより入力されるデータ
(「環境解析対象データ」と呼ぶ)を解析することによ
り、検索キーとしてより利用しやすい「環境情報」を検
索対象とするデータと関連づけて格納し、検索時に利用
することを特徴としている。
The search apparatus according to the present invention has a device for taking in physical label data from which a user, a system, or a surrounding condition at the time of accessing the search data can be obtained. By analyzing data (referred to as “environmental analysis target data”), “environmental information” that is more easily used as a search key is stored in association with the data to be searched, and is used during the search.

【0013】以下、図面を参照しながら実施例を説明す
る。
An embodiment will be described below with reference to the drawings.

【0014】まず、システムの基本構成を図1に示す。First, the basic configuration of the system is shown in FIG.

【0015】このシステムは、検索対象データ入力部
1、検索対象データ記憶部2、検索対象データ出力部
3、環境解析対象データ入力部4、環境情報解析部5、
環境情報記憶部6、環境情報出力部7、検索キー入力部
8、検索部9から構成される。
This system includes a search target data input unit 1, a search target data storage unit 2, a search target data output unit 3, an environment analysis target data input unit 4, an environment information analysis unit 5,
It comprises an environment information storage unit 6, an environment information output unit 7, a search key input unit 8, and a search unit 9.

【0016】ここでいう検索対象データとは、図3に示
すように、計算機などにより実現されたシステムに入力
されたデータ一般をさす。例えば、キーボード、マウ
ス、ペンなどを利用して入力したテキスト、画像などか
らなる文書やデータファイル、イメージスキャナやカメ
ラを利用して入力した静止画、動画などの画像データ、
マイクロフォンを使って収録したり、電子的に合成した
音響データなど、システムに入力され、格納された後、
編集、加工や参照などの再利用可能なデータである。
As shown in FIG. 3, the data to be searched refers to general data input to a system realized by a computer or the like. For example, texts and data files consisting of texts and images input using a keyboard, mouse, pen, etc., image data such as still images and moving images input using image scanners and cameras,
After being input and stored in the system, such as recording using a microphone or electronically synthesized acoustic data,
Reusable data such as editing, processing, and reference.

【0017】検索対象データ入力部1は、図2に示すよ
うに、これらの検索対象データを入力するための入力デ
バイスと、後の解析に必要な入力データに関する情報
(例えば入力デバイスが複数あるときは、デバイス識別
子、量子化ビッ数や標本化周波数など)を付加するデー
タ変換部から構成されている。
As shown in FIG. 2, the search target data input unit 1 includes an input device for inputting the search target data and information on input data necessary for later analysis (for example, when there are a plurality of input devices, Is composed of a data conversion unit for adding a device identifier, a quantization bit number, a sampling frequency, and the like.

【0018】検索対象データ記憶部2は、検索対象デー
タ入力部1から入力したこれら検索対象データを格納す
る。
The search target data storage unit 2 stores the search target data input from the search target data input unit 1.

【0019】検索対象データ出力部3は、検索対象デー
タ記憶部2に格納されている検索対象データを取り出
し、ユーザに提示、出力する。ここで、提示、出力の様
式はアプリケーションに依存する。検索対象データとし
て文書や画像データを扱う場合は、ディスプレイへの表
示や印刷などを行う手段を持ち、また音響データを扱う
場合はスピーカなどへの再生出力を行う音響出力手段を
持つ。
The search target data output unit 3 extracts the search target data stored in the search target data storage unit 2, and presents and outputs the data to the user. Here, the form of presentation and output depends on the application. When a document or image data is handled as search target data, it has means for displaying or printing on a display, and when handling audio data, it has an audio output means for reproducing and outputting to a speaker or the like.

【0020】環境解析対象データは、図3に示すよう
に、解析により環境情報を取り出すもととなるデータで
あり、ユーザのシステム利用時に自動的にシステム内に
入力される。
As shown in FIG. 3, the environmental analysis target data is data from which environmental information is extracted by analysis, and is automatically input into the system when the user uses the system.

【0021】例えば、キーボード、マウス、ペンなどを
利用した入力操作の履歴、スキャナカメラなどを利用し
て入力した静止画、動画などの画像データ、マイクロフ
ォンを使って収録したり、電子的に合成した音響デー
タ、GPSや磁気センサなどの位置測定ディバイスを利
用した位置測定データ、温度,湿度,圧力センサによっ
て得た測定値データなどシステム利用時にユーザの様子
や外部状況を知るためのデータ、脈拍や血圧,体温,血
糖値などユーザの健康状態を示す測定値データなどがあ
げられる。
For example, a history of input operations using a keyboard, a mouse, a pen, etc., image data such as a still image and a moving image input using a scanner camera, etc., recorded using a microphone, or electronically synthesized Acoustic data, position measurement data using position measurement devices such as GPS and magnetic sensors, data for measuring the user's condition and external conditions when using the system, such as measurement value data obtained from temperature, humidity, and pressure sensors, pulse and blood pressure , Body temperature, blood glucose level, and other measured value data indicating the user's health condition.

【0022】この他システム利用時にユーザが検索に利
用されることを意図せずに行った入力も環境解析対象デ
ータとして利用できる。例えば、ワークステーションは
複数のユーザで利用することを前提としているため、シ
ステム利用の最初にユーザ名を入力する必要があるが、
これによりユーザIDが判明するため、誰がシステムを
利用したかが判る。
In addition, an input made by the user without intending to be used for retrieval when using the system can also be used as data to be analyzed. For example, a workstation is intended to be used by multiple users, so it is necessary to enter a user name at the beginning of using the system,
As a result, the user ID is determined, so that it is possible to determine who has used the system.

【0023】また、ネットワーク上で結ばれた計算機の
識別子を取得することによって、どのシステムを使って
いたかが判る。システムの設置場所が固定されている場
合には、どこのシステムを利用していたかが判る。
Further, by acquiring the identifier of the computer connected on the network, it is possible to determine which system was used. If the installation location of the system is fixed, it is possible to know which system was used.

【0024】これらの誰が、どこで入力したデータかと
いう情報は、予定表や他の文書など、検索対象以外の入
力データを解析することによって得られる。検索対象デ
ータを環境解析対象データとして利用することも可能で
ある。
Information on who and where the data is input can be obtained by analyzing input data other than the search target, such as a schedule table and other documents. It is also possible to use search target data as environment analysis target data.

【0025】環境解析対象データ入力部4は、これらの
環境解析対象データを入力するための入力デバイスと、
後の解析に必要な入力データに関する情報を付加するデ
ータ変換部とから構成されている。
The environment analysis target data input unit 4 includes an input device for inputting the environment analysis target data,
And a data conversion unit for adding information relating to input data necessary for later analysis.

【0026】環境解析対象データには、どの検索対象デ
ータに対応するものかを示す対応情報が付加される。例
えば、検索対象データが時系列データであれば検索対象
データの入力時刻を対応情報として利用できる。即ち、
検索対象データと環境解析対象データの各々について、
入力された時刻を付加し、この時刻情報をもとに対応づ
けを行うことができる。
Correspondence information indicating which search target data corresponds to the environment analysis target data is added. For example, if the search target data is time-series data, the input time of the search target data can be used as the corresponding information. That is,
For each of the search target data and the environmental analysis target data,
The input time can be added, and the correspondence can be made based on this time information.

【0027】また、検索対象データが時間的に変化する
データでない場合や変化が僅かである場合、環境解析対
象データが時間的に変化がない場合や変化が僅かである
場合は、データに識別子を付加しておき、これを対応情
報として利用できる。即ち、検索対象データと環境解析
対象データにデータ識別子をそれぞれ付加し、これをも
とに各々の対応するデータを同定することができる。
If the data to be searched is not data that changes with time or changes are slight, and if the data to be analyzed for the environment does not change with time or changes are slight, an identifier is assigned to the data. This can be added and used as correspondence information. That is, a data identifier is added to each of the search target data and the environmental analysis target data, and the corresponding data can be identified based on the data identifiers.

【0028】環境解析対象データは、例えば、音声認識
による発話内容の抽出、音響特性によるシステム利用場
所の識別、話者認識による発話者の特定、画像認識によ
るシステム利用場所の特定、文書データのレイアウト解
析、スケジュールやデータへのアクセス情報の分析を行
うことにより、環境情報を得る。
The data to be analyzed include, for example, extraction of utterance contents by voice recognition, identification of a system use place by acoustic characteristics, identification of a speaker by speaker recognition, identification of a system use place by image recognition, layout of document data. Obtain environmental information by analyzing, analyzing schedules and data access information.

【0029】これらの検出、分析、認識などの解析は、
環境情報解析部5で行われる。解析は、環境解析対象デ
ータの形態によって異なり、複数の解析結果をさらに解
析し、構造化することにより、より高次の環境情報を得
ることができる。
Analysis such as detection, analysis, recognition, etc.
This is performed by the environment information analysis unit 5. The analysis differs depending on the form of the environmental analysis target data, and higher-order environmental information can be obtained by further analyzing and structuring a plurality of analysis results.

【0030】各々の環境解析対象データ毎に具体的な解
析内容、得られる環境情報については後述する個々の実
施例の中で説明する。
Specific analysis contents and obtained environment information for each environment analysis target data will be described in respective embodiments described later.

【0031】これらの解析は、システム利用時に自動的
に行われることが望ましいが、解析の処理が複雑で実時
間性が確保できない場合には、ユーザがシステムを利用
していない時に実行してもよい。
It is desirable that these analyzes be performed automatically when the system is used. However, if the analysis process is complicated and real-time performance cannot be ensured, even if the user does not use the system, the analysis is performed. Good.

【0032】また、自動的な解析の誤りを修正したり、
ユーザが意図的に環境情報を付加したい場合は、解析結
果とマニュアルによる修正、追加を可能としてもよい。
It is also possible to correct errors in automatic analysis,
If the user intentionally wants to add environmental information, the analysis result and manual correction or addition may be made possible.

【0033】既述したように、環境解析対象データに
は、どの検索対象データに対応しているのかを示す対応
情報が付加されるが、解析によって得られる環境情報に
もどの環境解析対象データから得たかを示す対応情報が
付加される。勿論、この対応情報は、環境情報と環境解
析対象データとの間の対応づけを行うのではなく、環境
情報と検索対象データとの直接の対応づけを行うもので
あってもよい。この対応情報は、検索対象データと環境
解析対象データとの対応関係と同様に、データの時間的
変化が有意なものである場合には、検索対象データの入
力時刻を対応情報として用いることができるし、時間的
変化が特に意味を持たない場合は、データ識別子により
対応づけを行うことができる。
As described above, correspondence information indicating which search target data corresponds to the search target data is added to the environmental analysis target data. Correspondence information indicating whether or not it has been obtained is added. Needless to say, the correspondence information may be information for directly associating the environment information with the search target data, instead of associating the environment information with the environment analysis target data. This correspondence information can use the input time of the search target data as the correspondence information when the temporal change of the data is significant, similarly to the correspondence between the search target data and the environmental analysis target data. However, when the temporal change has no particular meaning, the association can be performed using the data identifier.

【0034】また、得られた環境情報が、検索対象デー
タあるいは環境解析対象データの一部に対応するするも
のである場合には、全体のうちのどの部分に対応するか
を示すような対応情報を付加すればより正確かつ容易に
検索することができる。
When the obtained environment information corresponds to a part of the data to be searched or the data to be analyzed, the corresponding information indicating which part of the whole corresponds. Can be searched more accurately and easily.

【0035】このような環境情報と検索対象データある
いは環境解析対象データ間の対応情報をたどることによ
り、環境情報を検索キーとして検索対象データを検索す
ることができる。
By following such correspondence information between the environment information and the search target data or the environment analysis target data, the search target data can be searched using the environment information as a search key.

【0036】さらに、環境情報がどのような解析を経て
得られたものであるか、あるいはどの程度の尤もらしさ
で得られたかを示す情報を環境情報に付加することもで
きる。この場合、同じような環境情報が複数の解析方法
によって得られている場合でも、どの環境情報が最も信
頼できるかを判断する材料として利用できる。
Furthermore, information indicating what kind of analysis the environment information has been obtained or how much likelihood has been obtained can be added to the environment information. In this case, even when similar environmental information is obtained by a plurality of analysis methods, it can be used as a material for determining which environmental information is most reliable.

【0037】ここでいう環境情報とは、図3に示すよう
に、システムを使って検索対象データをユーザが入力、
編集、あるいは検索、出力するときの、ユーザ自身ある
いは周囲の状況など(時刻、場所)に関する情報であ
り、単に物理的な時刻、場所だけでなく、ある人と一緒
にいたとき、ある会議に出席したとき、通勤の電車の中
で、自宅の居間でというように、「いついた所」「どこ
にいた時」「何をしていた時、所」「どうしていた時、
所」「誰といた時、所」など、検索をしようとするユー
ザにとって意味のある構造化された情報をさす。環境情
報を検索対象データとリンクすることにより、ユーザが
必要とする検索対象データを環境情報を検索キーとして
容易に捜し出すことができる。
The environment information referred to here means that the user inputs search target data using the system as shown in FIG.
Information about the user or his / her surroundings (time, place) when editing, searching, or outputting. Not only the physical time and place, but also when attending a meeting with a certain person. When you do, on the commuter train, in the living room at home, when you are, where you are, where you are, what you are doing, where you are,
This refers to structured information that is meaningful to the user who is searching, such as "place", "when and where". By linking the environment information with the search target data, the search target data required by the user can be easily found using the environment information as a search key.

【0038】各々の環境情報は、「誰が検索対象データ
を入力したか」、「どこで検索対象データを入力した
か」、「どのように検索対象データを入力したか」、
「何故、検索データを入力したか」など、解析によって
得られるトピックに応じた識別子を具体的な解析結果に
付加することによって、環境情報の内容をユーザに提示
する場合にユーザに判り易く示すことができる。
Each of the environmental information includes "who entered the data to be searched", "where the data to be searched was input", "how the data to be searched was input",
By adding an identifier corresponding to the topic obtained by the analysis, such as "Why did you enter the search data?", To the specific analysis result, to show the contents of the environmental information to the user in a way that is easy to understand. Can be.

【0039】このような環境情報は、ユーザがシステム
を利用しているあいだ自動的に取り込まれる音、映像な
どの信号、位置などの測定値など、物理的なデータを解
析することにより得られる。このような、環境情報を得
るために解析を行う対象となるデータを、図3に示すよ
うに、環境解析対象データと呼ぶことにする。
Such environmental information can be obtained by analyzing physical data such as sound and video signals automatically taken while the user is using the system, and measured values of position and the like. Such data to be analyzed to obtain environmental information is referred to as environmental analysis target data as shown in FIG.

【0040】環境情報解析部5では、環境解析対象デー
タ入力部4よりシステムに入力した環境解析対象データ
を解析、構造化し、環境情報を生成する。
The environment information analysis unit 5 analyzes and structures the environment analysis target data input to the system from the environment analysis target data input unit 4, and generates environment information.

【0041】環境情報記憶部6は、解析結果やその構造
化情報を含む環境情報を格納する。
The environment information storage unit 6 stores environment information including analysis results and its structured information.

【0042】環境情報出力部7は、環境情報記憶部に格
納されている解析結果やその構造化情報を含む環境情報
を出力する。
The environment information output unit 7 outputs environment information including analysis results stored in the environment information storage unit and its structured information.

【0043】検索キー入力部8は、ユーザからの入力を
受け付けるキーボード、タッチパネル、ペン、マウスな
どの入力デバイスと、これを検索したい環境情報に変換
する環境情報変換部から構成される。
The search key input unit 8 includes an input device such as a keyboard, a touch panel, a pen, and a mouse for receiving an input from the user, and an environment information conversion unit for converting the input device into environment information to be searched.

【0044】検索部9は、検索キー入力部8によりユー
ザが指定する環境情報を環境情報記憶部6から検索し、
その環境情報とリンクされている検索対象データを取り
出す。
The search unit 9 searches the environment information storage unit 6 for environment information designated by the user through the search key input unit 8,
The search target data linked to the environment information is extracted.

【0045】また検索部9は、環境情報記憶部6に格納
されている環境情報や構造化情報をたどって、関連する
環境情報を取り出すこともできる。
The search unit 9 can also retrieve relevant environment information by following the environment information and the structured information stored in the environment information storage unit 6.

【0046】既存の、ワードプロセッサや電子出版シス
テムや録音・録画システムなどのマルチメディアデータ
の入出力アプリケーションは、単に、検索対象となるデ
ータの入出力や記憶をつかさどる機能を実現しているだ
けであり、図1の構成に対応させて表現した場合、この
うち検索対象データ入力部と検索対象データ記憶部およ
び検索対象データ出力部を備えているに過ぎない。
Existing multimedia data input / output applications, such as word processors, electronic publishing systems, and audio / video recording systems, simply implement functions for input / output and storage of data to be searched. When expressed in correspondence with the configuration of FIG. 1, only a search target data input unit, a search target data storage unit, and a search target data output unit are provided.

【0047】本発明は、システムを利用してユーザが検
索対象データを操作していたときのユーザおよび周囲の
状況を表わす情報(環境情報)を検索対象データにリン
クさせ、環境情報を利用して検索対象データを探し出す
枠組みを提供するものである。さらに、基本的には環境
情報の生成をシステムが自動的に行う点が大きな特徴で
ある。
According to the present invention, information (environmental information) representing the user and surrounding conditions when the user is operating the search target data using the system is linked to the search target data, and the environment information is used. It provides a framework for searching for search target data. Further, a major feature is that the system automatically generates environment information.

【0048】つづいて、各部の詳細について述べる。Next, details of each section will be described.

【0049】・入力デバイスからのデータの入力 検索対象データ入力部1あるいは環境解析対象データ入
力部4の入力デバイスは、音響メディアあるいは映像メ
ディアなどの連続データ、ポインティング位置を示す入
力デバイスとシステムの相対位置データ、位置測定シス
テムを利用して得たシステム自体の絶対位置データなど
をシステムに取り込む。
Input of data from an input device The input device of the data input unit for search 1 or the data input unit for environmental analysis 4 is continuous data such as audio media or video media, and the relative position between the input device indicating the pointing position and the system. The position data, the absolute position data of the system itself obtained by using the position measurement system, and the like are taken into the system.

【0050】図2および図4に示される検索対象データ
入力部1あるいは環境解析対象データ入力部4のデータ
変換部では、これらの入力データをシステムで扱えるフ
ォーマットに変換する。たとえば、連続データは離散・
量子化したフォーマットで格納・処理される。
The data conversion section of the search target data input section 1 or the environmental analysis target data input section 4 shown in FIGS. 2 and 4 converts these input data into a format that can be handled by the system. For example, continuous data is
It is stored and processed in a quantized format.

【0051】ここで離散・量子化した検索対象データお
よび環境解析対象データには、その離散・量子化情報も
付加される。この離散・量子化情報は、検索対象データ
の全部または一部を再生出力する時に利用される。
Here, the discrete / quantized information is added to the discrete / quantized search target data and the environmental analysis target data. This discrete / quantized information is used when reproducing or outputting all or a part of the search target data.

【0052】また、検索対象データあるいは環境解析対
象データと言う場合、変換された後のデータを指すこと
にする。
Further, the term "search target data" or "environment analysis target data" refers to data after conversion.

【0053】・環境解析対象データとしての時間情報の
扱い 入力、編集、検索および出力など、検索対象データに対
する操作をイベントとしてとらえれば、それぞれのイベ
ントの生起時刻は、検索対象データに関する環境情報を
得るための解析対象として利用できる。すなわち、検索
対象データがシステムに入力された時刻を示す時間情報
等のイベント生起時刻系列は、環境解析対象データとし
て扱うことができる。これにより、検索対象データがい
つ操作されたか、検索対象データのある部分がいつ操作
されたかという情報が記録される。
Handling of time information as environment analysis target data If an operation on the search target data such as input, edit, search, and output is taken as an event, the occurrence time of each event obtains environment information on the search target data. Can be used as an analysis target. That is, an event occurrence time series such as time information indicating the time when the search target data is input to the system can be handled as the environmental analysis target data. As a result, information indicating when the search target data is operated and when a certain part of the search target data is operated are recorded.

【0054】また、環境解析対象データについても同様
に、その入力時刻を示す時間情報を環境解析対象データ
として扱うことができる。
Similarly, time information indicating the input time can be treated as environmental analysis target data.

【0055】このように、それぞれの入力データについ
て時間情報を持つことにより、それぞれの時間的な対応
をとることができる。検索対象データあるいはその一部
と環境解析対象データとの時間的なリンクを付けたり、
検索対象データに対する操作イベントと環境解析対象デ
ータのリンクを付けるときに利用できる。
As described above, by having time information for each input data, it is possible to correspond to each time. Add a time link between the search target data or a part of it and the environmental analysis target data,
It can be used when linking the operation event for the search target data and the environmental analysis target data.

【0056】・検索対象データと環境解析対象データの
格納 検索対象データ記憶部2は検索対象データを、環境解析
対象データ記憶部6は環境解析対象データを、離散・量
子化情報などの付加情報とともに格納する。
Storage of search target data and environmental analysis target data The search target data storage unit 2 stores the search target data, the environment analysis target data storage unit 6 stores the environmental analysis target data, together with additional information such as discrete / quantized information. Store.

【0057】検索対象データあるいは環境解析対象デー
タの実体と付加情報は、たとえば、互いにリンクを張っ
ていてもよい。あるいは、検索対象データや環境解析対
象データの実体は一般に膨大な記憶容量を必要とするの
に対し、その付加情報は比較的に入力デバイス毎や入力
データ毎に共通した内容であることが多いので、検索対
象データや環境解析対象データごとにフレームを用意
し、フレームにはその実体を指すポインタと、付加情報
または付加情報の実体を指すポインタを持たせていても
よい。
The entity of the search target data or the environmental analysis target data and the additional information may be linked to each other, for example. Alternatively, the data to be searched or the data to be analyzed in the environment generally requires a huge storage capacity, whereas the additional information is relatively common for each input device and each input data. Alternatively, a frame may be prepared for each of the data to be searched and the data to be analyzed, and the frame may have a pointer indicating the entity thereof and a pointer indicating the additional information or the entity of the additional information.

【0058】・環境解析のタイミング(環境情報解析部
5) 環境情報解析部5では、環境解析対象データを解析して
環境情報を得る。即ち、パラメータ抽出、パターン認識
・理解などにより環境情報を得る。
Timing of Environmental Analysis (Environmental Information Analyzing Unit 5) The environmental information analyzing unit 5 analyzes environmental analysis target data to obtain environmental information. That is, environmental information is obtained by parameter extraction, pattern recognition / understanding, and the like.

【0059】環境解析対象データの解析は、図5に示す
ように、環境解析対象データが入力されるときに自動的
に行われる。上に述べたように、環境解析対象データ
は、ユーザがシステムを利用してユーザが検索対象デー
タを操作していたときに必ず入力される。したがって、
ユーザがシステムを利用しているあいだ、常に解析が行
われることになる。
The analysis of the environmental analysis target data is automatically performed when the environmental analysis target data is input, as shown in FIG. As described above, the environment analysis target data is always input when the user operates the search target data using the system. Therefore,
The analysis will always be performed while the user is using the system.

【0060】・環境情報の解析(環境情報解析部5) ここで抽出あるいは認識・理解して得られる情報は、直
接的ないしは間接的にユーザがシステムを利用している
ときのユーザ自身や周囲の状況を表わす情報である。
Analysis of Environmental Information (Environmental Information Analyzing Unit 5) The information obtained by extraction or recognition / understanding is directly or indirectly used when the user uses the system or the surroundings. This is information indicating the situation.

【0061】たとえば、検索対象データを作成した場所
が自宅の居間であることを環境情報とする例について説
明する。この環境情報は、たとえばGPSなどの位置測
定システムから送られてくる位置データ系列を環境解析
対象データとして、その位置データが自宅の居間である
ことを認識することにより得られる。使用場所を示す環
境情報は、GPS以外の環境解析対象データからも得る
ことができ、その例を図6に示す。
For example, an example in which the location where the search target data is created is a living room at home as environment information will be described. This environment information can be obtained by, for example, using a position data sequence sent from a position measurement system such as a GPS as environment analysis target data and recognizing that the position data is a living room at home. Environmental information indicating the place of use can also be obtained from environmental analysis target data other than GPS, and an example is shown in FIG.

【0062】ところで、環境情報解析部5では、どの環
境情報を得たいのか、その環境情報はどの解析結果から
得られるのか、その解析結果はどの環境解析対象データ
からとの解析方法によって得られるのか、については自
動的な解析に先立って設定しておく必要がある。
By the way, in the environmental information analysis unit 5, which environmental information is desired to be obtained, from which analysis result the environmental information is obtained, and from which environmental analysis target data the analysis result is obtained by an analysis method. Must be set prior to automatic analysis.

【0063】上の例で言えば、システムの利用場所に関
する環境情報として、自宅の居間であるとか、自分の仕
事場であるとかいった識別すべき使用場所、さらに、そ
の使用場所を識別するために解析対象データとしてGP
S位置測定データを使うこと、その位置データ値と識別
すべき使用場所との対応などを、解析する前に設定して
おく必要がある。
In the above example, as environment information relating to the use place of the system, a use place to be identified, such as a living room at home, or a work place of one's own, and further information for identifying the use place. GP as analysis target data
It is necessary to set the use of the S position measurement data, the correspondence between the position data value and the place of use to be identified, etc. before analysis.

【0064】このうち、「ある環境情報を得るために
は、どの解析対象データに対してどのような解析方法で
解析すればよいか」については、応用場面やユーザにあ
まり依存しにくい部分であるので、解析に関するデフォ
ルトの知識としてシステムに持たせておいてもよい。図
6で言えば、使用場所を示す環境情報を得るためには、
残響データの残響パターンと周囲音データの周囲音パタ
ーンと、…などの解析を行えばよいということは、応用
によらずシステムが内蔵する予備知識として扱ってもよ
い。
Of these, "what analysis method should be used to analyze which data to obtain certain environmental information" is a part that is hardly dependent on application scenes and users. Therefore, the system may be provided with default knowledge on analysis. Referring to FIG. 6, in order to obtain environmental information indicating a place of use,
The analysis of the reverberation pattern of the reverberation data and the ambient sound pattern of the ambient sound data, etc. may be handled as preliminary knowledge built into the system regardless of the application.

【0065】一方、「どの環境情報(のインスタンス)
を得たいのか、また、その環境情報(のインスタンス)
はどの解析結果から得られるのか」については、応用場
面やユーザに大きく依存する。すなわち、上の例で言え
ば、前者は、使用場所を示す環境情報として、自宅の居
間と仕事場と移動の車内の3種類を識別すればよい、と
いうように、何を識別するかに関する知識であって、後
者は、自宅の居間であると識別するのは、解析の結果ど
のような残響パターンか得られた時か、どのような周囲
音パターンが得られた時かなどのように、解析結果の理
解に関する知識であるが、これらはいずれも、応用やユ
ーザの要求に大きく依存する知識である。表2で言え
ば、解析結果から個々の環境情報を得る部分は、ユーザ
が解析に先立って設定しておく必要がある。
On the other hand, “what instance of environmental information (instance of)
You want to get, and its environment information (instance of)
Which analysis result can be obtained? "Depends greatly on the application scene and the user. That is, in the above example, the former is based on knowledge about what to identify, such as identifying three types of living room at home, workplace, and moving vehicle as environmental information indicating a place of use. The latter distinguishes a living room at home by analyzing the reverberation pattern obtained as a result of the analysis, the type of ambient sound pattern obtained, etc. The knowledge related to the understanding of the results is all knowledge that largely depends on the application and the demands of the user. Speaking of Table 2, the part for obtaining individual environmental information from the analysis result needs to be set by the user prior to the analysis.

【0066】具体的には、音・画像・位置・スケジュー
ル・アクセス情報などが考えられるが、この詳細につい
ては、後段で詳しく説明する。
Specifically, sound, image, position, schedule, access information, and the like are conceivable, and the details will be described later.

【0067】・検索のメカニズム また、それぞれ得られた解析結果には、環境解析対象デ
ータのどの部分を解析して得たか等の解析に関する情報
が付加される。これにより、得られた個々の環境情報と
環境解析対象データの全部または解析した部分との間を
リンク付けをする。既に述べたように、検索対象データ
と環境解析対象データの間には、互いにリンクがあるの
で、環境情報から検索対象データを検索することが可能
になる。検索の際には、検索対象データにリンクされて
いる環境情報からさがす。たとえば、利用場所、利用時
刻、利用状況などを示す環境情報が環境情報出力部7を
通じて表示され、これを参照しこの中から検索キーとし
て使う環境情報を選択する。
Search Mechanism In addition, to each of the obtained analysis results, information relating to the analysis such as which part of the environmental analysis target data has been analyzed is added. As a result, the obtained individual environmental information is linked to all or analyzed portions of the environmental analysis target data. As described above, since there is a link between the search target data and the environment analysis target data, the search target data can be searched from the environment information. At the time of a search, search is performed from environmental information linked to the search target data. For example, environment information indicating a use place, a use time, a use state, and the like are displayed through the environment information output unit 7, and the user selects the environment information to be used as a search key by referring to the environment information.

【0068】検索キーとして使う環境情報は、検索キー
入力部8を介して指定する。
The environment information used as a search key is specified through the search key input unit 8.

【0069】検索部9は、指定された環境情報を環境情
報記憶部6の中で検索し、それにリンクされている検索
対象データが検索対象データ出力部3から出力される。
The search section 9 searches the specified environment information in the environment information storage section 6, and the search target data linked thereto is output from the search target data output section 3.

【0070】・環境情報への尤度の付加(環境情報解析
部5・環境情報出力部7) 解析結果の確からしさ(尤度)は解析方法に依存する。
また、同じ解析方法から得たものであっても、解析結果
ごとに尤度が異なる。
Addition of likelihood to environment information (environmental information analysis unit 5 and environment information output unit 7) The certainty (likelihood) of the analysis result depends on the analysis method.
Further, the likelihood differs for each analysis result, even if they are obtained from the same analysis method.

【0071】したがって、上述の解析に関する情報とし
て、どの解析方法によって得たか、その解析方法によれ
ばどの程度確からしい解析結果であるかという情報を付
加しておく。
Therefore, as the information relating to the above-mentioned analysis, information indicating which analysis method has been obtained and how reliable the analysis result is according to the analysis method are added.

【0072】この尤度は、ユーザが主観的に決めた値を
固定して使ってもよいし、システムが半自動的に設定し
てもよい。
This likelihood may be used by fixing a value subjectively determined by the user, or may be set semi-automatically by the system.

【0073】例えば、ある解析方法により得られた環境
情報を検索キーとして使う頻度が高いほど、その解析方
法の尤度は高く設定する。また、解析が何らかのパター
ン認識であれば、標準パターンとの類似度を尤度として
もよい。
For example, the higher the frequency of using environment information obtained by a certain analysis method as a search key, the higher the likelihood of the analysis method is set. If the analysis is pattern recognition, the similarity with the standard pattern may be used as the likelihood.

【0074】解析方法が複数あってそれぞれの方法で得
られた解析結果に矛盾がある場合、解析方法や解析結果
の尤度についての情報を参照することによって、検索対
象データを検索する際に、尤度の高いものを優先的に扱
い検索を効率的に進めることができる。また、多くの解
析方法から高い尤度で得られた環境情報を優先すること
も可能である。
When there are a plurality of analysis methods and the analysis results obtained by the respective methods are inconsistent, by referring to the information on the analysis method and the likelihood of the analysis result, the search target data can be retrieved. A search with a high likelihood can be preferentially handled and a search can be efficiently advanced. It is also possible to give priority to environmental information obtained with high likelihood from many analysis methods.

【0075】・解析結果の構造化(環境情報解析部5) 環境解析対象データとして、マルチメディアのデータが
利用できる場合には、最初にメディアごとに別個に解析
が行われる。
Structure of Analysis Result (Environmental Information Analysis Unit 5) If multimedia data can be used as environmental analysis target data, analysis is first performed separately for each medium.

【0076】ついで、得たい環境情報ごとに各メディア
の解析結果を構造化する。
Next, the analysis result of each medium is structured for each desired environment information.

【0077】例えば、検索対象データをどこで入力した
かという利用場所に関する環境情報は、図6に示したよ
うに、GPS等の測位システムによっても得られるほ
か、残響特性や周囲雑音等の音響データによる識別、画
像によるシーン認識、スケジュールや日常行動の履歴な
どのデータを参照して推定することも可能である。
For example, as shown in FIG. 6, environmental information on where the search target data is input can be obtained by a positioning system such as a GPS, as well as by acoustic data such as reverberation characteristics and ambient noise. It is also possible to make an estimation by referring to data such as identification, scene recognition using images, a history of schedules and daily activities.

【0078】これらの複数のメディアごとの利用場所に
関する解析結果は、同じ内容を意味する環境情報として
構造化される。
The analysis results regarding the use locations of each of the plurality of media are structured as environmental information having the same contents.

【0079】・環境解析対象データとしての検索対象デ
ータの利用 ところで、これまでは検索対象データと環境解析対象デ
ータとは別個のデータとして説明してきたが、これらは
同一のデータであっても構わない。すなわち、検索対象
データをそのまま環境解析対象データとして利用して、
これを解析し環境情報を得てもよい。たとえば、マイク
ロフォンから入力した音声データを使い話者認識を行っ
た認識結果を環境情報として、ある特定の人の発話を再
生する場合、検索対象データも環境解析対象データも同
一の音声データである。
Use of search target data as environmental analysis target data Although the search target data and the environmental analysis target data have been described above as separate data, they may be the same data. . That is, using the search target data as it is as the environmental analysis target data,
This may be analyzed to obtain environmental information. For example, when a speech of a specific person is reproduced using recognition results obtained by performing speaker recognition using voice data input from a microphone as environment information, both search target data and environment analysis target data are the same voice data.

【0080】このように、システム内部では同一のデー
タが、検索の観点からは検索対象であり、同時に、環境
の解析の観点からは解析対象であることも可能である。
As described above, within the system, the same data can be a search target from a search viewpoint, and at the same time, can be an analysis target from an environment analysis viewpoint.

【0081】・環境解析対象データとしてのデバイス情
報の扱い システムは、検索対象データ入力部あるいは環境解析対
象データ入力部の入力デバイスを複数個備えることがで
きる。複数の入力デバイスが利用できる場合には、各入
力データがどのデバイスから入力されたかを示すデバイ
ス情報自体も環境解析対象データとすることができる。
例えば、音響メディアであるとか映像メディアであると
か、どこに設置されたデバイスから入力したデータか、
どこに向けられたマイクロフォンやカメラで取り込んだ
データか、などの情報からも環境情報を得ることができ
る。
Handling of Device Information as Environment Analysis Target Data The system can include a plurality of input devices for the search target data input unit or the environment analysis target data input unit. If a plurality of input devices can be used, the device information itself indicating from which device each input data is input can also be used as the environmental analysis target data.
For example, whether it is audio media, video media, data input from a device installed anywhere,
Environmental information can also be obtained from information such as where the microphone is directed and the data captured by the camera.

【0082】・デバイス情報による尤度の付加。Addition of likelihood by device information.

【0083】デバイス毎に環境解析対象データの品質が
異なる場合は、デバイス情報を参照して尤度を変えるこ
とができる。
When the quality of the data to be analyzed is different for each device, the likelihood can be changed by referring to the device information.

【0084】つぎに、ユーザからの環境情報の入力を可
能とする環境情報入力部10を備える例について図7を
用いて説明する。
Next, an example in which an environment information input unit 10 that enables the user to input environment information will be described with reference to FIG.

【0085】環境情報入力部10は、ユーザからの入力
を受け付けるキーボード、タッチパネル、ペン、マウス
などの入力デバイスと、これを環境情報に変換する環境
情報変換部から構成される。
The environment information input unit 10 includes an input device such as a keyboard, a touch panel, a pen, and a mouse for receiving an input from a user, and an environment information conversion unit for converting the input device into environment information.

【0086】一般に、自動解析によって得られた結果に
は誤りが含まれることが避けられず、これを修正せずに
利用すれば検索の効率が低下することもある。ユーザが
直接環境情報を入力することにより、システムによる解
析誤りを修正・削除したり、必要な環境情報を追加する
ことが可能となる。
In general, it is unavoidable that the result obtained by the automatic analysis contains an error, and if the result is used without being corrected, the efficiency of the search may be reduced. By directly inputting the environment information by the user, it becomes possible to correct or delete an analysis error by the system or to add necessary environment information.

【0087】ここでいうユーザの入力できる環境情報
は、システムの解析結果やその構造化情報、あるいは尤
度を含んでいる。
The environment information that can be input by the user here includes the analysis result of the system, its structured information, or the likelihood.

【0088】ユーザが直接入力した環境情報に高い尤度
を付加することも可能である。
It is also possible to add a high likelihood to the environment information directly input by the user.

【0089】また、ユーザが解析結果を削除する頻度が
高い解析方法は、その解析方法の尤度を下げたり、逆に
修正を頻繁に繰り返し検索キーに使うような環境情報を
多く得た解析方法は、ユーザが注意を払っている解析結
果が多いものと判断できるので、その解析方法の尤度を
高めることができる。
An analysis method in which a user frequently deletes an analysis result is an analysis method in which the likelihood of the analysis method is reduced, or conversely, correction is frequently repeated so as to obtain a large amount of environmental information used as a search key. Since it can be determined that there are many analysis results that the user pays attention to, the likelihood of the analysis method can be increased.

【0090】つぎに、環境解析対象データを格納する、
環境解析対象データ記憶部を備える例について図8を用
いて説明する。
Next, the environment analysis target data is stored.
An example including an environment analysis target data storage unit will be described with reference to FIG.

【0091】環境解析対象データ記憶部11は、環境解
析対象データ入力部4から入力される環境解析対象デー
タを格納する。ここに格納された環境解析対象データ
は、必要に応じて取り出され、環境情報解析部5におい
て解析、構造化が行われる。
The environment analysis object data storage unit 11 stores the environment analysis object data input from the environment analysis object data input unit 4. The environment analysis target data stored here is extracted as necessary, and is analyzed and structured by the environment information analysis unit 5.

【0092】システムにいったん入力された環境解析対
象データの解析を行うことにより、ハードウェアの処理
能力に比較して複雑な解析をオフラインで行ったり、既
に得ている環境情報が十分でない場合に再解析すること
が可能になる。すなわち、環境情報を得るための環境解
析対象データの解析において、解析によって何を取り出
すか(解析結果)やどの様に解析するか(必要なパラメ
ータ設定を含む解析方法)はあらかじめ決めておく必要
があるが、検索時の目的によっては、既に得ている解析
結果や解析方法が十分でない場合もありうる。環境解析
対象データをシステム内部に記憶しておき、解析方法や
得たい解析結果を設定し直すことにより、必要に応じた
環境情報を得ることができる。
By analyzing the environmental analysis target data once input to the system, it is possible to perform a complicated analysis offline compared to the processing capacity of the hardware or to re-execute when the already obtained environmental information is not sufficient. It becomes possible to analyze. In other words, when analyzing environmental analysis target data to obtain environmental information, it is necessary to determine in advance what to extract by analysis (analysis result) and how to analyze (analysis method including necessary parameter settings). However, depending on the purpose at the time of the search, the analysis result or analysis method already obtained may not be sufficient. By storing the environment analysis target data inside the system and resetting the analysis method and the analysis result to be obtained, it is possible to obtain environmental information as needed.

【0093】次に、上述した具体例について詳しく説明
する。
Next, the above specific example will be described in detail.

【0094】まず、第1の発明について説明する。第1
の発明は、文書等のデータを作成、検索を行った際に、
このデータのIDと、このデータの作成、検索を行った
位置の位置情報とを対応づけて記憶し、この位置情報で
所望のデータを抽出する検索装置に関してである。例え
ば、位置情報としては、ユーザの行動履歴を収集できる
GPSを用いたり、データの抽出は、地図、部屋の見取
り図の情報に基づいて行うものである。以下に、詳しく
説明する。
First, the first invention will be described. First
Of the invention, when creating and searching data such as documents,
The present invention relates to a search device that stores an ID of this data in association with position information of a position where the data is created and searched, and extracts desired data based on the position information. For example, as the position information, a GPS capable of collecting a user's action history is used, and data is extracted based on information on a map and a room plan. The details will be described below.

【0095】・実施例1 検索対象は文書(データ)として行う。Embodiment 1 The search target is performed as a document (data).

【0096】本発明の文書検索装置は小型携帯型の装置
である。図9に、本発明の装置を構成するための機器の
構成を図示する。本発明に基づく制御や処理を行う中央
処理手段101、プログラム並びにデータを格納する半
導体メモリ、磁気ディスク、光ディスク、CDーRO
M、ICカードなどの記憶手段102、検索結果の表示
や文書内容の表示を行うための液晶ディスプレイやプラ
ズマディスプレイなどの表示手段104、およびその制
御を行う表示コントローラ103、利用者の検索命令の
入力を行うキーボードやマウスなどの入力手段106、
およびその制御を行う入力コントローラ105、GPS
アンテナ、赤外線受信機などの通信手段107からな
る。
The document search device of the present invention is a small portable device. FIG. 9 illustrates a configuration of a device for configuring the apparatus of the present invention. Central processing means 101 for performing control and processing based on the present invention, semiconductor memory for storing programs and data, magnetic disk, optical disk, CD-RO
M, a storage means 102 such as an IC card, a display means 104 such as a liquid crystal display or a plasma display for displaying a search result or a document content, a display controller 103 for controlling the display means, and a user's input of a search command Input means 106 such as a keyboard and a mouse for performing
And input controller 105 for controlling the same, GPS
It comprises communication means 107 such as an antenna and an infrared receiver.

【0097】図10に、本実施例の機能構成を図示す
る。本実施例は、文書データなどを格納しておく文書デ
ータ格納部25、文書を検索するための検索命令を入力
するための入力部20、検索命令に従って文書を検索す
るための検索部23、検索結果を表示するための検索結
果表示部22、計算機装置本体の存在する位置を計測す
るための位置測定部24、計測された位置の情報と検索
された文書の名前などを格納しておく位置文書情報格納
部26、計測された位置の情報と位置を表現する場所名
とを格納しておく場所名格納部27、およびこれらの各
構成要素を制御するための制御部21からなる。
FIG. 10 shows a functional configuration of the present embodiment. In the present embodiment, a document data storage unit 25 for storing document data and the like, an input unit 20 for inputting a search command for searching for a document, a search unit 23 for searching for a document according to the search command, a search A search result display unit 22 for displaying the result, a position measurement unit 24 for measuring the position where the computer apparatus body is located, a position document storing information on the measured position, the name of the searched document, and the like. It comprises an information storage unit 26, a place name storage unit 27 for storing information on the measured position and a place name representing the position, and a control unit 21 for controlling these components.

【0098】図11に、文書データ格納部内の文書デー
タの形式とその一例を示す。文書データは、文書名とそ
の文書のデータが格納されているファイルの文書IDと
の対からなる。図11では、file8,file11,file23など
が文書IDを表現している。また、文書名は例えばJIS
コードの順に並べられている。なお、文書データ格納部
は、図9の記憶手段102の上に実現されており、CD
ーROMやICカードなどの場合のように取り替えて利
用できるようにすることができる。
FIG. 11 shows the format of document data in the document data storage unit and an example thereof. The document data includes a pair of a document name and a document ID of a file storing data of the document. In FIG. 11, file8, file11, file23, etc. represent the document ID. The document name is, for example, JIS
They are arranged in code order. The document data storage is implemented on the storage unit 102 in FIG.
-It can be replaced and used as in the case of a ROM or an IC card.

【0099】まず、第一に特定の文書を検索した場合の
処理について述べ、第二に任意の場所の名前の設定につ
いて述べ、第三に場所名を用いて過去に閲覧、修正、作
成した文書を検索する処理について述べる。
First, processing for searching for a specific document will be described, second, setting of the name of an arbitrary place will be described, and thirdly, documents that have been browsed, modified, and created in the past using the place name will be described. The process of searching for will be described.

【0100】第一に、利用者がキーボードなどにより検
索したい文書の名前を入力部から入力し、図示しないウ
ィンドウ上の“検索”をマウスなどで指定するか、ある
いはキーボード上の“検索”キーを押下する。この場合
の制御部21の処理の流れを図12に示し、検索部23
の処理の流れを図13に示す。
First, the user inputs the name of a document to be searched using a keyboard or the like from the input unit, and designates “search” on a window (not shown) with a mouse or the like, or presses the “search” key on the keyboard. Press. FIG. 12 shows a processing flow of the control unit 21 in this case, and the search unit 23
13 is shown in FIG.

【0101】制御部21は、“検索”が選択されると、
入力部20から入力文字列を受け取り(処理401)、
検索部23を起動し(処理402)、検索部に入力文字
列を転送する(処理403)。検索部23は、制御部2
1から転送された入力文字列を用いて、文書データを検
索する(処理501)。該当する文書名が存在した場合
に、得られた文書IDを制御部に転送する(処理50
3)。制御部21は、検索部23から転送された文書名
と文書IDを受けとり(処理404)、検索結果表示部
22を起動し(処理405)、検索結果表示部22に検
索結果を転送する(処理406)。検索結果表示部22
は、検索結果表示部ウィンドウを生成し、当該ウィンド
ウに文書データの内容を表示する。利用者はこのように
して文書を閲覧することができる。なお、閲覧だけでな
く、文書の修正を行なえるようにすることは容易であ
る。
When "search" is selected, the control unit 21
Receiving an input character string from the input unit 20 (process 401);
The search unit 23 is activated (process 402), and the input character string is transferred to the search unit (process 403). The search unit 23 includes the control unit 2
The document data is searched using the input character string transferred from No. 1 (process 501). When the corresponding document name exists, the obtained document ID is transferred to the control unit (process 50).
3). The control unit 21 receives the document name and the document ID transferred from the search unit 23 (process 404), activates the search result display unit 22 (process 405), and transfers the search result to the search result display unit 22 (process). 406). Search result display section 22
Generates a search result display window and displays the contents of the document data in the window. The user can browse the document in this way. It is easy to modify the document as well as browse.

【0102】一方、検索部23は位置測定部24を起動
する(処理504)。位置測定部24は当該の計算機が
位置する地点の緯度と経度を算出し、算出した緯度と経
度からなる位置情報を検索部23へ転送し、検索部23
は当該の位置情報を受け取る(処理505)。位置計測
の方法については本発明の主旨ではなく、例えば測位衛
星を利用したGPS(グローバル・ポジショニング・シ
ステム)の方法(「カーナビゲーションシステム」山口
隆他、東芝レビュー、Vol.48, No.2、1993年)など
を用いればよい。GPSの場合には、測位衛星を利用で
きる野外で位置を計測することができる。
On the other hand, the search unit 23 activates the position measuring unit 24 (process 504). The position measurement unit 24 calculates the latitude and longitude of the point where the computer is located, transfers position information including the calculated latitude and longitude to the search unit 23, and
Receives the position information (step 505). The position measurement method is not the gist of the present invention. For example, a GPS (global positioning system) method using a positioning satellite ("Car Navigation System" Takashi Yamaguchi et al., Toshiba Review, Vol. 48, No. 2, 1993) may be used. In the case of GPS, the position can be measured in the field where a positioning satellite can be used.

【0103】検索部23は、位置測定部24から転送さ
れた位置情報と、検索された文書の文書IDとを対応づ
けて位置文書情報格納部26に格納する(処理50
6)。図14に、位置文書情報格納部26内のデータ形
式とデータの一例を示す。ここでは、検索された文書の
文書IDを格納したが、複数の文書が検索された場合な
どに、利用者が検索結果表示部において利用者が選択し
て内容を表示した文書のみの文書IDを格納するように
することもできる。
The search unit 23 stores the position information transferred from the position measurement unit 24 and the document ID of the searched document in the position document information storage unit 26 in association with each other (process 50).
6). FIG. 14 shows an example of the data format and data in the position document information storage unit 26. Here, the document ID of the searched document is stored. However, when a plurality of documents are searched, the document ID of only the document that the user has selected and displayed in the search result display section is displayed. It can also be stored.

【0104】以上は、利用者が既存の文書を検索して閲
覧、修正する場合を説明したが、利用者は新規に文書を
入力作成してもよい。この場合、入力部は利用者の入力
を文書データ格納部25の中に格納し、文書IDと利用
者が設定した文書名を格納する。さらに、文書IDを制
御部21へ転送する。制御部21は検索部23を起動
し、文書IDを転送する。検索部23は、図16に示す
ように、制御部から文書IDを受け取り(処理160
1)、位置測定部24を起動する(処理1602)。位
置測定部24から位置情報を受け取る(処理1603)
と、位置情報と文書IDを位置文書情報格納部26に格
納する(処理1604)。
In the above, a case has been described in which the user searches for, browses, and modifies an existing document. However, the user may input and create a new document. In this case, the input unit stores the user's input in the document data storage unit 25, and stores the document ID and the document name set by the user. Further, the document ID is transferred to the control unit 21. The control unit 21 activates the search unit 23 and transfers the document ID. The search unit 23 receives the document ID from the control unit as shown in FIG.
1), the position measuring unit 24 is activated (processing 1602). The position information is received from the position measuring unit 24 (step 1603).
Then, the position information and the document ID are stored in the position document information storage unit 26 (process 1604).

【0105】第二に、利用者は、任意の場所で、当該の
場所を表現する名前を入力部20から入力し、図示しな
いウィンドウ上の“場所登録”をマウスなどで指定する
か、あるいはキーボード上の“場所登録”キーを押下す
る。この場合の制御部の処理の流れを図15に示し、位
置測定部の処理の流れを図14に示す。
Second, the user inputs a name representing the place at an arbitrary place from the input unit 20, and designates “place registration” on a window (not shown) with a mouse or the like, or Press the "place registration" key above. FIG. 15 shows a processing flow of the control unit in this case, and FIG. 14 shows a processing flow of the position measurement unit.

【0106】制御部は、“場所登録”が選択されると、
入力部20から入力文字列を受け取り(処理701)、
位置測定部24を起動し(処理702)、入力文字列を
位置測定部24へ転送する(処理703)。
When "place registration" is selected, the control unit
An input character string is received from the input unit 20 (process 701),
The position measuring unit 24 is activated (process 702), and the input character string is transferred to the position measuring unit 24 (process 703).

【0107】位置測定部24は、転送された入力文字列
を受け取る(処理1401)。次に、当該の計算機が位
置する地点の緯度と経度を算出し(処理1402)、転
送された入力文字列と、算出した緯度と経度からなる位
置情報とを対応づけて場所名格納部27に格納する(処
理1403)。図16に、場所名格納部内のデータ形式
とデータの一例を示す。
The position measuring section 24 receives the transferred input character string (process 1401). Next, the latitude and longitude of the point where the computer is located are calculated (step 1402), and the transferred input character string is associated with the position information including the calculated latitude and longitude in the place name storage unit 27. It is stored (process 1403). FIG. 16 shows an example of the data format and data in the place name storage unit.

【0108】第三に、利用者が任意の時間や場所で、図
示しないウィンドウ上の“場所検索”をマウスなどで指
定するか、あるいはキーボード上の“場所検索”キーを
押下する。
Third, the user designates “place search” on a window (not shown) with a mouse or the like at an arbitrary time or place, or presses a “place search” key on a keyboard.

【0109】図17に、この場合の制御部の処理の流れ
を示す。制御部21は、検索結果表示部22を起動する
(処理901)。図18に、検索結果表示部22の処理
の流れを示す。検索結果表示部22は、場所名格納部2
7からすべての場所名を取り出し(処理1001)、取
り出したすべての場所名を検索結果表示部用ウィンドウ
に表示し(処理1002)、利用者が表示された場所名
の中からマウス等により場所名を選択するのを待つ(処
理1003)。図19に、検索結果表示部用ウィンドウ
における表示の一例を示す。図19において、黒塗りの
部分は利用者が選択したことを示している。検索結果表
示部22は、選択された場所名に対応する位置情報を場
所名格納部27から取り出し(処理1004)、取り出
した位置情報を制御部21へ転送する(処理100
5)。
FIG. 17 shows the flow of processing of the control unit in this case. The control unit 21 activates the search result display unit 22 (process 901). FIG. 18 shows a flow of processing of the search result display unit 22. The search result display section 22 stores the place name storage section 2
7, all the place names are taken out (process 1001), all the taken out place names are displayed in the search result display window (process 1002), and the place names are displayed from the place names displayed by the user with the mouse or the like. Is selected (processing 1003). FIG. 19 shows an example of display in the search result display window. In FIG. 19, the black portions indicate that the user has selected. The search result display unit 22 extracts the position information corresponding to the selected place name from the place name storage unit 27 (step 1004), and transfers the extracted position information to the control unit 21 (step 100).
5).

【0110】制御部21は、検索結果表示部22から位
置情報を受け取る(処理902)と、検索部23を起動
し(処理903)、検索部23に位置情報を転送する
(処理904)。図20に、検索部23の処理の流れを
示す。検索部23は、制御部21から転送された位置情
報を用いて位置文書情報格納部26を検索する(処理1
201)。
When the control unit 21 receives the position information from the search result display unit 22 (step 902), it activates the search unit 23 (step 903) and transfers the position information to the search unit 23 (step 904). FIG. 20 shows a flow of processing of the search unit 23. The search unit 23 searches the position document information storage unit 26 using the position information transferred from the control unit 21 (Process 1).
201).

【0111】この検索処理の詳細を図23に示す。図2
3に示すように、緯度と経度の一致は、完全一致ではな
く、所定の値の範囲内にあるかどうかで判定する。該当
する文書IDが検索された場合、当該の位置文書情報中
の文書IDを用いて文書データ格納部25を検索する
(処理1203)。検索された文書名と文書IDを制御
部に転送する(処理1204)。制御部21は、転送さ
れた文書名と文書IDを受けとり(処理905)、検索
結果表示部22へ転送する(処理906)。
FIG. 23 shows the details of the search processing. FIG.
As shown in FIG. 3, whether the latitude and longitude match is not a perfect match but is determined based on whether the latitude and longitude fall within a predetermined value range. If the corresponding document ID is found, the document data storage unit 25 is searched using the document ID in the position document information (process 1203). The retrieved document name and document ID are transferred to the control unit (process 1204). The control unit 21 receives the transferred document name and document ID (process 905) and transfers them to the search result display unit 22 (process 906).

【0112】検索結果表示部22は、制御部21から文
書名と文書IDを受けとり(処理1006)、検索結果
表示部用ウィンドウに表示する(処理1007)。文書
IDが一つであれば、文書名と文書IDの文書の内容を
表示し、文書IDが複数であれば、図21のように文書
名を一覧表示する。後者の場合、利用者は表示された文
書名から必要な文書名を選択することができる。検索結
果表示部は、利用者が選択した文書名に対応する文書I
Dの文書の内容を検索結果表示部用ウィンドウに表示す
る。
The search result display section 22 receives the document name and the document ID from the control section 21 (step 1006) and displays them on the window for the search result display section (step 1007). If there is one document ID, the contents of the document having the document name and the document ID are displayed. If there are a plurality of document IDs, a list of document names is displayed as shown in FIG. In the latter case, the user can select a required document name from the displayed document names. The search result display section displays the document I corresponding to the document name selected by the user.
The contents of the document D are displayed in the search result display window.

【0113】なお、図19の表示の段階で、すべての場
所名について、それぞれに対応する文書名を同時にすべ
て表示するようにすることは可能である。具体的には、
利用者が選択した場所の位置情報だけではなく、場所名
格納部内のすべての場所名の位置情報について、図20
の処理を行なえばよい。
In the display stage of FIG. 19, it is possible to display all the document names corresponding to all the place names at the same time. In particular,
FIG. 20 shows not only the location information of the place selected by the user but also the location information of all the place names in the place name storage unit.
May be performed.

【0114】また、次に説明するように、所定の条件
で、利用者が閲覧、修正、作成した文書や作成した文書
すべてについて当該文書の位置情報に対応する場所名が
設定されているか否かのチェックを行ない、対応する場
所名が設定されていない文書が存在する場合に、利用者
に場所名の登録を促すようにすることができる。この処
理について、図25に制御部の処理の流れを示す。
As described below, whether or not a place name corresponding to the position information of the document has been set for a document that the user has browsed, modified, or created, and for all the created documents under predetermined conditions. Is checked, and if there is a document for which the corresponding place name is not set, the user can be prompted to register the place name. FIG. 25 shows the flow of the process of the control unit in this process.

【0115】制御部21は、利用者が閲覧、修正、作成
した文書の数が所定の数を越えた場合に、検索結果表示
部22を起動する(処理1702)。図26に、検索結
果表示部22の処理の流れを示す。検索結果表示部22
は、場所名格納部27のすべての位置情報を取り出し
(処理1801)、制御部21へ転送する(処理180
2)。制御部21は、検索結果表示部22から位置情報
を受け取り(処理1703)、検索部23を起動し(処
理1704)、当該の位置情報を転送する(処理170
5)。
The control section 21 activates the search result display section 22 when the number of documents browsed, modified, and created by the user exceeds a predetermined number (step 1702). FIG. 26 shows the flow of processing of the search result display unit 22. Search result display section 22
Extracts all the position information from the place name storage unit 27 (step 1801) and transfers it to the control unit 21 (step 1801).
2). The control unit 21 receives the position information from the search result display unit 22 (Step 1703), activates the search unit 23 (Step 1704), and transfers the position information (Step 170).
5).

【0116】図27に示すように、検索部23は制御部
21から転送された位置情報を受け取り(処理190
1)、当該の位置情報で位置文書情報格納部26を検索
する(処理1902)。位置文書情報格納部26の位置
情報の中に、転送された位置情報,すなわち場所名が登
録されている位置情報から,所定の範囲内にない位置情
報がある場合に、当該の位置情報の文書IDで文書デー
タ格納部25を検索する(処理1904)。検索された
文書名と文書ID、および位置情報を制御部21へ転送
する(処理1905)。
As shown in FIG. 27, the search unit 23 receives the position information transferred from the control unit 21 (step 190).
1), search the position document information storage unit 26 with the position information (process 1902). If the position information in the position document information storage unit 26 includes position information that is not within a predetermined range from the transferred position information, that is, the position information in which the place name is registered, the position information document The document data storage unit 25 is searched by the ID (process 1904). The searched document name, document ID, and position information are transferred to the control unit 21 (step 1905).

【0117】制御部21は、検索部23から転送された
文書名と文書ID、および位置情報を検索結果表示部2
2へ転送する(処理1706)。検索結果表示部22
は、制御部21から文書名と文書ID、および位置情報
を受け取り(処理1803)、当該の位置情報に最も近
い位置情報の場所名を場所名格納部27から取り出し
(処理1804)、検索結果表示部用ウィンドウに、場
所名の登録を促すメッセージと、当該の文書名と場所名
格納部27から取り出したそれに最も近い場所名を表示
する(処理1805)。
The control unit 21 retrieves the document name, document ID, and position information transferred from the retrieval unit 23,
2 (processing 1706). Search result display section 22
Receives the document name, the document ID, and the position information from the control unit 21 (step 1803), extracts the location name of the position information closest to the position information from the place name storage unit 27 (step 1804), and displays the search result. A message prompting the registration of the place name, the document name and the place name closest to the document name and the place name extracted from the place name storage unit 27 are displayed on the copy window (step 1805).

【0118】図31に検索結果表示部用ウィンドウの表
示の一例を示す。利用者が場所名を入力した場合、入力
された場所名で場所名格納部27を検索する(処理18
07)。一致する場所名がない場合、入力された場所名
と対応する文書の位置情報を場所名格納部27に格納し
(処理1809)、表示している文書の中で、格納した
位置情報の所定の範囲に入らない位置情報の文書があれ
ば、さらに当該の文書の文書名と最も近い場所名を再表
示する(処理1811)。図32に,図31の表示に対
して利用者が場所名を登録した後の表示の例を示す.本
実施例では、位置計測の方法としてGPSを用い緯度と
経度を測定しその情報を格納したが、位置測定の方法は
GPSに限らない.例えば,赤外線送受信機を用いるこ
ともできる。具体的には,例えば異なる敷地や構内のビ
ルや家屋、あるいは同一の敷地や構内の異なるビルや、
家屋、フロアにおいて、会議室や作業場など任意の場所
に、当該の場所に固有のビットパターンを発振する赤外
線送信機を設置する。この場合、本実施例における位置
測定手段には赤外線受信機を用い、緯度と経度を測定す
る代わりに赤外線送信機が発するビットパターンを受信
し、場所名や部屋名を設定すればよい。このようにし
て、本実施例と同様の処理を行なうことができる。
FIG. 31 shows an example of the display of the search result display window. When the user inputs a place name, the place name storage unit 27 is searched by the input place name (process 18).
07). If there is no matching place name, the location information of the document corresponding to the input place name is stored in the place name storage unit 27 (process 1809), and the specified location information stored in the displayed document is stored. If there is a document whose position information does not fall within the range, the place name closest to the document name of the document is displayed again (step 1811). FIG. 32 shows an example of the display after the user has registered the place name with respect to the display of FIG. In the present embodiment, the latitude and longitude are measured using GPS as the position measurement method and the information is stored, but the position measurement method is not limited to GPS. For example, an infrared transceiver can be used. Specifically, for example, buildings and houses on different sites and premises, or different buildings on the same site and premises,
An infrared transmitter that oscillates a bit pattern unique to a place such as a conference room or a work place on a house or floor is installed. In this case, an infrared receiver may be used as the position measuring means in the present embodiment, and instead of measuring the latitude and longitude, the bit pattern emitted by the infrared transmitter may be received, and the place name and the room name may be set. In this manner, the same processing as in the present embodiment can be performed.

【0119】また、本実施例では検索の処理において、
表示された場所名を選択する方法を説明したが、場所名
を入力して検索してもよい。具体的には、場所名を入力
し、入力された場所名と場所名格納部27内の場所名と
を照合し、一致する場所名が存在する場合に、当該の場
所名の緯度と経度の値で位置文書情報格納部26を検索
し、所定の値の範囲内にある経度と緯度の値の文書ID
の文書を表示すればよい。
In this embodiment, in the search processing,
Although the method of selecting the displayed place name has been described, the search may be performed by inputting the place name. More specifically, the user inputs a place name, compares the inputted place name with the place name in the place name storage unit 27, and if there is a matching place name, determines the latitude and longitude of the place name. The position document information storage unit 26 is searched by the value, and the document ID of the longitude and latitude values within a predetermined value range
Should be displayed.

【0120】また、緯度と経度の値を入力して検索して
もよい。具体的には、緯度と経度の値を入力し、入力さ
れた緯度と経度の値で位置文書情報格納部26を検索
し、所定の値の範囲内にある経度と緯度の値の文書ID
の文書を表示すればよい。このとき、入力された緯度と
経度の値で場所名格納部を検索し、所定の値の範囲内に
ある経度と緯度の値の場所名を同時に表示することもで
きる。
Further, a search may be made by inputting values of latitude and longitude. Specifically, the user inputs the latitude and longitude values, searches the position document information storage unit 26 with the input latitude and longitude values, and obtains the document IDs of the longitude and latitude values within a predetermined value range.
Should be displayed. At this time, it is also possible to search the place name storage unit with the input latitude and longitude values and simultaneously display the place names of the longitude and latitude values within a predetermined value range.

【0121】また、本実施例では場所名と文書名を記憶
し表示したが、同時に時刻も計測し、場所名、文書名と
時刻を組み合わせて格納してもよい。この場合、場所名
ごとに時刻とともに文書名を表示することができる。
Although the place name and the document name are stored and displayed in this embodiment, the time may be measured at the same time, and the place name, the document name and the time may be stored in combination. In this case, the document name can be displayed together with the time for each place name.

【0122】本実施例では、文書の閲覧,修正,作成の
場合について説明したがそれらに限るものではない.例
えば,携帯電話機と組み合わせて,電話を使用した位置
の情報を格納し,どこでどこへあるいは誰と通話したか
を後で検索できるようにすることができる.また,電子
スチールカメラやビデオレコーダーなどと組み合わせ
て,写真やビデオを撮った位置の情報を格納し,どこで
何を撮影したかを後で検索できるようにすることができ
る.また,自動車などの乗り物や移動物に登載し,移動
中の位置の情報を格納し,どこを通ったかを後で検索で
きるようにすることができる. ・実施例2 本実施例の機器構成は、図9と同じであるので説明を省
略する。図28に、機能構成を示す。実施例1では、場
所名の登録は、文書の閲覧、修正、作成と独立であっ
た。本実施例では、利用者が文書を閲覧、修正、作成し
たときに、既に登録された場所名があるかを検査し、な
ければ場所名の登録を促す。
In this embodiment, the case of browsing, modifying, and creating a document has been described. However, the present invention is not limited thereto. For example, in combination with a mobile phone, it is possible to store information on the location where the phone was used, so that it is possible to retrieve later where, where or with whom. In addition, in combination with electronic still cameras and video recorders, it is possible to store information on the locations where photos and videos were taken, so that it is possible to search for where and what was taken later. In addition, it can be installed on vehicles and moving objects such as automobiles, and stores information on the position during movement, so that it is possible to search later where it has passed. Example 2 The device configuration of this example is the same as that of FIG. FIG. 28 shows a functional configuration. In the first embodiment, registration of a place name is independent of browsing, correction, and creation of a document. In the present embodiment, when a user browses, modifies, or creates a document, it checks whether there is a registered place name. If not, the user is prompted to register the place name.

【0123】図29に利用者が文書を閲覧、修正する場
合の検索部23の処理の流れを示し、図30に利用者が
文書を作成する場合の検索部の処理の流れを示す。図2
9に示すように、処理2107により既に登録された場
所名があるかを検査し、なければ処理2109等により
場所名の登録を促す。同様に、図30に示すように、処
理2205により既に登録された場所名があるかを検査
し、なければ処理2207等により場所名の登録を促
す。
FIG. 29 shows the flow of processing of the search unit 23 when a user views and modifies a document, and FIG. 30 shows the flow of processing of the search unit when the user creates a document. FIG.
As shown in FIG. 9, it is checked in step 2107 whether or not there is a registered place name, and if not, the registration of the place name is prompted in step 2109 or the like. Similarly, as shown in FIG. 30, it is checked whether or not there is a registered place name in step 2205, and if not, the registration of the place name is prompted in step 2207 or the like.

【0124】・実施例3 実施例1では,文書検索装置が位置を測定する手段を有
していたが,本実施例では,文書を閲覧,修正,作成す
る手段と情報を送信する手段を有する小型携帯型第一の
装置と、情報を受信する手段と検索を行なう手段を有す
る第二の装置からなる.本実施例の第一の装置と第二の
装置の機器構成は図9と同じである.ただし,通信手段
107は,第一の装置では赤外線送信機などであり,第
二の装置では赤外線受信機などである.図33に、本実
施例の第一の装置の機能構成を図示する。第一の装置
は、文書データなどを格納しておく文書データ格納部2
5、文書を検索するための検索命令を入力する入力部2
0、検索命令に従って文書を検索するための検索部2
3、検索結果を表示するための検索結果表示部22、時
刻を計時する計時部29、時刻データおよび検索結果の
文書の文書IDと文書名を格納する操作履歴格納部3
1、第一の装置の存在を通知するための通信部30、操
作履歴格納部31内のデータを出力するための出力部2
8、およびこれらの各構成要素を制御するための制御部
21からなる。
Third Embodiment In the first embodiment, the document search device has a means for measuring the position. In the third embodiment, the document search device has a means for browsing, modifying and creating a document, and a means for transmitting information. It comprises a small portable first device and a second device having a means for receiving information and a means for searching. The device configurations of the first device and the second device of the present embodiment are the same as those in FIG. However, the communication unit 107 is an infrared transmitter or the like in the first device, and is an infrared receiver or the like in the second device. FIG. 33 illustrates a functional configuration of the first device of the present embodiment. The first device is a document data storage unit 2 for storing document data and the like.
5. Input unit 2 for inputting a search command for searching a document
0, search unit 2 for searching a document according to a search command
3. A search result display unit 22 for displaying search results, a clock unit 29 for counting time, and an operation history storage unit 3 for storing time data and a document ID and a document name of a document of a search result.
1. Communication unit 30 for notifying the presence of the first device, output unit 2 for outputting data in operation history storage unit 31
8 and a control unit 21 for controlling each of these components.

【0125】図34に、本実施例の第二の装置の機能構
成を図示する。第二の装置は、データの入力および文書
を検索するための検索命令を入力する入力部20、検索
命令に従って検索するための検索部23、検索結果を表
示するための検索結果表示部22、第一の装置から送信
される情報を受信するための通信部30、第一の装置か
ら送信された情報などを格納する位置操作情報格納部3
2、位置を表現する場所名を格納しておく場所名格納部
27、およびこれらの各構成要素を制御するための制御
部23からなる。
FIG. 34 shows the functional configuration of the second device of this embodiment. The second device includes an input unit 20 for inputting a search command for inputting data and searching for a document, a search unit 23 for searching according to the search command, a search result display unit 22 for displaying a search result, A communication unit 30 for receiving information transmitted from one device; a position operation information storage unit 3 for storing information transmitted from the first device;
2. It comprises a place name storage unit 27 for storing a place name expressing a position, and a control unit 23 for controlling each of these components.

【0126】図33における第一の装置の文書データ格
納部25内のデータの形式は図11と同じである。
The format of the data in the document data storage unit 25 of the first device in FIG. 33 is the same as that in FIG.

【0127】図33における第一の装置の制御部の処理
の流れは図12と同じである。
The processing flow of the control unit of the first device in FIG. 33 is the same as that in FIG.

【0128】図35に、図33における第一の装置の検
索部23の処理の流れを図示する。検索部23は、制御
部21から転送された入力文字列を用いて、文書データ
を検索する(処理2701)。該当する文書名が存在し
た場合に、当該の文書の文書IDを制御部21に転送し
(処理2703)、計時部30からその時の時刻のデー
タを受け取る(処理2704)。さらに、通信部30を
起動し(処理2705)、通信部30へ当該の時刻デー
タを転送する(処理2706)。起動された通信部30
は、第一の装置を操作している利用者のユーザIDと転
送された時刻データを送信する。図36に、通信部30
が送信するデータの形式とその例を示す。検索部23は
最後に、時刻データおよび検索された文書の文書IDと
文書名を操作履歴格納部31に格納する(処理270
7)。図29に、操作履歴格納部31内のデータの形式
とその例を示す。なお、ここでは、検索された文書の文
書IDと文書名を格納したが、複数の文書が検索された
場合などに、利用者が検索結果表示部において利用者が
選択して内容を表示した文書のみの文書IDを格納する
ようにすることもできる。
FIG. 35 shows the flow of processing of the search unit 23 of the first apparatus in FIG. The search unit 23 searches for document data using the input character string transferred from the control unit 21 (process 2701). If the corresponding document name exists, the document ID of the document is transferred to the control unit 21 (step 2703), and the time data at that time is received from the clock unit 30 (step 2704). Further, the communication unit 30 is activated (process 2705), and the time data is transferred to the communication unit 30 (process 2706). The activated communication unit 30
Transmits the user ID of the user operating the first device and the transferred time data. FIG.
Shows the format of data to be transmitted and an example thereof. Finally, the search unit 23 stores the time data and the document ID and the document name of the searched document in the operation history storage unit 31 (processing 270).
7). FIG. 29 shows the format of data in the operation history storage unit 31 and an example thereof. In this case, the document ID and the document name of the searched document are stored. However, when a plurality of documents are searched, the user selects and displays the contents in the search result display unit. Only the document ID can be stored.

【0129】以上は、利用者が既存の文書を検索して閲
覧、修正する場合を説明したが、利用者は新規に文書を
入力作成してもよい。この場合、入力部は利用者の入力
を文書データ格納部25の中に格納し、文書IDと利用
者が設定した文書名を格納する。さらに、文書IDを制
御部へ転送する。制御部21は検索部23を起動し、文
書IDを転送する。検索部23は、図38に示すよう
に、制御部21から文書IDを受け取り(処理300
1)、計時部29から時刻データを受け取る(処理30
02)。さらに、通信部30を起動し(処理300
3)、通信部30へ時刻データを転送する(処理300
4)。最後に、時刻データおよび入力作成された文書の
文書IDと文書名を操作履歴格納部31に格納する(処
理3005)。
In the above, the case where the user searches for, browses, and modifies an existing document has been described. However, the user may input and create a new document. In this case, the input unit stores the user's input in the document data storage unit 25, and stores the document ID and the document name set by the user. Further, the document ID is transferred to the control unit. The control unit 21 activates the search unit 23 and transfers the document ID. The search unit 23 receives the document ID from the control unit 21 as shown in FIG.
1) The time data is received from the clock unit 29 (processing 30).
02). Further, the communication unit 30 is started (step 300
3) Transfer the time data to the communication unit 30 (process 300)
4). Finally, the time data and the document ID and the document name of the input and created document are stored in the operation history storage unit 31 (process 3005).

【0130】第二の装置では、任意の第一の装置から送
信されたデータを受信した場合の処理と、場所名を用い
て過去に閲覧、修正、作成した文書を検索する処理を行
う。なお、第二の装置の通信部はそれぞれが設置されて
いる場所の場所IDを付与されている。
The second device performs a process when data transmitted from an arbitrary first device is received, and a process of searching for a document that has been browsed, corrected, or created in the past using a place name. The communication unit of the second device is provided with a place ID of a place where each is installed.

【0131】任意の通信部iが任意の第一の装置が送信
したデータを受信すると、制御部21は、受信したデー
タと通信部i30に付与されている場所IDとを対にし
て位置操作情報格納部32に格納する。図39に、位置
操作情報格納部32内のデータの形式と、当該の処理が
行われた直後のデータの例を<例1>に示す。<例1>
では、文書IDと文書名はまだ設定されていない。後に
説明する処理で設定される。
When the arbitrary communication unit i receives the data transmitted by the arbitrary first device, the control unit 21 pairs the received data and the location ID assigned to the communication unit i30 with the position operation information. It is stored in the storage unit 32. FIG. 39 shows an example of the data format in the position operation information storage unit 32 and an example of data immediately after the processing is performed in <Example 1>. <Example 1>
Then, the document ID and the document name have not been set yet. This is set in the processing described later.

【0132】次に、場所名を用いて文書を検索する処理
について説明する。利用者は、まず第一の装置の操作履
歴格納部31内のデータを、第一の装置の出力部から第
二の装置の入力部20へ入力する。具体的には、例えば
第一の装置の出力部と第二の装置の入力部をコードで接
続し、第二の装置の図示しないウィンドウ上の“操作履
歴入力”をマウスなどで指定するか、あるいはキーボー
ド上の“操作履歴入力”キーを押下する。このとき、コ
ードによる接続ではなく、光通信でもよい。第二の装置
の制御部21は、“操作履歴入力”が選択されて、第一
の装置の操作履歴格納部31内のデータが入力される
と、入力されたデータを検索部23へ転送する。
Next, a process of searching for a document using a place name will be described. First, the user inputs data in the operation history storage unit 31 of the first device from the output unit of the first device to the input unit 20 of the second device. Specifically, for example, the output unit of the first device and the input unit of the second device are connected by a code, and "operation history input" on a window (not shown) of the second device is designated by a mouse or the like. Alternatively, an "operation history input" key on the keyboard is pressed. At this time, optical communication may be used instead of connection using a cord. When “operation history input” is selected and the data in the operation history storage unit 31 of the first device is input, the control unit 21 of the second device transfers the input data to the search unit 23. .

【0133】検索部23は、転送されたすべてのデータ
について、図40の処理を行う。すなわち、転送された
第一の装置の操作履歴格納部31のすべてのデータにつ
いて、第二の装置の位置操作情報格納部32内のデータ
を検索し、ユーザIDと時刻が一致する場合に、当該の
操作履歴格納部31のデータ内の文書IDと文書名の並
びを当該の位置操作情報格納部32内のデータに追加す
る。図39の<例2>は、当該の処理が行われた直後の
データの例を示している。
The search unit 23 performs the processing shown in FIG. 40 for all the transferred data. That is, for all the transferred data in the operation history storage unit 31 of the first device, the data in the position operation information storage unit 32 of the second device is searched, and when the user ID matches the time, The arrangement of the document ID and the document name in the data of the operation history storage unit 31 is added to the data in the position operation information storage unit 32. <Example 2> in FIG. 39 illustrates an example of data immediately after the processing is performed.

【0134】次に利用者は、次に第二の装置の図示しな
いウィンドウ上の“場所検索”をマウスなどで指定する
か、あるいはキーボード上の“場所検索”キーを押下す
る。第二の装置の制御部21は、“場所検索”が選択さ
れると、検索部23を起動する。検索部23は、位置操
作情報格納部32から、利用者のユーザIDと一致する
データを取り出す。取り出したデータの場所IDで、場
所名格納部27を検索し、場所IDを場所名格納部27
に格納された場所名に置き換える。図41に、場所名格
納部27内のデータの形式とその例を示す。検索部23
はそれらの検索結果を制御部21へ転送する。制御部2
1は、検索結果表示部22を起動し、当該の検索結果を
検索結果表示部22へ転送する。検索結果表示部22
は、当該の検索結果を検索結果表示部用ウィンドウに表
示する。図42に、検索結果表示部用ウィンドウにおけ
る表示の一例を図示する。
Next, the user designates “location search” on a window (not shown) of the second device with a mouse or the like, or presses the “location search” key on the keyboard. When the “location search” is selected, the control unit 21 of the second device activates the search unit 23. The search unit 23 extracts data matching the user ID of the user from the position operation information storage unit 32. The location ID of the extracted data is searched in the location name storage unit 27, and the location ID is stored in the location name storage unit 27.
Replace with the location name stored in. FIG. 41 shows a format of data in the place name storage unit 27 and an example thereof. Search unit 23
Transfers the search results to the control unit 21. Control unit 2
1 activates the search result display unit 22 and transfers the search result to the search result display unit 22. Search result display section 22
Displays the search result in a search result display window. FIG. 42 illustrates an example of a display in the search result display window.

【0135】・実施例4 実施例3では,第一の装置の通信手段は赤外線送信機な
どで送信するだけであり、第二の装置の通信手段は赤外
線受信機などで受信するだけであった。本実施例では,
第一の装置および第二の装置の通信手段は、赤外線送受
信機などであり送信と受信を行なう。
Fourth Embodiment In the third embodiment, the communication means of the first device only transmits by the infrared transmitter or the like, and the communication means of the second device only receives by the infrared receiver or the like. . In this embodiment,
The communication means of the first device and the second device is an infrared transceiver or the like, and performs transmission and reception.

【0136】本実施例の第一の装置と第二の装置の機器
構成は図9と同じである.ただし、通信手段107は,
赤外線送受信機などである。
The device configurations of the first device and the second device of the present embodiment are the same as those in FIG. However, the communication means 107 is
Such as an infrared transceiver.

【0137】図43に、本実施例の第一の装置の機能構
成を図示する。第一の装置は、文書データなどを格納し
ておく文書データ格納部25、文書を検索するための検
索命令を入力する入力部20、検索命令に従って文書を
検索するための検索部23、検索結果を表示するための
検索結果表示部22、時刻を計時する計時部29、さら
に、時刻データ、場所IDおよび検索結果の文書の文書
IDと文書名を格納する操作履歴格納部31、場所ID
に対応する場所名を格納しておく場所名格納部27、第
一の装置の存在を第二の装置に通知し、第二の装置から
場所IDを受信するための通信部30、およびこれらの
各構成要素を制御するための制御部21からなる。
FIG. 43 shows the functional configuration of the first device of this embodiment. The first device includes a document data storage unit 25 for storing document data and the like, an input unit 20 for inputting a search command for searching for a document, a search unit 23 for searching for a document according to the search command, a search result. , A timekeeping unit 29 that measures time, an operation history storage unit 31 that stores time data, a place ID, and a document ID and a document name of a document of a search result, and a place ID.
, A communication unit 30 for notifying the second device of the presence of the first device and receiving the location ID from the second device, It comprises a control unit 21 for controlling each component.

【0138】図44に、本実施例の第二の装置の機能構
成を図示する。第二の装置は、第一の装置から送信され
る情報を受信し、場所IDを送信するための通信部3
0,受信したデータと場所IDとを格納する送受信記憶
部33、およびこれらの各構成要素を制御するための制
御部21からなる。
FIG. 44 shows a functional configuration of the second apparatus of this embodiment. The second device receives the information transmitted from the first device, and communicates with the communication unit 3 for transmitting the location ID.
0, a transmission / reception storage unit 33 for storing received data and a location ID, and a control unit 21 for controlling these components.

【0139】図43における第一の装置の文書データ格
納部25内のデータの形式は図11と同じである。
The format of the data in the document data storage unit 25 of the first apparatus in FIG. 43 is the same as that in FIG.

【0140】図43における第一の装置の制御部21の
処理の流れは図12と同じである。
The processing flow of the control unit 21 of the first apparatus in FIG. 43 is the same as that in FIG.

【0141】図45に、図43における第一の装置の検
索部23の処理の流れを図示する。検索部23は、制御
部から転送された入力文字列を用いて、文書データを検
索する(処理3701)。該当する文書名が存在した場
合に、当該の文書の文書IDを制御部21に転送し(処
理3703)、計時部29からその時の時刻のデータを
受け取る(処理3704)。さらに、通信部30を起動
し(処理3705)、通信部30へ当該の時刻データを
転送する(処理3706)。起動された通信部は、第一
の装置を操作している利用者のユーザIDと転送された
時刻データを送信する。通信部30が送信するデータの
形式とその例は図36と同じである。なお、図36で
は、通信部30が送信するデータはユーザIDと時刻デ
ータからなるが、ユーザIDのみ、時刻データのみ、あ
るいは他のデータでもよい。要するに、第一の装置の存
在を第二の装置に通知できればよい。
FIG. 45 shows the flow of processing of the search unit 23 of the first apparatus in FIG. The search unit 23 searches for document data using the input character string transferred from the control unit (process 3701). If the corresponding document name exists, the document ID of the document is transferred to the control unit 21 (process 3703), and the time data at that time is received from the clock unit 29 (process 3704). Further, the communication unit 30 is activated (step 3705), and the time data is transferred to the communication unit 30 (step 3706). The started communication unit transmits the user ID of the user operating the first device and the transferred time data. The format and an example of the data transmitted by the communication unit 30 are the same as those in FIG. In FIG. 36, the data transmitted by the communication unit 30 includes the user ID and the time data, but may include only the user ID, only the time data, or other data. In short, it suffices if the presence of the first device can be notified to the second device.

【0142】通信部30は、さらに第二の装置の通信部
30から送信される場所IDを受信し、検索部23へ転
送する。検索部23は、転送された場所IDを受け取る
(処理3707)。検索部23は最後に、場所IDを、
時刻データおよび検索された文書の文書IDと文書名と
ともに操作履歴格納部31に格納する(処理370
8)。図46に、操作履歴格納部31内のデータの形式
とその例を示す。なお、ここでは、検索された文書の文
書IDと文書名を格納したが、複数の文書が検索された
場合などに、利用者が検索結果表示部において利用者が
選択して内容を表示した文書のみの文書IDを格納する
ようにすることもできる。
The communication unit 30 further receives the location ID transmitted from the communication unit 30 of the second device, and transfers it to the search unit 23. The search unit 23 receives the transferred place ID (Step 3707). Finally, the search unit 23 inputs the place ID,
The time data and the document ID and the document name of the retrieved document are stored in the operation history storage 31 (processing 370).
8). FIG. 46 shows the format of data in the operation history storage unit 31 and an example thereof. In this case, the document ID and the document name of the searched document are stored. However, when a plurality of documents are searched, the user selects and displays the contents in the search result display unit. Only the document ID can be stored.

【0143】以上は、利用者が既存の文書を検索して閲
覧、修正する場合を説明したが、利用者は新規に文書を
入力作成してもよい。この場合、入力部は利用者の入力
を文書データ格納部25の中に格納し、文書IDと利用
者が設定した文書名を格納する。さらに、文書IDを制
御部21へ転送する。制御部21は検索部23を起動
し、文書IDを転送する。検索部23は、図47に示す
ように、制御部21から文書IDを受け取り(処理39
01)、計時部29から時刻データを受け取る(処理3
902)。さらに、通信部30を起動し(処理390
3)、通信部30へ時刻データを転送する(処理390
4)。起動された通信部30は、第一の装置を操作して
いる利用者のユーザIDと転送された時刻データを送信
し、さらに第二の装置の通信部30から送信される場所
IDを受信し検索部23へ転送する。検索部23は、転
送された場所IDを受け取る(処理3905)。検索部
23は最後に、場所IDを、時刻データおよび入力作成
された文書の文書IDと文書名とともに操作履歴格納部
31に格納する(処理3906)。
In the above, a case has been described in which the user searches for, browses, and modifies an existing document. However, the user may input and create a new document. In this case, the input unit stores the user's input in the document data storage unit 25, and stores the document ID and the document name set by the user. Further, the document ID is transferred to the control unit 21. The control unit 21 activates the search unit 23 and transfers the document ID. The search unit 23 receives the document ID from the control unit 21 as shown in FIG.
01), and receives time data from the timer 29 (Process 3)
902). Further, the communication unit 30 is activated (processing 390).
3) Transfer the time data to the communication unit 30 (Process 390)
4). The activated communication unit 30 transmits the user ID of the user operating the first device and the transferred time data, and further receives the location ID transmitted from the communication unit 30 of the second device. Transfer to search unit 23. The search unit 23 receives the transferred place ID (Step 3905). Finally, the search unit 23 stores the location ID in the operation history storage unit 31 together with the time data, the document ID and the document name of the input and created document (Step 3906).

【0144】第二の装置の通信部30はそれぞれが設置
されている場所の場所IDを付与されている。第二の装
置の任意の通信部i30が任意の第一の装置が送信した
データを受信すると、制御部21は、受信したデータと
通信部i30に付与されている場所IDとを送受信記憶
部33に格納し、通信部i30から場所IDを送信す
る。
The communication unit 30 of the second device is provided with a place ID of a place where each is installed. When any communication unit i30 of the second device receives data transmitted by any first device, the control unit 21 transmits the received data and the location ID assigned to the communication unit i30 to the transmission / reception storage unit 33. And the location ID is transmitted from the communication unit i30.

【0145】次に、場所名を用いて文書を検索する処理
について説明する。利用者は、第一の装置の図示しない
ウィンドウ上の“場所検索”をマウスなどで指定する
か、あるいはキーボード上の“場所検索”キーを押下す
る。第一の装置の制御部21は、“場所検索”が選択さ
れると、検索部23を起動する。検索部23は、位置操
作情報格納部32からデータを取り出す。取り出したデ
ータの場所IDで、場所名格納部27を検索し、場所I
Dを場所名格納部27に格納された場所名に置き換え
る。場所名格納部27内のデータの形式とその例は図4
1と同じである。検索部23はそれらの検索結果を制御
部21へ転送する。制御部21は、検索結果表示部22
を起動し、当該の検索結果を検索結果表示部22へ転送
する。検索結果表示部22は、当該の検索結果を検索結
果表示部用ウィンドウに表示する。第一の装置の検索結
果表示部用ウィンドウにおける表示の一例は図42と同
じである。
Next, a process of searching for a document using a place name will be described. The user specifies “location search” on a window (not shown) of the first device with a mouse or the like, or presses a “location search” key on a keyboard. When the “location search” is selected, the control unit 21 of the first device activates the search unit 23. The search unit 23 extracts data from the position operation information storage unit 32. The location ID of the extracted data is searched in the location name storage unit 27, and the location I is searched.
D is replaced with the place name stored in the place name storage 27. FIG. 4 shows the format and an example of the data in the place name storage 27.
Same as 1. The search unit 23 transfers the search results to the control unit 21. The control unit 21 includes a search result display unit 22
Is started, and the search result is transferred to the search result display unit 22. The search result display section 22 displays the search result in a search result display section window. An example of the display in the search result display window of the first device is the same as that in FIG.

【0146】本実施例では、時刻を計測し、時刻デー
タ、場所ID、および文書の文書IDと文書名を記憶、
表示したが、時刻を計測せず、場所IDおよび文書の文
書IDと文書名のみを記憶、表示してもよい。
In this embodiment, the time is measured, and the time data, the location ID, and the document ID and the document name of the document are stored.
Although displayed, the time may not be measured, and only the place ID and the document ID and the document name of the document may be stored and displayed.

【0147】また、第一の装置と第二の装置とで場所I
Dを送受信したが、場所名を送受信するようにしてもよ
い。この場合には、場所名格納部27は必要でない。
Further, the first device and the second device are connected to the location I.
Although D is transmitted and received, a place name may be transmitted and received. In this case, the place name storage 27 is not required.

【0148】・実施例5 実施例3では,第一の装置の赤外線送信機などの通信手
段により送信を行ない、第二の装置の赤外線受信機など
の通信手段30により受信を行なった。本実施例では,
逆に第一の装置が赤外線受信機などの通信手段30によ
り受信を行ない、第二の装置が赤外線送信機などの通信
手段30により送信を行なう。
Fifth Embodiment In the third embodiment, transmission is performed by communication means such as an infrared transmitter of the first device, and reception is performed by communication means 30 such as an infrared receiver of the second device. In this embodiment,
Conversely, the first device performs reception using communication means 30 such as an infrared receiver, and the second device performs transmission using communication means 30 such as an infrared transmitter.

【0149】本実施例の第一の装置と第二の装置の機器
構成は図9と同じである.ただし、通信手段107は,
第一の装置では赤外線受信機などであり,第二の装置で
は赤外線送信機などである.本実施例の第一の装置の機
能構成は実施例4の図43と同じである.ただし、通信
部30は、第二の装置から場所IDを受信することのみ
を行なう。
The device configuration of the first device and the second device of the present embodiment is the same as that of FIG. However, the communication means 107 is
The first device is an infrared receiver, and the second device is an infrared transmitter. The functional configuration of the first device of this embodiment is the same as that of FIG. 43 of the fourth embodiment. However, the communication unit 30 only receives the location ID from the second device.

【0150】図48に、本実施例の第二の装置の機能構
成を図示する。第二の装置は、場所IDを送信するため
の通信部30,送信した場所IDを格納する送信記憶部
33およびこれらの各構成要素を制御するための制御部
21からなる。
FIG. 48 shows the functional configuration of the second device of this embodiment. The second device includes a communication unit 30 for transmitting the location ID, a transmission storage unit 33 for storing the transmitted location ID, and a control unit 21 for controlling these components.

【0151】第一の装置の文書データ格納部25内のデ
ータの形式は図11と同じである。
The format of the data in the document data storage unit 25 of the first device is the same as that of FIG.

【0152】第一の装置の制御部21の処理の流れは図
12と同じである。
The processing flow of the control unit 21 of the first device is the same as that of FIG.

【0153】第一の装置の検索部23の処理の流れは、
実施例4における第一の装置の検索部23の処理の流れ
と同じである。ただし、第二の装置の通信部は常にまた
は一定間隔で場所IDを送信しており、図45の処理3
706および図47の処理3904の処理は行なわな
い。
The processing flow of the search unit 23 of the first device is as follows.
This is the same as the processing flow of the search unit 23 of the first device in the fourth embodiment. However, the communication unit of the second device transmits the place ID at all times or at regular intervals.
706 and processing 3904 in FIG. 47 are not performed.

【0154】その他、第一の装置の文書データ格納部2
5内のデータの形式や、第一の装置の制御部21の処理
の流れ、操作履歴格納部31内のデータの形式、場所名
格納部27内のデータの形式などは実施例4と同じであ
る。
In addition, the document data storage unit 2 of the first device
5, the processing flow of the control unit 21 of the first device, the data format in the operation history storage unit 31, the data format in the place name storage unit 27, and the like are the same as those in the fourth embodiment. is there.

【0155】・実施例6 実施例1から実施例5までは、過去に閲覧、修正、作成
した文書について位置の情報により、任意の場所で当該
の文書を検索できるようにした。また、実施例1、実施
例2、実施例4および実施例5では、計算機が計算機自
身の位置を知ることができた。
Embodiment 6 Embodiments 1 to 5 allow a document that has been browsed, modified, or created in the past to be searched at any location based on positional information. In the first, second, fourth, and fifth embodiments, the computer was able to know the position of the computer itself.

【0156】本実施例では,計算機の位置の情報と、過
去に閲覧、修正、または作成した文書の位置の情報とを
照合し、一致した位置の情報の文書を表示する。
In this embodiment, the information of the position of the computer is compared with the information of the position of the document browsed, corrected or created in the past, and the document of the information of the matched position is displayed.

【0157】実施例1と実施例2に対応する実施例の検
索部23の処理の流れを図49に示す。
FIG. 49 shows a processing flow of the search unit 23 of the embodiment corresponding to the first and second embodiments.

【0158】実施例4と実施例5に対応する本実施例の
検索部23の処理の流れを図50に示す。図50におい
ては、場所IDだけでなく、一日の時刻を照合すること
によって、例えば、同じ会議室で午前と午後で異なる会
議が行われる場合にそれぞれに該当する議事録を開くこ
とができる。なお、さらに曜日を記憶し照合するように
拡張することは容易である。
FIG. 50 shows a processing flow of the search unit 23 of the present embodiment corresponding to the fourth and fifth embodiments. In FIG. 50, by checking not only the place ID but also the time of the day, for example, when different meetings are held in the same meeting room in the morning and afternoon, the minutes corresponding to each meeting can be opened. In addition, it is easy to extend to store and match the day of the week.

【0159】その他、制御部21の処理の流れや、各デ
ータの形式などはそれぞれ実施例1、実施例2、実施例
4および実施例5と同じであるので、ここでの説明は省
略する。
In addition, the processing flow of the control unit 21, the format of each data, and the like are the same as those in the first, second, fourth, and fifth embodiments, respectively, and thus description thereof will be omitted.

【0160】・実施例7 実施例1において図11と図13に示した検索結果表示
部22の表示および実施例3において図34に示した検
索結果表示部22の表示では、場所の情報については場
所の名称を表示するのみであった。本実施例では、場所
の名称だけではなく、画像を表示する。
Seventh Embodiment In the display of the search result display unit 22 shown in FIGS. 11 and 13 in the first embodiment and the display of the search result display unit 22 shown in FIG. It only displayed the name of the place. In this embodiment, an image is displayed in addition to the name of the place.

【0161】本実施例の機能構成は実施例1の図10と
同じであり、検索結果表示部22は地図データベースを
有する。検索結果表示部22の処理の流れは図10と同
じである。図51に、図10における処理1002の表
示処理の詳細を示す。図52に、検索結果表示部用ウィ
ンドウの表示の一例を図示する。図52の(a) は日本地
図を表示した例であり、(b) は世界地図を表示した例で
ある。ここで、検索結果表示部22は、検索結果表示部
用ウィンドウのX座標とY座標が経度と緯度に対応する
ように表示している。さらに、図53に、図52(a) に
おいて「研究所(神戸)」が選択された後の表示の例を
図示する。その他の処理などについては、実施例1と同
じであるのでここでの説明は省略する。なお、実施例1
と同様にして、図52の表示の段階で、すべての場所名
の位置に、それぞれに対応する文書名を同時に表示する
ようにすることは可能である。また、いずれの場合も、
文書名を所定の数だけ表示し、所定の数を越える文書が
存在する場合には、マウスなどの指定により他の文書名
を表示するようにすることができる。
The functional configuration of this embodiment is the same as that of FIG. 10 of the first embodiment, and the search result display section 22 has a map database. The processing flow of the search result display unit 22 is the same as that in FIG. FIG. 51 shows details of the display process of the process 1002 in FIG. FIG. 52 illustrates an example of the display of the search result display window. FIG. 52A shows an example in which a map of Japan is displayed, and FIG. 52B shows an example in which a world map is displayed. Here, the search result display unit 22 displays the X and Y coordinates of the search result display window so as to correspond to the longitude and the latitude. Further, FIG. 53 shows an example of the display after “Laboratory (Kobe)” is selected in FIG. 52 (a). Other processes and the like are the same as those in the first embodiment, and a description thereof will not be repeated. Example 1
52, it is possible to simultaneously display the corresponding document names at the positions of all the place names at the display stage of FIG. In both cases,
A predetermined number of document names are displayed, and when there is a document exceeding the predetermined number, another document name can be displayed by designating a mouse or the like.

【0162】実施例3や実施例4についても同様に、検
索結果表示部22が地図データベースを有し、表示処理
を行なうことができる。図54に、検索結果表示部用ウ
ィンドウの一例を図示する。図54の(a) は会社組織の
部所名を表す文字列とともに、それらに対応付けて場所
名、文書名、および時刻を表示している。この場合の地
図データベース内のデータの形式と一例を図55に示
す。図54の(a) では、図55の組織のレベルの数値の
順に当該組織名を木構造の形で表示している。図54の
(b) では、場所名を場所の映像と対応付けて表示してい
る。場所の映像の表示と、場所名との対応付けはコンピ
ュータグラフィックスの技術を用いればよい。
Similarly, in the third and fourth embodiments, the search result display section 22 has a map database and can perform display processing. FIG. 54 shows an example of the search result display window. FIG. 54A shows a character string representing a department name of a company organization, and a location name, a document name, and a time are displayed in association with them. FIG. 55 shows the format and an example of the data in the map database in this case. In FIG. 54A, the organization names are displayed in the form of a tree structure in the order of the numerical values of the organization levels in FIG. 54 of FIG.
In (b), the place name is displayed in association with the video of the place. The display of the image of the place and the association with the place name may use computer graphics technology.

【0163】また、ある一定区域の場所中の文書はひと
まとまりとして表示し、当該の場所が選択された場合に
各文書の位置に表示することが可能である。例えば、世
界地図での表示において、日本国内の文書をまとめて一
つの位置に表示し、この位置がマウスなどで指定される
と、世界地図のかわりに日本地図を表示し、その各文書
を当該日本地図上の各地の該当する位置に表示する。あ
るいは、例えば、会社の全社組織図の表示において、本
社の文書をまとめて一つの位置に表示し、この位置がマ
ウスなどで指定されると、全社組織図のかわりに本社組
織図を表示し、その各文書を当該本社組織図上の該当す
る位置に表示する。
Further, it is possible to display documents in a place in a certain area as a group, and to display the position of each document when the place is selected. For example, when displaying on a world map, documents in Japan are displayed together at one location, and when this location is designated with a mouse or the like, a map of Japan is displayed instead of the world map, and each document is It is displayed at the corresponding position in each place on the Japan map. Alternatively, for example, in the display of the company-wide organization chart of the company, the documents of the head office are collectively displayed at one position, and when this position is designated with a mouse or the like, the head office organization chart is displayed instead of the company-wide organization chart, Each document is displayed at a corresponding position on the head office organization chart.

【0164】なお、以上の実施例では位置の情報を検索
キーとして文書を検索する方法を説明したが、逆に、利
用者が表示した文書について、その文書が閲覧、修正、
あるいは作成された位置の情報を表示することにより、
利用者がその文書の内容や過去に閲覧、修正、あるいは
作成したいきさつなどを思い出す手がかりに用いること
ができる。具体的には、検索された文書の文書IDで位
置文書情報格納部26または操作履歴格納部31を検索
し、当該文書IDの緯度と経度または場所IDに従って
場所名を表示すればよい。
In the above embodiment, a method of searching for a document using position information as a search key has been described. Conversely, for a document displayed by a user, the document can be viewed, modified,
Or by displaying the information of the created position,
It can be used as a clue for the user to remember the contents of the document or the history of browsing, modifying, or creating the document in the past. Specifically, the location document information storage unit 26 or the operation history storage unit 31 is searched using the document ID of the searched document, and the location name may be displayed according to the latitude and longitude of the document ID or the location ID.

【0165】また、以上の実施例では文書を検索した
が、検索の対象を文書に限るものではない。例えば、プ
ログラムなどでもよい。例えばプログラムの場合には、
具体的には文書IDと文書の代わりにプログラムIDと
プログラムを用いればよい。
Further, in the above embodiment, the document is searched, but the search target is not limited to the document. For example, a program may be used. For example, in the case of a program,
Specifically, a program ID and a program may be used instead of the document ID and the document.

【0166】・実施例8 以上の実施例では装置の位置の情報を検索の手がかりと
した。本実施例では、文書中に含まれている住所などの
情報を利用して文書群を表示し、文書の検索を容易にす
る。
Embodiment 8 In the above embodiments, information on the position of the apparatus is used as a clue for retrieval. In the present embodiment, a document group is displayed using information such as an address included in the document, thereby making it easier to search for the document.

【0167】本実施例の機器構成は図9と同じである。The device configuration of this embodiment is the same as that of FIG.

【0168】図56に、本実施例の機能構成を図示す
る。本実施例は、文書データなどを格納しておく文書デ
ータ格納部25、文書データの表示命令や検索命令を入
力するための入力部20、検索命令に従って文書を検索
するための検索部23、文書データや検索結果を表示す
るための表示部34、文書データや検索結果の表示のた
めに用いられる地図データベース36と位置データベー
ス37およびこれらの各構成要素を制御するための制御
部21からなる。
FIG. 56 shows a functional configuration of this embodiment. In the present embodiment, a document data storage unit 25 for storing document data and the like, an input unit 20 for inputting a display command and a search command for document data, a search unit 23 for searching for a document according to the search command, a document The display unit 34 includes a display unit 34 for displaying data and search results, a map database 36 and a position database 37 used for displaying document data and search results, and a control unit 21 for controlling these components.

【0169】まず、図57に示すように、文書に筆者の
住所が書かれている場合について説明する。住所の抽出
については、後段で詳しく説明するが、文書章枠認識を
利用し、第一文書枠内の文字列を解析すればよい。解析
の方法は機械翻訳システムなどで用いられている方法を
用いればよい。このように文書から筆者の住所が抽出さ
れて、図58に示すように、文書IDと住所が文書デー
タ格納部に格納されている。
First, the case where the address of the writer is written in the document as shown in FIG. 57 will be described. The extraction of the address will be described in detail later, but the character string in the first document frame may be analyzed using document chapter frame recognition. The method of analysis may be a method used in a machine translation system or the like. Thus, the writer's address is extracted from the document, and the document ID and the address are stored in the document data storage as shown in FIG.

【0170】図59に、位置データベースの形式とその
一例を示す。
FIG. 59 shows a format of the position database and an example thereof.

【0171】表示部34は検索された文書について、各
文書の住所を位置データベース37中の住所と照合し、
文書の住所を構成する住所が位置データベース37中に
存在する場合に、当該の緯度と経度の値を文書に付与す
る。その後、地図データベース36内の地図を表示し、
文書の緯度と経度の値に対応する座標位置に文書名を表
示する。また、検索された文書だけではなく、文書デー
タ格納部25内のすべての文書を表示することは可能で
ある。このとき、実施例7と同様にして、文書名を所定
の数だけ表示し、所定の数を越える文書が存在する場合
には、マウスなどの指定により他の文書名を表示するよ
うにすることができる。
The display unit 34 compares the address of each document with the address in the position database 37 for the searched documents.
When the address constituting the document address exists in the position database 37, the latitude and longitude values are given to the document. After that, the map in the map database 36 is displayed,
The document name is displayed at the coordinate position corresponding to the latitude and longitude values of the document. Further, it is possible to display not only the searched documents but also all the documents in the document data storage unit 25. At this time, in the same manner as in the seventh embodiment, a predetermined number of document names are displayed, and when there is a document exceeding the predetermined number, another document name is displayed by designating a mouse or the like. Can be.

【0172】次に、図60に示すように、文書に筆者の
所属機関または所属部所名のみが書かれている場合につ
いて説明する。所属機関または所属部所名の抽出は上記
の説明のように行なうことができる。図61に、文書デ
ータ格納部25の形式とその例を示す。
Next, as shown in FIG. 60, a case where only the affiliation of the writer or the affiliation of the writer is described in the document will be described. The extraction of the affiliated organization or affiliated department name can be performed as described above. FIG. 61 shows the format of the document data storage unit 25 and an example thereof.

【0173】図62に、位置データベース37の形式と
その一例を示す。
FIG. 62 shows a format of the position database 37 and an example thereof.

【0174】表示部34は検索された文書について、各
文書の筆者の所属機関または所属部所名を位置データベ
ース37中の所属機関または部所名と照合し、一致する
所属機関または部所名が存在する場合に、当該の緯度と
経度の値を文書に付与する。その後、地図データベース
36内の地図を表示し、文書の緯度と経度の値に対応す
る座標位置に文書名を表示する。また、検索された文書
だけではなく、文書データ格納部25内のすべての文書
を表示することは可能である。このとき、実施例7と同
様にして、文書名を所定の数だけ表示し、所定の数を越
える文書が存在する場合には、マウスなどの指定により
他の文書名を表示するようにすることができる。
The display unit 34 compares the name of the institution or department of the writer of each document with the name of the institution or department in the location database 37 for the retrieved documents. If present, the latitude and longitude values are added to the document. Thereafter, the map in the map database 36 is displayed, and the document name is displayed at a coordinate position corresponding to the latitude and longitude values of the document. Further, it is possible to display not only the searched documents but also all the documents in the document data storage unit 25. At this time, in the same manner as in the seventh embodiment, a predetermined number of document names are displayed, and when there is a document exceeding the predetermined number, another document name is displayed by designating a mouse or the like. Can be.

【0175】また、実施例7と同様に、ある一定区域の
場所中の文書はひとまとまりとして表示し、当該の場所
が選択された場合に各文書の位置に表示することが可能
である。
As in the case of the seventh embodiment, documents in a place in a certain area can be displayed as a group, and when the place is selected, it can be displayed at the position of each document.

【0176】また、住所と同様に、文書のタイトル部分
などに書かれている作成日付、発表日付、あるいは発行
日付を抽出して、図63に示すように日付と文書の一覧
を表示することができる。同様に、複数の文書データ格
納部25がある場合に、図64に図示するように文書が
存在した文書データ格納部25に付与された日付、文書
データ格納部25の名称および文書名を表示することが
できる。
As in the case of the address, it is possible to extract the creation date, the announcement date, or the issuance date written in the title portion of the document or the like, and display the date and the document list as shown in FIG. it can. Similarly, when there are a plurality of document data storage units 25, the date, the name of the document data storage unit 25, and the document name assigned to the document data storage unit 25 where the document was present are displayed as shown in FIG. be able to.

【0177】次に、図65を参照しながら第2の発明に
ついて説明する。
Next, the second invention will be described with reference to FIG.

【0178】第2の発明は、公知のスケジュール管理シ
ステムを用いて作成されたスケジュールと文書等のデー
タとを関連づけて記憶し、スケジュール項目から所望の
データを抽出する検索装置についてである。
The second invention relates to a search device that stores a schedule created using a known schedule management system and data such as documents in association with each other, and extracts desired data from schedule items.

【0179】前記データとスケジュールとを関連づける
方法には、 (1) 時刻を用いずにユーザがマニュアルで関連づける方
法 (2) 前記データに書かれた日付等を解析して関連づける
方法 (3) データ作成時刻、データ変更時刻、アクセスした時
刻等を用いる方法 などがある。
The method of associating the data with the schedule includes: (1) a method of manually associating a user without using a time; (2) a method of analyzing a date or the like written in the data and associating the data; and (3) data creation. There are methods using the time, data change time, access time, and the like.

【0180】また、上記手段によって特定されたスケジ
ュール項目を対象データに関連づけて記憶する方法とし
ては、スケジュールに対象データへのリンク情報を付加
して記憶する方法などがある。
As a method of storing the schedule item specified by the above means in association with the target data, there is a method of adding link information to the target data to the schedule and storing the schedule.

【0181】さらに、前記方法によって関連づけて記憶
されたデータの検索方法としては、 (1) スケジュール表をインターフェースとしてスケジュ
ール項目を指定することにより、直接、関連づけられて
いる所望のデータを検索する方法 (2) 『「……会議」に使用した資料』のように、まず
「……会議」をスケジュール表から検索し、抽出された
スケジュール項目を用いて関連づけされているデータを
検索する方法 などがある。
Further, as a method of retrieving data stored in association with the above method, there are the following methods. (1) A method of directly searching for desired desired data by designating schedule items using a schedule table as an interface ( 2) There is a method such as searching for “…… meeting” from the schedule table first, and using the extracted schedule items to find the associated data, such as “Material used for“ …… meeting ”]. .

【0182】従来のスケジュール管理装置は、スケジュ
ールだけを管理することができ、事前に準備した資料や
スケジュールにしたがって実際に行った会議等の記録な
どの関連資料を管理する機能は持たない。
The conventional schedule management device can manage only the schedule, and does not have a function of managing related materials such as materials prepared in advance and records of meetings actually held according to the schedule.

【0183】本実施例では、従来のスケジュール管理装
置に加え、対象データへのリンク情報を持ち、リンク付
けするスケジュールを決定し、スケジュール検索の結果
から対象データへのリンクをたどるようになされてい
る。
In the present embodiment, in addition to the conventional schedule management device, it has link information to the target data, determines a schedule to be linked, and follows the link to the target data from the result of the schedule search. .

【0184】従来のスケジュール管理装置について、図
65を用いて説明する。
A conventional schedule management device will be described with reference to FIG.

【0185】スケジュールのデータ構造は、以下のよう
になされている。
The data structure of the schedule is as follows.

【0186】 スケジュール := (日時、用件) 日時 := [開始時刻から][終了時刻まで] (少なくとも片方 があればよい) 用件 := 1個以上のキーワード キーワード := {場所| スケジュール名| 相手| 内容| その他の メモ} スケジュール表 := スケジュールを時間順に並べた表 上記スケジュール表の構成は、スケジュールを日時(時
刻)順に管理するため、年、月、日という階層構造をそ
のままディレクトリ構造とし、個々のスケジュールの時
刻をファイル名として、スケジュールを一つずつ個別の
ファイルに格納する。
Schedule: = (date and time, date and time) date and time: = [from start time] to [end time] (at least one is required) message: = one or more keywords keyword: = {location | schedule name | Other | Content | Other memos} Schedule table: = A table in which schedules are arranged in chronological order The structure of the above schedule table manages schedules in order of date and time (time), so the directory structure is the same as the year, month, and day. The schedules are stored one by one in individual files, using the time of each schedule as a file name.

【0187】'92---Jan ---1 ---0700, 1300, |-Feb |-2 ---1000, |-... |-.. |-Dec |-31 -- 図65において、スケジュール作成部42はキーボード
等の入力部41から入力されたデータに基づいてスケジ
ュールを作成する。作成されたスケジュールはスケジュ
ールはスケジュール記憶部48に格納される。
'92 --- Jan --- 1 --- 0700, 1300, | -Feb | -2 --- 1000, | -... |-.. | -Dec | -31-FIG. 65 In, the schedule creation unit creates a schedule based on data input from the input unit 41 such as a keyboard. The created schedule is stored in the schedule storage unit 48.

【0188】基本機能は、日時を指定してスケジュール
を格納すること、日時を指定してスケジュールを取り出
すことである。用件をキーとして、キーを含むスケジュ
ールを検索する機能を持つ場合もある。
The basic functions are to store the schedule by specifying the date and time, and to retrieve the schedule by specifying the date and time. In some cases, there is a function of searching for a schedule that includes a key using a message as a key.

【0189】リンク情報について説明する。対象データ
を記録するときに、スケジュールと対象データとを関連
づけるリンク情報をスケジュールに付加する。例えば、
前述の構造をもつスケジュール表の場合には、個々のス
ケジュールに対応するファイルに、対象データ記憶装置
内の該当データへのリンク情報を書いておく。対象デー
タからスケジュールへのリンク情報を作り、双方向リン
クとするように拡張することも容易である。
The link information will be described. When recording the target data, link information that associates the schedule with the target data is added to the schedule. For example,
In the case of the schedule table having the above-described structure, link information to the corresponding data in the target data storage device is written in a file corresponding to each schedule. It is also easy to create link information from the target data to the schedule and extend it to a bidirectional link.

【0190】リンク付けを行う時刻と対象スケジュール
の時刻の前後関係により、以下の3種類のリンク情報が
ある。スケジュールを基準として、過去に作成されたこ
とを示す「事前」リンク、スケジュールの進行と同時に
記録されたことを示す「現在」リンク、スケジュールが
終了した後に記録されたことをしめす「事後」リンクで
ある。
There are the following three types of link information depending on the order of the linking time and the time of the target schedule. Based on the schedule, there is an "advance" link indicating that it was created in the past, a "current" link indicating that it was recorded at the same time as the schedule progressed, and a "post" link indicating that it was recorded after the schedule ended is there.

【0191】図66に例を示す。60がスケジュール表
である。3月2日13:00から開催される会議の資料
61を1日の午前中に作成したとする。資料作成時刻が
スケジュールよりも前なので実線で示すように「事前」
リンクを張る。2日13:00の会議中の速記録または
録音テープ62は、スケジュールと同時刻に作成される
ので、2重線で示すように「現在」リンクを張る。「現
在」リンクは、進行中の出来事の記録をとる場合に有効
である。会議の翌日に作成した議事録63は、スケジュ
ール以降に作成されているので、破線で示される「事
後」リンクを張る。
FIG. 66 shows an example. 60 is a schedule table. Suppose that the material 61 of the meeting to be held from 13:00 on March 2 was created in the morning of the 1st. Since the material creation time is before the schedule, "Advance" as shown by the solid line
Create a link. Since the quick recording or recording tape 62 during the meeting at 13:00 on the second day is created at the same time as the schedule, a “present” link is provided as shown by a double line. The "current" link is useful for keeping track of what is happening. Since the minutes 63 created on the day after the meeting are created after the schedule, a “post-mortem” link indicated by a broken line is provided.

【0192】次に、前記リンクを用いてスケジュールと
対象データとを関連づける手段について説明する。入力
された対象データに関連づける対象とするスケジュール
項目を特定する方法として、ユーザが明示的に指示する
方法と対象データから特定する方法、環境情報から特定
する方法の3通りがある。
Next, means for associating a schedule with target data using the link will be described. As a method of specifying a schedule item to be associated with the input target data, there are three methods: a method of explicitly instructing by a user, a method of specifying from target data, and a method of specifying from environmental information.

【0193】対象データを記録する際に、ユーザがどの
スケジュールとリンク付けするかを明示的に指示する。
スケジュール表を候補として示してユーザが選択する形
式とすれば、指示しやすくなる。図66の資料61を3
月1日の午前中に作成したとすると、その時刻にはスケ
ジュールが入っていない。そこで、資料を記録する際
に、スケジュール表60のように前後のスケジュールを
表示して、どのスケジュールにリンク付けするかをユー
ザに選択させる。スケジュール項目が特定されればリン
クの種類は時刻を比較することで決定できる。例えば、
ユーザが3月2日の会議を選択すると、時刻を比較して
「事前」リンクを張る。
When recording the target data, the user explicitly indicates which schedule is to be linked.
If the schedule is shown as a candidate and is selected by the user, it becomes easier to give an instruction. Material 61 in Figure 66
If it was created in the morning of the first day of the month, there is no schedule at that time. Therefore, when recording the material, the preceding and following schedules are displayed as in the schedule table 60, and the user is allowed to select which schedule is linked. If the schedule item is specified, the type of link can be determined by comparing the times. For example,
When the user selects the meeting on March 2, the times are compared and a “prior” link is established.

【0194】対象データを作成してからスケジュールと
関連付けるのではなく、あらかじめスケジュールを選択
してから、文書を編集するようにすることも可能であ
る。例えば、3月1日の午前中に、スケジュール表60
が表示されている状態で、3月2日の会議を指定してか
ら資料作成を始めると、作成完了時点で自動的ににリン
ク付けする。
Instead of creating target data and then associating it with a schedule, it is also possible to edit a document after selecting a schedule in advance. For example, in the morning of March 1, the schedule 60
Is displayed, and when the creation of materials is started after the meeting on March 2 is designated, the links are automatically linked when the creation is completed.

【0195】対象データを解析し、表題や日付けを認識
してスケジュールを特定する。一定の形式の会議開催通
知を作成したり議事録を作成する場合には、会議名や開
催日時を特定することが容易にできる。このように形式
が決まった対象データを記録する場合に特に有効であ
る。例えば、3月3日に議事録63を作成した場合、議
事録中に3月2日13:00から15:00の会議であ
ることが明記されているので、「事後」リンクを張るこ
とができる。具体的には、基本図面は基本情報レイアウ
ト抽出部54により対象データ入力部47からの対象デ
ータから、例えば、「議事録」という文字列と、その次
の日時を抽出すればよい。又、「開催日時」という文字
列の後の日時を抽出すればよい。又、文章枠を認識し、
第1文章枠内の文字列とスケジュール中の文字列を参照
すればよい。例えば、「開発会議議事録」と「開発会
議」の場合には、「開発会議」が一致するのでリンクで
きることが分かる。
The schedule is specified by analyzing the target data and recognizing the title and date. When creating a notice of holding a meeting in a certain format or creating minutes, a meeting name and a holding date and time can be easily specified. This is particularly effective when recording target data having a fixed format. For example, if the minutes 63 are created on March 3, the minutes indicate that the meeting is from 13:00 to 15:00 on March 2, so a “post-event” link may be provided. it can. Specifically, in the basic drawing, for example, a character string “minutes” and the next date and time may be extracted from the target data from the target data input unit 47 by the basic information layout extracting unit 54. In addition, the date and time after the character string “holding date and time” may be extracted. Also, recognize the text frame,
What is necessary is just to refer to the character string in the first text frame and the character string in the schedule. For example, in the case of the “development meeting minutes” and the “development meeting”, it can be seen that the “development meeting” matches, so that the links can be made.

【0196】対象データ以外の環境情報を用いて、スケ
ジュールを特定することも考えられる。音声情報から相
手を特定したり、画像情報から会議名を判読したりし
て、スケジュールの用件に記述されていそうな項目を抽
出する。十分な認識結果が得られない場合には、この項
目と現在時刻をキーとしてスケジュールを検索し、一致
度の高いスケジュールから順に候補としてユーザに提示
する。
It is also conceivable to specify a schedule using environment information other than the target data. The other party is identified from the audio information, the conference name is read from the image information, and items likely to be described in the schedule are extracted. If a sufficient recognition result cannot be obtained, a schedule is searched using this item and the current time as keys, and the schedule is presented to the user in order from the schedule with the highest matching degree.

【0197】上記のいづれか、または、組み合わせた方
法により、リンク付けするスケジュールが決まったら、
「事前」、「現在」、「事後」のどの種類のリンクとす
るかを決める。
When the schedule for linking is determined by any of the above methods or a combination thereof,
Decide which type of link will be "advance", "present", or "post".

【0198】対象データを作成した現在の時刻とスケジ
ュールの時刻とを比較して、現在時刻以降のスケジュー
ルの場合は「事前」リンク、現在と同時刻の場合は「現
在」リンク、過去のスケジュールの場合は「事後」リン
クとする。又、対象データを作成した時点ではなく、例
えば、一定時刻の後にリンク情報の種類を決定する場合
には、後述する対象データのアクセス情報中の「データ
新規作成時刻」とスケジュールの時刻とを比較すればよ
い。
By comparing the current time at which the target data was created with the time of the schedule, a “prior” link for a schedule after the current time, a “current” link for the same time as the present, In that case, it is a “post-mortem” link. Also, for example, when determining the type of link information after a certain time, not when the target data is created, the “data new creation time” in the access information of the target data described later is compared with the schedule time. do it.

【0199】次に、前記手段によりスケジュールと関連
づけられたデータを検索する方法について説明する。
Next, a method of searching for data associated with a schedule by the means will be described.

【0200】日時や場所・相手・用件名など用件中に書
かれているキーワードを指定してスケジュールを検索す
る。この機能は従来のスケジュール管理装置において、
すでに実現されている。 従来の機能に加え、アクセス
情報や位置情報と関連づけることにより、キーワードに
修飾子をつけて複数のキーワードを連結して使用した
り、限定の度合を緩くすることも可能である。例えば、
「x 時頃にアクセスした」、「xx( 場所) から帰ってき
てから作成した」という検索方法も実現できる。
A schedule is searched by specifying a keyword written in the subject such as date and time, place, partner, subject, and the like. This function is used in the conventional schedule management device.
It has already been realized. In addition to the conventional functions, by associating them with access information and position information, it is possible to attach a modifier to a keyword and use a plurality of keywords connected to each other, or to reduce the degree of limitation. For example,
Search methods such as "accessed around x time" and "created after returning from xx (place)" can also be realized.

【0201】このようにしてスケジュールを特定した後
に、リンク情報をたどって目的の対象データに到達す
る。検索に連動して対象データへのリンクをたどる点
が、従来のスケジュール管理装置と大きく異なる点であ
る。
After the schedule is specified in this manner, the target information is reached by following the link information. The point that the link to the target data is followed in conjunction with the search is a major difference from the conventional schedule management device.

【0202】スケジュールに記載されているキーワード
以外の修飾子も検索範囲を限定するために用いることが
できる。たとえば、「xxx 会議用に作った資料」という
検索指定の「用に作った」の部分からxxx 会議への「事
前」リンクであると判断できる。「xxx から帰った後で
作った」の「帰った後で」から、xxx へ行った時刻より
後に作成された対象データを探せば良いと判断できる。
Modifiers other than keywords described in the schedule can also be used to limit the search range. For example, it is possible to judge that the “advanced” link to the xxx conference from the “designed for” part of the search specification “material created for the xxx conference”. From "after returning" of "created after returning from xxx", it can be determined that the target data created after the time of returning to xxx should be searched.

【0203】図により検索部50における検索例を示
す。
An example of a search in the search unit 50 is shown in FIG.

【0204】図66(b) は、3月2日13:00の会議
開始時刻にスケジュール表を表示させた状態を示してい
る。スケジュール表には、「事前」リンク欄、「現在」
リンク欄、「事後」リンク欄がある。印64は、事前に
準備された資料があることを示す。64をマウスやペン
などの入力装置で指定すると、65に示す資料選択画面
が表示され、希望の資料を選択することができる。66
の資料1を選択すれば、66のように内容が表示され
る。リンク付けされた資料が一つしかない場合には、6
5の資料選択画面を表示せずに、すぐに66の内容を表
示するように設定することも可能である。
FIG. 66 (b) shows a state in which the schedule table is displayed at the conference start time on March 2 at 13:00. In the schedule table, "Advance" link column, "Current"
There is a link column and a "post-mortem" link column. The mark 64 indicates that there is a material prepared in advance. When 64 is designated by an input device such as a mouse or a pen, a material selection screen 65 is displayed and a desired material can be selected. 66
Is selected, the contents are displayed as 66. If there is only one linked document, 6
It is also possible to set so that the content of 66 is displayed immediately without displaying the material selection screen of 5.

【0205】図67(a) は、3月2日の16:00にス
ケジュール表を開いた時の3月2日の欄だけを示してい
る。「現在」リンク欄にはテープマーク67が表示さ
れ、会議の録音テープが存在することを示している。こ
のマークを選択すると、テープを再生して聞くことがで
きる。
FIG. 67 (a) shows only the column on March 2 when the schedule table was opened at 16:00 on March 2. A tape mark 67 is displayed in the “current” link field, indicating that a recording tape of the conference exists. When this mark is selected, the tape can be played and heard.

【0206】図67(b) は、議事録を作成した後のスケ
ジュール表の3月2日の欄を示している。「事後」リン
ク欄に資料があることを示すマーク68がある。69を
選択して事前に作成した資料を見たり、67を選択して
録音テープに記録された会議の様子を再生したりするこ
ともできる。又、対象データは電子メールの文書でもよ
い。電子メールの文書の場合、電子メール内に記述され
ている発信日時とサブジェクト(表題)を用いることに
より、上記で説明したスケジュールとのリンク付けが実
現できる。
FIG. 67 (b) shows the column for March 2 in the schedule table after the minutes have been created. There is a mark 68 indicating that there is a material in the "post-mortem" link field. By selecting 69, it is possible to view materials prepared in advance, or select 67 to reproduce the state of the meeting recorded on the recording tape. The target data may be an electronic mail document. In the case of an e-mail document, the link to the schedule described above can be realized by using the transmission date and time and the subject (title) described in the e-mail.

【0207】XXX 会議をキーワードとする検索以外の検
索も可能である。例えば、「本社にいった後に開かれた
開発会議の資料」という入力を行った場合、まず、この
入力文字列から「本社」,[後」,「開発会議」を抽出
する。次に、「本社」というキーワードでスケジュール
表を検索する。図66のスケジュール表60では、3月
1日が該当することがわかる。次に、3月1日以降で
「開発会議」の文字列を検索し、3月2日が該当するこ
とがわかる。その後、3月2日にリンクされている会議
資料等の名称を表示すればよい。
A search other than the search using the XXX conference as a keyword is also possible. For example, when "materials of a development meeting opened after head office" is input, "head office", "after", and "development meeting" are first extracted from the input character string. Next, the schedule table is searched using the keyword "head office". In the schedule table 60 of FIG. 66, it can be seen that March 1 corresponds. Next, a character string of "development meeting" is searched after March 1, and it is found that March 2 is applicable. Then, the names of the conference materials linked on March 2 may be displayed.

【0208】変形例として、対象データをテレビ番組、
スケジュールを番組表と読み替えると、ビデオレコーダ
に応用できる。録画予約は従来と同じ方法で行う。別の
入力手段で番組表(スケジュール)を記憶させておく。
録画済みのテープから希望の番組を取り出すときに、番
組名や出演者で検索する。
As a modified example, the target data is a TV program,
If a schedule is read as a program guide, it can be applied to a video recorder. Recording reservation is made in the same manner as in the past. A program table (schedule) is stored by another input means.
When extracting a desired program from a recorded tape, search by program name or performer.

【0209】その他の変形例として、時刻の指定方法と
して、ある基準からの相対時刻を用いると、誕生日や入
社日を計時の基準として設定することにより、「xx才の
時の写真」とか「xx年目の仕事」という指定で記録を検
索することができる。
As another modified example, when a relative time from a certain reference is used as a method of specifying a time, a birthday or a joining date is set as a reference for timekeeping. You can search for records by specifying "xx year job".

【0210】又、スケジュールを検索対象とすることが
可能である。例えば、検索キーとして「開発会議」を入
力し、スケジュールに「開発会議」の文字列を含む場合
に当該のスケジュールとそのスケジュールにリンクされ
ている文書の表題を表示することができる。図68にそ
の表示例を示す。
Further, it is possible to search for a schedule. For example, when "development meeting" is entered as a search key and the character string of "development meeting" is included in the schedule, the schedule and the title of the document linked to the schedule can be displayed. FIG. 68 shows a display example.

【0211】次に、第3の発明について説明する。第3
の発明は、文書等のデータを作成し、記憶する際に、こ
のデータのレイアウト情報を抽出し、データと共にレイ
アウト情報を対応づけて記憶し、このレイアウト情報で
所望のデータを抽出する検索装置である。レイアウト情
報としては、段組数、文書枠の大きさ及び位置、行数、
図、表の数、図表の大きさ及び位置、図表の種類であ
り、上記レイアウト情報を用いて上記データを検索でき
るが、図表の大きさあるいは位置等は何種類かのパター
ンを用意しておき、ここから選ばせるか、タブレット等
の手書き表現された図表のレイアウトを基に類似のデー
タを検索できる。以下に、詳しく説明する。
Next, the third invention will be described. Third
The invention of the present invention is a search device that extracts layout information of data when creating and storing data such as documents, stores the data in association with the layout information, and extracts desired data with the layout information. is there. The layout information includes the number of columns, the size and position of the document frame, the number of lines,
The number of figures and tables, the size and position of the figures and tables, and the type of figures and tables can be searched using the layout information. However, several types of patterns are prepared for the size and position of figures and tables. , Or similar data can be searched based on the layout of a diagram drawn by hand on a tablet or the like. The details will be described below.

【0212】・実施例1 図69は、実施例を示すブロック図である。Embodiment 1 FIG. 69 is a block diagram showing an embodiment.

【0213】文書を構成するイメージデータ・文字デー
タ・図形データ等は、例えばイメージスキャナ・通信ケ
ーブル・CDROMプレイヤー・フロッピー(登録商
標)ディスクドライブなどからなる文書データ入力部1
01を介して読みとられ、メモリやハードディスクなど
からなる文書データ記憶部102に保存される。レイア
ウト情報抽出部103は、文書データ記憶部102の内
容から、文書データ中のレイアウト情報を抽出する。例
えば、レイアウト情報としては、頁数、頁の大きさ、段
組数、文章枠の大きさと位置、行数、行枠の大きさと位
置、文字の大きさ、図表の数、図表の大きさと位置、図
表の種類などが抽出される。れらは、レイアウト情報記
憶部104に保存される。
The image data, character data, graphic data, and the like constituting the document are input to a document data input unit 1 composed of, for example, an image scanner, a communication cable, a CDROM player, and a floppy (registered trademark) disk drive.
01, and stored in a document data storage unit 102 including a memory and a hard disk. The layout information extraction unit 103 extracts layout information in the document data from the contents of the document data storage unit 102. For example, layout information includes the number of pages, the size of pages, the number of columns, the size and position of a text frame, the number of lines, the size and position of a line frame, the size of characters, the number of figures, the size and position of figures and tables. , Chart types, etc. are extracted. These are stored in the layout information storage unit 104.

【0214】ユーザは検索する文書のレイアウトイメー
ジを、検索キー入力部105を介して入力する。検索部
106は、検索キー入力部105から入力された検索キ
ーを用いて、レイアウト情報記憶部104の中から対応
する文書を探し出す。文書出力部107は、検索部10
6で見つかった文書をユーザに呈示する。
The user inputs the layout image of the document to be searched through the search key input unit 105. The search unit 106 uses the search key input from the search key input unit 105 to search for a corresponding document from the layout information storage unit 104. The document output unit 107 includes the search unit 10
The document found in step 6 is presented to the user.

【0215】以下に、図70の入力データ例を用いて動
作を示す。
The operation will be described below using the input data example of FIG.

【0216】図69の文書データ入力部101から入力
されるデータは、例えば図70に示すような、文字デー
タと図形データあるいはイメージデータなどで構成され
る文書データとする。文書データは、ユーザによって閲
覧される際、文書データ入力部101を介して文書デー
タ記憶部102に読み込まれ、ディスプレイやプリンタ
などからなる文書出力部107に表示される。
The data input from the document data input unit 101 shown in FIG. 69 is, for example, document data composed of character data and graphic data or image data as shown in FIG. When the document data is viewed by the user, the document data is read into the document data storage unit 102 via the document data input unit 101, and displayed on the document output unit 107 including a display, a printer, and the like.

【0217】一度ユーザによって閲覧された文書データ
は、レイアウト情報抽出部103に送られる。レイアウ
ト情報抽出部103の動作については、イメージデータ
からの抽出は特願昭63ー7518号に、文字データや
図形データ等コード情報からの抽出は特願昭61ー20
6835号に詳しいので、ここでは割愛する。
The document data once browsed by the user is sent to the layout information extracting unit 103. Regarding the operation of the layout information extraction unit 103, extraction from image data is described in Japanese Patent Application No. 63-7518, and extraction from code information such as character data and graphic data is described in Japanese Patent Application No. 61-20.
It is omitted here because it is familiar with No. 6835.

【0218】例えば、図71のような文章枠と図表の位
置と大きさが抽出されたとすると、以下に示すような方
法で、各頁の段組(1段組・2段組・タイトル付き2段
組など)と図表配置のタイプを決定し、分類しておく。
For example, assuming that the positions and sizes of the text frame and the chart as shown in FIG. 71 are extracted, the columns (1 column, 2 columns, 2 titles) of each page are obtained by the following method. Determine the column layout and the type of chart layout and classify them.

【0219】図72に段組テンプレートと制約条件の例
を示す。まず、抽出されたレイアウト情報中に文章枠同
士が非常に近接している場合があれば、包括する文章枠
を定義し直す。次に、文章枠の数以上の段組を持つ段組
テンプレートを選ぶ。段組テンプレート中の各段組の変
数に、抽出した文章枠の位置などのレイアウト情報の値
を代入していく。ただし、文章枠に近接する図表がある
場合は、近接する辺と向かいあう辺を文章枠の境界とす
る。代入した結果、各段組テンプレート固有の制約条件
を満たさない場合は、次の段組テンプレートとマッチン
グを行う。図71に示すように、この例では文章枠が2
つ抽出されている。隣接する文章枠および図表枠との間
隔は20mm〜30mmあるので近接するとはみなされない
ため、段組の数が2段組以上のテンプレートにあてはめ
る。2段組のテンプレートにあてはめると、SX1=17
0、SX2=100、SY1=50、SY2=200、PY1=
30、PY2=100、PX1+SX1=40+170=21
0、PX2=20となり、制約条件をまったく満たさな
い。一方、タイトル付きの2段組にあてはめ、第1文章
枠をタイトル段組、第2文章枠を第2段組に、第1図表
と第2図表をあわせて第3文章枠とすると、SX2=SX3
=100、SY2=SY3=200、PY2=PY3=100、
PX2+SX2=120<PX3=130<PX1+SX1=21
0、PY1+SY1=80<PY2=100となり、制約条件
を満たす。第1頁の段組はタイトル付き2段組と決定す
る。
FIG. 72 shows an example of a column template and constraints. First, if there is a case where the text frames are very close to each other in the extracted layout information, the comprehensive text frame is redefined. Next, a column template having columns higher than the number of text frames is selected. The value of the layout information such as the position of the extracted text frame is substituted for the variable of each column in the column template. However, if there is a chart close to the text frame, the side facing the adjacent side is the boundary of the text frame. As a result of the substitution, if the constraint condition unique to each column template is not satisfied, matching is performed with the next column template. As shown in FIG. 71, in this example, the text frame is 2
One has been extracted. Since the distance between the adjacent text frame and chart frame is 20 mm to 30 mm, it is not considered to be close. Therefore, it is applied to a template having two or more columns. When applied to a two-column template, SX1 = 17
0, SX2 = 100, SY1 = 50, SY2 = 200, PY1 =
30, PY2 = 100, PX1 + SX1 = 40 + 170 = 21
0, PX2 = 20, which does not satisfy the constraint condition at all. On the other hand, assuming that the first sentence frame is a title column, the second sentence frame is a second column, and the first and second tables are combined into a third sentence frame by applying to a two-column set with a title, SX2 = SX3
= 100, SY2 = SY3 = 200, PY2 = PY3 = 100,
PX2 + SX2 = 120 <PX3 = 130 <PX1 + SX1 = 21
0, PY1 + SY1 = 80 <PY2 = 100, which satisfies the constraint. The column of the first page is determined to be a column with title.

【0220】次に図表配置タイプで分類する。タイトル
付き2段組の図表配置タイプの一覧の例を図73に示
す。図71の例では文章枠は2つであるから、F,G,
H…のどれかになる。第3段組が図表のみで構成されて
いるGタイプに分類できる。
Next, classification is made according to the diagram layout type. FIG. 73 shows an example of a list of diagram layout types in two columns with titles. In the example of FIG. 71, there are two sentence frames, so that F, G,
H ... The third column can be classified into the G type, which is composed only of charts.

【0221】文書データのタイトルや抽出されたレイア
ウト情報と分類は、例えば図74に示すような形で、レ
イアウト情報記憶部104に記憶される。
The title of the document data and the extracted layout information and classification are stored in the layout information storage unit 104, for example, as shown in FIG.

【0222】検索キー入力部105では、文書データの
タイトルや著者名だけでなく、例えば以下のようなイン
タフェースを介して、レイアウト情報を入力する。ま
ず、図75(a)に示すような、文書の段組の一覧をユ
ーザに呈示し、例えばマウスやキーボードなどを用い
て、ユーザの記憶に近い物を選択してもらう。ユーザが
タイトル付き2段組を選択したとする。検索キー入力部
では、図75(b)で示すような、タイトル付き2段組
での図表配置タイプの一覧を示し、再度ユーザの選択を
促す。これらのキーが送られた検索部では、レイアウト
情報記憶部のデータから、タイトル付き2段組でGタイ
プの頁を探し出し、文書出力部107に送られユーザに
呈示される。該当する頁が複数見つかった場合、順に呈
示するか、縮小して何枚づつか一度に並べて呈示し、選
択させてもよい。又、ユーザ自身がタブレット等を利用
して手書き表現された図表のレイアウトを検索キーと
し、これに基づいて文書を検索してもよい。
The search key input unit 105 inputs not only the title and author name of document data but also layout information via, for example, the following interface. First, a list of document columns as shown in FIG. 75 (a) is presented to the user, and an item close to the user's memory is selected using, for example, a mouse or a keyboard. Assume that the user has selected a two-column system with a title. The search key input unit shows a list of chart layout types in two columns with a title as shown in FIG. 75 (b), and prompts the user to select again. In the search unit to which these keys are sent, a G-type page is searched in two columns with a title from the data in the layout information storage unit, sent to the document output unit 107, and presented to the user. When a plurality of corresponding pages are found, the pages may be presented sequentially or reduced and several pages may be presented at a time and selected. Alternatively, the layout of a diagram drawn by the user himself using a tablet or the like may be used as a search key, and a document may be searched based on the search key.

【0223】ユーザのレイアウトに関する記憶が曖昧な
場合がある。例えば、図73のGタイプは、ユーザによ
って、CタイプやDタイプあるいはHタイプなどと混同
して記憶されることがある。そこで、混同し易い図表配
置タイプを類似図表配置タイプとして検索部に記憶させ
ておき、類似配置の頁も検索し、ユーザに呈示すること
も考えられる。
In some cases, the storage of the user's layout is ambiguous. For example, the G type in FIG. 73 may be confused and stored with the C type, D type, or H type by the user. Therefore, it is conceivable to store the easily confused diagram layout type as a similar diagram layout type in the search unit, search for a page having a similar layout, and present the page to the user.

【0224】図表の種類から検索する場合は、検索キー
入力部105で、例えば図76に示すようなインタフェ
ースを介して図表の種類を入力する。例えば図76
(a)で示すように図表の種類が示され、その中から検
索する頁にあったと記憶しているものを選択する。その
頁に複数図表がある場合は複数指定すればよい。選択し
た項目について、図76(b)か(c)のような、それ
ぞれ詳しい分類を入力する画面が示される。ここでは、
グラフを選択したのでグラフの種類が示されている。こ
こで、棒グラフを選択すると、検索キー入力部から検索
部にその情報が渡される。レイアウト情報記憶部104
の図表種類と照合して棒グラフがレイアウトされている
頁のデータをユーザに示す。ここで、頁のイメージを1
枚ずつ、あるいは何枚かまとめて示してもよい。また、
図表の部分のみ切り出して呈示してもよい。例えば、図
77(a)に示すように、検索した頁の棒グラフの部分
のみユーザに示す。複数検索した場合は、ユーザが「次
候補」などのボタンを押せば、図77(b)、(c)の
ように次の検索された頁の棒グラフを見せる。また、図
78に示すように、一度に複数の検索頁のグラフのみ一
覧表示してもよい。
When searching by chart type, the search key input unit 105 inputs the chart type via an interface as shown in FIG. 76, for example. For example, FIG.
As shown in (a), the type of the chart is indicated, and from those, the one that stores the page to be searched is selected. If there are multiple charts on the page, it is sufficient to specify multiple charts. As shown in FIG. 76 (b) or (c), a screen for inputting detailed classification for each of the selected items is shown. here,
Since the graph is selected, the type of the graph is shown. Here, when the bar graph is selected, the information is passed from the search key input unit to the search unit. Layout information storage unit 104
Is shown to the user on the page on which the bar graph is laid out in comparison with the chart type. Here, the image of the page is 1
It may be shown one by one or several at once. Also,
You may cut out and present only the part of the chart. For example, as shown in FIG. 77A, only the bar graph portion of the searched page is shown to the user. When a plurality of searches are made, if the user presses a button such as "next candidate", a bar graph of the next searched page is displayed as shown in FIGS. 77 (b) and (c). Alternatively, as shown in FIG. 78, only graphs of a plurality of search pages may be displayed in a list at a time.

【0225】レイアウト情報抽出部103では、入力さ
れた文書の全頁でなく、ユーザが一番長い時間閲覧して
いた頁や、第1頁目や、図表や写真のある頁など、特徴
のある頁のみレイアウト情報を抽出しても良い。また、
レイアウト情報を抽出する頁を、ユーザに指定させるこ
とも考えられる。もちろん、あらかじめレイアウト情報
を取り込んでいない文書に対しては、検索時にレイアウ
ト情報を抽出しながら該当する頁を探しだす。
The layout information extraction unit 103 has features such as the page that the user has been browsing for the longest time, the first page, and the page with figures and tables, instead of all the pages of the input document. Layout information may be extracted only for a page. Also,
It is also conceivable that the user specifies a page from which layout information is to be extracted. Of course, for a document for which layout information has not been fetched in advance, a corresponding page is searched for while extracting layout information at the time of search.

【0226】次に、第4の発明について説明する。第4
の発明は、文書等のデータを作成、記憶、検索し得る所
定の装置を用いて、データを入力し、記憶し、あるいは
記憶されたデータを検索する際の各々の動作に供される
前記データと、入力、記憶、あるいは検索時に前記装置
の所定位置に設置された画像入力装置を介して入力され
た画像情報とを各々対応づけて記憶し、この画像情報を
用いて所望のデータを抽出する検索装置である。データ
の抽出時には、入力された画像情報の変化点を用い、変
化点は、画像のシーンチェンジあるいは明暗等を環境情
報として検索に用いるものである。以下に、詳しく説明
する。
Next, the fourth invention will be described. 4th
The present invention uses a predetermined device capable of creating, storing, and retrieving data such as a document, and inputs and stores the data, or the data used for each operation when retrieving the stored data. And image information input through an image input device installed at a predetermined position of the device at the time of input, storage, or search, and stores them in association with each other, and extracts desired data using the image information. It is a search device. At the time of data extraction, a change point of the input image information is used, and the change point uses a scene change or brightness of an image as a search for environmental information. The details will be described below.

【0227】・実施例1 以下では、入力にカメラを用いた場合の実施例につい
て、図を用いて説明を行う。
Embodiment 1 Hereinafter, an embodiment in which a camera is used for input will be described with reference to the drawings.

【0228】図79は、シーンの変化点(時刻)を環境
情報として抽出する環境情報抽出方法の構成を示す図で
ある。入力として、映像が与えられた画像メモリ70,
71に入る。
FIG. 79 is a diagram showing a configuration of an environment information extracting method for extracting a scene change point (time) as environment information. An image memory 70 to which a video is given as an input,
Enter 71.

【0229】ヒストグラム演算部72で、この画像メモ
リ70,71の輝度のヒストグラムが計算される。この
計算は各フィールドごとに行われる。即ち、垂直同期符
号VSYNCにより、演算部72の出力はラッチされ、
内部のレジスタがクリアされる。シーンに変化がなけれ
ば、連続するフィールド間では、さほどの輝度の変化は
起きない。逆に輝度の変化が大きい場合、シーンが変化
していることになるので、連続フィールド間におけるヒ
ストグラム演算部72の出力の差の絶対値の総和がある
しきい値より大きければシーンの変化点であると判断し
て、その時の時刻を記録する。
A histogram of the luminance of the image memories 70 and 71 is calculated by the histogram calculator 72. This calculation is performed for each field. That is, the output of the arithmetic unit 72 is latched by the vertical synchronization code VSYNC,
Internal registers are cleared. If there is no change in the scene, there will be no significant change in luminance between successive fields. Conversely, if the change in luminance is large, it means that the scene has changed. Therefore, if the sum of the absolute values of the differences between the outputs of the histogram calculator 72 between the continuous fields is larger than a certain threshold value, the scene change point Judge that there is, and record the time at that time.

【0230】図80は、ヒストグラム演算部72の動作
を説明するフローチャートである。ここで画面のサイズ
をM×Nとする。
FIG. 80 is a flowchart for explaining the operation of the histogram calculator 72. Here, the screen size is assumed to be M × N.

【0231】図81は、シーン変化の判定の別の方法を
示す図である。連続フィールド間におけるヒストグラム
演算部72の出力の差の絶対値で比べる代わりに、ヒス
トグラムの計上、即ち分布の広がり具合を示す。分散X
の変化をシーン変化の判定基準とする。輝度分布の形状
に着目すれば、分布の高さの変化には影響されないの
で、同じシーンで画面の明るさが変化したような場合
に、シーン変化あり、と誤判定しなくて済む、というメ
リットがある。
FIG. 81 is a diagram showing another method of determining a scene change. Instead of using the absolute value of the difference between the outputs of the histogram calculator 72 between the continuous fields, the histogram is recorded, that is, the degree of spread of the distribution is shown. Variance X
Is used as a criterion for determining a scene change. Focusing on the shape of the brightness distribution, it is not affected by changes in the height of the distribution, so that when the brightness of the screen changes in the same scene, there is no need to erroneously determine that there is a scene change. There is.

【0232】図82は、分散X演算器73の動作を説明
するフローチャートである。
FIG. 82 is a flow chart for explaining the operation of the distributed X calculator 73.

【0233】図83は、逆にシーンの動きが止まった場
合を検出する方法を示す図である。
FIG. 83 is a diagram showing a method for detecting the case where the movement of the scene has stopped.

【0234】ある一定時間以上にわたってシーンの変化
がなければ、カメラの動きが止まったと判断できるの
で、シーン変化があってからの時間を計ることにより、
停止を判定できる。
If the scene does not change for a certain period of time or longer, it can be determined that the movement of the camera has stopped. Therefore, by measuring the time after the scene change,
Stop can be determined.

【0235】図84は、シーン変化判定部の構成を示す
図である。上述の輝度の代わりにカラー情報を利用し、
画面全体の色合いの変化をもって、シーンの変化とす
る。入力されたコンポジットカラー画像信号(NTSC
信号etc )は、カラーデコーダ74で、明度(L)とX
Y表色系のX,Y信号に分離され、それぞれA/D変換
器75でデジタイズされる。デジタル化されたL,X,
Y信号はそれぞれヒストグラム演算器に与えられ、ヒス
トグラムと共に平均値PL ,PX ,PY と分散X L ,X
X ,XY とが算出される。上述の輝度のヒストグラムと
同様、これらの値はフィールドごとに求められるものと
する。シーン変化判定部では、XL ,XX,XY の値の
変化により、シーン変化を判定する。
FIG. 84 shows the structure of the scene change judging section.
FIG. Using color information instead of the brightness described above,
A change in the color of the entire screen is a change in the scene.
You. The input composite color image signal (NTSC
The signal etc.) is converted by a color decoder 74 into a lightness (L) and X
X / Y signals of Y color system are separated and A / D converted respectively.
Digitized by the device 75. Digitized L, X,
Each of the Y signals is supplied to a histogram calculator,
Average value P with togramL, PX, PYAnd variance X L, X
X, XYIs calculated. With the brightness histogram described above,
Similarly, these values are required on a field-by-field basis.
I do. In the scene change determination unit, XL, XX, XYOf the value of
A scene change is determined based on the change.

【0236】図85は、更に別のシーン変化検出法に基
く、環境情報抽出の構成例を示す図である。入力される
映像信号の連続するフィールド間の差分を常に求め、そ
の絶対値の緩和をもって、シーン変化の判定を行う。連
続するフィールド間の演算は、フィールドメモリを用い
ることにより、1フィールド前の画像を保持して行う。
図は、輝度だけで行う場合を示す。絶対値の緩和が、設
定したしきい値より大きければ、シーン変化ありとす
る。しきい値は、書き替え可能なしきい値レジスタに保
持されるものとする。
FIG. 85 is a diagram showing a configuration example of environment information extraction based on still another scene change detection method. A difference between successive fields of an input video signal is always obtained, and a scene change is determined by relaxing its absolute value. The operation between consecutive fields is performed by using a field memory while holding the image one field before.
The figure shows a case where the operation is performed only with the luminance. If the relaxation of the absolute value is larger than the set threshold value, it is determined that a scene change has occurred. The threshold value is held in a rewritable threshold value register.

【0237】図86は、カラー情報を利用する場合を示
す。X,Y信号の差を用いることにより、色合いの変化
を検出することができる。
FIG. 86 shows a case where color information is used. By using the difference between the X and Y signals, a change in color tone can be detected.

【0238】以上の説明では、入力された画像のシーン
変化検出を、その場でリアルタイム(もしくはほぼリア
ルタイム)に行うことを想定したが、一旦蓄積された映
像やあるいは既に録画されてある映像に対して、後から
シーンの変化検出を行う場合もありうる。
In the above description, it is assumed that scene change detection of an input image is performed on the spot in real time (or almost real time). In some cases, scene change detection may be performed later.

【0239】この場合、シーン変化の検出に要する時間
が、リアルタイムでなく、長くても構わなければ、シー
ン変化を検出するための計算速度を減じることが可能
で、装置規模、コストの減少を図ることができる。この
場合の構成は、図87に示すように、環境情報入力部か
らの生データ(映像)が、先に一旦、環境情報記憶部に
記憶され、そこから環境情報抽出部へ生データが送られ
てシーン変化の検出が行われ、結果のシーン変化点列に
関する情報が環境情報記憶部に送り返されて記憶され
る。
In this case, if the time required for detecting the scene change is not real time and may be long, the calculation speed for detecting the scene change can be reduced, and the apparatus scale and cost are reduced. be able to. In this case, as shown in FIG. 87, the raw data (video) from the environment information input unit is first stored in the environment information storage unit, and the raw data is sent to the environment information extraction unit therefrom. Thus, scene change detection is performed, and information on the resulting scene change point sequence is sent back to the environment information storage unit and stored.

【0240】映像が蓄積されていれば、図88に示すよ
うに一つの蓄積映像に対して複数のシーン変化検出手段
を適用し、並列にシーン変化の検出を行うこともでき、
分析時間を短縮することが可能である。
If images have been stored, a plurality of scene change detecting means can be applied to one stored image to detect scene changes in parallel, as shown in FIG. 88.
Analysis time can be reduced.

【0241】以上の説明では、検索キーとして、映像中
のシーンの変化点を想定し、その検出方法について述べ
てきたが、シーンの変化点以外にも、例えば、画面の中
に人間が現われるシーンとか特定の個人が登場するシー
ン、等を検索キーとして想定することができる。
In the above description, a change point of a scene in a video is assumed as a search key, and the detection method has been described. However, in addition to the change point of a scene, for example, a scene where a human appears on a screen may be used. For example, a scene in which a specific individual appears can be assumed as a search key.

【0242】人間の検出については、例えば、上述した
カラー情報を利用し、肌色が出てくるシーンを検出する
ことにより行う。この場合、肌色の指定方法としては、
例えば、図89に示すようなxy表色系の色分布図をデ
ィスプレイの画面上に表示させておき、その中から所望
の色(この場合、肌色)の点、又は領域をポインティン
グデバイス等によって選択することにより、指定する方
法が考えられる。
The detection of a person is performed, for example, by using the above-described color information to detect a scene in which a flesh color appears. In this case, as a method of specifying the skin color,
For example, a color distribution diagram of the xy color system as shown in FIG. 89 is displayed on the screen of the display, and a point or a region of a desired color (in this case, skin color) is selected from the display with a pointing device or the like. By doing so, a method of designating is conceivable.

【0243】肌色を指定する別の方法としては、例えば
図90に示すように、人間が写っている、あるシーンで
映像を止め、そこに写っている人間の顔や手など肌色の
領域を、ポインティングデバイス等を用いて切り出して
指定する方法も考えられる。
As another method of designating a skin color, for example, as shown in FIG. 90, an image is stopped in a certain scene where a human is shown, and a skin color area such as a human face or a hand shown in the scene is removed. A method of specifying by cutting out using a pointing device or the like is also considered.

【0244】特定の個人を検出するには、まずシーンの
中から顔の領域を抽出し、ついで探すべき個人の顔のイ
メージのマッチングをとることにより判定する。シーン
の中から顔の領域を抽出するには、上述した方法によっ
て肌色の領域を検出し、その領域の面積を求め、前髪、
目、鼻などを探して顔であるかどうか判定する。マッチ
ングの方法としては、相関演算、SSDA(Sequential
Similarity Detection Algorithm )等が知られてい
る。
In order to detect a specific individual, a face area is first extracted from a scene, and then a determination is made by matching the face image of the individual to be searched. In order to extract a face region from a scene, a skin color region is detected by the above-described method, and the area of the region is determined.
The eyes, nose, etc. are searched to determine whether the face is present. Matching methods include correlation calculation, SSDA (Sequential
Similarity Detection Algorithm) is known.

【0245】探すべき、個人の指定の方法として、その
人間が写っているシーンを止め、ポインティングデバイ
スで顔の領域を切り出して指定する方法が考えられる。
複数の個人の顔のイメージが、予め名前と共に登録され
ている場合には、イメージで指定する代わりに個人の名
前で指定することができる。もちろん、登録してある顔
を列挙して表示し、それをポインティングデバイスで選
択する方法も考えられる。
As a method of specifying an individual to be searched, a method in which a scene in which the person is shown is stopped, and a face area is cut out using a pointing device and specified is considered.
When images of a plurality of individuals' faces are registered together with their names in advance, they can be designated by their names instead of by images. Of course, a method of listing and displaying registered faces and selecting them with a pointing device is also conceivable.

【0246】個人の顔イメージが予め登録している場合
には、それら、おのおのをテンプレートとして検索を行
い、その映像の中に「誰それは居るか」の代わりに誰が
いたか、という情報を得ることもできる。
If personal face images have been registered in advance, a search is performed using each of them as a template to obtain information about who was in the video instead of "who is it?" Can also.

【0247】以上説明した、映像のシーン変化、人間が
写っているシーン、特定の個人、誰が居たか、といった
情報は、いずれも時間の情報を含むものであることは言
うまでもない。
It goes without saying that the above-described information such as scene change of a video, a scene in which a person is captured, a specific individual, and who is present includes time information.

【0248】次に検索時の動作について説明する。Next, the operation at the time of retrieval will be described.

【0249】本発明の中心的な考え方の一つは、ある文
書やプログラムを、それが作られた/登録された/前回
参照された/最後に参照された/際の環境情報と共に記
憶し、その環境情報を用いて当該文書又はプログラムの
検索を行うというものである。そしてここでは、環境情
報として映像を想定して論じている。
One of the central ideas of the present invention is to store a document or a program together with environmental information when it was created / registered / previously referred / last referenced / The document or the program is searched using the environment information. And here, it is assumed that a video is used as the environmental information.

【0250】映像を検索に緩用する方法の一つは、図9
1に示すようにシーンの変化点などの静止画を画面上に
列べて一覧できるようにし、その中から画像を選ぶとそ
れに対応する文書やプログラムが検索されるようにする
ものである。
One of the methods of using video for search is shown in FIG.
As shown in FIG. 1, still images, such as scene change points, can be listed in a row on the screen, and when an image is selected from the images, a document or program corresponding to the image is searched.

【0251】これは図92に示すように、シーンの変化
点など映像中の特徴シーンから、文書やプログラムにリ
ンクを貼ることにより実現する。最も単純には、文書や
プログラムにとって意味のある時刻(作成、登録、改
変、参照etc )に対応する映像中のシーンを特徴シーン
とすることである。
As shown in FIG. 92, this is realized by attaching a link to a document or program from a characteristic scene in a video such as a scene change point. Most simply, a scene in a video corresponding to a time (creation, registration, modification, reference, etc.) meaningful to a document or a program is set as a feature scene.

【0252】逆に映像とは別の手段を緩用して検索され
た文書やプログラムについて、関連する各時点での映像
を再現するためには、図93に示すように文書やプログ
ラムから対応するシーンへの逆向きのリンクを貼ればよ
い。
Conversely, in order to reproduce the video at each relevant time point for a document or program searched by using means other than the video, as shown in FIG. You just need to put a reverse link to the scene.

【0253】映像の場合、シーン変化点等、検索のキー
とすべきシーンが必ずしも全て切り出せる訳ではない。
とくに人間の「画を見て思い出す」たぐいの人間の感性
にかかわるシーンの場合には、自動抽出ではなく人間の
介在が不可欠である。
In the case of a video, not all scenes to be used as search keys, such as scene change points, can always be cut out.
In particular, in the case of scenes related to human sensibilities, such as "seeing and remembering images", human intervention is essential instead of automatic extraction.

【0254】この場合、録画してある映像を早送り等し
ながら探索することになるが、その際、図94に示すよ
うに一つの画面だけでなく、映像全体をn分割し、n個
の画面で並列に再生することによって検索に要する時間
を1/nに短縮することができる。これは、映像を磁気
テープなどのシーケンシャルなメディアの場合でも、n
個のトラックに対してn個のヘッドで同時に読み書きす
ることによって実現できる。
In this case, the searched video is searched for while fast-forwarding or the like. At this time, not only one screen but also the entire video is divided into n and n screens as shown in FIG. , The time required for the search can be reduced to 1 / n. This means that even if the video is on sequential media such as magnetic tape,
This can be realized by simultaneously reading / writing n tracks from / to the tracks.

【0255】あるいは、又、n台の磁気テープ装置を用
い、全体の1/nの時間分ずつ映像を順に記憶してお
き、再生時にn台同時に再生するようにすれば、シーケ
ンシャルなメディアでも上記の効果が実現できる。
Alternatively, if n magnetic tape devices are used to store video images in order of 1 / n of the total time and n devices are simultaneously played back at the time of playback, the same applies to sequential media. The effect of can be realized.

【0256】検索の他の例としては、図137に示すよ
うに、文書の入力開始、入力終了時点にカメラで取り込
んでおいた映像および入力中にシーンの変更があった時
点の静止画を並べて表示する。これらの映像を見て必要
な文書を選択することができる。
As another example of the retrieval, as shown in FIG. 137, the video captured by the camera at the start and the end of the input of the document and the still image at the time when the scene is changed during the input are arranged side by side. indicate. The user can select a required document by looking at these images.

【0257】なお、入力中の静止画に限ることなく、そ
の間にきたメイルの標題や、その間に録音した音声など
を出すことも可能である。
It is also possible to output not only the still image being input, but also the title of the mail that came in between, and the voice recorded during that time.

【0258】また、上述の説明では、計算機に設置した
カメラを用い、映像を文書の検索に用いた。同様にし
て、小型のカメラを名札やバッチに装着して画像を蓄積
し、蓄積した画像を計算機に転送して上述の処理を行う
ことにより、行動の記録として用いることができる。
In the above description, a video image is used for searching a document using a camera installed in a computer. Similarly, a small camera can be attached to a name tag or a batch to accumulate images, and the accumulated images can be transferred to a computer to perform the above-described processing, thereby being used as an action record.

【0259】次に、第5の発明について説明する。第5
の発明は、文書等のデータを作成する際に要した前記デ
ータの作成開始時刻あるいは前記データの作成終了時刻
を、前記データと共に記憶し、これらの時刻を用いて所
望のデータを抽出する検索装置である。作成されたデー
タの作成開始、終了時刻から前記データの(段階的な)
緊急度を得、この緊急度を検索キーに用いる。データの
作成開始、終了時刻から作成に供された時間間隔を模式
的に表現する。模式化された図を検索キーとして用いる
等である。又、この発明は記憶された文書等のデータに
対し編集を行う際に、前記データへのアクセス開始時刻
あるいはアクセス終了時刻を、前記データと共に記憶
し、これらの時刻を用いて所望のデータを抽出する検索
装置である。アクセス開始回数をカウントし、参照頻度
を得、この頻度を検索キーに用いる(週報なら毎週アク
セスする)。時間の経過に対しての所定のデータのアク
セス頻度(密度)を模式的に表現する。模式化された図
を検索キーとして用いると共に、指示された模式図に基
づいた編集を施されたデータを抽出する。以下に、詳し
く説明する。
Next, the fifth invention will be described. Fifth
According to the invention, a search device that stores the data creation start time or the data creation end time required when creating data such as a document together with the data, and extracts desired data using these times It is. From the start time and end time of the created data,
The degree of urgency is obtained, and this degree of urgency is used as a search key. The time interval provided for the creation from the data creation start and end times is schematically represented. For example, a schematic diagram is used as a search key. According to the present invention, when editing stored data such as a document, an access start time or an access end time to the data is stored together with the data, and desired data is extracted using these times. Search device. The number of access starts is counted to obtain a reference frequency, and this frequency is used as a search key (a weekly report is accessed every week). The access frequency (density) of predetermined data over time is schematically represented. The schematic diagram is used as a search key, and data edited based on the designated schematic diagram is extracted. The details will be described below.

【0260】・実施例1 基本図、図95における検索キー解析部53の構成、内
容と処理の例を図96〜図99に示す。図99の実行部
の「ー1」は実行部分の単語に位置からの相対位置を示
しており、実行部は条件部に示された単語「学会」の直
前の単語を抽出することを意味する。
Embodiment 1 FIGS. 96 to 99 show a basic diagram and an example of the configuration, contents and processing of the retrieval key analysis unit 53 in FIG. 95. In FIG. 99, "-1" in the execution unit indicates the relative position from the position of the word in the execution part, and means that the execution unit extracts the word immediately before the word "society" shown in the condition unit. .

【0261】基本図、図95においてアクセス情報検出
部45では、文章データ作成・編集の際に、データへの
アクセス操作に関する情報を抽出し、アクセス情報とし
て環境情報記憶部48に記憶したり、環境情報記憶部4
8にあるアクセス情報を削除したりする。表1にアクセ
ス情報検出部45が検出する操作イベントを示す。
In the basic diagram and FIG. 95, the access information detecting section 45 extracts information related to data access operation when creating / editing text data, and stores it in the environment information storage section 48 as access information. Information storage unit 4
8 is deleted. Table 1 shows the operation events detected by the access information detection unit 45.

【0262】[0262]

【表1】 [Table 1]

【0263】これらの操作に伴い、表2に示す属性を持
つアクセス情報要素が生成または削除される。
With these operations, access information elements having the attributes shown in Table 2 are generated or deleted.

【0264】[0264]

【表2】 [Table 2]

【0265】このうち、データ新規作成時のデータ量は
一般にはゼロであるが、データのファイル名を変更して
新たなデータを作成した場合は、始めからいくらかの量
を持っている。アクセス情報は上記のアクセス情報要素
のリストに、文書の他の属性情報として、参照回数、緊
急度、コピー元のファイル名、プリントアウトの総数な
どを加えたもので構成される。ここで、参照回数とはデ
ータ内容の変更がないようなアクセス情報要素の総数を
表す。また、緊急度とは、単位時間あたりの記述量を表
した値であり、1つの文章の緊急度をEとすると、Eは
以下の式で導かれる。
Of these, the data amount at the time of new data creation is generally zero, but when new data is created by changing the data file name, it has some amount from the beginning. The access information is configured by adding the number of references, the degree of urgency, the file name of the copy source, the total number of printouts, and the like as other attribute information of the document to the above list of access information elements. Here, the number of times of reference indicates the total number of access information elements whose data contents do not change. Further, the urgency is a value representing the amount of description per unit time, and when the urgency of one sentence is E, E is derived by the following equation.

【0266】[0266]

【数1】 (Equation 1)

【0267】ここで、各変数は表3の意味を持つ。Here, each variable has the meaning shown in Table 3.

【0268】[0268]

【表3】 [Table 3]

【0269】また、プリントアウトの総数は個々のアク
セス情報要素におけるプリントアウト回数の総和であ
る。
The total number of printouts is the sum of the number of printouts in each access information element.

【0270】図100にアクセス情報の一例を示してお
り、文書1と文書1−アクセス情報はリンクで結ばれて
いる。文書1ーアクセス情報はアクセス情報要素リスト
とその他の属性情報で記述されており、各アクセス情報
要素は、1回のアクセスが発生するごとに生成され、リ
ストに付加される。
FIG. 100 shows an example of the access information. The document 1 and the document 1-access information are linked by a link. The document 1-access information is described by an access information element list and other attribute information. Each access information element is generated each time one access occurs, and is added to the list.

【0271】図101は「データの新規作成」操作およ
び、「データ名変更後保存」操作に対して、アクセス情
報検出部が行なう処理のフローを示している。
FIG. 101 shows the flow of processing performed by the access information detecting section in response to the "new data creation" operation and the "save after data name change" operation.

【0272】図102は「データアクセス開始」操作に
対してアクセス情報検出部が行なう処理のフローを示し
ている。
FIG. 102 shows the flow of processing performed by the access information detecting section in response to the "data access start" operation.

【0273】図103は「データアクセス終了」操作に
対してアクセス情報検出部が行なう処理のフローを示し
ている。
FIG. 103 shows the flow of processing performed by the access information detecting section in response to the "data access end" operation.

【0274】図104はデータのプリントアウトに対し
てアクセス情報検出部が行なう処理のフローを示してい
る。
FIG. 104 shows the flow of processing performed by the access information detecting section for data printout.

【0275】図105はデータ削除に対してアクセス情
報検出部が行なう処理のフローを示している。
FIG. 105 shows a flow of processing performed by the access information detecting section for data deletion.

【0276】基本図、面95における検索部50では、
環境情報記憶部48に記憶されたアクセス情報を用い
て、表4に示すようなキーワードによる文書データの検
索を行なう。
In the basic diagram, the search unit 50 on the plane 95
Using the access information stored in the environment information storage unit 48, a search for document data using keywords as shown in Table 4 is performed.

【0277】[0277]

【表4】 [Table 4]

【0278】図106は表4における時期に関する情報
(時期パターン1)を用いた検索処理のフローであり、
これによって時刻S から時刻E までの範囲と、アクセス
情報が持つ時間情報を比較することで、作成、または作
成開始、または作成終了した文書データを検索できる。
FIG. 106 is a flowchart of a search process using the information on the timing (timing pattern 1) in Table 4.
As a result, by comparing the range from time S to time E with the time information included in the access information, it is possible to search for document data that has been created, created, started, or created.

【0279】図107は表4における時期に関する情報
(時期パターン2)を用いた検索処理のフローであり、
これによっで時刻(T-dT)から時刻(T+dT)までの範囲
と、アクセス情報が持つ時間情報を比較することで、作
成、または作成開始、または作成終了した文書データを
検索できる。
FIG. 107 is a flowchart of a search process using information on a timing (timing pattern 2) in Table 4.
Thus, by comparing the range from the time (T-dT) to the time (T + dT) with the time information included in the access information, it is possible to search for the document data that has been created, or the creation start or the creation finished.

【0280】図108は表4における期間に関する情報
を用いた検索処理のフローであり、アクセス情報が持つ
新規作成時刻から、最新アクセス終了時刻までにかかっ
た時間が、e%の誤差で期間Tに含まれるような文書デ
ータを検索できる。
FIG. 108 is a flowchart of a search process using the information on the period in Table 4, and the time taken from the new creation time of the access information to the latest access end time is equal to the period T with an error of e%. Document data that can be included can be searched.

【0281】図109は表4における参照頻度に関する
情報を用いた検索処理のフローであり、参照回数が範囲
Dを満たすようなアクセス情報を持つ文書データを検索
できる。ここで、参照回数とはデータ内容の変更がない
ようなアクセス情報要素の総数を表す。また、Noftenは
経験的に「何回も参照した」とみなせる一定の回数であ
り、ユーザによってことなる値を持つ。
FIG. 109 is a flowchart of a search process using the information on the reference frequency in Table 4, and it is possible to search for document data having access information whose reference count satisfies the range D. Here, the number of times of reference indicates the total number of access information elements whose data contents do not change. Further, Noften is a certain number of times that can be empirically regarded as “referred many times”, and has a different value depending on the user.

【0282】図115は表4におけるプリント頻度に関
する情報を用いた検索処理のフローであり、プリントア
ウト総数がDを満たすようなアクセス情報を持つ文書デ
ータを検索できる。Noftenは経験的に「何回もプリント
した」とみなせる一定の回数であり、ユーザによって異
なる値を持つ。
FIG. 115 is a flowchart of a search process using the information on the print frequency in Table 4, and it is possible to search for document data having access information such that the total number of printouts satisfies D. Noften is a fixed number of times that can be empirically regarded as “printed many times”, and has a different value depending on the user.

【0283】図110は表4における作成の緊急度に関
する情報を用いた検索処理のフローであり、作成時の緊
急度による文書データの検索ができる。
FIG. 110 is a flowchart of a search process using the information on the urgency of creation in Table 4, and the document data can be searched according to the urgency at the time of creation.

【0284】[ 検索例1] 「2月ごろ書き始めた文章
で、何回か参照した文章」 [ 検索例2] 「3月ごろに作成した文章で、急いで1日
で書いたた文章」 [ 検索例3] 「一カ月の期間で、推敲を重ねて作成した
文章」 図111はアクセス情報要素の属性を表示した例であ
り、左端は新規作成時刻またはアクセス開始時刻を表
し、右端はアクセス終了時間を示す。また、図形の高さ
は、新規作成、アクセス開始、アクセス終了のそれぞれ
の時刻における文書データの量を示している。さらにデ
ータ内容の変更の有無を図形の持つ模様で表現してお
り、新規作成時点と最新のアクセス終了時点を色付けさ
れた小円で表している。また、コピー元のファイルとの
リンクは矢印で表現されている。
[Search Example 1] "A sentence that started writing around February and was referred to several times" [Search Example 2] "A sentence created around March and written in a hurry in a day" [Search example 3] “Sentences created by elaborating over a one-month period” FIG. 111 is an example in which the attributes of the access information element are displayed. The left end indicates the new creation time or the access start time, and the right end indicates the access. Indicates the end time. The height of the figure indicates the amount of document data at each time of new creation, access start, and access end. Furthermore, the presence or absence of a change in the data content is represented by a pattern of the figure, and the new creation time and the latest access end time are represented by colored small circles. The link to the copy source file is represented by an arrow.

【0285】図112は、図111で示した表示方法に
基づいていくつかの文章のアクセス情報を一月毎の単位
で表示した例である。図112における文章1、文章
2、文章3はそれぞれ、上記の[検索例1]、[検索例
2][検索例3]によって検索されるような特徴を持っ
ている。
FIG. 112 shows an example in which access information of several sentences is displayed on a monthly basis based on the display method shown in FIG. Sentence 1, sentence 2, and sentence 3 in FIG. 112 have characteristics that can be searched by the above [Search example 1], [Search example 2], and [Search example 3], respectively.

【0286】図113は、一週間の単位で図112と同
じデータを表示しなおしたものである。また、基本図面
における検索部ではスケジュール作成部で生成されたス
ケジューリングの情報を時期情報として用いることで、
絶対時間ではなく、スケジュールに記述された言葉で検
索を行なうこともできる。これにより、例えば「○○学
会の論文〆切の頃に作成した文章」のような検索も可能
になる。具体的には、図97に示したように検索キーか
ら・・・学会、論文、及び〆切を抽出し、これらの文字
列を含むスケジュールデータないの文字列を特定し、そ
の後は上記に述べたように検索処理を行えば良い。
FIG. 113 shows the same data as in FIG. 112 displayed again on a weekly basis. Also, the search unit in the basic drawing uses the scheduling information generated by the schedule creation unit as time information,
The search can be performed using words described in the schedule instead of the absolute time. Thus, for example, a search such as “a sentence created at the time of the dissertation of the XX Society” can be performed. Specifically, as shown in FIG. 97, a society, a dissertation, and a deadline are extracted from the search key, and a character string of no schedule data including these character strings is specified. The search process may be performed as described above.

【0287】図114は、スケジュールデータと組み合
わせて、文書のアクセスデータを表示したものである。
FIG. 114 shows document access data in combination with schedule data.

【0288】次に、第6の発明について説明する。第6
の発明は、文書、音声等のデータを入力する際に、前記
音声のデータから音声の特徴的データを検出し、検出さ
れた特徴的データと前記データと対応づけて記憶し、こ
の特徴的データを用いて所望のデータを抽出する検索装
置である。特徴的データは、音声のデータから話者認識
を行うことによって得られる話者あるいは話者の人数で
ある。特徴的データは、文書、音声等のデータが入力さ
れた環境(部屋の広さ又は電車の中等)のデータであ
る。特徴的データは、音声等のデータの密度、テンショ
ン(笑い声、にぎやかさあるいは静けさに相当)を模式
化したものである。以下に、図95の基本図を用いて詳
しく説明する。
Next, the sixth invention will be described. Sixth
According to the invention, when inputting data such as a document or a voice, the voice characteristic data is detected from the voice data, and the detected characteristic data is stored in association with the data. Is a search device that extracts desired data by using. The characteristic data is a speaker or the number of speakers obtained by performing speaker recognition from voice data. The characteristic data is data of an environment (room size, inside a train, or the like) in which data such as documents and voices are input. The characteristic data schematically represents the density and tension (corresponding to laughter, liveliness, or quietness) of data such as voice. This will be described in detail below with reference to the basic diagram of FIG.

【0289】次に、環境解析対象データとして、周囲の
音や音声などの音響メディアを利用する場合について説
明する。
Next, the case where acoustic media such as surrounding sounds and voices are used as environment analysis target data will be described.

【0290】環境情報入力部80は、マイクロフォンな
ど音響メディア入力デバイスを持ち、周囲の音や音声な
どの音響データを取り込み、低域通過型フィルタを介し
てA/D変換して標本化、量子化する。音響データに
は、標本化周波数、量子化ビット数などの離散化処理の
情報、入力デバイスに関する情報を付加すれば、様々な
離散化処理による形式の異なった入力データが混在した
場合のデータ抽出処理に有用である。
The environment information input section 80 has an acoustic media input device such as a microphone, takes in acoustic data such as ambient sound and voice, performs A / D conversion via a low-pass filter, and performs sampling and quantization. I do. If information on discretization processing such as sampling frequency and quantization bit number and information on input devices are added to the acoustic data, data extraction processing when input data of different formats due to various discretization processing are mixed Useful for

【0291】環境解析対象データは、原則としてユーザ
がシステムを利用しているあいだ常時入力される。すな
わち、検索対象データを入力、編集、検索・出力してい
るとき、あるいは、環境情報をユーザが追加、修正する
ときは必ず入力される。ただし、解析対象データを常時
取り込むと、その量が膨大になるため、特にその利用時
における検索対象データから得た環境情報をキーに検索
する必要がないときは解析対象データの入力を省略して
もよい。
As a general rule, the data to be analyzed is always input while the user is using the system. That is, it is always input when inputting, editing, searching and outputting search target data, or when the user adds or corrects environmental information. However, if the data to be analyzed is always taken in, the amount of data will be enormous, so if there is no need to search using environmental information obtained from the data to be searched at the time of its use, omit the input of the data to be analyzed. Is also good.

【0292】入力される環境解析対象データは、複数の
マイクロフォンを利用したマルチチャネルの音響データ
であってもよい。例えば、複数の話者が出席している会
議において話者一人ひとりにマイクロフォンを持たせた
り、マイクロフォンアレイを用いて特定位置あるいは方
向にある音源の発する音を強めたり弱めたりして再構成
した音響データなどを入力することもできる。この場合
は、どのマイクロフォンによる入力か、どの位置あるい
はどの到来方向を強調あるいは減衰させたかを示す情報
が、入力デバイスに関する情報として音響データに付加
される。
The input environment analysis data may be multi-channel acoustic data using a plurality of microphones. For example, in a conference where multiple speakers are present, each speaker has a microphone, or the sound data reconstructed by using a microphone array to increase or decrease the sound emitted from a sound source at a specific position or direction. Can also be entered. In this case, information indicating which microphone is input, which position or which direction of arrival is emphasized or attenuated is added to the acoustic data as information on the input device.

【0293】環境情抽出部43は、入力された環境解析
対象データを直ちに自動的に解析する。環境解析対象デ
ータが音響データである場合は、解析する内容として、
例えば周囲音レベル、周囲音の種類の識別、周囲の残響
特性による利用場所の識別、話者認識、音声認識、音声
理解があげられる。
The environment information extracting unit 43 immediately and automatically analyzes the input environment analysis target data. If the environmental analysis target data is acoustic data,
For example, identification of the ambient sound level, the type of the ambient sound, identification of the place of use based on the reverberation characteristics of the surroundings, speaker recognition, speech recognition, and speech understanding.

【0294】周囲音レベルは、検索対象データの入力、
編集、検索・出力時などにおける音響データの信号パワ
ーを計算することにより得られる。周囲音のレベルが、
予め設定した閾値と比較して越えているか、あるいは閾
値より低いかによって、システムを利用していた場所が
騒々しいところであるとか、静かなところであるといっ
た、周囲の騒々しさに関する環境情報が得られる。
Ambient sound level is determined by inputting search target data,
It can be obtained by calculating the signal power of the audio data at the time of editing, searching and outputting. The level of the ambient sound is
Depending on whether the threshold value is exceeded or lower than a preset threshold value, environmental information about the noisy surroundings, such as the location where the system was used is noisy or quiet, can be obtained. Can be

【0295】また、音響データの周波数分析によるスペ
クトルパターンデータと、周囲音の種類に対応する周波
数スペクトルパターンデータとの類似度を計算すること
により、周囲音の種類を識別できる。例えば、拍手の
音、笑い声など、利用者あるいは利用場所に居合わせた
人のたてる音、空調や自動車などの走行音、中波ラジ
オ、電話等の呼び出し音など利用場所の周囲音などに対
応する標準的な周波数スペクトルパターンデータを用い
て、システムを利用していた場所の周囲の音源の種類、
さらには利用場所に関する環境情報を得る。周囲音の識
別の方法は、単語音声認識で行われている方法と同じで
あり、単語音声の代りに周囲音の波形データを用いて単
語音声認識では単語毎に作成していた照合用の標準的な
周波数スペクトルパターンデータを周囲音の種類毎に作
成すればよい。
The type of the ambient sound can be identified by calculating the similarity between the spectrum pattern data obtained by frequency analysis of the acoustic data and the frequency spectrum pattern data corresponding to the type of the ambient sound. For example, it responds to the sounds of applause, laughter, etc., the sounds of the user or the person present at the place of use, the running sounds of air conditioners and automobiles, the audible sounds of medium-wave radios, telephone calls, etc. Using standard frequency spectrum pattern data, the type of sound source around the place where the system was used,
Furthermore, environmental information about the place of use is obtained. The method of identifying surrounding sounds is the same as that used in word speech recognition. In word speech recognition using waveform data of surrounding sounds instead of word speech, a standard for matching that was created for each word was used. What is necessary is just to create typical frequency spectrum pattern data for each type of ambient sound.

【0296】システム使用時に試験音を発し、その残響
音を収集して残響特性を求めることによりシステムの利
用場所を識別することも可能である。システムの使用中
に移動することがなければ、システムの利用開始時にビ
ープ音などの試験音を出してその残響音を収集すればよ
い。この場合は、上記周囲音の識別において、利用場所
毎に標準的な周波数スペクトルパターンデータを個別に
作成すればよい。これにより、システムを利用していた
場所が野外であるとか、残響音が長く残るホールである
とか、自分のいつも座る席であるなど、利用場所を識別
し、利用場所に関する環境情報を得る。
When the system is used, a test sound is emitted, the reverberation sound is collected, and the reverberation characteristic is obtained, so that the use place of the system can be identified. If the user does not move while using the system, a test sound such as a beep sound may be output at the start of use of the system to collect the reverberation sound. In this case, in discriminating the ambient sound, standard frequency spectrum pattern data may be individually created for each use location. As a result, the use place is identified, for example, the place where the system was used is outdoors, a hall where reverberation sound remains for a long time, or a seat where the user always sits, and environmental information on the use place is obtained.

【0297】複数の話者がいる場所で使う場合は、誰の
発話であるかを話者認識により知ることができる。また
前述のように、話者ごとにマイクロフォンを持たせて別
々のチャネルから入力したり、マイクロフォンアレイに
より指向性を持たせることにより認識処理をしなくても
話者を特定できる。このような話者に関する情報によっ
て、誰の発話であるかだけでなく、誰が近くにいたかと
いった環境情報が得られる。
When used in a place where a plurality of speakers are present, it is possible to know who the utterance is by speaker recognition. Further, as described above, a speaker can be specified without having to perform recognition processing by providing a microphone for each speaker and inputting from different channels, or by giving directivity using a microphone array. Such information on the speaker provides not only the utterance of the utterance but also environmental information such as who was nearby.

【0298】また、認識したい音韻や単語の標準的な周
波数スペクトルパターンを用意しておけば、環境解析対
象データである音響データの周波数分析によるスペクト
ルパターンデータとの類似度を計算することにより、音
韻や単語を検出できる。
If a standard frequency spectrum pattern of a phoneme or a word to be recognized is prepared, the similarity of the sound data as the environmental analysis target data to the spectrum pattern data by the frequency analysis is calculated. And words.

【0299】検出されるのが音韻の場合は、さらに動的
計画法(DP)などの方法を用いて単語検出結果を得
る。単語を検出する場合は、ワードスポッティングを行
ない単語検出結果を得る。さらに、検出した単語を組み
合わせてできる、可能な複数の単語検出結果列を構文・
意味解析することによって単語認識結果を決定できる。
また、認識結果を構成する単語列のつくる発話の意味内
容を得ることができる。
If a phoneme is detected, a word detection result is obtained using a method such as dynamic programming (DP). When detecting a word, word spotting is performed to obtain a word detection result. In addition, multiple possible word detection result strings that can be combined with detected words
The word recognition result can be determined by performing the semantic analysis.
In addition, it is possible to obtain the meaning of the utterance made by the word string forming the recognition result.

【0300】ここで、認識対象となる単語や単語列が構
成する意味内容は、解析に先立って設定しておく必要が
ある。すなわち、環境解析対象データの入力時に自動的
に解析結果として得られるのは、解析前に設定しておい
た単語や意味内容だけである。したがって、環境解析対
象データの入力時には設定してなかった単語や単語列が
構成する意味内容を利用した環境情報による検索をする
場合は、あらためて設定を行なって、環境解析対象デー
タを環境解析対象データ記憶部から取りだし再解析す
る。このように、予め認識結果として得たい情報を設定
する必要があることは、音声認識だけでなく、話者認
識、周囲音の識別、周囲音の識別など認識、識別などの
解析一般に共通しており、検索時に必要な環境情報が不
足していれば、同様に環境解析対象データの再解析を行
なえばよい。
Here, the meanings of the words and word strings to be recognized need to be set prior to analysis. That is, only the words and meanings set before the analysis are automatically obtained as an analysis result when the environment analysis target data is input. Therefore, when performing a search using environmental information that uses the meanings of words and word strings that were not set when the environmental analysis target data was input, perform the settings again and replace the environmental analysis target data with the environmental analysis target data. Retrieve it from the storage unit. As described above, it is necessary to set information to be obtained as a recognition result in advance, not only for speech recognition but also for analysis of speaker, recognition of surrounding sound, recognition of surrounding sound, and the like, and analysis in general. If the environment information required at the time of the search is insufficient, the reanalysis of the environment analysis target data may be performed similarly.

【0301】環境情報として音響データを利用するパー
ソナルマルチメディアファイリングシステムの例とし
て、会議ファイルに応用する場合について述べる。
As an example of a personal multimedia filing system using acoustic data as environmental information, a case where the present invention is applied to a conference file will be described.

【0302】システムへ入力されるデータは音響、画
像、文字などのマルチメディアデータである。
Data input to the system is multimedia data such as sound, images, characters, and the like.

【0303】ここでは、入力マルチメディアデータが検
索対象データである。
Here, the input multimedia data is the data to be searched.

【0304】また、検索対象データを入力したり出力す
るのと同時に、環境情報を抽出するための音響データを
取り込む。ここでいう入出力時の環境情報とは、誰が、
誰と、いつ、どこで、何を、どのように対象データを入
力したり出力したかを示す情報である。このうち、入力
時の環境情報はこの環境情報を抽出するための音響デー
タは、対象データと同じものを用いてもよい。
Also, at the same time as inputting or outputting the search target data, audio data for extracting environmental information is taken in. The environmental information at the time of input and output here means who,
This is information indicating who, when, where, what, and how the target data was input or output. Among them, as the environmental information at the time of input, the same acoustic data as the target data may be used as the acoustic data for extracting the environmental information.

【0305】このような環境情報を付加することによっ
て、後に入力マルチメディアデータを再び検索・出力す
る場合に検索が容易になる。
By adding such environment information, the search becomes easier when the input multimedia data is searched and output again later.

【0306】システムは、この音響データから環境情報
を自動的に抽出し、これを対象データとリンクさせて記
憶しておく。
[0306] The system automatically extracts environmental information from the acoustic data and stores the environmental information by linking it to the target data.

【0307】対象データ入力部47は、例えばマイク、
スキャナ、カメラ、ペン、マウス、キーボードなどの音
響、画像、文字など、対象データを入力する手段を有す
る。
The target data input unit 47 is, for example, a microphone,
It has means for inputting target data such as sound, images, characters, etc. of a scanner, camera, pen, mouse, keyboard, and the like.

【0308】音響データのシステムへの入力はマイクを
介して取り込む。環境情報の抽出をリアルタイムに行な
う必要のない場合は、マイクから取り込んだ音響データ
を一旦、対象データ記憶部49に蓄えておき、環境情報
を抽出する際にこれを利用することもできる。
The input of sound data to the system is taken in through a microphone. If it is not necessary to extract the environment information in real time, the acoustic data taken in from the microphone may be temporarily stored in the target data storage unit 49 and used when extracting the environment information.

【0309】また、発言者が複数いるときのように複数
音源がある場合に音響データの品質を高め、環境情報の
抽出精度を高めるため、複数のマイクを利用して音響デ
ータを取り込み、マルチチャネル入力とすることも可能
である。
In order to improve the quality of sound data and to improve the accuracy of extracting environmental information when there are a plurality of sound sources, such as when there are a plurality of speakers, the sound data is fetched using a plurality of microphones and a multi-channel It can also be an input.

【0310】音響データ以外の検索対象データ、例えば
会議における配布資料などの文書・映像・イメージデー
タ、議場風景などの画像データ、メモなどの文字・イメ
ージデータは、例えばスキャナ、カメラ、ペン、マウス
などの入力デバイスを介して入力する。
[0310] Search target data other than acoustic data, for example, document / video / image data such as materials distributed at a conference, image data such as scenery of a conference hall, and text / image data such as a memo, are, for example, a scanner, a camera, a pen, a mouse, and the like. Input via an input device.

【0311】対象データ記憶部49では、対象データ入
力部49が取り込んだマルチメディアデータを、その入
力時刻とともに格納する。
[0311] The target data storage unit 49 stores the multimedia data fetched by the target data input unit 49 together with the input time.

【0312】環境情報入力部80は、マイクなどの音響
入力手段を有する。
[0312] The environment information input section 80 has sound input means such as a microphone.

【0313】対象データ入力部47と同様、発言者の音
声や聴衆の音声や周囲の環境雑音などの音響データは、
マイクを介して取り込む。発言者が複数いる場合も同様
に、複数のマイクを利用し、マルチチャネル入力とする
ことも可能である。
Similarly to the target data input unit 47, acoustic data such as the voice of the speaker, the voice of the audience, and the ambient noise
Capture through a microphone. Similarly, when there are a plurality of speakers, a plurality of microphones can be used and multi-channel input can be performed.

【0314】環境情報抽出部43は、図118に示すよ
うに、音源推定部90、音声区間推定部91、音声認識
理解部92、話者情報管理部93、会議状況推定部94
を有する。
As shown in FIG. 118, the environment information extracting section 43 includes a sound source estimating section 90, a voice section estimating section 91, a voice recognition understanding section 92, a speaker information managing section 93, and a conference state estimating section 94.
Having.

【0315】音源推定部90は、環境情報入力部80で
複数のマイクにより取り込んだ音響データ中に含まれる
音源の位置、方向を判定し、特定の音源の発する音響デ
ータ成分を推定する。音源推定部の最も簡単な構成例
は、発言者ごとにマイクを用意し、各マイクが取り込ん
だ音響データと発言者を対応させることにより、ある話
者の声の成分を推定する方法である。また、発言者の数
とマイクの数が一致していない場合でも、各マイクが取
り込んだ音響データを畳み込み、その畳み込み係数を制
御することにより音響的な指向性を制御することが可能
であり、音波の到来方向の違いから複数の話者を弁別
し、特定の話者の成分を推定したり、特定の話者以外の
成分を推定することができる。
The sound source estimating unit 90 determines the position and direction of a sound source included in the sound data captured by a plurality of microphones in the environment information input unit 80, and estimates a sound data component emitted by a specific sound source. The simplest configuration example of the sound source estimating unit is a method of estimating a voice component of a speaker by preparing a microphone for each speaker and associating the speaker with acoustic data captured by each microphone. Also, even when the number of speakers and the number of microphones do not match, it is possible to control the acoustic directivity by convolving the acoustic data captured by each microphone and controlling the convolution coefficient, A plurality of speakers can be discriminated from the difference in the direction of arrival of the sound wave, and a component of a specific speaker can be estimated, or a component other than the specific speaker can be estimated.

【0316】ここでいう音源は必ずしも人間の発声する
音声に限定されず、周囲の環境雑音とすることも可能で
ある。
The sound source referred to here is not necessarily limited to the voice uttered by a human, but may be ambient environmental noise.

【0317】音声区間推定部91は、音響データの時系
列中において、音声が存在する時間的な区間を推定す
る。例えば、音声の始端を決める場合は、あるパワー閾
値とある時間閾値を設定しておき、音響データにおいて
その時間閾値以上の時間にわたりパワー閾値を超える信
号のパワーが持続したとき、そのパワー閾値を超えた時
点を始端と決定する。
[0317] The voice section estimation unit 91 estimates a temporal section in which a voice exists in the time series of the audio data. For example, when determining the beginning of the sound, a certain power threshold and a certain time threshold are set in advance, and when the power of the signal exceeding the power threshold is maintained for more than the time threshold in the sound data, the power threshold is exceeded. Is determined as the starting point.

【0318】終端も同様に決定できる。また、パワー閾
値と時間閾値を、始端決定用と終端決定用とで別の値に
設定することにより、音声区間をより高精度に推定でき
る。音源推定部が得た特定の話者の音声信号成分から、
その話者の発声した始端、終端を推定することができ
る。
The termination can be determined in the same manner. In addition, by setting the power threshold and the time threshold to different values for the start end determination and the end determination, the voice section can be estimated with higher accuracy. From the speech signal component of the specific speaker obtained by the sound source estimator,
The beginning and end of the speaker's utterance can be estimated.

【0319】音声認識理解部92は、音響データの音響
的分析、構文、意味解析により、単語認識、音声理解を
行い、発言の意味内容を抽出する。音響分析は、短区間
の周波数分析を、例えば数ミリ秒間隔で行い、HMMな
どの統計的な方法や複合類似度法などによるパターンマ
ッチングにより、音韻系列、あるいは単語系列を得る。
これらと履歴情報なども利用して構文意味解析を行い、
最終的な音声認識、理解結果を得る。また、音源推定部
が得た特定の話者の音声信号成分から、その話者の発声
した語彙、意味内容を抽出することができる。(図)話
者情報管理部93は、音源推定部90によって推定され
る話者ごとに、音声区間推定部91の推定する音声区
間、音声認識理解部92の出力する単語認識結果、発言
の意味内容を管理し、どの話者がいつ何を発言したかを
示す環境情報を管理する。これらの情報は話者情報管理
テーブル内で管理される。話者情報管理テーブルでは、
ある話者の発声した音声だけを対象とするだけでなく、
ある音源が発した環境雑音をも対象とすることが可能で
ある。また、これらのデータを時間情報とともに管理す
れば検索対象データとの対応付けが容易である。
[0319] The speech recognition / understanding section 92 performs word recognition and speech understanding by acoustic analysis, syntax, and semantic analysis of acoustic data, and extracts the meaning content of the utterance. In the acoustic analysis, frequency analysis of a short section is performed, for example, at intervals of several milliseconds, and a phoneme sequence or a word sequence is obtained by pattern matching using a statistical method such as HMM or a composite similarity method.
Using these and history information, we perform syntactic and semantic analysis,
Obtain final speech recognition and understanding results. Further, from the voice signal component of a specific speaker obtained by the sound source estimating unit, the vocabulary and meaning content uttered by the speaker can be extracted. (FIG.) The speaker information management unit 93 includes, for each speaker estimated by the sound source estimation unit 90, a speech section estimated by the speech section estimation unit 91, a word recognition result output by the speech recognition understanding unit 92, and the meaning of the utterance It manages the content and manages environmental information indicating which speaker spoke what and when. These pieces of information are managed in the speaker information management table. In the speaker information management table,
In addition to targeting only the voice spoken by a speaker,
It is also possible to target environmental noise emitted by a certain sound source. If these data are managed together with the time information, it is easy to associate the data with the search target data.

【0320】会議状況推定部94は、話者交替時間差計
測部、周囲雑音計測部、非発言者発生音量計測部、状況
推定部を有する。話者交替時間差計測部は、一人の発言
者が発言を終えてから別の発言者が発言を始めるまでの
経過時間を、話者情報管理テーブルを参照して求める。
周囲雑音計測部は、非音声区間の音量レベルから周囲雑
音のレベルを求める。非発言者発生音量計測部は、音声
区間の発言者以外の音源による周囲音のレベルを求め
る。状況推定部は、話者交替時間差計測部の測定する経
過時間から議論進行の円滑さを、周囲雑音計測部の測定
する周囲雑音レベルや非発言者発生音量計測部の測定す
る周囲音のレベルから会議のにぎやかさ等の会議状況を
推定する。これらの会議状況は、時間情報とともに、会
議状況情報管理テーブルで管理する。
[0320] The conference situation estimating section 94 has a speaker turnaround time difference measuring section, an ambient noise measuring section, a non-speaker generated sound volume measuring section, and a situation estimating section. The speaker replacement time difference measuring unit obtains the elapsed time from the end of one speaker to the start of another speaker by referring to the speaker information management table.
The ambient noise measuring unit obtains the level of the ambient noise from the volume level of the non-voice section. The non-speaker generated sound volume measurement unit obtains the level of the ambient sound from a sound source other than the speaker in the voice section. The situation estimation unit determines the smoothness of the discussion from the elapsed time measured by the speaker turnaround time difference measurement unit, from the ambient noise level measured by the ambient noise measurement unit and the ambient sound level measured by the non-speaker generated volume measurement unit. Estimate the conference status such as liveliness of the conference. These conference statuses are managed together with time information in a conference status information management table.

【0321】以上述べた環境情報抽出部43への入力
は、環境情報入力部80が取り込んだ音響データを利用
する場合についてであるが、対象データ記憶部49に格
納されている音響データを利用して環境情報を抽出する
ことも可能である。
The input to the environment information extraction unit 43 described above is for the case where the acoustic data captured by the environment information input unit 80 is used, but the audio data stored in the target data storage unit 49 is used. To extract environmental information.

【0322】環境情報記憶部48は、環境情報抽出部4
3の話者情報管理テーブルの内容と会議状況情報管理テ
ーブルの内容を格納する。これらの情報はすべて時間情
報が付加されている。
The environment information storage unit 48 stores the environment information extraction unit 4
3 and the contents of the conference status information management table. All these pieces of information have time information added.

【0323】検索キー入力部52は、マイク、ペン、マ
ウス、キーボードなどの入力手段を有する。
The search key input section 52 has input means such as a microphone, a pen, a mouse, and a keyboard.

【0324】話者、語彙、意味内容、雰囲気など環境情
報記憶部48に格納されている話者情報管理テーブルと
会議状況情報管理テーブルの内容に関する検索キーを、
これらの入力手段を用いて音声入力あるいはポインティ
ング操作により入力する。
A search key relating to the contents of the speaker information management table and the conference status information management table stored in the environment information storage unit 48, such as the speaker, vocabulary, meaning content, and atmosphere, is
Input is performed by voice input or pointing operation using these input means.

【0325】検索部50は、検索キー入力部の受け付け
た検索キーをもとに、話者情報管理テーブルの内容や会
議状況情報管理テーブルの内容を検索し、マッチする環
境情報と、それに関連する対象データを検索結果として
文字あるいはアイコン表示などの視覚的方法あるいは音
声や効果音などの聴覚的方法で出力する。
The search unit 50 searches the contents of the speaker information management table and the contents of the conference status information management table based on the search key received by the search key input unit, and finds matching environmental information and related information. The target data is output as a search result by a visual method such as displaying characters or icons or an auditory method such as voice or sound effect.

【0326】対象データ出力部51は、環境情報記憶部
48、対象データ記憶部49に格納されている環境情報
およびマルチメディアデータの内容、検索部の検索結果
を音響的あるいは視覚的に再生出力する。
The target data output unit 51 acoustically or visually reproduces and outputs the environment information and the contents of the multimedia data stored in the environment information storage unit 48 and the target data storage unit 49, and the search result of the search unit. .

【0327】たとえば、環境情報の出力例について説明
する。話者と時間を軸とすれば、誰がいつ発言したかを
視覚的に示すことができる。また、意味内容と話者を軸
とすれば、誰がどのような意味の発言をして、誰がそれ
に近い内容を発言したかを視覚的に示すことができる。
For example, an output example of environment information will be described. Using the speaker and time as axes, it is possible to visually indicate who spoke and when. In addition, if the meaning content and the speaker are used as axes, it is possible to visually show who made what kind of meaning and who made the similar content.

【0328】音を環境情報として利用した幾つかの例に
ついて説明する。
Some examples using sound as environment information will be described.

【0329】(例)会議ファイル:対象データは音声・
資料などの文書 ○入力時 ・環境情報入力部80ではマイクを介して発言者の音
声、周囲の音を取り込む。
(Example) Conference file: The target data is voice
Documents such as materials At the time of input The environment information input unit 80 captures the voice of the speaker and the surrounding sounds via a microphone.

【0330】・環境情報抽出部43では、これらの音声
データから、いつ、1)誰が発言したかあるいは 2) どの
ような話題、使用語彙、意味内容であるかを、音声認識
・音声理解を行い抽出する。また、3)一人の発言者が発
言を終えてから別の発言者が発言を始めるまでの経過時
間、発言のないときの周囲雑音レベル、発言者以外の音
声・音レベル等から、会議の雰囲気などの会議状況も抽
出する。
The environment information extraction unit 43 performs speech recognition and speech understanding from these speech data when, 1) who utters or 2) what topic, vocabulary, and meaning. Extract. 3) The atmosphere of the meeting based on the elapsed time from when one speaker finishes speaking to when another speaker starts speaking, the ambient noise level when there is no speaking, the voice and sound level of other speakers, etc. The meeting status such as is extracted.

【0331】−誰が発言したか:複数のマイクを用いて
マルチチャネル入力ができれば容易である。
-Who made the statement: It would be easy if multi-channel inputs could be made using a plurality of microphones.

【0332】例えば、少なくともマイクが発言者と同じ
数だけあれば、マイクと発言者を対応付けることによ
り、誰が発言したかわかる。また、マイクが発言者の数
より少なくても、マイクアレイを構成して音源の方向が
判れば、だいたいの話者は判断できる。
For example, if at least the number of microphones is equal to the number of speakers, it is possible to know who has spoken by associating the microphones with the speakers. Even if the number of microphones is smaller than the number of speakers, if a microphone array is configured and the direction of the sound source is known, the speaker can be generally determined.

【0333】−話題、語彙、意味内容:連続音声認識に
より発話の中から単語を認識し、その単語の組合せから
意味内容を判断する。認識対象となる単語は、予想され
る話題から予めいくつか指定しておき、他の単語よりも
認識結果を決める際に優先的に扱うこともできる。
-Topic, vocabulary, meaning content: A word is recognized from an utterance by continuous speech recognition, and the meaning content is determined from a combination of the words. Some words to be recognized can be specified in advance from expected topics, and can be preferentially treated when determining a recognition result over other words.

【0334】−発言の開始と終了:音声レベルと持続時
間から音声区間が検出できる。
-Start and end of speech: A speech section can be detected from a speech level and duration.

【0335】・環境情報記憶部48では、その音声デー
タあるいは環境情報抽出部43が抽出した環境情報を入
力時刻とともに記録する。
The environment information storage unit 48 records the audio data or the environment information extracted by the environment information extraction unit 43 together with the input time.

【0336】・対象データ出力部51では、環境情報を
視覚的に提示、あるいは対象データたる音声、音の再
生、文書を表示出力する。
The target data output section 51 visually presents environmental information, or reproduces sound, sound reproduction, and documents as target data.

【0337】○検索時 ・検索キー入力部52ではペン、キーボード、マウス、
カメラなどの入力デバイスからユーザの検索要求入力を
受け付ける。例えば、環境情報出力部43で、図119
に示すように、環境情報のリストを表示しておき、この
中から入力デバイスで検索キーとする環境情報を選択す
れば、それと一致する環境情報を得た環境解析対象デー
タ、さらにそれとリンクされた検索対象データを得るこ
とができる。
At the time of a search: In the search key input section 52, a pen, a keyboard, a mouse,
A search request input from a user is received from an input device such as a camera. For example, in the environment information output unit 43, FIG.
As shown in, if a list of environmental information is displayed, and the user selects the environmental information to be used as a search key with the input device from the list, the environmental analysis target data that obtained the corresponding environmental information was obtained, and further linked to that. Search target data can be obtained.

【0338】・話者に着目した検索の例:何を発言した
か、語彙、意味内容を時刻順に表示する。例えば、検索
対象データとして映画などの動画像データを流してお
き、それを複数の人で見たときの各々の場面における感
想を各自が述べたとする。環境解析対象データとしては
その場の発言を収録した音声テープを使い、話者認識に
よる話者の推定結果と発話に含まれる語の認識結果を各
々環境情報とする解析を行うとする。得られた環境情
報、すなわち話者毎の認識結果を発話の時間順に並べて
表示すれば、特定の人の発言内容や、その移り変りを環
境情報だけから知ることもできるし、ある人がある語を
発言した場面として検索対象データを検索することもで
きる。
Example of search focused on speaker: What is said, vocabulary, and meaning are displayed in order of time. For example, it is assumed that moving image data of a movie or the like is flown as search target data, and each person describes his / her impression in each scene when viewed by a plurality of people. It is assumed that an audio tape recording the utterance of the place is used as the environment analysis target data, and the analysis is performed using the estimation result of the speaker by the speaker recognition and the recognition result of the words included in the utterance as environment information. By displaying the obtained environmental information, that is, the recognition results for each speaker, arranged in chronological order of utterance, it is possible to know the utterance of a specific person and its transition from only the environmental information, or to find a certain word Search target data can also be searched for as the utterance scene.

【0339】・語彙に着目した検索の例:繰り返し発言
に含まれる語彙を、その会議のキーワードとして扱う。
Example of Search Focusing on Vocabulary: Vocabulary included in repeated remarks is treated as a keyword of the meeting.

【0340】・話題に着目した検索の例:ある話題に対
して誰がどういう意見であるかを表示する。
An example of a search focused on a topic: The opinion of who has a certain topic is displayed.

【0341】・会議の雰囲気に着目した検索の例:一人
の発言者が発言を終えてから別の発言者が発言を始める
までの経過時間が短いと議論が白熱しているとみなす。
また、発言者以外の音声、音のレベルから、にぎやかで
あったか静かであったかがわかる。
Example of Search Focusing on Meeting Atmosphere: If the elapsed time from the end of one speaker to the start of another speaker is short, the discussion is considered to be heated.
Also, from the voices and sound levels of the voices other than the speaker, it can be determined whether the voice was lively or quiet.

【0342】(例)文書ファイル:対象データは音声以
外、環境情報は周囲の雑音情報(レベル) ○入力時 ・環境情報入力部80では複数のマイクを介して利用時
の周囲の音を取り込む。
(Example) Document file: The target data is other than voice, and the environmental information is ambient noise information (level). At the time of input. The environmental information input unit 80 takes in ambient sounds at the time of use via a plurality of microphones.

【0343】・環境情報抽出部43では、これらの音デ
ータから周囲雑音のレベルを抽出する。また、文書作成
のためのキー入力の頻度を抽出する。(あるいは、キー
入力音のスペクトルに近い雑音とそうでない雑音のレベ
ルを分けて抽出することにより、周囲雑音の中から文書
作成のために発生する雑音を除く。) ・環境情報記憶部48では、その音声データあるいは環
境情報抽出部が抽出した環境情報を入力時刻とともに記
録する。
The environment information extraction unit 43 extracts the level of the ambient noise from the sound data. Further, the frequency of key input for document creation is extracted. (Alternatively, by extracting the level of the noise close to the spectrum of the key input sound and the level of the noise other than the noise separately, the noise generated for creating a document is excluded from the ambient noise.) The voice data or the environment information extracted by the environment information extraction unit is recorded together with the input time.

【0344】・対象データ出力部51では、文書毎に、
あるいは、段落、文、句、節、文字などの単位で雑音情
報を視覚的に提示する。
In the target data output unit 51, for each document,
Alternatively, the noise information is visually presented in units of paragraphs, sentences, phrases, sections, characters, and the like.

【0345】○検索時 ・検索キー入力部52ではペン、キーボード、マウス、
カメラなどの入力デバイスからユーザの検索要求入力を
受け付ける。
At the time of a search: In the search key input section 52, a pen, a keyboard, a mouse,
A search request input from a user is received from an input device such as a camera.

【0346】・文書作成の集中度に着目した検索の例:
周囲雑音のレベルや種類から、静かな環境で作成した文
書をクオリティが高いと判断する。
Example of search focusing on the degree of concentration of document creation:
Based on the level and type of ambient noise, a document created in a quiet environment is judged to have high quality.

【0347】次に、第7の発明について説明する。第7
の発明は、ユーザが使用した(ログインした)計算機固
有の番号あるいは名称や愛称を記憶し、記憶した番号あ
るいは名称や愛称を用いて所望の文書などのデータを抽
出検索する検索装置である。
Next, the seventh invention will be described. Seventh
The present invention is a search device that stores a number, name, or nickname unique to a computer used (logged in) by a user, and extracts and searches for data such as a desired document using the stored number, name, or nickname.

【0348】現在多数のパソコンやワークステーション
などの計算機をネットワークによって接続することが可
能となり、また、そのような環境下では、ある計算機の
記憶装置などに存在するデータを他の計算機から参照し
たり、変更したりすることが可能になっている。この第
7の発明では、このような環境においても、どの計算機
でデータを作成や参照、変更したかを手掛かりに所望の
データを抽出検索することを可能としている。
At present, many computers such as personal computers and workstations can be connected via a network. In such an environment, data existing in a storage device of a certain computer can be referred to from other computers. , Can be changed. In the seventh aspect, even in such an environment, it is possible to extract and search desired data by using which computer has created, referred to, or changed the data.

【0349】・実施例1 図120に基本構成を示す。Embodiment 1 FIG. 120 shows the basic configuration.

【0350】この検索装置は、入力部100、計算機I
D設定部101、検索対象データ記憶部102、検索対
象データ出力部103、データおよび計算機ID記憶部
104、環境情報出力部105、検索キー入力部10
6、検索部107、通信部108から構成されている。
This search device includes an input unit 100, a computer I
D setting unit 101, search target data storage unit 102, search target data output unit 103, data and computer ID storage unit 104, environment information output unit 105, search key input unit 10
6, a search unit 107 and a communication unit 108.

【0351】図121にデータおよび計算機ID記憶部
104に記憶される情報の形式とその例を示す。図12
2に検索対象データ記憶部102に格納されているデー
タ名と文書名の対応表の例を示す。図123に図121
の情報を生成する計算機ID設定部101での処理の流
れを示す。
FIG. 121 shows the format of data and information stored in the computer ID storage unit 104 and examples thereof. FIG.
2 shows an example of a correspondence table between data names and document names stored in the search target data storage unit 102. FIG.
2 shows a flow of a process in the computer ID setting unit 101 for generating the information of FIG.

【0352】検索キー入力部106の図示しないウイン
ドウ上の検索キーが押下されると、検索部107により
検索処理が行われる。
When a search key on a window (not shown) of the search key input unit 106 is pressed, a search process is performed by the search unit 107.

【0353】検索処理の流れを図124に示す。処理1
231により表示される画面の例を図125に示す。図
125において、計算機名が選択されると、図124の
処理1233以下の処理が行われる。処理1233によ
り表示される画面の例を図126に示す。
FIG. 124 shows the flow of the search process. Processing 1
FIG. 125 shows an example of the screen displayed by 231. In FIG. 125, when the computer name is selected, the processing of the processing 1233 and the subsequent processing in FIG. 124 is performed. FIG. 126 shows an example of a screen displayed by the process 1233.

【0354】・実施例2 装置の構成は図120と同様である。この実施例では、
計算機固有の番号あるいは名称や愛称と計算機が置かれ
ている部屋の中の配置図を格納しておき、場所の配置を
手掛かりとして所望のデータを検索することを可能にし
ている。
Embodiment 2 The configuration of the apparatus is the same as that of FIG. In this example,
A computer-specific number or name or nickname and a layout drawing in the room where the computer is placed are stored, and it is possible to search for desired data based on the location of the location as a clue.

【0355】図127には計算機とその配置図に関する
情報が示されている。この情報を予め作成しておき、各
計算機のデータおよび計算機ID記憶部102に図12
1に示す情報とともに格納しておく。
FIG. 127 shows information on a computer and its layout. This information is created in advance and stored in the data of each computer and the computer ID storage unit 102 as shown in FIG.
1 together with the information shown in FIG.

【0356】図127の情報を生成する計算機ID設定
部101の処理の流れは図123と同様である。図12
8に検索部107の処理の流れを示す。また、処理12
71で表示される画面の一例を図129に示す。なお、
処理1271では、全ての場所名を表示しているが、当
該のユーザのユーザIDで、全ての計算機のデータおよ
び計算機ID記憶部104内の図121に示した情報を
検索し、当該の計算機IDによりそれらの計算機が置か
れている部屋のゾーンの名前だけを表示してもよい。処
理1273により表示される画面の一例を図130に示
す。処理1279により表示される画面の例は図126
と同様である。
The processing flow of the computer ID setting unit 101 for generating the information of FIG. 127 is the same as that of FIG. FIG.
8 shows the flow of the processing of the search unit 107. Processing 12
FIG. 129 shows an example of the screen displayed at 71. In addition,
In the process 1271, all the place names are displayed, but the data of all the computers and the information shown in FIG. 121 in the computer ID storage unit 104 are searched by the user IDs of the user, and the computer IDs are searched. May display only the name of the zone of the room where the calculators are located. FIG. 130 shows an example of the screen displayed by the process 1273. FIG. 126 shows an example of a screen displayed by processing 1279.
Is the same as

【0357】なお、図127中の対応表は、計算機を接
続するネットワークのコンセントにAIなどの位置表示
を付与しておくことにより、計算機を接続したときに自
動的に作成するようにしてもよい。この場合、計算機を
移動させても対応表を自動的に作成変更することができ
る。
Note that the correspondence table in FIG. 127 may be automatically created when a computer is connected by giving a location display such as an AI to an outlet of a network to which the computer is connected. . In this case, the correspondence table can be automatically created and changed even if the computer is moved.

【0358】次に、図1の環境情報出力部7が表示範囲
決定の処理を行う例を説明する。ここでは環境解析対象
データの例として温度を用いる。温度の測定について
は、ディジタル温度計などで用いられている技術を用い
ればよい。また検索対象データとして文書を用いる。
Next, an example in which the environment information output unit 7 shown in FIG. 1 performs a display range determination process will be described. Here, temperature is used as an example of the environmental analysis target data. For the measurement of the temperature, a technique used in a digital thermometer or the like may be used. Also, a document is used as search target data.

【0359】図131に記憶される情報の形式と例を示
す。図132に環境情報出力部7の処理の流れを示し、
図133に表示の一例を示す。
FIG. 131 shows the format and an example of information stored. FIG. 132 shows a processing flow of the environment information output unit 7,
FIG. 133 shows an example of the display.

【0360】同様に、明るさ(照度)を環境解析対象デ
ータとする場合には、図134に示すように表示すれば
よい。また、音声を環境解析対象データとし、音声の大
きさを検索キーとする場合には、図135に示すように
表示し、音声の種類を検索キーとする場合には図136
に示すように表示すればよい。
Similarly, when the brightness (illuminance) is used as the data for environmental analysis, it may be displayed as shown in FIG. If the voice is used as the environmental analysis target data and the volume of the voice is used as the search key, it is displayed as shown in FIG. 135, and if the type of voice is used as the search key, FIG.
May be displayed as shown in FIG.

【0361】[0361]

【発明の効果】本願発明によれば、データを、検索式や
タイトルや内容を思い出せない場合や、タイトルや内容
を自然言語表現で表せない場合でも検索できる。
According to the present invention, data can be searched even when the retrieval formula, title, or content cannot be remembered, or when the title or content cannot be expressed in a natural language expression.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係わるシステムの概略構成図FIG. 1 is a schematic configuration diagram of a system according to the present invention.

【図2】本発明に係わる検索対象データ入力部の構成図FIG. 2 is a configuration diagram of a search target data input unit according to the present invention.

【図3】本発明に係わるデータのレベルを表す図FIG. 3 is a diagram showing data levels according to the present invention.

【図4】本発明に係わる環境解析対象データ入力部の構
成図
FIG. 4 is a configuration diagram of an environment analysis target data input unit according to the present invention.

【図5】本発明に係わる解析タイミングを示す図FIG. 5 is a diagram showing analysis timing according to the present invention.

【図6】本発明に係わる環境情報の取得に関する説明図FIG. 6 is an explanatory diagram relating to acquisition of environment information according to the present invention.

【図7】本発明に係わるシステムの概略構成図FIG. 7 is a schematic configuration diagram of a system according to the present invention.

【図8】本発明に係わるシステムの概略構成図FIG. 8 is a schematic configuration diagram of a system according to the present invention.

【図9】第1の発明に係わる機器構成図FIG. 9 is a device configuration diagram according to the first invention.

【図10】第1の発明に係わる機能構成図FIG. 10 is a functional configuration diagram according to the first invention.

【図11】第1の発明に係わる文書データ格納部内の形
式とその一例を示す図
FIG. 11 is a diagram showing a format in a document data storage unit and an example thereof according to the first invention;

【図12】第1の発明に係わる制御部の処理の流れを示
す図
FIG. 12 is a diagram showing a processing flow of a control unit according to the first invention.

【図13】第1の発明に係わる検索部の処理の流れを示
す図
FIG. 13 is a diagram showing a processing flow of a search unit according to the first invention;

【図14】第1の発明に係わる位置文書情報格納部内の
形式とその一例を示す図
FIG. 14 is a diagram showing a format in a position document information storage unit according to the first invention and an example thereof;

【図15】第1の発明に係わる“場所登録”キーが押下
された場合の制御部の処理の流れを示す図
FIG. 15 is a diagram showing a processing flow of the control unit when the “place registration” key according to the first invention is pressed.

【図16】第1の発明に係わる場所名格納部内の形式と
その一例を示す図
FIG. 16 is a diagram showing a format in a place name storage unit according to the first invention and an example thereof;

【図17】第1の発明に係わる制御部の処理の流れを示
す図
FIG. 17 is a diagram showing a processing flow of a control unit according to the first invention;

【図18】第1の発明に係わる検索結果表示部の処理の
流れを示す図
FIG. 18 is a diagram showing a processing flow of a search result display unit according to the first invention.

【図19】第1の発明に係わる検索結果表示部用ウィン
ドウにおける表示の一例を示す図
FIG. 19 is a view showing an example of display in a search result display window according to the first invention;

【図20】第1の発明に係わる検索部の処理の流れを示
す図
FIG. 20 is a diagram showing a processing flow of a search unit according to the first invention;

【図21】第1の発明に係わる検索結果表示部用ウィン
ドウの表示の一例を示す図
FIG. 21 is a view showing an example of a search result display window display according to the first invention;

【図22】第1の発明に係わる“場所登録”キーが押下
された場合の位置測定部の処理の流れを示す図
FIG. 22 is a diagram showing a processing flow of the position measurement unit when the “place registration” key according to the first invention is pressed.

【図23】第1の発明に係わる位置文書情報格納部の検
索処理の流れを示す図
FIG. 23 is a diagram showing a flow of a search process of a position document information storage unit according to the first invention.

【図24】第1の発明に係わる新規文書入力の場合の検
索部の処理の流れを示す図
FIG. 24 is a diagram showing a processing flow of a search unit in the case of inputting a new document according to the first invention.

【図25】第1の発明に係わる場所名登録促進の場合の
制御部の処理の流れを示す図
FIG. 25 is a diagram showing a processing flow of a control unit in the case of promoting place name registration according to the first invention.

【図26】第1の発明に係わる場所名登録促進の場合の
検索結果表示部の処理の流れを示す図
FIG. 26 is a diagram showing a processing flow of a search result display unit in the case of promoting place name registration according to the first invention.

【図27】第1の発明に係わる場所名登録促進の場合の
検索部の処理の流れを示す図
FIG. 27 is a diagram showing a processing flow of a search unit in the case of promoting place name registration according to the first invention.

【図28】第1の発明に係わる実施例2における機能構
成を示す図
FIG. 28 is a diagram showing a functional configuration in a second embodiment according to the first invention;

【図29】第1の発明に係わる実施例2における検索部
の処理の流れを示す図
FIG. 29 is a diagram showing a processing flow of a search unit in the second embodiment according to the first invention.

【図30】第1の発明に係わる実施例2における新規文
書入力の場合の検索部の処理の流れを示す図
FIG. 30 is a diagram showing a processing flow of a search unit in the case of inputting a new document in the second embodiment according to the first invention.

【図31】第1の発明に係わる場所名登録促進の場合の
表示の一例を示す図
FIG. 31 is a diagram showing an example of display in the case of promoting place name registration according to the first invention;

【図32】第1の発明に係わる場所名登録促進の操作後
の表示の一例を示す図
FIG. 32 is a diagram showing an example of a display after an operation of promoting place name registration according to the first invention;

【図33】第1の発明に係わる実施例3における第一の
装置の機能構成を示す図
FIG. 33 is a diagram showing a functional configuration of a first device in a third embodiment according to the first invention.

【図34】第1の発明に係わる実施例3における第二の
装置の機能構成を示す図
FIG. 34 is a diagram showing a functional configuration of a second device in the third embodiment according to the first invention.

【図35】第1の発明に係わる実施例3における第一の
装置の検索部の処理の流れを示す図
FIG. 35 is a diagram showing a processing flow of a search unit of the first device in the third embodiment according to the first invention.

【図36】第1の発明に係わる実施例3における第一の
装置の通信部が送信するデータの形式とその例を示す図
FIG. 36 is a diagram showing a format and an example of data transmitted by a communication unit of the first device in the third embodiment according to the first invention.

【図37】第1の発明に係わる実施例3における第一の
装置の操作履歴格納部内の形式とその例を示す図
FIG. 37 is a diagram showing a format in an operation history storage unit of the first device and an example of the format in the third embodiment according to the first invention;

【図38】第1の発明に係わる実施例3における新規文
書入力の場合の第一の装置の検索部の処理の流れを示す
FIG. 38 is a diagram showing the flow of processing of the search unit of the first device in the case of inputting a new document in the third embodiment according to the first invention.

【図39】第1の発明に係わる実施例3における第二の
装置の位置操作情報格納部内の形式とその例を示す図
FIG. 39 is a diagram showing a format in a position operation information storage unit of the second device and an example thereof in the third embodiment according to the first invention;

【図40】第1の発明に係わる実施例3における第二の
装置の検索部の処理の流れを示す図
FIG. 40 is a diagram showing a processing flow of a search unit of the second device in the third embodiment according to the first invention.

【図41】第1の発明に係わる実施例3における第二の
装置の場所名格納部内の形式とその例を示す図
FIG. 41 is a diagram showing a format in a place name storage unit of the second device and an example thereof in the third embodiment according to the first invention;

【図42】第1の発明に係わる実施例3における第二の
装置の検索結果表示部の表示の一例を示す図
FIG. 42 is a diagram showing an example of a display on a search result display unit of the second device in the third embodiment according to the first invention.

【図43】第1の発明に係わる実施例4における第一の
装置の機能構成図
FIG. 43 is a functional configuration diagram of a first device in a fourth embodiment according to the first invention.

【図44】第1の発明に係わる実施例4における第二の
装置の機能構成図
FIG. 44 is a functional configuration diagram of the second device in the fourth embodiment according to the first invention.

【図45】第1の発明に係わる実施例4における第一の
装置の検索部の処理の流れを示す図
FIG. 45 is a diagram showing a processing flow of a search unit of the first device in the fourth embodiment according to the first invention.

【図46】第1の発明に係わる実施例4における第一の
装置の操作履歴格納部内の形式とその例を示す図
FIG. 46 is a diagram showing a format in the operation history storage unit of the first device and an example thereof in the fourth embodiment according to the first invention.

【図47】第1の発明に係わる実施例4における新規文
書入力の場合の第一の装置の検索部の処理の流れを示す
FIG. 47 is a diagram showing a processing flow of a search unit of the first device in the case of inputting a new document in the fourth embodiment according to the first invention.

【図48】第1の発明に係わる実施例5における第二の
装置の機能構成図
FIG. 48 is a functional configuration diagram of the second device in the fifth embodiment according to the first invention.

【図49】第1の発明に係わる実施例6における検索部
の処理の流れを示す図
FIG. 49 is a diagram showing a processing flow of a search unit in Embodiment 6 according to the first invention.

【図50】第1の発明に係わる実施例6における検索部
の処理の流れ(その2)を示す図
FIG. 50 is a view showing a processing flow (No. 2) of the search unit in the sixth embodiment according to the first invention.

【図51】第1の発明に係わる実施例7における検索結
果表示部の表示処理の流れを示す図
FIG. 51 is a diagram showing a flow of a display process of a search result display unit in the seventh embodiment according to the first invention.

【図52】第1の発明に係わる実施例7における検索結
果表示部用ウィンドウの表示の一例を示す図
FIG. 52 is a view showing an example of display of a search result display section window in the seventh embodiment according to the first invention.

【図53】第1の発明に係わる実施例7における検索結
果表示部用ウィンドウの表示の一例(その2)を示す図
FIG. 53 is a view showing an example (part 2) of displaying a window for a search result display unit in embodiment 7 according to the first invention;

【図54】第1の発明に係わる実施例7における検索結
果表示部用ウィンドウの表示の一例(その3)を示す図
FIG. 54 is a view showing an example (part 3) of display of a window for a search result display section in embodiment 7 according to the first invention.

【図55】第1の発明に係わる実施例7における地図デ
ータベース内のデータの形式と一例を示す図
FIG. 55 is a diagram showing a format and an example of data in a map database in a seventh embodiment according to the first invention.

【図56】第1の発明に係わる実施例8における機能構
成図
FIG. 56 is a functional configuration diagram in an eighth embodiment according to the first invention.

【図57】第1の発明に係わる実施例8における文書の
一例を示す図
FIG. 57 is a diagram showing an example of a document in an eighth embodiment according to the first invention.

【図58】第1の発明に係わる実施例8における文書デ
ータ格納部の形式とその例を示す図
FIG. 58 is a diagram showing a format and an example of a document data storage unit in an eighth embodiment according to the first invention.

【図59】第1の発明に係わる実施例8における位置デ
ータベースの形式とその一例を示す図
FIG. 59 is a diagram showing a format of a location database and an example thereof in an eighth embodiment according to the first invention.

【図60】第1の発明に係わる実施例8における文書の
一例(その2)を示す図
FIG. 60 is a view showing an example (part 2) of a document in the eighth embodiment according to the first invention.

【図61】第1の発明に係わる実施例8における文書デ
ータ格納部の形式とその例(その2)を示す図
FIG. 61 is a diagram showing a format of a document data storage unit and an example thereof (part 2) in an eighth embodiment according to the first invention;

【図62】第1の発明に係わる実施例8における位置デ
ータベースの形式とその一例(その2)を示す図
FIG. 62 is a diagram showing a format of a position database and an example thereof (part 2) in the eighth embodiment according to the first invention;

【図63】第1の発明に係わる実施例8における表示の
一例を示す図
FIG. 63 is a view showing an example of display in the eighth embodiment according to the first invention.

【図64】第1の発明に係わる実施例8における表示の
一例(その2)を示す図
FIG. 64 is a view showing an example (part 2) of a display in the embodiment 8 according to the first invention.

【図65】第2の発明に係わる基本図FIG. 65 is a basic diagram according to the second invention;

【図66】第2の発明に係わるスケジュール表の一例を
示す図
FIG. 66 is a diagram showing an example of a schedule table according to the second invention;

【図67】第2の発明に係わるスケジュール表の一例を
示す図
FIG. 67 is a diagram showing an example of a schedule table according to the second invention;

【図68】第2の発明に係わるスケジュール表の一例を
示す図
FIG. 68 is a diagram showing an example of a schedule table according to the second invention;

【図69】第3の発明に係わる基本図FIG. 69 is a basic diagram according to the third invention;

【図70】第3の発明に係わる文書例を示す図FIG. 70 is a view showing a document example according to the third invention;

【図71】第3の発明に係わるレイアウトの例を示す図FIG. 71 is a view showing an example of a layout according to the third invention;

【図72】第3の発明に係わる段組テンプレートと制約
条件を示す図
FIG. 72 is a diagram showing a column template and constraints according to the third invention;

【図73】第3の発明に係わる図表配置タイプを示す図FIG. 73 is a diagram showing a chart arrangement type according to the third invention;

【図74】第3の発明に係わるレイアウト情報記憶部の
記憶例を示す図
FIG. 74 is a diagram showing a storage example of a layout information storage unit according to the third invention;

【図75】第3の発明に係わる段組の一覧を示す図FIG. 75 is a diagram showing a list of columns according to the third invention;

【図76】第3の発明に係わる図表の種類を示す図FIG. 76 is a diagram showing types of charts according to the third invention.

【図77】第3の発明に係わる検索結果を示す図FIG. 77 is a view showing a search result according to the third invention;

【図78】第3の発明に係わる検索結果をしめす図FIG. 78 is a view showing a search result according to the third invention.

【図79】第4の発明に係わる環境情報抽出部を示す図FIG. 79 is a diagram showing an environment information extraction unit according to the fourth invention.

【図80】第4の発明に係わる処理の流れを示す図FIG. 80 is a view showing a processing flow according to the fourth invention;

【図81】第4の発明に係わるシーン変化判定部を示す
FIG. 81 is a diagram showing a scene change determination unit according to the fourth invention;

【図82】第4の発明に係わる処理の流れを示す図FIG. 82 is a view showing a processing flow according to the fourth invention;

【図83】第4の発明に係わるシーン変化検出例を示す
FIG. 83 is a view showing an example of scene change detection according to the fourth invention;

【図84】第4の発明に係わるシーン変化検出例を示す
FIG. 84 is a view showing an example of scene change detection according to the fourth invention;

【図85】第4の発明に係わるシーン変化検出例を示す
FIG. 85 is a view showing an example of scene change detection according to the fourth invention;

【図86】第4の発明に係わるシーン変化検出例を示す
FIG. 86 is a view showing an example of scene change detection according to the fourth invention;

【図87】第4の発明に係わる他の実施例を示す図FIG. 87 shows another embodiment according to the fourth invention.

【図88】第4の発明に係わるシーン変化検出例を示す
FIG. 88 is a view showing an example of scene change detection according to the fourth invention;

【図89】第4の発明に係わるシーン変化検出例を示す
FIG. 89 is a view showing an example of scene change detection according to the fourth invention;

【図90】第4の発明に係わるシーン変化検出例を示す
FIG. 90 is a view showing an example of scene change detection according to the fourth invention;

【図91】第4の発明に係わるシーン変化検出例を示す
FIG. 91 is a view showing an example of scene change detection according to the fourth invention;

【図92】第4の発明に係わるシーン変化検出例を示す
FIG. 92 is a view showing an example of scene change detection according to the fourth invention;

【図93】第4の発明に係わるシーン変化検出例を示す
FIG. 93 is a view showing an example of scene change detection according to the fourth invention;

【図94】第4の発明に係わるシーン変化検出例を示す
FIG. 94 is a view showing an example of scene change detection according to the fourth invention;

【図95】第5および第6の発明に係わる基本図FIG. 95 is a basic view according to the fifth and sixth inventions;

【図96】検索キー解析部を示す図FIG. 96 shows a search key analysis unit.

【図97】検索キー解析処理を示す図FIG. 97 is a view showing search key analysis processing.

【図98】検索語辞書を示す図FIG. 98 is a view showing a search word dictionary.

【図99】検索語抽出用規則辞を示す図FIG. 99 is a diagram showing search term extraction rule words.

【図100】アクセス情報の一例を示す図FIG. 100 shows an example of access information.

【図101】図95におけるアクセス情報検出部の処理
の流れを示す図
FIG. 101 is a view showing a processing flow of an access information detecting unit in FIG. 95;

【図102】図95におけるアクセス情報検出部の処理
の流れを示す図
102 is a diagram showing the flow of the process of the access information detection unit in FIG. 95.

【図103】図95におけるアクセス情報検出部の処理
の流れを示す図
FIG. 103 is a view showing a processing flow of an access information detecting unit in FIG. 95;

【図104】図95におけるアクセス情報検出部の処理
の流れを示す図
104 is a diagram showing the flow of the process of the access information detection unit in FIG. 95.

【図105】図95におけるアクセス情報検出部の処理
の流れを示す図
FIG. 105 is a diagram showing the flow of the process of the access information detection unit in FIG. 95

【図106】図95における検索部の処理の流れを示す
106 is a diagram showing the flow of the processing of the search unit in FIG. 95.

【図107】図95における検索部の処理の流れを示す
FIG. 107 is a view showing a processing flow of a search unit in FIG. 95;

【図108】図95における検索部の処理の流れを示す
108 is a view showing a processing flow of a search unit in FIG. 95.

【図109】図95における検索部の処理の流れを示す
109 is a diagram showing the flow of the processing of the search unit in FIG. 95.

【図110】図95における検索部の処理の流れを示す
110 is a view showing a processing flow of a search unit in FIG. 95.

【図111】アクセス情報要素の表示例を示す図FIG. 111 is a diagram showing a display example of an access information element.

【図112】アクセス情報表示例を示す図FIG. 112 is a diagram showing an example of access information display.

【図113】アクセス情報表示例を示す図FIG. 113 is a diagram showing a display example of access information.

【図114】スケジュールデータタと組み合わせたアク
セス情報表示例を示す図
FIG. 114 is a diagram showing an example of access information display combined with schedule data;

【図115】図95における検索部の処理の流れを示す
FIG. 115 is a diagram showing the flow of the processing of the search unit in FIG. 95.

【図116】アクセス情報の一例を示す図FIG. 116 shows an example of access information.

【図117】文書表示の一例を示す図FIG. 117 is a diagram showing an example of a document display

【図118】環境情報抽出部の例を示す図FIG. 118 is a diagram showing an example of an environment information extraction unit.

【図119】環境情報リストの表示例を示す図FIG. 119 is a diagram showing a display example of an environment information list.

【図120】第7の発明に係る基本構成図FIG. 120 is a basic configuration diagram according to a seventh invention.

【図121】データおよび計算機ID記憶部に記憶され
る情報の形式とその例を示す図
FIG. 121 is a diagram showing a format of data and information stored in a computer ID storage unit and an example thereof.

【図122】検索対象データ記憶部に格納されるデータ
名と文書名との対応表の一例を示す図
FIG. 122 is a diagram illustrating an example of a correspondence table between data names and document names stored in a search target data storage unit;

【図123】計算機ID設定部での処理の流れを示す図FIG. 123 is a diagram showing a processing flow in a computer ID setting unit.

【図124】検索処理の流れを示す図FIG. 124 is a diagram showing a flow of a search process.

【図125】同処理により表示される画面例を示す図FIG. 125 shows an example of a screen displayed by the same processing.

【図126】同処理により表示される画面例を示す図FIG. 126 is a view showing an example of a screen displayed by the same processing.

【図127】計算機とその配置に関する情報例を示す図FIG. 127 is a diagram showing an example of information regarding computers and their arrangement.

【図128】検索部の処理の流れを示す図FIG. 128 is a diagram showing a flow of processing of a search unit.

【図129】同処理により表示される画面例を示す図FIG. 129 is a view showing an example of a screen displayed by the same processing.

【図130】同処理により表示される画面例を示す図FIG. 130 shows an example of a screen displayed by the same processing.

【図131】図1に示す装置における記憶情報の形式と
例を示す図
FIG. 131 is a diagram showing a format and an example of storage information in the device shown in FIG. 1

【図132】図1に示す装置の環境情報出力部の処理の
流れを示す図
FIG. 132 is a view showing a processing flow of an environment information output unit of the apparatus shown in FIG. 1;

【図133】同処理解きおける表示の一例を示す図FIG. 133 is a diagram showing an example of a display in which the processing is solved.

【図134】明るさを環境解析対象データとしたときの
表示例を示す図
FIG. 134 is a view showing a display example when brightness is set as environmental analysis target data.

【図135】音声の大きさを環境解析対象データとした
ときの表示例を示す図
FIG. 135 is a diagram showing a display example when the loudness of a sound is set as data to be analyzed for the environment.

【図136】音声の種類を環境解析対象データとしたと
きの表示例を示す図
Fig. 136 is a diagram showing a display example when the type of audio is set as the data to be analyzed for the environment.

【図137】図65に示す装置の検索応用例を示す図FIG. 137 is a diagram showing a search application example of the device shown in FIG. 65;

【符号の説明】[Explanation of symbols]

1…検索対象データ入力部 2…検索対象デー
タ記憶部 3…検索対象データ出力部 4…環境解析対象
データ入力部 5…環境情報解析部 6…環境情報記憶
部 7…環境情報出力部 8…検索キー入力
部 9…検索部
DESCRIPTION OF SYMBOLS 1 ... Search target data input part 2 ... Search target data storage part 3 ... Search target data output part 4 ... Environment analysis target data input part 5 ... Environment information analysis part 6 ... Environment information storage part 7 ... Environment information output part 8 ... Search Key input section 9 ... Search section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 川倉 康嗣 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 福井 美佳 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 田中 久子 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 竹林 洋一 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 溝口 博 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 伊藤 聡 神奈川県川崎市幸区柳町70番地 株式会社 東芝柳町工場内 (72)発明者 瀬戸 重宣 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 松村 善邦 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5B050 BA10 BA16 EA18 GA08 5B075 ND16 ND23 PP01 PP13 PP28 PQ02 PR03 QM08 UU40  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yasushi Kawakura 1 Kosuka Toshiba-cho, Saiwai-ku, Kawasaki-shi, Kanagawa Prefecture Inside the Toshiba R & D Center (72) Inventor Mika Fukui Toshiba Komukai-shi, Kawasaki-shi, Kanagawa No. 1 in the Toshiba R & D Center, Inc. (72) Inventor Hisako Tanaka No. 1, Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Incorporated In Toshiba R & D Center, Inc. 1 Toshiba R & D Center, Komukai Toshiba-ku, Ward (72) Inventor Hiroshi Mizoguchi 1 Toshiba R & D Center, Komukai Toshiba-cho, Kawasaki-shi, Kanagawa Pref. (72) Inventor Satoshi Ito Kanagawa No. 70 Yanagicho, Sachi-ku, Kawasaki-shi, Japan Inside the Toshiba Yanagicho factory (72) Inventor Shigenori Seto 1 Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Inside the Toshiba R & D Center (72) Inventor Yoshikuni Matsumura 1 Kodamu Toshiba-cho, Koyuki-ku, Kawasaki-shi, Kanagawa F-term in the Toshiba R & D Center 5B050 BA10 BA16 EA18 GA08 5B075 ND16 ND23 PP01 PP13 PP28 PQ02 PR03 QM08 UU40

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】入力・編集・検索などの操作の対象として
の文書、音声、画像等のデータを操作対象データとして
記憶する第1の記憶手段と、 前記操作対象データに対し操作を行う自装置や自装置周
辺を撮影した時系列な画像データを取得する取得手段
と、 この取得手段で取得した画像データのうち、前記操作対
象データに対する操作の際の環境を特定可能にするため
の特徴あるシーンの画像データを環境情報として抽出す
る抽出手段と、 前記操作対象データに、該操作対象データに対する操作
の時刻に対応する前記環境情報として抽出された画像デ
ータを対応付けて記憶する第2の記憶手段と、 検索時に、前記環境情報を選択するための選択手段と、 前記第1の記憶手段で記憶された操作対象データの中か
ら、前記選択手段で選択された環境情報に対応付けられ
た操作対象データを検索する検索手段と、 この検索手段で検索された操作対象データを出力する出
力手段と、 を具備したことを特徴とする検索装置。
1. A first storage means for storing data such as a document, a sound, an image, etc. as an operation target such as an input, an edit, and a search as operation target data, and a self apparatus for performing an operation on the operation target data Means for acquiring time-series image data obtained by photographing the periphery of the apparatus and its own device; and a characteristic scene for enabling an environment at the time of operation on the operation target data to be specified among the image data acquired by the acquisition means. Extracting means for extracting the image data of the operation target as environment information, and second storage means for storing the operation target data in association with the image data extracted as the environment information corresponding to the time of the operation on the operation target data Selecting means for selecting the environment information at the time of searching; and selecting from the operation target data stored in the first storage means by the selecting means Search means for searching an operation object data associated with the boundary information, the search apparatus characterized by comprising output means for outputting the operation target data retrieved by the search means.
【請求項2】前記抽出手段は、前記取得した時系列な画
像データのうち、シーン変化のあった画像データを前記
環境情報として抽出することを特徴とする請求項1記載
の検索装置。
2. The retrieval apparatus according to claim 1, wherein said extracting means extracts image data having a scene change from the acquired time-series image data as the environment information.
【請求項3】前記抽出手段は、前記取得した時系列な画
像データのうち、人物の検出された画像データを前記環
境情報として抽出することを特徴とする請求項1記載の
検索装置。
3. The retrieval apparatus according to claim 1, wherein said extracting means extracts, as the environment information, image data in which a person is detected from the acquired time-series image data.
【請求項4】前記抽出手段は、前記取得した時系列な画
像データのうち、予め指定された特定の人物の検出され
た画像データを前記環境情報として抽出することを特徴
とする請求項1記載の検索装置。
4. The apparatus according to claim 1, wherein said extracting means extracts, from the acquired time-series image data, detected image data of a specific person designated in advance as the environment information. Search device.
【請求項5】前記操作対象データに対し操作を行う自装
置の存在する場所の位置情報を前記環境情報として取得
し、前記環境情報として抽出された画像データとともに
前記操作対象データに対応付けて記憶することを特徴と
する請求項1記載の検索装置。
5. Acquiring, as the environment information, position information of a location where the own device that performs an operation on the operation target data exists, and storing the position information together with the image data extracted as the environment information in association with the operation target data. The search device according to claim 1, wherein the search is performed.
【請求項6】前記操作対象データに対し操作を行ってい
るコンピュータデバイスに関する情報を前記環境情報と
して取得し、前記環境情報として抽出された画像データ
とともに前記操作対象データに対応付けて記憶すること
を特徴とする請求項1記載の検索装置。
6. A method according to claim 1, wherein information relating to a computer device performing an operation on said operation target data is obtained as said environment information, and stored together with said image data extracted as said environment information in association with said operation target data. The search device according to claim 1, wherein
【請求項7】前記コンピュータデバイスに関する情報
は、前記コンピュータデバイスの識別情報であることを
特徴とする請求項6記載の検索装置。
7. The retrieval apparatus according to claim 6, wherein the information on the computer device is identification information of the computer device.
【請求項8】前記コンピュータデバイスに関する情報
は、前記コンピュータデバイスの存在位置であることを
特徴とする請求項6記載の検索装置。
8. The search apparatus according to claim 6, wherein the information on the computer device is a location of the computer device.
【請求項9】ユーザにより登録されたスケジュールを記
憶・管理するスケジュール管理手段と、 前記操作対象データに対する操作の際のユーザのスケジ
ュールを前記スケジュール管理手段から抽出して、それ
を前記操作対象データに対応付けて記憶する第3の記憶
手段とをさらに具備し、 前記選択手段は、前記環境情報とともに前記スケジュー
ルを選択し、 前記検索手段は、第1の記憶手段で記憶された操作対象
データの中から、前記選択手段で選択された環境情報と
スケジュールに対応付けられた操作対象データを検索す
ることを特徴とする請求項1記載の検索装置。
9. A schedule management means for storing and managing a schedule registered by a user; and a user's schedule at the time of operation on the operation target data is extracted from the schedule management means, and is extracted as the operation target data. A third storage unit configured to associate and store the schedule with the environment information; and the search unit selects one of the operation target data stored in the first storage unit. 2. The retrieval apparatus according to claim 1, wherein the retrieval unit retrieves the operation target data associated with the environment information and the schedule selected by the selection unit.
【請求項10】前記操作対象データの構造的特徴を示す
情報を抽出する手段と、 抽出された前記構造的特徴を示す情報を前記操作対象デ
ータに対応付けて記憶する第4の記憶手段とをさらに具
備し、 前記選択手段は、前記環境情報とともに前記構造的特徴
を示す情報を選択し、 前記検索手段は、第1の記憶手段で記憶された操作対象
データの中から、前記選択手段で選択された環境情報と
構造的特徴を示す情報に対応付けられた操作対象データ
を検索することを特徴とする請求項1記載の検索装置。
10. A means for extracting information indicating a structural characteristic of the operation target data, and a fourth storage means for storing the extracted information indicating the structural characteristic in association with the operation target data. The apparatus further comprises: the selection unit selects information indicating the structural feature together with the environment information; and the search unit selects from the operation target data stored in the first storage unit by the selection unit. 2. The search device according to claim 1, wherein the search unit searches for the operation target data associated with the environment information and the information indicating the structural feature.
【請求項11】前記構造的特徴を示す情報は、段組数、
文書枠の大きさ及び位置、行数、図、表の数、図表の大
きさ及び位置、図表の種類を示す情報であることを特徴
とする請求項10記載の検索装置。
11. The information indicating the structural feature includes the number of columns,
11. The retrieval apparatus according to claim 10, wherein the information is information indicating the size and position of the document frame, the number of lines, the number of figures and tables, the size and position of figures and tables, and the type of figures and tables.
【請求項12】前記操作対象データに対する操作の際の
操作開始時刻と操作終了時刻とを前記環境情報として、
前記環境情報として抽出された画像データとともに前記
操作対象データに対応付けて記憶することを特徴とする
請求項1記載の検索装置。
12. An operation start time and an operation end time at the time of operation on the operation target data are set as the environment information.
2. The search device according to claim 1, wherein the search device is stored in association with the operation target data together with the image data extracted as the environment information.
【請求項13】前記操作対象データに対する操作の際の
操作開始時刻と操作終了時刻とから、該操作対象データ
の緊急度を求めて、この緊急度を前記環境情報として、
前記環境情報として抽出された画像データとともに前記
操作対象データに対応付けて記憶することを特徴とする
請求項1記載の検索装置。
13. An urgency of the operation target data is obtained from an operation start time and an operation end time at the time of operation on the operation target data, and this urgency is used as the environment information.
2. The search device according to claim 1, wherein the search device is stored in association with the operation target data together with the image data extracted as the environment information.
【請求項14】前記操作対象データに対する操作頻度を
前記環境情報として、前記環境情報として抽出された画
像データとともに前記操作対象データに対応付けて記憶
することを特徴とする請求項1記載の検索装置。
14. The retrieval apparatus according to claim 1, wherein an operation frequency of the operation target data is stored as the environment information in association with the operation target data together with the image data extracted as the environment information. .
JP2001134733A 1993-09-20 2001-05-01 Search device Expired - Fee Related JP3469561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001134733A JP3469561B2 (en) 1993-09-20 2001-05-01 Search device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-255241 1993-09-20
JP25524193 1993-09-20
JP2001134733A JP3469561B2 (en) 1993-09-20 2001-05-01 Search device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP35111393A Division JP3234083B2 (en) 1993-06-03 1993-12-29 Search device

Publications (2)

Publication Number Publication Date
JP2002032397A true JP2002032397A (en) 2002-01-31
JP3469561B2 JP3469561B2 (en) 2003-11-25

Family

ID=26542094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001134733A Expired - Fee Related JP3469561B2 (en) 1993-09-20 2001-05-01 Search device

Country Status (1)

Country Link
JP (1) JP3469561B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145565A (en) * 2002-10-23 2004-05-20 Sharp Corp Information recording device for selecting information based on specific event, information providing device and system, their method, program for realizing their methods, and recording medium
JP2009098882A (en) * 2007-10-16 2009-05-07 Fuji Xerox Co Ltd Information processing system and information processing program
US7660835B2 (en) 2006-03-06 2010-02-09 Fuji Xerox Co., Ltd. Information processing system, information processing method and information processing program
EP2166467A1 (en) 2008-09-22 2010-03-24 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, computer program, and storage medium
JP2015026178A (en) * 2013-07-25 2015-02-05 富士ゼロックス株式会社 Document information searching system, terminal, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145565A (en) * 2002-10-23 2004-05-20 Sharp Corp Information recording device for selecting information based on specific event, information providing device and system, their method, program for realizing their methods, and recording medium
US7660835B2 (en) 2006-03-06 2010-02-09 Fuji Xerox Co., Ltd. Information processing system, information processing method and information processing program
JP2009098882A (en) * 2007-10-16 2009-05-07 Fuji Xerox Co Ltd Information processing system and information processing program
EP2166467A1 (en) 2008-09-22 2010-03-24 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, computer program, and storage medium
US8380685B2 (en) 2008-09-22 2013-02-19 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, computer program, and storage medium
JP2015026178A (en) * 2013-07-25 2015-02-05 富士ゼロックス株式会社 Document information searching system, terminal, and program

Also Published As

Publication number Publication date
JP3469561B2 (en) 2003-11-25

Similar Documents

Publication Publication Date Title
US5787414A (en) Data retrieval system using secondary information of primary data to be retrieved as retrieval key
JP4466564B2 (en) Document creation / viewing device, document creation / viewing robot, and document creation / viewing program
EP0495622A2 (en) Indexing of data sets
US10614829B2 (en) Method and apparatus to determine and use audience affinity and aptitude
US7466334B1 (en) Method and system for recording and indexing audio and video conference calls allowing topic-based notification and navigation of recordings
US5526407A (en) Method and apparatus for managing information
JP4215792B2 (en) CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM
US7043433B2 (en) Method and apparatus to determine and use audience affinity and aptitude
US7299405B1 (en) Method and system for information management to facilitate the exchange of ideas during a collaborative effort
US6687671B2 (en) Method and apparatus for automatic collection and summarization of meeting information
JP3895892B2 (en) Multimedia information collection management device and storage medium storing program
KR20120038000A (en) Method and system for determining the topic of a conversation and obtaining and presenting related content
JP3234083B2 (en) Search device
JP3437617B2 (en) Time-series data recording / reproducing device
JP2008032825A (en) Speaker display system, speaker display method and speaker display program
JP3469561B2 (en) Search device
KR101783872B1 (en) Video Search System and Method thereof
JP5573402B2 (en) CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, CONFERENCE SUPPORT PROGRAM, AND RECORDING MEDIUM
JPH08235198A (en) Multimedia information management system
JP2002288178A (en) Multimedia information collection and management device and program
JP2019213160A (en) Video editing apparatus, video editing method, and video editing program
GB2349764A (en) 2-D Moving image database
JP3815371B2 (en) Video-related information generation method and apparatus, video-related information generation program, and storage medium storing video-related information generation program
WO2020016646A1 (en) Method of automating and creating challenges, calls to action, interviews, and questions
JP2005017949A (en) Document creation support system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070905

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees