JP2695784B2 - How to search and display sentences - Google Patents

How to search and display sentences

Info

Publication number
JP2695784B2
JP2695784B2 JP62128139A JP12813987A JP2695784B2 JP 2695784 B2 JP2695784 B2 JP 2695784B2 JP 62128139 A JP62128139 A JP 62128139A JP 12813987 A JP12813987 A JP 12813987A JP 2695784 B2 JP2695784 B2 JP 2695784B2
Authority
JP
Japan
Prior art keywords
data
sentence
extracted
word
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62128139A
Other languages
Japanese (ja)
Other versions
JPS63293674A (en
Inventor
誠治 柏岡
純一 東野
繁 薮内
康明 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP62128139A priority Critical patent/JP2695784B2/en
Publication of JPS63293674A publication Critical patent/JPS63293674A/en
Application granted granted Critical
Publication of JP2695784B2 publication Critical patent/JP2695784B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は電子化された文献情報読取り端末に係り、特
に図表をもとにそれに関連した説明文を本文の中から検
索し、並置表示するシステムに関する。〔従来の技術〕 CRTデイスプレイなど情報を表示する装置と表示され
た項目の中から1つを選択するためのカーソル,マウ
ス,キイーボード,タブレツトのような装置とを用い
て、操作者の関心に応じて表示された項目の1つを選択
するとその項目についてさらに詳しい説明を引き出した
りするシステムが既にキヤプテンシステムなどで実用化
されている。しかし、これらのシステムにおいては、予
め選択項目に対応して表示すべき情報はプラグラムされ
ており従つて、操作者は予めシステム側が準備した情報
を、画面の中で選択が許された項目についてのみ順次た
どることによつて見ることができる。このためには、シ
ステムの提供者が、全ての選択のトリーに対応して表示
すべき情報を準備し、選択に対応する情報の所在とを関
係づけるデータを作成してシステムに登録しておくこと
が必要となる。 一方、電子化されたデータベースに蓄積された、文献
情報について、キイーワードによる文献の検索は行なわ
れているが、1編の文献の中で、相互に関連する部分を
検索表示することは、まだ行なわれていない。 〔発明が解決しようとする問題点〕 上記従来技術においては画面に表示された対象の中か
ら選択に応じて、その関連部分を表示するにはあらかじ
め上記の関係づけるデータの作成と登録が必要であり、
文献の量が多いときに、このような準備を行なつておく
ことは、莫大な作業となつてしまう。 本発明の目的は、従来莫大な作業を必要とするために
実現されていなかつた文献内の関連部分の検索と表示の
機能を実現する方法を提供することにある。とくに図表
中の項目の表示位置の指示に基づいて、本文文章中から
関連記述部分を表示する方法を提供することにある。 〔問題点を解決するための手段〕 上記目的を達成するために、本発明は次の要素ステツ
プをもつて構成している。 (1)操作者に表示画面中の位置指示を行なわせ、指示
された対象の指示語を特定するステツプ。ここで指示語
とは図表の番号,図表のブロツク単位要素などの番号,
名称を意味する。 (2)上記指示語を本文文章中から検索するステツプ。 (3)見出した箇所から前後の適切な部分を切出し,整
形し,表示するステツプ。 〔作用〕 第5図に本発明を実施したときの端末の表示CRT6の画
面を例示している。最初図面が51の枠内に表示されてい
る。ここで操作者が、画面中の位置を指示することによ
つて、例えばある図中の要素の指示語52を指示し、シス
テムは、その位置と表示の元になつたデータから指示語
を認識し、特定する。これが第1のステツプである。 次に特定された指示語と一致する語を本文文章中から
探索する。これが第2ステツプである。一致した箇所か
ら、その前後の適当かつ画面に表示できる範囲の文章を
切出して同じCRT6の画面の中に配置し図の53の枠のよう
に表示する。これが第3ステツプである。その内にはも
ちろん指示語の表示54を含む。これを強調表示すること
もできる。 以上述べたステツプにはそれぞれ課題があるので以下
にその実施例を挙げて説明する。 〔実施例〕 以下、本発明の一実施例を第2図のフローチヤートに
より説明する。図中の順に従つて説明する。 101のステツプは図表あるいは図表を含む文書のある
頁あるいはそらにその頁の部分を表示するものである。
これは操作者の指示に基づいて表示する。 102のステツプは、操作者が表示内容を見て、ある図
表の全体あるいは、その中に要素の説明を求るため概当
部分を指示する、あるいは別の言い方ではポインテイン
グするのを検知するものである。このためには種々のツ
ールを用いることができる。たとえば、カーソルの移動
と所定のキイーの押下げ、マウスの移動とボタンの押下
げ、表示に重畳した透明のタブレツトあるいは別置きの
タブレツトを用いての直接指示がある。 103のステツプは、102のステツプを指示された画面中
の位置の入力値をもとに、操作者が指示しようとした対
象を特定し、さらにその対象の指示語を求めるものであ
る。これは例えば図表全体の番号であることもあり、ま
た特許の図面における要素に対してつけられた引用のた
めの番号であることもあり、さらにその場所に書かれた
名称であることもある。 104のステツプでは、103で求めた指示語を、本文文章
を走査してマツチングを行ない、一致する場所を探索す
る。 105のステツプでは、104のステツプで求めた本文中の
場所から、その前後を含む文を抜出し、配置整形し、表
示に出す。 この後は、再び102のステツプに移り、次の操作を待
つ。 以上に説明した第2図の方法は、事前に準備処理が不
要であり、データベースから取出した文書について直ち
に適用することができる。また別途の記憶領域も必要と
しない。しかし、104の探索のステツプは一般にかなり
の処理時間を必要とし、操作者への応答を遅くすること
になりやすい。 この応答時間を短縮するための別の実施例を示したフ
ローチヤートが第3図である。 110のステツプは、ある文書を選択したときまず最初
に準備段階として処理しておくステツプで、文章あるい
は図表を走査して、指示語として選ばれる可能性のある
全ての部分を求め、その位置とい合わせて、指示語位置
関係表に記録していく。必要に応じて、指示語のソーテ
イングを行なつておく。 101〜103および105のステツプは第2図の処理と同じ
であり説明は省略する。 114のステツプは第2図の104に書き代るものであり、
110で作成しておいた指示語−位置関係表を用いて、操
作者が指定した指示語に対応する本文中の位置を表から
引出すことによつて得ることができる。従つて処理時間
はごく短かい。 この第3図に示した実施例は第2図に比べ応答時間の
短かいのが特徴である。 ここでさらに103のステツプの具体的実施方法につい
て述べる。マウスやタブレツトなどの指示器からの入力
情報を表示のための画素を単位とする座標系に変換する
ことは簡単な演算により容易に行なえる。表示の方法に
応じて2通りの割出し方法に分かれる。すなわち表示画
像が、文字・線などのコードデータから発生されている
第1の場合と、元々画像として入力したデータをもとに
それを再現する第2の場合とである。 第1の場合は、CAD(計算機支援設計システム)など
でポインテイングした要素を割出すために行なわれてい
る方法が採用できる。第1図の中にその一例を示す。 第1図は本発明の一実施例のシステム構成を示すもの
である。文献データベース1から読出されたある文献の
図表のコードデータ2と文章のコードデータ3があり、
いま少なくともある1つの図表のコードデータが描画処
理部4に送られ、コードデータに基づいて、フレームメ
モリ5に書込まれる。フレームメモリ5の内容はただち
にCRT6に表示されている。6の表示面に重ねて透明のタ
ブレツト7がセツトしてある。操作者がタツチにより表
示されている図表のある要素を指示すると、タブレツト
入力回路8により、その画面座標81が求まり、さらに制
御部9にタツチ動作が報らされる。 ここで制御部9は指示された図表中の要素を捜すた
め、再度図表の描画処理を行なわせ、フレームメモリへ
の書込みアドレスあるいは画面座標41を発生させる。近
接サーチ部10はこの書込み画面座標41が指示画面座標81
の一定の距離以内に入ることを検出する。そのことが検
出されると、制御部9に知らされ、描画処理部で描画中
であつた要素とし、指示された要素が求まる。 この外にランダム走査形のCRTを用い、フレームメモ
リ5がなく、繰返り描画処理が行なわれるシステムの場
合には、ライトペンで描画ビームを検知した瞬間の描画
中の要素として、指示した要素を求める方法がある。 また、全要素を描画するのではなく、指示画面座標81
から、対象要素を限定して近接サーチを行なうようにし
てサーチ時間を短縮する方法などを提唱されている。 以上のようにして求まつた要素が文字列であるときに
はそれが、図形要素であるときは、それに対応して記憶
されている名称として指示語が求まる。 さて第2の場合として、図表がもともと画像データで
あり、それが表示されているときに、操作者が指示した
対象の指示語を得る方法は次のようなものである。 第4図の中にその1例を示す。第4図は本発明の一実
施例のシステム構成を示すものである。文献データベー
ス1′から読出されたある文献の図表の画像データ2′
と文章の画像データ3′があり、いま少なくともある1
つの図表が書込み部4′を経てフレームメモリ5に書込
まれ、ただちにCRT6に表示されている。透明タブレツト
が図表のある対象を指示すると、座標入力部8によつ
て、画像座標が制御部20に送り込まれる。 制御部20は以下の一連の処理を起動する。まず画像座
標で指示される点の近傍領域を抜出し部21によつて抜出
し、その中から文字と考えられるセグメントを抽出す
る。また指定された点に最も近いセグメントだけでな
く、それにさらに一定の距離以内に近接しているセグメ
ントを順次抽出し、これらを次の文字認識部22に送る。
文字認識ではこれらのセグメントの各々を文字候補とし
て認識を行ない、引用番号・記号や単語として指示を求
める。 以上、103のステツプの具体的実施方法についてシス
テムの構成例とともに示した。 次に104のステツプ、すなわち文章中から、103ステツ
プで求めた指示語を探索するための具体的方法について
述べる。このときにも、文章がコードデータとして記憶
されている第1の場合と、画像としてのみ記憶されてい
る第2の場合とがある。 第1の場合には、指示語と同じ文字列を文章のコード
ストリング中から探索すればよく、この部分はストリン
グサーチとしてよく行なわれている処理である。第1図
の一致サーチ部11がこれを行なうものである。コードで
記憶されている文章データ3を走査して、制御部9から
指定された指示語のコード列と一致する部分を探索す
る。 第2の場合には、画像処理が必要となる。第4図の一
部がその実施の一例である。まず文字発生部23で、文章
データ3′に使われている文字のフオントと大きさに合
わせて、指示語の文字に対応する画像パターンを生成す
る。このパターンは、パターンサーチ部24に渡される。
パターンサーチ部は、文章データ3′の画像を走査し
て、順次局部パターンを抜き出し、これと指定された画
像パターンとを比較してほぼ一致する局部を探索する。
文字読取り装置との相異は、文字読取り装置では画像中
の各文字候補を数千の文字カテゴリーの中から認識して
いく必要があるのに対して、この装置では指定したパタ
ーンと一致する局部パターンを探索するだけでよいとい
うことである。そのため処理量はずつと軽減されてい
る。 この探索の処理量をさらに減少させるためには、指定
語が複数の文字からなるときに、1文字ずつに分離し、
まずその中の1文字だけを探索し、一致が検出される
と、次の文字が隣接する局部にないかどうかを調べるよ
うにするとよい。こうすることによつて指示部が行の末
尾と次の行の先頭とに分離して存在する場合にも対応で
きる。また枠なし文字読取り装置で行なわれているよう
に、まず行位置の抽出と、文字ピツチの抽出を行ない、
1文字毎の切出しを行なつた後、照合する方法が採用で
きる。また一方高速に照合する専用の回路を用いるなら
最初から全面を探索する方法も可能となる。 さらに探索時間短縮のために、対象文書に固有の知識
を用いる方法がある。例えば、特許公報の場合、図中の
要素は数字の指示語がつけられているので、操作者が指
示するものも数字となると考えられる。一方文章中では
この数字による指示語はほぼ数値の小さい方から順に出
現する。数度出現する場合も始めて出現する箇所は順序
通りであり、その所に、その要素が何か説明されている
と考えられる。従つて、何度かこの探索を行なう間に指
示語の番号と、その文章中での位置との対応表が作成で
きる。新らたにある番号の指示語を探索する際には、こ
の対応表を参考して、どの部分を探索すれば検出できる
かが推定でき、全文を探索するより短時間に検出できる
ことが期待できる。特許公報の例に限らず、一般に図・
表の番号については同じことが言える。 103のステツプのための2つの場合と、104のステツプ
のための2つの場合との選択は、供給されるデータの形
式によつて定まる。第1図の実施例は両者ともコードの
形式である場合、第4図の実施例は両者とも画像の形で
ある場合にそれぞれ対応するが、その他に図表は画像,
文章はコードで記憶されている場合があり、この場合に
は組合せで構成することができる。 第3図に示した予め指示語位置関係表を作成する110
のステツプでは、特許文献のときには図表番号及び、番
号による指示語について作成しておけばよい。また一般
文書についても、図表番号のみでも作成しておけば、操
作者が指示した要素を含む図表の番号から、その要素の
文章中での推測される出現位置の範囲を絞ることができ
る。 105のステツプの文章の表示については次のように実
施すればよい。指示語の出現位置が求まると、その前後
数行を切出し、表示に出す。あるいはその位置を含むパ
ラグラフを検出して出すことも考えられるが、長くなる
こともあるので、そのときには前後数行に限るとしても
よい。いずれにしても表示範囲をスクロールの指示によ
つてずらすことができるようにしておけばよい。 また、表示の配置については、操作者の指示した図表
の全体あるいは指示した近傍を除いた画面に文章表示の
位置を設定すればよい。画面が小さいときには、元の図
表を覆ってしまうことになるが簡単に再び図表の表示に
戻れるようにすればよい。 〔発明の効果〕 本発明によれば、図表中の要素を指示するのみで、対
応する文章を自動的に探索し並置表示することができ、
操作者が文章中を探索する必要がなく、文献理解のため
の効率が向上する。この機能は従来の紙で綴じた文書を
見る方法では不可能であつた新しい機能である。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a digitized document information reading terminal, and in particular, retrieves a description related to the document from a text based on a chart and displays it side by side. About the system. [Prior Art] According to an operator's interest, a device for displaying information such as a CRT display and a device such as a cursor, a mouse, a keyboard, and a tablet for selecting one of the displayed items are used. When one of the displayed items is selected, a more detailed description of the selected item is drawn out, and a system has already been put to practical use in a captain system or the like. However, in these systems, the information to be displayed corresponding to the selected item is programmed in advance, so that the operator prepares the information prepared in advance by the system side only for the items that are allowed to be selected on the screen. It can be seen by tracing sequentially. For this purpose, the system provider prepares information to be displayed corresponding to all selected trees, creates data relating the location of the information corresponding to the selection, and registers it in the system. It is necessary. On the other hand, key word retrieval of document information stored in an electronic database has been performed, but search and display of mutually related parts in one document have not yet been performed. Not. [Problems to be Solved by the Invention] In the above-mentioned prior art, the creation and registration of the above-mentioned data to be associated is necessary in advance in order to display the relevant portion according to the selection from the objects displayed on the screen. Yes,
Making such preparations when the volume of literature is large can be an enormous task. SUMMARY OF THE INVENTION An object of the present invention is to provide a method for realizing a function of searching and displaying a related part in a document, which has not been realized conventionally because of a large amount of work. In particular, it is an object of the present invention to provide a method of displaying a related description portion in a text based on an instruction of a display position of an item in a chart. [Means for Solving the Problems] In order to achieve the above object, the present invention comprises the following element steps. (1) A step of causing the operator to designate a position in the display screen and specifying a designated word of the designated object. Here, the descriptive term is the number of a chart, the number of a block unit element of a chart, etc.,
Means the name. (2) A step of searching for the above-mentioned descriptive term from the text. (3) A step of cutting out, shaping, and displaying an appropriate part before and after from the found part. [Operation] FIG. 5 exemplifies a screen of the display CRT 6 of the terminal when the present invention is implemented. First, the drawing is displayed in the frame 51. Here, when the operator indicates a position on the screen, for example, an instruction word 52 of an element in a certain figure is indicated, and the system recognizes the instruction word from the position and the data on which the display is based. And identify. This is the first step. Next, a word that matches the specified descriptive word is searched for in the body text. This is the second step. From the matched part, the appropriate text before and after that is cut out in a range that can be displayed on the screen, placed on the same CRT 6 screen, and displayed as the frame 53 in the figure. This is the third step. It includes, of course, a display 54 of the instruction word. This can also be highlighted. Since each of the above-described steps has a problem, an example will be described below. Embodiment An embodiment of the present invention will be described below with reference to the flowchart of FIG. The description will be made according to the order in the figure. Step 101 is to display a portion of a page or a page of a chart or a document containing the chart.
This is displayed based on the instruction of the operator. The step 102 is to detect the operator looking at the displayed content and pointing to the whole of a certain chart or the approximate part of the chart to ask for an explanation of the element, or in other words, pointing. It is. Various tools can be used for this. For example, there are direct movement using a transparent tablet or a separate tablet superimposed on the display, such as moving the cursor and pressing a predetermined key, moving the mouse and pressing a button. The step 103 specifies an object to be pointed by the operator based on the input value of the position on the screen where the step of 102 was specified, and further obtains a descriptive word of the target. This may be, for example, the number of the entire figure or table, the number for a citation given to an element in the drawing of the patent, or the name written in its place. In step 104, the descriptive word obtained in step 103 is scanned and matched with the text to search for a matching location. In step 105, a sentence including the part before and after is extracted from the place in the text obtained in step 104, arranged, shaped, and displayed. After this, the process returns to step 102 and waits for the next operation. The method described above with reference to FIG. 2 does not require a preparation process in advance, and can be immediately applied to a document retrieved from a database. Also, no separate storage area is required. However, the search step of 104 generally requires significant processing time and is likely to delay response to the operator. FIG. 3 is a flowchart showing another embodiment for shortening the response time. Step 110 is a step of processing a document as a preparation step first when a document is selected, scanning a text or a chart to find all parts that may be selected as descriptive words, and calling its position. At the same time, it is recorded in the referential word positional relation table. Sort the descriptive words as necessary. Steps 101 to 103 and 105 are the same as the processing in FIG. 2 and the description is omitted. Step 114 replaces 104 in FIG. 2,
The position in the text corresponding to the instruction designated by the operator is obtained from the table using the instruction-position relation table created in 110. Therefore, the processing time is very short. The embodiment shown in FIG. 3 is characterized in that the response time is shorter than that of FIG. Here, a concrete implementation method of step 103 will be described. It is easy to convert input information from an indicator such as a mouse or a tablet into a coordinate system in units of pixels for display by a simple calculation. There are two types of indexing methods according to the display method. That is, a first case in which a display image is generated from code data such as characters and lines, and a second case in which the display image is reproduced based on data originally input as an image. In the first case, a method used to determine an element pointed by CAD (Computer Aided Design System) or the like can be adopted. An example is shown in FIG. FIG. 1 shows a system configuration of an embodiment of the present invention. There are code data 2 of a chart of a certain document read from the document database 1 and code data 3 of a sentence,
The code data of at least one chart is sent to the drawing processing unit 4 and written into the frame memory 5 based on the code data. The contents of the frame memory 5 are immediately displayed on the CRT 6. A transparent tablet 7 is set on the display surface 6. When the operator designates a certain element of the chart displayed by the touch, the screen input 81 is obtained by the tablet input circuit 8, and the touch operation is reported to the control unit 9. Here, the control unit 9 performs drawing processing of the chart again to search for the element in the designated chart, and generates a write address to the frame memory or the screen coordinates 41. The proximity search unit 10 determines that the writing screen coordinates 41 are the instruction screen coordinates 81.
Is detected within a certain distance of. When this is detected, the controller 9 is informed and the drawn element is determined as the element being drawn by the drawing processor, and the specified element is obtained. In addition, in the case of a system that uses a random scanning type CRT, does not have the frame memory 5, and performs repetitive drawing processing, the specified element is used as a drawing element at the moment when the drawing beam is detected by the light pen. There is a way to ask. Also, instead of drawing all elements, the instruction screen coordinates 81
Therefore, a method of shortening the search time by performing a proximity search by limiting a target element has been proposed. When the element obtained as described above is a character string, and when it is a graphic element, a descriptive word is obtained as a name stored correspondingly. As a second case, a method for obtaining a target word designated by an operator when a diagram or table is originally image data and the data is displayed is as follows. An example is shown in FIG. FIG. 4 shows a system configuration of an embodiment of the present invention. Image data 2 'of a chart of a certain document read from the document database 1'
And textual image data 3 ', and at least
Two charts are written to the frame memory 5 via the writing section 4 ', and are immediately displayed on the CRT 6. When the transparent tablet indicates an object having a chart, the coordinate input unit 8 sends the image coordinates to the control unit 20. The control unit 20 starts the following series of processes. First, a region near a point designated by image coordinates is extracted by the extraction unit 21, and a segment considered to be a character is extracted from the extracted region. In addition, not only the segment closest to the designated point, but also the segments that are closer to the designated point within a certain distance are sequentially extracted and sent to the next character recognition unit 22.
In character recognition, each of these segments is recognized as a character candidate, and an instruction is obtained as a quote number / symbol or word. The concrete implementation method of the step 103 has been described above together with the configuration example of the system. Next, a specific method for searching for the instruction word obtained in step 103 from step 104, that is, the text, will be described. Also at this time, there are a first case where the text is stored as code data and a second case where the text is stored only as an image. In the first case, the same character string as the descriptive word may be searched for from the code string of the sentence, and this part is a process often performed as a string search. The matching search unit 11 in FIG. 1 performs this. The document data 3 stored in the code is scanned to search for a part that matches the code string of the instruction word specified by the control unit 9. In the second case, image processing is required. Part of FIG. 4 is an example of the implementation. First, the character generation unit 23 generates an image pattern corresponding to the character of the instruction word according to the font and size of the character used in the sentence data 3 '. This pattern is passed to the pattern search unit 24.
The pattern search unit scans the image of the sentence data 3 ', sequentially extracts local patterns, compares the extracted local patterns with the designated image pattern, and searches for a local part that substantially matches.
The difference from the character reading device is that the character reading device needs to recognize each character candidate in the image from thousands of character categories, whereas this device has a local pattern that matches the specified pattern. You just need to search for the pattern. For this reason, the processing amount is gradually reduced. In order to further reduce the processing amount of this search, when the designated word is composed of a plurality of characters, the designated word is separated into individual characters,
First, only one character in the character string is searched, and when a match is detected, it is preferable to check whether the next character exists in an adjacent local area. By doing so, it is possible to cope with the case where the indicator is present separately at the end of the line and at the beginning of the next line. First, as in a frameless character reading device, a line position is extracted and a character pitch is extracted.
After cutting out one character at a time, a collation method can be adopted. On the other hand, if a dedicated circuit for high-speed matching is used, a method of searching the entire surface from the beginning is also possible. In order to further reduce the search time, there is a method using knowledge specific to the target document. For example, in the case of a patent publication, since the elements in the figures are given numerical designations, it is considered that what the operator indicates is also a numeral. On the other hand, in a sentence, these numerical descriptive words appear in ascending order of numerical values. Even if it appears several times, the first appearing place is in order, and it is considered that the element is explained at that place. Accordingly, a correspondence table between the number of the descriptive word and the position in the sentence can be created while performing this search several times. When searching for a new descriptive word, it is possible to estimate which part to search for by referring to this correspondence table, and it can be expected that the search can be performed in a shorter time than searching the entire sentence. . Not only examples of patent publications,
The same is true for table numbers. The choice between the two cases for 103 steps and the two cases for 104 steps depends on the type of data supplied. The embodiment of FIG. 1 corresponds to the case where both are in the form of a code, and the embodiment of FIG. 4 corresponds to the case where both are in the form of an image.
The text may be stored in a code, and in this case, the text can be configured in combination. Create the predicate positional relationship table shown in FIG. 3 in advance 110
In the step (1), in the case of a patent document, it is sufficient to create a figure / table number and a designation by the number. Also, if a general document is also prepared using only the figure / table number, the range of the estimated appearance position in the text of the element can be narrowed from the figure / table number including the element designated by the operator. The display of the text of the 105 steps may be performed as follows. When the appearance position of the descriptive word is found, several lines before and after it are cut out and displayed. Alternatively, it is conceivable to detect and output a paragraph including the position. However, since the paragraph may be long, it may be limited to several lines before and after that. In any case, the display range may be shifted by a scroll instruction. As for the display arrangement, the position of the sentence display may be set on the screen excluding the entire chart or the vicinity instructed by the operator or the screen excluding the vicinity instructed. When the screen is small, the original chart may be covered, but it is sufficient to easily return to the display of the chart again. [Effects of the Invention] According to the present invention, it is possible to automatically search for a corresponding sentence and display it side by side only by pointing to an element in a diagram,
The operator does not need to search in the text, and the efficiency for understanding the document is improved. This is a new function that was not possible with the conventional method of viewing documents bound on paper.

【図面の簡単な説明】 第1図は本発明の一実施例の構成図、第2図は本発明に
よる操作のフローチヤートを示す図、第3図は本発明に
よる操作の他のフローチヤートを示す図、第4図は本発
明の他の実施例の構成図である。第5図は本発明による
表示例を示す図である。 2……図表データ、3……文章データ、4……描画処理
部、8……座標入力部、11……一致サーチ部、24……パ
ターンサーチ部。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of one embodiment of the present invention, FIG. 2 is a diagram showing a flow chart of the operation according to the present invention, and FIG. 3 is another flow chart of the operation according to the present invention. FIG. 4 is a block diagram showing another embodiment of the present invention. FIG. 5 is a diagram showing a display example according to the present invention. 2 ... Chart table data, 3 ... Text data, 4 ... Drawing processing unit, 8 ... Coordinate input unit, 11 ... Match search unit, 24 ... Pattern search unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中野 康明 国分寺市東恋ヶ窪1丁目280番地 株式 会社日立製作所中央研究所内 (56)参考文献 特開 昭63−62033(JP,A)   ────────────────────────────────────────────────── ─── Continuation of front page    (72) Inventor Yasuaki Nakano               1-280 Higashi Koigabo, Kokubunji-shi               Central Research Laboratory, Hitachi, Ltd.                (56) References JP-A-63-62033 (JP, A)

Claims (1)

(57)【特許請求の範囲】 1.システムに記憶された文章データ及び図表データを
含む文書データから、操作者の要求に応じて必要な文章
データを順次あるいは並置して表示可能な文章を検索・
表示する方法において、 上記図表データのうち表示された図表データから、上記
操作者が指示した画面位置に応じて上記表示された図表
データまたはその要素を特定する指示語を抽出し、 抽出された指示語が画像として記憶されている場合に
は、抽出された指示語を上記文章データで使用されてい
る文字のフォント及びサイズの文字画像データに変換
し、 変換された文字画像データを用いて、上記文章データの
中から上記指示語を検索し、 検索された指示語に該当する文章データの所在位置を求
め、 求められた所在位置に基づいて該当する文書データを表
示することを特徴とする文章を検索・表示する方法。 2.特許請求の範囲第1項に記載の文章を検索・表示す
る方法において、 上記操作者が画面位置から所定の距離に含まれる近傍領
域を抜き出し、抜き出された近傍領域から文字と考えら
れる第1のセグメントを抽出し、抽出された第1のセグ
メントから所定の距離に含まれる第2のセグメントを抽
出し、抽出された第2のセグメントの各々を文字候補と
して認識し、文字として認識されたものを上記指示語と
して抽出することを特徴とする文章を検索・表示する方
法。 3.特許請求の範囲第2項に記載の文章を検索・表示す
る方法において、 予め、図形要素と上記図形要素の名前を対応づけて記憶
しておき、上記第1および第2のセグメントが図形要素
である場合は、記憶された名前を指示語として抽出する
ことを特徴とする文章を検索・表示する方法。 4.特許請求の範囲第1項乃至第3のいずれかに記載の
文章を検索・表示する方法において、 上記文章データおよび上記図表データのうち少なくとも
一方を走査して、上記指示語および上記指示語の出現位
置を求め、求められた指示語および出現位置の関係を指
示語データ位置関係表として記憶しておき、 上記指示語データ位置関係表を用いて、検索された指示
語に該当する文章データの所在位置を求めることを特徴
とする文章を検索・表示する方法。 5.システムに記憶された文章データ及び図表データを
含む文書データから、操作者の要求に応じて必要な文章
データを順次あるいは並置して表示可能な文章を検索・
表示する方法において、 上記図表データのうち表示された図表データから、上記
操作者が指示した画面位置に応じて、上記表示された図
表データまたはその要素を特定し少なくともその1部に
数字を含む指示語を抽出し、 上記文章データの中から上記指示語を検索し、 検索された指示語に該当する文章データの所在位置を求
め、 求められた所在位置と上記指示語の対応関係を示す対応
表を作成し、 次回の検索を行う際は、上記対応表を用いて上記文章デ
ータのうち所定領域を検索することを特徴とする文章を
検索・表示する方法。
(57) [Claims] Searches for text that can be displayed sequentially or side-by-side according to the operator's request from text data including text data and chart data stored in the system.
In the displaying method, a command word for specifying the displayed chart data or its element according to the screen position designated by the operator is extracted from the displayed chart data of the chart data, and the extracted instruction is If the word is stored as an image, the extracted descriptive word is converted into character image data of the font and size of the character used in the sentence data, and the converted character image data is used as described above. A sentence characterized by searching the sentence data for the above-mentioned descriptive term, finding the location of the sentence data corresponding to the searched descriptive term, and displaying the corresponding document data based on the found location. How to search and display. 2. 2. The method according to claim 1, wherein the operator extracts a nearby area within a predetermined distance from the screen position, and extracts the first area from the extracted nearby area as a character. Are extracted, a second segment included at a predetermined distance from the extracted first segment is extracted, and each of the extracted second segments is recognized as a character candidate, and is recognized as a character. A method for retrieving and displaying a sentence characterized by extracting a sentence as the above-mentioned descriptive word. 3. In the method for retrieving and displaying a sentence according to claim 2, a graphic element and a name of the graphic element are stored in advance in association with each other, and the first and second segments are graphic elements. In some cases, a method for searching and displaying a sentence characterized by extracting a stored name as a descriptive word. 4. A method for retrieving and displaying a sentence according to any one of claims 1 to 3, wherein at least one of the sentence data and the chart data is scanned, and the occurrence of the descriptive word and the descriptive word is performed. The position is determined, the relationship between the determined descriptive term and the appearance position is stored as a descriptive term data positional relation table, and the location of the sentence data corresponding to the retrieved descriptive term is determined using the descriptive term data positional relation table. A method for searching and displaying sentences that are characterized by finding the position. 5. Searches for text that can be displayed sequentially or side-by-side according to the operator's request from text data including text data and chart data stored in the system.
In the displaying method, the displayed chart data or an element thereof is specified from the displayed chart data of the chart data according to the screen position specified by the operator, and an instruction including a numeral in at least a part thereof is specified. A word is extracted, the above-mentioned descriptive term is searched from the above-mentioned sentence data, the location of the sentence data corresponding to the searched descriptive term is obtained, and a correspondence table showing the correspondence between the obtained location and the above-mentioned descriptive term A method for searching and displaying a sentence characterized by searching a predetermined area in the sentence data using the correspondence table when performing the next search.
JP62128139A 1987-05-27 1987-05-27 How to search and display sentences Expired - Lifetime JP2695784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62128139A JP2695784B2 (en) 1987-05-27 1987-05-27 How to search and display sentences

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62128139A JP2695784B2 (en) 1987-05-27 1987-05-27 How to search and display sentences

Publications (2)

Publication Number Publication Date
JPS63293674A JPS63293674A (en) 1988-11-30
JP2695784B2 true JP2695784B2 (en) 1998-01-14

Family

ID=14977365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62128139A Expired - Lifetime JP2695784B2 (en) 1987-05-27 1987-05-27 How to search and display sentences

Country Status (1)

Country Link
JP (1) JP2695784B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528193A (en) * 1991-07-24 1993-02-05 Dainippon Printing Co Ltd Treatise database system
WO2004061715A1 (en) * 2002-12-29 2004-07-22 Yuugenkaisha Patent Support Japan Electronic document editing program
JP4865526B2 (en) * 2006-12-18 2012-02-01 株式会社日立製作所 Data mining system, data mining method, and data search system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6362033A (en) * 1986-09-02 1988-03-18 Nec Corp Display device for relative information
JPH0314106Y2 (en) * 1986-10-14 1991-03-29

Also Published As

Publication number Publication date
JPS63293674A (en) 1988-11-30

Similar Documents

Publication Publication Date Title
JP3471919B2 (en) Machine operating method and method used to operate a processor controlled machine
JP3471920B2 (en) Method for determining a computationally significant response and method for operating a processor control system
JP2993673B2 (en) Electronic file device
US5832474A (en) Document search and retrieval system with partial match searching of user-drawn annotations
US5734882A (en) Pictographic bitmap naming of files in pen-based computer systems
US5754712A (en) Image processing apparatus
US6687876B1 (en) Method and system for maintaining freeform ink annotations on changing views
JPH1196166A (en) Document information management system
JPH0128980B2 (en)
US20170132484A1 (en) Two Step Mathematical Expression Search
US6421461B1 (en) Pattern recognition apparatus which compares input pattern feature and size data to registered feature and size pattern data, an apparatus for registering feature and size data, and corresponding methods and memory media therefor
JP2005182460A (en) Information processor, annotation processing method, information processing program, and recording medium having information processing program stored therein
JP2695784B2 (en) How to search and display sentences
JPH07110845A (en) Processing/management system for hand-written input information
JPH01159759A (en) Document retrieving and displaying method
JP3422157B2 (en) Handwritten character input device and handwritten character input method
JP2550068B2 (en) How to search and display information
JP2792270B2 (en) Search device
JP5233424B2 (en) Search device and program
JPH0128981B2 (en)
JPH0689330A (en) Image filing system
JPH08202859A (en) Electronic filing device and its method
JP2993881B2 (en) Keyword generation method
JPH04123262A (en) List type data processor
JPH0214367A (en) Method for retrieving and displaying document

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070912

Year of fee payment: 10