JPH11191159A - Image output device and program recording medium therefor - Google Patents

Image output device and program recording medium therefor

Info

Publication number
JPH11191159A
JPH11191159A JP9366166A JP36616697A JPH11191159A JP H11191159 A JPH11191159 A JP H11191159A JP 9366166 A JP9366166 A JP 9366166A JP 36616697 A JP36616697 A JP 36616697A JP H11191159 A JPH11191159 A JP H11191159A
Authority
JP
Japan
Prior art keywords
image
recognition
input
simplified
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9366166A
Other languages
Japanese (ja)
Other versions
JP3867180B2 (en
Inventor
Takaharu Makino
宇晴 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP36616697A priority Critical patent/JP3867180B2/en
Publication of JPH11191159A publication Critical patent/JPH11191159A/en
Application granted granted Critical
Publication of JP3867180B2 publication Critical patent/JP3867180B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To output a fair image only by drafting the simplified image of the desired picture on a tablet. SOLUTION: When the simplified image simplifying the picture is handwritten and inputted on a tablet 7, a CPU 1 fetches this simplified image as the draft pattern of the picture and retrieves its input position. Based on this draft pattern, image recognition is performed and recognized image data are outputted at the detected input position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、クリップアート
等を出力する画像出力装置およびそのプログラム記録媒
体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image output apparatus for outputting clip art and the like, and a program recording medium therefor.

【0002】[0002]

【従来の技術】従来、ワードプロセッサやパーソナルコ
ンピュータ等において、プレゼンテーション資料や各種
の案内状を作成する場合に、イラスト等の画像を文書中
に差し込むようにしている。この場合、イラストメモリ
の内容を一覧表示させて任意のイラストを選択指定した
り、画像入力装置から取り込んだ画像を文書中に貼り付
けるようにしている。
2. Description of the Related Art Conventionally, when a presentation material or various guide letters are created in a word processor, a personal computer or the like, an image such as an illustration is inserted into a document. In this case, the contents of the illustration memory are displayed in a list, and an arbitrary illustration is selected and designated, and an image captured from an image input device is pasted into a document.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、クリッ
プアートをリストの中から選択することはクリップアー
トの数が増えるほど選択に手間がかかると共に、選択し
たクリップアートをどの位置にどのような大きさで貼り
付けるかを指定しなければならず、プレゼンテーション
資料等をユーザのイメージ通りに作成することは極めて
困難を要していた。このことは画像入力装置から取り込
んだ画像についても同様であった。この発明の課題は、
所望する画像の簡略イメージをタブレット上に下書きす
るだけで、清書された画像を出力できるようにすること
である。
However, selecting clip art from a list requires a lot of trouble as the number of clip arts increases, and also places the selected clip art in any position and in any size. It was necessary to specify whether to paste, and it was extremely difficult to create presentation materials and the like according to the image of the user. This is the same for the image taken from the image input device. The object of the present invention is to
The purpose is to output a copy-finished image simply by drafting a simplified image of a desired image on a tablet.

【0004】[0004]

【課題を解決するための手段】この発明の手段は次の通
りである。請求項1記載の発明は、画像を簡略化した簡
略イメージをタブレット上に手書き入力した際に、この
簡略イメージを画像の下書きイメージとしてパターンメ
モリに書き込む書込手段と、下書きイメージの入力位置
を検出する位置検出手段と、各種の画像データを記憶す
る画像記憶手段と、前記パターンメモリ内の下書きイメ
ージに対応する画像データを前記画像記憶手段から検索
して画像認識を行う画像認識手段と、この画像認識手段
によって認識された画像データを前記位置検出手段によ
って検出された入力位置に出力する出力手段とを具備す
るものである。この発明は次のようなものであってもよ
い。 タブレット上に画像の簡略イメージを手書き入力す
ると共に文字パターンを混在して手書き入力する際に、
簡略イメージか文字パターンかを指示する指示手段と、
この指示手段によって文字パターンであることが指示さ
れた際に前記パターンメモリから文字パターンを切り出
して文字認識を行う文字認識手段を設け、前記画像認識
手段は前記指示手段によって簡略イメージであることが
指示された際に前記パターンメモリから簡略イメージを
切り出して画像認識を行い、前記出力手段は前記文字認
識手段によって認識された文字と前記画像記憶手段によ
って認識された画像とを混在して出力する。 前記画像記憶手段は画像毎にその簡略イメージと画
像データとを対応付けて記憶し、前記図形認識手段は前
記パターンメモリ内の下書きイメージに類似する簡略イ
メージを前記画像記憶手段から検索して対応する画像デ
ータに変換する。 画像データに対応付けて画像の特性を文字列として
記憶する特性情報記憶手段と、タブレット上に画像の簡
略イメージを手書き入力すると共に、その画像の特性を
示す文字列を手書き入力する際に、簡略イメージか文字
列かを指示する指示手段と、この指示手段によって文字
列であることが指示された際に、前記パターンメモリか
ら文字列パターンを切り出して文字認識を行う文字認識
手段とを設け、前記画像認識手段は前記指示手段によっ
て簡略イメージであることが指示された際に、前記パタ
ーンメモリから簡略イメージを切り出して前記画像メモ
リを検索すると共に前記文字認識手段によって認識され
た文字列に基づいて前記特性情報記憶手段を検索するこ
とにより画像認識を行う。 下書きイメージの入力サイズを検出するサイズ検出
手段を設け、前記出力手段は画像認識された画像データ
を前記位置検出手段によって検出された入力位置に前記
サイズ検出手段によって検出された入力サイズで出力す
る。 下書きイメージの傾き角度を検出する角度検出手段
を設け、前記出力手段は画像認識された画像データを前
記位置検出手段によって検出された入力位置に前記角度
検出手段によって検出された角度で出力する。 下書きイメージの向きを検出する方向検出手段を設
け、前記出力手段は画像認識された画像データを前記位
置検出手段によって検出された入力位置に前記方向検出
手段によって検出された方向に向けて出力する。
The means of the present invention are as follows. According to the first aspect of the present invention, when a simplified image obtained by simplifying an image is input by handwriting on a tablet, writing means for writing the simplified image as a draft image of the image in a pattern memory, and detecting an input position of the draft image Position detecting means, image storing means for storing various kinds of image data, image recognizing means for retrieving image data corresponding to a draft image in the pattern memory from the image storing means, and recognizing the image. Output means for outputting the image data recognized by the recognition means to the input position detected by the position detection means. The present invention may be as follows. When inputting a simple image of a handwritten image on a tablet and mixing handwritten characters,
Indicating means for indicating a simple image or a character pattern;
A character recognizing means for extracting a character pattern from the pattern memory and performing character recognition when the character pattern is instructed by the instructing means, wherein the image recognizing means indicates that the image is a simplified image by the instructing means. At this time, a simplified image is cut out from the pattern memory to perform image recognition, and the output unit outputs the character recognized by the character recognition unit and the image recognized by the image storage unit in a mixed manner. The image storage means stores the simplified image and the image data in association with each other for each image, and the figure recognizing means searches the image storage means for a simplified image similar to the draft image in the pattern memory and responds. Convert to image data. Characteristic information storage means for storing the characteristics of an image as a character string in association with image data, and handwritten input of a simplified image of an image on a tablet, and simplified input of a character string indicating the characteristics of the image by handwriting Instruction means for designating an image or a character string, and character recognition means for cutting out a character string pattern from the pattern memory and performing character recognition when the instruction means designates a character string, The image recognition means, when instructed by the instruction means to be a simplified image, cuts out the simplified image from the pattern memory and searches the image memory, and based on the character string recognized by the character recognition means, Image recognition is performed by searching the characteristic information storage means. Size detection means for detecting the input size of the draft image is provided, and the output means outputs the image data of which the image has been recognized to the input position detected by the position detection means with the input size detected by the size detection means. Angle detecting means for detecting the inclination angle of the draft image is provided, and the output means outputs the image data of which the image has been recognized to the input position detected by the position detecting means at the angle detected by the angle detecting means. Direction detecting means for detecting the direction of the draft image is provided, and the output means outputs the image data of which the image has been recognized to the input position detected by the position detecting means in the direction detected by the direction detecting means.

【0005】請求項1記載の発明においては、画像を簡
略化した簡略イメージをタブレット上に手書き入力する
と、この簡略イメージは画像の下書きパターンとしてパ
ターンメモリに書き込まれると共に、その入力位置が検
出される。すると、この下書きイメージに対応する画像
データを前記画像記憶手段から検索する画像認識を行う
と共に、認識された画像データは前記検出された入力位
置に出力される。したがって、所望する画像の簡略イメ
ージをタブレット上に下書きするだけで、清書された画
像を出力することができる。
According to the first aspect of the invention, when a simplified image obtained by simplifying an image is input by handwriting on a tablet, the simplified image is written in a pattern memory as a draft pattern of the image, and the input position is detected. . Then, image recognition for retrieving image data corresponding to the draft image from the image storage means is performed, and the recognized image data is output to the detected input position. Therefore, a simply-printed image can be output simply by drafting a simplified image of the desired image on the tablet.

【0006】[0006]

【発明の実施の形態】以下、図1〜図11を参照してこ
の発明の一実施形態を説明する。図1はタブレット付き
データ処理装置の全体構成を示したブロック図である。
CPU1はRAM2内にロードされている各種プログラ
ムにしたがってこのデータ処理装置の全体動作を制御す
る中央演算処理装置である。記憶装置3はオペレーティ
ングシステムや各種アプリケーションプログラム、デー
タファイル、文字フォントデータ等が予め格納されてい
る記憶媒体4やその駆動系を有している。この記憶媒体
4は固定的に設けたもの、もしくは着脱自在に装着可能
なものであり、フロッピーディスク、ハードディスク、
光ディスク、RAMカード等の磁気的・光学的記憶媒
体、半導体メモリによって構成されている。また、記憶
媒体4内のプログラムやデータは、必要に応じてCPU
1の制御により、RAM2にロードされる。更に、CP
U1は通信回線等を介して他の機器側から送信されて来
たプログラム、データを受信して記憶媒体4に格納した
り、他の機器側に設けられている記憶媒体に格納されて
いるプログラム、データを通信回線等を介して使用する
こともできる。そして、CPU1にはその入出力周辺デ
バイスである入力装置5、表示装置6、タブレット7が
バスラインを介して接続されており、入出力プログラム
にしたがってCPU1はそれらの動作を制御する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a block diagram showing an overall configuration of a data processing device with a tablet.
The CPU 1 is a central processing unit that controls the overall operation of the data processing device according to various programs loaded in the RAM 2. The storage device 3 includes a storage medium 4 in which an operating system, various application programs, data files, character font data, and the like are stored in advance, and a drive system thereof. The storage medium 4 is fixedly provided or removably mountable, and includes a floppy disk, a hard disk,
It is composed of a magnetic / optical storage medium such as an optical disk and a RAM card, and a semiconductor memory. Further, the programs and data in the storage medium 4 are stored in a CPU
1 is loaded into the RAM 2. Furthermore, CP
U1 is a program that receives a program and data transmitted from another device via a communication line or the like and stores it in the storage medium 4, or a program stored in a storage medium provided in the other device. And data can be used via a communication line or the like. The input device 5, the display device 6, and the tablet 7, which are input / output peripheral devices, are connected to the CPU 1 via a bus line. The CPU 1 controls these operations according to an input / output program.

【0007】入力装置5は文字列データ等を入力した
り、各種コマンドを入力するキーボード、マウス等のポ
インティングデバイスを有している。ここで、入力装置
5から文字列データが入力されると、表示装置6のテキ
スト画面に表示出力されると共に、かな漢字変換によっ
て確定された確定文字列は、RAM2内に格納される。
表示装置6は多色表示を液晶表示装置やCRT表示装置
あるいはプラズマ表示装置等である。タブレット7は平
板状に形成されたもので、その上に記入用紙を重ね合せ
た状態において、記入用紙を通して加わった筆圧に基づ
いてその位置座標を検出することにより筆記データを入
力する感圧式の座標入力装置である。図2はタブレット
7およびその近傍に配置されたタッチスイッチを示した
もので、タブレット7の四隅に形成されたキャリブレー
ションマーカ7aは記入用紙の位置決めを行う際に、タ
ッチ操作される。スイッチエリアにはクリアスイッチC
RS、終了スイッチFIS、図形スイッチFGS、属性
スイッチATS、文字スイッチCHS、次候補スイッチ
NXS、前候補スイッチFRS、テキスト呼出スイッチ
TXSが設けられている。クリアスイッチCRSは入力
した筆記データの消去を指示し、終了スイッチFISは
筆記入力の終了を指示し、図形スイッチFGSは絵、図
形等を示す画像の簡略イメージを筆記入力した際にこの
簡略イメージに基づいて図形認識を行うべきことを指示
するスイッチである。属性スイッチATSは図形認識を
補助するために、簡略イメージの中にどのような図形か
を示す文字列が簡略イメージの属性として筆記入力した
際に、当該文字列は簡略イメージの属性であることを指
示するスイッチである。文字スイッチCHSは通常の文
字認識を行うべきことを指示するスイッチである。次候
補スイッチNXSは図形認識、文字認識された候補群の
うち次候補の選択を指示し、前候補スイッチFRSは1
つ前の候補の選択を指示するスイッチである。
The input device 5 has a pointing device such as a keyboard and a mouse for inputting character string data and the like and for inputting various commands. Here, when the character string data is input from the input device 5, it is displayed on the text screen of the display device 6, and the determined character string determined by the kana-kanji conversion is stored in the RAM 2.
The display device 6 is a liquid crystal display device, a CRT display device, a plasma display device, or the like for multicolor display. The tablet 7 is formed in a flat plate shape, and a pressure-sensitive type in which writing data is input by detecting the position coordinates based on the pen pressure applied through the entry sheet in a state where the entry sheet is superimposed thereon. It is a coordinate input device. FIG. 2 shows the tablet 7 and the touch switches arranged in the vicinity thereof. The calibration markers 7a formed at the four corners of the tablet 7 are touched when positioning the entry paper. Clear switch C in switch area
RS, end switch FIS, graphic switch FGS, attribute switch ATS, character switch CHS, next candidate switch NXS, previous candidate switch FRS, and text call switch TXS are provided. The clear switch CRS instructs the erasure of the input writing data, the end switch FIS instructs the end of the writing input, and the figure switch FGS displays the simplified image of the image showing the picture, figure, etc. This is a switch for instructing that graphic recognition should be performed based on this. In order to assist figure recognition, the attribute switch ATS determines that when a character string indicating what kind of figure is included in the simplified image is handwritten as an attribute of the simplified image, the character string is an attribute of the simplified image. This is a switch for instructing. The character switch CHS is a switch for instructing that normal character recognition should be performed. The next candidate switch NXS instructs the selection of the next candidate from the group of candidates in which the figure and the character have been recognized, and the previous candidate switch FRS is 1
This is a switch for instructing selection of the previous candidate.

【0008】図3(A)は記憶装置3の一部を示し、記
憶装置3には筆記データに基づいて文字認識を行う文字
認識プログラムCP、図形認識を行う図形認識プログラ
ムFP、文字認識処理時に使用される文字認識辞書C
D、図形認識処理時に使用される図形認識辞書FDおよ
び図形ファイルFFが格納されている。図4は図形認識
辞書FDの構成を概略的に示したもので、図形認識辞書
FDは論理的に第1階層、第2階層に分かれており、第
1階層は絵画、図形等を表す簡略イメージに対応付けて
そのタイトル名またはグループ名を記憶する構成となっ
ている。また、第2階層は第1階層にリンクするタイト
ル名またはグループ名に対応付けてその具体的な内容を
示すキーワード、属性を記憶すると共に、クリップアー
トの名称(画像名称)を記憶する構成となっている。例
えば、動物を表現する簡略イメージに対応付けてそのタ
イトル名またはグループ名「animal−4leg」
が第1階層の情報として記憶され、また、タイトル名ま
たはグループ名「animal−4leg」に対応付け
てキーワード「ライオン」、「馬」、「牛」……が記憶
されていると共に、キーワード「ライオン」に対応付け
て属性「歩く」、「走る」、「寝る」、「跳ぶ」および
属性毎にタイトルが第2階層として記憶されている。図
形認識プログラムFPはタイトル毎にイラスト、絵、図
形等の画像データ(クリップアート)を記憶するもの
で、画像データはビットマップイメージデータの他にド
ロー系のデータであってもよい。
FIG. 3A shows a part of the storage device 3. The storage device 3 has a character recognition program CP for performing character recognition based on handwritten data, a graphic recognition program FP for performing graphic recognition, and a character recognition process. Character recognition dictionary C used
D, a figure recognition dictionary FD and a figure file FF used in the figure recognition processing are stored. FIG. 4 schematically shows the configuration of the figure recognition dictionary FD. The figure recognition dictionary FD is logically divided into a first layer and a second layer, and the first layer is a simplified image representing a picture, a figure, or the like. And the title name or group name is stored. The second hierarchy stores keywords and attributes indicating specific contents in association with a title name or a group name linked to the first hierarchy, and also stores a clip art name (image name). ing. For example, the title name or group name “animal-4leg” is associated with a simplified image representing an animal.
Are stored as first-level information, and the keywords “lion”, “horse”, “cow” are stored in association with the title name or group name “animal-4leg”, and the keyword “lion” is stored. , And the title is stored as the second hierarchy for each of the attributes “walk”, “run”, “sleep”, “jump” and the attributes. The graphic recognition program FP stores image data (clip art) such as an illustration, a picture, and a graphic for each title, and the image data may be draw-based data in addition to the bitmap image data.

【0009】図3(B)はRAM2の主要構成を示した
図で、RAM2には必要に応じて各種のメモリ領域が割
り当てられている。パターンバッファ2−1はタブレッ
ト7上に手書き入力された筆記データを一時記憶する入
力バッファであり、CPU1はこのパターンバッファ2
−1内の筆記データを取り込んで文字認識や図形認識を
行う。候補リストメモリ2−2は文字認識された候補群
や図形認識された候補群を一時記憶し、またテキストメ
モリ2−3は文字列情報や画像情報をコード形式で記憶
するメモリである。ワークメモリ2−4は各種プログラ
ムや処理の中間結果等を一時記憶する作業域である。
FIG. 3B is a diagram showing a main configuration of the RAM 2, and various memory areas are allocated to the RAM 2 as needed. The pattern buffer 2-1 is an input buffer for temporarily storing handwritten data input on the tablet 7 by handwriting.
The character recognition and the figure recognition are performed by taking in the writing data in -1. The candidate list memory 2-2 temporarily stores a character-recognized candidate group and a graphic-recognized candidate group, and the text memory 2-3 is a memory for storing character string information and image information in a code format. The work memory 2-4 is a work area for temporarily storing various programs, intermediate results of processing, and the like.

【0010】次に、データ処理装置の動作を図5〜図8
に示すフローチャートにしたがって説明する。ここで、
これらのフローチャートに記述されている各機能を実現
するためのプログラムは、CPU1が読み取り可能なプ
ログラムコードの形態で記憶媒体4に記憶されており、
その内容がRAM2内のワークメモリ2−4にロードさ
れている。図5は筆記データ入力時における全体動作の
概要を示したフローチャートである。先ず、入力待ち状
態において(ステップA1)、タブレット7上の記入エ
リアに加わった筆圧に基づいて筆記データが入力された
ことが検出されると(ステップA2)、CPU1はその
筆記データを取り込んでパターンバッファ2−1に一時
記憶すると共に、表示装置6のテキスト画面上に筆記デ
ータをエコーバック表示させる(ステップA3)。この
場合、画像の簡略イメージを手書き入力した場合には、
その図形認識を指示するために図形スイッチFGSを操
作する(ステップA4)。すると、図形認識処理の実行
に移る(ステップA5)。図9(A)は歩くライオンの
簡略イメージを手書き入力した場合を例示したもので、
頭部、胴体、脚部等のように各部を分けて簡略イメージ
を入力する。そして全体イメージを入力したのちに図形
スイッチFGSを操作するものとする。
Next, the operation of the data processing apparatus will be described with reference to FIGS.
This will be described according to the flowchart shown in FIG. here,
Programs for realizing the functions described in these flowcharts are stored in the storage medium 4 in the form of program codes readable by the CPU 1, and
The contents are loaded in the work memory 2-4 in the RAM 2. FIG. 5 is a flowchart showing an outline of the whole operation at the time of writing data input. First, in the input waiting state (step A1), when it is detected that writing data has been input based on the pen pressure applied to the writing area on the tablet 7 (step A2), the CPU 1 takes in the writing data. While temporarily storing the data in the pattern buffer 2-1, the handwriting data is echoed back and displayed on the text screen of the display device 6 (step A3). In this case, when a simplified image of the image is input by handwriting,
The figure switch FGS is operated to instruct the figure recognition (step A4). Then, the process proceeds to the execution of the graphic recognition process (step A5). FIG. 9A illustrates a case where a simplified image of a walking lion is input by handwriting.
A simplified image is input by dividing each part such as a head, a torso, and a leg. After inputting the entire image, the figure switch FGS is operated.

【0011】図6はこの図形認識処理を示したフローチ
ャートである。先ず、テキスト画面上に図形候補が表示
されているかを調べるが(ステップB1)、前回、画像
の簡略イメージを手書き入力することによって図形認識
された候補が表示されている場合には、図形スイッチF
GSの操作に応答し、表示中の図形候補を確定してその
クリップアート名称(タイトル)と共に、予め検出され
たサイズ、向き、角度をテキストメモリ2−3に書き込
む(ステップB2)。また、今回、画像の簡略イメージ
が手書き入力されてその簡略イメージがパターンバッフ
ァ2−1にセットされている場合にはステップB3で入
力パターン有りが検出されるので、図形認識辞書FDを
用いて入力パターンを図形認識するパターンマッチング
処理に移る(ステップB4)。
FIG. 6 is a flowchart showing the graphic recognition processing. First, it is checked whether or not graphic candidates are displayed on the text screen (step B1). If a candidate whose graphic has been recognized by previously inputting a simplified image of an image is displayed, the graphic switch F is used.
In response to the GS operation, the graphic candidate being displayed is determined, and the size, orientation, and angle detected in advance are written in the text memory 2-3 together with the clip art name (title) (step B2). In this case, if the simplified image of the image is input by hand and the simplified image is set in the pattern buffer 2-1, the presence of the input pattern is detected in step B3. The process proceeds to a pattern matching process for recognizing a pattern as a figure (step B4).

【0012】図7はこのパターンマッチング処理を示し
たフローチャートである。先ず、パターンバッファ2−
1内にセットされている入力パターン(画像の簡略イメ
ージ)に外接する矩形枠(仮想枠)を定義すると共に
(ステップC1)、この矩形枠サイズ(横サイズ、縦サ
イズ)を検出し、それを入力パターンのサイズとしてワ
ークメモリ2−4にセットする(ステップC2)。次
に、矩形枠の左上位置、右下位置を検出して入力パター
ンの手書き位置としてワークメモリ2−4にセットする
(ステップC3)。そして、この入力パターンのサイズ
と予め決められている画像標準サイズとを比較し、入力
パターンをこの標準サイズに拡大/縮小する(ステップ
C4)。このように入力パターンのサイズ、位置を検出
してそれを標準サイズに変更したのち、ステップC5に
進み、入力パターンを−30度回転させる。すなわち、
入力パターンに定義した矩形枠の下辺部を基準軸として
入力パターンを時計方向に30度回転させる。この状態
で図形認識辞書FDの第1階層として定義されている簡
略イメージと入力パターンとを照合する図形認識処理を
行い(ステップC6)、その結果、入力パターンにマッ
チした簡略イメージが存在するかを調べる(ステップC
7)。ここで、該当する簡略イメージが有り、正常認識
された場合には候補リストメモリ2−2にそのタイトル
名/グループ名をセットすると共に、その時の入力パタ
ーンの図形角および向き(正方向)をセットしておくが
(ステップC8)、認識不能であれば、このような処理
は行われない。そして、入力パターンを+10度回転さ
せ(ステップC9)、元のパターンに対して回転角が+
30度を越えたかをチェックし(ステップC10)、+
30度を越えるまでステップC6に戻り、上述の動作を
繰り返す。このように入力パターンを+10度ずつ回転
させながら図形認識を行い、その認識結果を候補リスト
メモリ2−2に順次セットしてゆく。これによって入力
パターンに類似する簡略イメージが検索される毎に、そ
のタイトル名/グループ名が候補リストメモリ2−2に
順次セットされることになる。
FIG. 7 is a flowchart showing the pattern matching process. First, the pattern buffer 2-
1, a rectangular frame (virtual frame) circumscribing the input pattern (simplified image of the image) is defined (step C1), and the rectangular frame size (horizontal size, vertical size) is detected. The size of the input pattern is set in the work memory 2-4 (step C2). Next, the upper left and lower right positions of the rectangular frame are detected and set as the handwritten position of the input pattern in the work memory 2-4 (step C3). Then, the size of the input pattern is compared with a predetermined image standard size, and the input pattern is enlarged / reduced to this standard size (step C4). After detecting the size and position of the input pattern and changing it to the standard size, the process proceeds to step C5, and the input pattern is rotated by -30 degrees. That is,
The input pattern is rotated clockwise by 30 degrees with the lower side of the rectangular frame defined in the input pattern as a reference axis. In this state, a graphic recognition process for collating the input image with the simplified image defined as the first layer of the graphic recognition dictionary FD is performed (step C6). As a result, it is determined whether there is a simplified image matching the input pattern. Check (Step C
7). Here, if there is a corresponding simplified image and it is recognized normally, the title name / group name is set in the candidate list memory 2-2, and the figure angle and direction (forward direction) of the input pattern at that time are set. However, if it cannot be recognized (step C8), such processing is not performed. Then, the input pattern is rotated by +10 degrees (step C9), and the rotation angle is +10 degrees with respect to the original pattern.
Check if it has exceeded 30 degrees (step C10),
The process returns to step C6 until the angle exceeds 30 degrees, and the above operation is repeated. In this way, figure recognition is performed while rotating the input pattern by +10 degrees, and the recognition results are sequentially set in the candidate list memory 2-2. Thus, each time a simplified image similar to the input pattern is searched, its title name / group name is sequentially set in the candidate list memory 2-2.

【0013】次に、元の入力パターンを左右反転、つま
り、逆向きに回転させたのち(ステップC11)、入力
パターンを−30度回転させる(ステップC12)。そ
して、入力パターンと簡略イメージとを照合する図形認
識処理を行い(ステップC13)、その結果、入力パタ
ーンにマッチした簡略イメージが存在するかを調べる
(ステップC14)。ここで、該当する簡略イメージが
有り、正常認識された場合には、候補リストメモリ2−
2にそのタイトル名/グループ名をセットすると共に、
その時の入力パターンの回転角および向き(逆方向)を
セットしておくが(ステップC15)、認識不能であれ
ば、このような処理は行われない。そして、入力パター
ンを+10度回転させ(ステップC16)、元のパター
ンに対して回転角が+30度を越えたかをチェックし
(ステップC17)、+30度を越えるまでステップC
13に戻り、上述の動作を繰り返す。このように入力パ
ターンの向きを反転させたのち+10度ずつ回転させな
がら図形認識を行い、その認識結果を候補リストメモリ
2−2に順次セットしてゆく。そして、ステップC18
に進み、候補リストメモリ2−2の内容に対応する画像
ファイルFFからクリップアートを取り出して入力パタ
ーンと比較し、その比較結果に応じて類似度の高い順に
候補リストメモリ2−2の内容を再編集する。すなわ
ち、候補リストメモリ2−2にはタイトル/グループ名
がセットされているので、これに基づいて図形認識辞書
FDの第2階層をアクセスし、それに該当する全てのタ
イトルを読み出して画像ファイルFFをアクセスし、そ
のクリップアートと入力パターンとを比較することによ
って類似度の高い順に候補リストメモリ2−2の内容を
再編集する。そして、次のステップC19に進み、最も
類似度が高い候補(第1候補)に対応する回転角および
向きを候補リストメモリ2−2から読み出してワークメ
モリ2−4にセットする。
Next, after the original input pattern is reversed left and right, that is, rotated in the opposite direction (step C11), the input pattern is rotated by -30 degrees (step C12). Then, a graphic recognition process for collating the input pattern with the simplified image is performed (step C13), and as a result, it is checked whether a simplified image matching the input pattern exists (step C14). Here, if there is a corresponding simplified image and it is recognized normally, the candidate list memory 2-
Set the title / group name in 2 and
The rotation angle and direction (reverse direction) of the input pattern at that time are set (step C15), but if recognition is not possible, such processing is not performed. Then, the input pattern is rotated by +10 degrees (step C16), and it is checked whether the rotation angle exceeds +30 degrees with respect to the original pattern (step C17).
Returning to step 13, the above operation is repeated. After reversing the direction of the input pattern in this manner, figure recognition is performed while rotating the pattern by +10 degrees, and the recognition results are sequentially set in the candidate list memory 2-2. Then, step C18
Then, the clip art is extracted from the image file FF corresponding to the contents of the candidate list memory 2-2 and compared with the input pattern. To edit. That is, since the title / group name is set in the candidate list memory 2-2, the second layer of the graphic recognition dictionary FD is accessed based on the title / group name, and all the corresponding titles are read and the image file FF is stored. By accessing and comparing the clip art with the input pattern, the contents of the candidate list memory 2-2 are re-edited in descending order of similarity. Then, the process proceeds to the next step C19, where the rotation angle and the direction corresponding to the candidate (first candidate) having the highest similarity are read out from the candidate list memory 2-2 and set in the work memory 2-4.

【0014】このようにして図形認識辞書FDを用いた
マッチング処理が終ると、図6のステップB5に進み、
第1候補のタイトル/グループ名に対応して図形認識辞
書FD内の第2階層にキーワード、属性が複数有るかを
調べる。ここで、複数のキーワード、属性が第2階層の
情報として図形認識辞書FD内に有れば、キーワード、
属性を表す文字列を入力すべきことをガイダンス表示す
る(ステップB10)。そして、当該文字列が入力され
て属性スイッチATSが操作されたかを調べ(ステップ
B11)、属性スイッチATSが操作されるまでステッ
プB10に戻り、入力待ちとなる。ここで、属性スイッ
チATSが操作されると、入力文字列は簡略イメージ内
に含まれているかを調べ(ステップB12)、含まれて
いれば、入力文字列と文字認識辞書CDとを照合する文
字認識処理を行うが(ステップB13)、入力文字列を
簡略イメージ内に筆記しなかった場合には、それをキャ
ンセルするためにステップB10に戻り、キーワード、
属性を再入力すべきことをガイダンス表示する。いま、
キーワード、属性が文字認識された場合には、ステップ
B14に進み、第1候補に対応するタイトル/グループ
名を候補リストメモリ2−2から読み出して文字認識辞
書CD内の第2階層をアクセスすると共に、文字認識結
果に基づいて第2階層内のキーワード、属性を検索し、
それに対応するタイトルを読み出す。いま、図9(A)
に示すような簡略イメージ内にキーワードとして「ライ
オン」、属性として「歩く」の文字列をキー入力したも
のとすると、それに対応する第2階層内のタイトルとし
て「lion−walk」が読み出される。
When the matching process using the graphic recognition dictionary FD is completed, the process proceeds to step B5 in FIG.
It is checked whether there are a plurality of keywords and attributes in the second hierarchy in the graphic recognition dictionary FD corresponding to the title / group name of the first candidate. Here, if a plurality of keywords and attributes exist in the graphic recognition dictionary FD as the information of the second hierarchy, the keywords,
Guidance display that a character string representing an attribute should be input is displayed (step B10). Then, it is determined whether the character string is input and the attribute switch ATS is operated (step B11). The process returns to step B10 until the attribute switch ATS is operated, and waits for input. Here, when the attribute switch ATS is operated, it is checked whether or not the input character string is included in the simplified image (step B12). If the input character string is included, the character for collating the input character string with the character recognition dictionary CD is checked. The recognition process is performed (step B13). If the input character string is not written in the simplified image, the process returns to step B10 to cancel the input character string, and the keyword,
Guidance display that attributes should be re-entered. Now
If the keyword and the attribute are recognized, the process proceeds to step B14, where the title / group name corresponding to the first candidate is read from the candidate list memory 2-2 to access the second hierarchy in the character recognition dictionary CD, and , Search for keywords and attributes in the second hierarchy based on the result of character recognition,
Read the title corresponding to it. Now, FIG. 9 (A)
Assuming that a character string of "lion" as a keyword and "walking" as an attribute is key-inputted in a simplified image as shown in FIG. 7, "lion-walk" is read as a corresponding title in the second hierarchy.

【0015】一方、第1候補のタイトル/グループ名に
対応して図形認識辞書FD内の第2階層にキーワード、
属性が複数設定されておらず、第1階層のタイトル/グ
ループ名によって第2階層のタイトルを直接特定するこ
とができた場合(ステップB5でNO)や第2階層に複
数のキーワード、属性が設定されていても上述のステッ
プB10〜B14の処理によってタイトルを特定するこ
とができた場合には、ステップB6に進み、そのタイト
ルに基づいて画像ファイルFFをアクセスし、該当する
クリップアートを第1候補として読み出すと共に、入力
パターンの矩形枠サイズに応じて第1候補の画像データ
を拡大/縮小する。次に、入力パターンの向きに応じて
第1候補を反転させると共に(ステップB7)、入力パ
ターンの回転角に応じて第1候補を回転させる(ステッ
プB8)。そして、入力パターンの手書き位置に合わせ
込んで第1候補の画像データを表示出力させる(ステッ
プB9)。
On the other hand, keywords corresponding to the title / group name of the first candidate are stored in the second layer in the graphic recognition dictionary FD.
If a plurality of attributes are not set and the title of the second hierarchy can be directly specified by the title / group name of the first hierarchy (NO in step B5), or a plurality of keywords and attributes are set in the second hierarchy If the title has been specified by the processing of steps B10 to B14, the process proceeds to step B6, where the image file FF is accessed based on the title, and the corresponding clip art is stored in the first candidate. And the image data of the first candidate is enlarged / reduced according to the rectangular frame size of the input pattern. Next, the first candidate is inverted according to the direction of the input pattern (step B7), and the first candidate is rotated according to the rotation angle of the input pattern (step B8). Then, the image data of the first candidate is displayed and output according to the handwritten position of the input pattern (step B9).

【0016】このように画像の簡略イメージをその下書
きイメージとして筆記すると、図形認識処理が行われて
第1候補の画像データが下書きイメージ通りに清書した
形態で表示出力される。この場合、第1候補が所望する
画像でなければ、次候補スイッチNXSあるいは前候補
スイッチFRSを操作して候補の切り替えを指示する。
すると、図5のステップA8でそのことが検出されてス
テップA9に進み、候補切り替え処理が行われる。図8
はこの候補切り替え処理を示したフローチャートであ
る。先ず、次候補スイッチNXSが操作されたが前候補
スイッチFRSが操作されたかを調べ(ステップD
1)、前候補スイッチFRSが操作された場合には、候
補リストメモリ2−2内の1つ前の候補をアクセスし
(ステップD2)、前候補としてのタイトル/グループ
名が有るかを調べ(ステップD4)、また、次候補スイ
ッチNXSが操作された場合には候補リストメモリ2−
2内の1つ後の候補をアクセスし(ステップD3)、次
候補としてのタイトル/グループ名が有るかを調べる
(ステップD4)。ここで、該当する選択候補が無けれ
ば、前候補スイッチFRS、次候補スイッチNXSの操
作を無効とするためにこのフローから抜けるが、選択候
補が有れば、選択候補に対応するタイトル/グループ名
に基づいて図形認識辞書FD内の第2階層をアクセスし
(ステップD5)、その第2階層にキーワード、属性が
複数設定されているかを調べる(ステップD6)。以
下、上述した図6のステップB6〜B14と基本的に同
様の処理が行われる(ステップD7〜D15)。すなわ
ち、第1階層だけでタイトルを特定することができる場
合には(ステップD6でNO)、そのタイトルに対応す
る画像を入力パターンのサイズ、向き、角度、位置に合
わせて候補表示するが(ステップD12〜D15)、第
1階層だけでタイトルを特定することができない場合に
は、そのキーワード、属性の入力を促し、それに応じて
タイトルを特定することができた場合には(ステップD
7〜D11)、そのタイトルに対応する画像を入力パタ
ーンのサイズ、向き、角度、位置に合わせて候補表示す
る(ステップD12〜D15)。このように簡略イメー
ジに基づいて候補表示された画像は、図9(B)に示し
たように下書きイメージを清書した画像データとなる。
この場合、その大きさ、位置、向き、角度は全て元の下
書きイメージ通りとなる。
When the simplified image of the image is written as the draft image in this manner, a graphic recognition process is performed, and the first candidate image data is displayed and output in a form which is clearly written as the draft image. In this case, if the first candidate is not the desired image, the next candidate switch NXS or the previous candidate switch FRS is operated to instruct the switching of the candidate.
Then, this is detected in step A8 of FIG. 5, and the process proceeds to step A9, where a candidate switching process is performed. FIG.
Is a flowchart showing this candidate switching process. First, it is checked whether the next candidate switch NXS has been operated but the previous candidate switch FRS has been operated (step D).
1) When the previous candidate switch FRS is operated, the immediately preceding candidate in the candidate list memory 2-2 is accessed (step D2), and it is checked whether there is a title / group name as the previous candidate (step D2). Step D4) When the next candidate switch NXS is operated, the candidate list memory 2-
The next candidate in 2 is accessed (step D3), and it is checked whether there is a title / group name as the next candidate (step D4). Here, if there is no corresponding selection candidate, the process exits from this flow to invalidate the operation of the previous candidate switch FRS and the next candidate switch NXS, but if there is a selection candidate, the title / group name corresponding to the selection candidate Then, the second level in the graphic recognition dictionary FD is accessed based on the (step D5), and it is checked whether a plurality of keywords and attributes are set in the second level (step D6). Hereinafter, basically the same processes as those in steps B6 to B14 in FIG. 6 described above are performed (steps D7 to D15). That is, if the title can be specified only in the first layer (NO in step D6), the image corresponding to the title is displayed as a candidate according to the size, orientation, angle, and position of the input pattern (step D12 to D15), if the title cannot be specified only in the first hierarchy, the input of the keyword and the attribute is prompted, and if the title can be specified accordingly (step D).
7 to D11), candidates for the image corresponding to the title are displayed according to the size, orientation, angle, and position of the input pattern (steps D12 to D15). The image displayed as a candidate based on the simplified image in this manner is image data obtained by copying the draft image as shown in FIG. 9B.
In this case, the size, position, orientation, and angle are all the same as the original draft image.

【0017】一方、無変換スイッチ(図示せず)が操作
された場合には、図5のステップA10でそのことが検
出されてステップA11に進み、パターンバッファ2−
1内の簡略イメージを図形認識せずにそのまま確定す
る。その際、テキストメモリ2−3には簡略イメージを
指定するリンク情報が書き込まれ、簡略イメージはイメ
ージメモリ(図示せず)に書き込まれる。他方、文字ス
イッチCHSが操作された場合にはステップA6でその
ことが検出されてステップA7に進み、筆記入力された
パターンを文字列パターンとして取り込み、文字認識辞
書CDを用いて通常の文字認識処理を行い、これによっ
て認識された文字列コードはテキストメモリ2−3に書
き込まれる。更に、テキスト呼出スイッチTXSが操作
された場合にはステップA12でそのことが検出されて
ステップA13に進み、テキストメモリ2−3の内容を
順次読み出して出力するが、その際、複数のクリップア
ートが重なり合う場合には入力順にクリップアートを上
書き出力する。
On the other hand, when the non-conversion switch (not shown) is operated, it is detected at step A10 in FIG.
The simplified image in 1 is determined without recognizing the figure. At that time, link information for designating the simplified image is written in the text memory 2-3, and the simplified image is written in the image memory (not shown). On the other hand, if the character switch CHS is operated, the fact is detected in step A6 and the process proceeds to step A7, where the pattern input by handwriting is fetched as a character string pattern, and the normal character recognition processing is performed using the character recognition dictionary CD Is performed, and the character string code recognized thereby is written to the text memory 2-3. Further, when the text call switch TXS is operated, the fact is detected in step A12, and the process proceeds to step A13, in which the contents of the text memory 2-3 are sequentially read out and output. If they overlap, the clip art is overwritten and output in the order of input.

【0018】以上のようにこのタブレット付きデータ処
理装置においては、画像を簡略化した簡略イメージをタ
ブレット7上に手書き入力した際に、この簡略イメージ
を画像の下書きイメージとしてパターンバッファ2−1
に取り込み、この下書きイメージに基づいて図形認識辞
書FDを参照し、該当する画像データを画像ファイルF
Fから読み出して下書きイメージの入力位置に出力する
ようにしたから、簡略イメージを手書き入力するだけで
それを清書した画像を得ることができる。ここで、下書
きイメージだけでは該当する画像を図形認識することが
できない場合には、図形認識を補助する目的でその特性
(キーワード、属性)を表わす文字列を簡略イメージ内
に入力すれば、所望する画像を認識することができる。
その際、このキーワード、属性を示す文字列もタブレッ
ト7上で手書き入力するようにしているので、キーボー
ド入力に比べ、簡略イメージとの対応関係が的確である
と共に2種類の入力装置を操作するという面倒もない。
As described above, in this data processing device with a tablet, when a simplified image obtained by simplifying an image is input by handwriting on the tablet 7, the simplified image is used as a draft image of the pattern buffer 2-1.
, And refers to the figure recognition dictionary FD based on the draft image, and stores the corresponding image data in the image file F.
Since the image is read out from F and output to the input position of the draft image, an image in which the simplified image is handwritten can be obtained simply by inputting the simplified image. Here, if the corresponding image cannot be figure-recognized only by the draft image, a character string representing the characteristic (keyword, attribute) is input into the simplified image for the purpose of assisting the figure recognition. Images can be recognized.
At this time, since the character strings indicating the keywords and the attributes are also input by handwriting on the tablet 7, the correspondence with the simplified image is more accurate than the keyboard input, and two types of input devices are operated. No hassle.

【0019】更に、簡略イメージに基づいて図形認識さ
れた画像は、簡略イメージの入力位置、角度、向き、サ
イズに合わせて簡略イメージ通りに出力されるので、下
書きを清書したイメージ通りの画像を得ることができ
る。この場合、入力位置、角度、向き、サイズの情報は
入力パターンを解析することによって自動的に得ること
ができるので、それらを入力操作する手間が不要となる
と共に、思考を妨げることもない。また、リアルタイム
で図形認識が行われるので、誤認識された場合にはその
場で候補の切り替えを行うことができる。したがって、
画像をイメージスキャナで取り込むものに比べ、プレゼ
ンテーション資料等を素早く作成することが可能とな
る。また、タブレット7に記入用紙を置いてその上に簡
略イメージを手書きするようにしたから、表示画面付き
タブレットのように表示画面の解像度に影響されず、小
さな絵や文字を書くことができる他、慣れ親しんだ紙へ
の筆記なので筆記感が自然で書き易さがある。また、図
10(A)に示したように下書きとして画像の簡略イメ
ージの他に文字列を混在して手書き入力したとしても、
図形認識と文字認識とは別々に行われるので、画像と文
字列とが混在された状態で清書することができる。図1
1は複数の画像を重ね合せることによって得られた組み
合せ画像を示している。すなわち、3種類の簡略イメー
ジをその重ね合せ順に順次入力して個々の簡略イメージ
毎に図形認識を行うことにより得られた組み合せ画像
で、最初に入力された画像の上に2番目に入力された画
像が上書きされ、更に最後に入力された画像がその上に
上書きされて出力される。
Further, the image whose graphic has been recognized based on the simplified image is output as the simplified image in accordance with the input position, angle, orientation, and size of the simplified image. be able to. In this case, since information on the input position, angle, orientation, and size can be automatically obtained by analyzing the input pattern, the trouble of inputting them is not required, and the thinking is not hindered. Further, since the graphic recognition is performed in real time, the candidate can be switched on the spot when the recognition is erroneous. Therefore,
It is possible to quickly create presentation materials and the like, as compared with the case where images are captured by an image scanner. Also, since a simple image is handwritten on the tablet 7 with an entry sheet placed thereon, it is possible to write small pictures and characters without being affected by the resolution of the display screen as in a tablet with a display screen. Because it is writing on paper that you are used to, the writing feel is natural and easy to write. Also, as shown in FIG. 10 (A), even if a handwritten input is made with a character string mixed in addition to a simplified image of the image as a draft,
Since the graphic recognition and the character recognition are performed separately, it is possible to make a clear copy in a state where the image and the character string are mixed. FIG.
Reference numeral 1 denotes a combined image obtained by superimposing a plurality of images. That is, a combined image obtained by sequentially inputting three types of simplified images in the order of their superposition and performing graphic recognition for each of the simplified images, the second image being input on the first input image. The image is overwritten, and the last input image is overwritten and output.

【0020】なお、上述した一実施形態は、タブレット
7上に用紙を置いて簡略イメージを入力するようにした
が、タブレット7を透明タッチパネルで構成し、その下
側に表示画面を配置したタッチスクリーンであってもよ
い。また、タブレット7は感圧式に限らず、電磁誘導式
のタブレットであってもよい。更に、簡略イメージを手
書きした際に、各部分の色を手書き文字によって指定す
るようにしてもよい。この場合、清書された画像の各部
分は指定色によって着色される。また、図形認識辞書に
簡略イメージを格納するようにしたが、画像ファイルF
F内の画像データの輪郭を解析して入力パターンと比較
するようにしてもよい。また、画像ファイルFF内の画
像データは電子カメラやイメージスキャナによって読み
取ったビットマップイメージデータであってもよい。
In the above-described embodiment, a simple image is input by placing a sheet of paper on the tablet 7. However, a touch screen in which the tablet 7 is formed of a transparent touch panel and a display screen is disposed below the transparent touch panel is provided. It may be. The tablet 7 is not limited to the pressure-sensitive type, but may be an electromagnetic induction type tablet. Further, when a simplified image is handwritten, the color of each part may be designated by handwritten characters. In this case, each part of the fairly-printed image is colored with the designated color. Although the simplified image is stored in the figure recognition dictionary, the image file F
The outline of the image data in F may be analyzed and compared with the input pattern. The image data in the image file FF may be bitmap image data read by an electronic camera or an image scanner.

【0021】[0021]

【発明の効果】この発明によれば、所望する画像の簡略
イメージをタブレット上に下書きするだけで、清書され
た画像を出力することができるので、プレゼンテーショ
ン資料等を素早く作成することが可能となる。
According to the present invention, a simply-printed image can be output only by drafting a simplified image of a desired image on a tablet, so that presentation materials and the like can be quickly created. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】タブレット付きデータ処理装置の全体構成を示
したブロック図。
FIG. 1 is a block diagram showing an overall configuration of a data processing device with a tablet.

【図2】タブレット7およびその近傍に配置された各種
のスイッチを示した図。
FIG. 2 is a diagram showing a tablet 7 and various switches arranged near the tablet 7;

【図3】(A)は記憶装置3内の一部を示した図、
(B)はRAM2の主要構成を示した図。
FIG. 3A is a diagram showing a part of a storage device 3;
FIG. 3B is a diagram showing a main configuration of a RAM 2.

【図4】図形認識辞書FDの構成を模式的に示した図。FIG. 4 is a diagram schematically showing a configuration of a graphic recognition dictionary FD.

【図5】全体動作の概要を示したフローチャート。FIG. 5 is a flowchart showing an outline of the overall operation.

【図6】図5のステップA7(文字認識処理)を示した
フローチャート。
FIG. 6 is a flowchart showing step A7 (character recognition processing) in FIG. 5;

【図7】図6のステップB4(パターンマッチング処
理)を示したフローチャート。
FIG. 7 is a flowchart showing step B4 (pattern matching processing) in FIG. 6;

【図8】図5のステップA9(候補切り替え処理)を示
したフローチャート。
FIG. 8 is a flowchart showing step A9 (candidate switching processing) in FIG. 5;

【図9】(A)は手書き入力された画像の簡略イメージ
を示した図、(B)はこの簡略イメージを清書した画像
を示した図。
9A is a diagram showing a simplified image of an image input by handwriting, and FIG. 9B is a diagram showing an image obtained by copying the simplified image.

【図10】画像と文字列とを混在させた例を示し、
(A)は手書き入力されたデータ、(B)は清書された
出力結果を示した図。
FIG. 10 shows an example in which an image and a character string are mixed,
FIG. 7A is a diagram showing data input by handwriting, and FIG.

【図11】複数の画像を重ね合せることによって得られ
た組み合せ画像を示した図。
FIG. 11 is a diagram showing a combined image obtained by superimposing a plurality of images.

【符号の説明】[Explanation of symbols]

1 CPU 2 RAM 2−1 パターンバッファ 2−2 候補リストメモリ 2−3 テキストメモリ 2−4 ワークメモリ 3 記憶装置 4 記憶媒体 5 入力装置 6 表示装置 7 タブレット CP 文字認識プログラム FP 図形認識プログラム CD 文字認識辞書 FD 図形認識辞書 FF 画像ファイル 1 CPU 2 RAM 2-1 Pattern buffer 2-2 Candidate list memory 2-3 Text memory 2-4 Work memory 3 Storage device 4 Storage medium 5 Input device 6 Display device 7 Tablet CP Character recognition program FP Graphic recognition program CD Character recognition Dictionary FD Graphic recognition dictionary FF Image file

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】画像を簡略化した簡略イメージをタブレッ
ト上に手書き入力した際に、この簡略イメージを画像の
下書きイメージとしてパターンメモリに書き込む書込手
段と、 下書きイメージの入力位置を検出する位置検出手段と、 各種の画像データを記憶する画像記憶手段と、 前記パターンメモリ内の下書きイメージに対応する画像
データを前記画像記憶手段から検索して画像認識を行う
画像認識手段と、 この画像認識手段によって認識された画像データを前記
位置検出手段によって検出された入力位置に出力する出
力手段とを具備したことを特徴とする画像出力装置。
1. A writing means for writing a simplified image obtained by simplifying an image on a tablet as a draft image of the image in a pattern memory, and a position detector for detecting an input position of the draft image. Means, image storage means for storing various image data, image recognition means for retrieving image data corresponding to a draft image in the pattern memory from the image storage means and performing image recognition, An output unit that outputs the recognized image data to an input position detected by the position detection unit.
【請求項2】タブレット上に画像の簡略イメージを手書
き入力すると共に文字パターンを混在して手書き入力す
る際に、簡略イメージか文字パターンかを指示する指示
手段と、 この指示手段によって文字パターンであることが指示さ
れた際に前記パターンメモリから文字パターンを切り出
して文字認識を行う文字認識手段を設け、 前記画像認識手段は前記指示手段によって簡略イメージ
であることが指示された際に前記パターンメモリから簡
略イメージを切り出して画像認識を行い、 前記出力手段は前記文字認識手段によって認識された文
字と前記画像記憶手段によって認識された画像とを混在
して出力するようにしたことを特徴とする請求項1記載
の画像出力装置。
2. An instructing means for instructing whether a simplified image or a character pattern is to be input when a simplified image of an image is handwritten on a tablet and a character pattern is mixed and handwritten. A character recognition unit that cuts out a character pattern from the pattern memory when instructed to perform character recognition, and wherein the image recognizing unit reads out the pattern memory from the pattern memory when instructed by the instruction unit to be a simplified image. The image recognition is performed by cutting out a simplified image, and the output unit outputs the character recognized by the character recognition unit and the image recognized by the image storage unit in a mixed manner. 2. The image output device according to 1.
【請求項3】前記画像記憶手段は画像毎にその簡略イメ
ージと画像データとを対応付けて記憶し、 前記図形認識手段は前記パターンメモリ内の下書きイメ
ージに類似する簡略イメージを前記画像記憶手段から検
索して対応する画像データに変換するようにしたことを
特徴とする請求項1記載の画像出力装置。
3. The image storage means stores a simplified image and image data in association with each other for each image, and the figure recognizing means stores a simplified image similar to a draft image in the pattern memory from the image storage means. 2. An image output apparatus according to claim 1, wherein said image output apparatus is searched and converted into corresponding image data.
【請求項4】画像データに対応付けて画像の特性を文字
列として記憶する特性情報記憶手段と、 タブレット上に画像の簡略イメージを手書き入力すると
共に、その画像の特性を示す文字列を手書き入力する際
に、簡略イメージか文字列かを指示する指示手段と、 この指示手段によって文字列であることが指示された際
に、前記パターンメモリから文字列パターンを切り出し
て文字認識を行う文字認識手段とを設け、 前記画像認識手段は前記指示手段によって簡略イメージ
であることが指示された際に、前記パターンメモリから
簡略イメージを切り出して前記画像メモリを検索すると
共に前記文字認識手段によって認識された文字列に基づ
いて前記特性情報記憶手段を検索することにより画像認
識を行うことを特徴とする請求項1記載の画像出力装
置。
4. Characteristic information storage means for storing characteristics of an image as a character string in association with image data, and a handwritten input of a simplified image of the image on a tablet, and a handwritten input of a character string indicating the characteristics of the image. Instruction means for instructing whether the image is a simple image or a character string, and character recognition means for performing character recognition by cutting out a character string pattern from the pattern memory when the instruction means instructs a character string. When the image recognition means is instructed by the instruction means to be a simplified image, the image recognition section cuts out the simplified image from the pattern memory and searches the image memory, and the character recognized by the character recognition means. 2. An image according to claim 1, wherein image recognition is performed by searching said characteristic information storage means based on a column. Power equipment.
【請求項5】下書きイメージの入力サイズを検出するサ
イズ検出手段を設け、 前記出力手段は画像認識された画像データを前記位置検
出手段によって検出された入力位置に前記サイズ検出手
段によって検出された入力サイズで出力するようにした
ことを特徴とする請求項1記載の画像出力装置。
5. A size detecting means for detecting an input size of a draft image, wherein said output means inputs the image data of which the image has been recognized into an input position detected by said position detecting means. 2. The image output device according to claim 1, wherein the image is output in a size.
【請求項6】下書きイメージの傾き角度を検出する角度
検出手段を設け、 前記出力手段は画像認識された画像データを前記位置検
出手段によって検出された入力位置に前記角度検出手段
によって検出された角度で出力するようにしたことを特
徴とする請求項1記載の画像出力装置。
6. An angle detecting means for detecting an inclination angle of a draft image, wherein said output means converts the image data obtained by image recognition into an input position detected by said position detecting means, and detects an angle detected by said angle detecting means. 2. The image output apparatus according to claim 1, wherein the image is output by the following.
【請求項7】下書きイメージの向きを検出する方向検出
手段を設け、 前記出力手段は画像認識された画像データを前記位置検
出手段によって検出された入力位置に前記方向検出手段
によって検出された方向に向けて出力するようにしたこ
とを特徴とする請求項1記載の画像出力装置。
7. An apparatus according to claim 1, further comprising: a direction detecting unit configured to detect a direction of the draft image, wherein the output unit converts the image data obtained by the image recognition into an input position detected by the position detecting unit in a direction detected by the direction detecting unit. The image output device according to claim 1, wherein the image is output toward the image output device.
【請求項8】コンピュータに対して、 画像を簡略化した簡略イメージがタブレット上に手書き
入力された際に、この簡略イメージを画像の下書きイメ
ージとして取り出すと共に、この下書きイメージに対応
する画像データを画像記憶手段から検索して画像認識を
行う機能と、 手書きイメージの入力位置を検出する機能と、 画像認識された画像データを前記検出された入力位置に
出力する機能を実現させるためのプログラムを記録した
記録媒体。
8. When a simplified image obtained by simplifying an image is input to a computer by handwriting, the simplified image is extracted as a draft image, and image data corresponding to the draft image is converted to an image. A program for realizing a function of performing image recognition by retrieving from a storage unit, a function of detecting an input position of a handwritten image, and a function of outputting image data having image recognition to the detected input position is recorded. recoding media.
JP36616697A 1997-12-25 1997-12-25 Image output apparatus and program recording medium thereof Expired - Fee Related JP3867180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36616697A JP3867180B2 (en) 1997-12-25 1997-12-25 Image output apparatus and program recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36616697A JP3867180B2 (en) 1997-12-25 1997-12-25 Image output apparatus and program recording medium thereof

Publications (2)

Publication Number Publication Date
JPH11191159A true JPH11191159A (en) 1999-07-13
JP3867180B2 JP3867180B2 (en) 2007-01-10

Family

ID=18486088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36616697A Expired - Fee Related JP3867180B2 (en) 1997-12-25 1997-12-25 Image output apparatus and program recording medium thereof

Country Status (1)

Country Link
JP (1) JP3867180B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275979A (en) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd Image retrieving program
JP2007140742A (en) * 2005-11-16 2007-06-07 Seiko Epson Corp Content retrieval device, method, and program, and storage medium
JP2009020689A (en) * 2007-07-11 2009-01-29 Canon Inc Data retrieval method and data retrieval device
US9025879B2 (en) 2012-10-26 2015-05-05 Kabushiki Kaisha Toshiba Electronic apparatus and handwritten document processing method
KR20150070153A (en) * 2012-10-15 2015-06-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Pictures from sketches
WO2015189941A1 (en) * 2014-06-11 2015-12-17 株式会社Pfu Information processing device, information processing method, and program
CN116310806A (en) * 2023-02-28 2023-06-23 北京理工大学珠海学院 Intelligent agriculture integrated management system and method based on image recognition

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275979A (en) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd Image retrieving program
JP2007140742A (en) * 2005-11-16 2007-06-07 Seiko Epson Corp Content retrieval device, method, and program, and storage medium
JP2009020689A (en) * 2007-07-11 2009-01-29 Canon Inc Data retrieval method and data retrieval device
KR20150070153A (en) * 2012-10-15 2015-06-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Pictures from sketches
JP2016500873A (en) * 2012-10-15 2016-01-14 マイクロソフト テクノロジー ライセンシング,エルエルシー Image from sketch
US9025879B2 (en) 2012-10-26 2015-05-05 Kabushiki Kaisha Toshiba Electronic apparatus and handwritten document processing method
WO2015189941A1 (en) * 2014-06-11 2015-12-17 株式会社Pfu Information processing device, information processing method, and program
CN116310806A (en) * 2023-02-28 2023-06-23 北京理工大学珠海学院 Intelligent agriculture integrated management system and method based on image recognition
CN116310806B (en) * 2023-02-28 2023-08-29 北京理工大学珠海学院 Intelligent agriculture integrated management system and method based on image recognition

Also Published As

Publication number Publication date
JP3867180B2 (en) 2007-01-10

Similar Documents

Publication Publication Date Title
US5455901A (en) Input device with deferred translation
EP0394614B1 (en) Advanced user interface
US5787295A (en) Document processing apparatus
US5252951A (en) Graphical user interface with gesture recognition in a multiapplication environment
US7904837B2 (en) Information processing apparatus and GUI component display method for performing display operation on document data
JPH09319556A (en) Information processor
US5982365A (en) System and methods for interactively generating and testing help systems
JPH11191159A (en) Image output device and program recording medium therefor
JP2005182460A (en) Information processor, annotation processing method, information processing program, and recording medium having information processing program stored therein
JP3388451B2 (en) Handwriting input device
JP2550068B2 (en) How to search and display information
JP2785941B2 (en) Window information division / integration processing method
JPH0991307A (en) Relative information display device and relative information display control method
JP3726323B2 (en) Kana-kanji conversion device
JPH0764979A (en) Document information processor
JPH04148370A (en) Document processor
JPH0325235Y2 (en)
JP3060383B2 (en) Document creation device
JPH1063656A (en) Document preparing device
JPH0758486B2 (en) Document file device
JP3345142B2 (en) Document processing device with ruled line display function
JPH06314158A (en) Handwriting input device
JPS63293674A (en) Retrieving/displaying method for sentence
JPH01194063A (en) Document file contents forming system
JPH1063775A (en) Document preparing device, and method for displaying recognition candidate

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060925

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091020

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111020

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111020

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121020

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121020

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131020

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees