JP2006018522A - Image edition system, method, and program - Google Patents

Image edition system, method, and program Download PDF

Info

Publication number
JP2006018522A
JP2006018522A JP2004194892A JP2004194892A JP2006018522A JP 2006018522 A JP2006018522 A JP 2006018522A JP 2004194892 A JP2004194892 A JP 2004194892A JP 2004194892 A JP2004194892 A JP 2004194892A JP 2006018522 A JP2006018522 A JP 2006018522A
Authority
JP
Japan
Prior art keywords
editing
area
vector
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004194892A
Other languages
Japanese (ja)
Inventor
Kenzo Sekiguchi
賢三 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004194892A priority Critical patent/JP2006018522A/en
Priority to US11/166,132 priority patent/US7839541B2/en
Publication of JP2006018522A publication Critical patent/JP2006018522A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00413Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
    • H04N1/00416Multi-level menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00474Output means outputting a plurality of functional options, e.g. scan, copy or print

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability and to reduce deterioration of image quality. <P>SOLUTION: A scan image is displayed on a display medium, and edition command processing, in which a plurality of edition target areas are designated, selected, released, or selected again by a device such as a pointing device, is carried out. The edition target area is selected when it is surrounded by a line. When the inside of the selected edition target area is pointed, the edition target area can be selected again. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、スキャナで読み取った画像データを編集する画像編集システム及び方法並びにプログラムに関する。   The present invention relates to an image editing system, method, and program for editing image data read by a scanner.

近年、スキャナで読み取った画像データをタブレット・ペンで編集する装置が登場している。例えば、ポインティング・ディバイスであるタブレットと表示装置とが一体となったタブレット表示装置上に画像データを表示し、ペンで編集対象の画像データ領域を囲い、その領域に対する画像データの削除、抽出等の種々の編集操作を適用可能な手書き入力装置がある(特許文献1参照)。   In recent years, devices for editing image data read by a scanner with a tablet / pen have appeared. For example, image data is displayed on a tablet display device in which a tablet that is a pointing device and a display device are integrated, and an image data area to be edited is enclosed with a pen, and image data is deleted or extracted from the area. There is a handwriting input device to which various editing operations can be applied (see Patent Document 1).

さらに別の例としては、スキャンした画像データとともに編集処理メニューを仮出力紙に印刷し、その仮出力紙上で編集範囲をマーカー・ペンでマーキングし、さらに編集処理メニューで編集処理項目にチェック・マークを書き込む。その後、画像編集装置のスキャナで仮出力紙をスキャンすることで画像データの編集を行う画像編集装置もある(特許文献2参照)。   As another example, the editing processing menu is printed on the temporary output paper together with the scanned image data, the editing range is marked on the temporary output paper with a marker / pen, and the editing processing item is checked / marked on the editing processing menu. Write. Thereafter, there is also an image editing apparatus that edits image data by scanning a temporary output sheet with a scanner of the image editing apparatus (see Patent Document 2).

さらに、近年、電子部品の小型化と高度化により、手書き情報を電子化する装置(Notepad)が登場している(特許文献3参照)。この装置は、2次元座標をあらわす画像のドット・パターンを記録した記録紙上をポインティング・ディバイスであるデジタル・ペンで書き込むと、デジタル・ペンが上記記録紙上のドット・パターンを読み取る。次に、ペンが読み取った筆跡データ(2次元座標の連鎖データ)を、無線通信装置を介してPC(personal computer)に送信する。   In recent years, devices (Notepad) for digitizing handwritten information have appeared due to the miniaturization and sophistication of electronic components (see Patent Document 3). In this apparatus, when writing on a recording paper on which a dot pattern of an image representing two-dimensional coordinates is recorded with a digital pen as a pointing device, the digital pen reads the dot pattern on the recording paper. Next, handwriting data (two-dimensional coordinate chain data) read by the pen is transmitted to a personal computer (PC) via a wireless communication device.

デジタル・ペンの概要を説明しておくと、デジタル・ペンはペン型のカバーに覆われ、カバーの先は開いていて、その内側に光学式読取装置と少なくとも1つの発光ダイオードが収用されている。さらに奥には、中央処理装置とメモリと電池が収用されている。さらに、開いているカバーの先にはインクを持ったペン先が存在する。デジタル・ペンは更に、ペンをコントロールする為のボタンと他の機器と通信する為の通信部を持っている。   To explain the outline of the digital pen, the digital pen is covered with a pen-shaped cover, the tip of the cover is open, and an optical reader and at least one light-emitting diode are stowed inside. . Furthermore, a central processing unit, a memory and a battery are confiscated. Furthermore, there is a pen tip with ink at the end of the open cover. The digital pen further has a button for controlling the pen and a communication unit for communicating with other devices.

特開平6−332611号公報JP-A-6-332611 特開平7―58938号公報JP-A-7-58938 国際公開第01/16691号パンフレットInternational Publication No. 01/16691 Pamphlet

しかしながら、特許文献1の手書き入力装置では、手書きで囲んだ画像データ領域の選択範囲が編集処理によりリセットされてしまう。このため、同じ選択範囲に対し編集処理を適用する場合に、再度選択範囲を手書きで指定する必要があり非常に面倒である。   However, in the handwriting input device of Patent Document 1, the selection range of the image data area surrounded by handwriting is reset by the editing process. For this reason, when editing processing is applied to the same selection range, it is necessary to specify the selection range by hand again, which is very troublesome.

また、特許文献2の画像編集装置では、原稿の画像を画像編集するには、原稿をスキャンし、仮出力紙に原稿画像と編集処理内容をプリントし、その仮出力紙に編集対象の領域をマーカー・ペンで囲う。さらにその仮出力紙を編集処理マーカー・ペンでチェックした後、チェックした仮出力紙を画像編集装置のスキャナで更にスキャンする必要があり非常に面倒である。加えて、編集済みの画像を再度編集する場合は、前回編集した結果の出力された画像の出力紙を再度スキャナで読み取り、前回と同様な操作を行う必要があり更に面倒である。さらには、何度もスキャンとプリントを繰り返すことで画質の劣化が生じる。   Further, in the image editing apparatus of Patent Document 2, in order to edit an image of a document, the document is scanned, the document image and the contents of the editing process are printed on the temporary output paper, and the area to be edited is set on the temporary output paper. Surround with a marker pen. Furthermore, after checking the temporary output paper with the editing processing marker pen, it is necessary to further scan the checked temporary output paper with the scanner of the image editing apparatus, which is very troublesome. In addition, when the edited image is edited again, it is necessary to read the output paper of the image output as a result of the previous editing again with the scanner and perform the same operation as the previous time, which is further troublesome. Furthermore, the image quality is deteriorated by repeating scanning and printing many times.

また、特許文献3のNotepadは、ペンで書き込んだデータに対する処理に関するもので、スキャナで読み込んだ画像データに対する編集はできず、既にペンで書き込んだオブジェクトに対する処理対象の選択もできない。   Notepad of Patent Document 3 relates to processing for data written with a pen, cannot edit image data read with a scanner, and cannot select a processing target for an object already written with a pen.

従来のシステムには上述したような種々の問題があり、さらなる改善が望まれている。   The conventional system has various problems as described above, and further improvement is desired.

本発明は、このような状況に鑑みてなされたもので、その目的とするところは、操作性を向上させ画質の劣化を抑えた画像編集システム及び方法並びにプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image editing system, method, and program that improve operability and suppress deterioration of image quality.

このような目的を達成するために、本発明の画像編集システムは、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示媒体に表示させ、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムであって、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段と、前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段とを備えたことを特徴とする。   In order to achieve such an object, the image editing system of the present invention stores the image data read by the image reading means in the image data storage means, and sets an edit target area for editing the stored image data. When specifying, the image data and an area for selecting an editing function for the image data are displayed on a display medium, and the position indicated by the position indicating means on the display medium and the position on the image data are A corresponding image editing system, wherein a new region processing unit that selects one or a plurality of new editing target regions by surrounding the editing target region with a line by the position instruction unit, and a selection by the new region processing unit Instructed within the designated edit target area by the position indicating means, the selected one or more edit target areas are selected again. Characterized by comprising a that area selecting unit.

また上記目的を達成するために、本発明の画像編集システムは、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示した表示媒体を使用し、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムであって、前記位置指示手段と通信する通信手段と、前記通信手段から定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析手段とを備え、前記データ解析手段は、前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理手段を有し、前記座標変換管理手段によって管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、前記第1のベクトルを一時的に保存するベクトル追加手段、前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理手段、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段、前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段のいずれかによる処理を実行することを特徴とする。   In order to achieve the above object, the image editing system of the present invention stores the image data read by the image reading means in the image data storage means, and designates the editing target area for editing the stored image data. In doing so, a display medium displaying the image data and an area for selecting an editing function for the image data is used, and the position indicated by the position indicating means on the display medium and the position on the image data Is a corresponding image editing system, a communication unit communicating with the position indicating unit, and a locus of the position indicating unit moving on the display medium, which is sampled and received from the communication unit at regular intervals, When the position coordinate vector on the display medium is included in an editing area defined in advance on the display medium, the position coordinates When the vector of the position coordinates is included in an area for designating at least one editing function defined in advance on the display medium, Treating the vector of position coordinates as a second vector identifying the editing function and converting it into a token identifying the editing function, the state determined by the first vector or the token, and the received second Data analysis means for executing processing determined by one vector or the token, and the data analysis means is a rectangular area including the coordinates of the vector of the position coordinates, and the editing area or the editing function A coordinate conversion tube that manages a rectangular area that defines an area for designating a region and a process applied to the coordinates of the vector of the position coordinates And when the process managed by the coordinate transformation management means is executed, the process is determined by the state and the first vector or the token received next, wherein the first A vector adding means for temporarily storing a vector, a handwriting input processing means for performing processing for adding the first vector as an object included in the editing area, and a region to be edited by surrounding the editing target area with a line. A new area processing means for selecting one or a plurality of new editing target areas, and the position indicating means to indicate the inside of the editing target area selected by the new area processing means. A process by any of the area selection processing means for selecting a plurality of edit target areas again is executed.

また上記目的を達成するために、本発明の画像編集方法は、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示媒体に表示させ、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムの画像編集方法であって、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップと、前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップとを備えることを特徴とする。   In order to achieve the above object, the image editing method of the present invention stores the image data read by the image reading means in the image data storage means, and designates an editing target area for editing the stored image data. In this case, the image data and an area for selecting an editing function for the image data are displayed on a display medium, and the position indicated by the position indicating means on the display medium corresponds to the position on the image data. An image editing method of the image editing system, wherein a new region processing step of selecting one or a plurality of new editing target regions by surrounding the editing target region with a line by the position indicating means, and the new region processing By instructing the editing target area selected in the step by the position indicating means, the one or more editing pairs specified Characterized in that it comprises a region selecting process step of selecting the region again.

また上記目的を達成するために、本発明の画像編集方法は、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示した表示媒体を使用し、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムの画像編集方法であって、前記位置指示手段と通信する通信ステップと、前記通信ステップにおいて定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析ステップとを備え、前記データ解析ステップは、前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理ステップを有し、前記座標変換管理ステップにおいて管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、前記第1のベクトルを一時的に保存するベクトル追加ステップ、前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理ステップ、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップ、前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップのいずれかによる処理を実行することを特徴とする。   In order to achieve the above object, the image editing method of the present invention stores the image data read by the image reading means in the image data storage means, and designates an editing target area for editing the stored image data. In doing so, a display medium displaying the image data and an area for selecting an editing function for the image data is used, and the position indicated by the position indicating means on the display medium and the position on the image data Is an image editing method of the corresponding image editing system, wherein the position indicating means moves on the display medium, which is communicated with the position indicating means, and is sampled and received at regular times in the communication step. A vector of position coordinates on the display medium representing a trajectory is included in an editing area defined in advance on the display medium. The position coordinate vector is treated as the first vector to be edited, or the position coordinate vector is included in an area for designating at least one editing function defined in advance on the display medium. The position coordinate vector is treated as a second vector for identifying the editing function, converted to a token for identifying the editing function, and the state determined by the first vector or the token; A data analysis step for executing a process determined by the first vector or the token received next, wherein the data analysis step is a rectangular region including the coordinates of the position coordinate vector, Applied to the rectangular area that defines the editing area or the area that specifies the editing function, and the coordinates of the position coordinate vector A coordinate transformation management step for managing the processing, and when executing the processing managed in the coordinate transformation management step, it is determined by the state and the first vector or the token received next A vector adding step for temporarily storing the first vector; a handwriting input processing step for performing processing for adding the first vector as an object included in the editing area; A new region processing step for selecting one or a plurality of new editing target regions by surrounding the editing target region with a line, and the position indicating means instructing the editing target region selected in the new region processing step In either of the area selection processing steps for reselecting the specified one or more editing target areas. The processing is executed.

本発明の以上の構成により、既に処理済みの編集対象領域に対する編集領域の指定と選択を再度ペンで囲う必要はなく、編集対象領域内をペンで触れたりチェック・マークを書き込むだけで編集対象領域の選択が可能となる。さらに、再編集の際、仮出力紙のプリントとスキャンが不要であり、原稿スキャンは1回のみで済む。また、スキャナで読み込んだ画像データに対する編集と、既にペンで書き込んだオブジェクトに対する処理対象の選択とが、共に可能となる。   With the above configuration of the present invention, there is no need to re-enclose and specify the editing area for the editing target area that has already been processed, and the editing target area can be simply touched with the pen or written with a check mark. Can be selected. Further, at the time of re-editing, it is not necessary to print and scan the temporary output paper, and only one original scan is required. In addition, it is possible to both edit image data read by a scanner and select a processing target for an object already written with a pen.

本発明によれば、画像編集システムの操作性を向上させ画質の劣化を抑える効果を奏する。   According to the present invention, it is possible to improve the operability of the image editing system and suppress the deterioration of image quality.

以下、図面を参照して本発明を適用できる実施形態を詳細に説明する。尚、各図面において同様の機能を有する箇所には同一の符号を付し、説明の重複は省略する。   Embodiments to which the present invention can be applied will be described below in detail with reference to the drawings. In addition, the same code | symbol is attached | subjected to the location which has the same function in each drawing, and duplication of description is abbreviate | omitted.

(装置構成)
図1は、本発明を適用できる実施形態の画像編集システムの第1の構成図である。図1の画像編集システムは、原稿スキャン機能、プリント機能を登載したMFP(複合機能周辺装置;Multi Functional Peripheral)、FAX装置、プリンタ装置などの本体ディバイス100である。しかし、原稿スキャナ、プリンタなどの周辺装置や画像処理周辺ボードを搭載したPCでも実現可能である。
(Device configuration)
FIG. 1 is a first configuration diagram of an image editing system according to an embodiment to which the present invention can be applied. The image editing system shown in FIG. 1 is a main body device 100 such as an MFP (Multi Functional Peripheral), a FAX apparatus, a printer apparatus, or the like that has a document scanning function and a printing function. However, it can also be realized by a peripheral device such as a document scanner or a printer or a PC equipped with an image processing peripheral board.

操作部サブシステム101は、液晶パネル上にペンの筆跡を感知するタブレット(図5の図中符号500の画像編集用画面を表示)が搭載されている表示媒体とキーボードとが搭載され、画像編集システムの本体ディバイス100のハードウェアに対する表示及び操作に関する制御と、タブレット入力及びキーボード入力を制御する機能とを提供する、ハードウェア・サブシステム及びソフトウェア・サブシステムである(以降では、ハードウェア・サブシステム及びソフトウェア・サブシステムをまとめて単にサブシステムと呼ぶ)。   The operation unit subsystem 101 includes a display medium and a keyboard on which a tablet (displaying an image editing screen denoted by reference numeral 500 in FIG. 5) for detecting pen handwriting is mounted on a liquid crystal panel. A hardware subsystem and a software subsystem that provide control related to display and operation of the hardware of the main body device 100 of the system and a function of controlling tablet input and keyboard input (hereinafter referred to as hardware subsystem). System and software subsystems are collectively referred to simply as subsystems).

編集コマンド処理サブシステム102は、本実施形態の特徴をあらわす処理部で、編集コマンド処理を司るサブシステムである。編集コマンド処理サブシステム102の詳細な説明は後述する。画像データ格納サブシステム104は、HDD(hard disk drive)等の2次記憶装置(不図示)を制御し、画像データを格納し管理する。   The editing command processing subsystem 102 is a processing unit that represents the features of this embodiment, and is a subsystem that manages editing command processing. Details of the edit command processing subsystem 102 will be described later. The image data storage subsystem 104 controls a secondary storage device (not shown) such as an HDD (hard disk drive), and stores and manages image data.

画像処理サブシステム105は、画像処理ソフトウェア、画像処理ハードウェア、及び制御ソフトウェアで構成される。画像処理サブシステム105は、スキャナ・サブシステム106で読み込まれた画像データに対する矩形領域抽出及び下地除去等の画像処理の機能が登載されている。また、画像処理サブシステム105は、フォーム・データ生成サブシステム107と連携し、例えばRGB画像データをK(黒成分)を除去したCMY成分からなる色成分に変換する色空間変換機能や2次元座標IDのドット・パターンを生成する2次元座標ドット・パターン生成機能が搭載されている。   The image processing subsystem 105 includes image processing software, image processing hardware, and control software. The image processing subsystem 105 includes image processing functions such as rectangular area extraction and background removal for the image data read by the scanner subsystem 106. Further, the image processing subsystem 105 cooperates with the form data generation subsystem 107, for example, a color space conversion function for converting RGB image data into color components composed of CMY components from which K (black component) is removed, and two-dimensional coordinates. A two-dimensional coordinate dot pattern generation function for generating an ID dot pattern is installed.

スキャナ・サブシステム106は、原稿スキャナ(不図示)から読み込んだ原稿を画像処理サブシステム105と連携して画像データに変換し画像データ格納サブシステム104に格納する。フォーム・データ生成サブシステム107は、画像編集用フォーム(図5の符号500)用のフォーム構造データの管理を行い、さらに、そのプリント・データの生成や編集コマンド・フォーム(図6の符号600)用のプリント・データの生成を行う。   The scanner subsystem 106 converts a document read from a document scanner (not shown) into image data in cooperation with the image processing subsystem 105 and stores the image data in the image data storage subsystem 104. The form data generation subsystem 107 manages form structure data for the image editing form (reference numeral 500 in FIG. 5), and further generates the print data and edit command form (reference numeral 600 in FIG. 6). Print data is generated.

プリンタ・サブシステム108は、プリンタ装置(不図示)を制御してプリント・データをプリンタ装置に出力し、上記画像編集用フォーム用や編集コマンド・フォーム用のプリント・データを記録紙にプリントする。   The printer subsystem 108 controls a printer device (not shown) to output print data to the printer device, and prints the print data for the image editing form and the editing command form on a recording sheet.

画像データ編集サブシステム103は、スキャナ・サブシステム106で読み込まれ画像データ格納サブシステム104に格納された画像データを編集コマンド処理102の指示に従って画像編集処理を実施するとともに、画像データの編集状態を操作部サブシステム101や図3、4で後述する編集クライアント300、400上の表示装置に表示する。画像データ編集サブシステム103は、後述される図8に示すデータ・オブジェクト管理テーブルや図11〜18の編集領域管理テーブル等を、不図示のメモリや2次記憶装置に格納し管理する。   The image data editing subsystem 103 performs image editing processing on the image data read by the scanner subsystem 106 and stored in the image data storage subsystem 104 in accordance with the instruction of the editing command processing 102, and the editing state of the image data is changed. The data is displayed on the operation unit subsystem 101 or a display device on the editing clients 300 and 400 described later with reference to FIGS. The image data editing subsystem 103 stores and manages a data / object management table shown in FIG. 8 (to be described later), an editing area management table shown in FIGS. 11 to 18 in a memory (not shown) or a secondary storage device.

ジョブ制御サブシステム101は、システム内のジョブの制御を司り、画像バスとシステムバスとそれらを接続するイメージバスI/F等を含む。   The job control subsystem 101 controls the jobs in the system, and includes an image bus, a system bus, and an image bus I / F for connecting them.

図3は、図1の画像編集システムの変形形態で、本発明を適用できる実施形態の画像編集システムの第2の構成図である。図3と図1の画像編集システムの構成的な差を説明する。図3の画像編集システムは、図1の編集コマンド処理サブシステム102と画像データ編集サブシステム103を、本体ディバイス100から編集クライアント300として分離したシステムである。そして図3の画像編集システムは、本体ディバイス305にネットワーク通信サブシステム306を設け、編集クライアント300にもネットワーク通信サブシステム303を設け、本体ディバイス305と編集クライアント300との間の通信を行う。編集クライアント300は、PC上で実現可能であり、また、専用端末で実現してもよい。   FIG. 3 is a modification of the image editing system of FIG. 1 and is a second configuration diagram of the image editing system of the embodiment to which the present invention can be applied. A structural difference between the image editing systems of FIGS. 3 and 1 will be described. The image editing system in FIG. 3 is a system in which the editing command processing subsystem 102 and the image data editing subsystem 103 in FIG. 1 are separated from the main body device 100 as an editing client 300. In the image editing system of FIG. 3, the main body device 305 is provided with a network communication subsystem 306, and the editing client 300 is also provided with a network communication subsystem 303 to perform communication between the main body device 305 and the editing client 300. The editing client 300 can be realized on a PC or a dedicated terminal.

次に、図3と図1の画像編集システムの各サブシステムの機能的な差に関して説明する。図1の画像編集システムでは、編集コマンド処理サブシステム102へのキー入力やペン入力を、操作部サブシステム101のキーボード、操作部サブシステム101上の表示媒体(例えば、表示部にタッチパネルを重ね合わせたタブレット・ディバイス)、または前述した特許文献3に開示される2次元座標位置をドット・パターンで印字した画像編集用紙上で書き込みを行うデジタル・ペン等で行う。また図1の画像編集システムでは、画像データ編集サブシステム103による画像データの編集状態の表示は、操作部サブシステム101上の表示媒体で行う。   Next, functional differences between the subsystems of the image editing system of FIGS. 3 and 1 will be described. In the image editing system of FIG. 1, key input and pen input to the editing command processing subsystem 102 are performed by superimposing a keyboard of the operation unit subsystem 101 and a display medium on the operation unit subsystem 101 (for example, a touch panel on the display unit). Tablet device) or a digital pen or the like for writing on an image editing paper on which the two-dimensional coordinate position disclosed in Patent Document 3 is printed with a dot pattern. In the image editing system in FIG. 1, the image data editing subsystem 103 displays the image data editing state on a display medium on the operation unit subsystem 101.

一方、図3の画像編集システムでは、編集コマンド処理サブシステム301へのキー入力やペン入力を、編集クライアント300のキーボードや表示媒体で行い、または編集クライアント300に無線通信を介して接続された、上述の2次元座標位置をドット・パターンで印字した画像編集用紙上で書き込みを行うデジタル・ペン等で行う。また図3の画像編集システムでは、画像データ編集サブシステム302による画像データの編集状態の表示は、編集クライアント300の表示媒体で行う。   On the other hand, in the image editing system of FIG. 3, key input and pen input to the editing command processing subsystem 301 are performed using the keyboard and display medium of the editing client 300, or connected to the editing client 300 via wireless communication. The above-described two-dimensional coordinate position is written with a digital pen or the like that writes on the image editing paper printed with a dot pattern. In the image editing system of FIG. 3, the image data editing subsystem 302 displays the image data editing state on the display medium of the editing client 300.

図4は、図3の画像編集システムの変形形態で、本発明を適用できる実施形態の画像編集システムの第3の構成図である。図4と図3の画像編集システムの構成的な差を説明する。図4の画像編集システムは、編集クライアント400に画像データ格納サブシステム401を搭載し、本体ディバイス402の画像データ格納サブシステム403から編集対象の画像データを画像データ格納サブシステム401に格納する。画像データ編集サブシステム405は、画像データ格納サブシステム401に格納された画像データを編集コマンド処理404の指示に従って画像編集処理を実施する。   FIG. 4 is a modification of the image editing system of FIG. 3 and is a third configuration diagram of the image editing system of the embodiment to which the present invention can be applied. A structural difference between the image editing systems of FIGS. 4 and 3 will be described. The image editing system of FIG. 4 includes an image data storage subsystem 401 in the editing client 400, and stores image data to be edited from the image data storage subsystem 403 of the main device 402 in the image data storage subsystem 401. The image data editing subsystem 405 performs image editing processing on the image data stored in the image data storage subsystem 401 in accordance with an instruction of the editing command processing 404.

図2は編集コマンド処理サブシステム構成図であり、図1、図3、図4の編集コマンド処理サブシステム102、301、404の内部構成を示している。図2の編集コマンド処理サブシステム200は、図5の符号500に示すような、タブレットの画像編集用画面または画像編集用フォームをペンで編集する際に、タブレットやデジタル・ペンからペンで書き込んだ筆跡データの受信と解析を行う。   FIG. 2 is a configuration diagram of the edit command processing subsystem, and shows the internal configuration of the edit command processing subsystems 102, 301, and 404 of FIGS. The editing command processing subsystem 200 shown in FIG. 2 writes a tablet image editing screen or image editing form as shown by reference numeral 500 in FIG. 5 with the pen from the tablet or digital pen. Receive and analyze handwriting data.

その処理内容の概要を述べると、ペンで書き込んだ筆跡に対してその編集対象領域に関するモード・ボタン(図5の513の何れかのモード・ボタン)が選択され、モード選択の前に編集対象領域599上にペンで書き込まれた筆跡データに対して対応するモード処理が実行される。   An outline of the processing contents will be described. A mode button (any one of the mode buttons 513 in FIG. 5) relating to the edit target area is selected for the handwriting written with the pen, and the edit target area is selected before the mode selection. A corresponding mode process is executed on the handwriting data written on the 599 with a pen.

例えば、図形503の周りをペンで囲い(囲い線502)、513の新規領域モード・ボタンをペンでチェックした場合、囲い線502内の画像データやペンの筆跡データがトリミング、図形整形等の機能を適用する対象として新規に領域指定ならびに領域の選択が実行される。その後、機能ボタン(図5の514の何れかの機能ボタン)がペンでチェックされると前述の選択領域に対応して選択した機能ボタンに対応する処理が実行される。例えば、図5の図形領域503が囲い線502が選択された状態で図5の機能ボタン領域514のトリミング・ボタンをペンでチェックすると、囲い線502の外接切片である矩形領域504内の画像データがトリミング(切取り)される。   For example, if the pen around the figure 503 is enclosed (enclosure line 502) and the new area mode button 513 is checked with the pen, the image data and pen handwriting data in the enclosure line 502 are trimmed, figure shaping, etc. As a target to be applied, new area designation and area selection are executed. Thereafter, when a function button (any one of the function buttons 514 in FIG. 5) is checked with a pen, processing corresponding to the function button selected corresponding to the above-described selection area is executed. For example, when the trimming button in the function button area 514 in FIG. 5 is checked with a pen in the state where the enclosing line 502 is selected in the graphic area 503 in FIG. 5, the image data in the rectangular area 504 that is a circumscribed segment of the enclosing line 502 is displayed. Is trimmed.

次に、図2に示した各構成部位に関して説明する。ディバイス通信部201は、キーボード、タブレットやデジタル・ペンと通信する部分でRS−232C(Recommended Standard 232C)、USB(Universal Serial Bus)などの有線通信、iRDA(Infrared Data Association)などの赤外線通信、Bluetooth(商標)などの無線通信が用いられる。   Next, each component shown in FIG. 2 will be described. The device communication unit 201 is a part that communicates with a keyboard, a tablet, and a digital pen. Wired communication such as RS-232C (Recommended Standard 232C) and USB (Universal Serial Bus), infrared communication such as iRDA (Infrared Data Association), Bluetooth Wireless communication such as (trademark) is used.

ディバイス・データ解析部202は、本実施形態の特徴を最も現す部分の1つであり、ディバイス通信部201から定期的時間によりサンプリングし受信したタブレットやデジタル・ペンのペン・データを解析し編集状態、選択領域の管理や空き空間管理203からデータ削除215に至る部位の実行制御を司る部位である。ディバイス・データ解析部202の詳細な説明は、トークンとペン・ベクトル解析処理の状態遷移図である図19を中心に参照し後述する。   The device data analysis unit 202 is one of the most prominent features of the present embodiment. The device data analysis unit 202 analyzes the pen data of a tablet or digital pen sampled and received from the device communication unit 201 at regular intervals, and is in an editing state. This is a part that manages execution control of a part from the management of the selected area and the free space management 203 to the data deletion 215. A detailed description of the device data analysis unit 202 will be described later with reference to FIG. 19 which is a state transition diagram of token and pen vector analysis processing.

空き空間管理部203は、前述のデジタル・ペンを用いた場合に、前述の2次元座標位置を特定する2次元座標空間の使用中領域管理と空き領域管理を行う。少なくとも、本実施形態の図10の座標変換管理テーブル(後述)の矩形領域に登録されている2次元座標空間は、空き空間管理部203において前述の使用中領域として管理されている。ただし、タブレットを用いた場合は空き空間管理部203は用いられない。   When the above-mentioned digital pen is used, the free space management unit 203 performs in-use area management and free area management of the two-dimensional coordinate space for specifying the above-described two-dimensional coordinate position. At least the two-dimensional coordinate space registered in the rectangular area of the coordinate conversion management table (described later) in FIG. 10 of this embodiment is managed as the above-described in-use area by the free space management unit 203. However, when a tablet is used, the free space management unit 203 is not used.

座標変換管理部204では、図10の座標変換管理テーブルで記載されたデータを管理し、図5の各ハッチングされた矩形領域ごとに対して領域ID、領域種別、代替トークン、領域対応処理オブジェクト、及びコメントを対応づけて管理している。詳細は図21を用いて後で説明する。   The coordinate conversion management unit 204 manages data described in the coordinate conversion management table of FIG. 10, and for each hatched rectangular area of FIG. 5, an area ID, an area type, a substitute token, an area corresponding processing object, And comments are managed in association with each other. Details will be described later with reference to FIG.

ここで図10の座標変換管理テーブルの詳細について説明する。領域ID欄は矩形領域を識別するためのIDである。矩形領域欄は、図5のハッチングされた領域である前述の編集領域599、各モード・ボタン513、各機能ボタン514、及び送信ボタン516の領域に関する情報である。例えば、デジタル・ペンを用いたシステムにおいて図5は編集用フォーム紙を表しており、矩形領域欄には、各矩形領域内に印字された2次元座標を表すドット・パターンに対応するIDの集合を示す情報が管理される。ただし、デジタル・ペンを用いたシステムにおいて送信ボタン516は特殊で、デジタル・ペンに蓄積されたペンの筆跡データを本実施形態の編集コマンド処理部301に送出するトリガとして用いられる。例えば、矩形領域欄のIDの集合を示す情報は、2次元空間の左上隅、右上隅、左下隅、右下隅の2次元座標である。   Details of the coordinate conversion management table of FIG. 10 will be described here. The area ID column is an ID for identifying a rectangular area. The rectangular area column is information relating to the areas of the editing area 599, each mode button 513, each function button 514, and the transmission button 516, which are hatched areas in FIG. For example, in a system using a digital pen, FIG. 5 shows an edit form paper, and a rectangular area column includes a set of IDs corresponding to dot patterns representing two-dimensional coordinates printed in each rectangular area. Is managed. However, the transmission button 516 is special in a system using a digital pen, and is used as a trigger to send pen handwriting data stored in the digital pen to the editing command processing unit 301 of the present embodiment. For example, the information indicating the set of IDs in the rectangular area column is the two-dimensional coordinates of the upper left corner, upper right corner, lower left corner, and lower right corner of the two-dimensional space.

一方、タブレットを用いたシステムにおいては、矩形領域欄のIDの集合を示す情報は、タブレット上の表示装置に表示された図5の画像編集用画面のハッチングされた各矩形領域の画面の2次元領域情報である。例えば、2次元領域情報は、仮想表示画面上の左上隅、右上隅、左下隅、右下隅の2次元座標である。   On the other hand, in a system using a tablet, information indicating the set of IDs in the rectangular area column is the two-dimensional information of the hatched rectangular area screen of the image editing screen of FIG. 5 displayed on the display device on the tablet. It is area information. For example, the two-dimensional area information is two-dimensional coordinates of the upper left corner, upper right corner, lower left corner, and lower right corner on the virtual display screen.

領域種別欄は、編集領域なのかモード指定や機能指定を行うボタンなのかを識別する情報である。   The area type column is information for identifying whether it is an editing area or a button for mode designation or function designation.

代替トークンとは、一連かつ複数の2次元座標の集合を1つのトークンとして代替する図5で示した各ボタン513,514内のボタンの意味を抽象化したトークンであり、内部解析処理を単純化するために用いられる。なぜなら、ポインティング・ディバイスから入力された一連かつ複数の2次元座標を1座標毎に領域範囲チェックを行い対応する意味を求めることは処理系が複雑になるからである。図5で示した各ボタン513,514内の矩形領域内がペン等のポインティング・ディバイスでチェックされた場合、ポインティング・ディバイスから受信した座標情報をキーに図10の座標変換管理テーブルが参照され、それにより各ボタン513,514内のボタンが代替トークンに変換される。代替トークンへの変換はディバイス・データ解析部の前段で実施される。   The substitute token is a token that abstracts the meaning of the buttons in the buttons 513 and 514 shown in FIG. 5 that substitutes a set of a plurality of two-dimensional coordinates as one token, and simplifies internal analysis processing. Used to do. This is because it is complicated to obtain a corresponding meaning by performing a region range check for each coordinate of a series and a plurality of two-dimensional coordinates input from a pointing device. When the rectangular area in each of the buttons 513 and 514 shown in FIG. 5 is checked with a pointing device such as a pen, the coordinate conversion management table of FIG. 10 is referred to using the coordinate information received from the pointing device as a key, As a result, the buttons in the buttons 513 and 514 are converted into alternative tokens. Conversion to an alternative token is performed before the device data analysis unit.

各代替トークンの内容の説明を以下に示す。
<T>:ボタン領域(図5の515内)のいずれかのボタンをペンで触れたことを意味するトークン。
<FTx>:機能ボタン領域(図5の514内)のいずれかのボタンをペンで触れたことを意味するトークン。”FTx”の”x”各種機能ボタンを区別するために数字である。
<MT>:モード・ボタン領域(図5の513内)のいずれかのボタンをペンで触れたことを意味するトークン。
<AT>:領域関連のボタン(図5の513の新規領域モード、領域選択モード、領域選択解除モード)をペンで触れたことを意味するトークン。
<IT>:「手書き入力モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
<ST>:「領域選択モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
<NT>:「新規領域モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
<CT>:「領域選択解除モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
The explanation of the contents of each alternative token is shown below.
<T>: A token that means that any button in the button area (inside 515 in FIG. 5) is touched with a pen.
<FTx>: A token that means that any button in the function button area (514 in FIG. 5) is touched with a pen. “FT” “x” is a number for distinguishing various function buttons.
<MT>: A token that means that any button in the mode button area (inside 513 in FIG. 5) is touched with a pen.
<AT>: A token that means that a button related to an area (513 new area mode, area selection mode, area selection release mode) is touched with a pen.
<IT>: Token that means that the “handwriting input mode” (inside of 513 in FIG. 5) button is touched with a pen.
<ST>: A token indicating that the “area selection mode” (inside of 513 in FIG. 5) button is touched with a pen.
<NT>: A token indicating that the “new area mode” (inside of 513 in FIG. 5) button is touched with a pen.
<CT>: A token indicating that the “area selection release mode” (inside of 513 in FIG. 5) button is touched with a pen.

上記トークンのお互いの関係を以下に示す。
<T> --+-- <FT>
|
+-- <MT> --+-- <AT> --+-- <ST>
| +-- <NT>
+-- <IT> +-- <CT>
The relationship between the above tokens is shown below.
<T>-+-<FT>
|
+-<MT>-+-<AT>-+-<ST>
| +-<NT>
+-<IT>+-<CT>

また、図10の領域対応処理オブジェクト欄の処理は、各矩形領域に対応する処理である。具体的には、図2のディバイス・データ解析処理のプログラム・エントリを示す情報が格納される。コメント欄には領域の意味を識別するためのコメントが格納される。   Further, the processing in the area corresponding processing object column in FIG. 10 is processing corresponding to each rectangular area. Specifically, information indicating a program entry of the device data analysis process of FIG. 2 is stored. A comment for identifying the meaning of the area is stored in the comment column.

図2の編集コマンド処理サブシステム200における、手書き入力モード部206、ベクトル追加部207、新規領域モード部208、領域選択解除モード部209、及び領域選択モード部210は、各処理部の起動と処理パラメータの引渡しであり、各処理部の実際の処理に関しては、画像データ編集サブシステム(図1の103、図3の302、図4の405)で実行される。画像データ編集サブシステムの処理内容の詳細は、図22〜図26を用いて後述される。   In the editing command processing subsystem 200 of FIG. 2, the handwriting input mode unit 206, the vector addition unit 207, the new region mode unit 208, the region selection cancellation mode unit 209, and the region selection mode unit 210 are activated and processed by each processing unit. This is parameter delivery, and the actual processing of each processing unit is executed by the image data editing subsystem (103 in FIG. 1, 302 in FIG. 3, and 405 in FIG. 4). Details of the processing contents of the image data editing subsystem will be described later with reference to FIGS.

図7は編集処理後の編集画面図700であり、操作部101または編集クライアント300,400で表示される。図5、図7を用いて各機能処理部211〜213、及び215の処理結果の説明を行う。   FIG. 7 is an editing screen diagram 700 after the editing process, which is displayed on the operation unit 101 or the editing clients 300 and 400. The processing results of the function processing units 211 to 213 and 215 will be described with reference to FIGS.

画像→文字コード変換部211は、領域指定された画像内の文字部を抽出して文字コードに変換する。例えば、図5の領域509を選択し、画像→文字コード変換を行うと図7の707のように文字コードに変換されアノテーションとして編集データとして埋め込まれるとともに、706のように文字フォントの画像データとして書き込まれる。   The image → character code conversion unit 211 extracts a character part in the image whose area is specified and converts it into a character code. For example, when the area 509 in FIG. 5 is selected and image → character code conversion is performed, it is converted into a character code as shown in 707 in FIG. 7 and embedded as edit data as annotation, and as image data in a character font as shown in 706. Written.

筆跡→文字コード変換部212は、領域指定された領域内のタブレットやデジタル・ペン等のポインティング・ディバイスの筆跡ベクトルを文字コードに変換する。例えば、図5の領域506を選択し、筆跡→文字コード変換を行うと図7の703のように文字コード”あいう”に変換されアノテーションとして編集データとして埋め込まれるとともに、702のように文字フォントの画像データとして書き込まれる。   The handwriting → character code conversion unit 212 converts a handwriting vector of a pointing device such as a tablet or a digital pen in the designated area into a character code. For example, when the region 506 in FIG. 5 is selected and handwriting → character code conversion is performed, the character code “A” is converted as indicated by 703 in FIG. Written as image data.

図形整形部213は、領域指定された領域内の前述のポインティング・ディバイスの筆跡ベクトルを図形整形し図形ベクトル・データに変換する。例えば、図5の領域507を選択し、図形整形を行うと前記ポインティング・ディバイスで書き込んだ三角形508が図7の704のように整形され画像として書き込まれる。さらに、整形された三角形の図形ベクトル・データがアノテーションとして編集データに埋め込まれる。   The figure shaping unit 213 shapes the handwriting vector of the above pointing device in the area designated area and converts it into figure vector data. For example, when the area 507 in FIG. 5 is selected and the figure is shaped, the triangle 508 written by the pointing device is shaped as shown by 704 in FIG. 7 and written as an image. Further, the shaped triangle graphic vector data is embedded in the editing data as an annotation.

トリミング/マスキング部214は、領域指定された領域内の画像をトリミングまたはマスキングする。   The trimming / masking unit 214 trims or masks an image in the area designated.

データ削除部215は、領域指定された領域内の画像を削除し、ディフォルトの塗りつぶし色またはドット・パターンで置き換える。例えば、図5の領域502を指定しデータ削除を行うと図7の701のように指定された領域が削除される。701のように削除前の画像を破線で表示上は残し画像データは削除しても良いし、表示上完全に削除してもよい。   The data deleting unit 215 deletes the image in the area designated and replaces it with the default fill color or dot pattern. For example, when the area 502 in FIG. 5 is designated and data is deleted, the designated area is deleted as indicated by 701 in FIG. As in 701, the image before deletion may be left on the display with a broken line, and the image data may be deleted, or may be deleted completely on the display.

(動作説明)
以上述べたシステム構成において、本実施形態の画像編集システムの動作内容について説明する。
(Description of operation)
In the system configuration described above, the operation content of the image editing system of this embodiment will be described.

本実施形態の特徴であるディバイス・データ解析部202の詳細を説明する。最初に図20のディバイス・データ解析処理のフローチャートを用いて説明する。ステップS2001でディバイス通信部201から一筆分のペン・データを受信する。ここで言うペン・データとはタブレットやデジタル・ペン等のポインティング・ディバイス(以降簡単のためペンと呼ぶ)の筆跡データである。   Details of the device data analysis unit 202, which is a feature of the present embodiment, will be described. First, a description will be given using the flowchart of the device data analysis process of FIG. In step S2001, pen data for one stroke is received from the device communication unit 201. The pen data referred to here is handwriting data of a pointing device (hereinafter referred to as a pen for the sake of simplicity) such as a tablet or a digital pen.

次に、ステップS2002で座標変換管理部204の座標変換管理処理(図21を参照し後述)を実行し、ペン・データをペン・ベクトル(PVn)に変換しまたは図10の座標変換管理テーブルを参照して代替トークンに変換し、図10の座標変換管理テーブルを参照してペンで書き込んだ領域に対応した処理オブジェクトを選択する。次に、ステップS2003で処理オブジェクトが画像編集用の処理オブジェクトであるProc-Aか確認する。もし、NOならばステップS2005に移行しその他の対応処理を実行し終了する。一方、YESならばステップS2004に進みトークンとペン・ベクトル解析処理を実行し処理を終了する。なお、ステップS2004の詳細な説明は図19を用いて後述される。   Next, in step S2002, a coordinate conversion management process (described later with reference to FIG. 21) of the coordinate conversion management unit 204 is executed to convert pen data into a pen vector (PVn) or to convert the coordinate conversion management table of FIG. By referring to the converted token, the processing object corresponding to the area written with the pen is selected with reference to the coordinate conversion management table of FIG. Next, in step S2003, it is confirmed whether the processing object is Proc-A, which is a processing object for image editing. If NO, the process proceeds to step S2005, and other corresponding processing is executed and the process ends. On the other hand, if YES, the flow advances to step S2004 to execute a token and pen vector analysis process, and the process ends. The detailed description of step S2004 will be described later with reference to FIG.

次に、図21を用いて座標変換管理部204の処理に関して説明する。先ず、ステップS2101で図10の座標変換管理テーブルを検索するために、テーブルのインデックス変数であるiに1をセットする。次に、ステップS2102に進み、テーブルの最大レコード数であるNと比較して最終レコードを全て検索したかチェックする。もし、iがNを超えて最終レコードを全て検索し終わった(YES)ならばステップS2108にジャンプする。もし、NOならばステップS2103に移行し、ペン・データが図10の座標変換管理テーブルのインデックス変数iが指すレコード(CTRi)の矩形領域内のものか確認する。   Next, the processing of the coordinate conversion management unit 204 will be described with reference to FIG. First, in step S2101, in order to search the coordinate conversion management table of FIG. 10, 1 is set to i which is an index variable of the table. Next, the process proceeds to step S2102, where it is checked whether all the last records have been searched by comparing with N, which is the maximum number of records in the table. If i exceeds N and all the last records have been searched (YES), the process jumps to step S2108. If NO, the process advances to step S2103 to check whether the pen data is within the rectangular area of the record (CTRi) pointed to by the index variable i in the coordinate conversion management table of FIG.

次に、ステップS2104でペン・ベクトルが矩形領域内に存在するかチェックし、しない(NO)ならばステップS2109にジャンプする。一方、YESならばステップS2105に移行し、図10の座標変換管理テーブルのインデックス変数iが指すレコードの領域種別が”編集”かどうかチェックし、NOならばステップS2110にジャンプする。一方、YESならば編集領域内をペンで書いたとみなし、ステップS2106に移行して、ペン・データをペン・ベクトル(PVn)に変換し、一時的なメモリ領域(一時格納領域)に格納する。   Next, in step S2104, it is checked whether the pen vector exists in the rectangular area. If not (NO), the process jumps to step S2109. On the other hand, if YES, the flow shifts to step S2105 to check whether the area type of the record pointed to by the index variable i in the coordinate conversion management table of FIG. 10 is “edit”, and if NO, jump to step S2110. On the other hand, if YES, it is considered that the editing area has been written with a pen, the process proceeds to step S2106, pen data is converted into a pen vector (PVn), and stored in a temporary memory area (temporary storage area).

次に、ステップS2107に進みディバイス・データ解析部202に対する処理完了後の終了情報として、ペン・ベクトル(PVn)または代替トークンと図10の座標変換管理テーブルのインデックス変数iが指すレコードの領域対応処理オブジェクトを、パラメータとして図20の処理に引渡し処理を終了する。   Next, the process proceeds to step S2107, and the processing corresponding to the area indicated by the pen vector (PVn) or alternative token and the index variable i in the coordinate transformation management table of FIG. The object is passed as a parameter to the process of FIG.

また、ステップS2108は、ペン・データが図10の座標変換管理テーブル上に未登録であり処理できない旨のエラー(または、編集領域かボタンの上をペンで書き込みを促す旨)を操作部101または編集クライアント300,400の表示装置に表示する。また、ステップS2109では、図10の座標変換管理テーブルの次レコードを処理するためにインデックスiをインクリメントし、ステップS2102にジャンプする。また、ステップS2110では、ペンで書いた領域が前述のボタン領域なので、終了情報として引き渡すために、図10の座標変換管理テーブルのインデックス変数iが指すレコードの代替トークンを取りだし、ステップS2107にジャンプする。   In step S2108, an error indicating that the pen data is not registered on the coordinate conversion management table in FIG. 10 and cannot be processed (or that the pen is to be written on the editing area or button) is displayed on the operation unit 101 or The information is displayed on the display device of the editing client 300 or 400. In step S2109, the index i is incremented to process the next record in the coordinate conversion management table of FIG. 10, and the process jumps to step S2102. In step S2110, since the area written with the pen is the above-described button area, in order to deliver it as end information, the substitute token of the record pointed to by the index variable i in the coordinate conversion management table of FIG. 10 is taken out, and the process jumps to step S2107. .

次に図19のトークンとペン・ベクトル解析処理の状態遷移図を用いて図20のステップS2004の詳細を説明する。   Next, details of step S2004 of FIG. 20 will be described using the state transition diagram of the token and pen vector analysis processing of FIG.

領域未選択状態1901は編集対象の領域が一切選択されていない状態を示している。編集入力中1状態1905は領域が一切選択されていない状態で、編集対象領域(図5の599)内をポインティング・ディバイスで書き込んでいる状態を示している。領域指定済み状態1908は編集対象の領域が指定されている状態を示している。編集入力中2状態1911は編集対象の領域が指定済みの状態で、かつ編集対象領域(図5の599)内をポインティング・ディバイスで書き込んでいる状態を示している。   An area unselected state 1901 indicates a state where no area to be edited is selected. An editing input state 1 1905 shows a state in which no area is selected and the area to be edited (599 in FIG. 5) is written with a pointing device. An area designated state 1908 indicates a state in which an area to be edited is designated. An editing input state 2 1911 shows a state in which the editing target area has been designated and the editing target area (599 in FIG. 5) is being written with a pointing device.

図19中の矢印は、ある状態から次の状態への遷移を示しており、矢印に付けた番号は下記IF-THEN式に示す番号(XまたはX-YのX)を示している。IF-THEN式の枝番号(X-Y)がついている式は枝番号(Y)分のIF−THEN式が存在していること示している。IF以降が遷移条件をTHEN以降が遷移した際の処理である。尚、括弧”<>”内は代替トークンを表している(前述の座標変換管理部204の説明を参照)。さらに、PVnは編集対象領域(図5の599)内で書かれた筆跡データであるペン・ベクトルを示している。   An arrow in FIG. 19 indicates a transition from one state to the next state, and a number given to the arrow indicates a number (X of X or X-Y) shown in the following IF-THEN expression. The expression with the branch number (X-Y) of the IF-THEN expression indicates that there are IF-THEN expressions for the branch number (Y). The process after IF is the transition condition and the process after THEN transitions. The parentheses “<>” represent an alternative token (see the description of the coordinate conversion management unit 204 described above). Further, PVn indicates a pen vector which is handwriting data written in the edit target area (599 in FIG. 5).

<<IF-THEN式>>
(1)IF <T> THEN ユーザにエラーを通知する
(2)IF PVn THEN ベクトル追加処理を実行する
(3)−1 IF PVn THEN ベクトル追加処理を実行する
(3)−2 IF <FT> THEN ユーザにエラーを通知する
(4)−1 IF <CT> THEN <CT>前のPVnと<CT>を無視する
(4)−2 IF <IT> THEN <IT>前のPVnに対して手書き入力モード処理を実行する
(5)−1 IF <ST> THEN <ST>前のPVnに対して領域選択モード処理を実行する
(5)−2 IF <NT> THEN <NT>前のPVnに対して新規領域モード処理を実行する
(6) IF <IT>または<ST>または<NT> THEN ユーザにエラーを通知する
(7) IF PVn THEN ベクトル追加処理を実行する
(8)−1 IF PVn THEN ベクトル追加処理を実行する
(8)−2 IF <FT> THEN ユーザにエラーを通知する
(8)−3 IF <CT> THEN <CT>前のPVnに対して領域選択解除モード処理を実行する
(9) IF <CT> THEN <CT>前のPVnに対して領域選択解除モード処理を実行する
(10)−1 IF <ST> THEN <ST>前のPVnに対して領域選択モード処理を実行する
(10)−2 IF <NT> THEN <NT>前のPVnに対して新規領域モード処理を実行する
(10)−3 IF <IT> THEN <IT>前のPVnに対して手書き入力モード処理を実行する
(11)−1 IF <FT> THEN 選択済みの領域に対して各種機能処理を実行する
(11)−2 IF <CT> THEN 選択済みの領域にたいして領域選択解除モード処理を実行する
<< IF-THEN expression >>
(1) IF <T> THEN Notify user of error (2) Execute IF PVn THEN vector addition processing (3) -1 Execute IF PVn THEN vector addition processing (3) -2 IF <FT> THEN Notify user of error (4) -1 Ignore PVn and <CT> before IF <CT> THEN <CT> (4) -2 Handwritten input to PVn before IF <IT> THEN <IT> Execute mode processing (5) -1 Execute area selection mode processing for PVn before IF <ST> THEN <ST> (5) -2 For PVn before IF <NT> THEN <NT> Execute new area mode processing (6) IF <IT> or <ST> or <NT> THEN Notify user of error (7) Execute IF PVn THEN vector addition processing (8) -1 IF PVn THEN vector performing a region deselect mode processing for any additional process is executed (8) and notifies the error to -2 IF <FT> THEN user (8) -3 IF <CT> THEN <CT> previous PVn (9 IF <CT> THEN <CT> Execute area selection release mode processing for PVn before (10) -1 IF <ST> THEN <ST> Execute area selection mode processing for PVn before (10) ) -2 IF <NT> THEN <NT> Execute new area mode processing for PVn before (10) -3 IF <IT> THEN <IT> Execute handwriting input mode processing for PVn before (11) -1 IF <FT> THEN Various function processing is executed for the selected area. (11) -2 IF <CT> THEN Area selection release mode processing is executed for the selected area.

以降、上記IF-THEN式のTHEN以降記載の処理部の下線部分の詳細を図2と図22〜26図のフローチャートを用いて説明する。ここでそれに先立ち、まず、図8のデータ・オブジェクト管理テーブルのリスト図を説明し、さらに、図11〜18の編集領域管理テーブルに関して説明しておく。   Hereinafter, details of the underlined portion of the processing section described after THEN of the IF-THEN formula will be described with reference to the flowcharts of FIG. 2 and FIGS. Prior to that, first, the list diagram of the data / object management table of FIG. 8 will be described, and further, the editing area management tables of FIGS. 11 to 18 will be described.

図8のデータ・オブジェクト管理テーブルのリスト図を参照し、図5の編集対象領域599に書き込まれた領域関連以外の筆跡データを管理するためのデータ・オブジェクト管理テーブルについて説明する。   The data object management table for managing handwriting data other than the area related data written in the editing target area 599 in FIG. 5 will be described with reference to the list diagram of the data object management table in FIG.

図8において、データ・オブジェクト管理テーブルでは、編集対象の筆跡データであるペン入力データの集合を一塊として管理する。具体的には、図5の514の機能ボタンが選択されるまでのペン入力データの集合を1つの管理レコードで管理する。そのペン入力データは、データ・オブジェクト管理テーブルの管理レコードの”ペン入力データ”欄に格納される。”データ種別”、”データ内容”それぞれの欄には、選択された機能ボタンに対応するデータ種別、および編集対象のペン・ベクトルPVnに対してその機能ボタンに対応する変換処理結果が格納される。   In FIG. 8, in the data object management table, a set of pen input data that is handwriting data to be edited is managed as a lump. Specifically, a set of pen input data until the function button 514 in FIG. 5 is selected is managed by one management record. The pen input data is stored in the “pen input data” column of the management record of the data object management table. In each of the “data type” and “data content” fields, the data type corresponding to the selected function button and the conversion processing result corresponding to the function button for the pen vector PVn to be edited are stored. .

例えば、図8の1レコード目のオブジェクトID”Oa”は、図5の領域506内のペン・ベクトルに対して図5の514の機能ボタン”筆跡→文字列変換”が適用され、”データ種別”欄に”文字列”、”データ内容”欄に文字列である”あいう”703が格納される。   For example, for the object ID “Oa” in the first record in FIG. 8, the function button “handwriting → character string conversion” in 514 in FIG. 5 is applied to the pen vector in the area 506 in FIG. The “character string” is stored in the “column”, and the “character” “703” is stored in the “data content” column.

オブジェクトID”Ob”には、図5の領域508内のペン・ベクトルに対して図5の514の機能ボタン”図形整形”が適用され、”データ種別”欄に”図形”、”データ内容”欄に三角形705の図形ベクトルが格納される。   For the object ID “Ob”, the function button “shape shaping” of 514 in FIG. 5 is applied to the pen vector in the area 508 in FIG. 5, and “graphic” and “data contents” are displayed in the “data type” column. A graphic vector of the triangle 705 is stored in the column.

オブジェクトID”Oc”には、図5の領域509内のペン・ベクトルに対して図5の514の機能ボタン”画像→文字列変換”が適用され、”データ種別”欄に”文字列”、”データ内容”欄に変換された結果の文字列707が格納される。但し、図5の512は画像データの文字列なので”ペン入力データ”欄にはペン・ベクトルは格納されない。   For the object ID “Oc”, the function button “image → character string conversion” of 514 in FIG. 5 is applied to the pen vector in the area 509 in FIG. 5, and “character string”, The converted character string 707 is stored in the “data content” column. However, since 512 in FIG. 5 is a character string of image data, no pen vector is stored in the “pen input data” column.

次いで図5、図8、図9を参照しながら、図11〜18の編集領域管理テーブルの設定内容に関して説明しおく。   Next, the setting contents of the editing area management table of FIGS. 11 to 18 will be described with reference to FIGS. 5, 8, and 9.

図11は初期状態であり、図5の編集対象領域599が図11の管理テーブルの1行目(1管理レコード目)であり、”内包領域”として”b”(その管理テーブルの2行目の”領域ID”)と”c”(その管理テーブルの3行目の”領域ID”)を包含している。その管理テーブルの2行目は図5の矩形領域503の管理レコード、3行目は図5の矩形領域510の管理レコードである。画像データからの矩形領域503、510の解析と矩形抽出は、図1の画像処理サブシステム105、図3の305中の画像処理サブシステム、図4の402中の画像処理サブシステムで処理され、その結果は図11の2行目と3行目の管理レコードに反映される。   FIG. 11 shows an initial state, and the editing target area 599 of FIG. 5 is the first line (first management record) of the management table of FIG. 11, and “b” (second line of the management table) is included as the “included area”. "Area ID") and "c" ("area ID" in the third row of the management table). The second line of the management table is a management record of the rectangular area 503 in FIG. 5, and the third line is a management record of the rectangular area 510 in FIG. Analysis and rectangular extraction of the rectangular areas 503 and 510 from the image data are processed by the image processing subsystem 105 in FIG. 1, the image processing subsystem in 305 in FIG. 3, and the image processing subsystem in 402 in FIG. The result is reflected in the management records in the second and third lines in FIG.

図12は、図11の初期状態からペンで1つめの新規の領域指定(図5の502)の囲線を書いた直後の編集領域管理テーブルの状態である。その結果、図12の4つ目の管理レコード(”領域ID”が”d”)が追加され、”選択状態”に”選択”、”種別”が手書領域”、その領域に外接する図5の破線の矩形504データが”領域ベクトル”にセットされ、囲い線502は矩形503を内包するので”内包領域”に”b”がセットされる。さらに、図12の1つ目の管理レコード”a”の”内包領域”が”c”と”d”にセットされる。   FIG. 12 shows the state of the editing area management table immediately after the first new area designation (502 in FIG. 5) is drawn with the pen from the initial state of FIG. As a result, the fourth management record in FIG. 12 (“area ID” is “d”) is added, “selected” is “selected”, “type” is the handwritten area, and the figure circumscribes the area. The broken line rectangle 504 data of 5 is set in the “area vector”, and the enclosing line 502 includes the rectangle 503, so “b” is set in the “inclusive area”, and the first management record in FIG. “Inclusive area” of “a” is set to “c” and “d”.

図13はペンで図5の505の文字”あいう”を書き込んだ直後の編集領域管理テーブルである。その文字のペン・ベクトルは図8のデータ・オブジェクト管理テーブルの新規に追加された管理レコード(図8の1行目)の”ペン入力データ”にセットされ、”オブジェクトID”に”Oa”がセットされる。次に、図13の1つ目の管理レコードの”内包オブジェクト”として”Oa”がセットされる。   FIG. 13 is an editing area management table immediately after the character “A” of 505 in FIG. 5 is written with a pen. The pen vector of the character is set to “pen input data” in the newly added management record (first line in FIG. 8) of the data object management table of FIG. 8, and “Oa” is set to “Object ID”. Set. Next, “Oa” is set as the “included object” of the first management record in FIG.

図14はペンで書き込んだ図5の505の文字の周辺をペンで囲線506で領域指定した直後の編集領域管理テーブルの状態である。操作上はペンで囲線506を書いた後に513内の新規領域モード・ボタンをチェックする。編集対象領域599の直下に新規領域506が新たに指定されたので、図14の5番目の管理レコードが追加され、”領域ID”に”e”、”選択状態”に”選択”、”種別”に”手書領域”、”領域ベクトル”に506の外接矩形、”内包領域”に”なし”、さらに、”内包オブジェクト”に”Oa"がセットされる。さらに、図14の1行目の”内包領域”に”e”が追加され、”内包オブジェクト”に”なし”がセットされる。これは、編集対象領域599がオブジェクト”Oa"を直接包含していた状態から、新規領域”e”がオブジェクト”Oa"を直接包含し、編集対象領域599が領域”e”を包含する構成になったためである。   FIG. 14 shows the state of the editing area management table immediately after the area around the character 505 shown in FIG. In operation, the new area mode button in 513 is checked after the enclosing line 506 is written with a pen. Since the new area 506 is newly designated immediately below the edit target area 599, the fifth management record in FIG. 14 is added, and “e” is added to “area ID”, “selected” is set to “selected”, and “type” is selected. “Handwritten area” is set in “Handwritten area”, “circumscribed rectangle” is set in “area vector”, “None” is set in “Inclusive area”, and “Oa” is set in “Inclusive object”. Furthermore, “e” is added to the “included area” on the first line in FIG. 14, and “none” is set to the “included object”. This is because the new area “e” directly includes the object “Oa” and the editing area 599 includes the area “e” from the state in which the editing area 599 directly includes the object “Oa”. It is because it became.

図15はペンで図5の図形508を書き込んだ直後の編集領域管理テーブルの状態である。その文字のペン・ベクトルは図8のデータ・オブジェクト管理テーブルの新規に追加された管理レコード(図8の2行目)の”ペン入力データ”にセットされ、”オブジェクトID”に”Ob”がセットされる。次に、図15の1つ目の管理レコードの”内包オブジェクト”として”Ob”がセットされる。   FIG. 15 shows the state of the editing area management table immediately after the figure 508 of FIG. 5 is written with a pen. The pen vector of the character is set in the “pen input data” of the newly added management record (second line in FIG. 8) of the data object management table of FIG. 8, and “Ob” is set in the “object ID”. Set. Next, “Ob” is set as the “included object” of the first management record in FIG.

図16はペンで書き込んだ図5の図形508の周辺をペンで囲線507を書込んで、新規の領域を指定した直後の編集領域管理テーブルの状態である。操作上はペンで囲線507を書いた後に513内の新規領域モード・ボタンをチェックする。編集対象領域599の直下に新規領域507が新たに指定されたので、図16の6番目の管理レコードが追加され、”領域ID”に”f”、”選択状態”に”選択”、”種別”に”手書領域”、”領域ベクトル”に507の外接矩形、”内包領域”に”なし”、さらに、”内包オブジェクト”に”Ob"がセットされる。さらに、図16の1行目の”内包領域”に”f”が追加され、”内包オブジェクト”に”なし”がセットされる。これは、編集対象領域599がオブジェクト”Ob"を直接包含していた状態から、新規領域”f”がオブジェクト”Ob"を直接包含し、編集対象領域599が領域”f”を包含する構成になったためである。   FIG. 16 shows the state of the editing area management table immediately after a new area is specified by writing a surrounding line 507 with the pen around the figure 508 of FIG. 5 written with the pen. In operation, the new area mode button in 513 is checked after the enclosing line 507 is written with a pen. Since the new area 507 is newly designated immediately below the edit target area 599, the sixth management record in FIG. 16 is added, and “area ID” is “f”, “selected state” is “selected”, and “type” “Handwritten area” is set in “Area”, circumscribed rectangle 507 is set in “Area vector”, “None” is set in “Inclusive area”, and “Ob” is set in “Inclusive object”. Further, “f” is added to the “included area” on the first line in FIG. 16, and “none” is set to the “included object”. In this configuration, the editing target area 599 directly includes the object “Ob”, and the new area “f” directly includes the object “Ob” and the editing target area 599 includes the area “f”. It is because it became.

次に、図17は図5の文章512の周辺を囲線509で書込んで、新規の領域を指定した直後の編集領域管理テーブルの状態である。その結果、図17の7つ目の管理レコード(”領域ID”が”g”)が追加され、”選択状態”に”選択”、”種別”が手書領域”、その領域に外接する不図示の矩形データが”領域ベクトル”にセットされる。さらに矩形領域510は囲線509を内包するので、図17の3つ目の管理レコード”c”の”内包領域”が”g”にセットされる。   Next, FIG. 17 shows the state of the editing area management table immediately after the periphery of the sentence 512 in FIG. 5 is written with a surrounding line 509 and a new area is designated. As a result, the seventh management record in FIG. 17 ("area ID" is "g") is added, "selected" is "selected", "type" is handwritten area, and the area circumscribing that area The rectangular data shown in the figure is set in the “area vector.” Further, since the rectangular area 510 includes the enclosing line 509, the “inclusive area” of the third management record “c” in FIG. Is done.

最後に、図18は領域指定509内の画像に対して機能ボタン領域514中の「画像→文字列変換」を実行した直後の編集領域管理テーブルの状態である。この変換結果である文字列が図8のデータ・オブジェクト管理テーブルの3行目の管理レコードとしてセットされ、図18の7行目(”領域ID”が”g”)で”選択状態”に”未選択”、”内包オブジェクト”として図8の3行目の”0c”がセットされる。図9のデータ・オブジェクトの相互関連を示すツリー図は、図18のオブジェクトと領域との関係を表している。   Finally, FIG. 18 shows the state of the editing area management table immediately after executing “image → character string conversion” in the function button area 514 for the image in the area designation 509. The character string that is the result of this conversion is set as the management record in the third row of the data / object management table in FIG. 8, and is set to “selected” in the seventh row (“area ID” is “g”) in FIG. “0c” in the third row of FIG. 8 is set as “unselected” and “included object”. The tree diagram showing the correlation between the data objects in FIG. 9 represents the relationship between the objects and the areas in FIG.

次いで、図23のベクトル追加処理のフローチャートを用いてベクトル追加処理207を説明する。ステップS2301でペン・ベクトル・データ(PVn)を上記ペン・ベクトルの一時格納領域に格納する。次にステップS2302に進み、ペン・ベクトル(PVn)を筆跡データが選択済みの領域でもなく、編集対象の筆跡オブジェクトでもない未確定状態である旨の表現(例えば、表示装置がカラーディスプレイなら緑線、白黒ディスプレイの場合は破線)で表示装置に表示する。   Next, the vector addition process 207 will be described using the flowchart of the vector addition process of FIG. In step S2301, pen vector data (PVn) is stored in the pen vector temporary storage area. Next, proceeding to step S2302, an expression indicating that the pen vector (PVn) is in an indeterminate state in which the handwriting data is not the selected region or the handwriting object to be edited (for example, a green line if the display device is a color display) In the case of a monochrome display, a broken line) is displayed on the display device.

次に、図22の手書き入力モード処理のフローチャートを用いて手書き入力モード部206を詳細に説明する。まず、ステップS2201のNは図5の手書き入力モード・ボタンをチェックする前に入力されたペン・ベクトル数である。Nが0の場合はペン・ベクトルが1つも入力されていないことを意味する。従って、ステップS2201でそのNをチェックして Nが0以下の場合は、ステップS2208にジャンプしてその旨のエラーを表示装置(図1の101、図3,4の画像編集クライアント300、400の表示装置)に表示する。   Next, the handwriting input mode unit 206 will be described in detail using the flowchart of the handwriting input mode processing of FIG. First, N in step S2201 is the number of pen vectors input before checking the handwriting input mode button in FIG. When N is 0, it means that no pen vector has been input. Therefore, if N is checked at step S2201, and N is 0 or less, the process jumps to step S2208 and an error to that effect is displayed on the display device (101 in FIG. 1, image editing clients 300 and 400 in FIGS. 3 and 4). Display on the display device).

一方、N>0ならばステップS2202に進み、図8のデータ・オブジェクト管理テーブルに新規にレコードを追加する。次に、ステップS2203に進みペン・ベクトルの一時格納領域から取り出したペン・ベクトル数をカウントする変数(n)に1をセットする。 次に、ステップS2204に進み、n>N(最後のペン・ベクトルを取り出し済み)をチェックし、NOならばステップS2209にジャンプする。   On the other hand, if N> 0, the process proceeds to step S2202, and a new record is added to the data object management table of FIG. In step S2203, 1 is set to a variable (n) for counting the number of pen vectors extracted from the pen vector temporary storage area. In step S2204, n> N (the last pen vector has been extracted) is checked. If NO, the process jumps to step S2209.

一方、YESならばステップS2205に進み、前述の編集領域管理テーブルを検索し、一時格納領域から取り出した全てのペン・ベクトルを包含する領域の管理レコードが存在するかチェックする(ステップS2206)。そのような管理レコードが存在しないならステップS2212にジャンプする。一方、そのような管理レコードが存在するならステップS2207に移行し、編集領域管理テーブルのステップS2205で一致した管理レコードの”内包オブジェクト”として前述のデータ・オブジェクト管理テーブルのオブジェクトIDをセットし、処理を終了する。   On the other hand, if YES, the flow advances to step S2205 to search the aforementioned editing area management table and check whether there is a management record of an area including all pen vectors extracted from the temporary storage area (step S2206). If there is no such management record, the process jumps to step S2212. On the other hand, if such a management record exists, the process proceeds to step S2207, and the object ID of the data / object management table described above is set as the “included object” of the management record matched in step S2205 of the editing area management table and processed. Exit.

ステップS2208では、前述の表示装置に”手書き入力モード・ボタンのチェック前にペンで書き込みが行われていない”旨のエラー表示を行い処理を終了する。   In step S2208, an error message is displayed on the aforementioned display device indicating that “writing is not performed with a pen before checking the handwriting input mode button”, and the process is terminated.

ステップS2209では、ペン・ベクトル・データの一時格納領域の次のペン・ベクトル(PVn)をステップS2202で追加したデータ・オブジェクト管理の管理レコードにセットする。次にステップS2210に進みそのペン・ベクトルを前述の表示装置に手書き入力の筆跡である旨の表現(例えば、表示装置がカラーディスプレイなら青線、白黒ディスプレイの場合は実線)で表示する。次に、ステップS2211で次にペン・ベクトル(PVn)を示すnをインクリメントすし、ステップS2204にジャンプする。   In step S2209, the next pen vector (PVn) in the pen vector data temporary storage area is set in the management record of data object management added in step S2202. Next, proceeding to step S2210, the pen vector is displayed on the aforementioned display device with an expression indicating that it is handwriting input handwriting (for example, a blue line if the display device is a color display, or a solid line if it is a monochrome display). Next, in step S2211, n indicating the pen vector (PVn) is incremented, and the process jumps to step S2204.

ステップS2212では、前述の表示装置に対し”ペン・ベクトル(PVn)が複数の領域に跨っている”旨のエラー表示を行い処理を終了する。   In step S2212, an error display indicating that “the pen vector (PVn) straddles a plurality of areas” is displayed on the above-described display device, and the process ends.

次に、図25の新規領域モード処理のフローチャートを用いて新規領域モード部208を説明する。先ず、ステップS2501では、N>0(Nは新規領域モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし入力されたペン・ベクトル数が0を超えるか確認し、NOならばステップS2507にジャンプする。   Next, the new area mode unit 208 will be described using the flowchart of the new area mode process in FIG. First, in step S2501, it is checked whether N> 0 (N is the number of pen vectors (PVn) input before checking the new area mode button) and whether the number of pen vectors input exceeds zero. If NO, the process jumps to step S2507.

一方、ステップS2501のチェック結果がYESならばステップS2502に進み、新規領域モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)のn個目を指定する変数nを1にセットする。次に、ステップS2503に進みn>Nをチェックし、全てのペン・ベクトル(PVn)の処理が完了しているか確認し、完了していない(NO)ならばステップS2508にジャンプする。   On the other hand, if the check result in step S2501 is YES, the process advances to step S2502, and a variable n for designating the n-th pen vector (PVn) input before checking the new area mode button is set to 1. Next, the process proceeds to step S2503, where n> N is checked to check whether all the pen vectors (PVn) have been processed. If not (NO), the process jumps to step S2508.

一方、完了している(YES)ならステップS2504に移行し、新規領域を指定する領域線がペン・ベクトル(PVn)の始点と終点が交差しているか、または予め定められた距離の範囲内にあり、かつ、同レベル(例えば、図9のデータ・オブジェクトの相互関連を示すツリー図におけるc, d, e, fのレベルやg, bのレベル)の他の領域と交差していないか確認する。その結果をステップS2505でチェックしてOKでないならステップS2511にジャンプする。   On the other hand, if completed (YES), the process moves to step S2504, where the area line specifying the new area intersects the start point and end point of the pen vector (PVn), or is within a predetermined distance range. Check if it exists and does not intersect with other areas at the same level (for example, c, d, e, f level or g, b level in the tree diagram showing the correlation of data objects in Fig. 9) To do. The result is checked in step S2505, and if not OK, the process jumps to step S2511.

一方、ステップS2505でチェック結果がOKならステップS2506に進み、上記編集領域管理テーブの新規の管理レコードを追加し、その管理レコードの”選択状態”に”選択”をセットする。さらに、その新規領域が内包する領域が存在するかを確認するために、上記編集領域管理テーブを検索し、もし内包する領域があればその領域IDをその新規の管理レコードの”内包領域”にセットする。さらに、その新規領域を内包する管理レコードの”内包領域”に新規管理レコードの領域IDをセットし、正常終了する。   On the other hand, if the check result is OK in step S2505, the process advances to step S2506 to add a new management record in the editing area management table, and set “selected” in the “selected state” of the management record. Further, in order to confirm whether or not the area included in the new area exists, the editing area management table is searched. If there is an area included, the area ID is set in the “inclusive area” of the new management record. set. Further, the area ID of the new management record is set in the “include area” of the management record including the new area, and the process ends normally.

ステップS2507では、操作部サブシステム101や編集クライアント300、400上の表示装置に新規領域モード・ボタンをチェック前ペンで書き込みが行われていない”旨のエラー表示を行う。   In step S2507, an error message indicating that the new area mode button has not been written with the pre-check pen on the display device on the operation unit subsystem 101 or the editing clients 300 and 400 is displayed.

ステップS2508では、ペン・ベクトル・データの一時格納領域から次のペン・ベクトル(PVn)を取り出し処理の対象とする。次に、ステップS2509に移行し、操作部サブシステム101や編集クライアント300、400上の表示装置にその編集対象領域の囲線を領域が選択されている旨をユーザに伝えるための表現(例えば、表示装置がカラーディスプレイなら赤線、白黒ディスプレイの場合は長短混在の破線)で表示し、ステップS2510に進み変数nをインクリメントし、ステップS2503にジャンプする。   In step S2508, the next pen vector (PVn) is extracted from the pen vector data temporary storage area and is set as a processing target. Next, the process proceeds to step S2509, and an expression for informing the user that the area of the edit target area is selected on the display unit on the operation unit subsystem 101 or the editing clients 300 and 400 (for example, If the display device is a color display, it is displayed with a red line, and if it is a black and white display, a long and short broken line) is displayed.

ステップS2511では、操作部サブシステム101や編集クライアント300、400上の表示装置に手書きしたチェック・マークが領域内に収まっていない”旨のエラー表示を行い、エラー終了する。   In step S2511, an error message indicating that the handwritten check mark is not within the area is displayed on the display device on the operation unit subsystem 101 or the editing clients 300 and 400, and the process ends in error.

次に、図24の領域選択モード処理のフローチャートを用いて領域選択モード部210を説明する。まず、ステップS2401は領域選択モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)のn個目を指定する変数nを1にセットし、編集対象の領域が幾つ選択されたかをカウントする変数mを0にセットする。次に、ステップS2402に進みn>N(Nは領域選択モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし最終ペン・ベクトルかチェックして、YESならばステップS2409にジャンプする。   Next, the region selection mode unit 210 will be described with reference to the flowchart of the region selection mode process in FIG. First, in step S2401, a variable n for designating the nth pen vector (PVn) input before checking the region selection mode button is set to 1, and the number of regions to be edited is selected. Set variable m to 0. Next, proceed to step S2402 to check if n> N (N is the number of pen vectors (PVn) input before checking the area selection mode button) and check if it is the final pen vector. If YES, step Jump to S2409.

一方、NOならばステップS2403に進み、図11〜図18の編集領域管理テーブルの領域ベクトル欄を検索し、ペン・ベクトル(PVn)を内包する管理レコードがあるかチェックし(ステップS2404)、そのようなレコードがもしなければステップS2412にジャンプする。一方、そのようなレコードがあればステップS2405に進み、領域が選択状態であること示すために、ペン・ベクトル(PVn)を包含する上記編集領域管理レコードの選択状態欄を”選択”状態にセットする。その際、操作部サブシステム101や編集クライアント300、400上の表示装置にその編集対象領域の囲線を領域が選択されている旨をユーザに伝えるための表現(例えば、表示装置がカラーディスプレイなら赤線、白黒ディスプレイの場合は長短混在の破線)で表示する。   On the other hand, if NO, the process advances to step S2403 to search the area vector column of the edit area management table of FIGS. 11 to 18 to check whether there is a management record containing the pen vector (PVn) (step S2404). If there is no such record, the process jumps to step S2412. On the other hand, if there is such a record, the process proceeds to step S2405, and the selection state column of the edit region management record including the pen vector (PVn) is set to the “selected” state in order to indicate that the region is in the selected state. To do. At this time, an expression for notifying the display device on the operation unit subsystem 101 and the editing clients 300 and 400 that the region to be edited is selected (for example, if the display device is a color display). In the case of a red line or a black and white display, a long and short broken line is displayed.

次に、ステップS2406に進み選択された領域数カウンタである変数mをインクリメントする。次に、ステップS2407に進みペン・ベクトル・データの一時格納領域から次のペン・ベクトル(PVn)を取り出し、ステップS2408でペン・ベクトル(PVn)のn個目を指定する変数nをインクリメントしステップS2402にジャンプする。   Next, the process proceeds to step S2406, and the variable m which is the selected area number counter is incremented. In step S2407, the next pen vector (PVn) is extracted from the pen vector data temporary storage area. In step S2408, the variable n for specifying the nth of the pen vector (PVn) is incremented. Jump to S2402.

ステップS2409ではN>0(Nは領域選択モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし入力されたペン・ベクトル数が0を超えるか確認し、NOならばステップS2411にジャンプする。一方、ステップS2409の結果がYESならばm>0かチェックし(ステップS2410)選択された領域が存在するか確認し、NOならばステップS2411へジャンプする。一方、ステップS2410の結果がYESならば正常終了する。   In step S2409, it is checked whether N> 0 (N is the number of pen vectors (PVn) input before checking the area selection mode button) and whether the number of pen vectors input exceeds 0. If NO, Jump to step S2411. On the other hand, if the result of step S2409 is YES, m> 0 is checked (step S2410) to check whether the selected area exists, and if NO, the process jumps to step S2411. On the other hand, if the result of step S2410 is YES, the process ends normally.

ステップS2411では操作部サブシステム101や編集クライアント300、400上の表示装置に”領域選択モード・ボタンのチェック前に1つも有効な領域選択がされていない”旨のエラー表示を行い、エラー終了する。   In step S2411, an error message indicating that “no valid area selection has been made before checking the area selection mode button” is displayed on the display device on the operation unit subsystem 101 or the editing client 300 or 400, and the process ends in error. .

ステップS2412では操作部サブシステム101や編集クライアント300、400上の表示装置に”手書きしたチェック・マークが2つの領域に跨る等、領域内に収まっていない”旨の表示を行いステップS2407にジャンプする。   In step S2412, the display device on the operation unit subsystem 101 and the editing clients 300 and 400 displays that “the handwritten check mark does not fit in the area such as straddling two areas” and jumps to step S2407. .

次に、図26の領域選択解除モード処理のフローチャートを用いて領域選択解除モード部209を説明する。まず、ステップS2601において、領域選択解除モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)のn個目を指定する変数nを1にセットし、編集対象の領域が幾つ選択されたかをカウントする変数mを0にセットする。次に、ステップS2602に進みn>N(Nは領域選択解除モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし最終ペン・ベクトルかチェックして、YESならばステップS2609にジャンプする。   Next, the area selection cancellation mode unit 209 will be described with reference to the flowchart of the area selection cancellation mode processing of FIG. First, in step S2601, a variable n for designating the n-th pen vector (PVn) input before checking the region selection release mode button is set to 1, and how many regions to be edited have been selected. Set the variable m to be counted to 0. Next, the process proceeds to step S2602, where n> N (N is the number of pen vectors (PVn) input before checking the area selection release mode button) is checked and the final pen vector is checked. Jump to step S2609.

一方、ステップS2602の結果がNOならばステップS2603に進み、図11〜図18の編集領域管理テーブルの領域ベクトル欄を検索し、ペン・ベクトル(PVn)を内包する管理レコードがあるかチェックし(ステップS2604)、もしそのような管理レコードがなければステップS2612にジャンプする。一方、そのような管理レコードがあればステップS2605に進み、領域が未選択状態であること示すために、ペン・ベクトル(PVn)を包含する上記編集領域管理レコードの選択状態欄を”未選択”状態にセットする。その際、操作部サブシステム101や編集クライアント300、400上の表示装置にその編集対象領域の囲線を領域が選択解除されている旨をユーザに伝えるための表現(例えば、表示装置がカラーディスプレイならグレー線、白黒ディスプレイの場合は細い破線)で表示する。   On the other hand, if the result of step S2602 is NO, the process proceeds to step S2603 to search the area vector column of the edit area management table of FIGS. 11 to 18 to check whether there is a management record containing the pen vector (PVn) ( Step S2604), if there is no such management record, jump to step S2612. On the other hand, if there is such a management record, the process proceeds to step S2605, and the selection state column of the editing area management record including the pen vector (PVn) is set to “unselected” to indicate that the area is not selected. Set to state. At this time, an expression for notifying the user that the area of the edit target area has been deselected is displayed on the display device on the operation unit subsystem 101 or the editing clients 300 and 400 (for example, the display device is a color display). If this is the case, it will be displayed as a gray line or a thin broken line in the case of a monochrome display.

次に、ステップS2606に進み選択された領域数カウンタである変数mをインクリメントする。次に、ステップS2607に進みペン・ベクトル・データの一時格納領域から次のペン・ベクトル(PVn)を取り出し、ステップS2608でペン・ベクトル(PVn)のn個目を指定する変数nをインクリメントしステップS2602にジャンプする。   Next, the process proceeds to step S2606 to increment the variable m which is the selected area number counter. In step S2607, the next pen vector (PVn) is extracted from the pen vector data temporary storage area. In step S2608, the variable n for designating the nth vector of the pen vector (PVn) is incremented. Jump to S2602.

ステップS2609ではN>0(Nは領域選択解除モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし入力されたペン・ベクトル数が0を超えるか確認し、NOならばステップS2611にジャンプする。一方、ステップS2609で結果がYESならばm>0かチェックし選択された領域が存在するか確認し(ステップS2610)、NOならばステップS2611へジャンプする。一方、ステップS2610の結果がYESならば正常終了する。   In step S2609, it is checked whether N> 0 (N is the number of pen vectors (PVn) input before checking the area selection release mode button) and whether the number of input pen vectors exceeds 0 is checked. If so, the process jumps to step S2611. On the other hand, if the result is YES in step S2609, m> 0 is checked to check whether the selected area exists (step S2610), and if NO, the process jumps to step S2611. On the other hand, if the result of step S2610 is YES, the process ends normally.

ステップS2611では操作部サブシステム101や編集クライアント300、400上の表示装置に”領域選択解除モード・ボタンのチェック前に1つも有効な領域選択がされていない”旨のエラー表示を行い、エラー終了する。   In step S2611, an error message indicating that “no valid area selection has been made before checking the area selection release mode button” is displayed on the display device on the operation unit subsystem 101 or the editing client 300 or 400, and the process ends in error. To do.

ステップS2612では操作部サブシステム101や編集クライアント300、400上の表示装置に”手書きしたチェック・マークが2つの領域に跨る等、領域内に収まっていない”旨の表示を行いステップS2607にジャンプする。   In step S2612, the display device on the operation unit subsystem 101 and the editing clients 300 and 400 displays that “the handwritten check mark does not fit in the area, such as straddling two areas”, and jumps to step S2607. .

(実施形態の効果)
以上説明したように本実施形態によれば、画像編集システムは、スキャナ手段で原稿を読み取り、読み取った画像データを画像データ格納手段に格納し、その画像データを編集するために、編集対象の領域を指定するに際し、その画像データとその画像データに対する編集機能の選択を行うため領域を表示媒体に表示させ、表示媒体上をポインティング・ディバイスで指示した位置とその画像データ上の位置が対応する画像編集システムは、そのポインティング・ディバイスで編集対象領域を線で囲むことで1つまたは複数の新たな編集対象領域を選択し、編集対象領域を選択するに際し、少なくともスキャナで読み取った画像データの一部の編集対象領域、または、新規に指定した編集対象領域内をポインティング・ディバイスでチェックすることで1つまたは複数の編集対象領域を再度選択し、既に指定済みで選択済みまたは未選択の編集対象領域内をポインティング・ディバイスでチェックすることで選択済みの1つまたは複数の編集対象領域の選択を解除し、選択された1つまたは複数の編集対象領域に含まれるオブジェクトに対して前記ポインティング・ディバイスで少なくとも1つまたは複数の編集機能の中から1つの機能を選択して適用する。
(Effect of embodiment)
As described above, according to the present embodiment, the image editing system reads an original by the scanner unit, stores the read image data in the image data storage unit, and edits the image data in the region to be edited. In order to select the image data and the editing function for the image data, an area is displayed on the display medium, and the position indicated on the display medium by the pointing device corresponds to the position on the image data. The editing system selects one or a plurality of new editing target areas by surrounding the editing target area with a line with the pointing device, and at least a part of the image data read by the scanner when selecting the editing target area. Pointing device checks the area to be edited or the newly specified area to be edited To select one or more editing target areas again, and then select one or more editing target areas that have already been specified and checked by using a pointing device in the selected or unselected editing target areas. Is selected, and at least one or more editing functions are selected and applied by the pointing device to the objects included in the selected one or more editing target areas.

このため、特許文献1の手書き入力装置のように既に処理済みの編集対象領域に対する編集領域の指定と選択を再度ペンで囲う必要は無く、編集対象領域内をペンで触れたりチェック・マークを書き込むだけで編集対象領域の選択が可能となり、著しく操作性が向上する。   For this reason, it is not necessary to re-specify and select the editing area for the editing target area that has already been processed as in the handwriting input device of Patent Document 1, and touch the inside of the editing target area with a pen or write a check mark. This makes it possible to select an edit target area, and the operability is remarkably improved.

さらに、特許文献2の画像編集装置のようなマーカー・ペンで編集するシステムと比べると、仮出力紙にマーカー・ペンで記入後の仮出力紙のスキャンが不要になり、著しく操作性が向上する。さらに、特許文献2のマーカー・ペンで編集するシステムでは、同一原稿を再編集する度に仮出力紙のプリントとスキャンを行う必要があり、そのたびに画質が劣化するが、本実施形態では、再編集の際、仮出力紙のプリントとスキャンが不要となるばかりか、原稿スキャンは最初の1回のみなので画質の劣化が著しく改善される。   Further, as compared with a system for editing with a marker pen such as the image editing apparatus of Patent Document 2, it is not necessary to scan the temporary output paper after filling in the temporary output paper with the marker pen, and the operability is remarkably improved. . Furthermore, in the system for editing with the marker pen of Patent Document 2, it is necessary to print and scan the temporary output paper every time the same document is re-edited, and the image quality deteriorates each time. In this embodiment, At the time of re-editing, not only printing and scanning of temporary output paper becomes unnecessary, but also the original image is scanned only once, so that the deterioration of image quality is remarkably improved.

また、特許文献3のNotepadと比べ、スキャナで読み込んだ画像データに対する編集ができ、既にペンで書き込んだオブジェクトに対する処理対象の選択ができるので、著しく機能性および操作性が向上する。   Compared with Notepad in Patent Document 3, image data read by a scanner can be edited, and a processing target for an object already written with a pen can be selected, so that the functionality and operability are remarkably improved.

(他の実施形態)
本発明を適用できる上述した実施形態は、その変形例として、上記形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体(又は記録媒体)を、システム又は装置に供給し、そのシステム又は装置のコンピュータ(又はCPUやMPU(micro processing unit))が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成されることは言うまでもない。
(Other embodiments)
In the above-described embodiment to which the present invention can be applied, a storage medium (or recording medium) that stores a program code of software that realizes the function of the above-described form is supplied as a modification to the system or apparatus. Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium by a computer (or CPU or MPU (micro processing unit)).

この場合、記憶媒体から読み出されたプログラムコード自体が上記実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、上記実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部又は全部を行い、その処理によって上記実施形態の機能が実現される場合も、本発明の構成に含まれることは言うまでもない。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) operating on the computer is actually executed based on the instruction of the program code. It goes without saying that the case where the functions of the above-described embodiment are realized by performing a part or all of the processing and the processing is included in the configuration of the present invention.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わる記憶媒体に書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の構成に含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written to the storage medium provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. It goes without saying that the configuration of the present invention also includes a case where the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing. .

また、本発明は、上記実施形態の機能を実現するソフトウェアのプログラムコードがネットワークを介して配信されることにより、システム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW(CD-ReWritable)、CD−R(CD recordable)等の記憶媒体に格納され、そのシステム又は装置のコンピュータ(又はCPUやMPU)がそれら記憶手段や記憶媒体に格納されたプログラムコードを読み出して実行することによっても、達成されることは云うまでもない。   In addition, the present invention distributes the program code of software that realizes the functions of the above-described embodiments via a network, so that storage means such as a hard disk or a memory of a system or apparatus or a CD-RW (CD-ReWritable), Also achieved by reading and executing the program code stored in a storage medium such as a CD-R (CD recordable) and the system (or CPU or MPU) of the system or apparatus. It goes without saying that it is done.

本発明を適用できる実施形態の画像編集システムの第1の構成図である。1 is a first configuration diagram of an image editing system according to an embodiment to which the present invention can be applied. 本発明を適用できる実施形態の編集コマンド処理サブシステム構成図である。It is an edit command processing subsystem configuration diagram of an embodiment to which the present invention can be applied. 本発明を適用できる実施形態の画像編集システムの第2の構成図である。It is a 2nd block diagram of the image editing system of embodiment which can apply this invention. 本発明を適用できる実施形態の画像編集システムの第3の構成図である。It is a 3rd block diagram of the image editing system of embodiment which can apply this invention. 本発明を適用できる実施形態の画像編集用画面または画像編集用フォームを示す図である。It is a figure which shows the screen for image editing or the form for image editing of embodiment which can apply this invention. 本発明を適用できる実施形態の画像編集用フォームの編集コマンド・フォームを示す図である。It is a figure which shows the edit command form of the image edit form of embodiment which can apply this invention. 本発明を適用できる実施形態の編集処理後の編集画面図である。It is an edit screen figure after the edit process of embodiment which can apply this invention. 本発明を適用できる実施形態のデータ・オブジェクト管理テーブルのリスト図である。It is a list figure of the data object management table of embodiment which can apply this invention. 本発明を適用できる実施形態のデータ・オブジェクトの相互関連を示すツリー図である。It is a tree figure which shows the correlation of the data object of embodiment which can apply this invention. 本発明を適用できる実施形態の座標変換管理テーブル図である。It is a coordinate conversion management table figure of embodiment which can apply this invention. 本発明を適用できる実施形態の初期状態の編集領域管理テーブルのリスト図である。It is a list figure of the edit area management table of the initial state of embodiment which can apply this invention. 本発明を適用できる実施形態のペンで1つめの領域指定直後編集領域管理テーブルのリスト図である。It is a list figure of the edit area management table immediately after the 1st area | region specification with the pen of embodiment which can apply this invention. 本発明を適用できる実施形態のペンで文字を書き込んだ直後の編集領域管理テーブルのリスト図である。It is a list figure of the edit area management table immediately after writing a character with the pen of embodiment which can apply this invention. 本発明を適用できる実施形態のペンで書き込んだ文字の周辺をペンで領域指定直後編集領域管理テーブルのリスト図である。It is a list figure of the edit area management table immediately after the area | region designation with the pen around the character written with the pen of embodiment which can apply this invention. 本発明を適用できる実施形態のペンで図形を書き込んだ直後編集領域管理テーブルのリスト図である。It is a list figure of an edit area management table immediately after writing a figure with the pen of an embodiment which can apply the present invention. 本発明を適用できる実施形態のペンで書き込んだ図形の周辺をペンで領域指定直後編集領域管理テーブルのリスト図である。It is a list figure of the edit area management table immediately after area | region designation with the pen around the figure written with the pen of embodiment which can apply this invention. 本発明を適用できる実施形態の文章の周辺をペンで領域指定直後編集領域管理テーブルのリスト図である。It is a list figure of the edit area management table immediately after area | region specification with the pen of the text of embodiment which can apply this invention. 本発明を適用できる実施形態の文章の周辺をペンで領域指定し「画像→文字列変換」を実行直後編集領域管理テーブルのリスト図である。FIG. 11 is a list diagram of an editing area management table immediately after execution of “image → character string conversion” by specifying an area around a sentence with a pen according to an embodiment to which the present invention can be applied. 本発明を適用できる実施形態のトークンとペン・ベクトル解析処理の状態遷移図である。It is a state transition diagram of token and pen vector analysis processing of an embodiment to which the present invention can be applied. 本発明を適用できる実施形態のディバイス・データ解析処理のフローチャートである。It is a flowchart of the device data analysis process of embodiment which can apply this invention. 本発明を適用できる実施形態の座標変換管理処理のフローチャートである。It is a flowchart of the coordinate transformation management process of embodiment which can apply this invention. 本発明を適用できる実施形態の手書き入力モード処理のフローチャートである。It is a flowchart of the handwriting input mode process of embodiment which can apply this invention. 本発明を適用できる実施形態のベクトル追加処理のフローチャートである。It is a flowchart of the vector addition process of embodiment which can apply this invention. 本発明を適用できる実施形態の領域選択モード処理のフローチャートである。It is a flowchart of the area | region selection mode process of embodiment which can apply this invention. 本発明を適用できる実施形態の新規領域モード処理のフローチャートである。It is a flowchart of the new area mode processing of an embodiment to which the present invention can be applied. 本発明を適用できる実施形態の領域選択解除モード処理のフローチャートである。It is a flowchart of the area | region selection cancellation | release mode process of embodiment which can apply this invention.

符号の説明Explanation of symbols

200 編集コマンド処理サブシステム
201 ディバイス通信部
202 ディバイス・データ解析部
203 空き空間管理部
204 座標変換管理部
206 手書き入力モード部
207 ベクトル追加部
208 新規領域モード部
209 領域選択解除モード部
210 領域選択モード部
211 画像→文字コード変換部
212 筆跡→文字コード変換部
213 図形整形部
214 トリミング/マスキング部
215 データ削除部
200 Edit Command Processing Subsystem 201 Device Communication Unit 202 Device Data Analysis Unit 203 Free Space Management Unit 204 Coordinate Conversion Management Unit 206 Handwriting Input Mode Unit 207 Vector Addition Unit 208 New Region Mode Unit 209 Region Selection Cancel Mode Unit 210 Region Selection Mode Unit 211 image → character code conversion unit 212 handwriting → character code conversion unit 213 figure shaping unit 214 trimming / masking unit 215 data deletion unit

Claims (18)

画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示媒体に表示させ、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムにおいて、
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段と、
前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段と
を備えたことを特徴とする画像編集システム。
The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. An image editing system in which an area for displaying is displayed on a display medium, and a position on the display medium corresponds to a position on the image data and a position on the image data.
A new area processing means for selecting one or a plurality of new edit target areas by surrounding the edit target area with a line by the position indicating means;
And an area selection processing means for selecting again one or a plurality of editing target areas instructed by instructing the editing target area selected by the new area processing means by the position indicating means. A featured image editing system.
前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域の選択を解除する領域選択解除処理手段
をさらに備えたことを特徴とする請求項1に記載の画像編集システム。
An area selection cancellation processing unit that cancels selection of the specified one or more editing target areas by instructing the editing target area selected by the new area processing unit by the position instruction unit. The image editing system according to claim 1.
前記新規領域処理手段によって選択された1つまたは複数の編集対象領域、または前記領域選択処理手段によって選択された1つまたは複数の編集対象領域に含まれるオブジェクトに対して、1つまたは複数の前記編集機能の中から少なくとも1つの編集機能を前記位置指示手段によって指示することで選択し、当該選択された編集機能を適用する編集機能処理手段
をさらに備えたことを特徴とする請求項1または2に記載の画像編集システム。
One or a plurality of the editing target areas selected by the new area processing unit, or one or a plurality of the objects included in the one or a plurality of editing target areas selected by the region selection processing unit The editing function processing means for selecting at least one editing function from the editing functions by instructing the position indicating means and applying the selected editing function is further provided. The image editing system described in 1.
選択済みの編集対象領域がなく、かつ、1つまたは複数の前記編集機能の中から少なくとも1つの編集機能が前記位置指示手段によって指示され選択された場合に、エラーを報知するエラー報知手段
をさらに備えたことを特徴とする請求項3の画像編集システム。
Error notification means for notifying an error when there is no selected editing target area and at least one editing function is instructed and selected by the position indicating means from one or more of the editing functions; The image editing system according to claim 3, further comprising:
前記編集機能処理手段によって編集機能が適用された後に、選択されていた編集対象領域の選択を解除する
ことを特徴とする請求項3の画像編集システム。
The image editing system according to claim 3, wherein after the editing function is applied by the editing function processing unit, the selected editing target area is deselected.
画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示した表示媒体を使用し、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムにおいて、
前記位置指示手段と通信する通信手段と、
前記通信手段から定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析手段とを備え、
前記データ解析手段は、
前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理手段を有し、
前記座標変換管理手段によって管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、
前記第1のベクトルを一時的に保存するベクトル追加手段、
前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理手段、
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段、
前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段
のいずれかによる処理を実行する
ことを特徴とする画像編集システム。
The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. In an image editing system using a display medium displaying an area for the display, the position indicated by the position indicating means on the display medium corresponds to the position on the image data,
Communication means for communicating with the position indicating means;
A vector of position coordinates on the display medium, which is sampled and received from the communication means at regular intervals and represents the locus of movement of the position indicating means on the display medium, is defined in advance on the display medium. If it is included in the area, the position coordinate vector is treated as a first vector to be edited, or the position coordinate vector has at least one editing function defined in advance on the display medium. If included in the area to be specified, the vector of the position coordinates is treated as a second vector for identifying the editing function, and is converted into a token for identifying the editing function, and the first vector or the token Data analysis means for executing processing determined by the state determined by the following and the first vector or token received next Equipped with a,
The data analysis means includes
Managing a rectangular area including the coordinates of the position coordinate vector and defining the editing area or the area for designating the editing function, and processing applied to the coordinates of the position coordinate vector Having coordinate conversion management means,
A process determined by the state and the first vector or the token received next when executing the process managed by the coordinate transformation management means,
Vector adding means for temporarily storing the first vector;
Handwriting input processing means for performing processing for adding the first vector as an object included in the editing area;
A new region processing unit that selects one or a plurality of new editing target regions by surrounding the editing target region with a line by the position indicating unit;
Processing by any one of the area selection processing means for selecting again one or a plurality of editing target areas instructed by instructing the editing target area selected by the new area processing means by the position indicating means. An image editing system characterized by being executed.
前記表示媒体は、表示領域に対して2次元座標位置を特定するための2次元座標データを符号化した座標位置パターンを重畳した編集用紙であり、
前記位置指示手段は、前記位置座標パターンを読み取り前記編集用紙上の前記2次元座標位置のベクトルを記憶し、当該記憶したベクトルを前記通信手段に伝送するデジタル・ペンである
ことを特徴とする請求項6の画像編集システム。
The display medium is an editing sheet on which a coordinate position pattern obtained by encoding two-dimensional coordinate data for specifying a two-dimensional coordinate position with respect to a display area is superimposed,
The position instructing means is a digital pen that reads the position coordinate pattern, stores a vector of the two-dimensional coordinate position on the editing sheet, and transmits the stored vector to the communication means. Item 6. The image editing system according to item 6.
前記表示媒体は、表示装置であり、
前記位置指示手段は、前記表示装置上の位置検出機能を有する
ことを特徴とする請求項6の画像編集システム。
The display medium is a display device,
The image editing system according to claim 6, wherein the position instruction means has a position detection function on the display device.
画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示媒体に表示させ、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムの画像編集方法において、
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップと、
前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップと
を備えることを特徴とする画像編集方法。
The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. In the image editing method of the image editing system, the area for displaying is displayed on a display medium, and the position indicated on the display medium by the position indicating means corresponds to the position on the image data.
A new region processing step of selecting one or a plurality of new editing target regions by surrounding the editing target region with a line by the position indicating means;
A region selection processing step of reselecting the specified one or a plurality of editing target areas by instructing the editing target area selected in the new area processing step by the position indicating means. Image editing method.
前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域の選択を解除する領域選択解除処理ステップ
をさらに備えることを特徴とする請求項9に記載の画像編集方法。
An area selection cancellation processing step for canceling selection of the specified one or a plurality of editing target areas by instructing the editing target area selected in the new area processing step by the position indicating means. The image editing method according to claim 9.
前記新規領域処理ステップにおいて選択された1つまたは複数の編集対象領域、または前記領域選択処理ステップにおいて選択された1つまたは複数の編集対象領域に含まれるオブジェクトに対して、1つまたは複数の前記編集機能の中から少なくとも1つの編集機能を前記位置指示手段によって指示することで選択し、当該選択された編集機能を適用する編集機能処理ステップ
をさらに備えることを特徴とする請求項9または10に記載の画像編集方法。
One or more of the editing target areas selected in the new area processing step, or one or more of the objects included in the one or more editing target areas selected in the area selection processing step The edit function processing step of selecting at least one edit function from the edit functions by instructing the position instruction means and applying the selected edit function is further provided. The image editing method described.
選択済みの編集対象領域がなく、かつ、1つまたは複数の前記編集機能の中から少なくとも1つの編集機能が前記位置指示手段によって指示され選択された場合に、エラーを報知するエラー報知ステップ
をさらに備えたことを特徴とする請求項11の画像編集方法。
An error notification step of notifying an error when there is no selected editing target area and at least one editing function is instructed and selected from the one or more editing functions by the position indicating means; The image editing method according to claim 11, further comprising:
前記編集機能処理ステップにおいて編集機能が適用された後に、選択されていた編集対象領域の選択を解除する
ことを特徴とする請求項11の画像編集方法。
The image editing method according to claim 11, wherein after the editing function is applied in the editing function processing step, the selection of the selected editing target area is canceled.
画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示した表示媒体を使用し、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムの画像編集方法において、
前記位置指示手段と通信する通信ステップと、
前記通信ステップにおいて定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析ステップとを備え、
前記データ解析ステップは、
前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理ステップを有し、
前記座標変換管理ステップにおいて管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、
前記第1のベクトルを一時的に保存するベクトル追加ステップ、
前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理ステップ、
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップ、
前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップ
のいずれかによる処理を実行する
ことを特徴とする画像編集方法。
The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. In the image editing method of the image editing system, using a display medium displaying a region for, and the position on the display medium corresponding to the position indicated by the position indicating means and the position on the image data,
A communication step of communicating with the position indicating means;
A vector of position coordinates on the display medium, which represents the trajectory of the movement of the position indicating means on the display medium, sampled and received at regular intervals in the communication step, is defined in advance on the display medium. If it is included in the area, the position coordinate vector is treated as a first vector to be edited, or the position coordinate vector has at least one editing function defined in advance on the display medium. If included in the area to be specified, the vector of the position coordinates is treated as a second vector for identifying the editing function, and is converted into a token for identifying the editing function, and the first vector or the token Data for executing the processing determined by the state determined by, and the first vector or the token received next And an analysis step,
The data analysis step includes
Managing a rectangular area including the coordinates of the position coordinate vector and defining the editing area or the area for designating the editing function, and processing applied to the coordinates of the position coordinate vector A coordinate conversion management step;
When executing the process managed in the coordinate transformation management step, the process is determined by the state and the first vector or the token received next,
A vector adding step for temporarily storing the first vector;
A handwriting input processing step for performing processing for adding the first vector as an object included in the editing area;
A new region processing step of selecting one or a plurality of new editing target regions by surrounding the editing target region with a line by the position instruction means;
A process by any one of the area selection processing steps of selecting again one or a plurality of editing target areas instructed by instructing the editing target area selected in the new area processing step by the position indicating means. An image editing method characterized by being executed.
前記表示媒体は、表示領域に対して2次元座標位置を特定するための2次元座標データを符号化した座標位置パターンを重畳した編集用紙であり、
前記位置指示手段は、前記位置座標パターンを読み取り前記編集用紙上の前記2次元座標位置のベクトルを記憶し、当該記憶したベクトルを前記通信ステップの処理のために前記画像編集システムへ伝送するデジタル・ペンである
ことを特徴とする請求項14の画像編集方法。
The display medium is an editing sheet on which a coordinate position pattern obtained by encoding two-dimensional coordinate data for specifying a two-dimensional coordinate position with respect to a display area is superimposed,
The position instruction means reads the position coordinate pattern, stores a vector of the two-dimensional coordinate position on the editing sheet, and transmits the stored vector to the image editing system for processing of the communication step. The image editing method according to claim 14, wherein the image editing method is a pen.
前記表示媒体は、表示装置であり、
前記位置指示手段は、前記表示装置上の位置検出機能を有する
ことを特徴とする請求項14の画像編集方法。
The display medium is a display device,
The image editing method according to claim 14, wherein the position instruction unit has a position detection function on the display device.
請求項9乃至13のいずれかに記載の画像編集方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the image editing method according to claim 9. 請求項14乃至16のいずれかに記載の画像編集方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute each step of the image editing method according to claim 14.
JP2004194892A 2004-06-30 2004-06-30 Image edition system, method, and program Pending JP2006018522A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004194892A JP2006018522A (en) 2004-06-30 2004-06-30 Image edition system, method, and program
US11/166,132 US7839541B2 (en) 2004-06-30 2005-06-27 Image editing system and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004194892A JP2006018522A (en) 2004-06-30 2004-06-30 Image edition system, method, and program

Publications (1)

Publication Number Publication Date
JP2006018522A true JP2006018522A (en) 2006-01-19

Family

ID=35513558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004194892A Pending JP2006018522A (en) 2004-06-30 2004-06-30 Image edition system, method, and program

Country Status (2)

Country Link
US (1) US7839541B2 (en)
JP (1) JP2006018522A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293416A (en) * 2006-04-21 2007-11-08 Toshiba Corp Display controller, image processor, and display control method
JP2013003938A (en) * 2011-06-20 2013-01-07 Dainippon Printing Co Ltd Information processing system, sheet set, and program
US8355577B2 (en) 2008-07-23 2013-01-15 Canon Kabushiki Kaisha Image processing apparatus and method
WO2014054424A1 (en) * 2012-10-01 2014-04-10 Canon Kabushiki Kaisha Operation reception device and method for receiving operation
JP2020178283A (en) * 2019-04-19 2020-10-29 キヤノン株式会社 Image processing apparatus for inputting characters using touch panel, control method thereof, and program
JP2023058616A (en) * 2019-04-19 2023-04-25 キヤノン株式会社 Image processing device for character input using touch panel, control method of the same and program

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189663A (en) * 2005-12-15 2007-07-26 Ricoh Co Ltd User interface device, method of displaying preview image, and program
US8018470B2 (en) * 2006-03-28 2011-09-13 Microsoft Corporation Vector based object property variations
KR101392166B1 (en) * 2006-12-18 2014-05-08 삼성전자주식회사 Method for editing an image and for generating an editing image and for storing an edited image of a portable display device and apparatus thereof
US8448061B1 (en) 2007-03-30 2013-05-21 Adobe Systems Incorporated User interfaces and methods to create electronic documents with forms implementing content input fields
JP2008250814A (en) * 2007-03-30 2008-10-16 Matsushita Electric Ind Co Ltd Operation device and its control method
JP5121599B2 (en) * 2008-06-30 2013-01-16 キヤノン株式会社 Image processing apparatus, image processing method, program thereof, and storage medium
US20100229129A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Creating organizational containers on a graphical user interface
US8891113B2 (en) * 2010-10-21 2014-11-18 Konica Minolta Business Technologies, Inc. Image forming apparatus, data processing program, data processing method, and electronic pen
JP2014203393A (en) * 2013-04-09 2014-10-27 株式会社東芝 Electronic apparatus, handwritten document processing method, and handwritten document processing program
KR20170037424A (en) * 2015-09-25 2017-04-04 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN106708850A (en) * 2015-11-13 2017-05-24 百度在线网络技术(北京)有限公司 Image template-based image generation method and apparatus
US20180033175A1 (en) * 2016-07-28 2018-02-01 Sharp Kabushiki Kaisha Image display device and image display system
US10699112B1 (en) * 2018-09-28 2020-06-30 Automation Anywhere, Inc. Identification of key segments in document images
US20210271380A1 (en) * 2020-02-28 2021-09-02 Sharp Kabushiki Kaisha Display device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE8304588U1 (en) 1983-02-17 1983-06-16 Deutsches Elektronen-Synchrotron Desy, 2000 Hamburg DEVICE FOR INSPECTING READ-READ HEADS OF DATA CARRIER DISKS IN EDP SYSTEMS
US4815029A (en) * 1985-09-23 1989-03-21 International Business Machines Corp. In-line dynamic editor for mixed object documents
JP2662429B2 (en) * 1988-11-14 1997-10-15 キヤノン株式会社 Image editing device
JP2710172B2 (en) * 1991-03-28 1998-02-10 富士ゼロックス株式会社 Image processing device
AU2494392A (en) * 1991-08-06 1993-03-02 Beagle Bros, Inc. In-context editing system with frame tool
JPH0632611A (en) 1992-07-13 1994-02-08 Taki Chem Co Ltd Aqueous solution of basic aluminum sulfate and its production
US5761340A (en) 1993-04-28 1998-06-02 Casio Computer Co., Ltd. Data editing method and system for a pen type input device
JPH0758938A (en) 1993-08-11 1995-03-03 Ricoh Co Ltd Image editing device
US5734761A (en) * 1994-06-30 1998-03-31 Xerox Corporation Editing scanned document images using simple interpretations
US5687259A (en) * 1995-03-17 1997-11-11 Virtual Eyes, Incorporated Aesthetic imaging system
JPH09116738A (en) 1995-10-16 1997-05-02 Ricoh Co Ltd Image forming device
JPH09305070A (en) 1996-03-15 1997-11-28 Ricoh Co Ltd Image forming device
US6883140B1 (en) * 2000-02-24 2005-04-19 Microsoft Corporation System and method for editing digitally represented still images
AU2003209565A1 (en) * 2002-02-12 2003-09-04 Yonas Jongkind Color conversion and standardization system and methods of making and using same
US6903751B2 (en) * 2002-03-22 2005-06-07 Xerox Corporation System and method for editing electronic images

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293416A (en) * 2006-04-21 2007-11-08 Toshiba Corp Display controller, image processor, and display control method
US8355577B2 (en) 2008-07-23 2013-01-15 Canon Kabushiki Kaisha Image processing apparatus and method
JP2013003938A (en) * 2011-06-20 2013-01-07 Dainippon Printing Co Ltd Information processing system, sheet set, and program
WO2014054424A1 (en) * 2012-10-01 2014-04-10 Canon Kabushiki Kaisha Operation reception device and method for receiving operation
JP2014071827A (en) * 2012-10-01 2014-04-21 Canon Inc Operation reception device, method, and program
US9594445B2 (en) 2012-10-01 2017-03-14 Canon Kabushiki Kaisha Operation reception device and method for receiving operation on page image, storage medium, and image forming apparatus for use with operation reception device
JP2020178283A (en) * 2019-04-19 2020-10-29 キヤノン株式会社 Image processing apparatus for inputting characters using touch panel, control method thereof, and program
JP7225017B2 (en) 2019-04-19 2023-02-20 キヤノン株式会社 Image processing device for character input using touch panel, its control method and program
JP2023058616A (en) * 2019-04-19 2023-04-25 キヤノン株式会社 Image processing device for character input using touch panel, control method of the same and program
JP7358663B2 (en) 2019-04-19 2023-10-10 キヤノン株式会社 Image processing device for character input using a touch panel, its control method, and program

Also Published As

Publication number Publication date
US20060001932A1 (en) 2006-01-05
US7839541B2 (en) 2010-11-23

Similar Documents

Publication Publication Date Title
JP2006018522A (en) Image edition system, method, and program
JP3796500B2 (en) Image processing apparatus, control method therefor, and program
CN100448257C (en) Image processing apparatus and method therefor
US7783108B2 (en) Document management method and apparatus
US20030103238A1 (en) System for processing electronic documents using physical documents
CN101676868B (en) Image processing apparatus and image processing method
US8145997B2 (en) Method for simultaneously performing a plurality of handwritten searches
US20190205006A1 (en) Information Processing Apparatus, Image Forming Apparatus, and Computer-Readable Recording Medium
US8355577B2 (en) Image processing apparatus and method
JP5732861B2 (en) Image processing apparatus and image processing program
JP3068131B2 (en) Document processing device
CN101277358B (en) Apparatus, method for image processing
JP5089524B2 (en) Document processing apparatus, document processing system, document processing method, and document processing program
JP2009271779A (en) Image processing apparatus, image processing method, program of the same, and storage medium
CN106210381B (en) Display device, image processing apparatus and display methods
CN100588218C (en) Image forming apparatus and electronic mail delivery server,
JP2008097636A (en) Image processor
JP7383882B2 (en) Information processing device and information processing program
JP2006072877A (en) Document editing apparatus, document editing method, document editing program, and its recording medium
JP4334987B2 (en) DTP editing apparatus having area designation function and data cutout function
JP5672837B2 (en) Form server device, form information processing system, form information processing method and program
JP2004326490A (en) Image processing method
JP5479083B2 (en) Image processing apparatus, control method therefor, and program
JP2010231657A (en) Information verification aid system and program
JP2005190194A (en) Information processor, information processing method, program, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081107

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20081211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081211

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090122

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090227

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20100617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100617