JP2006018522A - Image edition system, method, and program - Google Patents
Image edition system, method, and program Download PDFInfo
- Publication number
- JP2006018522A JP2006018522A JP2004194892A JP2004194892A JP2006018522A JP 2006018522 A JP2006018522 A JP 2006018522A JP 2004194892 A JP2004194892 A JP 2004194892A JP 2004194892 A JP2004194892 A JP 2004194892A JP 2006018522 A JP2006018522 A JP 2006018522A
- Authority
- JP
- Japan
- Prior art keywords
- editing
- area
- vector
- image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00408—Display of information to the user, e.g. menus
- H04N1/00413—Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
- H04N1/00416—Multi-level menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00408—Display of information to the user, e.g. menus
- H04N1/0044—Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00474—Output means outputting a plurality of functional options, e.g. scan, copy or print
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、スキャナで読み取った画像データを編集する画像編集システム及び方法並びにプログラムに関する。 The present invention relates to an image editing system, method, and program for editing image data read by a scanner.
近年、スキャナで読み取った画像データをタブレット・ペンで編集する装置が登場している。例えば、ポインティング・ディバイスであるタブレットと表示装置とが一体となったタブレット表示装置上に画像データを表示し、ペンで編集対象の画像データ領域を囲い、その領域に対する画像データの削除、抽出等の種々の編集操作を適用可能な手書き入力装置がある(特許文献1参照)。 In recent years, devices for editing image data read by a scanner with a tablet / pen have appeared. For example, image data is displayed on a tablet display device in which a tablet that is a pointing device and a display device are integrated, and an image data area to be edited is enclosed with a pen, and image data is deleted or extracted from the area. There is a handwriting input device to which various editing operations can be applied (see Patent Document 1).
さらに別の例としては、スキャンした画像データとともに編集処理メニューを仮出力紙に印刷し、その仮出力紙上で編集範囲をマーカー・ペンでマーキングし、さらに編集処理メニューで編集処理項目にチェック・マークを書き込む。その後、画像編集装置のスキャナで仮出力紙をスキャンすることで画像データの編集を行う画像編集装置もある(特許文献2参照)。 As another example, the editing processing menu is printed on the temporary output paper together with the scanned image data, the editing range is marked on the temporary output paper with a marker / pen, and the editing processing item is checked / marked on the editing processing menu. Write. Thereafter, there is also an image editing apparatus that edits image data by scanning a temporary output sheet with a scanner of the image editing apparatus (see Patent Document 2).
さらに、近年、電子部品の小型化と高度化により、手書き情報を電子化する装置(Notepad)が登場している(特許文献3参照)。この装置は、2次元座標をあらわす画像のドット・パターンを記録した記録紙上をポインティング・ディバイスであるデジタル・ペンで書き込むと、デジタル・ペンが上記記録紙上のドット・パターンを読み取る。次に、ペンが読み取った筆跡データ(2次元座標の連鎖データ)を、無線通信装置を介してPC(personal computer)に送信する。 In recent years, devices (Notepad) for digitizing handwritten information have appeared due to the miniaturization and sophistication of electronic components (see Patent Document 3). In this apparatus, when writing on a recording paper on which a dot pattern of an image representing two-dimensional coordinates is recorded with a digital pen as a pointing device, the digital pen reads the dot pattern on the recording paper. Next, handwriting data (two-dimensional coordinate chain data) read by the pen is transmitted to a personal computer (PC) via a wireless communication device.
デジタル・ペンの概要を説明しておくと、デジタル・ペンはペン型のカバーに覆われ、カバーの先は開いていて、その内側に光学式読取装置と少なくとも1つの発光ダイオードが収用されている。さらに奥には、中央処理装置とメモリと電池が収用されている。さらに、開いているカバーの先にはインクを持ったペン先が存在する。デジタル・ペンは更に、ペンをコントロールする為のボタンと他の機器と通信する為の通信部を持っている。 To explain the outline of the digital pen, the digital pen is covered with a pen-shaped cover, the tip of the cover is open, and an optical reader and at least one light-emitting diode are stowed inside. . Furthermore, a central processing unit, a memory and a battery are confiscated. Furthermore, there is a pen tip with ink at the end of the open cover. The digital pen further has a button for controlling the pen and a communication unit for communicating with other devices.
しかしながら、特許文献1の手書き入力装置では、手書きで囲んだ画像データ領域の選択範囲が編集処理によりリセットされてしまう。このため、同じ選択範囲に対し編集処理を適用する場合に、再度選択範囲を手書きで指定する必要があり非常に面倒である。
However, in the handwriting input device of
また、特許文献2の画像編集装置では、原稿の画像を画像編集するには、原稿をスキャンし、仮出力紙に原稿画像と編集処理内容をプリントし、その仮出力紙に編集対象の領域をマーカー・ペンで囲う。さらにその仮出力紙を編集処理マーカー・ペンでチェックした後、チェックした仮出力紙を画像編集装置のスキャナで更にスキャンする必要があり非常に面倒である。加えて、編集済みの画像を再度編集する場合は、前回編集した結果の出力された画像の出力紙を再度スキャナで読み取り、前回と同様な操作を行う必要があり更に面倒である。さらには、何度もスキャンとプリントを繰り返すことで画質の劣化が生じる。
Further, in the image editing apparatus of
また、特許文献3のNotepadは、ペンで書き込んだデータに対する処理に関するもので、スキャナで読み込んだ画像データに対する編集はできず、既にペンで書き込んだオブジェクトに対する処理対象の選択もできない。
Notepad of
従来のシステムには上述したような種々の問題があり、さらなる改善が望まれている。 The conventional system has various problems as described above, and further improvement is desired.
本発明は、このような状況に鑑みてなされたもので、その目的とするところは、操作性を向上させ画質の劣化を抑えた画像編集システム及び方法並びにプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image editing system, method, and program that improve operability and suppress deterioration of image quality.
このような目的を達成するために、本発明の画像編集システムは、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示媒体に表示させ、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムであって、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段と、前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段とを備えたことを特徴とする。 In order to achieve such an object, the image editing system of the present invention stores the image data read by the image reading means in the image data storage means, and sets an edit target area for editing the stored image data. When specifying, the image data and an area for selecting an editing function for the image data are displayed on a display medium, and the position indicated by the position indicating means on the display medium and the position on the image data are A corresponding image editing system, wherein a new region processing unit that selects one or a plurality of new editing target regions by surrounding the editing target region with a line by the position instruction unit, and a selection by the new region processing unit Instructed within the designated edit target area by the position indicating means, the selected one or more edit target areas are selected again. Characterized by comprising a that area selecting unit.
また上記目的を達成するために、本発明の画像編集システムは、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示した表示媒体を使用し、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムであって、前記位置指示手段と通信する通信手段と、前記通信手段から定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析手段とを備え、前記データ解析手段は、前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理手段を有し、前記座標変換管理手段によって管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、前記第1のベクトルを一時的に保存するベクトル追加手段、前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理手段、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段、前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段のいずれかによる処理を実行することを特徴とする。 In order to achieve the above object, the image editing system of the present invention stores the image data read by the image reading means in the image data storage means, and designates the editing target area for editing the stored image data. In doing so, a display medium displaying the image data and an area for selecting an editing function for the image data is used, and the position indicated by the position indicating means on the display medium and the position on the image data Is a corresponding image editing system, a communication unit communicating with the position indicating unit, and a locus of the position indicating unit moving on the display medium, which is sampled and received from the communication unit at regular intervals, When the position coordinate vector on the display medium is included in an editing area defined in advance on the display medium, the position coordinates When the vector of the position coordinates is included in an area for designating at least one editing function defined in advance on the display medium, Treating the vector of position coordinates as a second vector identifying the editing function and converting it into a token identifying the editing function, the state determined by the first vector or the token, and the received second Data analysis means for executing processing determined by one vector or the token, and the data analysis means is a rectangular area including the coordinates of the vector of the position coordinates, and the editing area or the editing function A coordinate conversion tube that manages a rectangular area that defines an area for designating a region and a process applied to the coordinates of the vector of the position coordinates And when the process managed by the coordinate transformation management means is executed, the process is determined by the state and the first vector or the token received next, wherein the first A vector adding means for temporarily storing a vector, a handwriting input processing means for performing processing for adding the first vector as an object included in the editing area, and a region to be edited by surrounding the editing target area with a line. A new area processing means for selecting one or a plurality of new editing target areas, and the position indicating means to indicate the inside of the editing target area selected by the new area processing means. A process by any of the area selection processing means for selecting a plurality of edit target areas again is executed.
また上記目的を達成するために、本発明の画像編集方法は、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示媒体に表示させ、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムの画像編集方法であって、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップと、前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップとを備えることを特徴とする。 In order to achieve the above object, the image editing method of the present invention stores the image data read by the image reading means in the image data storage means, and designates an editing target area for editing the stored image data. In this case, the image data and an area for selecting an editing function for the image data are displayed on a display medium, and the position indicated by the position indicating means on the display medium corresponds to the position on the image data. An image editing method of the image editing system, wherein a new region processing step of selecting one or a plurality of new editing target regions by surrounding the editing target region with a line by the position indicating means, and the new region processing By instructing the editing target area selected in the step by the position indicating means, the one or more editing pairs specified Characterized in that it comprises a region selecting process step of selecting the region again.
また上記目的を達成するために、本発明の画像編集方法は、画像読み取り手段によって読み取られた画像データを画像データ格納手段に格納し、当該格納した画像データを編集するために編集対象領域を指定するに際し、前記画像データと該画像データに対する編集機能の選択を行うための領域を表示した表示媒体を使用し、該表示媒体上を位置指示手段によって指示された位置と前記画像データ上の位置とが対応する画像編集システムの画像編集方法であって、前記位置指示手段と通信する通信ステップと、前記通信ステップにおいて定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析ステップとを備え、前記データ解析ステップは、前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理ステップを有し、前記座標変換管理ステップにおいて管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、前記第1のベクトルを一時的に保存するベクトル追加ステップ、前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理ステップ、前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップ、前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップのいずれかによる処理を実行することを特徴とする。 In order to achieve the above object, the image editing method of the present invention stores the image data read by the image reading means in the image data storage means, and designates an editing target area for editing the stored image data. In doing so, a display medium displaying the image data and an area for selecting an editing function for the image data is used, and the position indicated by the position indicating means on the display medium and the position on the image data Is an image editing method of the corresponding image editing system, wherein the position indicating means moves on the display medium, which is communicated with the position indicating means, and is sampled and received at regular times in the communication step. A vector of position coordinates on the display medium representing a trajectory is included in an editing area defined in advance on the display medium. The position coordinate vector is treated as the first vector to be edited, or the position coordinate vector is included in an area for designating at least one editing function defined in advance on the display medium. The position coordinate vector is treated as a second vector for identifying the editing function, converted to a token for identifying the editing function, and the state determined by the first vector or the token; A data analysis step for executing a process determined by the first vector or the token received next, wherein the data analysis step is a rectangular region including the coordinates of the position coordinate vector, Applied to the rectangular area that defines the editing area or the area that specifies the editing function, and the coordinates of the position coordinate vector A coordinate transformation management step for managing the processing, and when executing the processing managed in the coordinate transformation management step, it is determined by the state and the first vector or the token received next A vector adding step for temporarily storing the first vector; a handwriting input processing step for performing processing for adding the first vector as an object included in the editing area; A new region processing step for selecting one or a plurality of new editing target regions by surrounding the editing target region with a line, and the position indicating means instructing the editing target region selected in the new region processing step In either of the area selection processing steps for reselecting the specified one or more editing target areas. The processing is executed.
本発明の以上の構成により、既に処理済みの編集対象領域に対する編集領域の指定と選択を再度ペンで囲う必要はなく、編集対象領域内をペンで触れたりチェック・マークを書き込むだけで編集対象領域の選択が可能となる。さらに、再編集の際、仮出力紙のプリントとスキャンが不要であり、原稿スキャンは1回のみで済む。また、スキャナで読み込んだ画像データに対する編集と、既にペンで書き込んだオブジェクトに対する処理対象の選択とが、共に可能となる。 With the above configuration of the present invention, there is no need to re-enclose and specify the editing area for the editing target area that has already been processed, and the editing target area can be simply touched with the pen or written with a check mark. Can be selected. Further, at the time of re-editing, it is not necessary to print and scan the temporary output paper, and only one original scan is required. In addition, it is possible to both edit image data read by a scanner and select a processing target for an object already written with a pen.
本発明によれば、画像編集システムの操作性を向上させ画質の劣化を抑える効果を奏する。 According to the present invention, it is possible to improve the operability of the image editing system and suppress the deterioration of image quality.
以下、図面を参照して本発明を適用できる実施形態を詳細に説明する。尚、各図面において同様の機能を有する箇所には同一の符号を付し、説明の重複は省略する。 Embodiments to which the present invention can be applied will be described below in detail with reference to the drawings. In addition, the same code | symbol is attached | subjected to the location which has the same function in each drawing, and duplication of description is abbreviate | omitted.
(装置構成)
図1は、本発明を適用できる実施形態の画像編集システムの第1の構成図である。図1の画像編集システムは、原稿スキャン機能、プリント機能を登載したMFP(複合機能周辺装置;Multi Functional Peripheral)、FAX装置、プリンタ装置などの本体ディバイス100である。しかし、原稿スキャナ、プリンタなどの周辺装置や画像処理周辺ボードを搭載したPCでも実現可能である。
(Device configuration)
FIG. 1 is a first configuration diagram of an image editing system according to an embodiment to which the present invention can be applied. The image editing system shown in FIG. 1 is a
操作部サブシステム101は、液晶パネル上にペンの筆跡を感知するタブレット(図5の図中符号500の画像編集用画面を表示)が搭載されている表示媒体とキーボードとが搭載され、画像編集システムの本体ディバイス100のハードウェアに対する表示及び操作に関する制御と、タブレット入力及びキーボード入力を制御する機能とを提供する、ハードウェア・サブシステム及びソフトウェア・サブシステムである(以降では、ハードウェア・サブシステム及びソフトウェア・サブシステムをまとめて単にサブシステムと呼ぶ)。
The
編集コマンド処理サブシステム102は、本実施形態の特徴をあらわす処理部で、編集コマンド処理を司るサブシステムである。編集コマンド処理サブシステム102の詳細な説明は後述する。画像データ格納サブシステム104は、HDD(hard disk drive)等の2次記憶装置(不図示)を制御し、画像データを格納し管理する。
The editing
画像処理サブシステム105は、画像処理ソフトウェア、画像処理ハードウェア、及び制御ソフトウェアで構成される。画像処理サブシステム105は、スキャナ・サブシステム106で読み込まれた画像データに対する矩形領域抽出及び下地除去等の画像処理の機能が登載されている。また、画像処理サブシステム105は、フォーム・データ生成サブシステム107と連携し、例えばRGB画像データをK(黒成分)を除去したCMY成分からなる色成分に変換する色空間変換機能や2次元座標IDのドット・パターンを生成する2次元座標ドット・パターン生成機能が搭載されている。
The
スキャナ・サブシステム106は、原稿スキャナ(不図示)から読み込んだ原稿を画像処理サブシステム105と連携して画像データに変換し画像データ格納サブシステム104に格納する。フォーム・データ生成サブシステム107は、画像編集用フォーム(図5の符号500)用のフォーム構造データの管理を行い、さらに、そのプリント・データの生成や編集コマンド・フォーム(図6の符号600)用のプリント・データの生成を行う。
The
プリンタ・サブシステム108は、プリンタ装置(不図示)を制御してプリント・データをプリンタ装置に出力し、上記画像編集用フォーム用や編集コマンド・フォーム用のプリント・データを記録紙にプリントする。
The
画像データ編集サブシステム103は、スキャナ・サブシステム106で読み込まれ画像データ格納サブシステム104に格納された画像データを編集コマンド処理102の指示に従って画像編集処理を実施するとともに、画像データの編集状態を操作部サブシステム101や図3、4で後述する編集クライアント300、400上の表示装置に表示する。画像データ編集サブシステム103は、後述される図8に示すデータ・オブジェクト管理テーブルや図11〜18の編集領域管理テーブル等を、不図示のメモリや2次記憶装置に格納し管理する。
The image
ジョブ制御サブシステム101は、システム内のジョブの制御を司り、画像バスとシステムバスとそれらを接続するイメージバスI/F等を含む。
The
図3は、図1の画像編集システムの変形形態で、本発明を適用できる実施形態の画像編集システムの第2の構成図である。図3と図1の画像編集システムの構成的な差を説明する。図3の画像編集システムは、図1の編集コマンド処理サブシステム102と画像データ編集サブシステム103を、本体ディバイス100から編集クライアント300として分離したシステムである。そして図3の画像編集システムは、本体ディバイス305にネットワーク通信サブシステム306を設け、編集クライアント300にもネットワーク通信サブシステム303を設け、本体ディバイス305と編集クライアント300との間の通信を行う。編集クライアント300は、PC上で実現可能であり、また、専用端末で実現してもよい。
FIG. 3 is a modification of the image editing system of FIG. 1 and is a second configuration diagram of the image editing system of the embodiment to which the present invention can be applied. A structural difference between the image editing systems of FIGS. 3 and 1 will be described. The image editing system in FIG. 3 is a system in which the editing
次に、図3と図1の画像編集システムの各サブシステムの機能的な差に関して説明する。図1の画像編集システムでは、編集コマンド処理サブシステム102へのキー入力やペン入力を、操作部サブシステム101のキーボード、操作部サブシステム101上の表示媒体(例えば、表示部にタッチパネルを重ね合わせたタブレット・ディバイス)、または前述した特許文献3に開示される2次元座標位置をドット・パターンで印字した画像編集用紙上で書き込みを行うデジタル・ペン等で行う。また図1の画像編集システムでは、画像データ編集サブシステム103による画像データの編集状態の表示は、操作部サブシステム101上の表示媒体で行う。
Next, functional differences between the subsystems of the image editing system of FIGS. 3 and 1 will be described. In the image editing system of FIG. 1, key input and pen input to the editing
一方、図3の画像編集システムでは、編集コマンド処理サブシステム301へのキー入力やペン入力を、編集クライアント300のキーボードや表示媒体で行い、または編集クライアント300に無線通信を介して接続された、上述の2次元座標位置をドット・パターンで印字した画像編集用紙上で書き込みを行うデジタル・ペン等で行う。また図3の画像編集システムでは、画像データ編集サブシステム302による画像データの編集状態の表示は、編集クライアント300の表示媒体で行う。
On the other hand, in the image editing system of FIG. 3, key input and pen input to the editing command processing subsystem 301 are performed using the keyboard and display medium of the
図4は、図3の画像編集システムの変形形態で、本発明を適用できる実施形態の画像編集システムの第3の構成図である。図4と図3の画像編集システムの構成的な差を説明する。図4の画像編集システムは、編集クライアント400に画像データ格納サブシステム401を搭載し、本体ディバイス402の画像データ格納サブシステム403から編集対象の画像データを画像データ格納サブシステム401に格納する。画像データ編集サブシステム405は、画像データ格納サブシステム401に格納された画像データを編集コマンド処理404の指示に従って画像編集処理を実施する。
FIG. 4 is a modification of the image editing system of FIG. 3 and is a third configuration diagram of the image editing system of the embodiment to which the present invention can be applied. A structural difference between the image editing systems of FIGS. 4 and 3 will be described. The image editing system of FIG. 4 includes an image
図2は編集コマンド処理サブシステム構成図であり、図1、図3、図4の編集コマンド処理サブシステム102、301、404の内部構成を示している。図2の編集コマンド処理サブシステム200は、図5の符号500に示すような、タブレットの画像編集用画面または画像編集用フォームをペンで編集する際に、タブレットやデジタル・ペンからペンで書き込んだ筆跡データの受信と解析を行う。
FIG. 2 is a configuration diagram of the edit command processing subsystem, and shows the internal configuration of the edit
その処理内容の概要を述べると、ペンで書き込んだ筆跡に対してその編集対象領域に関するモード・ボタン(図5の513の何れかのモード・ボタン)が選択され、モード選択の前に編集対象領域599上にペンで書き込まれた筆跡データに対して対応するモード処理が実行される。
An outline of the processing contents will be described. A mode button (any one of the
例えば、図形503の周りをペンで囲い(囲い線502)、513の新規領域モード・ボタンをペンでチェックした場合、囲い線502内の画像データやペンの筆跡データがトリミング、図形整形等の機能を適用する対象として新規に領域指定ならびに領域の選択が実行される。その後、機能ボタン(図5の514の何れかの機能ボタン)がペンでチェックされると前述の選択領域に対応して選択した機能ボタンに対応する処理が実行される。例えば、図5の図形領域503が囲い線502が選択された状態で図5の機能ボタン領域514のトリミング・ボタンをペンでチェックすると、囲い線502の外接切片である矩形領域504内の画像データがトリミング(切取り)される。
For example, if the pen around the figure 503 is enclosed (enclosure line 502) and the new
次に、図2に示した各構成部位に関して説明する。ディバイス通信部201は、キーボード、タブレットやデジタル・ペンと通信する部分でRS−232C(Recommended Standard 232C)、USB(Universal Serial Bus)などの有線通信、iRDA(Infrared Data Association)などの赤外線通信、Bluetooth(商標)などの無線通信が用いられる。
Next, each component shown in FIG. 2 will be described. The
ディバイス・データ解析部202は、本実施形態の特徴を最も現す部分の1つであり、ディバイス通信部201から定期的時間によりサンプリングし受信したタブレットやデジタル・ペンのペン・データを解析し編集状態、選択領域の管理や空き空間管理203からデータ削除215に至る部位の実行制御を司る部位である。ディバイス・データ解析部202の詳細な説明は、トークンとペン・ベクトル解析処理の状態遷移図である図19を中心に参照し後述する。
The device
空き空間管理部203は、前述のデジタル・ペンを用いた場合に、前述の2次元座標位置を特定する2次元座標空間の使用中領域管理と空き領域管理を行う。少なくとも、本実施形態の図10の座標変換管理テーブル(後述)の矩形領域に登録されている2次元座標空間は、空き空間管理部203において前述の使用中領域として管理されている。ただし、タブレットを用いた場合は空き空間管理部203は用いられない。
When the above-mentioned digital pen is used, the free
座標変換管理部204では、図10の座標変換管理テーブルで記載されたデータを管理し、図5の各ハッチングされた矩形領域ごとに対して領域ID、領域種別、代替トークン、領域対応処理オブジェクト、及びコメントを対応づけて管理している。詳細は図21を用いて後で説明する。
The coordinate
ここで図10の座標変換管理テーブルの詳細について説明する。領域ID欄は矩形領域を識別するためのIDである。矩形領域欄は、図5のハッチングされた領域である前述の編集領域599、各モード・ボタン513、各機能ボタン514、及び送信ボタン516の領域に関する情報である。例えば、デジタル・ペンを用いたシステムにおいて図5は編集用フォーム紙を表しており、矩形領域欄には、各矩形領域内に印字された2次元座標を表すドット・パターンに対応するIDの集合を示す情報が管理される。ただし、デジタル・ペンを用いたシステムにおいて送信ボタン516は特殊で、デジタル・ペンに蓄積されたペンの筆跡データを本実施形態の編集コマンド処理部301に送出するトリガとして用いられる。例えば、矩形領域欄のIDの集合を示す情報は、2次元空間の左上隅、右上隅、左下隅、右下隅の2次元座標である。
Details of the coordinate conversion management table of FIG. 10 will be described here. The area ID column is an ID for identifying a rectangular area. The rectangular area column is information relating to the areas of the
一方、タブレットを用いたシステムにおいては、矩形領域欄のIDの集合を示す情報は、タブレット上の表示装置に表示された図5の画像編集用画面のハッチングされた各矩形領域の画面の2次元領域情報である。例えば、2次元領域情報は、仮想表示画面上の左上隅、右上隅、左下隅、右下隅の2次元座標である。 On the other hand, in a system using a tablet, information indicating the set of IDs in the rectangular area column is the two-dimensional information of the hatched rectangular area screen of the image editing screen of FIG. 5 displayed on the display device on the tablet. It is area information. For example, the two-dimensional area information is two-dimensional coordinates of the upper left corner, upper right corner, lower left corner, and lower right corner on the virtual display screen.
領域種別欄は、編集領域なのかモード指定や機能指定を行うボタンなのかを識別する情報である。 The area type column is information for identifying whether it is an editing area or a button for mode designation or function designation.
代替トークンとは、一連かつ複数の2次元座標の集合を1つのトークンとして代替する図5で示した各ボタン513,514内のボタンの意味を抽象化したトークンであり、内部解析処理を単純化するために用いられる。なぜなら、ポインティング・ディバイスから入力された一連かつ複数の2次元座標を1座標毎に領域範囲チェックを行い対応する意味を求めることは処理系が複雑になるからである。図5で示した各ボタン513,514内の矩形領域内がペン等のポインティング・ディバイスでチェックされた場合、ポインティング・ディバイスから受信した座標情報をキーに図10の座標変換管理テーブルが参照され、それにより各ボタン513,514内のボタンが代替トークンに変換される。代替トークンへの変換はディバイス・データ解析部の前段で実施される。
The substitute token is a token that abstracts the meaning of the buttons in the
各代替トークンの内容の説明を以下に示す。
<T>:ボタン領域(図5の515内)のいずれかのボタンをペンで触れたことを意味するトークン。
<FTx>:機能ボタン領域(図5の514内)のいずれかのボタンをペンで触れたことを意味するトークン。”FTx”の”x”各種機能ボタンを区別するために数字である。
<MT>:モード・ボタン領域(図5の513内)のいずれかのボタンをペンで触れたことを意味するトークン。
<AT>:領域関連のボタン(図5の513の新規領域モード、領域選択モード、領域選択解除モード)をペンで触れたことを意味するトークン。
<IT>:「手書き入力モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
<ST>:「領域選択モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
<NT>:「新規領域モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
<CT>:「領域選択解除モード」(図5の513内)ボタンをペンで触れたことを意味するトークン。
The explanation of the contents of each alternative token is shown below.
<T>: A token that means that any button in the button area (inside 515 in FIG. 5) is touched with a pen.
<FTx>: A token that means that any button in the function button area (514 in FIG. 5) is touched with a pen. “FT” “x” is a number for distinguishing various function buttons.
<MT>: A token that means that any button in the mode button area (inside 513 in FIG. 5) is touched with a pen.
<AT>: A token that means that a button related to an area (513 new area mode, area selection mode, area selection release mode) is touched with a pen.
<IT>: Token that means that the “handwriting input mode” (inside of 513 in FIG. 5) button is touched with a pen.
<ST>: A token indicating that the “area selection mode” (inside of 513 in FIG. 5) button is touched with a pen.
<NT>: A token indicating that the “new area mode” (inside of 513 in FIG. 5) button is touched with a pen.
<CT>: A token indicating that the “area selection release mode” (inside of 513 in FIG. 5) button is touched with a pen.
上記トークンのお互いの関係を以下に示す。
<T> --+-- <FT>
|
+-- <MT> --+-- <AT> --+-- <ST>
| +-- <NT>
+-- <IT> +-- <CT>
The relationship between the above tokens is shown below.
<T>-+-<FT>
|
+-<MT>-+-<AT>-+-<ST>
| +-<NT>
+-<IT>+-<CT>
また、図10の領域対応処理オブジェクト欄の処理は、各矩形領域に対応する処理である。具体的には、図2のディバイス・データ解析処理のプログラム・エントリを示す情報が格納される。コメント欄には領域の意味を識別するためのコメントが格納される。 Further, the processing in the area corresponding processing object column in FIG. 10 is processing corresponding to each rectangular area. Specifically, information indicating a program entry of the device data analysis process of FIG. 2 is stored. A comment for identifying the meaning of the area is stored in the comment column.
図2の編集コマンド処理サブシステム200における、手書き入力モード部206、ベクトル追加部207、新規領域モード部208、領域選択解除モード部209、及び領域選択モード部210は、各処理部の起動と処理パラメータの引渡しであり、各処理部の実際の処理に関しては、画像データ編集サブシステム(図1の103、図3の302、図4の405)で実行される。画像データ編集サブシステムの処理内容の詳細は、図22〜図26を用いて後述される。
In the editing
図7は編集処理後の編集画面図700であり、操作部101または編集クライアント300,400で表示される。図5、図7を用いて各機能処理部211〜213、及び215の処理結果の説明を行う。
FIG. 7 is an editing screen diagram 700 after the editing process, which is displayed on the
画像→文字コード変換部211は、領域指定された画像内の文字部を抽出して文字コードに変換する。例えば、図5の領域509を選択し、画像→文字コード変換を行うと図7の707のように文字コードに変換されアノテーションとして編集データとして埋め込まれるとともに、706のように文字フォントの画像データとして書き込まれる。
The image → character
筆跡→文字コード変換部212は、領域指定された領域内のタブレットやデジタル・ペン等のポインティング・ディバイスの筆跡ベクトルを文字コードに変換する。例えば、図5の領域506を選択し、筆跡→文字コード変換を行うと図7の703のように文字コード”あいう”に変換されアノテーションとして編集データとして埋め込まれるとともに、702のように文字フォントの画像データとして書き込まれる。
The handwriting → character
図形整形部213は、領域指定された領域内の前述のポインティング・ディバイスの筆跡ベクトルを図形整形し図形ベクトル・データに変換する。例えば、図5の領域507を選択し、図形整形を行うと前記ポインティング・ディバイスで書き込んだ三角形508が図7の704のように整形され画像として書き込まれる。さらに、整形された三角形の図形ベクトル・データがアノテーションとして編集データに埋め込まれる。
The
トリミング/マスキング部214は、領域指定された領域内の画像をトリミングまたはマスキングする。
The trimming /
データ削除部215は、領域指定された領域内の画像を削除し、ディフォルトの塗りつぶし色またはドット・パターンで置き換える。例えば、図5の領域502を指定しデータ削除を行うと図7の701のように指定された領域が削除される。701のように削除前の画像を破線で表示上は残し画像データは削除しても良いし、表示上完全に削除してもよい。
The
(動作説明)
以上述べたシステム構成において、本実施形態の画像編集システムの動作内容について説明する。
(Description of operation)
In the system configuration described above, the operation content of the image editing system of this embodiment will be described.
本実施形態の特徴であるディバイス・データ解析部202の詳細を説明する。最初に図20のディバイス・データ解析処理のフローチャートを用いて説明する。ステップS2001でディバイス通信部201から一筆分のペン・データを受信する。ここで言うペン・データとはタブレットやデジタル・ペン等のポインティング・ディバイス(以降簡単のためペンと呼ぶ)の筆跡データである。
Details of the device
次に、ステップS2002で座標変換管理部204の座標変換管理処理(図21を参照し後述)を実行し、ペン・データをペン・ベクトル(PVn)に変換しまたは図10の座標変換管理テーブルを参照して代替トークンに変換し、図10の座標変換管理テーブルを参照してペンで書き込んだ領域に対応した処理オブジェクトを選択する。次に、ステップS2003で処理オブジェクトが画像編集用の処理オブジェクトであるProc-Aか確認する。もし、NOならばステップS2005に移行しその他の対応処理を実行し終了する。一方、YESならばステップS2004に進みトークンとペン・ベクトル解析処理を実行し処理を終了する。なお、ステップS2004の詳細な説明は図19を用いて後述される。
Next, in step S2002, a coordinate conversion management process (described later with reference to FIG. 21) of the coordinate
次に、図21を用いて座標変換管理部204の処理に関して説明する。先ず、ステップS2101で図10の座標変換管理テーブルを検索するために、テーブルのインデックス変数であるiに1をセットする。次に、ステップS2102に進み、テーブルの最大レコード数であるNと比較して最終レコードを全て検索したかチェックする。もし、iがNを超えて最終レコードを全て検索し終わった(YES)ならばステップS2108にジャンプする。もし、NOならばステップS2103に移行し、ペン・データが図10の座標変換管理テーブルのインデックス変数iが指すレコード(CTRi)の矩形領域内のものか確認する。
Next, the processing of the coordinate
次に、ステップS2104でペン・ベクトルが矩形領域内に存在するかチェックし、しない(NO)ならばステップS2109にジャンプする。一方、YESならばステップS2105に移行し、図10の座標変換管理テーブルのインデックス変数iが指すレコードの領域種別が”編集”かどうかチェックし、NOならばステップS2110にジャンプする。一方、YESならば編集領域内をペンで書いたとみなし、ステップS2106に移行して、ペン・データをペン・ベクトル(PVn)に変換し、一時的なメモリ領域(一時格納領域)に格納する。 Next, in step S2104, it is checked whether the pen vector exists in the rectangular area. If not (NO), the process jumps to step S2109. On the other hand, if YES, the flow shifts to step S2105 to check whether the area type of the record pointed to by the index variable i in the coordinate conversion management table of FIG. 10 is “edit”, and if NO, jump to step S2110. On the other hand, if YES, it is considered that the editing area has been written with a pen, the process proceeds to step S2106, pen data is converted into a pen vector (PVn), and stored in a temporary memory area (temporary storage area).
次に、ステップS2107に進みディバイス・データ解析部202に対する処理完了後の終了情報として、ペン・ベクトル(PVn)または代替トークンと図10の座標変換管理テーブルのインデックス変数iが指すレコードの領域対応処理オブジェクトを、パラメータとして図20の処理に引渡し処理を終了する。 Next, the process proceeds to step S2107, and the processing corresponding to the area indicated by the pen vector (PVn) or alternative token and the index variable i in the coordinate transformation management table of FIG. The object is passed as a parameter to the process of FIG.
また、ステップS2108は、ペン・データが図10の座標変換管理テーブル上に未登録であり処理できない旨のエラー(または、編集領域かボタンの上をペンで書き込みを促す旨)を操作部101または編集クライアント300,400の表示装置に表示する。また、ステップS2109では、図10の座標変換管理テーブルの次レコードを処理するためにインデックスiをインクリメントし、ステップS2102にジャンプする。また、ステップS2110では、ペンで書いた領域が前述のボタン領域なので、終了情報として引き渡すために、図10の座標変換管理テーブルのインデックス変数iが指すレコードの代替トークンを取りだし、ステップS2107にジャンプする。
In step S2108, an error indicating that the pen data is not registered on the coordinate conversion management table in FIG. 10 and cannot be processed (or that the pen is to be written on the editing area or button) is displayed on the
次に図19のトークンとペン・ベクトル解析処理の状態遷移図を用いて図20のステップS2004の詳細を説明する。 Next, details of step S2004 of FIG. 20 will be described using the state transition diagram of the token and pen vector analysis processing of FIG.
領域未選択状態1901は編集対象の領域が一切選択されていない状態を示している。編集入力中1状態1905は領域が一切選択されていない状態で、編集対象領域(図5の599)内をポインティング・ディバイスで書き込んでいる状態を示している。領域指定済み状態1908は編集対象の領域が指定されている状態を示している。編集入力中2状態1911は編集対象の領域が指定済みの状態で、かつ編集対象領域(図5の599)内をポインティング・ディバイスで書き込んでいる状態を示している。
An area unselected
図19中の矢印は、ある状態から次の状態への遷移を示しており、矢印に付けた番号は下記IF-THEN式に示す番号(XまたはX-YのX)を示している。IF-THEN式の枝番号(X-Y)がついている式は枝番号(Y)分のIF−THEN式が存在していること示している。IF以降が遷移条件をTHEN以降が遷移した際の処理である。尚、括弧”<>”内は代替トークンを表している(前述の座標変換管理部204の説明を参照)。さらに、PVnは編集対象領域(図5の599)内で書かれた筆跡データであるペン・ベクトルを示している。
An arrow in FIG. 19 indicates a transition from one state to the next state, and a number given to the arrow indicates a number (X of X or X-Y) shown in the following IF-THEN expression. The expression with the branch number (X-Y) of the IF-THEN expression indicates that there are IF-THEN expressions for the branch number (Y). The process after IF is the transition condition and the process after THEN transitions. The parentheses “<>” represent an alternative token (see the description of the coordinate
<<IF-THEN式>>
(1)IF <T> THEN ユーザにエラーを通知する
(2)IF PVn THEN ベクトル追加処理を実行する
(3)−1 IF PVn THEN ベクトル追加処理を実行する
(3)−2 IF <FT> THEN ユーザにエラーを通知する
(4)−1 IF <CT> THEN <CT>前のPVnと<CT>を無視する
(4)−2 IF <IT> THEN <IT>前のPVnに対して手書き入力モード処理を実行する
(5)−1 IF <ST> THEN <ST>前のPVnに対して領域選択モード処理を実行する
(5)−2 IF <NT> THEN <NT>前のPVnに対して新規領域モード処理を実行する
(6) IF <IT>または<ST>または<NT> THEN ユーザにエラーを通知する
(7) IF PVn THEN ベクトル追加処理を実行する
(8)−1 IF PVn THEN ベクトル追加処理を実行する
(8)−2 IF <FT> THEN ユーザにエラーを通知する
(8)−3 IF <CT> THEN <CT>前のPVnに対して領域選択解除モード処理を実行する
(9) IF <CT> THEN <CT>前のPVnに対して領域選択解除モード処理を実行する
(10)−1 IF <ST> THEN <ST>前のPVnに対して領域選択モード処理を実行する
(10)−2 IF <NT> THEN <NT>前のPVnに対して新規領域モード処理を実行する
(10)−3 IF <IT> THEN <IT>前のPVnに対して手書き入力モード処理を実行する
(11)−1 IF <FT> THEN 選択済みの領域に対して各種機能処理を実行する
(11)−2 IF <CT> THEN 選択済みの領域にたいして領域選択解除モード処理を実行する
<< IF-THEN expression >>
(1) IF <T> THEN Notify user of error (2) Execute IF PVn THEN vector addition processing (3) -1 Execute IF PVn THEN vector addition processing (3) -2 IF <FT> THEN Notify user of error (4) -1 Ignore PVn and <CT> before IF <CT> THEN <CT> (4) -2 Handwritten input to PVn before IF <IT> THEN <IT> Execute mode processing (5) -1 Execute area selection mode processing for PVn before IF <ST> THEN <ST> (5) -2 For PVn before IF <NT> THEN <NT> Execute new area mode processing (6) IF <IT> or <ST> or <NT> THEN Notify user of error (7) Execute IF PVn THEN vector addition processing (8) -1 IF PVn THEN vector performing a region deselect mode processing for any additional process is executed (8) and notifies the error to -2 IF <FT> THEN user (8) -3 IF <CT> THEN <CT> previous PVn (9 IF <CT> THEN <CT> Execute area selection release mode processing for PVn before (10) -1 IF <ST> THEN <ST> Execute area selection mode processing for PVn before (10) ) -2 IF <NT> THEN <NT> Execute new area mode processing for PVn before (10) -3 IF <IT> THEN <IT> Execute handwriting input mode processing for PVn before (11) -1 IF <FT> THEN Various function processing is executed for the selected area. (11) -2 IF <CT> THEN Area selection release mode processing is executed for the selected area.
以降、上記IF-THEN式のTHEN以降記載の処理部の下線部分の詳細を図2と図22〜26図のフローチャートを用いて説明する。ここでそれに先立ち、まず、図8のデータ・オブジェクト管理テーブルのリスト図を説明し、さらに、図11〜18の編集領域管理テーブルに関して説明しておく。 Hereinafter, details of the underlined portion of the processing section described after THEN of the IF-THEN formula will be described with reference to the flowcharts of FIG. 2 and FIGS. Prior to that, first, the list diagram of the data / object management table of FIG. 8 will be described, and further, the editing area management tables of FIGS. 11 to 18 will be described.
図8のデータ・オブジェクト管理テーブルのリスト図を参照し、図5の編集対象領域599に書き込まれた領域関連以外の筆跡データを管理するためのデータ・オブジェクト管理テーブルについて説明する。
The data object management table for managing handwriting data other than the area related data written in the
図8において、データ・オブジェクト管理テーブルでは、編集対象の筆跡データであるペン入力データの集合を一塊として管理する。具体的には、図5の514の機能ボタンが選択されるまでのペン入力データの集合を1つの管理レコードで管理する。そのペン入力データは、データ・オブジェクト管理テーブルの管理レコードの”ペン入力データ”欄に格納される。”データ種別”、”データ内容”それぞれの欄には、選択された機能ボタンに対応するデータ種別、および編集対象のペン・ベクトルPVnに対してその機能ボタンに対応する変換処理結果が格納される。
In FIG. 8, in the data object management table, a set of pen input data that is handwriting data to be edited is managed as a lump. Specifically, a set of pen input data until the
例えば、図8の1レコード目のオブジェクトID”Oa”は、図5の領域506内のペン・ベクトルに対して図5の514の機能ボタン”筆跡→文字列変換”が適用され、”データ種別”欄に”文字列”、”データ内容”欄に文字列である”あいう”703が格納される。
For example, for the object ID “Oa” in the first record in FIG. 8, the function button “handwriting → character string conversion” in 514 in FIG. 5 is applied to the pen vector in the
オブジェクトID”Ob”には、図5の領域508内のペン・ベクトルに対して図5の514の機能ボタン”図形整形”が適用され、”データ種別”欄に”図形”、”データ内容”欄に三角形705の図形ベクトルが格納される。
For the object ID “Ob”, the function button “shape shaping” of 514 in FIG. 5 is applied to the pen vector in the
オブジェクトID”Oc”には、図5の領域509内のペン・ベクトルに対して図5の514の機能ボタン”画像→文字列変換”が適用され、”データ種別”欄に”文字列”、”データ内容”欄に変換された結果の文字列707が格納される。但し、図5の512は画像データの文字列なので”ペン入力データ”欄にはペン・ベクトルは格納されない。
For the object ID “Oc”, the function button “image → character string conversion” of 514 in FIG. 5 is applied to the pen vector in the
次いで図5、図8、図9を参照しながら、図11〜18の編集領域管理テーブルの設定内容に関して説明しおく。 Next, the setting contents of the editing area management table of FIGS. 11 to 18 will be described with reference to FIGS. 5, 8, and 9.
図11は初期状態であり、図5の編集対象領域599が図11の管理テーブルの1行目(1管理レコード目)であり、”内包領域”として”b”(その管理テーブルの2行目の”領域ID”)と”c”(その管理テーブルの3行目の”領域ID”)を包含している。その管理テーブルの2行目は図5の矩形領域503の管理レコード、3行目は図5の矩形領域510の管理レコードである。画像データからの矩形領域503、510の解析と矩形抽出は、図1の画像処理サブシステム105、図3の305中の画像処理サブシステム、図4の402中の画像処理サブシステムで処理され、その結果は図11の2行目と3行目の管理レコードに反映される。
FIG. 11 shows an initial state, and the
図12は、図11の初期状態からペンで1つめの新規の領域指定(図5の502)の囲線を書いた直後の編集領域管理テーブルの状態である。その結果、図12の4つ目の管理レコード(”領域ID”が”d”)が追加され、”選択状態”に”選択”、”種別”が手書領域”、その領域に外接する図5の破線の矩形504データが”領域ベクトル”にセットされ、囲い線502は矩形503を内包するので”内包領域”に”b”がセットされる。さらに、図12の1つ目の管理レコード”a”の”内包領域”が”c”と”d”にセットされる。
FIG. 12 shows the state of the editing area management table immediately after the first new area designation (502 in FIG. 5) is drawn with the pen from the initial state of FIG. As a result, the fourth management record in FIG. 12 (“area ID” is “d”) is added, “selected” is “selected”, “type” is the handwritten area, and the figure circumscribes the area. The
図13はペンで図5の505の文字”あいう”を書き込んだ直後の編集領域管理テーブルである。その文字のペン・ベクトルは図8のデータ・オブジェクト管理テーブルの新規に追加された管理レコード(図8の1行目)の”ペン入力データ”にセットされ、”オブジェクトID”に”Oa”がセットされる。次に、図13の1つ目の管理レコードの”内包オブジェクト”として”Oa”がセットされる。 FIG. 13 is an editing area management table immediately after the character “A” of 505 in FIG. 5 is written with a pen. The pen vector of the character is set to “pen input data” in the newly added management record (first line in FIG. 8) of the data object management table of FIG. 8, and “Oa” is set to “Object ID”. Set. Next, “Oa” is set as the “included object” of the first management record in FIG.
図14はペンで書き込んだ図5の505の文字の周辺をペンで囲線506で領域指定した直後の編集領域管理テーブルの状態である。操作上はペンで囲線506を書いた後に513内の新規領域モード・ボタンをチェックする。編集対象領域599の直下に新規領域506が新たに指定されたので、図14の5番目の管理レコードが追加され、”領域ID”に”e”、”選択状態”に”選択”、”種別”に”手書領域”、”領域ベクトル”に506の外接矩形、”内包領域”に”なし”、さらに、”内包オブジェクト”に”Oa"がセットされる。さらに、図14の1行目の”内包領域”に”e”が追加され、”内包オブジェクト”に”なし”がセットされる。これは、編集対象領域599がオブジェクト”Oa"を直接包含していた状態から、新規領域”e”がオブジェクト”Oa"を直接包含し、編集対象領域599が領域”e”を包含する構成になったためである。
FIG. 14 shows the state of the editing area management table immediately after the area around the
図15はペンで図5の図形508を書き込んだ直後の編集領域管理テーブルの状態である。その文字のペン・ベクトルは図8のデータ・オブジェクト管理テーブルの新規に追加された管理レコード(図8の2行目)の”ペン入力データ”にセットされ、”オブジェクトID”に”Ob”がセットされる。次に、図15の1つ目の管理レコードの”内包オブジェクト”として”Ob”がセットされる。 FIG. 15 shows the state of the editing area management table immediately after the figure 508 of FIG. 5 is written with a pen. The pen vector of the character is set in the “pen input data” of the newly added management record (second line in FIG. 8) of the data object management table of FIG. 8, and “Ob” is set in the “object ID”. Set. Next, “Ob” is set as the “included object” of the first management record in FIG.
図16はペンで書き込んだ図5の図形508の周辺をペンで囲線507を書込んで、新規の領域を指定した直後の編集領域管理テーブルの状態である。操作上はペンで囲線507を書いた後に513内の新規領域モード・ボタンをチェックする。編集対象領域599の直下に新規領域507が新たに指定されたので、図16の6番目の管理レコードが追加され、”領域ID”に”f”、”選択状態”に”選択”、”種別”に”手書領域”、”領域ベクトル”に507の外接矩形、”内包領域”に”なし”、さらに、”内包オブジェクト”に”Ob"がセットされる。さらに、図16の1行目の”内包領域”に”f”が追加され、”内包オブジェクト”に”なし”がセットされる。これは、編集対象領域599がオブジェクト”Ob"を直接包含していた状態から、新規領域”f”がオブジェクト”Ob"を直接包含し、編集対象領域599が領域”f”を包含する構成になったためである。
FIG. 16 shows the state of the editing area management table immediately after a new area is specified by writing a
次に、図17は図5の文章512の周辺を囲線509で書込んで、新規の領域を指定した直後の編集領域管理テーブルの状態である。その結果、図17の7つ目の管理レコード(”領域ID”が”g”)が追加され、”選択状態”に”選択”、”種別”が手書領域”、その領域に外接する不図示の矩形データが”領域ベクトル”にセットされる。さらに矩形領域510は囲線509を内包するので、図17の3つ目の管理レコード”c”の”内包領域”が”g”にセットされる。
Next, FIG. 17 shows the state of the editing area management table immediately after the periphery of the
最後に、図18は領域指定509内の画像に対して機能ボタン領域514中の「画像→文字列変換」を実行した直後の編集領域管理テーブルの状態である。この変換結果である文字列が図8のデータ・オブジェクト管理テーブルの3行目の管理レコードとしてセットされ、図18の7行目(”領域ID”が”g”)で”選択状態”に”未選択”、”内包オブジェクト”として図8の3行目の”0c”がセットされる。図9のデータ・オブジェクトの相互関連を示すツリー図は、図18のオブジェクトと領域との関係を表している。
Finally, FIG. 18 shows the state of the editing area management table immediately after executing “image → character string conversion” in the
次いで、図23のベクトル追加処理のフローチャートを用いてベクトル追加処理207を説明する。ステップS2301でペン・ベクトル・データ(PVn)を上記ペン・ベクトルの一時格納領域に格納する。次にステップS2302に進み、ペン・ベクトル(PVn)を筆跡データが選択済みの領域でもなく、編集対象の筆跡オブジェクトでもない未確定状態である旨の表現(例えば、表示装置がカラーディスプレイなら緑線、白黒ディスプレイの場合は破線)で表示装置に表示する。
Next, the
次に、図22の手書き入力モード処理のフローチャートを用いて手書き入力モード部206を詳細に説明する。まず、ステップS2201のNは図5の手書き入力モード・ボタンをチェックする前に入力されたペン・ベクトル数である。Nが0の場合はペン・ベクトルが1つも入力されていないことを意味する。従って、ステップS2201でそのNをチェックして Nが0以下の場合は、ステップS2208にジャンプしてその旨のエラーを表示装置(図1の101、図3,4の画像編集クライアント300、400の表示装置)に表示する。
Next, the handwriting
一方、N>0ならばステップS2202に進み、図8のデータ・オブジェクト管理テーブルに新規にレコードを追加する。次に、ステップS2203に進みペン・ベクトルの一時格納領域から取り出したペン・ベクトル数をカウントする変数(n)に1をセットする。 次に、ステップS2204に進み、n>N(最後のペン・ベクトルを取り出し済み)をチェックし、NOならばステップS2209にジャンプする。 On the other hand, if N> 0, the process proceeds to step S2202, and a new record is added to the data object management table of FIG. In step S2203, 1 is set to a variable (n) for counting the number of pen vectors extracted from the pen vector temporary storage area. In step S2204, n> N (the last pen vector has been extracted) is checked. If NO, the process jumps to step S2209.
一方、YESならばステップS2205に進み、前述の編集領域管理テーブルを検索し、一時格納領域から取り出した全てのペン・ベクトルを包含する領域の管理レコードが存在するかチェックする(ステップS2206)。そのような管理レコードが存在しないならステップS2212にジャンプする。一方、そのような管理レコードが存在するならステップS2207に移行し、編集領域管理テーブルのステップS2205で一致した管理レコードの”内包オブジェクト”として前述のデータ・オブジェクト管理テーブルのオブジェクトIDをセットし、処理を終了する。 On the other hand, if YES, the flow advances to step S2205 to search the aforementioned editing area management table and check whether there is a management record of an area including all pen vectors extracted from the temporary storage area (step S2206). If there is no such management record, the process jumps to step S2212. On the other hand, if such a management record exists, the process proceeds to step S2207, and the object ID of the data / object management table described above is set as the “included object” of the management record matched in step S2205 of the editing area management table and processed. Exit.
ステップS2208では、前述の表示装置に”手書き入力モード・ボタンのチェック前にペンで書き込みが行われていない”旨のエラー表示を行い処理を終了する。 In step S2208, an error message is displayed on the aforementioned display device indicating that “writing is not performed with a pen before checking the handwriting input mode button”, and the process is terminated.
ステップS2209では、ペン・ベクトル・データの一時格納領域の次のペン・ベクトル(PVn)をステップS2202で追加したデータ・オブジェクト管理の管理レコードにセットする。次にステップS2210に進みそのペン・ベクトルを前述の表示装置に手書き入力の筆跡である旨の表現(例えば、表示装置がカラーディスプレイなら青線、白黒ディスプレイの場合は実線)で表示する。次に、ステップS2211で次にペン・ベクトル(PVn)を示すnをインクリメントすし、ステップS2204にジャンプする。 In step S2209, the next pen vector (PVn) in the pen vector data temporary storage area is set in the management record of data object management added in step S2202. Next, proceeding to step S2210, the pen vector is displayed on the aforementioned display device with an expression indicating that it is handwriting input handwriting (for example, a blue line if the display device is a color display, or a solid line if it is a monochrome display). Next, in step S2211, n indicating the pen vector (PVn) is incremented, and the process jumps to step S2204.
ステップS2212では、前述の表示装置に対し”ペン・ベクトル(PVn)が複数の領域に跨っている”旨のエラー表示を行い処理を終了する。 In step S2212, an error display indicating that “the pen vector (PVn) straddles a plurality of areas” is displayed on the above-described display device, and the process ends.
次に、図25の新規領域モード処理のフローチャートを用いて新規領域モード部208を説明する。先ず、ステップS2501では、N>0(Nは新規領域モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし入力されたペン・ベクトル数が0を超えるか確認し、NOならばステップS2507にジャンプする。
Next, the new
一方、ステップS2501のチェック結果がYESならばステップS2502に進み、新規領域モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)のn個目を指定する変数nを1にセットする。次に、ステップS2503に進みn>Nをチェックし、全てのペン・ベクトル(PVn)の処理が完了しているか確認し、完了していない(NO)ならばステップS2508にジャンプする。 On the other hand, if the check result in step S2501 is YES, the process advances to step S2502, and a variable n for designating the n-th pen vector (PVn) input before checking the new area mode button is set to 1. Next, the process proceeds to step S2503, where n> N is checked to check whether all the pen vectors (PVn) have been processed. If not (NO), the process jumps to step S2508.
一方、完了している(YES)ならステップS2504に移行し、新規領域を指定する領域線がペン・ベクトル(PVn)の始点と終点が交差しているか、または予め定められた距離の範囲内にあり、かつ、同レベル(例えば、図9のデータ・オブジェクトの相互関連を示すツリー図におけるc, d, e, fのレベルやg, bのレベル)の他の領域と交差していないか確認する。その結果をステップS2505でチェックしてOKでないならステップS2511にジャンプする。 On the other hand, if completed (YES), the process moves to step S2504, where the area line specifying the new area intersects the start point and end point of the pen vector (PVn), or is within a predetermined distance range. Check if it exists and does not intersect with other areas at the same level (for example, c, d, e, f level or g, b level in the tree diagram showing the correlation of data objects in Fig. 9) To do. The result is checked in step S2505, and if not OK, the process jumps to step S2511.
一方、ステップS2505でチェック結果がOKならステップS2506に進み、上記編集領域管理テーブの新規の管理レコードを追加し、その管理レコードの”選択状態”に”選択”をセットする。さらに、その新規領域が内包する領域が存在するかを確認するために、上記編集領域管理テーブを検索し、もし内包する領域があればその領域IDをその新規の管理レコードの”内包領域”にセットする。さらに、その新規領域を内包する管理レコードの”内包領域”に新規管理レコードの領域IDをセットし、正常終了する。 On the other hand, if the check result is OK in step S2505, the process advances to step S2506 to add a new management record in the editing area management table, and set “selected” in the “selected state” of the management record. Further, in order to confirm whether or not the area included in the new area exists, the editing area management table is searched. If there is an area included, the area ID is set in the “inclusive area” of the new management record. set. Further, the area ID of the new management record is set in the “include area” of the management record including the new area, and the process ends normally.
ステップS2507では、操作部サブシステム101や編集クライアント300、400上の表示装置に新規領域モード・ボタンをチェック前ペンで書き込みが行われていない”旨のエラー表示を行う。
In step S2507, an error message indicating that the new area mode button has not been written with the pre-check pen on the display device on the
ステップS2508では、ペン・ベクトル・データの一時格納領域から次のペン・ベクトル(PVn)を取り出し処理の対象とする。次に、ステップS2509に移行し、操作部サブシステム101や編集クライアント300、400上の表示装置にその編集対象領域の囲線を領域が選択されている旨をユーザに伝えるための表現(例えば、表示装置がカラーディスプレイなら赤線、白黒ディスプレイの場合は長短混在の破線)で表示し、ステップS2510に進み変数nをインクリメントし、ステップS2503にジャンプする。
In step S2508, the next pen vector (PVn) is extracted from the pen vector data temporary storage area and is set as a processing target. Next, the process proceeds to step S2509, and an expression for informing the user that the area of the edit target area is selected on the display unit on the
ステップS2511では、操作部サブシステム101や編集クライアント300、400上の表示装置に手書きしたチェック・マークが領域内に収まっていない”旨のエラー表示を行い、エラー終了する。
In step S2511, an error message indicating that the handwritten check mark is not within the area is displayed on the display device on the
次に、図24の領域選択モード処理のフローチャートを用いて領域選択モード部210を説明する。まず、ステップS2401は領域選択モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)のn個目を指定する変数nを1にセットし、編集対象の領域が幾つ選択されたかをカウントする変数mを0にセットする。次に、ステップS2402に進みn>N(Nは領域選択モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし最終ペン・ベクトルかチェックして、YESならばステップS2409にジャンプする。
Next, the region
一方、NOならばステップS2403に進み、図11〜図18の編集領域管理テーブルの領域ベクトル欄を検索し、ペン・ベクトル(PVn)を内包する管理レコードがあるかチェックし(ステップS2404)、そのようなレコードがもしなければステップS2412にジャンプする。一方、そのようなレコードがあればステップS2405に進み、領域が選択状態であること示すために、ペン・ベクトル(PVn)を包含する上記編集領域管理レコードの選択状態欄を”選択”状態にセットする。その際、操作部サブシステム101や編集クライアント300、400上の表示装置にその編集対象領域の囲線を領域が選択されている旨をユーザに伝えるための表現(例えば、表示装置がカラーディスプレイなら赤線、白黒ディスプレイの場合は長短混在の破線)で表示する。
On the other hand, if NO, the process advances to step S2403 to search the area vector column of the edit area management table of FIGS. 11 to 18 to check whether there is a management record containing the pen vector (PVn) (step S2404). If there is no such record, the process jumps to step S2412. On the other hand, if there is such a record, the process proceeds to step S2405, and the selection state column of the edit region management record including the pen vector (PVn) is set to the “selected” state in order to indicate that the region is in the selected state. To do. At this time, an expression for notifying the display device on the
次に、ステップS2406に進み選択された領域数カウンタである変数mをインクリメントする。次に、ステップS2407に進みペン・ベクトル・データの一時格納領域から次のペン・ベクトル(PVn)を取り出し、ステップS2408でペン・ベクトル(PVn)のn個目を指定する変数nをインクリメントしステップS2402にジャンプする。 Next, the process proceeds to step S2406, and the variable m which is the selected area number counter is incremented. In step S2407, the next pen vector (PVn) is extracted from the pen vector data temporary storage area. In step S2408, the variable n for specifying the nth of the pen vector (PVn) is incremented. Jump to S2402.
ステップS2409ではN>0(Nは領域選択モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし入力されたペン・ベクトル数が0を超えるか確認し、NOならばステップS2411にジャンプする。一方、ステップS2409の結果がYESならばm>0かチェックし(ステップS2410)選択された領域が存在するか確認し、NOならばステップS2411へジャンプする。一方、ステップS2410の結果がYESならば正常終了する。 In step S2409, it is checked whether N> 0 (N is the number of pen vectors (PVn) input before checking the area selection mode button) and whether the number of pen vectors input exceeds 0. If NO, Jump to step S2411. On the other hand, if the result of step S2409 is YES, m> 0 is checked (step S2410) to check whether the selected area exists, and if NO, the process jumps to step S2411. On the other hand, if the result of step S2410 is YES, the process ends normally.
ステップS2411では操作部サブシステム101や編集クライアント300、400上の表示装置に”領域選択モード・ボタンのチェック前に1つも有効な領域選択がされていない”旨のエラー表示を行い、エラー終了する。
In step S2411, an error message indicating that “no valid area selection has been made before checking the area selection mode button” is displayed on the display device on the
ステップS2412では操作部サブシステム101や編集クライアント300、400上の表示装置に”手書きしたチェック・マークが2つの領域に跨る等、領域内に収まっていない”旨の表示を行いステップS2407にジャンプする。
In step S2412, the display device on the
次に、図26の領域選択解除モード処理のフローチャートを用いて領域選択解除モード部209を説明する。まず、ステップS2601において、領域選択解除モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)のn個目を指定する変数nを1にセットし、編集対象の領域が幾つ選択されたかをカウントする変数mを0にセットする。次に、ステップS2602に進みn>N(Nは領域選択解除モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし最終ペン・ベクトルかチェックして、YESならばステップS2609にジャンプする。
Next, the area selection
一方、ステップS2602の結果がNOならばステップS2603に進み、図11〜図18の編集領域管理テーブルの領域ベクトル欄を検索し、ペン・ベクトル(PVn)を内包する管理レコードがあるかチェックし(ステップS2604)、もしそのような管理レコードがなければステップS2612にジャンプする。一方、そのような管理レコードがあればステップS2605に進み、領域が未選択状態であること示すために、ペン・ベクトル(PVn)を包含する上記編集領域管理レコードの選択状態欄を”未選択”状態にセットする。その際、操作部サブシステム101や編集クライアント300、400上の表示装置にその編集対象領域の囲線を領域が選択解除されている旨をユーザに伝えるための表現(例えば、表示装置がカラーディスプレイならグレー線、白黒ディスプレイの場合は細い破線)で表示する。
On the other hand, if the result of step S2602 is NO, the process proceeds to step S2603 to search the area vector column of the edit area management table of FIGS. 11 to 18 to check whether there is a management record containing the pen vector (PVn) ( Step S2604), if there is no such management record, jump to step S2612. On the other hand, if there is such a management record, the process proceeds to step S2605, and the selection state column of the editing area management record including the pen vector (PVn) is set to “unselected” to indicate that the area is not selected. Set to state. At this time, an expression for notifying the user that the area of the edit target area has been deselected is displayed on the display device on the
次に、ステップS2606に進み選択された領域数カウンタである変数mをインクリメントする。次に、ステップS2607に進みペン・ベクトル・データの一時格納領域から次のペン・ベクトル(PVn)を取り出し、ステップS2608でペン・ベクトル(PVn)のn個目を指定する変数nをインクリメントしステップS2602にジャンプする。 Next, the process proceeds to step S2606 to increment the variable m which is the selected area number counter. In step S2607, the next pen vector (PVn) is extracted from the pen vector data temporary storage area. In step S2608, the variable n for designating the nth vector of the pen vector (PVn) is incremented. Jump to S2602.
ステップS2609ではN>0(Nは領域選択解除モード・ボタンのチェック前に入力されたペン・ベクトル(PVn)の個数)かチェックし入力されたペン・ベクトル数が0を超えるか確認し、NOならばステップS2611にジャンプする。一方、ステップS2609で結果がYESならばm>0かチェックし選択された領域が存在するか確認し(ステップS2610)、NOならばステップS2611へジャンプする。一方、ステップS2610の結果がYESならば正常終了する。 In step S2609, it is checked whether N> 0 (N is the number of pen vectors (PVn) input before checking the area selection release mode button) and whether the number of input pen vectors exceeds 0 is checked. If so, the process jumps to step S2611. On the other hand, if the result is YES in step S2609, m> 0 is checked to check whether the selected area exists (step S2610), and if NO, the process jumps to step S2611. On the other hand, if the result of step S2610 is YES, the process ends normally.
ステップS2611では操作部サブシステム101や編集クライアント300、400上の表示装置に”領域選択解除モード・ボタンのチェック前に1つも有効な領域選択がされていない”旨のエラー表示を行い、エラー終了する。
In step S2611, an error message indicating that “no valid area selection has been made before checking the area selection release mode button” is displayed on the display device on the
ステップS2612では操作部サブシステム101や編集クライアント300、400上の表示装置に”手書きしたチェック・マークが2つの領域に跨る等、領域内に収まっていない”旨の表示を行いステップS2607にジャンプする。
In step S2612, the display device on the
(実施形態の効果)
以上説明したように本実施形態によれば、画像編集システムは、スキャナ手段で原稿を読み取り、読み取った画像データを画像データ格納手段に格納し、その画像データを編集するために、編集対象の領域を指定するに際し、その画像データとその画像データに対する編集機能の選択を行うため領域を表示媒体に表示させ、表示媒体上をポインティング・ディバイスで指示した位置とその画像データ上の位置が対応する画像編集システムは、そのポインティング・ディバイスで編集対象領域を線で囲むことで1つまたは複数の新たな編集対象領域を選択し、編集対象領域を選択するに際し、少なくともスキャナで読み取った画像データの一部の編集対象領域、または、新規に指定した編集対象領域内をポインティング・ディバイスでチェックすることで1つまたは複数の編集対象領域を再度選択し、既に指定済みで選択済みまたは未選択の編集対象領域内をポインティング・ディバイスでチェックすることで選択済みの1つまたは複数の編集対象領域の選択を解除し、選択された1つまたは複数の編集対象領域に含まれるオブジェクトに対して前記ポインティング・ディバイスで少なくとも1つまたは複数の編集機能の中から1つの機能を選択して適用する。
(Effect of embodiment)
As described above, according to the present embodiment, the image editing system reads an original by the scanner unit, stores the read image data in the image data storage unit, and edits the image data in the region to be edited. In order to select the image data and the editing function for the image data, an area is displayed on the display medium, and the position indicated on the display medium by the pointing device corresponds to the position on the image data. The editing system selects one or a plurality of new editing target areas by surrounding the editing target area with a line with the pointing device, and at least a part of the image data read by the scanner when selecting the editing target area. Pointing device checks the area to be edited or the newly specified area to be edited To select one or more editing target areas again, and then select one or more editing target areas that have already been specified and checked by using a pointing device in the selected or unselected editing target areas. Is selected, and at least one or more editing functions are selected and applied by the pointing device to the objects included in the selected one or more editing target areas.
このため、特許文献1の手書き入力装置のように既に処理済みの編集対象領域に対する編集領域の指定と選択を再度ペンで囲う必要は無く、編集対象領域内をペンで触れたりチェック・マークを書き込むだけで編集対象領域の選択が可能となり、著しく操作性が向上する。
For this reason, it is not necessary to re-specify and select the editing area for the editing target area that has already been processed as in the handwriting input device of
さらに、特許文献2の画像編集装置のようなマーカー・ペンで編集するシステムと比べると、仮出力紙にマーカー・ペンで記入後の仮出力紙のスキャンが不要になり、著しく操作性が向上する。さらに、特許文献2のマーカー・ペンで編集するシステムでは、同一原稿を再編集する度に仮出力紙のプリントとスキャンを行う必要があり、そのたびに画質が劣化するが、本実施形態では、再編集の際、仮出力紙のプリントとスキャンが不要となるばかりか、原稿スキャンは最初の1回のみなので画質の劣化が著しく改善される。
Further, as compared with a system for editing with a marker pen such as the image editing apparatus of
また、特許文献3のNotepadと比べ、スキャナで読み込んだ画像データに対する編集ができ、既にペンで書き込んだオブジェクトに対する処理対象の選択ができるので、著しく機能性および操作性が向上する。
Compared with Notepad in
(他の実施形態)
本発明を適用できる上述した実施形態は、その変形例として、上記形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体(又は記録媒体)を、システム又は装置に供給し、そのシステム又は装置のコンピュータ(又はCPUやMPU(micro processing unit))が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成されることは言うまでもない。
(Other embodiments)
In the above-described embodiment to which the present invention can be applied, a storage medium (or recording medium) that stores a program code of software that realizes the function of the above-described form is supplied as a modification to the system or apparatus. Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium by a computer (or CPU or MPU (micro processing unit)).
この場合、記憶媒体から読み出されたプログラムコード自体が上記実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、上記実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部又は全部を行い、その処理によって上記実施形態の機能が実現される場合も、本発明の構成に含まれることは言うまでもない。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) operating on the computer is actually executed based on the instruction of the program code. It goes without saying that the case where the functions of the above-described embodiment are realized by performing a part or all of the processing and the processing is included in the configuration of the present invention.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わる記憶媒体に書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の構成に含まれることは言うまでもない。 Furthermore, after the program code read from the storage medium is written to the storage medium provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. It goes without saying that the configuration of the present invention also includes a case where the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing. .
また、本発明は、上記実施形態の機能を実現するソフトウェアのプログラムコードがネットワークを介して配信されることにより、システム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW(CD-ReWritable)、CD−R(CD recordable)等の記憶媒体に格納され、そのシステム又は装置のコンピュータ(又はCPUやMPU)がそれら記憶手段や記憶媒体に格納されたプログラムコードを読み出して実行することによっても、達成されることは云うまでもない。 In addition, the present invention distributes the program code of software that realizes the functions of the above-described embodiments via a network, so that storage means such as a hard disk or a memory of a system or apparatus or a CD-RW (CD-ReWritable), Also achieved by reading and executing the program code stored in a storage medium such as a CD-R (CD recordable) and the system (or CPU or MPU) of the system or apparatus. It goes without saying that it is done.
200 編集コマンド処理サブシステム
201 ディバイス通信部
202 ディバイス・データ解析部
203 空き空間管理部
204 座標変換管理部
206 手書き入力モード部
207 ベクトル追加部
208 新規領域モード部
209 領域選択解除モード部
210 領域選択モード部
211 画像→文字コード変換部
212 筆跡→文字コード変換部
213 図形整形部
214 トリミング/マスキング部
215 データ削除部
200 Edit
Claims (18)
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段と、
前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段と
を備えたことを特徴とする画像編集システム。 The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. An image editing system in which an area for displaying is displayed on a display medium, and a position on the display medium corresponds to a position on the image data and a position on the image data.
A new area processing means for selecting one or a plurality of new edit target areas by surrounding the edit target area with a line by the position indicating means;
And an area selection processing means for selecting again one or a plurality of editing target areas instructed by instructing the editing target area selected by the new area processing means by the position indicating means. A featured image editing system.
をさらに備えたことを特徴とする請求項1に記載の画像編集システム。 An area selection cancellation processing unit that cancels selection of the specified one or more editing target areas by instructing the editing target area selected by the new area processing unit by the position instruction unit. The image editing system according to claim 1.
をさらに備えたことを特徴とする請求項1または2に記載の画像編集システム。 One or a plurality of the editing target areas selected by the new area processing unit, or one or a plurality of the objects included in the one or a plurality of editing target areas selected by the region selection processing unit The editing function processing means for selecting at least one editing function from the editing functions by instructing the position indicating means and applying the selected editing function is further provided. The image editing system described in 1.
をさらに備えたことを特徴とする請求項3の画像編集システム。 Error notification means for notifying an error when there is no selected editing target area and at least one editing function is instructed and selected by the position indicating means from one or more of the editing functions; The image editing system according to claim 3, further comprising:
ことを特徴とする請求項3の画像編集システム。 The image editing system according to claim 3, wherein after the editing function is applied by the editing function processing unit, the selected editing target area is deselected.
前記位置指示手段と通信する通信手段と、
前記通信手段から定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析手段とを備え、
前記データ解析手段は、
前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理手段を有し、
前記座標変換管理手段によって管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、
前記第1のベクトルを一時的に保存するベクトル追加手段、
前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理手段、
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理手段、
前記新規領域処理手段によって選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理手段
のいずれかによる処理を実行する
ことを特徴とする画像編集システム。 The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. In an image editing system using a display medium displaying an area for the display, the position indicated by the position indicating means on the display medium corresponds to the position on the image data,
Communication means for communicating with the position indicating means;
A vector of position coordinates on the display medium, which is sampled and received from the communication means at regular intervals and represents the locus of movement of the position indicating means on the display medium, is defined in advance on the display medium. If it is included in the area, the position coordinate vector is treated as a first vector to be edited, or the position coordinate vector has at least one editing function defined in advance on the display medium. If included in the area to be specified, the vector of the position coordinates is treated as a second vector for identifying the editing function, and is converted into a token for identifying the editing function, and the first vector or the token Data analysis means for executing processing determined by the state determined by the following and the first vector or token received next Equipped with a,
The data analysis means includes
Managing a rectangular area including the coordinates of the position coordinate vector and defining the editing area or the area for designating the editing function, and processing applied to the coordinates of the position coordinate vector Having coordinate conversion management means,
A process determined by the state and the first vector or the token received next when executing the process managed by the coordinate transformation management means,
Vector adding means for temporarily storing the first vector;
Handwriting input processing means for performing processing for adding the first vector as an object included in the editing area;
A new region processing unit that selects one or a plurality of new editing target regions by surrounding the editing target region with a line by the position indicating unit;
Processing by any one of the area selection processing means for selecting again one or a plurality of editing target areas instructed by instructing the editing target area selected by the new area processing means by the position indicating means. An image editing system characterized by being executed.
前記位置指示手段は、前記位置座標パターンを読み取り前記編集用紙上の前記2次元座標位置のベクトルを記憶し、当該記憶したベクトルを前記通信手段に伝送するデジタル・ペンである
ことを特徴とする請求項6の画像編集システム。 The display medium is an editing sheet on which a coordinate position pattern obtained by encoding two-dimensional coordinate data for specifying a two-dimensional coordinate position with respect to a display area is superimposed,
The position instructing means is a digital pen that reads the position coordinate pattern, stores a vector of the two-dimensional coordinate position on the editing sheet, and transmits the stored vector to the communication means. Item 6. The image editing system according to item 6.
前記位置指示手段は、前記表示装置上の位置検出機能を有する
ことを特徴とする請求項6の画像編集システム。 The display medium is a display device,
The image editing system according to claim 6, wherein the position instruction means has a position detection function on the display device.
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップと、
前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップと
を備えることを特徴とする画像編集方法。 The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. In the image editing method of the image editing system, the area for displaying is displayed on a display medium, and the position indicated on the display medium by the position indicating means corresponds to the position on the image data.
A new region processing step of selecting one or a plurality of new editing target regions by surrounding the editing target region with a line by the position indicating means;
A region selection processing step of reselecting the specified one or a plurality of editing target areas by instructing the editing target area selected in the new area processing step by the position indicating means. Image editing method.
をさらに備えることを特徴とする請求項9に記載の画像編集方法。 An area selection cancellation processing step for canceling selection of the specified one or a plurality of editing target areas by instructing the editing target area selected in the new area processing step by the position indicating means. The image editing method according to claim 9.
をさらに備えることを特徴とする請求項9または10に記載の画像編集方法。 One or more of the editing target areas selected in the new area processing step, or one or more of the objects included in the one or more editing target areas selected in the area selection processing step The edit function processing step of selecting at least one edit function from the edit functions by instructing the position instruction means and applying the selected edit function is further provided. The image editing method described.
をさらに備えたことを特徴とする請求項11の画像編集方法。 An error notification step of notifying an error when there is no selected editing target area and at least one editing function is instructed and selected from the one or more editing functions by the position indicating means; The image editing method according to claim 11, further comprising:
ことを特徴とする請求項11の画像編集方法。 The image editing method according to claim 11, wherein after the editing function is applied in the editing function processing step, the selection of the selected editing target area is canceled.
前記位置指示手段と通信する通信ステップと、
前記通信ステップにおいて定期的時間によりサンプリングし受信した、前記表示媒体上を前記位置指示手段が移動した軌跡を表す、前記表示媒体上の位置座標のベクトルが、前記表示媒体上で予め定義された編集領域内に包含されている場合は、前記位置座標のベクトルを編集対象の第1のベクトルとして扱い、または、前記位置座標のベクトルが、前記表示媒体上で予め定義された少なくとも1つの編集機能を指定する領域内に包含されている場合は、前記位置座標のベクトルを前記編集機能を識別する第2のベクトルとして扱って前記編集機能を識別するトークンに変換し、前記第1のベクトルまたは前記トークンにより決定される状態と、次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理を実行するデータ解析ステップとを備え、
前記データ解析ステップは、
前記位置座標のベクトルの座標を包含する矩形領域であって前記編集領域または前記編集機能を指定する領域を規定する矩形領域と、前記位置座標のベクトルの座標に対して適用する処理とを管理する座標変換管理ステップを有し、
前記座標変換管理ステップにおいて管理される処理を実行する場合に、前記状態と次に受信した前記第1のベクトルまたは前記トークンとにより決定される処理であって、
前記第1のベクトルを一時的に保存するベクトル追加ステップ、
前記第1のベクトルを前記編集領域に含まれるオブジェクトとして追加する処理を行う手書入力処理ステップ、
前記位置指示手段によって編集対象領域を線で囲むことで、1つまたは複数の新たな編集対象領域を選択する新規領域処理ステップ、
前記新規領域処理ステップにおいて選択された編集対象領域内を前記位置指示手段によって指示することで、当該指示された1つまたは複数の編集対象領域を再度選択する領域選択処理ステップ
のいずれかによる処理を実行する
ことを特徴とする画像編集方法。 The image data read by the image reading means is stored in the image data storage means, and when the editing target area is designated for editing the stored image data, the image data and the editing function for the image data are selected. In the image editing method of the image editing system, using a display medium displaying a region for, and the position on the display medium corresponding to the position indicated by the position indicating means and the position on the image data,
A communication step of communicating with the position indicating means;
A vector of position coordinates on the display medium, which represents the trajectory of the movement of the position indicating means on the display medium, sampled and received at regular intervals in the communication step, is defined in advance on the display medium. If it is included in the area, the position coordinate vector is treated as a first vector to be edited, or the position coordinate vector has at least one editing function defined in advance on the display medium. If included in the area to be specified, the vector of the position coordinates is treated as a second vector for identifying the editing function, and is converted into a token for identifying the editing function, and the first vector or the token Data for executing the processing determined by the state determined by, and the first vector or the token received next And an analysis step,
The data analysis step includes
Managing a rectangular area including the coordinates of the position coordinate vector and defining the editing area or the area for designating the editing function, and processing applied to the coordinates of the position coordinate vector A coordinate conversion management step;
When executing the process managed in the coordinate transformation management step, the process is determined by the state and the first vector or the token received next,
A vector adding step for temporarily storing the first vector;
A handwriting input processing step for performing processing for adding the first vector as an object included in the editing area;
A new region processing step of selecting one or a plurality of new editing target regions by surrounding the editing target region with a line by the position instruction means;
A process by any one of the area selection processing steps of selecting again one or a plurality of editing target areas instructed by instructing the editing target area selected in the new area processing step by the position indicating means. An image editing method characterized by being executed.
前記位置指示手段は、前記位置座標パターンを読み取り前記編集用紙上の前記2次元座標位置のベクトルを記憶し、当該記憶したベクトルを前記通信ステップの処理のために前記画像編集システムへ伝送するデジタル・ペンである
ことを特徴とする請求項14の画像編集方法。 The display medium is an editing sheet on which a coordinate position pattern obtained by encoding two-dimensional coordinate data for specifying a two-dimensional coordinate position with respect to a display area is superimposed,
The position instruction means reads the position coordinate pattern, stores a vector of the two-dimensional coordinate position on the editing sheet, and transmits the stored vector to the image editing system for processing of the communication step. The image editing method according to claim 14, wherein the image editing method is a pen.
前記位置指示手段は、前記表示装置上の位置検出機能を有する
ことを特徴とする請求項14の画像編集方法。 The display medium is a display device,
The image editing method according to claim 14, wherein the position instruction unit has a position detection function on the display device.
A program for causing a computer to execute each step of the image editing method according to claim 14.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004194892A JP2006018522A (en) | 2004-06-30 | 2004-06-30 | Image edition system, method, and program |
US11/166,132 US7839541B2 (en) | 2004-06-30 | 2005-06-27 | Image editing system and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004194892A JP2006018522A (en) | 2004-06-30 | 2004-06-30 | Image edition system, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006018522A true JP2006018522A (en) | 2006-01-19 |
Family
ID=35513558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004194892A Pending JP2006018522A (en) | 2004-06-30 | 2004-06-30 | Image edition system, method, and program |
Country Status (2)
Country | Link |
---|---|
US (1) | US7839541B2 (en) |
JP (1) | JP2006018522A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007293416A (en) * | 2006-04-21 | 2007-11-08 | Toshiba Corp | Display controller, image processor, and display control method |
JP2013003938A (en) * | 2011-06-20 | 2013-01-07 | Dainippon Printing Co Ltd | Information processing system, sheet set, and program |
US8355577B2 (en) | 2008-07-23 | 2013-01-15 | Canon Kabushiki Kaisha | Image processing apparatus and method |
WO2014054424A1 (en) * | 2012-10-01 | 2014-04-10 | Canon Kabushiki Kaisha | Operation reception device and method for receiving operation |
JP2020178283A (en) * | 2019-04-19 | 2020-10-29 | キヤノン株式会社 | Image processing apparatus for inputting characters using touch panel, control method thereof, and program |
JP2023058616A (en) * | 2019-04-19 | 2023-04-25 | キヤノン株式会社 | Image processing device for character input using touch panel, control method of the same and program |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007189663A (en) * | 2005-12-15 | 2007-07-26 | Ricoh Co Ltd | User interface device, method of displaying preview image, and program |
US8018470B2 (en) * | 2006-03-28 | 2011-09-13 | Microsoft Corporation | Vector based object property variations |
KR101392166B1 (en) * | 2006-12-18 | 2014-05-08 | 삼성전자주식회사 | Method for editing an image and for generating an editing image and for storing an edited image of a portable display device and apparatus thereof |
US8448061B1 (en) | 2007-03-30 | 2013-05-21 | Adobe Systems Incorporated | User interfaces and methods to create electronic documents with forms implementing content input fields |
JP2008250814A (en) * | 2007-03-30 | 2008-10-16 | Matsushita Electric Ind Co Ltd | Operation device and its control method |
JP5121599B2 (en) * | 2008-06-30 | 2013-01-16 | キヤノン株式会社 | Image processing apparatus, image processing method, program thereof, and storage medium |
US20100229129A1 (en) * | 2009-03-04 | 2010-09-09 | Microsoft Corporation | Creating organizational containers on a graphical user interface |
US8891113B2 (en) * | 2010-10-21 | 2014-11-18 | Konica Minolta Business Technologies, Inc. | Image forming apparatus, data processing program, data processing method, and electronic pen |
JP2014203393A (en) * | 2013-04-09 | 2014-10-27 | 株式会社東芝 | Electronic apparatus, handwritten document processing method, and handwritten document processing program |
KR20170037424A (en) * | 2015-09-25 | 2017-04-04 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
CN106708850A (en) * | 2015-11-13 | 2017-05-24 | 百度在线网络技术(北京)有限公司 | Image template-based image generation method and apparatus |
US20180033175A1 (en) * | 2016-07-28 | 2018-02-01 | Sharp Kabushiki Kaisha | Image display device and image display system |
US10699112B1 (en) * | 2018-09-28 | 2020-06-30 | Automation Anywhere, Inc. | Identification of key segments in document images |
US20210271380A1 (en) * | 2020-02-28 | 2021-09-02 | Sharp Kabushiki Kaisha | Display device |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE8304588U1 (en) | 1983-02-17 | 1983-06-16 | Deutsches Elektronen-Synchrotron Desy, 2000 Hamburg | DEVICE FOR INSPECTING READ-READ HEADS OF DATA CARRIER DISKS IN EDP SYSTEMS |
US4815029A (en) * | 1985-09-23 | 1989-03-21 | International Business Machines Corp. | In-line dynamic editor for mixed object documents |
JP2662429B2 (en) * | 1988-11-14 | 1997-10-15 | キヤノン株式会社 | Image editing device |
JP2710172B2 (en) * | 1991-03-28 | 1998-02-10 | 富士ゼロックス株式会社 | Image processing device |
AU2494392A (en) * | 1991-08-06 | 1993-03-02 | Beagle Bros, Inc. | In-context editing system with frame tool |
JPH0632611A (en) | 1992-07-13 | 1994-02-08 | Taki Chem Co Ltd | Aqueous solution of basic aluminum sulfate and its production |
US5761340A (en) | 1993-04-28 | 1998-06-02 | Casio Computer Co., Ltd. | Data editing method and system for a pen type input device |
JPH0758938A (en) | 1993-08-11 | 1995-03-03 | Ricoh Co Ltd | Image editing device |
US5734761A (en) * | 1994-06-30 | 1998-03-31 | Xerox Corporation | Editing scanned document images using simple interpretations |
US5687259A (en) * | 1995-03-17 | 1997-11-11 | Virtual Eyes, Incorporated | Aesthetic imaging system |
JPH09116738A (en) | 1995-10-16 | 1997-05-02 | Ricoh Co Ltd | Image forming device |
JPH09305070A (en) | 1996-03-15 | 1997-11-28 | Ricoh Co Ltd | Image forming device |
US6883140B1 (en) * | 2000-02-24 | 2005-04-19 | Microsoft Corporation | System and method for editing digitally represented still images |
AU2003209565A1 (en) * | 2002-02-12 | 2003-09-04 | Yonas Jongkind | Color conversion and standardization system and methods of making and using same |
US6903751B2 (en) * | 2002-03-22 | 2005-06-07 | Xerox Corporation | System and method for editing electronic images |
-
2004
- 2004-06-30 JP JP2004194892A patent/JP2006018522A/en active Pending
-
2005
- 2005-06-27 US US11/166,132 patent/US7839541B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007293416A (en) * | 2006-04-21 | 2007-11-08 | Toshiba Corp | Display controller, image processor, and display control method |
US8355577B2 (en) | 2008-07-23 | 2013-01-15 | Canon Kabushiki Kaisha | Image processing apparatus and method |
JP2013003938A (en) * | 2011-06-20 | 2013-01-07 | Dainippon Printing Co Ltd | Information processing system, sheet set, and program |
WO2014054424A1 (en) * | 2012-10-01 | 2014-04-10 | Canon Kabushiki Kaisha | Operation reception device and method for receiving operation |
JP2014071827A (en) * | 2012-10-01 | 2014-04-21 | Canon Inc | Operation reception device, method, and program |
US9594445B2 (en) | 2012-10-01 | 2017-03-14 | Canon Kabushiki Kaisha | Operation reception device and method for receiving operation on page image, storage medium, and image forming apparatus for use with operation reception device |
JP2020178283A (en) * | 2019-04-19 | 2020-10-29 | キヤノン株式会社 | Image processing apparatus for inputting characters using touch panel, control method thereof, and program |
JP7225017B2 (en) | 2019-04-19 | 2023-02-20 | キヤノン株式会社 | Image processing device for character input using touch panel, its control method and program |
JP2023058616A (en) * | 2019-04-19 | 2023-04-25 | キヤノン株式会社 | Image processing device for character input using touch panel, control method of the same and program |
JP7358663B2 (en) | 2019-04-19 | 2023-10-10 | キヤノン株式会社 | Image processing device for character input using a touch panel, its control method, and program |
Also Published As
Publication number | Publication date |
---|---|
US20060001932A1 (en) | 2006-01-05 |
US7839541B2 (en) | 2010-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006018522A (en) | Image edition system, method, and program | |
JP3796500B2 (en) | Image processing apparatus, control method therefor, and program | |
CN100448257C (en) | Image processing apparatus and method therefor | |
US7783108B2 (en) | Document management method and apparatus | |
US20030103238A1 (en) | System for processing electronic documents using physical documents | |
CN101676868B (en) | Image processing apparatus and image processing method | |
US8145997B2 (en) | Method for simultaneously performing a plurality of handwritten searches | |
US20190205006A1 (en) | Information Processing Apparatus, Image Forming Apparatus, and Computer-Readable Recording Medium | |
US8355577B2 (en) | Image processing apparatus and method | |
JP5732861B2 (en) | Image processing apparatus and image processing program | |
JP3068131B2 (en) | Document processing device | |
CN101277358B (en) | Apparatus, method for image processing | |
JP5089524B2 (en) | Document processing apparatus, document processing system, document processing method, and document processing program | |
JP2009271779A (en) | Image processing apparatus, image processing method, program of the same, and storage medium | |
CN106210381B (en) | Display device, image processing apparatus and display methods | |
CN100588218C (en) | Image forming apparatus and electronic mail delivery server, | |
JP2008097636A (en) | Image processor | |
JP7383882B2 (en) | Information processing device and information processing program | |
JP2006072877A (en) | Document editing apparatus, document editing method, document editing program, and its recording medium | |
JP4334987B2 (en) | DTP editing apparatus having area designation function and data cutout function | |
JP5672837B2 (en) | Form server device, form information processing system, form information processing method and program | |
JP2004326490A (en) | Image processing method | |
JP5479083B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2010231657A (en) | Information verification aid system and program | |
JP2005190194A (en) | Information processor, information processing method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080929 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081107 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20081211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20081211 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090122 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20090227 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20100617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100617 |