JP2008028716A - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP2008028716A
JP2008028716A JP2006199364A JP2006199364A JP2008028716A JP 2008028716 A JP2008028716 A JP 2008028716A JP 2006199364 A JP2006199364 A JP 2006199364A JP 2006199364 A JP2006199364 A JP 2006199364A JP 2008028716 A JP2008028716 A JP 2008028716A
Authority
JP
Japan
Prior art keywords
image
information
security level
level
security
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006199364A
Other languages
Japanese (ja)
Inventor
Tadanori Nakatsuka
忠則 中塚
Tatsuhiko Hirai
達彦 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006199364A priority Critical patent/JP2008028716A/en
Publication of JP2008028716A publication Critical patent/JP2008028716A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suitably change the security levels according to the change of the security conditions, in a system which vectrizes image data for the re-edition and sets the security level. <P>SOLUTION: The apparatus comprises: a means for executing the vectorizing process of images; a means for registering images in a server with security levels added thereto; a means for deciding whether the image is re-editable or printable according to a security level obtained by an information detecting means and a user level obtained from a user level obtaining means; a means for outputting an edited image with a security level added thereto; a means for recording the history of the added security level; and a means for issuing alarm according to the security level history when using the image registered in the server. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は文書データを画像情報として処理する画像処理装置に関するものであり、より詳しくは画像情報を効果的に隠蔽し、文書データのセキュリティー性を向上させる方法および装置に関するものである。   The present invention relates to an image processing apparatus that processes document data as image information, and more particularly to a method and apparatus for effectively concealing image information and improving the security of document data.

機能が拡張された記録装置、MFP(マルチファンクション複合機)を用い、画像記憶装置に文字や画像のオリジナルデータファイルを格納しておき、オリジナルデータファイルを印刷して紙文書に記録する際に、入力された画像データをベクトルデータに変換することで編集可能な状態にし、再編集してプリントアウトすることが可能と装置がある。   When an original data file of characters and images is stored in an image storage device using an MFP (multifunction multifunction peripheral) with an extended function, the original data file is printed and recorded on a paper document. There is an apparatus in which input image data is converted into vector data so that it can be edited, re-edited, and printed out.

しかし、容易に編集可能になることでデータの改ざんが容易になるだけでなく、著作権保護の問題等もあるため、データごとにセキュリティーレベルを設定する必要がある。このセキュリティーレベルを設定する方法としては、たとえば、画像に対して人間が知覚できないように透かし等の情報を埋め込むことが考えられている。この電子透かしの技術としては、特許文献1といった画像データをウェーブレット変換し周波数空間での冗長性を利用してデータを埋め込むなどの方法が知られている。
特開2000-106624号公報
However, since editing can be easily performed, it is not only easy to falsify data, but there is also a problem of copyright protection. Therefore, it is necessary to set a security level for each data. As a method of setting this security level, for example, it is considered to embed information such as a watermark so that a human cannot perceive an image. As this digital watermarking technique, a method such as Patent Document 1 in which image data is wavelet transformed and data is embedded using redundancy in a frequency space is known.
JP 2000-106624 A

しかしながら、セキュリティー情報を埋め込み忘れたり、適切なセキュリティーレベルを判断できない、あるいは誤って低レベルのセキュリティーレベルに設定してしまうような問題がある。   However, there are problems such as forgetting to embed security information, determining an appropriate security level, or accidentally setting a low security level.

そこで本発明では、ユーザ認識手段によりユーザーレベルを取得するユーザーレベル取得手段と、画像情報を入力する画像入力手段と、前記画像入力手段により得られた画像の像域情報に応じてブロックに分割するブロックセレクション手段と、前記ブロックセレクションされた画像に埋め込まれた情報から画像のポインタ情報及びセキュリティーレベルを検出する情報検出手段と、前記ポインタ情報からサーバ内の画像を検索、取得する画像検索、取得手段と、前記画像検索、取得手段によりに画像が取得できない場合、もしくは前記ポインタ情報が得られない場合は、画像をベクトル処理化するベクトル化手段と、画像にセキュリティーレベルを付加してサーバに登録する画像登録手段と、前記情報検出手段により得られたセキュリティーレベルと前記ユーザーレベル取得手段により得られるユーザーレベルにより、画像が編集可能であるかもしくは、プリント可能であるかを判断する手段と、編集された画像にセキュリティーレベルを付加して出力する手段と、付加したセキュリティーレベルの履歴を記録する手段と、サーバに登録された画像を使用する際にセキュリティーレベル履歴に応じて警告を出すセキュリティー警告手段を有することを特徴とする画像処理装置を提供することを目的としている。   Therefore, in the present invention, the user level acquisition unit that acquires the user level by the user recognition unit, the image input unit that inputs the image information, and the image area information obtained by the image input unit are divided into blocks. Block selection means, information detection means for detecting pointer information and security level of information from information embedded in the block selected image, and image search and acquisition means for searching and acquiring an image in the server from the pointer information If the image cannot be acquired by the image search / acquisition means, or if the pointer information cannot be obtained, vectorization means for vectorizing the image, and adding a security level to the image and registering it in the server Image registration means and security obtained by the information detection means Means for determining whether the image is editable or printable according to the level and the user level obtained by the user level acquisition means; means for adding the security level to the edited image and outputting the edited image; There is provided an image processing apparatus comprising: a means for recording a history of added security level; and a security warning means for issuing a warning according to the security level history when using an image registered in a server. It is aimed.

画像データからベクトル化して再編集可能にさせるシステムかつセキュリティーレベルを設定できるシステムでセキュリティー状態の変更に応じてセキュリティーレベルを適切に変更できる。   The security level can be appropriately changed according to the change of the security state in the system that can vectorize from the image data and can set the security level and can set the security level.

[第1実施形態]
次に本発明に係る画像処理方法の第1実施形態を図面に基づいて説明する。
[First embodiment]
Next, a first embodiment of an image processing method according to the present invention will be described with reference to the drawings.

[画像処理システム]
図1において、本発明に係る画像処理方法の第1実施形態を実施する画像処理システムは、エリア1とエリア2とをインターネット104で接続した環境において使用される。
[Image processing system]
In FIG. 1, the image processing system for implementing the first embodiment of the image processing method according to the present invention is used in an environment in which area 1 and area 2 are connected by the Internet 104.

エリア1内に構築されたLAN107には、記録装置としてのMFP(マルチファンクション複合機)100、MFP100を制御するマネージメントP C101、クライアントPC(外部記憶手段)102、文書管理サーバ106、文書管理サーバ106のためのデータベース105が接続されている。   A LAN 107 constructed in the area 1 includes an MFP (multifunction multifunction peripheral) 100 as a recording device, a management PC 101 that controls the MFP 100, a client PC (external storage means) 102, a document management server 106, and a document management server 106. Is connected to the database 105.

エリア2内にはLAN108が構築され、LAN108には文書管理サーバ106、および文書管理サーバ106のためのデータベース105が接続されている。   A LAN 108 is constructed in the area 2, and a document management server 106 and a database 105 for the document management server 106 are connected to the LAN 108.

LAN107、108にはプロキシサーバ103が接続され、LAN107、108はプロキシサーバ103を介してインターネットに接続される。   A proxy server 103 is connected to the LANs 107 and 108, and the LANs 107 and 108 are connected to the Internet via the proxy server 103.

MFP100は原稿から読み取った入力画像に対する画像処理の一部を担当し、処理結果としての画像データはLAN109を通じてマネージメントPC101に入力される。マネージメントPC101は、画像記憶手段、画像処理手段、表示手段、入力手段等を含む通常のコンピュータであり、機能的にはこれら構成要素の一部がMFP100と一体化して、画像処理システムの構成要素となっている。なお、本実施形態では、マネージメントPCにおいて、下記に記載の検索処理などが実行されるものとするが、マネージメントPCで行われる処理をMFPで実行するようにしても構わない。   The MFP 100 is in charge of part of the image processing for the input image read from the document, and the image data as the processing result is input to the management PC 101 via the LAN 109. The management PC 101 is a normal computer including an image storage unit, an image processing unit, a display unit, an input unit, and the like. Functionally, some of these components are integrated with the MFP 100, and the components of the image processing system It has become. In the present embodiment, the search processing described below is executed in the management PC, but the processing performed in the management PC may be executed in the MFP.

さらにMFP100は、LAN109によってマネージメントPC101に直接接続されている。   Further, the MFP 100 is directly connected to the management PC 101 via the LAN 109.

[MFP]
図2において、MFP100は、図示しないオートドキュメントフィーダ(ADF)を有する画像読み取り部110を備え、画像読み取り部110は束状の或いは1枚の原稿の画像を光源で照射し、反射画像をレンズで固体撮像素子上に結像する。固体撮像素子は所定解像度(例えば600dpi)および所定濃度レベル(例えば8ビット)の画像読み取り信号を生成し、画像読み取り信号からラスターデータよりなる画像データが構成される。
[MFP]
In FIG. 2, an MFP 100 includes an image reading unit 110 having an unillustrated auto document feeder (ADF). The image reading unit 110 irradiates a bundle-like or one original image with a light source, and a reflected image with a lens. An image is formed on the solid-state imaging device. The solid-state imaging device generates an image reading signal having a predetermined resolution (for example, 600 dpi) and a predetermined density level (for example, 8 bits), and image data including raster data is configured from the image reading signal.

MFP100は、記憶装置111および記録装置112を有し、通常の複写機能を実行する際には、イメージデータをデータ処理装置115によって画像処理して記録信号に変換する。複数枚複写の場合には、1頁分の記録信号を一旦記憶装置111に記憶保持した後、記録装置112に順次出力して、記録紙上に記録画像を形成する。   The MFP 100 includes a storage device 111 and a recording device 112, and when executing a normal copying function, the image data is processed by the data processing device 115 and converted into a recording signal. In the case of copying a plurality of sheets, a recording signal for one page is temporarily stored in the storage device 111 and then sequentially output to the recording device 112 to form a recorded image on the recording paper.

MFP100は、LAN107との接続のためのネットワークIF114を有し、クライアントPC102が出力したイメージデータを、記録装置112によって記録し得る。クライアントPC102から出力されたイメージデータはLAN107からネットワークIF114を経てデータ処理装置115で記録可能な記録信号に変換された後、MFP100において、記録紙上に記録画像として記録される。   The MFP 100 includes a network IF 114 for connection with the LAN 107, and the image data output from the client PC 102 can be recorded by the recording device 112. The image data output from the client PC 102 is converted into a recording signal that can be recorded by the data processing device 115 from the LAN 107 via the network IF 114 and then recorded as a recorded image on the recording paper in the MFP 100.

MFP100は、MFP100に設けられたキー操作部(入力装置113)、あるいはマネージメントPC101の入力装置(キーボード、ポインティングデバイス等)を通じて操作される。これらの操作のために、データ処理装置115 は内部の制御部(図示せず。)によって所定の制御を実行する。   The MFP 100 is operated through a key operation unit (input device 113) provided in the MFP 100 or an input device (keyboard, pointing device, etc.) of the management PC 101. For these operations, the data processing apparatus 115 executes predetermined control by an internal control unit (not shown).

また、入力装置113にユーザ認識装置118が接続され、ユーザ識別を行っている。   In addition, a user recognition device 118 is connected to the input device 113 to perform user identification.

ユーザ認識装置は、ICカード、ID入力手段、指紋や虹彩識別といった生態認証手段であり使用するユーザを特定する装置である。   The user recognition device is a biometric authentication means such as an IC card, ID input means, fingerprint or iris identification, and is an apparatus that identifies a user to be used.

また、MFP側にはユーザ毎にセキュリティーレベルが設定、記憶されており、ユーザ認識装置によるユーザの特定だけでなく、ユーザごとのセキュリティーレベルを取得することができるものである。   Further, a security level is set and stored for each user on the MFP side, and not only the user can be specified by the user recognition apparatus but also the security level for each user can be acquired.

このセキュリティーレベルは、ICカード内に記憶されるものでも良い。   This security level may be stored in the IC card.

MFP100は表示装置116を有し、操作入力の状態と処理すべきイメージデータとを、表示装置116によって表示し得る。   The MFP 100 includes a display device 116, and the display device 116 can display an operation input state and image data to be processed.

記憶装置111はネットワークIF117を介して、マネージメントPC10 1から直接制御し得る。LAN109は、MFP100とマネージメントPC1 01との間のデータの授受、制御信号授受に用いられる。   The storage device 111 can be directly controlled from the management PC 101 via the network IF 117. The LAN 109 is used for data exchange and control signal exchange between the MFP 100 and the management PC 101.

[画像処理方法の全体の流れ]
本発明に係る画像処理方法の第1実施形態は図3の各ステップにより実行される。
[Overall flow of image processing method]
The first embodiment of the image processing method according to the present invention is executed by each step of FIG.

ステップS301:ユーザ認識装置118からユーザの識別を行う。識別は、IDカード、暗証番号もしくは指紋等の生態認証により個人が特定される。   Step S301: The user is identified from the user recognition device 118. For identification, an individual is identified by biometric authentication such as an ID card, PIN, or fingerprint.

登録されていないID、暗証番号、指紋等が一致しない場合は、表示装置116に個人の認証が出来ない旨が表示される。   If the unregistered ID, password, fingerprint, etc. do not match, a message indicating that personal authentication cannot be performed is displayed on the display device 116.

また、個人の認証が行われるとMFPもしくはネットワーク上のデータベースに予め登録してある、ユーザのセキュリティーレベルが取得される。   When personal authentication is performed, a user security level registered in advance in a database on the MFP or network is acquired.

例えば、このユーザのセキュリティーレベルは、以下のように画像のセキュリティーレベルと合わせて以下のように5段階に区別される。   For example, the security level of this user is classified into the following five levels together with the security level of the image as follows.

レベル5:全ての画像のプリント、編集が可能
レベル4:レベル4以下の画像のプリント、編集可能が可能
レベル3:レベル3以下の画像のプリント、編集可能が可能
レベル2:レベル2以下の画像のプリント、編集可能が可能
レベル1:セキュリティーレベルのついた全ての画像のプリント、編集が不可
ステップS302:ユーザ認証が終了すると、MFP100の画像読み取り部110を動作させて、1枚の原稿をラスター状に走査し、所定解像度および所定濃度レベルの、画像読み取り信号を取得する。画像読み取り信号はデータ処理部115によって前処理され、入力画像の1頁分のイメージデータとして、記憶装置111に保存される。次にステップS303に進む。
Level 5: All images can be printed and edited Level 4: Images below Level 4 can be printed and edited Level 3: Images below Level 3 can be printed and edited Level 2: Images below Level 2 Level 1: All images with security level cannot be printed or edited Step S302: When the user authentication is completed, the image reading unit 110 of the MFP 100 is operated to rasterize one original. The image reading signal having a predetermined resolution and a predetermined density level is acquired. The image reading signal is preprocessed by the data processing unit 115 and stored in the storage device 111 as image data for one page of the input image. Next, the process proceeds to step S303.

ステップS303(ブロックセレクション(領域分割)ステップ):マネージメントPC101によって、記憶装置111に格納されたイメージデータの領域を、文字あるいは線画を含む文字・線画領域と、ハーフトーンの写真領域、不定形の画像領域その他に分ける。さらに文字・線画領域について、主に文字を含む文字領域と、主に表、図形等を含む線画領域とを分離し、線画領域は表領域と図形領域に分離する。なお、本実施形態では連結画素を検知し、該連結画素の外接矩形領域の形状・サイズ・画素密度等を用いて、属性毎の領域に分割するものとするが、その他の領域分割手法を用いても構わない。   Step S303 (Block selection (area division) step): The image data area stored in the storage device 111 by the management PC 101 is divided into a character / line drawing area including characters or line drawings, a halftone photo area, and an irregular image. Divide into areas and others. Further, with respect to the character / line drawing area, a character area mainly including characters and a line drawing area mainly including tables and figures are separated, and the line drawing area is separated into a table area and a graphic area. In this embodiment, connected pixels are detected and divided into regions for each attribute using the shape, size, pixel density, etc. of the circumscribed rectangular region of the connected pixels, but other region dividing methods are used. It doesn't matter.

文字領域については、文字段落ごとの纏まった塊をブロックとして矩形ブロック(文字領域矩形ブロック)にセグメント化し、線画領域では、表、図形等の個々のオブジェクト(表領域矩形ブロック、線画領域矩形ブロック)ごとに矩形ブロックにセグメント化する。   For the character area, the clustered blocks of each character paragraph are segmented into rectangular blocks (character area rectangular blocks), and in the line drawing area, individual objects such as tables and figures (table area rectangular block, line drawing area rectangular block) Segment into rectangular blocks every time.

ハーフトーンで表現される写真領域は、画像領域矩形ブロック、背景領域矩形ブロック等のオブジェクトごとに、矩形ブロックにセグメント化する。   The photograph area expressed in halftone is segmented into rectangular blocks for each object such as an image area rectangular block and a background area rectangular block.

これらの矩形ブロックの情報を「領域分割情報」という。   Information on these rectangular blocks is referred to as “region division information”.

ステップS304:ブロックセレクションステップで得られた領域分割情報と入力画像とを合成して、MFP100の表示装置116における操作画面上に表示する。   Step S304: The area division information obtained in the block selection step and the input image are combined and displayed on the operation screen on the display device 116 of the MFP 100.

表示装置116に表示される操作画面の一例を図4に示す。   An example of the operation screen displayed on the display device 116 is shown in FIG.

操作画面には、左半部に入力画像そのものが画像41として表示され、右半部に矩形ブロックにより領域分割情報を示す画像42が表示される。   On the operation screen, the input image itself is displayed as an image 41 on the left half, and an image 42 indicating region division information is displayed on the right half by a rectangular block.

画像42では、入力画像を簡略表示するとともに、各矩形ブロックを矩形で示す。   In the image 42, the input image is simply displayed and each rectangular block is indicated by a rectangle.

矩形ブロックの概念の理解を容易にするため、各矩形ブロックには、その属性を示す、TEXT、PICTURE、LINE、TABLEの表示が付されているが、実際には属性情報は表示されず、分割された矩形領域が枠線として表示される。   In order to facilitate understanding of the concept of the rectangular block, each rectangular block is provided with TEXT, PICTURE, LINE, and TABLE indicating the attribute, but the attribute information is not actually displayed and divided. The rectangular area is displayed as a frame line.

TEXT、PICTURE、LINE、TABLEは文字領域矩形ブロック、図面領域矩形ブロック、線図形領域矩形ブロック、表領域矩形ブロックの属性表示であり、写真領域矩形ブロックを示すPHOTO、その他の属性表示が用いられる。   TEXT, PICTURE, LINE, and TABLE are attribute displays for a character area rectangular block, a drawing area rectangular block, a line figure area rectangular block, and a table area rectangular block. PHOTO indicating a photograph area rectangular block and other attribute displays are used.

なお、図4では入力画像と領域分割情報を左右に並べて表示しているが、これらを重ねて入力画像上に分割された矩形ブロックを表示する等、多様な表示形態が可能である。   In FIG. 4, the input image and the area division information are displayed side by side, but various display forms are possible, such as displaying a rectangular block divided on the input image by overlapping them.

ステップS305:ステップS304で指定された領域分割情報のイメージデータを切り出し、切り出されたイメージデータに対して以下の処理を行う。   Step S305: The image data of the region division information specified in step S304 is cut out, and the following processing is performed on the cut out image data.

ステップS306:領域内の画像もしくは、画像全体にオリジナルデータファイルのポインタ情報及び画像のセキュリティー情報が埋め込まれているか否かの判定を行うための情報検出処理を行う。   Step S306: An information detection process is performed to determine whether or not the pointer information of the original data file and the security information of the image are embedded in the image within the area or the entire image.

原稿画像中に記録された画像情報としては、2次元バーコード、文字列、可視できない情報として電子透かしを検出し、これらの情報を解読して入力画像のオリジナルデータファイルが格納されている記憶装置内のポインタ情報および画像のセキュリティーレベルを検出する。   As the image information recorded in the document image, a two-dimensional barcode, character string, a digital watermark as invisible information is detected, the information is decoded, and a storage device in which the original data file of the input image is stored The pointer information and the security level of the image are detected.

ステップS307(ポインタ情報抽出ステップ):ステップS306におけるポインタ情報を検出し、その情報をOCR、OMR、もしくは電子透かしの情報から、オリジナルの画像記憶されたポインタ情報を抽出する。ポインタ情報としは、画像名称、画像が保存されているサーバ、サーバのIPアドレス等である。   Step S307 (pointer information extraction step): The pointer information in step S306 is detected, and the pointer information stored in the original image is extracted from the information from the OCR, OMR, or digital watermark information. The pointer information includes an image name, a server where the image is stored, an IP address of the server, and the like.

ステップS308(セキュリティー情報抽出ステップ):ステップS306における画像情報検出処理により、画像ごとのセキュリティーレベルを抽出する。   Step S308 (security information extraction step): The security level for each image is extracted by the image information detection process in step S306.

セキュリティーレベルは、プリント時に設定されていた画像のセキュリティーレベル情報もしくは、未登録の画像についてはプリント時にユーザが設定したセキュリティーレベル情報である。   The security level is the security level information of the image set at the time of printing, or the security level information set by the user at the time of printing for an unregistered image.

ステップS309:領域分割された画像毎にポインタ情報が取得されたか否か判断する。ポインタ情報が取得された画像は、オリジナルデータファイルに直接アクセスすべくステップS314に分岐する。   Step S309: It is determined whether pointer information has been acquired for each of the divided images. The image from which the pointer information has been acquired branches to step S314 to directly access the original data file.

オリジナルデータファイルは、電子ファイルの形態で、図1のクライアントPC102のハードディスク内、文書管理サーバ106内のデータベース105内、MFP100に設けられた記憶装置111等に格納されており、ステップS308で得られたアドレス情報(ポインタ情報)に従ってこれらの記憶装置内を検索する。   The original data file is stored in the form of an electronic file in the hard disk of the client PC 102 in FIG. 1, the database 105 in the document management server 106, the storage device 111 provided in the MFP 100, and the like obtained in step S308. These storage devices are searched according to the address information (pointer information).

ステップS310(ベクトル化ステップ):ポインタ情報が抽出されなかった場合、ベクトル化処理により各領域のイメージデータをベクトルデータに変換する。   Step S310 (vectorization step): When pointer information is not extracted, the image data of each area is converted into vector data by vectorization processing.

ベクトル化の方法は、以下(a)〜(f)等が存在する。   The vectorization methods include the following (a) to (f).

(a)特定領域が文字領域のとき、さらにOCRによる文字画像のコード変換を行ったり、あるいは文字のサイズ、スタイル、字体を認識し、原稿を走査して得られた文字に可視的に忠実なフォントデータに変換する。   (A) When the specific area is a character area, the character image code conversion is further performed by OCR, or the character size, style and font are recognized, and the character obtained by scanning the document is visually faithful. Convert to font data.

(b)特定領域が文字領域であり、かつOCRによる認識が不可能であったとき、文字の輪郭を追跡し、輪郭情報(アウトライン)を線分のつながりとして表現する形式に変換する。   (B) When the specific area is a character area and cannot be recognized by OCR, the outline of the character is traced, and the outline information (outline) is converted into a format that represents the connection of line segments.

(c)特定領域が図形領域のとき、図形オブジェクトの輪郭を追跡し、輪郭情報を線分のつながりとして表現する形式に変換する。   (C) When the specific area is a graphic area, the outline of the graphic object is tracked and converted into a format in which the outline information is expressed as a connection of line segments.

(d)b、cの線分形式のアウトライン情報をベジエ関数などでフィッティングして、関数情報に変換する。   (D) Fitting the outline information in the line segment format of b and c with a Bezier function or the like to convert it into function information.

(e)cの図形オブジェクトの輪郭情報から、図形の形状を認識し、円、矩形、多角形、等の図形定義情報に変換する。   (E) The shape of the figure is recognized from the contour information of the figure object of c, and converted into figure definition information such as a circle, a rectangle, and a polygon.

(f)特定領域が図形領域であって、特定領域の表形式のオブジェクトの場合、罫線や枠線を認識し、所定のフォーマットの帳票フォーマット情報に変換する。   (F) When the specific area is a graphic area and the object is a tabular object in the specific area, a ruled line or a frame line is recognized and converted into form format information of a predetermined format.

以上の方法以外に、イメージデータをコード情報、図形情報、関数情報等のコマンド定義形の情報に置きかえる種々のベクトル化処理が考えられる。   In addition to the above methods, various vectorization processes can be considered in which image data is replaced with command definition information such as code information, graphic information, and function information.

ステップS311:ベクトル化処理されたデータは、再利用可能なデータとしてサーバに保存されるがその場合、画像の重要度に応じて5段階のセキュリティーレベルを設定することができる。特にセキュリティーレベルの設定がされない場合は、最低のセキュリティーレベル1が設定される。   Step S311: The vectorized data is stored in the server as reusable data. In that case, five levels of security levels can be set according to the importance of the image. In particular, when the security level is not set, the lowest security level 1 is set.

ステップS312:セキュリティーレベルが設定されたベクトル化データは、再利用可能なデータとしてサーバへ保存される。この保存されたサーバのポインタ及びセキュリティーレベルは、画像のプリント時に画像情報として画像に埋め込まれることとなる。   Step S312: The vectorized data for which the security level is set is stored in the server as reusable data. The stored server pointer and security level are embedded in the image as image information when the image is printed.

ステップS314:ステップS307でポインタ情報が取得されたときは、そのポインタ情報に基づいてオリジナルデータファイルを取得する。   Step S314: When pointer information is acquired in step S307, an original data file is acquired based on the pointer information.

ステップS315:オリジナルデータファイルにアクセス可能な場合は、サーバに画像とともに保存されているその画像の最新のセキュリティーレベルを取得する。セキュリティーレベルは、状況に応じ刻々と変化するものであり、以前のプリント時に用紙に埋め込まれたセキュリティーレベルとは異なる可能性があるため、常に最新のセキュリティーレベルを取得することが必要である。   Step S315: If the original data file is accessible, the latest security level of the image stored with the image on the server is acquired. The security level changes every moment depending on the situation, and may be different from the security level embedded in the paper at the time of previous printing, so it is necessary to always obtain the latest security level.

画像のセキュリティーレベルは、画像登録者であればいつでも変更することが可能である。データベース内の画像データは、画像とともに登録者のID情報が記録されており、登録者は入力装置113から自分が登録した画像の一覧を日付、ファイル名、画像容量等の情報から検索可能で、検索したファイルの中からセキュリティーレベルを変更したい画像を指定し、レベルの変更を行うことが可能である。   The image security level can be changed at any time by an image registrant. In the image data in the database, the registrant's ID information is recorded together with the image, and the registrant can search the list of images registered by the input device 113 from information such as date, file name, image capacity, It is possible to specify the image whose security level is to be changed from the searched files and change the level.

次に図3の主要なステップについて詳細に説明する。   Next, the main steps of FIG. 3 will be described in detail.

[ブロックセレクションステップ]
ステップS303(ブロックセレクションステップ)においては、図4右半部の画像42に示すように、入力画像を属性ごとに矩形ブロックに分割する。前述のように、矩形ブロックの属性としては、文字(TEXT)/図面(PICTURE )/線画(Line)/表(Table)/写真(PHOTO)等がある。
[Block selection step]
In step S303 (block selection step), as shown in the image 42 in the right half of FIG. 4, the input image is divided into rectangular blocks for each attribute. As described above, the attributes of the rectangular block include character (TEXT) / drawing (PICTURE) / line drawing (Line) / table (Table) / photograph (PHOTO).

ブロックセレクションステップにおいては、まず入力画像を白黒に2値化し、黒画素輪郭で囲まれる画素塊を抽出する。   In the block selection step, first, the input image is binarized to black and white, and a pixel block surrounded by a black pixel outline is extracted.

さらに、このように抽出された黒画素塊の大きさを評価し、大きさが所定値以上の黒画素塊の内部にある白画素塊に対する輪郭追跡を行う。白画素塊に対する大きさ評価、内部黒画素塊の追跡というように、内部の画素塊が所定値以上である限り、再帰的に内部画素塊の抽出、輪郭追跡を行う。   Further, the size of the black pixel block extracted in this way is evaluated, and the contour tracking is performed for the white pixel block inside the black pixel block whose size is a predetermined value or more. As long as the internal pixel block is equal to or greater than a predetermined value, such as size evaluation for the white pixel block and tracking of the internal black pixel block, the internal pixel block is extracted recursively and the contour is traced.

画素塊の大きさは、例えば画素塊の面積によって評価される。   The size of the pixel block is evaluated by, for example, the area of the pixel block.

このようにして得られた画素塊に外接する矩形ブロックを生成し、矩形ブロックの大きさ、形状に基づき属性を判定する。   A rectangular block circumscribing the pixel block thus obtained is generated, and attributes are determined based on the size and shape of the rectangular block.

例えば、縦横比が1に近く、大きさが一定の範囲の矩形ブロックは文字領域矩形ブロックの可能性がある文字相当ブロックとし、近接する文字相当ブロックが規則正しく整列しているときに、これら文字相当ブロックを纏めた新たな矩形ブロックを生成し、新たな矩形ブロックを文字領域矩形ブロックとする。   For example, a rectangular block with an aspect ratio close to 1 and a fixed size range is a character equivalent block that may be a character area rectangular block, and when the adjacent character equivalent blocks are regularly aligned, these characters are equivalent. A new rectangular block in which the blocks are collected is generated, and the new rectangular block is set as a character area rectangular block.

また扁平な画素塊を線画領域矩形ブロック、一定大きさ以上でかつ四角形の白画素塊を整列よく内包する黒画素塊を表領域矩形ブロック、不定形の画素塊が散在している領域を写真領域矩形ブロック、それ以外の不定形の画素塊を写真領域矩形ブロックとする。   In addition, flat pixel block is a line drawing area rectangular block, black pixel block that is larger than a certain size and contains square white pixel block in a well-aligned manner is a front region rectangular block, and an area where irregular pixel blocks are scattered is a photo area A rectangular block and other irregular pixel blocks are defined as a photographic area rectangular block.

ブロックセレクションステップでは、このようにして生成された矩形ブロックのそれぞれについて、図5に示す、属性等のブロック情報および入力ファイル情報を生成する。   In the block selection step, block information such as attributes and input file information shown in FIG. 5 are generated for each of the rectangular blocks generated in this way.

図5において、ブロック情報には各ブロックの属性、位置の座標X、座標Y、幅W、高さH、OCR情報が含まれる。属性は1〜5の数値で与えられ、1は文字領域矩形ブロック、2は図面領域矩形ブロック、3は表領域矩形ブロック、4 は線画領域矩形ブロック、5は写真領域矩形ブロックを示す。座標X、座標Yは入力画像における各矩形ブロックの始点のX、Y座標(左上角の座標)である。幅W、高さHは矩形ブロックのX座標方向の幅、Y座標方向の高さである。OCR情報は入力画像におけるポインタ情報の有無を示す。   In FIG. 5, the block information includes attributes of each block, position coordinates X, coordinates Y, width W, height H, and OCR information. The attribute is given by a numerical value of 1 to 5, where 1 is a character area rectangular block, 2 is a drawing area rectangular block, 3 is a table area rectangular block, 4 is a line drawing area rectangular block, and 5 is a photograph area rectangular block. The coordinates X and Y are the X and Y coordinates (upper left corner coordinates) of the start point of each rectangular block in the input image. The width W and the height H are the width in the X coordinate direction and the height in the Y coordinate direction of the rectangular block. The OCR information indicates the presence or absence of pointer information in the input image.

さらに入力ファイル情報として矩形ブロックの個数を示すブロック総数Nが含まれる。   Furthermore, the total number N of blocks indicating the number of rectangular blocks is included as input file information.

これらの矩形ブロックごとのブロック情報は、特定領域でのベクトル化に利用される。またブロック情報によって、特定領域とその他の領域を合成する際の相対位置関係を特定でき、入力画像のレイアウトを損なわずにベクトル化領域とラスターデータ領域を合成することが可能となる。   The block information for each rectangular block is used for vectorization in a specific area. Further, the relative positional relationship when the specific area and other areas are combined can be specified by the block information, and the vectorized area and the raster data area can be combined without impairing the layout of the input image.

[2次元バーコードを用いたポインタ情報、セキュリティー情報抽出ステップ]
ステップS307(ポインタ情報抽出ステップ)及びステップS308(セキュリティー情報抽出ステップ)は、図6の各ステップによって実行される。
[Pointer information and security information extraction step using 2D barcode]
Step S307 (pointer information extraction step) and step S308 (security information extraction step) are executed by each step of FIG.

図7は、ポインタ情報抽出ステップの処理対象となる原稿310を示し、原稿310はデータ処理装置115内のページメモリ(図示せず。)に格納される。原稿310には、文字領域矩形ブロック312、313、図面領域矩形ブロック314、2次元バーコード(QRコード)のシンボル311が記録されている。   FIG. 7 shows a document 310 to be processed in the pointer information extraction step, and the document 310 is stored in a page memory (not shown) in the data processing device 115. In the original 310, character area rectangular blocks 312 and 313, a drawing area rectangular block 314, and a two-dimensional barcode (QR code) symbol 311 are recorded.

ステップS701:まず、記憶装置111のページメモリに格納された原稿310の入力画像をCPU(図示せず。)で走査し、ブロックセレクションステップの処理結果から、2次元バーコードシンボル311の位置を検出する。   Step S701: First, an input image of the original 310 stored in the page memory of the storage device 111 is scanned by a CPU (not shown), and the position of the two-dimensional barcode symbol 311 is detected from the processing result of the block selection step. To do.

QRコードシンボルは、4隅のうちの3隅に、特定の位置検出要素パターンが設けられ、位置検出要素パターンを検出することにより、QRコードシンボルを検出し得る。   The QR code symbol is provided with specific position detection element patterns at three of the four corners, and the QR code symbol can be detected by detecting the position detection element pattern.

ステップS702:次に、位置検出パターンに隣接する形式情報を復元し、シンボルに適用されている誤り訂正レベルおよびマスクパターンを得る。   Step S702: Next, the format information adjacent to the position detection pattern is restored, and the error correction level and mask pattern applied to the symbol are obtained.

ステップS703:次にシンボルの型番(モデル)を決定する。   Step S703: Next, the model number (model) of the symbol is determined.

ステップS704:ステップS702の形式情報から得られたマスクパターンを使って、QRコードのシンボルの符号化領域ビットパターンをXOR演算し、QRコードのシンボルのマスク処理を解除する。   Step S704: Using the mask pattern obtained from the format information in step S702, the coding area bit pattern of the QR code symbol is XORed to cancel the QR code symbol mask processing.

ステップS705:ステップS703で得られたモデルに基づいて配置規則を取得し、この配置規則に基づいて、シンボルキャラクタを読取り、メッセージのデータ及び誤り訂正コード語を復元する。   Step S705: An arrangement rule is acquired based on the model obtained in step S703. Based on the arrangement rule, a symbol character is read, and message data and an error correction code word are restored.

ステップS706:復元されたメッセージについて、誤り訂正コード語に基づいて、誤りがあるかどうかの検出を行う。誤りが検出されたときは、訂正のためにステップS707に分岐する。   Step S706: The restored message is detected whether there is an error based on the error correction code word. If an error is detected, the process branches to step S707 for correction.

ステップS707:復元されたメッセージを訂正する。   Step S707: The restored message is corrected.

ステップS708:誤り訂正されたデータより、モード指示子および文字数指示子に基づいて、データコード語をセグメントに分割し、データコード語を復元する。   Step S708: Based on the mode indicator and the character number indicator, the data code word is divided into segments from the error-corrected data, and the data code word is restored.

ステップS709:検出された仕様モードに基づいてデータコード文字を復号し、結果を出力する。   Step S709: The data code character is decoded based on the detected specification mode, and the result is output.

2次元バーコードに組み込まれたデータは、図9で示すような、画像の識別名称、原稿内の画像の位置情報、セキュリティーレベル、画像のポインタとしてIPアドレス、サーバ名及びディレクトリ名、URL等で構成される。   The data embedded in the two-dimensional bar code includes an image identification name, image position information in the document, security level, IP address, server name and directory name, URL, etc. as shown in FIG. Composed.

本実施形態ではポインタ情報を2次元バーコードの形で付与した原稿310について説明したが、種々のポインタ情報の記録形態を採用し得る。   In the present embodiment, the document 310 provided with pointer information in the form of a two-dimensional barcode has been described. However, various pointer information recording forms can be employed.

例えば、所定のルールに従った文字列によってポインタ情報を直接文字列で記録し、ブロックセレクションステップによって文字列の矩形ブロックを検出してもよい。検出された文字列を認識することによりポインタ情報を取得し得る。   For example, pointer information may be directly recorded as a character string according to a character string according to a predetermined rule, and a rectangular block of the character string may be detected by a block selection step. The pointer information can be acquired by recognizing the detected character string.

あるいは文字領域矩形ブロック312や文字領域矩形ブロック313において、隣接文字列の間隔に視認し難い程度の変調を加え、該文字列間隔変調の情報によってポインタ情報を表現し得る。このような透かし情報は、後述する文字認識処理を行う際に各文字の間隔を検出することによって検出でき、ポインタ情報を取得し得る。また電子透かしとしてポインタ情報を付加する事も可能である。   Alternatively, in the character area rectangular block 312 or the character area rectangular block 313, modulation that is difficult to visually recognize is added to the interval between adjacent character strings, and the pointer information can be expressed by the information on the character string interval modulation. Such watermark information can be detected by detecting an interval between characters when performing character recognition processing described later, and pointer information can be acquired. It is also possible to add pointer information as a digital watermark.

以上のようなポインタ情報抽出に関しても、本実施形態のようにベクトル化すべき特定領域を指定することにより、迅速かつ確実にポインタ情報を取得し得る。すなわち、バーコード、電子透かし等が埋め込まれている矩形ブロックをユーザが指定することで、効率のよいポインタ情報抽出を行うことが可能である。   Regarding the pointer information extraction as described above, the pointer information can be acquired quickly and reliably by designating a specific area to be vectorized as in the present embodiment. That is, when the user designates a rectangular block in which a barcode, digital watermark or the like is embedded, efficient pointer information extraction can be performed.

[ポインタ情報による電子ファイル検索]
図3のステップS314における、ポインタ情報による電子ファイル検索は以下のように実行される。
[Search electronic files using pointer information]
The electronic file search based on the pointer information in step S314 in FIG. 3 is executed as follows.

まずポインタ情報に含まれるアドレスに基づいて、ファイルサーバを特定し、ファイルサーバに対して、アドレスを転送する。ファイルサーバには、クライアントPC102、データベース105を内蔵する文書管理サーバ106、記憶装置111を内蔵するMFP100の全てが含まれる。アドレスは、URLや、サーバ名およびファイル名よりなるパス情報である。   First, a file server is specified based on the address included in the pointer information, and the address is transferred to the file server. The file server includes all of the client PC 102, the document management server 106 including the database 105, and the MFP 100 including the storage device 111. The address is URL or path information including a server name and a file name.

アドレスを受信したファイルサーバは、このアドレスに基づいてオリジナルデータファイルを検索する。このファイル検索によってオリジナルデータファイルを抽出できたときは、ファイルのアドレスをMFP100に通知し、ユーザがオリジナルデータファイルの取得を希望するときはオリジナルデータファイルをMFP100に転送する。一方、ファイルサーバにおいてファイルを抽出できなかったときはその旨をMFP100に通知する。   The file server that receives the address searches the original data file based on this address. When the original data file can be extracted by this file search, the address of the file is notified to MFP 100, and when the user desires to acquire the original data file, the original data file is transferred to MFP 100. On the other hand, when the file cannot be extracted in the file server, MFP 100 is notified of this.

[ベクトル化ステップ]
ステップS310(ベクトル化ステップ)は図8の各ステップによって実行される。ベクトル化ステップは、ステップS309において特定領域中にポインタ情報が抽出されなかった場合に、当該特定領域内のイメージデータをベクトル化する処理である。
[Vectorization step]
Step S310 (vectorization step) is executed by each step of FIG. The vectorization step is a process of vectorizing image data in the specific area when no pointer information is extracted in the specific area in step S309.

ステップS901:特定領域が文字領域矩形ブロックであるか否か判断し、文字領域矩形ブロックであればステップS902以下のステップに進み、パターンマッチングの一手法を用いて認識を行い、対応する文字コードを得る。特定領域が文字領域矩形ブロックでないときは、ステップS912に移行する。   Step S901: It is determined whether or not the specific area is a character area rectangular block. If the specific area is a character area rectangular block, the process proceeds to step S902 and the subsequent steps, recognition is performed using one pattern matching method, and the corresponding character code is determined. obtain. If the specific area is not a character area rectangular block, the process proceeds to step S912.

ステップS902:特定領域に対し横書き、縦書きの判定(組み方向判定)をおこなうために、特定領域内で画素値に対する水平・垂直の射影を取る。   Step S902: In order to perform horizontal writing and vertical writing determination (assembling direction determination) on the specific area, a horizontal / vertical projection of the pixel value is taken within the specific area.

ステップS903:ステップS902の射影の分散を評価する。水平射影の分散が大きい場合は横書き、垂直射影の分散が大きい場合は縦書きと判断する。   Step S903: The dispersion of the projection in step S902 is evaluated. If the horizontal projection variance is large, it is determined as horizontal writing, and if the vertical projection variance is large, it is determined as vertical writing.

ステップS904:ステップS903の評価結果に基づき、組み方向を判定し、行の切り出しを行い、その後文字を切り出して文字画像を得る。   Step S904: Based on the evaluation result of step S903, the composition direction is determined, lines are cut out, and then characters are cut out to obtain character images.

文字列および文字への分解は、横書きならば水平方向の射影を利用して行を切り出し、切り出された行に対する垂直方向の射影から、文字を切り出す。縦書きの文字領域に対しては、水平と垂直について逆の処理を行う。行、文字切り出しに際して、文字のサイズも検出し得る。   In the case of horizontal writing, character strings and characters are cut out using horizontal projection, and characters are cut out from the projection in the vertical direction with respect to the cut lines. For vertically written character areas, the process is reversed for horizontal and vertical. When cutting out lines and characters, the size of characters can also be detected.

ステップS905:ステップS904で切り出された各文字について、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルを生成する。特徴ベクトルの抽出には種々の公知手法があり、例えば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴ベクトルとする方法がある。   Step S905: For each character cut out in step S904, an observation feature vector is generated by converting the feature obtained from the character image into a numerical sequence of tens of dimensions. There are various known methods for extracting feature vectors. For example, there is a method in which characters are divided into meshes, and a mesh number-dimensional vector obtained by counting character lines in each mesh as line elements according to directions is used as a feature vector.

ステップS906:ステップS905で得られた観測特徴ベクトルと、あらかじめ字種ごとに求められている辞書特徴ベクトルとを比較し、観測特徴ベクトルと辞書特徴ベクトルとの距離を算出する。   Step S906: The observation feature vector obtained in step S905 is compared with the dictionary feature vector previously obtained for each character type, and the distance between the observation feature vector and the dictionary feature vector is calculated.

ステップS907:ステップS906で算出された距離を評価し、最も距離の近い字種を認識結果とする。   Step S907: The distance calculated in step S906 is evaluated, and the character type with the closest distance is set as the recognition result.

ステップS908:ステップS907における距離評価において、最短距離が所定値よりも大きいか否か、類似度を判断する。類似度が所定値以上の場合は、辞書特徴ベクトルにおいて、形状が類似する他の文字に誤認識している可能性が高い。そこで類似度が所定値以上の場合は、ステップS907の認識結果を採用せず、ステップS911の処置に進む。類似度が所定値より低い(小さい)ときは、ステップS907の認識結果を採用し、ステップ909に進む。   Step S908: In the distance evaluation in step S907, it is determined whether or not the shortest distance is larger than a predetermined value. When the degree of similarity is equal to or greater than a predetermined value, there is a high possibility that the dictionary feature vector is erroneously recognized as another character having a similar shape. Therefore, if the similarity is greater than or equal to a predetermined value, the recognition result of step S907 is not adopted, and the process proceeds to step S911. When the similarity is lower (smaller) than the predetermined value, the recognition result in step S907 is adopted, and the process proceeds to step 909.

ステップS909(フォント認識ステップ):文字認識の際に用いる、字種数ぶんの辞書特徴ベクトルを、文字形状種すなわちフォント種に対して複数用意しておき、パターンマッチングの際に、文字コードとともにフォント種を出力することで、文字フォントを認識し得る。   Step S909 (font recognition step): A plurality of dictionary feature vectors for the number of character types used for character recognition are prepared for the character shape type, that is, the font type, and the character code and the font are used for pattern matching. The character font can be recognized by outputting the seed.

ステップS910:文字認識およびフォント認識よって得られた文字コードおよびフォント情報を用いて、各々あらかじめ用意されたアウトラインデータを用いて、各文字をベクトルデータに変換する。なお、入力画像がカラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録する。   Step S910: Using the character code and font information obtained by character recognition and font recognition, each character is converted into vector data using outline data prepared in advance. When the input image is color, the color of each character is extracted from the color image and recorded together with vector data.

ステップS911:文字を一般的な線画と同様に扱い、該文字をアウトライン化する。すなわち誤認識を起こす可能性の高い文字については、可視的にイメージデータに忠実なアウトラインのベクトルデータを生成する。   Step S911: Characters are handled in the same way as general line drawings, and the characters are outlined. In other words, outline vector data that is visually faithful to the image data is generated for characters that are likely to cause erroneous recognition.

ステップS912:特定領域が文字領域矩形ブロックでないときは、画像の輪郭に基づいてベクトル化の処理を実行する。   Step S912: When the specific area is not a character area rectangular block, vectorization processing is executed based on the contour of the image.

以上の処理により、文字領域矩形ブロックに属するイメージ情報をほぼ形状、大きさ、色が忠実なベクトルデータに変換出来る。   Through the above processing, the image information belonging to the character area rectangular block can be converted into vector data that is substantially faithful in shape, size, and color.

[文字領域以外の領域のベクトル化]
ステップS912の文字領域矩形ブロック以外の領域、すなわち図面領域矩形ブロック、線画領域矩形ブロック、表領域矩形ブロック等と判断されたときは、特定領域内で抽出された黒画素塊の輪郭をベクトルデータに変換する。
[Vectorization of non-character area]
If it is determined in step S912 that the area is not a character area rectangular block, that is, a drawing area rectangular block, a line drawing area rectangular block, a table area rectangular block, or the like, the outline of the black pixel block extracted in the specific area is used as vector data. Convert.

文字領域以外の領域のベクトル化においては、まず線画等を直線および/または曲線の組み合わせとして表現するために、曲線を複数の区間(画素列)に区切る「角」を検出する。角とは曲率が極大となる点であり、図10の曲線上の画素Piが角か否かの判断は以下のように行う。   In vectorization of areas other than character areas, first, “corners” that divide a curve into a plurality of sections (pixel columns) are detected in order to represent a line drawing or the like as a combination of straight lines and / or curves. A corner is a point at which the curvature is maximized, and whether or not the pixel Pi on the curve in FIG. 10 is a corner is determined as follows.

すなわち、Piを起点とし、曲線に沿ってPiから両方向に所定画素(k個とする。)づつ離れた画素Pi−k、Pi+kを線分Lで結ぶ。画素Pi−k、P i+k間の距離をd1、線分Lと画素Piとの距離をd2、曲線の画素Pi−k 、Pi+k間の弧の長さをAとするとき、d2が極大となるとき、あるいは比( d1/A)が閾値以下となるときに画素Piを角と判断する。   That is, a line segment L connects pixels Pi−k and Pi + k separated from each other by a predetermined number of pixels (k pixels) in both directions along the curve, starting from Pi. When the distance between the pixels Pi-k and Pi + k is d1, the distance between the line segment L and the pixel Pi is d2, and the arc length between the curved pixels Pi-k and Pi + k is A, d2 is a maximum. Or when the ratio (d1 / A) is less than or equal to the threshold, the pixel Pi is determined to be a corner.

角によって分割された画素列を、直線あるいは曲線で近似する。直線への近似は最小二乗法等により実行し、曲線への近似は3次スプライン関数などを用いる。画素列を分割する角の画素は近似直線あるいは近似直線における、始端または
終端となる。
The pixel row divided by the corner is approximated by a straight line or a curve. The approximation to a straight line is executed by the least square method or the like, and the approximation to a curve uses a cubic spline function or the like. The pixel at the corner that divides the pixel row is the approximate line or the start or end of the approximate line.

さらにベクトル化された輪郭内に白画素塊の内輪郭が存在するか否かを判断し、内輪郭が存在するときはその輪郭をベクトル化し、内輪郭の内輪郭というように、再帰的に反転画素の内輪郭をベクトル化する。   Furthermore, it is judged whether or not the inner contour of the white pixel block exists in the vectorized contour, and when there is an inner contour, the contour is vectorized and recursively inverted as the inner contour of the inner contour. The inner contour of the pixel is vectorized.

以上のように、輪郭の区分線近似を用いれば、任意形状の図形のアウトラインをベクトル化することができる。元原稿がカラーの場合は、カラー画像から図形の色を抽出してベクトルデータとともに記録する。   As described above, the outline of a figure having an arbitrary shape can be vectorized by using the contour line approximation. If the original document is in color, the figure color is extracted from the color image and recorded together with vector data.

図11に示すように、ある注目区間で外輪郭PRjと、内輪郭PRj+1あるいは別の外輪郭が近接している場合、2個あるいは複数の輪郭線をひとまとめにし、太さを持った線として表現することができる。例えば、輪郭Pj+1の各画素Piから輪郭PRj上で最短距離となる画素Qiまでの距離PiQiを算出し、PQiのばらつきがわずかである場合には、注目区間を画素Pi、Qiの中点Miの点列に沿った直線または曲線で近似し得る。近似直線、近似曲線の太さは、例えば距離PiQiの平均値とする。   As shown in FIG. 11, when the outer contour PRj and the inner contour PRj + 1 or another outer contour are close to each other in a certain section of interest, two or a plurality of contour lines are combined and expressed as a line having a thickness. can do. For example, the distance PiQi from each pixel Pi of the contour Pj + 1 to the pixel Qi that is the shortest distance on the contour PRj is calculated, and when the variation of PQi is slight, the interval of interest is set to the midpoint Mi of the pixels Pi and Qi. It can be approximated by a straight line or curve along the point sequence. The thickness of the approximate line and the approximate curve is, for example, an average value of the distance PiQi.

線や線の集合体である表罫線は、太さを持つ線の集合とすることにより、効率よくベクトル表現することができる。   A table ruled line, which is a line or a set of lines, can be efficiently expressed as a vector by using a set of lines having a thickness.

輪郭まとめの処理の後、全体の処理を終了する。   After the outline summarization process, the entire process is terminated.

なお写真領域矩形ブロックについては、ベクトル化せず、イメージデータのままとする。   Note that the photographic area rectangular block is not vectorized and remains as image data.

[図形認識]
以上の線図形等のアウトラインをベクトル化した後、ベクトル化された区分線を図形オブジェクトごとにグループ化する。
[Figure recognition]
After the outlines of the above line figures and the like are vectorized, the vectorized dividing lines are grouped for each graphic object.

図12の各ステップは、ベクトルデータを図形オブジェクトごとにグループ化する処理を示す。   Each step of FIG. 12 shows a process of grouping vector data for each graphic object.

ステップS1401:まず各ベクトルデータの始点、終点を算出する。   Step S1401: First, the start point and end point of each vector data are calculated.

ステップS1402(図形要素検出):ステップS1401で求められた始点、終点情報を用いて、図形要素を検出する。図形要素とは、区分線が構成している閉図形であり、検出に際しては、始点、終端となっている共通の角の画素においてベクトルを連結する。すなわち、閉形状を構成する各ベクトルはその両端にそれぞれ連結するベクトルを有しているという原理を応用する。   Step S1402 (graphic element detection): A graphic element is detected using the start point and end point information obtained in step S1401. A graphic element is a closed graphic formed by a dividing line, and a vector is connected at a common corner pixel serving as a start point and an end point for detection. That is, the principle that each vector constituting the closed shape has a vector connected to both ends thereof is applied.

ステップS1403:次に図形要素内に存在する他の図形要素、もしくは区分線をグループ化し、一つの図形オブジェクトとする。また、図形要素内に他の図形要素、区分線が存在しない場合は図形要素を図形オブジェクトとする。   Step S1403: Next, other graphic elements or dividing lines existing in the graphic element are grouped into one graphic object. If there is no other graphic element or dividing line in the graphic element, the graphic element is set as a graphic object.

[図形要素の検出]
ステップS1402(図形要素検出)の処理は、図13の各ステップによって実行される。
[Detection of graphic elements]
The process of step S1402 (graphic element detection) is executed by each step of FIG.

ステップS1501:まず、ベクトルデータより両端に連結していない不要なベクトルを除去し、閉図形を構成するベクトルを抽出する。   Step S1501: First, unnecessary vectors that are not connected to both ends are removed from vector data, and a vector constituting a closed figure is extracted.

ステップS1502:次に閉図形を構成するベクトルについて、いずれかのベクトルの端点(始点または終点)を開始点とし、一定方向、例えば時計回りに、順にベクトルを探索する。すなわち、他端点において他のベクトルの端点を探索し、所定距離内の最近接端点を連結ベクトルの端点とする。閉図形を構成するベクトルを1まわりして開始点に戻ったとき、通過したベクトルを全て一つの図形要素を構成する閉図形としてグループ化する。また、閉図形内部にある閉図形構成ベクトルも全てグループ化する。さらにまだグループ化されていないベクトルの始点を開始点とし、同様の処理を繰り返す。   Step S1502: Next, for the vectors constituting the closed figure, the vectors are searched in order in a certain direction, for example, clockwise, with the end point (start point or end point) of one of the vectors as the start point. That is, the end point of another vector is searched at the other end point, and the closest end point within a predetermined distance is set as the end point of the connected vector. When the vector constituting the closed figure is rotated by one and returned to the starting point, all the passed vectors are grouped as a closed figure constituting one graphic element. In addition, all closed graphic constituent vectors inside the closed graphic are also grouped. Further, the same processing is repeated with the starting point of a vector not yet grouped as a starting point.

ステップS1503:最後に、ステップS1501で除去された不要ベクトルのうち、ステップS1502で閉図形としてグループ化されたベクトルに端点が近接しているベクトルを検出し、一つの図形要素としてグループ化する。   Step S1503: Finally, from the unnecessary vectors removed in Step S1501, a vector whose end point is close to the vector grouped as a closed graphic in Step S1502 is detected and grouped as one graphic element.

以上の処理によって図形ブロックを、再利用可能な個別の図形オブジェクトとして扱う事が可能になる。   With the above processing, a graphic block can be handled as a reusable individual graphic object.

[画像の編集、出力処理の流れ]
画像を編集、出力処理の流れについて図14を使って説明する。
原稿画像内のそれぞれの画像について図形オブジェクトとして扱うことが可能になり、さらに画像ごとのセキュリティーレベルが確定された画像は、表示装置116に再表示される。
[Flow of image editing and output processing]
The flow of image editing and output processing will be described with reference to FIG.
Each image in the document image can be handled as a graphic object, and an image whose security level is determined for each image is redisplayed on the display device 116.

図15(a)は、再表示されたときの画像を示す。
ステップS1401(画像再表示):画像310は、セキュリティーレベル1の文字オブジェクト312、セキュリティーレベル2の文字オブジェクト313、セキュリティーレベル5の画像オブジェクト314からなる。
FIG. 15A shows an image when it is displayed again.
Step S1401 (Image Redisplay): The image 310 includes a security level 1 character object 312, a security level 2 character object 313, and a security level 5 image object 314.

ユーザ識別手段によるユーザのセキュリティーレベルが4の場合、このユーザは、オブジェクト312及び313は、ユーザーレベルより低いセキュリティーレベルのオブジェクトであるため、拡大、縮小、移動、変更等の編集処理が可能であるが、オブジェクト314は、ユーザのセキュリティーレベルより高いセキュリティーレベルのオブジェクトであるため、網掛け表示になり編集不可能であることを示す。   When the user security level by the user identification means is 4, since the objects 312 and 313 are objects having a security level lower than the user level, this user can perform editing processing such as enlargement, reduction, movement, and change. However, since the object 314 is an object having a security level higher than the security level of the user, the object 314 is shaded to indicate that it cannot be edited.

ステップS1402(画像編集設定):画像を編集する場合は、オブジェクトを表示装置上で画像を指定し、入力装置113より編集設定を行う。   Step S1402 (image editing setting): When editing an image, an object is designated on the display device, and editing setting is performed from the input device 113.

画像を指定する方法としては、画面上のタッチパネルを使用する方法や、ポインティングデバイス等を使用する方法がある。   As a method for designating an image, there are a method using a touch panel on a screen, a method using a pointing device, and the like.

ステップS1403(編集処理判断):編集オブジェクトが指定されると、指定されたオブジェクトのセキュリティーレベルとユーザのセキュリティーレベルから編集が可能であるかどうかの判断が行われる。   Step S1403 (editing process determination): When an editing object is specified, it is determined whether editing is possible from the security level of the specified object and the security level of the user.

例えば、オブジェクト312が編集対象として選択された場合は、オブジェクトのセキュリティーレベルよりユーザのセキュリティーレベルが高いため、編集可能と判断される。   For example, when the object 312 is selected as an editing target, it is determined that editing is possible because the security level of the user is higher than the security level of the object.

ステップS1404(画像編集処理):編集可能と判断されると入力装置113より編集処理が行われる。   Step S1404 (image editing processing): When it is determined that editing is possible, the input device 113 performs editing processing.

図16の処理フローはステップS1404の処理を詳細に説明したものである。   The process flow of FIG. 16 describes the process of step S1404 in detail.

ステップS1601では、編集可能なオブジェクトの編集を行う。オブジェクト312の編集を例にすると、図15(b)のように、文字列を変倍指定により大きくし、アンダーラインを付加し、日付を追加するといったことが可能である。オブジェクト312のオブジェクト名をword040211とする。   In step S1601, an editable object is edited. Taking the editing of the object 312 as an example, as shown in FIG. 15B, it is possible to enlarge the character string by specifying scaling, add an underline, and add a date. The object name of the object 312 is word040211.

次にステップS1602では、オブジェクトのセキュリティーレベル履歴を取得する。   In step S1602, the security level history of the object is acquired.

図17はセキュリティーレベル履歴の例である。オブジェクトword040211に関して登録時にレベル1が付加され、その後ユーザによってレベル1や2や3が出力時に付加されたことがわかる。   FIG. 17 shows an example of the security level history. It can be seen that level 1 was added at the time of registration for the object word040211, and then levels 1, 2 and 3 were added by the user at the time of output.

次にステップS1603で出力用のセキュリティーレベルを設定する。出力用のセキュリティーレベルは登録時のセキュリティーレベル以上にあげて設定することは可能であるが、下げることはできない。   In step S1603, an output security level is set. The security level for output can be set higher than the security level at the time of registration, but it cannot be lowered.

たとえば、登録時のセキュリティーレベルが3であれば、出力時にユーザは、レベル3以上にしか設定できない。   For example, if the security level at the time of registration is 3, the user can only set the level 3 or higher at the time of output.

次にステップS1604で、過去の出力時のセキュリティーレベルの中で、登録時のセキュリティーレベルよりもあげている回数が閾値(たとえば3回)よりも多く、かつS1603で出力用に設定したレベルが過去の出力時のレベルの最も高いレベルよりも低い場合に、「このオブジェクトのセキュリティーレベルは**(S1603で設定のセキュリティーレベル:たとえば2)ですが、よろしいですか?」
という警告をユーザに出す
たとえば図17の履歴によると12/9の時点でそれ以前に設定した出力用のレベルが登録時のレベル1より高いレベルを付加した回数が3回より多く(12/6で4回)、以前設定されたレベルで最も高いレベルが3であるので、ユーザがレベル2を設定しようとすると
「このオブジェクトのセキュリティーレベルは2ですが、よろしいですか?」という警告をユーザに出す。
Next, in step S1604, among the security levels at the time of past output, the number of times higher than the security level at the time of registration is greater than a threshold (for example, three times), and the level set for output in S1603 is the past. When the output level of the object is lower than the highest level, "The security level of this object is ** (the security level set in S1603: 2 for example). Are you sure?"
For example, according to the history of FIG. 17, the output level set before 12/9 is higher than the level 1 at the time of registration more than 3 times (12/6 4), the highest level of the previously set level is 3, so if the user tries to set level 2, the user will be warned that the security level of this object is 2, but are you sure? put out.

ユーザはそれによってこのオブジェクトのセキュリティーレベルに関して注意してレベル設定を行えるようになる。図17の例では12/9に設定したレベルは最終的にレベル3になっている。   The user can then set the level carefully with respect to the security level of this object. In the example of FIG. 17, the level set to 12/9 is finally level 3.

次にステップS1605で、決定したセキュリティーレベルをオブジェクトのセキュリティーレベル履歴に記録する。   In step S1605, the determined security level is recorded in the security level history of the object.

これらの処理によってステップS1404の処理を終了し、ステップS1405に進む。   With these processes, the process of step S1404 is terminated, and the process proceeds to step S1405.

ステップS1405(プリント指示):編集処理により出力レイアウトが決定後、入力装置113よりプリント指示を行う。   Step S1405 (print instruction): After the output layout is determined by the editing process, a print instruction is issued from the input device 113.

ステップS1406(プリント処理判断):プリント処理が指示されると、オブジェクトのセキュリティーレベルとユーザのセキュリティーレベルによりプリント可/不可の判断処理が行われる。   Step S1406 (print process determination): When the print process is instructed, a determination process of whether printing is possible or not is performed according to the security level of the object and the security level of the user.

ステップS1407(プリント処理):プリントするオブジェクトが決定すると、プリントのため各オブジェクトのベクトルデータは、プリントのためのデータ変換処理がされ記録装置112に送られ、紙などの記録媒体に印字され出力される。   Step S1407 (print processing): When an object to be printed is determined, the vector data of each object for printing is subjected to data conversion processing for printing, sent to the recording device 112, printed on a recording medium such as paper, and output. The

[第2実施形態]
第1実施形態では、原稿の画像情報として2次元バーコード、電子すかしにより、それぞれ画像のポインタ情報及び画像のセキュリティーレベルが設定されている構成となっているが、
たとえば、図18のような、各画像の位置情報、登録時のセキュリティーレベル情報、出力時のセキュリティーレベルの履歴情報、画像のポインタ情報といったデータをフォームデータという形でサーバ内に登録しておき、画像情報としてフォームが登録されているサーバのポインタ、フォームの名称等を画像に記録しておき、スキャン時に画像情報を読み取り、サーバからその画像のフォームデータを取得することで、それぞれの画像の座標情報、ポインタ情報、セキュリティーレベルを取得する方法がある。
[Second Embodiment]
In the first embodiment, the image pointer information and the image security level are set by the two-dimensional barcode and the electronic watermark as the image information of the document.
For example, data such as position information of each image, security level information at the time of registration, security level history information at the time of output, and pointer information of the image as shown in FIG. 18 is registered in the server in the form of form data. By recording the server pointer, form name, etc. as image information in the image, reading the image information at the time of scanning, and obtaining the form data of the image from the server, the coordinates of each image There are methods for acquiring information, pointer information, and security level.

[第3実施形態]
第3の実施形態のステップS1404(画像編集処理)に関して説明する。
[Third embodiment]
The step S1404 (image editing process) of the third embodiment will be described.

図19の処理フローはステップS1404の処理を詳細に説明したものである。
ステップS1901では、編集可能なオブジェクトの編集を行う。オブジェクト312の編集を例にすると、図15(b)のように、文字列を変倍指定により大きくし、アンダーラインを付加し、日付を追加するといったことが可能である。オブジェクト312のオブジェクト名をword040211とする。
The process flow of FIG. 19 describes the process of step S1404 in detail.
In step S1901, an editable object is edited. Taking the editing of the object 312 as an example, as shown in FIG. 15B, it is possible to enlarge the character string by specifying scaling, add an underline, and add a date. The object name of the object 312 is word040211.

次にステップS1902では、オブジェクトのセキュリティーレベル履歴を取得する。   In step S1902, an object security level history is acquired.

図20はセキュリティーレベル履歴の例である。オブジェクトword040211に関して登録時にレベル1が付加され、その後ユーザによってレベル1や2や3が出力時に付加されたことがわかる。   FIG. 20 shows an example of the security level history. It can be seen that level 1 was added at the time of registration for the object word040211, and then levels 1, 2 and 3 were added by the user at the time of output.

次にステップS1903で、出力用のセキュリティーレベルを設定する。出力用のセキュリティーレベルは登録時のセキュリティーレベル以上にあげて設定することは可能であるが、下げることはできない。   In step S1903, a security level for output is set. The security level for output can be set higher than the security level at the time of registration, but it cannot be lowered.

たとえば、登録時のセキュリティーレベルが3であれば、出力時にユーザは、レベル3以上にしか設定できない。   For example, if the security level at the time of registration is 3, the user can only set the level 3 or higher at the time of output.

次にステップS1904で、決定したセキュリティーレベルをオブジェクトのセキュリティーレベル履歴に記録する。   In step S1904, the determined security level is recorded in the security level history of the object.

次にステップS1905で、出力時に登録時のセキュリティーレベルよりも高いレベルを付加された回数が閾値(たとえば3回)を超えた場合は、オブジェクト登録者に「セキュリティーレベルの見直し」を(たとえばメールで)促す。   In step S1905, if the number of times that a level higher than the security level at the time of registration exceeds the threshold value (for example, 3 times) at the time of output, the object registrant is asked to “review security level” (for example, by e-mail) ) Encourage.

たとえば図20の履歴によると2004/12/7の時点で登録時のレベル1より高いレベルを付加した回数が4回になって閾値の3回を越えている。   For example, according to the history of FIG. 20, the number of times higher than level 1 at the time of registration is 4 times as of 7/12/2004, exceeding the threshold value of 3 times.

「word040211オブジェクトの登録時のセキュリティーレベルは1ですが、ユーザによってより高いレベルが4回設定されました。登録されたオブジェクトのセキュリティーレベルを上げなくてよいか検討をしてください」という警告をオブジェクト登録者にメールで出す。登録者はそれによってこのオブジェクトのセキュリティーレベルに関して再度検討が行えるようになる。   The security level when registering the word040211 object is 1, but a higher level was set by the user four times. Please consider whether it is necessary to increase the security level of the registered object. Email to registrants. The registrant can then revisit the security level of this object.

図20の例では、その後12/14に登録者によってレベルが3に変更されている。   In the example of FIG. 20, the level is changed to 3 by the registrant on 12/14 thereafter.

これらの処理によってステップS1404の処理を終了し、ステップS1405に進む。   With these processes, the process of step S1404 is terminated, and the process proceeds to step S1405.

これらの処理によって第1の実施例と同様の効果を得ることができる。   By these processes, the same effect as in the first embodiment can be obtained.

[第4実施形態]
第4の実施形態のステップS1404(画像編集処理)に関して説明する。
[Fourth embodiment]
The step S1404 (image editing process) of the fourth embodiment will be described.

図21の処理フローはステップS1404の処理を詳細に説明したものである。   The processing flow in FIG. 21 describes the processing in step S1404 in detail.

ステップS2101では、編集可能なオブジェクトの編集を行う。オブジェクト312の編集を例にすると、図15(b)のように、文字列を変倍指定により大きくし、アンダーラインを付加し、日付を追加するといったことが可能である。オブジェクト312のオブジェクト名をword040211とする。   In step S2101, the editable object is edited. Taking the editing of the object 312 as an example, as shown in FIG. 15B, it is possible to enlarge the character string by specifying scaling, add an underline, and add a date. The object name of the object 312 is word040211.

次にステップS2102では、オブジェクトのセキュリティーレベル履歴を取得する。   In step S2102, an object security level history is acquired.

図22はセキュリティーレベル履歴の例である。オブジェクトword040211に関して登録時にレベル1が付加され、その後ユーザによってレベル1や2や3が出力時に付加されたことがわかる。   FIG. 22 shows an example of the security level history. It can be seen that level 1 was added at the time of registration for the object word040211, and then levels 1, 2 and 3 were added by the user at the time of output.

次にステップS2103で、登録時のセキュリティーレベルよりも高いセキュリティーレベルが閾値(たとえば3回)回数より多く出力時に設定されている場合は、強制的に登録時に設定されているセキュリティーレベルを高いセキュリティーレベルに変更する
たとえば図22の例では、2004/12/7に4回目になり、強制的にセキュリティーレベルがレベル3(高いレベルは2と3の両方あるので高い方のレベル3となる)になる。
Next, in step S2103, if a security level higher than the security level at the time of registration is set at the time of output more than a threshold (for example, 3 times), the security level that is forcibly set at the time of registration is set to a higher security level. For example, in the example of FIG. 22, it will be the 4th time on 12/7/2004, and the security level will be forcibly set to level 3 (the higher level is both 2 and 3, so it will be the higher level 3) .

次にステップS2104で、変更したセキュリティーレベルをオブジェクトのセキュリティーレベル履歴に記録する。   In step S2104, the changed security level is recorded in the security level history of the object.

これらの処理によってステップS1404の処理を終了し、ステップS1405に進む。   With these processes, the process of step S1404 is terminated, and the process proceeds to step S1405.

これらの処理によって第1の実施例と同様の効果を得ることができる。   By these processes, the same effect as in the first embodiment can be obtained.

[第5実施形態]
第5の実施形態のステップS1404(画像編集処理)に関して説明する。
[Fifth Embodiment]
The step S1404 (image editing process) of the fifth embodiment will be described.

図21の処理フローはステップS1404の処理を詳細に説明したものである。その中で図23は図21の処理フローの中のステップS2103に代わる第5の実施例のステップS2103である。   The processing flow in FIG. 21 describes the processing in step S1404 in detail. FIG. 23 shows step S2103 of the fifth embodiment that replaces step S2103 in the processing flow of FIG.

以下図21、図23に従って説明する。   This will be described with reference to FIGS.

ステップS2101では、編集可能なオブジェクトの編集を行う。オブジェクト312の編集を例にすると、図15(b)のように、文字列を変倍指定により大きくし、アンダーラインを付加し、日付を追加するといったことが可能である。オブジェクト312のオブジェクト名をword040211とする。   In step S2101, the editable object is edited. Taking the editing of the object 312 as an example, as shown in FIG. 15B, it is possible to enlarge the character string by specifying scaling, add an underline, and add a date. The object name of the object 312 is word040211.

次にステップS2102では、オブジェクトのセキュリティーレベル履歴を取得する。   In step S2102, an object security level history is acquired.

図22はセキュリティーレベル履歴の例である。オブジェクトword040211に関して登録時にレベル1が付加され、その後ユーザによってレベル1や2や3が出力時に付加されたことがわかる。   FIG. 22 shows an example of the security level history. It can be seen that level 1 was added at the time of registration for the object word040211, and then levels 1, 2 and 3 were added by the user at the time of output.

次に図23のステップS2103で、登録時のセキュリティーレベルよりも高いセキュリティーレベルが閾値(たとえば3回)回数より多く出力時に設定されている場合、かつ登録者がその場合に登録したオブジェクトのレベルを自動的に変更してかまわない設定にした場合に、強制的に登録時に設定されているセキュリティーレベルを高いセキュリティーレベルに変更する
たとえば図22の例では、2004/12/7に4回目になっている。従って登録者が「登録したオブジェクトのレベルを自動的に変更してかまわない」という設定にしている場合は、強制的に登録時に設定したセキュリティーレベルがレベル3(高いレベルは2と3の両方あるので高い方のレベル3となる)になる。「登録したオブジェクトのレベルを自動的に変更してかまわない」という設定にしていない場合は、変更されず、たとえば登録者に「word040211オブジェクトの登録時のセキュリティーレベルは1ですが、ユーザによってより高いレベルが4回設定されました。登録されたオブジェクトのセキュリティーレベルを上げなくてよいか検討をしてください」という警告をオブジェクト登録者にメールで出す。
Next, in step S2103 of FIG. 23, if a security level higher than the security level at the time of registration is set at the time of output more than a threshold (for example, 3 times), and the level of the object registered by the registrant in that case is set. When the setting that can be changed automatically is made, the security level set at the time of registration is forcibly changed to a higher security level. For example, in the example of FIG. Yes. Therefore, if the registrant has set to "can automatically change the level of the registered object", the security level set at the time of registration is forcibly set to level 3 (higher levels are both 2 and 3) Therefore, the higher level becomes 3). If it is not set to "Automatically change the level of the registered object", it is not changed. For example, the registrant says "The security level at the time of registering the word040211 object is 1, but it is higher by the user. The level has been set four times. Please consider whether it is necessary to increase the security level of the registered object. "

図22の例では、「登録したオブジェクトのレベルを自動的に変更してかまわない」という設定にしており、強制的に登録時に設定したセキュリティーレベルがレベル3に変更される。   In the example of FIG. 22, “the level of the registered object may be automatically changed” is set, and the security level set at the time of registration is forcibly changed to level 3.

次にステップS2104で、変更したセキュリティーレベルをオブジェクトのセキュリティーレベル履歴に記録する。   In step S2104, the changed security level is recorded in the security level history of the object.

これらの処理によってステップS1404の処理を終了し、ステップS1405に進む。   With these processes, the process of step S1404 is terminated, and the process proceeds to step S1405.

これらの処理によって第1の実施例と同様の効果を得ることができる。   By these processes, the same effect as in the first embodiment can be obtained.

[第6実施形態]
第6の実施形態のステップS1404(画像編集処理)に関して説明する。
[Sixth Embodiment]
The step S1404 (image editing process) of the sixth embodiment will be described.

図21の処理フローはステップS1404の処理を詳細に説明したものである。その中で図24は図21の処理フローの中のステップS2103に代わる第6の実施例のステップS2103である。   The processing flow in FIG. 21 describes the processing in step S1404 in detail. FIG. 24 shows step S2103 of the sixth embodiment that replaces step S2103 in the processing flow of FIG.

以下図21、図24に従って説明する。   Hereinafter, a description will be given with reference to FIGS.

第6の実施形態のステップS1404(画像編集処理)に関して説明する。   The step S1404 (image editing process) of the sixth embodiment will be described.

図21の処理フローはステップS1404の処理を詳細に説明したものである。
ステップS2101では、編集可能なオブジェクトの編集を行う。オブジェクト312の編集を例にすると、図15(b)のように、文字列を変倍指定により大きくし、アンダーラインを付加し、日付を追加するといったことが可能である。オブジェクト312のオブジェクト名をword040211とする。
The processing flow in FIG. 21 describes the processing in step S1404 in detail.
In step S2101, the editable object is edited. Taking the editing of the object 312 as an example, as shown in FIG. 15B, it is possible to enlarge the character string by specifying scaling, add an underline, and add a date. The object name of the object 312 is word040211.

次にステップS2102では、オブジェクトのセキュリティーレベル履歴を取得する。   In step S2102, an object security level history is acquired.

図25はセキュリティーレベル履歴の例である。オブジェクトword040211に関して登録時にレベル1が付加され、その後ユーザによってレベル1や2や3が出力時に付加されたことがわかる。   FIG. 25 shows an example of the security level history. It can be seen that level 1 was added at the time of registration for the object word040211, and then levels 1, 2 and 3 were added by the user at the time of output.

次に図24のステップS2103で、出力時に登録時のセキュリティーレベルよりも高いセキュリティーレベルが第一の閾値(たとえば2回)回数より多く設定されている場合は、登録者に「ユーザにより高いレベルが**回(たとえば3回)設定されましたのでご確認ください」という警告を出し、第二の閾値(たとえば5回)を超えた場合には強制的に登録時に設定されているセキュリティーレベルを高いセキュリティーレベルに変更する。   Next, in step S2103 in FIG. 24, when a security level higher than the security level at the time of registration is set more than the first threshold value (for example, twice) at the time of output, If you exceed the second threshold (for example, 5 times), the security level set at the time of registration is forcibly increased. Change to security level.

たとえば図25の例では、2004/12/5に3回目になっているので第一の閾値(2回)を超え、登録者に「オブジェクトword040211に関してユーザにより高いレベルが3回設定されましたのでご確認ください」という警告を出す。しかしながら登録者はレベルの変更をしていない。その後12/11に6回目になっているので第二の閾値(5回)を超え、強制的に登録時のセキュリティーレベルをレベル3(高いレベルは2と3の両方あるので高い方のレベル3となる)に変更する。   For example, in the example of FIG. 25, since it was the third time on 12/5/2004, the first threshold (twice) was exceeded, and the registrant was told that “the user has set a higher level three times for object word040211. Please check "warning. However, the registrant has not changed the level. Since the 6th time on 12/11, the second threshold (5 times) has been exceeded, and the security level at the time of registration is forcibly set to level 3 (the higher level has both 2 and 3, so the higher level 3 Change to

次にステップS2104で、変更したセキュリティーレベルをオブジェクトのセキュリティーレベル履歴に記録する。   In step S2104, the changed security level is recorded in the security level history of the object.

これらの処理によってステップS1404の処理を終了し、ステップS1405に進む。   With these processes, the process of step S1404 is terminated, and the process proceeds to step S1405.

これらの処理によって第1の実施例と同様の効果を得ることができる。   By these processes, the same effect as in the first embodiment can be obtained.

本発明に係る画像処理方法の第1実施形態を実施する画像処理システムを示すブロック図である。1 is a block diagram showing an image processing system for implementing a first embodiment of an image processing method according to the present invention. 図1におけるMFPを示すブロック図である。FIG. 2 is a block diagram showing the MFP in FIG. 1. 本発明に係る画像処理方法の第1実施形態を示すフローチャ−トである。1 is a flowchart showing a first embodiment of an image processing method according to the present invention. 図3の画像処理方法により処理される原稿と処理結果の画像を示す図である。FIG. 4 is a diagram illustrating a document processed by the image processing method of FIG. 3 and an image of a processing result. ブロックセレクション処理で得られるブロック情報および入力ファイル情報を示す表である。It is a table | surface which shows the block information and input file information which are obtained by a block selection process. 画像からポインタ情報およびセキュリティー情報を抽出する処理を示すフローチャートである。It is a flowchart which shows the process which extracts pointer information and security information from an image. ポインタ情報を含む原稿の画像を示す図である。It is a figure which shows the image of the original document containing pointer information. 図3の文字領域のベクトル化の処理を示すフローチャートである。It is a flowchart which shows the process of vectorization of the character area of FIG. 画像情報により解析された画像情報の例を示す図である。It is a figure which shows the example of the image information analyzed by the image information. ベクトル化の処理における角抽出の処理を示す図である。It is a figure which shows the process of the corner extraction in the process of vectorization. ベクトル化の処理における輪郭線まとめの処理を示す図である。It is a figure which shows the process of the outline grouping in the process of vectorization. 図3のベクトル化で生成されたベクトルデータのグループ化の処理を示すフローチャートである。It is a flowchart which shows the process of grouping the vector data produced | generated by vectorization of FIG. 図12の処理でグループ化されたベクトルデータに対する図形要素検出の処理を示すフローチャートである。It is a flowchart which shows the process of a graphic element detection with respect to the vector data grouped by the process of FIG. 本発明に係る画像の編集、出力処理方法を示すフローチャ−トである。5 is a flowchart showing an image editing and output processing method according to the present invention. オブジェクト処理及びオブジェクトのセキュリティーレベル確定後の原稿画像の表示を示す図である。FIG. 6 is a diagram illustrating display of a document image after object processing and object security level determination. 第1の実施例の図14のステップS1404の編集処理を示すフローチャートである。It is a flowchart which shows the edit process of step S1404 of FIG. 14 of 1st Example. 第1の実施例のセキュリティーレベルの履歴を示す図である。It is a figure which shows the log | history of the security level of a 1st Example. 第2の実施例のセキュリティーレベルの履歴を示す図である。It is a figure which shows the log | history of the security level of a 2nd Example. 第3の実施例の図14のステップS1404の編集処理を示すフローチャートである。It is a flowchart which shows the edit process of step S1404 of FIG. 14 of 3rd Example. 第3の実施例のセキュリティーレベルの履歴を示す図である。It is a figure which shows the log | history of the security level of a 3rd Example. 第4の実施例の図14のステップS1404の編集処理を示すフローチャートである。It is a flowchart which shows the edit process of step S1404 of FIG. 14 of 4th Example. 第4、第5の実施例のセキュリティーレベルの履歴を示す図である。It is a figure which shows the log | history of the security level of the 4th, 5th Example. 第5の実施例の図21のステップS2103の処理部分を示すフローチャートである。It is a flowchart which shows the process part of FIG.21 S2103 of 5th Example. 第6の実施例の図21のステップS2103の処理部分を示すフローチャートである。It is a flowchart which shows the process part of FIG.21 S2103 of 6th Example. 第6の実施例のセキュリティーレベルの履歴を示す図である。It is a figure which shows the log | history of the security level of a 6th Example.

Claims (13)

ユーザ認識手段によりユーザーレベルを取得するユーザーレベル取得手段と、画像情報を入力する画像入力手段と、前記画像入力手段により得られた画像の像域情報に応じてブロックに分割するブロックセレクション手段と、前記ブロックセレクションされた画像に埋め込まれた情報から画像のポインタ情報及びセキュリティーレベルを検出する情報検出手段と、前記ポインタ情報からサーバ内の画像を検索、取得する画像検索、取得手段と、前記画像検索、取得手段によりに画像が取得できない場合、もしくは前記ポインタ情報が得られない場合は、画像をベクトル処理化するベクトル化手段と、画像にセキュリティーレベルを付加してサーバに登録する画像登録手段と、前記情報検出手段により得られたセキュリティーレベルと前記ユーザーレベル取得手段により得られるユーザーレベルにより、画像が編集可能であるかもしくは、プリント可能であるかを判断する手段と、編集された画像にセキュリティーレベルを付加して出力する手段と、付加したセキュリティーレベルの履歴を記録する手段と、サーバに登録された画像を使用する際にセキュリティーレベル履歴に応じて警告を出すセキュリティー警告手段を有することを特徴とする画像処理装置。   User level acquisition means for acquiring a user level by means of user recognition means, image input means for inputting image information, block selection means for dividing the block according to image area information of the image obtained by the image input means, Information detecting means for detecting pointer information and security level of the image from information embedded in the block selected image, image searching and acquiring means for searching and acquiring an image in the server from the pointer information, and the image searching When the image cannot be obtained by the obtaining unit, or when the pointer information cannot be obtained, a vectorizing unit that vectorizes the image, an image registration unit that adds a security level to the image and registers it in the server, The security level obtained by the information detection means and the user -A means for judging whether an image can be edited or printed according to a user level obtained by the level acquisition means, a means for adding a security level to the edited image and outputting, and an added security level An image processing apparatus comprising: means for recording the history of the information; and security warning means for issuing a warning according to the security level history when the image registered in the server is used. ユーザ認識手段によりユーザーレベルを取得するユーザーレベル取得手段と、画像情報を入力する画像入力手段と、前記画像入力手段により得られた画像の像域情報に応じてブロックに分割するブロックセレクション手段と、前記画像内に埋め込まれた情報から画像のフォーマット情報格納先を示す情報を取得し、サーバ内からフォーマット情報を取得する手段と、前記フォーマット情報内に記載された画像のポインタ情報及びセキュリティー情報を取得し、サーバ内の画像を検索、取得する画像取得手段と、前記画像取得手段によりに画像が取得できない場合は、画像をベクトル処理化するベクトル化手段と、画像にセキュリティーレベルを付加してサーバに登録する画像登録手段と、前記情報検出手段により得られたセキュリティーレベルと前記ユーザーレベル取得手段により得られるユーザーレベルにより、画像が編集可能であるかもしくは、プリント可能であるかを判断する手段と、編集された画像データの画像フォーマットをサーバに保存し、その保存先を示す情報を画像に付加して出力する手段と、付加した画像フォーマットの履歴を記録する手段と、サーバに登録された画像を使用する際に画像フォーマットのセキュリティーレベル履歴に応じて警告を出すセキュリティー警告手段を有することを特徴とする画像処理装置。   User level acquisition means for acquiring a user level by means of user recognition means, image input means for inputting image information, block selection means for dividing the block according to image area information of the image obtained by the image input means, The information indicating the format information storage destination of the image is acquired from the information embedded in the image, the means for acquiring the format information from the server, and the pointer information and the security information of the image described in the format information are acquired. The image acquisition means for searching and acquiring the image in the server, the vectorization means for vectorizing the image when the image acquisition means cannot acquire the image, and the server with a security level added to the image The image registration means to be registered and the security level obtained by the information detection means. And means for determining whether the image can be edited or printed according to the user level obtained by the user level acquisition means, and storing the image format of the edited image data in the server, Means for adding information indicating the image to the image and outputting it, means for recording the history of the added image format, and security for issuing a warning according to the security level history of the image format when using the image registered in the server An image processing apparatus having warning means. 画像に埋めこまれた情報は、文字列、バーコード情報、電子すかし情報、地紋情報であることを特徴とする請求項1もしくは請求項2の画像処理装置。   The image processing apparatus according to claim 1 or 2, wherein the information embedded in the image is a character string, barcode information, electronic watermark information, or tint block information. 画像ポインタ情報は、画像識別情報、サーバ名、IPアドレス、URLであることを特徴とする請求項1もしくは請求項2の画像形成装置。   3. The image forming apparatus according to claim 1, wherein the image pointer information is image identification information, a server name, an IP address, and a URL. フォーマット情報は、画像のポインタ情報、画像のセキュリティーレベルであることを特徴とする請求項2の画像形成装置。   3. The image forming apparatus according to claim 2, wherein the format information is image pointer information and an image security level. フォーマット情報に記載された画像ポインタ情報は、画像識別情報、サーバ名、IPアドレス、URL であることを特徴とする請求項5の画像形成装置。   6. The image forming apparatus according to claim 5, wherein the image pointer information described in the format information is image identification information, a server name, an IP address, and a URL. ユーザ認識手段は、IDカード、生態認証手段、ID番号であることを特徴とする請求項1もしくは請求項2の画像形成装置。   3. The image forming apparatus according to claim 1, wherein the user recognition unit is an ID card, a biometric authentication unit, or an ID number. ユーザーレベルは、ユーザに応じて複数のレベルが予め設定されており、画像のセキュリティーレベルに応じて、プリント可能/不可、編集可能/不可、ベクトル化可能/不可が設定されていることを特徴とする請求項1もしくは請求項2の画像形成装置。   The user level is set in advance according to the user, and printable / impossible, editable / impossible, vectorizable / impossible are set according to the security level of the image. The image forming apparatus according to claim 1 or 2. セキュリティー警告手段は、出力時に設定するセキュリティーレベルが、登録時に設定されたセキュリティーレベルよりも高く付加された回数が、閾値を越えており、かつ新規ユーザが前記閾値回数を越えた高いセキュリティーレベルよりも低いセキュリティーレベルを設定しようとした場合に警告することを特徴とする請求項1もしくは請求項2の画像形成装置。   The security warning means that the number of times that the security level set at the time of output is added higher than the security level set at the time of registration exceeds the threshold, and the new user exceeds the security level higher than the threshold number of times. 3. The image forming apparatus according to claim 1, wherein a warning is issued when an attempt is made to set a low security level. セキュリティー警告手段は、登録時に設定されたセキュリティーレベルよりも高いレベルが出力時に付加された回数が閾値を越える場合に登録者に警告することを特徴とする請求項1もしくは請求項2の画像形成装置。   3. The image forming apparatus according to claim 1, wherein the security warning means warns the registrant when the number of times a level higher than the security level set at the time of registration exceeds a threshold. . セキュリティー警告手段は、登録時に設定されたセキュリティーレベルよりも高いレベルが出力時に付加された回数が閾値を越える場合に強制的に登録時に設定されたセキュリティーレベルを高いレベルに設定することを特徴とする請求項1もしくは請求項2の画像形成装置。   The security warning means is characterized by forcibly setting the security level set at the time of registration to a high level when the number of times that a level higher than the security level set at the time of registration exceeds the threshold. The image forming apparatus according to claim 1. セキュリティー警告手段は、登録時に設定されたセキュリティーレベルよりも高いレベルが出力時に付加された回数が閾値を越える場合に強制的に登録時に設定されたセキュリティーレベルを高いレベルに変更するか否かを切り替える手段を有し、その切り替え手段に基づいて登録時に設定されたセキュリティーレベルの変更をすることを特徴とする請求項1もしくは請求項2の画像形成装置。   The security warning means forcibly switches whether the security level set at the time of registration is forcibly changed to a higher level when the number of times that a level higher than the security level set at the time of registration exceeds the threshold 3. The image forming apparatus according to claim 1, further comprising: a switching unit configured to change a security level set at the time of registration based on the switching unit. セキュリティー警告手段は、登録時に設定されたセキュリティーレベルよりも高いレベルが出力時に付加された回数が第一の閾値を越える場合に登録者に警告を与え、第二の閾値を越える場合に強制的に登録時に設定されたセキュリティーレベルを高いレベルに変更することを特徴とする請求項1もしくは請求項2の画像形成装置。   The security warning means gives a warning to the registrant when the number of times that a level higher than the security level set at the time of registration exceeds the first threshold, and forcibly when the number exceeds the second threshold. 3. The image forming apparatus according to claim 1, wherein the security level set at the time of registration is changed to a high level.
JP2006199364A 2006-07-21 2006-07-21 Image processing method and apparatus Withdrawn JP2008028716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006199364A JP2008028716A (en) 2006-07-21 2006-07-21 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006199364A JP2008028716A (en) 2006-07-21 2006-07-21 Image processing method and apparatus

Publications (1)

Publication Number Publication Date
JP2008028716A true JP2008028716A (en) 2008-02-07

Family

ID=39118908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006199364A Withdrawn JP2008028716A (en) 2006-07-21 2006-07-21 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP2008028716A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010221A (en) * 2009-06-29 2011-01-13 Ricoh Co Ltd Image processing system, image processing apparatus, image processing method, program and recording medium
JP2013003602A (en) * 2011-06-10 2013-01-07 Sharp Corp Information terminal, method for controlling information terminal, control program, and recording medium
JP2013003604A (en) * 2011-06-10 2013-01-07 Sharp Corp Information terminal, method for controlling information terminal, control program, and recording medium
WO2014171381A1 (en) * 2013-04-17 2014-10-23 大日本印刷株式会社 Colony detection device, culture medium information registration system, program, and sanitation management system
JP2015133087A (en) * 2014-01-15 2015-07-23 富士ゼロックス株式会社 File management device, file management system, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010221A (en) * 2009-06-29 2011-01-13 Ricoh Co Ltd Image processing system, image processing apparatus, image processing method, program and recording medium
JP2013003602A (en) * 2011-06-10 2013-01-07 Sharp Corp Information terminal, method for controlling information terminal, control program, and recording medium
JP2013003604A (en) * 2011-06-10 2013-01-07 Sharp Corp Information terminal, method for controlling information terminal, control program, and recording medium
WO2014171381A1 (en) * 2013-04-17 2014-10-23 大日本印刷株式会社 Colony detection device, culture medium information registration system, program, and sanitation management system
JP2015133087A (en) * 2014-01-15 2015-07-23 富士ゼロックス株式会社 File management device, file management system, and program

Similar Documents

Publication Publication Date Title
JP4557765B2 (en) Image processing apparatus and method
JP4854491B2 (en) Image processing apparatus and control method thereof
JP4546291B2 (en) Image processing apparatus and control method thereof
JP4251629B2 (en) Image processing system, information processing apparatus, control method, computer program, and computer-readable storage medium
JP4533187B2 (en) Image processing apparatus and control method thereof
JP4181892B2 (en) Image processing method
JP4502385B2 (en) Image processing apparatus and control method thereof
US8520006B2 (en) Image processing apparatus and method, and program
US9710524B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
US20040213458A1 (en) Image processing method and system
US20120250048A1 (en) Image processing apparatus and image processing method
JP4227432B2 (en) Image processing method
JP4338189B2 (en) Image processing system and image processing method
JP2008028716A (en) Image processing method and apparatus
JP2007158413A (en) Image processing method and apparatus
JP2007129557A (en) Image processing system
JP2010211470A (en) Document data generation device and document data generation method
JP4323856B2 (en) Image processing method
JP2005149097A (en) Image processing system and image processing method
JP2006261772A (en) Image forming apparatus and image forming method
JP2006146486A (en) Image processor
JP2005208872A (en) Image processing system
JP2006195886A (en) Image processing system
JP2005070980A (en) Bar code reading device, method and program
JP2008084127A (en) Image forming device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091006