JP2008263593A - Image processing device, image processing method, program, and recording medium - Google Patents

Image processing device, image processing method, program, and recording medium Download PDF

Info

Publication number
JP2008263593A
JP2008263593A JP2008051302A JP2008051302A JP2008263593A JP 2008263593 A JP2008263593 A JP 2008263593A JP 2008051302 A JP2008051302 A JP 2008051302A JP 2008051302 A JP2008051302 A JP 2008051302A JP 2008263593 A JP2008263593 A JP 2008263593A
Authority
JP
Japan
Prior art keywords
information
image data
area
image processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008051302A
Other languages
Japanese (ja)
Inventor
Tei Abe
悌 阿部
Masakazu Niro
雅一 丹路
Hiroshi Shimura
浩 志村
Masaaki Ishikawa
雅朗 石川
Taeko Ishizu
妙子 石津
Motohiro Kuroda
元宏 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008051302A priority Critical patent/JP2008263593A/en
Priority to US12/076,460 priority patent/US8180102B2/en
Priority to EP08250975.3A priority patent/EP1973330B1/en
Priority to CN2008100951675A priority patent/CN101277364B/en
Publication of JP2008263593A publication Critical patent/JP2008263593A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To maintain good visual quality of content information included in image data even when supplemental information is embedded in the image data. <P>SOLUTION: An image processing device includes an area generation unit configured to generate a supplemental information-embedded area in image data having content information separate from an area occupied by the content information, and a data embedding unit configured to embed the supplemental information in the generated supplemental information-embedded area. Thus, good visual quality of the content information included in the image data can be maintained even when supplemental information is embedded in the image data. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像データに付加情報を埋め込む画像処理装置、画像処理方法、プログラム、および記録媒体に関し、特に、画像データに対する付加情報を埋め込み方法に関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium for embedding additional information in image data, and more particularly to a method for embedding additional information in image data.

近年、画像処理技術の向上によって、原本と、原本から作成された複写物とが容易に区別できないほど忠実な複写が可能となってきている。このため、偽造防止の観点から、紙幣や有価証券等のような特殊原稿については、複写を全く行うことができないようにするか、あるいは、正しく複写を行わせない措置を講ずる必要性が高まっている。   In recent years, due to improvements in image processing technology, it has become possible to make faithful copying so that the original and a copy made from the original cannot be easily distinguished. For this reason, from the standpoint of preventing counterfeiting, there is an increasing need to prevent special manuscripts such as banknotes and securities from being copied at all, or to take measures not to copy them correctly. Yes.

このような背景から、特殊原稿や機密文書等の複写に対し規制を及ぼすことを目的とする種々の方法が提案されている。   Against this background, various methods have been proposed for the purpose of restricting the copying of special manuscripts and confidential documents.

例えば、特許文献1では、画像データにドットパターンを重畳することで、該画像データの複写を規制する方法が提案されている。この方法では、読み取った画像データから、予め格納されている複写禁止パターンと同一のドットパターンが検知された場合、読み取った画像データは複写禁止であると判断し、その画像データに対する複写制御を規制する。
特開2004−274092号公報
For example, Patent Document 1 proposes a method for restricting copying of image data by superimposing a dot pattern on the image data. In this method, when the same dot pattern as the copy prohibition pattern stored in advance is detected from the read image data, it is determined that the read image data is copy prohibition, and the copy control for the image data is restricted. To do.
JP 2004-274092 A

ここで、特許文献1のような画像データにドットパターンを重畳する方法の問題点について説明する。特許文献1で提案されている方法では、コンテンツ情報を含む画像データに対して出力禁止を示すドットパターンを全面的に重畳する。したがって、画像データに文書や写真等のコンテンツ情報にもドットパターンが重畳されてしまうため、画像データに含まれるコンテンツ情報の見栄えが低下してしまう(図13参照)。   Here, the problem of the method of superimposing the dot pattern on the image data as in Patent Document 1 will be described. In the method proposed in Patent Document 1, a dot pattern indicating output prohibition is entirely superimposed on image data including content information. Therefore, since the dot pattern is superimposed on the content information such as a document or a photograph in the image data, the appearance of the content information included in the image data is deteriorated (see FIG. 13).

本発明は、上記課題に鑑みてなされたものであり、画像データに付加情報を埋め込む場合であっても、該画像データにかかるコンテンツ情報の見栄えを保つことができる画像処理装置、画像処理方法、プログラム、および記録媒体を提供することを目的とする。   The present invention has been made in view of the above problems, and even when additional information is embedded in image data, an image processing apparatus, an image processing method, and an image processing apparatus that can maintain the appearance of content information related to the image data. It is an object to provide a program and a recording medium.

かかる課題を解決するために、本発明に係る画像処理装置は、コンテンツ情報を含む画像データに、前記コンテンツ情報に重複しない、付加情報を埋め込むための埋込領域を生成する領域生成手段と、生成された前記埋込領域に前記付加情報を埋め込む情報埋込手段とを備えたことを特徴とする。   In order to solve such a problem, an image processing apparatus according to the present invention includes an area generation unit that generates an embedded area for embedding additional information that does not overlap with the content information in image data including content information, and generation And an information embedding unit for embedding the additional information in the embedded region.

さらに、本発明に係る画像処理装置において、前記領域生成手段は、画像データ中であってコンテンツ情報の周囲に、前記埋込領域を生成することを特徴としてもよい。   Further, in the image processing apparatus according to the present invention, the area generation means may generate the embedded area in the image data and around the content information.

さらに、本発明に係る画像処理装置において、前記領域生成手段は、前記コンテンツ情報の外接矩形を生成し、生成された該外接矩形の周囲に付加情報を埋め込むための埋込領域を生成することを特徴としてもよい。   Furthermore, in the image processing apparatus according to the present invention, the region generating unit generates a circumscribed rectangle of the content information and generates an embedding region for embedding additional information around the generated circumscribed rectangle. It may be a feature.

さらに、本発明に係る画像処理装置において、前記領域生成手段は、前記画像データの端部と前記コンテンツ情報との距離に応じて、前記埋込領域の範囲を決定することを特徴としてもよい。   Furthermore, in the image processing apparatus according to the present invention, the area generation unit may determine the range of the embedded area according to a distance between an end of the image data and the content information.

さらに、本発明に係る画像処理装置において、前記領域生成手段は、前記画像データの端部と前記コンテンツ情報との距離、および付加情報の再現性を確保するための閾値に基づいて、前記埋込領域の範囲を決定することを特徴としてもよい。   Furthermore, in the image processing apparatus according to the present invention, the region generation unit is configured to perform the embedding based on a distance between the edge of the image data and the content information and a threshold value for ensuring reproducibility of the additional information. The range of the region may be determined.

さらに、本発明に係る画像処理装置において、前記付加情報は、前記画像データの種別を表す種別情報、前記画像データの出力履歴である履歴情報のうち、少なくとも一つであることを特徴としてもよい。   Further, in the image processing apparatus according to the present invention, the additional information may be at least one of type information indicating a type of the image data and history information which is an output history of the image data. .

さらに、本発明に係る画像処理装置において、前記領域生成手段は、付加情報が埋め込まれた画像データを出力する出力手段が描画可能な範囲についての情報である描画領域情報を取得し、取得された前記描画領域情報、および前記コンテンツ情報とに基づいて前記埋込領域を生成することを特徴としてもよい。   Furthermore, in the image processing apparatus according to the present invention, the area generation unit acquires and acquires drawing area information that is information about a range that can be drawn by an output unit that outputs image data in which additional information is embedded. The embedding area may be generated based on the drawing area information and the content information.

また、本発明に係る画像処理方法は、コンテンツ情報を含む画像データに、前記コンテンツ情報に重複しない、付加情報を埋め込むための埋込領域を生成する領域生成ステップと、生成された前記埋込領域に前記付加情報を埋め込む情報埋込ステップと、を有することを特徴とする。   The image processing method according to the present invention includes an area generation step of generating an embedded area for embedding additional information that does not overlap with the content information in the image data including the content information, and the generated embedded area And an information embedding step of embedding the additional information.

さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記画像データ中であって前記コンテンツ情報の周囲に、前記埋込領域を生成するステップであることを特徴としてもよい。   Furthermore, in the image processing method according to the present invention, the region generation step may be a step of generating the embedded region in the image data and around the content information.

さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記コンテンツ情報の外接矩形の周囲に付加情報を埋め込むための領域を生成するステップであることを特徴としてもよい。   Furthermore, in the image processing method according to the present invention, the region generating step may be a step of generating a region for embedding additional information around a circumscribed rectangle of the content information.

さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記画像データの端部と前記コンテンツ情報との距離に応じて、前記埋込領域の範囲を決定するステップであることを特徴としてもよい。   Furthermore, in the image processing method according to the present invention, the region generation step is a step of determining a range of the embedded region according to a distance between an end of the image data and the content information. Also good.

さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記画像データの端部と前記コンテンツ情報との距離、および付加情報の再現性を確保するための閾値に基づいて、前記埋込領域の範囲を決定するステップであることを特徴としてもよい。   Furthermore, in the image processing method according to the present invention, the region generation step includes the embedding based on a distance between the edge of the image data and the content information, and a threshold value for ensuring reproducibility of the additional information. It may be a step of determining the range of the region.

さらに、本発明に係る画像処理方法において、前記付加情報は、前記画像データの種別を表す種別情報、前記画像データの出力履歴である履歴情報のうち、すくなくとも一つであることを特徴としてもよい。   Further, in the image processing method according to the present invention, the additional information may be at least one of type information representing a type of the image data and history information which is an output history of the image data. .

さらに、本発明に係る画像処理方法において、前記領域生成ステップは、付加情報が埋め込まれた画像データを出力する出力手段が描画可能な範囲についての情報である描画領域情報を取得し、取得された前記描画領域情報、および前記コンテンツ情報とに基づいて前記埋込領域を生成することを特徴としてもよい。   Further, in the image processing method according to the present invention, the region generation step acquires drawing region information that is information about a range that can be drawn by an output unit that outputs image data in which additional information is embedded. The embedding area may be generated based on the drawing area information and the content information.

また、本発明に係るプログラムは、本発明の画像処理方法を実行させることを特徴とする。   The program according to the present invention is characterized by causing the image processing method of the present invention to be executed.

また、本発明に係る記録媒体は、コンピュータが読み取り可能な記録媒体であり、本発明のプログラムを記録したことを特徴とする。   The recording medium according to the present invention is a computer-readable recording medium and records the program of the present invention.

本発明によれば、付加情報が埋め込まれた画像データにおけるコンテンツ情報の見栄えを向上させることが可能となる。   According to the present invention, it is possible to improve the appearance of content information in image data in which additional information is embedded.

以下、添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、以下に説明する本実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施の形態で説明される構成の全てが本発明の必須の構成要件ではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, this Embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all of the configurations described in this embodiment are not essential configuration requirements of the present invention.

〔第1の実施の形態〕
以下に、図1乃至図7を用いて、本発明に係る第1の実施の形態における画像処理装置について説明する。なお、本実施の形態では、画像処理装置の一例として、コピー、ファクシミリ、スキャナ、プリント等の複合機能を有するMFP(Multi Functional Peripheral)100を用いて説明する。なお、画像処理装置の適用例としては、MFP100に限られることなる、ファクシミリ装置、プリンタ装置、パーソナルコンピュータ、ゲーム機器、携帯電話機、カーナビゲーション装置等が含まれることは言うまでもない。
[First Embodiment]
The image processing apparatus according to the first embodiment of the present invention will be described below with reference to FIGS. In this embodiment, an example of an image processing apparatus will be described using an MFP (Multi Functional Peripheral) 100 having a composite function such as copying, facsimile, scanner, and printing. Needless to say, application examples of the image processing apparatus include a facsimile apparatus, a printer apparatus, a personal computer, a game machine, a mobile phone, a car navigation apparatus, and the like, which are limited to the MFP 100.

ここで、本明細書で用いる文言を次のように定義する。「コンテンツ情報」とは、画像データが有する文字、文字列、図、表、写真などの各種コンテンツを意味する。「地紋パターン」とは、画像データに情報を埋め込むための模様を意味し、例えば、ドットパターン、バーコート、2次元バーコード(QRコード)等を意味する。   Here, the terms used in this specification are defined as follows. “Content information” means various contents such as characters, character strings, diagrams, tables, and photographs included in image data. The “background pattern” means a pattern for embedding information in image data, and means, for example, a dot pattern, a bar coat, a two-dimensional barcode (QR code), or the like.

図1は、本発明の画像処理装置の一例である、MFP100のハードウエア構成を示す図である。図1に示すように、MFP100は、コントローラ110、通信インターフェース120、スキャナエンジン130、プリンタエンジン140、FAXボード150、ユーザインターフェース160、可搬性記録媒体読取装置170、HDD(Hard Disk Drive)180、バスライン190により構成される。   FIG. 1 is a diagram illustrating a hardware configuration of an MFP 100 as an example of an image processing apparatus according to the present invention. As shown in FIG. 1, the MFP 100 includes a controller 110, a communication interface 120, a scanner engine 130, a printer engine 140, a FAX board 150, a user interface 160, a portable recording medium reading device 170, an HDD (Hard Disk Drive) 180, a bus. It is constituted by a line 190.

コントローラ110は、MFP100の全体の処理を制御する。
コントローラ110はその内部構成として、CPU(Central Prosessing Unit)111、CPU111を制御するプログラム等の固定的なデータを予め格納したROM(Read Only Memory)112、各種データを一時的に記憶するエリアを形成するメモリ(メインメモリ)113、とから構成される。
The controller 110 controls the overall processing of the MFP 100.
The controller 110 includes, as its internal configuration, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112 in which fixed data such as a program for controlling the CPU 111 is stored in advance, and an area for temporarily storing various data. Memory (main memory) 113.

通信インターフェース120は、コントローラ110によって制御され、MFP100の外部装置との通信を行う。なお、通信インターフェース120は、イーサネット(登録商標)インターフェース、IEEE1284インターフェース、または、その他のインターフェースでも構成可能である。   Communication interface 120 is controlled by controller 110 to communicate with an external device of MFP 100. The communication interface 120 can also be configured with an Ethernet (registered trademark) interface, an IEEE1284 interface, or other interfaces.

スキャナエンジン130は、コントローラ110によって制御され、画像読取処理を実行する機能を有する。   The scanner engine 130 is controlled by the controller 110 and has a function of executing image reading processing.

プリンタエンジン140は、コントローラ110によって制御され、画像形成処理(印刷処理)を実行する。なお、プリンタエンジン140は、レーザービームプリンタ、インクジェットプリンタ、または、その他のプリンタでも構成可能である。   The printer engine 140 is controlled by the controller 110 and executes image forming processing (printing processing). The printer engine 140 can also be configured with a laser beam printer, an inkjet printer, or other printers.

FAXボード150は、コントローラ110によって制御され、ファクシミリ通信処理を実行する。   The FAX board 150 is controlled by the controller 110 and executes facsimile communication processing.

ユーザインターフェース160は、コントローラ110から送られた情報の表示を行うとともに、ユーザから入力された情報をコントローラ110に伝えることができる。つまり、ユーザに対する情報の出力(提供)や、ユーザからの指示(情報)入力を行う。なお、ユーザインターフェース160としては、例えば、ディスプレイ(LCTやCRT等)、ポインティングデバイス(マウス、タッチペン等)や、キーボードによって構成可能である。さらに、他の構成として、タッチパネル、音声インターフェース等を利用することができる。   The user interface 160 can display information sent from the controller 110 and can transmit information input from the user to the controller 110. That is, information is output (provided) to the user and instructions (information) are input from the user. The user interface 160 can be configured by, for example, a display (such as LCT or CRT), a pointing device (such as a mouse or a touch pen), or a keyboard. Furthermore, as another configuration, a touch panel, a voice interface, or the like can be used.

可搬性記録媒体読取装置170は、コントローラ110によって制御され、ICカードや、フロッピー(登録商標)ディスク等の可搬性記録媒体の記録情報を読み込む処理を実行する。また、可搬性記録媒体読取装置170は、コントローラ110からの指示により可搬性記録媒体へアクセスし、可搬性記録媒体から情報を読み出して、コントローラ110に通知する。   The portable recording medium reading device 170 is controlled by the controller 110 and executes processing for reading recording information of a portable recording medium such as an IC card or a floppy (registered trademark) disk. Further, the portable recording medium reading device 170 accesses the portable recording medium according to an instruction from the controller 110, reads information from the portable recording medium, and notifies the controller 110 of the information.

HDD180は、各種データの書き込み、及び、読出しを行う機能を有する。そして、バスライン190は、これらコントローラ110と、通信インターフェース120、スキャナエンジン130、プリンタエンジン140、FAXボード150、ユーザインターフェース160、可搬性記録媒体読取装置170、HDD180を電気的に接続している。なお、バスライン190には、アドレスバス、データバス等を利用することができる。   The HDD 180 has a function of writing and reading various data. The bus line 190 electrically connects the controller 110 to the communication interface 120, the scanner engine 130, the printer engine 140, the FAX board 150, the user interface 160, the portable recording medium reading device 170, and the HDD 180. For the bus line 190, an address bus, a data bus, or the like can be used.

以上のような構成を有するMFP100において、プリンタエンジン140を選択することでプリントジョブの発行が可能となる。また、スキャナエンジン130を選択することでスキャンジョブの発行が可能となる。さらに、プリンタエンジン140とスキャナエンジン130とを選択することで、コピージョブの発行が可能となる。また、プリンタエンジン140とスキャナエンジン130とFAXボード150とを選択することで、ファクシミリ受信ジョブ及びファクシミリ送信ジョブの発行が可能となる。   In MFP 100 having the above-described configuration, print job can be issued by selecting printer engine 140. Further, by selecting the scanner engine 130, a scan job can be issued. Further, by selecting the printer engine 140 and the scanner engine 130, a copy job can be issued. Further, by selecting the printer engine 140, the scanner engine 130, and the FAX board 150, it is possible to issue a facsimile reception job and a facsimile transmission job.

次に、本実施の形態に係るMFP100が有する機能を、図2を用いて説明する。図2は、本実施の形態に係るMFP100の機能ブロック図である。図2に示すように、MFP100は、指示入力手段210、画像データ入力手段220、サイズ検出手段230、領域生成手段240、付加情報取得手段250、記憶手段260、情報埋込手段270、画像データ出力手段280を備える。   Next, functions of MFP 100 according to the present embodiment will be described with reference to FIG. FIG. 2 is a functional block diagram of MFP 100 according to the present embodiment. As shown in FIG. 2, the MFP 100 includes an instruction input unit 210, an image data input unit 220, a size detection unit 230, an area generation unit 240, an additional information acquisition unit 250, a storage unit 260, an information embedding unit 270, and an image data output. Means 280 are provided.

指示入力手段210は、MFP100を操作するユーザからの指示を受け付ける。ユーザからの指示の例としては、画像データの入力指示や画像データの出力指示のほか、入力または出力の条件の設定指示を挙げることができる。また、付加情報の埋め込み指示の受付も行う。なお、指示入力手段210は、ユーザに選択肢を提示し、指示入力を促す構成を採用してもよい。ここで、指示入力手段210は、図1に示すユーザインターフェース160により実現される。   Instruction input unit 210 receives an instruction from a user who operates MFP 100. Examples of instructions from the user include input instructions for image data and output instructions for image data, as well as instructions for setting input or output conditions. It also accepts additional information embedding instructions. The instruction input unit 210 may adopt a configuration that presents options to the user and prompts the user to input an instruction. Here, the instruction input means 210 is realized by the user interface 160 shown in FIG.

画像データ入力手段220は、付加情報の埋め込み対象となる画像データを生成、または取得することにより処理対象の画像データを入力し、入力した画像データを記憶手段260に格納する。なお、画像データ入力手段220は、通信インターフェース120により実現されてもよいし、スキャナエンジン130により実現されてもよい。   The image data input unit 220 inputs image data to be processed by generating or acquiring image data to be embedded with additional information, and stores the input image data in the storage unit 260. Note that the image data input unit 220 may be realized by the communication interface 120 or the scanner engine 130.

サイズ検出手段230は、画像データ入力手段220により入力された画像データのサイズを検出する。画像データのサイズとして、A3、A4等の用紙サイズを検出してもよいし、解像度による定義される画像データのサイズを検出してもよい。なお、サイズ検出手段230は、図1に示すコントローラ110により実現されてもよいし、スキャナエンジン130により実現されてもよい。   The size detection unit 230 detects the size of the image data input by the image data input unit 220. As the size of the image data, a paper size such as A3 or A4 may be detected, or the size of the image data defined by the resolution may be detected. Note that the size detection unit 230 may be realized by the controller 110 illustrated in FIG. 1 or may be realized by the scanner engine 130.

領域生成手段240は、画像データに含まれるコンテンツ情報に基づき、付加情報を埋め込むための領域(以下、「埋込領域」という。)を、画像データ中に生成する。ここで、領域生成手段240は、コンテンツ情報の周囲に埋込領域を生成する。なお、領域生成手段240は、図1に示すコントローラ110により実現される。   The area generation unit 240 generates an area for embedding additional information (hereinafter referred to as “embedding area”) in the image data based on the content information included in the image data. Here, the region generation unit 240 generates an embedded region around the content information. Note that the region generation means 240 is realized by the controller 110 shown in FIG.

ここで、領域生成手段240の処理について詳細に説明する。   Here, the processing of the region generation unit 240 will be described in detail.

領域生成手段240は、後述の記憶手段260から処理対処の画像データを取得し、画像データに含まれるコンテンツ情報の存在する範囲(以下、「コンテンツ領域」という。)として、コンテンツ情報の外接矩形を生成する。ここで、画像データの背景色を特定し、背景色以外の画素の外接矩形を抽出することで、コンテンツ情報の外接矩形を取得することができる。背景色の特定は、画像データの色ヒストグラムを作成し、最も割合の多い色を背景色として決定する等、種々の方法が適用可能である。   The region generation unit 240 acquires image data to be processed from the storage unit 260 described later, and sets a circumscribed rectangle of the content information as a range where content information included in the image data exists (hereinafter referred to as “content region”). Generate. Here, the circumscribing rectangle of the content information can be acquired by specifying the background color of the image data and extracting the circumscribing rectangle of the pixels other than the background color. For specifying the background color, various methods such as creating a color histogram of the image data and determining the color with the highest ratio as the background color can be applied.

そして、領域生成手段240は、生成された第1の外接矩形と重複しない範囲であって、画像データの範囲内に領域を指定することで、コンテンツ情報に重複しない範囲に埋込領域を生成することができる。なお、画像データの範囲は、サイズ検出手段230により検出されたサイズを用いればよい。   Then, the area generation unit 240 generates an embedding area in a range that does not overlap with the generated first circumscribed rectangle and that does not overlap with the content information by designating the area within the range of the image data. be able to. Note that the size detected by the size detector 230 may be used as the range of the image data.

なお、コンテンツ領域は、上述の外接矩形に限られるものではない。画像データに対して輪郭追跡処理を施すことでコンテンツ領域を取得し、埋込領域を生成してもよい。   Note that the content area is not limited to the circumscribed rectangle described above. A content area may be acquired by performing contour tracking processing on image data to generate an embedded area.

また、画像データに対して画素値のヒストグラムを求め、求めたヒストグラムからコンテンツ領域を取得し、取得されたコンテンツ領域に基づいて埋込領域を生成してもよい。具体的には、画像データの端部から画素値のヒストグラムを求め、求めたヒストグラムの変化量が所定の閾値以上を示す箇所をコンテンツ情報のエッジと判断する。そして、画像データの端部からエッジと判断された箇所までを埋込領域として生成する。   Alternatively, a pixel value histogram may be obtained for image data, a content area may be obtained from the obtained histogram, and an embedding area may be generated based on the obtained content area. Specifically, a histogram of pixel values is obtained from the edge of the image data, and a location where the obtained change amount of the histogram shows a predetermined threshold value or more is determined as the edge of the content information. Then, the region from the end of the image data to the portion determined to be an edge is generated as an embedded region.

さらには、画像データの各画素の微分値を求め、求まった値によりエッジを検出する。そして、画像データの端部から検出されたエッジまでを埋込領域として生成してもよい。なお、微分値の算出は、画像フィルタ等の公知の手法を用いればよい。   Further, a differential value of each pixel of the image data is obtained, and an edge is detected based on the obtained value. Then, the area from the end of the image data to the detected edge may be generated as an embedded area. In addition, what is necessary is just to use well-known methods, such as an image filter, for calculation of a differential value.

ここで、取得されたコンテンツ領域が複数存在する場合(複数の第1コンテンツ領域が存在する場合)には、取得された全てのコンテンツ領域を包含する領域(以下、「第2のコンテンツ領域」という。)を取得し、第2のコンテンツ領域と重複しない範囲であって、画像データの範囲内に領域を指定することで埋込領域を生成してもよい。この場合、コンテンツ情報間に地紋パターンが存在しない画像データを得ることができるため、よりコンテンツ情報の見栄えが損なわない画像データを得ることができる。ただし、第1のコンテンツ情報に基づいて地紋パターンを重畳した手法の方が、より広い埋込領域を確保できるため、画像データに付加可能な情報量は多くなる。なお、第1のコンテンツ領域に基づいて地紋パターンが重畳された画像データを図3に、第2のコンテンツ領域に基づいて地紋パターンが重畳された画像データを図4に示す。   Here, when there are a plurality of acquired content areas (when there are a plurality of first content areas), an area including all the acquired content areas (hereinafter referred to as “second content area”). .)), And an embedding area may be generated by designating an area within the range of the image data that does not overlap with the second content area. In this case, it is possible to obtain image data in which no copy-forgery-inhibited pattern pattern exists between the content information, and thus it is possible to obtain image data that does not impair the appearance of the content information. However, the method of superimposing the tint block pattern based on the first content information can secure a wider embedding area, so that the amount of information that can be added to the image data is increased. FIG. 3 shows image data on which a ground pattern is superimposed based on the first content area, and FIG. 4 shows image data on which a ground pattern is superimposed on the second content area.

さらに、領域生成手段240は、指示入力手段210を介してユーザから入力された埋込領域に関する形状指示(以下、「領域形状」という。)を考慮して埋込領域を生成する構成を採用してもよい。具体的には、取得されたコンテンツ領域内に領域形状に対応した埋込領域を生成することで、ユーザ所望の形状をもって、地紋パターンを付加することができる。なお、かかる構成を採用する場合、領域生成手段240は、指示入力手段210を介して入力された形状指示に応じたテンプレートを記憶手段260から取得することで、ユーザ所望の形状を有する埋込領域を生成する。   Further, the region generation unit 240 adopts a configuration in which an embedded region is generated in consideration of a shape instruction (hereinafter referred to as “region shape”) related to the embedded region input from the user via the instruction input unit 210. May be. Specifically, by generating an embedded region corresponding to the region shape in the acquired content region, a tint block pattern can be added with a shape desired by the user. In the case of adopting such a configuration, the region generation unit 240 acquires a template according to the shape instruction input via the instruction input unit 210 from the storage unit 260, so that an embedded region having a user-desired shape is obtained. Is generated.

付加情報取得手段250は、画像データに埋め込むための情報(以下、「付加情報」という。)を取得する。ここで、付加情報には、画像データが複写禁止データであることを示すための情報や画像データが出力される装置の識別情報等のセキュリティ情報や、画像データの著作権を管理するための情報や、画像データの関連情報(例えば、画像データに関する情報の所在を示すURL等)等がある。なお、付加情報取得手段は、図1に示すコントローラ110や、通信インターフェース120や、ユーザインターフェース160により実現される構成を採用してもよい。また、可搬性記録媒体読取装置170を用いて、外部装置である可搬性記録媒体から付加情報を取得する構成を採用してもよい。   The additional information acquisition unit 250 acquires information to be embedded in the image data (hereinafter referred to as “additional information”). Here, the additional information includes security information such as information for indicating that the image data is copy-prohibited data, identification information of the device from which the image data is output, and information for managing the copyright of the image data. And image data related information (for example, a URL indicating the location of information related to image data). The additional information acquisition unit may adopt a configuration realized by the controller 110, the communication interface 120, and the user interface 160 shown in FIG. Further, a configuration may be adopted in which the additional information is acquired from the portable recording medium that is an external device by using the portable recording medium reader 170.

ここで、付加情報取得手段250は、指示入力手段210を介してユーザにより指定された情報自体を付加情報として入力してもよいし、ユーザにより指定された設定指示に応じた付加情報を後述の記憶手段260から取得してもよい。ユーザにより指定された設定指示に応じた付加情報について、いくつかの例を示す。   Here, the additional information acquisition unit 250 may input the information specified by the user via the instruction input unit 210 as additional information, or add additional information corresponding to the setting instruction specified by the user, which will be described later. You may acquire from the memory | storage means 260. FIG. Some examples of the additional information corresponding to the setting instruction specified by the user are shown.

ユーザは、画像データの種別や用途に応じた種々の情報を画像データに付加することで、画像データの有用性やセキュリティ精度を高めることを望んでいる。そこで、画像データの出力の際にユーザが機密データ出力モードを選択した場合、画像データの複写を禁止するための情報を付加情報とする。なお、かかる情報が付加された画像データが複写目的で読み取られた際、読み取った装置は、付加情報により読み取った画像データが複写禁止データであると認識可能となり、一連の処理を中止する措置を講ずることが可能となる。   A user desires to improve the usefulness and security accuracy of image data by adding various types of information according to the type and use of the image data to the image data. Therefore, when the user selects the confidential data output mode when outputting the image data, information for prohibiting the copying of the image data is set as additional information. When the image data to which such information is added is read for the purpose of copying, the reading device can recognize that the image data read by the additional information is copy-prohibited data, and take measures to stop a series of processing. It is possible to take.

また、別の設定指示としては、MFP100の管理者によるセキュリティ指示が挙げられる。かかる設定指示の場合、画像データを出力するMFP100の識別情報や、ユーザの識別情報、出力日時等の追跡情報を、画像データに付加する付加情報とする。ここで、MFP100の識別情報を画像データに付加することで、いつ、どの装置により、誰によって画像データが出力されたが把握可能となる。   Another setting instruction includes a security instruction by the administrator of MFP 100. In the case of such a setting instruction, tracking information such as identification information of the MFP 100 that outputs image data, identification information of the user, and output date and time is added information to the image data. Here, by adding the identification information of the MFP 100 to the image data, it is possible to grasp when, by which apparatus, by whom, and by whom.

記憶手段260は、MFP100の処理に必要な各種情報を記憶する。具体的には、埋込領域に関する情報(以下、「領域情報」という。)や、付加情報取得手段250により入力された付加情報を地紋パターンに変換するための情報を記憶する。ここで、領域情報とは、埋込領域の範囲を示す情報である。なお、記憶手段260は、コントローラ110内のメモリ113や、HDD180により実現される。   Storage unit 260 stores various information necessary for processing of MFP 100. Specifically, information related to the embedded area (hereinafter referred to as “area information”) and information for converting the additional information input by the additional information acquisition unit 250 into a tint block pattern are stored. Here, the region information is information indicating the range of the embedded region. Note that the storage unit 260 is realized by the memory 113 in the controller 110 or the HDD 180.

情報埋込手段270は、付加情報取得手段250により入力された付加情報を、記憶手段260に記憶された情報を用いて地紋パターンへ変換する。そして、変換した地紋パターンを画像データに重畳することで画像データに付加情報を付加する(例えば図5参照)。情報埋込手段270の処理の一例を、図5及び図6にそれぞれ示す。ここで、地紋パターンの重畳は、領域生成手段240により生成された埋込領域に対してのみ行う。なお、情報埋込手段は、コントローラ110により実現される。   The information embedding unit 270 converts the additional information input by the additional information acquisition unit 250 into a tint block pattern using the information stored in the storage unit 260. Then, additional information is added to the image data by superimposing the converted tint block pattern on the image data (see, for example, FIG. 5). An example of processing of the information embedding unit 270 is shown in FIGS. 5 and 6, respectively. Here, the superposition of the tint block pattern is performed only on the embedded region generated by the region generating unit 240. Note that the information embedding means is realized by the controller 110.

ここで、情報埋込手段270による付加情報から地紋パターンへの変換について説明する。情報埋込手段270は、ビット列により表現される付加情報を取得し、各ビットについて、記憶手段260に記憶された情報を用いて地紋パターンへと変換する。そして、変換した地紋パターンを画像データの重畳する。具体的には、付加情報を1ビットづつ取得し、取得したビット列を所定の大きさの2次元配列(以下、「単位2次元配列」という。例えば図6参照)に並べ替える。次に、情報埋込手段270はこの単位2次元配列を縦方向、および横方向に繰り返し並べることで、サイズ検知手段230で検知した画像データの大きさを有する2次元配列を生成する。そして、生成された2次元配列のうち、領域生成手段240で生成された領域と重複する部分の各単位2次元配列を地紋パターンに変換して画像データ重畳する。なお、付加情報の抽出精度を向上させるために、付加情報を数回繰り返したビット列を地紋パターンに変換してもよい。   Here, the conversion from the additional information to the tint block pattern by the information embedding unit 270 will be described. The information embedding unit 270 acquires additional information expressed by a bit string, and converts each bit into a tint block pattern using information stored in the storage unit 260. Then, the converted tint block pattern is superimposed on the image data. Specifically, the additional information is acquired bit by bit, and the acquired bit string is rearranged into a two-dimensional array having a predetermined size (hereinafter referred to as “unit two-dimensional array”, for example, see FIG. 6). Next, the information embedding unit 270 generates a two-dimensional array having the size of the image data detected by the size detecting unit 230 by repeatedly arranging the unit two-dimensional array in the vertical direction and the horizontal direction. Then, of the generated two-dimensional array, each unit two-dimensional array that overlaps with the region generated by the region generating unit 240 is converted into a tint block pattern, and the image data is superimposed. In order to improve the extraction accuracy of the additional information, a bit string obtained by repeating the additional information several times may be converted into a tint block pattern.

さらに、情報埋込手段270は、指示入力手段210を介してユーザから入力された地紋パターンの種別に応じて、付加情報を地紋パターンへ変換することができる。
なお、初期設定としてMFP100に設定されている地紋パターンの種別で、付加情報を地紋パターンへ変換する構成を採用してもよい。
Further, the information embedding unit 270 can convert the additional information into a tint block pattern according to the type of the tint block pattern input by the user via the instruction input unit 210.
A configuration may be employed in which additional information is converted into a tint block pattern according to the type of tint block pattern set in MFP 100 as an initial setting.

画像データ出力手段280は、付加情報が埋め込まれた画像データを出力する。ここで、通信インターフェース120を介して画像データ自体を外部出力してもよいし、プリンタエンジン140を用いて所定の媒体(出力用紙など)へ印刷する構成を採用してもよい。また、ユーザインターフェース160を用いて、画像データをパネル表示する構成を採用してもよい。   The image data output means 280 outputs image data in which additional information is embedded. Here, the image data itself may be output to the outside via the communication interface 120, or a configuration may be employed in which printing is performed on a predetermined medium (such as output paper) using the printer engine 140. A configuration in which image data is displayed on a panel using the user interface 160 may be employed.

次に、以上のように構成された本実施の形態にかかるMFP100における処理の流れについて説明する。図7は、本実施の形態に係るMFP100における、処理の流れを示すフローチャートである。   Next, a processing flow in MFP 100 according to the present embodiment configured as described above will be described. FIG. 7 is a flowchart showing a processing flow in MFP 100 according to the present embodiment.

まず、指示入力手段210は、画像データの出力指示をユーザから受け付ける(ステップS101)。このとき、指示受付手段201は、画像データに地紋パターンを埋め込んで出力する指示も、併せてユーザから受け付ける。   First, the instruction input unit 210 receives an image data output instruction from the user (step S101). At this time, the instruction receiving unit 201 also receives an instruction to embed a background pattern in the image data and output it from the user.

次に、画像データ入力手段220は、付加情報の埋め込み対象となる、処理対象の画像データを入力する(ステップS102)。なお、入力された画像データは、MFP100のHDD180、またはメモリ113により実現される記憶手段260に格納される。   Next, the image data input means 220 inputs image data to be processed that is to be embedded with additional information (step S102). The input image data is stored in the storage unit 260 realized by the HDD 180 of the MFP 100 or the memory 113.

続いて、サイズ検出手段230は、記憶手段260に格納されている画像データを読み出して、読み出した画像データのサイズを検出する(ステップS103)。なお、検出された画像データのサイズ情報は、記憶手段260に格納される。   Subsequently, the size detection unit 230 reads the image data stored in the storage unit 260 and detects the size of the read image data (step S103). The detected size information of the image data is stored in the storage unit 260.

次に、領域生成手段240は、記憶手段260に格納されているコンテンツ情報を含む画像データを読み出し、コンテンツ情報に重複しない埋込領域を読み出した画像データ上に生成する(ステップS104)。そして、生成した埋込領域の領域情報を記憶手段260に格納する。   Next, the area generation unit 240 reads the image data including the content information stored in the storage unit 260, and generates an embedded area that does not overlap with the content information on the read image data (step S104). Then, the generated area information of the embedded area is stored in the storage unit 260.

なお、見栄えをより向上させるために、領域生成手段は、コンテンツ情報に重複しない全ての領域ではなく、より限定した範囲を埋込領域として生成してもよい。ただし、画像データに埋め込まれた付加情報の抽出精度が向上させるために、埋込領域は、付加情報の再現性を確保するための閾値以上の幅(例えば1cm以上)を設けることが望ましい。   In addition, in order to improve the appearance, the area generation unit may generate a more limited range as an embedded area instead of all areas that do not overlap with the content information. However, in order to improve the extraction accuracy of the additional information embedded in the image data, it is desirable that the embedded region has a width (for example, 1 cm or more) that is equal to or larger than a threshold for ensuring the reproducibility of the additional information.

ここで、付加情報取得手段250は、画像データに付加する付加情報を取得する。そして、記憶手段260に格納されている情報により、取得した付加情報を地紋パターンへ変換する(ステップS105)。   Here, the additional information acquisition unit 250 acquires additional information to be added to the image data. Then, the acquired additional information is converted into a tint block pattern based on the information stored in the storage unit 260 (step S105).

さらに、情報埋込手段270は、記憶手段260から領域情報を読み出す。そして、読み出した領域情報に対応する画像データ上の位置にのみ、付加情報取得手段250により変換された地紋パターンを重畳する(ステップS106)。   Further, the information embedding unit 270 reads the area information from the storage unit 260. Then, the copy-forgery-inhibited pattern converted by the additional information acquisition unit 250 is superimposed only on the position on the image data corresponding to the read area information (step S106).

最後に、画像データ出力手段280は、地紋パターンが重畳された画像データを受け取り、受け取った画像データを出力する(ステップS107)。   Finally, the image data output means 280 receives the image data on which the tint block pattern is superimposed, and outputs the received image data (step S107).

上述の処理により、コンテンツ情報を含む画像データに対する付加情報の埋め込みを終了する。   With the above processing, the embedding of the additional information into the image data including the content information is finished.

以上説明したように本実施の形態によると、領域生成手段240が、コンテンツ情報に重複しない範囲に埋込領域を生成する。したがって、画像データに地紋パターンを重畳することによって付加情報を付加したとしても、コンテンツ情報の見栄えが損なっていない画像データを、確実に生成することができる。   As described above, according to the present embodiment, the region generation unit 240 generates an embedded region in a range that does not overlap with content information. Therefore, even if additional information is added by superimposing a tint block pattern on image data, it is possible to reliably generate image data that does not impair the appearance of content information.

なお、可搬性記録媒体読取装置170が読み取り対象とする可搬性記録媒体は特に限定されるものではなく、SDカードの他、コンパクトフラッシュ(登録商標)メモリーカード、スマートメディア(登録商標)、メモリースティック(登録商標)、ピクチャーカードなどのメモリ系の記録媒体、その他如何なる着脱可能な記録媒体を、単独あるいは組み合わせて採用することもできる。   The portable recording medium to be read by the portable recording medium reader 170 is not particularly limited. In addition to the SD card, a compact flash (registered trademark) memory card, smart media (registered trademark), memory stick ( (Registered trademark), a memory-type recording medium such as a picture card, and any other removable recording medium can be used alone or in combination.

また、上記各機能は、アセンブラ、C、C++、C#、Java(登録商標)、などのレガシープログラミング言語やオブジェクト指向ブログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD、SDカード、MOなど、装置が読み取り可能な記録媒体に格納して頒布することができる。   Each of the above functions can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like. ROM, EEPROM , EPROM, flash memory, flexible disk, CD-ROM, CD-RW, DVD, SD card, MO and the like can be stored and distributed in a recording medium readable by the apparatus.

〔第2の実施の形態〕
以下に図8乃至図11を用いて、本発明の第2の実施の形態にかかる画像処理装置について説明する。本実施の形態は、画像形成装置における画像データの出力が、所定の範囲に限定されて出力される場合に、付加情報が埋め込まれた画像データにおけるコンテンツの見栄えを保つとともに、一定の付加情報の抽出精度を保つ点で、第1の実施の形態における画像処理装置と相違する。
[Second Embodiment]
An image processing apparatus according to the second embodiment of the present invention will be described below with reference to FIGS. In the present embodiment, when the output of the image data in the image forming apparatus is limited to a predetermined range, the appearance of the content in the image data in which the additional information is embedded is maintained, and certain additional information The image processing apparatus is different from the image processing apparatus according to the first embodiment in that the extraction accuracy is maintained.

ここで、画像形成装置における画像データの出力が、所定の範囲に限定されている例について、図8を用いて説明する。   Here, an example in which the output of image data in the image forming apparatus is limited to a predetermined range will be described with reference to FIG.

図8は、大きい矩形から順に、『画像データ』、『画像形成装置における描画が可能な範囲(以下、「描画領域」という。)』、および『画像データ内のコンテンツ領域』を示している。図8を用いて明らかになる問題は、画像形成装置のスペックにより、画像データの全範囲が描画領域に含まれない場合が生じ得る、ということである。かかる場合、画像データの端から地紋パターンを描画する埋込領域を生成しても、埋込領域が描画領域に含まれなければ地紋パターンが重畳された画像データを出力することができない。かかる問題を解消すべく、本実施の形態では、画像データに含まれるコンテンツ情報に重複しない埋込領域を、描画領域に基づいて生成することを特徴とする。   FIG. 8 shows “image data”, “range that can be drawn in the image forming apparatus (hereinafter referred to as“ drawing area ”)”, and “content area in the image data” in order from the large rectangle. The problem that becomes apparent with reference to FIG. 8 is that the entire range of image data may not be included in the drawing area depending on the specifications of the image forming apparatus. In this case, even if an embedding area for drawing a tint block pattern is generated from the end of the image data, image data on which the tint block pattern is superimposed cannot be output unless the embedding area is included in the drawing area. In order to solve this problem, the present embodiment is characterized in that an embedded region that does not overlap content information included in image data is generated based on the drawing region.

本実施の形態では、画像処理装置の一例として、プリンタドライバをインストールしたPC(Personal Computer)300を用いた例を説明する。図9は、本実施の形態にかかる画像処理装置としてのPC300のハードウエア構成を示す図である。なお、本実施の形態において、第1の実施の形態と実質的に同一の機能構成を有する構成要素については重複説明を省略する。   In this embodiment, an example using a PC (Personal Computer) 300 in which a printer driver is installed will be described as an example of an image processing apparatus. FIG. 9 is a diagram illustrating a hardware configuration of the PC 300 as the image processing apparatus according to the present embodiment. In the present embodiment, redundant description of components having substantially the same functional configuration as in the first embodiment will be omitted.

PC300は、CPU310、RAM320、ROM330、外部記憶装置340、通信インターフェース350、ユーザインターフェース360、バスライン370とを備える。また、PC300は、ネットワークを介してプリンタ500と接続されている。   The PC 300 includes a CPU 310, a RAM 320, a ROM 330, an external storage device 340, a communication interface 350, a user interface 360, and a bus line 370. The PC 300 is connected to the printer 500 via a network.

ROM330、または外部記憶装置340は、オペレーティングシステム、印刷データ生成プログラム等のソフトウェアを記憶する。また、CPU310は、こうしたROM330、外部記憶装置340に記憶されたソフトウェアを実行し、バスライン270に接続された各デバイスを総括的に制御する。RAM220は、CPU310の主メモリであるワークエリアなどとして機能する。外部記憶装置340は、ブートプログラム、オペレーティングシステム、各種のアプリケーションなどを記憶する。   The ROM 330 or the external storage device 340 stores software such as an operating system and a print data generation program. Further, the CPU 310 executes software stored in the ROM 330 and the external storage device 340, and comprehensively controls each device connected to the bus line 270. The RAM 220 functions as a work area that is a main memory of the CPU 310. The external storage device 340 stores a boot program, an operating system, various applications, and the like.

通信インターフェース350は、CPU310によって制御されることにより、PC300の外部装置と通信を行う。例えば、通信インターフェース350は、イーサネット(登録商標)インターフェース、IEEE1284インターフェース、またはその他のインターフェースにより構成される。   The communication interface 350 communicates with an external device of the PC 300 by being controlled by the CPU 310. For example, the communication interface 350 is configured by an Ethernet (registered trademark) interface, an IEEE1284 interface, or another interface.

ユーザインターフェース360は、CPU310から送られた情報の表示を行うとともに、ユーザから入力された情報をCPU310に伝えることができる。つまり、ユーザに対する情報の出力(提供)や、ユーザからの指示(情報)入力を行う。ここで、ユーザインターフェース360としては、例えばディスプレイ(LCTやCRT等)、ポインティングデバイス(マウス、タッチペン等)や、キーボード、もしくはそれらの組み合わせによって構成可能である。さらに他の構成として、タッチパネル、音声インターフェース等を利用することもできる。   The user interface 360 can display information sent from the CPU 310 and transmit information input from the user to the CPU 310. That is, information is output (provided) to the user and instructions (information) are input from the user. Here, the user interface 360 can be configured by, for example, a display (LCT, CRT, etc.), a pointing device (mouse, touch pen, etc.), a keyboard, or a combination thereof. As another configuration, a touch panel, a voice interface, or the like can be used.

そして、バスライン370は、これらCPU310と、ROM330、通信インターフェース350、ユーザインターフェース360等を電気的に接続している。なお、バスライン370には、アドレスバス、データバス等がある。   The bus line 370 electrically connects the CPU 310 to the ROM 330, the communication interface 350, the user interface 360, and the like. The bus line 370 includes an address bus and a data bus.

次に、本実施の形態に係るPC300が有する機能を、図10を用いて説明する。図10は、本実施の形態に係るPC300の機能ブロック図である。図10に示すように、PC300は、指示入力手段410、画像データ入力手段420、出力領域取得手段430、領域生成手段440、付加情報取得手段450、記憶手段460、情報埋込手段470、画像データ出力手段480を備える。   Next, functions of the PC 300 according to the present embodiment will be described with reference to FIG. FIG. 10 is a functional block diagram of PC 300 according to the present embodiment. As shown in FIG. 10, the PC 300 includes an instruction input unit 410, an image data input unit 420, an output area acquisition unit 430, an area generation unit 440, an additional information acquisition unit 450, a storage unit 460, an information embedding unit 470, and image data. Output means 480 is provided.

指示入力手段410は、PC300を操作するユーザからの指示を入力する。ユーザからの指示の例としては、画像データの入力指示や画像データの出力指示のほか、入力または出力の条件の設定指示を挙げることができる。また、付加情報の埋め込み指示の受付も行う。なお、指示入力手段410は、ユーザに選択肢を提示し、指示入力を促す構成を採用してもよい。ここで、指示入力手段410は、キーボードやディスプレイ等の、図9に示すユーザインターフェース360により実現される。   The instruction input unit 410 inputs an instruction from a user who operates the PC 300. Examples of instructions from the user include input instructions for image data and output instructions for image data, as well as instructions for setting input or output conditions. It also accepts additional information embedding instructions. Note that the instruction input unit 410 may employ a configuration that presents options to the user and prompts the user to input an instruction. Here, the instruction input means 410 is realized by a user interface 360 shown in FIG. 9 such as a keyboard or a display.

画像データ入力手段420は、付加情報の埋め込み対象となる画像データを生成、または取得することにより処理対象の画像データを入力し、入力した画像データを記憶手段460に格納する。なお、画像データ入力手段420は、通信インターフェース350により実現される。また、外部記憶装置340を介して、フロッピー(登録商標)ディスクやUSBメモリ等から画像データを取得する構成としてもよい。   The image data input unit 420 inputs image data to be processed by generating or acquiring image data to be embedded with additional information, and stores the input image data in the storage unit 460. The image data input unit 420 is realized by the communication interface 350. Alternatively, the image data may be acquired from a floppy (registered trademark) disk, a USB memory, or the like via the external storage device 340.

出力領域取得手段430は、ネットワークを介して接続されたプリンタ500から、描画が可能な範囲についての情報(以下、「描画領域情報」という。)を取得する。なお、出力領域取得手段430は、通信インターフェース350により実現される。そして、取得した描画領域情報を記憶手段460に格納する。   The output area acquisition unit 430 acquires information about a drawing range (hereinafter referred to as “drawing area information”) from the printer 500 connected via the network. The output area acquisition unit 430 is realized by the communication interface 350. Then, the acquired drawing area information is stored in the storage unit 460.

なお、出力領域取得手段430を、通信インターフェース350ではなく、CPU310により構成してもよい。さらに、プリンタ500から描画領域情報を取得するのではなく、ROM330または外部記憶装置340により構成される記憶手段460から、プリンタ500における描画領域情報を取得してもよい。なお、記憶手段460から描画領域情報を取得する場合、記憶手段460には、プリンタ500の識別情報とプリンタ500の描画領域情報とが関連づけて記憶されていることが望ましい。プリンタ500だけではなく、他の画像形成装置(プリンタやMFP等)との処理も対応可能となるからである。かかる場合、指示入力手段410から画像形成装置の指定を受け付け、受け付けた指定をキーとして記憶手段460を検索することにより、指定にかかる画像形成装置の描画領域情報を取得する。なお、記憶手段460における関連づけられたデータの一例を図11に示す。   Note that the output area acquisition unit 430 may be configured by the CPU 310 instead of the communication interface 350. Furthermore, instead of acquiring the drawing area information from the printer 500, the drawing area information in the printer 500 may be acquired from the storage unit 460 configured by the ROM 330 or the external storage device 340. When the drawing area information is acquired from the storage unit 460, it is desirable that the storage unit 460 stores the identification information of the printer 500 and the drawing area information of the printer 500 in association with each other. This is because processing not only with the printer 500 but also with other image forming apparatuses (such as a printer and an MFP) can be handled. In such a case, the designation of the image forming apparatus is accepted from the instruction input unit 410, and the storage unit 460 is searched using the accepted designation as a key, thereby acquiring the drawing area information of the designated image forming apparatus. An example of the associated data in the storage unit 460 is shown in FIG.

領域生成手段440は、出力領域取得手段430により取得された描画領域情報とコンテンツ情報とに基づき、埋込領域を画像データ中に生成する。ここで、領域生成手段440は、コンテンツ情報の周囲であって、かつ描画領域内に埋込領域を生成する。なお、領域生成手段440は、図9に示すCPU310により実現される。   The area generation unit 440 generates an embedding area in the image data based on the drawing area information and the content information acquired by the output area acquisition unit 430. Here, the area generation unit 440 generates an embedded area around the content information and in the drawing area. The area generation unit 440 is realized by the CPU 310 shown in FIG.

領域生成手段440は、記憶手段460から処理対象の画像データを取得し、画像データに含まれるコンテンツ領域を取得する。なお、コンテンツ領域の取得については、上述の実施の形態1における領域生成手段240の処理と同じであるため、ここでの説明は省略する。   The area generation unit 440 acquires image data to be processed from the storage unit 460 and acquires a content area included in the image data. The acquisition of the content area is the same as the process of the area generation unit 240 in the above-described first embodiment, and thus description thereof is omitted here.

また、領域生成手段440は、コンテンツ領域とは別に、記憶手段460から描画領域情報を読み出す。そして、読み出した描画領域情報の範囲内であって、上述のコンテンツ領域の周囲に埋込領域を生成する。なお、両者の位置関係は、各領域の頂点座標により表されても良いし、両領域の重ね合わせ処理(オーバーレイ)を行った後に、論理演算を行ってもよい。   Further, the area generation unit 440 reads the drawing area information from the storage unit 460 separately from the content area. Then, an embedded area is generated around the above-described content area within the range of the read drawing area information. The positional relationship between the two may be represented by the vertex coordinates of each region, or a logical operation may be performed after performing the overlay processing (overlay) of both regions.

さらに、領域生成手段440は、指示入力手段410を介してユーザから入力された埋込領域に関する形状指示(以下、「領域形状」という。)を考慮して埋込領域を生成する構成を採用してもよい。具体的には、取得されたコンテンツ領域内に領域形状に対応した埋込領域を生成することで、ユーザ所望の形状をもって、地紋パターンを付加することができる。なお、かかる構成を採用する場合、領域生成手段440は、指示入力手段410を介して入力された形状指示に応じたテンプレートを記憶手段460から取得することで、ユーザ所望の形状を有する埋込領域を生成する。   Further, the region generating unit 440 adopts a configuration that generates an embedded region in consideration of a shape instruction (hereinafter referred to as “region shape”) regarding the embedded region input from the user via the instruction input unit 410. May be. Specifically, by generating an embedded region corresponding to the region shape in the acquired content region, a tint block pattern can be added with a shape desired by the user. When such a configuration is adopted, the region generation unit 440 obtains a template corresponding to the shape instruction input via the instruction input unit 410 from the storage unit 460, so that an embedded region having a user-desired shape is obtained. Is generated.

なお、埋込領域の生成にあたっては、描画領域の端部から埋込領域を生成することが望ましい。描画領域の端部から埋込領域を生成した場合、出力結果である画像データの端部に地紋パターンが重畳されることになり、スキャナ等の走査の際、いち早く地紋パターンを検知可能となるからである。   In generating the embedded region, it is desirable to generate the embedded region from the end of the drawing region. When an embedding area is generated from the end of the drawing area, the tint block pattern is superimposed on the end of the image data as the output result, and the tint block pattern can be detected quickly when scanning by a scanner or the like. It is.

ここで、描画が可能な範囲が設定されている画像形成装置を出力先に指定した場合であって、画像データ中のコンテンツ領域のみに基づいて付加情報を付加した場合と、本実施の形態における領域生成手段440とを比較する。コンテンツ領域のみに基づいて付加情報を付加した場合、描画データでは正しく重畳されていた地紋パターンが実際に出力された出力結果では欠落してしまい、付加情報を正しく付加できない場合が生じ得る。しかし、本実施の形態にかかる領域生成手段440は、コンテンツ領域のみではなく、コンテンツ領域と描画領域情報とに基づいて地紋パターンを重畳する。したがって、出力結果において地紋パターンが欠落することなく、確実に、かつ、画像データ中のコンテンツの見栄えを損なうことなく、付加情報を画像データに付加することが可能となる。   Here, when an image forming apparatus in which a range in which drawing can be performed is set is designated as an output destination and additional information is added based only on the content area in the image data, and in this embodiment The region generation means 440 is compared. When the additional information is added based only on the content area, the tint block pattern that is correctly superimposed in the drawing data may be lost in the output result that is actually output, and the additional information may not be correctly added. However, the area generation unit 440 according to the present embodiment superimposes the background pattern not only based on the content area but also based on the content area and the drawing area information. Therefore, it is possible to add the additional information to the image data without missing the tint block pattern in the output result, and without impairing the appearance of the content in the image data.

以下、付加情報取得手段450、記憶手段460、情報埋込手段470、画像データ出力手段480については、実施の形態1における、付加情報取得手段250、記憶手段260、情報埋込手段270、画像データ出力手段280と同じ処理を行うため、ここでの説明は省略する。   Hereinafter, the additional information acquisition unit 450, the storage unit 460, the information embedding unit 470, and the image data output unit 480 will be described with respect to the additional information acquisition unit 250, the storage unit 260, the information embedding unit 270, and the image data in the first embodiment. Since the same processing as that of the output unit 280 is performed, description thereof is omitted here.

次に、上記のように構成された本実施の形態にかかる画像処理装置における処理の流れについて説明する。図12は、本実施の形態にかかる画像処理装置における処理の流れを示すフローチャートである。   Next, the flow of processing in the image processing apparatus according to this embodiment configured as described above will be described. FIG. 12 is a flowchart showing the flow of processing in the image processing apparatus according to this embodiment.

まず、指示入力手段410は、画像データの出力指示をユーザから受け付ける(ステップS201)。このとき、指示入力手段410は、画像データに地紋パターンを埋め込んで出力指示も、併せてユーザから入力する。   First, the instruction input unit 410 receives an image data output instruction from the user (step S201). At this time, the instruction input unit 410 also inputs an output instruction from the user by embedding a tint block pattern in the image data.

次に、画像データ入力手段420は、付加情報の埋め込み対象となる、処理対象の画像データを入力する(ステップS202)。なお、入力された画像データは、PC300内のROM330、または外部記憶装置340に格納される。   Next, the image data input means 420 inputs image data to be processed, which is to be embedded with additional information (step S202). The input image data is stored in the ROM 330 or the external storage device 340 in the PC 300.

続いて、出力領域取得手段430は、出力先の画像形成装置における、描画が可能な範囲についての情報(描画領域情報)を取得する(ステップS203)。   Subsequently, the output area acquisition unit 430 acquires information (drawing area information) about a drawable range in the output destination image forming apparatus (step S203).

そして、領域生成手段440は、画像データから取得されたコンテンツ領域と、記憶手段460から読み出した描画領域情報とに基づいて、埋込領域を生成する(ステップS204)。   Then, the area generation unit 440 generates an embedding area based on the content area acquired from the image data and the drawing area information read from the storage unit 460 (step S204).

以下、取得した付加情報の変換(ステップS205)、埋め込み領域への地紋パターンの重畳(ステップS206)、および地紋パターンが重畳された画像データの出力(ステップS207)は、第1の実施の形態における処理フロー(ステップS105〜S107)と同一であるため、ここでの説明は省略する。   Hereinafter, the conversion of the acquired additional information (step S205), the superimposition of the tint block pattern on the embedding area (step S206), and the output of the image data on which the tint block pattern is superimposed (step S207) in the first embodiment Since this is the same as the processing flow (steps S105 to S107), description thereof is omitted here.

以上説明したように、本実施の形態によると、領域生成手段440が、コンテンツ領域のみではなく、コンテンツ領域と描画領域情報とに基づいて地紋パターンを重畳する。したがって、出力結果において地紋パターンが欠落することなく、確実に、かつ、画像データ中のコンテンツの見栄えを損なうことなく、付加情報を画像データに付加することが可能となる。   As described above, according to the present embodiment, the area generation unit 440 superimposes the tint block pattern based not only on the content area but also on the content area and the drawing area information. Therefore, it is possible to add the additional information to the image data without missing the tint block pattern in the output result, and without impairing the appearance of the content in the image data.

なお、第1の実施の形態においてはMFP100を情報識別装置として、第2の実施の形態においてはPC300を情報識別装置として本発明の説明を行ったが、相互に適応可能であることは言うまでもない。   In the first embodiment, the present invention has been described with the MFP 100 as an information identification device and the PC 300 as an information identification device in the second embodiment. However, it goes without saying that the present invention can be applied to each other. .

また、外部記憶装置340としては、特に限定されるものではなく、SDカードの他、コンパクトフラッシュ(登録商標)メモリーカード、スマートメディア(登録商標)、メモリースティック(登録商標)、ピクチャーカードなどのメモリ系の記録媒体、その他如何なる着脱可能な記録媒体を、単独あるいは組み合わせて採用することもできる。   Further, the external storage device 340 is not particularly limited, and a memory system such as an SD card, a compact flash (registered trademark) memory card, a smart media (registered trademark), a memory stick (registered trademark), a picture card, or the like. These recording media and any other removable recording media can be used alone or in combination.

また上記各機能は、アセンブラ、C、C++、C#、Java(登録商標)、などのレガシープログラミング言語やオブジェクト指向ブログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD、SDカード、MOなど装置可読な記録媒体に格納して頒布することができる。   Each of the above functions can be realized by a computer-executable program written in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like. It can be stored in a device-readable recording medium such as EPROM, flash memory, flexible disk, CD-ROM, CD-RW, DVD, SD card, MO, and distributed.

また、情報識別装置としては、上述した実施形態の複合機能を有したMFP100やPC300に限られるものではなく、特定の用途に応じて、サーバ、複写機やプリンタや印刷機などの画像形成装置、携帯電話やPDAや携帯型電子遊技装置などの携帯情報端末、スキャナなどの画像読取装置、デジタルカメラやデジタルビデオカメラなどの撮像装置、テレビジョンやHDDレコーダやオーディオセットなどの音声映像入出力置、カーナビゲーションなどの車載電子装置またはデジタル家電機器など、着脱可能な記録媒体との情報のやり取りが可能な機器であれば、本発明の情報抽出装置の一例として構成することができる。   Further, the information identification apparatus is not limited to the MFP 100 or the PC 300 having the composite function of the above-described embodiment, and an image forming apparatus such as a server, a copier, a printer, a printing machine, or the like according to a specific application. Mobile information terminals such as mobile phones, PDAs and portable electronic gaming devices, image reading devices such as scanners, imaging devices such as digital cameras and digital video cameras, audio / video input / output devices such as televisions, HDD recorders and audio sets, Any device capable of exchanging information with a removable recording medium, such as an in-vehicle electronic device such as a car navigation system or a digital home appliance, can be configured as an example of the information extraction device of the present invention.

なお、本発明は、上記実施の形態で説明したものに限らず、種々の変形実施が可能である。また、第1、および第2の実施の形態で説明したものに限定されず、これらと均等な手法も本発明の技術的範囲に含まれる。   The present invention is not limited to the one described in the above embodiment, and various modifications can be made. Moreover, it is not limited to what was demonstrated by 1st and 2nd embodiment, The method equivalent to these is also contained in the technical scope of this invention.

第1の実施の形態にかかる画像処理装置としてのMFP100のハードウエア構成を示す図である。1 is a diagram illustrating a hardware configuration of an MFP 100 as an image processing apparatus according to a first embodiment. 第1の実施の形態にかかる画像処理装置としてのMFP100の機能ブロック図である。2 is a functional block diagram of an MFP 100 as an image processing apparatus according to the first embodiment. FIG. 第1の実施の形態における画像処理装置が付加情報を埋め込んだ例(その1)を示す図である。It is a figure which shows the example (the 1) in which the image processing apparatus in 1st Embodiment embedded the additional information. 第1の実施の形態における画像処理装置が付加情報を埋め込んだ例(その2)を示す図である。It is a figure which shows the example (the 2) in which the image processing apparatus in 1st Embodiment embed | added additional information. 情報埋込手段270の処理の一例を示す図である。It is a figure which shows an example of a process of the information embedding means. 情報埋込手段270の処理の一例を示す図である。It is a figure which shows an example of a process of the information embedding means. 第1の実施の形態における処理フロー図である。It is a processing flow figure in a 1st embodiment. 描画領域と画像データとの関係を説明する図である。It is a figure explaining the relationship between a drawing area | region and image data. 第2の実施の形態かかる画像処理装置としてのPC300のハードウエア構成を示す図である。It is a figure which shows the hardware constitutions of PC300 as an image processing apparatus concerning 2nd Embodiment. 第2の実施の形態にかかる画像処理装置としてのPC300の機能ブロック図である。It is a functional block diagram of PC300 as an image processing apparatus concerning 2nd Embodiment. 記憶手段460が格納するデータの一例を示す図である。It is a figure which shows an example of the data which the memory | storage means 460 stores. 第2の実施の形態における処理フロー図である。It is a processing flow figure in a 2nd embodiment. 従来技術を用いて地紋パターンを重畳した画像データを示す図である。It is a figure which shows the image data which superimposed the tint block pattern using the prior art.

符号の説明Explanation of symbols

100 MFP
110 コントローラ
120 通信インターフェース
130 スキャナエンジン
140 プリンタエンジン
150 FAXボード
160 ユーザインターフェース
170 可搬性記録媒体読取装置
180 HDD
190 バスライン
210 指示入力手段
220 画像データ入力手段
230 サイズ検出手段
240 領域生成手段
250 付加情報取得手段
260 記憶手段
270 情報埋込手段
280 画像データ出力手段
300 PC
310 CPU
320 RAM
330 ROM
340 外部記憶装置
350 通信インターフェース
360 ユーザインターフェース
370 バスライン
410 指示入力手段
420 画像データ入力手段
430 出力領域取得手段
440 領域生成手段
450 付加情報取得手段
460 記憶手段
470 情報埋込手段
480 画像データ出力手段
500 プリンタ
100 MFP
DESCRIPTION OF SYMBOLS 110 Controller 120 Communication interface 130 Scanner engine 140 Printer engine 150 FAX board 160 User interface 170 Portable recording medium reader 180 HDD
190 Bus line 210 Instruction input means 220 Image data input means 230 Size detection means 240 Area generation means 250 Additional information acquisition means 260 Storage means 270 Information embedding means 280 Image data output means 300 PC
310 CPU
320 RAM
330 ROM
340 External storage device 350 Communication interface 360 User interface 370 Bus line 410 Instruction input means 420 Image data input means 430 Output area acquisition means 440 Area generation means 450 Additional information acquisition means 460 Storage means 470 Information embedding means 480 Image data output means 500 Printer

Claims (16)

コンテンツ情報を含む画像データに付加情報を埋め込む画像処理装置において、
前記コンテンツ情報に重複しない、前記付加情報を埋め込むための埋込領域を前記画像データに生成する領域生成手段と、
生成された前記埋込領域に前記付加情報を埋め込む情報埋込手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus that embeds additional information in image data including content information,
A region generating means for generating, in the image data, an embedding region for embedding the additional information that does not overlap with the content information;
Information embedding means for embedding the additional information in the generated embedded region;
An image processing apparatus comprising:
前記領域生成手段は、前記画像データ中であって前記コンテンツ情報の周囲に、前記埋込領域を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area generation unit generates the embedded area in the image data and around the content information. 前記領域生成手段は、前記コンテンツ情報の外接矩形を生成し、生成された該外接矩形の周囲に付加情報を埋め込むための埋込領域を生成することを特徴とする請求項1または2に記載の画像処理装置。   The said area | region production | generation means produces | generates the circumscribed rectangle of the said content information, and produces | generates the embedding area | region for embedding additional information around the produced | generated circumscribed rectangle. Image processing device. 前記領域生成手段は、前記画像データの端部と前記コンテンツ情報との距離に応じて、前記埋込領域の範囲を決定することを特徴とする請求項1乃至3に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area generation unit determines the range of the embedded area according to a distance between an end of the image data and the content information. 前記領域生成手段は、前記画像データの端部と前記コンテンツ情報との距離、および付加情報の再現性を確保するための閾値に基づいて、前記埋込領域の範囲を決定することを特徴とする請求項1乃至3に記載の画像処理装置。   The area generation means determines the range of the embedded area based on a distance between an end of the image data and the content information and a threshold value for ensuring reproducibility of additional information. The image processing apparatus according to claim 1. 前記付加情報は、前記画像データの種別を表す種別情報、前記画像データの出力履歴である履歴情報のうち、少なくとも一つであることを特徴とする請求項1乃至5に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the additional information is at least one of type information indicating a type of the image data and history information which is an output history of the image data. 前記領域生成手段は、付加情報が埋め込まれた画像データを出力する出力手段が描画可能な範囲についての情報である描画領域情報を取得し、取得された前記描画領域情報、および前記コンテンツ情報とに基づいて前記埋込領域を生成することを特徴とする請求項1乃至6に記載の画像処理装置。   The area generation unit acquires drawing area information that is information about a range that can be drawn by an output unit that outputs image data in which additional information is embedded, and includes the acquired drawing area information and the content information. The image processing apparatus according to claim 1, wherein the embedded region is generated based on the image. コンテンツ情報を含む画像データに付加情報を埋め込む画像処理方法において、
前記コンテンツ情報に重複しない、前記付加情報を埋め込むための埋込領域を前記画像データに生成する領域生成ステップと、
生成された前記埋込領域に前記付加情報を埋め込む情報埋込ステップと、
を有することを特徴とする画像処理方法。
In an image processing method for embedding additional information in image data including content information,
A region generating step for generating an embedded region in the image data for embedding the additional information, which does not overlap the content information;
An information embedding step of embedding the additional information in the generated embedded region;
An image processing method comprising:
前記領域生成ステップは、前記画像データ中であって前記コンテンツ情報の周囲に、前記埋込領域を生成することを特徴とする請求項7に記載の画像処理方法。   The image processing method according to claim 7, wherein the region generation step generates the embedded region in the image data and around the content information. 前記領域生成ステップは、前記コンテンツ情報の外接矩形の周囲に付加情報を埋め込むための領域を生成することを特徴とする請求項7または8に記載の画像処理方法。   9. The image processing method according to claim 7, wherein the area generation step generates an area for embedding additional information around a circumscribed rectangle of the content information. 前記領域生成ステップは、前記画像データの端部と前記コンテンツ情報との距離に応じて、前記埋込領域の範囲を決定することを特徴とする請求項7乃至9に記載の画像処理方法。   The image processing method according to claim 7, wherein the region generation step determines a range of the embedded region according to a distance between an end portion of the image data and the content information. 前記領域生成ステップは、前記画像データの端部と前記コンテンツ情報との距離、および付加情報の再現性を確保するための閾値に基づいて、前記埋込領域の範囲を決定することを特徴とする請求項7乃至9に記載の画像処理方法。   In the region generation step, the range of the embedded region is determined based on a distance between an edge of the image data and the content information and a threshold value for ensuring reproducibility of the additional information. The image processing method according to claim 7. 前記付加情報は、前記画像データの種別を表す種別情報、前記画像データの出力履歴である履歴情報のうち、すくなくとも一つであることを特徴とする請求項7乃至11に記載の画像処理方法。   The image processing method according to claim 7, wherein the additional information is at least one of type information representing a type of the image data and history information which is an output history of the image data. 前記領域生成ステップは、付加情報が埋め込まれた画像データを出力する出力手段が描画可能な範囲についての情報である描画領域情報を取得し、取得された前記描画領域情報、および前記コンテンツ情報とに基づいて前記埋込領域を生成することを特徴とする請求項8乃至13に記載の画像処理方法。   The area generation step acquires drawing area information that is information about a range that can be drawn by an output unit that outputs image data in which additional information is embedded, and includes the acquired drawing area information and the content information. The image processing method according to claim 8, wherein the embedded region is generated based on the image. コンピュータに、請求項8乃至14に記載の画像処理方法を実行させることを特徴とするプログラム。   A program causing a computer to execute the image processing method according to claim 8. 請求項15に記載のプログラムを記録したことを特徴とするコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 15 is recorded.
JP2008051302A 2007-03-19 2008-02-29 Image processing device, image processing method, program, and recording medium Pending JP2008263593A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008051302A JP2008263593A (en) 2007-03-19 2008-02-29 Image processing device, image processing method, program, and recording medium
US12/076,460 US8180102B2 (en) 2007-03-19 2008-03-19 Image processing device, image processing method, program, and recording medium
EP08250975.3A EP1973330B1 (en) 2007-03-19 2008-03-19 Image processing apparatus and image processing method
CN2008100951675A CN101277364B (en) 2007-03-19 2008-03-19 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007070827 2007-03-19
JP2008051302A JP2008263593A (en) 2007-03-19 2008-02-29 Image processing device, image processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2008263593A true JP2008263593A (en) 2008-10-30

Family

ID=39985717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008051302A Pending JP2008263593A (en) 2007-03-19 2008-02-29 Image processing device, image processing method, program, and recording medium

Country Status (2)

Country Link
JP (1) JP2008263593A (en)
CN (1) CN101277364B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120002224A1 (en) * 2010-07-02 2012-01-05 Toshiba Tec Kabushiki Kaisha Image forming apparatus to add specific data to image, and image forming method of adding the specific data to the image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08154177A (en) * 1994-09-27 1996-06-11 Ricoh Co Ltd Image forming device
JP2000175026A (en) * 1998-12-10 2000-06-23 Seiko Epson Corp Image forming device
JP2005117589A (en) * 2003-10-10 2005-04-28 Canon Inc Information processing apparatus and information processing method
JP2005323005A (en) * 2004-05-06 2005-11-17 Canon Inc Document information embedding method and apparatus
JP2007194997A (en) * 2006-01-20 2007-08-02 Sharp Corp Image-recording apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08154177A (en) * 1994-09-27 1996-06-11 Ricoh Co Ltd Image forming device
JP2000175026A (en) * 1998-12-10 2000-06-23 Seiko Epson Corp Image forming device
JP2005117589A (en) * 2003-10-10 2005-04-28 Canon Inc Information processing apparatus and information processing method
JP2005323005A (en) * 2004-05-06 2005-11-17 Canon Inc Document information embedding method and apparatus
JP2007194997A (en) * 2006-01-20 2007-08-02 Sharp Corp Image-recording apparatus

Also Published As

Publication number Publication date
CN101277364B (en) 2011-10-12
CN101277364A (en) 2008-10-01

Similar Documents

Publication Publication Date Title
JP5147429B2 (en) Image processing apparatus, image processing method, and program thereof
US20070279672A1 (en) Image processing apparatus and image processing method
JP4819723B2 (en) Information extraction apparatus, information extraction method, information extraction program, and recording medium
JP2009182512A (en) Apparatus, method, and program for image processing, and recording medium
JP2002171400A (en) Image processor
JP2006303870A (en) Image forming apparatus and method
JP2008154106A (en) Concealing method, image processor and image forming apparatus
JP2009165088A (en) Image processor
US8325970B2 (en) Apparatus, method, and computer product for image processing
EP1973330B1 (en) Image processing apparatus and image processing method
US8264738B2 (en) Image forming apparatus, image forming method, and computer-readable storage medium for image forming program
JP5004828B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2008160810A (en) Image scanning device, and image scanning system
JP4135758B2 (en) Image forming apparatus, image forming system, and program
JP4757205B2 (en) Image processing apparatus, image processing system, and image processing program
US20060274390A1 (en) Image processing device, image processing method, and image processing program product allowing reproduction of information lost in printing
JP2008229912A (en) Image forming apparatus and image forming method
JP4409466B2 (en) Image processing apparatus and image processing program
JP2008263593A (en) Image processing device, image processing method, program, and recording medium
JP4587123B2 (en) Image processing apparatus, image processing method, and image processing program
JP4821629B2 (en) Image processing apparatus and image processing program
JP2007312049A (en) Information embedding processing system, additional information embedding device, and additional information restoring device
JP2009005211A (en) Image processing device and program
JP4998421B2 (en) Image forming apparatus and image forming program
JP2001218008A (en) Picture processor, picture processing method and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120515