JP2008263593A - Image processing device, image processing method, program, and recording medium - Google Patents
Image processing device, image processing method, program, and recording medium Download PDFInfo
- Publication number
- JP2008263593A JP2008263593A JP2008051302A JP2008051302A JP2008263593A JP 2008263593 A JP2008263593 A JP 2008263593A JP 2008051302 A JP2008051302 A JP 2008051302A JP 2008051302 A JP2008051302 A JP 2008051302A JP 2008263593 A JP2008263593 A JP 2008263593A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image data
- area
- image processing
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像データに付加情報を埋め込む画像処理装置、画像処理方法、プログラム、および記録媒体に関し、特に、画像データに対する付加情報を埋め込み方法に関する。 The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium for embedding additional information in image data, and more particularly to a method for embedding additional information in image data.
近年、画像処理技術の向上によって、原本と、原本から作成された複写物とが容易に区別できないほど忠実な複写が可能となってきている。このため、偽造防止の観点から、紙幣や有価証券等のような特殊原稿については、複写を全く行うことができないようにするか、あるいは、正しく複写を行わせない措置を講ずる必要性が高まっている。 In recent years, due to improvements in image processing technology, it has become possible to make faithful copying so that the original and a copy made from the original cannot be easily distinguished. For this reason, from the standpoint of preventing counterfeiting, there is an increasing need to prevent special manuscripts such as banknotes and securities from being copied at all, or to take measures not to copy them correctly. Yes.
このような背景から、特殊原稿や機密文書等の複写に対し規制を及ぼすことを目的とする種々の方法が提案されている。 Against this background, various methods have been proposed for the purpose of restricting the copying of special manuscripts and confidential documents.
例えば、特許文献1では、画像データにドットパターンを重畳することで、該画像データの複写を規制する方法が提案されている。この方法では、読み取った画像データから、予め格納されている複写禁止パターンと同一のドットパターンが検知された場合、読み取った画像データは複写禁止であると判断し、その画像データに対する複写制御を規制する。
ここで、特許文献1のような画像データにドットパターンを重畳する方法の問題点について説明する。特許文献1で提案されている方法では、コンテンツ情報を含む画像データに対して出力禁止を示すドットパターンを全面的に重畳する。したがって、画像データに文書や写真等のコンテンツ情報にもドットパターンが重畳されてしまうため、画像データに含まれるコンテンツ情報の見栄えが低下してしまう(図13参照)。
Here, the problem of the method of superimposing the dot pattern on the image data as in
本発明は、上記課題に鑑みてなされたものであり、画像データに付加情報を埋め込む場合であっても、該画像データにかかるコンテンツ情報の見栄えを保つことができる画像処理装置、画像処理方法、プログラム、および記録媒体を提供することを目的とする。 The present invention has been made in view of the above problems, and even when additional information is embedded in image data, an image processing apparatus, an image processing method, and an image processing apparatus that can maintain the appearance of content information related to the image data. It is an object to provide a program and a recording medium.
かかる課題を解決するために、本発明に係る画像処理装置は、コンテンツ情報を含む画像データに、前記コンテンツ情報に重複しない、付加情報を埋め込むための埋込領域を生成する領域生成手段と、生成された前記埋込領域に前記付加情報を埋め込む情報埋込手段とを備えたことを特徴とする。 In order to solve such a problem, an image processing apparatus according to the present invention includes an area generation unit that generates an embedded area for embedding additional information that does not overlap with the content information in image data including content information, and generation And an information embedding unit for embedding the additional information in the embedded region.
さらに、本発明に係る画像処理装置において、前記領域生成手段は、画像データ中であってコンテンツ情報の周囲に、前記埋込領域を生成することを特徴としてもよい。 Further, in the image processing apparatus according to the present invention, the area generation means may generate the embedded area in the image data and around the content information.
さらに、本発明に係る画像処理装置において、前記領域生成手段は、前記コンテンツ情報の外接矩形を生成し、生成された該外接矩形の周囲に付加情報を埋め込むための埋込領域を生成することを特徴としてもよい。 Furthermore, in the image processing apparatus according to the present invention, the region generating unit generates a circumscribed rectangle of the content information and generates an embedding region for embedding additional information around the generated circumscribed rectangle. It may be a feature.
さらに、本発明に係る画像処理装置において、前記領域生成手段は、前記画像データの端部と前記コンテンツ情報との距離に応じて、前記埋込領域の範囲を決定することを特徴としてもよい。 Furthermore, in the image processing apparatus according to the present invention, the area generation unit may determine the range of the embedded area according to a distance between an end of the image data and the content information.
さらに、本発明に係る画像処理装置において、前記領域生成手段は、前記画像データの端部と前記コンテンツ情報との距離、および付加情報の再現性を確保するための閾値に基づいて、前記埋込領域の範囲を決定することを特徴としてもよい。 Furthermore, in the image processing apparatus according to the present invention, the region generation unit is configured to perform the embedding based on a distance between the edge of the image data and the content information and a threshold value for ensuring reproducibility of the additional information. The range of the region may be determined.
さらに、本発明に係る画像処理装置において、前記付加情報は、前記画像データの種別を表す種別情報、前記画像データの出力履歴である履歴情報のうち、少なくとも一つであることを特徴としてもよい。 Further, in the image processing apparatus according to the present invention, the additional information may be at least one of type information indicating a type of the image data and history information which is an output history of the image data. .
さらに、本発明に係る画像処理装置において、前記領域生成手段は、付加情報が埋め込まれた画像データを出力する出力手段が描画可能な範囲についての情報である描画領域情報を取得し、取得された前記描画領域情報、および前記コンテンツ情報とに基づいて前記埋込領域を生成することを特徴としてもよい。 Furthermore, in the image processing apparatus according to the present invention, the area generation unit acquires and acquires drawing area information that is information about a range that can be drawn by an output unit that outputs image data in which additional information is embedded. The embedding area may be generated based on the drawing area information and the content information.
また、本発明に係る画像処理方法は、コンテンツ情報を含む画像データに、前記コンテンツ情報に重複しない、付加情報を埋め込むための埋込領域を生成する領域生成ステップと、生成された前記埋込領域に前記付加情報を埋め込む情報埋込ステップと、を有することを特徴とする。 The image processing method according to the present invention includes an area generation step of generating an embedded area for embedding additional information that does not overlap with the content information in the image data including the content information, and the generated embedded area And an information embedding step of embedding the additional information.
さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記画像データ中であって前記コンテンツ情報の周囲に、前記埋込領域を生成するステップであることを特徴としてもよい。 Furthermore, in the image processing method according to the present invention, the region generation step may be a step of generating the embedded region in the image data and around the content information.
さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記コンテンツ情報の外接矩形の周囲に付加情報を埋め込むための領域を生成するステップであることを特徴としてもよい。 Furthermore, in the image processing method according to the present invention, the region generating step may be a step of generating a region for embedding additional information around a circumscribed rectangle of the content information.
さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記画像データの端部と前記コンテンツ情報との距離に応じて、前記埋込領域の範囲を決定するステップであることを特徴としてもよい。 Furthermore, in the image processing method according to the present invention, the region generation step is a step of determining a range of the embedded region according to a distance between an end of the image data and the content information. Also good.
さらに、本発明に係る画像処理方法において、前記領域生成ステップは、前記画像データの端部と前記コンテンツ情報との距離、および付加情報の再現性を確保するための閾値に基づいて、前記埋込領域の範囲を決定するステップであることを特徴としてもよい。 Furthermore, in the image processing method according to the present invention, the region generation step includes the embedding based on a distance between the edge of the image data and the content information, and a threshold value for ensuring reproducibility of the additional information. It may be a step of determining the range of the region.
さらに、本発明に係る画像処理方法において、前記付加情報は、前記画像データの種別を表す種別情報、前記画像データの出力履歴である履歴情報のうち、すくなくとも一つであることを特徴としてもよい。 Further, in the image processing method according to the present invention, the additional information may be at least one of type information representing a type of the image data and history information which is an output history of the image data. .
さらに、本発明に係る画像処理方法において、前記領域生成ステップは、付加情報が埋め込まれた画像データを出力する出力手段が描画可能な範囲についての情報である描画領域情報を取得し、取得された前記描画領域情報、および前記コンテンツ情報とに基づいて前記埋込領域を生成することを特徴としてもよい。 Further, in the image processing method according to the present invention, the region generation step acquires drawing region information that is information about a range that can be drawn by an output unit that outputs image data in which additional information is embedded. The embedding area may be generated based on the drawing area information and the content information.
また、本発明に係るプログラムは、本発明の画像処理方法を実行させることを特徴とする。 The program according to the present invention is characterized by causing the image processing method of the present invention to be executed.
また、本発明に係る記録媒体は、コンピュータが読み取り可能な記録媒体であり、本発明のプログラムを記録したことを特徴とする。 The recording medium according to the present invention is a computer-readable recording medium and records the program of the present invention.
本発明によれば、付加情報が埋め込まれた画像データにおけるコンテンツ情報の見栄えを向上させることが可能となる。 According to the present invention, it is possible to improve the appearance of content information in image data in which additional information is embedded.
以下、添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、以下に説明する本実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施の形態で説明される構成の全てが本発明の必須の構成要件ではない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, this Embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all of the configurations described in this embodiment are not essential configuration requirements of the present invention.
〔第1の実施の形態〕
以下に、図1乃至図7を用いて、本発明に係る第1の実施の形態における画像処理装置について説明する。なお、本実施の形態では、画像処理装置の一例として、コピー、ファクシミリ、スキャナ、プリント等の複合機能を有するMFP(Multi Functional Peripheral)100を用いて説明する。なお、画像処理装置の適用例としては、MFP100に限られることなる、ファクシミリ装置、プリンタ装置、パーソナルコンピュータ、ゲーム機器、携帯電話機、カーナビゲーション装置等が含まれることは言うまでもない。
[First Embodiment]
The image processing apparatus according to the first embodiment of the present invention will be described below with reference to FIGS. In this embodiment, an example of an image processing apparatus will be described using an MFP (Multi Functional Peripheral) 100 having a composite function such as copying, facsimile, scanner, and printing. Needless to say, application examples of the image processing apparatus include a facsimile apparatus, a printer apparatus, a personal computer, a game machine, a mobile phone, a car navigation apparatus, and the like, which are limited to the MFP 100.
ここで、本明細書で用いる文言を次のように定義する。「コンテンツ情報」とは、画像データが有する文字、文字列、図、表、写真などの各種コンテンツを意味する。「地紋パターン」とは、画像データに情報を埋め込むための模様を意味し、例えば、ドットパターン、バーコート、2次元バーコード(QRコード)等を意味する。 Here, the terms used in this specification are defined as follows. “Content information” means various contents such as characters, character strings, diagrams, tables, and photographs included in image data. The “background pattern” means a pattern for embedding information in image data, and means, for example, a dot pattern, a bar coat, a two-dimensional barcode (QR code), or the like.
図1は、本発明の画像処理装置の一例である、MFP100のハードウエア構成を示す図である。図1に示すように、MFP100は、コントローラ110、通信インターフェース120、スキャナエンジン130、プリンタエンジン140、FAXボード150、ユーザインターフェース160、可搬性記録媒体読取装置170、HDD(Hard Disk Drive)180、バスライン190により構成される。
FIG. 1 is a diagram illustrating a hardware configuration of an MFP 100 as an example of an image processing apparatus according to the present invention. As shown in FIG. 1, the MFP 100 includes a controller 110, a communication interface 120, a scanner engine 130, a printer engine 140, a FAX board 150, a user interface 160, a portable recording
コントローラ110は、MFP100の全体の処理を制御する。
コントローラ110はその内部構成として、CPU(Central Prosessing Unit)111、CPU111を制御するプログラム等の固定的なデータを予め格納したROM(Read Only Memory)112、各種データを一時的に記憶するエリアを形成するメモリ(メインメモリ)113、とから構成される。
The controller 110 controls the overall processing of the MFP 100.
The controller 110 includes, as its internal configuration, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112 in which fixed data such as a program for controlling the CPU 111 is stored in advance, and an area for temporarily storing various data. Memory (main memory) 113.
通信インターフェース120は、コントローラ110によって制御され、MFP100の外部装置との通信を行う。なお、通信インターフェース120は、イーサネット(登録商標)インターフェース、IEEE1284インターフェース、または、その他のインターフェースでも構成可能である。 Communication interface 120 is controlled by controller 110 to communicate with an external device of MFP 100. The communication interface 120 can also be configured with an Ethernet (registered trademark) interface, an IEEE1284 interface, or other interfaces.
スキャナエンジン130は、コントローラ110によって制御され、画像読取処理を実行する機能を有する。 The scanner engine 130 is controlled by the controller 110 and has a function of executing image reading processing.
プリンタエンジン140は、コントローラ110によって制御され、画像形成処理(印刷処理)を実行する。なお、プリンタエンジン140は、レーザービームプリンタ、インクジェットプリンタ、または、その他のプリンタでも構成可能である。 The printer engine 140 is controlled by the controller 110 and executes image forming processing (printing processing). The printer engine 140 can also be configured with a laser beam printer, an inkjet printer, or other printers.
FAXボード150は、コントローラ110によって制御され、ファクシミリ通信処理を実行する。 The FAX board 150 is controlled by the controller 110 and executes facsimile communication processing.
ユーザインターフェース160は、コントローラ110から送られた情報の表示を行うとともに、ユーザから入力された情報をコントローラ110に伝えることができる。つまり、ユーザに対する情報の出力(提供)や、ユーザからの指示(情報)入力を行う。なお、ユーザインターフェース160としては、例えば、ディスプレイ(LCTやCRT等)、ポインティングデバイス(マウス、タッチペン等)や、キーボードによって構成可能である。さらに、他の構成として、タッチパネル、音声インターフェース等を利用することができる。 The user interface 160 can display information sent from the controller 110 and can transmit information input from the user to the controller 110. That is, information is output (provided) to the user and instructions (information) are input from the user. The user interface 160 can be configured by, for example, a display (such as LCT or CRT), a pointing device (such as a mouse or a touch pen), or a keyboard. Furthermore, as another configuration, a touch panel, a voice interface, or the like can be used.
可搬性記録媒体読取装置170は、コントローラ110によって制御され、ICカードや、フロッピー(登録商標)ディスク等の可搬性記録媒体の記録情報を読み込む処理を実行する。また、可搬性記録媒体読取装置170は、コントローラ110からの指示により可搬性記録媒体へアクセスし、可搬性記録媒体から情報を読み出して、コントローラ110に通知する。
The portable recording
HDD180は、各種データの書き込み、及び、読出しを行う機能を有する。そして、バスライン190は、これらコントローラ110と、通信インターフェース120、スキャナエンジン130、プリンタエンジン140、FAXボード150、ユーザインターフェース160、可搬性記録媒体読取装置170、HDD180を電気的に接続している。なお、バスライン190には、アドレスバス、データバス等を利用することができる。
The HDD 180 has a function of writing and reading various data. The bus line 190 electrically connects the controller 110 to the communication interface 120, the scanner engine 130, the printer engine 140, the FAX board 150, the user interface 160, the portable recording
以上のような構成を有するMFP100において、プリンタエンジン140を選択することでプリントジョブの発行が可能となる。また、スキャナエンジン130を選択することでスキャンジョブの発行が可能となる。さらに、プリンタエンジン140とスキャナエンジン130とを選択することで、コピージョブの発行が可能となる。また、プリンタエンジン140とスキャナエンジン130とFAXボード150とを選択することで、ファクシミリ受信ジョブ及びファクシミリ送信ジョブの発行が可能となる。 In MFP 100 having the above-described configuration, print job can be issued by selecting printer engine 140. Further, by selecting the scanner engine 130, a scan job can be issued. Further, by selecting the printer engine 140 and the scanner engine 130, a copy job can be issued. Further, by selecting the printer engine 140, the scanner engine 130, and the FAX board 150, it is possible to issue a facsimile reception job and a facsimile transmission job.
次に、本実施の形態に係るMFP100が有する機能を、図2を用いて説明する。図2は、本実施の形態に係るMFP100の機能ブロック図である。図2に示すように、MFP100は、指示入力手段210、画像データ入力手段220、サイズ検出手段230、領域生成手段240、付加情報取得手段250、記憶手段260、情報埋込手段270、画像データ出力手段280を備える。
Next, functions of MFP 100 according to the present embodiment will be described with reference to FIG. FIG. 2 is a functional block diagram of MFP 100 according to the present embodiment. As shown in FIG. 2, the MFP 100 includes an instruction input unit 210, an image data input unit 220, a
指示入力手段210は、MFP100を操作するユーザからの指示を受け付ける。ユーザからの指示の例としては、画像データの入力指示や画像データの出力指示のほか、入力または出力の条件の設定指示を挙げることができる。また、付加情報の埋め込み指示の受付も行う。なお、指示入力手段210は、ユーザに選択肢を提示し、指示入力を促す構成を採用してもよい。ここで、指示入力手段210は、図1に示すユーザインターフェース160により実現される。 Instruction input unit 210 receives an instruction from a user who operates MFP 100. Examples of instructions from the user include input instructions for image data and output instructions for image data, as well as instructions for setting input or output conditions. It also accepts additional information embedding instructions. The instruction input unit 210 may adopt a configuration that presents options to the user and prompts the user to input an instruction. Here, the instruction input means 210 is realized by the user interface 160 shown in FIG.
画像データ入力手段220は、付加情報の埋め込み対象となる画像データを生成、または取得することにより処理対象の画像データを入力し、入力した画像データを記憶手段260に格納する。なお、画像データ入力手段220は、通信インターフェース120により実現されてもよいし、スキャナエンジン130により実現されてもよい。 The image data input unit 220 inputs image data to be processed by generating or acquiring image data to be embedded with additional information, and stores the input image data in the storage unit 260. Note that the image data input unit 220 may be realized by the communication interface 120 or the scanner engine 130.
サイズ検出手段230は、画像データ入力手段220により入力された画像データのサイズを検出する。画像データのサイズとして、A3、A4等の用紙サイズを検出してもよいし、解像度による定義される画像データのサイズを検出してもよい。なお、サイズ検出手段230は、図1に示すコントローラ110により実現されてもよいし、スキャナエンジン130により実現されてもよい。
The
領域生成手段240は、画像データに含まれるコンテンツ情報に基づき、付加情報を埋め込むための領域(以下、「埋込領域」という。)を、画像データ中に生成する。ここで、領域生成手段240は、コンテンツ情報の周囲に埋込領域を生成する。なお、領域生成手段240は、図1に示すコントローラ110により実現される。 The area generation unit 240 generates an area for embedding additional information (hereinafter referred to as “embedding area”) in the image data based on the content information included in the image data. Here, the region generation unit 240 generates an embedded region around the content information. Note that the region generation means 240 is realized by the controller 110 shown in FIG.
ここで、領域生成手段240の処理について詳細に説明する。 Here, the processing of the region generation unit 240 will be described in detail.
領域生成手段240は、後述の記憶手段260から処理対処の画像データを取得し、画像データに含まれるコンテンツ情報の存在する範囲(以下、「コンテンツ領域」という。)として、コンテンツ情報の外接矩形を生成する。ここで、画像データの背景色を特定し、背景色以外の画素の外接矩形を抽出することで、コンテンツ情報の外接矩形を取得することができる。背景色の特定は、画像データの色ヒストグラムを作成し、最も割合の多い色を背景色として決定する等、種々の方法が適用可能である。 The region generation unit 240 acquires image data to be processed from the storage unit 260 described later, and sets a circumscribed rectangle of the content information as a range where content information included in the image data exists (hereinafter referred to as “content region”). Generate. Here, the circumscribing rectangle of the content information can be acquired by specifying the background color of the image data and extracting the circumscribing rectangle of the pixels other than the background color. For specifying the background color, various methods such as creating a color histogram of the image data and determining the color with the highest ratio as the background color can be applied.
そして、領域生成手段240は、生成された第1の外接矩形と重複しない範囲であって、画像データの範囲内に領域を指定することで、コンテンツ情報に重複しない範囲に埋込領域を生成することができる。なお、画像データの範囲は、サイズ検出手段230により検出されたサイズを用いればよい。
Then, the area generation unit 240 generates an embedding area in a range that does not overlap with the generated first circumscribed rectangle and that does not overlap with the content information by designating the area within the range of the image data. be able to. Note that the size detected by the
なお、コンテンツ領域は、上述の外接矩形に限られるものではない。画像データに対して輪郭追跡処理を施すことでコンテンツ領域を取得し、埋込領域を生成してもよい。 Note that the content area is not limited to the circumscribed rectangle described above. A content area may be acquired by performing contour tracking processing on image data to generate an embedded area.
また、画像データに対して画素値のヒストグラムを求め、求めたヒストグラムからコンテンツ領域を取得し、取得されたコンテンツ領域に基づいて埋込領域を生成してもよい。具体的には、画像データの端部から画素値のヒストグラムを求め、求めたヒストグラムの変化量が所定の閾値以上を示す箇所をコンテンツ情報のエッジと判断する。そして、画像データの端部からエッジと判断された箇所までを埋込領域として生成する。 Alternatively, a pixel value histogram may be obtained for image data, a content area may be obtained from the obtained histogram, and an embedding area may be generated based on the obtained content area. Specifically, a histogram of pixel values is obtained from the edge of the image data, and a location where the obtained change amount of the histogram shows a predetermined threshold value or more is determined as the edge of the content information. Then, the region from the end of the image data to the portion determined to be an edge is generated as an embedded region.
さらには、画像データの各画素の微分値を求め、求まった値によりエッジを検出する。そして、画像データの端部から検出されたエッジまでを埋込領域として生成してもよい。なお、微分値の算出は、画像フィルタ等の公知の手法を用いればよい。 Further, a differential value of each pixel of the image data is obtained, and an edge is detected based on the obtained value. Then, the area from the end of the image data to the detected edge may be generated as an embedded area. In addition, what is necessary is just to use well-known methods, such as an image filter, for calculation of a differential value.
ここで、取得されたコンテンツ領域が複数存在する場合(複数の第1コンテンツ領域が存在する場合)には、取得された全てのコンテンツ領域を包含する領域(以下、「第2のコンテンツ領域」という。)を取得し、第2のコンテンツ領域と重複しない範囲であって、画像データの範囲内に領域を指定することで埋込領域を生成してもよい。この場合、コンテンツ情報間に地紋パターンが存在しない画像データを得ることができるため、よりコンテンツ情報の見栄えが損なわない画像データを得ることができる。ただし、第1のコンテンツ情報に基づいて地紋パターンを重畳した手法の方が、より広い埋込領域を確保できるため、画像データに付加可能な情報量は多くなる。なお、第1のコンテンツ領域に基づいて地紋パターンが重畳された画像データを図3に、第2のコンテンツ領域に基づいて地紋パターンが重畳された画像データを図4に示す。 Here, when there are a plurality of acquired content areas (when there are a plurality of first content areas), an area including all the acquired content areas (hereinafter referred to as “second content area”). .)), And an embedding area may be generated by designating an area within the range of the image data that does not overlap with the second content area. In this case, it is possible to obtain image data in which no copy-forgery-inhibited pattern pattern exists between the content information, and thus it is possible to obtain image data that does not impair the appearance of the content information. However, the method of superimposing the tint block pattern based on the first content information can secure a wider embedding area, so that the amount of information that can be added to the image data is increased. FIG. 3 shows image data on which a ground pattern is superimposed based on the first content area, and FIG. 4 shows image data on which a ground pattern is superimposed on the second content area.
さらに、領域生成手段240は、指示入力手段210を介してユーザから入力された埋込領域に関する形状指示(以下、「領域形状」という。)を考慮して埋込領域を生成する構成を採用してもよい。具体的には、取得されたコンテンツ領域内に領域形状に対応した埋込領域を生成することで、ユーザ所望の形状をもって、地紋パターンを付加することができる。なお、かかる構成を採用する場合、領域生成手段240は、指示入力手段210を介して入力された形状指示に応じたテンプレートを記憶手段260から取得することで、ユーザ所望の形状を有する埋込領域を生成する。 Further, the region generation unit 240 adopts a configuration in which an embedded region is generated in consideration of a shape instruction (hereinafter referred to as “region shape”) related to the embedded region input from the user via the instruction input unit 210. May be. Specifically, by generating an embedded region corresponding to the region shape in the acquired content region, a tint block pattern can be added with a shape desired by the user. In the case of adopting such a configuration, the region generation unit 240 acquires a template according to the shape instruction input via the instruction input unit 210 from the storage unit 260, so that an embedded region having a user-desired shape is obtained. Is generated.
付加情報取得手段250は、画像データに埋め込むための情報(以下、「付加情報」という。)を取得する。ここで、付加情報には、画像データが複写禁止データであることを示すための情報や画像データが出力される装置の識別情報等のセキュリティ情報や、画像データの著作権を管理するための情報や、画像データの関連情報(例えば、画像データに関する情報の所在を示すURL等)等がある。なお、付加情報取得手段は、図1に示すコントローラ110や、通信インターフェース120や、ユーザインターフェース160により実現される構成を採用してもよい。また、可搬性記録媒体読取装置170を用いて、外部装置である可搬性記録媒体から付加情報を取得する構成を採用してもよい。
The additional information acquisition unit 250 acquires information to be embedded in the image data (hereinafter referred to as “additional information”). Here, the additional information includes security information such as information for indicating that the image data is copy-prohibited data, identification information of the device from which the image data is output, and information for managing the copyright of the image data. And image data related information (for example, a URL indicating the location of information related to image data). The additional information acquisition unit may adopt a configuration realized by the controller 110, the communication interface 120, and the user interface 160 shown in FIG. Further, a configuration may be adopted in which the additional information is acquired from the portable recording medium that is an external device by using the portable
ここで、付加情報取得手段250は、指示入力手段210を介してユーザにより指定された情報自体を付加情報として入力してもよいし、ユーザにより指定された設定指示に応じた付加情報を後述の記憶手段260から取得してもよい。ユーザにより指定された設定指示に応じた付加情報について、いくつかの例を示す。 Here, the additional information acquisition unit 250 may input the information specified by the user via the instruction input unit 210 as additional information, or add additional information corresponding to the setting instruction specified by the user, which will be described later. You may acquire from the memory | storage means 260. FIG. Some examples of the additional information corresponding to the setting instruction specified by the user are shown.
ユーザは、画像データの種別や用途に応じた種々の情報を画像データに付加することで、画像データの有用性やセキュリティ精度を高めることを望んでいる。そこで、画像データの出力の際にユーザが機密データ出力モードを選択した場合、画像データの複写を禁止するための情報を付加情報とする。なお、かかる情報が付加された画像データが複写目的で読み取られた際、読み取った装置は、付加情報により読み取った画像データが複写禁止データであると認識可能となり、一連の処理を中止する措置を講ずることが可能となる。 A user desires to improve the usefulness and security accuracy of image data by adding various types of information according to the type and use of the image data to the image data. Therefore, when the user selects the confidential data output mode when outputting the image data, information for prohibiting the copying of the image data is set as additional information. When the image data to which such information is added is read for the purpose of copying, the reading device can recognize that the image data read by the additional information is copy-prohibited data, and take measures to stop a series of processing. It is possible to take.
また、別の設定指示としては、MFP100の管理者によるセキュリティ指示が挙げられる。かかる設定指示の場合、画像データを出力するMFP100の識別情報や、ユーザの識別情報、出力日時等の追跡情報を、画像データに付加する付加情報とする。ここで、MFP100の識別情報を画像データに付加することで、いつ、どの装置により、誰によって画像データが出力されたが把握可能となる。 Another setting instruction includes a security instruction by the administrator of MFP 100. In the case of such a setting instruction, tracking information such as identification information of the MFP 100 that outputs image data, identification information of the user, and output date and time is added information to the image data. Here, by adding the identification information of the MFP 100 to the image data, it is possible to grasp when, by which apparatus, by whom, and by whom.
記憶手段260は、MFP100の処理に必要な各種情報を記憶する。具体的には、埋込領域に関する情報(以下、「領域情報」という。)や、付加情報取得手段250により入力された付加情報を地紋パターンに変換するための情報を記憶する。ここで、領域情報とは、埋込領域の範囲を示す情報である。なお、記憶手段260は、コントローラ110内のメモリ113や、HDD180により実現される。 Storage unit 260 stores various information necessary for processing of MFP 100. Specifically, information related to the embedded area (hereinafter referred to as “area information”) and information for converting the additional information input by the additional information acquisition unit 250 into a tint block pattern are stored. Here, the region information is information indicating the range of the embedded region. Note that the storage unit 260 is realized by the memory 113 in the controller 110 or the HDD 180.
情報埋込手段270は、付加情報取得手段250により入力された付加情報を、記憶手段260に記憶された情報を用いて地紋パターンへ変換する。そして、変換した地紋パターンを画像データに重畳することで画像データに付加情報を付加する(例えば図5参照)。情報埋込手段270の処理の一例を、図5及び図6にそれぞれ示す。ここで、地紋パターンの重畳は、領域生成手段240により生成された埋込領域に対してのみ行う。なお、情報埋込手段は、コントローラ110により実現される。 The information embedding unit 270 converts the additional information input by the additional information acquisition unit 250 into a tint block pattern using the information stored in the storage unit 260. Then, additional information is added to the image data by superimposing the converted tint block pattern on the image data (see, for example, FIG. 5). An example of processing of the information embedding unit 270 is shown in FIGS. 5 and 6, respectively. Here, the superposition of the tint block pattern is performed only on the embedded region generated by the region generating unit 240. Note that the information embedding means is realized by the controller 110.
ここで、情報埋込手段270による付加情報から地紋パターンへの変換について説明する。情報埋込手段270は、ビット列により表現される付加情報を取得し、各ビットについて、記憶手段260に記憶された情報を用いて地紋パターンへと変換する。そして、変換した地紋パターンを画像データの重畳する。具体的には、付加情報を1ビットづつ取得し、取得したビット列を所定の大きさの2次元配列(以下、「単位2次元配列」という。例えば図6参照)に並べ替える。次に、情報埋込手段270はこの単位2次元配列を縦方向、および横方向に繰り返し並べることで、サイズ検知手段230で検知した画像データの大きさを有する2次元配列を生成する。そして、生成された2次元配列のうち、領域生成手段240で生成された領域と重複する部分の各単位2次元配列を地紋パターンに変換して画像データ重畳する。なお、付加情報の抽出精度を向上させるために、付加情報を数回繰り返したビット列を地紋パターンに変換してもよい。
Here, the conversion from the additional information to the tint block pattern by the information embedding unit 270 will be described. The information embedding unit 270 acquires additional information expressed by a bit string, and converts each bit into a tint block pattern using information stored in the storage unit 260. Then, the converted tint block pattern is superimposed on the image data. Specifically, the additional information is acquired bit by bit, and the acquired bit string is rearranged into a two-dimensional array having a predetermined size (hereinafter referred to as “unit two-dimensional array”, for example, see FIG. 6). Next, the information embedding unit 270 generates a two-dimensional array having the size of the image data detected by the
さらに、情報埋込手段270は、指示入力手段210を介してユーザから入力された地紋パターンの種別に応じて、付加情報を地紋パターンへ変換することができる。
なお、初期設定としてMFP100に設定されている地紋パターンの種別で、付加情報を地紋パターンへ変換する構成を採用してもよい。
Further, the information embedding unit 270 can convert the additional information into a tint block pattern according to the type of the tint block pattern input by the user via the instruction input unit 210.
A configuration may be employed in which additional information is converted into a tint block pattern according to the type of tint block pattern set in MFP 100 as an initial setting.
画像データ出力手段280は、付加情報が埋め込まれた画像データを出力する。ここで、通信インターフェース120を介して画像データ自体を外部出力してもよいし、プリンタエンジン140を用いて所定の媒体(出力用紙など)へ印刷する構成を採用してもよい。また、ユーザインターフェース160を用いて、画像データをパネル表示する構成を採用してもよい。 The image data output means 280 outputs image data in which additional information is embedded. Here, the image data itself may be output to the outside via the communication interface 120, or a configuration may be employed in which printing is performed on a predetermined medium (such as output paper) using the printer engine 140. A configuration in which image data is displayed on a panel using the user interface 160 may be employed.
次に、以上のように構成された本実施の形態にかかるMFP100における処理の流れについて説明する。図7は、本実施の形態に係るMFP100における、処理の流れを示すフローチャートである。 Next, a processing flow in MFP 100 according to the present embodiment configured as described above will be described. FIG. 7 is a flowchart showing a processing flow in MFP 100 according to the present embodiment.
まず、指示入力手段210は、画像データの出力指示をユーザから受け付ける(ステップS101)。このとき、指示受付手段201は、画像データに地紋パターンを埋め込んで出力する指示も、併せてユーザから受け付ける。 First, the instruction input unit 210 receives an image data output instruction from the user (step S101). At this time, the instruction receiving unit 201 also receives an instruction to embed a background pattern in the image data and output it from the user.
次に、画像データ入力手段220は、付加情報の埋め込み対象となる、処理対象の画像データを入力する(ステップS102)。なお、入力された画像データは、MFP100のHDD180、またはメモリ113により実現される記憶手段260に格納される。 Next, the image data input means 220 inputs image data to be processed that is to be embedded with additional information (step S102). The input image data is stored in the storage unit 260 realized by the HDD 180 of the MFP 100 or the memory 113.
続いて、サイズ検出手段230は、記憶手段260に格納されている画像データを読み出して、読み出した画像データのサイズを検出する(ステップS103)。なお、検出された画像データのサイズ情報は、記憶手段260に格納される。
Subsequently, the
次に、領域生成手段240は、記憶手段260に格納されているコンテンツ情報を含む画像データを読み出し、コンテンツ情報に重複しない埋込領域を読み出した画像データ上に生成する(ステップS104)。そして、生成した埋込領域の領域情報を記憶手段260に格納する。 Next, the area generation unit 240 reads the image data including the content information stored in the storage unit 260, and generates an embedded area that does not overlap with the content information on the read image data (step S104). Then, the generated area information of the embedded area is stored in the storage unit 260.
なお、見栄えをより向上させるために、領域生成手段は、コンテンツ情報に重複しない全ての領域ではなく、より限定した範囲を埋込領域として生成してもよい。ただし、画像データに埋め込まれた付加情報の抽出精度が向上させるために、埋込領域は、付加情報の再現性を確保するための閾値以上の幅(例えば1cm以上)を設けることが望ましい。 In addition, in order to improve the appearance, the area generation unit may generate a more limited range as an embedded area instead of all areas that do not overlap with the content information. However, in order to improve the extraction accuracy of the additional information embedded in the image data, it is desirable that the embedded region has a width (for example, 1 cm or more) that is equal to or larger than a threshold for ensuring the reproducibility of the additional information.
ここで、付加情報取得手段250は、画像データに付加する付加情報を取得する。そして、記憶手段260に格納されている情報により、取得した付加情報を地紋パターンへ変換する(ステップS105)。 Here, the additional information acquisition unit 250 acquires additional information to be added to the image data. Then, the acquired additional information is converted into a tint block pattern based on the information stored in the storage unit 260 (step S105).
さらに、情報埋込手段270は、記憶手段260から領域情報を読み出す。そして、読み出した領域情報に対応する画像データ上の位置にのみ、付加情報取得手段250により変換された地紋パターンを重畳する(ステップS106)。 Further, the information embedding unit 270 reads the area information from the storage unit 260. Then, the copy-forgery-inhibited pattern converted by the additional information acquisition unit 250 is superimposed only on the position on the image data corresponding to the read area information (step S106).
最後に、画像データ出力手段280は、地紋パターンが重畳された画像データを受け取り、受け取った画像データを出力する(ステップS107)。 Finally, the image data output means 280 receives the image data on which the tint block pattern is superimposed, and outputs the received image data (step S107).
上述の処理により、コンテンツ情報を含む画像データに対する付加情報の埋め込みを終了する。 With the above processing, the embedding of the additional information into the image data including the content information is finished.
以上説明したように本実施の形態によると、領域生成手段240が、コンテンツ情報に重複しない範囲に埋込領域を生成する。したがって、画像データに地紋パターンを重畳することによって付加情報を付加したとしても、コンテンツ情報の見栄えが損なっていない画像データを、確実に生成することができる。 As described above, according to the present embodiment, the region generation unit 240 generates an embedded region in a range that does not overlap with content information. Therefore, even if additional information is added by superimposing a tint block pattern on image data, it is possible to reliably generate image data that does not impair the appearance of content information.
なお、可搬性記録媒体読取装置170が読み取り対象とする可搬性記録媒体は特に限定されるものではなく、SDカードの他、コンパクトフラッシュ(登録商標)メモリーカード、スマートメディア(登録商標)、メモリースティック(登録商標)、ピクチャーカードなどのメモリ系の記録媒体、その他如何なる着脱可能な記録媒体を、単独あるいは組み合わせて採用することもできる。
The portable recording medium to be read by the portable
また、上記各機能は、アセンブラ、C、C++、C#、Java(登録商標)、などのレガシープログラミング言語やオブジェクト指向ブログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD、SDカード、MOなど、装置が読み取り可能な記録媒体に格納して頒布することができる。 Each of the above functions can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like. ROM, EEPROM , EPROM, flash memory, flexible disk, CD-ROM, CD-RW, DVD, SD card, MO and the like can be stored and distributed in a recording medium readable by the apparatus.
〔第2の実施の形態〕
以下に図8乃至図11を用いて、本発明の第2の実施の形態にかかる画像処理装置について説明する。本実施の形態は、画像形成装置における画像データの出力が、所定の範囲に限定されて出力される場合に、付加情報が埋め込まれた画像データにおけるコンテンツの見栄えを保つとともに、一定の付加情報の抽出精度を保つ点で、第1の実施の形態における画像処理装置と相違する。
[Second Embodiment]
An image processing apparatus according to the second embodiment of the present invention will be described below with reference to FIGS. In the present embodiment, when the output of the image data in the image forming apparatus is limited to a predetermined range, the appearance of the content in the image data in which the additional information is embedded is maintained, and certain additional information The image processing apparatus is different from the image processing apparatus according to the first embodiment in that the extraction accuracy is maintained.
ここで、画像形成装置における画像データの出力が、所定の範囲に限定されている例について、図8を用いて説明する。 Here, an example in which the output of image data in the image forming apparatus is limited to a predetermined range will be described with reference to FIG.
図8は、大きい矩形から順に、『画像データ』、『画像形成装置における描画が可能な範囲(以下、「描画領域」という。)』、および『画像データ内のコンテンツ領域』を示している。図8を用いて明らかになる問題は、画像形成装置のスペックにより、画像データの全範囲が描画領域に含まれない場合が生じ得る、ということである。かかる場合、画像データの端から地紋パターンを描画する埋込領域を生成しても、埋込領域が描画領域に含まれなければ地紋パターンが重畳された画像データを出力することができない。かかる問題を解消すべく、本実施の形態では、画像データに含まれるコンテンツ情報に重複しない埋込領域を、描画領域に基づいて生成することを特徴とする。 FIG. 8 shows “image data”, “range that can be drawn in the image forming apparatus (hereinafter referred to as“ drawing area ”)”, and “content area in the image data” in order from the large rectangle. The problem that becomes apparent with reference to FIG. 8 is that the entire range of image data may not be included in the drawing area depending on the specifications of the image forming apparatus. In this case, even if an embedding area for drawing a tint block pattern is generated from the end of the image data, image data on which the tint block pattern is superimposed cannot be output unless the embedding area is included in the drawing area. In order to solve this problem, the present embodiment is characterized in that an embedded region that does not overlap content information included in image data is generated based on the drawing region.
本実施の形態では、画像処理装置の一例として、プリンタドライバをインストールしたPC(Personal Computer)300を用いた例を説明する。図9は、本実施の形態にかかる画像処理装置としてのPC300のハードウエア構成を示す図である。なお、本実施の形態において、第1の実施の形態と実質的に同一の機能構成を有する構成要素については重複説明を省略する。 In this embodiment, an example using a PC (Personal Computer) 300 in which a printer driver is installed will be described as an example of an image processing apparatus. FIG. 9 is a diagram illustrating a hardware configuration of the PC 300 as the image processing apparatus according to the present embodiment. In the present embodiment, redundant description of components having substantially the same functional configuration as in the first embodiment will be omitted.
PC300は、CPU310、RAM320、ROM330、外部記憶装置340、通信インターフェース350、ユーザインターフェース360、バスライン370とを備える。また、PC300は、ネットワークを介してプリンタ500と接続されている。
The PC 300 includes a CPU 310, a RAM 320, a ROM 330, an external storage device 340, a
ROM330、または外部記憶装置340は、オペレーティングシステム、印刷データ生成プログラム等のソフトウェアを記憶する。また、CPU310は、こうしたROM330、外部記憶装置340に記憶されたソフトウェアを実行し、バスライン270に接続された各デバイスを総括的に制御する。RAM220は、CPU310の主メモリであるワークエリアなどとして機能する。外部記憶装置340は、ブートプログラム、オペレーティングシステム、各種のアプリケーションなどを記憶する。 The ROM 330 or the external storage device 340 stores software such as an operating system and a print data generation program. Further, the CPU 310 executes software stored in the ROM 330 and the external storage device 340, and comprehensively controls each device connected to the bus line 270. The RAM 220 functions as a work area that is a main memory of the CPU 310. The external storage device 340 stores a boot program, an operating system, various applications, and the like.
通信インターフェース350は、CPU310によって制御されることにより、PC300の外部装置と通信を行う。例えば、通信インターフェース350は、イーサネット(登録商標)インターフェース、IEEE1284インターフェース、またはその他のインターフェースにより構成される。
The
ユーザインターフェース360は、CPU310から送られた情報の表示を行うとともに、ユーザから入力された情報をCPU310に伝えることができる。つまり、ユーザに対する情報の出力(提供)や、ユーザからの指示(情報)入力を行う。ここで、ユーザインターフェース360としては、例えばディスプレイ(LCTやCRT等)、ポインティングデバイス(マウス、タッチペン等)や、キーボード、もしくはそれらの組み合わせによって構成可能である。さらに他の構成として、タッチパネル、音声インターフェース等を利用することもできる。 The user interface 360 can display information sent from the CPU 310 and transmit information input from the user to the CPU 310. That is, information is output (provided) to the user and instructions (information) are input from the user. Here, the user interface 360 can be configured by, for example, a display (LCT, CRT, etc.), a pointing device (mouse, touch pen, etc.), a keyboard, or a combination thereof. As another configuration, a touch panel, a voice interface, or the like can be used.
そして、バスライン370は、これらCPU310と、ROM330、通信インターフェース350、ユーザインターフェース360等を電気的に接続している。なお、バスライン370には、アドレスバス、データバス等がある。
The bus line 370 electrically connects the CPU 310 to the ROM 330, the
次に、本実施の形態に係るPC300が有する機能を、図10を用いて説明する。図10は、本実施の形態に係るPC300の機能ブロック図である。図10に示すように、PC300は、指示入力手段410、画像データ入力手段420、出力領域取得手段430、領域生成手段440、付加情報取得手段450、記憶手段460、情報埋込手段470、画像データ出力手段480を備える。
Next, functions of the PC 300 according to the present embodiment will be described with reference to FIG. FIG. 10 is a functional block diagram of PC 300 according to the present embodiment. As shown in FIG. 10, the PC 300 includes an instruction input unit 410, an image data input unit 420, an output area acquisition unit 430, an
指示入力手段410は、PC300を操作するユーザからの指示を入力する。ユーザからの指示の例としては、画像データの入力指示や画像データの出力指示のほか、入力または出力の条件の設定指示を挙げることができる。また、付加情報の埋め込み指示の受付も行う。なお、指示入力手段410は、ユーザに選択肢を提示し、指示入力を促す構成を採用してもよい。ここで、指示入力手段410は、キーボードやディスプレイ等の、図9に示すユーザインターフェース360により実現される。 The instruction input unit 410 inputs an instruction from a user who operates the PC 300. Examples of instructions from the user include input instructions for image data and output instructions for image data, as well as instructions for setting input or output conditions. It also accepts additional information embedding instructions. Note that the instruction input unit 410 may employ a configuration that presents options to the user and prompts the user to input an instruction. Here, the instruction input means 410 is realized by a user interface 360 shown in FIG. 9 such as a keyboard or a display.
画像データ入力手段420は、付加情報の埋め込み対象となる画像データを生成、または取得することにより処理対象の画像データを入力し、入力した画像データを記憶手段460に格納する。なお、画像データ入力手段420は、通信インターフェース350により実現される。また、外部記憶装置340を介して、フロッピー(登録商標)ディスクやUSBメモリ等から画像データを取得する構成としてもよい。
The image data input unit 420 inputs image data to be processed by generating or acquiring image data to be embedded with additional information, and stores the input image data in the storage unit 460. The image data input unit 420 is realized by the
出力領域取得手段430は、ネットワークを介して接続されたプリンタ500から、描画が可能な範囲についての情報(以下、「描画領域情報」という。)を取得する。なお、出力領域取得手段430は、通信インターフェース350により実現される。そして、取得した描画領域情報を記憶手段460に格納する。
The output area acquisition unit 430 acquires information about a drawing range (hereinafter referred to as “drawing area information”) from the printer 500 connected via the network. The output area acquisition unit 430 is realized by the
なお、出力領域取得手段430を、通信インターフェース350ではなく、CPU310により構成してもよい。さらに、プリンタ500から描画領域情報を取得するのではなく、ROM330または外部記憶装置340により構成される記憶手段460から、プリンタ500における描画領域情報を取得してもよい。なお、記憶手段460から描画領域情報を取得する場合、記憶手段460には、プリンタ500の識別情報とプリンタ500の描画領域情報とが関連づけて記憶されていることが望ましい。プリンタ500だけではなく、他の画像形成装置(プリンタやMFP等)との処理も対応可能となるからである。かかる場合、指示入力手段410から画像形成装置の指定を受け付け、受け付けた指定をキーとして記憶手段460を検索することにより、指定にかかる画像形成装置の描画領域情報を取得する。なお、記憶手段460における関連づけられたデータの一例を図11に示す。
Note that the output area acquisition unit 430 may be configured by the CPU 310 instead of the
領域生成手段440は、出力領域取得手段430により取得された描画領域情報とコンテンツ情報とに基づき、埋込領域を画像データ中に生成する。ここで、領域生成手段440は、コンテンツ情報の周囲であって、かつ描画領域内に埋込領域を生成する。なお、領域生成手段440は、図9に示すCPU310により実現される。
The
領域生成手段440は、記憶手段460から処理対象の画像データを取得し、画像データに含まれるコンテンツ領域を取得する。なお、コンテンツ領域の取得については、上述の実施の形態1における領域生成手段240の処理と同じであるため、ここでの説明は省略する。
The
また、領域生成手段440は、コンテンツ領域とは別に、記憶手段460から描画領域情報を読み出す。そして、読み出した描画領域情報の範囲内であって、上述のコンテンツ領域の周囲に埋込領域を生成する。なお、両者の位置関係は、各領域の頂点座標により表されても良いし、両領域の重ね合わせ処理(オーバーレイ)を行った後に、論理演算を行ってもよい。
Further, the
さらに、領域生成手段440は、指示入力手段410を介してユーザから入力された埋込領域に関する形状指示(以下、「領域形状」という。)を考慮して埋込領域を生成する構成を採用してもよい。具体的には、取得されたコンテンツ領域内に領域形状に対応した埋込領域を生成することで、ユーザ所望の形状をもって、地紋パターンを付加することができる。なお、かかる構成を採用する場合、領域生成手段440は、指示入力手段410を介して入力された形状指示に応じたテンプレートを記憶手段460から取得することで、ユーザ所望の形状を有する埋込領域を生成する。
Further, the
なお、埋込領域の生成にあたっては、描画領域の端部から埋込領域を生成することが望ましい。描画領域の端部から埋込領域を生成した場合、出力結果である画像データの端部に地紋パターンが重畳されることになり、スキャナ等の走査の際、いち早く地紋パターンを検知可能となるからである。 In generating the embedded region, it is desirable to generate the embedded region from the end of the drawing region. When an embedding area is generated from the end of the drawing area, the tint block pattern is superimposed on the end of the image data as the output result, and the tint block pattern can be detected quickly when scanning by a scanner or the like. It is.
ここで、描画が可能な範囲が設定されている画像形成装置を出力先に指定した場合であって、画像データ中のコンテンツ領域のみに基づいて付加情報を付加した場合と、本実施の形態における領域生成手段440とを比較する。コンテンツ領域のみに基づいて付加情報を付加した場合、描画データでは正しく重畳されていた地紋パターンが実際に出力された出力結果では欠落してしまい、付加情報を正しく付加できない場合が生じ得る。しかし、本実施の形態にかかる領域生成手段440は、コンテンツ領域のみではなく、コンテンツ領域と描画領域情報とに基づいて地紋パターンを重畳する。したがって、出力結果において地紋パターンが欠落することなく、確実に、かつ、画像データ中のコンテンツの見栄えを損なうことなく、付加情報を画像データに付加することが可能となる。
Here, when an image forming apparatus in which a range in which drawing can be performed is set is designated as an output destination and additional information is added based only on the content area in the image data, and in this embodiment The region generation means 440 is compared. When the additional information is added based only on the content area, the tint block pattern that is correctly superimposed in the drawing data may be lost in the output result that is actually output, and the additional information may not be correctly added. However, the
以下、付加情報取得手段450、記憶手段460、情報埋込手段470、画像データ出力手段480については、実施の形態1における、付加情報取得手段250、記憶手段260、情報埋込手段270、画像データ出力手段280と同じ処理を行うため、ここでの説明は省略する。
Hereinafter, the additional information acquisition unit 450, the storage unit 460, the
次に、上記のように構成された本実施の形態にかかる画像処理装置における処理の流れについて説明する。図12は、本実施の形態にかかる画像処理装置における処理の流れを示すフローチャートである。 Next, the flow of processing in the image processing apparatus according to this embodiment configured as described above will be described. FIG. 12 is a flowchart showing the flow of processing in the image processing apparatus according to this embodiment.
まず、指示入力手段410は、画像データの出力指示をユーザから受け付ける(ステップS201)。このとき、指示入力手段410は、画像データに地紋パターンを埋め込んで出力指示も、併せてユーザから入力する。 First, the instruction input unit 410 receives an image data output instruction from the user (step S201). At this time, the instruction input unit 410 also inputs an output instruction from the user by embedding a tint block pattern in the image data.
次に、画像データ入力手段420は、付加情報の埋め込み対象となる、処理対象の画像データを入力する(ステップS202)。なお、入力された画像データは、PC300内のROM330、または外部記憶装置340に格納される。 Next, the image data input means 420 inputs image data to be processed, which is to be embedded with additional information (step S202). The input image data is stored in the ROM 330 or the external storage device 340 in the PC 300.
続いて、出力領域取得手段430は、出力先の画像形成装置における、描画が可能な範囲についての情報(描画領域情報)を取得する(ステップS203)。 Subsequently, the output area acquisition unit 430 acquires information (drawing area information) about a drawable range in the output destination image forming apparatus (step S203).
そして、領域生成手段440は、画像データから取得されたコンテンツ領域と、記憶手段460から読み出した描画領域情報とに基づいて、埋込領域を生成する(ステップS204)。
Then, the
以下、取得した付加情報の変換(ステップS205)、埋め込み領域への地紋パターンの重畳(ステップS206)、および地紋パターンが重畳された画像データの出力(ステップS207)は、第1の実施の形態における処理フロー(ステップS105〜S107)と同一であるため、ここでの説明は省略する。 Hereinafter, the conversion of the acquired additional information (step S205), the superimposition of the tint block pattern on the embedding area (step S206), and the output of the image data on which the tint block pattern is superimposed (step S207) in the first embodiment Since this is the same as the processing flow (steps S105 to S107), description thereof is omitted here.
以上説明したように、本実施の形態によると、領域生成手段440が、コンテンツ領域のみではなく、コンテンツ領域と描画領域情報とに基づいて地紋パターンを重畳する。したがって、出力結果において地紋パターンが欠落することなく、確実に、かつ、画像データ中のコンテンツの見栄えを損なうことなく、付加情報を画像データに付加することが可能となる。
As described above, according to the present embodiment, the
なお、第1の実施の形態においてはMFP100を情報識別装置として、第2の実施の形態においてはPC300を情報識別装置として本発明の説明を行ったが、相互に適応可能であることは言うまでもない。 In the first embodiment, the present invention has been described with the MFP 100 as an information identification device and the PC 300 as an information identification device in the second embodiment. However, it goes without saying that the present invention can be applied to each other. .
また、外部記憶装置340としては、特に限定されるものではなく、SDカードの他、コンパクトフラッシュ(登録商標)メモリーカード、スマートメディア(登録商標)、メモリースティック(登録商標)、ピクチャーカードなどのメモリ系の記録媒体、その他如何なる着脱可能な記録媒体を、単独あるいは組み合わせて採用することもできる。 Further, the external storage device 340 is not particularly limited, and a memory system such as an SD card, a compact flash (registered trademark) memory card, a smart media (registered trademark), a memory stick (registered trademark), a picture card, or the like. These recording media and any other removable recording media can be used alone or in combination.
また上記各機能は、アセンブラ、C、C++、C#、Java(登録商標)、などのレガシープログラミング言語やオブジェクト指向ブログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD、SDカード、MOなど装置可読な記録媒体に格納して頒布することができる。 Each of the above functions can be realized by a computer-executable program written in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like. It can be stored in a device-readable recording medium such as EPROM, flash memory, flexible disk, CD-ROM, CD-RW, DVD, SD card, MO, and distributed.
また、情報識別装置としては、上述した実施形態の複合機能を有したMFP100やPC300に限られるものではなく、特定の用途に応じて、サーバ、複写機やプリンタや印刷機などの画像形成装置、携帯電話やPDAや携帯型電子遊技装置などの携帯情報端末、スキャナなどの画像読取装置、デジタルカメラやデジタルビデオカメラなどの撮像装置、テレビジョンやHDDレコーダやオーディオセットなどの音声映像入出力置、カーナビゲーションなどの車載電子装置またはデジタル家電機器など、着脱可能な記録媒体との情報のやり取りが可能な機器であれば、本発明の情報抽出装置の一例として構成することができる。 Further, the information identification apparatus is not limited to the MFP 100 or the PC 300 having the composite function of the above-described embodiment, and an image forming apparatus such as a server, a copier, a printer, a printing machine, or the like according to a specific application. Mobile information terminals such as mobile phones, PDAs and portable electronic gaming devices, image reading devices such as scanners, imaging devices such as digital cameras and digital video cameras, audio / video input / output devices such as televisions, HDD recorders and audio sets, Any device capable of exchanging information with a removable recording medium, such as an in-vehicle electronic device such as a car navigation system or a digital home appliance, can be configured as an example of the information extraction device of the present invention.
なお、本発明は、上記実施の形態で説明したものに限らず、種々の変形実施が可能である。また、第1、および第2の実施の形態で説明したものに限定されず、これらと均等な手法も本発明の技術的範囲に含まれる。 The present invention is not limited to the one described in the above embodiment, and various modifications can be made. Moreover, it is not limited to what was demonstrated by 1st and 2nd embodiment, The method equivalent to these is also contained in the technical scope of this invention.
100 MFP
110 コントローラ
120 通信インターフェース
130 スキャナエンジン
140 プリンタエンジン
150 FAXボード
160 ユーザインターフェース
170 可搬性記録媒体読取装置
180 HDD
190 バスライン
210 指示入力手段
220 画像データ入力手段
230 サイズ検出手段
240 領域生成手段
250 付加情報取得手段
260 記憶手段
270 情報埋込手段
280 画像データ出力手段
300 PC
310 CPU
320 RAM
330 ROM
340 外部記憶装置
350 通信インターフェース
360 ユーザインターフェース
370 バスライン
410 指示入力手段
420 画像データ入力手段
430 出力領域取得手段
440 領域生成手段
450 付加情報取得手段
460 記憶手段
470 情報埋込手段
480 画像データ出力手段
500 プリンタ
100 MFP
DESCRIPTION OF SYMBOLS 110 Controller 120 Communication interface 130 Scanner engine 140 Printer engine 150 FAX board 160
190 Bus line 210 Instruction input means 220 Image data input means 230 Size detection means 240 Area generation means 250 Additional information acquisition means 260 Storage means 270 Information embedding means 280 Image data output means 300 PC
310 CPU
320 RAM
330 ROM
340
Claims (16)
前記コンテンツ情報に重複しない、前記付加情報を埋め込むための埋込領域を前記画像データに生成する領域生成手段と、
生成された前記埋込領域に前記付加情報を埋め込む情報埋込手段と、
を備えることを特徴とする画像処理装置。 In an image processing apparatus that embeds additional information in image data including content information,
A region generating means for generating, in the image data, an embedding region for embedding the additional information that does not overlap with the content information;
Information embedding means for embedding the additional information in the generated embedded region;
An image processing apparatus comprising:
前記コンテンツ情報に重複しない、前記付加情報を埋め込むための埋込領域を前記画像データに生成する領域生成ステップと、
生成された前記埋込領域に前記付加情報を埋め込む情報埋込ステップと、
を有することを特徴とする画像処理方法。 In an image processing method for embedding additional information in image data including content information,
A region generating step for generating an embedded region in the image data for embedding the additional information, which does not overlap the content information;
An information embedding step of embedding the additional information in the generated embedded region;
An image processing method comprising:
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008051302A JP2008263593A (en) | 2007-03-19 | 2008-02-29 | Image processing device, image processing method, program, and recording medium |
US12/076,460 US8180102B2 (en) | 2007-03-19 | 2008-03-19 | Image processing device, image processing method, program, and recording medium |
EP08250975.3A EP1973330B1 (en) | 2007-03-19 | 2008-03-19 | Image processing apparatus and image processing method |
CN2008100951675A CN101277364B (en) | 2007-03-19 | 2008-03-19 | Image processing device and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007070827 | 2007-03-19 | ||
JP2008051302A JP2008263593A (en) | 2007-03-19 | 2008-02-29 | Image processing device, image processing method, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008263593A true JP2008263593A (en) | 2008-10-30 |
Family
ID=39985717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008051302A Pending JP2008263593A (en) | 2007-03-19 | 2008-02-29 | Image processing device, image processing method, program, and recording medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008263593A (en) |
CN (1) | CN101277364B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120002224A1 (en) * | 2010-07-02 | 2012-01-05 | Toshiba Tec Kabushiki Kaisha | Image forming apparatus to add specific data to image, and image forming method of adding the specific data to the image |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08154177A (en) * | 1994-09-27 | 1996-06-11 | Ricoh Co Ltd | Image forming device |
JP2000175026A (en) * | 1998-12-10 | 2000-06-23 | Seiko Epson Corp | Image forming device |
JP2005117589A (en) * | 2003-10-10 | 2005-04-28 | Canon Inc | Information processing apparatus and information processing method |
JP2005323005A (en) * | 2004-05-06 | 2005-11-17 | Canon Inc | Document information embedding method and apparatus |
JP2007194997A (en) * | 2006-01-20 | 2007-08-02 | Sharp Corp | Image-recording apparatus |
-
2008
- 2008-02-29 JP JP2008051302A patent/JP2008263593A/en active Pending
- 2008-03-19 CN CN2008100951675A patent/CN101277364B/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08154177A (en) * | 1994-09-27 | 1996-06-11 | Ricoh Co Ltd | Image forming device |
JP2000175026A (en) * | 1998-12-10 | 2000-06-23 | Seiko Epson Corp | Image forming device |
JP2005117589A (en) * | 2003-10-10 | 2005-04-28 | Canon Inc | Information processing apparatus and information processing method |
JP2005323005A (en) * | 2004-05-06 | 2005-11-17 | Canon Inc | Document information embedding method and apparatus |
JP2007194997A (en) * | 2006-01-20 | 2007-08-02 | Sharp Corp | Image-recording apparatus |
Also Published As
Publication number | Publication date |
---|---|
CN101277364B (en) | 2011-10-12 |
CN101277364A (en) | 2008-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5147429B2 (en) | Image processing apparatus, image processing method, and program thereof | |
US20070279672A1 (en) | Image processing apparatus and image processing method | |
JP4819723B2 (en) | Information extraction apparatus, information extraction method, information extraction program, and recording medium | |
JP2009182512A (en) | Apparatus, method, and program for image processing, and recording medium | |
JP2002171400A (en) | Image processor | |
JP2006303870A (en) | Image forming apparatus and method | |
JP2008154106A (en) | Concealing method, image processor and image forming apparatus | |
JP2009165088A (en) | Image processor | |
US8325970B2 (en) | Apparatus, method, and computer product for image processing | |
EP1973330B1 (en) | Image processing apparatus and image processing method | |
US8264738B2 (en) | Image forming apparatus, image forming method, and computer-readable storage medium for image forming program | |
JP5004828B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2008160810A (en) | Image scanning device, and image scanning system | |
JP4135758B2 (en) | Image forming apparatus, image forming system, and program | |
JP4757205B2 (en) | Image processing apparatus, image processing system, and image processing program | |
US20060274390A1 (en) | Image processing device, image processing method, and image processing program product allowing reproduction of information lost in printing | |
JP2008229912A (en) | Image forming apparatus and image forming method | |
JP4409466B2 (en) | Image processing apparatus and image processing program | |
JP2008263593A (en) | Image processing device, image processing method, program, and recording medium | |
JP4587123B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4821629B2 (en) | Image processing apparatus and image processing program | |
JP2007312049A (en) | Information embedding processing system, additional information embedding device, and additional information restoring device | |
JP2009005211A (en) | Image processing device and program | |
JP4998421B2 (en) | Image forming apparatus and image forming program | |
JP2001218008A (en) | Picture processor, picture processing method and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120515 |