JP2016025420A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2016025420A
JP2016025420A JP2014146863A JP2014146863A JP2016025420A JP 2016025420 A JP2016025420 A JP 2016025420A JP 2014146863 A JP2014146863 A JP 2014146863A JP 2014146863 A JP2014146863 A JP 2014146863A JP 2016025420 A JP2016025420 A JP 2016025420A
Authority
JP
Japan
Prior art keywords
color
character
image
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014146863A
Other languages
Japanese (ja)
Inventor
航也 島村
Koya Shimamura
航也 島村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014146863A priority Critical patent/JP2016025420A/en
Publication of JP2016025420A publication Critical patent/JP2016025420A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system capable of generating an information-embedded image without annoying a user and damaging the format or appearance of a document.SOLUTION: An image processing system which embeds information into an image comprises output image generation means which generates an achromatic color object out of objects included in the image by using monochrome gray or mixed color gray. An achromatic color object generated by using the monochrome gray has first data assigned thereto, and an achromatic color object generated by using the mixed color gray has second data different from the first data assigned thereto.SELECTED DRAWING: Figure 5

Description

本発明は、文書のフォーマットや見た目を損なうことなく、情報を埋め込んだ画像を生成し、当該生成した画像を印刷し、当該印刷した紙から埋め込まれた情報を読み取る、画像処理に関する。   The present invention relates to image processing for generating an image in which information is embedded without losing the format or appearance of a document, printing the generated image, and reading the embedded information from the printed paper.

近年、画像読取プロセスと画像形成プロセスとによる画像の複写を行う画像形成装置の機能が向上し、画像の複写精度が向上しており、書類などの原稿画像を容易且つ高精度に複写することができる。このような高機能の画像形成装置を使用すると、複写が禁止されるべき書類などを複写して不正な複写物を容易に作成することができ、原本と見分けがつかない高精度な複写物を得ることができる。そこで、原稿画像の不正な複写を防止するために、複写を禁止すべき原稿画像に対して、複写防止パターン又は透かし文字等を合成する技術が実現されている。また、複写機能を有する複合機等で文書を複写して利用する形態は一般的であるが、複写機能の発達により、原本と複写物との区別が困難になってきている。さらに、複写を重ねているうちに、文書の出所を明確にすることが難しくなっており、文書に何らかの工夫を施す必要があるが、それらの工夫をユーザーが通常視認できない形で行うことが、確実な認識を保証するためには望ましい。   In recent years, the function of an image forming apparatus that performs image copying by an image reading process and an image forming process has been improved, and the image copying accuracy has been improved, so that an original image such as a document can be copied easily and with high accuracy. it can. By using such a high-function image forming apparatus, it is possible to easily create illegal copies by copying documents that should not be copied, and to produce highly accurate copies that are indistinguishable from the original. Can be obtained. Therefore, in order to prevent unauthorized copying of a document image, a technique for combining a copy prevention pattern or a watermark character with a document image that should be prohibited from being copied has been realized. In general, a document is copied and used by a multifunction machine or the like having a copy function. However, due to the development of the copy function, it is difficult to distinguish the original from a copy. In addition, it is difficult to clarify the origin of the document while it is being copied, and it is necessary to apply some ingenuity to the document. Desirable to ensure reliable recognition.

特許文献1には、可視光下での視認性が低い潜像画像を生成する技術が開示されている。   Patent Document 1 discloses a technique for generating a latent image having low visibility under visible light.

また、特許文献2には、特に専用の色材を用いることなく、原本であることを保証する印刷物、或いは、出所を追跡することができる印刷物を得るための画像を生成する技術が開示されている。   Further, Patent Document 2 discloses a technique for generating an image for obtaining a printed material that guarantees an original or a printed material that can trace the source without using a special color material. Yes.

特開2013−223144号公報JP 2013-223144 A 特開2013−225843号公報JP 2013-225843 A

特許文献1に記載の技術は、単色グレーと混色グレーの見本画像を出力し、出力された画像の読み取り又は出力した画像に基づくユーザーの選択受付を行って、混色グレーを構成する各色の濃度を決定する構成を備えている。そのため、ユーザーに単色グレーと混色グレーの見本を提示し、色が合うような指定をユーザーが選択しなければならず、ユーザーにとっては煩わしいという問題がある。   The technique described in Patent Document 1 outputs a sample image of single color gray and mixed color gray, reads the output image or accepts a selection based on the output image, and determines the density of each color constituting the mixed color gray. It has a configuration to determine. Therefore, there is a problem that it is troublesome for the user because the user has to present a sample of single color gray and mixed color gray and select the designation that matches the color.

また、特許文献2に記載の技術では、潜像画像が用いる色成分とは異なる色成分を用いて背景画像を生成し、潜像画像及び背景画像は、印刷画像の印刷の際に同等の色で印刷される態様で各色成分を用いる必要がある。そのため、潜像画像と背景画像の2つの画像が必要になるので、文字のみから成る文書画像などに情報を埋め込むことが難しいという問題がある。   In the technique described in Patent Document 2, a background image is generated using a color component different from the color component used by the latent image, and the latent image and the background image have the same color when the print image is printed. It is necessary to use each color component in the form printed in For this reason, since two images, a latent image and a background image, are required, there is a problem that it is difficult to embed information in a document image or the like consisting only of characters.

本発明は、画像に情報を埋め込む画像処理装置であって、画像に含まれるオブジェクトのうちの無彩色のオブジェクトを、単色グレーと、混色グレーとの何れかで生成する出力画像生成手段を備え、前記単色グレーで生成する無彩色のオブジェクトには、第1のデータが割り当てられ、前記混色グレーで生成する無彩色のオブジェクトには、前記第1のデータとは異なる第2のデータが割り当てられることを特徴とする。   The present invention is an image processing apparatus for embedding information in an image, comprising output image generation means for generating an achromatic object among the objects included in the image in either a single color gray or a mixed color gray, First data is assigned to the achromatic object generated with the single gray, and second data different from the first data is assigned to the achromatic object generated with the mixed gray. It is characterized by.

本発明によれば、文書画像の文字部に情報を埋め込むことができるため、ユーザーを煩わせず且つ文書のフォーマットや見た目を損なうことなく情報を埋め込んだ画像を生成することが可能になる。また、本発明によれば、特に専用の色材を用いることなく、画像に情報を埋め込むことが可能になる。   According to the present invention, since it is possible to embed information in the character part of a document image, it is possible to generate an image in which information is embedded without bothering the user and without losing the format or appearance of the document. Further, according to the present invention, it is possible to embed information in an image without using a special color material.

実施例1に係るシステムの概観図である。1 is an overview diagram of a system according to Embodiment 1. FIG. 実施例1に係る端末装置のハードウェア構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of a terminal device according to Embodiment 1. FIG. 実施例1に係る画像処理部の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of an image processing unit according to the first embodiment. 実施例1に係る出力画像生成処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of output image generation processing according to the first embodiment. 実施例1に係る情報埋込処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of information embedding processing according to the first embodiment. 実施例1に係る情報読出処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of information reading processing according to the first embodiment. 実施例1に係る情報読込処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of information reading processing according to the first embodiment. 実施例2に係る情報埋込処理の流れを示すフローチャートである。12 is a flowchart illustrating a flow of information embedding processing according to the second embodiment. 実施例2に係る情報読込処理の流れを示すフローチャートである。12 is a flowchart illustrating a flow of information reading processing according to the second embodiment. 実施例3に係る情報埋込処理の流れを示すフローチャートである。12 is a flowchart illustrating a flow of information embedding processing according to a third embodiment. 情報を文字に埋め込む概要を示す図である。It is a figure which shows the outline | summary which embeds information in a character. 各文字に対して、外接矩形を求めて、外接矩形化した例を示す図である。It is a figure which shows the example which calculated | required the circumscribed rectangle with respect to each character, and was made into the circumscribed rectangle. 2値画像に対してぼかし処理を行った例を示す図である。It is a figure which shows the example which performed the blurring process with respect to the binary image. 実施例4に係る情報埋込処理の流れを示すフローチャートである。14 is a flowchart illustrating a flow of information embedding processing according to a fourth embodiment. 実施例4に係る混色グレー文字の端部における印字設定を示す図である。FIG. 10 is a diagram illustrating print settings at an end portion of a mixed color gray character according to a fourth embodiment. 実施例4に係る情報読込処理の流れを示すフローチャートである。14 is a flowchart illustrating a flow of information reading processing according to the fourth embodiment. 実施例5に係る情報埋込処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of information embedding processing according to a fifth embodiment. 実施例5に係る情報読込処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of an information reading process according to Embodiment 5. 実施例5に係る情報を文字に割り当てる概要を示す図である。It is a figure which shows the outline | summary which allocates the information which concerns on Example 5 to a character.

以下、本発明の好適な実施形態を、図面を用いて説明する。ただし、以下で説明する構成は例示に過ぎず、本発明は図示した構成に限定されない。尚、全ての図にわたって、同一の要素には同一の符号を付している。   Preferred embodiments of the present invention will be described below with reference to the drawings. However, the configuration described below is merely an example, and the present invention is not limited to the illustrated configuration. In addition, the same code | symbol is attached | subjected to the same element over all the figures.

図1は、本実施例に係るシステムの概観図である。システムは、端末装置1と、画像処理装置2とから構成される。端末装置1は、表示部11と、操作部12とを備える情報処理装置であり、具体的には汎用PCである。或いは、端末装置1は、携帯電話機、スマートフォン等の携帯情報端末装置であってもよい。画像処理装置2は、一般的なスキャン機能やプリンタ機能等を備える複合機である。画像処理装置2は、ADF(Auto Document Feeder)部21と、操作部22と、レーザープリンタ23とを備える。尚、画像処理装置2はプリンタ単体であってもよい。   FIG. 1 is an overview of a system according to the present embodiment. The system includes a terminal device 1 and an image processing device 2. The terminal device 1 is an information processing device including a display unit 11 and an operation unit 12, and is specifically a general-purpose PC. Alternatively, the terminal device 1 may be a portable information terminal device such as a mobile phone or a smartphone. The image processing apparatus 2 is a multifunction machine having a general scan function, a printer function, and the like. The image processing apparatus 2 includes an ADF (Auto Document Feeder) unit 21, an operation unit 22, and a laser printer 23. The image processing apparatus 2 may be a single printer.

端末装置1及び画像処理装置2は、ネットワークに接続されており、画像処理装置2で読み取った画像を、ネットワークを介して端末装置1に送信することができる。また、端末装置1で生成した画像を、ネットワークを介して画像処理装置2に送信し、画像処理装置2で印刷することができる。   The terminal device 1 and the image processing device 2 are connected to a network, and an image read by the image processing device 2 can be transmitted to the terminal device 1 via the network. In addition, an image generated by the terminal device 1 can be transmitted to the image processing device 2 via the network and printed by the image processing device 2.

本実施例では、端末装置1は、受け付けた入力画像に情報を埋め込んだうえで画像処理装置2に送信し、画像処理装置2は、当該送信された、情報が埋め込まれた画像を印刷する。印刷された用紙上で、画像に埋め込まれた埋込情報は、文字を単色グレーで印字するか混色グレーで印字するかを切り替えることによって表現されている。埋込情報は、印刷された用紙上で、ユーザーは通常視認することができない。しかし、画像処理装置2がスキャン機能を用いて読取画像を取得・解析した場合、埋込情報を認識することができる。   In the present embodiment, the terminal device 1 embeds information in the received input image and transmits it to the image processing device 2, and the image processing device 2 prints the transmitted image in which the information is embedded. The embedded information embedded in the image on the printed paper is expressed by switching between printing characters in single color gray or mixed color gray. The embedded information is usually not visible to the user on the printed paper. However, when the image processing apparatus 2 acquires and analyzes the read image using the scan function, the embedded information can be recognized.

尚、以下の説明では便宜上、画像処理装置2が、レーザープリンタ23によりC(シアン)、M(マゼンダ)、Y(イエロー)、K(ブラック)の各色成分のトナーを用いて用紙に印刷する場合を例に挙げて説明するが、インクジェット方式により印刷してもよい。その場合、画像処理装置2は、CMYKの各色成分のインクを用いて印刷を実行する。   In the following description, for the sake of convenience, the image processing apparatus 2 uses the laser printer 23 to print on paper using toners of C (cyan), M (magenta), Y (yellow), and K (black) color components. However, it may be printed by an ink jet method. In that case, the image processing apparatus 2 executes printing using ink of each color component of CMYK.

(端末装置1のハードウェア構成)
端末装置1のハードウェア構成について説明する。図2は、端末装置1のハードウェア構成を示すブロック図である。端末装置1は、前述した表示部11及び操作部12の他、CPU101と、メモリ装置102と、ネットワークI/F103と、外部メディアI/F104と、画像処理部105とを備える。
(Hardware configuration of terminal device 1)
A hardware configuration of the terminal device 1 will be described. FIG. 2 is a block diagram illustrating a hardware configuration of the terminal device 1. In addition to the display unit 11 and the operation unit 12 described above, the terminal device 1 includes a CPU 101, a memory device 102, a network I / F 103, an external media I / F 104, and an image processing unit 105.

CPU101は、メモリ装置102に記憶されたプログラムに従って処理を実行する。メモリ装置102は、ROM、RAM、及び/又はHDDを備え、CPU101が実行するプログラムや各種データを格納する。表示部11は、液晶表示画面又はCRT等のディスプレイであり、入力画像に埋め込む情報や、スキャナーから受信した読取画像等を表示するほか、端末装置1の操作に関する情報を表示する。操作部12は、キーボード、マウス等の操作装置であり、ユーザーの操作を受け付ける。ネットワークI/F103は、端末装置1が接続されたネットワークのインターフェイスであり、端末装置1と画像処理装置2との通信を仲介する。外部メディアI/F104は、外部メディアとのインターフェイスであり、具体的にはDVDやCD等の着脱可能な外部メディアのドライブである。例えば、DVDに記録されたプログラムを実行する際には、外部メディアI/F104を経由してプログラムが実行される。   The CPU 101 executes processing according to a program stored in the memory device 102. The memory device 102 includes a ROM, a RAM, and / or an HDD, and stores programs executed by the CPU 101 and various data. The display unit 11 is a display such as a liquid crystal display screen or a CRT, and displays information to be embedded in the input image, a read image received from the scanner, and information related to the operation of the terminal device 1. The operation unit 12 is an operation device such as a keyboard and a mouse, and accepts user operations. The network I / F 103 is a network interface to which the terminal device 1 is connected, and mediates communication between the terminal device 1 and the image processing device 2. The external media I / F 104 is an interface with external media, and specifically, is a removable external media drive such as a DVD or CD. For example, when executing a program recorded on a DVD, the program is executed via the external media I / F 104.

画像処理部105は、端末装置1が受け付けた入力画像に対して所定の画像処理を実行する。本実施例に特有の画像処理として、画像処理部105は、入力画像に対して情報を埋め込む処理を実行するが、詳しくは後述する。尚、画像処理部105は、実際にはCPU101がメモリ装置102に格納されたプログラムを実行することにより実現される。当該プログラムは、例えばプリンタドライバや、携帯電話機やスマートフォンのアプリケーション等として端末装置1のメモリ装置102にインストールされる。或いは、当該プログラムを画像処理装置2にインストールすることにより、画像処理装置2を端末装置1として使用可能にすることもできる。   The image processing unit 105 performs predetermined image processing on the input image received by the terminal device 1. As image processing unique to the present embodiment, the image processing unit 105 executes processing for embedding information in the input image, which will be described in detail later. Note that the image processing unit 105 is actually realized by the CPU 101 executing a program stored in the memory device 102. The program is installed in the memory device 102 of the terminal device 1 as, for example, a printer driver, a mobile phone application, a smartphone application, or the like. Alternatively, the image processing apparatus 2 can be used as the terminal apparatus 1 by installing the program in the image processing apparatus 2.

(画像処理部105の構成)
画像処理部105の機能について説明する。図3は、画像処理部105の機能構成を示すブロック図である。画像処理部105は、情報取得部1051と、埋込情報生成部1052と、入力画像取得部1053と、出力画像生成部1054とを備える。
(Configuration of the image processing unit 105)
The function of the image processing unit 105 will be described. FIG. 3 is a block diagram illustrating a functional configuration of the image processing unit 105. The image processing unit 105 includes an information acquisition unit 1051, an embedded information generation unit 1052, an input image acquisition unit 1053, and an output image generation unit 1054.

本実施例では、端末装置1は、埋込情報に基づき、各文字を単色グレーと混色グレーとの何れかで生成するか判定することで、情報埋込画像である出力画像を生成する。当該生成された出力画像は、ネットワークI/F103を介して画像処理装置2に送信され、画像処理装置2で印刷される。   In this embodiment, the terminal device 1 generates an output image that is an information-embedded image by determining whether each character is generated in single color gray or mixed color gray based on the embedded information. The generated output image is transmitted to the image processing apparatus 2 via the network I / F 103 and printed by the image processing apparatus 2.

情報取得部1051は、情報を取得する。情報取得部1051が取得する情報は、文書が本物(正規のもの)であることを示す情報であり、ユーザーが操作部12により入力してもよい。文書が本物であることを示す情報は、書類手続きの手順として、文書自体が本物であるかどうかを識別したうえで、本物であれば次の手順へ進めるワークフローで利用される。文書が本物でない場合には、後続の手続きを中止する、或いは、前の手順へ差し戻す。具体的には、文書に対して、承認印を捺印、或いは、承認のサインを行う際に、文書が本物(正規のもの)であるかを確認したうえで、捺印或いはサインを行う。埋込情報生成部1052で生成された埋込情報は、画像処理装置2により文字に埋め込まれた状態で用紙に印刷される。そして、その印刷された用紙を画像処理装置2がスキャン機能を用いて読み取り、解析することにより、文書が本物であることを示す情報が埋め込まれていれば読み取った文書は本物であるとし、埋め込まれていなければ本物ではないとする。   The information acquisition unit 1051 acquires information. Information acquired by the information acquisition unit 1051 is information indicating that the document is genuine (genuine), and may be input by the user via the operation unit 12. Information indicating that a document is genuine is used in a workflow for proceeding to the next procedure if the document itself is genuine after identifying whether the document itself is genuine as a procedure of the document procedure. If the document is not authentic, stop subsequent procedures or return to the previous procedure. Specifically, when an approval mark is stamped or an approval sign is applied to a document, the document is checked for authenticity (authentic) and then the document is stamped or signed. The embedding information generated by the embedding information generation unit 1052 is printed on paper in a state of being embedded in characters by the image processing apparatus 2. Then, the image processing apparatus 2 reads and analyzes the printed sheet using the scan function, and if the information indicating that the document is genuine is embedded, the read document is assumed to be genuine, and embedded. If not, it is not genuine.

その他の例としては、情報取得部1051が取得する情報は、ID情報又は「時間」を示す情報(即ち「いつ文書を作成したか」を示す情報)等であり、ユーザーが操作部12により入力してもよいし、入力画像の画像データに付加された情報から取得してもよい。   As another example, the information acquired by the information acquisition unit 1051 is ID information or information indicating “time” (that is, information indicating “when a document was created”) or the like, which is input by the user via the operation unit 12 Alternatively, it may be acquired from information added to the image data of the input image.

埋込情報生成部1052は、情報取得部1051が取得した情報をエンコードすることで、ビット構成の埋込情報を生成する。   The embedded information generating unit 1052 encodes the information acquired by the information acquiring unit 1051 to generate bit-structured embedded information.

入力画像取得部1053は、端末装置1が受け付けた入力画像を取得する。入力画像は、メモリ装置102に予め格納されたものを取得してもよいし、ネットワークI/F103の仲介によりネットワーク経由で取得してもよい。   The input image acquisition unit 1053 acquires the input image received by the terminal device 1. The input image may be acquired in advance stored in the memory device 102, or may be acquired via a network via the network I / F 103.

出力画像生成部1054は、埋込情報生成部1052が生成した埋込情報及び入力画像取得部1053が取得した入力画像に基づき、CMYKの各色成分を用いて文書画像の文字部を生成することで、情報埋込画像である出力画像を生成する。   The output image generation unit 1054 generates a character part of the document image using each color component of CMYK based on the embedded information generated by the embedded information generation unit 1052 and the input image acquired by the input image acquisition unit 1053. Then, an output image that is an information-embedded image is generated.

本実施例では、情報を文字に埋め込む。具体的には、単色グレー文字に第1のデータとして0(ゼロ)を、混色グレー文字に第2のデータとして1を割り当てて、単色グレー文字はKの色成分のみを用いて生成し、混色グレー文字はCMYの色成分を用いて生成する。埋込情報に応じて、単色グレー文字と混色グレー文字との何れかを用いて各文字を生成することで、情報埋込画像を生成する。ここで、用紙に印刷された状態で単色グレー文字の色が混色グレー文字の色と異なると、生成した画像が情報埋込画像であることが肉眼で認識されてしまい望ましくない。そのため、本実施例では、単色グレー文字と、混色グレー文字とのそれぞれの色を肉眼で区別できないように調整する。図11に、情報を文字に埋め込む概要を示している。図11に示す例では、「101」という埋め込み情報を「下丸子」という3文字に対して埋め込んでいる。ビット1を割り当てる「下」及び「子」の文字は、CMYの色成分を用いて生成し、ビット0を割り当てる「丸」の文字は、Kの色成分を用いて生成する。尚、本例では、前述した通り、文字にデータを割り当てているが、データを割り当てる対象は文字に限定されず、記号等の、線で構成されたオブジェクトに対してデータを割り当てることが可能である。   In this embodiment, information is embedded in characters. Specifically, 0 (zero) is assigned as the first data to the single-color gray character, 1 is assigned to the mixed-color gray character as the second data, and the single-color gray character is generated using only the K color component. Gray characters are generated using CMY color components. An information embedding image is generated by generating each character using either a single color gray character or a mixed color gray character in accordance with the embedding information. Here, if the color of the single-color gray character is different from the color of the mixed-color gray character when printed on paper, it is not desirable because the generated image is recognized by the naked eye. For this reason, in this embodiment, adjustment is performed so that the colors of the single-color gray character and the mixed-color gray character cannot be distinguished with the naked eye. FIG. 11 shows an outline of embedding information in characters. In the example shown in FIG. 11, the embedding information “101” is embedded in the three characters “Shimomaruko”. The “lower” and “child” characters to which bit 1 is assigned are generated using CMY color components, and the “circle” character to which bit 0 is assigned are generated using K color components. In this example, as described above, data is assigned to characters. However, the object to which data is assigned is not limited to characters, and data can be assigned to objects composed of lines such as symbols. is there.

Cの色成分、Mの色成分、Yの色成分を同じ割合で足し合わせると肉眼ではKの色成分と同等に見えることが知られている。ただし、1画素単位で見ると、CMYの色成分を有する1画素では、CMYのそれぞれのトナー同士が完全に重なり合うことはなく印刷される。従って、CMYの色成分を足してKの色成分と同等の色とした1画素が印刷されると、当該1画素は肉眼ではKのトナーのみで印刷した1画素と同等の色に見えても、複合機はCMYのそれぞれの色成分を検出し、Kの色成分を検出しない。一方で、Kの色成分を有する1画素が印刷されると、Kの色成分はKのトナーで印刷されるため、当該1画素につき、複合機はKの色成分を検出する。   It is known that when the C color component, the M color component, and the Y color component are added together at the same ratio, it looks the same as the K color component to the naked eye. However, when viewed in units of one pixel, one pixel having CMY color components is printed without the CMY toners completely overlapping each other. Therefore, when one pixel having the same color as the K color component is printed by adding the CMY color components, the one pixel may appear to be the same color as the one pixel printed with only the K toner. The multifunction device detects each color component of CMY and does not detect the color component of K. On the other hand, when one pixel having a K color component is printed, the K color component is printed with K toner, so the multifunction peripheral detects the K color component for each pixel.

本実施例では、混色グレー文字のCMYのそれぞれの濃度値に、Kの色成分に対応するCMYのそれぞれの濃度値を同等に加えたCMYの色成分を用いて混色グレー文字を生成する。さらに、混色グレー文字を構成する画素の明度、色相、及び彩度を調整することで、単色グレー文字と混色グレー文字画素との色を合わせる。これにより、印刷物において、単色グレー文字と混色グレー文字とが隣り合っている場合でも、文字の見栄えとして肉眼で認識されない情報埋込画像を生成することができる。   In the present embodiment, a mixed-color gray character is generated by using a CMY color component obtained by adding each CMY density value corresponding to the K color component to each CMY density value of the mixed-color gray character. Further, by adjusting the brightness, hue, and saturation of the pixels constituting the mixed-color gray character, the colors of the single-color gray character and the mixed-color gray character pixel are matched. As a result, even when a single-color gray character and a mixed-color gray character are adjacent to each other in the printed matter, an information-embedded image that cannot be recognized by the naked eye as the appearance of the character can be generated.

具体的には、混色グレー文字を構成する画素に含まれるCMYKそれぞれの色成分のうち、Kの色成分の濃度を0にする。そして、0にする前のKの色成分の濃度と同じ濃度分(すなわちマイナスした分)、CMY各々の色成分の濃度を増加させて、混色グレー文字のうちの1画素に含まれるCMYそれぞれの色成分の濃度を暫定的に求める。次に、CMYそれぞれの色成分を足し合わせる際に生ずる明度の非線形性を考慮し、CMYそれぞれの色成分の濃度を調整(補正)して最終的なCMYの色成分の濃度を得る。尚、ここで示した手法は、文字の色味を合わせる手法の一例である。   Specifically, the density of the K color component is set to 0 among the CMYK color components included in the pixels constituting the mixed color gray character. Then, the density of each CMY color component is increased by the same density (that is, minus) as the density of the K color component before being set to 0, and each of the CMY included in one pixel of the mixed color gray characters is increased. Temporarily obtain the density of the color component. Next, in consideration of the non-linearity of lightness that occurs when the color components of CMY are added, the density of the color components of CMY is adjusted (corrected) to obtain the final density of the color components of CMY. The technique shown here is an example of a technique for matching the color of characters.

このように混色グレー文字を構成する画素のCMYそれぞれの色成分の濃度を調整(補正)する具体的な方法として、例えば以下の方法が考えられる。即ち、単色グレー文字を構成する画素のうちの1画素に含まれるCMYKそれぞれの色成分の濃度の可能な全ての組み合わせ(条件情報)に対する、各色成分の濃度の補正量を予め実験等によって求めてテーブルに格納することが考えられる。或いは、それぞれの色成分の一定の濃度幅毎(刻み)の組み合わせ(条件情報)に対する、各色成分の濃度の補正量を予め求めてテーブルに格納してもよい。その場合、一定の濃度刻みによる濃度値の組み合わせについては線形近似等を行うことで補正精度を向上させることができる。   As a specific method for adjusting (correcting) the density of the color components of the CMY pixels constituting the mixed gray character, for example, the following method can be considered. In other words, the correction amount of the density of each color component is previously determined by experiments or the like for all possible combinations (condition information) of the density of each color component of CMYK included in one of the pixels constituting the monochromatic gray character. It can be stored in a table. Alternatively, the correction amount of the density of each color component with respect to the combination (condition information) for each constant density range (step) of each color component may be obtained in advance and stored in the table. In that case, the correction accuracy can be improved by performing linear approximation or the like for combinations of density values at constant density steps.

尚、上述した例では、Kの色成分のみを用いて生成する単色グレー文字と、Kの色成分を用いないで生成する混色グレー文字とが、見た目上同等の色で印刷されるようにするため、混色グレー文字では、Kの色成分を減じた分、CMYの色成分を増加させる。しかし、本実施例は、この例に限定されない。   In the above-described example, a single-color gray character generated using only the K color component and a mixed-color gray character generated without using the K color component are printed with an apparently equivalent color. Therefore, in the mixed color gray character, the CMY color component is increased by the amount corresponding to the reduction of the K color component. However, the present embodiment is not limited to this example.

逆に、Kの色成分のみを用いて生成する単色グレー文字と、Kの色成分を用いないで生成する混色グレー文字とが同等の色で印刷されるようにするため、単色グレー文字において、CMYの色成分をそれぞれ減じ、その分、Kの色成分を増加してもよい。その場合も上述した例と同様、単色グレー文字において、CMYKそれぞれの色成分の濃度のうち、CMYの色成分の濃度を減じて0にする。そして、減じた濃度分、Kの色成分を増加させる。このようにして、単色グレー文字に含まれるKの色成分の濃度を暫定的に求める。次に、Kの色成分を足し合わせる際に生ずる明度の非線形性を考慮し、Kの色成分の濃度を調整(補正)して最終的なKの色成分の濃度を得る。尚、ここに示した手法は、文字の色味を合わせる手法の一例であり、上述した例と同様、テーブルデータを用いてKの色成分の濃度を調整(補正)することができる。   Conversely, in order to print a single color gray character generated using only the K color component and a mixed color gray character generated without using the K color component in the same color, The CMY color components may be reduced, and the K color component may be increased accordingly. In this case, similarly to the above-described example, the density of the CMY color components is reduced to 0 by reducing the density of the CMYK color components in the monochromatic gray character. Then, the K color component is increased by the reduced density. In this way, the density of the K color component included in the single-color gray character is provisionally obtained. Next, in consideration of the non-linearity of the brightness that occurs when the K color components are added, the density of the K color component is adjusted (corrected) to obtain the final density of the K color component. The technique shown here is an example of a technique for matching the color of characters, and the density of the K color component can be adjusted (corrected) using the table data as in the above-described example.

(出力画像生成処理)
出力画像生成処理について、図4を用いて説明する。図4は、出力画像生成処理の流れを示すフローチャートである。
(Output image generation processing)
The output image generation process will be described with reference to FIG. FIG. 4 is a flowchart showing the flow of output image generation processing.

ステップS41(以下、「ステップS41」を「S41」と略記し、他のステップも同様に略記する)において、情報取得部1051は、入力画像に埋め込む情報(ローデータ)を取得する。   In step S41 (hereinafter, “step S41” is abbreviated as “S41” and other steps are also abbreviated in the same manner), the information acquisition unit 1051 acquires information (raw data) to be embedded in the input image.

S42において、埋込情報生成部1052は、S41で取得した情報から、入力画像に埋め込み可能な埋込情報(バイナリデータ)を生成する。   In S42, the embedding information generation unit 1052 generates embedding information (binary data) that can be embedded in the input image from the information acquired in S41.

S43において、入力画像取得部1053は、メモリ装置102から入力画像を取得する。   In step S <b> 43, the input image acquisition unit 1053 acquires an input image from the memory device 102.

S44において、出力画像生成部1054は、S43で取得した入力画像の文字部にS42で生成した埋込情報を埋め込むことで出力画像を生成する。
(情報埋込処理)
図4のS44で説明した埋込情報を入力画像に埋め込む処理について、図5を用いて説明する。図5は、当該埋め込む処理の流れを示すフローチャートである。
In S44, the output image generation unit 1054 generates an output image by embedding the embedding information generated in S42 in the character portion of the input image acquired in S43.
(Information embedding process)
The process of embedding the embedding information described in S44 of FIG. 4 in the input image will be described with reference to FIG. FIG. 5 is a flowchart showing the flow of the embedding process.

S51において、出力画像生成部1054は、入力画像の色空間(RGB空間)を、輝度と色度とを示す空間(Lab空間)へと変換する。尚、ここでは入力画像の色空間がRGB空間であるとして説明を行うが、入力画像の色空間は、RGB空間に限らない。   In S51, the output image generation unit 1054 converts the color space (RGB space) of the input image into a space (Lab space) indicating luminance and chromaticity. Although the description will be made here assuming that the color space of the input image is the RGB space, the color space of the input image is not limited to the RGB space.

S52において、出力画像生成部1054は、S51での処理によりLab空間で表現された画像を構成する画素について、有彩色か無彩色かの判定を画素ごとに行い、無彩色の画素を抽出する。   In S52, the output image generation unit 1054 determines whether each pixel constituting the image expressed in the Lab space by the processing in S51 is a chromatic color or an achromatic color, and extracts an achromatic pixel.

S53において、出力画像生成部1054は、S52で無彩色と判定された画素に対する2値化処理を実行して2値画像を生成することで、文字部を取得する。   In S53, the output image generation unit 1054 executes the binarization process on the pixels determined to be achromatic in S52 and generates a binary image, thereby acquiring the character part.

S54において、出力画像生成部1054は、S42で生成した埋込情報に基づき、単色グレー文字と、混色グレー文字との配置処理を実行する。S54では、単色グレー文字に0(ゼロ)を割り当て、混色グレー文字に1を割り当てるビット割り当てを行っており、この処理によって、文書画像に埋込情報を埋め込んだ情報埋込画像の生成が可能となる。   In S54, the output image generation unit 1054 executes arrangement processing of the single color gray character and the mixed color gray character based on the embedding information generated in S42. In S54, 0 (zero) is assigned to a single-color gray character, and bit assignment is performed to assign 1 to a mixed-color gray character. With this processing, an information-embedded image in which embedded information is embedded in a document image can be generated. Become.

(情報読出処理)
画像処理装置2が実行する情報読出処理の流れについて、図6を用いて説明する。図6は、情報読出処理の流れを示すフローチャートである。
(Information reading process)
A flow of information reading processing executed by the image processing apparatus 2 will be described with reference to FIG. FIG. 6 is a flowchart showing the flow of the information reading process.

S61において、画像処理装置2は、印刷した紙を、スキャナーを用いてスキャンすることで、画像読取を実行する。尚、端末装置1が携帯電話機やスマートフォン等の携帯情報端末装置の場合、印刷した紙を、備え付けのカメラを用いて撮影することで画像を読み取り、当該読み取った画像を画像処理装置2に送信することも可能である。   In S61, the image processing apparatus 2 performs image reading by scanning the printed paper using a scanner. In the case where the terminal device 1 is a portable information terminal device such as a mobile phone or a smartphone, an image is read by photographing the printed paper using a built-in camera, and the read image is transmitted to the image processing device 2. It is also possible.

S62において、画像処理装置2は、読み取った画像に対する情報読込処理を実行する。情報読込処理の詳細は後述する。   In S <b> 62, the image processing apparatus 2 executes information reading processing for the read image. Details of the information reading process will be described later.

S63において、画像処理装置2は、S62で読み込んだ情報を表示する。尚、画像処理装置2が読み込んだ情報を端末装置1に送信し、端末装置1の表示部11が当該情報を表示してもよい。   In S63, the image processing apparatus 2 displays the information read in S62. The information read by the image processing device 2 may be transmitted to the terminal device 1, and the display unit 11 of the terminal device 1 may display the information.

(情報読込処理)
図6のS62で説明した情報読込処理について、図7を用いて説明する。図7は、情報読込処理の流れを示すフローチャートである。
(Information reading process)
The information reading process described in S62 of FIG. 6 will be described with reference to FIG. FIG. 7 is a flowchart showing the flow of the information reading process.

S71において、画像処理装置2は、S61で読み取った画像データの色空間(RGB空間)を、輝度と色度とを示す空間(Lab空間)へと変換する。尚、ここでは読み取った画像の色空間がRGB空間であるとして説明を行うが、読み取った画像の色空間はRGB空間に限らない。また、変換後の色空間もLab空間に限らない。   In S71, the image processing apparatus 2 converts the color space (RGB space) of the image data read in S61 into a space (Lab space) indicating luminance and chromaticity. Although the description will be made here assuming that the color space of the read image is the RGB space, the color space of the read image is not limited to the RGB space. Further, the color space after conversion is not limited to the Lab space.

S72において、画像処理装置2は、S71での処理によりLab空間で表現された画像を構成する画素について、有彩色か無彩色かの判定を画素ごとに行い、無彩色の画素を抽出する。   In S <b> 72, the image processing apparatus 2 determines whether each pixel constituting the image expressed in the Lab space by the process in S <b> 71 is a chromatic color or an achromatic color, and extracts an achromatic pixel.

S73において、画像処理装置2は、S72で無彩色と判定された画素に対する2値化処理を実行して2値画像を生成し、文字部を抽出する。   In S73, the image processing apparatus 2 executes a binarization process on the pixels determined to be achromatic in S72, generates a binary image, and extracts a character part.

S74において、画像処理装置2は、S73の2値化処理により抽出した文字部に対して、各文字が単色グレー文字と混色グレー文字との何れであるかの判定を実行する。   In S74, the image processing apparatus 2 determines whether each character is a single color gray character or a mixed color gray character with respect to the character portion extracted by the binarization processing in S73.

S75において、画像処理装置2は、S74での判定により取得した、単色グレー文字と混色グレー文字との配置から得られるビットの並びから情報のデコード処理を実行する。   In S75, the image processing apparatus 2 executes the information decoding process from the bit arrangement obtained from the arrangement of the single-color gray character and the mixed-color gray character acquired by the determination in S74.

本実施例によれば、文書画像の文字部の各文字を単色グレー文字か混色グレー文字かの何れかで生成することにより情報を埋め込むため、文書のフォーマットや見た目を変えることなく情報埋込画像を生成することが可能になる。   According to the present embodiment, since the information is embedded by generating each character of the character portion of the document image as either a single color gray character or a mixed color gray character, the information embedded image is not changed without changing the format or appearance of the document. Can be generated.

本実施例では、情報を埋め込む文字を絞り込むようにする。以下、本実施例について、実施例1と異なる点に着目して説明する。ただし、以下の実施例の説明では、前述した実施例と共通する内容については、説明を簡易化又は省略する。   In this embodiment, the characters for embedding information are narrowed down. Hereinafter, the present embodiment will be described by paying attention to different points from the first embodiment. However, in the following description of the embodiment, the description common to the above-described embodiment is simplified or omitted.

(情報埋込処理)
本実施例に係る、情報を埋め込む文字を絞り込む処理について、図8を用いて説明する。図8は、本実施例に係る、情報を埋め込む文字を絞り込みながら、文字に情報を埋め込む処理の流れを示すフローチャートである。
(Information embedding process)
A process for narrowing down characters to be embedded according to the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating a flow of processing for embedding information in characters while narrowing down characters for embedding information according to the present embodiment.

S51からS53の処理は、実施例1と同様である(図5参照)。   The processing from S51 to S53 is the same as that in the first embodiment (see FIG. 5).

S81において、出力画像生成部1054は、S53の2値化処理により抽出した文字部に対して、文字の親輪郭(外輪郭)のみを検索するラベリング処理を実行する。ここで親輪郭のみを検索する理由は、検索により子輪郭を見つけたとしても、子輪郭で囲まれた領域は親輪郭で囲まれた領域の上に存在するため、子輪郭で囲まれた文字には下地が存在する可能性が高いと判断できるからである。   In S81, the output image generation unit 1054 executes a labeling process for searching only the parent outline (outer outline) of the character with respect to the character part extracted by the binarization process of S53. The reason for searching only the parent contour here is that even if the child contour is found by the search, the region surrounded by the child contour exists above the region surrounded by the parent contour. This is because it can be determined that there is a high possibility that a ground exists.

S82において、出力画像生成部1054は、S81でラベリング処理された結果を解析して、正方条件、大きさ条件、密度条件に応じて、文字毎に、情報埋め込み可能であるか否かを判定する。図12に、各文字に対して、外接矩形を求めて、外接矩形化した例を示す。例えば、図12に示すような外接矩形化した1つ1つの文字に対して、正方条件に従った絞り込み処理を行う。   In S82, the output image generation unit 1054 analyzes the result of the labeling process in S81, and determines whether information can be embedded for each character according to the square condition, the size condition, and the density condition. . FIG. 12 shows an example in which a circumscribed rectangle is obtained for each character and converted into a circumscribed rectangle. For example, the narrowing-down process according to the square condition is performed on each circumscribed rectangular character as shown in FIG.

正方条件は、読み込み処理でボケたり解像感が低下しても見つけやすい文字を拾うために用いられる。大きさ条件は、大きさが大きすぎず小さすぎない文字を拾うために用いられる。文字が大きすぎる場合、CMYトナーで印字すると混色グレー文字が目立ち易くなってしまい、且つ、トナー消費量が多くなってしまう。また、文字が小さすぎる場合、画素数が少なくなり読み込み時の判定精度が低下してしまうことがある。密度条件は、文字の密度が高すぎると、混色グレー文字にした場合につぶれが発生してしまう可能性があるので、そのような密度が高すぎる文字を拾わないために用いられる。   The square condition is used to pick up characters that are easy to find even if the reading process is blurred or the resolution is reduced. The size condition is used to pick up characters that are neither too big nor too small. If the characters are too large, mixed color gray characters are likely to be noticeable and toner consumption increases when printing with CMY toner. In addition, if the character is too small, the number of pixels is reduced and the determination accuracy at the time of reading may be reduced. The density condition is used in order not to pick up a character having a density that is too high, because if the density of the character is too high, there is a possibility that the mixed color gray character may be crushed.

S54の処理は、実施例1と同様である(図5参照)。   The process of S54 is the same as that of the first embodiment (see FIG. 5).

以上のように、情報を埋め込む文字を絞り込みながら、情報の埋め込みを行う。情報の埋め込みが完了すると、端末装置1は、情報埋込画像を画像処理装置2に送信する。画像処理装置2は、当該送信された情報埋込画像を紙に印刷し、当該印刷した紙に対する読出処理を実行する(図6参照)。   As described above, information is embedded while narrowing down characters to be embedded. When the information embedding is completed, the terminal device 1 transmits the information embedded image to the image processing device 2. The image processing apparatus 2 prints the transmitted information-embedded image on paper, and executes a reading process on the printed paper (see FIG. 6).

(情報読込処理)
本実施例に係る情報埋込画像から情報を読み込む処理について、図9を用いて説明する。図9は、本実施例に係る情報読込処理の流れを示すフローチャートである。
(Information reading process)
Processing for reading information from the information embedded image according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating the flow of the information reading process according to the present embodiment.

S71からS73の処理は、実施例1と同様である(図7参照)。   The processing from S71 to S73 is the same as that in the first embodiment (see FIG. 7).

S91において、画像処理装置2は、S73で2値化処理により抽出した文字部に対して、文字の親輪郭のみを検索するラベリング処理を実行する。この処理は、図8のS81と同じ処理である。   In S91, the image processing apparatus 2 executes a labeling process for searching only the parent outline of the character for the character part extracted by the binarization process in S73. This process is the same as S81 in FIG.

S92において、画像処理装置2は、S91でラベリング処理された結果を解析して、正方条件、大きさ条件、密度条件に応じて、文字毎に、情報埋め込み可能な文字であるか否かを判定し、情報埋め込み可能な文字を抽出する。   In S92, the image processing apparatus 2 analyzes the result of the labeling process in S91, and determines whether or not the information can be embedded with information according to the square condition, the size condition, and the density condition. Then, characters that can be embedded are extracted.

S74において、画像処理装置2は、S92で抽出した文字毎に、単色グレー文字と混色グレー文字との何れであるかの判定を実行する。   In S <b> 74, the image processing apparatus 2 determines whether each character extracted in S <b> 92 is a single color gray character or a mixed color gray character.

S75の処理は、実施例1と同様である(図7参照)。   The process of S75 is the same as that of the first embodiment (see FIG. 7).

本実施例によれば、文書画像の文字部に対して、各文字が情報を埋め込むのに適しているか否かの判定処理を実行した後、文字に情報を埋め込む。これにより、読み取る側でより確実に情報を読み取ることができるようになる。   According to the present embodiment, information is embedded in the character after executing a process of determining whether or not each character is suitable for embedding information in the character portion of the document image. Thereby, information can be read more reliably on the reading side.

本実施例は、情報を埋め込む文字を絞り込む点で実施例2と同様である。以下、本実施例について、前述した実施例2と異なる点に着目して説明する。   The present embodiment is the same as the second embodiment in that the characters for embedding information are narrowed down. Hereinafter, the present embodiment will be described by focusing on differences from the above-described second embodiment.

本実施例では、読み取る側で読み込み処理がし易くなるように、埋め込む側で情報を埋め込む文字を絞り込む。具体的には、読み取る側で情報を読み込む際、文書画像の文字部にぼけが発生している可能性を考慮して、ぼけが発生した場合であっても情報を正確に読み込める文字だけに対して、埋め込む側で情報を埋め込むようにする。図10は、本実施例に係る、情報を埋め込む文字を絞り込みながら、文字に情報を埋め込む処理の流れを示すフローチャートである。   In the present embodiment, the characters to embed information are narrowed down on the embedding side so that the reading side can easily perform the reading process. Specifically, when reading information on the reading side, considering the possibility of blurring in the character part of the document image, only characters that can be read accurately even if blurring occurs. Then, embed the information on the embedding side. FIG. 10 is a flowchart illustrating a flow of processing for embedding information in characters while narrowing down characters for embedding information according to the present embodiment.

S51からS53の処理は、実施例1と同様である(図5参照)。   The processing from S51 to S53 is the same as that in the first embodiment (see FIG. 5).

S101において、出力画像生成部1054は、S53の処理の結果抽出した文字部に対する太らせ処理を実行する。この太らせ処理は、読み取る側で情報を読み込む際、文書画像の文字部にぼけが発生する可能性を考慮して、ぼけが発生した場合でも埋め込んだ情報を文字から正確に読み込むことができるようにするために実行される。太らせ処理を行った結果、周囲の文字と接してしまう文字に対しては、情報の埋め込みを行わないよう制御する。ここで「太らせ処理」とは、文字部の各文字を構成する線を太らせる処理である。太らせ処理の代替として、トラッピング処理を実行してもよい。また、ぼかし処理を実行することでも、太らせ処理と同様の画像を得ることが可能であり、文字がぼけることが再現できる任意の画像処理を本ステップで利用することができる。   In S101, the output image generation unit 1054 executes a fattening process on the character part extracted as a result of the process in S53. This fattening process allows the embedded information to be accurately read from the characters even when blurring occurs in consideration of the possibility of blurring in the character part of the document image when reading the information on the reading side. To be executed. Control is performed so as not to embed information for characters that come in contact with surrounding characters as a result of the fattening process. Here, the “thickening process” is a process of thickening lines constituting each character of the character part. As an alternative to the fattening process, a trapping process may be executed. Also, by executing the blurring process, an image similar to the fattening process can be obtained, and any image processing that can reproduce the blurring of characters can be used in this step.

図13は、2値化処理後の2値画像に対してぼかし処理を行った例を示す図である。図13の上段の例では、文字「下」、「丸」、「子」は離れて配置されているので、ぼかし処理を行ったときに、隣接する文字同士が接していない。しかし、図13の下段の例では、隣接する文字「下」と「丸」との間の間隔が狭いので、ぼかし処理を行ったときに、文字「下」と「丸」とが接している。このように文字が接してしまうと、埋め込む側で情報をそれぞれの文字に埋め込んだとしても、読み取る側で隣接する複数の文字を1つの文字として認識してしまうので、情報を正確に読み込むことができない。そのため、本実施例では、ぼかし処理によって周囲の文字と接してしまうことになる文字は、情報の埋め込み対象から除外する。   FIG. 13 is a diagram illustrating an example in which the blurring process is performed on the binary image after the binarization process. In the upper example of FIG. 13, the characters “lower”, “circle”, and “child” are arranged apart from each other, so that when the blurring process is performed, adjacent characters are not in contact with each other. However, in the lower example of FIG. 13, since the space between the adjacent characters “lower” and “circle” is narrow, the characters “lower” and “circle” are in contact when the blurring process is performed. . When characters touch each other in this way, even if information is embedded in each character on the embedding side, a plurality of adjacent characters are recognized as one character on the reading side, so that information can be read accurately. Can not. For this reason, in this embodiment, characters that will be in contact with surrounding characters due to the blurring process are excluded from the information embedding targets.

S101に後続する処理は、前述した実施例と同様である(図5及び図8参照)。   The processing subsequent to S101 is the same as that in the above-described embodiment (see FIGS. 5 and 8).

本実施例によれば、文書画像の文字部に対して、各文字が情報を埋め込むのに適しているか否かの判定処理を実行した後、文字に情報を埋め込む。これにより、読み取る側でより確実に情報を読み取ることができるようになる。   According to the present embodiment, information is embedded in the character after executing a process of determining whether or not each character is suitable for embedding information in the character portion of the document image. Thereby, information can be read more reliably on the reading side.

実施例1では、各文字を単色グレー文字と混色グレー文字との何れかで生成し、単色グレー文字に0(ゼロ)を、混色グレー文字に1を割り当てることで、文字に情報を埋め込む手法を説明した。実施例1によって情報が埋め込まれた画像が印刷出力された場合、画像処理装置2が600dpi等の高解像度のスキャナーを備えていれば、画像読込処理において、単色グレー文字と混色グレー文字との違いを容易に判断できる。しかし、スマートフォンや携帯電話機の備え付けカメラや、デジタルカメラを用いて撮影するなど、低解像度デバイスや色味が不安定なデバイスを用いて画像を取得した場合、画像読込処理において、単色グレー文字と混色グレー文字との違いを容易に判断できない。そこで、本実施例では、読み取る側で情報を読み込む際の情報読み込み精度を向上させるために、混色グレー文字の印字方法を工夫する。   In the first embodiment, a method of embedding information in a character by generating each character as either a single color gray character or a mixed color gray character, and assigning 0 (zero) to the single color gray character and 1 to the mixed color gray character. explained. When an image in which information is embedded according to the first embodiment is printed out, if the image processing apparatus 2 includes a high-resolution scanner such as 600 dpi, the difference between the single color gray character and the mixed color gray character in the image reading process Can be easily determined. However, when images are acquired using a low-resolution device or a device with unstable color, such as when using a camera equipped with a smartphone or mobile phone, or using a digital camera, color mixing with monochromatic gray characters in the image reading process The difference from gray letters cannot be easily determined. Therefore, in this embodiment, a mixed gray character printing method is devised in order to improve information reading accuracy when reading information on the reading side.

(情報埋込処理)
本実施例に係る情報埋込処理について、図14及び図15を用いて説明する。図14は、本実施例に係る情報埋込処理の流れを示すフローチャートであり、図15は、本実施例に係る混色グレー文字の端部における印字設定を示す図である。
(Information embedding process)
Information embedding processing according to the present embodiment will be described with reference to FIGS. FIG. 14 is a flowchart showing the flow of the information embedding process according to the present embodiment, and FIG. 15 is a diagram showing the print setting at the end of the mixed color gray character according to the present embodiment.

S51からS54の処理は、実施例1と同様である(図5参照)。   The processing from S51 to S54 is the same as that in the first embodiment (see FIG. 5).

S141において、出力画像生成部1054は、S54で混色グレー文字とされた文字に対する端部画素検出処理を実行する。端部画素検出処理について、図15を用いて説明する。S53での2値化処理により取得した2値画像に対し、1行2列範囲の画素(即ち、位置(x,y)の画素及び位置(x+1,y)の画素)の画素値を取得する。そして、位置(x,y)の画素が黒画素であり、且つ、位置(x+1,y)の画素が白画素である場合、位置(x,y)の画素が文字の右端部であると判断する。一方、位置(x,y)の画素が白画素であり、且つ、位置(x+1,y)の画素が黒画素である場合、位置(x+1,y)の画素が文字の左端部であると判断する。また、2行1列範囲の画素の画措値を取得して、位置(x,y)の画素が黒画素であり、且つ、位置(x,y+1)の画素が白画素である場合、位置(x,y)の画素が文字の上端部であると判断してもよい。また、位置(x,y)の画素が白画素であり、且つ、位置(x,y+1)の画素が黒画素である場合、位置(x,y+1)の画素が文字の下端部であると判断してもよい。   In step S141, the output image generation unit 1054 executes end pixel detection processing for the character that has been changed to the mixed color gray character in step S54. The edge pixel detection process will be described with reference to FIG. For the binary image acquired by the binarization process in S53, the pixel values of the pixels in the range of 1 row and 2 columns (that is, the pixel at the position (x, y) and the pixel at the position (x + 1, y)) are acquired. . If the pixel at the position (x, y) is a black pixel and the pixel at the position (x + 1, y) is a white pixel, it is determined that the pixel at the position (x, y) is the right end of the character. To do. On the other hand, when the pixel at the position (x, y) is a white pixel and the pixel at the position (x + 1, y) is a black pixel, it is determined that the pixel at the position (x + 1, y) is the left end of the character. To do. Further, when the pixel value of the pixel in the range of 2 rows and 1 column is acquired, the pixel at the position (x, y) is a black pixel, and the pixel at the position (x, y + 1) is a white pixel. You may judge that the pixel of (x, y) is the upper end part of a character. If the pixel at the position (x, y) is a white pixel and the pixel at the position (x, y + 1) is a black pixel, it is determined that the pixel at the position (x, y + 1) is the lower end of the character. May be.

S142において、S141で位置(x,y)の画素が文字の右端部であると判断された場合、位置(x+1,y)の画素(白画素)がCMYのいずれか一色で印字されるように設定する。図15の例では、位置(x+1,y)の画素が、Y(イエロー)で印字されるようにビットマップを生成している。尚、図15の例では、文字「あ」の右端に、Y(イエロー)1色で印字される画素が追加されるようにビットマップを生成しているが、左端、上端、下端でも同様の処理が可能である。また、文字「あ」の右端部の右側において、Y(イエロー)で一画素のみ印字されるようにビットマップを生成しているが、更に右隣の画素などを含んだ複数画素が印字されるようにしてもよい。さらに、1色印字に用いる色もY(イエロー)に限定されず、M(マゼンタ)やC(シアン)を用いてよい。   In S142, when it is determined in S141 that the pixel at the position (x, y) is the right end of the character, the pixel (white pixel) at the position (x + 1, y) is printed in one of CMY colors. Set. In the example of FIG. 15, the bitmap is generated so that the pixel at the position (x + 1, y) is printed in Y (yellow). In the example of FIG. 15, the bitmap is generated so that a pixel printed with one color Y (yellow) is added to the right end of the character “A”, but the same applies to the left end, upper end, and lower end. Processing is possible. In addition, on the right side of the right end of the character “A”, a bitmap is generated so that only one pixel is printed in Y (yellow), but a plurality of pixels including pixels on the right side are further printed. You may do it. Further, the color used for one-color printing is not limited to Y (yellow), and M (magenta) or C (cyan) may be used.

以上のように、本実施例では、情報埋込処理において、混色グレー文字の端部を検出し、検出した混色グレー文字の端部に1色印字される画素を追加するようにビットマップを生成する。   As described above, in this embodiment, in the information embedding process, a bit map is generated so as to detect the end of the mixed color gray character and add a pixel to be printed with one color at the detected end of the mixed color gray character. To do.

(情報読込処理)
本実施例に係る情報埋込画像から情報を読み込む処理について、図16を用いて説明する。図16は、本実施例に係る情報読込処理の流れを示すフローチャートである。
(Information reading process)
A process of reading information from the information embedded image according to the present embodiment will be described with reference to FIG. FIG. 16 is a flowchart illustrating the flow of the information reading process according to the present embodiment.

S71からS73の処理は、実施例1と同様である(図7参照)。   The processing from S71 to S73 is the same as that in the first embodiment (see FIG. 7).

S161において、画像処理装置2は、S73で2値化処理により抽出した文字部に含まれる単色グレー文字及び混色グレー文字に対し、前述した図14のS141と同様の端部画素検出処理を実行する。   In S161, the image processing apparatus 2 performs the edge pixel detection process similar to S141 in FIG. 14 described above on the single color gray character and the mixed color gray character included in the character part extracted by the binarization process in S73. .

S162において、画像処理装置2は、各文字の端部における印字状態を解析することで、各文字が単色グレー文字と混色グレー文字との何れであるかの判定を実行する。具体的には、S161で検出された端部に隣接する画素の信号値を取得する。一例として、位置(x,y)の画素が文字の右端部であり、位置(x+1,y)の画素にY(イエロー)で印字した場合を検討する。この場合、位置(x+1,y)の画素の輝度値(R(赤),G(緑),B(青))を取得する。斯かる輝度値の取得を一文字の全ての右端部に対して実行し、取得した輝度値を累積加算する。仮に、右端部の右側、即ち位置(x+1,y)の画素にY(イエロー)が印字されていなければ、輝度値を累積加算した結果は、右端部の右隣の画素が無彩色であるためR≒G≒Bとなる。しかし、本例では、右端部の右隣の位置(x+1,y)の画素はY(イエロー)で印字されている。従って、輝度値を累積加算した結果、Y(イエロー)の補色であるB(青)信号の信号値は他の色の信号値より大きくなり、R≒G<Bとなる。このように、文字の端部に隣接する画素の輝度値を累積加算することで、各文字が単色グレー文字と混色グレー文字との何れであるかを容易に判定できる。   In S162, the image processing apparatus 2 determines whether each character is a single color gray character or a mixed color gray character by analyzing the printing state at the end of each character. Specifically, the signal value of the pixel adjacent to the end detected in S161 is acquired. As an example, consider a case where the pixel at the position (x, y) is the right end of the character and the pixel at the position (x + 1, y) is printed in Y (yellow). In this case, the luminance values (R (red), G (green), B (blue)) of the pixel at the position (x + 1, y) are acquired. Such luminance value acquisition is executed for all right ends of one character, and the acquired luminance values are cumulatively added. If Y (yellow) is not printed on the right side of the right end, that is, the pixel at the position (x + 1, y), the result of cumulative addition of luminance values is that the pixel on the right side of the right end is achromatic. R≈G≈B. However, in this example, the pixel at the position (x + 1, y) immediately adjacent to the right end portion is printed in Y (yellow). Therefore, as a result of cumulative addition of the luminance values, the signal value of the B (blue) signal that is a complementary color of Y (yellow) becomes larger than the signal values of the other colors, and R≈G <B. Thus, by accumulatively adding the luminance values of the pixels adjacent to the end of the character, it is possible to easily determine whether each character is a single color gray character or a mixed color gray character.

尚、前述した例では、単色グレー文字に0(ゼロ)を、混色グレー文字に1を割り当て、混色グレー文字の端部に隣接する画素において1色印字することで、読み取る側で情報を正確に読み込めるようにした。しかし、本実施例は、前述した例に限定されない。例えば、単色グレー文字を用いず混色グレー文字のみを用いて、右端部に隣接する画素が1色印字された混色グレー文字に0(ゼロ)又は1を割り当て、左端部に隣接する画素が1色印字された混色グレー文字に1又は0(ゼロ)を割り当ててもよい。   In the above-described example, 0 (zero) is assigned to a single-color gray character, 1 is assigned to a mixed-color gray character, and one color is printed at a pixel adjacent to the end of the mixed-color gray character. I was able to read. However, the present embodiment is not limited to the example described above. For example, using only a mixed-color gray character without using a single-color gray character, 0 (zero) or 1 is assigned to a mixed-color gray character in which a pixel adjacent to the right end is printed in one color, and a pixel adjacent to the left end is one color. You may assign 1 or 0 (zero) to the mixed color gray character printed.

また、本実施例は、実施例2又は実施例3と組み合わせて実施する事も可能である。例えば、本実施例を実施例2と組み合わせる場合、情報を埋め込む文字を絞りこんだうえで、絞り込まれた文字のうちの混色グレー文字については、端部に隣接する画素が1色印字されるよう制御する。本実施例を実施例3と組み合わせる場合も同様に、太らせ処理後に情報を埋め込む文字を絞り込んだうえで、絞り込まれた文字のうちの混色グレー文字については、端部に隣接する画素が1色印字されるよう制御する。   In addition, this embodiment can be implemented in combination with the second embodiment or the third embodiment. For example, when the present embodiment is combined with the second embodiment, after narrowing down the character in which information is to be embedded, for a mixed-color gray character of the narrowed-down character, one color pixel is printed adjacent to the edge. Control. Similarly, when combining the present embodiment with the third embodiment, after narrowing down the characters to embed information after the fattening process, for mixed-color gray characters of the narrowed-down characters, one pixel adjacent to the end portion is one color. Control to print.

本実施例によれば、画像読み取りを実行する画像処理装置2が低解像度デバイスや、色味が不安定なデバイスであったとしても、より確実に情報を読み取ることができるようになる。   According to the present embodiment, even when the image processing apparatus 2 that executes image reading is a low-resolution device or a device with unstable color, information can be read more reliably.

実施例4では、読み取る側でより確実に情報を読み取ることを可能にするため、混色グレー文字の端部に隣接する画素を1色印字したが、各文字に0(ゼロ)又は1の何れかを割り当てるので、一文字に対して埋め込み可能な情報の容量は、1ビットである。本実施例では、情報の埋め込み手法及び読み込み手法を変えて、一文字に対し複数ビットの情報を埋め込めるようにする。   In the fourth embodiment, in order to make it possible to read information more reliably on the reading side, one color of the pixel adjacent to the end of the mixed color gray character is printed, but either 0 (zero) or 1 is printed on each character. Therefore, the capacity of information that can be embedded in one character is 1 bit. In the present embodiment, the information embedding method and reading method are changed so that information of a plurality of bits can be embedded in one character.

(情報埋込処理)
本実施例に係る情報埋込処理について、図17を用いて説明する。図17は、本実施例に係る情報埋込処理の流れを示すフローチャートである。
(Information embedding process)
Information embedding processing according to the present embodiment will be described with reference to FIG. FIG. 17 is a flowchart illustrating the flow of the information embedding process according to the present embodiment.

S51からS54の処理は、実施例1と同様である(図5参照)。   The processing from S51 to S54 is the same as that in the first embodiment (see FIG. 5).

S171において、出力画像生成部1054は、S54で混色グレー文字とされた文字に対する4方向端部画素検出処理を実行する。4方向端部とは、一文字における上下左右の方向の端部であり、右端部、左端部、上端部、及び下端部のことを指す。   In step S171, the output image generation unit 1054 performs a four-direction end pixel detection process on the character that is a mixed-color gray character in step S54. The four-direction ends are ends in the vertical and horizontal directions in one character, and refer to the right end, the left end, the upper end, and the lower end.

4方向端部画素検出処理について説明する。S53での2値化処理により取得した2値画像に対し、1行2列範囲の画素(即ち、位置(x,y)の画素及び位置(x+1,y)の画素)の画素値を取得する。そして、位置(x,y)の画素が黒画素であり、且つ、位置(x+1,y)の画素が白画素である場合、位置(x,y)の画素が文字部の右端部であると判断する。1行2列範囲の画素のうち、位置(x,y)の画素が白画素であり、且つ、位置(x+1,y)の画素が黒画素である場合には、位置(x+1,y)の画素が文字の左端部であると判断する。同様に、2行1列範囲の画素(即ち、位置(x,y)の画素及び位置(x,y+1)の画素)の画素値を取得する。そして、位置(x,y)の画素が黒画素であり、且つ、位置(x,y+1)の画素が白画素である場合、位置(x,y)の画素が文字の上端部であると判断する。2行1列範囲の画素のうち、位置(x,y)の画素が白画素であり、且つ、位置(x,y+1)の画素が黒画素である場合、位置(x,y+1)の画素が文字の下端部であると判断する。   The four-direction end pixel detection process will be described. For the binary image acquired by the binarization process in S53, the pixel values of the pixels in the range of 1 row and 2 columns (that is, the pixel at the position (x, y) and the pixel at the position (x + 1, y)) are acquired. . When the pixel at the position (x, y) is a black pixel and the pixel at the position (x + 1, y) is a white pixel, the pixel at the position (x, y) is the right end of the character part. to decide. If the pixel at position (x, y) is a white pixel and the pixel at position (x + 1, y) is a black pixel among the pixels in the range of 1 row and 2 columns, the pixel at position (x + 1, y) It is determined that the pixel is the left edge of the character. Similarly, the pixel value of the pixel in the range of 2 rows and 1 column (that is, the pixel at the position (x, y) and the pixel at the position (x, y + 1)) is acquired. If the pixel at the position (x, y) is a black pixel and the pixel at the position (x, y + 1) is a white pixel, it is determined that the pixel at the position (x, y) is the upper end of the character. To do. When the pixel at the position (x, y) is a white pixel and the pixel at the position (x, y + 1) is a black pixel among the pixels in the 2 rows and 1 column range, the pixel at the position (x, y + 1) is Judged as the lower end of the character.

S172において、出力画像生成部は、S42で生成した埋込情報を各文字に埋め込むための端部画素印字設定処理を実行する。   In step S172, the output image generation unit executes end pixel print setting processing for embedding the embedding information generated in step S42 in each character.

例えば、0(ゼロ)を割り当てる文字は単色グレー文字に設定する。1を割り当てる文字は、混色グレー文字且つ右端部に隣接する画素が1色印字される文字に設定する。2を割り当てる文字は、混色グレー文字且つ左端部に隣接する画素が1色印字される文字に設定する。3を割り当てる文字は、混色グレー文字且つ上端部に隣接する画素が1色印字される文字に設定する。4を割り当てる文字は、混色グレー文字且つ下端部に隣接する画素が1色印字される文字に設定する。以上の切り替えを行うことで、実施例4では一文字に0(ゼロ)か1の情報しか埋め込めなかったのに対し、本実施例では一文字に0(ゼロ)から4の何れかの情報を埋め込むことができる(図19参照)。   For example, a character to which 0 (zero) is assigned is set to a monochrome gray character. The character to which 1 is assigned is set to a mixed color gray character and a character in which a pixel adjacent to the right end is printed in one color. The character to be assigned 2 is set to a mixed color gray character and a character in which a pixel adjacent to the left end is printed in one color. The character to which 3 is assigned is set to a mixed color gray character and a character in which a pixel adjacent to the upper end is printed in one color. The character to which 4 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the lower end are printed in one color. By performing the above switching, information of 0 (zero) or 1 can be embedded in one character in the fourth embodiment, whereas any information from 0 (zero) to 4 is embedded in one character in the present embodiment. (See FIG. 19).

更に、5を割り当てる文字は、混色グレー文字且つ右端部に隣接する画素及び上端部に隣接する画素が1色印字される文字に設定する。6を割り当てる文字は、混色グレー文字且つ右端部に隣接する画素及び下端部に隣接する画素が1色印字される文字に設定する。7を割り当てる文字は、混色グレー文字且つ左端部に隣接する画素及び上端部に隣接する画素が1色印字される文字に設定する。8を割り当てる文字は、混色グレー文字且つ左端部に隣接する画素及び下端部に隣接する画素が1色印字される文字に設定する。以上の切り替えを行うことで、一文字に0(ゼロ)から8の何れかの情報を埋め込むことができる。   Furthermore, the character to which 5 is assigned is set to a character in which a mixed color gray character, a pixel adjacent to the right end portion, and a pixel adjacent to the upper end portion are printed in one color. The character to which 6 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the right end and a pixel adjacent to the lower end are printed in one color. The character to which 7 is assigned is set to a character in which one color is printed in a mixed color gray character and a pixel adjacent to the left end and a pixel adjacent to the upper end. The character to which 8 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the left end and a pixel adjacent to the lower end are printed in one color. By performing the above switching, any information from 0 (zero) to 8 can be embedded in one character.

更に、9を割り当てる文字は、混色グレー文字且つ左端部に隣接する画素及び右端部に隣接する画素が1色印字される文字に設定する。10を割り当てる文字は、混色グレー文字且つ上端部に隣接する画素及び下端部に隣接する画素が1色印字される文字に設定する。11を割り当てる文字は、混色グレー文字且つ右端部に隣接する画素、上端部に隣接する画素、及び下端部に隣接する画素が1色印字される文字に設定する。12を割り当てる文字は、混色グレー文字且つ左端部に隣接する画素、上端部に隣接する画素、及び下端部に隣接する画素が1色印字される文字に設定する。13を割り当てる文字は、混色グレー文字且つ上端部に隣接する画素、右端部に隣接する画素、及び左端部に隣接する画素が1色印字される文字に設定する。14を割り当てる文字は、混色グレー文字且つ下端部に隣接する画素、右端部に隣接する画素、及び左端部に隣接する画素が1色印字される文字に設定する。15を割り当てる文字は、混色グレー文字且つ上端部に隣接する画素、下端部に隣接する画素、左端部に隣接する画素、及び右端部に隣接する画素が1色印字される文字に設定する。以上の切り替えを行う事で、一文字に0(ゼロ)から15の何れかの情報(4bit)を埋め込む事ができる。   Furthermore, the character to which 9 is assigned is set to a mixed color gray character and a character in which a pixel adjacent to the left end and a pixel adjacent to the right end are printed in one color. The character to which 10 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the upper end and a pixel adjacent to the lower end are printed in one color. The character to which 11 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the right end, a pixel adjacent to the upper end, and a pixel adjacent to the lower end are printed in one color. The character to which 12 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the left end, a pixel adjacent to the upper end, and a pixel adjacent to the lower end are printed in one color. The character to which 13 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the upper end, a pixel adjacent to the right end, and a pixel adjacent to the left end are printed in one color. The character assigned 14 is set to a character in which a mixed color gray character and a pixel adjacent to the lower end, a pixel adjacent to the right end, and a pixel adjacent to the left end are printed in one color. The character to which 15 is assigned is set to a character in which a mixed color gray character and a pixel adjacent to the upper end, a pixel adjacent to the lower end, a pixel adjacent to the left end, and a pixel adjacent to the right end are printed in one color. By performing the above switching, any information (4 bits) from 0 (zero) to 15 can be embedded in one character.

(情報読込処理)
本実施例に係る情報埋込画像から情報を読み込む処理について、図18を用いて説明する。図18は、本実施例に係る情報読込処理の流れを示すフローチャートである。
(Information reading process)
Processing for reading information from the information embedded image according to the present embodiment will be described with reference to FIG. FIG. 18 is a flowchart illustrating the flow of the information reading process according to the present embodiment.

S71からS73の処理は、実施例1と同様である(図7参照)。   The processing from S71 to S73 is the same as that in the first embodiment (see FIG. 7).

S181において、画像処理装置2は、S73で2値化処理により抽出した文字部に含まれる単色グレー文字及び混色グレー文字に対し、図17のS171と同様の4方向端部画素検出処理を実行する。   In S181, the image processing apparatus 2 executes the four-direction end pixel detection process similar to S171 in FIG. 17 on the single color gray character and the mixed color gray character included in the character part extracted by the binarization process in S73. .

S182において、画像処理装置2は、S181で文字の端部と検出された画素に対して、その画素に隣接する画素が1色印字されているか否かを判定する。本ステップの処理は、図16のS162と同様である。例えば、右端部の位置(x,y)の画素の右隣の位置(x+1,y)の画素にY(イエロー)で印字した場合、位置(x+1,y)の画素の輝度値(R(赤),G(緑),B(青))を取得する。斯かる輝度値の取得を一文字の全ての右端部に対して実行し、取得した輝度値を累積加算する。仮に、右端部の右隣の位置(x+1,y)の画素がY(イエロー)で印字されていなければ、輝度値を累積加算した結果は、右端部の右隣の画素が無彩色であるためR≒G≒Bとなる。しかし、本例では、右端部の右隣の位置(x+1,y)の画素はY(イエロー)で印字されている。従って、輝度値を累積加算した結果、Y(イエロー)の補色であるB(青)信号の信号値は他の色の信号値より大きくなり、R≒G<Bとなる。このように、文字の右端部に隣接する画素の輝度値を累積加算することで、右端部に隣接する画素が1色印字されているか否かを判定できる。この処理を、上下左右の4方向に対して実行し、混色グレー文字の端部の印字状況を解析して、どの端部で1色印字が実行されているかを判定する。   In S <b> 182, the image processing apparatus 2 determines whether a pixel adjacent to the pixel detected as the end of the character in S <b> 181 is printed in one color. The processing in this step is the same as S162 in FIG. For example, when Y (yellow) is printed on the pixel at the position (x + 1, y) right next to the pixel at the right end position (x, y), the luminance value (R (red (red)) of the pixel at the position (x + 1, y) is printed. ), G (green), B (blue)). Such luminance value acquisition is executed for all right ends of one character, and the acquired luminance values are cumulatively added. If the pixel at the position (x + 1, y) right next to the right end is not printed in Y (yellow), the result of cumulative addition of the luminance values is that the right adjacent pixel at the right end is achromatic. R≈G≈B. However, in this example, the pixel at the position (x + 1, y) immediately adjacent to the right end portion is printed in Y (yellow). Therefore, as a result of cumulative addition of the luminance values, the signal value of the B (blue) signal that is a complementary color of Y (yellow) becomes larger than the signal values of the other colors, and R≈G <B. Thus, by accumulatively adding the luminance values of the pixels adjacent to the right end portion of the character, it is possible to determine whether or not one color is printed on the pixels adjacent to the right end portion. This process is executed in the four directions, up, down, left, and right, and the printing state of the end portion of the mixed color gray character is analyzed to determine at which end the one-color printing is being executed.

本実施例では、単色グレー文字と、4方向の端部に隣接する画素で1色印字可能な混色グレー文字とを用いることで、各文字に0(ゼロ)から15の何れかを割り当てることを可能にしている。尚、前述した例では、混色グレー文字の上下左右4方向すべてに対して、1色印字可能な場合を示したが、本実施例はこの例に限定されず、例えば、混色グレー文字の上下2方向のみに対して1色印字可能とする等の変更が可能である。   In this embodiment, by using a single color gray character and a mixed color gray character that can be printed in one color with pixels adjacent to the end portions in the four directions, any one of 0 (zero) to 15 is assigned to each character. It is possible. In the above-described example, the case where one color can be printed in all four directions of the mixed color gray character is shown. However, the present embodiment is not limited to this example. It is possible to change such that only one direction can be printed in one direction.

(その他の実施形態)
尚、本発明の目的は、以下の処理を実行することによっても達成される。即ち、前記実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。
(Other embodiments)
The object of the present invention can also be achieved by executing the following processing. That is, a storage medium in which a program code of software that realizes the functions of the above-described embodiment is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. Is a process of reading.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

Claims (14)

画像に情報を埋め込む画像処理装置であって、
画像に含まれるオブジェクトのうちの無彩色のオブジェクトを、単色グレーと、混色グレーとの何れかで生成する出力画像生成手段を備え、
前記単色グレーで生成する無彩色のオブジェクトには、第1のデータが割り当てられ、
前記混色グレーで生成する無彩色のオブジェクトには、前記第1のデータとは異なる第2のデータが割り当てられる
ことを特徴とする画像処理装置。
An image processing apparatus for embedding information in an image,
An output image generating means for generating an achromatic object among the objects included in the image in either a single color gray or a mixed color gray;
First data is assigned to the achromatic object generated in the single color gray,
2. An image processing apparatus according to claim 1, wherein second data different from the first data is assigned to the achromatic object generated in the mixed color gray.
前記単色グレーで生成する無彩色のオブジェクトとは単色グレー文字であり、前記混色グレーで生成する無彩色のオブジェクトとは混色グレー文字であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the achromatic color object generated by the single color gray is a single color gray character, and the achromatic color object generated by the mixed color gray is a mixed color gray character. 印刷出力される際に、
前記混色グレー文字は、C(シアン)、M(マゼンダ)、及びY(イエロー)で印字され、
前記混色グレー文字の端部に隣接する画素は、C(シアン)、M(マゼンダ)、又はY(イエロー)の何れかで1色印字されることを特徴とする請求項2に記載の画像処理装置。
When printed out,
The mixed color gray character is printed in C (cyan), M (magenta), and Y (yellow),
3. The image processing according to claim 2, wherein a pixel adjacent to an end portion of the mixed-color gray character is printed in one color in any of C (cyan), M (magenta), and Y (yellow). apparatus.
前記出力画像生成手段は、前記無彩色のオブジェクトの親輪郭を検索するラベリング処理を実行し、当該ラベリング処理によって得られた画像を用いて、前記無彩色のオブジェクトが情報埋め込み可能であるか否か判定することを特徴とする請求項1に記載の画像処理装置。   The output image generation means executes a labeling process for searching a parent contour of the achromatic object, and uses the image obtained by the labeling process to determine whether the achromatic object can be embedded with information. The image processing apparatus according to claim 1, wherein the determination is performed. 前記出力画像生成手段は、前記無彩色のオブジェクトに対する太らせ処理を実行し、当該太らせ処理により無彩色のオブジェクトが接した場合、当該接した無彩色のオブジェクトを情報埋め込み対象から除外することを特徴とする請求項1に記載の画像処理装置。   The output image generation unit executes a fattening process on the achromatic color object, and when the achromatic color object touches by the thickening process, the touching achromatic color object is excluded from information embedding targets. The image processing apparatus according to claim 1, wherein: 前記端部は、上端部、下端部、左端部、及び右端部であり、
前記出力画像生成手段は、各文字に割り当てられるデータに応じて、前記端部のうちのどの端部に対して1色印字を実行するか設定することを特徴とする請求項3に記載の画像処理装置。
The end portions are an upper end portion, a lower end portion, a left end portion, and a right end portion,
The image according to claim 3, wherein the output image generation unit sets which one of the end portions is to be subjected to one-color printing in accordance with data assigned to each character. Processing equipment.
画像から情報を読み取る画像処理装置であって、
画像に含まれるオブジェクトのうちの無彩色のオブジェクトが、単色グレーと、混色グレーとの何れかで生成されているか判定する手段を備え、
前記単色グレーで生成された無彩色のオブジェクトには、第1のデータが割り当てられて、
前記混色グレーで生成された無彩色のオブジェクトには、前記第1のデータとは異なる第2のデータが割り当てられた
ことを特徴とする画像処理装置。
An image processing apparatus that reads information from an image,
Means for determining whether an achromatic color object among the objects included in the image is generated in a single color gray or a mixed color gray;
First data is assigned to the achromatic color object generated in the single color gray,
2. An image processing apparatus according to claim 1, wherein second data different from the first data is assigned to the achromatic color object generated in the mixed color gray.
前記単色グレーで生成された無彩色のオブジェクトとは単色グレー文字であり、前記混色グレーで生成された無彩色のオブジェクトとは混色グレー文字であることを特徴とする請求項7に記載の画像処理装置。   The image processing according to claim 7, wherein the achromatic color object generated in the single color gray is a single color gray character, and the achromatic color object generated in the color mixture gray is a mixed color gray character. apparatus. 前記混色グレー文字は、C(シアン)、M(マゼンダ)、及びY(イエロー)で印字され、
前記混色グレー文字の端部に隣接する画素は、C(シアン)、M(マゼンダ)、又はY(イエロー)の何れかで印字されたことを特徴とする請求項8に記載の画像処理装置。
The mixed color gray character is printed in C (cyan), M (magenta), and Y (yellow),
9. The image processing apparatus according to claim 8, wherein a pixel adjacent to an end portion of the mixed color gray character is printed in any one of C (cyan), M (magenta), and Y (yellow).
前記無彩色のオブジェクトの親輪郭を検索するラベリング処理を実行し、当該ラベリング処理によって得られた画像を用いて、前記無彩色のオブジェクトが情報埋め込み可能であるか否か判定する手段を更に備えたことを特徴とする請求項7に記載の画像処理装置。   A means for executing a labeling process for searching for a parent contour of the achromatic object and determining whether or not the achromatic object can be embedded with information using an image obtained by the labeling process; The image processing apparatus according to claim 7. 前記端部は、上端部、下端部、左端部、及び右端部であり、
前記端部のうちのどの端部に対して1色印字が実行されているか否か判定することを特徴とする請求項9に記載の画像処理装置。
The end portions are an upper end portion, a lower end portion, a left end portion, and a right end portion,
The image processing apparatus according to claim 9, wherein a determination is made as to which one of the ends is subjected to one-color printing.
画像に情報を埋め込む画像処理方法であって、
画像に含まれるオブジェクトのうちの無彩色のオブジェクトを、単色グレーと、混色グレーとの何れかで生成する出力画像生成ステップを備え、
前記単色グレーで生成する無彩色のオブジェクトには、第1のデータが割り当てられ、
前記混色グレーで生成する無彩色のオブジェクトには、前記第1のデータとは異なる第2のデータが割り当てられる
ことを特徴とする画像処理方法。
An image processing method for embedding information in an image,
An output image generation step of generating an achromatic object among the objects included in the image in either a single-color gray or a mixed-color gray;
First data is assigned to the achromatic object generated in the single color gray,
An image processing method, wherein second data different from the first data is assigned to the achromatic object generated in the mixed color gray.
画像から情報を読み取る画像処理方法であって、
画像に含まれるオブジェクトのうちの無彩色のオブジェクトが、単色グレーと、混色グレーとの何れかで生成されているか判定するステップを備え、
前記単色グレーで生成された無彩色のオブジェクトには、第1のデータが割り当てられて、
前記混色グレーで生成された無彩色のオブジェクトには、前記第1のデータとは異なる第2のデータが割り当てられた
ことを特徴とする画像処理方法。
An image processing method for reading information from an image,
A step of determining whether an achromatic color object among the objects included in the image is generated in a single color gray or a mixed color gray,
First data is assigned to the achromatic color object generated in the single color gray,
2. An image processing method according to claim 1, wherein second data different from the first data is assigned to the achromatic color object generated in the mixed color gray.
コンピュータを、請求項1乃至11の何れか一項に記載の画像処理装置として機能させるための、プログラム。   The program for functioning a computer as an image processing apparatus as described in any one of Claims 1 thru | or 11.
JP2014146863A 2014-07-17 2014-07-17 Image processing system, image processing method, and program Pending JP2016025420A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014146863A JP2016025420A (en) 2014-07-17 2014-07-17 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014146863A JP2016025420A (en) 2014-07-17 2014-07-17 Image processing system, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2016025420A true JP2016025420A (en) 2016-02-08

Family

ID=55271863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014146863A Pending JP2016025420A (en) 2014-07-17 2014-07-17 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2016025420A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408633A (en) * 2016-05-09 2017-02-15 深圳市微蜂机器认知技术有限公司 Object imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408633A (en) * 2016-05-09 2017-02-15 深圳市微蜂机器认知技术有限公司 Object imaging method

Similar Documents

Publication Publication Date Title
US7509060B2 (en) Density determination method, image forming apparatus, and image processing system
US7599099B2 (en) Image processing apparatus and image processing method
US8928948B2 (en) Method of creating non-patterned security elements
US20060072781A1 (en) Encoding invisible electronic information in a printed document
US8170275B2 (en) Determining document authenticity in a closed-loop process
US8773725B2 (en) Information processing apparatus, image generating method, and storage medium
JP2008154106A (en) Concealing method, image processor and image forming apparatus
JP3992035B2 (en) Image processing apparatus, method, and program
JP5862304B2 (en) Projection display device, projection display method, and program
WO2016052410A1 (en) Image-reading device and method, read-region display device and method, and program
JP4453979B2 (en) Image reproducing apparatus, image reproducing method, program, and recording medium
JP2016025420A (en) Image processing system, image processing method, and program
JP2010268399A (en) Image processing apparatus, image forming apparatus, image processing method, program and recording medium
EP3756900A1 (en) Image processing device, method of embedding latent image, and carrier medium
JP6171727B2 (en) Image processing device, sheet, computer program
JP2015220580A (en) Image processing system, image processing method, and program
US11563871B2 (en) Information processing apparatus, control method, and product performing multiplexing processing changing a component in different color spaces with respect to printing and non-printing areas
JP6145877B2 (en) Color mode determination apparatus and program
JP2006295677A (en) Image processing method, image processing apparatus, and program
JP2010232739A (en) Image processing apparatus, image forming apparatus and program
JP4360412B2 (en) Image processing apparatus, method, and program
KR102130815B1 (en) Method and Apparatus for Detecting a Thin Line
JP2016091341A (en) Image processing apparatus
JP4582242B2 (en) Image processing apparatus, method, and program
JP2012253775A (en) Image forming device and image forming method