KR100960486B1 - Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material - Google Patents

Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material Download PDF

Info

Publication number
KR100960486B1
KR100960486B1 KR1020080061073A KR20080061073A KR100960486B1 KR 100960486 B1 KR100960486 B1 KR 100960486B1 KR 1020080061073 A KR1020080061073 A KR 1020080061073A KR 20080061073 A KR20080061073 A KR 20080061073A KR 100960486 B1 KR100960486 B1 KR 100960486B1
Authority
KR
South Korea
Prior art keywords
color component
component information
information
color
grid pattern
Prior art date
Application number
KR1020080061073A
Other languages
Korean (ko)
Other versions
KR20080114620A (en
Inventor
다께오 미끼
다까시 야마구찌
겐지 미야자끼
Original Assignee
가부시끼가이샤 도시바
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2007249752A external-priority patent/JP5002392B2/en
Application filed by 가부시끼가이샤 도시바 filed Critical 가부시끼가이샤 도시바
Publication of KR20080114620A publication Critical patent/KR20080114620A/en
Application granted granted Critical
Publication of KR100960486B1 publication Critical patent/KR100960486B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32309Methods relating to embedding, encoding, decoding, detection or retrieval operations in colour image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32208Spatial or amplitude domain methods involving changing the magnitude of selected pixels, e.g. overlay of information or super-imposition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32251Spatial or amplitude domain methods in multilevel data, e.g. greyscale or continuous tone data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32256Spatial or amplitude domain methods in halftone data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32288Multiple embedding, e.g. cocktail embedding, or redundant embedding, e.g. repeating the additional information at a plurality of locations in the image
    • H04N1/32293Repeating the additional information in a regular pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals

Abstract

본 발명에 따른 화상 처리 장치는, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하는 화상 입력 유닛(11)과, 서브 정보로 색차 그리드 패턴을 변조하는 변조 유닛(16)과, 변조된 색차 그리드 패턴 및 제1, 제2 및 제3 색 성분 정보 각각이 사전설정된 각도로 서로에 대하여 회전한 후, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하는 중첩 유닛(16)과, 색 화상 정보를 생성하도록 제1, 제2 및 제3 색 성분 정보를 합성하는 합성 유닛(16)을 포함한다.An image processing apparatus according to the present invention includes an image input unit 11 for inputting main image information defined by first, second, and third color component information corresponding to at least three colors, and a color difference grid pattern as sub information. The modulating unit 16 for modulating, and each of the modulated chrominance grid pattern and the first, second, and third color component information are rotated with respect to each other at a predetermined angle, and then the first and second modulated chrominance grid patterns are rotated. And a superimposition unit 16 overlapping each of the third color component information, and a combining unit 16 for synthesizing the first, second and third color component information to generate the color image information.

화상 처리, 메인 화상 정보, 색 성분 정보, 색차 그리드 패턴, 색 화상 정보 Image processing, main image information, color component information, color difference grid pattern, color image information

Description

화상 처리 장치, 화상 처리 방법, 화상 형성 장치, 화상 형성 방법 및 기록물{IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, IMAGE FORMING APPARATUS, IMAGE FORMING METHOD, AND RECORDED MATERIAL}IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, IMAGE FORMING APPARATUS, IMAGE FORMING METHOD, AND RECORDED MATERIAL}

본 발명은, 예를 들면, 메인 정보로서의 (인간의 얼굴 화상 등의) 색 화상 정보에 (보안 정보 등의) 또 다른 부가적인 서브 정보(sub information)를 중첩하기 위한 화상 처리 장치 및 화상 처리 방법에 관한 것이다.The present invention is, for example, an image processing apparatus and image processing method for superimposing another additional sub information (such as security information) on color image information (such as a human face image) as main information. It is about.

또한, 본 발명은 기록물(recorded material)에 화상 처리 장치 및 화상 처리 방법을 이용하여 서브 정보가 중첩되는 색 화상 정보를 형성하기 위한 화상 형성 장치 및 화상 형성 방법에 관한 것이다.The invention also relates to an image forming apparatus and an image forming method for forming color image information in which sub information is superimposed on a recorded material by using an image processing apparatus and an image processing method.

또한, 본 발명은 화상 처리 장치 및 화상 처리 방법을 이용하여 생성된 기록물에 관한 것이다.The present invention also relates to a recording produced using the image processing apparatus and the image processing method.

또한, 본 발명은 화상 처리 장치 및 화상 처리 방법을 이용하여 생성된 기록물로부터 서브 정보를 재생하기 위한 화상 처리 장치 및 화상 처리 방법에 관한 것이다.The present invention also relates to an image processing apparatus and an image processing method for reproducing sub information from a recording produced using the image processing apparatus and the image processing method.

최근, 정보의 디지털화와 인터넷의 보급에 따라, 화상의 위조 및 변조를 방 지하기 위한 디지털 워터마크, 디지털 서명 등과 같은 기법이 인정받고 있다. 디지털 워터마크 기법은 메인 정보(메인 화상 정보)에 부가적인 서브 정보(서브 화상 정보)를 눈에 보이지 않는 상태로 임베드한다. 이러한 디지털 워터마크 기법은 ID 카드 등의 개인 인증 매체 및 저작권 정보가 임베드된 사진의 불법 복사, 위조 및 변조에 대한 대책으로서 제안되고 있다.Recently, with the digitization of information and the spread of the Internet, techniques such as digital watermarks and digital signatures for preventing forgery and modulation of images have been recognized. The digital watermark technique embeds sub information (sub picture information) in addition to the main information (main picture information) in an invisible state. This digital watermark technique has been proposed as a countermeasure against illegal copying, forgery, and forgery of personal authentication media such as ID cards and photographs embedded with copyright information.

예를 들면, 일본공개특허공보 평9-248935호는 인간이 인식하기 어려운 높은 공간 주파수 성분과 색차 성분의 특성을 이용하여 인쇄물에 출력될 화상 데이터에 데이터를 임베드하는 디지털 워터마크 삽입 방법을 제안한다.For example, Japanese Patent Application Laid-open No. Hei 9-248935 proposes a digital watermark embedding method for embedding data in image data to be output on printed matter using characteristics of high spatial frequency components and color difference components that are difficult for humans to recognize. .

또한, 일본공개특허공보 2001-268346호는 광 필터로 확인할 수 있는 디지털 워터마크의 프린팅 장치를 제안한다.In addition, Japanese Laid-Open Patent Publication No. 2001-268346 proposes a printing apparatus for digital watermark that can be confirmed by an optical filter.

이러한 디지털 워터마크 임베딩 처리 방법은 다음에 기술되는 사항을 이용하여 어떠한 악화 없이 메인 정보에 서브 정보(서브 화상 정보)를 눈에 보이지 않는 상태로 임베드할 수 있다.This digital watermark embedding processing method can embed sub information (sub picture information) in the invisible state in the main information without any deterioration by using the following description.

(1) 인간 시각 특성(1) human visual characteristics

· 톤 구별 능력은 화상의 주파수가 증가함에 따라 낮아진다.The tone discrimination ability decreases as the frequency of the picture increases.

· 색차 정보는 휘도 정보보다 구분하기 어렵다.Color difference information is harder to distinguish than luminance information.

(2) 보색 관계의 예: 레드(red) + 시안(cyan) = (추가적인 색 혼합의 경우) 무채색(화이트)(2) Example of complementary color relationship: red + cyan = (for additional color blending) achromatic (white)

(3) 고주파수 캐리어 패턴 화상 + 보색 관계 및 색차 정보(3) high frequency carrier pattern image + complementary color relationship and color difference information

(2)의 예로서, 부가적인 색 혼합의 경우에 레드 및 시안(=그린+블루)은 보색 관계를 갖고, 이웃하는 레드 및 시안 조차도 육안으로 구별하기 매우 어려우며, 무채색으로 인식된다.As an example of (2), in the case of additional color mixing, red and cyan (= green + blue) have a complementary color relationship, and even neighboring red and cyan are very difficult to distinguish with the naked eye, and are recognized as achromatic.

(3)의 예로서, 고주파수 캐리어 패턴 화상이 레드 및 시안이 풍부한 화소가 반복적으로 할당된 색차 그리드 패턴에 의해서 형성되는데, 이것은 미묘한 색차가 육안으로는 구별될 수 없고, 색차량이 고르게 결정된다는 인간 시각 특성을 이용한다.As an example of (3), a high-frequency carrier pattern image is formed by a color difference grid pattern in which red and cyan-rich pixels are repeatedly assigned, which indicates that the subtle color difference cannot be visually distinguished and the amount of color difference is determined evenly. Use visual characteristics.

전술한 디지털 워터마크 기법을 적용함으로써 화상이 기록된 기록물의 진본성(authenticity) 판정이 요구되는 경우, 기록물에 기록된 서브 정보는 키 정보를 이용하여 재생되고, 전술한 두 참고문헌에서 기술한 바와 같이, 서브 정보의 재생 결과에 기초하여 진본성이 결정된다.If the authenticity determination of the recording in which the image is recorded by applying the aforementioned digital watermark technique is required, the sub information recorded in the recording is reproduced using the key information, as described in the two references mentioned above. Similarly, authenticity is determined based on the reproduction result of the sub information.

구체적으로, 스캐너, 카메라 등의 입력 디바이스는 색차 정보로서의 서브 정보가 임베드된 합성 화상 정보를 판독한다. 다음으로, 화상 프로세서는 키 정보의 특정 주파수 정보에 따른 주파수 성분이 있는 디지털 필터를 이용하여 합성 화상 정보로부터 서브 정보를 재생한 다음, 재생된 결과에 기초하여 진본성을 검사한다.Specifically, input devices such as scanners and cameras read composite image information in which sub information as color difference information is embedded. Next, the image processor reproduces the sub information from the synthesized image information using a digital filter having a frequency component corresponding to specific frequency information of the key information, and then checks authenticity based on the reproduced result.

그러나 전술한 기법은 아래와 같은 문제점이 있다. 즉, 전자사진기술법은 일반적인 디지털 복사 머신 등에 대한 기록 방법으로서 개조된다. 전자사진기술법은 수십 ppm 이상으로 색 화상을 기록할 수 있는 고속 프린팅을 가능하게 한다. 전자사진기술법은 옐로우(yellow), 마젠타(magenta), 시안(cyan) 및 블랙(black)의 네 가지 색 토너를 이용하여 색 화상을 형성한다. 이들 네 가지 색을 이용하여 색 화상 형성 시, 각 색의 화소를 중첩함으로써 색 화상을 표현하는 감색법이 이용될 수 있다. 그러나 고속 프린팅의 경우에는 각 색 화소를 정확하게 중첩하는 것이 어렵다. 각 화소가 정확하게 중첩되지 않는 경우, 색 부정합(misregistration)이 발생한다.However, the above technique has the following problems. That is, the electrophotographic method is modified as a recording method for a general digital copying machine or the like. The electrophotographic method enables high speed printing capable of recording color images at several tens of ppm or more. The electrophotographic method forms a color image using four color toners of yellow, magenta, cyan and black. In forming a color image using these four colors, a dark blue method of expressing a color image by superimposing pixels of each color can be used. However, in the case of high speed printing, it is difficult to accurately overlap each color pixel. If each pixel does not overlap correctly, color misregistration occurs.

이러한 문제점을 해결하기 위하여, 예를 들면, 다음과 같은 방법이 공지되어 있다. 즉, 복수의 마젠타 화소의 배열 방향, 복수의 시안 화소의 배열 방향 및 복수의 블랙 화소의 배열 방향이 복수의 옐로우 화소의 배열 방향에 대하여 상이한 각도의 틸트(tilt)로 주어진다. 그리고나서 이들 복수의 옐로우, 마젠타, 시안 및 블랙 화소는 합성되어 색 화상을 표현한다. 그 결과, 색 화상은 잉크를 정확하게 중첩하지 않으면서 형성될 수 있다. 따라서, 화소의 이탈 시 색 부정합이 방지될 수 있다.In order to solve this problem, for example, the following method is known. That is, the arrangement direction of the plurality of magenta pixels, the arrangement direction of the plurality of cyan pixels, and the arrangement direction of the plurality of black pixels are given as tilts at different angles with respect to the arrangement direction of the plurality of yellow pixels. These plurality of yellow, magenta, cyan and black pixels are then synthesized to represent a color image. As a result, a color image can be formed without accurately overlapping the inks. Therefore, color mismatch can be prevented when the pixel is separated.

그러나 색차 그리드 패턴을 형성하는 복수의 화소의 배열 방향은 복수의 마젠타, 시안 및 블랙 화소의 배열 방향과 대응하지 않는다. 따라서, 이러한 색차 그리드 패턴이 서브 정보에 의해서 변조되고, 변조된 색차 그리드 패턴과 중첩된 색 화상 정보가 전자사진기술법에 의해서 프린트되는 경우, 색차 그리드 패턴이 교란된다. 즉, 서브 정보는 색 화상 정보에 적절하게 중첩될 수 없다.However, the arrangement direction of the plurality of pixels forming the color difference grid pattern does not correspond to the arrangement direction of the plurality of magenta, cyan and black pixels. Therefore, when such a color difference grid pattern is modulated by the sub information and color image information superimposed with the modulated color difference grid pattern is printed by the electrophotographic method, the color difference grid pattern is disturbed. That is, the sub information cannot be superimposed properly on the color image information.

이와 대조적으로, 일본공개특허공보 2004-328217호는 각 기록 라인에 대하여 번갈아 화소를 형성하는 교대 구동에 의해서 형성된 메인 정보에 서브 정보에 의해서 변조된 색차 그리드 패턴을 중첩하는 방법을 제안한다. 이 참고문헌은, 사전설정된 방향에서 사전설정된 각도의 틸트가 있는 RGB 화상 정보의 각 부분에 서브 정보가 임베드된 후, 서브 정보가 임베드된 RGB 화상 정보의 각 부분은 사전설정된 방향과 반대 방향에서 사전설정된 각도의 틸트가 주어져 각 기록 라인에 대하여 화소를 번갈아 형성하는 방법을 개시한다. 그러나 이러한 방법으로는 모든 R, G 및 B 색이 공통 틸트 각도를 갖고, 화소들은 교대 구동에 의해서 형성된다. 이러한 이유로, 이 방법은 복수의 색 화소의 배열 방향이 상이한 스크리닝(screening) 방법에서의 전술한 문제를 해결하지 못한다.In contrast, Japanese Laid-Open Patent Publication No. 2004-328217 proposes a method of superimposing a color difference grid pattern modulated by sub information on main information formed by alternating driving to alternately form pixels for each recording line. This reference describes that after sub information is embedded in each part of the RGB image information with a tilt of a predetermined angle in a preset direction, each part of the RGB image information in which the sub information is embedded is preset in a direction opposite to the preset direction. A method of alternately forming pixels for each recording line by giving a tilt of a set angle is disclosed. In this way, however, all the R, G and B colors have a common tilt angle, and the pixels are formed by alternating driving. For this reason, this method does not solve the aforementioned problem in the screening method in which the arrangement directions of the plurality of color pixels are different.

그러므로 본 발명의 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보와 서브 정보를 적절하게 중첩할 수 있는 화상 처리 장치 및 화상 처리 방법을 제공하는 것이다.It is therefore an object of the present invention to provide an image processing apparatus and an image processing method capable of properly superimposing main information and sub information using a screening method in forming a color image.

본 발명의 다른 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보와 서브 정보를 적절하게 중첩함으로써 중첩된 화상을 생성할 수 있는 화상 형성 장치 및 화상 형성 방법을 제공하는 것이다.It is another object of the present invention to provide an image forming apparatus and an image forming method capable of generating superimposed images by appropriately superimposing main information and sub information using a screening method in forming a color image.

본 발명의 또 다른 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보와 서브 정보를 적절하게 중첩함으로써 형성된 중첩된 화상을 기록하는 기록물을 제공하는 것이다.It is still another object of the present invention to provide a recording which records a superimposed image formed by appropriately superimposing main information and sub information using a screening method in forming a color image.

본 발명의 또 다른 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보 및 서브 정보를 적절하게 중첩함으로써 형성된 중첩된 화상을 기록하는 인쇄물로부터 서브 정보를 정확하게 재생할 수 있는 화상 처리 장치 및 화상 처리 방법을 제공하는 것이다.It is still another object of the present invention to provide an image processing apparatus and an image processing method capable of accurately reproducing sub information from printed matter recording superimposed images formed by appropriately superimposing main information and sub information using a screening method in forming a color image. To provide.

본 발명의 한 실시예에 따른 화상 처리 장치는, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하기 위한 화상 입력 수단과, 서브 정보로 색차 그리드 패턴을 변조하기 위한 변조 수단과, 변조된 색차 그리드 패턴 및 제1, 제2 및 제3 색 성분 정보 각각이 사전설정된 각도로 서 로에 대하여 회전한 후, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하기 위한 중첩 수단과, 색 화상 정보를 생성하도록 변조된 색차 그리드 패턴과 중첩한 제1, 제2 및 제3 색 성분 정보를 합성하기 위한 합성 수단을 포함한다.An image processing apparatus according to an embodiment of the present invention includes image input means for inputting main image information defined by first, second and third color component information corresponding to at least three colors, and a color difference grid as sub information. Modulating means for modulating the pattern, the modulated chrominance grid pattern and the first, second and third color component information respectively rotate relative to each other at a predetermined angle, and then modulate the modulated chrominance grid pattern to the first and second. And superimposing means for superimposing each of the third color component information, and synthesizing means for synthesizing the first, second and third color component information superimposed with the color difference grid pattern modulated to generate the color image information.

본 발명의 한 실시예에 따른 화상 처리 방법은, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하는 단계와, 서브 정보로 변조한 색차 그리드 패턴 및 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하는 단계와, 색 화상 정보를 생성하도록 변조된 색차 그리드 패턴과 중첩한 제1, 제2 및 제3 색 성분 정보를 합성하는 단계를 포함한다.An image processing method according to an embodiment of the present invention includes the steps of inputting main image information defined by first, second and third color component information corresponding to at least three colors, and a color difference grid pattern modulated by sub information. And rotating each of the first, second, and third color component information with respect to each other at a predetermined angle, and then superimposing the modulated chrominance grid pattern on each of the first, second, and third color component information; Synthesizing the first, second, and third color component information superimposed with the chrominance grid pattern modulated to produce image information.

본 발명의 한 실시예에 따른 기록물은 색 화상 정보를 포함하고, 색 화상 정보는, 서브 정보로 변조한 색차 그리드 패턴과, 메인 화상 정보를 정의하고, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하고, 색 화상 정보를 생성하도록 변조된 색차 그리드 패턴과 중첩한 제1, 제2 및 제3 색 성분 정보를 합성함으로써 생성한 정보이다.A recording according to an embodiment of the present invention includes color image information, and the color image information includes a color difference grid pattern modulated by sub information, main image information, and corresponding to at least three colors. Each of the second and third color component information is rotated relative to each other at a predetermined angle, and then modulated to superimpose the modulated chrominance grid pattern on each of the first, second and third color component information, and generate color image information. Information generated by synthesizing the first, second and third color component information superimposed on the chrominance grid pattern.

본 발명의 한 실시예에 따른 화상 처리 장치는 색 화상 정보를 처리하고, 화상 처리 장치는, 색 화상 정보가 기록되어 있는 기록물로부터 색 화상 정보를 판독하기 위한 판독 수단과, 색 화상 정보로부터 제1, 제2 및 제3 색 성분 정보를 분리하기 위한 색 분리 수단과, 제1, 제2 및 제3 색 성분 정보를 사전설정된 각도로 회전시키기 위한 개별 색 회전 수단과, 색차 그리드 패턴에 기초하여 회전된 제1, 제2 및 제3 색 성분 정보로부터 서브 정보를 추출하기 위한 서브 정보 추출 수단을 포함한다.An image processing apparatus according to an embodiment of the present invention processes color image information, and the image processing apparatus includes reading means for reading color image information from a recording in which the color image information is recorded, and a first image from the color image information. Color separation means for separating the second and third color component information, individual color rotation means for rotating the first, second and third color component information at a predetermined angle, and rotation based on the color difference grid pattern. Sub information extracting means for extracting sub information from the first, second, and third color component information.

본 발명의 한 실시예에 따른 화상 처리 방법은 색 화상 정보를 처리하고, 화상 처리 방법은, 색 화상 정보가 기록되어 있는 기록물로부터 색 화상 정보를 판독하는 단계와, 색 화상 정보로부터 제1, 제2 및 제3 색 성분 정보를 분리하는 단계와, 제1, 제2 및 제3 색 성분 정보를 사전설정된 각도로 회전시키는 단계와, 색차 그리드 패턴에 기초하여 회전된 제1, 제2 및 제3 색 성분 정보로부터 서브 정보를 추출하는 단계를 포함한다.An image processing method according to an embodiment of the present invention processes color image information, and the image processing method includes the steps of reading color image information from a recording in which color image information is recorded, Separating the second and third color component information, rotating the first, second and third color component information at a predetermined angle, and rotating the first, second and third based on the color difference grid pattern. Extracting the sub information from the color component information.

본 발명의 추가적인 목적 및 장점은 아래의 설명에서 기술되고, 부분적으로는 설명으로부터 명확해지며, 또는 본 발명의 실시에 의해서 알게 될 수도 있다. 본 발명의 목적 및 장점은 본 명세서에서 특별하게 지적된 수단 및 조합에 의해서 구현되고 얻을 수도 있다.Additional objects and advantages of the invention will be set forth in the description which follows, and in part will be obvious from the description, or may be learned by practice of the invention. The objects and advantages of the invention may be embodied and obtained by means and combinations particularly pointed out herein.

본 명세서에 포함되고 그 일부를 이루는 첨부한 도면은 본 발명의 실시예를 도시하고, 전술한 일반적인 설명 및 다음에 기술하는 실시예의 상세한 설명과 함께 본 발명의 원리를 설명하는 데 기여한다.The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate embodiments of the invention and, together with the foregoing general description and detailed description of the embodiments set forth below, serve to explain the principles of the invention.

각각의 실시예가 첨부된 도면을 참조하여 아래에 기술될 것이다.Each embodiment will be described below with reference to the accompanying drawings.

먼저, 각 색의 화소 형성 방향을 사전설정된 각도로 틸트함으로써 색 화상을 표현하기 위한 제1 및 제2 색 화상 표현 방법이 기술될 것이다.First, a first and second color image representation method for representing a color image by tilting the pixel formation direction of each color at a predetermined angle will be described.

제1 색 화상 표현 방법이 먼저 기술될 것이다. 도 29는 전자사진기술법에 의해서 기록물(4)에 형성된 색 화상(5)의 예를 도시한다. 도 30은 도 29에 도시된 색 화상(5)의 일부(5a)의 부분 확대도이며, 도 31은 도 30에 도시된 분리된 색 성분 정보의 각 부분을 도시한다. 이것은 도 30 및 31에 도시된 바와 같이 옐로우(Y) 색 성분 정보, 마젠타(M) 색 성분 정보, 시안(C) 색 성분 정보 및 블랙(K) 색 성분 정보의 화소 형성 방향을 각각 0°(이후에 스크린 각도로 간주함), 45°, 15°및 75°로 틸트함으로써 각 색에 하프톤(halftone)을 제공하면서 색 화상을 형성하는 방법이다(이러한 방법은 이후에 스크리닝 방법으로 간주함).The first color image representation method will be described first. Fig. 29 shows an example of the color image 5 formed on the recording 4 by the electrophotographic method. FIG. 30 is a partially enlarged view of a portion 5a of the color image 5 shown in FIG. 29, and FIG. 31 shows respective parts of the separated color component information shown in FIG. As shown in Figs. 30 and 31, the pixel formation directions of yellow (Y) color component information, magenta (M) color component information, cyan (C) color component information, and black (K) color component information are respectively 0 ° ( (Hereinafter referred to as screen angle), a method of forming a color image while providing halftone for each color by tilting it at 45 °, 15 ° and 75 ° (these methods are later referred to as screening methods). .

제2 색 화상 표현 방법이 아래에 기술될 것이다. 도 32는 도 29에 도시된 색 화상(5)의 일부(5a)의 부분 확대도이며, 도 33은 도 32에 도시된 분리된 색 성분 정보의 각 부분을 도시한다. 이것은 도 32 및 33에 도시된 바와 같이 옐로우(Y) 색 성분 정보, 마젠타(M) 색 성분 정보, 시안(C) 색 성분 정보 및 블랙(K) 색 성분 정보의 화소 형성 방향을 각각 108.4°(이후에 스크린 각도로 간주함), -18.4°, 18.4°및 0°로 틸트함으로써 각 색에 하프톤을 제공하면서 색 화상을 형성하는 방법이다(이러한 방법은 이후에 스크리닝 방법으로 간주함).The second color image representation method will be described below. 32 is a partial enlarged view of a portion 5a of the color image 5 shown in FIG. 29, and FIG. 33 shows respective portions of the separated color component information shown in FIG. As shown in FIGS. 32 and 33, the pixel formation directions of the yellow (Y) color component information, magenta (M) color component information, cyan (C) color component information, and black (K) color component information are respectively 108.4 ° ( (Hereinafter referred to as screen angle), -18.4 °, 18.4 ° and 0 ° to form a color image while providing halftone for each color (this method will be referred to as screening method later).

이러한 제1 및 제2 색 화상 표현 방법에 의해서 잉크를 정확하게 중첩시키지 않고서도 색 화상이 형성될 수 있기 때문에, 화소를 벗어나는 때에 임의의 색 부정합의 발생이 방지될 수 있다.Since the color image can be formed without accurately superimposing the ink by such first and second color image representation methods, occurrence of any color mismatch can be prevented when leaving the pixel.

제1 실시예가 아래에 기술될 것이다.The first embodiment will be described below.

제1 실시예는 도 30 및 31을 이용하여 전술한 제1 색 화상 표현 방법의 경우에 적용된다.The first embodiment is applied to the case of the first color image representation method described above with reference to FIGS. 30 and 31.

도 1은 제1 실시예에 따른 서브 정보를 임베드하는 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 개략적인 구성을 도시한다. 이러한 화상 처리 시스템은 화상 입력 수단의 역할을 하는 화상 입력 장치(11)와, 기록 수단의 역할을 하는 프린터(12)와, 다양한 종류의 처리를 실행하는 컴퓨터(13)와, 화상 입력 장치(11), 프린터(12) 및 컴퓨터(13)가 서로 통신할 수 있도록 하는 양방향 통신 수단(14, 15)을 개략적으로 포함한다.1 shows a schematic configuration of an image processing system to which an image processing apparatus and an image processing method for embedding sub information according to the first embodiment are applied. Such an image processing system includes an image input device 11 serving as an image input means, a printer 12 serving as a recording means, a computer 13 performing various kinds of processing, and an image input device 11. ), The printer 12 and the computer 13 schematically comprise two-way communication means 14, 15 to enable communication with each other.

화상 입력 장치(11)는 디지털 화상으로서의 컬러 사진(인쇄물)(P1)에 얼굴 화상과 같은 색 화상 정보를 입력하며, 예를 들면 디지털 카메라, 비디오 카메라, 플랫베드 스캐너(flatbed scanner) 등을 포함한다. 본 실시예에서는, 예를 들면 스캐너가 이용된다.The image input device 11 inputs color image information such as a face image into a color photograph (printed material) P1 as a digital image, and includes, for example, a digital camera, a video camera, a flatbed scanner, and the like. . In this embodiment, for example, a scanner is used.

프린터(12)는 얼굴 화상 등과 같은 색 화상 정보와, 문자 등과 같은 이진 화상을 기록함으로써 ID 카드 등과 같은 개인 인증 매체로서 이용되는 기록물(P2)을 출력한다. 본 실시예에서, 프린터(12)가 전용 프린터로서 이용된다.The printer 12 outputs the recording P2 used as a personal authentication medium such as an ID card by recording color image information such as a face image and binary image such as a character. In this embodiment, the printer 12 is used as a dedicated printer.

컴퓨터(13)는, 화상 입력 장치(11)에 의해 입력된 화상 정보에 서브 정보를 육안으로 볼 수 없는 상태로 임베딩함으로써 합성 화상 정보를 생성하도록 서브 정보 임베딩 처리를 실행하기 위한 화상 처리 수단인 화상 프로세서(16)를 포함한다.The computer 13 is an image which is an image processing means for executing sub information embedding processing to generate composite image information by embedding sub information in a state where the sub information is not visible to the visual information input by the image input device 11. And a processor 16.

컴퓨터(13)는 CPU, 반도체 메모리, 하드 디스크 디바이스, 화상 캡처 보드 등을 포함하는 퍼스널 컴퓨터 또는 전용 보드일 수 있다. 본 실시예에서, 퍼스널 컴퓨터가 이용된다.The computer 13 may be a personal computer or a dedicated board including a CPU, a semiconductor memory, a hard disk device, an image capture board, and the like. In this embodiment, a personal computer is used.

본 실시예의 화상 프로세서(16)는 퍼스널 컴퓨터를 실행시키는 애플리케이션 프로그램 모듈에 의해서 구현된다는 점을 알아야 한다.It should be noted that the image processor 16 of this embodiment is implemented by an application program module that executes a personal computer.

양방향 통신 수단(14, 15)은 양방향으로 신호를 보내기만 한다면 특별히 제한되지 않으며, USB, SCSI 등을 포함할 수 있다. 본 실시예에서, USB2.0이 이용된다.The bidirectional communication means 14 and 15 are not particularly limited as long as they send signals in both directions, and may include USB, SCSI, and the like. In this embodiment, USB 2.0 is used.

전술한 구성을 포함하고 제1 실시예에 따른 서브 정보를 임베드하는 화상 처리 시스템의 전체 동작이 도 2에 도시된 플로차트를 참조하여 기술될 것이다.The overall operation of the image processing system including the above-described configuration and embedding sub information according to the first embodiment will be described with reference to the flowchart shown in FIG.

화상 입력 장치(11)는 메인 화상 정보로서 얼굴 화상 등과 같은 색 화상 정보를 입력한다(단계 S1). 색 화상 정보는 사진(인쇄물)(P1)의 컬러 얼굴 화상으로 가정한다. 그러나 본 발명은 이러한 특정 정보에 한정되는 것은 아니다. 입력된 색 화상 정보는 컴퓨터(13)의 화상 프로세서(16)에 입력된다.The image input device 11 inputs color image information such as a face image as main image information (step S1). The color image information is assumed to be the color face image of the photograph (printed material) P1. However, the present invention is not limited to this specific information. The input color image information is input to the image processor 16 of the computer 13.

화상 프로세서(16)는 입력된 색 화상 정보를 색 화상 정보를 기록하는 데 이용되는 잉크 색인 시안(C), 마젠타(M), 옐로우(Y) 및 블랙(K)의 네 가지 색 성분 정보(화상 정보의 적어도 세 부분)로 분리한다(단계 S2). 화상 프로세서(16)는 각각 사전설정된 각도에 의한 색 분리로 얻은 시안(C), 마젠타(M) 및 옐로우(Y)의 세 가지 색 성분 정보를 회전시킨다(단계 S3).The image processor 16 uses four color component information (images) of the ink index cyan (C), magenta (M), yellow (Y), and black (K), which are used to record the input color image information. At least three parts of information) (step S2). The image processor 16 rotates three color component information of cyan (C), magenta (M), and yellow (Y) obtained by color separation by a predetermined angle, respectively (step S3).

화상 프로세서(16)는 각각의 회전된 색 성분 정보에 서브 정보를 임베드한다(단계 S4). 다음으로, 화상 프로세서(16)는 서브 정보가 임베드된 색 성분 정보의 각 부분을 단계 S3와 동일한 각도 및 반대 방향으로 회전시킨다(단계 S5).The image processor 16 embeds the sub information in the respective rotated color component information (step S4). Next, the image processor 16 rotates each part of the color component information in which the sub information is embedded in the same angle and in the opposite direction as in step S3 (step S5).

화상 프로세서(16)는 반대로 회전된 색 성분 정보를 합성함으로써 합성 화상 정보(색 화상 정보)를 생성하고(단계 S6), 생성된 합성 화상 정보를 프린터(12)에 전송한다. 프린터(12)는 서브 정보가 임베드된 합성 화상 정보를 기록 매체에 기록하여, 기록물(P2)을 획득한다.(단계 S7).The image processor 16 generates the synthesized image information (color image information) by synthesizing the reversely rotated color component information (step S6), and transmits the generated synthesized image information to the printer 12. The printer 12 records the composite image information in which the sub-information is embedded on the recording medium, so as to obtain a recording P2 (step S7).

화상 프로세서(16)가 각 색 성분 정보에 서브 정보를 임베드하는 (단계 S4에서의) 임베딩 처리가 아래에 상세히 설명될 것이다.The embedding process (in step S4) in which the image processor 16 embeds sub information in each color component information will be described in detail below.

도 3은 화상 프로세서(16)의 주요부의 구성을 도시한다. 화상 프로세서(16)는 스무딩 프로세서(smoothing processor)(21), 위상 변조 프로세서(22), 색차 변조 프로세서(23), 중첩 프로세서(24) 및 합성 프로세서(25)를 포함한다. 이들 프로세서는 퍼스널 컴퓨터상에서 실행하는 애플리케이션 프로그램의 모듈이다. 예를 들어, 임베딩 처리에 대하여, 일본공개특허공보 평11-168616 및 2001-268346에 개시된 디지털 워터마크 처리 방법 등이 적용될 수 있다.3 shows a configuration of main parts of the image processor 16. The image processor 16 includes a smoothing processor 21, a phase modulation processor 22, a chrominance modulation processor 23, a superposition processor 24, and a synthesis processor 25. These processors are modules of application programs that run on a personal computer. For example, the digital watermark processing method disclosed in Japanese Patent Laid-Open Nos. 11-168616 and 2001-268346 can be applied to the embedding process.

각 색 성분 정보(26)는 서브 정보(27)가 중첩되고, 사전설정된 각도로 회전되고, 본 실시예의 기록물의 컬러 얼굴 화상과 관련된 화상 정보의 색 분리된 성분 중 하나이다. 얼굴 화상 정보는 화상의 수직 및 수평 방향에서의 라인에 화소를 형성함으로써 정의된다. 이러한 정보는 24 비트(R, G, 또는 B 성분당 8 비트) 정보를 갖는다.Each color component information 26 is one of the color-separated components of the image information associated with the color face image of the recording of this embodiment with the sub information 27 superimposed, rotated at a predetermined angle. Face image information is defined by forming pixels in lines in the vertical and horizontal directions of the image. This information has 24 bits (8 bits per R, G, or B component) information.

서브 정보(임베드된 화상 정보)(27)는, 예를 들면 임베드될 정보를 이진 화상 정보로 변환함으로써 획득되며, 개인 인증 매체의 식별 번호(ID 번호) 등에 대응한다. 이러한 정보는 화소당 1 비트 정보를 갖는다.The sub information (embedded image information) 27 is obtained, for example, by converting the information to be embedded into binary image information, and corresponds to an identification number (ID number) or the like of the personal authentication medium. This information has one bit information per pixel.

색차 그리드 패턴(28)은 그리드 타입 패턴이며, 또한 서브 정보(27)의 복원시 키 정보로서 이용된다. 이러한 패턴은 화소당 1 비트 정보를 가진다.The chrominance grid pattern 28 is a grid type pattern and is used as key information at the time of restoration of the sub information 27. This pattern has 1 bit information per pixel.

먼저, 스무딩 프로세서(21)가 스무딩 처리를 실행하여 서브 정보(27)의 블랙 화소 = "1" 및 화이트 화소 ="0"을 갖는다. 이러한 경우에, 프로세서(21)는 화상의 수평 방향(x-방향)에서 복수의 화소 영역을 추출하고, 이들 화소의 가중 평균을 계산한다.First, the smoothing processor 21 executes a smoothing process to have black pixel = " 1 " and white pixel = " 0 " In this case, the processor 21 extracts a plurality of pixel regions in the horizontal direction (x-direction) of the image and calculates a weighted average of these pixels.

위상 변조 프로세서(22)는 스무딩 프로세서(21)의 스무딩 처리 결과에 기초하여 색차 그리드 패턴(28)에 위상 변조를 적용한다. 본 실시예에서, 프로세서(22)는 2×2 화소 패턴(교대로 나타나는 블랙 및 화이트 화소)을 시계방향으로 90°회전시킨다.The phase modulation processor 22 applies phase modulation to the chrominance grid pattern 28 based on the smoothing processing result of the smoothing processor 21. In this embodiment, the processor 22 rotates the 2x2 pixel pattern (the alternately appearing black and white pixels) 90 degrees clockwise.

색차 변조 프로세서(23)는 위상 변조 프로세서(22)의 위상 변조 결과에 기초하여 사전설정된 색차량 ΔCd를 이용하여 색차 변조 처리를 실행한다. 이러한 경우에, 프로세서(23)는 세 가지 성분인 시안(C), 마젠타(M) 및 옐로우(Y)를 독립적으로 계산한다. 예를 들면, 색차 그리드 패턴(28)이 도 4에 도시된 바와 같이 레드가 풍부한 화소(도트 패턴)(2) 및 시안이 풍부한 화소(해치 패턴)(3)가 반복적으로 할당되는 색차 그리드 패턴(1)인 경우, 레드가 풍부한 각 화소(2)에 대응하는 영역에 대하여 C 데이터는 -ΔCd 만큼 변조되며, M 및 Y 데이터는 +ΔCd 만큼 변조되고, 시안이 풍부한 각 화소(3)에 대응하는 영역에 대하여 C 데이터는 +ΔCd 만큼 변조되며, M 및 Y 데이터는 -ΔCd 만큼 변조된다.The color difference modulation processor 23 executes the color difference modulation process using the color difference amount ΔCd preset based on the phase modulation result of the phase modulation processor 22. In this case, the processor 23 independently calculates three components cyan (C), magenta (M) and yellow (Y). For example, the color difference grid pattern 28 is a color difference grid pattern in which red-rich pixels (dot patterns) 2 and cyan-rich pixels (hatch patterns) 3 are repeatedly assigned as shown in FIG. In the case of 1), the C data is modulated by -ΔCd for the region corresponding to each pixel 2 rich in red, and the M and Y data are modulated by + ΔCd, corresponding to each pixel 3 rich in cyan. For the region, the C data is modulated by + ΔCd, and the M and Y data are modulated by -ΔCd.

중첩 프로세서(24)는 색차 변조 프로세서(23)의 색차 변조 처리 결과 및 색 성분 정보(26)의 각 부분을 이용하여 중첩 처리를 실행하여, 색 성분 정보(26)의 각 부분에 변조된 색차 그리드 패턴(28)을 중첩한다. 구체적으로, 색차 변조 처리 결과의 C, M 및 Y 값은 색 성분 정보(26)의 각 부분의 C, M 및 Y 값에 각각 더한다.The superposition processor 24 executes superposition processing using the color difference modulation processing result of the color difference modulation processor 23 and the respective parts of the color component information 26, so that the color difference grid modulated to each part of the color component information 26 is performed. The pattern 28 overlaps. Specifically, the C, M, and Y values of the color difference modulation processing result are added to the C, M, and Y values of respective portions of the color component information 26, respectively.

합성 프로세서(25)는 색차 그리드 패턴(28)과 중첩된 색 성분 정보(26)의 각 부분을 (단계 S3에서의) 회전 방향에 반대 방향으로 동일한 각도로 회전시키고, 반대로 회전된 색 성분 정보(26)의 각 부분을 합성하여 합성 화상 정보(29)를 생성한다.The synthesizing processor 25 rotates each portion of the color component information 26 superimposed with the chrominance grid pattern 28 at the same angle in the direction opposite to the rotation direction (in step S3), and reversely rotates the color component information ( Each part of 26 is synthesized to generate synthesized image information 29.

전술한 임베딩 처리의 실행 시, 서브 정보(27)는 색 성분 정보(26)의 각 부분에 중첩될 수 있다. 서브 정보(27)가 중첩된 합성 화상 정보(29)는 프린터(12)에 전송되고, 기록 매체에 기록되어, 기록물(P2)을 획득한다.In the execution of the above-described embedding process, the sub information 27 may be superimposed on each part of the color component information 26. The composite image information 29 in which the sub information 27 is superimposed is transmitted to the printer 12, recorded on the recording medium, and obtains the recorded material P2.

도 5 및 6은 제1 실시예에 따른 변조된 색차 그리드 패턴의 화소 어레이 및 서브 정보를 도시한다. 도 5의 굵은 파선에 의해서 묶여진 영역은 하프톤 도트에 의해서 표시된 2개의 화소(7a) 및 해치에 의해서 표시된 2개의 화소(7b)가 교대로 배열되고, 4 화소×2 라인의 구성을 갖는 색차 그리드 패턴(7)을 나타낸다.5 and 6 show pixel array and sub information of the modulated chrominance grid pattern according to the first embodiment. In the region enclosed by the thick broken line in Fig. 5, two pixels 7a indicated by halftone dots and two pixels 7b indicated by hatches are alternately arranged, and a color difference grid having a configuration of 4 pixels by 2 lines is shown. The pattern 7 is shown.

공지된 바와 같이, 인간의 시각 특성으로, 화소 간의 구분가능한 톤 차이는 해상도가 감소됨에 따라 작아지며, 색차값은 특성에 따른 값을 가정할 필요가 있다. 본 실시예에서, 서브 정보를 볼 수 없는 상태로 임베드하기 위한 색차값 ΔCd = "16"이다.As is known, with human visual characteristics, the distinguishable tone difference between pixels becomes smaller as the resolution is reduced, and the color difference value needs to assume a value according to the characteristic. In this embodiment, the color difference value ΔCd = “16” for embedding the sub information in a state where it cannot be seen.

하프톤 도트에 의해서 표시된 화소(7a)와 해치에 의해서 표시된 화소(7b)는 보색 관계를 갖는다. 본 실시예에서, 하프톤 도트에 의해서 표시된 화소(7a)는 레드가 풍부하고, 해치에 의해서 표시된 화소(7b)는 레드의 보색으로서 시안이 풍부하다.The pixel 7a indicated by the halftone dots and the pixel 7b indicated by the hatch have a complementary color relationship. In this embodiment, the pixel 7a represented by the halftone dots is rich in red, and the pixel 7b represented by the hatch is rich in cyan as the complementary color of red.

도 5의 색차 그리드 패턴 그룹(8a, 8b 등)은 이웃하는 색차 그리드 패턴 그룹과 90°위상 차를 갖는다. 도 6은 (해치에 의해서 표시되는) 블랙 셀(9a) 및 화이트 셀(9b)에 의해서 규정되는 이진 화상인 서브 정보(9)의 일 예를 도시한다. 도 5의 색차 그리드 패턴 그룹(8a, 8b)은 도 6의 블랙 셀(9a)에 대응하는 위치에 위치한다. 즉, 본 실시예에서, 색차 그리드 패턴의 위상을 변조함으로써, 서브 정보(9)가 각 색 성분 정보에 중첩된다.The color difference grid pattern groups 8a, 8b, etc. of FIG. 5 have a 90 ° phase difference with neighboring color difference grid pattern groups. 6 shows an example of the sub information 9 which is a binary image defined by the black cell 9a and the white cell 9b (indicated by the hatch). The color difference grid pattern groups 8a and 8b of FIG. 5 are located at positions corresponding to the black cells 9a of FIG. That is, in this embodiment, the sub information 9 is superimposed on each color component information by modulating the phase of the color difference grid pattern.

도 7의 (a) 내지 7의 (d)는 개별적인 색 회전 처리(단계 S3), 중첩(임베딩) 처리(단계 S4) 및 개별적인 색 역회전 처리(단계 S5)를 설명하는 설명도이다. 도 7의 (a)는 단계 S2의 색 분리 처리에 의해서 분리된 색 성분의 한 가지 색 성분 정보의 일부를 도시한다.7A to 7D are explanatory views for explaining individual color rotation processing (step S3), superposition (embedding) processing (step S4), and individual color reverse rotation processing (step S5). FIG. 7A shows a part of one color component information of color components separated by the color separation processing of step S2.

도 7의 (b)는 도 7의 (a)의 색 성분 정보를 단계 S3의 개별적인 색 회전 처리에 의해서 45°회전시킴으로써 획득되는 한 가지 색 성분 정보를 도시한다. 도 7의 (b)의 각도는 45°이며, 본 실시예는 마젠타 색 성분 정보를 나타낸다. 예를 들면, 시안 색 성분 정보에 대한 처리는 15°각도의 회전 처리를 실행할 수 있다.FIG. 7B shows one color component information obtained by rotating the color component information of FIG. 7A by 45 ° by the individual color rotation processing of step S3. The angle of FIG. 7B is 45 °, and the present embodiment shows magenta color component information. For example, the process for cyan color component information can perform the rotation process of 15 degrees angles.

도 7의 (b)에 도시된 바와 같이, 도 7의 (c)에 도시되고, 서브 정보에 의해서 변조된 색차 그리드 패턴은 도 7의 (b)에 도시한 사전설정된 각도로 회전된 색 성분 정보에 중첩된다. 도 7의 (d)는 색차 그리드 패턴과 중첩된 도 7의 (b)의 색 성분 정보가 단계 S5의 개별적인 색 역회전 처리에서 45°역회전 되어 얻은 한 가지 색 성분 정보를 도시한다.As shown in FIG. 7B, the color difference grid pattern shown in FIG. 7C and modulated by the sub information is rotated color component information at a predetermined angle shown in FIG. 7B. Nested in FIG. 7D shows one color component information obtained by rotating the color component information of FIG. 7B overlaid with the color difference grid pattern by 45 ° reverse rotation in the individual color reverse rotation process of step S5.

전술한 바와 같이, 색차 그리드 패턴은 사전설정된 각도로 틸트된 색 성분 정보에 중첩될 수 있다.As described above, the color difference grid pattern may be superimposed on the color component information tilted at a predetermined angle.

전술한 설명에서, 색 분리에 의해서 획득된 시안, 마젠타 및 옐로우의 색 성분 정보의 각 부분은 사전설정된 각도로 각각 회전하며, 서브 정보는 각각의 회전된 색 성분 정보에 임베드된다. 서브 정보가 임베드된 색 성분 정보의 각 부분은 전술한 회전에 대하여 반대 방향에서 동일한 각도로 각각 회전하며, 사전설정된 각도로 역회전되는 색 성분 정보의 각 부분은 기록 매체에 기록된다. 그러나 전술한 처리에 반대되는 처리가 실행될 수 있으며, 이것은 아래에 기술될 것이다.In the above description, each part of the color component information of cyan, magenta and yellow obtained by color separation is rotated at a predetermined angle, respectively, and the sub information is embedded in the respective rotated color component information. Each part of the color component information in which the sub information is embedded is rotated at the same angle in the opposite direction with respect to the above-described rotation, and each part of the color component information reversely rotated at the predetermined angle is recorded on the recording medium. However, processing opposite to the above-described processing may be executed, which will be described below.

도 8의 (a)는 색 분리 처리에 의해 분리된 색 성분 중 한 가지 색 성분 정보의 일부를 도시한다. 도 8의 (b)는 서브 정보에 의해 변조되는 색차 그리드 패턴을 도시하고, 도 8의 (c)는 도 8의 (b)에 도시된 패턴을 45°회전함으로써 얻은 색차 그리드 패턴을 도시한다. 도 8의 (c)에서의 각도는 45°이고, 이 실시예는 마젠타 색 성분 정보를 나타낸다. 예를 들어, 시안 색 성분 정보의 처리는 15°각도로 회전 처리를 실행할 수 있다.FIG. 8A shows a part of one color component information of color components separated by color separation processing. FIG. 8B shows the color difference grid pattern modulated by the sub information, and FIG. 8C shows the color difference grid pattern obtained by rotating the pattern shown in FIG. 8B by 45 °. The angle in FIG. 8C is 45 °, and this embodiment shows magenta color component information. For example, the process of cyan color component information can perform a rotation process at an angle of 15 degrees.

도 8의 (c)에 도시된 사전설정된 각도로 회전된 색차 그리드 패턴은 도 8의 (a)에 도시된 색 성분 정보에 중첩된다. 도 8의 (d)는 이 중첩 처리에 의해 색차 그리드 패턴과 중첩된 한 가지 색 성분 정보를 도시한다.The color difference grid pattern rotated at the predetermined angle shown in FIG. 8C is superimposed on the color component information shown in FIG. 8A. FIG. 8D shows one color component information superimposed with the color difference grid pattern by this superimposition process.

또한, 이 처리로, 사전설정된 각도로 틸트된 색차 그리드 패턴은, 색차 그리 드 패턴이 사전설정된 각도로 회전된 각 색 성분 정보에 중첩되는 경우와 같이, 각 색 성분 정보에 중첩될 수 있다.Also, with this processing, the color difference grid pattern tilted at a predetermined angle can be superimposed on each color component information, such as when the color difference grid pattern is superimposed on each color component information rotated at a predetermined angle.

도 9는 상술한 화상 처리에 의해 생성되는 기록물(P2)의 실제 예를 도시한다. 기록물(P2)은, 예를 들어, ID 카드 등과 같은 개인 인증 매체이고, 이 매체는, 개인 인증을 위한 얼굴 화상(32a) 및 문자 화상(개인 관리 정보 등)(32b)을 카드형 기록 매체(31)에 기록함으로써 생성된다. 개인 인증 매체는 변조 및 위조에 대해서 평가할 필요가 있으므로, 색차 그리드 패턴(7)을 변조함으로써 얻은 서브 정보(점선으로 표시된 별 마크)(33)는 비가시적인 상태로 얼굴 화상(32a)에 중첩된다.9 shows an actual example of the recorded material P2 generated by the above-described image processing. The recorded material P2 is, for example, a personal authentication medium such as an ID card. The medium includes a face image 32a and a character image (personal management information, etc.) 32b for personal authentication. 31). Since the personal authentication medium needs to be evaluated for modulation and forgery, the sub information (star mark indicated by dotted lines) 33 obtained by modulating the color difference grid pattern 7 is superimposed on the face image 32a in an invisible state.

얼굴 화상(32a)은 색 화상 정보이고, 서브 정보(33)로서의 별 마크는 이진 화상 정보임을 주지해야 한다. 색 화상 정보(얼굴 화상(32a))를 형성하는 옐로우, 마젠타, 시안 및 블랙의 각 색 잉크는 각 색에 대하여 서로 다른 사전설정된 각도의 틸트를 갖도록 구성되고, 색차 그리드 패턴은 각 색에 대하여 상이한 각도의 틸트를 갖도록 형성된다.Note that the face image 32a is color image information, and the star mark as the sub information 33 is binary image information. Each color ink of yellow, magenta, cyan and black forming the color image information (face image 32a) is configured to have different preset angle tilts for each color, and the color difference grid pattern is different for each color. It is formed to have a tilt of the angle.

상술한 바와 같이 생성된 인쇄물(P2)로부터 서브 정보를 재생하는 제1 실시예에 따른 화상 처리 장치 및 화상 처리 방법이 후술될 것이다.An image processing apparatus and an image processing method according to the first embodiment for reproducing sub information from the printed matter P2 generated as described above will be described later.

도 10은, 제1 실시예에 따라 인쇄물로부터 서브 정보를 재생하기 위한 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 구성을 개략적으로 도시한다. 이 화상 처리 시스템은 개략적으로, 판독 수단으로서의 화상 판독 장치(41), 다양한 종류의 처리를 행하는 컴퓨터(43), 화상 판독 장치(41), 표시 장치(42) 및 컴퓨터(43)를 서로 통신할 수 있도록 연결하기 위한 양방향 통신 수단(44 및 45)을 포함한다.10 schematically shows the configuration of an image processing system to which an image processing apparatus and an image processing method for reproducing sub information from a printed matter according to the first embodiment are applied. This image processing system roughly communicates the image reading apparatus 41 as the reading means, the computer 43 which performs various kinds of processing, the image reading apparatus 41, the display device 42 and the computer 43 with each other. Bidirectional communication means 44 and 45 for connection.

화상 판독 장치(41)는 디지털 화상과 같은 기록물(P2)의 색 화상 정보를 판독하고, 플랫베드 스캐너, 디지털 카메라 등을 포함한다. 이 실시예에서는, 예를 들어, 스캐너가 사용된다. 표시 장치(42)는 재생된 서브 정보 등과 같은 다양한 종류의 정보를 표시하고 출력한다.The image reading device 41 reads color image information of a recording P2 such as a digital image, and includes a flatbed scanner, a digital camera, and the like. In this embodiment, for example, a scanner is used. The display device 42 displays and outputs various kinds of information such as reproduced sub information.

컴퓨터(43)는, 화상 판독 장치(41)에 의해 판독된 색 화상 정보로부터 그 색 화상 정보에 임베드된 서브 정보를 재생하도록 서브 정보 재생 처리를 실행하기 위한 화상 처리 수단인 화상 프로세서(46)를 포함한다.The computer 43 uses an image processor 46 which is image processing means for executing sub information reproduction processing to reproduce sub information embedded in the color image information from the color image information read by the image reading apparatus 41. Include.

컴퓨터(43)는 CPU, 반도체 메모리, 하드 디스크 디바이스, 화상 캡처 보드 등을 포함하는 전용 보드 또는 퍼스널 컴퓨터일 수 있음을 주지해야 한다. 이 실시예에서는, 퍼스널 컴퓨터가 사용된다.It should be noted that the computer 43 may be a dedicated board or personal computer including a CPU, semiconductor memory, hard disk device, image capture board, and the like. In this embodiment, a personal computer is used.

이 실시예의 화상 프로세서(46)는 퍼스널 컴퓨터에서 동작하는 애플리케이션 프로그램의 모듈에 의해 구현된다는 것을 주지해야 한다.It should be noted that the image processor 46 of this embodiment is implemented by a module of an application program running on a personal computer.

양방향 통신 수단(44 및 45)은 양방향으로 신호를 전달하는 한 특정한 것으로 제한되지는 않으며, USB, SCSI 등을 포함할 수 있다. 이 실시예에서는, USB2.0이 사용된다.The bidirectional communication means 44 and 45 are not limited to specific ones as long as they carry signals in both directions, and may include USB, SCSI, and the like. In this embodiment, USB 2.0 is used.

상술한 구성을 포함하고, 제1 실시예에 따른 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작이 도 11에 도시된 플로차트를 참조해서 후술될 것이다.The entire processing operation of the image processing system including the above-described configuration and reproducing sub information from the recording according to the first embodiment will be described below with reference to the flowchart shown in FIG.

화상 판독 장치(41)는 기록물(P2)의 색 화상 정보를 판독한다(단계 S11). 판독된 색 화상 정보는 컴퓨터(43)의 화상 프로세서(46)에 입력된다. 화상 프로세서(46)는 입력된 색 화상 정보를, 색 화상 정보를 형성하는 색 잉크인 시안(C), 마젠타(M) 및 옐로우(Y)의 색 성분 정보의 각 부분으로 분리한다(단계 S12). 색 분리될 색 성분 정보의 부분은 레드(R), 그린(G) 및 블루(B)일 수도 있다는 것을 주지해야 한다.The image reading device 41 reads the color image information of the recording P2 (step S11). The read color image information is input to the image processor 46 of the computer 43. The image processor 46 separates the input color image information into respective parts of the color component information of cyan (C), magenta (M), and yellow (Y), which are color inks forming the color image information (step S12). . It should be noted that the portion of color component information to be color separated may be red (R), green (G) and blue (B).

다음으로, 화상 프로세서(46)는 색 화상 정보를 형성하는 옐로우, 시안 및 마젠타의 화소 형성 방향과 반대되는 방향으로 시안(C), 마젠타(M) 및 옐로우(Y)의 색 분리된 색 성분 정보의 각 부분을 각 색의 틸트 각도와 동일한 각도로 회전시킨다(단계 S13). 이 처리를 통해서, 각 색의 화소 형성 방향은 화상의 수직 및 수평 방향과 일치할 수 있고, 색차 그리드 패턴의 화소 형성 방향은 화상의 수직 및 수평 방향과 일치할 수 있다.Next, the image processor 46 performs color-separated color component information of cyan (C), magenta (M), and yellow (Y) in a direction opposite to the pixel formation directions of yellow, cyan, and magenta forming color image information. Each part of is rotated at the same angle as the tilt angle of each color (step S13). Through this process, the pixel formation direction of each color can coincide with the vertical and horizontal directions of the image, and the pixel formation direction of the chrominance grid pattern can coincide with the vertical and horizontal directions of the image.

다음으로, 화상 프로세서(46)는, 사전설정된 각도로 역회전되는 색 성분 정보의 각 부분에의 서브 정보를 추출하기 위한 처리를 적용하고, 서브 정보를 추출(재생)한다(단계 S14). 화상 프로세서(46)는 추출된 서브 정보를 표시 장치(42)에 표시하고(단계 S15), 오퍼레이터는 서브 정보의 표시에 기초해서 기록물(P2)의 진본성(authenticity)을 검사한다(단계 S16).Next, the image processor 46 applies a process for extracting sub information to each part of the color component information reversely rotated at a predetermined angle, and extracts (reproduces) the sub information (step S14). The image processor 46 displays the extracted sub information on the display device 42 (step S15), and the operator checks the authenticity of the recording P2 based on the display of the sub information (step S16). .

상기 설명에서, 추출된 서브 정보는 표시 장치(42)에 표시되고, 오퍼레이터는 표시된 콘텐츠에 기초해서 기록물(P2)의 진본성, 즉 서브 정보의 진본성을 검사한다. 그러나 진본성 검사는 자동으로 행해질 수 있으며, 도 12에 도시된 플로차트를 참조해서 후술될 것이다.In the above description, the extracted sub information is displayed on the display device 42, and the operator checks the authenticity of the recorded material P2, that is, the authenticity of the sub information based on the displayed content. However, the authenticity check can be done automatically and will be described later with reference to the flowchart shown in FIG.

단계 S11 내지 S14의 처리가 도 11에 도시된 것과 동일하기 때문에, 그에 대한 반복적인 설명은 생략되고, 도 11과 다른 단계 S17 내지 S19만이 설명될 것이다.Since the processing of steps S11 to S14 is the same as that shown in Fig. 11, a repetitive description thereof will be omitted, and only steps S17 to S19 different from Fig. 11 will be described.

서브 정보가 단계 S14에서 추출(재생)되면, 화상 프로세서(46)는 추출된 서브 정보를, 예를 들어, 이전에 등록된 기준 서브 정보와 대조하고(단계 S17), 두 서브 정보가 사전설정된 관계를 갖는지, 즉 두 서브 정보가 이 예에서 일치하는지를 찾음으로써 기록물(P2)의 진본성을 검사한다. 그 다음, 화상 프로세서(46)는 표시 장치(42)에 검사 결과를 표시한다(단계 S19).When the sub information is extracted (reproduced) in step S14, the image processor 46 checks the extracted sub information with, for example, previously registered reference sub information (step S17), and the relationship in which the two sub information are preset The authenticity of the record P2 is checked by finding whether or not, i.e., the two sub-informations match in this example. The image processor 46 then displays the inspection result on the display device 42 (step S19).

기록물(P2)의 진본성 검사 방법은 상술한 방법으로 한정되는 것은 아니며, 다른 방법들도 이용가능하다는 것을 주지해야 한다. 예를 들어, 진본성은 추출된 서브 정보를 분석함으로써 검사될 수 있다. 대안으로, 기록물(P2)의 진본성은, 서브 정보의 진본성에 기초한 기록물(P2)의 진본성 검사 대신, 서브 정보의 존재/부재에 기초하여 검사될 수 있다.It should be noted that the authenticity checking method of the record P2 is not limited to the above-described method, and other methods are also available. For example, authenticity can be checked by analyzing the extracted sub information. Alternatively, the authenticity of the record P2 may be checked based on the presence / absence of the sub information, instead of the authenticity check of the record P2 based on the authenticity of the sub information.

도 13은, 도 11의 단계 S13의 처리에 의해 얻은 색 성분 정보를 공간 주파수 도메인으로 변환하는 것에 따른 신호를 도시한다. 수평축은 수평 방향에서의 색 성분 정보의 공간 주파수(fx)를 도시하고, 수직축은 수직 방향에서의 색 성분 정보의 공간 주파수(fy)를 도시한다. 도트 표시된 원형 신호는 색차 그리드 패턴(7)의 신호이다.FIG. 13 shows a signal obtained by converting the color component information obtained by the process of step S13 of FIG. 11 into the spatial frequency domain. The horizontal axis shows the spatial frequency fx of the color component information in the horizontal direction, and the vertical axis shows the spatial frequency fy of the color component information in the vertical direction. The circular signal with a dot is a signal of the chrominance grid pattern 7.

제1 실시예에 따른 서브 정보의 재생 처리는 색차 그리드 패턴(7)의 신호에 대응하는 주파수의 대역통과 필터를 적용시킴으로써 서브 정보(9)를 재생(추출)할 수 있다.In the reproduction processing of the sub information according to the first embodiment, the sub information 9 can be reproduced (extracted) by applying a band pass filter of a frequency corresponding to the signal of the chrominance grid pattern 7.

상술한 바와 같이, 제1 실시예에 따르면, 서브 정보는 사전설정된 각도를 갖도록 각 색 성분의 화소 형성 방향을 틸트함으로써 형성된 색 화상 정보에 중첩될 수 있고, 이에 따라, 획득된 기록물의 변조 및 위조에 대한 저항성을 강화시킬 수 있다.As described above, according to the first embodiment, the sub information can be superimposed on the color image information formed by tilting the pixel formation direction of each color component to have a predetermined angle, thereby modulating and counterfeiting the obtained recording. It can enhance resistance to

이하에서 제2 실시예가 후술될 것이다.The second embodiment will be described below.

제2 실시예는 도 32 및 33을 사용해서 이전에 설명된 제2 색 화상 표현 방법의 경우에 적용된다.The second embodiment applies to the case of the second color image representation method previously described using Figs.

제2 실시예에 따른 화상 처리 시스템의 구성이 제1 실시예의 구성(도 1)과 동일하기 때문에, 그에 대한 반복적인 설명은 생략될 것이다.Since the configuration of the image processing system according to the second embodiment is the same as the configuration (FIG. 1) of the first embodiment, a repetitive description thereof will be omitted.

제2 실시예에 따른 화상 처리 시스템의 전체 동작은 도 14에 도시된 플로차트를 참조해서 후술될 것이다.The overall operation of the image processing system according to the second embodiment will be described later with reference to the flowchart shown in FIG.

화상 입력 장치(11)는, 얼굴 화상 등의 색 화상 정보를 메인 정보로서 입력한다(단계 S21). 색 화상 정보가 사진(인쇄물)(P1)의 컬러 얼굴 화상이라고 가정한다. 그러나 본 발명은 이러한 특정 정보로 한정되지 않는다. 입력된 색 화상 정보는 컴퓨터(13)의 화상 프로세서(16)에 입력된다.The image input device 11 inputs color image information such as a face image as main information (step S21). Assume that the color image information is the color face image of the photograph (printed material) P1. However, the present invention is not limited to this specific information. The input color image information is input to the image processor 16 of the computer 13.

화상 프로세서(16)는 입력된 색 화상 정보를, 색 화상 정보를 기록하는 데 사용되는 잉크 색인 시안(C), 마젠타(M), 옐로우(Y) 및 블랙(K)의 색 성분 정보의 네 부분(화상 정보의 적어도 세 부분)으로 분리한다. 화상 프로세서(16)는 시 안(C), 마젠타(M) 및 옐로우(Y)의 색 성분 정보의 세 부분의 화소가 사전설정된 각도를 갖도록 할당한다(단계 S23).The image processor 16 uses the input color image information as four parts of the color component information of the ink index cyan (C), magenta (M), yellow (Y) and black (K) used to record the color image information. (At least three parts of the image information). The image processor 16 allocates three pixels of the color component information of the visual C, the magenta M, and the yellow Y to have a predetermined angle (step S23).

화상 프로세서(16)는 각각의 회전된 색 성분 정보에 서브 정보를 임베드한다(단계 S24). 다음으로, 화상 프로세서(16)는 서브 정보가 임베드된 색 성분 정보의 각 부분에 단계 S23의 처리와 상반되는 처리를 적용함으로써 화소를 복원하도록 화소를 할당한다(단계 S25). The image processor 16 embeds the sub information in the respective rotated color component information (step S24). Next, the image processor 16 allocates the pixels to restore the pixels by applying a process opposite to the process of step S23 to each part of the color component information in which the sub information is embedded (step S25).

화상 프로세서(16)는, 화소 할당이 복원되는 색 성분 정보의 부분을 합성함으로써 합성 화상 정보(색 화상 정보)를 생성하고(단계 S26), 생성된 합성 화상 정보를 프린터(12)에 송신한다.The image processor 16 generates the synthesized image information (color image information) by synthesizing the portion of the color component information from which the pixel assignment is restored (step S26), and transmits the generated synthesized image information to the printer 12.

프린터(12)는, 서브 정보가 임베드된 합성 화상 정보에 대해, 색 성분 정보의 각 부분에 대한 디더 매트릭스(dither matrices)를 사용해서 의사 하프톤(pseudo halftone) 처리를 적용하고(단계 S27), 의사 하프톤 처리를 실행한 합성 화상 정보를 기록 매체에 기록함으로써 기록물(P2)를 얻는다(단계 S28).The printer 12 applies pseudo halftone processing to the composite image information in which the sub information is embedded using dither matrices for each part of the color component information (step S27), The recorded material P2 is obtained by recording the composite image information on which the pseudo halftone processing is performed on the recording medium (step S28).

화상 프로세서(16)에 의해 각 색 성분 정보에 서브 정보를 임베딩하기 위한 임베딩 처리(단계 S24의 처리)는 제1 실시예에서 사용된 도 3을 참조해서 후술될 것이다.An embedding process (process of step S24) for embedding sub information in each color component information by the image processor 16 will be described later with reference to FIG. 3 used in the first embodiment.

제2 실시예의 경우의 각 색 성분 정보(26)는, 단계 S23의 개별 색 할당 처리에 의해 할당된 정보이고, 서브 정보(27)가 중첩되는 정보이고, 이 실시예의 기록물의 컬러 얼굴 화상과 관련된 화상 정보의 색 분리된 성분 중 하나이다. 얼굴 화상 정보는 화상의 수직 및 수평 방향에서의 라인에 화소를 형성함으로써 정의된다는 것을 주지해야 한다. 이 정보는 화소당 24 비트(R, G, 또는 B 성분당 8 비트)의 정보를 갖는다.Each color component information 26 in the case of the second embodiment is information allocated by the individual color assignment processing in step S23, and sub information 27 is superimposed and associated with the color face image of the recording of this embodiment. One of the color-separated components of the image information. Note that face image information is defined by forming pixels in lines in the vertical and horizontal directions of the image. This information has information of 24 bits per pixel (8 bits per R, G, or B component).

서브 정보(임베드된 화상 정보)(27)는 예를 들어, 임베드될 정보를 이진 화상 정보로 변환함으로써 얻고, 개인 인증 매체의 식별 번호(ID 번호) 등에 대응한다. 이 정보는 화소당 1 비트의 정보를 갖는다.The sub information (embedded image information) 27 is obtained by, for example, converting the information to be embedded into binary image information, and corresponds to an identification number (ID number) or the like of the personal authentication medium. This information has one bit of information per pixel.

색차 그리드 패턴(28)은 그리드 타입 패턴이고, 또한 서브 정보(27)의 재생 시 키 정보로서 사용된다. 이 패턴은 화소당 1 비트의 정보를 갖는다.The chrominance grid pattern 28 is a grid type pattern and is used as key information at the time of reproduction of the sub information 27. This pattern has 1 bit of information per pixel.

먼저, 스무딩 프로세서(21)는 서브 정보(27)의 블랙 화소 = "1" 및 화이트 화소 = "0"이 되도록 스무딩 처리를 실행한다. 이 경우에, 프로세서(21)는 화상의 수평 방향(x-방향)에서 복수의 화소의 영역을 추출하고, 이들 화소의 가중 평균을 계산한다.First, the smoothing processor 21 executes a smoothing process so that black pixel = "1" and white pixel = "0" of the sub information 27. In this case, the processor 21 extracts regions of the plurality of pixels in the horizontal direction (x-direction) of the image and calculates a weighted average of these pixels.

위상 변조 프로세서(22)는 스무딩 프로세서(21)의 스무딩 처리 결과에 기초해서 색차 그리드 패턴(28)에 위상 변조를 적용한다. 이 실시예에서, 프로세서(22)는 2×2 화소 패턴(블랙 및 화이트 화소가 교대로 나타남)을 시계방향으로 90°회전시킨다.The phase modulation processor 22 applies phase modulation to the chrominance grid pattern 28 based on the smoothing processing result of the smoothing processor 21. In this embodiment, the processor 22 rotates the 2x2 pixel pattern (black and white pixels alternately) 90 ° clockwise.

색차 변조 프로세서(23)는 위상 변조 프로세서(22)의 위상 변조 결과에 기초해서 사전설정된 색차량 ΔCd을 사용해서 색차 변조 처리를 실행한다. 이 경우에, 프로세서(23)는 세 성분인 시안(C), 마젠타(M) 및 옐로우(Y)를 독립적으로 계산한다. 예를 들어, 색차 그리드 패턴(28)이 레드가 풍부한 화소(도트 표시된 패턴)(2) 및 시안이 풍부한 화소(해치 패턴)(3)가 반복적으로 할당된 색차 그리드 패 턴(1)인 경우, 도 4에 도시된 바와 같이, 레드가 풍부한 각 화소(2)에 대응하는 영역에 대하여 C 데이터는 -ΔCd 만큼 변조되고, M 및 Y 데이터는 +ΔCd 만큼 변조되고, 시안이 풍부한 각 화소(3)에 대응하는 영역에 대하여 C 데이터는 +ΔCd 만큼 변조되고, M 및 Y 데이터는 -ΔCd 만큼 변조된다.The color difference modulation processor 23 executes color difference modulation processing using the color difference amount ΔCd preset based on the phase modulation result of the phase modulation processor 22. In this case, the processor 23 independently calculates three components cyan (C), magenta (M) and yellow (Y). For example, when the color difference grid pattern 28 is the color difference grid pattern 1 to which red-rich pixels (dotted patterns) 2 and cyan-rich pixels (hatch patterns) 3 are repeatedly assigned, As shown in FIG. 4, for the region corresponding to each pixel 2 rich in red, C data is modulated by -ΔCd, M and Y data is modulated by + ΔCd, and each pixel 3 rich in cyan C data is modulated by + ΔCd and M and Y data are modulated by -ΔCd for the region corresponding to.

중첩 프로세서(24)는, 색차 변조 프로세서(23)의 색차 변조 처리 결과 및 색 성분 정보(26)의 각 부분을 이용해서 중첩 처리를 실행하고, 이에 따라, 변조된 색차 그리드 패턴(28)을 색 성분 정보(26)의 각 부분에 중첩한다. 구체적으로, 색차 변조 처리 결과의 C, M 및 Y 값은 색 성분 정보(26)의 각 부분의 C, M 및 Y 값에 각각 더한다.The superimposition processor 24 performs superimposition processing using the color difference modulation processing result of the color difference modulation processor 23 and the respective parts of the color component information 26, and accordingly, the modulated color difference grid pattern 28 is colored. Each part of the component information 26 is superimposed. Specifically, the C, M, and Y values of the color difference modulation processing result are added to the C, M, and Y values of respective portions of the color component information 26, respectively.

합성 프로세서(25)는, 색차 그리드 패턴(28)과 중첩된 색 성분 정보(26)의 각 부분에 단계 S23의 처리와 상반되는 처리를 적용함으로써 화소를 복원하도록 화소를 할당하고, 화소 할당이 복원되는 색 성분 정보(26)의 각 부분을 합성하고, 이에 따라 합성 화상 정보(29)를 생성한다.The synthesizing processor 25 allocates the pixels to restore the pixels by applying the processing opposite to the processing of step S23 to each part of the color component information 26 superimposed with the chrominance grid pattern 28, and the pixel allocation is restored. Each part of the color component information 26 to be used is synthesize | combined, and the composite image information 29 is produced | generated accordingly.

상술한 임베딩 처리의 실행 시, 서브 정보(27)는 색 성분 정보(26)의 각 부분에 중첩될 수 있다. 서브 정보(27)가 중첩된 합성 화상 정보(29)는 프린터(12)에 송신되고, 기록 매체에 기록되어, 기록물(P2)가 얻어진다.In executing the above-described embedding process, the sub information 27 may be superimposed on the respective portions of the color component information 26. The composite image information 29 in which the sub information 27 is superimposed is transmitted to the printer 12, recorded on the recording medium, and the recorded material P2 is obtained.

제2 실시예에 따른 서브 정보 및 변조된 색차 그리드 패턴의 화소 어레이가 도 5 및 6을 이용해서 상술된 제1 실시예의 어레이와 동일하기 때문에, 그 설명은 생략될 것이다.Since the pixel array of the sub information and the modulated chrominance grid pattern according to the second embodiment is the same as the array of the first embodiment described above with reference to Figs. 5 and 6, the description thereof will be omitted.

도 15a 및 15b는 제2 실시예에 따른 스크린 각도를 설명하기 위한 도면이고, 도 29에 도시된 색 화상(5)의 한 부분(5a)의 확대도이다. 제2 실시예에서, 시안(C) 및 옐로우(Y)의 스크린 각도는 각각 18.4°및 108.4°이고, 이들은 90°의 차를 갖는다. 따라서, 도 15a에서 나타낸 바와 같이, 시안 및 옐로우 화소는 서로 중첩하도록 할당된다. 그러나 스크린 각도가 90°의 차를 갖기 때문에, 시안 정보를 옐로우 정보에 중첩 시, 색차 그리드 패턴을 교란시키지 않으면서 두 정보를 중첩하기 위해 시안 정보는 시안에 대응하는 스크린 각도로 틸트를 갖도록 중첩될 필요가 있다.15A and 15B are views for explaining the screen angle according to the second embodiment, and are enlarged views of one portion 5a of the color image 5 shown in FIG. In the second embodiment, the screen angles of cyan (C) and yellow (Y) are 18.4 ° and 108.4 °, respectively, and they have a difference of 90 °. Thus, as shown in Fig. 15A, cyan and yellow pixels are assigned to overlap each other. However, since the screen angle has a difference of 90 °, when cyan information is superimposed on yellow information, the cyan information may be superimposed to have a tilt at the screen angle corresponding to cyan so as to overlap the two information without disturbing the chrominance grid pattern. There is a need.

한편, 마젠타(M)의 스크린 각도는 -18.4°이고, 시안 및 마젠타 화소는 서로 덜 중첩된다. 도 4에 도시된 색차 그리드 패턴에 대해, 레드 및 시안이 풍부한 화소는 셋 또는 그 이상의 색의 화소를 중첩함으로써 형성될 필요가 있다. 스크리닝 방법을 이용한 기록 방법으로, 세 가지 색의 화소는 서로 덜 겹치게 되어 색차 그리드 패턴을 교란시키고, 서브 정보는 색 화상 정보에 중첩될 수 없다.On the other hand, the screen angle of the magenta M is -18.4 °, and the cyan and magenta pixels overlap less with each other. For the chrominance grid pattern shown in Fig. 4, red and cyan-rich pixels need to be formed by superimposing pixels of three or more colors. In the recording method using the screening method, the pixels of the three colors overlap with each other less so as to disturb the color difference grid pattern, and the sub information cannot be superimposed on the color image information.

도 16, 17 및 18은 시안, 마젠타 및 옐로우에 대응하는 스크린(화소 어레이)을 형성하는 데 이용되는 임계 매트릭스의 예를 도시한다.16, 17 and 18 show examples of critical matrices used to form screens (pixel arrays) corresponding to cyan, magenta and yellow.

도 16은 시안에 대응하는 스크린을 형성하는 데 이용되는 임계 매트릭스를 도시한다. 도 16의 해치의 의해 표시된 10개의 화소를 포함하는 매트릭스(51a)는 단위 매트릭스이고, 의사 톤(pseudo tone)을 나타내는 데 사용되는 디더 매트릭스이다. 도 16에 도시된 바와 같이, 단위 매트릭스(51a)를 할당함으로써, 도 16의 직선(51b)으로 표시되는 바와 같이 스크린 각도 = 18.4°(도 16의 수평 방향으로부터 시계방향의 각도)가 실현될 수 있다.16 shows the threshold matrix used to form the screen corresponding to cyan. The matrix 51a including the ten pixels indicated by the hatches in Fig. 16 is a unitary matrix and is a dither matrix used to represent pseudo tones. As shown in Fig. 16, by allocating the unit matrix 51a, as shown by the straight line 51b in Fig. 16, screen angle = 18.4 ° (angle in a clockwise direction from the horizontal direction in Fig. 16) can be realized. have.

도 17은 옐로우에 대응하는 스크린을 형성하는 데 사용되는 임계 매트릭스를 도시한다. 도 17의 해치의 의해 표시된 10개의 화소를 포함하는 매트릭스(51c)는 단위 매트릭스이고, 도 16의 단위 매트릭스(51a)를 시계방향으로 90°회전시킴으로써 얻는다. 단위 매트릭스(51c)를 할당함으로써, 도 17에 도시된 바와 같이, 도 17의 직선(51d)으로 표시되는 바와 같이 스크린 각도 = 108.4°가 실현된다.17 shows the critical matrix used to form the screen corresponding to yellow. The matrix 51c including the ten pixels indicated by the hatch of FIG. 17 is a unit matrix, and is obtained by rotating the unit matrix 51a of FIG. 16 in a clockwise direction. By assigning the unit matrix 51c, as shown in FIG. 17, the screen angle = 108.4 ° is realized as indicated by the straight line 51d in FIG.

도 18은 마젠타에 대응하는 스크린을 형성하는 데 사용되는 임계 매트릭스를 도시한다. 도 18의 해치의 의해 표시된 10개의 화소를 포함하는 매트릭스(51e)는 단위 매트릭스이고, 도 16의 단위 매트릭스(51a)를 도 18의 수직 방향에 대해 축대칭으로 반전(수평으로 플리핑(flipping))시킴으로써 얻는다. 단위 매트릭스(51e)를 할당함으로써, 도 18에 도시된 바와 같이, 도 18의 직선(51f)으로 표시되는 바와 같이 스크린 각도 = -18.4°가 실현된다.18 shows the critical matrix used to form the screen corresponding to magenta. The matrix 51e including the ten pixels indicated by the hatch of FIG. 18 is a unit matrix, and the unit matrix 51a of FIG. 16 is inverted (axis flipping horizontally) in axisymmetric with respect to the vertical direction of FIG. Get by By assigning the unit matrix 51e, as shown by the straight line 51f in FIG. 18, the screen angle = -18.4 ° is realized.

스크린 각도는 단지 예이고, 상술한 조합으로 한정되지 않는다는 것을 주지해야 한다.It should be noted that the screen angle is only an example and is not limited to the combination described above.

도 19, 20, 21 및 22는 시안 및 옐로우의 색 성분 정보의 부분의 할당 처리, 중첩 처리, 색차 그리드 패턴 및 개별 색 역 할당 처리를 도시하는 설명도이다.19, 20, 21, and 22 are explanatory diagrams showing the allocation processing, the superposition processing, the color difference grid pattern, and the individual color gamut allocation processing of portions of cyan and yellow color component information.

도 19는 시안 및 옐로우 각각의 색 성분 정보의 화소 어레이를 도시한다. 도 19의 10개의 화소를 포함하는 각각의 볼드 프레임(bold frame)은 시안의 단위 매트릭스를 나타낸다. 도 19의 참조 번호 a1 내지 a4, b1 내지 b4 및 c1 내지 c4는 각각 9개의 화소(수평 및 수직 방향에서 3×3 화소)를 포함하는 화소 블록을 나타내고, a, b, c 그룹 모두는 시안에 대응하는 스크린 각도로 틸트된다. 각각 9개 의 화소를 포함하는 옐로우 화소 블록은 시안의 블록에 매칭되고, 시안과 스크린 각도가 90°상이하지만, 이들 화소 블록은 공통으로 사용될 수 있다.19 shows a pixel array of color component information of cyan and yellow, respectively. Each bold frame including the ten pixels of FIG. 19 represents a unit matrix of cyan. Reference numerals a1 to a4, b1 to b4, and c1 to c4 in FIG. 19 denote pixel blocks including nine pixels (3 × 3 pixels in the horizontal and vertical directions), respectively, and all of the groups a, b, and c are Cyan. Tilt to the corresponding screen angle. Yellow pixel blocks each including nine pixels are matched to cyan blocks, and cyan and the screen angles are different by 90 °, but these pixel blocks can be used in common.

도 20은 도 19에서 화소를 할당함으로써 얻은 화소 어레이를 도시하며, 도 19의 9개의 화소를 각각 포함하는 화소 블록은 단위로서 각 화소 블록을 갖도록 선형으로 배열된다. 이 실시예에 따른 시안 및 옐로우에 대응하는 할당 처리는 시안에 대응하는 스크린 각도로 시계반대방향으로 회전될 화소 블록을 할당하는 처리이다.20 illustrates a pixel array obtained by allocating pixels in FIG. 19, and pixel blocks each including nine pixels of FIG. 19 are linearly arranged to have each pixel block as a unit. The allocation process corresponding to cyan and yellow according to this embodiment is a process of allocating a pixel block to be rotated counterclockwise at a screen angle corresponding to cyan.

도 21은 색차 그리드 패턴을 도시한다. 도 4에 도시된 색차 그리드 패턴의 한 화소는 9개의 화소를 포함하는 화소 블록에 대응한다. 즉, 9개의 화소를 포함하는 각 화소 블록(도 21의 도트 패턴)(52)은 레드가 풍부한 성분을 갖고, 9개의 화소를 포함하는 각 화소 블록(도 21의 해치 패턴)(53)은 시안이 풍부한 성분을 갖는다. 도 21에 도시된 색차 그리드 패턴은 도 20의 할당 후 화소 어레이에 중첩된다.21 illustrates a color difference grid pattern. One pixel of the color difference grid pattern illustrated in FIG. 4 corresponds to a pixel block including nine pixels. That is, each pixel block (dot pattern in FIG. 21) 52 including nine pixels has a red-rich component, and each pixel block (hatch pattern in FIG. 21) including nine pixels is cyan. It has abundant ingredients. The color difference grid pattern shown in FIG. 21 is superimposed on the pixel array after assignment in FIG.

도 22는, 도 21의 색차 그리드 패턴이 도 20의 화소 어레이에 중첩된 후, 도 19에 도시된 오리지널 화소 어레이를 복원하도록 할당된 화소 어레이를 도시한다. 이 실시예에 따른 기록 유닛은 색 성분 정보의 색에 대응하는 스크린을 형성한다. 스크린은 임계 매트릭스에 의해 정의되고, 단위 매트릭스의 각 화소 블록에 대해 처리된다. 도 21에 도시된 바와 같이, 색차 그리드 패턴은 단위 매트릭스에서 9-화소 블록에 중첩될 수 있기 때문에, 색차 그리드 패턴은 스크린이 형성된 후에도 교란되지 않는다.FIG. 22 shows a pixel array allocated to restore the original pixel array shown in FIG. 19 after the color difference grid pattern of FIG. 21 is superimposed on the pixel array of FIG. The recording unit according to this embodiment forms a screen corresponding to the color of the color component information. The screen is defined by a critical matrix and processed for each pixel block of the unit matrix. As shown in Fig. 21, since the chrominance grid pattern can be superimposed on a 9-pixel block in the unit matrix, the chrominance grid pattern is not disturbed even after the screen is formed.

상술한 바와 같이, 색차 그리드 패턴은 시안의 색 성분 정보의 시안에 대응하는 스크린 각도로 틸트된 화소 블록에 중첩될 수 있다. 또한, 색차 그리드 패턴은 옐로우의 색 성분 정보의 옐로우에 대응하는 스크린 각도와 상이한 시안에 대응하는 스크린 각도로 틸트된 화소 블록에 중첩될 수 있다.As described above, the color difference grid pattern may be superimposed on the pixel block tilted at the screen angle corresponding to the cyan color component information. In addition, the color difference grid pattern may be superimposed on the pixel block tilted at a screen angle corresponding to a cyan different from the screen angle corresponding to yellow of the color component information of yellow.

도 23, 24, 25 및 26은 마젠타의 색 성분 정보의 할당 처리, 중첩 처리, 색차 그리드 패턴 및 개별 색 역 할당 처리를 도시하는 설명도이다.23, 24, 25, and 26 are explanatory diagrams showing the process of assigning color component information of magenta, the superimposition process, the color difference grid pattern, and the individual color gamut assignment process.

도 23은 마젠타의 색 성분 정보의 화소 어레이를 도시한다. 도 23의 10개의 화소를 포함하는 각 볼드 프레임은 마젠타의 단위 매트릭스를 나타낸다. 도 23의 참조 번호 d1 내지 d4, e1 내지 d4, f1 내지 f4는 단위 매트릭스를 형성하는 9개의 화소(수직 및 수평 방향에서 3×3 화소)를 각각 포함하는 화소 블록을 나타내고, d, e, 및 f 그룹은 이들 그룹을 연결하는 직선(도 23에 도시됨)(54)과 도 23의 수평 방향이 만드는 각도 θ가 시안에 대응하는 스크린 각도에 근접하도록 선택된 화소 블록 그룹이다.Fig. 23 shows a pixel array of color component information of magenta. Each bold frame including 10 pixels of FIG. 23 represents a unit matrix of magenta. Reference numerals d1 to d4, e1 to d4, and f1 to f4 in FIG. 23 denote pixel blocks each containing nine pixels (3 × 3 pixels in the vertical and horizontal directions) forming a unit matrix, and d, e, and The f group is a group of pixel blocks selected such that the straight line (shown in FIG. 23) 54 connecting these groups and the angle θ made by the horizontal direction in FIG. 23 approach the screen angle corresponding to the cyan.

도 24는 도 23의 화소를 할당함으로써 얻은 화소 어레이를 도시하고, 도 23의 9개의 화소를 각각 포함하는 화소 블록은 단위로서 각 화소 블록을 갖도록 선형으로 배열된다. 이 실시예에 따른 마젠타에 대응하는 할당 처리는 시안에 대응하는 스크린 각도에 근접한 각도로 시계반대방향으로 회전될 화소 블록을 재배열함으로써 화소 블록을 할당하는 처리이다.FIG. 24 shows a pixel array obtained by allocating the pixels in FIG. 23, and pixel blocks each including nine pixels in FIG. 23 are linearly arranged to have each pixel block as a unit. The allocation process corresponding to magenta according to this embodiment is a process of allocating pixel blocks by rearranging pixel blocks to be rotated counterclockwise at an angle close to the screen angle corresponding to cyan.

도 25는 도 21과 동일한 색차 그리드 패턴을 도시하고, 그 반복적인 설명은 생략될 것이다. 도 25의 색차 그리드 패턴은 배열된 화소 어레이에 중첩된다. 도 26은, 도 25의 색차 그리드 패턴이 도 24의 화소 어레이에 중첩된 후, 도 23에 도시된 오리지널 화소 어레이를 복원하도록 할당된 화소 어레이를 도시한다. 도 26에 도시된 바와 같이, 색차 그리드 패턴이 단위 매트릭스에서 9-화소 블록에 중첩될 수 있기 때문에, 색차 그리드 패턴은 스크린이 형성된 후에도 교란되지 않는다. 또한, 색차 그리드 패턴이, 시안에 대응하는 스크린 각도에 근접한 틸트 각도를 갖도록 중첩될 수 있기 때문에, 기록 유닛에 의해 기록된 세 가지 색의 화소가 겹치게 될 가능성은 증가하고, 서브 정보는 색 화상 정보에 확실하게 중첩될 수 있게 된다.FIG. 25 shows the same color difference grid pattern as in FIG. 21, and the repetitive description thereof will be omitted. The color difference grid pattern in FIG. 25 is superimposed on the arranged pixel array. FIG. 26 shows a pixel array allocated to restore the original pixel array shown in FIG. 23 after the color difference grid pattern of FIG. 25 is superimposed on the pixel array of FIG. As shown in FIG. 26, the chrominance grid pattern is not disturbed even after the screen is formed because the chrominance grid pattern can be superimposed on the 9-pixel block in the unit matrix. In addition, since the color difference grid pattern can be superimposed so as to have a tilt angle close to the screen angle corresponding to cyan, the possibility that the pixels of three colors recorded by the recording unit overlap will increase, and the sub information will be colored image information. Can be nested reliably.

상술한 바와 같이, 색차 그리드 패턴은 마젠타의 색 성분 정보의 화소 블록에 중첩될 수 있고, 이 색 성분 정보는 마젠타에 대응하는 스크린 각도와는 상이하며 시안에 대응하는 스크린 각도에 근접한 각도로 틸트된다.As described above, the color difference grid pattern may be superimposed on the pixel block of the color component information of magenta, which is different from the screen angle corresponding to magenta and tilted at an angle close to the screen angle corresponding to cyan. .

제2 실시예에 의해 얻어진 기록물(P2)은 도 9를 이용해서 이전에 설명된 제1 실시예의 기록물과 동일하고, 그에 대한 반복적인 설명은 생략될 것이다.The recording P2 obtained by the second embodiment is the same as the recording of the first embodiment previously described using Fig. 9, and a repetitive description thereof will be omitted.

상술한 바와 같이 생성된 인쇄물(P2)로부터 서브 정보를 재생하는 제2 실시예에 따른 화상 처리 장치 및 화상 처리 방법이 후술될 것이다.An image processing apparatus and an image processing method according to the second embodiment for reproducing sub information from the printed matter P2 generated as described above will be described later.

제2 실시예에 따른 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 구성은 제1 실시예에 따른 상술한 화상 처리 시스템(도 10)의 구성과 동일하며, 그 반복적인 설명은 생략될 것이다.The configuration of the image processing system for reproducing sub information from the recording according to the second embodiment is the same as that of the image processing system (Fig. 10) described above according to the first embodiment, and the repetitive description thereof will be omitted.

제2 실시예에 따른 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작은 도 27에 도시된 플로차트를 참조해서 후술될 것이다.The overall processing operation of the image processing system for reproducing sub information from the recording according to the second embodiment will be described later with reference to the flowchart shown in FIG.

화상 판독 장치(41)는 기록물(P2)의 색 화상 정보를 판독한다(단계 S31). 판독된 색 화상 정보는 컴퓨터(43)의 화상 프로세서(46)에 입력된다. 화상 프로세서(46)는 입력된 색 화상 정보를, 색 화상 정보를 형성하는 색 잉크로서의 시안(C), 마젠타(M) 및 옐로우(Y)의 색 성분 정보의 각 부분으로 분리한다. 색 분리될 색 성분 정보의 부분은 레드(R), 그린(G) 및 블루(B)일 수도 있다는 것을 주지해야 한다.The image reading device 41 reads the color image information of the recording P2 (step S31). The read color image information is input to the image processor 46 of the computer 43. The image processor 46 separates the input color image information into respective parts of the color component information of cyan (C), magenta (M), and yellow (Y) as color inks forming the color image information. It should be noted that the portion of color component information to be color separated may be red (R), green (G) and blue (B).

다음으로, 화상 프로세서(46)는, 서브 정보의 임베딩(도 14의 단계 S25) 시와 동일한 방식으로 사전설정된 각도를 갖도록 시안(C), 마젠타(M) 및 옐로우(Y)의 색 분리된 색 성분 정보의 각 부분의 화소를 할당한다(단계 S33).Next, the image processor 46 performs color separation of cyan (C), magenta (M) and yellow (Y) to have a predetermined angle in the same manner as in embedding the sub information (step S25 of FIG. 14). Pixels of respective parts of the component information are allocated (step S33).

화상 프로세서(46)는 각각의 할당된 색 성분 정보에의 서브 정보를 추출하기 위한 처리를 적용하여 서브 정보를 추출(재생)한다(단계 S34). 그 다음, 화상 프로세서(46)는 추출된 서브 정보를 표시 장치(42)에 표시하고, 오퍼레이터는 서브 정보의 표시에 기초해서 기록물(P2)의 진본성을 검사한다(단계 S36).The image processor 46 applies processing for extracting sub information to each assigned color component information to extract (reproduce) the sub information (step S34). Then, the image processor 46 displays the extracted sub information on the display device 42, and the operator checks the authenticity of the recorded material P2 based on the display of the sub information (step S36).

상기 설명에서, 추출된 서브 정보는 표시 장치(42)에 표시되고, 오퍼레이터는 표시된 콘텐츠에 기초해서 기록물(P2)의 진본성, 즉 서브 정보의 진본성을 검사한다. 그러나 진본성 검사는 자동으로 실행될 수 있으며, 도 28에 도시된 플로차트를 참조해서 후술될 것이다.In the above description, the extracted sub information is displayed on the display device 42, and the operator checks the authenticity of the recorded material P2, that is, the authenticity of the sub information based on the displayed content. However, the authenticity check can be executed automatically, and will be described later with reference to the flowchart shown in FIG.

단계 S31 내지 S34의 처리가 도 27에 도시된 것과 동일하기 때문에, 그에 대한 반복적인 설명은 생략되고, 도 27과 다른 단계 S37 내지 S39만이 설명될 것이다.Since the processing of steps S31 to S34 is the same as that shown in Fig. 27, repeated description thereof will be omitted, and only steps S37 to S39 different from Fig. 27 will be described.

서브 정보가 단계 S34에서 추출(재생)되면, 화상 프로세서(46)는 추출된 서브 정보를, 예를 들어, 이전에 등록된 기준 서브 정보와 대조하고(단계 S37), 두 서브 정보가 사전설정된 관계를 갖는지, 즉 두 서브 정보가 이 예에서 일치하는지를 찾음으로써 기록물(P2)의 진본성을 검사한다(단계 S38). 그 다음, 화상 프로세서(46)는 표시 장치(42)에 검사 결과를 표시한다(단계 S39).When the sub information is extracted (reproduced) in step S34, the image processor 46 checks the extracted sub information with, for example, previously registered reference sub information (step S37), and the relationship in which the two sub information is preset The authenticity of the recorded material P2 is checked by finding out whether or not there is, i.e., the two sub information matches in this example (step S38). The image processor 46 then displays the inspection result on the display device 42 (step S39).

기록물(P2)의 진본성 검사 방법은 상술한 방법으로 한정되는 것은 아니며, 다른 방법들도 이용가능하다는 것을 주지해야 한다. 예를 들어, 진본성은 추출된 서브 정보를 분석함으로써 검사될 수 있다. 대안으로, 기록물(P2)의 진본성은, 서브 정보의 진본성에 기초한 기록물(P2)의 진본성 검사 대신, 서브 정보의 존재/부재에 기초하여 검사될 수 있다.It should be noted that the authenticity checking method of the record P2 is not limited to the above-described method, and other methods are also available. For example, authenticity can be checked by analyzing the extracted sub information. Alternatively, the authenticity of the record P2 may be checked based on the presence / absence of the sub information, instead of the authenticity check of the record P2 based on the authenticity of the sub information.

상술한 바와 같이, 제2 실시예에 따르면, 서브 정보는 사전설정된 각도를 갖도록 각 색 성분의 화소 형성 방향을 틸트함으로써 형성된 색 화상 정보에 중첩될 수 있고, 이에 따라, 획득된 기록물의 변조 및 위조에 대한 저항성을 강화시킬 수 있다.As described above, according to the second embodiment, the sub information can be superimposed on the color image information formed by tilting the pixel formation direction of each color component so as to have a predetermined angle, thereby modulating and forging the obtained recordings. It can enhance resistance to

상기 실시예의 설명에서, 얼굴 화상 등의 색 화상 정보가 입력되고, 입력된 색 화상 정보는 C, M 및 Y의 색 화상 정보의 부분으로 분리하고, 색들의 색 분리된 색 성분 정보의 각 부분에 후속 처리가 적용된다. 그러나 본 발명은 이러한 특정 실시예들로 한정되지 않는다. 본 발명은, 메인 정보로서 셋 또는 그 이상의 색의 화상 정보, 예를 들어, C, M 및 Y의 외부적으로 색 분리된 색 성분 정보의 부분 및 그 후속 처리가 색의 입력된 색 성분 정보의 각 부분에 적용될 때, 동일한 작용 및 효과를 얻을 수 있다.In the description of the above embodiment, color image information such as a face image is input, and the input color image information is separated into portions of the color image information of C, M, and Y, and each portion of the color separated color component information of the colors is separated. Subsequent processing is applied. However, the invention is not limited to these specific embodiments. According to the present invention, the image information of three or more colors as main information, for example, the portion of the externally color separated color component information of C, M and Y, and the subsequent processing of the input color component information of the color When applied to each part, the same action and effect can be obtained.

추가적인 장점 및 변형은 당업자에게 용이하게 발생할 수 있다. 그러므로 본 발명은 넓은 양상에서 본 명세서에 도시 및 기술한 대표적 실시예들 및 상세한 설명으로 제한되는 것은 아니다. 따라서, 첨부된 청구범위 및 그 균등물에 의해 정의되는 포괄적인 발명의 개념의 사상 및 범위에서 벗어나지 않으면서 다양한 변형이 이루어질 수 있다.Additional advantages and modifications can readily occur to those skilled in the art. Therefore, the invention is not to be limited in scope and to the exemplary embodiments and details shown and described herein. Accordingly, various modifications may be made without departing from the spirit and scope of the inventive concept as defined by the appended claims and their equivalents.

도 1은 제1 실시예에 따라 서브 정보를 임베드하는 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 구성을 도시하는 개략 블록도.1 is a schematic block diagram showing the configuration of an image processing system to which an image processing apparatus and an image processing method for embedding sub information according to the first embodiment are applied;

도 2는 제1 실시예에 따라 서브 정보를 임베드하는 화상 처리 시스템의 전체 처리 동작을 설명하는 플로차트.Fig. 2 is a flowchart for explaining the overall processing operation of the image processing system for embedding sub information according to the first embodiment.

도 3은 화상 프로세서의 주요 부분의 구성을 도시하는 개략 블록도.3 is a schematic block diagram showing a configuration of main parts of an image processor;

도 4는 색차 그리드 패턴의 한 예를 도시하는 도면.4 is a diagram illustrating an example of a color difference grid pattern.

도 5는 색차 그리드 패턴의 화소 어레이를 설명하는 도면.5 is a diagram illustrating a pixel array of a chrominance grid pattern.

도 6은 서브 정보를 설명하는 도면.6 is a diagram for explaining sub information.

도 7의 (a) 내지 (d)는 개별적인 색 회전 처리, 중첩(임베딩) 처리 및 개별적인 색 역회전 처리를 도시하는 도면.7A to 7D are views showing individual color rotation processing, superposition (embedding) processing, and individual color reverse rotation processing.

도 8의 (a) 내지 (d)는 서브 정보를 각각의 색 성분 정보에 중첩하는 다른 처리를 설명하는 도면.8A to 8D are diagrams illustrating another process of superimposing sub information on respective color component information.

도 9는 생성된 기록물의 실제적인 예를 도시하는 도면.Fig. 9 is a diagram showing a practical example of the generated record.

도 10은 제1 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 구성을 도시하는 개략 블록도.Fig. 10 is a schematic block diagram showing a configuration of an image processing system to which an image processing apparatus and an image processing method for reproducing sub information from a recorded material according to the first embodiment are applied.

도 11은 제1 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 동작을 설명하는 플로차트.Fig. 11 is a flowchart for explaining the overall operation of the image processing system for reproducing sub information from a recording according to the first embodiment.

도 12는 제1 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작의 다른 예를 설명하는 플로차트.Fig. 12 is a flowchart for explaining another example of the entire processing operation of the image processing system for reproducing sub information from the recording according to the first embodiment.

도 13은 생성된 인쇄물의 얼굴 화상을 스캐닝하여 얻은 화상 정보의 주파수 신호를 도시하는 도면.Fig. 13 is a diagram showing a frequency signal of image information obtained by scanning a face image of a generated printed matter.

도 14는 제2 실시예에 따라 서브 정보를 임베드하는 화상 처리 시스템의 전체 처리 동작을 설명하는 플로차트.Fig. 14 is a flowchart for explaining the overall processing operation of the image processing system for embedding sub information according to the second embodiment.

도 15a 및 15b는 제2 실시예에 따른 스크린 각도를 설명하는 도면.15A and 15B illustrate a screen angle according to a second embodiment.

도 16은 제2 실시예에 따른 스크린을 형성하는 데 이용되는 임계 매트릭스의 설명도.Fig. 16 is an explanatory diagram of a critical matrix used to form the screen according to the second embodiment.

도 17은 제2 실시예에 따른 스크린을 형성하는 데 이용되는 임계 매트릭스의 설명도.17 is an explanatory diagram of a critical matrix used to form the screen according to the second embodiment.

도 18은 제2 실시예에 따른 스크린을 형성하는 데에 이용되는 임계값 매트릭스의 설명도.18 is an explanatory diagram of a threshold matrix used to form a screen according to the second embodiment.

도 19는 제2 실시예에 따른 화상의 화소 어레이의 한 예를 도시하는 도면.19 is a diagram showing an example of a pixel array of an image according to the second embodiment.

도 20은 제2 실시예에 따른 개별적인 색 할당 처리에 의해서 할당되는 화소 어레이의 한 예를 도시하는 도면.20 is a diagram showing an example of a pixel array allocated by individual color assignment processing according to the second embodiment.

도 21은 제2 실시예에 따른 색차 그리드 패턴의 한 예를 도시하는 도면.21 is a diagram showing an example of a color difference grid pattern according to the second embodiment.

도 22는 제2 실시예에 따른 서브 정보의 임베딩 후 화상의 화소 어레이의 한 예를 도시하는 도면.Fig. 22 is a diagram showing an example of a pixel array of an image after embedding of sub information according to the second embodiment.

도 23은 제2 실시예에 따른 화소 어레이의 한 예를 도시하는 도면.23 is a diagram showing an example of a pixel array according to the second embodiment.

도 24는 제2 실시예에 따른 개별적인 색 할당 처리에 의해서 할당되는 화소 어레이의 한 예를 도시하는 도면.FIG. 24 is a diagram showing an example of a pixel array allocated by individual color assignment processing according to the second embodiment. FIG.

도 25는 제2 실시예에 따른 색차 그리드 패턴의 한 예를 도시하는 도면.25 is a diagram showing an example of a color difference grid pattern according to the second embodiment.

도 26은 제2 실시예에 따른 서브 정보의 임베딩 후 화소 어레이의 한 예를 도시하는 도면.Fig. 26 is a diagram showing an example of a pixel array after embedding of sub information according to the second embodiment.

도 27은 제2 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 동작을 설명하는 플로차트.Fig. 27 is a flowchart for explaining the overall operation of the image processing system for reproducing sub information from a recording according to the second embodiment.

도 28은 제2 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작의 다른 예를 도시하는 플로차트.FIG. 28 is a flowchart showing another example of the entire processing operation of the image processing system for reproducing sub information from a recording according to the second embodiment;

도 29는 전자사진기술법에 의해서 기록물에 형성된 색 화상의 한 예를 도시하는 도면.Fig. 29 is a diagram showing an example of a color image formed in a green leaf by the electrophotographic method.

도 30은 도 29의 색 화상의 일부를 도시하는 확대도.FIG. 30 is an enlarged view showing a part of the color image of FIG. 29; FIG.

도 31은 도 30의 각각의 분리된 색 성분 정보를 도시하는 도면.FIG. 31 is a diagram showing respective separated color component information of FIG. 30; FIG.

도 32는 도 29의 색 화상의 일부를 도시하는 확대도.FIG. 32 is an enlarged view showing a part of the color image of FIG. 29; FIG.

도 33은 도 32의 각각의 분리된 색 성분 정보를 도시하는 도면.FIG. 33 is a diagram showing respective separated color component information of FIG. 32; FIG.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

11: 화상 입력 장치11: Image input value

12: 프린터12: printer

13: 컴퓨터13: computer

16: 화상 프로세서16: picture processor

Claims (21)

화상 처리 장치로서,As an image processing apparatus, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하기 위한 화상 입력 수단과,Image input means for inputting main image information defined by first, second and third color component information corresponding to at least three colors; 서브 정보로 색차 그리드 패턴을 변조하기 위한 변조 수단과,Modulating means for modulating a chrominance grid pattern with sub information; 상기 변조된 색차 그리드 패턴 및 상기 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 후, 상기 변조된 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보 각각에 중첩하기 위한 중첩 수단과,After rotating the modulated chrominance grid pattern and each of the first, second, and third color component information with respect to each other at a predetermined angle, the modulated chrominance grid pattern is rotated with respect to the first, second, and third color components. Superimposing means for superposing each of the information; 색 화상 정보를 생성하도록 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1, 제2 및 제3 색 성분 정보를 합성하기 위한 합성 수단Combining means for synthesizing the first, second and third color component information superimposed with the modulated chrominance grid pattern to produce color image information 을 포함하는 화상 처리 장치.Image processing apparatus comprising a. 제1항에 있어서,The method of claim 1, 상기 중첩 수단은 상기 제1 색 성분 정보와 상기 변조된 색차 그리드 패턴을 사전설정된 회전 방향으로 제1 회전 각도로 상대적으로 회전시키고, 상기 제2 색 성분 정보와 상기 변조된 색차 그리드 패턴을 상기 사전설정된 회전 방향으로 제2 회전 각도로 상대적으로 회전시키고, 상기 제3 색 성분 정보와 상기 변조된 색차 그리드 패턴을 상기 사전설정된 회전 방향으로 제3 회전 각도로 상대적으로 회전시킨 다음, 상기 변조된 색차 그리드 패턴을 상기 제1 색 성분 정보, 상기 제2 색 성 분 정보 및 상기 제3 색 성분 정보 각각에 중첩하고,The superimposing means relatively rotates the first color component information and the modulated chrominance grid pattern at a first rotational angle in a preset rotational direction, and the second color component information and the modulated chrominance grid pattern Relatively rotate at a second rotation angle in a rotation direction, relatively rotate the third color component information and the modulated chrominance grid pattern at a third rotation angle in the preset rotation direction, and then modulate the modulated chrominance grid pattern Is superimposed on the first color component information, the second color component information, and the third color component information, respectively, 상기 합성 수단은 상기 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보를 상기 사전설정된 회전 방향의 반대 방향으로 상기 제1 회전 각도로 회전시키고, 상기 색차 그리드 패턴과 중첩한 상기 제2 색 성분 정보를 상기 사전설정된 회전 방향의 반대 방향으로 상기 제2 회전 각도로 회전시키고, 상기 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보를 상기 사전설정된 회전 방향의 반대 방향으로 상기 제3 회전 각도로 회전시키기 위한 제1 프로세싱 수단과, 상기 반대 방향으로 회전하는 상기 제1, 제2 및 제3 색 성분 정보를 합성하기 위한 제2 프로세싱 수단을 포함하는 화상 처리 장치.The synthesizing means rotates the first color component information superimposed with the chrominance grid pattern at the first rotation angle in a direction opposite to the preset rotation direction, and converts the second color component information superimposed with the chrominance grid pattern. For rotating at the second rotation angle in a direction opposite to the preset rotation direction, and for rotating the third color component information overlapping the chrominance grid pattern at the third rotation angle in a direction opposite to the preset rotation direction. And first processing means and second processing means for synthesizing the first, second and third color component information rotating in the opposite direction. 제1항에 있어서,The method of claim 1, 상기 중첩 수단은 상기 제1, 제2 및 제3 색 성분 정보의 변조된 색차 그리드 패턴 및 상기 변조된 색차 그리드 패턴을 회전시킨 다음, 상기 변조되고 회전된 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보 각각에 중첩하는 화상 처리 장치.The superimposing means rotates the modulated chrominance grid pattern and the modulated chrominance grid pattern of the first, second and third color component information, and then converts the modulated and rotated chrominance grid pattern into the first, second and third colors. An image processing apparatus superimposed on each of the third color component information. 제1항에 있어서,The method of claim 1, 상기 색 화상 정보를 기록 매체에 기록하기 위한 기록 수단을 더 포함하는 화상 처리 장치.And recording means for recording the color image information on a recording medium. 화상 처리 방법으로서,As the image processing method, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하는 단계와,Inputting main image information defined by first, second and third color component information corresponding to at least three colors; 서브 정보로 변조한 색차 그리드 패턴 및 상기 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 상기 변조된 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보 각각에 중첩하는 단계와,Each of the color difference grid patterns modulated with sub information and the first, second and third color component information are rotated with respect to each other at a predetermined angle, and then the modulated color difference grid patterns are rotated with respect to the first, second and third. Superimposing each of the color component information, 색 화상 정보를 생성하도록 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1, 제2 및 제3 색 성분 정보를 합성하는 단계Synthesizing the first, second, and third color component information superimposed with the modulated chrominance grid pattern to produce color image information 를 포함하는 화상 처리 방법.Image processing method comprising a. 제5항에 있어서,The method of claim 5, 상기 제1 색 성분 정보와 상기 변조된 색차 그리드 패턴은 사전설정된 회전 방향으로 제1 회전 각도로 상대적으로 회전하고, 상기 제2 색 성분 정보와 상기 변조된 색차 그리드 패턴은 상기 사전설정된 회전 방향으로 제2 회전 각도로 상대적으로 회전하고, 상기 제3 색 성분 정보와 상기 변조된 색차 그리드 패턴은 상기 사전설정된 회전 방향으로 제3 회전 각도로 상대적으로 회전한 다음, 상기 변조된 색차 그리드 패턴은 상기 제1 색 성분 정보, 상기 제2 색 성분 정보 및 상기 제3 색 성분 정보 각각에 중첩하고,The first color component information and the modulated chrominance grid pattern are relatively rotated at a first rotational angle in a predetermined rotation direction, and the second color component information and the modulated chrominance grid pattern are generated in the predetermined rotation direction. Relatively rotate at a second rotation angle, the third color component information and the modulated chrominance grid pattern are relatively rotated at a third rotation angle in the preset rotation direction, and then the modulated chrominance grid pattern is formed in the first rotation angle. Superimposed on color component information, the second color component information, and the third color component information, respectively, 상기 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보는 상기 사전설정된 회전 방향의 반대 방향으로 상기 제1 회전 각도로 회전하고, 상기 색차 그리드 패 턴과 중첩한 상기 제2 색 성분 정보는 상기 사전설정된 회전 방향의 반대 방향으로 상기 제2 회전 각도로 회전하고, 상기 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보는 상기 사전설정된 회전 방향의 반대 방향으로 상기 제3 회전 각도로 회전하고, 상기 반대 방향으로 회전하는 상기 제1, 제2 및 제3 색 성분 정보를 합성하는 화상 처리 방법.The first color component information overlapping the chrominance grid pattern is rotated at the first rotation angle in a direction opposite to the preset rotation direction, and the second color component information overlapping the chrominance grid pattern is the preset The third color component information, which rotates at the second rotation angle in a direction opposite to the rotation direction, and overlaps the color difference grid pattern, rotates at the third rotation angle in a direction opposite to the preset rotation direction, and in the opposite direction. And the first, second and third color component information which rotates with each other. 색 화상 정보가 기록되어 있는 기록물로서,As a recording in which color image information is recorded, 상기 색 화상 정보는,The color image information, 서브 정보로 변조한 색차 그리드 패턴과, 메인 화상 정보를 정의하고 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 상기 변조된 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보 각각에 중첩하고,The chrominance grid pattern modulated by the sub information and the first, second and third color component information which define main image information and respectively correspond to at least three colors are rotated with respect to each other at a predetermined angle, and then modulated. Superimposing a chrominance grid pattern on each of the first, second and third color component information, 색 화상 정보를 생성하도록 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1, 제2 및 제3 색 성분 정보를 합성함으로써,By synthesizing the first, second and third color component information superimposed with the modulated chrominance grid pattern to produce color image information, 생성되는 정보인, 기록물.A record, which is information generated. 제7항에 있어서,The method of claim 7, wherein 상기 색 화상 정보는,The color image information, 상기 제1 색 성분 정보와 상기 변조된 색차 그리드 패턴을 사전설정된 회전 방향으로 제1 회전 각도로 상대적으로 회전시키고, 상기 제2 색 성분 정보와 상기 변조된 색차 그리드 패턴을 상기 사전설정된 회전 방향으로 제2 회전 각도로 상대적으로 회전시키고, 상기 제3 색 성분 정보와 상기 변조된 색차 그리드 패턴을 상기 사전설정된 회전 방향으로 제3 회전 각도로 상대적으로 회전시킨 다음, 상기 변조된 색차 그리드 패턴을 상기 제1 색 성분 정보, 상기 제2 색 성분 정보 및 상기 제3 색 성분 정보 각각에 중첩하고,Relatively rotate the first color component information and the modulated chrominance grid pattern at a first rotational angle in a predetermined rotation direction, and adjust the second color component information and the modulated chrominance grid pattern in the predetermined rotational direction. Relatively rotate at a second rotation angle, relatively rotate the third color component information and the modulated chrominance grid pattern at a third rotation angle in the preset rotation direction, and then rotate the modulated chrominance grid pattern to the first Superimposed on color component information, the second color component information, and the third color component information, respectively, 상기 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보를 상기 사전설정된 회전 방향의 반대 방향으로 상기 제1 회전 각도로 회전시키고, 상기 색차 그리드 패턴과 중첩한 상기 제2 색 성분 정보를 상기 사전설정된 회전 방향의 반대 방향으로 상기 제2 회전 각도로 회전시키고, 상기 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보를 상기 사전설정된 회전 방향의 반대 방향으로 상기 제3 회전 각도로 회전시키고, 상기 반대 방향으로 회전하는 상기 제1, 제2 및 제3 색 성분 정보를 합성함으로써,Rotate the first color component information superimposed with the chrominance grid pattern at the first rotation angle in a direction opposite to the preset rotational direction, and rotate the second color component information superimposed with the chrominance grid pattern with the preset rotation Rotates the second color angle in a direction opposite to the direction, and rotates the third color component information overlapping the color difference grid pattern at the third rotation angle in a direction opposite to the preset rotation direction, and in the opposite direction. By synthesizing the rotating first, second and third color component information, 생성되는 정보인, 기록물.A record, which is information generated. 서브 정보로 변조한 색차 그리드 패턴과, 메인 화상 정보를 정의하고 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 상기 변조된 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보 각각에 중첩하고, 색 화상 정보를 생성하도록 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1, 제2 및 제3 색 성분 정보를 합성함으로써 생성되는 정보인 색 화상 정보를 처리하는 화상 처리 장치로서,The chrominance grid pattern modulated by the sub information and the first, second and third color component information which define main image information and respectively correspond to at least three colors are rotated with respect to each other at a predetermined angle, and then modulated. Superimpose a chrominance grid pattern on each of the first, second, and third color component information, and synthesize the first, second, and third color component information superimposed with the modulated chrominance grid pattern to generate color image information. An image processing apparatus which processes color image information that is information generated by 상기 색 화상 정보가 기록되어 있는 기록물로부터 상기 색 화상 정보를 판독하기 위한 판독 수단과,Reading means for reading the color image information from a recording in which the color image information is recorded; 상기 색 화상 정보로부터 상기 제1, 제2 및 제3 색 성분 정보를 분리하기 위한 색 분리 수단과,Color separation means for separating the first, second and third color component information from the color image information; 상기 제1, 제2 및 제3 색 성분 정보를 사전설정된 각도로 회전시키기 위한 개별 색 회전 수단과,Separate color rotation means for rotating the first, second and third color component information at a predetermined angle; 상기 색차 그리드 패턴에 기초하여 상기 회전된 제1, 제2 및 제3 색 성분 정보로부터 상기 서브 정보를 추출하기 위한 서브 정보 추출 수단Sub information extraction means for extracting the sub information from the rotated first, second and third color component information based on the color difference grid pattern 을 포함하는 화상 처리 장치.Image processing apparatus comprising a. 제9항에 있어서,10. The method of claim 9, 상기 서브 정보의 추출 결과에 기초하여 상기 기록물의 진본성을 검사하기 위한 진본성 검사 수단을 더 포함하는 화상 처리 장치.And authenticity checking means for checking the authenticity of the recording based on the extraction result of the sub information. 서브 정보로 변조한 색차 그리드 패턴과, 메인 화상 정보를 정의하고 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 상기 변조된 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보 각각에 중첩하고, 색 화상 정보를 생성하도록 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1, 제2 및 제3 색 성분 정보를 합성함으로써 생성되는 정보인 색 화상 정보를 처리하는 화상 처리 방법으로서,The chrominance grid pattern modulated by the sub information and the first, second and third color component information which define main image information and respectively correspond to at least three colors are rotated with respect to each other at a predetermined angle, and then modulated. Superimpose a chrominance grid pattern on each of the first, second, and third color component information, and synthesize the first, second, and third color component information superimposed with the modulated chrominance grid pattern to generate color image information. An image processing method for processing color image information that is information generated by 상기 색 화상 정보가 기록되어 있는 기록물로부터 상기 색 화상 정보를 판독하는 단계와,Reading the color image information from a recording in which the color image information is recorded; 상기 색 화상 정보로부터 상기 제1, 제2 및 제3 색 성분 정보를 분리하는 단계와,Separating the first, second and third color component information from the color image information; 상기 제1, 제2 및 제3 색 성분 정보를 사전설정된 각도로 회전시키는 단계와,Rotating the first, second and third color component information at a predetermined angle; 상기 색차 그리드 패턴에 기초하여 상기 회전된 제1, 제2 및 제3 색 성분 정보로부터 상기 서브 정보를 추출하는 단계Extracting the sub information from the rotated first, second and third color component information based on the color difference grid pattern. 를 포함하는 화상 처리 방법.Image processing method comprising a. 제11항에 있어서,The method of claim 11, 상기 서브 정보의 추출 결과에 기초하여 상기 기록물의 진본성을 검사하는 단계를 더 포함하는 화상 처리 방법.And checking the authenticity of the recording based on the extraction result of the sub information. 화상 형성 장치로서,As an image forming apparatus, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하기 위한 화상 입력 수단과,Image input means for inputting main image information defined by first, second and third color component information corresponding to at least three colors; 상기 제1 색 성분 정보를 형성하는 제1 임계 매트릭스에 포함된 복수의 제1 단위 매트릭스를 제1 스크린 각도에 따라 할당하기 위한 제1 할당 프로세싱과, 상기 제2 색 성분 정보를 형성하는 제2 임계 매트릭스에 포함된 복수의 제2 단위 매트릭스를 제2 스크린 각도에 따라 할당하기 위한 제2 할당 프로세싱과, 상기 제3 색 성분 정보를 형성하는 제3 임계 매트릭스에 포함된 복수의 제3 단위 매트릭스를 제3 스크린 각도에 따라 할당하기 위한 제3 할당 프로세싱을 실행하기 위한 제1 할당 수단과,First allocation processing for allocating a plurality of first unit matrices included in the first threshold matrix for forming the first color component information according to a first screen angle, and a second threshold for forming the second color component information Second allocation processing for allocating a plurality of second unit matrices included in the matrix according to the second screen angle, and a plurality of third unit matrices included in the third threshold matrix forming the third color component information. First assigning means for executing third assigning processing for allocating according to the three screen angles; 서브 정보로 색차 그리드 패턴을 변조하기 위한 변조 수단과,Modulating means for modulating a chrominance grid pattern with sub information; 상기 변조된 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보에 중첩하기 위한 중첩 수단과,Superimposing means for superimposing the modulated chrominance grid pattern on the first, second and third color component information; 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보에 대하여 상기 제1 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제1 색 성분 정보에 포함된 상기 복수의 제1 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제2 색 성분 정보에 대하여 상기 제2 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제2 색 성분 정보에 포함된 상기 복수의 제2 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보에 대하여 상기 제3 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제3 색 성분 정보에 포함된 상기 복수의 제3 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하기 위한 역 할당 수단과,And individually forming the plurality of first unit matrices included in the first color component information by performing allocation processing opposite to the first allocation processing on the first color component information overlapping the modulated color difference grid pattern. Restoring original allocation of the plurality of pixel blocks, and performing allocation processing that is opposite to the second allocation processing on the second color component information overlapping the modulated color difference grid pattern and included in the second color component information. An original assignment of a plurality of pixel blocks that individually form the plurality of second unit matrices, and an assignment that is opposite to the third allocation processing for the third color component information overlapping the modulated chrominance grid pattern Executes processing to individually separate the plurality of third unit matrices included in the third color component information. And reverse allocation means for restoring the original allocation of a plurality of pixel blocks formed by, 색 화상 정보를 생성하기 위하여, 상기 오리지널 할당으로 복원되는 상기 복수의 화소 블록으로 각각 형성되는 상기 제1, 제2 및 제3 색 성분 정보를 합성하기 위한 합성 수단과,Synthesizing means for synthesizing the first, second, and third color component information respectively formed of the plurality of pixel blocks reconstructed to the original assignment to generate color image information; 상기 제1 임계 매트릭스, 상기 제2 임계 매트릭스 및 상기 제3 임계 매트릭스를 이용하여 상기 색 화상 정보를 정의하는 상기 제1, 제2 및 제3 색 성분 정보에 의사 하프톤을 적용하기 위한 의사 하프톤 수단과,Pseudo halftones for applying pseudo halftones to the first, second and third color component information defining the color image information using the first threshold matrix, the second threshold matrix and the third threshold matrix. Sudan, 상기 색 화상 정보를 기록 매체에 기록하기 위한 기록 수단Recording means for recording the color image information on a recording medium 을 포함하는 화상 형성 장치.Image forming apparatus comprising a. 제13항에 있어서,The method of claim 13, 상기 제1, 제2 및 제3 색 성분 정보는 옐로우, 마젠타 및 시안인 색 성분 정보의 부분에 각각 대응하고,The first, second and third color component information correspond to portions of color component information which are yellow, magenta and cyan, respectively, 상기 제1 할당 수단은 상기 제2 색 성분 정보를 형성하는 상기 복수의 화소 블록을 상기 제2 스크린 각도와 상이한 각도로 할당하고, 상기 제1 색 성분 정보를 형성하는 상기 복수의 화소 블록을 상기 제1 스크린 각도와 상이한 각도로 할당하고, 또는 상기 제3 색 성분 정보를 형성하는 상기 복수의 화소 블록을 상기 제3 스크린 각도와 상이한 각도로 할당하고, 상기 제1 색 성분 정보를 형성하는 상기 복수의 화소 블록을 상기 제1 스크린 각도와 상이한 각도로 할당하는 화상 형성 장치.The first assigning means assigns the plurality of pixel blocks forming the second color component information at an angle different from the second screen angle, and assigns the plurality of pixel blocks forming the first color component information to the first pixel block. The plurality of pixel blocks which are assigned at an angle different from one screen angle or which form the third color component information at an angle different from the third screen angle, and which form the first color component information. And an image forming apparatus for allocating a pixel block at an angle different from the first screen angle. 제13항에 있어서,The method of claim 13, 상기 제1, 제2 및 제3 색 성분 정보는 옐로우, 마젠타 및 시안인 색 성분 정보의 부분에 각각 대응하고,The first, second and third color component information correspond to portions of color component information which are yellow, magenta and cyan, respectively, 상기 제1 스크린 각도 및 상기 제3 스크린 각도는 직교 관계이고, 또는 상기 제1 스크린 각도 및 상기 제2 스크린 각도는 직교 관계인 화상 형성 장치.And the first screen angle and the third screen angle are orthogonal, or the first screen angle and the second screen angle are orthogonal. 화상 형성 방법으로서,As the image forming method, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하는 단계와,Inputting main image information defined by first, second and third color component information corresponding to at least three colors; 상기 제1 색 성분 정보를 형성하는 제1 임계 매트릭스에 포함된 복수의 제1 단위 매트릭스를 제1 스크린 각도에 따라 할당하기 위한 제1 할당 프로세싱과, 상기 제2 색 성분 정보를 형성하는 제2 임계 매트릭스에 포함된 복수의 제2 단위 매트릭스를 제2 스크린 각도에 따라 할당하기 위한 제2 할당 프로세싱과, 상기 제3 색 성분 정보를 형성하는 제3 임계 매트릭스에 포함된 복수의 제3 단위 매트릭스를 제3 스크린 각도에 따라 할당하기 위한 제3 할당 프로세싱을 실행하는 단계와,First allocation processing for allocating a plurality of first unit matrices included in the first threshold matrix for forming the first color component information according to a first screen angle, and a second threshold for forming the second color component information Second allocation processing for allocating a plurality of second unit matrices included in the matrix according to the second screen angle, and a plurality of third unit matrices included in the third threshold matrix forming the third color component information. Performing third allocation processing for allocating according to the three screen angles; 서브 정보로 변조한 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보에 중첩하는 단계와,Superimposing a color difference grid pattern modulated with sub information onto the first, second and third color component information; 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보에 대하여 상기 제1 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제1 색 성분 정보에 포함된 상기 복수의 제1 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제2 색 성분 정보에 대하여 상기 제2 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제2 색 성분 정보에 포함된 상기 복수의 제2 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보에 대하여 상기 제3 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제3 색 성분 정보에 포함된 상기 복수의 제3 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하는 단계와,And individually forming the plurality of first unit matrices included in the first color component information by performing allocation processing opposite to the first allocation processing on the first color component information overlapping the modulated color difference grid pattern. Restoring original allocation of the plurality of pixel blocks, and performing allocation processing that is opposite to the second allocation processing on the second color component information overlapping the modulated color difference grid pattern and included in the second color component information. An original assignment of a plurality of pixel blocks that individually form the plurality of second unit matrices, and an assignment that is opposite to the third allocation processing for the third color component information overlapping the modulated chrominance grid pattern Executes processing to individually separate the plurality of third unit matrices included in the third color component information. And a step of reconstructing a plurality of original allocation of pixel blocks forming a, 색 화상 정보를 생성하기 위하여, 상기 오리지널 할당으로 복원되는 상기 복수의 화소 블록으로 각각 형성되는 상기 제1, 제2 및 제3 색 성분 정보를 합성하는 단계와,Synthesizing the first, second, and third color component information, each of which is formed of the plurality of pixel blocks restored to the original assignment, to generate color image information; 상기 제1, 제2 및 제3 임계 매트릭스를 이용하여 상기 색 화상 정보를 정의하는 상기 제1, 제2 및 제3 색 성분 정보에 의사 하프톤을 적용하는 단계와,Applying pseudo halftones to the first, second and third color component information defining the color image information using the first, second and third threshold matrices; 상기 색 화상 정보를 기록 매체에 기록하는 단계Recording the color image information on a recording medium 를 포함하는 화상 형성 방법.Image forming method comprising a. 색 화상 정보가 기록되어 있는 기록물로서,As a recording in which color image information is recorded, 상기 색 화상 정보는,The color image information, 메인 화상 정보를 정의하고 적어도 세 가지 색에 대응하는 제1 색 성분 정보, 제2 색 성분 정보 및 제3 색 성분 정보 중 제1 색 성분 정보를 형성하는 제1 임계 매트릭스에 포함된 복수의 제1 단위 매트릭스를 제1 스크린 각도에 따라 할당하기 위한 제1 할당 프로세싱과, 상기 제2 색 성분 정보를 형성하는 제2 임계 매트릭스에 포함된 복수의 제2 단위 매트릭스를 제2 스크린 각도에 따라 할당하기 위한 제2 할당 프로세싱과, 상기 제3 색 성분 정보를 형성하는 제3 임계 매트릭스에 포함된 복수의 제3 단위 매트릭스를 제3 스크린 각도에 따라 할당하기 위한 제3 할당 프로세싱을 실행하고,A plurality of firsts included in a first threshold matrix defining main image information and forming first color component information among first color component information, second color component information, and third color component information corresponding to at least three colors; First allocation processing for allocating a unitary matrix according to a first screen angle, and for allocating a plurality of second unit matrices included in a second critical matrix forming the second color component information according to a second screen angle Perform second allocation processing and third allocation processing for allocating a plurality of third unit matrices included in a third threshold matrix forming the third color component information according to a third screen angle, 서브 정보로 변조한 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보에 중첩하고,A color difference grid pattern modulated with sub information is superimposed on the first, second and third color component information, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보에 대하여 상기 제1 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제1 색 성분 정보에 포함된 상기 복수의 제1 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제2 색 성분 정보에 대하여 상기 제2 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제2 색 성분 정보에 포함된 상기 복수의 제2 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보에 대하여 상기 제3 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제3 색 성분 정보에 포함된 상기 복수의 제3 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고,And individually forming the plurality of first unit matrices included in the first color component information by performing allocation processing opposite to the first allocation processing on the first color component information overlapping the modulated color difference grid pattern. Restoring original allocation of the plurality of pixel blocks, and performing allocation processing that is opposite to the second allocation processing on the second color component information overlapping the modulated color difference grid pattern and included in the second color component information. An original assignment of a plurality of pixel blocks that individually form the plurality of second unit matrices, and an assignment that is opposite to the third allocation processing for the third color component information overlapping the modulated chrominance grid pattern Executes processing to individually separate the plurality of third unit matrices included in the third color component information. Restoring a plurality of original allocation of a pixel block formed of a and, 색 화상 정보를 생성하기 위하여, 상기 오리지널 할당으로 복원되는 상기 복수의 화소 블록으로 각각 형성되는 상기 제1, 제2 및 제3 색 성분 정보를 합성하고,Synthesize the first, second and third color component information respectively formed of the plurality of pixel blocks reconstructed to the original assignment to generate color image information, 상기 제1, 제2 및 제3 임계 매트릭스를 이용하여 상기 색 화상 정보를 정의하는 상기 제1, 제2 및 제3 색 성분 정보에 의사 하프톤을 적용함으로써,By applying pseudo halftones to the first, second and third color component information defining the color image information using the first, second and third threshold matrices, 생성되는 정보인, 기록물.A record, which is information generated. 메인 화상 정보를 정의하고 적어도 세 가지 색에 대응하는 제1 색 성분 정보, 제2 색 성분 정보 및 제3 색 성분 정보 중 제1 색 성분 정보를 형성하는 제1 임계 매트릭스에 포함된 복수의 제1 단위 매트릭스를 제1 스크린 각도에 따라 할당하기 위한 제1 할당 프로세싱과, 상기 제2 색 성분 정보를 형성하는 제2 임계 매트릭스에 포함된 복수의 제2 단위 매트릭스를 제2 스크린 각도에 따라 할당하기 위한 제2 할당 프로세싱과, 상기 제3 색 성분 정보를 형성하는 제3 임계 매트릭스에 포함된 복수의 제3 단위 매트릭스를 제3 스크린 각도에 따라 할당하기 위한 제3 할당 프로세싱을 실행하고,A plurality of firsts included in a first threshold matrix defining main image information and forming first color component information among first color component information, second color component information, and third color component information corresponding to at least three colors; First allocation processing for allocating a unitary matrix according to a first screen angle, and for allocating a plurality of second unit matrices included in a second critical matrix forming the second color component information according to a second screen angle Perform second allocation processing and third allocation processing for allocating a plurality of third unit matrices included in a third threshold matrix forming the third color component information according to a third screen angle, 서브 정보로 변조한 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보에 중첩하고,A color difference grid pattern modulated with sub information is superimposed on the first, second and third color component information, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보에 대하여 상기 제1 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제1 색 성분 정보에 포함된 상기 복수의 제1 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제2 색 성분 정보에 대하여 상기 제2 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제2 색 성분 정보에 포함된 상기 복수의 제2 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보에 대하여 상기 제3 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제3 색 성분 정보에 포함된 상기 복수의 제3 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고,And individually forming the plurality of first unit matrices included in the first color component information by performing allocation processing opposite to the first allocation processing on the first color component information overlapping the modulated color difference grid pattern. Restoring original allocation of the plurality of pixel blocks, and performing allocation processing that is opposite to the second allocation processing on the second color component information overlapping the modulated color difference grid pattern and included in the second color component information. An original assignment of a plurality of pixel blocks that individually form the plurality of second unit matrices, and an assignment that is opposite to the third allocation processing for the third color component information overlapping the modulated chrominance grid pattern Executes processing to individually separate the plurality of third unit matrices included in the third color component information. Restoring a plurality of original allocation of a pixel block formed of a and, 색 화상 정보를 생성하기 위하여, 상기 오리지널 할당으로 복원되는 상기 복수의 화소 블록으로 각각 형성되는 상기 제1, 제2 및 제3 색 성분 정보를 합성하고,Synthesize the first, second and third color component information respectively formed of the plurality of pixel blocks reconstructed to the original assignment to generate color image information, 상기 제1, 제2 및 제3 임계 매트릭스를 이용하여 상기 색 화상 정보를 정의하는 상기 제1, 제2 및 제3 색 성분 정보에 의사 하프톤을 적용함으로써,By applying pseudo halftones to the first, second and third color component information defining the color image information using the first, second and third threshold matrices, 생성되는 정보인 색 화상 정보를 처리하는 화상 형성 장치로서,An image forming apparatus which processes color image information that is generated information, 상기 색 화상 정보가 기록되어 있는 기록물로부터 상기 색 화상 정보를 판독하기 위한 판독 수단과,Reading means for reading the color image information from a recording in which the color image information is recorded; 상기 색 화상 정보로부터 상기 제1, 제2 및 제3 색 성분 정보를 분리하기 위한 색 분리 수단과,Color separation means for separating the first, second and third color component information from the color image information; 상기 제1 색 성분 정보를 형성하는 상기 제1 임계 매트릭스에 포함된 상기 복수의 제1 단위 매트릭스를 상기 제1 스크린 각도에 따라 할당하기 위한 상기 제1 할당 프로세싱과, 상기 제2 색 성분 정보를 형성하는 상기 제2 임계 매트릭스에 포함된 상기 복수의 제2 단위 매트릭스를 상기 제2 스크린 각도에 따라 할당하기 위한 상기 제2 할당 프로세싱과, 상기 제3 색 성분 정보를 형성하는 상기 제3 임계 매트릭스에 포함된 상기 복수의 제3 단위 매트릭스를 상기 제3 스크린 각도에 따라 할당하기 위한 상기 제3 할당 프로세싱을 실행하기 위한 제2 할당 수단과,The first allocation processing for allocating the plurality of first unit matrices included in the first critical matrix for forming the first color component information according to the first screen angle, and forming the second color component information The second allocation processing for allocating the plurality of second unit matrices included in the second threshold matrix according to the second screen angle, and in the third threshold matrix forming the third color component information. Second allocation means for executing the third allocation processing for allocating the plurality of third unit matrices according to the third screen angle; 상기 색차 그리드 패턴에 기초하여 상기 제1, 제2 및 제3 할당 프로세싱에 의해 각각 할당한 회전된 제1, 제2 및 제3 색 성분 정보로부터 상기 서브 정보를 추출하기 위한 서브 정보 추출 수단Sub information extracting means for extracting the sub information from the rotated first, second and third color component information allocated by the first, second and third allocation processing, respectively, based on the chrominance grid pattern; 을 포함하는, 화상 형성 장치.Comprising an image forming apparatus. 제18항에 있어서,The method of claim 18, 상기 서브 정보의 추출 결과에 기초하여 상기 기록물의 진본성을 검사하기 위한 진본성 검사 수단을 더 포함하는 화상 형성 장치.And authenticity checking means for checking the authenticity of the recording based on the extraction result of the sub information. 메인 화상 정보를 정의하고 적어도 세 가지 색에 대응하는 제1 색 성분 정보, 제2 색 성분 정보 및 제3 색 성분 정보 중 제1 색 성분 정보를 형성하는 제1 임계 매트릭스에 포함된 복수의 제1 단위 매트릭스를 제1 스크린 각도에 따라 할당하기 위한 제1 할당 프로세싱과, 상기 제2 색 성분 정보를 형성하는 제2 임계 매트릭스에 포함된 복수의 제2 단위 매트릭스를 제2 스크린 각도에 따라 할당하기 위한 제2 할당 프로세싱과, 상기 제3 색 성분 정보를 형성하는 제3 임계 매트릭스에 포함된 복수의 제3 단위 매트릭스를 제3 스크린 각도에 따라 할당하기 위한 제3 할당 프로세싱을 실행하고,A plurality of firsts included in a first threshold matrix defining main image information and forming first color component information among first color component information, second color component information, and third color component information corresponding to at least three colors; First allocation processing for allocating a unitary matrix according to a first screen angle, and for allocating a plurality of second unit matrices included in a second critical matrix forming the second color component information according to a second screen angle Perform second allocation processing and third allocation processing for allocating a plurality of third unit matrices included in a third threshold matrix forming the third color component information according to a third screen angle, 서브 정보로 변조한 색차 그리드 패턴을 상기 제1, 제2 및 제3 색 성분 정보에 중첩하고,A color difference grid pattern modulated with sub information is superimposed on the first, second and third color component information, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제1 색 성분 정보에 대하여 상기 제1 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제1 색 성분 정보에 포함된 상기 복수의 제1 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제2 색 성분 정보에 대하여 상기 제2 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제2 색 성분 정보에 포함된 상기 복수의 제2 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고, 상기 변조된 색차 그리드 패턴과 중첩한 상기 제3 색 성분 정보에 대하여 상기 제3 할당 프로세싱에 상반되는 할당 프로세싱을 실행하여 상기 제3 색 성분 정보에 포함된 상기 복수의 제3 단위 매트릭스를 개별적으로 형성하는 복수의 화소 블록의 오리지널 할당을 복원하고,And individually forming the plurality of first unit matrices included in the first color component information by performing allocation processing opposite to the first allocation processing on the first color component information overlapping the modulated color difference grid pattern. Restoring original allocation of the plurality of pixel blocks, and performing allocation processing that is opposite to the second allocation processing on the second color component information overlapping the modulated color difference grid pattern and included in the second color component information. An original assignment of a plurality of pixel blocks that individually form the plurality of second unit matrices, and an assignment that is opposite to the third allocation processing for the third color component information overlapping the modulated chrominance grid pattern Executes processing to individually separate the plurality of third unit matrices included in the third color component information. Restoring a plurality of original allocation of a pixel block formed of a and, 색 화상 정보를 생성하기 위하여, 상기 오리지널 할당으로 복원되는 상기 복수의 화소 블록으로 각각 형성되는 상기 제1, 제2 및 제3 색 성분 정보를 합성하고,Synthesize the first, second and third color component information respectively formed of the plurality of pixel blocks reconstructed to the original assignment to generate color image information, 상기 제1, 제2 및 제3 임계 매트릭스를 이용하여 상기 색 화상 정보를 정의하는 상기 제1, 제2 및 제3 색 성분 정보에 의사 하프톤을 적용함으로써,By applying pseudo halftones to the first, second and third color component information defining the color image information using the first, second and third threshold matrices, 생성되는 정보인 색 화상 정보를 처리하는 화상 형성 방법으로서,An image forming method for processing color image information that is generated information, 상기 색 화상 정보가 기록되어 있는 기록물로부터 상기 색 화상 정보를 판독하는 단계와,Reading the color image information from a recording in which the color image information is recorded; 상기 색 화상 정보로부터 상기 제1, 제2 및 제3 색 성분 정보를 분리하는 단계와,Separating the first, second and third color component information from the color image information; 상기 제1 색 성분 정보를 형성하는 상기 제1 임계 매트릭스에 포함된 상기 복수의 제1 단위 매트릭스를 상기 제1 스크린 각도에 따라 할당하기 위한 상기 제1 할당 프로세싱과, 상기 제2 색 성분 정보를 형성하는 상기 제2 임계 매트릭스에 포함된 상기 복수의 제2 단위 매트릭스를 상기 제2 스크린 각도에 따라 할당하기 위한 상기 제2 할당 프로세싱과, 상기 제3 색 성분 정보를 형성하는 상기 제3 임계 매트릭스에 포함된 상기 복수의 제3 단위 매트릭스를 상기 제3 스크린 각도에 따라 할당하기 위한 상기 제3 할당 프로세싱을 실행하는 단계와,The first allocation processing for allocating the plurality of first unit matrices included in the first critical matrix for forming the first color component information according to the first screen angle, and forming the second color component information The second allocation processing for allocating the plurality of second unit matrices included in the second threshold matrix according to the second screen angle, and in the third threshold matrix forming the third color component information. Performing the third allocation processing to assign the plurality of third unit matrices according to the third screen angle; 상기 색차 그리드 패턴에 기초하여 상기 제1, 제2 및 제3 할당 프로세싱에 의해 각각 할당한 회전된 제1, 제2 및 제3 색 성분 정보로부터 상기 서브 정보를 추출하는 단계Extracting the sub information from the rotated first, second and third color component information allocated by the first, second and third allocation processing, respectively, based on the chrominance grid pattern. 를 포함하는 화상 형성 방법.Image forming method comprising a. 제20항에 있어서,The method of claim 20, 상기 서브 정보의 추출 결과에 기초하여 상기 기록물의 진본성을 검사하는 단계를 더 포함하는 화상 형성 방법.And checking the authenticity of the recording based on the extraction result of the sub information.
KR1020080061073A 2007-06-27 2008-06-26 Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material KR100960486B1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007169416 2007-06-27
JPJP-P-2007-00169416 2007-06-27
JP2007249752A JP5002392B2 (en) 2007-06-27 2007-09-26 Image processing apparatus and image processing method
JPJP-P-2007-00249752 2007-09-26

Publications (2)

Publication Number Publication Date
KR20080114620A KR20080114620A (en) 2008-12-31
KR100960486B1 true KR100960486B1 (en) 2010-06-01

Family

ID=39627754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080061073A KR100960486B1 (en) 2007-06-27 2008-06-26 Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material

Country Status (3)

Country Link
US (1) US8314970B2 (en)
EP (1) EP2009897B1 (en)
KR (1) KR100960486B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088614A (en) * 2007-09-27 2009-04-23 Toshiba Corp Image processing method and image processing apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328217A (en) 2003-04-23 2004-11-18 Toshiba Corp Image processing method and image recording apparatus
JP2007282200A (en) 2006-03-16 2007-10-25 Ricoh Co Ltd Information embedding apparatus, information embedding method, information embedding program, information extracting apparatus, information extracting method, information extracting program, and recording medium
JP2007329892A (en) 2006-05-12 2007-12-20 Canon Inc Information processing apparatus, image processing apparatus, and server device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6763122B1 (en) 1999-11-05 2004-07-13 Tony Rodriguez Watermarking an image in color plane separations and detecting such watermarks
JP3547892B2 (en) 1996-03-14 2004-07-28 株式会社東芝 Image recording apparatus and image recording method
US6384935B1 (en) * 1997-02-28 2002-05-07 Canon Kabushiki Kaisha Image process apparatus, image process method and storage medium
JPH1127531A (en) 1997-07-04 1999-01-29 Canon Inc Image processor, method and storage medium
US6104812A (en) * 1998-01-12 2000-08-15 Juratrade, Limited Anti-counterfeiting method and apparatus using digital screening
JP4495824B2 (en) 2000-03-21 2010-07-07 株式会社東芝 Information processing method
JP4227048B2 (en) * 2003-04-25 2009-02-18 株式会社東芝 Image processing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328217A (en) 2003-04-23 2004-11-18 Toshiba Corp Image processing method and image recording apparatus
JP2007282200A (en) 2006-03-16 2007-10-25 Ricoh Co Ltd Information embedding apparatus, information embedding method, information embedding program, information extracting apparatus, information extracting method, information extracting program, and recording medium
JP2007329892A (en) 2006-05-12 2007-12-20 Canon Inc Information processing apparatus, image processing apparatus, and server device

Also Published As

Publication number Publication date
EP2009897A1 (en) 2008-12-31
EP2009897B1 (en) 2014-12-24
US20090002736A1 (en) 2009-01-01
US8314970B2 (en) 2012-11-20
KR20080114620A (en) 2008-12-31

Similar Documents

Publication Publication Date Title
EP0642060B1 (en) Apparatus for steganographic embedding of information into colour images
JP3599795B2 (en) Image processing device
US7489800B2 (en) Image processing method
CA2470980C (en) Embedding information in images using two-layer conjugate screening
US6239818B1 (en) Printing method and apparatus
KR101023616B1 (en) Image processing method and image processing apparatus
JP4550749B2 (en) Image processing method and image processing apparatus
KR100662597B1 (en) Image process method, image print method, image print device, and printed matter
KR100960486B1 (en) Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material
JPH11355554A (en) Picture information processing method and forgery preventing method of certificate and the like
JP4829164B2 (en) Image processing apparatus and image processing method
JP5002392B2 (en) Image processing apparatus and image processing method
JP2005159438A (en) Image processing method
JP4630765B2 (en) Image processing method and image processing apparatus
JP3247446B2 (en) Image processing apparatus and image processing method
JP3765421B2 (en) Image conversion apparatus and method, pattern reading apparatus and method, and program
JP2009065364A (en) Image processing method, image processing apparatus and recorded matter
JP5104401B2 (en) Image processing apparatus, image processing method, and image forming apparatus
JP2009033443A (en) Image processor, and image processing method
JP2010011446A (en) Image processing apparatus
Nemoto et al. Digital Watermark for Printing Images-Application to Thermal Transfer Printing Method
CA2545472A1 (en) Image processing method
JPH11284867A (en) Image processing unit
JP2005012438A (en) Apparatus and method for image processing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130502

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140421

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170420

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180417

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190417

Year of fee payment: 10