KR100960486B1 - Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material - Google Patents
Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material Download PDFInfo
- Publication number
- KR100960486B1 KR100960486B1 KR1020080061073A KR20080061073A KR100960486B1 KR 100960486 B1 KR100960486 B1 KR 100960486B1 KR 1020080061073 A KR1020080061073 A KR 1020080061073A KR 20080061073 A KR20080061073 A KR 20080061073A KR 100960486 B1 KR100960486 B1 KR 100960486B1
- Authority
- KR
- South Korea
- Prior art keywords
- color component
- component information
- information
- color
- grid pattern
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/913—Television signal processing therefor for scrambling ; for copy protection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32309—Methods relating to embedding, encoding, decoding, detection or retrieval operations in colour image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32203—Spatial or amplitude domain methods
- H04N1/32208—Spatial or amplitude domain methods involving changing the magnitude of selected pixels, e.g. overlay of information or super-imposition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32203—Spatial or amplitude domain methods
- H04N1/32251—Spatial or amplitude domain methods in multilevel data, e.g. greyscale or continuous tone data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32203—Spatial or amplitude domain methods
- H04N1/32256—Spatial or amplitude domain methods in halftone data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32267—Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32288—Multiple embedding, e.g. cocktail embedding, or redundant embedding, e.g. repeating the additional information at a plurality of locations in the image
- H04N1/32293—Repeating the additional information in a regular pattern
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
- H04N9/76—Circuits for processing colour signals for obtaining special effects for mixing of colour signals
Abstract
본 발명에 따른 화상 처리 장치는, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하는 화상 입력 유닛(11)과, 서브 정보로 색차 그리드 패턴을 변조하는 변조 유닛(16)과, 변조된 색차 그리드 패턴 및 제1, 제2 및 제3 색 성분 정보 각각이 사전설정된 각도로 서로에 대하여 회전한 후, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하는 중첩 유닛(16)과, 색 화상 정보를 생성하도록 제1, 제2 및 제3 색 성분 정보를 합성하는 합성 유닛(16)을 포함한다.An image processing apparatus according to the present invention includes an image input unit 11 for inputting main image information defined by first, second, and third color component information corresponding to at least three colors, and a color difference grid pattern as sub information. The modulating unit 16 for modulating, and each of the modulated chrominance grid pattern and the first, second, and third color component information are rotated with respect to each other at a predetermined angle, and then the first and second modulated chrominance grid patterns are rotated. And a superimposition unit 16 overlapping each of the third color component information, and a combining unit 16 for synthesizing the first, second and third color component information to generate the color image information.
화상 처리, 메인 화상 정보, 색 성분 정보, 색차 그리드 패턴, 색 화상 정보 Image processing, main image information, color component information, color difference grid pattern, color image information
Description
본 발명은, 예를 들면, 메인 정보로서의 (인간의 얼굴 화상 등의) 색 화상 정보에 (보안 정보 등의) 또 다른 부가적인 서브 정보(sub information)를 중첩하기 위한 화상 처리 장치 및 화상 처리 방법에 관한 것이다.The present invention is, for example, an image processing apparatus and image processing method for superimposing another additional sub information (such as security information) on color image information (such as a human face image) as main information. It is about.
또한, 본 발명은 기록물(recorded material)에 화상 처리 장치 및 화상 처리 방법을 이용하여 서브 정보가 중첩되는 색 화상 정보를 형성하기 위한 화상 형성 장치 및 화상 형성 방법에 관한 것이다.The invention also relates to an image forming apparatus and an image forming method for forming color image information in which sub information is superimposed on a recorded material by using an image processing apparatus and an image processing method.
또한, 본 발명은 화상 처리 장치 및 화상 처리 방법을 이용하여 생성된 기록물에 관한 것이다.The present invention also relates to a recording produced using the image processing apparatus and the image processing method.
또한, 본 발명은 화상 처리 장치 및 화상 처리 방법을 이용하여 생성된 기록물로부터 서브 정보를 재생하기 위한 화상 처리 장치 및 화상 처리 방법에 관한 것이다.The present invention also relates to an image processing apparatus and an image processing method for reproducing sub information from a recording produced using the image processing apparatus and the image processing method.
최근, 정보의 디지털화와 인터넷의 보급에 따라, 화상의 위조 및 변조를 방 지하기 위한 디지털 워터마크, 디지털 서명 등과 같은 기법이 인정받고 있다. 디지털 워터마크 기법은 메인 정보(메인 화상 정보)에 부가적인 서브 정보(서브 화상 정보)를 눈에 보이지 않는 상태로 임베드한다. 이러한 디지털 워터마크 기법은 ID 카드 등의 개인 인증 매체 및 저작권 정보가 임베드된 사진의 불법 복사, 위조 및 변조에 대한 대책으로서 제안되고 있다.Recently, with the digitization of information and the spread of the Internet, techniques such as digital watermarks and digital signatures for preventing forgery and modulation of images have been recognized. The digital watermark technique embeds sub information (sub picture information) in addition to the main information (main picture information) in an invisible state. This digital watermark technique has been proposed as a countermeasure against illegal copying, forgery, and forgery of personal authentication media such as ID cards and photographs embedded with copyright information.
예를 들면, 일본공개특허공보 평9-248935호는 인간이 인식하기 어려운 높은 공간 주파수 성분과 색차 성분의 특성을 이용하여 인쇄물에 출력될 화상 데이터에 데이터를 임베드하는 디지털 워터마크 삽입 방법을 제안한다.For example, Japanese Patent Application Laid-open No. Hei 9-248935 proposes a digital watermark embedding method for embedding data in image data to be output on printed matter using characteristics of high spatial frequency components and color difference components that are difficult for humans to recognize. .
또한, 일본공개특허공보 2001-268346호는 광 필터로 확인할 수 있는 디지털 워터마크의 프린팅 장치를 제안한다.In addition, Japanese Laid-Open Patent Publication No. 2001-268346 proposes a printing apparatus for digital watermark that can be confirmed by an optical filter.
이러한 디지털 워터마크 임베딩 처리 방법은 다음에 기술되는 사항을 이용하여 어떠한 악화 없이 메인 정보에 서브 정보(서브 화상 정보)를 눈에 보이지 않는 상태로 임베드할 수 있다.This digital watermark embedding processing method can embed sub information (sub picture information) in the invisible state in the main information without any deterioration by using the following description.
(1) 인간 시각 특성(1) human visual characteristics
· 톤 구별 능력은 화상의 주파수가 증가함에 따라 낮아진다.The tone discrimination ability decreases as the frequency of the picture increases.
· 색차 정보는 휘도 정보보다 구분하기 어렵다.Color difference information is harder to distinguish than luminance information.
(2) 보색 관계의 예: 레드(red) + 시안(cyan) = (추가적인 색 혼합의 경우) 무채색(화이트)(2) Example of complementary color relationship: red + cyan = (for additional color blending) achromatic (white)
(3) 고주파수 캐리어 패턴 화상 + 보색 관계 및 색차 정보(3) high frequency carrier pattern image + complementary color relationship and color difference information
(2)의 예로서, 부가적인 색 혼합의 경우에 레드 및 시안(=그린+블루)은 보색 관계를 갖고, 이웃하는 레드 및 시안 조차도 육안으로 구별하기 매우 어려우며, 무채색으로 인식된다.As an example of (2), in the case of additional color mixing, red and cyan (= green + blue) have a complementary color relationship, and even neighboring red and cyan are very difficult to distinguish with the naked eye, and are recognized as achromatic.
(3)의 예로서, 고주파수 캐리어 패턴 화상이 레드 및 시안이 풍부한 화소가 반복적으로 할당된 색차 그리드 패턴에 의해서 형성되는데, 이것은 미묘한 색차가 육안으로는 구별될 수 없고, 색차량이 고르게 결정된다는 인간 시각 특성을 이용한다.As an example of (3), a high-frequency carrier pattern image is formed by a color difference grid pattern in which red and cyan-rich pixels are repeatedly assigned, which indicates that the subtle color difference cannot be visually distinguished and the amount of color difference is determined evenly. Use visual characteristics.
전술한 디지털 워터마크 기법을 적용함으로써 화상이 기록된 기록물의 진본성(authenticity) 판정이 요구되는 경우, 기록물에 기록된 서브 정보는 키 정보를 이용하여 재생되고, 전술한 두 참고문헌에서 기술한 바와 같이, 서브 정보의 재생 결과에 기초하여 진본성이 결정된다.If the authenticity determination of the recording in which the image is recorded by applying the aforementioned digital watermark technique is required, the sub information recorded in the recording is reproduced using the key information, as described in the two references mentioned above. Similarly, authenticity is determined based on the reproduction result of the sub information.
구체적으로, 스캐너, 카메라 등의 입력 디바이스는 색차 정보로서의 서브 정보가 임베드된 합성 화상 정보를 판독한다. 다음으로, 화상 프로세서는 키 정보의 특정 주파수 정보에 따른 주파수 성분이 있는 디지털 필터를 이용하여 합성 화상 정보로부터 서브 정보를 재생한 다음, 재생된 결과에 기초하여 진본성을 검사한다.Specifically, input devices such as scanners and cameras read composite image information in which sub information as color difference information is embedded. Next, the image processor reproduces the sub information from the synthesized image information using a digital filter having a frequency component corresponding to specific frequency information of the key information, and then checks authenticity based on the reproduced result.
그러나 전술한 기법은 아래와 같은 문제점이 있다. 즉, 전자사진기술법은 일반적인 디지털 복사 머신 등에 대한 기록 방법으로서 개조된다. 전자사진기술법은 수십 ppm 이상으로 색 화상을 기록할 수 있는 고속 프린팅을 가능하게 한다. 전자사진기술법은 옐로우(yellow), 마젠타(magenta), 시안(cyan) 및 블랙(black)의 네 가지 색 토너를 이용하여 색 화상을 형성한다. 이들 네 가지 색을 이용하여 색 화상 형성 시, 각 색의 화소를 중첩함으로써 색 화상을 표현하는 감색법이 이용될 수 있다. 그러나 고속 프린팅의 경우에는 각 색 화소를 정확하게 중첩하는 것이 어렵다. 각 화소가 정확하게 중첩되지 않는 경우, 색 부정합(misregistration)이 발생한다.However, the above technique has the following problems. That is, the electrophotographic method is modified as a recording method for a general digital copying machine or the like. The electrophotographic method enables high speed printing capable of recording color images at several tens of ppm or more. The electrophotographic method forms a color image using four color toners of yellow, magenta, cyan and black. In forming a color image using these four colors, a dark blue method of expressing a color image by superimposing pixels of each color can be used. However, in the case of high speed printing, it is difficult to accurately overlap each color pixel. If each pixel does not overlap correctly, color misregistration occurs.
이러한 문제점을 해결하기 위하여, 예를 들면, 다음과 같은 방법이 공지되어 있다. 즉, 복수의 마젠타 화소의 배열 방향, 복수의 시안 화소의 배열 방향 및 복수의 블랙 화소의 배열 방향이 복수의 옐로우 화소의 배열 방향에 대하여 상이한 각도의 틸트(tilt)로 주어진다. 그리고나서 이들 복수의 옐로우, 마젠타, 시안 및 블랙 화소는 합성되어 색 화상을 표현한다. 그 결과, 색 화상은 잉크를 정확하게 중첩하지 않으면서 형성될 수 있다. 따라서, 화소의 이탈 시 색 부정합이 방지될 수 있다.In order to solve this problem, for example, the following method is known. That is, the arrangement direction of the plurality of magenta pixels, the arrangement direction of the plurality of cyan pixels, and the arrangement direction of the plurality of black pixels are given as tilts at different angles with respect to the arrangement direction of the plurality of yellow pixels. These plurality of yellow, magenta, cyan and black pixels are then synthesized to represent a color image. As a result, a color image can be formed without accurately overlapping the inks. Therefore, color mismatch can be prevented when the pixel is separated.
그러나 색차 그리드 패턴을 형성하는 복수의 화소의 배열 방향은 복수의 마젠타, 시안 및 블랙 화소의 배열 방향과 대응하지 않는다. 따라서, 이러한 색차 그리드 패턴이 서브 정보에 의해서 변조되고, 변조된 색차 그리드 패턴과 중첩된 색 화상 정보가 전자사진기술법에 의해서 프린트되는 경우, 색차 그리드 패턴이 교란된다. 즉, 서브 정보는 색 화상 정보에 적절하게 중첩될 수 없다.However, the arrangement direction of the plurality of pixels forming the color difference grid pattern does not correspond to the arrangement direction of the plurality of magenta, cyan and black pixels. Therefore, when such a color difference grid pattern is modulated by the sub information and color image information superimposed with the modulated color difference grid pattern is printed by the electrophotographic method, the color difference grid pattern is disturbed. That is, the sub information cannot be superimposed properly on the color image information.
이와 대조적으로, 일본공개특허공보 2004-328217호는 각 기록 라인에 대하여 번갈아 화소를 형성하는 교대 구동에 의해서 형성된 메인 정보에 서브 정보에 의해서 변조된 색차 그리드 패턴을 중첩하는 방법을 제안한다. 이 참고문헌은, 사전설정된 방향에서 사전설정된 각도의 틸트가 있는 RGB 화상 정보의 각 부분에 서브 정보가 임베드된 후, 서브 정보가 임베드된 RGB 화상 정보의 각 부분은 사전설정된 방향과 반대 방향에서 사전설정된 각도의 틸트가 주어져 각 기록 라인에 대하여 화소를 번갈아 형성하는 방법을 개시한다. 그러나 이러한 방법으로는 모든 R, G 및 B 색이 공통 틸트 각도를 갖고, 화소들은 교대 구동에 의해서 형성된다. 이러한 이유로, 이 방법은 복수의 색 화소의 배열 방향이 상이한 스크리닝(screening) 방법에서의 전술한 문제를 해결하지 못한다.In contrast, Japanese Laid-Open Patent Publication No. 2004-328217 proposes a method of superimposing a color difference grid pattern modulated by sub information on main information formed by alternating driving to alternately form pixels for each recording line. This reference describes that after sub information is embedded in each part of the RGB image information with a tilt of a predetermined angle in a preset direction, each part of the RGB image information in which the sub information is embedded is preset in a direction opposite to the preset direction. A method of alternately forming pixels for each recording line by giving a tilt of a set angle is disclosed. In this way, however, all the R, G and B colors have a common tilt angle, and the pixels are formed by alternating driving. For this reason, this method does not solve the aforementioned problem in the screening method in which the arrangement directions of the plurality of color pixels are different.
그러므로 본 발명의 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보와 서브 정보를 적절하게 중첩할 수 있는 화상 처리 장치 및 화상 처리 방법을 제공하는 것이다.It is therefore an object of the present invention to provide an image processing apparatus and an image processing method capable of properly superimposing main information and sub information using a screening method in forming a color image.
본 발명의 다른 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보와 서브 정보를 적절하게 중첩함으로써 중첩된 화상을 생성할 수 있는 화상 형성 장치 및 화상 형성 방법을 제공하는 것이다.It is another object of the present invention to provide an image forming apparatus and an image forming method capable of generating superimposed images by appropriately superimposing main information and sub information using a screening method in forming a color image.
본 발명의 또 다른 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보와 서브 정보를 적절하게 중첩함으로써 형성된 중첩된 화상을 기록하는 기록물을 제공하는 것이다.It is still another object of the present invention to provide a recording which records a superimposed image formed by appropriately superimposing main information and sub information using a screening method in forming a color image.
본 발명의 또 다른 목적은 색 화상 형성 시 스크리닝 방법을 이용하여 메인 정보 및 서브 정보를 적절하게 중첩함으로써 형성된 중첩된 화상을 기록하는 인쇄물로부터 서브 정보를 정확하게 재생할 수 있는 화상 처리 장치 및 화상 처리 방법을 제공하는 것이다.It is still another object of the present invention to provide an image processing apparatus and an image processing method capable of accurately reproducing sub information from printed matter recording superimposed images formed by appropriately superimposing main information and sub information using a screening method in forming a color image. To provide.
본 발명의 한 실시예에 따른 화상 처리 장치는, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하기 위한 화상 입력 수단과, 서브 정보로 색차 그리드 패턴을 변조하기 위한 변조 수단과, 변조된 색차 그리드 패턴 및 제1, 제2 및 제3 색 성분 정보 각각이 사전설정된 각도로 서 로에 대하여 회전한 후, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하기 위한 중첩 수단과, 색 화상 정보를 생성하도록 변조된 색차 그리드 패턴과 중첩한 제1, 제2 및 제3 색 성분 정보를 합성하기 위한 합성 수단을 포함한다.An image processing apparatus according to an embodiment of the present invention includes image input means for inputting main image information defined by first, second and third color component information corresponding to at least three colors, and a color difference grid as sub information. Modulating means for modulating the pattern, the modulated chrominance grid pattern and the first, second and third color component information respectively rotate relative to each other at a predetermined angle, and then modulate the modulated chrominance grid pattern to the first and second. And superimposing means for superimposing each of the third color component information, and synthesizing means for synthesizing the first, second and third color component information superimposed with the color difference grid pattern modulated to generate the color image information.
본 발명의 한 실시예에 따른 화상 처리 방법은, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보로 정의한 메인 화상 정보를 입력하는 단계와, 서브 정보로 변조한 색차 그리드 패턴 및 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하는 단계와, 색 화상 정보를 생성하도록 변조된 색차 그리드 패턴과 중첩한 제1, 제2 및 제3 색 성분 정보를 합성하는 단계를 포함한다.An image processing method according to an embodiment of the present invention includes the steps of inputting main image information defined by first, second and third color component information corresponding to at least three colors, and a color difference grid pattern modulated by sub information. And rotating each of the first, second, and third color component information with respect to each other at a predetermined angle, and then superimposing the modulated chrominance grid pattern on each of the first, second, and third color component information; Synthesizing the first, second, and third color component information superimposed with the chrominance grid pattern modulated to produce image information.
본 발명의 한 실시예에 따른 기록물은 색 화상 정보를 포함하고, 색 화상 정보는, 서브 정보로 변조한 색차 그리드 패턴과, 메인 화상 정보를 정의하고, 적어도 세 가지 색에 대응하는 제1, 제2 및 제3 색 성분 정보 각각을 사전설정된 각도로 서로에 대하여 회전시킨 다음, 변조된 색차 그리드 패턴을 제1, 제2 및 제3 색 성분 정보 각각에 중첩하고, 색 화상 정보를 생성하도록 변조된 색차 그리드 패턴과 중첩한 제1, 제2 및 제3 색 성분 정보를 합성함으로써 생성한 정보이다.A recording according to an embodiment of the present invention includes color image information, and the color image information includes a color difference grid pattern modulated by sub information, main image information, and corresponding to at least three colors. Each of the second and third color component information is rotated relative to each other at a predetermined angle, and then modulated to superimpose the modulated chrominance grid pattern on each of the first, second and third color component information, and generate color image information. Information generated by synthesizing the first, second and third color component information superimposed on the chrominance grid pattern.
본 발명의 한 실시예에 따른 화상 처리 장치는 색 화상 정보를 처리하고, 화상 처리 장치는, 색 화상 정보가 기록되어 있는 기록물로부터 색 화상 정보를 판독하기 위한 판독 수단과, 색 화상 정보로부터 제1, 제2 및 제3 색 성분 정보를 분리하기 위한 색 분리 수단과, 제1, 제2 및 제3 색 성분 정보를 사전설정된 각도로 회전시키기 위한 개별 색 회전 수단과, 색차 그리드 패턴에 기초하여 회전된 제1, 제2 및 제3 색 성분 정보로부터 서브 정보를 추출하기 위한 서브 정보 추출 수단을 포함한다.An image processing apparatus according to an embodiment of the present invention processes color image information, and the image processing apparatus includes reading means for reading color image information from a recording in which the color image information is recorded, and a first image from the color image information. Color separation means for separating the second and third color component information, individual color rotation means for rotating the first, second and third color component information at a predetermined angle, and rotation based on the color difference grid pattern. Sub information extracting means for extracting sub information from the first, second, and third color component information.
본 발명의 한 실시예에 따른 화상 처리 방법은 색 화상 정보를 처리하고, 화상 처리 방법은, 색 화상 정보가 기록되어 있는 기록물로부터 색 화상 정보를 판독하는 단계와, 색 화상 정보로부터 제1, 제2 및 제3 색 성분 정보를 분리하는 단계와, 제1, 제2 및 제3 색 성분 정보를 사전설정된 각도로 회전시키는 단계와, 색차 그리드 패턴에 기초하여 회전된 제1, 제2 및 제3 색 성분 정보로부터 서브 정보를 추출하는 단계를 포함한다.An image processing method according to an embodiment of the present invention processes color image information, and the image processing method includes the steps of reading color image information from a recording in which color image information is recorded, Separating the second and third color component information, rotating the first, second and third color component information at a predetermined angle, and rotating the first, second and third based on the color difference grid pattern. Extracting the sub information from the color component information.
본 발명의 추가적인 목적 및 장점은 아래의 설명에서 기술되고, 부분적으로는 설명으로부터 명확해지며, 또는 본 발명의 실시에 의해서 알게 될 수도 있다. 본 발명의 목적 및 장점은 본 명세서에서 특별하게 지적된 수단 및 조합에 의해서 구현되고 얻을 수도 있다.Additional objects and advantages of the invention will be set forth in the description which follows, and in part will be obvious from the description, or may be learned by practice of the invention. The objects and advantages of the invention may be embodied and obtained by means and combinations particularly pointed out herein.
본 명세서에 포함되고 그 일부를 이루는 첨부한 도면은 본 발명의 실시예를 도시하고, 전술한 일반적인 설명 및 다음에 기술하는 실시예의 상세한 설명과 함께 본 발명의 원리를 설명하는 데 기여한다.The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate embodiments of the invention and, together with the foregoing general description and detailed description of the embodiments set forth below, serve to explain the principles of the invention.
각각의 실시예가 첨부된 도면을 참조하여 아래에 기술될 것이다.Each embodiment will be described below with reference to the accompanying drawings.
먼저, 각 색의 화소 형성 방향을 사전설정된 각도로 틸트함으로써 색 화상을 표현하기 위한 제1 및 제2 색 화상 표현 방법이 기술될 것이다.First, a first and second color image representation method for representing a color image by tilting the pixel formation direction of each color at a predetermined angle will be described.
제1 색 화상 표현 방법이 먼저 기술될 것이다. 도 29는 전자사진기술법에 의해서 기록물(4)에 형성된 색 화상(5)의 예를 도시한다. 도 30은 도 29에 도시된 색 화상(5)의 일부(5a)의 부분 확대도이며, 도 31은 도 30에 도시된 분리된 색 성분 정보의 각 부분을 도시한다. 이것은 도 30 및 31에 도시된 바와 같이 옐로우(Y) 색 성분 정보, 마젠타(M) 색 성분 정보, 시안(C) 색 성분 정보 및 블랙(K) 색 성분 정보의 화소 형성 방향을 각각 0°(이후에 스크린 각도로 간주함), 45°, 15°및 75°로 틸트함으로써 각 색에 하프톤(halftone)을 제공하면서 색 화상을 형성하는 방법이다(이러한 방법은 이후에 스크리닝 방법으로 간주함).The first color image representation method will be described first. Fig. 29 shows an example of the
제2 색 화상 표현 방법이 아래에 기술될 것이다. 도 32는 도 29에 도시된 색 화상(5)의 일부(5a)의 부분 확대도이며, 도 33은 도 32에 도시된 분리된 색 성분 정보의 각 부분을 도시한다. 이것은 도 32 및 33에 도시된 바와 같이 옐로우(Y) 색 성분 정보, 마젠타(M) 색 성분 정보, 시안(C) 색 성분 정보 및 블랙(K) 색 성분 정보의 화소 형성 방향을 각각 108.4°(이후에 스크린 각도로 간주함), -18.4°, 18.4°및 0°로 틸트함으로써 각 색에 하프톤을 제공하면서 색 화상을 형성하는 방법이다(이러한 방법은 이후에 스크리닝 방법으로 간주함).The second color image representation method will be described below. 32 is a partial enlarged view of a
이러한 제1 및 제2 색 화상 표현 방법에 의해서 잉크를 정확하게 중첩시키지 않고서도 색 화상이 형성될 수 있기 때문에, 화소를 벗어나는 때에 임의의 색 부정합의 발생이 방지될 수 있다.Since the color image can be formed without accurately superimposing the ink by such first and second color image representation methods, occurrence of any color mismatch can be prevented when leaving the pixel.
제1 실시예가 아래에 기술될 것이다.The first embodiment will be described below.
제1 실시예는 도 30 및 31을 이용하여 전술한 제1 색 화상 표현 방법의 경우에 적용된다.The first embodiment is applied to the case of the first color image representation method described above with reference to FIGS. 30 and 31.
도 1은 제1 실시예에 따른 서브 정보를 임베드하는 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 개략적인 구성을 도시한다. 이러한 화상 처리 시스템은 화상 입력 수단의 역할을 하는 화상 입력 장치(11)와, 기록 수단의 역할을 하는 프린터(12)와, 다양한 종류의 처리를 실행하는 컴퓨터(13)와, 화상 입력 장치(11), 프린터(12) 및 컴퓨터(13)가 서로 통신할 수 있도록 하는 양방향 통신 수단(14, 15)을 개략적으로 포함한다.1 shows a schematic configuration of an image processing system to which an image processing apparatus and an image processing method for embedding sub information according to the first embodiment are applied. Such an image processing system includes an
화상 입력 장치(11)는 디지털 화상으로서의 컬러 사진(인쇄물)(P1)에 얼굴 화상과 같은 색 화상 정보를 입력하며, 예를 들면 디지털 카메라, 비디오 카메라, 플랫베드 스캐너(flatbed scanner) 등을 포함한다. 본 실시예에서는, 예를 들면 스캐너가 이용된다.The
프린터(12)는 얼굴 화상 등과 같은 색 화상 정보와, 문자 등과 같은 이진 화상을 기록함으로써 ID 카드 등과 같은 개인 인증 매체로서 이용되는 기록물(P2)을 출력한다. 본 실시예에서, 프린터(12)가 전용 프린터로서 이용된다.The
컴퓨터(13)는, 화상 입력 장치(11)에 의해 입력된 화상 정보에 서브 정보를 육안으로 볼 수 없는 상태로 임베딩함으로써 합성 화상 정보를 생성하도록 서브 정보 임베딩 처리를 실행하기 위한 화상 처리 수단인 화상 프로세서(16)를 포함한다.The
컴퓨터(13)는 CPU, 반도체 메모리, 하드 디스크 디바이스, 화상 캡처 보드 등을 포함하는 퍼스널 컴퓨터 또는 전용 보드일 수 있다. 본 실시예에서, 퍼스널 컴퓨터가 이용된다.The
본 실시예의 화상 프로세서(16)는 퍼스널 컴퓨터를 실행시키는 애플리케이션 프로그램 모듈에 의해서 구현된다는 점을 알아야 한다.It should be noted that the
양방향 통신 수단(14, 15)은 양방향으로 신호를 보내기만 한다면 특별히 제한되지 않으며, USB, SCSI 등을 포함할 수 있다. 본 실시예에서, USB2.0이 이용된다.The bidirectional communication means 14 and 15 are not particularly limited as long as they send signals in both directions, and may include USB, SCSI, and the like. In this embodiment, USB 2.0 is used.
전술한 구성을 포함하고 제1 실시예에 따른 서브 정보를 임베드하는 화상 처리 시스템의 전체 동작이 도 2에 도시된 플로차트를 참조하여 기술될 것이다.The overall operation of the image processing system including the above-described configuration and embedding sub information according to the first embodiment will be described with reference to the flowchart shown in FIG.
화상 입력 장치(11)는 메인 화상 정보로서 얼굴 화상 등과 같은 색 화상 정보를 입력한다(단계 S1). 색 화상 정보는 사진(인쇄물)(P1)의 컬러 얼굴 화상으로 가정한다. 그러나 본 발명은 이러한 특정 정보에 한정되는 것은 아니다. 입력된 색 화상 정보는 컴퓨터(13)의 화상 프로세서(16)에 입력된다.The
화상 프로세서(16)는 입력된 색 화상 정보를 색 화상 정보를 기록하는 데 이용되는 잉크 색인 시안(C), 마젠타(M), 옐로우(Y) 및 블랙(K)의 네 가지 색 성분 정보(화상 정보의 적어도 세 부분)로 분리한다(단계 S2). 화상 프로세서(16)는 각각 사전설정된 각도에 의한 색 분리로 얻은 시안(C), 마젠타(M) 및 옐로우(Y)의 세 가지 색 성분 정보를 회전시킨다(단계 S3).The
화상 프로세서(16)는 각각의 회전된 색 성분 정보에 서브 정보를 임베드한다(단계 S4). 다음으로, 화상 프로세서(16)는 서브 정보가 임베드된 색 성분 정보의 각 부분을 단계 S3와 동일한 각도 및 반대 방향으로 회전시킨다(단계 S5).The
화상 프로세서(16)는 반대로 회전된 색 성분 정보를 합성함으로써 합성 화상 정보(색 화상 정보)를 생성하고(단계 S6), 생성된 합성 화상 정보를 프린터(12)에 전송한다. 프린터(12)는 서브 정보가 임베드된 합성 화상 정보를 기록 매체에 기록하여, 기록물(P2)을 획득한다.(단계 S7).The
화상 프로세서(16)가 각 색 성분 정보에 서브 정보를 임베드하는 (단계 S4에서의) 임베딩 처리가 아래에 상세히 설명될 것이다.The embedding process (in step S4) in which the
도 3은 화상 프로세서(16)의 주요부의 구성을 도시한다. 화상 프로세서(16)는 스무딩 프로세서(smoothing processor)(21), 위상 변조 프로세서(22), 색차 변조 프로세서(23), 중첩 프로세서(24) 및 합성 프로세서(25)를 포함한다. 이들 프로세서는 퍼스널 컴퓨터상에서 실행하는 애플리케이션 프로그램의 모듈이다. 예를 들어, 임베딩 처리에 대하여, 일본공개특허공보 평11-168616 및 2001-268346에 개시된 디지털 워터마크 처리 방법 등이 적용될 수 있다.3 shows a configuration of main parts of the
각 색 성분 정보(26)는 서브 정보(27)가 중첩되고, 사전설정된 각도로 회전되고, 본 실시예의 기록물의 컬러 얼굴 화상과 관련된 화상 정보의 색 분리된 성분 중 하나이다. 얼굴 화상 정보는 화상의 수직 및 수평 방향에서의 라인에 화소를 형성함으로써 정의된다. 이러한 정보는 24 비트(R, G, 또는 B 성분당 8 비트) 정보를 갖는다.Each
서브 정보(임베드된 화상 정보)(27)는, 예를 들면 임베드될 정보를 이진 화상 정보로 변환함으로써 획득되며, 개인 인증 매체의 식별 번호(ID 번호) 등에 대응한다. 이러한 정보는 화소당 1 비트 정보를 갖는다.The sub information (embedded image information) 27 is obtained, for example, by converting the information to be embedded into binary image information, and corresponds to an identification number (ID number) or the like of the personal authentication medium. This information has one bit information per pixel.
색차 그리드 패턴(28)은 그리드 타입 패턴이며, 또한 서브 정보(27)의 복원시 키 정보로서 이용된다. 이러한 패턴은 화소당 1 비트 정보를 가진다.The
먼저, 스무딩 프로세서(21)가 스무딩 처리를 실행하여 서브 정보(27)의 블랙 화소 = "1" 및 화이트 화소 ="0"을 갖는다. 이러한 경우에, 프로세서(21)는 화상의 수평 방향(x-방향)에서 복수의 화소 영역을 추출하고, 이들 화소의 가중 평균을 계산한다.First, the smoothing
위상 변조 프로세서(22)는 스무딩 프로세서(21)의 스무딩 처리 결과에 기초하여 색차 그리드 패턴(28)에 위상 변조를 적용한다. 본 실시예에서, 프로세서(22)는 2×2 화소 패턴(교대로 나타나는 블랙 및 화이트 화소)을 시계방향으로 90°회전시킨다.The
색차 변조 프로세서(23)는 위상 변조 프로세서(22)의 위상 변조 결과에 기초하여 사전설정된 색차량 ΔCd를 이용하여 색차 변조 처리를 실행한다. 이러한 경우에, 프로세서(23)는 세 가지 성분인 시안(C), 마젠타(M) 및 옐로우(Y)를 독립적으로 계산한다. 예를 들면, 색차 그리드 패턴(28)이 도 4에 도시된 바와 같이 레드가 풍부한 화소(도트 패턴)(2) 및 시안이 풍부한 화소(해치 패턴)(3)가 반복적으로 할당되는 색차 그리드 패턴(1)인 경우, 레드가 풍부한 각 화소(2)에 대응하는 영역에 대하여 C 데이터는 -ΔCd 만큼 변조되며, M 및 Y 데이터는 +ΔCd 만큼 변조되고, 시안이 풍부한 각 화소(3)에 대응하는 영역에 대하여 C 데이터는 +ΔCd 만큼 변조되며, M 및 Y 데이터는 -ΔCd 만큼 변조된다.The color
중첩 프로세서(24)는 색차 변조 프로세서(23)의 색차 변조 처리 결과 및 색 성분 정보(26)의 각 부분을 이용하여 중첩 처리를 실행하여, 색 성분 정보(26)의 각 부분에 변조된 색차 그리드 패턴(28)을 중첩한다. 구체적으로, 색차 변조 처리 결과의 C, M 및 Y 값은 색 성분 정보(26)의 각 부분의 C, M 및 Y 값에 각각 더한다.The
합성 프로세서(25)는 색차 그리드 패턴(28)과 중첩된 색 성분 정보(26)의 각 부분을 (단계 S3에서의) 회전 방향에 반대 방향으로 동일한 각도로 회전시키고, 반대로 회전된 색 성분 정보(26)의 각 부분을 합성하여 합성 화상 정보(29)를 생성한다.The synthesizing
전술한 임베딩 처리의 실행 시, 서브 정보(27)는 색 성분 정보(26)의 각 부분에 중첩될 수 있다. 서브 정보(27)가 중첩된 합성 화상 정보(29)는 프린터(12)에 전송되고, 기록 매체에 기록되어, 기록물(P2)을 획득한다.In the execution of the above-described embedding process, the
도 5 및 6은 제1 실시예에 따른 변조된 색차 그리드 패턴의 화소 어레이 및 서브 정보를 도시한다. 도 5의 굵은 파선에 의해서 묶여진 영역은 하프톤 도트에 의해서 표시된 2개의 화소(7a) 및 해치에 의해서 표시된 2개의 화소(7b)가 교대로 배열되고, 4 화소×2 라인의 구성을 갖는 색차 그리드 패턴(7)을 나타낸다.5 and 6 show pixel array and sub information of the modulated chrominance grid pattern according to the first embodiment. In the region enclosed by the thick broken line in Fig. 5, two
공지된 바와 같이, 인간의 시각 특성으로, 화소 간의 구분가능한 톤 차이는 해상도가 감소됨에 따라 작아지며, 색차값은 특성에 따른 값을 가정할 필요가 있다. 본 실시예에서, 서브 정보를 볼 수 없는 상태로 임베드하기 위한 색차값 ΔCd = "16"이다.As is known, with human visual characteristics, the distinguishable tone difference between pixels becomes smaller as the resolution is reduced, and the color difference value needs to assume a value according to the characteristic. In this embodiment, the color difference value ΔCd = “16” for embedding the sub information in a state where it cannot be seen.
하프톤 도트에 의해서 표시된 화소(7a)와 해치에 의해서 표시된 화소(7b)는 보색 관계를 갖는다. 본 실시예에서, 하프톤 도트에 의해서 표시된 화소(7a)는 레드가 풍부하고, 해치에 의해서 표시된 화소(7b)는 레드의 보색으로서 시안이 풍부하다.The
도 5의 색차 그리드 패턴 그룹(8a, 8b 등)은 이웃하는 색차 그리드 패턴 그룹과 90°위상 차를 갖는다. 도 6은 (해치에 의해서 표시되는) 블랙 셀(9a) 및 화이트 셀(9b)에 의해서 규정되는 이진 화상인 서브 정보(9)의 일 예를 도시한다. 도 5의 색차 그리드 패턴 그룹(8a, 8b)은 도 6의 블랙 셀(9a)에 대응하는 위치에 위치한다. 즉, 본 실시예에서, 색차 그리드 패턴의 위상을 변조함으로써, 서브 정보(9)가 각 색 성분 정보에 중첩된다.The color difference
도 7의 (a) 내지 7의 (d)는 개별적인 색 회전 처리(단계 S3), 중첩(임베딩) 처리(단계 S4) 및 개별적인 색 역회전 처리(단계 S5)를 설명하는 설명도이다. 도 7의 (a)는 단계 S2의 색 분리 처리에 의해서 분리된 색 성분의 한 가지 색 성분 정보의 일부를 도시한다.7A to 7D are explanatory views for explaining individual color rotation processing (step S3), superposition (embedding) processing (step S4), and individual color reverse rotation processing (step S5). FIG. 7A shows a part of one color component information of color components separated by the color separation processing of step S2.
도 7의 (b)는 도 7의 (a)의 색 성분 정보를 단계 S3의 개별적인 색 회전 처리에 의해서 45°회전시킴으로써 획득되는 한 가지 색 성분 정보를 도시한다. 도 7의 (b)의 각도는 45°이며, 본 실시예는 마젠타 색 성분 정보를 나타낸다. 예를 들면, 시안 색 성분 정보에 대한 처리는 15°각도의 회전 처리를 실행할 수 있다.FIG. 7B shows one color component information obtained by rotating the color component information of FIG. 7A by 45 ° by the individual color rotation processing of step S3. The angle of FIG. 7B is 45 °, and the present embodiment shows magenta color component information. For example, the process for cyan color component information can perform the rotation process of 15 degrees angles.
도 7의 (b)에 도시된 바와 같이, 도 7의 (c)에 도시되고, 서브 정보에 의해서 변조된 색차 그리드 패턴은 도 7의 (b)에 도시한 사전설정된 각도로 회전된 색 성분 정보에 중첩된다. 도 7의 (d)는 색차 그리드 패턴과 중첩된 도 7의 (b)의 색 성분 정보가 단계 S5의 개별적인 색 역회전 처리에서 45°역회전 되어 얻은 한 가지 색 성분 정보를 도시한다.As shown in FIG. 7B, the color difference grid pattern shown in FIG. 7C and modulated by the sub information is rotated color component information at a predetermined angle shown in FIG. 7B. Nested in FIG. 7D shows one color component information obtained by rotating the color component information of FIG. 7B overlaid with the color difference grid pattern by 45 ° reverse rotation in the individual color reverse rotation process of step S5.
전술한 바와 같이, 색차 그리드 패턴은 사전설정된 각도로 틸트된 색 성분 정보에 중첩될 수 있다.As described above, the color difference grid pattern may be superimposed on the color component information tilted at a predetermined angle.
전술한 설명에서, 색 분리에 의해서 획득된 시안, 마젠타 및 옐로우의 색 성분 정보의 각 부분은 사전설정된 각도로 각각 회전하며, 서브 정보는 각각의 회전된 색 성분 정보에 임베드된다. 서브 정보가 임베드된 색 성분 정보의 각 부분은 전술한 회전에 대하여 반대 방향에서 동일한 각도로 각각 회전하며, 사전설정된 각도로 역회전되는 색 성분 정보의 각 부분은 기록 매체에 기록된다. 그러나 전술한 처리에 반대되는 처리가 실행될 수 있으며, 이것은 아래에 기술될 것이다.In the above description, each part of the color component information of cyan, magenta and yellow obtained by color separation is rotated at a predetermined angle, respectively, and the sub information is embedded in the respective rotated color component information. Each part of the color component information in which the sub information is embedded is rotated at the same angle in the opposite direction with respect to the above-described rotation, and each part of the color component information reversely rotated at the predetermined angle is recorded on the recording medium. However, processing opposite to the above-described processing may be executed, which will be described below.
도 8의 (a)는 색 분리 처리에 의해 분리된 색 성분 중 한 가지 색 성분 정보의 일부를 도시한다. 도 8의 (b)는 서브 정보에 의해 변조되는 색차 그리드 패턴을 도시하고, 도 8의 (c)는 도 8의 (b)에 도시된 패턴을 45°회전함으로써 얻은 색차 그리드 패턴을 도시한다. 도 8의 (c)에서의 각도는 45°이고, 이 실시예는 마젠타 색 성분 정보를 나타낸다. 예를 들어, 시안 색 성분 정보의 처리는 15°각도로 회전 처리를 실행할 수 있다.FIG. 8A shows a part of one color component information of color components separated by color separation processing. FIG. 8B shows the color difference grid pattern modulated by the sub information, and FIG. 8C shows the color difference grid pattern obtained by rotating the pattern shown in FIG. 8B by 45 °. The angle in FIG. 8C is 45 °, and this embodiment shows magenta color component information. For example, the process of cyan color component information can perform a rotation process at an angle of 15 degrees.
도 8의 (c)에 도시된 사전설정된 각도로 회전된 색차 그리드 패턴은 도 8의 (a)에 도시된 색 성분 정보에 중첩된다. 도 8의 (d)는 이 중첩 처리에 의해 색차 그리드 패턴과 중첩된 한 가지 색 성분 정보를 도시한다.The color difference grid pattern rotated at the predetermined angle shown in FIG. 8C is superimposed on the color component information shown in FIG. 8A. FIG. 8D shows one color component information superimposed with the color difference grid pattern by this superimposition process.
또한, 이 처리로, 사전설정된 각도로 틸트된 색차 그리드 패턴은, 색차 그리 드 패턴이 사전설정된 각도로 회전된 각 색 성분 정보에 중첩되는 경우와 같이, 각 색 성분 정보에 중첩될 수 있다.Also, with this processing, the color difference grid pattern tilted at a predetermined angle can be superimposed on each color component information, such as when the color difference grid pattern is superimposed on each color component information rotated at a predetermined angle.
도 9는 상술한 화상 처리에 의해 생성되는 기록물(P2)의 실제 예를 도시한다. 기록물(P2)은, 예를 들어, ID 카드 등과 같은 개인 인증 매체이고, 이 매체는, 개인 인증을 위한 얼굴 화상(32a) 및 문자 화상(개인 관리 정보 등)(32b)을 카드형 기록 매체(31)에 기록함으로써 생성된다. 개인 인증 매체는 변조 및 위조에 대해서 평가할 필요가 있으므로, 색차 그리드 패턴(7)을 변조함으로써 얻은 서브 정보(점선으로 표시된 별 마크)(33)는 비가시적인 상태로 얼굴 화상(32a)에 중첩된다.9 shows an actual example of the recorded material P2 generated by the above-described image processing. The recorded material P2 is, for example, a personal authentication medium such as an ID card. The medium includes a
얼굴 화상(32a)은 색 화상 정보이고, 서브 정보(33)로서의 별 마크는 이진 화상 정보임을 주지해야 한다. 색 화상 정보(얼굴 화상(32a))를 형성하는 옐로우, 마젠타, 시안 및 블랙의 각 색 잉크는 각 색에 대하여 서로 다른 사전설정된 각도의 틸트를 갖도록 구성되고, 색차 그리드 패턴은 각 색에 대하여 상이한 각도의 틸트를 갖도록 형성된다.Note that the
상술한 바와 같이 생성된 인쇄물(P2)로부터 서브 정보를 재생하는 제1 실시예에 따른 화상 처리 장치 및 화상 처리 방법이 후술될 것이다.An image processing apparatus and an image processing method according to the first embodiment for reproducing sub information from the printed matter P2 generated as described above will be described later.
도 10은, 제1 실시예에 따라 인쇄물로부터 서브 정보를 재생하기 위한 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 구성을 개략적으로 도시한다. 이 화상 처리 시스템은 개략적으로, 판독 수단으로서의 화상 판독 장치(41), 다양한 종류의 처리를 행하는 컴퓨터(43), 화상 판독 장치(41), 표시 장치(42) 및 컴퓨터(43)를 서로 통신할 수 있도록 연결하기 위한 양방향 통신 수단(44 및 45)을 포함한다.10 schematically shows the configuration of an image processing system to which an image processing apparatus and an image processing method for reproducing sub information from a printed matter according to the first embodiment are applied. This image processing system roughly communicates the
화상 판독 장치(41)는 디지털 화상과 같은 기록물(P2)의 색 화상 정보를 판독하고, 플랫베드 스캐너, 디지털 카메라 등을 포함한다. 이 실시예에서는, 예를 들어, 스캐너가 사용된다. 표시 장치(42)는 재생된 서브 정보 등과 같은 다양한 종류의 정보를 표시하고 출력한다.The
컴퓨터(43)는, 화상 판독 장치(41)에 의해 판독된 색 화상 정보로부터 그 색 화상 정보에 임베드된 서브 정보를 재생하도록 서브 정보 재생 처리를 실행하기 위한 화상 처리 수단인 화상 프로세서(46)를 포함한다.The
컴퓨터(43)는 CPU, 반도체 메모리, 하드 디스크 디바이스, 화상 캡처 보드 등을 포함하는 전용 보드 또는 퍼스널 컴퓨터일 수 있음을 주지해야 한다. 이 실시예에서는, 퍼스널 컴퓨터가 사용된다.It should be noted that the
이 실시예의 화상 프로세서(46)는 퍼스널 컴퓨터에서 동작하는 애플리케이션 프로그램의 모듈에 의해 구현된다는 것을 주지해야 한다.It should be noted that the
양방향 통신 수단(44 및 45)은 양방향으로 신호를 전달하는 한 특정한 것으로 제한되지는 않으며, USB, SCSI 등을 포함할 수 있다. 이 실시예에서는, USB2.0이 사용된다.The bidirectional communication means 44 and 45 are not limited to specific ones as long as they carry signals in both directions, and may include USB, SCSI, and the like. In this embodiment, USB 2.0 is used.
상술한 구성을 포함하고, 제1 실시예에 따른 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작이 도 11에 도시된 플로차트를 참조해서 후술될 것이다.The entire processing operation of the image processing system including the above-described configuration and reproducing sub information from the recording according to the first embodiment will be described below with reference to the flowchart shown in FIG.
화상 판독 장치(41)는 기록물(P2)의 색 화상 정보를 판독한다(단계 S11). 판독된 색 화상 정보는 컴퓨터(43)의 화상 프로세서(46)에 입력된다. 화상 프로세서(46)는 입력된 색 화상 정보를, 색 화상 정보를 형성하는 색 잉크인 시안(C), 마젠타(M) 및 옐로우(Y)의 색 성분 정보의 각 부분으로 분리한다(단계 S12). 색 분리될 색 성분 정보의 부분은 레드(R), 그린(G) 및 블루(B)일 수도 있다는 것을 주지해야 한다.The
다음으로, 화상 프로세서(46)는 색 화상 정보를 형성하는 옐로우, 시안 및 마젠타의 화소 형성 방향과 반대되는 방향으로 시안(C), 마젠타(M) 및 옐로우(Y)의 색 분리된 색 성분 정보의 각 부분을 각 색의 틸트 각도와 동일한 각도로 회전시킨다(단계 S13). 이 처리를 통해서, 각 색의 화소 형성 방향은 화상의 수직 및 수평 방향과 일치할 수 있고, 색차 그리드 패턴의 화소 형성 방향은 화상의 수직 및 수평 방향과 일치할 수 있다.Next, the
다음으로, 화상 프로세서(46)는, 사전설정된 각도로 역회전되는 색 성분 정보의 각 부분에의 서브 정보를 추출하기 위한 처리를 적용하고, 서브 정보를 추출(재생)한다(단계 S14). 화상 프로세서(46)는 추출된 서브 정보를 표시 장치(42)에 표시하고(단계 S15), 오퍼레이터는 서브 정보의 표시에 기초해서 기록물(P2)의 진본성(authenticity)을 검사한다(단계 S16).Next, the
상기 설명에서, 추출된 서브 정보는 표시 장치(42)에 표시되고, 오퍼레이터는 표시된 콘텐츠에 기초해서 기록물(P2)의 진본성, 즉 서브 정보의 진본성을 검사한다. 그러나 진본성 검사는 자동으로 행해질 수 있으며, 도 12에 도시된 플로차트를 참조해서 후술될 것이다.In the above description, the extracted sub information is displayed on the
단계 S11 내지 S14의 처리가 도 11에 도시된 것과 동일하기 때문에, 그에 대한 반복적인 설명은 생략되고, 도 11과 다른 단계 S17 내지 S19만이 설명될 것이다.Since the processing of steps S11 to S14 is the same as that shown in Fig. 11, a repetitive description thereof will be omitted, and only steps S17 to S19 different from Fig. 11 will be described.
서브 정보가 단계 S14에서 추출(재생)되면, 화상 프로세서(46)는 추출된 서브 정보를, 예를 들어, 이전에 등록된 기준 서브 정보와 대조하고(단계 S17), 두 서브 정보가 사전설정된 관계를 갖는지, 즉 두 서브 정보가 이 예에서 일치하는지를 찾음으로써 기록물(P2)의 진본성을 검사한다. 그 다음, 화상 프로세서(46)는 표시 장치(42)에 검사 결과를 표시한다(단계 S19).When the sub information is extracted (reproduced) in step S14, the
기록물(P2)의 진본성 검사 방법은 상술한 방법으로 한정되는 것은 아니며, 다른 방법들도 이용가능하다는 것을 주지해야 한다. 예를 들어, 진본성은 추출된 서브 정보를 분석함으로써 검사될 수 있다. 대안으로, 기록물(P2)의 진본성은, 서브 정보의 진본성에 기초한 기록물(P2)의 진본성 검사 대신, 서브 정보의 존재/부재에 기초하여 검사될 수 있다.It should be noted that the authenticity checking method of the record P2 is not limited to the above-described method, and other methods are also available. For example, authenticity can be checked by analyzing the extracted sub information. Alternatively, the authenticity of the record P2 may be checked based on the presence / absence of the sub information, instead of the authenticity check of the record P2 based on the authenticity of the sub information.
도 13은, 도 11의 단계 S13의 처리에 의해 얻은 색 성분 정보를 공간 주파수 도메인으로 변환하는 것에 따른 신호를 도시한다. 수평축은 수평 방향에서의 색 성분 정보의 공간 주파수(fx)를 도시하고, 수직축은 수직 방향에서의 색 성분 정보의 공간 주파수(fy)를 도시한다. 도트 표시된 원형 신호는 색차 그리드 패턴(7)의 신호이다.FIG. 13 shows a signal obtained by converting the color component information obtained by the process of step S13 of FIG. 11 into the spatial frequency domain. The horizontal axis shows the spatial frequency fx of the color component information in the horizontal direction, and the vertical axis shows the spatial frequency fy of the color component information in the vertical direction. The circular signal with a dot is a signal of the
제1 실시예에 따른 서브 정보의 재생 처리는 색차 그리드 패턴(7)의 신호에 대응하는 주파수의 대역통과 필터를 적용시킴으로써 서브 정보(9)를 재생(추출)할 수 있다.In the reproduction processing of the sub information according to the first embodiment, the
상술한 바와 같이, 제1 실시예에 따르면, 서브 정보는 사전설정된 각도를 갖도록 각 색 성분의 화소 형성 방향을 틸트함으로써 형성된 색 화상 정보에 중첩될 수 있고, 이에 따라, 획득된 기록물의 변조 및 위조에 대한 저항성을 강화시킬 수 있다.As described above, according to the first embodiment, the sub information can be superimposed on the color image information formed by tilting the pixel formation direction of each color component to have a predetermined angle, thereby modulating and counterfeiting the obtained recording. It can enhance resistance to
이하에서 제2 실시예가 후술될 것이다.The second embodiment will be described below.
제2 실시예는 도 32 및 33을 사용해서 이전에 설명된 제2 색 화상 표현 방법의 경우에 적용된다.The second embodiment applies to the case of the second color image representation method previously described using Figs.
제2 실시예에 따른 화상 처리 시스템의 구성이 제1 실시예의 구성(도 1)과 동일하기 때문에, 그에 대한 반복적인 설명은 생략될 것이다.Since the configuration of the image processing system according to the second embodiment is the same as the configuration (FIG. 1) of the first embodiment, a repetitive description thereof will be omitted.
제2 실시예에 따른 화상 처리 시스템의 전체 동작은 도 14에 도시된 플로차트를 참조해서 후술될 것이다.The overall operation of the image processing system according to the second embodiment will be described later with reference to the flowchart shown in FIG.
화상 입력 장치(11)는, 얼굴 화상 등의 색 화상 정보를 메인 정보로서 입력한다(단계 S21). 색 화상 정보가 사진(인쇄물)(P1)의 컬러 얼굴 화상이라고 가정한다. 그러나 본 발명은 이러한 특정 정보로 한정되지 않는다. 입력된 색 화상 정보는 컴퓨터(13)의 화상 프로세서(16)에 입력된다.The
화상 프로세서(16)는 입력된 색 화상 정보를, 색 화상 정보를 기록하는 데 사용되는 잉크 색인 시안(C), 마젠타(M), 옐로우(Y) 및 블랙(K)의 색 성분 정보의 네 부분(화상 정보의 적어도 세 부분)으로 분리한다. 화상 프로세서(16)는 시 안(C), 마젠타(M) 및 옐로우(Y)의 색 성분 정보의 세 부분의 화소가 사전설정된 각도를 갖도록 할당한다(단계 S23).The
화상 프로세서(16)는 각각의 회전된 색 성분 정보에 서브 정보를 임베드한다(단계 S24). 다음으로, 화상 프로세서(16)는 서브 정보가 임베드된 색 성분 정보의 각 부분에 단계 S23의 처리와 상반되는 처리를 적용함으로써 화소를 복원하도록 화소를 할당한다(단계 S25). The
화상 프로세서(16)는, 화소 할당이 복원되는 색 성분 정보의 부분을 합성함으로써 합성 화상 정보(색 화상 정보)를 생성하고(단계 S26), 생성된 합성 화상 정보를 프린터(12)에 송신한다.The
프린터(12)는, 서브 정보가 임베드된 합성 화상 정보에 대해, 색 성분 정보의 각 부분에 대한 디더 매트릭스(dither matrices)를 사용해서 의사 하프톤(pseudo halftone) 처리를 적용하고(단계 S27), 의사 하프톤 처리를 실행한 합성 화상 정보를 기록 매체에 기록함으로써 기록물(P2)를 얻는다(단계 S28).The
화상 프로세서(16)에 의해 각 색 성분 정보에 서브 정보를 임베딩하기 위한 임베딩 처리(단계 S24의 처리)는 제1 실시예에서 사용된 도 3을 참조해서 후술될 것이다.An embedding process (process of step S24) for embedding sub information in each color component information by the
제2 실시예의 경우의 각 색 성분 정보(26)는, 단계 S23의 개별 색 할당 처리에 의해 할당된 정보이고, 서브 정보(27)가 중첩되는 정보이고, 이 실시예의 기록물의 컬러 얼굴 화상과 관련된 화상 정보의 색 분리된 성분 중 하나이다. 얼굴 화상 정보는 화상의 수직 및 수평 방향에서의 라인에 화소를 형성함으로써 정의된다는 것을 주지해야 한다. 이 정보는 화소당 24 비트(R, G, 또는 B 성분당 8 비트)의 정보를 갖는다.Each
서브 정보(임베드된 화상 정보)(27)는 예를 들어, 임베드될 정보를 이진 화상 정보로 변환함으로써 얻고, 개인 인증 매체의 식별 번호(ID 번호) 등에 대응한다. 이 정보는 화소당 1 비트의 정보를 갖는다.The sub information (embedded image information) 27 is obtained by, for example, converting the information to be embedded into binary image information, and corresponds to an identification number (ID number) or the like of the personal authentication medium. This information has one bit of information per pixel.
색차 그리드 패턴(28)은 그리드 타입 패턴이고, 또한 서브 정보(27)의 재생 시 키 정보로서 사용된다. 이 패턴은 화소당 1 비트의 정보를 갖는다.The
먼저, 스무딩 프로세서(21)는 서브 정보(27)의 블랙 화소 = "1" 및 화이트 화소 = "0"이 되도록 스무딩 처리를 실행한다. 이 경우에, 프로세서(21)는 화상의 수평 방향(x-방향)에서 복수의 화소의 영역을 추출하고, 이들 화소의 가중 평균을 계산한다.First, the smoothing
위상 변조 프로세서(22)는 스무딩 프로세서(21)의 스무딩 처리 결과에 기초해서 색차 그리드 패턴(28)에 위상 변조를 적용한다. 이 실시예에서, 프로세서(22)는 2×2 화소 패턴(블랙 및 화이트 화소가 교대로 나타남)을 시계방향으로 90°회전시킨다.The
색차 변조 프로세서(23)는 위상 변조 프로세서(22)의 위상 변조 결과에 기초해서 사전설정된 색차량 ΔCd을 사용해서 색차 변조 처리를 실행한다. 이 경우에, 프로세서(23)는 세 성분인 시안(C), 마젠타(M) 및 옐로우(Y)를 독립적으로 계산한다. 예를 들어, 색차 그리드 패턴(28)이 레드가 풍부한 화소(도트 표시된 패턴)(2) 및 시안이 풍부한 화소(해치 패턴)(3)가 반복적으로 할당된 색차 그리드 패 턴(1)인 경우, 도 4에 도시된 바와 같이, 레드가 풍부한 각 화소(2)에 대응하는 영역에 대하여 C 데이터는 -ΔCd 만큼 변조되고, M 및 Y 데이터는 +ΔCd 만큼 변조되고, 시안이 풍부한 각 화소(3)에 대응하는 영역에 대하여 C 데이터는 +ΔCd 만큼 변조되고, M 및 Y 데이터는 -ΔCd 만큼 변조된다.The color
중첩 프로세서(24)는, 색차 변조 프로세서(23)의 색차 변조 처리 결과 및 색 성분 정보(26)의 각 부분을 이용해서 중첩 처리를 실행하고, 이에 따라, 변조된 색차 그리드 패턴(28)을 색 성분 정보(26)의 각 부분에 중첩한다. 구체적으로, 색차 변조 처리 결과의 C, M 및 Y 값은 색 성분 정보(26)의 각 부분의 C, M 및 Y 값에 각각 더한다.The
합성 프로세서(25)는, 색차 그리드 패턴(28)과 중첩된 색 성분 정보(26)의 각 부분에 단계 S23의 처리와 상반되는 처리를 적용함으로써 화소를 복원하도록 화소를 할당하고, 화소 할당이 복원되는 색 성분 정보(26)의 각 부분을 합성하고, 이에 따라 합성 화상 정보(29)를 생성한다.The synthesizing
상술한 임베딩 처리의 실행 시, 서브 정보(27)는 색 성분 정보(26)의 각 부분에 중첩될 수 있다. 서브 정보(27)가 중첩된 합성 화상 정보(29)는 프린터(12)에 송신되고, 기록 매체에 기록되어, 기록물(P2)가 얻어진다.In executing the above-described embedding process, the
제2 실시예에 따른 서브 정보 및 변조된 색차 그리드 패턴의 화소 어레이가 도 5 및 6을 이용해서 상술된 제1 실시예의 어레이와 동일하기 때문에, 그 설명은 생략될 것이다.Since the pixel array of the sub information and the modulated chrominance grid pattern according to the second embodiment is the same as the array of the first embodiment described above with reference to Figs. 5 and 6, the description thereof will be omitted.
도 15a 및 15b는 제2 실시예에 따른 스크린 각도를 설명하기 위한 도면이고, 도 29에 도시된 색 화상(5)의 한 부분(5a)의 확대도이다. 제2 실시예에서, 시안(C) 및 옐로우(Y)의 스크린 각도는 각각 18.4°및 108.4°이고, 이들은 90°의 차를 갖는다. 따라서, 도 15a에서 나타낸 바와 같이, 시안 및 옐로우 화소는 서로 중첩하도록 할당된다. 그러나 스크린 각도가 90°의 차를 갖기 때문에, 시안 정보를 옐로우 정보에 중첩 시, 색차 그리드 패턴을 교란시키지 않으면서 두 정보를 중첩하기 위해 시안 정보는 시안에 대응하는 스크린 각도로 틸트를 갖도록 중첩될 필요가 있다.15A and 15B are views for explaining the screen angle according to the second embodiment, and are enlarged views of one
한편, 마젠타(M)의 스크린 각도는 -18.4°이고, 시안 및 마젠타 화소는 서로 덜 중첩된다. 도 4에 도시된 색차 그리드 패턴에 대해, 레드 및 시안이 풍부한 화소는 셋 또는 그 이상의 색의 화소를 중첩함으로써 형성될 필요가 있다. 스크리닝 방법을 이용한 기록 방법으로, 세 가지 색의 화소는 서로 덜 겹치게 되어 색차 그리드 패턴을 교란시키고, 서브 정보는 색 화상 정보에 중첩될 수 없다.On the other hand, the screen angle of the magenta M is -18.4 °, and the cyan and magenta pixels overlap less with each other. For the chrominance grid pattern shown in Fig. 4, red and cyan-rich pixels need to be formed by superimposing pixels of three or more colors. In the recording method using the screening method, the pixels of the three colors overlap with each other less so as to disturb the color difference grid pattern, and the sub information cannot be superimposed on the color image information.
도 16, 17 및 18은 시안, 마젠타 및 옐로우에 대응하는 스크린(화소 어레이)을 형성하는 데 이용되는 임계 매트릭스의 예를 도시한다.16, 17 and 18 show examples of critical matrices used to form screens (pixel arrays) corresponding to cyan, magenta and yellow.
도 16은 시안에 대응하는 스크린을 형성하는 데 이용되는 임계 매트릭스를 도시한다. 도 16의 해치의 의해 표시된 10개의 화소를 포함하는 매트릭스(51a)는 단위 매트릭스이고, 의사 톤(pseudo tone)을 나타내는 데 사용되는 디더 매트릭스이다. 도 16에 도시된 바와 같이, 단위 매트릭스(51a)를 할당함으로써, 도 16의 직선(51b)으로 표시되는 바와 같이 스크린 각도 = 18.4°(도 16의 수평 방향으로부터 시계방향의 각도)가 실현될 수 있다.16 shows the threshold matrix used to form the screen corresponding to cyan. The
도 17은 옐로우에 대응하는 스크린을 형성하는 데 사용되는 임계 매트릭스를 도시한다. 도 17의 해치의 의해 표시된 10개의 화소를 포함하는 매트릭스(51c)는 단위 매트릭스이고, 도 16의 단위 매트릭스(51a)를 시계방향으로 90°회전시킴으로써 얻는다. 단위 매트릭스(51c)를 할당함으로써, 도 17에 도시된 바와 같이, 도 17의 직선(51d)으로 표시되는 바와 같이 스크린 각도 = 108.4°가 실현된다.17 shows the critical matrix used to form the screen corresponding to yellow. The
도 18은 마젠타에 대응하는 스크린을 형성하는 데 사용되는 임계 매트릭스를 도시한다. 도 18의 해치의 의해 표시된 10개의 화소를 포함하는 매트릭스(51e)는 단위 매트릭스이고, 도 16의 단위 매트릭스(51a)를 도 18의 수직 방향에 대해 축대칭으로 반전(수평으로 플리핑(flipping))시킴으로써 얻는다. 단위 매트릭스(51e)를 할당함으로써, 도 18에 도시된 바와 같이, 도 18의 직선(51f)으로 표시되는 바와 같이 스크린 각도 = -18.4°가 실현된다.18 shows the critical matrix used to form the screen corresponding to magenta. The
스크린 각도는 단지 예이고, 상술한 조합으로 한정되지 않는다는 것을 주지해야 한다.It should be noted that the screen angle is only an example and is not limited to the combination described above.
도 19, 20, 21 및 22는 시안 및 옐로우의 색 성분 정보의 부분의 할당 처리, 중첩 처리, 색차 그리드 패턴 및 개별 색 역 할당 처리를 도시하는 설명도이다.19, 20, 21, and 22 are explanatory diagrams showing the allocation processing, the superposition processing, the color difference grid pattern, and the individual color gamut allocation processing of portions of cyan and yellow color component information.
도 19는 시안 및 옐로우 각각의 색 성분 정보의 화소 어레이를 도시한다. 도 19의 10개의 화소를 포함하는 각각의 볼드 프레임(bold frame)은 시안의 단위 매트릭스를 나타낸다. 도 19의 참조 번호 a1 내지 a4, b1 내지 b4 및 c1 내지 c4는 각각 9개의 화소(수평 및 수직 방향에서 3×3 화소)를 포함하는 화소 블록을 나타내고, a, b, c 그룹 모두는 시안에 대응하는 스크린 각도로 틸트된다. 각각 9개 의 화소를 포함하는 옐로우 화소 블록은 시안의 블록에 매칭되고, 시안과 스크린 각도가 90°상이하지만, 이들 화소 블록은 공통으로 사용될 수 있다.19 shows a pixel array of color component information of cyan and yellow, respectively. Each bold frame including the ten pixels of FIG. 19 represents a unit matrix of cyan. Reference numerals a1 to a4, b1 to b4, and c1 to c4 in FIG. 19 denote pixel blocks including nine pixels (3 × 3 pixels in the horizontal and vertical directions), respectively, and all of the groups a, b, and c are Cyan. Tilt to the corresponding screen angle. Yellow pixel blocks each including nine pixels are matched to cyan blocks, and cyan and the screen angles are different by 90 °, but these pixel blocks can be used in common.
도 20은 도 19에서 화소를 할당함으로써 얻은 화소 어레이를 도시하며, 도 19의 9개의 화소를 각각 포함하는 화소 블록은 단위로서 각 화소 블록을 갖도록 선형으로 배열된다. 이 실시예에 따른 시안 및 옐로우에 대응하는 할당 처리는 시안에 대응하는 스크린 각도로 시계반대방향으로 회전될 화소 블록을 할당하는 처리이다.20 illustrates a pixel array obtained by allocating pixels in FIG. 19, and pixel blocks each including nine pixels of FIG. 19 are linearly arranged to have each pixel block as a unit. The allocation process corresponding to cyan and yellow according to this embodiment is a process of allocating a pixel block to be rotated counterclockwise at a screen angle corresponding to cyan.
도 21은 색차 그리드 패턴을 도시한다. 도 4에 도시된 색차 그리드 패턴의 한 화소는 9개의 화소를 포함하는 화소 블록에 대응한다. 즉, 9개의 화소를 포함하는 각 화소 블록(도 21의 도트 패턴)(52)은 레드가 풍부한 성분을 갖고, 9개의 화소를 포함하는 각 화소 블록(도 21의 해치 패턴)(53)은 시안이 풍부한 성분을 갖는다. 도 21에 도시된 색차 그리드 패턴은 도 20의 할당 후 화소 어레이에 중첩된다.21 illustrates a color difference grid pattern. One pixel of the color difference grid pattern illustrated in FIG. 4 corresponds to a pixel block including nine pixels. That is, each pixel block (dot pattern in FIG. 21) 52 including nine pixels has a red-rich component, and each pixel block (hatch pattern in FIG. 21) including nine pixels is cyan. It has abundant ingredients. The color difference grid pattern shown in FIG. 21 is superimposed on the pixel array after assignment in FIG.
도 22는, 도 21의 색차 그리드 패턴이 도 20의 화소 어레이에 중첩된 후, 도 19에 도시된 오리지널 화소 어레이를 복원하도록 할당된 화소 어레이를 도시한다. 이 실시예에 따른 기록 유닛은 색 성분 정보의 색에 대응하는 스크린을 형성한다. 스크린은 임계 매트릭스에 의해 정의되고, 단위 매트릭스의 각 화소 블록에 대해 처리된다. 도 21에 도시된 바와 같이, 색차 그리드 패턴은 단위 매트릭스에서 9-화소 블록에 중첩될 수 있기 때문에, 색차 그리드 패턴은 스크린이 형성된 후에도 교란되지 않는다.FIG. 22 shows a pixel array allocated to restore the original pixel array shown in FIG. 19 after the color difference grid pattern of FIG. 21 is superimposed on the pixel array of FIG. The recording unit according to this embodiment forms a screen corresponding to the color of the color component information. The screen is defined by a critical matrix and processed for each pixel block of the unit matrix. As shown in Fig. 21, since the chrominance grid pattern can be superimposed on a 9-pixel block in the unit matrix, the chrominance grid pattern is not disturbed even after the screen is formed.
상술한 바와 같이, 색차 그리드 패턴은 시안의 색 성분 정보의 시안에 대응하는 스크린 각도로 틸트된 화소 블록에 중첩될 수 있다. 또한, 색차 그리드 패턴은 옐로우의 색 성분 정보의 옐로우에 대응하는 스크린 각도와 상이한 시안에 대응하는 스크린 각도로 틸트된 화소 블록에 중첩될 수 있다.As described above, the color difference grid pattern may be superimposed on the pixel block tilted at the screen angle corresponding to the cyan color component information. In addition, the color difference grid pattern may be superimposed on the pixel block tilted at a screen angle corresponding to a cyan different from the screen angle corresponding to yellow of the color component information of yellow.
도 23, 24, 25 및 26은 마젠타의 색 성분 정보의 할당 처리, 중첩 처리, 색차 그리드 패턴 및 개별 색 역 할당 처리를 도시하는 설명도이다.23, 24, 25, and 26 are explanatory diagrams showing the process of assigning color component information of magenta, the superimposition process, the color difference grid pattern, and the individual color gamut assignment process.
도 23은 마젠타의 색 성분 정보의 화소 어레이를 도시한다. 도 23의 10개의 화소를 포함하는 각 볼드 프레임은 마젠타의 단위 매트릭스를 나타낸다. 도 23의 참조 번호 d1 내지 d4, e1 내지 d4, f1 내지 f4는 단위 매트릭스를 형성하는 9개의 화소(수직 및 수평 방향에서 3×3 화소)를 각각 포함하는 화소 블록을 나타내고, d, e, 및 f 그룹은 이들 그룹을 연결하는 직선(도 23에 도시됨)(54)과 도 23의 수평 방향이 만드는 각도 θ가 시안에 대응하는 스크린 각도에 근접하도록 선택된 화소 블록 그룹이다.Fig. 23 shows a pixel array of color component information of magenta. Each bold frame including 10 pixels of FIG. 23 represents a unit matrix of magenta. Reference numerals d1 to d4, e1 to d4, and f1 to f4 in FIG. 23 denote pixel blocks each containing nine pixels (3 × 3 pixels in the vertical and horizontal directions) forming a unit matrix, and d, e, and The f group is a group of pixel blocks selected such that the straight line (shown in FIG. 23) 54 connecting these groups and the angle θ made by the horizontal direction in FIG. 23 approach the screen angle corresponding to the cyan.
도 24는 도 23의 화소를 할당함으로써 얻은 화소 어레이를 도시하고, 도 23의 9개의 화소를 각각 포함하는 화소 블록은 단위로서 각 화소 블록을 갖도록 선형으로 배열된다. 이 실시예에 따른 마젠타에 대응하는 할당 처리는 시안에 대응하는 스크린 각도에 근접한 각도로 시계반대방향으로 회전될 화소 블록을 재배열함으로써 화소 블록을 할당하는 처리이다.FIG. 24 shows a pixel array obtained by allocating the pixels in FIG. 23, and pixel blocks each including nine pixels in FIG. 23 are linearly arranged to have each pixel block as a unit. The allocation process corresponding to magenta according to this embodiment is a process of allocating pixel blocks by rearranging pixel blocks to be rotated counterclockwise at an angle close to the screen angle corresponding to cyan.
도 25는 도 21과 동일한 색차 그리드 패턴을 도시하고, 그 반복적인 설명은 생략될 것이다. 도 25의 색차 그리드 패턴은 배열된 화소 어레이에 중첩된다. 도 26은, 도 25의 색차 그리드 패턴이 도 24의 화소 어레이에 중첩된 후, 도 23에 도시된 오리지널 화소 어레이를 복원하도록 할당된 화소 어레이를 도시한다. 도 26에 도시된 바와 같이, 색차 그리드 패턴이 단위 매트릭스에서 9-화소 블록에 중첩될 수 있기 때문에, 색차 그리드 패턴은 스크린이 형성된 후에도 교란되지 않는다. 또한, 색차 그리드 패턴이, 시안에 대응하는 스크린 각도에 근접한 틸트 각도를 갖도록 중첩될 수 있기 때문에, 기록 유닛에 의해 기록된 세 가지 색의 화소가 겹치게 될 가능성은 증가하고, 서브 정보는 색 화상 정보에 확실하게 중첩될 수 있게 된다.FIG. 25 shows the same color difference grid pattern as in FIG. 21, and the repetitive description thereof will be omitted. The color difference grid pattern in FIG. 25 is superimposed on the arranged pixel array. FIG. 26 shows a pixel array allocated to restore the original pixel array shown in FIG. 23 after the color difference grid pattern of FIG. 25 is superimposed on the pixel array of FIG. As shown in FIG. 26, the chrominance grid pattern is not disturbed even after the screen is formed because the chrominance grid pattern can be superimposed on the 9-pixel block in the unit matrix. In addition, since the color difference grid pattern can be superimposed so as to have a tilt angle close to the screen angle corresponding to cyan, the possibility that the pixels of three colors recorded by the recording unit overlap will increase, and the sub information will be colored image information. Can be nested reliably.
상술한 바와 같이, 색차 그리드 패턴은 마젠타의 색 성분 정보의 화소 블록에 중첩될 수 있고, 이 색 성분 정보는 마젠타에 대응하는 스크린 각도와는 상이하며 시안에 대응하는 스크린 각도에 근접한 각도로 틸트된다.As described above, the color difference grid pattern may be superimposed on the pixel block of the color component information of magenta, which is different from the screen angle corresponding to magenta and tilted at an angle close to the screen angle corresponding to cyan. .
제2 실시예에 의해 얻어진 기록물(P2)은 도 9를 이용해서 이전에 설명된 제1 실시예의 기록물과 동일하고, 그에 대한 반복적인 설명은 생략될 것이다.The recording P2 obtained by the second embodiment is the same as the recording of the first embodiment previously described using Fig. 9, and a repetitive description thereof will be omitted.
상술한 바와 같이 생성된 인쇄물(P2)로부터 서브 정보를 재생하는 제2 실시예에 따른 화상 처리 장치 및 화상 처리 방법이 후술될 것이다.An image processing apparatus and an image processing method according to the second embodiment for reproducing sub information from the printed matter P2 generated as described above will be described later.
제2 실시예에 따른 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 구성은 제1 실시예에 따른 상술한 화상 처리 시스템(도 10)의 구성과 동일하며, 그 반복적인 설명은 생략될 것이다.The configuration of the image processing system for reproducing sub information from the recording according to the second embodiment is the same as that of the image processing system (Fig. 10) described above according to the first embodiment, and the repetitive description thereof will be omitted.
제2 실시예에 따른 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작은 도 27에 도시된 플로차트를 참조해서 후술될 것이다.The overall processing operation of the image processing system for reproducing sub information from the recording according to the second embodiment will be described later with reference to the flowchart shown in FIG.
화상 판독 장치(41)는 기록물(P2)의 색 화상 정보를 판독한다(단계 S31). 판독된 색 화상 정보는 컴퓨터(43)의 화상 프로세서(46)에 입력된다. 화상 프로세서(46)는 입력된 색 화상 정보를, 색 화상 정보를 형성하는 색 잉크로서의 시안(C), 마젠타(M) 및 옐로우(Y)의 색 성분 정보의 각 부분으로 분리한다. 색 분리될 색 성분 정보의 부분은 레드(R), 그린(G) 및 블루(B)일 수도 있다는 것을 주지해야 한다.The
다음으로, 화상 프로세서(46)는, 서브 정보의 임베딩(도 14의 단계 S25) 시와 동일한 방식으로 사전설정된 각도를 갖도록 시안(C), 마젠타(M) 및 옐로우(Y)의 색 분리된 색 성분 정보의 각 부분의 화소를 할당한다(단계 S33).Next, the
화상 프로세서(46)는 각각의 할당된 색 성분 정보에의 서브 정보를 추출하기 위한 처리를 적용하여 서브 정보를 추출(재생)한다(단계 S34). 그 다음, 화상 프로세서(46)는 추출된 서브 정보를 표시 장치(42)에 표시하고, 오퍼레이터는 서브 정보의 표시에 기초해서 기록물(P2)의 진본성을 검사한다(단계 S36).The
상기 설명에서, 추출된 서브 정보는 표시 장치(42)에 표시되고, 오퍼레이터는 표시된 콘텐츠에 기초해서 기록물(P2)의 진본성, 즉 서브 정보의 진본성을 검사한다. 그러나 진본성 검사는 자동으로 실행될 수 있으며, 도 28에 도시된 플로차트를 참조해서 후술될 것이다.In the above description, the extracted sub information is displayed on the
단계 S31 내지 S34의 처리가 도 27에 도시된 것과 동일하기 때문에, 그에 대한 반복적인 설명은 생략되고, 도 27과 다른 단계 S37 내지 S39만이 설명될 것이다.Since the processing of steps S31 to S34 is the same as that shown in Fig. 27, repeated description thereof will be omitted, and only steps S37 to S39 different from Fig. 27 will be described.
서브 정보가 단계 S34에서 추출(재생)되면, 화상 프로세서(46)는 추출된 서브 정보를, 예를 들어, 이전에 등록된 기준 서브 정보와 대조하고(단계 S37), 두 서브 정보가 사전설정된 관계를 갖는지, 즉 두 서브 정보가 이 예에서 일치하는지를 찾음으로써 기록물(P2)의 진본성을 검사한다(단계 S38). 그 다음, 화상 프로세서(46)는 표시 장치(42)에 검사 결과를 표시한다(단계 S39).When the sub information is extracted (reproduced) in step S34, the
기록물(P2)의 진본성 검사 방법은 상술한 방법으로 한정되는 것은 아니며, 다른 방법들도 이용가능하다는 것을 주지해야 한다. 예를 들어, 진본성은 추출된 서브 정보를 분석함으로써 검사될 수 있다. 대안으로, 기록물(P2)의 진본성은, 서브 정보의 진본성에 기초한 기록물(P2)의 진본성 검사 대신, 서브 정보의 존재/부재에 기초하여 검사될 수 있다.It should be noted that the authenticity checking method of the record P2 is not limited to the above-described method, and other methods are also available. For example, authenticity can be checked by analyzing the extracted sub information. Alternatively, the authenticity of the record P2 may be checked based on the presence / absence of the sub information, instead of the authenticity check of the record P2 based on the authenticity of the sub information.
상술한 바와 같이, 제2 실시예에 따르면, 서브 정보는 사전설정된 각도를 갖도록 각 색 성분의 화소 형성 방향을 틸트함으로써 형성된 색 화상 정보에 중첩될 수 있고, 이에 따라, 획득된 기록물의 변조 및 위조에 대한 저항성을 강화시킬 수 있다.As described above, according to the second embodiment, the sub information can be superimposed on the color image information formed by tilting the pixel formation direction of each color component so as to have a predetermined angle, thereby modulating and forging the obtained recordings. It can enhance resistance to
상기 실시예의 설명에서, 얼굴 화상 등의 색 화상 정보가 입력되고, 입력된 색 화상 정보는 C, M 및 Y의 색 화상 정보의 부분으로 분리하고, 색들의 색 분리된 색 성분 정보의 각 부분에 후속 처리가 적용된다. 그러나 본 발명은 이러한 특정 실시예들로 한정되지 않는다. 본 발명은, 메인 정보로서 셋 또는 그 이상의 색의 화상 정보, 예를 들어, C, M 및 Y의 외부적으로 색 분리된 색 성분 정보의 부분 및 그 후속 처리가 색의 입력된 색 성분 정보의 각 부분에 적용될 때, 동일한 작용 및 효과를 얻을 수 있다.In the description of the above embodiment, color image information such as a face image is input, and the input color image information is separated into portions of the color image information of C, M, and Y, and each portion of the color separated color component information of the colors is separated. Subsequent processing is applied. However, the invention is not limited to these specific embodiments. According to the present invention, the image information of three or more colors as main information, for example, the portion of the externally color separated color component information of C, M and Y, and the subsequent processing of the input color component information of the color When applied to each part, the same action and effect can be obtained.
추가적인 장점 및 변형은 당업자에게 용이하게 발생할 수 있다. 그러므로 본 발명은 넓은 양상에서 본 명세서에 도시 및 기술한 대표적 실시예들 및 상세한 설명으로 제한되는 것은 아니다. 따라서, 첨부된 청구범위 및 그 균등물에 의해 정의되는 포괄적인 발명의 개념의 사상 및 범위에서 벗어나지 않으면서 다양한 변형이 이루어질 수 있다.Additional advantages and modifications can readily occur to those skilled in the art. Therefore, the invention is not to be limited in scope and to the exemplary embodiments and details shown and described herein. Accordingly, various modifications may be made without departing from the spirit and scope of the inventive concept as defined by the appended claims and their equivalents.
도 1은 제1 실시예에 따라 서브 정보를 임베드하는 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 구성을 도시하는 개략 블록도.1 is a schematic block diagram showing the configuration of an image processing system to which an image processing apparatus and an image processing method for embedding sub information according to the first embodiment are applied;
도 2는 제1 실시예에 따라 서브 정보를 임베드하는 화상 처리 시스템의 전체 처리 동작을 설명하는 플로차트.Fig. 2 is a flowchart for explaining the overall processing operation of the image processing system for embedding sub information according to the first embodiment.
도 3은 화상 프로세서의 주요 부분의 구성을 도시하는 개략 블록도.3 is a schematic block diagram showing a configuration of main parts of an image processor;
도 4는 색차 그리드 패턴의 한 예를 도시하는 도면.4 is a diagram illustrating an example of a color difference grid pattern.
도 5는 색차 그리드 패턴의 화소 어레이를 설명하는 도면.5 is a diagram illustrating a pixel array of a chrominance grid pattern.
도 6은 서브 정보를 설명하는 도면.6 is a diagram for explaining sub information.
도 7의 (a) 내지 (d)는 개별적인 색 회전 처리, 중첩(임베딩) 처리 및 개별적인 색 역회전 처리를 도시하는 도면.7A to 7D are views showing individual color rotation processing, superposition (embedding) processing, and individual color reverse rotation processing.
도 8의 (a) 내지 (d)는 서브 정보를 각각의 색 성분 정보에 중첩하는 다른 처리를 설명하는 도면.8A to 8D are diagrams illustrating another process of superimposing sub information on respective color component information.
도 9는 생성된 기록물의 실제적인 예를 도시하는 도면.Fig. 9 is a diagram showing a practical example of the generated record.
도 10은 제1 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 장치 및 화상 처리 방법이 적용되는 화상 처리 시스템의 구성을 도시하는 개략 블록도.Fig. 10 is a schematic block diagram showing a configuration of an image processing system to which an image processing apparatus and an image processing method for reproducing sub information from a recorded material according to the first embodiment are applied.
도 11은 제1 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 동작을 설명하는 플로차트.Fig. 11 is a flowchart for explaining the overall operation of the image processing system for reproducing sub information from a recording according to the first embodiment.
도 12는 제1 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작의 다른 예를 설명하는 플로차트.Fig. 12 is a flowchart for explaining another example of the entire processing operation of the image processing system for reproducing sub information from the recording according to the first embodiment.
도 13은 생성된 인쇄물의 얼굴 화상을 스캐닝하여 얻은 화상 정보의 주파수 신호를 도시하는 도면.Fig. 13 is a diagram showing a frequency signal of image information obtained by scanning a face image of a generated printed matter.
도 14는 제2 실시예에 따라 서브 정보를 임베드하는 화상 처리 시스템의 전체 처리 동작을 설명하는 플로차트.Fig. 14 is a flowchart for explaining the overall processing operation of the image processing system for embedding sub information according to the second embodiment.
도 15a 및 15b는 제2 실시예에 따른 스크린 각도를 설명하는 도면.15A and 15B illustrate a screen angle according to a second embodiment.
도 16은 제2 실시예에 따른 스크린을 형성하는 데 이용되는 임계 매트릭스의 설명도.Fig. 16 is an explanatory diagram of a critical matrix used to form the screen according to the second embodiment.
도 17은 제2 실시예에 따른 스크린을 형성하는 데 이용되는 임계 매트릭스의 설명도.17 is an explanatory diagram of a critical matrix used to form the screen according to the second embodiment.
도 18은 제2 실시예에 따른 스크린을 형성하는 데에 이용되는 임계값 매트릭스의 설명도.18 is an explanatory diagram of a threshold matrix used to form a screen according to the second embodiment.
도 19는 제2 실시예에 따른 화상의 화소 어레이의 한 예를 도시하는 도면.19 is a diagram showing an example of a pixel array of an image according to the second embodiment.
도 20은 제2 실시예에 따른 개별적인 색 할당 처리에 의해서 할당되는 화소 어레이의 한 예를 도시하는 도면.20 is a diagram showing an example of a pixel array allocated by individual color assignment processing according to the second embodiment.
도 21은 제2 실시예에 따른 색차 그리드 패턴의 한 예를 도시하는 도면.21 is a diagram showing an example of a color difference grid pattern according to the second embodiment.
도 22는 제2 실시예에 따른 서브 정보의 임베딩 후 화상의 화소 어레이의 한 예를 도시하는 도면.Fig. 22 is a diagram showing an example of a pixel array of an image after embedding of sub information according to the second embodiment.
도 23은 제2 실시예에 따른 화소 어레이의 한 예를 도시하는 도면.23 is a diagram showing an example of a pixel array according to the second embodiment.
도 24는 제2 실시예에 따른 개별적인 색 할당 처리에 의해서 할당되는 화소 어레이의 한 예를 도시하는 도면.FIG. 24 is a diagram showing an example of a pixel array allocated by individual color assignment processing according to the second embodiment. FIG.
도 25는 제2 실시예에 따른 색차 그리드 패턴의 한 예를 도시하는 도면.25 is a diagram showing an example of a color difference grid pattern according to the second embodiment.
도 26은 제2 실시예에 따른 서브 정보의 임베딩 후 화소 어레이의 한 예를 도시하는 도면.Fig. 26 is a diagram showing an example of a pixel array after embedding of sub information according to the second embodiment.
도 27은 제2 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 동작을 설명하는 플로차트.Fig. 27 is a flowchart for explaining the overall operation of the image processing system for reproducing sub information from a recording according to the second embodiment.
도 28은 제2 실시예에 따라 기록물로부터 서브 정보를 재생하는 화상 처리 시스템의 전체 처리 동작의 다른 예를 도시하는 플로차트.FIG. 28 is a flowchart showing another example of the entire processing operation of the image processing system for reproducing sub information from a recording according to the second embodiment;
도 29는 전자사진기술법에 의해서 기록물에 형성된 색 화상의 한 예를 도시하는 도면.Fig. 29 is a diagram showing an example of a color image formed in a green leaf by the electrophotographic method.
도 30은 도 29의 색 화상의 일부를 도시하는 확대도.FIG. 30 is an enlarged view showing a part of the color image of FIG. 29; FIG.
도 31은 도 30의 각각의 분리된 색 성분 정보를 도시하는 도면.FIG. 31 is a diagram showing respective separated color component information of FIG. 30; FIG.
도 32는 도 29의 색 화상의 일부를 도시하는 확대도.FIG. 32 is an enlarged view showing a part of the color image of FIG. 29; FIG.
도 33은 도 32의 각각의 분리된 색 성분 정보를 도시하는 도면.FIG. 33 is a diagram showing respective separated color component information of FIG. 32; FIG.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
11: 화상 입력 장치11: Image input value
12: 프린터12: printer
13: 컴퓨터13: computer
16: 화상 프로세서16: picture processor
Claims (21)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007169416 | 2007-06-27 | ||
JPJP-P-2007-00169416 | 2007-06-27 | ||
JP2007249752A JP5002392B2 (en) | 2007-06-27 | 2007-09-26 | Image processing apparatus and image processing method |
JPJP-P-2007-00249752 | 2007-09-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080114620A KR20080114620A (en) | 2008-12-31 |
KR100960486B1 true KR100960486B1 (en) | 2010-06-01 |
Family
ID=39627754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080061073A KR100960486B1 (en) | 2007-06-27 | 2008-06-26 | Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material |
Country Status (3)
Country | Link |
---|---|
US (1) | US8314970B2 (en) |
EP (1) | EP2009897B1 (en) |
KR (1) | KR100960486B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088614A (en) * | 2007-09-27 | 2009-04-23 | Toshiba Corp | Image processing method and image processing apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004328217A (en) | 2003-04-23 | 2004-11-18 | Toshiba Corp | Image processing method and image recording apparatus |
JP2007282200A (en) | 2006-03-16 | 2007-10-25 | Ricoh Co Ltd | Information embedding apparatus, information embedding method, information embedding program, information extracting apparatus, information extracting method, information extracting program, and recording medium |
JP2007329892A (en) | 2006-05-12 | 2007-12-20 | Canon Inc | Information processing apparatus, image processing apparatus, and server device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6763122B1 (en) | 1999-11-05 | 2004-07-13 | Tony Rodriguez | Watermarking an image in color plane separations and detecting such watermarks |
JP3547892B2 (en) | 1996-03-14 | 2004-07-28 | 株式会社東芝 | Image recording apparatus and image recording method |
US6384935B1 (en) * | 1997-02-28 | 2002-05-07 | Canon Kabushiki Kaisha | Image process apparatus, image process method and storage medium |
JPH1127531A (en) | 1997-07-04 | 1999-01-29 | Canon Inc | Image processor, method and storage medium |
US6104812A (en) * | 1998-01-12 | 2000-08-15 | Juratrade, Limited | Anti-counterfeiting method and apparatus using digital screening |
JP4495824B2 (en) | 2000-03-21 | 2010-07-07 | 株式会社東芝 | Information processing method |
JP4227048B2 (en) * | 2003-04-25 | 2009-02-18 | 株式会社東芝 | Image processing system |
-
2008
- 2008-06-23 EP EP08158786.7A patent/EP2009897B1/en not_active Expired - Fee Related
- 2008-06-26 KR KR1020080061073A patent/KR100960486B1/en active IP Right Grant
- 2008-06-27 US US12/163,041 patent/US8314970B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004328217A (en) | 2003-04-23 | 2004-11-18 | Toshiba Corp | Image processing method and image recording apparatus |
JP2007282200A (en) | 2006-03-16 | 2007-10-25 | Ricoh Co Ltd | Information embedding apparatus, information embedding method, information embedding program, information extracting apparatus, information extracting method, information extracting program, and recording medium |
JP2007329892A (en) | 2006-05-12 | 2007-12-20 | Canon Inc | Information processing apparatus, image processing apparatus, and server device |
Also Published As
Publication number | Publication date |
---|---|
EP2009897A1 (en) | 2008-12-31 |
EP2009897B1 (en) | 2014-12-24 |
US20090002736A1 (en) | 2009-01-01 |
US8314970B2 (en) | 2012-11-20 |
KR20080114620A (en) | 2008-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0642060B1 (en) | Apparatus for steganographic embedding of information into colour images | |
JP3599795B2 (en) | Image processing device | |
US7489800B2 (en) | Image processing method | |
CA2470980C (en) | Embedding information in images using two-layer conjugate screening | |
US6239818B1 (en) | Printing method and apparatus | |
KR101023616B1 (en) | Image processing method and image processing apparatus | |
JP4550749B2 (en) | Image processing method and image processing apparatus | |
KR100662597B1 (en) | Image process method, image print method, image print device, and printed matter | |
KR100960486B1 (en) | Image processing apparatus, image processing method, image forming apparatus, image forming method, and recorded material | |
JPH11355554A (en) | Picture information processing method and forgery preventing method of certificate and the like | |
JP4829164B2 (en) | Image processing apparatus and image processing method | |
JP5002392B2 (en) | Image processing apparatus and image processing method | |
JP2005159438A (en) | Image processing method | |
JP4630765B2 (en) | Image processing method and image processing apparatus | |
JP3247446B2 (en) | Image processing apparatus and image processing method | |
JP3765421B2 (en) | Image conversion apparatus and method, pattern reading apparatus and method, and program | |
JP2009065364A (en) | Image processing method, image processing apparatus and recorded matter | |
JP5104401B2 (en) | Image processing apparatus, image processing method, and image forming apparatus | |
JP2009033443A (en) | Image processor, and image processing method | |
JP2010011446A (en) | Image processing apparatus | |
Nemoto et al. | Digital Watermark for Printing Images-Application to Thermal Transfer Printing Method | |
CA2545472A1 (en) | Image processing method | |
JPH11284867A (en) | Image processing unit | |
JP2005012438A (en) | Apparatus and method for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130502 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140421 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150417 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170420 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20180417 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20190417 Year of fee payment: 10 |