JP2011109223A - Image conversion method, image conversion apparatus, image conversion system and image conversion program - Google Patents
Image conversion method, image conversion apparatus, image conversion system and image conversion program Download PDFInfo
- Publication number
- JP2011109223A JP2011109223A JP2009259722A JP2009259722A JP2011109223A JP 2011109223 A JP2011109223 A JP 2011109223A JP 2009259722 A JP2009259722 A JP 2009259722A JP 2009259722 A JP2009259722 A JP 2009259722A JP 2011109223 A JP2011109223 A JP 2011109223A
- Authority
- JP
- Japan
- Prior art keywords
- image
- texture
- hatching
- image conversion
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像変換方法、画像変換装置、画像変換システム及び画像変換プログラムに関するものである。 The present invention relates to an image conversion method, an image conversion apparatus, an image conversion system, and an image conversion program.
従来より、健常者には識別できるカラー画像が、同じように識別できない色覚異常者に対し、画像の色の情報を他の方法で認識することができるように、種々の提案がなされている。 Conventionally, various proposals have been made so that a color image that can be identified by a healthy person can be recognized by other methods for color blind persons who cannot be identified in the same way.
このような提案として、カラー画像から有彩色の塗りつぶし領域を抽出し、この塗りつぶし領域に、塗りつぶし領域の色(色相)に対応して異なる角度で複数の平行な直線を付加し、塗りつぶし領域の明度に対応して複数の平行な直線を異なる間隔とし、塗りつぶし領域の彩度に対応して複数の平行な直線の矢印の間隔(長さ)が異なるように付加することによってで、塗りつぶし領域の色を表現したハッチングを付加する画像処理装置が知られている(例えば、特許文献1参照)。 As a proposal like this, a chromatic color fill area is extracted from a color image, and multiple parallel straight lines are added to the fill area at different angles corresponding to the color (hue) of the fill area. The color of the filled area is determined by adding multiple parallel straight lines with different intervals corresponding to, and adding different parallel line arrows (lengths) corresponding to the saturation of the filled area. There is known an image processing apparatus that adds hatching that expresses (see Patent Document 1, for example).
上記のような提案がなされる一方で、色覚異常者に認識できるように色の情報をテクスチャ等に置き換えて作製された画像から、元の画像を復元したいという要望もある。 While the above proposal has been made, there is also a desire to restore the original image from an image created by replacing color information with a texture or the like so as to be recognized by a color blind person.
しかしながら、上記特許文献1には、ハッチングの角度と間隔、矢印の間隔で、色相、明度、彩度を表現しているが、塗りつぶし領域が滑らかに連続的に変化するグラデーションを有する場合の対応がなく、ハッチングや矢印が付加された領域を、元の画像に復元した際に、元の画像を正確に再現できなくなる問題がある。 However, the above-mentioned Patent Document 1 expresses hue, brightness, and saturation with hatching angles and intervals, and arrow intervals, but there is a response to the case where the filled region has a gradation that changes smoothly and continuously. In addition, there is a problem that when an area with hatching or an arrow is restored to the original image, the original image cannot be accurately reproduced.
本発明は上記問題に鑑み、色の情報を含ませたテクスチャを付加して作製された画像が、塗りつぶし領域において滑らかに連続的に変化するグラデーションを有する場合でも、正確に復元できる画像変換方法、画像変換装置、画像変換システム及び画像変換プログラムを提供することを目的とするものである。 In view of the above problems, the present invention provides an image conversion method capable of accurately restoring an image created by adding a texture including color information, even when the image has a gradation that changes smoothly and continuously in a filled area, An object of the present invention is to provide an image conversion apparatus, an image conversion system, and an image conversion program.
上記の目的は、下記の構成により達成される。 The above object is achieved by the following configuration.
(1)色情報がテクスチャに変換され、前記テクスチャが重畳された画像から、前記テクスチャを低減する画像変換方法であって、前記テクスチャが重畳された領域と、該領域の前記テクスチャを検出する工程と、前記テクスチャの強度変調成分を抽出する工程と、前記テクスチャが重畳された領域の画像から、前記テクスチャの強度変調成分を低減する工程と、を有することを特徴とする画像変換方法。 (1) An image conversion method for reducing the texture from an image in which color information is converted into a texture and the texture is superimposed, and a step of detecting the texture superimposed region and the texture in the region And a step of extracting an intensity modulation component of the texture, and a step of reducing the intensity modulation component of the texture from an image of a region where the texture is superimposed.
(2)前記テクスチャがハッチングであって、前記色情報は前記ハッチングの傾き角度に変換されたものであり、前記ハッチングの傾き角度を求める工程と、前記ハッチングの傾き角度に基づいて元の画像の色情報を取得する工程と、を有することを特徴とする前記(1)に記載の画像変換方法。 (2) The texture is hatched, and the color information is converted into the hatching tilt angle, and a step of obtaining the hatching tilt angle and the original image based on the hatching tilt angle are obtained. Obtaining the color information. The image conversion method according to (1), further comprising:
(3)前記ハッチングは、傾き角度の範囲が異なる2種類であり、該2種類のハッチングは所定の周波数比を有するものであることを特徴とする前記(2)に記載の画像変換方法。 (3) The image conversion method according to (2), wherein the hatching includes two types having different inclination angle ranges, and the two types of hatching have a predetermined frequency ratio.
(4)前記(1)から前記(3)までのいずれかに記載の画像変換方法を用いる画像変換部を備え、色情報がテクスチャに変換され、前記テクスチャが重畳された画像から、前記画像変換部を用いて前記テクスチャを低減することを特徴とする画像変換装置。 (4) An image conversion unit that uses the image conversion method according to any one of (1) to (3), wherein color information is converted into a texture, and the image conversion is performed from an image on which the texture is superimposed. An image conversion apparatus that reduces the texture using a unit.
(5)前記(4)に記載の画像変換装置と、該画像変換装置で変換された画像の出力を行う画像出力部を有することを特徴とする画像変換システム。 (5) An image conversion system comprising: the image conversion apparatus according to (4); and an image output unit that outputs an image converted by the image conversion apparatus.
(6)色情報がテクスチャに変換され、前記テクスチャが重畳させられた画像から、前記テクスチャを低減する画像変換プログラムであって、前記テクスチャが重畳させられた領域を抽出するテクスチャ重畳領域抽出部と、前記テクスチャが重畳領域抽出部で抽出された領域の画像から、前記テクスチャを抽出するテクスチャ抽出部と、前記テクスチャの強度変調成分を抽出するテクスチャ強度変調成分抽出部と、前記テクスチャ重畳領域抽出部で抽出された領域の画像から、前記テクスチャ強度変調成分抽出部で抽出されたテクスチャの強度変調成分を低減する強度変調成分低減部、としてコンピュータを機能させることを特徴とする画像変換プログラム。 (6) An image conversion program that reduces the texture from an image in which color information is converted into a texture and the texture is superimposed, and a texture superimposed region extraction unit that extracts a region on which the texture is superimposed; The texture extraction unit that extracts the texture from the image of the region in which the texture is extracted by the overlap region extraction unit, the texture intensity modulation component extraction unit that extracts the intensity modulation component of the texture, and the texture overlap region extraction unit An image conversion program that causes a computer to function as an intensity modulation component reduction unit that reduces an intensity modulation component of a texture extracted by the texture intensity modulation component extraction unit from an image of a region extracted in (1).
(7)前記テクスチャがハッチングであり、前記色情報は前記ハッチングの傾き角度に変換されたものであり、前記ハッチングの傾き角度を求めるテクスチャ角度取得部と、前記ハッチングの傾き角度に基づいて元の画像の色情報を取得する色情報取得部と、を有することを特徴とする前記(6)に記載の画像変換プログラム。 (7) The texture is hatched, and the color information is converted into the hatching tilt angle, and a texture angle obtaining unit for obtaining the hatching tilt angle and an original based on the hatching tilt angle The image conversion program according to (6), further comprising: a color information acquisition unit that acquires color information of an image.
本発明によれば、色の情報を含ませたテクスチャを付加して作製された画像が、塗りつぶし領域において滑らかに連続的に変化するグラデーションを有する場合でも、正確に復元できる画像変換方法、画像変換装置、画像変換システム及び画像変換プログラムを提供することが可能となる。 According to the present invention, even when an image created by adding a texture including color information has a gradation that changes smoothly and continuously in a filled area, an image conversion method and image conversion that can be accurately restored An apparatus, an image conversion system, and an image conversion program can be provided.
以下、実施の形態により本発明を詳しく説明するが、本発明はこれに限定されるものではない。 Hereinafter, the present invention will be described in detail with reference to embodiments, but the present invention is not limited thereto.
まず、本実施の形態に係る画像変換方法、画像変換装置及び画像変換プログラムの変換対象である、色の情報を含ませたテクスチャを付加して作製された画像について説明する。なお、テクスチャとは画像に重畳する模様を指しており、以下の実施の形態においては、テクスチャとして、斜線で形成されたハッチングを用いたもので説明する。 First, an image created by adding a texture including color information, which is a conversion target of the image conversion method, the image conversion apparatus, and the image conversion program according to the present embodiment will be described. Note that the texture refers to a pattern to be superimposed on the image, and in the following embodiments, the description will be made by using hatched hatching as the texture.
図1は、色の情報を含ませたテクスチャを付加して作製された画像の一例を示す模式図である。図1(a)はシート全面を示し、図1(b)はシートにプリントされた画像の部分を拡大したものである。 FIG. 1 is a schematic diagram illustrating an example of an image created by adding a texture including color information. FIG. 1A shows the entire surface of the sheet, and FIG. 1B is an enlarged view of an image printed on the sheet.
このシートは、画像の塗りつぶし領域の色の情報を、色とは異なる他の方法で認識することができるように作製されたものである。 This sheet is prepared so that the color information of the filled area of the image can be recognized by another method different from the color.
図1(a)に示すシート10には、画像部1、表部2、文字部3がプリントされている。また、図1(b)の画像部1の拡大図に示すように、例えば、画像部1は、色の情報を含ませたテクスチャを付加する前の元画像から存在するハッチングに類似した模様を有する領域14、15、16と、色の情報を含ませたテクスチャであるハッチングが重畳された領域11、12、13(以下、ハッチング重畳部と称す)を含んでプリントされている。このハッチング重畳部11、12、13は、塗りつぶし領域の色度に対応させてハッチングの直線の方向(傾き角度)を規定し、重畳させたものである。 On the sheet 10 shown in FIG. 1A, an image portion 1, a front portion 2, and a character portion 3 are printed. Further, as shown in the enlarged view of the image portion 1 in FIG. 1B, for example, the image portion 1 has a pattern similar to the hatching existing from the original image before adding the texture including the color information. It is printed including the areas 14, 15, and 16 that are included, and areas 11, 12, and 13 (hereinafter referred to as hatched overlapping portions) in which hatching that is a texture including color information is superimposed. The hatching superimposing units 11, 12, and 13 define and superimpose a hatching straight line direction (inclination angle) corresponding to the chromaticity of the filled region.
このような、塗りつぶし領域の色度に対応させてハッチングの傾き角度を規定し、重畳させた画像が変換対象である。 The hatched inclination angle is defined in correspondence with the chromaticity of the filled area, and the superimposed image is the conversion target.
なお、色度に対応させてハッチングの直線の方向(傾き角度)を規定し、重畳させるものとしては、例えば、本出願人による国際公開第2009/020115号に記載のものを使用することができる。なお、本実施の形態においては、以下のようにしてハッチングの傾き角度を規定したもので説明する。 In addition, as what defines and superimposes the direction (inclination angle) of the straight line of hatching corresponding to chromaticity, for example, the one described in International Publication No. 2009/0201115 by the present applicant can be used. . In the present embodiment, the description will be made assuming that the inclination angle of hatching is defined as follows.
図2は、色度に対応させたハッチングの直線の方向(傾き角度)の規定の一例を示す図である。 FIG. 2 is a diagram illustrating an example of the definition of the direction (tilt angle) of the hatching straight line corresponding to the chromaticity.
図2は、u′v′色度図であり、このu′v′色度図上において、例えば人が感じることのできる色の領域Cを、破線A1と間隔Sだけ離れた平行な破線A2及び、実線B1と間隔Mだけ離れた平行な実線B2で囲むように設定した場合を示している。なお、本例では、人が感じることのできる色の領域Cの全てを包括するように囲んだ例を示しているが、これに限るものでなく、特定の領域を包括するように囲んで設定されたものであってもよい。 Figure 2 is 'a chromaticity diagram, the u'v'u'v in chromaticity diagram, for example, the color region C of which may be human feel, parallel dashed lines separated by a dashed line A 1 and the distance S A case is shown in which it is set so as to be surrounded by A 2 and a solid line B 2 which is separated from the solid line B 1 by a distance M. In this example, an example is shown in which all the color areas C that can be perceived by humans are included. However, the present invention is not limited to this and is set so as to include a specific area. It may be what was done.
更に、例えば破線A1の線上を+30度、破線A2の線上を−30度の傾き角度に対応させ、破線A1とA2の間隔Sを+30度〜−30度の範囲で等分割(例えば、傾き角度0度の場合は破線A1とA2の中線)し、実線B1の線上を+45度、実線B2の線上を+135度の傾き角度に対応させ、実線B1とB2の間隔Mを+45度〜+135度の範囲で等分割(例えば、傾き角度90度の場合は実線B1とB2の中線)するように規定されているとする。このとき、領域C内の点Nにおける色度に対応させるハッチングの傾き角度は以下のように決定される。なお、傾き角度0度の方向は、XY座標の場合のX軸正方向に相当する。 Furthermore, for example, a line of dashed A 1 +30 degrees, a line of dashed A 2 to correspond to the inclination angle of -30 degrees, equally divided in the range of the spacing S of the broken line A 1 and A 2 +30 degrees to -30 degrees ( For example, when the tilt angle is 0 degree, the middle line of the broken lines A 1 and A 2 is made to correspond to the tilt angle of +45 degrees on the solid line B 1 and +135 degrees on the solid line B 2 , and the solid lines B 1 and B equally dividing 2 intervals M in the range of +45 degrees to +135 degrees (e.g., in the case of the inclination angle 90 degrees solid line B 1 and B 2 midline) and is defined to. At this time, the hatching inclination angle corresponding to the chromaticity at the point N in the region C is determined as follows. Note that the direction with an inclination angle of 0 degrees corresponds to the positive X-axis direction in the case of XY coordinates.
まず、点Nを通る破線A1に平行な直線Anと、点Nを通る実線B1に平行な直線Bnを考え、直線Anの破線A1からの間隔Snと、直線Bnの実線B1からの間隔Mnを用い、以下のように傾き角度を決める。 First, a straight An parallel to dashed line A 1 passing through the point N, consider a linear Bn parallel to the solid line B 1 passing through the point N, the distance S n from the broken line A 1 of the straight line An, the solid straight line Bn B 1 Is used to determine the tilt angle as follows.
第1のハッチングの傾き角度=30−(Sn/S)×60 (度)
第2のハッチングの傾き角度=45+(Mn/M)×90 (度)
すなわち、点Nにおける色度を2種のハッチングの傾き角度に変換する。更に、第2のハッチングの周波数を第1のハッチングの周波数の2倍とする。
Inclination angle of first hatch = 30− (S n / S) × 60 (degrees)
Second hatch inclination angle = 45 + (M n / M) × 90 (degrees)
That is, the chromaticity at the point N is converted into two types of hatching inclination angles. Further, the frequency of the second hatching is set to twice the frequency of the first hatching.
このようにして決められた2種のハッチングを点Nにおける色度を表すものとして、点Nにおける色度で塗りつぶされた塗りつぶし領域に重畳する。以下においては、上記第1のハッチングをサブハッチング、上記第2のハッチングをメインハッチングと称す。 The two types of hatching determined in this way are represented as chromaticity at the point N and are superimposed on the filled area filled with the chromaticity at the point N. Hereinafter, the first hatching is referred to as sub-hatching, and the second hatching is referred to as main hatching.
なお、メインハッチングとサブハッチングの周波数比及びそれぞれの直線の傾き角度の範囲は、これに限るものでなく、周波数比は予め決められた値であればよいし、傾き角度の範囲は、メインハッチングとサブハッチングで重複しないよう予め決められた範囲であればよい。 The frequency ratio of the main hatching and the sub hatching and the range of the inclination angle of each straight line are not limited to this, and the frequency ratio may be a predetermined value, and the range of the inclination angle is the main hatching. And a range determined in advance so as not to overlap in the sub-hatching.
さらに、このメインハッチングとサブハッチングは、以下の図3に示す例のように、塗りつぶし領域の明度や彩度或いはその他の変化に対し、予め決められた所定の強度変調成分を有して重畳される。 Further, the main hatching and the sub-hatching are superimposed with a predetermined intensity modulation component determined in advance with respect to the brightness, saturation, or other changes in the filled area, as in the example shown in FIG. 3 below. The
図3は、ハッチングを重畳する際の、ハッチングの強度変調の例を示す図である。図3(a)は塗りつぶし領域の明度変化例を示し、図3(b)は図3(a)に示す塗りつぶし領域に所定の振幅の矩形波による強度変調成分を有するハッチングが重畳された場合を示し、図3(c)は図3(a)に示す塗りつぶし領域に所定の振幅の正弦波による強度変調成分を有するハッチングが重畳された場合を示している。なお、図3ではメインハッチングとサブハッチングのうちの一方のハッチングについてのみ図示している。 FIG. 3 is a diagram illustrating an example of intensity modulation of hatching when hatching is superimposed. FIG. 3 (a) shows an example of brightness change in the filled area, and FIG. 3 (b) shows a case where hatching having an intensity modulation component by a rectangular wave with a predetermined amplitude is superimposed on the filled area shown in FIG. 3 (a). FIG. 3C shows a case where hatching having an intensity modulation component by a sine wave having a predetermined amplitude is superimposed on the filled region shown in FIG. In FIG. 3, only one of the main hatching and the sub hatching is illustrated.
図3(a)は、縦軸を塗りつぶし領域の明度とし、塗りつぶし領域の明度変化状態を示している。本例は、塗りつぶし領域の明度が、図示Gの範囲において図示NHで示す高明度から連続的に変化して図示NLで示す低明度となっている例である。 FIG. 3A shows the brightness change state of the filled area, with the vertical axis being the brightness of the filled area. This example is an example in which the lightness of the painted area continuously changes from the high lightness indicated by NH in the figure G to the low lightness indicated by NL in the figure.
図3(b)は、この図3(a)に示す明度変化を有する塗りつぶし領域に、ピッチ(周期)P、振幅aの矩形波による強度変調成分を有するハッチングを重畳した場合の明度変化状態を示し、図3(c)は、ピッチ(周期)P、振幅aの正弦波による強度変調成分を有するハッチングを重畳した場合の明度変化状態を示している。すなわち、テクスチャであるハッチングは、塗りつぶし領域が連続的な変化を有している際にも、変化に沿って予め決められた強度変調を有するように重畳されている。 FIG. 3B shows a lightness change state when hatching having an intensity modulation component by a rectangular wave having a pitch (period) P and an amplitude a is superimposed on the filled region having the lightness change shown in FIG. FIG. 3C shows a brightness change state when hatching having an intensity modulation component by a sine wave of pitch (period) P and amplitude a is superimposed. That is, the hatching that is a texture is superimposed so as to have a predetermined intensity modulation along the change even when the filled region has a continuous change.
なお、図3では、明度変化を例に取り説明したが、彩度その他の変化に適用してもよい。 In FIG. 3, the change in brightness has been described as an example, but the present invention may be applied to a change in saturation and the like.
図1(b)に例示したハッチング重畳部11、12、13は、矩形波による強度変調成分を有するハッチングが重畳された場合を示しているが、正弦波による強度変調成分を有するハッチングで重畳されていてもよい。また、例えばメインハッチングとサブハッチングのうち一方を矩形波とし、他方を正弦波とするような、異なる強度変調成分を付与してもよい。 The hatching superimposing units 11, 12, and 13 illustrated in FIG. 1B show a case where hatching having an intensity modulation component by a rectangular wave is superimposed, but is superimposed by hatching having an intensity modulation component by a sine wave. It may be. Further, for example, different intensity modulation components may be applied such that one of the main hatching and the sub hatching is a rectangular wave and the other is a sine wave.
更に、この重畳されたハッチングを削除する際に、より明確となるよう、重畳されたハッチングの強度変調成分についての情報をマークや透かしとして画像に埋め込んでおくこともできる。同様に、ハッチングの傾き角度から逆に色度を求める際に、より明確となるよう、上記の色度図上での破線A1とA2、実線B1とB2の設定情報をマークや透かしとして画像に埋め込んでおくこともできる。 Further, when deleting the superimposed hatching, information about the intensity modulation component of the superimposed hatching can be embedded in the image as a mark or a watermark so as to be clearer. Similarly, the setting information for the broken lines A 1 and A 2 and the solid lines B 1 and B 2 on the above chromaticity diagram is marked or It can also be embedded in the image as a watermark.
図4は、本実施の形態に係る画像変換システム100の主要機能部を示すブロック図である。なお、既知の電源スイッチ、電源回路等の各部は省略してある。 FIG. 4 is a block diagram showing main functional units of the image conversion system 100 according to the present embodiment. In addition, each part, such as a known power switch and a power supply circuit, is abbreviate | omitted.
図4に示すように、本実施の形態に係る画像変換システム100は、入力画像データ生成部20、画像変換部30、画像出力部40に大別される。これら、入力画像データ生成部20、画像変換部30、画像出力部40は、制御部31により動作制御されるよう構成されている。また制御部31には、記憶部32、操作部33が接続されている。 As shown in FIG. 4, the image conversion system 100 according to the present embodiment is roughly divided into an input image data generation unit 20, an image conversion unit 30, and an image output unit 40. The input image data generation unit 20, the image conversion unit 30, and the image output unit 40 are configured to be controlled by a control unit 31. A storage unit 32 and an operation unit 33 are connected to the control unit 31.
入力画像データ生成部20は、変換対象である色情報を含ませたテクスチャが付加された画像の入力部であり、例えば図1に示すシートの画像を読み取って、画像データとするスキャナ等で構成される。変換対象である画像データは、画像変換部30に送出される。なお、入力画像がすでにデータ化されている場合には、入力端子から直接的に入力するよう構成してもよい。 The input image data generation unit 20 is an image input unit to which a texture including color information to be converted is added. The input image data generation unit 20 is configured by, for example, a scanner that reads an image of a sheet shown in FIG. Is done. The image data to be converted is sent to the image conversion unit 30. If the input image has already been converted into data, it may be configured to input directly from the input terminal.
画像変換部30では、入力画像データ生成部20で生成された画像データから、画像部1(図1参照)を抽出し、抽出した画像部1の領域内で、テクスチャであるハッチングが重畳された領域(ハッチング重畳部)を抽出すると共にハッチングの角度を検出する。 The image conversion unit 30 extracts the image unit 1 (see FIG. 1) from the image data generated by the input image data generation unit 20, and the texture hatching is superimposed in the extracted region of the image unit 1. A region (hatched superimposing portion) is extracted and a hatching angle is detected.
更に、ハッチングの強度変調成分を抽出し、ハッチング重畳部からハッチングの強度変調成分を低減する機能を有している。 Further, it has a function of extracting hatching intensity modulation components and reducing the hatching intensity modulation components from the hatching superimposing unit.
また、画像変換部30は、テクスチャであるハッチングの傾き角度の基準となる方向を検出し、重畳された各ハッチングの、基準となる方向とのなす角度を求め、このハッチングの、基準となる方向とのなす角度から、元の色情報を得て、ハッチング重畳部の領域を、得られた色に変換し、元のカラー画像を復元する機能も有している。 In addition, the image conversion unit 30 detects a direction serving as a reference for the inclination angle of the hatching that is a texture, obtains an angle between each superimposed hatching and the reference direction, and uses this hatching as a reference direction The original color information is obtained from the angle formed by the above, and the hatched overlapped area is converted into the obtained color to restore the original color image.
画像出力部40は、LCD、有機EL等の表示装置、電子写真方式やインクジェット方式等のプリンタ、光ディスクに画像データを記録する光ピックアップ装置等で構成され、画像変換部30で処理されたハッチングの強度変調成分が低減されたモノクロ画像や、ハッチングの強度変調成分が低減されると共に元の色が復元されたカラー画像を出力するものである。 The image output unit 40 includes a display device such as an LCD or an organic EL, a printer such as an electrophotographic method or an ink jet method, an optical pickup device that records image data on an optical disk, and the like. A monochrome image in which the intensity modulation component is reduced or a color image in which the intensity modulation component of hatching is reduced and the original color is restored is output.
記憶部32は、制御部31の制御に基づき、入力画像データ生成部20で生成された画像データや、画像変換部30で処理された、ハッチングの強度変調成分が低減されたモノクロ画像データや、ハッチングの強度変調成分が低減され復元された元のカラー画像データを記憶する。 Based on the control of the control unit 31, the storage unit 32 generates image data generated by the input image data generation unit 20, monochrome image data processed by the image conversion unit 30 with reduced hatching intensity modulation components, The original color image data restored by reducing the intensity modulation component of hatching is stored.
制御部31は、不図示のROMから動作プログラムを読み出し、不図示の作業領域としてのRAMに展開し、入力画像データ生成部20、画像変換部30、画像出力部40、記憶部32を統括的に制御する。 The control unit 31 reads an operation program from a ROM (not shown), develops it in a RAM as a work area (not shown), and controls the input image data generation unit 20, the image conversion unit 30, the image output unit 40, and the storage unit 32. To control.
なお、本願においては、少なくとも上記の画像変換部30を有する部分を画像変換装置と称し、入力画像データ生成部20又は画像出力部40の少なくとも一方が接続されている場合を画像変換システムと称している。 In the present application, at least a portion having the image conversion unit 30 is referred to as an image conversion device, and a case where at least one of the input image data generation unit 20 or the image output unit 40 is connected is referred to as an image conversion system. Yes.
本実施の形態に係る画像変換装置又は画像変換システムは、単体で存在していてもよいし、既存の画像処理装置や画像表示装置やプリンタ等に内蔵されていてもよい。また、他の機器に内蔵される場合には、他の機器の画像処理部や制御部と兼用で構成されていてもよい。 The image conversion apparatus or image conversion system according to the present embodiment may exist alone or may be incorporated in an existing image processing apparatus, image display apparatus, printer, or the like. Further, when incorporated in another device, the image processing unit and the control unit of the other device may be combined.
図5は、本実施の形態に係る画像変換システム100の動作概略を示すフローチャートである。図5に示すフローチャートは、重畳されたテクスチャであるハッチングの強度変調成分を低減する場合のフローチャートである。以下、フローに従い説明する。 FIG. 5 is a flowchart showing an outline of the operation of the image conversion system 100 according to the present embodiment. The flowchart shown in FIG. 5 is a flowchart in the case of reducing hatching intensity modulation components, which are superimposed textures. Hereinafter, it demonstrates according to a flow.
まず、入力したい画像がプリントされたシートの画像を読み込ませる(ステップS101)。 First, a sheet image on which an image to be input is printed is read (step S101).
この入力画像の読み込みは、入力画像データ生成部20により行われる。なお、入力する画像がすでにデータ化されている場合には、入力画像データ生成部20又は画像変換部30に備えられた接続端子から直接的に入力すればよい。読み込まれた画像データは画像変換部30に送られ、記憶部32に記憶させる。 The input image data generation unit 20 reads this input image. If the input image has already been converted into data, the input image data generation unit 20 or the image conversion unit 30 may be directly input from the connection terminal. The read image data is sent to the image conversion unit 30 and stored in the storage unit 32.
画像変換部30では入力された画像データを、不図示のROMから読み出したプログラムに基づいて以下の処理を行う。 The image conversion unit 30 performs the following processing on the input image data based on a program read from a ROM (not shown).
まず、ハッチング重畳部を有する変換対象の画像であるか否か判断する(ステップS102)。すなわち、入力された画像が、変換対象である色情報を含ませたハッチングを重畳して作製された画像であるか否かを判断する。 First, it is determined whether or not the image is a conversion target image having a hatching superimposition unit (step S102). That is, it is determined whether or not the input image is an image produced by superimposing hatching including color information to be converted.
この判断には、例えば、ハッチングの重畳された変換対象の画像であることを示す透かしやマークをシンボルとして、埋め込んでおき、それらシンボルの有無検出により判断するように構成してもよい。また、操作部33よりオペレータが入力するものであってもよい。 For this determination, for example, a watermark or a mark indicating that the image is a conversion target image with hatching superimposed may be embedded as a symbol, and the determination may be made by detecting the presence or absence of the symbol. Moreover, an operator may input from the operation unit 33.
入力された画像データが変換対象のものである場合(ステップS102;Yes)には、入力された画像データから画像部1を抽出する(ステップS103)。 If the input image data is to be converted (step S102; Yes), the image unit 1 is extracted from the input image data (step S103).
画像部1の抽出は、例えば、シートの単位面積に対し、画像として認識される文字、絵等のシート色以外の画像データが占有する面積の割合(本願では印字率と称す)で判断する。一般的に、図1に示す表部分2や文字部分3においては、印字率は10%以下であり、画像部1のみが高い印字率を示す。このため、例えば、印字率が10%を超える領域を大凡の画像部と判断する。なお、画像部1の抽出には、その他の方法を用いてもよいのはもちろんである。 The extraction of the image unit 1 is determined by, for example, the ratio of the area occupied by image data other than the sheet color such as characters and pictures recognized as an image to the unit area of the sheet (referred to as a printing rate in the present application). Generally, in the table part 2 and the character part 3 shown in FIG. 1, the printing rate is 10% or less, and only the image part 1 shows a high printing rate. For this reason, for example, an area where the printing rate exceeds 10% is determined to be an approximate image portion. Of course, other methods may be used to extract the image portion 1.
次いで、抽出された画像部1からハッチング重畳部を抽出すると共に、ハッチングの直線の方向(傾き角度)を検出する(ステップS104)。 Next, a hatching overlapping portion is extracted from the extracted image portion 1 and a hatching straight line direction (tilt angle) is detected (step S104).
ハッチング重畳部の抽出には、画像部1の画像データから、n画素×n画素のブロックを抜き出し、フーリエ変換を施すことで行われ、同時に周波数及び角度の情報を検出できる。また、n画素×n画素のブロックを数画素重複させつつ、ずらして上記変換を行うことでハッチング重畳部の境界を抽出することができる。nは2のべき乗数であることが望ましく、この場合、高速フーリエ変換を利用でき、高速で演算することができる。なお、これに限るものでなく、n画素×m画素のブロックを抜き出してもよい。また、パターンマッチングやハフ変換による直線抽出等を用いてもよい。なお、フーリエ変換の代わりに他の変換、例えば、コサイン変換等の直交変換や、ウェーブレット変換を用いてもよい。 The hatching superimposing portion is extracted by extracting a block of n pixels × n pixels from the image data of the image portion 1 and performing a Fourier transform, and information on frequency and angle can be detected at the same time. Further, the boundary of the hatching superimposing portion can be extracted by performing the above conversion while shifting several blocks of n pixels × n pixels. n is preferably a power of 2. In this case, fast Fourier transform can be used, and calculation can be performed at high speed. However, the present invention is not limited to this, and an n pixel × m pixel block may be extracted. Alternatively, pattern matching, straight line extraction by Hough transform, or the like may be used. Instead of the Fourier transform, other transforms, for example, orthogonal transform such as cosine transform or wavelet transform may be used.
図6は、ハッチング重畳部の抽出方法の一例を示す図である。図6は、フーリエ変換を行う場合を示している。 FIG. 6 is a diagram illustrating an example of a method for extracting a hatching superimposition unit. FIG. 6 shows a case where Fourier transform is performed.
図6(a)に示すように、画像1からn画素×n画素のブロック1aを抜き出す。このとき、抜き出したブロック1a内に、図6(b)に示すように、例えば小さいピッチのハッチングH(メインハッチング)と、大きいピッチのハッチングL(サブハッチング)が含まれている場合、ブロック1aをフーリエ変換すると図6(c)に示すような結果が得られる。 As illustrated in FIG. 6A, an n pixel × n pixel block 1 a is extracted from the image 1. At this time, if the extracted block 1a includes, for example, a small pitch hatching H (main hatching) and a large pitch hatching L (subhatching) as shown in FIG. When Fourier transformation is performed, a result as shown in FIG. 6C is obtained.
図6(c)に示すチャートは、中心が空間周波数0を示し、外に向かってより高周波となっている。図6(b)に示すブロック1aをフーリエ変換すると、変換後のデータは図示のごとく、それぞれメインハッチングH及びサブハッチングLの直線と直交する方向に、周波数に対応した量だけ中心から離間した位置に集中する(図中のHF、LF参照)。これにより、ハッチング重畳部の抽出及び直線の方向(傾き角度)の検出ができる。 In the chart shown in FIG. 6C, the center indicates the spatial frequency 0, and the frequency is higher toward the outside. When Fourier transform is performed on the block 1a shown in FIG. 6B, the transformed data are positions separated from the center by an amount corresponding to the frequency in the direction orthogonal to the straight lines of the main hatching H and the subhatching L, as shown in the figure. It concentrated on (H F, reference L F in the figure). Thereby, extraction of a hatching superimposition part and detection of the direction (inclination angle) of a straight line can be performed.
このように、予め、メインハッチングHの周波数と、サブハッチングLの周波数の比率を設定(本例では2倍)し、その直線の傾き角度があらかじめ決められた範囲になっているよう設定(本例では、メインハッチングHの直線の傾き角度は+45度〜+135度、サブハッチングLの直線の傾き角度は−30度〜+30度、または、その対角位置)しておくことにより、色情報を目的としたテクスチャか、単なる元画像の模様なのかの判別がより容易になる。 Thus, the ratio of the frequency of the main hatching H and the frequency of the subhatching L is set in advance (doubled in this example), and the inclination angle of the straight line is set within a predetermined range (this book) In the example, the inclination angle of the straight line of the main hatching H is +45 degrees to +135 degrees, the inclination angle of the straight line of the subhatching L is -30 degrees to +30 degrees, or diagonal positions thereof, so that the color information is obtained. It becomes easier to determine whether the target texture is just a pattern of the original image.
即ち、図1に示したように、画像部1内に、元画像から存在するハッチングに類似した模様を有する領域14、15、16と、ハッチング重畳領域11、12、13が併存していても、抽出された周波数が1種か、2種かの相違から、より判別し易くなる。 That is, as shown in FIG. 1, even if the areas 14, 15, 16 having a pattern similar to the hatching existing from the original image and the hatching overlapping areas 11, 12, 13 coexist in the image portion 1. It becomes easier to discriminate from the difference between one or two extracted frequencies.
更に、メインハッチングHとサブハッチングLを重畳させておくことで、ハッチングを重畳して作製された画像が扱われる過程で、アスペクト比が一定の拡大や縮小がなされても、周波数帯域は変化するが、2つの周波数の比率は変化せず、傾き角度情報があらかじめ決められた範囲となるので、色情報を目的としたテクスチャか、単なる元画像の模様なのかが、より判別し易くなる。 Furthermore, by superimposing the main hatching H and the sub-hatching L, the frequency band changes even when the aspect ratio is enlarged or reduced in the process of handling the image produced by superimposing the hatching. However, since the ratio between the two frequencies does not change and the tilt angle information is in a predetermined range, it is easier to determine whether the texture is for color information or a simple original image pattern.
同様にして、ブロック1aの隣のブロック1b(不図示)を抜き出し、フーリエ変換する動作を画像部1の全面にわたって繰り返すことで、画像部1内のハッチング重畳部の位置及び該ハッチングの直線の方向が検出できる。 Similarly, by extracting the block 1b (not shown) adjacent to the block 1a and repeating the Fourier transform operation over the entire surface of the image portion 1, the position of the hatching overlapping portion in the image portion 1 and the direction of the straight line of the hatching Can be detected.
次いで、ステップS104で抽出したハッチング重畳部の各々に対し、ハッチングの強度変調成分を抽出し、強度変調成分を低減させる(ステップS105)。 Next, the hatched intensity modulation component is extracted from each of the hatching superimposing portions extracted in step S104, and the intensity modulation component is reduced (step S105).
ハッチングの強度変調成分の抽出は、予め画像に埋め込まれているマークや透かしから情報を得る。この情報が埋め込まれていないときは、領域毎に周波数フィルタリング(例えばバンドリジェクト)で取り除く手法や、ハッチング領域を画素毎に分割して、強度変調成分が無くなるように逆に変調させる手法を用いることができる。 In extracting the intensity modulation component of hatching, information is obtained from a mark or watermark embedded in the image in advance. When this information is not embedded, use a technique that removes the area by frequency filtering (for example, band rejection) or a technique that divides the hatching area for each pixel and reversely modulates the intensity modulation component. Can do.
図7は、周波数フィルタリングの手順概略を示すフローチャートである。 FIG. 7 is a flowchart showing an outline of the procedure of frequency filtering.
周波数フィルタリングの手順としては、ステップS104で抽出したハッチング重畳部の領域について、2次元の周波数分析であるフーリエ変換を行う(ステップS151)。具体的には、抽出されたハッチング重畳部について、図6で説明したように順次ブロックを抽出して行う。これにより、図6(c)のLF、HFで示すように、上述の周波数比及び角度内に、それぞれ原点を挟んで2点ずつの周波数成分が抽出される。 As a frequency filtering procedure, a Fourier transform, which is a two-dimensional frequency analysis, is performed on the hatched overlapped region extracted in step S104 (step S151). Specifically, for the extracted hatching superimposing unit, the blocks are sequentially extracted as described with reference to FIG. As a result, as indicated by L F and H F in FIG. 6C, two frequency components are extracted within the above-described frequency ratio and angle with the origin in between.
次いで、ステップS151で抽出された角度と周波数(LFとHF)を指定して、強度変調成分値を低減する(ステップS152)。強度変調成分の低減には、まず抽出された角度と周波数成分の値から強度変調成分を決定する。この決定方法としては、他の成分値と同等まで低下させるか、周波数成分値が0となるようにすることで、強度変調成分を求め、このハッチングの強度変調成分を低減する。 Next, the angle and frequency (L F and H F ) extracted in step S151 are designated to reduce the intensity modulation component value (step S152). In order to reduce the intensity modulation component, first, the intensity modulation component is determined from the extracted angle and frequency component values. As this determination method, the intensity modulation component is obtained by reducing it to the same value as the other component values or the frequency component value becomes 0, and the intensity modulation component of this hatching is reduced.
次いで、低減された周波数成分を逆フーリエ変換し、逆フーリエ変換して得られたデータ出力を、抽出したブロックの中心画素のデータに反映させる(ステップS153)。 Next, the reduced frequency component is subjected to inverse Fourier transform, and the data output obtained by the inverse Fourier transform is reflected in the data of the central pixel of the extracted block (step S153).
このような動作を、ブロックを1画素ずつずらして行い、ハッチングが重畳された領域の復元画像を作成する(ステップS154)。 Such an operation is performed by shifting the block by one pixel, and a restored image of the hatched region is created (step S154).
なお、ブロックを1画素ずつずらして行う例で説明したが、計算量の削減を目的として、ずらす量をやや大きくし隣り合うブロックの情報と重み平均して復元してもよいし、ブロックの大きさ毎にずらしてブロック単位で復元してもよい。 Although the example in which the block is shifted one pixel at a time has been described, for the purpose of reducing the amount of calculation, the shift amount may be slightly increased and restored by averaging the information of adjacent blocks and the weight. Alternatively, the data may be restored in units of blocks.
また、この周波数フィルタリングを行うまえに、ステップS104で抽出されたハッチング重畳部のうち、周波数及びハッチングの直線の方向が同じである領域(同一ハッチング領域)を抽出し、該同一ハッチング領域について、図7に示す処理を行うようにしてもよい。同一ハッチング領域の抽出としては、例えばブロック同士でハッチング重畳部の画素毎の強度変調成分と濃度値との積が、所定値以上であれば、同一と見なす方法がある。このようにすることで、強度変調成分を低減する領域の境界がより確実になる。 Further, before performing the frequency filtering, an area (the same hatching area) in which the frequency and the direction of the straight line of hatching are the same is extracted from the hatching superimposition unit extracted in step S104. 7 may be performed. As an example of extracting the same hatching area, there is a method in which, for example, if the product of the intensity modulation component and the density value for each pixel of the hatching overlapping portion is equal to or greater than a predetermined value, the blocks are regarded as the same. By doing in this way, the boundary of the area | region which reduces an intensity | strength modulation component becomes more reliable.
なお、ステップS151は、ステップS104で行ったハッチング重畳部の抽出時の結果を用いてもよい。 Note that step S151 may use the result of extracting the hatching overlapped portion performed in step S104.
また、ハッチング領域を画素毎に分割して、強度変調成分が無くなるように逆に変調させる手法は、ハッチング領域の位置情報、テクスチャ成分であるハッチング成分、周波数分析の手法を用いてピーク周波数とそれ以外の周波数から得られる成分値の差(テクスチャ強化値)のパラメータを用いて、画素毎の強度変調成分を推測し、画像の位置毎の強度から、対応する画素の強度変調成分を減算する手法もある。 In addition, the method of dividing the hatching area for each pixel and performing the reverse modulation so that the intensity modulation component is eliminated can be obtained by using the position information of the hatching area, the hatching component that is a texture component, and the frequency analysis technique to determine the peak frequency and the frequency. A method for estimating an intensity modulation component for each pixel using a parameter of a component value difference (texture enhancement value) obtained from a frequency other than the frequency and subtracting the intensity modulation component of the corresponding pixel from the intensity for each position of the image There is also.
なお、本願で言う「強度変調成分の低減」とは、強度変調成分を完全に削除することをも含むものである。 Note that “reduction of intensity modulation component” in the present application includes the complete deletion of the intensity modulation component.
これにより図3(b)、(c)に示すようなハッチングが重畳された画像からハッチングが削除され、図3(a)に示すような、元の滑らかに連続的に変化するグラデーションを正確に復元した元の画像を得ることができる。 As a result, the hatching is deleted from the image in which the hatching is superimposed as shown in FIGS. 3B and 3C, and the original smoothly changing gradation as shown in FIG. The restored original image can be obtained.
図8は、強度変調成分の低減の効果を示す図である。図8(a)はハッチングが重畳される前のグラデーションを有する画像、図8(b)は図8(a)の画像にハッチングが重畳された画像、図8(c)は図8(b)のハッチングが重畳された画像からハッチングの強度変調成分を低減した後の画像を示している。 FIG. 8 is a diagram illustrating the effect of reducing the intensity modulation component. 8A is an image having a gradation before hatching is superimposed, FIG. 8B is an image in which hatching is superimposed on the image in FIG. 8A, and FIG. 8C is FIG. 8B. The image after reducing the intensity | strength modulation | alteration component of hatching from the image on which this hatching was superimposed is shown.
同図に示すように、図8(b)に示すハッチングが重畳された画像から、上記の手法で「強度変調成分の低減」を行うことで、図8(c)に示すように、グラデーションを有する領域においても、正確にハッチングが重畳される前の画像に復元することができるようになる。 As shown in FIG. 8B, by performing “reduction of intensity modulation component” from the image with hatching superimposed in FIG. 8B by the above-described method, gradation is obtained as shown in FIG. Even in the area having the same, it is possible to restore the image before hatching is accurately superimposed.
図5に戻り、ステップS105で得られた強度変調成分の低減された画像と、非ハッチング重畳領域の画像とをあわせて合成する(ステップS106)。 Returning to FIG. 5, the image obtained by reducing the intensity modulation component obtained in step S <b> 105 and the image of the non-hatched superimposed region are combined and synthesized (step S <b> 106).
次いで、ステップS106で得られた画像を記憶部に記憶させる(ステップS107)。 Next, the image obtained in step S106 is stored in the storage unit (step S107).
次いで、画像出力部40を用い、復元された画像を出力(ステップS108)して終了する。 Next, the restored image is output using the image output unit 40 (step S108), and the process ends.
一方、ステップS102において、入力された画像データが変換対象のものでないと判断された場合(ステップS102;No)には、ステップS108へジャンプし、ステップS101で入力された画像を出力(ステップS108)して終了する。 On the other hand, if it is determined in step S102 that the input image data is not to be converted (step S102; No), the process jumps to step S108, and the image input in step S101 is output (step S108). And exit.
図9は、本実施の形態に係る画像変換システムの動作概略の変形例を示すフローチャートである。図9に示すフローチャートは、重畳されたテクスチャであるハッチングを低減すると共に、元のカラー画像を復元する場合のフローチャートである。なお、図9に示すフローは、図5に示すフローと同じ部分については省略し、異なる部分についてのみ説明する。 FIG. 9 is a flowchart showing a modified example of the schematic operation of the image conversion system according to the present embodiment. The flowchart shown in FIG. 9 is a flowchart in the case of reducing the hatching that is the superimposed texture and restoring the original color image. In the flow shown in FIG. 9, the same part as the flow shown in FIG. 5 is omitted, and only different parts will be described.
図9のステップS101〜ステップS103については、図5のステップS101〜ステップS103と同様である。 Steps S101 to S103 in FIG. 9 are the same as steps S101 to S103 in FIG.
次いで、抽出された画像部1の基準方向を検出する(ステップS204)。画像部1の基準方向とは、色情報がハッチングの傾き角度に変換され、塗りつぶし部に重畳される際に、該角度の基準として用いられた方向である。 Next, the reference direction of the extracted image unit 1 is detected (step S204). The reference direction of the image part 1 is a direction used as a reference of the angle when the color information is converted into a hatching inclination angle and superimposed on the painted part.
画像部1は、プリント時や上記の入力画像読み取り時に、画像全体が微少に回転して傾く可能性があり、ハッチングの傾き角度から色の情報を復元する際に誤差を生じることになる。本ステップは、この誤差を排除するために、画像部1の基準方向を求めるものである。 The image unit 1 may be slightly rotated and tilted at the time of printing or at the time of reading the input image, and an error occurs when restoring color information from the tilt angle of hatching. In this step, the reference direction of the image portion 1 is obtained in order to eliminate this error.
入力された画像の基準方向の検出には、画像部の境界線から基準方向を求めてもよいし、文字部が有る場合には、文章の行、文字をOCR(Optical Character Reader)で判別し、行や文字の方向から基準方向を求めてもよい。また、入力された画像内にQRコード等の2次元コードや位置指定のための指標等が有る場合には、これを用いてもよい。 For detecting the reference direction of the input image, the reference direction may be obtained from the boundary line of the image part. When there is a character part, the line and character of the sentence are discriminated by OCR (Optical Character Reader). The reference direction may be obtained from the direction of the line or character. Further, when the input image includes a two-dimensional code such as a QR code or an index for specifying a position, this may be used.
画像部1の基準方向を検出し、読み込んだシートの縁線と比較することで、画像部1全体のシートに対する傾き角度を求めることができる。 By detecting the reference direction of the image portion 1 and comparing it with the edge line of the read sheet, the inclination angle of the entire image portion 1 with respect to the sheet can be obtained.
次いで、抽出された画像部1からハッチング重畳部を抽出すると共に、ハッチングの直線の方向(傾き角度)を検出する(ステップS205)。ハッチング重畳部の抽出については、図5におけるステップS104及び、図6で説明したものと同様である。 Next, a hatching overlap portion is extracted from the extracted image portion 1, and the direction (inclination angle) of the hatching straight line is detected (step S205). The extraction of the hatching overlapped portion is the same as that described in step S104 in FIG. 5 and FIG.
次いで、検出されたハッチングの直線の方向と、ステップS204で求めた画像部1の基準方向とのなす角度を算出する(ステップS206)。これにより、色情報をハッチングの直線の傾き角度に変換した際の、当初のハッチングの正確な傾き角度を得ることができるようになる。 Next, an angle formed by the detected direction of the straight line of hatching and the reference direction of the image unit 1 obtained in step S204 is calculated (step S206). As a result, it is possible to obtain an accurate initial inclination angle of the hatching when the color information is converted into the inclination angle of the hatching straight line.
図10は、傾いた画像部から、当初のハッチングの直線の傾き角度の求め方を説明する模式図である。 FIG. 10 is a schematic diagram for explaining how to obtain the inclination angle of the initial hatching straight line from the inclined image portion.
図10(a)に示すように、色情報をハッチングの傾き角度に変換した際の画像、すなわち当初の画像が実線で示す領域であり、プリント時或いは入力画像読み取り時に画像全体が半時計回り方向に角度β(β<0)だけ回転し、入力画像データが破線で示す領域に回転した場合で説明する。この場合、図10(b)に示すように、単純にハッチング重畳部12のメインハッチングHの直線方向と入力画像の水平方向との角度を検出すると、角度αとなる。プリント時或いは入力画像読み取り時に画像が回転した場合には、この角度αは、色情報をメインハッチングHの直線の傾き角度に変換した際の角度と異なるものとなる。しかしながら、上述のステップS204で検出された画像部1の基準方向BLを検出して加味し、(α−β)とすることで、当初のメインハッチングHの直線の傾き角度を正確に算出することができるようになる。 As shown in FIG. 10A, an image when color information is converted into a hatching inclination angle, that is, an initial image is a region indicated by a solid line, and the entire image is rotated in a counterclockwise direction when printing or reading an input image. A case will be described in which the image is rotated by an angle β (β <0) and the input image data is rotated to an area indicated by a broken line. In this case, as shown in FIG. 10B, when the angle between the straight direction of the main hatching H of the hatching superimposing unit 12 and the horizontal direction of the input image is simply detected, the angle α is obtained. When the image is rotated at the time of printing or at the time of reading the input image, the angle α is different from the angle when the color information is converted into the inclination angle of the straight line of the main hatching H. However, the inclination angle of the straight line of the initial main hatching H can be accurately calculated by detecting and taking into account the reference direction BL of the image portion 1 detected in step S204 described above. Will be able to.
また、サブハッチングLの傾き角度についても同様に、入力画像の水平方向との角度をγとすると、(γ−β)と補正することで、当初のサブハッチングLの直線の傾き角度を正確に算出することができるようになる。 Similarly, regarding the inclination angle of the sub-hatching L, if the angle with respect to the horizontal direction of the input image is γ, the inclination angle of the straight line of the initial sub-hatching L is accurately corrected by correcting to (γ−β). It becomes possible to calculate.
なお、図1(b)及び図10(b)に示したハッチング重畳部11、12、13のように、検出されたメインハッチングH及びサブハッチングLの傾き角度の組み合わせが複数種ある場合には、同様にして、すべてについて当初のハッチングの直線の傾き角度を算出し、それぞれハッチング重畳部の位置と対応させて記憶させる。 In addition, when there are a plurality of combinations of detected inclination angles of the main hatching H and the sub-hatching L as in the hatching superimposing units 11, 12, and 13 shown in FIG. 1B and FIG. 10B. Similarly, the inclination angle of the initial hatching line is calculated for all, and stored in correspondence with the position of the hatching superimposing portion.
次いで、ステップS206で算出した、ハッチングの直線の方向と、ステップS204で求めた画像部1の基準方向とのなす角度から、ハッチング重畳部の色の情報を取得する(ステップS207)。 Next, the information of the color of the hatching overlapping portion is acquired from the angle formed by the direction of the straight line of hatching calculated in step S206 and the reference direction of the image portion 1 obtained in step S204 (step S207).
この色の情報の取得は、当初の色情報をハッチングの直線の傾き角度に変換する際の規定に基づいて逆変換して求めればよい。以下に、その例を示す。 The acquisition of the color information may be obtained by performing inverse conversion based on the rules for converting the original color information into the inclination angle of the hatching straight line. An example is shown below.
図11は、ハッチングの直線の方向(傾き角度)から色情報を取得する逆変換の一例を示す図である。図11に示すu′v′色度図の破線A1、A2及び実線B1、B2は、図2に示したものと同様であるため、説明は省略する。なお、色度図上での破線A1とA2、実線B1とB2の設定情報は、画像に埋め込まれたマークや透かしから得られているものとする。また、図11に示す、人が感じることのできる色の領域C内に示す三角形の領域Dは、画像出力部40(図4参照)で表現又は再現できる色空間の部分(色域)を示している。以降、領域Dを色域と称す。 FIG. 11 is a diagram illustrating an example of inverse conversion for obtaining color information from the direction of the hatching straight line (inclination angle). The broken lines A 1 and A 2 and the solid lines B 1 and B 2 in the u′v ′ chromaticity diagram shown in FIG. 11 are the same as those shown in FIG. Note that the setting information of the broken lines A 1 and A 2 and the solid lines B 1 and B 2 on the chromaticity diagram is obtained from marks and watermarks embedded in the image. A triangular area D shown in the color area C that can be perceived by humans shown in FIG. 11 indicates a portion (color gamut) of the color space that can be expressed or reproduced by the image output unit 40 (see FIG. 4). ing. Hereinafter, the region D is referred to as a color gamut.
まず、ステップS206で得られたサブハッチングLの傾き角度及びメインハッチングHの傾き角度から、以下を求める。 First, the following is obtained from the inclination angle of the sub-hatching L and the inclination angle of the main hatching H obtained in step S206.
Sx={−(サブハッチングLの傾き角度−30)×S}/60
Mx={(メインハッチングHの傾き角度−45)×M}/90
次いで、図11に示すように、間隔S内の破線A1からSxだけ離れ、破線A1に平行な直線と、間隔M内の破線B1からMxだけ離れ、破線B1に平行な直線との交点Xの色度を求める。この点Xの色度が当初の元画像の色である。
Sx = {− (inclination angle of sub-hatching L−30) × S} / 60
Mx = {(inclination angle of main hatching H−45) × M} / 90
Then, as shown in FIG. 11, apart Sx from the dashed line A 1 in the interval S, apart straight line parallel to dashed line A 1, the broken line B 1 in the interval M by Mx, and a straight line parallel to the dashed line B 1 Find the chromaticity of the intersection X. The chromaticity at this point X is the original color of the original image.
メインハッチングH及びサブハッチングLの傾き角度の組み合わせが複数種ある場合には、同様にして、各々の元画像の色度を求め、それぞれハッチング重畳部の位置と対応させて記憶させる。 When there are a plurality of combinations of inclination angles of the main hatching H and the sub-hatching L, the chromaticity of each original image is obtained in the same manner and stored in correspondence with the position of the hatching superimposing unit.
また、このような逆変換結果を、不図示のROM等に予めLUT(Look Up Table)として書き込んでおき、参照するような構成でもよい。 Further, such a reverse conversion result may be written in advance as a LUT (Look Up Table) in a ROM (not shown) or the like and referred to.
次いで、ステップS205で抽出したハッチング重畳部の各々に対し、ハッチングの強度変調成分を抽出し、強度変調成分を低減させる(ステップS208)。ハッチングの強度変調成分の抽出と、強度変調成分の低減の手法については、上述の通りである。なお、本願で言う「強度変調成分の低減」とは、強度変調成分を完全に削除することをも含むものである。 Next, the hatched intensity modulation component is extracted from each of the hatching superimposing portions extracted in step S205, and the intensity modulation component is reduced (step S208). The method for extracting the intensity modulation component of hatching and reducing the intensity modulation component is as described above. Note that “reduction of intensity modulation component” in the present application includes the complete deletion of the intensity modulation component.
次いで、ステップS208で得られた強度変調成分の低減された画像と、非ハッチング重畳領域の画像とをあわせて合成する(ステップS209)。 Next, the image obtained by reducing the intensity modulation component obtained in step S208 and the image of the non-hatched superimposed region are combined and synthesized (step S209).
次いで、ハッチング重畳領域を、ステップS207で取得した色に各々置換する(ステップS210)。これにより、元のカラー画像の復元が完了する。 Next, the hatched overlapping area is replaced with the color acquired in step S207 (step S210). Thereby, the restoration of the original color image is completed.
次いで、復元されたカラー画像を記憶部32に記憶させる(ステップS211)。 Next, the restored color image is stored in the storage unit 32 (step S211).
次いで、画像出力部40を用い、復元されたカラー画像を出力(ステップS212)して終了する。なお、画像出力部40からの出力としては、その他、ハッチング重畳部に色名を表示させるようにしてもよい。 Next, the restored color image is output using the image output unit 40 (step S212), and the process ends. In addition, as an output from the image output unit 40, a color name may be displayed on the hatching superimposing unit.
一方、ステップS102において、入力された画像データが変換対象のものでないと判断された場合(ステップS102;No)には、ステップS212へジャンプし、ステップS101で入力された画像を出力(ステップS212)して終了する。 On the other hand, if it is determined in step S102 that the input image data is not to be converted (step S102; No), the process jumps to step S212, and the image input in step S101 is output (step S212). And exit.
以上が、本実施の形態に係る画像変換システムの動作概略である。 The above is the outline of the operation of the image conversion system according to the present embodiment.
なお、本例においても、ステップS205で抽出されたハッチング重畳部のうち、周波数及びハッチングの直線の方向が同じである領域(同一ハッチング領域)を抽出し、該同一ハッチング領域について、図7に示す処理を行うようにしてもよい。 In this example as well, an area (the same hatching area) in which the frequency and the direction of the straight line of hatching are the same is extracted from the hatching overlapped part extracted in step S205, and the same hatching area is shown in FIG. Processing may be performed.
このように、テクスチャであるハッチングの強度変調成分を抽出し、ハッチング重畳部の各々に対し、対応する強度変調成分を低減させることにより、色の情報を含ませたテクスチャを付加して作製された画像が、塗りつぶし領域において滑らかに連続的に変化するグラデーションを有する場合でも、正確に復元することができるようになる(図8参照)。更に、ハッチングが重畳された領域を、上記の取得した色に各々置換することで、グラデーションを正確に復元できると共に、正確なカラー画像の復元ができるようになる。 In this way, the intensity modulation component of hatching, which is a texture, is extracted, and the corresponding intensity modulation component is reduced for each of the hatching superimposing portions, thereby adding the texture including color information. Even when the image has a gradation that changes smoothly and continuously in the filled region, the image can be accurately restored (see FIG. 8). Furthermore, by replacing each hatched region with the acquired color, the gradation can be accurately restored and an accurate color image can be restored.
なお、元の画像を復元した際には、マークや透かしとして画像に埋め込まれた情報は、除去しておくことが好ましい。 Note that when the original image is restored, it is preferable to remove information embedded in the image as a mark or a watermark.
また、ステップS212における復元されたカラー画像の出力時においては、上述の逆変換で得られ、記憶された色度が図12に示すように、接続された画像出力部の表現可能な色域Dの外の点Fの色度であった場合には、以下のようにして出力する色を決める。 Further, at the time of outputting the restored color image in step S212, the color gamut D that can be expressed by the connected image output unit as shown in FIG. If the chromaticity of the point F is outside, the color to be output is determined as follows.
図12は、記憶された色度が、画像出力部の色域外の点の色度であった場合に、出力する色の決め方を説明する図である。 FIG. 12 is a diagram for explaining how to determine the color to be output when the stored chromaticity is the chromaticity of a point outside the color gamut of the image output unit.
例えば、点Fに最も近い色域Dの境界上の点Eを求め、点Eの色度で出力する。その他の例としては、点Fと色域D内のグレーの点Gとを直線で結び、この直線と色域Dの境界線との交点Hを求め、点Hの色度で出力する。すなわち、入力画像の表示されている色域と、画像出力部で表示の可能な色域に相違が有る場合には、異種メディア間での色再現で用いられる色域マッピングの手法が使用できるということである。 For example, the point E on the boundary of the color gamut D that is closest to the point F is obtained, and the chromaticity of the point E is output. As another example, the point F and the gray point G in the color gamut D are connected by a straight line, an intersection H between the straight line and the boundary line of the color gamut D is obtained, and the chromaticity of the point H is output. In other words, if there is a difference between the color gamut where the input image is displayed and the color gamut that can be displayed by the image output unit, the color gamut mapping method used for color reproduction between different media can be used. That is.
本実施の形態の記憶部には、入力画像から得られる当初の色情報が記憶され、この当初の色を、接続された画像出力部が表現できない場合に、このような対応をするということである。 The initial color information obtained from the input image is stored in the storage unit according to the present embodiment, and this initial response is performed when the connected image output unit cannot express the color. is there.
図13は、画像変換前の画像部と画像変換後の画像部を示す模式図である。図13(a)は画像変換前の画像部(入力画像)を示し、図13(b)は画像変換後の画像部(出力画像)を示している。 FIG. 13 is a schematic diagram illustrating an image portion before image conversion and an image portion after image conversion. FIG. 13A shows an image portion (input image) before image conversion, and FIG. 13B shows an image portion (output image) after image conversion.
図13(a)に示すハッチング重畳部11、12、13は、図13(b)に示すように、ハッチングの強度変調成分が低減され、元の画像の色に復元される。 As shown in FIG. 13B, the hatch superimposing units 11, 12, and 13 shown in FIG. 13A reduce the hatching intensity modulation component and restore the original image color.
なお、図13においては、特許出願図面の仕様によりモノクロで表現しているが、実際には、上記の説明により得られた色度で出力される。 In FIG. 13, the image is expressed in monochrome according to the specification of the patent application drawing, but in actuality, the image is output with the chromaticity obtained by the above description.
なお、図5、図9に示すフローチャートにおいては、入力画像の読み込み後に、変換対象画像か否か判断するよう構成したが、これに限るものでなく、先に画像部を抽出してハッチング重畳部の有無を検出し、ハッチング重畳部が有る場合には変換対象画像と判断し、ハッチング重畳部が無い場合には、変換対象画像では無いと判断するよう構成してもよい。この場合には、図5のステップS102の動作をステップS104とステップS105の間に挿入すればよい。同様に、図9のステップS102の動作をステップS205とステップS206の間に挿入すればよい。 In the flowcharts shown in FIG. 5 and FIG. 9, it is configured to determine whether or not the image is a conversion target image after reading the input image. However, the present invention is not limited to this. If there is a hatching superimposing portion, it is determined that the image is a conversion target image. If there is no hatching superimposing portion, it is determined that the image is not a conversion target image. In this case, what is necessary is just to insert the operation | movement of step S102 of FIG. 5 between step S104 and step S105. Similarly, the operation of step S102 in FIG. 9 may be inserted between step S205 and step S206.
また、本実施の形態においては、明度のグラデーションを用いて説明したが、これに限るものでなく、色度が滑らかに変化する、すなわちハッチングが直線でなく湾曲した場合にも適用可能である。 In the present embodiment, the brightness gradation is described. However, the present invention is not limited to this, and the present invention can be applied to a case where the chromaticity changes smoothly, that is, the hatching is curved instead of a straight line.
また、上記の画像変換を行う画像変換プログラムとしては、テクスチャ重畳領域抽出部、テクスチャ抽出部、テクスチャ角度取得部が、図5におけるステップS104及び図9におけるステップS205に相当する。また、色情報取得部が図9のステップS208に相当する。また、テクスチャ強度変調成分抽出部及び強度変調成分低減部が図5におけるステップS105及び図9におけるステップS208、すなわち図7のフローが相当する。 In addition, as an image conversion program for performing the above-described image conversion, a texture superimposed region extraction unit, a texture extraction unit, and a texture angle acquisition unit correspond to step S104 in FIG. 5 and step S205 in FIG. The color information acquisition unit corresponds to step S208 in FIG. Further, the texture intensity modulation component extraction unit and the intensity modulation component reduction unit correspond to step S105 in FIG. 5 and step S208 in FIG. 9, that is, the flow of FIG.
なお、上記の実施の形態においては、ハッチングを重畳させる例で説明したが、これに限るものでなく、所定のテクスチャの傾き角度に変換し、重畳されたものであってもよいのはもちろんである。 In the above embodiment, the example in which hatching is superimposed has been described. However, the present invention is not limited to this example, and may be converted into a predetermined texture inclination angle and superimposed. is there.
1 画像部
2 表部
3 文字部
10 シート
12 ハッチング重畳部
20 入力画像データ生成部
30 画像変換部
31 制御部
32 記憶部
33 操作部
40 画像出力部
DESCRIPTION OF SYMBOLS 1 Image part 2 Table part 3 Character part 10 Sheet | seat 12 Hatching superimposition part 20 Input image data generation part 30 Image conversion part 31 Control part 32 Storage part 33 Operation part 40 Image output part
Claims (7)
前記テクスチャが重畳された領域と、該領域の前記テクスチャを検出する工程と、
前記テクスチャの強度変調成分を抽出する工程と、
前記テクスチャが重畳された領域の画像から、前記テクスチャの強度変調成分を低減する工程と、を有することを特徴とする画像変換方法。 An image conversion method for reducing the texture from an image in which color information is converted into a texture and the texture is superimposed,
A region where the texture is superimposed, and detecting the texture of the region;
Extracting an intensity modulation component of the texture;
And a step of reducing an intensity modulation component of the texture from an image of the region on which the texture is superimposed.
前記ハッチングの傾き角度を求める工程と、
前記ハッチングの傾き角度に基づいて元の画像の色情報を取得する工程と、を有することを特徴とする請求項1に記載の画像変換方法。 The texture is hatched, and the color information is converted into an inclination angle of the hatch,
A step of obtaining an angle of inclination of the hatching;
The image conversion method according to claim 1, further comprising: obtaining color information of an original image based on the hatching inclination angle.
前記テクスチャが重畳させられた領域を抽出するテクスチャ重畳領域抽出部と、
前記テクスチャが重畳領域抽出部で抽出された領域の画像から、前記テクスチャを抽出するテクスチャ抽出部と、
前記テクスチャの強度変調成分を抽出するテクスチャ強度変調成分抽出部と、
前記テクスチャ重畳領域抽出部で抽出された領域の画像から、前記テクスチャ強度変調成分抽出部で抽出されたテクスチャの強度変調成分を低減する強度変調成分低減部、としてコンピュータを機能させることを特徴とする画像変換プログラム。 An image conversion program for reducing the texture from an image in which color information is converted into a texture and the texture is superimposed,
A texture superimposed region extracting unit for extracting a region on which the texture is superimposed;
A texture extracting unit that extracts the texture from an image of the region in which the texture is extracted by the superimposed region extracting unit;
A texture intensity modulation component extraction unit for extracting an intensity modulation component of the texture;
A computer is caused to function as an intensity modulation component reduction unit that reduces an intensity modulation component of a texture extracted by the texture intensity modulation component extraction unit from an image of an area extracted by the texture superimposed region extraction unit. Image conversion program.
前記ハッチングの傾き角度を求めるテクスチャ角度取得部と、
前記ハッチングの傾き角度に基づいて元の画像の色情報を取得する色情報取得部と、
を有することを特徴とする請求項6に記載の画像変換プログラム。 The texture is hatched, and the color information is converted into an inclination angle of the hatch,
A texture angle obtaining unit for obtaining an inclination angle of the hatching;
A color information acquisition unit that acquires color information of the original image based on the hatching inclination angle;
The image conversion program according to claim 6, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009259722A JP5454094B2 (en) | 2009-11-13 | 2009-11-13 | Image conversion method, image conversion apparatus, image conversion system, and image conversion program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009259722A JP5454094B2 (en) | 2009-11-13 | 2009-11-13 | Image conversion method, image conversion apparatus, image conversion system, and image conversion program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011109223A true JP2011109223A (en) | 2011-06-02 |
JP5454094B2 JP5454094B2 (en) | 2014-03-26 |
Family
ID=44232270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009259722A Expired - Fee Related JP5454094B2 (en) | 2009-11-13 | 2009-11-13 | Image conversion method, image conversion apparatus, image conversion system, and image conversion program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5454094B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008077307A (en) * | 2006-09-20 | 2008-04-03 | Fuji Xerox Co Ltd | Image processor |
-
2009
- 2009-11-13 JP JP2009259722A patent/JP5454094B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008077307A (en) * | 2006-09-20 | 2008-04-03 | Fuji Xerox Co Ltd | Image processor |
Also Published As
Publication number | Publication date |
---|---|
JP5454094B2 (en) | 2014-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5015540B2 (en) | Digital watermark embedding device and detection device | |
US9088745B2 (en) | Apparatus, system, and method of inspecting image, and recording medium storing image inspection control program | |
JP4035717B2 (en) | Image processing apparatus and image processing method | |
JP4591211B2 (en) | Image processing apparatus, image processing method, medium, code reading apparatus, and program | |
KR20040092456A (en) | Image processing system | |
JP2008219152A (en) | Image processor and processing method | |
JP4837101B2 (en) | Digital watermark embedding device, digital watermark detection device, and program | |
JPWO2008035401A1 (en) | Digital watermark embedding device and detection device | |
JP2009037596A (en) | Information processing device and program | |
JP2006303784A (en) | Image reading apparatus and method | |
JP5878451B2 (en) | Marker embedding device, marker detecting device, marker embedding method, marker detecting method, and program | |
JP2006180376A (en) | Image processing apparatus | |
JP4442651B2 (en) | Image processing apparatus and program | |
CN100534033C (en) | Text numerical watermark method for resisting analog domain attack | |
JP4469301B2 (en) | Information embedding device, printing medium, and information reading device | |
JP6006675B2 (en) | Marker detection apparatus, marker detection method, and program | |
JP5454094B2 (en) | Image conversion method, image conversion apparatus, image conversion system, and image conversion program | |
JP2010268399A (en) | Image processing apparatus, image forming apparatus, image processing method, program and recording medium | |
JP2006237858A (en) | Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium | |
JP6006676B2 (en) | Marker embedding device, marker detecting device, marker embedding method, marker detecting method, and program | |
US20150055193A1 (en) | Processing Apparatus | |
JP2011086090A (en) | Image conversion method, image converting device, image conversion system, and image conversion program | |
JP6157234B2 (en) | Image processing apparatus, image processing method, and program | |
JP5408526B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005260483A (en) | Device and method for burying electronic watermark, and device and method for detecting electronic watermark |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120612 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5454094 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |