JP6317413B1 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JP6317413B1 JP6317413B1 JP2016211597A JP2016211597A JP6317413B1 JP 6317413 B1 JP6317413 B1 JP 6317413B1 JP 2016211597 A JP2016211597 A JP 2016211597A JP 2016211597 A JP2016211597 A JP 2016211597A JP 6317413 B1 JP6317413 B1 JP 6317413B1
- Authority
- JP
- Japan
- Prior art keywords
- content
- pixel
- image
- area
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 72
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000002093 peripheral effect Effects 0.000 claims abstract description 93
- 238000012937 correction Methods 0.000 claims abstract description 48
- 238000000926 separation method Methods 0.000 claims abstract description 44
- 230000008439 repair process Effects 0.000 claims description 20
- 238000010586 diagram Methods 0.000 description 28
- 238000000034 method Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 15
- 238000003860 storage Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30176—Document
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Character Input (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像内のコンテンツの認識度を高めること。【解決手段】画像処理装置1において、分離部11は、入力画像IMを第一コンテンツ領域CA1と第一背景領域BA1とに分離する。生成部12は、第一背景領域BA1に含まれる第一背景領域画素のうち第一コンテンツ領域CA1の周辺に存在する第一周辺画素を用いて第一コンテンツ領域CA1に含まれる第一コンテンツ領域画素を修正する。この修正により、生成部12は、修正後の第一コンテンツ領域画素と第一背景領域画素とによって形成される第一背景画像を生成する。除去部13は、入力画像IMから第一背景画像を除去する。【選択図】図1
Description
本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
近年、カメラでドキュメントを撮影する機会が増えてきた。また、撮影されたドキュメント画像に対してOCR(Optical Character Recognition)を行う場合も増えてきた。
ドキュメントをカメラで撮影すると、撮影されたドキュメント画像内の背景に色斑や影が生じてドキュメント画像内にある絵柄や文字等の「コンテンツ」の認識度が低下することがある。
開示の技術は、上記に鑑みてなされたものであって、画像内のコンテンツの認識度を高めることを目的とする。
開示の態様では、入力画像をコンテンツ領域と背景領域とに分離し、背景領域に含まれる背景領域画素のうちコンテンツ領域の周辺に存在する周辺画素を用いてコンテンツ領域に含まれるコンテンツ領域画素を修正することにより、修正後のコンテンツ領域画素と背景領域画素とによって形成される背景画像を生成し、入力画像から背景画像を除去する。
開示の態様によれば、画像内のコンテンツの認識度を高めることができる。
以下に、本願の開示する画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて説明する。なお、この実施例により本願の開示する画像処理装置、画像処理方法及び画像処理プログラムが限定されるものではない。また、実施例において同一の機能を有する構成、及び、同一の処理を行うステップには同一の符号を付す。
[実施例1]
[画像処理装置の構成]
図1は、実施例1の画像処理装置の構成例を示す図である。図1において、画像処理装置1は、分離部11と、生成部12と、除去部13と、修復部14と、補正部15とを有する。
[画像処理装置の構成]
図1は、実施例1の画像処理装置の構成例を示す図である。図1において、画像処理装置1は、分離部11と、生成部12と、除去部13と、修復部14と、補正部15とを有する。
分離部11、生成部12、除去部13、修復部14及び補正部15は、ハードウェアとして、例えばプロセッサにより実現することができる。プロセッサの一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等が挙げられる。また、分離部11、生成部12、除去部13、修復部14及び補正部15は、プロセッサと周辺回路とを含むLSI(Large Scale Integrated circuit)によって実現されても良い。さらに、分離部11、生成部12、除去部13、修復部14及び補正部15は、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)等を用いて実現されても良い。
分離部11は、画像処理装置1に入力される画像(以下では「入力画像」と呼ぶことがある)を、コンテンツ画像が存在する領域(以下では「コンテンツ領域」と呼ぶことがある)と、コンテンツ画像が存在しない領域(以下では「背景領域」と呼ぶことがある)とに分離し、コンテンツ領域及び背景領域を示す情報(以下では「領域情報」と呼ぶことがある)を生成部12へ出力する。入力画像は、例えば、カメラで撮影された画像である。分離部11での処理の詳細は後述する。
生成部12は、領域情報に基づいて、入力画像において、背景領域に含まれる画素(以下では「背景領域画素」と呼ぶことがある)のうちコンテンツ領域の周辺に存在する画素(以下では「周辺画素」と呼ぶことがある)を用いて、コンテンツ領域に含まれる画素(以下では「コンテンツ領域画素」と呼ぶことがある)を修正する。生成部12は、周辺画素を用いてコンテンツ領域画素を修正することにより、修正後のコンテンツ領域画素(以下では「修正コンテンツ領域画素」と呼ぶことがある)と背景領域画素とによって形成される画像(以下では「背景画像」と呼ぶことがある)を生成する。生成部12は、このようにして生成した背景画像を除去部13へ出力する。また、生成部12は、修正コンテンツ領域画素を補正部15へ出力する。生成部12での処理の詳細は後述する。
除去部13は、入力画像から背景画像を除去する。除去部13は、入力画像から背景画像を除去することによって得た画像(以下では「除去画像」と呼ぶことがある)を修復部14へ出力する。除去部13での処理の詳細は後述する。
修復部14は、除去画像に含まれるコンテンツ画像のエッジを検出して修復することにより、除去画像に含まれるコンテンツ画像のエッジを強調する。修復部14は、エッジ修復後のコンテンツ画像を含む除去画像を補正部15へ出力する。コンテンツ画像のエッジの検出は、例えば、Sobelフィルタ、Prewittフィルタ、LOGフィルタ、Canny法等を用いて行うと良い。
補正部15は、エッジ修復後のコンテンツ画像を形成するコンテンツ画素の階調値を、修正コンテンツ領域画素の階調値を用いて補正する。補正部15は、階調値補正後の画像を出力画像として出力する。補正部15での処理の詳細は後述する。
なお、画像処理装置1は必ずしも修復部14を有する必要はなく、画像処理装置1では、除去部13で得られた除去画像が補正部15へ直接入力されても良い。
また、入力画像は、ノイズが除去された後の入力画像であっても良い。ノイズの除去は、例えば、移動平均フィルタ、ガウシアン平滑フィルタ等を用いて行うと良い。
[画像処理装置の動作]
図2〜図12は、実施例1の画像処理装置の動作例の説明に供する図である。図2〜図12のうち、図2,4,5,7〜12は、画像を模式的に表した図である。
図2〜図12は、実施例1の画像処理装置の動作例の説明に供する図である。図2〜図12のうち、図2,4,5,7〜12は、画像を模式的に表した図である。
図2には、画像処理装置1に入力される入力画像IMを示す。入力画像IMには、コンテンツ画像として、例えば、文字1〜4及び絵柄1〜3が含まれている。また例えば、入力画像IMには、影がある領域(以下では「影領域」と呼ぶことがある)SDが存在する。
図3に示すように、分離部11は、入力画像IMの全体のヒストグラムHG1を求め、ヒストグラムHG1のピークP1,P2を取得する。次いで、分離部11は、取得したピークP1,P2のうち、ヒストグラムHG1において最も右側に位置するピーク、つまり、階調値が最大のピークであるピークP2を選択する。次いで、分離部11は、ピークP2から見て左方(つまり、階調値がより小さい方)のヒストグラムHG1の裾に対応する階調値を第一背景スライスBS1として算出する。例えば、分離部11は、ヒストグラムHG1において、ピークP2から左方に見てピークP2の画素数のN分の1(Nは整数)未満の画素数に最初に達する階調値をヒストグラムHG1の裾として求めても良い。また例えば、分離部11は、ヒストグラムHG1において、ピークP2から左方に見てヒストグラムHG1の傾きの変化量が閾値以上になる点の階調値をヒストグラムHG1の裾として求めても良い。
次いで、図4に示すように、分離部11は、入力画像IMを第一背景スライスBS1を基準にして二値化し、入力画像IMの二値化により、入力画像IMを第一コンテンツ領域CA1と第一背景領域BA1とに分離する。例えば、分離部11は、入力画像IMにおいて、第一背景スライスBS1以上の階調値を有する画素を‘0’、第一背景スライスBS1未満の階調値を有する画素を‘1’として入力画像IMを二値化する。図4において、第一コンテンツ領域CA1は、第一背景スライスBS1を基準にした二値化で第一背景スライスBS1未満の階調値となる領域であり、文字1,2、絵柄1,2及び影領域SDに対応する。また、図4において、第一背景領域BA1は、第一背景スライスBS1を基準にした二値化で第一背景スライスBS1以上の階調値となる領域である。
このように、分離部11は、入力画像IMのヒストグラムHG1のピークP1,P2に基づいて、入力画像IMを第一コンテンツ領域CA1と第一背景領域BA1とに分離する。
こうすることで、入力画像IMを第一コンテンツ領域CA1と第一背景領域BA1とに正しく分離することができる。
また、分離部11は、図4に示すように、第一コンテンツ領域CA1の中に入力画像IMの画像端に接する領域(以下では「端領域」と呼ぶことがある)EAが存在する場合は、図5に示すように、端領域EAに存在する画像(以下では「端画像」と呼ぶことがある)EIを入力画像IMから抽出する。
次いで、図6に示すように、分離部11は、入力画像IMのうち端画像EIだけにおけるヒストグラムHG2を求め、ヒストグラムHG2のピークP3を取得する。ヒストグラムHG2のピークはピークP3しか存在しないため、次いで、分離部11は、ピークP3から見て左方(つまり、階調値がより小さい方)のヒストグラムHG2の裾に対応する階調値を第二背景スライスBS2として算出する。例えば、分離部11は、ヒストグラムHG2において、ピークP3から左方に見てピークP3の画素数のN分の1(Nは整数)未満の画素数に最初に達する階調値をヒストグラムHG2の裾として求めても良い。また例えば、分離部11は、ヒストグラムHG2において、ピークP3から左方に見てヒストグラムHG2の傾きの変化量が閾値以上になる点の階調値をヒストグラムHG2の裾として求めても良い。
次いで、図7に示すように、分離部11は、端画像EIを第二背景スライスBS2を基準にして二値化し、端画像EIの二値化により、端画像EIを第二コンテンツ領域CA2と第二背景領域BA2とに分離する。例えば、分離部11は、端画像EIにおいて、第二背景スライスBS2以上の階調値を有する画素を‘0’、第二背景スライスBS2未満の階調値を有する画素を‘1’として端画像EIを二値化する。図7において、第二コンテンツ領域CA2は、第二背景スライスBS2を基準にした二値化で第二背景スライスBS2未満の階調値となる領域であり、文字3,4及び絵柄3に対応する。また、図7において、第二背景領域BA2は、第二背景スライスBS2を基準にした二値化で第二背景スライスBS2以上の階調値となる領域である。
このように、第一コンテンツ領域CA1の中に端領域EAが存在する場合は、分離部11は、さらに、入力画像IMのうち端画像EIだけにおけるヒストグラムHG2のピークP3に基づいて、端画像EIを第二コンテンツ領域CA2と第二背景領域BA2とに分離する。
こうすることで、影領域SDに相当する端領域EAにおいて、端画像EIを第二コンテンツ領域CA2と第二背景領域BA2とに正しく分離することができる。よって、除去部13では、入力画像IMに生じた影の位置によらず、入力画像IMから影を除去することができる。
次いで、図8に示すように、生成部12は、入力画像IMの端領域EA以外の領域において、第一背景領域BA1に含まれる第一背景領域画素のうち、第一コンテンツ領域CA1の周辺に存在する第一周辺画素を用いて第一コンテンツ領域CA1に含まれる第一コンテンツ領域画素を修正する。この修正により、生成部12は、第一修正コンテンツ領域画素CP1,CP2,CP3と第一背景領域画素とによって形成される第一背景画像を生成する。また、入力画像IMに端領域EAが存在する場合は、図9に示すように、生成部12は、さらに、端領域EAにおいて、第二背景領域BA2に含まれる第二背景領域画素のうち、第二コンテンツ領域CA2の周辺に存在する第二周辺画素を用いて第二コンテンツ領域CA2に含まれる第二コンテンツ領域画素を修正する。この修正により、生成部12は、第二修正コンテンツ領域画素CP4,CP5と第二背景領域画素とによって形成される第二背景画像を生成する。
次いで、除去部13は、入力画像IMから第一背景画像を除去する。また、入力画像IMに端領域EAが存在する場合は、除去部13は、さらに、入力画像IMから第二背景画像を除去する。入力画像IMから第一背景画像及び第二背景画像を除去することによって得られる除去画像を図10に示す。図10に示す除去画像には、文字1〜4及び絵柄1〜3のコンテンツ画像が含まれている。除去部13での除去処理の結果、図10に示す除去画像において、第一背景領域BA1及び第二背景領域BA2に相当する領域に含まれる画素の階調値は最大階調値である255になる。つまり、除去部13での除去処理の結果、入力画像IMにおける背景が真っ白になる。
例えば、除去部13は、入力画像IMと第一背景画像との間、及び、入力画像IMと第二背景画像との間でそれぞれ対応する画素毎に、式(1)に従って除去画像の階調値を求めることにより、入力画像IMから第一背景画像及び第二背景画像を減算して除去画像を得る。但し、式(1)での算出結果が255より大きくなる場合には、除去画像の階調値を255とし、式(1)での算出結果が0より小さくなる場合には、除去画像の階調値を0とする。
除去画像では、入力画像IMに比べて、コンテンツ画像のシャープさが失われているとともに、コンテンツ画像の色が薄くなっていることがある。
そこで、修復部14は、除去画像に含まれるコンテンツ画像である文字1〜4及び絵柄1〜3のエッジを修復する。修復部14は、例えば、予め生成しておいたエッジ画像を除去画像に重ねることでコンテンツ画像のエッジを修復する。修復部14での修復により、除去画像において、コンテンツ画像のシャープさが復元される。エッジ修復後のコンテンツ画像を図11に示す。
また、補正部15は、エッジ修復後のコンテンツ画像において、文字1,2を形成するコンテンツ画素の階調値を第一修正コンテンツ領域画素CP1の階調値を用いて補正し、絵柄1を形成するコンテンツ画素の階調値を第一修正コンテンツ領域画素CP2の階調値を用いて補正し、絵柄2を形成するコンテンツ画素の階調値を第一修正コンテンツ領域画素CP3の階調値を用いて補正する。また、入力画像IMに端領域EAが存在する場合は、補正部15は、さらに、エッジ修復後のコンテンツ画像において、絵柄3を形成するコンテンツ画素の階調値を第二修正コンテンツ領域画素CP4の階調値を用いて補正し、文字3,4を形成するコンテンツ画素の階調値を第二修正コンテンツ領域画素CP5の階調値を用いて補正する。
このような補正部15での補正により、除去画像において、文字1〜4がくっきりとなるとともに、絵柄1〜3の色味が入力画像IMの色味に近いものに補正される。階調値補正後の画像(つまり、出力画像)を図12に示す。
[生成部の動作]
図13〜図18は、実施例1の生成部の動作例の説明に供する図である。以下では、生成部12の動作例を、以下の動作例1〜8に分けて説明する。以下では、コンテンツ領域画素のうち、生成部12での修正の対象となる画素を「注目画素」と呼ぶことがある。
図13〜図18は、実施例1の生成部の動作例の説明に供する図である。以下では、生成部12の動作例を、以下の動作例1〜8に分けて説明する。以下では、コンテンツ領域画素のうち、生成部12での修正の対象となる画素を「注目画素」と呼ぶことがある。
[動作例1:図13]
動作例1は、第一コンテンツ領域CA1が第一背景領域BA1だけによって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1に含まれる一方で第二背景領域BA2に含まれていない場合の動作例である。
動作例1は、第一コンテンツ領域CA1が第一背景領域BA1だけによって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1に含まれる一方で第二背景領域BA2に含まれていない場合の動作例である。
動作例1では、生成部12は、第一コンテンツ領域CA1に含まれる第一コンテンツ領域画素のうちの第一注目画素Dst1(x,y)から第一コンテンツ領域CA1の境界までの第一距離、つまり、第一注目画素Dst1(x,y)と、第一コンテンツ領域CA1に隣接する第一周辺画素との間の第一距離a1,b1,c1,d1を算出する。第一注目画素Dst1(x,y)を原点として、第一距離a1は+Y方向(上方向)の距離、第一距離b1は−Y方向(下方向)の距離、第一距離c1は−X方向(左方向)の距離、第一距離d1は+X方向(右方向)の距離である。
また、生成部12は、上下左右の4方向の各々において、第一コンテンツ領域CA1に隣接する所定の範囲を設定する。図13では、生成部12は、所定の範囲Up1,Down1,Left1,Right1として、例えば5画素×5画素の範囲を設定する。
生成部12は、上下左右の各方向において、所定の範囲Up1,Down1,Left1,Right1のそれぞれに含まれる複数の第一周辺画素の階調値の第一平均値SrcUp1(x,y),SrcDown1(x,y),SrcLeft1(x,y),SrcRight1(x,y)を算出する。SrcUp1(x,y)は上方向の所定の範囲Up1における第一周辺画素の階調値の第一平均値、SrcDown1(x,y)は下方向の所定の範囲Down1における第一周辺画素の階調値の第一平均値、SrcLeft1(x,y)は左方向の所定の範囲Left1における第一周辺画素の階調値の第一平均値、SrcRight1(x,y)は右方向の所定の範囲Right1における第一周辺画素の階調値の第一平均値である。
そして、生成部12は、第一距離a1,b1,c1,d1と、第一平均値SrcUp1(x,y),SrcDown1(x,y),SrcLeft1(x,y),SrcRight1(x,y)とに基づいて、式(2)に従って、第一注目画素Dst1(x,y)の階調値を修正する。生成部12は、第一コンテンツ領域CA1に含まれるすべての第一コンテンツ領域画素の各々を順次第一注目画素Dst1(x,y)として式(2)に従って第一注目画素Dst1(x,y)の階調値を修正することにより、第一コンテンツ領域CA1に含まれるすべての第一コンテンツ領域画素を修正する。
このように、動作例1では、生成部12は、第一コンテンツ領域画素の階調値を、第一コンテンツ領域画素と第一周辺画素との間の第一距離a1,b1,c1,d1に応じて第一周辺画素の階調値を加重平均した値で置換することによって第一コンテンツ領域画素を修正する。
こうすることで、第一コンテンツ領域画素の修正後の第一コンテンツ領域CA1の色味と第一背景領域BA1の色味とを滑らかにつなげることができるため、第一コンテンツ領域画素の修正後の第一コンテンツ領域CA1と第一背景領域BA1との境界において色味の不自然なつながりを抑制することができる。
また、第一コンテンツ領域画素の修正の際に、生成部12は、第一コンテンツ領域CA1に隣接する所定範囲Up1,Down1,Left1,Right1に存在する複数の第一周辺画素の階調値の第一平均値を算出し、算出した第一平均値を用いて第一周辺画素の階調値を加重平均する。
こうすることで、第一コンテンツ領域画素の修正後の第一コンテンツ領域CA1の色味と第一背景領域BA1の色味とをさらに滑らかにつなげることができる。
[動作例2:図14]
動作例2は、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例2は、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例2では、図14に示すように、下方向の所定範囲Down1のすべてが第二背景領域BA2(つまり、影領域SD)に含まれている点が動作例1と相違する。そこで、生成部12は、式(3)に従って、第一注目画素Dst1(x,y)の階調値を修正する。式(3)には、下方向の第一距離b1及び下方向の第一平均値SrcDown1(x,y)が存在しない。よって、生成部12は、第一距離a1,c1,d1及び第一平均値SrcUp1(x,y),SrcLeft1(x,y),SrcRight1(x,y)を算出する一方で、第一距離b1及び第一平均値SrcDown1(x,y)を算出しない。つまり、動作例2では、生成部12が第一距離a1,c1,d1及び第一平均値SrcUp1(x,y),SrcLeft1(x,y),SrcRight1(x,y)を用いて第一注目画素Dst1(x,y)の階調値を修正する点は動作例1と同様であるが、生成部12が第一距離b1及び第一平均値Src Down1(x,y)を用いずに第一注目画素Dst1(x,y)の階調値を修正する点が動作例1と異なる。
このように、動作例2では、第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合は、生成部12は、第一背景領域BA1に含まれる第一周辺画素を用いる一方で、第二背景領域BA2に含まれる第一周辺画素を用いずに第一コンテンツ領域画素を修正する。
こうすることで、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合でも、第一コンテンツ領域画素の修正後の第一コンテンツ領域CA1の色味と第一背景領域BA1の色味とを滑らかにつなげることができる。
[動作例3:図15]
動作例3は、動作例2と同様、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例3は、動作例2と同様、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例3では、図15に示すように、下方向の所定範囲Down1のすべてが第二背景領域BA2(つまり、影領域SD)に含まれているとともに、左方向の所定範囲Left1の一部及び右方向の所定範囲Right1の一部が第二背景領域BA2に含まれている点が動作例1と相違する。そこで、生成部12は、動作例2と同様に、上記の式(3)に従って、第一注目画素Dst1(x,y)の階調値を修正する。但し、動作例3では、生成部12が、左方向の第一平均値SrcLeft1(x,y)及び右方向の第一平均値SrcRight1(x,y)を算出する際に、第一背景領域BA1に含まれる第一周辺画素を用いる一方で、第二背景領域BA2に含まれる第一周辺画素を用いない点が動作例2と異なる。
このように、動作例3では、動作例2と同様に、第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合は、生成部12は、第一背景領域BA1に含まれる第一周辺画素を用いる一方で、第二背景領域BA2に含まれる第一周辺画素を用いずに第一コンテンツ領域画素を修正する。
[動作例4:図14,図15]
動作例4は、動作例2と同様、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例4は、動作例2と同様、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第一コンテンツ領域CA1の周辺に存在する第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例4では、生成部12は、式(4)に従って、第一注目画素Dst1(x,y)の階調値を修正する点が動作例1と異なる。式(4)において、WUp1は上方向の第一平均値SrcUp1(x,y)に対する重み、WDown1は下方向の第一平均値SrcDown1(x,y)に対する重み、WLeft1は左方向の第一平均値SrcLeft1(x,y)に対する重み、WRight1は右方向の第一平均値SrcRight1(x,y)に対する重みである。
例えば、図14に示すように、上方向の所定範囲Up1、左方向の所定範囲Left1及び右方向の所定範囲Right1のすべてが第一背景領域BA1に含まれている一方で、下方向の所定範囲Down1のすべてが第二背景領域BA2に含まれている場合は、生成部12は、式(4)において、WUp1,WLeft1,WRight1の値をWDown1の値より大きくする(WUp1,WLeft1,WRight1>WDown1)。
また例えば、図15に示すように、上方向の所定範囲Up1のすべてが第一背景領域BA1に含まれ、下方向の所定範囲Down1のすべてが第二背景領域BA2に含まれているとともに、左方向の所定範囲Left1の一部及び右方向の所定範囲Right1の一部が第二背景領域BA2に含まれている場合は、生成部12は、式(4)において、WUp1,WLeft1,WRight1の値をWDown1の値より大きくするとともに、WUp1の値をWLeft1,WRight1の値より大きくする(WUp1>WLeft1,WRight1>WDown1)。
このように、動作例4では、第一周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合は、生成部12は、第一背景領域BA1に含まれる第一周辺画素の階調値の重み付けを第二背景領域BA2に含まれる第一周辺画素の階調値の重み付けより大きくした上で、第一コンテンツ領域画素の階調値を、第一コンテンツ領域画素と第一周辺画素との間の第一距離a1,b1,c1,d1に応じて第一周辺画素の階調値を加重平均した値で置換することによって第一コンテンツ領域画素を修正する。
こうすることで、第一コンテンツ領域CA1が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合に、第一コンテンツ領域画素の修正にあたり第一背景領域BA1に含まれる第一周辺画素の影響度を第二背景領域BA2に含まれる第一周辺画素の影響度よりも大きくすることができる。よって、第一コンテンツ領域画素の修正後の第一コンテンツ領域CA1と第一背景領域BA1との境界における色味の変化を抑えることができる。
以上、動作例1〜4について説明した。
次いで、動作例5〜8について説明する。動作例5〜8は、第一コンテンツ領域CA1の中に端領域EAが存在する場合の動作例である。
[動作例5:図16]
動作例5は、第二コンテンツ領域CA2が第二背景領域BA2だけによって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第二背景領域BA2に含まれる一方で第一背景領域BA1に含まれていない場合の動作例である。
動作例5は、第二コンテンツ領域CA2が第二背景領域BA2だけによって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第二背景領域BA2に含まれる一方で第一背景領域BA1に含まれていない場合の動作例である。
動作例5では、生成部12は、第二コンテンツ領域CA2に含まれる第二コンテンツ領域画素のうちの第二注目画素Dst2(x,y)から第二コンテンツ領域CA2の境界までの第二距離、つまり、第二注目画素Dst2(x,y)と、第二コンテンツ領域CA2に隣接する第二周辺画素との間の第二距離a2,b2,c2,d2を算出する。第二注目画素Dst2(x,y)を原点として、第二距離a2は+Y方向(上方向)の距離、第二距離b2は−Y方向(下方向)の距離、第二距離c2は−X方向(左方向)の距離、第二距離d2は+X方向(右方向)の距離である。
また、生成部12は、上下左右の4方向の各々において、第二コンテンツ領域CA2に隣接する所定の範囲を設定する。図16では、生成部12は、所定の範囲Up2,Down2,Left2,Right2として、例えば5画素×5画素の範囲を設定する。
生成部12は、上下左右の各方向において、所定の範囲Up2,Down2,Left2,Right2のそれぞれに含まれる複数の第二周辺画素の階調値の第二平均値SrcUp2(x,y),SrcDown2(x,y),SrcLeft2(x,y),SrcRight2(x,y)を算出する。SrcUp2(x,y)は上方向の所定の範囲Up2における第二周辺画素の階調値の第二平均値、SrcDown2(x,y)は下方向の所定の範囲Down2における第二周辺画素の階調値の第二平均値、SrcLeft2(x,y)は左方向の所定の範囲Left2における第二周辺画素の階調値の第二平均値、SrcRight2(x,y)は右方向の所定の範囲Right2における第二周辺画素の階調値の第二平均値である。
そして、生成部12は、第二距離a2,b2,c2,d2と、第二平均値SrcUp2(x,y),SrcDown2(x,y),SrcLeft2(x,y),SrcRight2(x,y)とに基づいて、式(5)に従って、第二注目画素Dst2(x,y)の階調値を修正する。生成部12は、第二コンテンツ領域CA2に含まれるすべての第二コンテンツ領域画素の各々を順次第二注目画素Dst2(x,y)として式(5)に従って第二注目画素Dst2(x,y)の階調値を修正することにより、第二コンテンツ領域CA2に含まれるすべての第二コンテンツ領域画素を修正する。
このように、動作例5では、生成部12は、第二コンテンツ領域画素の階調値を、第二コンテンツ領域画素と第二周辺画素との間の第二距離a2,b2,c2,d2に応じて第二周辺画素の階調値を加重平均した値で置換することによって第二コンテンツ領域画素を修正する。
こうすることで、第二コンテンツ領域画素の修正後の第二コンテンツ領域CA2の色味と第二背景領域BA2の色味とを滑らかにつなげることができるため、第二コンテンツ領域画素の修正後の第二コンテンツ領域CA2と第二背景領域BA2との境界において色味の不自然なつながりを抑制することができる。
また、第二コンテンツ領域画素の修正の際に、生成部12は、第二コンテンツ領域CA2に隣接する所定範囲Up2,Down2,Left2,Right2に存在する複数の第二周辺画素の階調値の第二平均値を算出し、算出した第二平均値を用いて第二周辺画素の階調値を加重平均する。
こうすることで、第二コンテンツ領域画素の修正後の第二コンテンツ領域CA2の色味と第二背景領域BA2の色味とをさらに滑らかにつなげることができる。
[動作例6:図17]
動作例6は、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例6は、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例6では、図17に示すように、上方向の所定範囲Up2のすべてが第一背景領域BA1に含まれている点が動作例5と相違する。そこで、生成部12は、式(6)に従って、第二注目画素Dst2(x,y)の階調値を修正する。式(6)には、上方向の第二距離a2及び上方向の第二平均値SrcUp2(x,y)が存在しない。よって、生成部12は、第二距離b2,c2,d2及び第二平均値SrcDown2(x,y),SrcLeft2(x,y),SrcRight2(x,y)を算出する一方で、第二距離a2及び第二平均値SrcUp2(x,y)を算出しない。つまり、動作例6では、生成部12が第二距離b2,c2,d2及び第二平均値SrcDown2(x,y),SrcLeft2(x,y),SrcRight2(x,y)を用いて第二注目画素Dst2(x,y)の階調値を修正する点は動作例2と同様であるが、生成部12が第二距離a2及び第二平均値Src Up2(x,y)を用いずに第二注目画素Dst2(x,y)の階調値を修正する点が動作例5と異なる。
このように、動作例6では、第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合は、生成部12は、第二背景領域BA2に含まれる第二周辺画素を用いる一方で、第一背景領域BA1に含まれる第二周辺画素を用いずに第二コンテンツ領域画素を修正する。
こうすることで、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合でも、第二コンテンツ領域画素の修正後の第二コンテンツ領域CA2の色味と第二背景領域BA2の色味とを滑らかにつなげることができる。
[動作例7:図18]
動作例7は、動作例6と同様、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例7は、動作例6と同様、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例7では、図18に示すように、上方向の所定範囲Up2のすべてが第一背景領域BA1に含まれているとともに、左方向の所定範囲Left2の一部及び右方向の所定範囲Right2の一部が第一背景領域BA1に含まれている点が動作例5と相違する。そこで、生成部12は、動作例6と同様に、上記の式(6)に従って、第二注目画素Dst2(x,y)の階調値を修正する。但し、動作例7では、生成部12が、左方向の第二平均値SrcLeft2(x,y)及び右方向の第二平均値SrcRight2(x,y)を算出する際に、第二背景領域BA2に含まれる第二周辺画素を用いる一方で、第一背景領域BA1に含まれる第二周辺画素を用いない点が動作例6と異なる。
このように、動作例7では、動作例6と同様に、第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合は、生成部12は、第二背景領域BA2に含まれる第二周辺画素を用いる一方で、第一背景領域BA1に含まれる第二周辺画素を用いずに第二コンテンツ領域画素を修正する。
[動作例8:図17,図18]
動作例8は、動作例6と同様、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例8は、動作例6と同様、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合の動作例、つまり、第二コンテンツ領域CA2の周辺に存在する第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合の動作例である。
動作例8では、生成部12は、式(7)に従って、第二注目画素Dst2(x,y)の階調値を修正する点が動作例5と異なる。式(7)において、WUp2は上方向の第二平均値SrcUp2(x,y)に対する重み、WDown2は下方向の第二平均値SrcDown2(x,y)に対する重み、WLeft2は左方向の第二平均値SrcLeft2(x,y)に対する重み、WRight2は右方向の第二平均値SrcRight2(x,y)に対する重みである。
例えば、図17に示すように、下方向の所定範囲Down2、左方向の所定範囲Left2及び右方向の所定範囲Right2のすべてが第二背景領域BA2に含まれている一方で、上方向の所定範囲Up2のすべてが第一背景領域BA1に含まれている場合は、生成部12は、式(7)において、WDown2,WLeft2,WRight2の値をWUp2の値より大きくする(WDown2,WLeft2,WRight2>WUp2)。
また例えば、図18に示すように、下方向の所定範囲Down2のすべてが第二背景領域BA2に含まれ、上方向の所定範囲Up2のすべてが第一背景領域BA1に含まれているとともに、左方向の所定範囲Left2の一部及び右方向の所定範囲Right2の一部が第一背景領域BA1に含まれている場合は、生成部12は、式(7)において、WDown2,WLeft2,WRight2の値をWUp2の値より大きくするとともに、WDown2の値をWLeft2,WRight2の値より大きくする(WDown2>WLeft2,WRight2>WUp2)。
このように、動作例8では、第二周辺画素が第一背景領域BA1及び第二背景領域BA2の双方に含まれる場合は、生成部12は、第二背景領域BA2に含まれる第二周辺画素の階調値の重み付けを第一背景領域BA1に含まれる第二周辺画素の階調値の重み付けより大きくした上で、第二コンテンツ領域画素の階調値を、第二コンテンツ領域画素と第二周辺画素との間の第二距離a2,b2,c2,d2に応じて第二周辺画素の階調値を加重平均した値で置換することによって第二コンテンツ領域画素を修正する。
こうすることで、第二コンテンツ領域CA2が第一背景領域BA1及び第二背景領域BA2の双方によって囲まれている場合に、第二コンテンツ領域画素の修正にあたり第二背景領域BA2に含まれる第二周辺画素の影響度を第一背景領域BA1に含まれる第二周辺画素の影響度よりも大きくすることができる。よって、第二コンテンツ領域画素の修正後の第二コンテンツ領域CA2と第二背景領域BA2との境界における色味の変化を抑えることができる。
[補正部の動作]
図19は、実施例1の補正部の動作例の説明に供する図である。図19において、V(x0,y0)は、第一修正コンテンツ領域画素CP1,CP2,CP3の階調値であり、V(xm,yn)は、第二修正コンテンツ領域画素CP4,CP5の階調値である。
図19は、実施例1の補正部の動作例の説明に供する図である。図19において、V(x0,y0)は、第一修正コンテンツ領域画素CP1,CP2,CP3の階調値であり、V(xm,yn)は、第二修正コンテンツ領域画素CP4,CP5の階調値である。
補正部15は、最大階調値255から階調値V(x0,y 0 )を減算することにより、第一修正コンテンツ領域画素CP1,CP2,CP3におけるシャドウ値S(x0,y0)を算出する。次いで、補正部15は、算出したシャドウ値S(x0,y0)に基づいて、図19に示すトーンカーブTC1を生成する。図19におけるハイライトHは、例えば、最大階調値255の95%程度の値である242に設定される。そして、補正部15は、除去部13によって入力画像IMから第一背景画像を除去することによって得られる第一除去画像に含まれる第一コンテンツ画像(つまり、図10に示す文字1,2及び絵柄1,2のコンテンツ画像)を形成する第一コンテンツ画素の階調値にトーンカーブTC1を適用することにより、第一コンテンツ画素の補正後の階調値を算出する。補正部15は、すべての第一コンテンツ画素について、第一コンテンツ画素毎にトーンカーブTC1を用いて補正後の階調値を算出する。つまり、補正部15は、除去部13によって入力画像IMから第一背景画像を除去することによって得られる第一除去画像に含まれる第一コンテンツ画像を形成する第一コンテンツ画素の階調値を、第一修正コンテンツ領域画素の階調値を用いて補正する。
さらに、入力画像IMに端領域EAが存在する場合は、補正部15は、最大階調値255から階調値V(xm,yn)を減算することにより、第二修正コンテンツ領域画素CP4,CP5におけるシャドウ値S(xm,yn)を算出する。次いで、補正部15は、算出したシャドウ値S(xm,yn)に基づいて、図19に示すトーンカーブTC2を生成する。通常、階調値V(x0,y0)は階調値V(xm,yn)より大きい値であるため、トーンカーブTC2の傾きはトーンカーブTC1の傾きよりも大きくなる。そして、補正部15は、除去部13によって入力画像IMから第二背景画像を除去することによって得られる第二除去画像に含まれる第二コンテンツ画像(つまり、図10に示す文字3,4及び絵柄3のコンテンツ画像)を形成する第二コンテンツ画素の階調値にトーンカーブTC2を適用することにより、第二コンテンツ画素の補正後の階調値を算出する。補正部15は、すべての第二コンテンツ画素について、第二コンテンツ画素毎にトーンカーブTC2を用いて補正後の階調値を算出する。つまり、補正部15は、除去部13によって入力画像IMから第二背景画像を除去することによって得られる第二除去画像に含まれる第二コンテンツ画像を形成する第二コンテンツ画素の階調値を、第二修正コンテンツ領域画素の階調値を用いて補正する。
このような補正部15での補正により、コンテンツ領域において、背景画像の除去により増加した分だけ階調値が減少するため、コンテンツ画像の色味を入力画像IMの色味に近いものに補正することができる。
[画像処理装置の処理]
図20は、実施例1の画像処理装置の処理例の説明に供するフローチャートである。
図20は、実施例1の画像処理装置の処理例の説明に供するフローチャートである。
図20において、ステップS11では、分離部11は、領域分離処理を行う。図21は、実施例1の領域分離処理の一例の説明に供するフローチャートである。
図21において、ステップS31では、分離部11は、入力画像IMの全体のヒストグラムHG1を求める。
次いで、ステップS33では、分離部11は、ヒストグラムHG1のピークに基づいて、第一背景スライスBS1を算出する。
次いで、ステップS35では、分離部11は、第一背景スライスBS1に基づいて、入力画像IMを第一コンテンツ領域CA1と第一背景領域BA1とに分離する。
次いで、ステップS37では、分離部11は、入力画像IMの画像端に接する第一コンテンツ領域CA1が存在するか否かを判断する。入力画像IMの画像端に接する第一コンテンツ領域CA1が存在しない場合は(ステップS37:No)、処理はステップS39へ進み、入力画像IMの画像端に接する第一コンテンツ領域CA1が存在する場合は(ステップS37:Yes)、処理はステップS41へ進む。
ステップS39では、分離部11は、存在フラグをFALSEにセットする。ステップS39での処理により、領域分離処理は終了する。
一方で、ステップS41では、分離部11は、存在フラグをTRUEにセットする。
次いで、ステップS43では、分離部11は、入力画像IMのうち端画像EIだけにおけるヒストグラムHG2を求める。
次いで、ステップS45では、分離部11は、ヒストグラムHG2のピークに基づいて、第二背景スライスBS2を算出する。
次いで、ステップS47では、分離部11は、第二背景スライスBS2に基づいて、端画像EIを第二コンテンツ領域CA2と第二背景領域BA2とに分離する。ステップS47での処理により、領域分離処理は終了する。
図20に戻り、ステップS13では、生成部12は、背景画像生成処理を行う。図22は、実施例1の背景画像生成処理の一例の説明に供するフローチャートである。
図22において、ステップS51では、生成部12は、第一コンテンツ領域CA1の周辺に存在する第一周辺画素を用いて第一コンテンツ領域CA1に含まれる第一コンテンツ領域画素を修正することにより第一背景画像を生成する。
次いで、ステップS53では、生成部12は、存在フラグがTRUEであるか否かを判断する。
存在フラグがTRUEである場合は(ステップS53:Yes)、処理はステップS55へ進み、ステップS55では、生成部12は、第二コンテンツ領域CA2の周辺に存在する第二周辺画素を用いて第二コンテンツ領域CA2に含まれる第二コンテンツ領域画素を修正することにより第二背景画像を生成する。ステップS55での処理により、背景画像生成処理は終了する。
一方で、存在フラグがTRUEでない場合、つまり、存在フラグがFALSEである場合は(ステップS53:No)、ステップS55の処理が行われることなく、背景画像生成処理は終了する。
図20に戻り、ステップS15では、除去部13は、入力画像IMから第一背景画像を除去する。また、存在フラグがTRUEである場合は、除去部13は、さらに、入力画像IMから第二背景画像を除去する。
次いで、ステップS17では、修復部14は、除去画像に含まれるコンテンツ画像のエッジを修復する。
次いで、ステップS19では、補正部15は、エッジ修復後のコンテンツ画像の階調値を補正する。
以上のように、実施例1では、画像処理装置1は、分離部11と、生成部12と、除去部13とを有する。分離部11は、入力画像IMを第一コンテンツ領域CA1と第一背景領域BA1とに分離する。生成部12は、第一背景領域BA1に含まれる第一背景領域画素のうち第一コンテンツ領域CA1の周辺に存在する第一周辺画素を用いて第一コンテンツ領域CA1に含まれる第一コンテンツ領域画素を修正する。この修正により、生成部12は、修正後の第一コンテンツ領域画素と第一背景領域画素とによって形成される第一背景画像を生成する。除去部13は、入力画像IMから第一背景画像を除去する。
こうすることで、入力画像IMにおいてコンテンツ以外の背景が白一色になるため、背景との対比によりコンテンツが強調されるので、入力画像IM内のコンテンツの認識度を高めることができる。よって、例えば、コンテンツが文字である場合は、OCRによる文字認識の精度が向上する。また、周辺画素を用いてコンテンツ領域画素を修正することにより背景画像を生成するため、滑らかな背景画像を生成することができる。
また、実施例1では、第一コンテンツ領域CA1の中に入力画像IMの画像端に接する領域EAが存在する場合は、分離部11、生成部12及び除去部13は、さらに以下の処理を行う。すなわち、分離部11は、さらに、端領域EAに存在する端画像を第二コンテンツ領域CA2と第二背景領域BA2とに分離する。生成部12は、さらに、第二背景領域BA2に含まれる第二背景領域画素のうち第二コンテンツ領域CA2の周辺に存在する第二周辺画素を用いて第二コンテンツ領域CA2に含まれる第二コンテンツ領域画素を修正する。この修正により、生成部12は、修正後の第二コンテンツ領域画素と第二背景領域画素とによって形成される第二背景画像を生成する。除去部13は、さらに、入力画像IMから第二背景画像を除去する。
こうすることで、影領域SDに相当する端領域EAにおいても、コンテンツ以外の背景(つまり、影)が白一色になるため、影領域SD内のコンテンツの認識度を高めることができる。
[実施例2]
図23は、実施例2の携帯端末の構成例を示す図である。図23において、携帯端末10は、画像処理装置1と、記憶部101と、撮影部102と、操作部103と、表示部104と、通信部105とを有する。記憶部101は、ハードウェアとして、例えば、メモリにより実現される。メモリの一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。撮影部102は、ハードウェアとして、例えば、カメラにより実現される。操作部103及び表示部104は、ハードウェアとして、例えば、タッチパネルにより実現される。通信部105は、ハードウェアとして、例えば、無線通信モジュールまたはネットワークインタフェースモジュールにより実現される。
図23は、実施例2の携帯端末の構成例を示す図である。図23において、携帯端末10は、画像処理装置1と、記憶部101と、撮影部102と、操作部103と、表示部104と、通信部105とを有する。記憶部101は、ハードウェアとして、例えば、メモリにより実現される。メモリの一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。撮影部102は、ハードウェアとして、例えば、カメラにより実現される。操作部103及び表示部104は、ハードウェアとして、例えば、タッチパネルにより実現される。通信部105は、ハードウェアとして、例えば、無線通信モジュールまたはネットワークインタフェースモジュールにより実現される。
携帯端末10では、例えば、撮影部102により撮影された画像、または、記憶部101に記憶されている画像が画像処理装置1への入力画像となる。また、画像処理装置1からの出力画像は、記憶部101に記憶されたり、表示部104に表示される。
[実施例3]
図24は、実施例3のコンピュータ装置の構成例を示す図である。図24に示すコンピュータ装置20は、例えば、サーバである。図24において、コンピュータ装置20は、画像処理装置1と、記憶部201と、通信部202とを有する。記憶部201は、ハードウェアとして、例えば、メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等により実現される。メモリの一例として、SDRAM等のRAM、ROM、フラッシュメモリ等が挙げられる。通信部202は、ハードウェアとして、例えば、無線通信モジュールまたはネットワークインタフェースモジュールにより実現される。
図24は、実施例3のコンピュータ装置の構成例を示す図である。図24に示すコンピュータ装置20は、例えば、サーバである。図24において、コンピュータ装置20は、画像処理装置1と、記憶部201と、通信部202とを有する。記憶部201は、ハードウェアとして、例えば、メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等により実現される。メモリの一例として、SDRAM等のRAM、ROM、フラッシュメモリ等が挙げられる。通信部202は、ハードウェアとして、例えば、無線通信モジュールまたはネットワークインタフェースモジュールにより実現される。
コンピュータ装置20では、例えば、通信部202によって携帯端末10から受信された画像、または、記憶部201に記憶されている画像が画像処理装置1への入力画像となる。また、画像処理装置1からの出力画像は、記憶部201に記憶されたり、通信部202によって携帯端末10へ送信される。
[他の実施例]
[1]画像処理装置1での上記説明における各処理の全部または一部は、各処理に対応するプログラムを画像処理装置1が有するプロセッサに実行させることによって実現してもよい。例えば、上記説明における各処理に対応するプログラムがメモリに記憶され、プログラムがプロセッサによってメモリから読み出されて実行されても良い。また、プログラムは、任意のネットワークを介して携帯端末10またはコンピュータ装置20に接続されたプログラムサーバに記憶され、そのプログラムサーバから携帯端末10またはコンピュータ装置20にダウンロードされて実行されたり、コンピュータ装置20が読み取り可能な記録媒体に記憶され、その記録媒体から読み出されて実行されても良い。コンピュータ装置20が読み取り可能な記録媒体には、例えば、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、CD−ROM、DVD、及び、Blu−ray(登録商標)ディスク等の可搬の記憶媒体が含まれる。また、プログラムは、任意の言語や任意の記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。また、プログラムは必ずしも単一的に構成されるものに限られず、複数のモジュールや複数のライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものも含む。
[1]画像処理装置1での上記説明における各処理の全部または一部は、各処理に対応するプログラムを画像処理装置1が有するプロセッサに実行させることによって実現してもよい。例えば、上記説明における各処理に対応するプログラムがメモリに記憶され、プログラムがプロセッサによってメモリから読み出されて実行されても良い。また、プログラムは、任意のネットワークを介して携帯端末10またはコンピュータ装置20に接続されたプログラムサーバに記憶され、そのプログラムサーバから携帯端末10またはコンピュータ装置20にダウンロードされて実行されたり、コンピュータ装置20が読み取り可能な記録媒体に記憶され、その記録媒体から読み出されて実行されても良い。コンピュータ装置20が読み取り可能な記録媒体には、例えば、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、CD−ROM、DVD、及び、Blu−ray(登録商標)ディスク等の可搬の記憶媒体が含まれる。また、プログラムは、任意の言語や任意の記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。また、プログラムは必ずしも単一的に構成されるものに限られず、複数のモジュールや複数のライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものも含む。
[2]画像処理装置1の分散・統合の具体的形態は図示するものに限られず、画像処理装置1の全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
1 画像処理装置
11 分離部
12 生成部
13 除去部
14 修復部
15 補正部
10 携帯端末
20 コンピュータ装置
101,201 記憶部
102 撮影部
103 操作部
104 表示部
105,202 通信部
11 分離部
12 生成部
13 除去部
14 修復部
15 補正部
10 携帯端末
20 コンピュータ装置
101,201 記憶部
102 撮影部
103 操作部
104 表示部
105,202 通信部
Claims (16)
- 入力画像を第一コンテンツ領域と第一背景領域とに分離する分離部と、
前記第一背景領域に含まれる第一背景領域画素のうち前記第一コンテンツ領域の周辺に存在する第一周辺画素を用いて前記第一コンテンツ領域に含まれる第一コンテンツ領域画素を修正することにより、修正後の前記第一コンテンツ領域画素と前記第一背景領域画素とによって形成される第一背景画像を生成する生成部と、
前記入力画像から前記第一背景画像を除去することにより第一除去画像を取得する除去部と、
前記第一除去画像に含まれる第一コンテンツ画像のエッジを修復する修復部と、
エッジ修復後の前記第一コンテンツ画像の階調値を補正する補正部と、
を備える画像処理装置。 - 前記分離部は、前記入力画像のヒストグラムのピークに基づいて、前記入力画像を前記第一コンテンツ領域と前記第一背景領域とに分離する、
請求項1に記載の画像処理装置。 - 前記生成部は、前記第一コンテンツ領域画素の階調値を、前記第一コンテンツ領域画素と前記第一周辺画素との間の第一距離に応じて前記第一周辺画素の階調値を加重平均した値で置換することによって前記第一コンテンツ領域画素を修正する、
請求項1または2に記載の画像処理装置。 - 前記生成部は、前記第一コンテンツ領域に隣接する所定範囲に存在する複数の前記第一周辺画素の階調値の第一平均値を算出し、前記第一平均値を用いて前記第一周辺画素の階調値を加重平均する、
請求項3に記載の画像処理装置。 - 前記補正部は、エッジ修復後の前記第一コンテンツ画像を形成する第一コンテンツ画素の階調値を、前記生成部での修正後の前記第一コンテンツ領域画素の階調値を用いて補正することにより、エッジ修復後の前記第一コンテンツ画像の階調値を補正する、
請求項1から4の何れか一つに記載の画像処理装置。 - 前記分離部は、さらに、前記第一コンテンツ領域のうち前記入力画像の画像端に接する端領域に存在する端画像を第二コンテンツ領域と第二背景領域とに分離し、
前記生成部は、さらに、前記第二背景領域に含まれる第二背景領域画素のうち前記第二コンテンツ領域の周辺に存在する第二周辺画素を用いて前記第二コンテンツ領域に含まれる第二コンテンツ領域画素を修正することにより、修正後の前記第二コンテンツ領域画素と前記第二背景領域画素とによって形成される第二背景画像を生成し、
前記除去部は、さらに、前記入力画像から前記第二背景画像を除去する、
請求項1に記載の画像処理装置。 - 前記分離部は、前記入力画像のうち前記端画像だけにおけるヒストグラムのピークに基づいて、前記端画像を前記第二コンテンツ領域と前記第二背景領域とに分離する、
請求項6に記載の画像処理装置。 - 前記生成部は、前記第二コンテンツ領域画素の階調値を、前記第二コンテンツ領域画素と前記第二周辺画素との間の第二距離に応じて前記第二周辺画素の階調値を加重平均した値で置換することによって前記第二コンテンツ領域画素を修正する、
請求項6または7に記載の画像処理装置。 - 前記生成部は、前記第二コンテンツ領域に隣接する所定範囲に存在する複数の前記第二周辺画素の階調値の第二平均値を算出し、前記第二平均値を用いて前記第二周辺画素の前記階調値を加重平均する、
請求項8に記載の画像処理装置。 - 前記除去部によって前記入力画像から前記第二背景画像を除去することによって得られた第二除去画像に含まれる第二コンテンツ画像を形成する第二コンテンツ画素の階調値を、前記生成部での修正後の前記第二コンテンツ領域画素の階調値を用いて補正する補正部、
をさらに具備する請求項6から9の何れか一つに記載の画像処理装置。 - 前記生成部は、前記第一周辺画素が前記第一背景領域及び前記第二背景領域の双方に含まれる場合は、前記第一背景領域に含まれる前記第一周辺画素の階調値の重み付けを前記第二背景領域に含まれる前記第一周辺画素の階調値の重み付けより大きくした上で、前記第一コンテンツ領域画素の階調値を、前記第一コンテンツ領域画素と前記第一周辺画素との間の第一距離に応じて前記第一周辺画素の階調値を加重平均した値で置換することによって前記第一コンテンツ領域画素を修正する、
請求項8から10の何れか一つに記載の画像処理装置。 - 前記生成部は、前記第一周辺画素が前記第一背景領域及び前記第二背景領域の双方に含まれる場合は、前記第一背景領域に含まれる前記第一周辺画素を用いる一方で前記第二背景領域に含まれる前記第一周辺画素を用いずに前記第一コンテンツ領域画素を修正する、
請求項6から10の何れか一つに記載の画像処理装置。 - 前記生成部は、前記第二周辺画素が前記第一背景領域及び前記第二背景領域の双方に含まれる場合は、前記第二背景領域に含まれる前記第二周辺画素の階調値の重み付けを前記第一背景領域に含まれる前記第二周辺画素の階調値の重み付けより大きくした上で、前記第二コンテンツ領域画素の階調値を、前記第二コンテンツ領域画素と前記第二周辺画素との間の第二距離に応じて前記第二周辺画素の階調値を加重平均した値で置換することによって前記第二コンテンツ領域画素を修正する、
請求項8から10の何れか一つに記載の画像処理装置。 - 前記生成部は、前記第二周辺画素が前記第一背景領域及び前記第二背景領域の双方に含まれる場合は、前記第二背景領域に含まれる前記第二周辺画素を用いる一方で前記第一背景領域に含まれる前記第二周辺画素を用いずに前記第二コンテンツ領域画素を修正する、
請求項6から10の何れか一つに記載の画像処理装置。 - 入力画像をコンテンツ領域と背景領域とに分離し、
前記背景領域に含まれる背景領域画素のうち前記コンテンツ領域の周辺に存在する周辺画素を用いて前記コンテンツ領域に含まれるコンテンツ領域画素を修正することにより、修正後の前記コンテンツ領域画素と前記背景領域画素とによって形成される背景画像を生成し、
前記入力画像から前記背景画像を除去することにより除去画像を取得し、
前記除去画像に含まれるコンテンツ画像のエッジを修復し、
エッジ修復後の前記コンテンツ画像の階調値を補正する、
画像処理方法。 - 入力画像をコンテンツ領域と背景領域とに分離し、
前記背景領域に含まれる背景領域画素のうち前記コンテンツ領域の周辺に存在する周辺画素を用いて前記コンテンツ領域に含まれるコンテンツ領域画素を修正することにより、修正後の前記コンテンツ領域画素と前記背景領域画素とによって形成される背景画像を生成し、
前記入力画像から前記背景画像を除去することにより除去画像を取得し、
前記除去画像に含まれるコンテンツ画像のエッジを修復し、
エッジ修復後の前記コンテンツ画像の階調値を補正する、
処理をプロセッサに実行させるための画像処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016211597A JP6317413B1 (ja) | 2016-10-28 | 2016-10-28 | 画像処理装置、画像処理方法及び画像処理プログラム |
US15/442,060 US10332263B2 (en) | 2016-10-28 | 2017-02-24 | Image processing device, image processing method, and non-transitory computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016211597A JP6317413B1 (ja) | 2016-10-28 | 2016-10-28 | 画像処理装置、画像処理方法及び画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6317413B1 true JP6317413B1 (ja) | 2018-04-25 |
JP2018074368A JP2018074368A (ja) | 2018-05-10 |
Family
ID=62022479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016211597A Active JP6317413B1 (ja) | 2016-10-28 | 2016-10-28 | 画像処理装置、画像処理方法及び画像処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10332263B2 (ja) |
JP (1) | JP6317413B1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6317413B1 (ja) * | 2016-10-28 | 2018-04-25 | 株式会社Pfu | 画像処理装置、画像処理方法及び画像処理プログラム |
KR20230077833A (ko) | 2021-11-26 | 2023-06-02 | 삼성전자주식회사 | 이미지 신호 프로세서, 이미지 신호 프로세서의 동작 방법 및 이미지 센싱 장치 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6667774B2 (en) * | 2001-11-02 | 2003-12-23 | Imatte, Inc. | Method and apparatus for the automatic generation of subject to background transition area boundary lines and subject shadow retention |
JP2004110369A (ja) | 2002-09-18 | 2004-04-08 | Hitachi Ltd | 文字認識方法および文字認識装置 |
JP4264051B2 (ja) * | 2004-11-17 | 2009-05-13 | 株式会社Pfu | 画像処理装置 |
CN101789121B (zh) | 2009-01-22 | 2013-11-13 | 佳能株式会社 | 用于阴影校正的装置和方法 |
US8452689B1 (en) * | 2009-02-18 | 2013-05-28 | United Services Automobile Association (Usaa) | Systems and methods of check detection |
KR101929560B1 (ko) * | 2013-01-29 | 2019-03-14 | 삼성전자주식회사 | 이미지 에지 검출 방법 및 장치 |
JP6341085B2 (ja) | 2014-12-26 | 2018-06-13 | ブラザー工業株式会社 | 画像処理装置、および、コンピュータプログラム |
JP6045625B2 (ja) | 2015-03-20 | 2016-12-14 | 株式会社Pfu | 画像処理装置、領域検出方法及びコンピュータプログラム |
JP6099686B2 (ja) * | 2015-03-20 | 2017-03-22 | 株式会社Pfu | 画像処理装置、領域検出方法及びコンピュータプログラム |
JP6317413B1 (ja) * | 2016-10-28 | 2018-04-25 | 株式会社Pfu | 画像処理装置、画像処理方法及び画像処理プログラム |
-
2016
- 2016-10-28 JP JP2016211597A patent/JP6317413B1/ja active Active
-
2017
- 2017-02-24 US US15/442,060 patent/US10332263B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018074368A (ja) | 2018-05-10 |
US20180122084A1 (en) | 2018-05-03 |
US10332263B2 (en) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5701182B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
US10748023B2 (en) | Region-of-interest detection apparatus, region-of-interest detection method, and recording medium | |
JP6904182B2 (ja) | 画像視点変換装置及び方法 | |
JP5810628B2 (ja) | 画像処理装置及び画像処理プログラム | |
US10455163B2 (en) | Image processing apparatus that generates a combined image, control method, and storage medium | |
KR101597739B1 (ko) | 화상 처리 장치, 화상 처리 방법, 및 컴퓨터 판독 가능한 매체 | |
JP5301694B2 (ja) | 画像処理装置、画像処理方法、プログラムおよびその記録媒体 | |
US8538191B2 (en) | Image correction apparatus and method for eliminating lighting component | |
JP6021665B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6592992B2 (ja) | 画像の背景輝度画像の抽出装置及び方法、並びに影除去装置及び方法 | |
JP5847062B2 (ja) | 画像処理装置 | |
JP6317413B1 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6106808B2 (ja) | 文書内バーコード配置特定 | |
KR20150099116A (ko) | Ocr를 이용한 컬러 문자 인식 방법 및 그 장치 | |
JP2010186246A (ja) | 画像処理装置、方法、及び、プログラム | |
JP6643301B2 (ja) | 欠陥検査装置及び欠陥検査方法 | |
JP2010225047A (ja) | ノイズ成分除去装置、ノイズ成分除去プログラムを記録した媒体 | |
US8903170B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
JP5979008B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US11570331B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2009140244A (ja) | 画像処理プログラム及び画像処理装置 | |
JP2014127763A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6121768B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
JP2006107018A (ja) | 画像解析方法及び装置、画像処理方法及びシステム、これらの動作プログラム | |
JP5262877B2 (ja) | ノイズ成分除去装置、ノイズ成分除去プログラムを記録した媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6317413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |