JP5219706B2 - 画像処理装置、画像処理方法、及び、画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び、画像処理プログラム Download PDF

Info

Publication number
JP5219706B2
JP5219706B2 JP2008235589A JP2008235589A JP5219706B2 JP 5219706 B2 JP5219706 B2 JP 5219706B2 JP 2008235589 A JP2008235589 A JP 2008235589A JP 2008235589 A JP2008235589 A JP 2008235589A JP 5219706 B2 JP5219706 B2 JP 5219706B2
Authority
JP
Japan
Prior art keywords
image
color
area
region
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008235589A
Other languages
English (en)
Other versions
JP2010067223A (ja
Inventor
暁艶 戴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008235589A priority Critical patent/JP5219706B2/ja
Priority to US12/545,375 priority patent/US8737749B2/en
Publication of JP2010067223A publication Critical patent/JP2010067223A/ja
Application granted granted Critical
Publication of JP5219706B2 publication Critical patent/JP5219706B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names

Description

本発明は、画像を量子化する画像処理装置に関する。
近年、情報の電子化が進み、紙文書をそのまま保存するのではなく、スキャナ等でスキャンすることにより文書画像に電子化して保存したり、その文書画像の電子データを他装置に送信するシステムが普及している。そのようなシステムにおいては、送信時に、送信コストを削減するため、電子化された文書に対して高い圧縮性が要求される場合が多い。また、電子化データを部分的に編集できる再利用性と、拡大しても縮小しても画質が落ちない高画質性も要求されている。しかしながら、文書画像に文字領域や写真領域が混在する場合に、文字領域に適した圧縮を行うと画質は良いが圧縮率が低くなってしまい、写真領域に適した圧縮を行うと圧縮率は高いが文字が劣化してしまい、画質と圧縮性を全て満たすことが困難であった。
ところが、近年、様々な技術が開発されている。特許文献1には、電子化された文書画像を文字領域や写真領域に分離し、再利用性と高画質性が重視される文字領域をベクトルデータに変換し、ベクトル化で容易に再現できない写真領域等を圧縮して、各領域の圧縮結果を合成して出力する手法が記載されている。また、特許文献2には、今まで写真として圧縮されていた画像の中に、物体の輪郭に縁がついたように明瞭で出現色も限られている等の特徴を有する特定画像(イラスト)をベクトル化できる手法が記載されている。近年では、それらの手法によって、文書画像の高圧縮性、高画質性、再利用性が考えられている。
以上のような中で、ベクトル化処理の対象は、上述の紙文書のスキャン画像に限られることはない。例えば、特許文献3では、黒板やホワイトボードなどを複数台のカメラで撮影して、サーバに取り込み、パノラマ合成したときの継ぎ目が分からないようにするために、複数台のカメラの色調特性を合わせる。そして、色調補正を行った後の画像をパノラマ合成し、パノラマ合成した画像から、板書のベクトルデータを作成して、視認しやすい時系列のWebコンテンツにして保存することが開示されている。
特開2004−265384号公報 特開2006−344069号公報 特開2006−162692号公報
ホワイトボードに記入された文字や図形部分は、上述の基本的に色数が限られ、輪郭を持つという上述の特定画像(イラスト)の特徴を有している。従って、デジタルカメラでホワイトボード等を撮影して得た画像においても、色特徴に基づいて色ごとに領域を分け、各色領域の輪郭線をベクトルデータに変換し、上述の高圧縮性、高画質性、再利用性を実現することが考えられる。
一方、デジタルカメラで撮影した画像は、スキャナで紙文書を読み取るのと異なり、フラッシュや照明条件の影響により照明ムラが発生しやすいという特徴がある。
したがって、今までのベクトル化手法では、照明ムラの影響で、近い色を持つイラスト部分と背景部分とが1つの領域になってしまい、イラストを綺麗に抽出できない。特に、入力画像がグレー画像の場合には、濃度値が近いイラスト部分と背景部分が多数存在するので、イラストと背景とが分離できなくなってしまう。
これに対して、画像を先に明度補正処理してからベクトル化処理を行うことが考えられる。しかしながら、明度補正処理は、ある程度の照明ムラを取るだけであり、結局、ベクトル化処理した結果として、上記の課題が生じてしまう。
本発明は、照明ムラのある明度変化の大きい入力画像を高精度に色ごとの領域に分割する画像処理装置を提供することを目的とする。
本発明に係る画像処理装置は、理対象の画像から、照明の中心と明度の変化方向を示す照明情報を取得する取得手段と、
前記取得手段によって取得された照明情報と前記画像に含まれる各画素の色情報とに基づいて、前記画像を色ごとの領域にクラスタリングする分割手段と、
予め設定された領域数に応じて、前記分割手段によってクラスタリングされた前記色ごとの領域を統合する領域統合手段と、を備え、
前記分割手段は、
前記画像において、前記取得手段によって取得された照明情報に基づいて、前記照明の中心から前記明度の変化方向に従って、クラスタリングにおける閾値を段階的に設定する閾値設定手段と、
前記閾値設定手段によって段階的に設定された閾値に従って、前記画像を色ごとの領域にクラスタリングするクラスタリング手段と、を更に備え、
前記領域統合手段は、
前記画像において、色の変化が大きいエッジを抽出するエッジ抽出手段と、
前記分割手段によってクラスタリングされた前記色ごとの領域のうち、類似した色を有する2つの領域を選択し、当該選択された2つの領域が、共に前記エッジ抽出手段によって抽出されたエッジを含むか、もしくは、共にエッジを含まないか、または、いずれか一方の領域のみがエッジを含んでいるか判定する判定手段と、
前記判定手段における判定の結果、前記選択された2つの領域が、共に前記エッジ抽出手段で抽出されたエッジを含むか、または、共にエッジを含まないと判定された場合に、当該選択された2つの領域を統合する領域統合手段と、を更に備える、ことを特徴とする。
本発明によれば、照明ムラのある明度変化の大きい画像を高精度に色ごとの領域に分割する。
以下に、本発明を実施するための最良の形態について、図面を参照しながら詳しく説明する。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
<第1の実施形態>
<装置構成>
図1は、本発明に係る第1の実施形態における照明ムラのある画像のベクトル化を行う画像処理装置の機能ブロックを示す図である。図1に示すように、本画像処理装置は、デジタルカメラで撮影した特定画像を含む照明ムラのある画像を入力する入力部11と、入力画像の歪み補正、明度補正を行う画像補正部12とを含んでいる。なお、特定画像とは、色数が所定数以下に限られ(例えば32色以内など)輪郭も明瞭な画像(例えば、イラスト画像や、ホワイトボードを撮影した画像など)のことを指すものとする。また、本画像処理装置は、画像補正部12の明度補正処理を行った画像から、照明中心及び照明変化方向の情報を取得する照明情報取得部13と、補正後の画像を色ごとに分離する画像の色分離処理部14とを含んでいる。更に、本画像処理装置は、各色の領域の輪郭と色情報をベクトルデータに変換する画像のベクトル変換部15と、ベクトル結果を出力する出力部16とを含んでいる。
図13は、図1に示す画像処理装置に用いられるデジタル複合機の主要部構成を示すブロック図である。尚、本実施形態では、デジタル複合機として、スキャナ機能やプリンタ機能を有する多機能周辺装置(MFP)を用いているが、汎用のスキャナとパーソナルコンピュータとを接続したシステムを画像処理装置として用いても良い。ここで、MFPとは、「Multifunction Peripheral」の略である。図13に示すように、本画像処理装置は、コントローラユニット2000を備えている。コントローラユニット2000には、画像入力デバイスであるデジタルカメラ2070や画像出力デバイスであるプリンタ2095が接続されている。また、コントローラユニット2000は、デジタルカメラ2070で原稿画像から読み取られた画像データを、プリンタ2095によって印刷出力するようなコピー機能を実現するように制御することもできる。また、コントローラユニット2000は、LAN1006や公衆回線(WAN)1008を介して他装置との間でパターン画像やデバイス情報等の入出力を行うように制御する。
コントローラユニット2000は、図13に示すように、CPU2001を含んでいる。CPU2001は、ROM2003に格納されているブートプログラムによりオペレーションシステム(OS)を立ち上げる。そして、このOS上でハードディスクドライブであるHDD2004に格納されているアプリケーションプログラムを実行することによって各種処理を実行する。また、図1に示す各機能ブロックは、CPU2001によって実行される。すなわち、本実施形態では、CPUがコンピュータプログラムを実行することにより、図1に示す各処理部として機能することになる。なお、このCPU2001の作業領域として、RAM2002が用いられる。RAM2002はまた、CPU2001の作業領域だけでなく、画像データを一時記憶するための画像メモリ領域としても機能する。HDD2004は、上記のアプリケーションプログラムとともに、画像データを格納する。なお、本実施形態では、図1の各処理部を、CPUを用いて実現することとしたが、これに限るものではなく、その一部または全部を電子回路などのハードウェアで実現するようにしても構わない。
CPU2001には、システムバス2007を介して、ROM2003やRAM2002が接続されている。更に、CPU2001には、操作部IF(インタフェース)2006、ネットワークIF2010、モデム2050及びイメージバスIF2005が接続されている。
操作部IF2006は、タッチパネルを有する操作部2012とのインタフェースであり、操作部2012に表示する画像データを操作部2012に対して出力する。また、操作部IF2006は、操作部2012においてユーザにより入力された情報をCPU2001に送出する。また、ネットワークIF2010は、LAN1006に接続され、LAN1006を介してLAN1006に接続された各装置との間で情報の入出力を行う。モデム2050は、公衆回線1008に接続され、公衆回線1008を介して他装置との間で情報の入出力を行う。
イメージバスIF2005は、システムバス2007と、画像データを高速で転送する画像バス2008を接続し、データ構造を変換するためのバスブリッジである。画像バス2008は、PCIバスにより又はIEEE1394に従って構成される。画像バス2008上には、ラスタイメージプロセッサ(RIP)2060、デバイスIF2020、画像補正部2080、画像処理部2090、プリント処理部2030、及び、画像圧縮部2040が接続されている。RIP2060は、PDLコードをビットマップイメージに展開するプロセッサである。デバイスIF2020には、デジタルカメラ2070及びプリンタ2095が接続され、画像データの同期系/非同期系の変換が行なわれる。画像補正部2080は、入力画像データに対して歪み補正や明度補正を行う。画像処理部2090は、入力画像に対して照明ムラを取り、色分離の処理等を行なう。プリント処理部2030は、プリント出力画像データに対してプリンタに出力するための画像の補正、解像度変換等を行う。画像圧縮部2040は、多値画像データをJPEGデータに、ニ値画像データをJBIG、MMR、MH等のデータに圧縮すると共に、その伸長処理も行う。
<特定画像(イラストや文字)を含む照明ムラのある画像のベクトル化処理の概要>
図2は、特定画像(イラストや文字)を含む照明ムラのある画像のベクトル化処理の手順の概略を示すフローチャートである。この画像は、例えば、図形や文字などが書き込まれたホワイトボードをデジタルカメラで撮影することによって得られる画像であるとする。図2に示す各ステップにおける処理は、例えば、図13に示すCPU2001によって実行される。以下、図1を参照しながら図2を説明する。
先ず、入力部11は、照明ムラのある画像を入力する(ステップS11)。次に、画像補正部12は、入力画像の歪み補正及び明度補正を行う(ステップS12)。この歪み補正を行う方法としては公知の方法を適用することができる。例えば、ホワイトボードを斜め方向から撮影した場合は四辺形状に歪むので、ホワイトボードの四辺を検知して、その四辺形が長方形になるように歪み補正を行えばよい。なお、ホワイトボードの四辺は、例えば隣接画素との明暗差が大きい画素が直線状に並んでいる部分を検知することによって行うことができる。なお、ホワイトボードを対象とする場合、そのホワイトボードの部分以外の影響を除くために、ホワイトボードの部分だけを後段の処理対象とする(例えば、その部分だけを切り出すクリッピング処理を行う)のが望ましい。また、明度補正処理を実現する一例として、公知のレティネックス法(Retinex Method)が用いることができる。ただし、明度変化が大きい画像の場合、レティネックス法を用いたとしても、画像全体に渡って全ての照明ムラを補正することは困難であるため、本発明では更に後述の処理を行う。
次に、照明情報取得部13は、ステップS12で明度補正された画像から照明の中心と明度の変化方向を示す照明情報を取得する(ステップS13)。照明の中心は、例えば、ステップS12で明度補正された画像の一番明るい部分の位置を照明の中心として取得するものとするが、これに限るものではない。例えば、ステップS12で明度補正された画像をガウス混合分布で近似し、そのガウス分布の中央を、照明の中心として用いるようにしてもよい。また、明度の変化方向は、例えば、ステップS12で明度補正された画像を微分することによって得た微分画像に基づいて、明度の変化方向を求めればよい。本実施形態においては、ここで取得された照明の中心と明度の変化方向を示す照明情報に従って、後のステップで行なわれるクラスタリングにおける閾値が動的に設定される。
次に、画像の色分離処理部14は、ステップS13で取得した照明情報と画像にある各画素の色情報とを用いて、クラスタリングにおける閾値を動的に定めることによって、画像を色ごとの領域(クラスタ)に分ける(ステップS14)。
ここで、クラスタリングにおける閾値とは、着目する画素の色と、クラスタ化されている他の画素の色とが類似しているか否かを判定する際に用いられる値である。即ち、本実施形態においては、照明情報に応じて、色の類似性を定める基準を設定している。
次に、画像のベクトル変換部15は、ステップS15で分割された各色の領域(クラスタ)の輪郭と色とをベクトルデータに変換する(ステップS15)。出力部16は、ステップS15のベクトル結果を出力する(ステップS16)。
図3は、本実施形態における入力画像の一例を示す図である。即ち、図3は、ステップS11において用いられる入力画像の一例を示している。図3に示す画像は、色が付いた文字部分と図形部分とを含むホワイトボードをデジタルカメラで撮影することによって得た入力画像である。また、図4は、本実施形態において、入力画像のホワイトボード部分を歪み補正処理及び明度補正処理した後の画像を示す図である。また、この図4では、画像補正部12が、歪み補正を行った時点でホワイトボードの部分をクリッピング処理(切り抜き処理)してから、明度補正処理した場合の画像を示している。即ち、図4は、ステップS12の処理が行われた後の画像の一例を示している。図4に示す画像においては、検出された歪みが補正され、照明ムラもある程度補正されている。
<画像の色分離処理>
以下、図2のステップS14に示す照明ムラのある画像に対しての色分離処理について、図5を参照して説明する。先ず、ステップS141では、図2に示すステップS12において歪み補正及び明度補正された画像が画像の色分離処理部14に入力される。
次に、ステップS142では、画像にある画素の色情報に基づき、色の近い領域に分ける領域分割(クラスタリング)処理が行われる。ここで、本実施形態においては、ステップS13で取得された照明の中心及び明度の変化方向を示す照明情報に従って、クラスタリングにおける閾値が動的に設定されて、クラスタリングが実行される。図4に示すように、ステップS12における処理が行われても照明ムラはある程度残ってしまう。ここで、クラスタリングの際に閾値が画像内に1つに固定されていると、同じ色であるはずの部分が、その照明ムラに起因していくつかの領域に分離してしまう。その結果、文字や図形等の有意義な部分(前景)と背景とが1つの領域になってしまう場合が発生する。そこで、本実施形態においては、ステップS13において取得された照明情報に従って閾値を動的に設定することによって、そのような問題が発生することを防いでいる。また、本実施形態において、クラスタとは同一の色を有する領域のことをいう。クラスタリング処理については、図6を参照して後述する。
次に、ステップS143では、クラスタ化された領域の色情報と、エッジ情報とに基づき、領域の統合を行う領域統合(以下、クラスタ統合処理ともいう)処理が行なわれる。ステップS143の処理は、ステップS142でクラスタ化された数が予め定められた所望のクラスタ数より多い場合に行われる。その場合に、色の近い文字のクラスタ同士が統合され、更に、色の近い背景のクラスタ同士が統合される。本実施形態においては、統合する際にクラスタのエッジ情報を参照することによって、文字のクラスタと背景のクラスタとが統合されてしまうことを防いでいる。クラスタ統合処理については、図7を参照して説明する。
次に、ステップS144では、クラスタ統合処理において発生した微小領域をノイズ領域として特定する。例えば、統合後のクラスタにおいて、連結画素が3画素以下の面積を有する微小領域についてはノイズ領域として判定する。なお、ノイズとして判定する閾値は3画素に限るものではなく、処理対象にする画像の種類に応じて適宜変えるのが望ましい。ステップS145では、ノイズ領域にあるノイズ画素を、当該ノイズ領域に隣接するクラスタの中で最も色の近いクラスタに属する画素とする。即ち、ステップS145において、ノイズ領域が、色の近い画素を含む他の領域に置き換えられることを意味する。本実施形態において、ステップS144〜S145に示す処理によって、ノイズとなる微小領域をそのままベクトル化してデータ量が増大してしまうことを防いでいる。
ステップS146では、色分離処理の結果が、ベクトル処理(図2に示すステップS15)に渡される。
以上のように、本実施形態においては、照明ムラのある入力画像について色分離処理を行う際にも、また、色の領域数を変更するなどの色領域の編集を行う際にも、文字と背景とが同一クラスタ化されてしまうことを防ぐことができる。以下、図5のS142とS143に示したクラスタリング処理、及び、クラスタ統合処理の詳細について説明する。
<クラスタリング処理>
以下、図5のステップS142に示すクラスタリング処理について、図6を参照して説明する。先ず、ステップS1421では、ステップS13で取得された照明の中心及び明度の変化方向の情報に従って、クラスタリングの際に用いられる閾値(前景と背景を判定するための閾値)が動的に複数設定される。ここで、図8は、図4の画像(ステップS12の画像補正処理後の画像)の照明情報を示す図である。図8に示すように、最も明るい部分が照明の中心であり、中心から明度の変化方向に沿って次第に暗くなっている。本実施形態においては、この特徴によって、クラスタリングの際に用いられる閾値が段階に応じて決定される。以下、クラスタリングにおける閾値を設定する閾値設定の一例について説明する。
まず、照明の中心を円心にし、円心から近い半径以内(例えば、R≦R1)の領域に存在する画素については、クラスタリングにおける1つの閾値が設定される。次に、少し遠い半径以内(例えば、R1<R≦R2)の環状の領域に存在する画素については、クラスタリングにおける他の閾値が設定される。また、更に遠い半径以内の領域(例えば、R2<R≦R3の領域や、R>R3の領域)に存在する画素については、クラスタリングにおける他の閾値が設定される。半径R1、R2、R3は、例えば、図8に示す明度分布において、明度の変化度合に基づいて図8を4つの領域に分け、照明の中心から各領域の境界までの距離を、照明の中心から近い順に、R1、R2、R3と決定しても良い。明度分布に基づいた領域が決定されたならば、上述のように、クラスタリングにおける閾値が各領域ごとに設定される。ここで、クラスタリングの閾値は、円心から離れるに従って、低くなるように段階的に設定される。これは円心から離れるのにしたがって暗くなっていくので、前景と背景との色の差が小さくなるため、これらを分離できるように閾値も小さくする必要があるためである。例えば、各領域(円または環状の領域)ごとに、色分布の統計を取ってクラスタリングの閾値を定めるものとする。例えば、色分布の広がり(変化度合)が大きい場合は、前景と背景との色の差も比較的大きいと考えられるので、閾値は相対的に大きい値を設定し、色分布の変化度合が小さければ、閾値は相対的に小さい値に設定すればよい。また、4つの領域それぞれでクラスタリングにおける閾値を設定する例を示したが、これに限るものではなく、処理対象となる画像の明度変化に応じて、クラスタリングにおける閾値の数は変化することになる。
以上のように、クラスタリングにおける閾値を画像全体で共通に1つ設定するのではなく、照明による明度変化の特徴に従って各領域で段階的に設定する。その結果、ステップS12における明度補正処理で補正し切れない照明ムラによって、クラスタリングの際に、文字や図形など有意義の部分(前景)と色の近い背景とが1つの領域となることを防ぐことができる。
以下に説明するステップS1422〜S1427の処理は、ステップS1421で設定した各領域(円または環状の領域)ごとに個別に行われるものとする。
次に、ステップS1422では、ラスタスキャンを開始する画素について、最初のクラスタを生成する。ステップS1423では、次にスキャンされる画素(対象画素とする)について、この時点で生成済みの全てのクラスタ間との類似度(即ち、色特徴の距離値)を求める。ここで、類似度が高いほど、その対象画素の特徴量とクラスタの特徴量との距離値が小さいとしている。本実施形態においては、色空間における画素間の距離を示す類似度の計算にRGB値が用いられているが、他のカラー空間の情報、又は、カラー以外の情報が類似度の計算に用いられても良い。
ステップS1424では、対象画素との距離値が最も小さいクラスタ(すなわち最も類似しているクラスタ)に対応するクラスタ番号を取得し、その距離値を、ステップS1421において動的に設定された閾値と比較する。ここで、距離値が閾値以下であれば、ステップS1425に進み、対象画素を当該距離値が最も小さいクラスタ(すなわち最も類似しているクラスタ)に属させる。一方、距離値が閾値より大きければ、ステップS1426に進み、対象画素はその時点で生成済みのクラスタとは別のクラスタに属するとして、新たなクラスタを生成する。上述のように、本実施形態においては、照度の中心から離れるに従ってクラスタリングにおける閾値を小さくしている。これは、照明の中心から離れる位置にある画素ほど、前景と背景との距離値が小さくなりやすいので、生成済みのクラスタに属させる際の閾値も小さくしている。すなわち、照明の中心から離れる位置にある画素ほど、より距離値が小さい(すなわち、より類似している)ときにのみ、生成済みのクラスタに属させることになる。
次に、ステップS1427では、画像内の全ての画素について処理が終了したか否かを判断する。ここで、未処理の画素があれば、ステップS1423〜S1427の処理を繰り返す。
<クラスタ統合処理>
以下、図5のステップS143に示すクラスタ統合処理について、図7を参照して説明する。先ず、ステップS1431では、ステップS12の処理による明度補正後の画像(図4)から、色の変化が大きい箇所(以下、色間のエッジとする)を抽出する。ここで、エッジ抽出手法として、公知のLaplacianフィルタを用いるが、それ以外のエッジ抽出手法が用いられても良い。ステップS1431に示す処理が行われると、例えば、図4に示す「S」という文字の輪郭線がエッジとして抽出される。なお、本実施形態では、文字画像と背景との境界の画素のうち、文字画像側(前景側)の画素をエッジ画素として判定するものとする。
次に、ステップS1432では、クラスタ化される目標値(即ち、領域の目標分離数)が入力される。ここで、その目標値は、画像内に存在する色数を予め想定しておき、予め定められるようにしても良い。例えば、ホワイトボードの場合に使用されるペンの色数は少ない(例えば6色程度)ので、目標とするクラスタ数は12程度にしておいてもよい。次に、ステップS1433では、ステップS142において処理された現在のクラスタ数を計算する。
ステップS1434では、現在のクラスタ数を目標値と比較する。ここで、現在のクラスタ数が目標値より大きい場合に、ステップS1435〜ステップS1438に示されるクラスタ統合処理が行われる。一方、現在のクラスタ数が目標値以下である場合には、本処理を終了し、図5に示すステップS144に進む。
ステップS1435では、各クラスタ間の類似度を計算し、ステップS1436において、最も類似度の高い2つのクラスタ(クラスタペア)を選択する。
次に、ステップS1437で、その2つのクラスタが、両方ともステップS1431で抽出されたエッジ情報を含んでいるか、又は、両方ともエッジ情報を含んでいないかを判定する。ここで、両方ともエッジ情報を含んでいるか、又は、両方ともエッジ情報を含んでいない場合に該当するのであれば、ステップS1438において、2つのクラスタを1つのクラスタに統合する。すなわち、2つのクラスタがどちらもエッジ画素を含む前景同士、またはエッジ画素を含まない背景同士であれば統合することになる。ステップS1438のクラスタ統合処理は、現在のクラスタ数が目標値以下になるまで繰り返される。一方、ステップS1437において、いずれの場合にも該当しないのであれば(例えば、いずれか一方のクラスタのみエッジ情報を含んでいる場合)、ステップS1435に戻り、その次に類似度の高い2つのクラスタを検出し、ステップS1437の判定を行う。
以上のように、本実施形態においては、減色処理等におけるクラスタ統合処理の場合に、色特徴の差のみでなく、エッジ情報も見てクラスタを統合するかを判断する。その結果、エッジが多数ある文字や図形など有意義の部分(前景部分)と、エッジが殆んどない背景とが1つの領域にクラスタ化されてしまうことを防ぐことができる。
<微小領域の処理>
以下、図5のステップS144、S145に示した微小領域の特定処理、及び、微小領域の再処理について説明する。図5に示すステップS144において、微小領域の判定処理が行なわれる。ステップS144においては、先ず、ステップS143で統合された各クラスタにおいて、ラベリング処理を行う(すなわち、同色の連結画素を求める)。そして、各ラベリングされた領域(すなわち連結画素)の面積(例えば、その領域内に存在する画素数)を算出する。ここで、ラベリングされた各領域の面積が、予め定められた基準値より小さければ、その領域をノイズ領域として特定する(ノイズ領域特定)。
次に、ステップS145において、ノイズ領域を再処理する。ステップS145においては、先ず、ステップS144において特定されたノイズ領域に含まれた各画素について、隣接した画素が属するクラスタとの色の類似度を計算する。次に、ノイズ領域を、最も類似度の高いクラスタに属するとしてクラスタの変更を行う。ここで、例えば、ノイズ領域のラベリングが変更されることによって実行されても良い(領域置き換えの一例)。ステップS144及びS145に示す微小領域の特定処理及び再処理によって、例えば圧縮画像の圧縮歪みにより発生するノイズをそのままベクトル化することによって発生するデータ量の増大を防ぐことができる。
本実施形態においては、処理対象の画像に色のあるカラー部分(有彩色領域)と色のない白黒部分(無彩色領域)との両方に対して同様に、照明情報に基づいたクラスタリングにおける閾値が設定されている。しかしながら、処理対象の画像の色彩情報と照明情報とを用いて、色のあるカラー部分と色のない白黒部分それぞれにおいて、クラスタリングにおける閾値を動的に設定するようにしても良い。
例えば、ステップS12において補正された画像について、RGBカラー空間からHSVカラー空間への変換を実行する(彩度情報取得の一例)。ここで、Hは色相を示し、Sは色彩を示し、Vは輝度を示している。また、HSVカラー空間以外に、彩度情報を取得できるカラー空間への変換できるのであれば、HSVカラー空間以外に変換されても良い。
次に、色彩を示すS情報に基づき、画像をカラー領域と白黒領域とに区分する。次に、上述したように、照明の中心及び明度の変化方向に基づいて、照明中心を円心にしてクラスタリングにおける閾値を動的に設定する。ここで、カラー領域用と白黒領域のそれぞれの領域において別々に、クラスタリングにおける閾値が動的に設定されるようにしてもよい。
<第2の実施形態>
次に、第2の実施形態について説明する。デジタルカメラ入力画像には、文字等の有意義な部分があるが、一方、白板消しやマグネット等不要なものを含んでいる場合もある。このような入力画像に関して、ベクトルデータサイズを削減するために、画像から不要な情報を取り除くことが必要となる。そのため、第2の実施形態においては、画像の色分離処理後に、マグネット等不要な情報を削除してベクトル化する。
<装置構成>
図9は、第2の実施形態において、照明ムラのある画像のベクトル化を行う画像処理装置の機能ブロックを示す図である。図9に示すように、本画像処理装置は、デジタルカメラで撮影した特定画像(イラストや文字)を含む照明ムラのある画像を入力する入力部11と、入力画像の歪み補正、明度補正を行う画像補正部12とを含んでいる。また、本画像処理装置は、画像補正部の明度補正処理から照明の中心及び明度の変化方向の情報を取得する照明情報取得部13と、補正後の画像を色ごとに分離する画像の色分離処理部14とを含んでいる。更に、本画像処理装置は、画像の色分離処理の結果から不要な部分を取り除く削除処理部35と、色の領域の輪郭と色情報とをベクトルデータに変換する画像のベクトル変換部15と、ベクトル結果を出力する出力部16とを含んでいる。
<特定画像(イラストや文字)を含む照明ムラのある画像のベクトル化処理の概要>
図10は、特定画像(イラスト)を含む照明ムラのある画像のベクトル化処理の概要の手順を示すフローチャートである。図10に示す各ステップにおける処理は、例えば、図13に示すCPU2001によって実行されても良い。以下、図9を参照しながら図10を説明する。なお、図10において、図2とステップの参照番号が同じ箇所は、図2における説明と同様である。
先ず、入力部11は、照明ムラのある画像を入力する(ステップS11)。次に、画像補正部12は、入力画像の歪み補正及び明度補正を行う(ステップS12)。次に、照明情報取得部13は、ステップS12で明度補正された画像から照明の中心及び照度の変化方向の情報を取得する(ステップS13)。次に、画像の色分離処理部14は、ステップS13で取得された照明情報と各画素の色情報に基づいて画像を色ごとの領域に分離する(ステップS14)。
次に、画像において不要の部分を取り除く削除処理部35は、ステップS14で分離された各色の領域から不要の領域を抽出し削除する(ステップS35)。次に、画像のベクトル変換部15は、ステップS14に示す処理の結果、各色の領域の輪郭と色とをベクトルデータに変換する(ステップS15)。次に、出力部16は、ステップS15のベクトル結果を出力する(ステップS16)。
ここで、図11は、本実施形態において、不要な部分を含む入力画像の一例を示す図である。図11において太線に囲まれた部分が不要な部分である。
<画像の要らない部分取り除く処理>
以下、ステップS35に示す画像から不要な部分を抽出して削除する削除処理について、図12を参照して説明する。先ず、ステップS351では、削除処理部35は、ステップS14における色分離処理の結果を入力する。この処理において、各色の領域(クラスタ)の色と、各画素が属している領域の番号情報(例えば、ラベリング情報)が取得される。
次に、ステップS352では、色分離処理によって分離された各色の領域(クラスタ)に含まれた画素の数を参照し、画素の数が多い領域を背景領域として同定する(第1の領域同定の一例)。ここで、画素の数により背景が同定されているが、それ以外の方法が用いられて背景が同定されても良い。
次に、ステップS353では、ステップS352で同定された背景領域と隣接し、且つ、画素の数が予め定められた基準値以下である領域(クラスタ)を不要領域として同定する(第2の領域同定の一例)。なお、このとき、ホワイトボードの白板消しなどは、ホワイトボードの下部に存在することが多いので、画素数が基準値以下であるかと、そのクラスタの位置が画像の下部であるかとを判定することにより、不要領域かどうか判定するのがよい。また、上記条件に加えて、当該クラスタの近傍に同じ色の別クラスタがないかどうかの判断を行い、なければ不要領域とし、あれば文字などのクラスタの一部である可能性があるので不要領域ではないと判断してもよい。次に、ステップS354では、ステップS353で同定された不要領域に含まれた画素の領域番号を背景の領域番号に置き換えて変更する(不要領域置き換えの一例)。次に、ステップS355では、ステップS354の結果、画像から不要な部分が削除された結果をステップS15に示すベクトル化処理に渡す。
本実施形態においては、以上のように、照明ムラのある入力画像において、第1の実施形態において説明したような色の領域分離処理を行うとともに、画像において不要な部分を削除することによって、画像のベクトルデータ量を低減することができる。また、文字や図形など有意義な部分のみを含んだ画像処理の結果を用いて、OCR認識することができる。
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体(記録媒体)等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接或いは遠隔から供給する。そして、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。
つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MOが用いられる。若しくは、例えば、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)が用いられる。
その他、プログラムは、クライアントコンピュータのブラウザを用いてインターネットのホームページからハードディスク等の記録媒体にダウンロードすることによっても供給される。即ち、ホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをダウンロードする。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれる。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布する。そして、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラム(画像処理プログラム)を実行することによって、前述した実施形態の機能が実現される。その他にも、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全てを行い、その処理によっても前述した実施形態の機能が実現され得る。更に、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後にも前述した実施形態の機能が実現される。即ち、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全てを行うことによっても前述した実施形態の機能が実現される。
本発明に係る第1の実施形態における照明ムラのある画像のベクトル化を行う画像処理装置の機能ブロックを示す図である。 特定画像(イラスト)を含む照明ムラのある画像のベクトル化処理の手順の概略を示すフローチャートである。 本実施形態における入力画像の一例を示す図である。 本実施形態における入力画像の補正処理後の画像を示す図である。 図2のステップS14に示す照明ムラのある画像に対しての色分離処理の手順を示すフローチャートである。 図5のステップS142に示すクラスタリング処理の手順を示すフローチャートである。 図5のステップS143に示すクラスタ統合処理の手順を示すフローチャートである。 明度補正前の画像の照明情報を示す図である。 第2の実施形態における照明ムラのある画像のベクトル化を行う画像処理装置の機能ブロックを示す図である。 特定画像(イラスト)を含む照明ムラのある画像のベクトル化処理の概要の手順を示すフローチャートである。 本実施形態における不要な部分を含む入力画像の一例を示す図である。 ステップS35に示す画像の色分離処理の各色の領域から不要な部分を抽出して削除する削除処理の手順を示すフローチャートである。 図1に示す画像処理装置に用いられるディジタル複合機の主要部構成を示すブロック図である。
符号の説明
2007 システムバス
2008 画像バス

Claims (12)

  1. 理対象の画像から、照明の中心と明度の変化方向を示す照明情報を取得する取得手段と、
    前記取得手段によって取得された照明情報と前記画像に含まれる各画素の色情報とに基づいて、前記画像を色ごとの領域にクラスタリングする分割手段と、
    予め設定された領域数に応じて、前記分割手段によってクラスタリングされた前記色ごとの領域を統合する領域統合手段と、を備え、
    前記分割手段は、
    前記画像において、前記取得手段によって取得された照明情報に基づいて、前記照明の中心から前記明度の変化方向に従って、クラスタリングにおける閾値を段階的に設定する閾値設定手段と、
    前記閾値設定手段によって段階的に設定された閾値に従って、前記画像を色ごとの領域にクラスタリングするクラスタリング手段と、を更に備え、
    前記領域統合手段は、
    前記画像において、色の変化が大きいエッジを抽出するエッジ抽出手段と、
    前記分割手段によってクラスタリングされた前記色ごとの領域のうち、類似した色を有する2つの領域を選択し、当該選択された2つの領域が、共に前記エッジ抽出手段によって抽出されたエッジを含むか、もしくは、共にエッジを含まないか、または、いずれか一方の領域のみがエッジを含んでいるか判定する判定手段と、
    前記判定手段における判定の結果、前記選択された2つの領域が、共に前記エッジ抽出手段で抽出されたエッジを含むか、または、共にエッジを含まないと判定された場合に、当該選択された2つの領域を統合する領域統合手段と、を更に備える、
    ことを特徴とする画像処理装置。
  2. 前記クラスタリングにおける閾値、着目する画素の色と、生成済みのクラスタ色とが類似しているか否かを判定する際に用いられる値であって、前記照明の中心から前記明度の変化方向に離れるにつれて段階的に低くなるように設定されることを特徴とする請求項1に記載の画像処理装置。
  3. 前記クラスタリング手段は、前記着目する画素の色と前記生成済みのクラスタの色との間の色空間における距離が前記クラスタリングにおける閾値以下である場合に、当該着目する画素を当該生成済みのクラスタに属させ、前記クラスタリングにおける閾値より大きい場合に、当該着目する画素を新たに生成するクラスタに属させることを特徴とする請求項に記載の画像処理装置。
  4. 前記分割手段は、
    前記領域統合手段によって統合された領域のうち、予め定められた基準値より少ない画素を含む領域をノイズ領域として特定するノイズ領域特定手段と、
    前記ノイズ領域特定手段によって特定されたノイズ領域に含まれる画素の色を隣接した画素が属する領域の色と比較して、前記ノイズ領域特定手段によって特定されたノイズ領域を、最も類似した色の領域に置き換える領域置き換え手段と、
    を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記閾値設定手段は、
    彩度情報を取得する彩度情報取得手段と、
    前記彩度情報取得手段によって取得された彩度情報を参照して、画像の領域を有彩色領域と無彩色領域とに区分する区分手段とを更に備え、
    前記区分手段によって区分された有彩色領域と無彩色領域とのそれぞれにおいて、色を決定する閾値を段階的に設定する、ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 入力画像において明度を補正する明度補正手段を更に有し、
    前記処理対象の画像は、前記明度補正手段により明度が補正された入力画像であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 前記領域統合手段によって統合された領域をベクトルデータに変換する変換手段を更に備えることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  8. 像処理装置において実行される画像処理方法であって、
    前記画像処理装置の取得手段が、処理対象の画像から、照明の中心と明度の変化方向を示す照明情報を取得する取得工程と、
    前記画像処理装置の分割手段が、前記取得工程において取得された照明情報と前記画像に含まれる各画素の色情報とに基づいて、前記画像を色ごとの領域にクラスタリングする分割工程と、
    前記画像処理装置の領域統合手段が、予め設定された領域数に応じて、前記分割手段によってクラスタリングされた前記色ごとの領域を統合する領域統合工程と、を有し、
    前記分割工程は、
    前記画像において、前記取得工程において取得された照明情報に基づいて、前記照明の中心から前記明度の変化方向に従って、クラスタリングにおける閾値を段階的に設定する閾値設定工程と、
    前記閾値設定工程において段階的に設定された閾値に従って、前記画像を色ごとの領域にクラスタリングするクラスタリング工程と、を更に有し、
    前記領域統合工程は、
    前記画像において、色の変化が大きいエッジを抽出するエッジ抽出工程と、
    前記分割工程においてクラスタリングされた前記色ごとの領域のうち、類似した色を有する2つの領域を選択し、当該選択された2つの領域が、共に前記エッジ抽出工程において抽出されたエッジを含むか、もしくは、共にエッジを含まないか、または、いずれか一方の領域のみがエッジを含んでいるか判定する判定工程と、
    前記判定工程における判定の結果、前記選択された2つの領域が、共に前記エッジ抽出工程で抽出されたエッジを含むか、または、共にエッジを含まないと判定された場合に、当該選択された2つの領域を統合する領域統合工程と、を更に有する、
    ことを特徴とする画像処理方法。
  9. 処理対象の画像から、照明の中心と明度の変化方向を示す照明情報を取得する取得手段と、
    前記取得手段によって取得された照明情報と前記画像に含まれる各画素の色情報とに基づいて、前記画像を色ごとの領域にクラスタリングする分割手段と、
    予め設定された領域数に応じて、前記分割手段によってクラスタリングされた前記色ごとの領域を統合する領域統合手段と、してコンピュータを機能させ、
    前記分割手段は、
    前記画像において、前記取得手段によって取得された照明情報に基づいて、前記照明の中心から前記明度の変化方向に従って、クラスタリングにおける閾値を段階的に設定する閾値設定手段と、
    前記閾値設定手段によって段階的に設定された閾値に従って、前記画像を色ごとの領域にクラスタリングするクラスタリング手段と、を更に備え、
    前記領域統合手段は、
    前記画像において、色の変化が大きいエッジを抽出するエッジ抽出手段と、
    前記分割手段によってクラスタリングされた前記色ごとの領域のうち、類似した色を有する2つの領域を選択し、当該選択された2つの領域が、共に前記エッジ抽出手段によって抽出されたエッジを含むか、もしくは、共にエッジを含まないか、または、いずれか一方の領域のみがエッジを含んでいるか判定する判定手段と、
    前記判定手段における判定の結果、前記選択された2つの領域が、共に前記エッジ抽出手段で抽出されたエッジを含むか、または、共にエッジを含まないと判定された場合に、当該選択された2つの領域を統合する領域統合手段と、を更に備える、
    ことを特徴とする画像処理プログラム。
  10. 処理対象の画像を色ごとの領域に分割する画像処理装置であって、
    処理対象の画像から、照明の中心と明度の変化方向を示す照明情報を取得する取得手段と、
    前記取得手段によって取得された照明情報と前記画像に含まれる各画素の色情報とに基づいて、前記画像を色ごとの領域に分割する分割手段と、
    前記分割手段によって分割された色ごとの領域のうち、最も多い画素数を含む色領域を背景領域として同定する第1の領域同定手段と、
    前記第1の領域同定手段によって同定された背景領域と隣接し、予め定められた基準値以下の画素数を含む領域を不要領域として同定する第2の領域同定手段と、
    前記第2の領域同定手段によって同定された不要領域を前記背景領域に置き換える不要領域置き換え手段と、
    前記不要領域置き換え手段によって不要領域が背景領域に置き換えられた後の領域をベクトルデータに変換する変換手段と
    を備えることを特徴とする画像処理装置。
  11. 処理対象の画像を色ごとの領域に分割する画像処理装置において実行される画像処理方法であって、
    前記画像処理装置の取得手段が、前記画像から、照明の中心と明度の変化方向を示す照明情報を取得する取得工程と、
    前記画像処理装置の分割手段が、前記取得工程において取得された照明情報と前記画像に含まれる各画素の色情報とに基づいて、前記画像を色ごとの領域に分割する分割工程と、
    前記画像処理装置の第1の領域同定手段が、前記分割工程において分割された色ごとの領域のうち、最も多い画素数を含む色領域を背景領域として同定する第1の領域同定工程と、
    前記画像処理装置の第2の領域同定手段が、前記第1の領域同定工程において同定された背景領域と隣接し、予め定められた基準値以下の画素数を含む領域を不要領域として同定する第2の領域同定工程と、
    前記画像処理装置の不要領域置き換え手段が、前記第2の領域同定工程において同定された不要領域を前記背景領域に置き換える不要領域置き換え工程と、
    前記画像処理装置の変換手段が、前記不要領域置き換え工程において不要領域が背景領域に置き換えられた後の領域をベクトルデータに変換する変換工程と
    を備えることを特徴とする画像処理方法。
  12. 処理対象の画像を色ごとの領域に分割するための画像処理プログラムであって、
    前記画像から、照明の中心と明度の変化方向を示す照明情報を取得する取得手段と、
    前記取得手段によって取得された照明情報と前記画像に含まれる各画素の色情報とに基づいて、前記画像を色ごとの領域に分割する分割手段と、
    前記分割手段によって分割された色ごとの領域のうち、最も多い画素数を含む色領域を背景領域として同定する第1の領域同定手段と、
    前記第1の領域同定手段によって同定された背景領域と隣接し、予め定められた基準値以下の画素数を含む領域を不要領域として同定する第2の領域同定手段と、
    前記第2の領域同定手段によって同定された不要領域を前記背景領域に置き換える不要領域置き換え手段と、
    前記不要領域置き換え手段によって不要領域が背景領域に置き換えられた後の領域をベクトルデータに変換する変換手段と
    してコンピュータを機能させることを特徴とする画像処理プログラム。
JP2008235589A 2008-09-12 2008-09-12 画像処理装置、画像処理方法、及び、画像処理プログラム Expired - Fee Related JP5219706B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008235589A JP5219706B2 (ja) 2008-09-12 2008-09-12 画像処理装置、画像処理方法、及び、画像処理プログラム
US12/545,375 US8737749B2 (en) 2008-09-12 2009-08-21 Image processing apparatus, image processing method, and medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008235589A JP5219706B2 (ja) 2008-09-12 2008-09-12 画像処理装置、画像処理方法、及び、画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2010067223A JP2010067223A (ja) 2010-03-25
JP5219706B2 true JP5219706B2 (ja) 2013-06-26

Family

ID=42007269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008235589A Expired - Fee Related JP5219706B2 (ja) 2008-09-12 2008-09-12 画像処理装置、画像処理方法、及び、画像処理プログラム

Country Status (2)

Country Link
US (1) US8737749B2 (ja)
JP (1) JP5219706B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9367954B2 (en) 2010-09-24 2016-06-14 The Research Foundation For The State University Of New York Illumination information icon for enriching navigable panoramic street view maps
US8705857B2 (en) * 2011-08-10 2014-04-22 The United States Of America, As Represented By The Secretary Of The Navy System and method of image processing perceptual visibility of imagery
US8891870B2 (en) * 2012-11-09 2014-11-18 Ge Aviation Systems Llc Substance subtraction in a scene based on hyperspectral characteristics
US8903186B2 (en) * 2013-02-28 2014-12-02 Facebook, Inc. Methods and systems for differentiating synthetic and non-synthetic images
JP6191505B2 (ja) * 2014-02-28 2017-09-06 ブラザー工業株式会社 画像処理装置、及び、画像処理プログラム
US9558268B2 (en) * 2014-08-20 2017-01-31 Mitsubishi Electric Research Laboratories, Inc. Method for semantically labeling an image of a scene using recursive context propagation
JP6294524B1 (ja) * 2017-02-15 2018-03-14 ソフネック株式会社 画像処理方法、及びコンピュータプログラム
US10387747B2 (en) * 2017-06-26 2019-08-20 Huddly As Intelligent whiteboard collaboratio systems and methods
JP7455545B2 (ja) * 2019-09-30 2024-03-26 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2021187776A1 (en) * 2020-03-17 2021-09-23 Samsung Electronics Co., Ltd. Methods and systems for grouping of media based on similarities between features of the media
CN112861781B (zh) * 2021-03-06 2023-06-30 同辉电子科技股份有限公司 一种智慧照明的子像素排列方式

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053032B2 (ja) * 1992-02-07 2000-06-19 マツダ株式会社 車両塗装の補修位置検出方法およびその装置
US5418596A (en) * 1992-10-28 1995-05-23 Nikon Corporation Photometry apparatus in a camera
US6570612B1 (en) * 1998-09-21 2003-05-27 Bank One, Na, As Administrative Agent System and method for color normalization of board images
JP3962517B2 (ja) * 1999-12-08 2007-08-22 キヤノン株式会社 顔面検出方法及びその装置、コンピュータ可読媒体
US20040012700A1 (en) * 2002-06-25 2004-01-22 Minolta Co., Ltd. Image processing device, image processing program, and digital camera
JP2004088191A (ja) * 2002-08-23 2004-03-18 Fuji Photo Film Co Ltd デジタルカメラ
US7177483B2 (en) * 2002-08-29 2007-02-13 Palo Alto Research Center Incorporated. System and method for enhancement of document images
JP4251629B2 (ja) 2003-01-31 2009-04-08 キヤノン株式会社 画像処理システム及び情報処理装置、並びに制御方法及びコンピュータプログラム及びコンピュータ可読記憶媒体
KR100747879B1 (ko) * 2004-06-10 2007-08-08 캐논 가부시끼가이샤 화상 처리 장치, 제어 방법 및 기록 매체
JP2006162692A (ja) 2004-12-02 2006-06-22 Hosei Univ 講義コンテンツ自動作成システム
JP4766661B2 (ja) 2005-06-09 2011-09-07 キヤノン株式会社 画像処理方法及び画像処理装置
US7623712B2 (en) 2005-06-09 2009-11-24 Canon Kabushiki Kaisha Image processing method and apparatus
JP4135737B2 (ja) 2005-08-30 2008-08-20 ブラザー工業株式会社 画像処理プログラム
JP4765667B2 (ja) 2006-02-27 2011-09-07 ブラザー工業株式会社 画像処理プログラムおよび画像処理装置
JP4799246B2 (ja) * 2006-03-30 2011-10-26 キヤノン株式会社 画像処理方法及び画像処理装置
JP2008059287A (ja) 2006-08-31 2008-03-13 Brother Ind Ltd 画像処理装置および画像処理プログラム
US7959524B2 (en) 2007-07-31 2011-06-14 Bridgestone Sports Co., Ltd. Three-piece solid golf ball

Also Published As

Publication number Publication date
US20100067791A1 (en) 2010-03-18
US8737749B2 (en) 2014-05-27
JP2010067223A (ja) 2010-03-25

Similar Documents

Publication Publication Date Title
JP5219706B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
US8396298B2 (en) Image processing apparatus, image processing method, and storage medium with vectorization process for data from graphic areas
US7936929B2 (en) Image processing method and apparatus for removing noise from a document image
US7903307B2 (en) Image processing method and image processing apparatus
US8331671B2 (en) Image processing apparatus and image encoding method related to non-photo image regions
JP4766661B2 (ja) 画像処理方法及び画像処理装置
JP4732315B2 (ja) 画像処理装置及び方法
US8384964B2 (en) Image processing apparatus and image processing method
JP4632443B2 (ja) 画像処理装置及び画像処理方法並びにプログラム
JP5178490B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP5028370B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
US8810877B2 (en) Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image
JP4739082B2 (ja) 画像処理方法及び画像処理装置
JP6693310B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP3899872B2 (ja) 画像処理装置、画像処理方法ならびに画像処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
JP4748789B2 (ja) 画像処理方法及び画像処理装置
JP4710672B2 (ja) 文字色判別装置、文字色判別方法、およびコンピュータプログラム
RU2737001C1 (ru) Устройство и способ обработки изображений и носитель данных
JP2006262258A (ja) 画像処理装置、画像処理方法及びプログラム
JP2005341098A (ja) 画像処理装置、プログラム、及び記憶媒体
JP2009071736A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP5090881B2 (ja) 画像処理装置及び画像処理プログラム
JP2004228745A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5219706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees