JP3918141B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3918141B2
JP3918141B2 JP23116699A JP23116699A JP3918141B2 JP 3918141 B2 JP3918141 B2 JP 3918141B2 JP 23116699 A JP23116699 A JP 23116699A JP 23116699 A JP23116699 A JP 23116699A JP 3918141 B2 JP3918141 B2 JP 3918141B2
Authority
JP
Japan
Prior art keywords
image
region
background
area
blurring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23116699A
Other languages
Japanese (ja)
Other versions
JP2001057630A (en
Inventor
義弘 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP23116699A priority Critical patent/JP3918141B2/en
Publication of JP2001057630A publication Critical patent/JP2001057630A/en
Application granted granted Critical
Publication of JP3918141B2 publication Critical patent/JP3918141B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Control Of Exposure In Printing And Copying (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置及び画像処理方法に係り、特に、デジタルスチルカメラ等で撮影された画像に対して画像処理を施してプリントを行うデジタル写真プリントシステム等における画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
一般にデジタルスチルカメラの撮像素子であるCCDセンサの受光面の大きさは、銀塩写真用の例えば35mmフィルムより小さく、デジタルスチルカメラのレンズ焦点距離は35mmカメラより短い。従って同じ画角、同じ絞りで撮影しても、光学的にデジタルスチルカメラの方が、35mmカメラより被写界深度が深くなる。また、一般にデジタルスチルカメラの絞りは可変範囲が狭く、開放Fナンバーも35mmカメラレンズより暗いことが多いため、絞りを開いて被写界深度を浅くすることもできないことが多い。その結果、特にデジタルスチルカメラで撮影したシーンは、パンフォーカス的な、画像全体にピントがあったようなものになりがちである。
【0003】
しかし、当然シーンによっては、主要被写体だけを際立たせて、前後の背景はぼかしたい場合もある。そこでカメラのレンズ焦点距離や絞りの調整で被写界深度を浅くすることができないカメラで撮影した画像であっても、画像処理によって容易にそのような効果をもたらしたプリントを作成することが必要となってくる。
【0004】
そこで、特開平10−65923号公報には以下の技術が記載されている。まず、オペレータが主要部と背景の仮の境界線を指定し、指定された仮の境界線に基づいて画像データに膨張収縮処理を施し、主要部を含む領域、背景だけを含む領域、及び主要部と背景との正確な境界線を含む領域からなる3つの領域に分離する。その後、主要部と背景との正確な境界線を含む領域に含まれる各画素について、主要部だけを含む領域又は背景だけを含む領域のどちらに属す画素であるかが、例えば、色の連続性等に基づいて判定され、主要部と背景との正確な境界線が検出される。そして、主要部の領域及び主要部と背景との正確な境界線を含む領域のデジタル画像データに対してシャープネス処理が施され、主要部と背景との正確な境界線のエッジが違和感なく強調される。また、主要部と背景との正確な境界線を少し膨張させた境界線が算出され、この膨張された境界線に基づいて、背景の領域のデジタル画像データに内挿処理が施され、境界線に近接した部分ににじみが発生するのを防止する。その後、背景の領域については、IIR型フィルタ等を用いてぼかし処理を行う。このように特開平10−65923号公報記載の技術では、被写界深度を浅くすることができないカメラで撮影した画像であっても、画像処理によって容易に主要被写体だけを際立たせて、前後の背景をぼかすことができる。
【0005】
【発明が解決しようとする課題】
しかしながら、特開平10−65923号公報記載の技術では、オペレータが主要部と背景との仮の境界線を指定する必要があり、この仮の境界線を指定する作業は、マウス等を使用して指定するため煩雑な作業となる、という問題があった。
【0006】
本発明は、上記問題を解決すべく成されたもので、オペレータが主要部と背景との境界線を指定する煩雑な作業を行うことなく、自動的に主要部と背景とを分離し、背景領域だけにぼかし処理を行うことができる画像処理装置及び画像処理方法の提供を目的とする。
【0007】
【課題を解決するための手段】
上記目的を達成するために本発明は、画素間のデータの差がしきい値以下の隣り合う画素が同じ領域に含まるように画像を領域分割し、領域分割された領域の画素の平均座標位置を各領域毎に算出する算出手段と、前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とする領域推定手段と、画像全体から前記領域推定手段により推定された背景領域のみにぼかし処理を行うぼかし処理手段と、を備えることを特徴としている。
【0008】
請求項1に記載の発明によれば、算出手段によって画素間のデータ(例えば、色情報、輝度情報や色差情報など)がしきい値以下の隣り合う画素が同じ領域に含まれるように画像が領域分割される。そして、領域分割された領域の画素の平均座標位置が各領域毎に算出される
通常の画像の場合には主要被写体は画像のほぼ中央部に位置する。そこで、平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とすることによって背景領域を推定することができる。
【0009】
また、領域推定手段により推定された背景領域に基づいて、ぼかし処理手段により、推定された背景領域のみにぼかし処理が行われる。すなわち、主要部領域と背景領域の境界線を指定することなく、自動的に背景領域にのみぼかし処理を行うことができる。
【0010】
請求項2に記載の発明は、請求項1に記載の発明において、前記ぼかし処理手段は、画像全体を背景領域と背景領域を除く領域に分離する分離手段と、前記分離手段により分離された背景領域を除く領域にマスクを生成するマスク生成手段と、前記マスク生成手段により生成されたマスクの領域以外の領域に対してぼかし処理を行う処理手段と、からなることを特徴としている。
【0011】
請求項2に記載の発明によれば、請求項1に記載の発明において、ぼかし処理手段が分離手段と、マスク生成手段と、処理手段からなり、領域推定手段により推定された背景領域が分離手段により、背景領域と背景領域を除く領域に2分される。そして、分離された背景領域を除く領域にマスク生成手段によりマスクが生成され、生成されたマスクに基づいて、処理手段によりマスク以外の領域にぼかし処理を行うことが可能となる。
【0018】
請求項3に記載の発明は、請求項2に記載の発明において、前記マスク生成手段は、前記画像における輪郭を抽出し、抽出した輪郭を前記背景領域を除く領域の輪郭に重ねることにより、前記マスクの輪郭を整えることを特徴としている。
【0019】
請求項3に記載の発明によれば、請求項2に記載の発明において、マスク生成手段によりぼかし処理を行うために主要部領域にマスクが生成される際に、画像の輪郭を抽出した輪郭画像と分離手段により分離された主要部領域とが重ねられることにより、マスクを行う主要部の輪郭を整えることができ、背景領域にぼかし処理を行う際に確実に主要部のマスクを行うことができる。
【0020】
請求項4に記載の発明は、請求項1又は請求項2に記載の発明において、前記算出手段は、前記画像における輪郭を強調し、該強調された輪郭に基づいて、前記領域分割を行うことを特徴としている。
【0021】
請求項4に記載の発明によれば、請求項1又は請求項2に記載の発明において、画像における輪郭を強調し、強調された輪郭画像に基づいて、算出手段により領域分割が行われるため、各領域の境界線が明確になる。従って、分離手段により背景領域と背景領域を除く領域、又は、主要部領域と主要領域を除く領域が分離される際の境界線も明確となり、背景領域と主要部領域との境界線の精度を向上することができる。
【0022】
請求項5に記載の発明は、請求項1乃至請求項4の何れか1項に記載の発明において、前記ぼかし処理の強さを指定するぼかし処理強度指定手段を更に備えることを特徴としている。
【0023】
請求項5に記載の発明によれば、請求項1乃至請求項4の何れか1項に記載の発明において、ぼかし処理強度指定手段を更に備えることにより、ぼかし処理手段により行われるぼかし処理の強さを設定することが可能となる。
【0024】
請求項6に記載の発明は、請求項1乃至請求項5の何れか1項に記載の発明において、前記ぼかし処理を行うか否かを切り換える切換手段を更に備えることを特徴としている。
【0025】
請求項6に記載の発明によれば、請求項1乃至請求項5の何れか1項に記載の発明において、切換手段を更に備えることにより、ぼかし処理を行うか否かを選択することが可能となる。
【0026】
請求項7に記載の発明は、画素間のデータの差がしきい値以下の隣り合う画素が同じ領域に含まれるように画像を領域分割し、領域分割された領域の画素の平均座標位置を各領域毎に算出し、前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とし、画像全体から推定された背景領域のみにぼかし処理を行うことを特徴としている。
【0027】
請求項7に記載の発明によれば、画素のデータ(例えば、色情報、輝度情報や色差情報など)がしきい値以下の隣り合う画素が同じ領域に含まれるように画像を領域分割する。そして、領域分割された領域の画素の平均座標位置が各領域毎に算出される
通常の画像の場合には主要被写体は画像のほぼ中央部に位置する。そこで、平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とすることによって背景領域を推定することができる。
【0028】
そして、推定された背景領域に基づいて、背景領域のみにぼかし処理を行う。このようにぼかし処理を行うことによって、主要部領域と背景領域の境界線を指定することなく、自動的に背景領域にのみぼかし処理を行うことが可能となる。
【0029】
【発明の実施の形態】
以下、図面を参照して多色感熱シートに画像を記録する多色感熱プリンタに本発明を適用した実施の形態について詳細に説明する。
【0030】
図1に示すように、プリンタ10は、略矩形状の多色感熱記録シート12にカラー画像を熱記録し、記録された画像を光によって定着させて画像を形成する装置であり、ケーシング14内に収納されている。
【0031】
ケーシング14の一方の側面には、載置台16が取り付けられた多色感熱記録シート12用挿入口18が設けられ、また、ケーシング14の他方の側面には、載置台20が取り付けられた多色感熱記録シート12用排出口22が設けられている。そして、挿入口18と排出口22との間には、多色感熱記録シート12を挿入口18か排出口22方向に搬送する搬送装置が配置されている。
【0032】
搬送装置は、挿入口18の近傍に設けられた一対の搬送ローラ24、及び排出口22の近傍に設けられた一対の搬送ローラ32を含んで構成されている。搬送ローラ24の搬送方向下流側には、ガイド板26が設けられ、搬送ローラ32の搬送方向上流側には、ガイド板38が設けられている。
【0033】
ガイド板26、38の間には、熱記録手段としてのサーマルヘッド28及びプラテンローラ30が対向して設けられている。サーマルヘッド28の搬送ローラ24側には、多色感熱記録シート12の裏表を検知するセンサ27及び光源34が配置されている。光源34としては、LEDを用いることができ、搬送される多色感熱記録シート12に対して300〜450nm、好ましくは420nmの波長の光を照射して多色感熱記録シート12の検知用に使用されると共に、各発色層に対して定着を行う定着用光源としても使用される。
【0034】
また、ケーシング14内には、図2に示す制御回路40が収納されている。制御回路40は、マイクロコンピュータで構成され、且つ信号処理部44が接続されたメインコントローラ42を備えている。この信号処理部には、RGB(レッド、グリーン、ブルー)色信号からなる画像データを輝度信号Yと色差信号Cb,Crとからなる画像データに変換する機能を備えた信号変換器50、及び信号変換器50から出力された画像データを一旦記憶するためのRAM52が設けられている。
【0035】
この信号処理部44には、デジタルカメラ46、又はコンピュータ48が選択的に接続され、デジタルカメラ46からは輝度信号Yと色差信号Cb、Crとからなる自然画像のデジタル画像データが入力され、コンピュータ48からはコンピュータで作成されたRGB色信号からなるコンピュータグラフィックス(CG)画像、CG画像と自然画像とが合成された複合画像、テキスト画像と自然画像とが合成された複合画像、及びテンプレート画像と自然画像とが合成された複合画像の何れかのデジタル画像データが入力される。なお、テキスト画像及びテンプレート画像は、CG画像で構成することができる。
【0036】
信号処理部44はコンピュータ48からRGB色信号からなる画像データが入力された場合には、輝度信号Y,色差信号Cb、Crに変換する。なお、デジタルカメラから入力されるCb、Cr、Y信号からなる画像データを含む画像データが入力された場合には、Cb、Cr、Y信号に変換することなく、RAM52に一旦記憶する。
【0037】
メインコントローラ42には、プリンタ10の操作を行う操作部55が設けられ、操作部55にオペレータが操作入力を行うことによって、プリンタ10の動作を制御するように構成されている。また、メインコントローラ42の出力側には、メインコントローラからの信号に基づいてY、M、Cの各色データの何れか1つのデータを選択するためのスイッチ58、及びラインバッファ60を介してサーマルヘッド28を駆動するドライバ62が接続され、また光源34から照射された光の反射光を受光するセンサ27が接続され、さらにプラテンローラ30を回転させるための回転駆動源64を駆動するドライバ66と、光源34及び定着用光源36を駆動するためのドライバ68とが接続されている。
【0038】
サーマルヘッド28には、プラテンローラ30に近接して、電源72に接続された発熱体70が設けられている。
【0039】
更に、メインコントローラ42は、入力された画像に対して背景領域のみをぼかすぼかし処理を行うことが可能なように構成されている(後述)。なお、ぼかし処理を行うか否かの指示は、操作部55にオペレータがぼかし処理を行うか否かを表す情報を入力することによりなされる。例えば、ぼかし処理切換スイッチを操作部55に設け、該スイッチを切換操作することによってぼかし処理を行うか否かを選択することが可能である。
【0040】
続いて、上述した背景ぼかし処理について説明する。
【0041】
上述したぼかし処理は、後述するソフトウェアによってメインコントローラ42により実行されるが、このぼかし処理を機能ブロックで表すと、図3に示すように、領域分割手段74、連結拡張手段76、輪郭抽出手段84、分離手段78、マスク生成手段80、及びぼかし処理手段82によって表すことができる。なお、領域分割手段74、連結拡張手段76は、それぞれ本発明の算出手段、領域推定手段に相当する。
【0042】
領域分割手段74は、画像を表す画像データが輝度信号Yと色差信号Cb、Crで与えられるとすると、輝度信号Yの2次元データをラスタースキャンしながら、隣接する画素間の輝度差が所定のしきい値(ΔY)以下で、かつ色相(Cb、Cr間距離(ΔC)もしくはCb、Cr色相角度差(ΔH))が所定のしきい値以下である場合に同一領域として統合し、この条件を満たさない場合には新たな領域とすることにより領域分割する。そして、順次このような処理を行い、各領域ごとにラベル付けしながら領域分割を行う。なお、輝度信号Y、色差信号Cb、Crの代わりにR、G、Bを用いるようにしてもよい。
【0043】
さらに、領域分割手段74は、領域分割した後、ラベルによって区別される各領域毎に平均座標位置(平均X、平均Y)を算出し、領域分割された画像データと共に、該平均座標位置を連結拡張手段76に出力する。
【0044】
連結拡張手段76は、領域分割手段74によって領域分割された画像において、原画像の中心を重心として、画像より小さい楕円外にある領域を背景領域とする。
【0045】
そして、連結拡張手段76は、上述の条件を満たす領域を背景領域として連結拡張し、分離手段へ出力する。
【0046】
輪郭抽出手段84は、原画像を用いて原画像の輪郭線の抽出を行って輪郭抽出画像を作成する。輪郭抽出は、1次微分(グラディエント)、2次微分(ラプラシアン)などの一般的な微分フィルタによって輪郭強調を行うことができ、ソーベル(Sobel)フィルタと呼ばれる境界線抽出フィルタなどにより最終的に輪郭が細線化された輪郭抽出画像を作成することができる。
【0047】
分離手段78は、連結拡張手段76により背景領域に吸収されずに残った領域を主要部領域とすることによって、画像全体を背景領域と主要部領域に2分する。
【0048】
マスク生成手段80は、分離手段78により分離された主要部領域と輪郭抽出手段84により得られる輪郭抽出画像を重ねて、主要部領域の輪郭を整える。そして、主要部領域と重なる画像マスクを生成する。
【0049】
ぼかし処理手段82は、上述のマスク以外の領域に対して、ぼかし処理を行う。ぼかし処理としては、ノイズ低減のためのローパスフィルタが適しており、最も簡単な平滑化フィルタとして、所定の画素の値を周辺3×3個の画素の値に対するフィルタ行列を用いた計算値で置き換える処理を用いることができる。例えば、
【0050】
【数1】

Figure 0003918141
【0051】
のようなフィルタ行列を用いることができる。なお、シャープさを維持したまま雑音低減効果があり、わずかなぼかし処理として局所領域での中間値(メディアン)を出力するメディアンフィルタを利用するようにしてもよい。
【0052】
ぼかしの強さについては、フィルタ行列要素の値を変えることで調節でき、数段階のぼかし強度に応じたフィルタ行列を設定しておけば、ユーザ指定に対応してぼかし強度を変えることができる。例えば、ぼけマスク領域内は、一様なボケ強度にしたり、主要部領域中心からの画面内距離に応じて変化する(距離が遠くなるほどぼかし強度が強くなる)ようにしてもよい。
【0053】
なお、ぼかし処理のぼかし強度については、一定のぼかし強度であってもよいし、数段階のぼかし強度が設定可能にしてもよい。数段階のぼかし強度が設定可能とした場合、数段階のぼかし強度に応じたフィルタ行列を設定しておき、数段階のぼかし強度のうち、オペレータが選択して操作部55にぼかし強度変更を表す情報を入力することによって、ぼかし強度を変更することが可能である。例えば、ぼかし強度選択スイッチ等を操作部55に設けることでぼかし強度の変更が可能である。
【0054】
次に本実施の形態における作用をぼかし処理のソフトウェアについて説明する。
【0055】
オペレータが操作部55を操作し、ぼかし処理を実行する情報を入力することによりぼかし処理が行われる。
【0056】
次に、RAM52に一旦記憶された画像データをメインコントローラ42に取り込み、取り込んだ画像データに対して自動的にぼかし処理を行う。なお、ぼかし処理が図4に示すフローチャートに従って行われる。以下、ぼかし処理について図4のフローチャート及び図5を参照して説明する。
【0057】
図5(A)には、ぼかし処理を行う前のバラの花を主要部領域の被写体としたオリジナル画像が示されている。操作部55にぼかし処理を行う情報が入力されると、ステップ100で領域分割手段74により、図5(A)に示すオリジナル画像の領域分割処理が行われ、図5(B)に示すような領域分割画像が作成される。
【0058】
ステップ102では、連結拡張手段76により図5(B)に示す画像の4隅の領域に隣接する領域が上述した何れかの条件を満たす場合に背景領域とし、背景領域を順次拡張連結することにより背景領域が推定される。そして、分離手段78によって、連結拡張手段76が背景領域として吸収せずに残った領域を主要部領域とし、画像を背景領域と主要部領域に2分して、主要部領域が抽出される(図5(C))。
【0059】
ステップ104では、輪郭抽出手段84により、図5(A)のオリジナル画像に対する輪郭抽出が行われ、図5(D)に示す輪郭抽出画像が生成される。
【0060】
続くステップ106では、分離手段78により抽出された主要部領域と輪郭抽出手段84により得られる輪郭抽出画像を重ねて、主要部領域の輪郭に一番近い輪郭線を輪郭抽出画像より選択することにより、主要部領域の輪郭が整えられる。そして、輪郭の整えられた主要部領域をマスクとしてぼけマスクが生成される(図5(E))。
【0061】
ステップ108では、生成されたぼけマスクを用いてぼかし処理手段82によりぼかし処理が行われ、図5(F)に示すような背景領域のみがぼけた画像を得ることができる。すなわち、ぼかし処理によりデジタルスチルカメラで撮影したパンフォーカス的に画面全体にピントが合ったような画像から、35mm一眼レフカメラで絞り優先で被写体深度を浅くして撮影したような、主要部のみがくっきりして背景はぼかしたプリントを作成することができる。
【0062】
このように、オペレータが主要部領域と背景領域との境界線を指定する煩雑な作業を行うことなく、オペレータが操作部55にぼかし処理を行うか否か表す情報を入力するだけで、自動的にぼかし処理を行うことができる。
【0063】
続いて、上述のぼかし処理に対するその他の構成について図6を参照して説明する。
【0064】
図6に示すように、上述のぼかし処理と同様に、領域分割手段74、連結拡張手段76、輪郭強調手段86、分離手段78、マスク生成手段80及びぼかし処理手段82によって構成されている。
【0065】
上述のぼかし処理では、マスク生成手段によりぼかしマスクを生成する際にマスクの輪郭を整えるために輪郭抽出手段84を設けたのに対して、領域分割する際の領域分割線を整えるため輪郭強調手段86が設けられている。すなわち、原画像の輪郭強調を行い、輪郭強調された画像に対して領域分割を行う構成となっている。このようにすることにより、境界線が明確になり、領域分割した後の背景領域と主要部領域との境界線の精度を向上することができる。
【0066】
次にこのように構成されたぼかし処理について、図6、図7のフローチャート及び図8を参照して説明する。
【0067】
図8(A)には、ぼかし処理を行う前の人物を主要部領域の被写体としたオリジナル画像が示されている。本フローチャートでは、操作部55にぼかし処理を行う指令が入力されると、ステップ200で輪郭強調手段86により図8(A)に示すオリジナル画像に対する輪郭強調が行われ、図8(B)に示す輪郭強調画像が生成される。
【0068】
ステップ202では、輪郭強調手段86により輪郭強調された輪郭線に基づいて、領域分割手段74により行われる領域分割処理が行われ、図8(C)に示す領域分割画像が作成される。このように輪郭強調が行われた画像に対して領域分割処理が行われることにより、領域分割した後の背景領域と主要被写体領域との境界線の精度を向上することができる。
【0069】
ステップ204では、領域分割画像(図8(C))に基づいて、原画像の中心を重心として、画像より小さい楕円外にある領域を背景領域とし、背景領域を順次連結拡張することにより背景領域が推定される。そして、背景領域として吸収されずに残った領域を主要部領域とし、領域分割画像を背景領域と主要部領域に2分することにより、主要部領域が抽出される(図8(D))。
【0070】
ステップ206では、抽出された主要部領域をマスクとしてぼけマスクが生成される(図8(E))。
【0071】
ステップ208では、生成されたぼけマスクを用いてぼかし処理が行われ、図8(F)に示すような背景領域のみがぼけた画像を得ることができる。
【0072】
なお、上記では、背景領域を連結拡張して画像データから背景領域を分離することによって主要領域にマスクを生成するようにしたが、背景領域以外の主要部領域を連結拡張して主要部領域を生成し、生成された主要部領域からマスクを生成するようにしてもよい。
【0073】
また、上記では、輝度信号Yと色差信号Cb、Crからなる信号を用いてぼかし処理を行う構成としたが、RGB色信号を用いてぼかし処理を行う構成としてもよい。
【0074】
更に、本実施の形態では、本発明をプリンタ10を例に説明したが、プリンタ10に限るものではなく、例えば、デジタルスチルカメラに本発明を適用してもよいし、写真感光材料などを処理してプリントを行うデジタルラボシステムに本発明を適用するようにしてもよい。
【0075】
【発明の効果】
以上説明したように本発明によれば、オペレータが主要部と背景との境界線を指定する煩雑な作業を行うことなく、自動的に主要部と背景とを分離し、背景領域だけにぼかし処理を行うことができる画像処理装置及び画像処理方法を提供することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るプリンタの概略図である。
【図2】本発明の実施の形態に係るプリンタの制御回路を示すブロック図である。
【図3】特殊画像処理におけるぼかし処理の構成を示すブロック図である。
【図4】ぼかし処理の流れの一例を示すフローチャートである。
【図5】ぼかし処理の一例の処理過程を示す図である。
【図6】ぼかし処理のその他の構成を示すブロック図である。
【図7】ぼかし処理のその他の例を示すフローチャートである。
【図8】ぼかし処理のその他の例の処理過程を示す図である。
【符号の説明】
10 プリンタ
42 メインコントローラ
74 領域分割手段
76 連結拡張手段
78 分離手段
80 マスク生成手段
82 ぼかし処理手段
84 輪郭抽出手段
86 輪郭強調手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method in a digital photo print system or the like that performs image processing on an image photographed by a digital still camera or the like. .
[0002]
[Prior art]
In general, the size of the light receiving surface of a CCD sensor, which is an image sensor of a digital still camera, is smaller than, for example, a 35 mm film for silver halide photography, and the lens focal length of a digital still camera is shorter than that of a 35 mm camera. Therefore, even when shooting with the same angle of view and the same aperture, the digital still camera has a greater depth of field than the 35 mm camera. In general, the aperture of a digital still camera has a narrow variable range, and the open F number is often darker than a 35 mm camera lens. Therefore, it is often impossible to reduce the depth of field by opening the aperture. As a result, especially scenes shot with a digital still camera tend to be pan-focused and the entire image is in focus.
[0003]
However, of course, depending on the scene, there may be a case where it is desired to make only the main subject stand out and blur the background around it. Therefore, even for images taken with a camera that cannot reduce the depth of field by adjusting the lens focal length and aperture of the camera, it is necessary to create a print that easily achieves such effects through image processing. It becomes.
[0004]
Therefore, Japanese Patent Laid-Open No. 10-65923 describes the following technique. First, the operator designates a temporary boundary between the main part and the background, performs an expansion / contraction process on the image data based on the specified temporary boundary, and includes an area including the main part, an area including only the background, and a main It is divided into three regions consisting of regions including the exact boundary between the part and the background. Then, for each pixel included in the area including the exact boundary between the main part and the background, whether the pixel belongs to the area including only the main part or the area including only the background, for example, color continuity Etc., and an accurate boundary line between the main part and the background is detected. Then, sharpness processing is applied to the digital image data in the main area and the area including the accurate boundary line between the main area and the background, and the edge of the accurate boundary line between the main area and the background is emphasized without a sense of incongruity. The In addition, a boundary line obtained by slightly expanding the exact boundary line between the main part and the background is calculated, and based on the expanded boundary line, the digital image data of the background region is subjected to interpolation processing, and the boundary line is calculated. Prevents bleeding from occurring in areas close to Thereafter, the background region is blurred using an IIR filter or the like. As described above, in the technique described in Japanese Patent Laid-Open No. 10-65923, even an image shot by a camera that cannot reduce the depth of field, the main subject can be easily made to stand out easily by image processing. The background can be blurred.
[0005]
[Problems to be solved by the invention]
However, in the technique described in Japanese Patent Laid-Open No. 10-65923, the operator needs to specify a temporary boundary between the main part and the background. The operation of specifying the temporary boundary is performed using a mouse or the like. There was a problem that it was a cumbersome work to specify.
[0006]
The present invention was made to solve the above problem, and the main part and the background are automatically separated without the operator having to perform a complicated operation of designating the boundary line between the main part and the background. An object of the present invention is to provide an image processing apparatus and an image processing method capable of performing a blurring process only on a region.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the present invention divides an image so that adjacent pixels whose pixel data difference is less than or equal to a threshold value are included in the same region, and average coordinates of the pixels in the divided region calculation means for de San positions for each of the regions, the average coordinate position, a region estimating means an area located in the region of the small circle or ellipse outside from the image relative to the center of the image shall be the background area, It is characterized in that from the whole image and a blurring processing means for performing mini blurring of the estimated background region by the region estimating means.
[0008]
According to the first aspect of the present invention, an image is generated so that adjacent pixels whose data between pixels (for example, color information, luminance information, and color difference information) are equal to or less than a threshold value are included in the same region by the calculation unit. It is divided into regions. Then, the average coordinates of the pixels in the region divided areas are de San for each of the regions.
In the case of a normal image, the main subject is located approximately at the center of the image. Therefore, the background region can be estimated by setting a region where the average coordinate position is located in a region outside the circle or ellipse smaller than the image relative to the center of the image as the background region.
[0009]
Further, based on the background area estimated by the area estimation means, the blurring processing unit, blurring processing is performed only on the estimated background area. That is, it is possible to automatically perform the blurring process only on the background area without designating the boundary line between the main part area and the background area.
[0010]
The invention according to claim 2, in the invention described in claim 1, wherein the blurring processing means, separating means for separating the whole image into realm excluding background and background regions, separated by the separation unit a mask generating means for generating a mask realm excluding the background area, and the features and processing means for performing blurring processing, that consists of the region other than the region of the mask generated by the mask generating means.
[0011]
According to the invention described in claim 2, in the invention described in claim 1, and the blurring processing unit separation means, the mask generating means, made from the processing unit, the background area estimated by the area estimation means separation by means, it is 2 minutes realm excluding background area and the background area. Then, the mask is generated by the mask generating means realm except the separated background area, based on the created mask, it is possible to perform the blurring process in a region other than the mask by the processing means.
[0018]
The invention according to claim 3, in the invention described in claim 2, wherein the mask generation unit extracts a contour of the image, by superimposing the extracted contour to the contour of the realm excluding the background area, It is characterized in that the contour of the mask is adjusted.
[0019]
According to a third aspect of the present invention, in the second aspect of the present invention, when a mask is generated in the main region for performing blurring processing by the mask generation means, a contour image is extracted. And the main part region separated by the separating means can be overlaid, the contour of the main part to be masked can be adjusted, and the main part mask can be surely performed when performing the blurring process on the background area. .
[0020]
According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the calculation unit emphasizes a contour in the image and performs the region division based on the emphasized contour. It is characterized by.
[0021]
According to the invention of claim 4, in the invention of claim 1 or claim 2, the contour in the image is emphasized, and the area is divided by the calculation means based on the emphasized contour image. The boundary line of each area becomes clear. Therefore, the boundary line when the separation means separates the background area and the area excluding the background area, or the main area and the area excluding the main area is also clarified, and the accuracy of the boundary line between the background area and the main area is improved. Can be improved.
[0022]
The invention described in claim 5 is characterized in that in the invention described in any one of claims 1 to 4, the image processing apparatus further includes a blurring processing intensity specifying means for specifying the strength of the blurring process.
[0023]
According to the invention described in claim 5, in the invention described in any one of claims 1 to 4, further comprising a blur processing intensity specifying means, the strength of the blur processing performed by the blur processing means. Can be set.
[0024]
The invention described in claim 6 is characterized in that, in the invention described in any one of claims 1 to 5, switching means for switching whether to perform the blurring process is further provided.
[0025]
According to the invention described in claim 6, in the invention described in any one of claims 1 to 5, it is possible to select whether or not to perform the blurring process by further including a switching unit. It becomes.
[0026]
The invention according to claim 7 divides the image so that adjacent pixels whose data difference between the pixels is equal to or less than the threshold value are included in the same region, and calculates an average coordinate position of the pixels in the divided region. out calculated for each of the regions, the average coordinate position, a region located in the region of the small circle or ellipse outside from the image relative to the center of the image and background areas, mini blurring of the estimated background area from the entire image It is characterized by performing processing.
[0027]
According to the seventh aspect of the present invention, an image is divided into regions so that adjacent pixels whose pixel data (for example, color information, luminance information, and color difference information) are equal to or less than a threshold value are included in the same region. Then , the average coordinate position of the pixels in the divided area is calculated for each area .
In the case of a normal image, the main subject is located approximately at the center of the image. Therefore, the background region can be estimated by setting a region where the average coordinate position is located in a region outside the circle or ellipse smaller than the image relative to the center of the image as the background region.
[0028]
Then, based on the estimated background area, it performs the blurring process only the background area. By performing the blurring process in this way, it is possible to automatically perform the blurring process only on the background area without specifying the boundary line between the main part area and the background area.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
In the following, an embodiment in which the present invention is applied to a multicolor thermal printer that records an image on a multicolor thermal sheet will be described in detail with reference to the drawings.
[0030]
As shown in FIG. 1, the printer 10 is a device that thermally records a color image on a substantially rectangular multicolor thermal recording sheet 12 and fixes the recorded image with light to form an image. It is stored in.
[0031]
An insertion port 18 for the multicolor thermal recording sheet 12 to which the mounting table 16 is attached is provided on one side surface of the casing 14, and a multicolor to which the mounting table 20 is mounted on the other side surface of the casing 14. A discharge port 22 for the thermal recording sheet 12 is provided. Between the insertion port 18 and the discharge port 22, a transport device that transports the multicolor thermosensitive recording sheet 12 in the direction of the insertion port 18 or the discharge port 22 is disposed.
[0032]
The transport apparatus includes a pair of transport rollers 24 provided in the vicinity of the insertion port 18 and a pair of transport rollers 32 provided in the vicinity of the discharge port 22. A guide plate 26 is provided on the downstream side of the transport roller 24 in the transport direction, and a guide plate 38 is provided on the upstream side of the transport roller 32 in the transport direction.
[0033]
Between the guide plates 26 and 38, a thermal head 28 and a platen roller 30 as thermal recording means are provided facing each other. A sensor 27 and a light source 34 for detecting the front and back of the multicolor thermal recording sheet 12 are disposed on the side of the thermal roller 28 on the conveying roller 24 side. As the light source 34, an LED can be used, and the multicolor thermosensitive recording sheet 12 to be conveyed is irradiated with light having a wavelength of 300 to 450 nm, preferably 420 nm, and used for detection of the multicolor thermosensitive recording sheet 12. At the same time, it is also used as a fixing light source for fixing each coloring layer.
[0034]
A control circuit 40 shown in FIG. The control circuit 40 includes a main controller 42 that is configured by a microcomputer and to which a signal processing unit 44 is connected. The signal processing unit includes a signal converter 50 having a function of converting image data composed of RGB (red, green, blue) color signals into image data composed of a luminance signal Y and color difference signals Cb and Cr, and a signal. A RAM 52 is provided for temporarily storing the image data output from the converter 50.
[0035]
A digital camera 46 or a computer 48 is selectively connected to the signal processing unit 44, and natural image digital image data composed of a luminance signal Y and color difference signals Cb and Cr is input from the digital camera 46. From 48, a computer graphics (CG) image composed of RGB color signals generated by a computer, a composite image composed of a CG image and a natural image, a composite image composed of a text image and a natural image, and a template image Any digital image data of a composite image in which a natural image and a natural image are combined is input. Note that the text image and the template image can be composed of CG images.
[0036]
When image data composed of RGB color signals is input from the computer 48, the signal processing unit 44 converts the image data into luminance signal Y and color difference signals Cb and Cr. When image data including image data including Cb, Cr, and Y signals input from a digital camera is input, the image data is temporarily stored in the RAM 52 without being converted into Cb, Cr, and Y signals.
[0037]
The main controller 42 is provided with an operation unit 55 for operating the printer 10, and is configured to control the operation of the printer 10 when an operator inputs an operation to the operation unit 55. A thermal head is connected to the output side of the main controller 42 via a switch 58 and a line buffer 60 for selecting any one of Y, M, and C color data based on a signal from the main controller. A driver 62 that drives the rotary drive source 64 for rotating the platen roller 30, and a sensor 27 that receives reflected light of the light emitted from the light source 34. A driver 68 for driving the light source 34 and the fixing light source 36 is connected.
[0038]
The thermal head 28 is provided with a heating element 70 connected to a power source 72 in the vicinity of the platen roller 30.
[0039]
Further, the main controller 42 is configured to be able to perform a blurring process that blurs only the background area on the input image (described later). Note that whether or not to perform the blurring process is given by inputting information indicating whether or not the operator performs the blurring process to the operation unit 55. For example, it is possible to select whether or not to perform the blurring process by providing a blurring process switching switch in the operation unit 55 and switching the switch.
[0040]
Next, the background blur process described above will be described.
[0041]
The blurring process described above is executed by the main controller 42 by software to be described later. When this blurring process is represented by functional blocks, as shown in FIG. 3, area dividing means 74, connection expanding means 76, contour extracting means 84 are provided. , Separating means 78, mask generating means 80, and blurring processing means 82. The region dividing unit 74 and the connection expanding unit 76 correspond to the calculating unit and the region estimating unit of the present invention, respectively.
[0042]
Assuming that image data representing an image is given by the luminance signal Y and the color difference signals Cb and Cr, the area dividing unit 74 performs a raster scan of the two-dimensional data of the luminance signal Y and determines a luminance difference between adjacent pixels. When the hue (Cb, Cr distance (ΔC) or Cb, Cr hue angle difference (ΔH)) is equal to or less than a predetermined threshold when the threshold value (ΔY) is not more than, this condition is integrated. If the condition is not satisfied, the area is divided by setting a new area. Then, such processing is sequentially performed, and region division is performed while labeling each region. Note that R, G, and B may be used instead of the luminance signal Y and the color difference signals Cb and Cr.
[0043]
Furthermore, area dividing means 74, after area division, the average coordinates for each of the regions which are distinguished by the labels (average X, average Y) out calculate the, with areas divided image data, the average coordinates It outputs to the connection expansion means 76.
[0044]
Coupling expansion means 76, in the region segmentation image by the area dividing unit 74, as the centroid of the center of the original image, and the background area of the region of the smaller elliptical outer than the image.
[0045]
Then, the connection expansion unit 76 expands the region satisfying the above condition as a background region, and outputs it to the separation unit.
[0046]
The contour extracting unit 84 extracts a contour line of the original image using the original image and creates a contour extracted image. In contour extraction, contour enhancement can be performed by a general differential filter such as first-order differentiation (gradient) and second-order differentiation (Laplacian). It is possible to create a contour extraction image in which is thinned.
[0047]
The separating unit 78 divides the entire image into a background region and a main part region by making the region remaining without being absorbed in the background region by the connecting and expanding unit 76 as a main part region.
[0048]
The mask generation unit 80 adjusts the outline of the main part region by superimposing the main part region separated by the separation unit 78 and the contour extraction image obtained by the contour extraction unit 84. Then, an image mask that overlaps the main area is generated.
[0049]
The blurring processing unit 82 performs blurring processing on an area other than the above-described mask. As the blurring process, a low-pass filter for noise reduction is suitable. As the simplest smoothing filter, the value of a predetermined pixel is replaced with a calculated value using a filter matrix for the values of surrounding 3 × 3 pixels. Processing can be used. For example,
[0050]
[Expression 1]
Figure 0003918141
[0051]
A filter matrix such as can be used. Note that a median filter that has a noise reduction effect while maintaining sharpness and outputs an intermediate value (median) in a local region may be used as a slight blurring process.
[0052]
The blur strength can be adjusted by changing the value of the filter matrix element. If a filter matrix corresponding to several stages of blur strength is set, the blur strength can be changed according to the user designation. For example, the blur mask area may have a uniform blur intensity or change according to the distance in the screen from the center of the main area (the blur intensity increases as the distance increases).
[0053]
Note that the blur intensity of the blur process may be a constant blur intensity, or may be set at several stages. When several stages of blur intensity can be set, a filter matrix corresponding to several stages of blur intensity is set, and the operator selects and displays the blur intensity change in the operation unit 55 among the several stages of blur intensity. It is possible to change the blur intensity by inputting information. For example, the blur intensity can be changed by providing the operation unit 55 with a blur intensity selection switch or the like.
[0054]
Next, the software for blurring the operation of the present embodiment will be described.
[0055]
The blurring process is performed when the operator operates the operation unit 55 and inputs information for executing the blurring process.
[0056]
Next, the image data once stored in the RAM 52 is taken into the main controller 42, and the fetched image data is automatically blurred. The blurring process is performed according to the flowchart shown in FIG. Hereinafter, the blurring process will be described with reference to the flowchart of FIG. 4 and FIG.
[0057]
FIG. 5A shows an original image in which a rose flower before performing the blurring process is a subject in the main area. When information for performing blurring processing is input to the operation unit 55, the region dividing unit 74 performs region dividing processing of the original image shown in FIG. 5A in step 100, as shown in FIG. 5B. A region-divided image is created.
[0058]
In step 102, when the region adjacent to the four corner regions of the image shown in FIG. 5B satisfies the above-described conditions by the connecting and expanding means 76, the background region is sequentially expanded and connected. A background region is estimated. Then, the separation means 78 extracts the main area by dividing the image into the background area and the main area by dividing the area that the connection expansion means 76 did not absorb as the background area into the main area. FIG. 5C).
[0059]
In step 104, the contour extracting unit 84 performs contour extraction on the original image of FIG. 5A, and generates a contour extracted image shown in FIG.
[0060]
In the following step 106, the main part region extracted by the separating means 78 and the contour extraction image obtained by the contour extraction means 84 are overlapped, and the contour line closest to the outline of the main part region is selected from the contour extraction image. The outline of the main part region is adjusted. Then, a blur mask is generated with the contoured main part region as a mask (FIG. 5E).
[0061]
In step 108, blur processing is performed by the blur processing unit 82 using the generated blur mask, and an image in which only the background region is blurred as shown in FIG. 5F can be obtained. In other words, only the main part, such as a 35mm single-lens reflex camera with a shallow aperture and a shallow subject depth, was taken from an image that was shot with a digital still camera and focused on the entire screen in a pan-focus manner. You can create a print with a sharp and blurred background.
[0062]
As described above, the operator can input the information indicating whether or not to perform the blurring process to the operation unit 55 without performing the complicated work of designating the boundary line between the main region and the background region. Blur processing can be performed.
[0063]
Next, another configuration for the above-described blur processing will be described with reference to FIG.
[0064]
As shown in FIG. 6, similarly to the above-described blurring process, the area dividing unit 74, the connection expanding unit 76, the contour emphasizing unit 86, the separating unit 78, the mask generating unit 80, and the blurring processing unit 82 are configured.
[0065]
In the blurring process described above, the contour extracting unit 84 is provided for adjusting the contour of the mask when the mask generating unit generates the blur mask, whereas the contour emphasizing unit is used for adjusting the region dividing line when the region is divided. 86 is provided. In other words, the contour enhancement of the original image is performed, and the region division is performed on the contour-enhanced image. By doing so, the boundary line becomes clear, and the accuracy of the boundary line between the background region and the main region after the region division can be improved.
[0066]
Next, the blurring process configured as described above will be described with reference to the flowcharts of FIGS. 6 and 7 and FIG.
[0067]
FIG. 8A shows an original image in which the person before performing the blurring process is a subject in the main area. In this flowchart, when a command for performing blurring processing is input to the operation unit 55, the contour emphasizing unit 86 performs contour emphasis on the original image shown in FIG. 8A in step 200, as shown in FIG. 8B. A contour-enhanced image is generated.
[0068]
In step 202, the region dividing process performed by the region dividing unit 74 is performed based on the contour line emphasized by the contour enhancing unit 86, and the region divided image shown in FIG. 8C is created. By performing region division processing on an image that has been subjected to contour enhancement in this way, it is possible to improve the accuracy of the boundary line between the background region and the main subject region after region division.
[0069]
In step 204, based on the region-divided image (FIG. 8 (C)), as the centroid of the center of the original image, a region located outside the smaller than the image ellipse and background areas, background by sequentially connecting extends background area Region is estimated. Then, the main region is extracted by dividing the region-divided image into the background region and the main region by dividing the region remaining without being absorbed as the background region into the main region (FIG. 8D).
[0070]
In step 206, a blur mask is generated using the extracted main region as a mask (FIG. 8E).
[0071]
In step 208, blur processing is performed using the generated blur mask, and an image in which only the background region is blurred as shown in FIG. 8F can be obtained.
[0072]
In the above, the background area is connected and expanded to generate a mask in the main area by separating the background area from the image data, but the main area other than the background area is connected and expanded to The mask may be generated from the generated main part region.
[0073]
In the above description, the blurring process is performed using the signal including the luminance signal Y and the color difference signals Cb and Cr. However, the blurring process may be performed using the RGB color signal.
[0074]
Further, in the present embodiment, the present invention has been described by taking the printer 10 as an example. However, the present invention is not limited to the printer 10. For example, the present invention may be applied to a digital still camera or a photographic photosensitive material may be processed. Thus, the present invention may be applied to a digital laboratory system that performs printing.
[0075]
【The invention's effect】
As described above, according to the present invention, the main part and the background are automatically separated without performing a complicated operation for the operator to specify the boundary line between the main part and the background, and only the background region is blurred. There is an effect that it is possible to provide an image processing apparatus and an image processing method capable of performing the above.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of a printer according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a control circuit of the printer according to the embodiment of the present invention.
FIG. 3 is a block diagram illustrating a configuration of blurring processing in special image processing.
FIG. 4 is a flowchart illustrating an example of a flow of blurring processing.
FIG. 5 is a diagram illustrating a process of an example of blur processing.
FIG. 6 is a block diagram showing another configuration of blur processing.
FIG. 7 is a flowchart illustrating another example of blur processing.
FIG. 8 is a diagram illustrating a process of another example of blur processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Printer 42 Main controller 74 Area division means 76 Connection expansion means 78 Separation means 80 Mask generation means 82 Blur processing means 84 Contour extraction means 86 Contour emphasis means

Claims (7)

画素間のデータの差がしきい値以下の隣り合う画素が同じ領域に含まるように画像を領域分割し、領域分割された領域の画素の平均座標位置を各領域毎に算出する算出手段と、
前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とする領域推定手段と、
画像全体から前記領域推定手段により推定された背景領域のみにぼかし処理を行うぼかし処理手段と、
を備えることを特徴とする画像処理装置。
Calculation means the difference data between the pixel image divided into regions as Fukumaru the pixels the same area adjacent below the threshold, to leave calculate the average coordinates of the pixels in the region divided areas in each area When,
The average coordinate position, a region estimating means you a region located in the region of a small circle or ellipse outside from the image relative to the center of the image and background areas,
A blurring processing means for performing mini blurring of the estimated background region by the region estimating means from the entire image,
An image processing apparatus comprising:
前記ぼかし処理手段は、画像全体を背景領域と背景領域を除く領域に分離する分離手段と、前記分離手段により分離された背景領域を除く領域にマスクを生成するマスク生成手段と、前記マスク生成手段により生成されたマスクの領域以外の領域に対してぼかし処理を行う処理手段と、からなることを特徴とする請求項1に記載の画像処理装置。The blurring processing means, separating means for separating the whole image into realm excluding background and background regions, and the mask generating means for generating a mask realm except the separated background region by the separating means, said mask The image processing apparatus according to claim 1, further comprising a processing unit that performs a blurring process on a region other than the mask region generated by the generation unit. 前記マスク生成手段は、前記画像における輪郭を抽出し、抽出した輪郭を前記背景領域を除く領域の輪郭に重ねることにより、前記マスクの輪郭を整えることを特徴とする請求項2に記載の画像処理装置。The mask generating unit extracts a contour of the image, by superimposing the extracted contour to the contour of the realm excluding the background area, the image according to claim 2, characterized in that arranging the outline of the mask Processing equipment. 前記算出手段は、前記画像における輪郭を強調し、該強調された輪郭に基づいて、前記領域分割を行うことを特徴とする請求項1又は請求項2に記載の画像処理装置。The calculation unit emphasizes the contours in the image, based on the emphasized contour, the image processing apparatus according to claim 1 or claim 2, characterized in that the region division. 前記ぼかし処理の強さを指定するぼかし処理強度指定手段を更に備えることを特徴とする請求項1乃至請求項4の何れか1項に記載の画像処理装置。The image processing apparatus according to any one of claims 1 to 4, further comprising a blurring intensity specifying means for specifying the intensity of the blurring process. 前記ぼかし処理を行うか否かを切り換える切換手段を更に備えることを特徴とする請求項1乃至請求項5の何れか1項に記載の画像処理装置。The image processing apparatus according to any one of claims 1 to 5, characterized by further comprising a switching means for switching whether to perform the blurring process. 画素間のデータの差がしきい値以下の隣り合う画素が同じ領域に含まれるように画像を領域分割し、領域分割された領域の画素の平均座標位置を各領域毎に算出し、
前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とし、
画像全体から推定された背景領域のみにぼかし処理を行うことを特徴とする画像処理方法。
And region dividing an image so that the pixel difference data adjacent below the threshold between pixels are in the same area, out calculate the average coordinates of the pixels in the region divided areas in each area,
A region where the average coordinate position is located in a region outside the circle or ellipse smaller than the image based on the center of the image as a background region,
Image processing method, which comprises carrying out the mini-blurring of the background area that is estimated from the entire image.
JP23116699A 1999-08-18 1999-08-18 Image processing apparatus and image processing method Expired - Fee Related JP3918141B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23116699A JP3918141B2 (en) 1999-08-18 1999-08-18 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23116699A JP3918141B2 (en) 1999-08-18 1999-08-18 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2001057630A JP2001057630A (en) 2001-02-27
JP3918141B2 true JP3918141B2 (en) 2007-05-23

Family

ID=16919359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23116699A Expired - Fee Related JP3918141B2 (en) 1999-08-18 1999-08-18 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3918141B2 (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002296144A (en) * 2001-03-30 2002-10-09 Seiko Epson Corp Method and apparatus for detecting mark
JP4565784B2 (en) * 2001-09-20 2010-10-20 Hoya株式会社 Digital camera
JP3951732B2 (en) * 2002-02-08 2007-08-01 セイコーエプソン株式会社 Image processing method, image processing apparatus, image processing program, and recording medium
KR20040035007A (en) * 2002-10-18 2004-04-29 (주) 임펙링크제너레이션 Face Detection and Background Blurring for Video Conference Application
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
WO2005064539A1 (en) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging, Inc. Image area extraction and image processing method, device, and program
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP4670303B2 (en) * 2004-10-06 2011-04-13 ソニー株式会社 Image processing method and image processing apparatus
JP4596986B2 (en) * 2005-06-07 2010-12-15 オリンパス株式会社 Imaging device
US7920200B2 (en) 2005-06-07 2011-04-05 Olympus Corporation Image pickup device with two cylindrical lenses
JP4596988B2 (en) * 2005-06-07 2010-12-15 オリンパス株式会社 Imaging device
JP4665718B2 (en) * 2005-10-28 2011-04-06 株式会社ニコン Imaging device
JP4970468B2 (en) * 2006-02-14 2012-07-04 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド Image blur processing
JP4712659B2 (en) 2006-09-22 2011-06-29 富士フイルム株式会社 Image evaluation apparatus and program thereof
JP4935302B2 (en) * 2006-11-02 2012-05-23 株式会社ニコン Electronic camera and program
JP2007213083A (en) * 2007-03-15 2007-08-23 Seiko Epson Corp Image processing system, image processing method, image processing apparatus, image processing program
KR101348596B1 (en) 2008-01-22 2014-01-08 삼성전자주식회사 Apparatus and method for immersive generation
JP2009206585A (en) * 2008-02-26 2009-09-10 Nikon Corp Image processing apparatus, image processing program and digital camera
JP5181913B2 (en) * 2008-08-07 2013-04-10 株式会社リコー Image processing apparatus, imaging apparatus, image processing method, and program
JP4798236B2 (en) * 2009-03-06 2011-10-19 カシオ計算機株式会社 Imaging apparatus, image processing method, and program
JP5569206B2 (en) * 2010-07-15 2014-08-13 ソニー株式会社 Image processing apparatus and method
JP5645628B2 (en) * 2010-12-09 2014-12-24 富士フイルム株式会社 Ultrasonic diagnostic equipment
JP5713256B2 (en) * 2010-12-21 2015-05-07 株式会社ニコンシステム Image processing apparatus, imaging apparatus, and image processing program
JP5550149B2 (en) * 2011-02-18 2014-07-16 シャープ株式会社 Image processing apparatus, image processing method, and program
JP5594282B2 (en) 2011-03-31 2014-09-24 カシオ計算機株式会社 Image processing device
JP2011175663A (en) * 2011-04-22 2011-09-08 Casio Computer Co Ltd Imaging device, image processing method, and program
JP5786544B2 (en) * 2011-08-11 2015-09-30 株式会社ニコン Image processing apparatus, imaging apparatus, and program
JP5741660B2 (en) * 2013-09-18 2015-07-01 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
CN108234865A (en) * 2017-12-20 2018-06-29 深圳市商汤科技有限公司 Image processing method, device, computer readable storage medium and electronic equipment

Also Published As

Publication number Publication date
JP2001057630A (en) 2001-02-27

Similar Documents

Publication Publication Date Title
JP3918141B2 (en) Image processing apparatus and image processing method
US10349029B2 (en) Photographic scene replacement system
US6667815B1 (en) Method and apparatus for processing images
JP2907120B2 (en) Red-eye detection correction device
JP5547730B2 (en) Automatic facial and skin beautification using face detection
JP2007066199A (en) Image processor and image processing method
JP4368513B2 (en) Image processing method and apparatus, and recording medium
JP2002158893A (en) Device and method for correcting picture and recording medium
JP3907816B2 (en) Image processing method
CN106570838A (en) Image brightness optimization method and device
JP2003061105A (en) Image processing method, image processing program, image processing apparatus, and digital still camera using the image processing apparatus
US7200280B2 (en) Image processing apparatus
Zhou et al. Removal of image artifacts due to sensor dust
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP2002271638A (en) White balance correction method and device, and recording medium recorded with program for executing the method
JP2005141477A (en) Image sharpening process and image processor implementing this process
JPH11266358A (en) Image processing method
JPH10233919A (en) Image processor
JP4304846B2 (en) Image processing method and recording medium recording image processing program
JP2007264828A (en) Image processing method and device and printer
JP2008109668A (en) Blemish repair tool for digital photographs in camera
JP2001092955A (en) Method and device for processing image
JP4731202B2 (en) Color correction processing method and color correction processing apparatus using the same
JP2000224418A (en) Mask for changing lightness profile of photo copying
JP4467231B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070201

R150 Certificate of patent or registration of utility model

Ref document number: 3918141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees