JP3918141B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP3918141B2 JP3918141B2 JP23116699A JP23116699A JP3918141B2 JP 3918141 B2 JP3918141 B2 JP 3918141B2 JP 23116699 A JP23116699 A JP 23116699A JP 23116699 A JP23116699 A JP 23116699A JP 3918141 B2 JP3918141 B2 JP 3918141B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- background
- area
- blurring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Control Of Exposure In Printing And Copying (AREA)
- Image Processing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置及び画像処理方法に係り、特に、デジタルスチルカメラ等で撮影された画像に対して画像処理を施してプリントを行うデジタル写真プリントシステム等における画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
一般にデジタルスチルカメラの撮像素子であるCCDセンサの受光面の大きさは、銀塩写真用の例えば35mmフィルムより小さく、デジタルスチルカメラのレンズ焦点距離は35mmカメラより短い。従って同じ画角、同じ絞りで撮影しても、光学的にデジタルスチルカメラの方が、35mmカメラより被写界深度が深くなる。また、一般にデジタルスチルカメラの絞りは可変範囲が狭く、開放Fナンバーも35mmカメラレンズより暗いことが多いため、絞りを開いて被写界深度を浅くすることもできないことが多い。その結果、特にデジタルスチルカメラで撮影したシーンは、パンフォーカス的な、画像全体にピントがあったようなものになりがちである。
【0003】
しかし、当然シーンによっては、主要被写体だけを際立たせて、前後の背景はぼかしたい場合もある。そこでカメラのレンズ焦点距離や絞りの調整で被写界深度を浅くすることができないカメラで撮影した画像であっても、画像処理によって容易にそのような効果をもたらしたプリントを作成することが必要となってくる。
【0004】
そこで、特開平10−65923号公報には以下の技術が記載されている。まず、オペレータが主要部と背景の仮の境界線を指定し、指定された仮の境界線に基づいて画像データに膨張収縮処理を施し、主要部を含む領域、背景だけを含む領域、及び主要部と背景との正確な境界線を含む領域からなる3つの領域に分離する。その後、主要部と背景との正確な境界線を含む領域に含まれる各画素について、主要部だけを含む領域又は背景だけを含む領域のどちらに属す画素であるかが、例えば、色の連続性等に基づいて判定され、主要部と背景との正確な境界線が検出される。そして、主要部の領域及び主要部と背景との正確な境界線を含む領域のデジタル画像データに対してシャープネス処理が施され、主要部と背景との正確な境界線のエッジが違和感なく強調される。また、主要部と背景との正確な境界線を少し膨張させた境界線が算出され、この膨張された境界線に基づいて、背景の領域のデジタル画像データに内挿処理が施され、境界線に近接した部分ににじみが発生するのを防止する。その後、背景の領域については、IIR型フィルタ等を用いてぼかし処理を行う。このように特開平10−65923号公報記載の技術では、被写界深度を浅くすることができないカメラで撮影した画像であっても、画像処理によって容易に主要被写体だけを際立たせて、前後の背景をぼかすことができる。
【0005】
【発明が解決しようとする課題】
しかしながら、特開平10−65923号公報記載の技術では、オペレータが主要部と背景との仮の境界線を指定する必要があり、この仮の境界線を指定する作業は、マウス等を使用して指定するため煩雑な作業となる、という問題があった。
【0006】
本発明は、上記問題を解決すべく成されたもので、オペレータが主要部と背景との境界線を指定する煩雑な作業を行うことなく、自動的に主要部と背景とを分離し、背景領域だけにぼかし処理を行うことができる画像処理装置及び画像処理方法の提供を目的とする。
【0007】
【課題を解決するための手段】
上記目的を達成するために本発明は、画素間のデータの差がしきい値以下の隣り合う画素が同じ領域に含まるように画像を領域分割し、領域分割された領域の画素の平均座標位置を各領域毎に算出する算出手段と、前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とする領域推定手段と、画像全体から前記領域推定手段により推定された背景領域のみにぼかし処理を行うぼかし処理手段と、を備えることを特徴としている。
【0008】
請求項1に記載の発明によれば、算出手段によって画素間のデータ(例えば、色情報、輝度情報や色差情報など)がしきい値以下の隣り合う画素が同じ領域に含まれるように画像が領域分割される。そして、領域分割された領域の画素の平均座標位置が各領域毎に算出される。
通常の画像の場合には主要被写体は画像のほぼ中央部に位置する。そこで、平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とすることによって背景領域を推定することができる。
【0009】
また、領域推定手段により推定された背景領域に基づいて、ぼかし処理手段により、推定された背景領域のみにぼかし処理が行われる。すなわち、主要部領域と背景領域の境界線を指定することなく、自動的に背景領域にのみぼかし処理を行うことができる。
【0010】
請求項2に記載の発明は、請求項1に記載の発明において、前記ぼかし処理手段は、画像全体を背景領域と背景領域を除く領域に分離する分離手段と、前記分離手段により分離された背景領域を除く領域にマスクを生成するマスク生成手段と、前記マスク生成手段により生成されたマスクの領域以外の領域に対してぼかし処理を行う処理手段と、からなることを特徴としている。
【0011】
請求項2に記載の発明によれば、請求項1に記載の発明において、ぼかし処理手段が分離手段と、マスク生成手段と、処理手段からなり、領域推定手段により推定された背景領域が分離手段により、背景領域と背景領域を除く領域に2分される。そして、分離された背景領域を除く領域にマスク生成手段によりマスクが生成され、生成されたマスクに基づいて、処理手段によりマスク以外の領域にぼかし処理を行うことが可能となる。
【0018】
請求項3に記載の発明は、請求項2に記載の発明において、前記マスク生成手段は、前記画像における輪郭を抽出し、抽出した輪郭を前記背景領域を除く領域の輪郭に重ねることにより、前記マスクの輪郭を整えることを特徴としている。
【0019】
請求項3に記載の発明によれば、請求項2に記載の発明において、マスク生成手段によりぼかし処理を行うために主要部領域にマスクが生成される際に、画像の輪郭を抽出した輪郭画像と分離手段により分離された主要部領域とが重ねられることにより、マスクを行う主要部の輪郭を整えることができ、背景領域にぼかし処理を行う際に確実に主要部のマスクを行うことができる。
【0020】
請求項4に記載の発明は、請求項1又は請求項2に記載の発明において、前記算出手段は、前記画像における輪郭を強調し、該強調された輪郭に基づいて、前記領域分割を行うことを特徴としている。
【0021】
請求項4に記載の発明によれば、請求項1又は請求項2に記載の発明において、画像における輪郭を強調し、強調された輪郭画像に基づいて、算出手段により領域分割が行われるため、各領域の境界線が明確になる。従って、分離手段により背景領域と背景領域を除く領域、又は、主要部領域と主要領域を除く領域が分離される際の境界線も明確となり、背景領域と主要部領域との境界線の精度を向上することができる。
【0022】
請求項5に記載の発明は、請求項1乃至請求項4の何れか1項に記載の発明において、前記ぼかし処理の強さを指定するぼかし処理強度指定手段を更に備えることを特徴としている。
【0023】
請求項5に記載の発明によれば、請求項1乃至請求項4の何れか1項に記載の発明において、ぼかし処理強度指定手段を更に備えることにより、ぼかし処理手段により行われるぼかし処理の強さを設定することが可能となる。
【0024】
請求項6に記載の発明は、請求項1乃至請求項5の何れか1項に記載の発明において、前記ぼかし処理を行うか否かを切り換える切換手段を更に備えることを特徴としている。
【0025】
請求項6に記載の発明によれば、請求項1乃至請求項5の何れか1項に記載の発明において、切換手段を更に備えることにより、ぼかし処理を行うか否かを選択することが可能となる。
【0026】
請求項7に記載の発明は、画素間のデータの差がしきい値以下の隣り合う画素が同じ領域に含まれるように画像を領域分割し、領域分割された領域の画素の平均座標位置を各領域毎に算出し、前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とし、画像全体から推定された背景領域のみにぼかし処理を行うことを特徴としている。
【0027】
請求項7に記載の発明によれば、画素のデータ(例えば、色情報、輝度情報や色差情報など)がしきい値以下の隣り合う画素が同じ領域に含まれるように画像を領域分割する。そして、領域分割された領域の画素の平均座標位置が各領域毎に算出される。
通常の画像の場合には主要被写体は画像のほぼ中央部に位置する。そこで、平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とすることによって背景領域を推定することができる。
【0028】
そして、推定された背景領域に基づいて、背景領域のみにぼかし処理を行う。このようにぼかし処理を行うことによって、主要部領域と背景領域の境界線を指定することなく、自動的に背景領域にのみぼかし処理を行うことが可能となる。
【0029】
【発明の実施の形態】
以下、図面を参照して多色感熱シートに画像を記録する多色感熱プリンタに本発明を適用した実施の形態について詳細に説明する。
【0030】
図1に示すように、プリンタ10は、略矩形状の多色感熱記録シート12にカラー画像を熱記録し、記録された画像を光によって定着させて画像を形成する装置であり、ケーシング14内に収納されている。
【0031】
ケーシング14の一方の側面には、載置台16が取り付けられた多色感熱記録シート12用挿入口18が設けられ、また、ケーシング14の他方の側面には、載置台20が取り付けられた多色感熱記録シート12用排出口22が設けられている。そして、挿入口18と排出口22との間には、多色感熱記録シート12を挿入口18か排出口22方向に搬送する搬送装置が配置されている。
【0032】
搬送装置は、挿入口18の近傍に設けられた一対の搬送ローラ24、及び排出口22の近傍に設けられた一対の搬送ローラ32を含んで構成されている。搬送ローラ24の搬送方向下流側には、ガイド板26が設けられ、搬送ローラ32の搬送方向上流側には、ガイド板38が設けられている。
【0033】
ガイド板26、38の間には、熱記録手段としてのサーマルヘッド28及びプラテンローラ30が対向して設けられている。サーマルヘッド28の搬送ローラ24側には、多色感熱記録シート12の裏表を検知するセンサ27及び光源34が配置されている。光源34としては、LEDを用いることができ、搬送される多色感熱記録シート12に対して300〜450nm、好ましくは420nmの波長の光を照射して多色感熱記録シート12の検知用に使用されると共に、各発色層に対して定着を行う定着用光源としても使用される。
【0034】
また、ケーシング14内には、図2に示す制御回路40が収納されている。制御回路40は、マイクロコンピュータで構成され、且つ信号処理部44が接続されたメインコントローラ42を備えている。この信号処理部には、RGB(レッド、グリーン、ブルー)色信号からなる画像データを輝度信号Yと色差信号Cb,Crとからなる画像データに変換する機能を備えた信号変換器50、及び信号変換器50から出力された画像データを一旦記憶するためのRAM52が設けられている。
【0035】
この信号処理部44には、デジタルカメラ46、又はコンピュータ48が選択的に接続され、デジタルカメラ46からは輝度信号Yと色差信号Cb、Crとからなる自然画像のデジタル画像データが入力され、コンピュータ48からはコンピュータで作成されたRGB色信号からなるコンピュータグラフィックス(CG)画像、CG画像と自然画像とが合成された複合画像、テキスト画像と自然画像とが合成された複合画像、及びテンプレート画像と自然画像とが合成された複合画像の何れかのデジタル画像データが入力される。なお、テキスト画像及びテンプレート画像は、CG画像で構成することができる。
【0036】
信号処理部44はコンピュータ48からRGB色信号からなる画像データが入力された場合には、輝度信号Y,色差信号Cb、Crに変換する。なお、デジタルカメラから入力されるCb、Cr、Y信号からなる画像データを含む画像データが入力された場合には、Cb、Cr、Y信号に変換することなく、RAM52に一旦記憶する。
【0037】
メインコントローラ42には、プリンタ10の操作を行う操作部55が設けられ、操作部55にオペレータが操作入力を行うことによって、プリンタ10の動作を制御するように構成されている。また、メインコントローラ42の出力側には、メインコントローラからの信号に基づいてY、M、Cの各色データの何れか1つのデータを選択するためのスイッチ58、及びラインバッファ60を介してサーマルヘッド28を駆動するドライバ62が接続され、また光源34から照射された光の反射光を受光するセンサ27が接続され、さらにプラテンローラ30を回転させるための回転駆動源64を駆動するドライバ66と、光源34及び定着用光源36を駆動するためのドライバ68とが接続されている。
【0038】
サーマルヘッド28には、プラテンローラ30に近接して、電源72に接続された発熱体70が設けられている。
【0039】
更に、メインコントローラ42は、入力された画像に対して背景領域のみをぼかすぼかし処理を行うことが可能なように構成されている(後述)。なお、ぼかし処理を行うか否かの指示は、操作部55にオペレータがぼかし処理を行うか否かを表す情報を入力することによりなされる。例えば、ぼかし処理切換スイッチを操作部55に設け、該スイッチを切換操作することによってぼかし処理を行うか否かを選択することが可能である。
【0040】
続いて、上述した背景ぼかし処理について説明する。
【0041】
上述したぼかし処理は、後述するソフトウェアによってメインコントローラ42により実行されるが、このぼかし処理を機能ブロックで表すと、図3に示すように、領域分割手段74、連結拡張手段76、輪郭抽出手段84、分離手段78、マスク生成手段80、及びぼかし処理手段82によって表すことができる。なお、領域分割手段74、連結拡張手段76は、それぞれ本発明の算出手段、領域推定手段に相当する。
【0042】
領域分割手段74は、画像を表す画像データが輝度信号Yと色差信号Cb、Crで与えられるとすると、輝度信号Yの2次元データをラスタースキャンしながら、隣接する画素間の輝度差が所定のしきい値(ΔY)以下で、かつ色相(Cb、Cr間距離(ΔC)もしくはCb、Cr色相角度差(ΔH))が所定のしきい値以下である場合に同一領域として統合し、この条件を満たさない場合には新たな領域とすることにより領域分割する。そして、順次このような処理を行い、各領域ごとにラベル付けしながら領域分割を行う。なお、輝度信号Y、色差信号Cb、Crの代わりにR、G、Bを用いるようにしてもよい。
【0043】
さらに、領域分割手段74は、領域分割した後、ラベルによって区別される各領域毎に平均座標位置(平均X、平均Y)を算出し、領域分割された画像データと共に、該平均座標位置を連結拡張手段76に出力する。
【0044】
連結拡張手段76は、領域分割手段74によって領域分割された画像において、原画像の中心を重心として、画像より小さい楕円外にある領域を背景領域とする。
【0045】
そして、連結拡張手段76は、上述の条件を満たす領域を背景領域として連結拡張し、分離手段へ出力する。
【0046】
輪郭抽出手段84は、原画像を用いて原画像の輪郭線の抽出を行って輪郭抽出画像を作成する。輪郭抽出は、1次微分(グラディエント)、2次微分(ラプラシアン)などの一般的な微分フィルタによって輪郭強調を行うことができ、ソーベル(Sobel)フィルタと呼ばれる境界線抽出フィルタなどにより最終的に輪郭が細線化された輪郭抽出画像を作成することができる。
【0047】
分離手段78は、連結拡張手段76により背景領域に吸収されずに残った領域を主要部領域とすることによって、画像全体を背景領域と主要部領域に2分する。
【0048】
マスク生成手段80は、分離手段78により分離された主要部領域と輪郭抽出手段84により得られる輪郭抽出画像を重ねて、主要部領域の輪郭を整える。そして、主要部領域と重なる画像マスクを生成する。
【0049】
ぼかし処理手段82は、上述のマスク以外の領域に対して、ぼかし処理を行う。ぼかし処理としては、ノイズ低減のためのローパスフィルタが適しており、最も簡単な平滑化フィルタとして、所定の画素の値を周辺3×3個の画素の値に対するフィルタ行列を用いた計算値で置き換える処理を用いることができる。例えば、
【0050】
【数1】
【0051】
のようなフィルタ行列を用いることができる。なお、シャープさを維持したまま雑音低減効果があり、わずかなぼかし処理として局所領域での中間値(メディアン)を出力するメディアンフィルタを利用するようにしてもよい。
【0052】
ぼかしの強さについては、フィルタ行列要素の値を変えることで調節でき、数段階のぼかし強度に応じたフィルタ行列を設定しておけば、ユーザ指定に対応してぼかし強度を変えることができる。例えば、ぼけマスク領域内は、一様なボケ強度にしたり、主要部領域中心からの画面内距離に応じて変化する(距離が遠くなるほどぼかし強度が強くなる)ようにしてもよい。
【0053】
なお、ぼかし処理のぼかし強度については、一定のぼかし強度であってもよいし、数段階のぼかし強度が設定可能にしてもよい。数段階のぼかし強度が設定可能とした場合、数段階のぼかし強度に応じたフィルタ行列を設定しておき、数段階のぼかし強度のうち、オペレータが選択して操作部55にぼかし強度変更を表す情報を入力することによって、ぼかし強度を変更することが可能である。例えば、ぼかし強度選択スイッチ等を操作部55に設けることでぼかし強度の変更が可能である。
【0054】
次に本実施の形態における作用をぼかし処理のソフトウェアについて説明する。
【0055】
オペレータが操作部55を操作し、ぼかし処理を実行する情報を入力することによりぼかし処理が行われる。
【0056】
次に、RAM52に一旦記憶された画像データをメインコントローラ42に取り込み、取り込んだ画像データに対して自動的にぼかし処理を行う。なお、ぼかし処理が図4に示すフローチャートに従って行われる。以下、ぼかし処理について図4のフローチャート及び図5を参照して説明する。
【0057】
図5(A)には、ぼかし処理を行う前のバラの花を主要部領域の被写体としたオリジナル画像が示されている。操作部55にぼかし処理を行う情報が入力されると、ステップ100で領域分割手段74により、図5(A)に示すオリジナル画像の領域分割処理が行われ、図5(B)に示すような領域分割画像が作成される。
【0058】
ステップ102では、連結拡張手段76により図5(B)に示す画像の4隅の領域に隣接する領域が上述した何れかの条件を満たす場合に背景領域とし、背景領域を順次拡張連結することにより背景領域が推定される。そして、分離手段78によって、連結拡張手段76が背景領域として吸収せずに残った領域を主要部領域とし、画像を背景領域と主要部領域に2分して、主要部領域が抽出される(図5(C))。
【0059】
ステップ104では、輪郭抽出手段84により、図5(A)のオリジナル画像に対する輪郭抽出が行われ、図5(D)に示す輪郭抽出画像が生成される。
【0060】
続くステップ106では、分離手段78により抽出された主要部領域と輪郭抽出手段84により得られる輪郭抽出画像を重ねて、主要部領域の輪郭に一番近い輪郭線を輪郭抽出画像より選択することにより、主要部領域の輪郭が整えられる。そして、輪郭の整えられた主要部領域をマスクとしてぼけマスクが生成される(図5(E))。
【0061】
ステップ108では、生成されたぼけマスクを用いてぼかし処理手段82によりぼかし処理が行われ、図5(F)に示すような背景領域のみがぼけた画像を得ることができる。すなわち、ぼかし処理によりデジタルスチルカメラで撮影したパンフォーカス的に画面全体にピントが合ったような画像から、35mm一眼レフカメラで絞り優先で被写体深度を浅くして撮影したような、主要部のみがくっきりして背景はぼかしたプリントを作成することができる。
【0062】
このように、オペレータが主要部領域と背景領域との境界線を指定する煩雑な作業を行うことなく、オペレータが操作部55にぼかし処理を行うか否か表す情報を入力するだけで、自動的にぼかし処理を行うことができる。
【0063】
続いて、上述のぼかし処理に対するその他の構成について図6を参照して説明する。
【0064】
図6に示すように、上述のぼかし処理と同様に、領域分割手段74、連結拡張手段76、輪郭強調手段86、分離手段78、マスク生成手段80及びぼかし処理手段82によって構成されている。
【0065】
上述のぼかし処理では、マスク生成手段によりぼかしマスクを生成する際にマスクの輪郭を整えるために輪郭抽出手段84を設けたのに対して、領域分割する際の領域分割線を整えるため輪郭強調手段86が設けられている。すなわち、原画像の輪郭強調を行い、輪郭強調された画像に対して領域分割を行う構成となっている。このようにすることにより、境界線が明確になり、領域分割した後の背景領域と主要部領域との境界線の精度を向上することができる。
【0066】
次にこのように構成されたぼかし処理について、図6、図7のフローチャート及び図8を参照して説明する。
【0067】
図8(A)には、ぼかし処理を行う前の人物を主要部領域の被写体としたオリジナル画像が示されている。本フローチャートでは、操作部55にぼかし処理を行う指令が入力されると、ステップ200で輪郭強調手段86により図8(A)に示すオリジナル画像に対する輪郭強調が行われ、図8(B)に示す輪郭強調画像が生成される。
【0068】
ステップ202では、輪郭強調手段86により輪郭強調された輪郭線に基づいて、領域分割手段74により行われる領域分割処理が行われ、図8(C)に示す領域分割画像が作成される。このように輪郭強調が行われた画像に対して領域分割処理が行われることにより、領域分割した後の背景領域と主要被写体領域との境界線の精度を向上することができる。
【0069】
ステップ204では、領域分割画像(図8(C))に基づいて、原画像の中心を重心として、画像より小さい楕円外にある領域を背景領域とし、背景領域を順次連結拡張することにより背景領域が推定される。そして、背景領域として吸収されずに残った領域を主要部領域とし、領域分割画像を背景領域と主要部領域に2分することにより、主要部領域が抽出される(図8(D))。
【0070】
ステップ206では、抽出された主要部領域をマスクとしてぼけマスクが生成される(図8(E))。
【0071】
ステップ208では、生成されたぼけマスクを用いてぼかし処理が行われ、図8(F)に示すような背景領域のみがぼけた画像を得ることができる。
【0072】
なお、上記では、背景領域を連結拡張して画像データから背景領域を分離することによって主要領域にマスクを生成するようにしたが、背景領域以外の主要部領域を連結拡張して主要部領域を生成し、生成された主要部領域からマスクを生成するようにしてもよい。
【0073】
また、上記では、輝度信号Yと色差信号Cb、Crからなる信号を用いてぼかし処理を行う構成としたが、RGB色信号を用いてぼかし処理を行う構成としてもよい。
【0074】
更に、本実施の形態では、本発明をプリンタ10を例に説明したが、プリンタ10に限るものではなく、例えば、デジタルスチルカメラに本発明を適用してもよいし、写真感光材料などを処理してプリントを行うデジタルラボシステムに本発明を適用するようにしてもよい。
【0075】
【発明の効果】
以上説明したように本発明によれば、オペレータが主要部と背景との境界線を指定する煩雑な作業を行うことなく、自動的に主要部と背景とを分離し、背景領域だけにぼかし処理を行うことができる画像処理装置及び画像処理方法を提供することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るプリンタの概略図である。
【図2】本発明の実施の形態に係るプリンタの制御回路を示すブロック図である。
【図3】特殊画像処理におけるぼかし処理の構成を示すブロック図である。
【図4】ぼかし処理の流れの一例を示すフローチャートである。
【図5】ぼかし処理の一例の処理過程を示す図である。
【図6】ぼかし処理のその他の構成を示すブロック図である。
【図7】ぼかし処理のその他の例を示すフローチャートである。
【図8】ぼかし処理のその他の例の処理過程を示す図である。
【符号の説明】
10 プリンタ
42 メインコントローラ
74 領域分割手段
76 連結拡張手段
78 分離手段
80 マスク生成手段
82 ぼかし処理手段
84 輪郭抽出手段
86 輪郭強調手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method in a digital photo print system or the like that performs image processing on an image photographed by a digital still camera or the like. .
[0002]
[Prior art]
In general, the size of the light receiving surface of a CCD sensor, which is an image sensor of a digital still camera, is smaller than, for example, a 35 mm film for silver halide photography, and the lens focal length of a digital still camera is shorter than that of a 35 mm camera. Therefore, even when shooting with the same angle of view and the same aperture, the digital still camera has a greater depth of field than the 35 mm camera. In general, the aperture of a digital still camera has a narrow variable range, and the open F number is often darker than a 35 mm camera lens. Therefore, it is often impossible to reduce the depth of field by opening the aperture. As a result, especially scenes shot with a digital still camera tend to be pan-focused and the entire image is in focus.
[0003]
However, of course, depending on the scene, there may be a case where it is desired to make only the main subject stand out and blur the background around it. Therefore, even for images taken with a camera that cannot reduce the depth of field by adjusting the lens focal length and aperture of the camera, it is necessary to create a print that easily achieves such effects through image processing. It becomes.
[0004]
Therefore, Japanese Patent Laid-Open No. 10-65923 describes the following technique. First, the operator designates a temporary boundary between the main part and the background, performs an expansion / contraction process on the image data based on the specified temporary boundary, and includes an area including the main part, an area including only the background, and a main It is divided into three regions consisting of regions including the exact boundary between the part and the background. Then, for each pixel included in the area including the exact boundary between the main part and the background, whether the pixel belongs to the area including only the main part or the area including only the background, for example, color continuity Etc., and an accurate boundary line between the main part and the background is detected. Then, sharpness processing is applied to the digital image data in the main area and the area including the accurate boundary line between the main area and the background, and the edge of the accurate boundary line between the main area and the background is emphasized without a sense of incongruity. The In addition, a boundary line obtained by slightly expanding the exact boundary line between the main part and the background is calculated, and based on the expanded boundary line, the digital image data of the background region is subjected to interpolation processing, and the boundary line is calculated. Prevents bleeding from occurring in areas close to Thereafter, the background region is blurred using an IIR filter or the like. As described above, in the technique described in Japanese Patent Laid-Open No. 10-65923, even an image shot by a camera that cannot reduce the depth of field, the main subject can be easily made to stand out easily by image processing. The background can be blurred.
[0005]
[Problems to be solved by the invention]
However, in the technique described in Japanese Patent Laid-Open No. 10-65923, the operator needs to specify a temporary boundary between the main part and the background. The operation of specifying the temporary boundary is performed using a mouse or the like. There was a problem that it was a cumbersome work to specify.
[0006]
The present invention was made to solve the above problem, and the main part and the background are automatically separated without the operator having to perform a complicated operation of designating the boundary line between the main part and the background. An object of the present invention is to provide an image processing apparatus and an image processing method capable of performing a blurring process only on a region.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the present invention divides an image so that adjacent pixels whose pixel data difference is less than or equal to a threshold value are included in the same region, and average coordinates of the pixels in the divided region calculation means for de San positions for each of the regions, the average coordinate position, a region estimating means an area located in the region of the small circle or ellipse outside from the image relative to the center of the image shall be the background area, It is characterized in that from the whole image and a blurring processing means for performing mini blurring of the estimated background region by the region estimating means.
[0008]
According to the first aspect of the present invention, an image is generated so that adjacent pixels whose data between pixels (for example, color information, luminance information, and color difference information) are equal to or less than a threshold value are included in the same region by the calculation unit. It is divided into regions. Then, the average coordinates of the pixels in the region divided areas are de San for each of the regions.
In the case of a normal image, the main subject is located approximately at the center of the image. Therefore, the background region can be estimated by setting a region where the average coordinate position is located in a region outside the circle or ellipse smaller than the image relative to the center of the image as the background region.
[0009]
Further, based on the background area estimated by the area estimation means, the blurring processing unit, blurring processing is performed only on the estimated background area. That is, it is possible to automatically perform the blurring process only on the background area without designating the boundary line between the main part area and the background area.
[0010]
The invention according to claim 2, in the invention described in claim 1, wherein the blurring processing means, separating means for separating the whole image into realm excluding background and background regions, separated by the separation unit a mask generating means for generating a mask realm excluding the background area, and the features and processing means for performing blurring processing, that consists of the region other than the region of the mask generated by the mask generating means.
[0011]
According to the invention described in claim 2, in the invention described in claim 1, and the blurring processing unit separation means, the mask generating means, made from the processing unit, the background area estimated by the area estimation means separation by means, it is 2 minutes realm excluding background area and the background area. Then, the mask is generated by the mask generating means realm except the separated background area, based on the created mask, it is possible to perform the blurring process in a region other than the mask by the processing means.
[0018]
The invention according to claim 3, in the invention described in claim 2, wherein the mask generation unit extracts a contour of the image, by superimposing the extracted contour to the contour of the realm excluding the background area, It is characterized in that the contour of the mask is adjusted.
[0019]
According to a third aspect of the present invention, in the second aspect of the present invention, when a mask is generated in the main region for performing blurring processing by the mask generation means, a contour image is extracted. And the main part region separated by the separating means can be overlaid, the contour of the main part to be masked can be adjusted, and the main part mask can be surely performed when performing the blurring process on the background area. .
[0020]
According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the calculation unit emphasizes a contour in the image and performs the region division based on the emphasized contour. It is characterized by.
[0021]
According to the invention of
[0022]
The invention described in claim 5 is characterized in that in the invention described in any one of claims 1 to 4, the image processing apparatus further includes a blurring processing intensity specifying means for specifying the strength of the blurring process.
[0023]
According to the invention described in claim 5, in the invention described in any one of claims 1 to 4, further comprising a blur processing intensity specifying means, the strength of the blur processing performed by the blur processing means. Can be set.
[0024]
The invention described in claim 6 is characterized in that, in the invention described in any one of claims 1 to 5, switching means for switching whether to perform the blurring process is further provided.
[0025]
According to the invention described in claim 6, in the invention described in any one of claims 1 to 5, it is possible to select whether or not to perform the blurring process by further including a switching unit. It becomes.
[0026]
The invention according to claim 7 divides the image so that adjacent pixels whose data difference between the pixels is equal to or less than the threshold value are included in the same region, and calculates an average coordinate position of the pixels in the divided region. out calculated for each of the regions, the average coordinate position, a region located in the region of the small circle or ellipse outside from the image relative to the center of the image and background areas, mini blurring of the estimated background area from the entire image It is characterized by performing processing.
[0027]
According to the seventh aspect of the present invention, an image is divided into regions so that adjacent pixels whose pixel data (for example, color information, luminance information, and color difference information) are equal to or less than a threshold value are included in the same region. Then , the average coordinate position of the pixels in the divided area is calculated for each area .
In the case of a normal image, the main subject is located approximately at the center of the image. Therefore, the background region can be estimated by setting a region where the average coordinate position is located in a region outside the circle or ellipse smaller than the image relative to the center of the image as the background region.
[0028]
Then, based on the estimated background area, it performs the blurring process only the background area. By performing the blurring process in this way, it is possible to automatically perform the blurring process only on the background area without specifying the boundary line between the main part area and the background area.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
In the following, an embodiment in which the present invention is applied to a multicolor thermal printer that records an image on a multicolor thermal sheet will be described in detail with reference to the drawings.
[0030]
As shown in FIG. 1, the
[0031]
An
[0032]
The transport apparatus includes a pair of
[0033]
Between the
[0034]
A
[0035]
A
[0036]
When image data composed of RGB color signals is input from the
[0037]
The
[0038]
The
[0039]
Further, the
[0040]
Next, the background blur process described above will be described.
[0041]
The blurring process described above is executed by the
[0042]
Assuming that image data representing an image is given by the luminance signal Y and the color difference signals Cb and Cr, the
[0043]
Furthermore, area dividing means 74, after area division, the average coordinates for each of the regions which are distinguished by the labels (average X, average Y) out calculate the, with areas divided image data, the average coordinates It outputs to the connection expansion means 76.
[0044]
Coupling expansion means 76, in the region segmentation image by the
[0045]
Then, the
[0046]
The
[0047]
The separating
[0048]
The
[0049]
The blurring
[0050]
[Expression 1]
[0051]
A filter matrix such as can be used. Note that a median filter that has a noise reduction effect while maintaining sharpness and outputs an intermediate value (median) in a local region may be used as a slight blurring process.
[0052]
The blur strength can be adjusted by changing the value of the filter matrix element. If a filter matrix corresponding to several stages of blur strength is set, the blur strength can be changed according to the user designation. For example, the blur mask area may have a uniform blur intensity or change according to the distance in the screen from the center of the main area (the blur intensity increases as the distance increases).
[0053]
Note that the blur intensity of the blur process may be a constant blur intensity, or may be set at several stages. When several stages of blur intensity can be set, a filter matrix corresponding to several stages of blur intensity is set, and the operator selects and displays the blur intensity change in the
[0054]
Next, the software for blurring the operation of the present embodiment will be described.
[0055]
The blurring process is performed when the operator operates the
[0056]
Next, the image data once stored in the
[0057]
FIG. 5A shows an original image in which a rose flower before performing the blurring process is a subject in the main area. When information for performing blurring processing is input to the
[0058]
In
[0059]
In
[0060]
In the
[0061]
In
[0062]
As described above, the operator can input the information indicating whether or not to perform the blurring process to the
[0063]
Next, another configuration for the above-described blur processing will be described with reference to FIG.
[0064]
As shown in FIG. 6, similarly to the above-described blurring process, the
[0065]
In the blurring process described above, the
[0066]
Next, the blurring process configured as described above will be described with reference to the flowcharts of FIGS. 6 and 7 and FIG.
[0067]
FIG. 8A shows an original image in which the person before performing the blurring process is a subject in the main area. In this flowchart, when a command for performing blurring processing is input to the
[0068]
In
[0069]
In
[0070]
In
[0071]
In
[0072]
In the above, the background area is connected and expanded to generate a mask in the main area by separating the background area from the image data, but the main area other than the background area is connected and expanded to The mask may be generated from the generated main part region.
[0073]
In the above description, the blurring process is performed using the signal including the luminance signal Y and the color difference signals Cb and Cr. However, the blurring process may be performed using the RGB color signal.
[0074]
Further, in the present embodiment, the present invention has been described by taking the
[0075]
【The invention's effect】
As described above, according to the present invention, the main part and the background are automatically separated without performing a complicated operation for the operator to specify the boundary line between the main part and the background, and only the background region is blurred. There is an effect that it is possible to provide an image processing apparatus and an image processing method capable of performing the above.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of a printer according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a control circuit of the printer according to the embodiment of the present invention.
FIG. 3 is a block diagram illustrating a configuration of blurring processing in special image processing.
FIG. 4 is a flowchart illustrating an example of a flow of blurring processing.
FIG. 5 is a diagram illustrating a process of an example of blur processing.
FIG. 6 is a block diagram showing another configuration of blur processing.
FIG. 7 is a flowchart illustrating another example of blur processing.
FIG. 8 is a diagram illustrating a process of another example of blur processing.
[Explanation of symbols]
DESCRIPTION OF
Claims (7)
前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とする領域推定手段と、
画像全体から前記領域推定手段により推定された背景領域のみにぼかし処理を行うぼかし処理手段と、
を備えることを特徴とする画像処理装置。Calculation means the difference data between the pixel image divided into regions as Fukumaru the pixels the same area adjacent below the threshold, to leave calculate the average coordinates of the pixels in the region divided areas in each area When,
The average coordinate position, a region estimating means you a region located in the region of a small circle or ellipse outside from the image relative to the center of the image and background areas,
A blurring processing means for performing mini blurring of the estimated background region by the region estimating means from the entire image,
An image processing apparatus comprising:
前記平均座標位置が、画像の中心を基準とした画像より小さい円又は楕円外の領域に位置する領域を背景領域とし、
画像全体から推定された背景領域のみにぼかし処理を行うことを特徴とする画像処理方法。And region dividing an image so that the pixel difference data adjacent below the threshold between pixels are in the same area, out calculate the average coordinates of the pixels in the region divided areas in each area,
A region where the average coordinate position is located in a region outside the circle or ellipse smaller than the image based on the center of the image as a background region,
Image processing method, which comprises carrying out the mini-blurring of the background area that is estimated from the entire image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23116699A JP3918141B2 (en) | 1999-08-18 | 1999-08-18 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23116699A JP3918141B2 (en) | 1999-08-18 | 1999-08-18 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001057630A JP2001057630A (en) | 2001-02-27 |
JP3918141B2 true JP3918141B2 (en) | 2007-05-23 |
Family
ID=16919359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23116699A Expired - Fee Related JP3918141B2 (en) | 1999-08-18 | 1999-08-18 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3918141B2 (en) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002296144A (en) * | 2001-03-30 | 2002-10-09 | Seiko Epson Corp | Method and apparatus for detecting mark |
JP4565784B2 (en) * | 2001-09-20 | 2010-10-20 | Hoya株式会社 | Digital camera |
JP3951732B2 (en) * | 2002-02-08 | 2007-08-01 | セイコーエプソン株式会社 | Image processing method, image processing apparatus, image processing program, and recording medium |
KR20040035007A (en) * | 2002-10-18 | 2004-04-29 | (주) 임펙링크제너레이션 | Face Detection and Background Blurring for Video Conference Application |
US7680342B2 (en) | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
WO2005064539A1 (en) * | 2003-12-26 | 2005-07-14 | Konica Minolta Photo Imaging, Inc. | Image area extraction and image processing method, device, and program |
JP2006011618A (en) * | 2004-06-23 | 2006-01-12 | Noritsu Koki Co Ltd | Photographic image processing method and its device |
JP4670303B2 (en) * | 2004-10-06 | 2011-04-13 | ソニー株式会社 | Image processing method and image processing apparatus |
JP4596986B2 (en) * | 2005-06-07 | 2010-12-15 | オリンパス株式会社 | Imaging device |
US7920200B2 (en) | 2005-06-07 | 2011-04-05 | Olympus Corporation | Image pickup device with two cylindrical lenses |
JP4596988B2 (en) * | 2005-06-07 | 2010-12-15 | オリンパス株式会社 | Imaging device |
JP4665718B2 (en) * | 2005-10-28 | 2011-04-06 | 株式会社ニコン | Imaging device |
JP4970468B2 (en) * | 2006-02-14 | 2012-07-04 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | Image blur processing |
JP4712659B2 (en) | 2006-09-22 | 2011-06-29 | 富士フイルム株式会社 | Image evaluation apparatus and program thereof |
JP4935302B2 (en) * | 2006-11-02 | 2012-05-23 | 株式会社ニコン | Electronic camera and program |
JP2007213083A (en) * | 2007-03-15 | 2007-08-23 | Seiko Epson Corp | Image processing system, image processing method, image processing apparatus, image processing program |
KR101348596B1 (en) | 2008-01-22 | 2014-01-08 | 삼성전자주식회사 | Apparatus and method for immersive generation |
JP2009206585A (en) * | 2008-02-26 | 2009-09-10 | Nikon Corp | Image processing apparatus, image processing program and digital camera |
JP5181913B2 (en) * | 2008-08-07 | 2013-04-10 | 株式会社リコー | Image processing apparatus, imaging apparatus, image processing method, and program |
JP4798236B2 (en) * | 2009-03-06 | 2011-10-19 | カシオ計算機株式会社 | Imaging apparatus, image processing method, and program |
JP5569206B2 (en) * | 2010-07-15 | 2014-08-13 | ソニー株式会社 | Image processing apparatus and method |
JP5645628B2 (en) * | 2010-12-09 | 2014-12-24 | 富士フイルム株式会社 | Ultrasonic diagnostic equipment |
JP5713256B2 (en) * | 2010-12-21 | 2015-05-07 | 株式会社ニコンシステム | Image processing apparatus, imaging apparatus, and image processing program |
JP5550149B2 (en) * | 2011-02-18 | 2014-07-16 | シャープ株式会社 | Image processing apparatus, image processing method, and program |
JP5594282B2 (en) | 2011-03-31 | 2014-09-24 | カシオ計算機株式会社 | Image processing device |
JP2011175663A (en) * | 2011-04-22 | 2011-09-08 | Casio Computer Co Ltd | Imaging device, image processing method, and program |
JP5786544B2 (en) * | 2011-08-11 | 2015-09-30 | 株式会社ニコン | Image processing apparatus, imaging apparatus, and program |
JP5741660B2 (en) * | 2013-09-18 | 2015-07-01 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
CN108234865A (en) * | 2017-12-20 | 2018-06-29 | 深圳市商汤科技有限公司 | Image processing method, device, computer readable storage medium and electronic equipment |
-
1999
- 1999-08-18 JP JP23116699A patent/JP3918141B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001057630A (en) | 2001-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3918141B2 (en) | Image processing apparatus and image processing method | |
US10349029B2 (en) | Photographic scene replacement system | |
US6667815B1 (en) | Method and apparatus for processing images | |
JP2907120B2 (en) | Red-eye detection correction device | |
JP5547730B2 (en) | Automatic facial and skin beautification using face detection | |
JP2007066199A (en) | Image processor and image processing method | |
JP4368513B2 (en) | Image processing method and apparatus, and recording medium | |
JP2002158893A (en) | Device and method for correcting picture and recording medium | |
JP3907816B2 (en) | Image processing method | |
CN106570838A (en) | Image brightness optimization method and device | |
JP2003061105A (en) | Image processing method, image processing program, image processing apparatus, and digital still camera using the image processing apparatus | |
US7200280B2 (en) | Image processing apparatus | |
Zhou et al. | Removal of image artifacts due to sensor dust | |
US7212674B1 (en) | Method, apparatus and recording medium for face extraction | |
JP2002271638A (en) | White balance correction method and device, and recording medium recorded with program for executing the method | |
JP2005141477A (en) | Image sharpening process and image processor implementing this process | |
JPH11266358A (en) | Image processing method | |
JPH10233919A (en) | Image processor | |
JP4304846B2 (en) | Image processing method and recording medium recording image processing program | |
JP2007264828A (en) | Image processing method and device and printer | |
JP2008109668A (en) | Blemish repair tool for digital photographs in camera | |
JP2001092955A (en) | Method and device for processing image | |
JP4731202B2 (en) | Color correction processing method and color correction processing apparatus using the same | |
JP2000224418A (en) | Mask for changing lightness profile of photo copying | |
JP4467231B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060328 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070130 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20070201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3918141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100223 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110223 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130223 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140223 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |