JP2015165608A - 画像処理装置、画像処理方法、画像処理システムおよびプログラム - Google Patents
画像処理装置、画像処理方法、画像処理システムおよびプログラム Download PDFInfo
- Publication number
- JP2015165608A JP2015165608A JP2014039870A JP2014039870A JP2015165608A JP 2015165608 A JP2015165608 A JP 2015165608A JP 2014039870 A JP2014039870 A JP 2014039870A JP 2014039870 A JP2014039870 A JP 2014039870A JP 2015165608 A JP2015165608 A JP 2015165608A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- image processing
- designated area
- designated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 212
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims description 15
- 238000000034 method Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 15
- 230000003247 decreasing effect Effects 0.000 description 11
- 230000007423 decrease Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/68—Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/643—Hue control means, e.g. flesh tone control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Color Image Communication Systems (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
また特許文献2には、入力画像を解析して特徴量を抽出する画像特徴抽出手段と、参照画像から抽出された特徴量、参照画像を加工した後の結果画像、加工に使用した画像処理、並びに加工に使用した画像処理のパラメータとを対応付けて記憶する参照画像記憶手段と、入力画像から抽出された特徴量を基に参照画像記憶手段を検索し、入力画像に類似する参照画像を取得する参照画像検索手段と、参照画像検索手段により取得された参照画像と対応する結果画像とをセットで表示する画像表示手段と、画像表示手段に表示されたセットから選択する参照画像選択手段と、参照画像選択手段で選択されたセットと対応する画像処理のパラメータとを用いて入力画像を加工する画像処理手段とを備える画像処理装置が開示されている。
請求項2に記載の発明は、前記画像情報取得部は、見本となる第2の画像の画像情報をさらに取得し、前記位置情報取得部は、前記第2の画像の中から、ユーザが前記第1の画像の前記指定領域に対し行なう画像処理の見本とする画像領域として指定する見本領域の代表位置を表す第2の位置情報をさらに取得し、前記領域検出部は、前記第2の位置情報から前記見本領域をさらに検出し、前記画像処理部は、前記指定領域の画質を前記見本領域の画質に合せる画像処理を行なうことを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記指定領域は複数存在し、複数の当該指定領域を切り替える領域切替部をさらに備えることを特徴とする請求項1または2に記載の画像処理装置である。
請求項4に記載の発明は、前記指定領域の画質を前記見本領域の画質に合せるためのパラメータを算出するパラメータ算出部をさらに備え、前記画像処理部は、前記パラメータに基づき前記指定領域の画質を前記見本領域の画質に合せる画像処理を行なうことを特徴とする請求項2または3に記載の画像処理装置である。
請求項5に記載の発明は、第1の画像の画像情報を取得し、前記第1の画像の中からユーザが画像処理を行なう画像領域として指定した指定領域の代表位置を表す第1の位置情報を取得し、前記第1の位置情報から前記指定領域を検出し、前記指定領域に対し画像処理を行なうことを特徴とする画像処理方法である。
請求項6に記載の発明は、第1の画像を表示する表示装置と、前記表示装置に表示される前記第1の画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記第1の画像の画像情報を取得する画像情報取得部と、前記第1の画像の中からユーザが画像処理を行なう画像領域として指定した指定領域の代表位置を表す第1の位置情報を取得する位置情報取得部と、前記第1の位置情報から前記指定領域を検出する領域検出部と、前記指定領域に対し画像処理を行なう画像処理部と、を備えることを特徴とする画像処理システムである。
請求項7に記載の発明は、コンピュータに、第1の画像の画像情報を取得する機能と、前記第1の画像の中からユーザが画像処理を行なう画像領域として指定した指定領域の代表位置を表す第1の位置情報を取得する機能と、前記第1の位置情報から前記指定領域を検出する機能と、前記指定領域に対し画像処理を行なう機能と、を実現させるプログラムである。
請求項2の発明によれば、指定領域の画質を見本領域の画質に合せることができる。
請求項3の発明によれば、本構成を有していない場合に比較して、指定領域の選択がより容易になる。
請求項4の発明によれば、本構成を有していない場合に比較して、指定領域の画質を見本領域の画質に合せる処理がより容易に行える。
請求項5の発明によれば、本構成を有していない場合に比較して、指定領域を画像の中からより容易に指定できる画像処理方法が提供できる。
請求項6の発明によれば、本構成を有していない場合に比較して、画像処理がより容易に行える画像処理システムが提供できる。
請求項7の発明によれば、本構成を有していない場合に比較して、指定領域を画像の中からより容易に指定できる機能をコンピュータにより実現できる。
例えば、カラーの画像の画質調整を行なうときには、カラーの画像全体に対し行なう場合とカラーの画像中において領域別に行なう場合がある。カラーの画像を表現する要素は、一般にRGB等の色成分、L*a*b*等の輝度と色度、またはHSVなどの輝度と色相と彩度により表すことができる。また画質を制御する代表例としては、色成分のヒストグラム制御、輝度のコントラスト制御、輝度のヒストグラム制御、輝度の帯域制御、色相制御、彩度制御などが挙げられる。また近年では、Retinex等のように視認性を表す画質についての制御も重要視されている。色や輝度の帯域に基づく画質を制御する場合、特に特定の領域に対してのみ画質調整を行うときは、この領域を切り出す処理が必要となる。
例えば、特定の領域を切り出し、切り出した領域と外接するように彩度と色相の調整インジケータ(スライダ)を表示させるものがある。
これに対し、見本に対する処理パターンを記憶しておき、画質調整を行なう原画像を与えれば、特徴が類似したパターンが検索され、処理見本を得ることができるようにした従来技術がある。
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
[第1の実施の形態]
次に画像処理装置10の第1の実施の形態について説明を行なう。
図2は、本発明の第1の実施の形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち第1の実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、領域検出部13と、領域切替部14と、画像処理部15と、画像情報出力部16とを備える。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像の中から、ユーザが画像処理を行なう画像領域として、指定領域を指定する指示をユーザ指示情報として受け付ける。またユーザ指示受付部12は、ユーザが、この指定領域の中から実際に画像処理を行なうものを選択する指示をユーザ指示情報として受け付ける。さらにユーザ指示受付部12は、選択された指定領域に対し、ユーザが画像処理を行う処理項目や処理量等に関する指示をユーザ指示情報として受け付ける。これらの内容に関するさらに詳しい説明については後述する。
図3は、指定領域をユーザインタラクティブに行う方法の例を示した図である。
ここでは、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、前景である人物の頭髪の部分、顔の部分、および頭髪や顔以外の部分をそれぞれ指定領域として選択する場合を示している。即ち、この場合指定領域は3つある。以後、頭髪の部分の指定領域を「第1の指定領域」、顔の部分の指定領域を「第2の指定領域」、頭髪や顔以外の部分の指定領域を「第3の指定領域」と言うことがある。
そしてこの位置情報(第1の位置情報)は、ユーザ指示情報としてユーザ指示受付部12により取得され、さらに領域検出部13により指定領域を切り出す処理が行なわれる。
そしてシードが描かれた画素と周辺の画素との間で画素値の近さ(RGB値のユークリッド距離など)を基に、近ければ連結し、遠ければ連結しない作業を繰り返し、領域を拡張していく。
図示するように(a)→(b)→(c)となるに従い、真ん中のシードが与えられた画素から、周辺の画素に領域が拡張していく。拡張した部分の画素には、シードが描かれた画素に付加されたフラグと同じフラグが付加される。
図4−2(a)〜(e)は、2つのシードが与えられた場合に、画像を2つの領域にわける具体例である。
ここでは図4−2(a)の原画像に対し、図4−2(b)で示すように、シードとしてシード1とシード2の2つを与える。そして各々のシードを基点に領域を拡張していく。この場合、例えば、原画像における近傍画素の値との近さ等に応じて領域を拡張していくことができる。このとき図4−2(c)に示すように領域同士のせめぎ合いがある場合は、再判定の対象画素となり、再判定の対象画素の画素値と近傍の関係でどちらの領域に属するかを決めればよい。このとき、下記文献に記載されている方法を使うことができる。
このように領域を拡張していく領域拡張方法により、指定領域を切り出すことができる。
このうち図5(a)は、図3で示した画像Gであり、シードとして軌跡が描かれた状態を示している。
そして図5(b)で示すように、シードとして軌跡が描かれた箇所から指定領域内に領域が拡張していき、図5(c)で示すように最後に指定領域として3つの指定領域である「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」が切り出される。
このような方法を採用することで、指定領域が複雑な形状であっても、ユーザは、より直感的に、またより容易に指定領域を切り出すことができる。
なお指定領域が2つであり、これを切り出せばよい場合は、例えば、画像をグラフと見立て、最大流量最小カットの原理を利用した方法も使用できる。
この原理は、図6に示すように前景の仮想ノードを始点、背景の仮想ノードを終点として設定し、前景の仮想ノードからユーザが指定した前景領域の代表位置をリンクし、ユーザが指定した背景領域の代表位置から終点へリンクさせる。そして始点から水を流した場合、最大流せる量はいくらかを計算する。前景から始点へのリンクの値を水道管のパイプの太さと考えて、ボトルネックになっている(流れにくい)箇所のカットの総和が最大流量であるという原理である。つまりは、ボトルネックとなるリンクをカットすることが、前景と背景とを分離することになる(グラフカット)。
以上挙げた例は、領域カットに関する例であり、領域拡張やグラフなどの原理を利用した領域の切り出し方法の具体例を示した。ただし本実施の形態では、この領域カットの方法は問わず、いかなるものでも適用可能である。
図7(a)〜(c)に示した例では、表示画面21の左側に指定領域が選択された状態の画像Gが表示され、表示画面21の右側に画像切り替えボタン211が表示される。そしてユーザが入力装置30を使用して、この画像切り替えボタン211を操作すると、指定領域が切り替わる。具体的には、入力装置30がマウスであった場合は、マウスを操作してカーソルを画像切り替えボタン211に合せ、クリックを行なう。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により画像切り替えボタン211をタップする。
図8(a)〜(c)に示した例では、表示画面21の左側に指定領域が選択された状態の画像Gが表示され、表示画面21の右側に「領域1」、「領域2」、「領域3」の何れかを選択するラジオボタン212a、212b、212cが表示される。この場合、「領域1」は、「第1の指定領域(S1)」に、「領域2」は、「第2の指定領域(S2)」に、「領域3」は、「第3の指定領域(S3)」に対応する。そしてユーザが入力装置30を使用して、このラジオボタン212a、212b、212cを選択すると、指定領域が切り替わる。
図9は、画像処理を行なう際に、表示装置20の表示画面21に表示される画面の例を示している。
ここでは、選択された指定領域に対し、色相、彩度、輝度の調整を行なう例を示している。この例では、表示画面21の左上側に指定領域が選択された状態の画像Gが表示され、表示画面21の右上側に「領域1」、「領域2」、「領域3」の何れかを選択するラジオボタン212a、212b、212cが表示される。ここでは、ラジオボタンのうち212aが選択されており、指定領域として、頭髪の部分の画像領域である「第1の指定領域(S1)」が選択されている。なおラジオボタン212a、212b、212cを操作することで、指定領域の切り替えが可能であることは、図8の場合と同様である。
また図10(b)は、このときのL(x、y)の分布を示した図である。ここで白色の部分は、フラグが1であり、選択された指定領域であることを示す。また黒色の部分は、フラグが0であり、選択された指定領域外であることを示す。図10(b)は、選択された指定領域と選択された指定領域外とを切り分けるマスクと見ることもできる。この場合、L(x、y)が「1」の部分のみに画像処理がなされることになる。
図10(b)と図10(c)とを比較すると、図10(c)の場合は、指定領域を1、指定領域外を0と固定せず、0〜1の値を採るようにする。この場合、マスクの値は、通常は、選択された指定領域では1、選択された指定領域外では0であるが、選択された指定領域と選択された指定領域外との境界付近では、0〜1の値を採る。即ち、指定領域と指定領域外との境界がぼける平滑化マスクとなる。なおこの例では、ガウス関数を使用して平滑化マスクを作成したが、移動平均を用いる方法もある。
そしてユーザが、スライダ213bを中央位置から図中右側に移動した場合、上述したように色相を増加させる入力を行なうことになる。一方、スライダ213bを中央位置から図中左側に移動した場合、色相を減少させる入力を行なうことになる。図11(a)では、このときの増分をΔH、減少分を−ΔHとして図示している。
つまり色相をΔH増加させたときは、平均値HaveではΔH増加するため、Have+ΔHとなる。またトーンカーブは、この箇所と、色相(H)の最小値0および最大値Hmaxを結ぶ2つの直線から構成される図11(b)の上側の太線のようになる。
また色相をΔH減少させたときは、平均値HaveではΔH減少するため、Have−ΔHとなる。そしてトーンカーブは、この箇所と、色相(H)の最小値0および最大値Hmaxを結ぶ2つの直線から構成される図11(b)の下側の太線のようになる。
そしてユーザが、スライダ213bを中央位置から図中右側に移動した場合、上述したように彩度を増加させる入力を行なうことになり、このときの増分をΔSで示している。
一方、スライダ213bを中央位置から図中左側に移動した場合、彩度を減少させる入力を行なうことになり、このときの減少分を−ΔSとして図示している。
そして彩度をΔS増加させたときは、平均値SaveではΔS増加するため、Save+ΔSとなる。またトーンカーブは、この箇所と、彩度(S)の最小値0および最大値Smaxを結ぶ2つの直線から構成される図12(b)の上側の太線のようになる。
また彩度をΔS減少させたときは、平均値SaveではΔS減少するため、Save−ΔSとなる。そしてトーンカーブは、この箇所と、彩度(S)の最小値0および最大値Smaxを結ぶ2つの直線から構成される図12(b)の下側の太線のようになる。
そしてユーザが、スライダ213bを中央位置から図中右側に移動した場合、上述したように輝度を増加させる入力を行なうことになり、このときの増分をΔVで示している。
一方、スライダ213bを中央位置から図中左側に移動した場合、輝度を減少させる入力を行なうことになり、このときの減少分を−ΔVとして図示している。
そして輝度をΔV増加させたときは、平均値VaveではΔV増加するため、Vave+ΔVとなる。またトーンカーブは、この箇所と、輝度(V)の最小値0および最大値Vmaxを結ぶ2つの直線から構成される図13(b)の上側の太線のようになる。
また輝度をΔV減少させたときは、平均値VaveではΔV減少するため、Vave−ΔVとなる。そしてトーンカーブは、この箇所と、輝度(V)の最小値0および最大値Vmaxを結ぶ2つの直線から構成される図13(b)の下側の太線のようになる。
図14では、指定領域を選択した後に、ユーザが色相および彩度の調整を行なう場合を示している。このときユーザは、入力装置30を操作し、表示画面21に表示されているカーソルを左右方向または上下方向に移動させドラッグ操作を行なう。また表示画面21がタッチパネルだった場合は、ユーザは、ユーザの指やタッチペン等により表示画面21上で左右方向または上下方向にスワイプ操作を行なう。
図15(a)では、調整を行なう項目を切り替えるのに、タップ操作で切り替える場合を示している。つまり入力装置30がタッチパネルであった場合に表示画面21の何れかの箇所をタップすると、調整を行なう項目が、「色相」および「彩度」と、「色相」および「輝度」との間で交互に切り替えられる。
そして調整を行なう項目が、図15(a)で示す「色相」および「彩度」から、「色相」および「輝度」に切り替えが行なわれたときは、図15(b)に示しように、左右方向の操作を行なったときは、色相の調整が行なわれ、上下方向の操作を行なったときは、輝度の調整が行なわれる。このとき色相の調整については、図14の場合と同様となる。また上方向にスワイプ操作を行なったときには、輝度を増加させ、下方向にスワイプ操作を行なったときには、輝度を減少させる。なお指等の移動量および回数により色相や輝度の調整量を変化させることは、図14の場合と同様である。
図16(a)〜(c)では、表示画面21の左側に「第1の指定領域(S1)」が選択された状態の画像Gが表示され、表示画面21の右側に「色相」、「彩度」、「輝度」のそれぞれに対応するラジオボタン214a、214b、214cが表示される。そしてユーザが入力装置30を使用して、このラジオボタン214a、214b、214cを選択すると、調整する項目として「色相」、「彩度」、「輝度」が切り替わる。
このとき例えば、ユーザが、カーソルや指等により、上述した左右方向の操作を行なったときは、色相の調整が行なわれる。即ち、ユーザが右方向にドラッグ操作やスワイプ操作を行なったときは、選択された指定領域の色相を増加させる。またユーザが左方向にドラッグ操作やスワイプ操作を行なったときは、選択された指定領域の色相を減少させる。
また図16(c)は、ラジオボタン214cに対応する「輝度」が選択された状態を示している。このときもユーザが、上述した左右方向の操作を行なったときは、輝度の調整が同様にして行なわれる。
この場合、V−VB(αB)は、アンシャープ成分を表す。またVBは、平滑化画像を表し、αBが小さい場合は、ぼかし度合いが小さい画像となり、αBが大きい場合は、ぼかし度合いが大きい画像となる。そのためαBが小さい場合は、アンシャープ成分V−VB(αB)は、より高周波となるので、数9式はより高周波強調の式となり細かい輪郭(ディテール)がくっきり再現される。対してαBが大きい場合は、アンシャープ成分V−VB(αB)は、より低周波となるので、数9式はより低周波強調の式となり、おおまかな輪郭(形状)が強調される。またαgは、強調度合い(ゲイン)であるため、αgが小さい場合は、強調の度合いが小さく、αgが大きい場合は、強調の度合いが大きくなる。
図17は、空間周波数の調整を行なうときに表示画面21に表示される画面の例を示した図である。
ここでは、指定領域として頭髪の部分である「第1の指定領域(S1)」が選択されている。そしてユーザが、カーソルや指等により、左右方向の操作を行なったときは、ぼかし帯域αBの調整が行なわれる。即ち、ユーザが、右方向にカーソルを移動させるか指等によりスワイプ操作を行なったときは、「第1の指定領域(S1)」のぼかし帯域αBを高周波方向にする。またユーザが、左方向にカーソルを移動させるか指等によりスワイプ操作を行なったときは、選択された「第1の指定領域(S1)」のぼかし帯域αBを低周波方向にする。
またユーザが、カーソルや指等により、上下方向の操作を行なったときは、強調の度合いαgの調整が行なわれる。即ち、ユーザが、上方向にカーソルを移動させるか指等によりスワイプ操作を行なったときは、「第1の指定領域(S1)」の強調の度合いαgを増加させる。またユーザが、左方向にカーソルを移動させるか指等によりスワイプ操作を行なったときは、「第1の指定領域(S1)」の強調の度合いαgを減少させる。
図示するようにぼかし帯域αBの調整を行い、ぼかし帯域αBを高周波方向にしたとき(図中右方向)は、「第1の指定領域(S1)」である頭髪の部分がよりシャープな画質となり、ぼかし帯域αBを低周波方向にしたとき(図中左方向)は、よりアンシャープな画質となる。
また強調の度合いαgの調整を行い、強調の度合いαgを増加させたとき(図中上方向)は、「第1の指定領域(S1)」である頭髪の部分がより強調した画像として表示され、強調の度合いαgを減少させたとき(図中下方向)は、頭髪の部分がよりめだたない画像として表示される。
以下、図2および図19を使用して、第1の実施の形態の画像処理装置10の動作について説明を行う。
さらに領域検出部13が、例えば、図4−1、図4−2、図5、図6で説明した方法により、指定領域を切り出す処理を行う(ステップ103)。
このユーザによる指定領域の選択の指示は、ユーザ指示受付部12が受け付ける(ステップ104)。
そして領域切替部14により指定領域の切り替えが行なわれる(ステップ105)。
ユーザによる画像処理の指示は、ユーザ指示受付部13が受け付ける(ステップ106)。
そして画像情報出力部16が、画像処理がなされた後の画像情報を出力する(ステップ108)。この画像情報は、RGBデータであり、このRGBデータは、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
次に画像処理装置10の第2の実施の形態について説明を行なう。
図20は、本発明の第2の実施の形態における画像処理装置10の機能構成例を表すブロック図である。なお図20では、画像処理装置10が有する種々の機能のうち第2の実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、領域検出部13と、領域切替部14と、パラメータ算出部17と、画像処理部15と、画像情報出力部16とを備える。
本実施の形態では、画像処理を行なう対象となる第1の画像に加え、見本となる第2の画像が用意される。そして第2の画像の画質に第1の画像の画質を合せる画像処理が行なわれる。
以下、この事項について説明を行なう。
また本実施の形態では、画像処理を行なう第1の画像に加え、見本となる第2の画像に対して入力されるユーザの指示をユーザ指示情報として受け付ける。この事項に関するさらに詳しい説明については後述する。
図21は、指定領域および見本領域をユーザインタラクティブに行う方法の例を示した図である。ここでは、表示装置20の表示画面21に左側に第1の画像である画像G1が表示され、右側の第2の画像である画像G2が表示される場合を示している。
ここで左側の画像G1は、図3と同様の画像であり、前景として写る人物と、人物の背後に写る背景とからなる写真の画像である。そしてユーザが、前景である人物の頭髪の部分、顔の部分、および頭髪や顔以外の部分をそれぞれ指定領域として選択する場合を示している。
つまりこの場合もユーザは、頭髪の部分、顔の部分、および頭髪や顔以外の部分のそれぞれに対し代表となる位置を示す情報を与える。これは見本領域の代表位置を表す位置情報(第2の位置情報)をユーザが入力する、と言い換えることもできる。
このうち図22(a)は、指定領域として、人物の頭髪の部分、顔の部分、および頭髪や顔以外の部分の3つの指定領域である「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」が切り出される場合を示している。
また図22(b)は、見本領域として、人物の頭髪の部分、顔の部分、および頭髪や顔以外の部分の3つの見本領域である「第1の見本領域(M1)」、「第2の見本領域(M2)」、「第3の見本領域(M3)」が切り出される場合を示している。
これらの指定領域や見本領域に属する画素にそれぞれフラグを付与することは、本実施の形態でも同様である。例えば、頭髪の部分についてフラグ「1」を、顔の部分についてフラグ「2」を、頭髪や顔以外の部分についてフラグ「3」を付加する。
このパラメータは種々考えられるが、ここでは色相と彩度の2つを制御するためのパラメータの決定方法を説明する。
まず選択された指定領域の(x、y)に位置する画素の画素値が、HSVデータで与えられる場合を考え、これをH1(x、y)、S1(x、y)、V1(x、y)とする。また同様に選択された見本領域の(x、y)に位置する画素の画素値としてH2(x、y)、S2(x、y)、V2(x、y)を考える。
図23は、横軸がH1(x、y)を表し、縦軸がH2(x、y)を表す。そして(H1ave、H2ave)の点と色相の最小値(0、0)および最大値(Hmax、Hmax)を結ぶ2つの直線から構成される太線で図示した関数を設定する。この場合、H1(x、y)とH2(x、y)とを関連付けるパラメータは、この2つの直線の傾きとして定義できる。
なおこの例では、H1(x、y)とH2(x、y)とを関係付けるパラメータを設定する関数を考えたが、S1(x、y)とS2(x、y)とを関係付けるパラメータについても同様に定義できる。
なお色相と彩度の2つを制御するためのパラメータだけでなく、輝度を制御するパラメータを設定してもよく、画質を決める他の要素についてのパラメータを考え、設定してもよい。
このうち図24(a)は、画像処理を行なう前の画像G1を示している。そしてこの画像G1中の顔の部分である「第2の指定領域(S2)」の画質を図24(b)に示す画像G2中の顔の部分である「第2の見本領域(M2)」の画質に合せる。その結果、図24(c)に示すように、「第2の指定領域(S2)」である顔の部分の画質が変化し、「第2の見本領域(M2)」の画質と同じとなる。
この場合、図25−1の下部に図示するようなチェックボックス215を設け、このチェックボックス215をチェックした領域の画質が変化する。この場合、「領域1」をチェックすることで、「第1の指定領域(S1)」の画質を「第1の見本領域(M1)」の画質に合せる画像処理が行なわれ、「領域2」をチェックすることで、「第2の指定領域(S2)」の画質を「第2の見本領域(M2)」の画質に合せる画像処理が行なわれる。よってこの両者の画像処理が同時に行なわれる。
この場合は、ユーザが指等を左方向にスワイプすると指定領域の画質に近づき、右方向にスワイプすると見本領域の画質に近づく。そしてチェックボックス215として「領域1」と「領域2」がチェックされているので、「第1の指定領域(S1)」と「第1の見本領域(M1)」、および「第2の指定領域(S2)」と「第2の見本領域(M2)」の間で、画質が同時に変化することになる。なお図24のようにェックボックス215を設けない場合にも適用できることはもちろんである。
このとき高周波成分を表す画像の画素値をIhigh、中周波成分を表す画像の画素値をImid、低周波成分を表す画像の画素値をIlowとしたときに、Ihigh、Imid、Ilowを以下の数12式で定義する。
図26(a)は、画像処理を行なう第1の画像である画像G1であり、頭髪の部分である「第1の指定領域(S1)」が選択されている。
また図26(b)は、見本となる第2の画像である画像G2であり、頭髪の部分である「第1の見本領域(M1)」が選択されている。
そして図26(c)は、「第1の指定領域(S1)」の空間周波数を「第1の見本領域(M1)」の空間周波数に合せ、「第1の指定領域(S1)」の画質を「第1の見本領域(M1)」に合せた場合を示している。
以下、図2および図27を使用して、第2の実施の形態の画像処理装置10の動作について説明を行う。
この指定領域や見本領域のシードの情報は、ユーザ指示受付部12が受け付ける(ステップ203)。
さらに領域検出部13が、指定領域や見本領域を切り出す処理を行う(ステップ204)。
このユーザによる指定領域や見本領域の選択の指示は、ユーザ指示受付部12が受け付ける(ステップ205)。
そして領域切替部14により指定領域や見本領域の切り替えが行なわれる(ステップ206)。
ユーザによる画像処理の指示は、ユーザ指示受付部13が受け付ける(ステップ207)。
そして画像情報出力部16が、画像処理がなされた後の画像情報を出力する(ステップ210)。この画像情報は、RGBデータであり、このRGBデータは、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
次に、画像処理装置10のハードウェア構成について説明する。
図28は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
Claims (7)
- 第1の画像の画像情報を取得する画像情報取得部と、
前記第1の画像の中からユーザが画像処理を行なう画像領域として指定した指定領域の代表位置を表す第1の位置情報を取得する位置情報取得部と、
前記第1の位置情報から前記指定領域を検出する領域検出部と、
前記指定領域に対し画像処理を行なう画像処理部と、
を備えることを特徴とする画像処理装置。 - 前記画像情報取得部は、見本となる第2の画像の画像情報をさらに取得し、
前記位置情報取得部は、前記第2の画像の中から、ユーザが前記第1の画像の前記指定領域に対し行なう画像処理の見本とする画像領域として指定する見本領域の代表位置を表す第2の位置情報をさらに取得し、
前記領域検出部は、前記第2の位置情報から前記見本領域をさらに検出し、
前記画像処理部は、前記指定領域の画質を前記見本領域の画質に合せる画像処理を行なうことを特徴とする請求項1に記載の画像処理装置。 - 前記指定領域は複数存在し、複数の当該指定領域を切り替える領域切替部をさらに備えることを特徴とする請求項1または2に記載の画像処理装置。
- 前記指定領域の画質を前記見本領域の画質に合せるためのパラメータを算出するパラメータ算出部をさらに備え、
前記画像処理部は、前記パラメータに基づき前記指定領域の画質を前記見本領域の画質に合せる画像処理を行なうことを特徴とする請求項2または3に記載の画像処理装置。 - 第1の画像の画像情報を取得し、
前記第1の画像の中からユーザが画像処理を行なう画像領域として指定した指定領域の代表位置を表す第1の位置情報を取得し、
前記第1の位置情報から前記指定領域を検出し、
前記指定領域に対し画像処理を行なうことを特徴とする画像処理方法。 - 第1の画像を表示する表示装置と、
前記表示装置に表示される前記第1の画像の画像情報に対し画像処理を行なう画像処理装置と、
ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、
を備え、
前記画像処理装置は、
前記第1の画像の画像情報を取得する画像情報取得部と、
前記第1の画像の中からユーザが画像処理を行なう画像領域として指定した指定領域の代表位置を表す第1の位置情報を取得する位置情報取得部と、
前記第1の位置情報から前記指定領域を検出する領域検出部と、
前記指定領域に対し画像処理を行なう画像処理部と、
を備える
ことを特徴とする画像処理システム。 - コンピュータに、
第1の画像の画像情報を取得する機能と、
前記第1の画像の中からユーザが画像処理を行なう画像領域として指定した指定領域の代表位置を表す第1の位置情報を取得する機能と、
前記第1の位置情報から前記指定領域を検出する機能と、
前記指定領域に対し画像処理を行なう機能と、
を実現させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014039870A JP6241320B2 (ja) | 2014-02-28 | 2014-02-28 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
US14/479,879 US9489748B2 (en) | 2014-02-28 | 2014-09-08 | Image processing apparatus and method, image processing system, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014039870A JP6241320B2 (ja) | 2014-02-28 | 2014-02-28 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015165608A true JP2015165608A (ja) | 2015-09-17 |
JP6241320B2 JP6241320B2 (ja) | 2017-12-06 |
Family
ID=54007023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014039870A Active JP6241320B2 (ja) | 2014-02-28 | 2014-02-28 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9489748B2 (ja) |
JP (1) | JP6241320B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017134528A (ja) * | 2016-01-26 | 2017-08-03 | 国立大学法人 東京大学 | 物体領域切出装置 |
JP2017196300A (ja) * | 2016-04-28 | 2017-11-02 | 東芝メディカルシステムズ株式会社 | 医用画像表示装置及び表示プログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6241320B2 (ja) * | 2014-02-28 | 2017-12-06 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
WO2018068146A1 (en) * | 2016-10-14 | 2018-04-19 | Genetec Inc. | Masking in video stream |
US11138699B2 (en) * | 2019-06-13 | 2021-10-05 | Adobe Inc. | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060228040A1 (en) * | 2003-02-28 | 2006-10-12 | Simon Richard A | Method and system for enhancing portrait image that are processed in a batch mode |
JP2009239582A (ja) * | 2008-03-27 | 2009-10-15 | Fuji Xerox Co Ltd | 画像処理装置及びプログラム |
JP2010183354A (ja) * | 2009-02-05 | 2010-08-19 | Nikon Corp | 画像処理プログラムおよびデジタルカメラ |
JP2010200312A (ja) * | 2009-01-28 | 2010-09-09 | Nikon Corp | 電子カメラおよび画像処理プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
JP4264663B2 (ja) * | 2006-11-21 | 2009-05-20 | ソニー株式会社 | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
JP2010146378A (ja) | 2008-12-19 | 2010-07-01 | Olympus Imaging Corp | 色補正装置、カメラ、色補正方法および色補正用プログラム |
JP2011221812A (ja) * | 2010-04-09 | 2011-11-04 | Sony Corp | 情報処理装置及び方法、並びにプログラム |
JP5707947B2 (ja) | 2011-01-11 | 2015-04-30 | 株式会社リコー | 画像処理装置 |
US9105121B2 (en) * | 2012-03-06 | 2015-08-11 | Apple Inc. | Image editing with user interface controls overlaid on image |
US9118876B2 (en) * | 2012-03-30 | 2015-08-25 | Verizon Patent And Licensing Inc. | Automatic skin tone calibration for camera images |
JP5991536B2 (ja) * | 2013-02-01 | 2016-09-14 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
US10114532B2 (en) * | 2013-12-06 | 2018-10-30 | Google Llc | Editing options for image regions |
CN106030493B (zh) * | 2013-12-18 | 2018-10-26 | 前视红外系统股份公司 | 基于滑动手势处理红外图像 |
US20150213303A1 (en) * | 2014-01-28 | 2015-07-30 | Nvidia Corporation | Image processing with facial reference images |
JP6241320B2 (ja) * | 2014-02-28 | 2017-12-06 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
-
2014
- 2014-02-28 JP JP2014039870A patent/JP6241320B2/ja active Active
- 2014-09-08 US US14/479,879 patent/US9489748B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060228040A1 (en) * | 2003-02-28 | 2006-10-12 | Simon Richard A | Method and system for enhancing portrait image that are processed in a batch mode |
JP2009239582A (ja) * | 2008-03-27 | 2009-10-15 | Fuji Xerox Co Ltd | 画像処理装置及びプログラム |
JP2010200312A (ja) * | 2009-01-28 | 2010-09-09 | Nikon Corp | 電子カメラおよび画像処理プログラム |
JP2010183354A (ja) * | 2009-02-05 | 2010-08-19 | Nikon Corp | 画像処理プログラムおよびデジタルカメラ |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017134528A (ja) * | 2016-01-26 | 2017-08-03 | 国立大学法人 東京大学 | 物体領域切出装置 |
JP2017196300A (ja) * | 2016-04-28 | 2017-11-02 | 東芝メディカルシステムズ株式会社 | 医用画像表示装置及び表示プログラム |
Also Published As
Publication number | Publication date |
---|---|
US9489748B2 (en) | 2016-11-08 |
US20150248774A1 (en) | 2015-09-03 |
JP6241320B2 (ja) | 2017-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9244607B2 (en) | System and method for image processing using multi-touch gestures | |
US20130016246A1 (en) | Image processing device and electronic apparatus | |
JP6287337B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
US8743139B2 (en) | Automatically keying an image | |
JP6241320B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5880767B2 (ja) | 領域判定装置、領域判定方法およびプログラム | |
US9792695B2 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium | |
JP5907196B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5867198B2 (ja) | 領域指定方法及び領域指定装置 | |
US8619093B2 (en) | Keying an image | |
JP2017126304A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6269323B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
EP2911115B1 (en) | Electronic device and method for color extraction | |
JP6550819B2 (ja) | 選択支援装置及びプログラム | |
CN109766530B (zh) | 图表边框的生成方法、装置、存储介质和电子设备 | |
US10366515B2 (en) | Image processing apparatus, image processing system, and non-transitory computer readable medium | |
JP7363235B2 (ja) | 情報処理装置及び情報処理プログラム | |
JP6930099B2 (ja) | 画像処理装置 | |
JP2018097415A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
CN113228112B (zh) | 信息处理装置、信息处理方法和程序 | |
JP2016004309A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2017162035A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2019101844A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
Binder et al. | Design of user interfaces for selective editing of digital photos on touchscreen devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6241320 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |