JP2017126304A - 画像処理装置、画像処理方法、画像処理システムおよびプログラム - Google Patents

画像処理装置、画像処理方法、画像処理システムおよびプログラム Download PDF

Info

Publication number
JP2017126304A
JP2017126304A JP2016006684A JP2016006684A JP2017126304A JP 2017126304 A JP2017126304 A JP 2017126304A JP 2016006684 A JP2016006684 A JP 2016006684A JP 2016006684 A JP2016006684 A JP 2016006684A JP 2017126304 A JP2017126304 A JP 2017126304A
Authority
JP
Japan
Prior art keywords
area
image
representative position
designated
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016006684A
Other languages
English (en)
Inventor
佐々木 信
Makoto Sasaki
信 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2016006684A priority Critical patent/JP2017126304A/ja
Priority to US15/249,538 priority patent/US20170206661A1/en
Publication of JP2017126304A publication Critical patent/JP2017126304A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる画像処理装置等を提供する。
【解決手段】画像の画像情報を取得する画像情報取得部11と、画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得するユーザ指示受付部12と、指定領域の特徴量を包含領域の画像情報から求め、指定領域の特徴量から指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部13と、指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部14と、第1の代表位置および第2の代表位置から指定領域を検出する領域検出部15と、を備えることを特徴とする画像処理装置。
【選択図】図2

Description

本発明は、画像処理装置、画像処理方法、画像処理システム、プログラムに関する。
例えば、画像加工の分野では、特定領域を精度よく切り抜く方法の1つとして、切り抜く領域を前景、その他の領域を背景とし、曲線などでシードを与え、このシードを基に領域を分離するGraphCut(グラフカット)法が知られている。さらに、グラフカットの原理をベースに、特定領域を切り抜くGrabCut(グラブカット)法が考案され、矩形で切り抜きたい領域を囲むだけで、特定領域を切り抜けるようになった。
非特許文献1には、GrabCut(グラブカット)法について記載されている。ここでは、囲んだ矩形内の画素のヒストグラムの色分布を、GMM(Gaussian Mixture Model)の手法を用いて関数近似し、得られた形状を基に、前景や背景らしさをグラフに与え、グラフカットの原理で、前景と背景に分離する。そして分離結果から得られた画素の分布情報を基に、再びGMMを用いた関数近似を行い、グラフカットの原理で分離する過程を収束するまで繰り返す。
また特許文献1には、領域分割手段は、画像範囲内の各画素に付与する主要オブジェクトまたは背景を示す領域ラベルと各画素の画素値に基づき、主要オブジェクトらしさまたは背景らしさを示すデータ項と、隣接画素間の領域ラベルの滑らかさを示す平滑化項と、データ項203または平滑化項の少なくともいずれかに前回の領域分割の結果に応じて算出され各画素の位置に応じた画素位置重み値を付加する画素位置重み関数とを含むエネルギー関数の最小化処理により、画像内で主要オブジェクトと背景を領域分割し、画素位置重み関数更新手段は、領域分割手段により主要オブジェクトの領域が画像範囲内で占める割合が増加するほど、画像範囲の中央から境界部分に向かって画素位置重み値が減少する関数を算出し、画素位置重み関数として更新することが開示されている。
さらに特許文献2には、ヒストグラム更新手段は、矩形枠の枠上ヒストグラム上で度数値(発生頻度)が高い特定画素値について、矩形枠の枠外ヒストグラム上での度数値が大きくかつ矩形枠の枠内ヒストグラム上での度数値が小さい場合に、この特定画素値において、領域分割手段で領域分割を行うためのエネルギー関数に使用される背景らしさを示す第2のヒストグラムの度数値を、主要オブジェクトらしさを示す第1のヒストグラムの度数値に対して相対的に増加するように、更新することが開示されている。
Rother, A. Blake, and V. Kolmogorov, "GrabCut - interactive foreground extraction using iterated graph cuts," ACM Trans. on Graphics, Vol. 23, No. 3, pp. 309-314, 2004. 特開2014−10682号公報 特開2014−16676号公報
GrabCut(グラブカット)法においては、例えば、特定領域を精度よく切り抜くときの分離精度の向上が課題である。またユーザが切り抜きたい領域を指定する際により直感的で簡易な方法が求められている。
本発明は、より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる画像処理装置等を提供することを目的とする。
請求項1に記載の発明は、画像の画像情報を取得する画像情報取得部と、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部と、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、を備えることを特徴とする画像処理装置である。
請求項2に記載の発明は、前記包含領域は、画像中における前記指定領域および当該指定領域の周囲の領域をユーザが塗りつぶすことで入力されたものであることを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記第1の代表位置設定部は、前記包含領域の画像情報の画素値に対する度数を表すヒストグラムを基に前記指定領域の特徴量を求めることを特徴とする請求項1または2に記載の画像処理装置である。
請求項4に記載の発明は、前記第1の代表位置設定部は、前記度数に対して設定される閾値との比較で前記指定領域の特徴量を求め、当該指定領域の特徴量を有する画素について前記第1の代表位置とすることを特徴とする請求項3に記載の画像処理装置である。
請求項5に記載の発明は、前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域以外の領域の画像情報から求め、当該指定領域外領域の特徴量から前記第2の代表位置を設定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置である。
請求項6に記載の発明は、前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域の外接矩形内以外の領域の画像情報から求めることを特徴とする請求項5に記載の画像処理装置である。
請求項7に記載の発明は、画像の画像情報を取得し、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得し、前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定し、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定し、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出することを特徴とする画像処理方法である。
請求項8に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記画像の画像情報を取得する画像情報取得部と、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部と、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、前記指定領域および/または前記指定領域外領域に対し画像処理を行なう画像処理部と、を備えることを特徴とする画像処理システムである。
請求項9に記載の発明は、コンピュータに、画像の画像情報を取得する画像情報取得機能と、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得機能と、前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定機能と、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定機能と、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出機能と、を実現させることを特徴とするプログラムである。
請求項1の発明によれば、より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる画像処理装置を提供できる。
請求項2の発明によれば、さらに直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる。
請求項3の発明によれば、指定領域の特徴量をより容易に求めることができる。
請求項4の発明によれば、求められる指定領域の特徴量の精度が向上する。
請求項5の発明によれば、求められる指定領域外領域の特徴量の精度が向上する。
請求項6の発明によれば、指定領域外領域をより容易に求めることができる。
請求項7の発明によれば、より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる画像処理方法を提供できる。
請求項8の発明によれば、画像処理がより容易に行える画像処理システムが提供できる。
請求項9の発明によれば、より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる機能をコンピュータにより実現できる。
本実施の形態における画像処理システムの構成例を示す図である。 本実施の形態における画像処理装置の機能構成例を表すブロック図である。 (a)〜(b)は、指定領域を指定する作業をユーザインタラクティブに行う方法の第1の例を示した図である。 (a)〜(c)は、指定領域を指定する作業をユーザインタラクティブに行う方法の第2の例を示した図である。 前景カバー領域内の画素についてヒストグラムを作成した場合を示した図である。 画像に対し、第1の代表位置を図示した場合を示す。 特徴量を求める他の方法について示した図である。 減色後のR、G、Bについての度数を表とした図である。 (a)〜(b)は、背景カバー領域の一例について示した図である。 (a)は、前景カバー領域が指定領域を全て覆っていなかった場合を示す。(b)は、外接矩形を直観的に操作するGUI(Graphical user interface)を設けた場合を示す。 (a)は、ユーザが曲線を入力した場合を示した図である。(b)は、外接矩形を直観的に操作するGUIを設けた場合を示す。 シード2について示した図である。 前景カバー領域の外接矩形内の画像情報も含めて求めた場合に、外接矩形内にもシードが設定された例を示した図である。 前景カバー領域の外接矩形に隣接する領域として、外接矩形の外側にさらに矩形を設定し、その間の領域をシード2とした場合を示した図である。 最大流量最小カットの原理を説明した図である。 図3(a)で示した画像について、領域拡張方法により指定領域S1および指定領域外領域S2が切り出された様子を示している。 (a)〜(b)は、ユーザが指定領域または指定領域外領域の選択を行なうときに、表示装置の表示画面に表示される画面の例を示している。 画像処理を行なう際に、表示装置の表示画面に表示される画面の例を示している。 ユーザが複数の前景カバー領域を画像に対し入力した場合を示した図である。 ラジオボタンにより領域の切り替えを行う例について示した図である。 外接矩形が複数となる場合について示した図である。 第1の代表位置設定部や第2の代表位置設定部が、シードを設定した例を示している。 2つの外接矩形が重なった場合を示している。 外接矩形内以外の領域をシード2として設定した場合を示した図である。 図18で示した画像について、領域拡張方法により指定領域、指定領域外領域が切り出された様子を示している。 本実施形態における領域検出部の機能構成例を表すブロック図である。 (a)は、この指定領域の切り分けが行なわれる原画像を示したものである。また(b)は、基準画素について示したものである。 第1の範囲について説明した図である。 図27で示す第1の範囲に属する対象画素について、ユークリッド距離を基に判定を行なった結果を示している。 (a)〜(b)は、影響力を決定する方法について示した図である。 図27で示す第1の範囲内の対象画素について、強さを基にした方法で判定を行なった結果を示している。 (a)〜(h)は、強さを基にした領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。 (a)〜(h)は、第2の実施例による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。 (a)〜(b)は、行と列の順を反転させた場合を示した図である。 第1の実施例および第2の実施例における領域検出部の動作について説明したフローチャートである。 画素選択部により選択される対象画素、および範囲設定部により設定される第2の範囲について示した図である。 本実施の形態による判定の結果について示した図である。 (a)〜(h)は、第4の実施例による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。 第3の実施例および第4の実施例における領域検出部の動作について説明したフローチャートである。 第5の実施例における領域検出部の動作について説明したフローチャートである。 画像処理装置の動作について説明したフローチャートである。 画像処理装置のハードウェア構成を示した図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<画像処理システム全体の説明>
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
画像処理装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、画像処理装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、画像情報の作成等が行われるようになっている。
表示装置20は、表示画面21に画像を表示する。表示装置20は、例えばPC用の液晶ディスプレイ、液晶テレビあるいはプロジェクタなど、加法混色にて画像を表示する機能を備えたもので構成される。したがって、表示装置20における表示方式は、液晶方式に限定されるものではない。なお、図1に示す例では、表示装置20内に表示画面21が設けられているが、表示装置20として例えばプロジェクタを用いる場合、表示画面21は、表示装置20の外部に設けられたスクリーン等となる。
入力装置30は、キーボードやマウス等で構成される。入力装置30は、画像処理を行なうためのアプリケーションソフトウェアの起動、終了や、詳しくは後述するが、画像処理を行なう際に、ユーザが画像処理装置10に対し画像処理を行なうための指示を入力するのに使用する。
画像処理装置10および表示装置20は、DVI(Digital Visual Interface)を介して接続されている。なお、DVIに代えて、HDMI(登録商標)(High-Definition Multimedia Interface)やDisplayPort等を介して接続するようにしてもかまわない。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
このような画像処理システム1において、表示装置20には、まず最初に画像処理を行なう前の画像である原画像が表示される。そしてユーザが入力装置30を使用して、画像処理装置10に対し画像処理を行なうための指示を入力すると、画像処理装置10により原画像の画像情報に対し画像処理がなされる。この画像処理の結果は、表示装置20に表示される画像に反映され、画像処理後の画像が再描画されて表示装置20に表示されることになる。この場合、ユーザは、表示装置20を見ながらインタラクティブに画像処理を行なうことができ、より直感的に、またより容易に画像処理の作業を行える。
なお本実施の形態における画像処理システム1は、図1の形態に限られるものではない。例えば、画像処理システム1としてタブレット端末を例示することができる。この場合、タブレット端末は、タッチパネルを備え、このタッチパネルにより画像の表示を行なうとともにユーザの指示が入力される。即ち、タッチパネルが、表示装置20および入力装置30として機能する。また同様に表示装置20および入力装置30を統合した装置として、タッチモニタを用いることもできる。これは、上記表示装置20の表示画面21としてタッチパネルを使用したものである。この場合、画像処理装置10により画像情報が作成され、この画像情報に基づきタッチモニタに画像が表示される。そしてユーザは、このタッチモニタをタッチ等することで画像処理を行なうための指示を入力する。
<画像処理装置の説明>
[第1の実施形態]
次に画像処理装置10の第1の実施形態について説明を行なう。
図2は、本発明の第1の実施形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち第1の実施形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、第1の代表位置設定部13と、第2の代表位置設定部14と、領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。
画像情報取得部11は、画像処理を行なう画像の画像情報を取得する。即ち、画像情報取得部11は、画像処理を行なう前の画像情報を取得する。この画像情報は、表示装置20で表示を行なうための、例えば、RGB(Red、Green、Blue)のビデオデータ(RGBデータ)である。
ユーザ指示受付部12は、位置情報取得部の一例であり、入力装置30により入力された画像処理に関するユーザによる指示を受け付ける。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像の中から、ユーザが画像処理を行なう画像領域として、指定領域を指定する指示をユーザ指示情報として受け付ける。より具体的には、本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した前景カバー領域の位置情報を取得する。
また詳しくは後述するが、ユーザ指示受付部12は、ユーザが、この指定領域の中から実際に画像処理を行なうものを選択する指示をユーザ指示情報として受け付ける。さらにユーザ指示受付部12は、選択された指定領域に対し、ユーザが画像処理を行う処理項目や処理量等に関する指示をユーザ指示情報として受け付ける。これらの内容に関するさらに詳しい説明については後述する。
本実施の形態では、指定領域を指定する作業を下記に説明するユーザインタラクティブに行う方法を採用する。
図3(a)〜(b)は、指定領域を指定する作業をユーザインタラクティブに行う方法の第1の例を示した図である。
このうち図3(a)は、画像処理を行なう前の画像であり、画像情報取得部11が取得した画像データに基づき表示装置20に表示した画像Gを示している。この画像Gは、野原の一部を撮影した写真の画像であり、植物の花や葉が撮影された画像である。そして図3(b)では、ユーザが、前景である左側の花の部分を指定領域S1として選択する場合を示している。なお以後、後景である指定領域S1外の領域を「指定領域外領域S2」と言うことがある。
そしてユーザは、指定領域S1を包含する前景カバー領域Hを画像Gに対し入力する。具体的には、画像G上で指定領域S1である花の部分とそこからはみ出した周辺の部分について軌跡Kを描き、これにより指定領域S1を包含する前景カバー領域Hを入力する。この場合、前景カバー領域Hは、指定領域S1である花の部分とそこからはみ出した周辺の部分の双方を合わせた領域となる。この前景カバー領域Hは、包含領域の一例である。
この軌跡Kは、入力装置30により描くことができる。例えば、入力装置30がマウスであった場合は、マウスを操作して表示装置20の表示画面21で表示している画像Gをドラッグし軌跡Kを描く。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により画像Gをなぞりスワイプすることで同様に軌跡Kを描く。
この場合、前景カバー領域Hは、画像中における指定領域S1および指定領域S1の周囲の領域をユーザが塗りつぶすことで入力される。なおこの軌跡Kは、1回で描く必要はなく、複数回に分けて描いてもよい。即ち、前景カバー領域Hは、ユーザが画像G上で複数の軌跡Kを描くことで入力してもよい。
また軌跡Kは、同方向で描く場合に限られるものではなく、往復動作を行い描いてもよい。またこの軌跡Kは細い線よりもより太い線にて描いた方が、前景カバー領域Hの入力はより容易になる。これは例えば、画像加工を行なう画像加工ソフトウェア等で用いられるブラシツールの中でペンサイズが太いサイズのものを実装する方法で実現してもよい。
またユーザが前景カバー領域Hを入力するのに図3(b)のようにいわば塗りつぶす場合に限られるものではなく、前景カバー領域Hを囲む軌跡Kを入力してもよい。
図4(a)〜(c)は、指定領域S1を指定する作業をユーザインタラクティブに行う方法の第2の例を示した図である。
ここではユーザは、図4(a)で示すように画像G上で指定領域S1である花の部分を囲むように軌跡Kを描き、これにより指定領域S1を包含する前景カバー領域Hを入力する。図4(a)で示す軌跡Kは、花の部分を囲むように始点から終点に向け、図中右回りで入力されたものである。
この場合、軌跡Kは、閉曲線であってもよく、図4(a)に示すように開曲線であってもよい。ただし図4(a)のような開曲線の軌跡Kが入力された場合、これを閉曲線とする処理が別途必要となる。
図4(b)は、開曲線の軌跡Kが入力されたときに閉曲線とする処理について示した図である。
図示するように開曲線の始点と終点とを結ぶ補間処理をし、閉曲線とする。図では、開曲線の始点と終点とを、点線で示した線分により結ぶ場合を示している。この処理は、始点の画像上での座標が(x、y)=(x、y)、終点の画像上での座標が(x、y)=(x、y)であったときに、この双方を通る直線の式y=mx+n(m、nは定数)を求めることで容易に行うことができる。
図4(c)は、図4(a)に示す軌跡Kが入力されたときに設定される前景カバー領域Hについて示した図である。
図示するように図4(b)の補間後の閉曲線およびその内部の領域が前景カバー領域Hとなっている。
なおこの軌跡Kは太い線よりもより細い線にて描いた方が、前景カバー領域Hの入力はより容易になる。これは例えば、画像加工を行なう画像加工ソフトウェア等で用いられるブラシツールの中でペンサイズが細〜中サイズのものを実装する方法で実現してもよい。
図3、図4に示すように、前景カバー領域Hは、その外縁が、指定領域S1の外側において指定領域S1に沿うものとして入力される。
第1の代表位置設定部13は、指定領域S1の特徴量を前景カバー領域Hの画像情報から求め、指定領域S1の特徴量から指定領域S1の代表位置である第1の代表位置を設定する。
特徴量は、指定領域S1を構成する色情報の中で代表となる色情報であり、例えば、指定領域S1中でより多く使用されている色を表す色情報として求められる。また特徴量は、前景である指定領域S1の前景らしさを表すと言うこともできる。本実施の形態では、指定領域S1は、花の部分であり、この花の色を表す色情報が特徴量となる。
特徴量を求めるためには、第1の代表位置設定部13は、まず前景カバー領域H内の画素についてヒストグラムを作成する。
図5は、前景カバー領域H内の画素についてヒストグラムを作成した場合を示した図である。図中横軸は、画素値を表し、縦軸は度数(画素数)を表す。画素値が8bitの階調値で表される場合、画素値は、0〜255の整数値となる。また度数については、全度数の合計が1となるように正規化しておくことが好ましい。
なお図5では、1つのヒストグラムしか図示していないが、画像Gがカラー画像であった場合は、このヒストグラムは3つとなる。例えば、画像Gの画像データがRGBデータであったときは、第1の代表位置設定部13は、横軸が、Rの画素値、Gの画素値、Bの画素値となる3つのヒストグラムを作成する。
次に第1の代表位置設定部13は、作成したヒストグラムをGMM(Gaussian Mixture Model)を用い、複数のガウス関数の和により関数近似する。GMMによる関数近似は、公知の数学手法であるK−MeansアルゴリズムとEMアルゴリズムを組み合わせることで求めることができる。図5の例では、点線で示した3つのガウス関数の和によりヒストグラムを関数近似している。この関数をここでは、分布近似関数Dとする。
そして第1の代表位置設定部13は、分布近似関数Dの度数について閾値θを設定する。そして第1の代表位置設定部13は、閾値θ以上となる画素値を有する画素を指定領域S1の代表位置である第1の代表位置とする。つまりより多くの度数をとる画素値は、指定領域S1を構成する色情報の中で代表となる色情報であると考えられ、これをここでは特徴量としている。そしてこの特徴量を有する画素は、指定領域S1の代表位置であると考えられるため、第1の代表位置設定部13は、この画素を指定領域S1の代表位置である第1の代表位置とする。
図6は、画像Gに対し、第1の代表位置を図示した場合を示す。
図中、矩形で示した領域が第1の代表位置である。なおこの第1の代表位置を以後、図6に示すように、「シード1」と言うことがある。また図示するようにシード1は、指定領域S1内に存在する。
このように第1の代表位置設定部13は、前景カバー領域Hの画像情報の画素値に対する度数を表すヒストグラムを求め、度数に対して設定される閾値との比較で第1の代表位置を設定する。
第1の代表位置設定部13が特徴量を求めるためには、GMMを用いる方法に限られるものではない。
図7は、特徴量を求める他の方法について示した図である。
このうち図7は、作成したヒストグラムを減色した場合を概念的に示している。この場合、例えば、0〜255の整数値となる画素値を予め定められた分割数で分割し、分割した範囲毎に度数を合計した後、全度数の合計が1となるように正規化している。これによりヒストグラムを近似化する。
図8は、減色後のR、G、Bについての度数を表とした図である。
図8では、R、G、Bのそれぞれについて度数が対応付けられている。この度数は、R、G、Bの値で定義される格子点の度数である。そしてこの度数に対し、上記閾値θを設定すれば、上述した場合と同様に特徴量が取得できる。
なお図8で、度数は、n個(D〜D)存在するが、画素値の分割数が、例えば10であったときには、R、G、Bのそれぞれについて画素値は、11の範囲に分割されるため、n=11となる。
または、ヒストグラムを加重平均で平滑化しても滑らかな度数が得られる。この場合、n番目の格子点が新たに得る度数をDwnとすると、例えば、下記数1式のような加重平均式で算出すれば、平滑化することができる。ここでkはnの近くの格子点を表し、wは格子点kに付加される加重であるとする。wはnから離れるにつれて小さい値とすればよい。
Figure 2017126304
第2の代表位置設定部14は、指定領域外領域S2の代表位置である第2の代表位置を設定する。
第2の代表位置設定部14は、まず前景カバー領域Hに応じて背景カバー領域Jを設定する。
図9(a)〜(b)は、背景カバー領域Jの一例について示した図である。
上述した例では、前景カバー領域Hは、指定領域S1を全て覆っている。そのため例えば、第2の代表位置設定部14は、図9(a)に示すような前景カバー領域Hに対する外接矩形を求め、図9(b)に示すように、この外接矩形内以外を全て背景カバー領域Jとする。
また図10−1(a)のように前景カバー領域Hが指定領域S1を全て覆っていなかった場合でも図10−1(b)のような外接矩形を直観的に操作するGUI(Graphical user interface)を設けることで、指定領域S1に背景カバー領域Jが覆われるのをインタラクティブに防ぐことができる。
図10−1(b)では、例えば、入力装置30がマウスであった場合は、ユーザは、マウスを操作して外接矩形をドラッグし外接矩形の位置や大きさを変更する。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により外接矩形をスワイプすることで同様に外接矩形の位置や大きさを変更する。
さらには、よりラフな指定として図10−2(a)のようにユーザが曲線を入力し、そしてこの曲線に対する外接矩形を求めてもよい。この場合も図10−2(b)のような外接矩形を直観的に操作するGUIを設け、指定領域S1に背景カバー領域Jが覆われるのをインタラクティブに防ぐことができる。
次に第2の代表位置設定部14は、背景カバー領域Jの中から、指定領域外領域S2の代表位置である第2の代表位置を設定する。
外接矩形内以外が必ず指定領域外領域S2であることがわかっていれば、背景カバー領域Jそのものを第2の代表位置としてもよい。なおこの第2の代表位置を以後、図11に示すように、「シード2」と言うことがある。
第2の代表位置設定部14は、指定領域外領域S2の特徴量を前景カバー領域H以外の領域の画像情報から求め、指定領域外領域S2の特徴量から第2の代表位置を設定するようにしてもよい。つまり第1の代表位置設定部13と同様に、第2の代表位置設定部14は、指定領域外領域S2の画素を対象とした図5に示すようなヒストグラムを作成する。そして第2の代表位置設定部14は、作成したヒストグラムをGMMを用い、複数のガウス関数の和により関数近似し、分布近似関数Dとする。そして第2の代表位置設定部14は、分布近似関数Dの度数について閾値θを設定する。さらに第2の代表位置設定部14は、閾値θ以上となる画素値を有する画素を指定領域外領域S2の代表位置である第2の代表位置とする。
なおこの場合、第2の代表位置設定部14は、指定領域外領域S2の特徴量を前景カバー領域Hの外接矩形内以外の領域の画像情報から求めるようにしてもよい。
また第2の代表位置設定部14は、シード2を前景カバー領域Hの外接矩形内の画像情報も含めて求めるようにしてもよい。
図12は、前景カバー領域Hの外接矩形内の画像情報も含めて求めた場合に、外接矩形内にもシード2が設定された例を示している。
またさらに第2の代表位置設定部14は、指定領域外領域S2の特徴量を前景カバー領域Hの外接矩形に隣接する領域をシード2としてもよい。例えば、図13では、前景カバー領域Hの外接矩形に隣接する領域として、外接矩形の外側にさらに矩形を設定し、その間の領域をシード2としている。
領域検出部15は、第1の代表位置および第2の代表位置から指定領域S1を検出する。実際には、領域検出部15は、表示装置20で表示している画像の中から、指定領域S1を切り出す処理を行う。
領域検出部15が指定領域S1の切り出しを行うには、例えば、画像Gをグラフと見立て、最大流量最小カットの原理を利用した方法が使用できる。
この原理は、図14に示すように前景の仮想ノードを始点、後景の仮想ノードを終点として設定し、前景の仮想ノードから指定領域S1の第1の代表位置をリンクし、指定領域外領域S2の代表位置から終点へリンクさせる。そして始点から水を流した場合、最大流せる量はいくらかを計算する。第1の代表位置から始点へのリンクの値を水道管のパイプの太さと考えて、ボトルネックになっている(流れにくい)箇所のカットの総和が最大流量であるという原理である。つまりは、ボトルネックとなるリンクをカットすることが、前景と後景とを分離することになる(グラフカット)。
この場合、度数の数値を反映させることでリンクの太さを変えることも可能である。即ち、この場合、リンクの太さは、0〜1の多値で尤度として表される。
また領域検出部15は、シードの情報を基にして領域拡張方法により、指定領域S1を切り出していってもよい。
領域検出部15が、シードの情報を基にして指定領域S1を切り出すには、まずシードが設定された箇所の画素に対しラベルを付加する。図11〜図13の例では、花の部分に描かれた軌跡(シード1)に対応する画素に「ラベル1」を、花以外の部分(シード2)に対応する画素に「ラベル2」を付加する。
本実施の形態では、このようにラベルを付与することを「ラベル付け」と言う。
そして詳しくは後述するが、領域検出部15は、シードが設定された画素と周辺の画素との間で画素値の近さ(RGB値のユークリッド距離など)を基に、近ければ連結し、遠ければ連結しない作業等を繰り返し、領域を拡張していく領域拡張方法により、指定領域S1を切り出していく。
図15では、図3(a)で示した画像Gについて、領域拡張方法により指定領域S1および指定領域外領域S2が切り出された様子を示している。
以上のような方法を採用することで、指定領域S1が複雑な形状であっても、ユーザは、より直感的に、またより容易に指定領域S1が切り出せる。
領域切替部16は、指定領域S1または指定領域外領域S2を切り替える。即ち、ユーザが画像調整を行ないたい画像領域の選択を行ない、これに従い、領域切替部16が画像領域を切り替える。
図16(a)〜(b)は、ユーザが指定領域S1または指定領域外領域S2の選択を行なうときに、表示装置20の表示画面21に表示される画面の例を示している。
図16(a)〜(b)に示した例では、表示画面21の左側に画像領域が選択された状態の画像Gが表示され、表示画面21の右側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。この場合、「領域1」は、指定領域S1に、「領域2」は、指定領域外領域S2に対応する。そしてユーザが入力装置30を使用して、このラジオボタン212a、212bを選択すると、画像領域が切り替わる。
図16(a)は、ラジオボタン212aが選択されている状態であり、花の部分の画像領域である指定領域S1が選択されている。そしてユーザがラジオボタン212bを選択すると、図16(b)に示すように花以外の部分の画像領域である指定領域外領域S2に切り替わる。
実際には、図16で説明を行なった操作の結果は、ユーザ指示情報としてユーザ指示受付部12により取得され、さらに領域切替部16により指定領域S1または指定領域外領域S2の切り替えが行なわれる。
画像処理部17は、選択された指定領域S1または指定領域外領域S2に対し実際に画像処理を行なう。
図17は、画像処理を行なう際に、表示装置20の表示画面21に表示される画面の例を示している。
ここでは、選択された指定領域S1または指定領域外領域S2に対し、色相、彩度、輝度の調整を行なう例を示している。この例では、表示画面21の左上側に指定領域S1または指定領域外領域S2が選択された状態の画像Gが表示され、表示画面21の右上側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。ここでは、ラジオボタンのうち212aが選択されており、花の部分の画像領域である指定領域S1が選択されている。なおラジオボタン212a、212bを操作することで、指定領域S1または指定領域外領域S2の切り替えが可能であることは、図16の場合と同様である。
また表示画面21の下側には、「色相」、「彩度」、「輝度」の調整を行なうためのスライドバー213aと、スライダ213bが表示される。スライダ213bは、入力装置30の操作によりスライドバー213a上において図中左右に移動し、スライドが可能である。スライダ213bは、初期状態ではスライドバー213aの中央に位置し、この位置において「色相」、「彩度」、「輝度」の調整前の状態を表す。
そしてユーザが、入力装置30を使用して、「色相」、「彩度」、「輝度」の何れかのスライダ213bをスライドバー213a上で図中左右にスライドさせると、選択された指定領域S1または指定領域外領域S2に対し画像処理がなされ、表示画面21で表示される画像Gもそれに対応して変化する。この場合、図中右方向にスライダ213bをスライドさせると、対応する「色相」、「彩度」、「輝度」の何れかを増加させる画像処理がなされる。対して図中左方向にスライダ213bをスライドさせると、対応する「色相」、「彩度」、「輝度」の何れかを減少させる画像処理がなされる。
再び図2に戻り、画像情報出力部18は、以上のように画像処理がなされた後の画像情報を出力する。画像処理がなされた後の画像情報は、表示装置20に送られる。そして表示装置20にてこの画像情報に基づき画像が表示される。
[第2の実施形態]
次に画像処理装置10の第2の実施形態について説明を行なう。
第1の実施形態では、指定領域は1つであったが、第2の実施形態では、指定領域が複数の場合について説明を行う。
第2の実施形態では、ユーザ指示受付部12は複数の指定領域を指定する指示をユーザ指示情報として受け付ける。本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、複数の指定領域を包含するようにユーザが入力した複数の前景カバー領域の位置情報を取得する。
図18は、ユーザが複数の前景カバー領域を画像Gに対し入力した場合を示した図である。
ここでは、画像Gにおいて、形状も色も異なる左側の花と右側の花をそれぞれ指定領域として指定するものとする。このときユーザは、画像G上で指定領域S11として図示した左側の花の部分と指定領域S12として図示した右側の花の部分について、そこからはみ出した周辺の部分について軌跡K1および軌跡K2を描く。そしてこれによりユーザは、指定領域S11や指定領域S12を包含する前景カバー領域H1および前景カバー領域H2を入力する。
なお前景カバー領域H1および前景カバー領域H2を入力する順はどちらが先でもよい。ただし、図19に示すように前景カバー領域H1を「領域1」、前景カバー領域H2を「領域2」とし、それぞれをラジオボタン212c、212dにより切り替えが可能にすれば、ユーザの混乱を防ぐことができる。図示する例では、ユーザが前景カバー領域H2を入力している場合であり、この場合、「領域2」についてのラジオボタン212dが選択されている。
また第2の代表位置設定部14が、前景カバー領域Hに対する外接矩形を求めた場合、その外接矩形は、図20に示すように複数となる。
また図21は、この場合に、第1の代表位置設定部13や第2の代表位置設定部14が、シードを設定した例を示している。ここでシード11は、指定領域S11に対するシードである。またシード12は、指定領域S12に対するシードである。さらにシード2は、指定領域外領域S2に対するシードである。
また指定領域の形状が複雑などの理由により、複数の外接矩形が重なる場合が生じてもかまわない。
図22は、2つの外接矩形が重なった場合を示している。そしてこの場合も図23に示すようにそれぞれの外接矩形内以外の領域をシード2として設定すればよい。
領域検出部15は、指定領域S11および指定領域S12を切り出す。なおこの場合は、指定領域S11および指定領域S12を1つの前景とみなして切り出すわけではないので、図14に説明したようなグラフカットによる方法は使用できない。よって複数領域の切り抜きが可能な領域拡張方法による方法により指定領域S11および指定領域S12を異なる2つの前景として切り出すことになる。
図24は、図18で示した画像Gについて、領域拡張方法により指定領域S11、指定領域S12、指定領域外領域S2が切り出された様子を示している。
<領域検出部の説明>
次に領域検出部15が領域拡張方法により指定領域S1を切り出す方法についてさらに詳しく説明を行なう。
図25は、本実施形態における領域検出部15の機能構成例を表すブロック図である。
図示するように本実施の形態の領域検出部15は、画素選択部151と、範囲設定部152と、判定部153と、特性変更部154と、収束判定部155とを備える。
以下、図25に示す領域検出部15について、第1の実施例〜第5の実施例に分けて説明を行なう。
[第1の実施例(「攻撃型」で「同期型」の場合)]
まず領域検出部15の第1の実施例について説明を行なう。
第1の実施例において、画素選択部151は、指定領域S1や指定領域外領域S2に属する画素を基準画素として選択する。ここで「指定領域S1や指定領域外領域S2に属する画素」は、例えば、代表位置に含まれる画素、即ち、上述したシードの画素である。またこれには、領域拡張により新たにラベル付けされた画素も含まれる。
ここでは画素選択部151は、基準画素として指定領域S1や指定領域外領域S2に含まれる画素の中から1つの画素を選択する。
図26(a)は、この指定領域S1と指定領域外領域S2の切り分けが行なわれる原画像を示したものである。図示するように原画像は、全体が縦9画素、横7画素の9×7=63画素の領域からなり、図示するように画像領域R1と画像領域R2が含まれる。この画像領域R1に含まれる画素のそれぞれの画素値、また画像領域R2に含まれる画素のそれぞれの画素値は近い値を採る。そして以下に説明するようにこの画像領域R1と画像領域R2をそれぞれ指定領域S1や指定領域外領域S2として切り分けるものとする。
そして説明を簡単にするため、図26(b)で示すように、代表位置は、画像領域R1と画像領域R2のそれぞれに指定された2箇所で、それぞれ1画素からなり、画素選択部151は、この1画素を基準画素として選択するものとする。図26(b)では、この基準画素をシード1およびシード2で図示している。
詳しくは後述するが、このシード1およびシード2は、それぞれラベル付けされており、強さを有する。ここでは、シード1およびシード2は、それぞれラベル1とラベル2にラベル付けされ、強さとして双方とも初期値として1が設定されるものとする。
範囲設定部152は、基準画素に対し設定され、この基準画素周辺の特定の範囲を第1の範囲として設定する。ここで基準画素周辺の特定の範囲とは、基準画素に隣接する8画素のうちの少なくとも1画素および基準画素を含む任意の特定された範囲である。
図27は、第1の範囲について説明した図である。
図示するように、画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。図では、この範囲を太線の枠内の範囲として表示している。
また詳しくは後述するが、本実施の形態では、第1の範囲は可変であり、処理が進行するに従い範囲が縮小されることが好ましい。
判定部153は、第1の範囲内の対象画素(第1の対象画素)が指定領域S1および指定領域外領域S2の何れに属するかを判定する。即ち、第1の範囲に含まれる画素の各々について、基準画素が属する指定領域S1または指定領域外領域S2への属否を判定する。
判定部153では、上記第1の範囲に含まれる25画素のうち、シード1またはシード2を除くそれぞれ24画素について、指定領域S1または指定領域外領域S2に含まれるか否かの判定の対象となる対象画素(第1の対象画素)とする。そしてこれらの対象画素が、シード1が属する指定領域S1に含まれるか否か、又は/および、シード2が属する指定領域外領域S2に属するか否かの判定を行なう。
このときの判定基準として画素値の近さを採用することができる。
具体的には、第1の範囲内に含まれる上記24画素に便宜上番号を付し、i番目(iは1〜24の何れかの整数値)の対象画素をPとしたとき、この画素の色データがRGBデータである場合は、この色データはP=(R、G、B)として表すことができる。同様にしてシード1やシード2の基準画素をPとすると、この色データはP=(R、G、B)として表すことができる。そして画素値の近さとして、以下の数2式に示すRGB値のユークリッド距離dを考える。
Figure 2017126304
判定部153は、このユークリッド距離dが、予め定められた閾値以下であった場合に、指定領域S1や指定領域外領域S2に属するとの判定を行なう。即ちユークリッド距離dが、予め定められた閾値以下であった場合は、基準画素Pと対象画素Pの画素値はより近いと考えられるため、その場合は、基準画素Pと対象画素Pとは、同じ指定領域S1または指定領域外領域S2に属するとする。
なおシード1とシード2の双方に対して、ユークリッド距離dが、閾値以下となる場合もあるが、この場合は、判定部153は、ユークリッド距離dがより小さい値となる方の指定領域S1や指定領域外領域S2に属するとする。
図28は、図27で示す第1の範囲に属する対象画素について、ユークリッド距離dを基に判定を行なった結果を示している。
ここでシード1と同じ黒色となったものは、指定領域S1に属する画素と判定され、シード2と同じ灰色となったものは、指定領域外領域S2に属する画素と判定されたことを示している。なお白色の画素は、この場合、指定領域S1および指定領域外領域S2のどちらにも属さないと判定されたことを示している。
判定部153を以上のように動作させることで、与えたシードに対して、自動でシードを拡散する効果がある。本実施の形態では、例えば、初回のみに判定部153にこの動作をさせることもできる。または最初の数回をこの動作にすることもできる。この場合、以後は、判定部153は、後述する「強さ」を使用して判定を行うことが好ましい。なお判定部153は、初回から後述する「強さ」を使用した判定を行ってもかまわない。
なお上述した例では、色データがRGBデータである場合で説明を行なったが、これに限られるものではなく、Lデータ、YCbCrデータ、HSVデータ、IPTデータなど他の色空間における色データであってもよい。また全ての色成分を用いず、例えば、色データとしてHSVデータを用いたときに、H、Sの値のみ使用してもよい。
また指定領域S1および指定領域外領域S2の切り分けがうまくいかない場合に、他の色空間における色データを使用するとよい場合がある。例えば、数2式に示したRGB値のユークリッド距離dの代わりに下記数3式に示したYCbCr値を使用したユークリッド距離d を考える。数3式は、対象画素の色データが、P=(Y、Cb、Cr)であり、基準画素の色データが、P=(Y、Cb、Cr)であったときのユークリッド距離d を示している。また数3式のユークリッド距離d は、重み係数w、wCb、wCrを使用した重みづけユークリッド距離となっている。数3式を使用した場合、他えば、指定領域S1および指定領域外領域S2間の輝度差は大きいが、色度の差が小さい場合に有効である。即ち、重み係数wを小さくし、輝度成分Yのユークリッド距離d に対する寄与度を小さくする。これにより色度成分のユークリッド距離d に対する寄与度が相対的に大きくなる。その結果、輝度差は大きいが、色度の差が小さい指定領域S1および指定領域外領域S2間においても切り分けの精度が向上する。
Figure 2017126304
また使用する色データは、3成分からなるものに限定されるものではない。例えば、n次元色空間を使用し、n個の色成分によるユークリッド距離d を考えてもよい。
例えば、数4式は、色成分が、X、X、…、Xである場合である。そして数4式は、対象画素の色データが、P=(X1i、X2i、…、Xni)であり、基準画素の色データが、P=(X10、X20、…、Xn0)であったときのユークリッド距離d を示している。なお数4式のユークリッド距離d も重み係数wX1、wX2、…、wXnを使用した重みづけユークリッド距離となっている。この場合、n個の色成分のうち指定領域S1や指定領域外領域S2の時性がよく現れている色成分についての重み係数を他より相対的に大きくすることで、切り分けの精度が向上する。
Figure 2017126304
特性変更部154は、第1の範囲内の対象画素(第1の対象画素)に対し付与される特性を変更する。
ここで「特性」とは、その画素に付与されるラベルと強さのことを言う。
「ラベル」は、上述したようにその画素が指定領域S1および指定領域外領域S2の何れに属するかを表すものであり、指定領域S1に属する画素は、「ラベル1」、指定領域外領域S2に属する画素は、「ラベル2」が付与される。ここではシード1のラベルはラベル1、シード2のラベルはラベル2となるので、判定部153で指定領域S1に属する画素と判定された場合(図28で黒色となった画素)は、ラベル1にラベル付けされる。また判定部153で指定領域外領域S2に属する画素と判定された場合(図28で灰色となった画素)は、ラベル2にラベル付けされる。
「強さ」は、ラベルに対応する指定領域S1や指定領域外領域S2に属する強さであり、ある画素がラベルに対応する指定領域S1や指定領域外領域S2に属する可能性の大きさを表す。強さが大きいほどその画素がラベルに対応する指定領域S1や指定領域外領域S2に属する可能性が高く、強さが小さいほどその画素がラベルに対応する指定領域S1や指定領域外領域S2に属する可能性が低い。強さは、次のようにして定まる。
まずユーザが最初に指定した代表位置に含まれる画素の強さは、初期値として1となる。つまり領域を拡張する前のシード1やシード2の画素は、強さが1である。また、まだラベル付けがされていない画素については、強さは0である。
そして強さが与えられた画素が周辺の画素に及ぼす影響力を考える。
図29(a)〜(b)は、影響力を決定する方法について示した図である。図29(a)〜(b)において、横軸は、ユークリッド距離dを表し、縦軸は、影響力を表す。
このユークリッド距離dは、強さを与えられた画素とその画素の周辺に位置する画素との間で決まる画素値のユークリッド距離dである。そして例えば、図29(a)に図示するように非線形の単調減少関数を定め、ユークリッド距離dに対し、この単調減少関数により決まる値を影響力とする。
つまりユークリッド距離dが小さいほど、影響力はより大きくなり、ユークリッド距離dが大きいほど、影響力はより小さくなる。
なお単調減少関数は、図29(a)のような形状のものに限られるものではなく、単調減少関数であれば特に限られるものではない。よって図29(b)のような線形の単調減少関数であってもよい。またユークリッド距離dの特定の範囲で線形であり、他の範囲で非線形であるような区分線形の単調減少関数であってもよい。
そして指定領域S1や指定領域外領域S2に属すると判定された画素の強さは、基準画素の強さに影響力を乗じたものとなる。例えば、基準画素の強さが1で、その左側に隣接する対象画素に与える影響力が0.9だった場合、この左側に隣接する対象画素が指定領域S1や指定領域外領域S2に属すると判定されたときに与えられる強さは、1×0.9=0.9となる。また例えば、基準画素の強さが1で、その2つ左側に隣接する対象画素に与える影響力が0.8だった場合、この対象画素が指定領域S1や指定領域外領域S2に属すると判定されたときに与えられる強さは、1×0.8=0.8となる。
以上の計算方法を利用し、判定部153は、第1の範囲内の対象画素(第1の対象画素)に与えられている強さにより判定を行なうこともできる。このとき対象画素が、ラベルを有しない場合は、基準画素が属する指定領域S1や指定領域外領域S2に含まれると判定し、対象画素が指定領域S1および指定領域外領域S2の何れかについてのラベルを既に有する場合は、強さが大きい方に含まれると判定する。そして前者の場合は、全て基準画素と同じラベル付けを行なう。また後者の場合は、特性のうち強さが強い方のラベル付けを行う。この方法では、いったんあるラベルにラベル付けされた画素について、他のラベルに変更されることがあり得る。
例えば、対象画素(第1の対象画素)がいったんあるラベルにラベル付けされていたとする。そして他のラベルが付された基準画素の強さがuで影響力がwijであったとすると、対象画素(第1の対象画素)に及ぼす強さuは、u=wijとなる。そして対象画素(第1の対象画素)が現状有している強さと、このuとを比較し、uの方が、大きければ、他のラベルに変更される。対してuが同じか小さければ、他のラベルに変更されず、ラベルは維持される。
図30は、図27で示す第1の範囲内の対象画素について、強さを基にした方法で判定を行なった結果を示している。
図27に示す第1の範囲は、シード1とシード2とで一部重なる。そして第1の範囲が、重ならない箇所、即ち、シード1とシード2とで競合しない箇所では、この場合、ラベル付けされていないもので、全て基準画素であるシード1またはシード2と同じラベル付けを行なう。一方、第1の範囲が、シード1とシード2とで重なる箇所、即ち、競合する箇所では、強さが強い方のラベル付けをする。その結果、図30に示すようにラベル付けがなされる。
図31(a)〜(h)は、強さを基にした領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
このうち図31(a)は、このとき設定される第1の範囲を示している。つまり画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦3画素×横3画素の範囲を第1の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
図31(b)に、シード1およびシード2のそれぞれの第1の範囲内の対象画素について判定を行なった結果を示す。この場合、シード1およびシード2のそれぞれの第1の範囲は重ならないため、それぞれの第1の範囲内の対象画素は、全て基準画素であるシード1またはシード2と同じラベル付けが行なわれる。
また図31(c)に、さらに領域拡張を行ない、更新された後の結果を示す。この場合、図30と同様にシード1とシード2とで第1の範囲が、重ならない箇所では、全て基準画素であるシード1またはシード2と同じラベル付けが行なわれる。そして第1の範囲が、シード1とシード2とで重なる箇所では、強さが強い方のラベル付けが行なわれる。
また対象画素に既に他のラベルによるラベル付けがされていた場合でも、その対象画素が現在有している強さと、基準画素から及ぼされる強さを比較し、強さが強い方のラベル付けがなされる。また強さは、より強い方の強さとなる。即ち、この場合、対象画素のラベルと強さは変更される。
以下、ラベル付けされた対象画素については、新たな基準画素として選択され、図31(d)〜(h)に示すように順次領域は更新されていく。最終的には、図31(h)に示すように指定領域S1と指定領域外領域S2に切り分けが行なわれる。
以上のようにして対象画素が指定領域S1や指定領域外領域S2に属すると判定された場合、特性変更部154においてラベルと強さが変更される。
このラベル、強さ、影響力の情報は、実際には、各画素毎の情報として、後述するメインメモリ92(図41参照)等に記憶される。そして必要に応じメインメモリ92から読み出されるとともに、ラベル、強さ、影響力が変更されたときは、これらの情報の書き換えが行なわれる。これにより領域検出部15の処理速度が向上する。
なお上述した画素選択部151、範囲設定部152、判定部153、特性変更部154の処理は収束するまで繰り返し行なわれる。即ち、図28で説明したように新たに指定領域S1や指定領域外領域S2に属すると判定された画素は、新たに基準画素として選択され、さらに新たに選択された基準画素の周辺の特定の範囲を再度第1の範囲として設定し、この再度設定された第1の範囲内の対象画素について、指定領域S1や指定領域外領域S2に属するか否かの判定を再び行なうことになる。この処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域の切り出しが行なえる。これは、基準画素の選択および第1の範囲の設定を順次変更しつつ判定を複数回行うことで、指定領域の検出を行う、と言うこともできる。なおこの方法(領域拡張方法)によれば、いったんあるラベルにラベル付けされた画素についても、他のラベルに変更されることがあり得る。
収束判定部155は、上記一連の処理が収束したか否かを判定する。
収束判定部155は、例えば、ラベルが変更される画素がなくなったときに収束したと判定する。また予め最大更新回数を定めておき、最大更新回数に達したときに収束したものとみなすこともできる。
以上述べた第1の実施例による領域拡張方法では、指定領域S1や指定領域外領域S2に含まれるか否かの判定の対象となる対象画素は、第1の範囲内に属するとともに基準画素であるシード1やシード2を除いた画素となる。そして基準画素の画素値に対してこれらの対象画素の画素値を比較して対象画素が属する指定領域S1や指定領域外領域S2を決定する。つまり対象画素が、基準画素からの影響を受けて変化する、いわば「攻撃型」の方法である。
またこの領域拡張方法では、領域拡張を行なう直前における画像全体のラベルおよび強さはいったん記憶される。そしてそれぞれの指定領域S1や指定領域外領域S2から選択された基準画素により設定される第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するかが判定部153にて判定され、領域拡張が行なわれる。そして判定後は、特性変更部154にて記憶されていたラベルおよび強さが変更される。そして変更後のラベルおよび強さは、再び領域拡張を行なう直前における画像全体のラベルおよび強さとして記憶され、再度領域拡張が行なわれていく。つまりこの場合、画像全体のラベルおよび強さは一斉に変更され、いわば「同期型」の領域拡張方法である。
またこの領域拡張方法では、第1の範囲は固定でも変更してもよい。そして第1の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。具体的には、例えば、最初は、第1の範囲は大きく設定し、ある更新回数が、ある指定回数以上になったら第1の範囲を小さくする。この指定回数は、複数指定し、第1の範囲を段階的に小さくしていってもよい。つまり初期段階では、第1の範囲は大きく設定することで、処理速度が速くなる。またある程度更新が進んだ段階では、第1の範囲を小さくすることで指定領域S1と指定領域外領域S2との分離精度がより向上する。つまり処理速度の向上と指定領域S1の切り出しの分離精度とが両立する。なおこれは、判定を繰り返すにつれて第1の範囲を小さくなるように設定していく、と言うこともできる。
[第2の実施例(「攻撃型」で「非同期型」の場合)]
次に領域検出部15の第2の実施例について説明を行なう。
図32(a)〜(h)は、第2の実施例による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
図32(a)は、このとき設定される第1の範囲であり、図31(a)と同様の図である。
本実施の形態では、判定部153は、図32(b)に示すように2行2列の位置に設定されるシード2を起点とし、まず第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するか否かを判定する。そして図32(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域S1や指定領域外領域S2に属するか否かを判定していく。この判定は、例えば、上述したように、数2式〜数4式を使用し、画素値の近さを利用することで行うことができる。またこの判定は、図31の場合と同様に、強さを使用した方法により行うことができる。
そして図中右端までを対象画素として判定した後は、次に基準画素を第3列に移し、同様に基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するか否かを判定していく。そして図中右端までを対象画素として判定した後は、さらに次の列に移る。これは図32(e)〜(g)に示すように繰り返され、図中右下端部に基準画素が移動するまで行なわれる。これは、判定部153は、基準画素を一画素毎に走査するように移動させつつ判定を行なう、と言うことができる。
さらに右下端部に基準画素が達し、画素の移動がこれ以上できなくなった後は、上述した場合と逆向きに基準画素を移動させ、基準画素が左上端部に移動するまで同様の処理を行なう。これで基準画素が1回往復移動したことになる。さらに以後、収束するまでこの基準画素の往復移動を繰り返す。
これは、図33に示すように行と列の順を反転させて同様の処理を行なうと言うこともできる。またこれは、基準画素が終端位置(この場合、右下端部や左上端部)に達したときは、基準画素を逆方向に走査させるようにさらに移動させる、と言うこともできる。
なおここで挙げた例では、起点が1つの例で説明をしたが、起点を複数設定し、それぞれを移動させてもよい。また起点として画像中の画素の何れを選択してもよい。
また起点が1つの場合でも、基準画素が右下端部に達した後に、基準画素を再び左上端部から走査させるように移動させてもよい。さらに基準画素をランダムに走査させるように移動させてもよい。
そして最終的には、図32(h)に示すように、指定領域S1と指定領域外領域S2とに切り分けが行なわれる。
この領域拡張方法によれば、図31で説明した方法に比較して、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
なお第2の実施例において、判定部153以外の画素選択部151、範囲設定部152、特性変更部154、収束判定部155の動作については第1の実施例と同様である。また同様に第1の範囲は固定でも変更してもよく、そして第1の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。
またこの領域拡張方法では、選択された基準画素が一画素ずつ移動する度に、第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するかが判定部153にて判定され、領域拡張が行なわれる。これは、判定部153は、選択した一の基準画素のみを対象として第1の範囲に含まれる画素の各々について指定領域S1や指定領域外領域S2への属否の判定を行った後、新たに基準画素を一つ選択し、第1の範囲の設定および判定を再度行って、指定領域S1や指定領域外領域S2の検出を行う、と言うこともできる。そして判定後は、特性変更部154にて記憶されていたラベルおよび強さが変更される。つまりこの場合、画像全体のラベルおよび強さは一斉に変更されるわけではなく、基準画素が一画素ずつ移動する度に定まる第1の範囲内の対象画素(第1の対象画素)だけが変更の対象となる。よってこれは、いわば「非同期型」の領域拡張方法である。第1の実施例のような「同期型」の領域拡張方法では、1回の基準画素の選択につき、ひとつ前の画像の状態のラベルおよび強さをもとに画像全体のラベルおよび強さが一斉に変更される。そのような意味で、ここでは、「同期型」と言っている。言い換えれば、(ラベルおよび強さの)状態遷移が切り替わるのが比較的遅い。しかし第2の実施例では、「同期型」とは異なり、1回の基準画素の選択につき、1つの画素である対象画素(第1の対象画素)のラベルおよび強さだけが変更される。即ち、対象画素(第1の対象画素)以外のラベルおよび強さは、変化しない。そのような意味で、ここでは、「非同期型」と言っている。その後、再び基準画素を選択し、またその第1の範囲内の画素だけ対象画素となる。そしてこれを繰り返すことになるため、同期型よりも早く(ラベルおよび強さの)状態遷移が切り替わる、ということになる。
また第1の実施例および第2の実施例では、基準画素を選択し、この基準画素に対し第1の範囲内の対象画素(第1の対象画素)が、この基準画素が属する指定領域S1または指定領域外領域S2に入るか否かを判定する。この判定は、基準画素の選択およびこれに伴い設定される第1の範囲を順次変更しつつ、複数回行う。そしてこの判定は、上述したように画素値の近さや強さを比較することで行う。そしてこれにより第1の範囲内の対象画素(第1の対象画素)のラベルが変更される。この場合、基準画素は、周辺にある対象画素(第1の対象画素)に対し、影響を及ぼし、これにより対象画素(第1の対象画素)のラベルが変化するのであり、その意味でここでは、「攻撃型」と言っている。
次に第1の実施例および第2の実施例における領域検出部15の動作について説明を行なう。
図34は、第1の実施例および第2の実施例における領域検出部15の動作について説明したフローチャートである。
以下、図25および図34を使用して領域検出部15の動作を説明する。
まず画素選択部151が、指定領域S1や指定領域外領域S2に属する画素の中から選択される基準画素を選択する(ステップ101)。図26(b)の例では、画素選択部151は、この基準画素としてシード1およびシード2を選択する。
次に範囲設定部152が、基準画素に対し指定領域S1や指定領域外領域S2に含まれるかを判定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ102)。図27の例では、範囲設定部152は、シード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。
そして判定部153が、第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するかを判定する(ステップ103)。このとき判定部153は、対象画素が指定領域S1および指定領域外領域S2間で競合する箇所では、強さが強い方の指定領域S1または指定領域外領域S2に属すると判定する。また画素値のユークリッド距離dを基にして判定をし、指定領域S1や指定領域外領域S2の拡散をしてもよい。
さらに特性変更部154が、判定部153において指定領域S1および指定領域外領域S2の何れに属すると判定された対象画素について、特性を変更する(ステップ104)。具体的には、特性変更部154は、これらの対象画素に対し、ラベル付けを行ない、さらに強さを付与する。
次に収束判定部155が、一連の処理が収束したか否かを判定する(ステップ105)。この判定は、上述したようにラベルが変更される画素がなくなったときに収束したと判定してもよく予め定められた最大更新回数に達したときに収束したと判定してもよい。
そして収束判定部155が処理が収束したと判定した場合(ステップ105でYes)、指定領域S1の切り出しの処理を終了する。
一方、収束判定部155が処理が収束していないと判定した場合(ステップ105でNo)、ステップ101に戻る。なおこの場合、画素選択部151で選択される基準画素は変更される。
[第3の実施例(「受け身型」で「同期型」の場合)]
次に領域検出部15の第3の実施例について説明を行なう。
第3の実施例では、画素選択部151は、指定領域S1や指定領域外領域S2に含まれるか否かの判定の対象となる対象画素を1つ選択する。そして範囲設定部152は、選択された対象画素(第2の対象画素)に対し設定され、この対象画素が何れの指定領域S1や指定領域外領域S2に含まれるか否かを判定する基準画素が含まれる範囲である第2の範囲を変更する。
図35は、画素選択部151により選択される対象画素、および範囲設定部152により設定される第2の範囲について示した図である。
図35では、図26(a)で示した原画像に対し、図26(b)で示した場合と同様に基準画素をシード1およびシード2として設定される。そして対象画素(第2の対象画素)としてT1で示す一画素が選択された場合を示している。さらに第2の範囲として対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
判定部153は、対象画素T1が指定領域S1および指定領域外領域S2の何れに属するか否かを判定する。判定部153では、対象画素T1が、シード1が属する指定領域S1に含まれるか、シード2が属する指定領域外領域S2に属するかの判定を行なう。
このとき例えば、対象画素T1の画素値と、第2の範囲に含まれる基準画素であるシード1およびシード2の画素値の何れに近いか否かで、対象画素T1が、指定領域S1に属するか、指定領域外領域S2に属するかを判定する。即ち、画素値の近さにより判定を行う。
またこの判定は、強さを使用した方法により行うことができる。この場合、対象画素T1(第2の対象画素)が指定領域S1または指定領域外領域S2に属するかの判定を行なうときには、第2の範囲に含まれる基準画素の強さにより判定を行なうことになる。
図36は、本実施の形態による判定の結果について示した図である。
図36では、対象画素T1の画素値は、シード1の画素値よりシード2の画素値に近く、その結果、対象画素T1は、指定領域外領域S2に属すると判定されたことを示している。
なお特性変更部154、収束判定部155の動作については、第1の実施例と同様である。
本実施の形態の場合も画素選択部151、範囲設定部152、判定部153、特性変更部154の処理は収束するまで繰り返し行なわれる。そしてこの処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域S1および指定領域外領域S2の切り出しが行なえる。また第2の範囲は可変であり、その範囲は、更新回数により順次小さくしていくことが好ましい。
具体的には、最初は、第2の範囲は大きく設定し、ある更新回数が、ある指定回数以上になったら第2の範囲を小さくする。この指定回数は、複数指定し、第2の範囲を段階的に小さくしていってもよい。つまり初期段階では、第2の範囲は小さく設定することで、基準画素がその中に存在する可能性が高く、判定がより効率的になる。またある程度更新が進んだ段階では、第2の範囲を小さくすることで指定領域S1や指定領域外領域S2の分離精度が向上する。
本実施の形態による領域拡張方法では、対象画素T1に着目し、対象画素T1の画素値に対して第2の範囲内にある基準画素(シード1、シード2)の画素値を比較して対象画素T1が属するのが指定領域S1であるのか指定領域外領域S2であるのかを決定する。つまり対象画素T1が、第2の範囲内の基準画素からの影響を受けて変化する、いわば「受け身型」の方法である。
受け身型においても、いったんあるラベルにラベル付けされた画素について、他のラベルに変更されることがあり得る。
この方法は、従来の領域拡張方法と類似するが、従来の領域拡張方法では、対象画素T1がこれと接する固定された周辺8画素から影響を受けるのに対し、第3の実施例による領域拡張方法では、第2の範囲が可変であることに特徴を有する。そして第2の範囲を大きくすることで上述したように判定をより効率的に行なえる。これが周辺8画素固定であると、その中に基準画素が存在する可能性は小さくなるため、判定の効率が低下する。
またこの領域拡張方法では、領域拡張を行なう直前における画像全体のラベルおよび強さはいったん記憶される。そして選択された対象画素T1が指定領域S1および指定領域外領域S2の何れに属するかが判定部153にて判定され、領域拡張が行なわれる。そして判定後は、特性変更部154にて記憶されていたラベルおよび強さが変更される。そして変更後のラベルおよび強さは、再び領域拡張を行なう直前における画像全体のラベルおよび強さとして記憶され、再度領域拡張が行なわれていく。つまりこの場合、いわば「同期型」の領域拡張方法である。
また第2の範囲を小さくすることで指定領域S1と指定領域外領域S2との分離精度がより向上する。よって本実施の形態の第2の範囲については、更新回数により小さくなるように変更する。
[第4の実施例(「受け身型」で「非同期型」の場合)]
なお上述した場合は、第1の実施例と同様の「同期型」であったが、第2の実施例と同様の「非同期型」を使用することもできる。以下、「受け身型」であるとともに、「非同期型」の場合を、第4の実施例として説明を行なう。
図37(a)〜(h)は、第4の実施例による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
図37(a)は、図26(a)に示した原画像に対し、図26(b)で示した基準画素としてのシード1およびシード2を設定した場合を示している。これは図31および図32で説明した場合と同様である。
そして図37(b)は、このとき設定される第2の範囲を示している。本実施の形態では、判定部153は、図37(b)に示すように1行1列の位置を起点とし、これをまず対象画素T1として、この対象画素T1が指定領域S1および指定領域外領域S2の何れに属するか否かを判定する。そして図37(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、対象画素T1が何れの指定領域S1や指定領域外領域S2に属するか否かを判定していく。この判定は、強さによりなされ、第1の実施例〜第3の実施例と同様である。
そして図中右端までを対象画素T1として判定した後は、次に対象画素T1を第2列に移し、同様に対象画素T1を図中右側に一画素ずつ移動させつつ、この対象画素T1が指定領域S1および指定領域外領域S2の何れに属するか否かを判定していく。そして図中右端まで判定した後は、さらに次の列に移る。これは図32(e)〜(g)に示すように繰り返され、図中右下端部に対象画素T1が移動するまで行なわれる。
さらに右下端部に対象画素T1が達し、画素の移動がこれ以上できなくなった後は、上述した場合と逆向きに対象画素T1を移動させ、対象画素T1が左上端部に移動するまで同様の処理を行なう。これで対象画素T1が1回往復移動したことになる。さらに以後、収束するまでこの対象画素T1の往復移動を繰り返す。
なおここで挙げた例では、起点が1つの例で説明をしたが、第3の実施例で説明したように起点を複数設定し、それぞれを移動させてもよい。また起点として画像中の画素の何れを選択してもよい。
そして最終的には、図37(h)に示すように、指定領域S1と指定領域外領域S2とに切り分けが行なわれる。
この領域拡張方法でも、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
第2の範囲は固定でも変更してもよく、そして第2の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。
またこの領域拡張方法では、選択された対象画素T1が一画素ずつ移動する度に、対象画素T1が指定領域S1および指定領域外領域S2の何れに属するかが判定部153にて判定され、領域拡張が行なわれる。つまり予め定められた順で一の対象画素T1(第2の対象画素)を選択し、選択された一の対象画素T1(第2の対象画素)に対し、1回の判定を行うことを繰り返す。これは、判定部153は、指定領域S1や指定領域外領域S2に含まれる画素を基準画素として選択した一の対象画素T1(第2の対象画素)について指定領域S1または指定領域外領域S2への属否の判定を行った後、新たに対象画素T1(第2の対象画素)を一つ選択し、第2の範囲の設定および判定を再度行って、指定領域S1や指定領域外領域S2の検出を行う、と言うこともできる。そして判定後は、特性変更部154にて記憶されていたラベルおよび強さが変更される。つまりこの場合、対象画素T1が一画素ずつ移動する度に対象画素T1(第2の対象画素)だけが変更の対象となる。これは「非同期型」の領域拡張方法であると言ってよい。
また第3の実施例および第4の実施例では、一の対象画素T1(第2の対象画素)を選択し、この対象画素T1(第2の対象画素)に対し、第2の範囲内にある基準画素が属する指定領域S1または指定領域外領域S2に入るか否かを判定する。この判定は、対象画素T1(第2の対象画素)の選択およびこれに伴い設定される第2の範囲を順次変更しつつ、複数回行う。またこの判定は、上述したように画素値の近さや強さを比較することで行う。そしてこれにより対象画素T1(第2の対象画素)のラベルが変更される。この場合、対象画素T1(第2の対象画素)は、周辺にある基準画素から影響を及ぼされ、これにより対象画素T1(第2の対象画素)のラベルが変化するのであり、その意味でここでは、「受け身型」と言っている。
次に第3の実施例および第4の実施例における領域検出部15の動作について説明を行なう。
図38は、第3の実施例および第4の実施例における領域検出部15の動作について説明したフローチャートである。
以下、図25および図38を使用して領域検出部15の動作を説明する。
まず画素選択部151が、対象画素(第2の対象画素)を選択する(ステップ201)。図35に示した例では、画素選択部151は、対象画素T1を選択する。
次に範囲設定部152が、対象画素に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ202)。図35に示した例では、範囲設定部152は、対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲とする。
そして判定部153が、対象画素が指定領域S1および指定領域外領域S2の何れに属するかを判定する(ステップ203)。上述した例では、判定部153は、対象画素T1とシード1およびシード2の画素値の近さや強さにより判定を行なう。
さらに特性変更部154が、判定部153において対象画素が何れかの指定領域S1および指定領域外領域S2の何れに属すると判定された場合、特性を変更する(ステップ204)。具体的には、対象画素T1にラベル付けを行ない、さらに強さを付与する。
次に収束判定部155が、一連の処理が収束したか否かを判定する(ステップ205)。この判定は、上述したようにラベルが変更される画素がなくなったときに収束したと判定してもよく予め定められた最大更新回数に達したときに収束したと判定してもよい。
そして収束判定部155が処理が収束したと判定した場合(ステップ205でYes)、指定領域S1の切り出しの処理を終了する。
一方、収束判定部155が処理が収束していないと判定した場合(ステップ205でNo)、ステップ201に戻る。なおこの場合、画素選択部151で選択される対象画素(第2の対象画素)は変更される。
[第5の実施例(「攻撃型」と「受け身型」を双方使用する場合)]
次に領域検出部15の第5の実施例について説明を行なう。
第5の実施例では、第1の実施例および第2の実施例で説明した「攻撃型」の領域拡張方法と、第3の実施例および第4の実施例で説明した「受け身型」の領域拡張方法の双方を使用する。つまり第5の実施例では、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法とを更新の途中で切り替えながら領域を拡張していく。
つまり範囲設定部152は、更新の度に、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法の何れを使用するかを選択する。そして「攻撃型」の領域拡張方法を選択した場合は、第1の範囲の設定を行う。そして判定部153が、第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するかを判定する。また「受け身型」の領域拡張方法を選択した場合は、第2の範囲の設定を行う。そして判定部153が、対象画素が指定領域S1および指定領域外領域S2の何れに属するかを判定する。即ち、第1の範囲の設定と第2の範囲の設定とを少なくとも1回切り替えつつ判定を行っていく。
この切り替えの方法は、特に制限はなく、例えば、「攻撃型」と「受け身型」を交互に使用してもよい。また最初に予め定められた更新回数分「攻撃型」を使用し、その後、「受け身型」を最後まで使用する方法でもよい。また逆に最初に予め定められた更新回数分「受け身型」を使用し、その後、「攻撃型」を最後まで使用する方法でもよい。なお「攻撃型」の場合、第1の実施例および第2の実施例の何れも使用することができる。
このように「攻撃型」と「受け身型」を双方使用する領域拡張方法でも指定領域S1および指定領域外領域S2の切り出しが行える。
また本実施の形態では、設定される第1の範囲や第2の範囲は固定でもよく、可変であってもよい。そして第1の範囲や第2の範囲は、更新回数により順次小さくしていくことが好ましい。また第1の実施例と同様の「同期型」でも、第2の実施例と同様の「非同期型」でも何れの方法でも使用することができる。
次に第5の実施例における領域検出部15の動作について説明を行なう。
図39は、第5の実施例における領域検出部15の動作について説明したフローチャートである。
以下、図25および図39を使用して領域検出部15の動作を説明する。
まず画素選択部151が、「攻撃型」と「受け身型」の何れを使用するかを選択する(ステップ301)。
そして画素選択部151が、「攻撃型」を選択した場合(ステップ302でYes)、画素選択部151が、指定領域S1や指定領域外領域S2に属する画素の中から選択される基準画素を選択する(ステップ303)。
また範囲設定部152が、この基準画素に対し指定領域S1や指定領域外領域S2に含まれるかを判定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ304)。
さらに判定部153が、第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するかを判定する(ステップ305)。
対して画素選択部151が、「受け身型」を選択した場合(ステップ302でNo)、画素選択部151が、対象画素T1(第2の対象画素)を選択する(ステップ306)。
また範囲設定部152が、この対象画素T1に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ307)。
さらに判定部153が、対象画素T1(第2の対象画素)が何れの指定領域S1や指定領域外領域S2に属するかを判定する(ステップ308)。
次に特性変更部154が、判定部153において何れかの指定領域S1および指定領域外領域S2の何れに属すると判定された対象画素T1(第2の対象画素)について、特性を変更する(ステップ309)。
そして収束判定部155が、一連の処理が収束したか否かを判定する(ステップ310)。
収束判定部155が処理が収束したと判定した場合(ステップ310でYes)、指定領域S1の切り出しの処理を終了する。
一方、収束判定部155が処理が収束していないと判定した場合(ステップ310でNo)、ステップ301に戻る。なおこの場合、画素選択部151で選択される基準画素または対象画素(第2の対象画素)は変更される。
<画像処理装置の動作の説明>
図40は、画像処理装置10の動作について説明したフローチャートである。
以下、図2および図40を主に使用して、画像処理装置10の動作について説明を行う。
まず画像情報取得部11が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ401)。このRGBデータは、表示装置20に送られ、画像処理を行う前の画像が表示される。
そしてユーザが、例えば、図3(b)、図18で説明した方法で、入力装置30を使用して軌跡を描くことで指定領域S1(S11、S12)を包含する前景カバー領域H(H1、H2)を入力する。この前景カバー領域H(H1、H2)の位置情報は、ユーザ指示受付部12が受け付ける(ステップ402)。
次に第1の代表位置設定部13が、例えば、図5〜図8で説明した方法を用い、前景カバー領域H(H1、H2)の位置情報を基に、第1の代表位置であるシード1を設定する(ステップ403)。
さらに第2の代表位置設定部14が、例えば、図9で説明した方法を用い、背景カバー領域Jを求める(ステップ404)。
また第2の代表位置設定部14は、例えば、図11〜図13、図21、図23で説明した方法を用い、第2の代表位置であるシード2を設定する(ステップ405)。
そして領域検出部15が、例えば、領域拡張方法等を使用して、シード1およびシード2から指定領域S1(S11、S12)を切り出す処理を行う(ステップ406)。
次にユーザが、指定領域S1(S11、S12)や指定領域外領域S2の選択を入力装置30を使用して入力する。これは、例えば、図16で説明した操作により入力することができる。
このユーザによる指定領域S1(S11、S12)や指定領域外領域S2の選択の指示は、ユーザ指示受付部12が受け付ける(ステップ407)。
そして領域切替部16により指定領域S1(S11、S12)や指定領域外領域S2の切り替えが行なわれる(ステップ408)。
またユーザは、選択された指定領域S1(S12、S22)や指定領域外領域S2について行なう画像処理の指示を入力装置30を使用して入力する。これは、例えば、図17で説明したスライダ213b等を使用して入力することができる。
ユーザによる画像処理の指示は、ユーザ指示受付部12が受け付ける(ステップ409)。
そして画像処理部17が、ユーザの指示に基づき、選択された指定領域S1(S11、S12)や指定領域外領域S2の画像処理を行なう(ステップ410)。
次に画像情報出力部18が、画像処理がなされた後の画像情報を出力する(ステップ411)。この画像情報は、RGBデータであり、このRGBデータは、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
なお以上説明した領域検出部15で行われる処理は、画像Gの画像情報を取得し、画像Gの中の特定の画像領域である指定領域S1(S11、S12)を包含するようにユーザが入力した前景カバー領域Hの位置情報を取得し、指定領域S1(S11、S12)の特徴量を前景カバー領域Hの画像情報から求め、指定領域S1(S12、S22)の特徴量から指定領域S1(S11、S12)の代表位置である第1の代表位置(シード1)を設定し、指定領域S1(S11、S12)外の領域である指定領域外領域S2の代表位置である第2の代表位置(シード2)を設定し、第1の代表位置(シード1)および第2の代表位置(シード2)から指定領域S1(S11、S12)を検出することを特徴とする画像処理方法として捉えることもできる。
<画像処理装置のハードウェア構成例>
次に、画像処理装置10のハードウェア構成について説明する。
図41は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
<プログラムの説明>
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
よって本実施の形態で、画像処理装置10が行なう処理は、コンピュータに、画像Gの画像情報を取得する画像情報取得機能と、画像Gの中の特定の画像領域である指定領域S1(S11、S12)を包含するようにユーザが入力した前景カバー領域Hの位置情報を取得する位置情報取得機能と、指定領域S1(S11、S12)の特徴量を前景カバー領域Hの画像情報から求め、指定領域S1(S11、S12)の特徴量から指定領域S1(S11、S12)の代表位置である第1の代表位置(シード1)を設定する第1の代表位置設定機能と、指定領域S1(S11、S12)外の領域である指定領域外領域S2の代表位置である第2の代表位置(シード2)を設定する第2の代表位置設定機能と、第1の代表位置(シード1)および第2の代表位置(シード2)から指定領域S1(S11、S12)を検出する領域検出機能と、を実現させることを特徴とするプログラムとして捉えることもできる。
なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。
以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
1…画像処理システム、10…画像処理装置、11…画像情報取得部、12…ユーザ指示受付部、13…第1の代表位置設定部、14…第2の代表位置設定部、15…領域検出部、16…領域切替部、17…画像処理部、18…画像情報出力部、20…表示装置、30…入力装置

Claims (9)

  1. 画像の画像情報を取得する画像情報取得部と、
    前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、
    前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、
    前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部と、
    前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、
    を備えることを特徴とする画像処理装置。
  2. 前記包含領域は、画像中における前記指定領域および当該指定領域の周囲の領域をユーザが塗りつぶすことで入力されたものであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の代表位置設定部は、前記包含領域の画像情報の画素値に対する度数を表すヒストグラムを基に前記指定領域の特徴量を求めることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の代表位置設定部は、前記度数に対して設定される閾値との比較で前記指定領域の特徴量を求め、当該指定領域の特徴量を有する画素について前記第1の代表位置とすることを特徴とする請求項3に記載の画像処理装置。
  5. 前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域以外の領域の画像情報から求め、当該指定領域外領域の特徴量から前記第2の代表位置を設定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域の外接矩形内以外の領域の画像情報から求めることを特徴とする請求項5に記載の画像処理装置。
  7. 画像の画像情報を取得し、
    前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得し、
    前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定し、
    前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定し、
    前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する
    ことを特徴とする画像処理方法。
  8. 画像を表示する表示装置と、
    前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、
    ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、
    を備え、
    前記画像処理装置は、
    前記画像の画像情報を取得する画像情報取得部と、
    前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、
    前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、
    前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部と、
    前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、
    前記指定領域および/または前記指定領域外領域に対し画像処理を行なう画像処理部と、
    を備えることを特徴とする画像処理システム。
  9. コンピュータに、
    画像の画像情報を取得する画像情報取得機能と、
    前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得機能と、
    前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定機能と、
    前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定機能と、
    前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出機能と、
    を実現させることを特徴とするプログラム。
JP2016006684A 2016-01-15 2016-01-15 画像処理装置、画像処理方法、画像処理システムおよびプログラム Pending JP2017126304A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016006684A JP2017126304A (ja) 2016-01-15 2016-01-15 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US15/249,538 US20170206661A1 (en) 2016-01-15 2016-08-29 Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016006684A JP2017126304A (ja) 2016-01-15 2016-01-15 画像処理装置、画像処理方法、画像処理システムおよびプログラム

Publications (1)

Publication Number Publication Date
JP2017126304A true JP2017126304A (ja) 2017-07-20

Family

ID=59314611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016006684A Pending JP2017126304A (ja) 2016-01-15 2016-01-15 画像処理装置、画像処理方法、画像処理システムおよびプログラム

Country Status (2)

Country Link
US (1) US20170206661A1 (ja)
JP (1) JP2017126304A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046329A (ja) * 2017-09-05 2019-03-22 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2019101844A (ja) * 2017-12-05 2019-06-24 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2021517308A (ja) * 2018-03-21 2021-07-15 グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法
US11508029B2 (en) 2020-10-22 2022-11-22 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810744B2 (en) * 2016-05-27 2020-10-20 Rakuten, Inc. Image processing device, image processing method and image processing program
CN108010037B (zh) * 2017-11-29 2019-09-13 腾讯科技(深圳)有限公司 图像处理方法、装置及存储介质
JP7154877B2 (ja) * 2018-08-22 2022-10-18 キヤノン株式会社 画像投射装置、画像投射装置の制御方法、および、プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115947A (ja) * 1997-06-20 1999-01-22 Sharp Corp 画像処理装置
JP2006053921A (ja) * 2004-08-09 2006-02-23 Microsoft Corp ダイナミックプログラミングによる境界マッティング
JP2013140437A (ja) * 2011-12-28 2013-07-18 Canon Inc 画像処理装置および画像処理方法
WO2014033792A1 (ja) * 2012-08-31 2014-03-06 株式会社島津製作所 放射線断層画像生成装置、放射線断層撮影装置および放射線断層画像生成方法
JP2015121901A (ja) * 2013-12-20 2015-07-02 日本放送協会 映像領域分割装置および映像領域分割プログラム
WO2015141487A1 (ja) * 2014-03-18 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015176163A (ja) * 2014-03-12 2015-10-05 株式会社メガチップス 画像処理方法、画像処理装置、及びプログラム
JP2015228594A (ja) * 2014-05-30 2015-12-17 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115947A (ja) * 1997-06-20 1999-01-22 Sharp Corp 画像処理装置
JP2006053921A (ja) * 2004-08-09 2006-02-23 Microsoft Corp ダイナミックプログラミングによる境界マッティング
JP2013140437A (ja) * 2011-12-28 2013-07-18 Canon Inc 画像処理装置および画像処理方法
WO2014033792A1 (ja) * 2012-08-31 2014-03-06 株式会社島津製作所 放射線断層画像生成装置、放射線断層撮影装置および放射線断層画像生成方法
JP2015121901A (ja) * 2013-12-20 2015-07-02 日本放送協会 映像領域分割装置および映像領域分割プログラム
JP2015176163A (ja) * 2014-03-12 2015-10-05 株式会社メガチップス 画像処理方法、画像処理装置、及びプログラム
WO2015141487A1 (ja) * 2014-03-18 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015228594A (ja) * 2014-05-30 2015-12-17 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
VICTOR LEMPITSKY ET AL.: ""Image Segmentation with A Bounding Box Prior"", 2009 IEEE 12TH INTERNATIONAL CONFERENCE ON COMPUTER VISION, JPN6019040907, 29 September 2009 (2009-09-29), US, pages 277 - 284, XP031672592, ISSN: 0004140940 *
杉山 春樹、外2名: ""極値点情報とGrabCutを利用した食事画像の領域分割"", 情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011, JPN6020008323, 20 July 2011 (2011-07-20), JP, pages 1538 - 1544, ISSN: 0004227308 *
照井 翔太、外3名: ""カテゴリの特性情報を用いたセマンティックセグメンテーション法の検討"", 電子情報通信学会技術研究報告, vol. 114, no. 455, JPN6019040906, 12 February 2015 (2015-02-12), JP, pages 119 - 124, ISSN: 0004140939 *
白石 馨、米元 聡: ""グラフカットによる矩形内の対象領域抽出についての検討"", 第74回(平成24年)全国大会講演論文集(2), JPN6020008321, 6 March 2012 (2012-03-06), JP, pages 407 - 408, ISSN: 0004268608 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046329A (ja) * 2017-09-05 2019-03-22 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2019101844A (ja) * 2017-12-05 2019-06-24 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2021517308A (ja) * 2018-03-21 2021-07-15 グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法
JP7307743B2 (ja) 2018-03-21 2023-07-12 グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法
US11508029B2 (en) 2020-10-22 2022-11-22 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
US20170206661A1 (en) 2017-07-20

Similar Documents

Publication Publication Date Title
JP2017126304A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP5880767B2 (ja) 領域判定装置、領域判定方法およびプログラム
US9792695B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
EP2827300A1 (en) Area designating method and area designating device
US20170039683A1 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
US20060239548A1 (en) Segmentation of digital images
JP6287337B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP5907196B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
WO2013015381A1 (ja) 画像処理装置
JP6241320B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
AU2014280985B2 (en) Image processing apparatus, image processing method, image processing system, and program
CN102768625A (zh) Windows用户界面的换肤方法和装置
EP1864252A1 (en) Segmentation of digital images
JP2014044595A (ja) 線画着色システム
JP6930099B2 (ja) 画像処理装置
JP2018097415A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2017162035A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2016004309A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
KR100849847B1 (ko) 배색 변경 장치 및 방법
JP6919433B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2019101844A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2023031373A (ja) 画像処理装置、画像処理システムおよびプログラム
CN114928731A (zh) 一种智能颜色交互显示方法和设备
JP2005266891A (ja) 領域抽出方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200526