JP5854162B2 - 領域判定装置、領域判定方法およびプログラム - Google Patents

領域判定装置、領域判定方法およびプログラム Download PDF

Info

Publication number
JP5854162B2
JP5854162B2 JP2015110623A JP2015110623A JP5854162B2 JP 5854162 B2 JP5854162 B2 JP 5854162B2 JP 2015110623 A JP2015110623 A JP 2015110623A JP 2015110623 A JP2015110623 A JP 2015110623A JP 5854162 B2 JP5854162 B2 JP 5854162B2
Authority
JP
Japan
Prior art keywords
pixel
area
target pixel
designated area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015110623A
Other languages
English (en)
Other versions
JP2016006645A (ja
Inventor
佐々木 信
信 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2015110623A priority Critical patent/JP5854162B2/ja
Publication of JP2016006645A publication Critical patent/JP2016006645A/ja
Application granted granted Critical
Publication of JP5854162B2 publication Critical patent/JP5854162B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Description

本発明は、領域判定装置、領域判定方法、プログラムに関する。
特許文献1には、ヒストグラム更新手段が、矩形枠の枠上ヒストグラム上で度数値(発生頻度)が高い特定画素値について、矩形枠の枠外ヒストグラム上での度数値が大きくかつ矩形枠の枠内ヒストグラム上での度数値が小さい場合に、この特定画素値において、領域分割手段で領域分割を行うためのエネルギー関数に使用される背景らしさを示す第2のヒストグラムの度数値を、主要オブジェクトらしさを示す第1のヒストグラムの度数値に対して相対的に増加するように、更新するものが開示されている。
また特許文献2には、領域分割手段が、画像範囲内の各画素に付与する主要オブジェクトまたは背景を示す領域ラベルと各画素の画素値に基づき、主要オブジェクトらしさまたは背景らしさを示すデータ項と、隣接画素間の領域ラベルの滑らかさを示す平滑化項と、データ項または平滑化項の少なくともいずれかに前回の領域分割の結果に応じて算出され各画素の位置に応じた画素位置重み値を付加する画素位置重み関数とを含むエネルギー関数の最小化処理により、画像内で主要オブジェクトと背景を領域分割し、画素位置重み関数更新手段は、領域分割手段により主要オブジェクトの領域が画像範囲内で占める割合が増加するほど、画像範囲の中央から境界部分に向かって画素位置重み値が減少する関数を算出し、画素位置重み関数として更新するものが開示されている。
特開2014−16676号公報 特開2014−10682号公報
ユーザが画像処理を行なう際には、ユーザが画像処理を行なう領域として指定する指定領域を切り出す処理が必要となる。
しかしながら指定領域の切り出しを行なう際に領域拡張方法を採用した場合には、グラフカット法などの他の方法に比較して処理速度が遅くなることがある。
本発明は、指定領域の切り出しを行なう際に領域拡張方法を採用した場合でも、グラフカット法を用いる場合よりも、処理速度が遅くなりにくい領域判定装置等を提供することを目的とする。
請求項1に記載の発明は、画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する手段と、前記基準画素周辺の特定の範囲を第1の範囲として設定すると共に当該第1の範囲に含まれる画素を対象画素とし、当該基準画素の有する前記強さおよび当該基準画素の当該対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域への属否を判定する手段と、を有する領域判定装置である。
請求項2に記載の発明は、画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する手段と、前記基準画素周辺にある対象画素に対し、当該基準画素の有する前記強さおよび当該基準画素が前記対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域に属する強さを判定する手段と、を有し、前記判定した画素を新たに前記基準画素として選択し当該判定を再度行って前記指定領域の検出を行う領域判定装置である。
請求項3に記載の発明は、前記対象画素の前記指定領域への属否を判定する手段は、前記判定を繰り返すにつれて前記第1の範囲を小さくなるように設定していくことを特徴とする請求項1に記載の領域判定装置である。
請求項4に記載の発明は、前記対象画素の前記指定領域への属否を判定する手段は、当該対象画素について前記指定領域への属否を判定するときに、前記基準画素と当該対象画素との画素値の近さにより判定を行なうことを特徴とする請求項1に記載の領域判定装置である。
請求項5に記載の発明は、前記対象画素の前記指定領域への属否を判定する手段は、当該対象画素が当該指定領域に属するとの判定をしたときに、当該対象画素に対し何れの指定領域に属するかを表すラベルと当該ラベルに対応する前記強さとを変更することを特徴とする請求項に記載の領域判定装置である。
請求項6に記載の発明は、前記対象画素の前記指定領域への属否を判定する手段は、当該対象画素の当該指定領域への属否を判定する前に、画像をぼかす処理を行なうことを特徴とする請求項に記載の領域判定装置である。
請求項7に記載の発明は、画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択し、前記基準画素周辺の特定の範囲を第1の範囲として設定すると共に当該第1の範囲に含まれる画素を対象画素とし、当該基準画素の有する前記強さおよび当該基準画素の当該対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域への属否を判定する領域判定方法である。
請求項8に記載の発明は、画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択し、前記基準画素周辺にある対象画素に対し、当該基準画素の有する前記強さおよび当該基準画素が前記対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域に属する強さを判定し、前記判定した画素を新たに前記基準画素として選択し当該判定を再度行って前記指定領域の検出を行う領域判定方法である。
請求項9に記載の発明は、コンピュータに、画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する機能と、前記基準画素周辺の特定の範囲を第1の範囲として設定すると共に当該第1の範囲に含まれる画素を対象画素とし、当該基準画素の有する前記強さおよび当該基準画素の当該対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域への属否を判定する機能と、を実現させるプログラムである。
請求項10に記載の発明は、コンピュータに、画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する機能と、前記基準画素周辺にある対象画素に対し、当該基準画素の有する前記強さおよび当該基準画素が前記対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域に属する強さを判定する機能と、を実現させ、前記判定した画素を新たに前記基準画素として選択し当該判定を再度行って前記指定領域の検出を行うプログラムである。
請求項1、2の発明によれば、指定領域の切り出しを行なう際に領域拡張方法を採用した場合でも、グラフカット法を用いる場合よりも、処理速度が遅くなりにくい領域判定装置が提供できる。
請求項3の発明によれば、処理速度と指定領域の切り出しの分離精度を両立させることができる。
請求項4の発明によれば、判定がより容易になる。
請求項5の発明によれば、処理速度をより高速化することができる。
請求項6の発明によれば、指定領域の切り出し精度が向上することがある。
請求項7、8の発明によれば、指定領域の切り出しを行なう際に領域拡張方法を採用した場合でも、グラフカット法を用いる場合よりも、処理速度が遅くなりにくい領域判定方法が提供できる。
請求項9、10の発明によれば、指定領域の切り出しを行なう際に領域拡張方法を採用した場合でも、グラフカット法を用いる場合よりも、処理速度が遅くなりにくくなる機能をコンピュータにより実現できる。
本実施の形態における領域判定システムの構成例を示す図である。 本実施の形態における領域判定装置の機能構成例を表すブロック図である。 (a)〜(b)は、指定領域を指定する作業をユーザインタラクティブに行う方法の例を示した図である。 (a)〜(c)は、図3(b)で示した画像について、領域拡張方法により指定領域が切り出される様子を示している。 図3(a)で示した画像について、領域拡張方法により「第1の指定領域」、「第2の指定領域」が切り出された様子を示している。 (a)〜(c)は、ユーザが指定領域の選択を行なうときに、表示装置の表示画面に表示される画面の例を示している。 画像処理を行なう際に、表示装置の表示画面に表示される画面の例を示している。 (a)〜(c)は、従来の領域拡張方法について説明した図である。 第1の実施形態における領域検出部の機能構成例を表すブロック図である。 (a)は、この指定領域の切り分けが行なわれる原画像を示したものである。また(b)は、基準画素について示したものである。 第1の範囲について説明した図である。 図11で示す第1の範囲に属する対象画素について、ユークリッド距離を基に判定を行なった結果を示している。 (a)〜(b)は、影響力を決定する方法について示した図である。 図11で示す第1の範囲内の対象画素について、強さを基にした方法で判定を行なった結果を示している。 (a)〜(h)は、強さを基にした領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。 (a)〜(h)は、第2の実施形態による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。 行と列の順を反転させた場合を示した図である。 第1の実施形態および第2の実施形態における領域検出部の動作について説明したフローチャートである。 画素選択部により選択される対象画素、および範囲設定部により設定される第2の範囲について示した図である。 本実施の形態による判定の結果について示した図である。 (a)〜(h)は、第4の実施形態による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。 第3の実施形態および第4の実施形態における領域検出部の動作について説明したフローチャートである。 第5の実施形態における領域検出部の動作について説明したフローチャートである。 第6の実施形態における領域検出部の機能構成例を表すブロック図である。 本実施の形態で使用する画像に対してシードを描いた場合を示している。 (a)〜(b)は、画像のネクタイの一部を拡大した画像を示している。 図25〜図26で示した画像に対し、図9に示した領域検出部を使用して指定領域の切り出しを行った場合を示した図である。 (a)〜(b)は、対象画素に対する周辺画素の影響について示した図である。 (a)は、図26(b)と同様の画像であり、前処理部によりぼかす前の画像を示している。(b)は、前処理部によりぼかした後の画像を示している。 前処理部により画像をぼかす処理を行ない、その後、第1の実施形態〜第5の実施形態による方法を使用して指定領域の切り出しを行った場合を示した図である。 (a)〜(b)は、Retinex処理を行い、原画像に対し視認性向上を行なった場合の概念図である。 領域判定装置のハードウェア構成を示した図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<発明の背景>
例えば、カラーの画像の画質調整を行なうときには、カラーの画像全体に対し行なう場合とカラーの画像中において領域別に行なう場合がある。画質を制御する代表例としては、色成分のヒストグラム制御、輝度のコントラスト制御、輝度のヒストグラム制御、輝度の帯域制御、色相制御、彩度制御などが挙げられるが、色や輝度の帯域に基づく画質を制御する場合、特に特定の領域に対してのみ画質調整を行うときは、この領域を切り出す処理が必要となる。
一方、近年のICT(Information and Communication Technology)機器の増加に伴って、画像処理の幅が広がったことから、上記のように画像加工・画像編集も様々なアプローチが考えられる。この場合、タブレット端末等に代表されるICT機器の利点は、タッチパネル等による直観性であり、ユーザインタラクティブ性が高まった中での画像加工・画像編集が行えることが特徴である。
以上の状況を踏まえ、本実施の形態では、以下のような領域判定システム1を用いて、特定の領域の切り出しや画質調整を行なう。
<領域判定システム全体の説明>
図1は、本実施の形態における領域判定システム1の構成例を示す図である。
図示するように本実施の形態の領域判定システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう領域判定装置10と、領域判定装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、領域判定装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
領域判定装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、領域判定装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、画像情報の作成等が行われるようになっている。
表示装置20は、表示画面21に画像を表示する。表示装置20は、例えばPC用の液晶ディスプレイ、液晶テレビあるいはプロジェクタなど、加法混色にて画像を表示する機能を備えたもので構成される。したがって、表示装置20における表示方式は、液晶方式に限定されるものではない。なお、図1に示す例では、表示装置20内に表示画面21が設けられているが、表示装置20として例えばプロジェクタを用いる場合、表示画面21は、表示装置20の外部に設けられたスクリーン等となる。
入力装置30は、キーボードやマウス等で構成される。入力装置30は、画像処理を行なうためのアプリケーションソフトウェアの起動、終了や、詳しくは後述するが、画像処理を行なう際に、ユーザが領域判定装置10に対し画像処理を行なうための指示を入力するのに使用する。
領域判定装置10および表示装置20は、DVI(Digital Visual Interface)を介して接続されている。なお、DVIに代えて、HDMI(登録商標)(High-Definition Multimedia Interface)やDisplayPort等を介して接続するようにしてもかまわない。
また領域判定装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
このような領域判定システム1において、表示装置20には、まず最初に画像処理を行なう前の画像である原画像が表示される。そしてユーザが入力装置30を使用して、領域判定装置10に対し画像処理を行なうための指示を入力すると、領域判定装置10により原画像の画像情報に対し画像処理がなされる。この画像処理の結果は、表示装置20に表示される画像に反映され、画像処理後の画像が再描画されて表示装置20に表示されることになる。この場合、ユーザは、表示装置20を見ながらインタラクティブに画像処理を行なうことができ、より直感的に、またより容易に画像処理の作業を行える。
なお本実施の形態における領域判定システム1は、図1の形態に限られるものではない。例えば、領域判定システム1としてタブレット端末を例示することができる。この場合、タブレット端末は、タッチパネルを備え、このタッチパネルにより画像の表示を行なうとともにユーザの指示が入力される。即ち、タッチパネルが、表示装置20および入力装置30として機能する。また同様に表示装置20および入力装置30を統合した装置として、タッチモニタを用いることもできる。これは、上記表示装置20の表示画面21としてタッチパネルを使用したものである。この場合、領域判定装置10により画像情報が作成され、この画像情報に基づきタッチモニタに画像が表示される。そしてユーザは、このタッチモニタをタッチ等することで画像処理を行なうための指示を入力する。
<領域判定装置の説明>
次に領域判定装置10について説明を行なう。
図2は、本実施の形態における領域判定装置10の機能構成例を表すブロック図である。なお図2では、領域判定装置10が有する種々の機能のうち本実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の領域判定装置10は、画像情報取得部11と、ユーザ指示受付部12と、領域検出部13と、領域切替部14と、画像処理部15と、画像情報出力部16とを備える。
画像情報取得部11は、画像処理を行なう画像の画像情報を取得する。即ち、画像情報取得部11は、画像処理を行なう前の原画像の画像情報を取得する。この画像情報は、表示装置20で表示を行なうための、例えば、RGB(Red、Green、Blue)のビデオデータ(RGBデータ)である。
ユーザ指示受付部12は、位置情報取得部の一例であり、入力装置30により入力された画像処理に関するユーザによる指示を受け付ける。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像の中から、指定領域を指定する指示をユーザ指示情報として受け付ける。この指定領域は、何らかの形で指定された領域である。具体的には、ユーザが(その代表位置を指定するなどして)指定した領域である。また機械などにより自動で指定された領域(例えば画像の特徴量から代表位置を自動で抽出するパターンなど)も含む。ここでは指定領域は、ユーザが特定の画像領域として指定した領域であり、ユーザが画像処理を行なう画像領域である。実際には、本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、ユーザが入力した指定領域の代表位置を表す位置情報を取得する。
また詳しくは後述するが、ユーザ指示受付部12は、ユーザが、この指定領域の中から実際に画像処理を行なうものを選択する指示をユーザ指示情報として受け付ける。さらにユーザ指示受付部12は、選択された指定領域に対し、ユーザが画像処理を行う処理項目や処理量等に関する指示をユーザ指示情報として受け付ける。これらの内容に関するさらに詳しい説明については後述する。
本実施の形態では、指定領域を指定する作業を下記に説明するユーザインタラクティブに行う方法を採用する。
図3(a)〜(b)は、指定領域を指定する作業をユーザインタラクティブに行う方法の例を示した図である。
図3(a)では、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、前景である人物の頭髪の部分、および頭髪以外の部分をそれぞれ指定領域として選択する場合を示している。即ち、この場合指定領域は2つある。以後、頭髪の部分の指定領域を「第1の指定領域(指定領域1)」、頭髪以外の部分の指定領域を「第2の指定領域(指定領域2)」と言うことがある。
また図3(b)についても、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、前景である人物の頭髪の部分、顔の部分、および頭髪や顔以外の部分をそれぞれ指定領域として選択する場合を示している。即ち、この場合指定領域は3つある。以後、頭髪の部分の指定領域を「第1の指定領域((指定領域1))」、顔の部分の指定領域を「第2の指定領域(指定領域2)」、頭髪や顔以外の部分の指定領域を「第3の指定領域(指定領域3)」と言うことがある。
そしてユーザは、指定領域のそれぞれに対し代表となる軌跡をそれぞれ与える。この軌跡は、入力装置30により入力することができる。具体的には、入力装置30がマウスであった場合は、マウスを操作して表示装置20の表示画面21で表示している画像Gをドラッグし軌跡を描く。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により画像Gをなぞりスワイプすることで同様に軌跡を描く。なお軌跡ではなく、点として与えてもよい。即ち、ユーザは、頭髪の部分などのそれぞれの指定領域に対し代表となる位置を示す情報を与えればよい。これは指定領域の代表位置を表す位置情報をユーザが入力する、と言い換えることもできる。なお以後、この軌跡や点等を「シード」と言うことがある。
図3(a)の例では、頭髪の部分と頭髪以外の部分にそれぞれシードが描かれている(以後、これらのシードをそれぞれ「シード1」、「シード2」と言うことがある)。また図3(b)の例では、頭髪の部分、顔の部分、および頭髪や顔以外の部分にそれぞれシードが描かれている(以後、これらのシードをそれぞれ「シード1」、「シード2」、「シード3」と言うことがある)。
領域検出部13は、ユーザ指示受付部12で受け付けられたユーザ指示情報に基づき、表示装置20で表示されている画像の中から指定領域を検出する。実際には、領域検出部13は、表示装置20で表示している画像の中から、指定領域を切り出す処理を行う。
領域検出部13が、シードの情報を基にして指定領域を切り出すには、まずシードが描かれた箇所の画素に対しラベルを付加する。図3(a)の例では、頭髪の部分に描かれた軌跡(シード1)に対応する画素に「ラベル1」を、頭髪以外の部分(シード2)に対応する画素に「ラベル2」を付加する。
また図3(b)の例では、頭髪の部分に描かれた軌跡(シード1)に対応する画素に「ラベル1」を、顔の部分に描かれた軌跡(シード2)に対応する画素に「ラベル2」を、頭髪や顔以外の部分(シード3)に対応する画素に「ラベル3」を付加する。本実施の形態では、このようにラベルを付与することを「ラベル付け」と言う。
そして詳しくは後述するが、シードが描かれた画素と周辺の画素との間で画素値の近さを基に、近ければ連結し、遠ければ連結しない作業等を繰り返し、領域を拡張していく領域拡張方法により、指定領域を切り出していく。
図4(a)〜(c)は、図3(b)で示した画像Gについて、領域拡張方法により指定領域が切り出される様子を示している。
このうち図4(a)は、図3(b)で示した画像Gであり、シードとして軌跡が描かれた状態を示している。
そして図4(b)で示すように、シードとして軌跡が描かれた箇所から指定領域内に領域が拡張していき、図4(c)で示すように最後に指定領域として3つの指定領域である「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」が切り出される。
なお図5では、図3(a)で示した画像Gについて、領域拡張方法により「第1の指定領域(S1)」、「第2の指定領域(S2)」が切り出された様子を示している。
以上のような方法を採用することで、指定領域が複雑な形状であっても、ユーザは、より直感的に、またより容易に指定領域が切り出せる。
領域切替部14は、複数の指定領域を切り替える。即ち、指定領域が複数存在した場合、ユーザが画像調整を行ないたい指定領域の選択を行ない、これに従い、領域切替部14が指定領域を切り替える。
図6(a)〜(c)は、ユーザが指定領域の選択を行なうときに、表示装置20の表示画面21に表示される画面の例を示している。
図6(a)〜(c)に示した例では、表示画面21の左側に指定領域が選択された状態の画像Gが表示され、表示画面21の右側に「領域1」、「領域2」、「領域3」の何れかを選択するラジオボタン212a、212b、212cが表示される。この場合、「領域1」は、「第1の指定領域(S1)」に、「領域2」は、「第2の指定領域(S2)」に、「領域3」は、「第3の指定領域(S3)」に対応する。そしてユーザが入力装置30を使用して、このラジオボタン212a、212b、212cを選択すると、指定領域が切り替わる。
図6(a)は、ラジオボタン212aが選択されている状態であり、指定領域として、頭髪の部分の画像領域である「第1の指定領域(S1)」が選択されている。そしてユーザがラジオボタン212bを選択すると、図6(b)に示すように指定領域として、顔の部分の画像領域である「第2の指定領域(S2)」に切り替わる。そしてさらにユーザがラジオボタン212cを選択すると、図6(c)に示すように指定領域が、頭髪や顔以外の部分の画像領域である「第3の指定領域(S3)」に切り替わる。
実際には、図6で説明を行なった操作の結果は、ユーザ指示情報としてユーザ指示受付部12により取得され、さらに領域切替部14により指定領域の切り替えが行なわれる。
画像処理部15は、選択された指定領域に対し実際に画像処理を行なう。
図7は、画像処理を行なう際に、表示装置20の表示画面21に表示される画面の例を示している。
ここでは、選択された指定領域に対し、色相、彩度、輝度の調整を行なう例を示している。この例では、表示画面21の左上側に指定領域が選択された状態の画像Gが表示され、表示画面21の右上側に「領域1」、「領域2」、「領域3」の何れかを選択するラジオボタン212a、212b、212cが表示される。ここでは、ラジオボタンのうち212aが選択されており、指定領域として、頭髪の部分の画像領域である「第1の指定領域(S1)」が選択されている。なおラジオボタン212a、212b、212cを操作することで、指定領域の切り替えが可能であることは、図6の場合と同様である。
また表示画面21の下側には、「色相」、「彩度」、「輝度」の調整を行なうためのスライドバー213aと、スライダ213bが表示される。スライダ213bは、入力装置30の操作によりスライドバー213a上において図中左右に移動し、スライドが可能である。スライダ213bは、初期状態ではスライドバー213aの中央に位置し、この位置において「色相」、「彩度」、「輝度」の調整前の状態を表す。
そしてユーザが、入力装置30を使用して、「色相」、「彩度」、「輝度」の何れかのスライダ213bをスライドバー213a上で図中左右にスライドさせると、選択された指定領域に対し画像処理がなされ、表示画面21で表示される画像Gもそれに対応して変化する。この場合、図中右方向にスライダ213bをスライドさせると、対応する「色相」、「彩度」、「輝度」の何れかを増加させる画像処理がなされる。対して図中左方向にスライダ213bをスライドさせると、対応する「色相」、「彩度」、「輝度」の何れかを減少させる画像処理がなされる。
再び図2に戻り、画像情報出力部16は、以上のように画像処理がなされた後の画像情報を出力する。画像処理がなされた後の画像情報は、表示装置20に送られる。そして表示装置20にてこの画像情報に基づき画像が表示される。
<領域検出部の説明>
次に領域検出部13が領域拡張方法により指定領域を切り出す方法についてさらに詳しく説明を行なう。
ここではまず従来の領域拡張方法についての説明を行なう。
図8(a)〜(c)は、従来の領域拡張方法について説明した図である。
このうち図8(a)は、原画像であり、縦3画素、横3画素の3×3=9画素の領域からなる。この原画像は、2つの画像領域から構成される。図8(a)では、それぞれの画素の色の濃さの違いによりこの2つの画像領域を表している。それぞれの画像領域に含まれる画素値は互いに近い値を示すものとする。
そして図8(b)に示すように、2行1列に位置する画素にシード1を、1行3列に位置する画素にシード2を与える。
このとき中央の画素である2行2列に位置する画素が、シード1が含まれる指定領域に属するか、シード2が含まれる指定領域に属するか否かを判定する場合を考える。ここでは、この中央の画素について、中央の画素の画素値と、中央の画素に接する周辺8画素の中に存在するシードの画素値を比較する。そして画素値が近ければ、中央の画素は、そのシードが含まれる指定領域に含まれると判定する。この場合、周辺8画素の中には、シード1とシード2の2つのシードが含まれるが、中央の画素の画素値は、シード2の画素値よりシード1の画素値とより近いため、シード1が含まれる指定領域に属すると判定される。
そして図8(c)に示すように、中央の画素は、シード1の領域に属するようになる。そして中央の画素は、今度は、新たなシードとして扱われる。そしてこの場合、中央の画素は、シード1と同じ、「ラベル1」にラベル付けされる。
従来の領域拡張方法では、シードの画素に接する画素を指定領域に含まれるか否かの判定の対象となる対象画素として選択し(上述した例では、中央の画素)、この対象画素の画素値と、対象画素の周辺8画素の画素に含まれるシードの画素値とを比較する。そして対象画素は、画素値が近いシードに含まれる領域に属すると考え、ラベル付けをする。さらにこれを繰り返すことで領域を拡張していく。
なお従来の領域拡張方法としては、例えば、下記文献に記載のGrow-Cut法が代表的な例として挙げられる。
V.Vezhnevets and V.Konouchine: "Grow-Cut" -Interactive Multi-label N-D Image Segmentation", Proc.Graphicon.pp 150-156(2005)
このように従来の領域拡張方法では、対象画素に着目し、対象画素の画素値に対して周辺8画素にあるシードの画素の画素値を比較して対象画素が属する指定領域を決定する。つまり対象画素が、周辺8画素からの影響を受けて変化する、いわば「受け身型」の方法である。
一方、本実施の形態では、領域検出部13を以下の構成としている。
図9は、本実施形態における領域検出部13の機能構成例を表すブロック図である。
図示するように本実施の形態の領域検出部13は、画素選択部131と、範囲設定部132と、判定部133と、特性変更部134と、収束判定部135とを備える。
以下、図9に示す領域検出部13について、第1の実施形態〜第5の実施形態に分けて説明を行なう。
[第1の実施形態(「攻撃型」で「同期型」の場合)]
まず領域検出部13の第1の実施形態について説明を行なう。
第1の実施形態において、画素選択部131は、指定領域に含まれる画素を基準画素として選択する。ここで「指定領域に属する画素」は、例えば、ユーザが指定した代表位置に含まれる画素、即ち、上述したシードの画素である。またこれには、領域拡張により新たにラベル付けされた画素も含まれる。
ここでは画素選択部131は、基準画素として指定領域に含まれる画素の中から1つの画素を選択する。
図10(a)は、この指定領域の切り分けが行なわれる原画像を示したものである。図示するように原画像は、全体が縦9画素、横7画素の9×7=63画素の領域からなり、図示するように画像領域R1と画像領域R2が含まれる。この画像領域R1に含まれる画素のそれぞれの画素値、また画像領域R2に含まれる画素のそれぞれの画素値は近い値を採る。そして以下に説明するようにこの画像領域R1と画像領域R2をそれぞれ指定領域として切り分けるものとする。
そして説明を簡単にするため、図10(b)で示すように、ユーザが指定した代表位置は、画像領域R1と画像領域R2のそれぞれに指定された2箇所で、それぞれ1画素からなり、画素選択部131は、この1画素を基準画素として選択するものとする。図10(b)では、この基準画素をシード1およびシード2で図示している。
詳しくは後述するが、このシード1およびシード2は、それぞれラベル付けされており、強さを有する。ここでは、シード1およびシード2は、それぞれラベル1とラベル2にラベル付けされ、強さとして双方とも初期値として1が設定されるものとする。
範囲設定部132は、基準画素に対し設定され、この基準画素周辺の特定の範囲を第1の範囲として設定する。ここで基準画素周辺の特定の範囲とは、基準画素に隣接する8画素のうちの少なくとも1画素および基準画素を含む任意の特定された範囲である。
図11は、第1の範囲について説明した図である。
図示するように、画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。図では、この範囲を太線の枠内の範囲として表示している。
また詳しくは後述するが、本実施の形態では、第1の範囲は可変であり、処理が進行するに従い範囲が縮小されることが好ましい。
判定部133は、第1の範囲内の対象画素(第1の対象画素)が何れの指定領域に属するかを判定する。即ち、第1の範囲に含まれる画素の各々について、基準画素が属する指定領域への属否を判定する。
判定部133では、上記第1の範囲に含まれる25画素のうち、シード1またはシード2を除くそれぞれ24画素について、指定領域に含まれるか否かの判定の対象となる対象画素(第1の対象画素)とする。そしてこれらの対象画素が、シード1が属する指定領域(第1の指定領域)に含まれるか否か、又は/および、シード2が属する指定領域(第2の指定領域)に属するか否かの判定を行なう。
このときの判定基準として画素値の近さを採用することができる。
具体的には、第1の範囲内に含まれる上記24画素に便宜上番号を付し、i番目(iは1〜24の何れかの整数値)の対象画素をPとしたとき、この画素の色データがRGBデータである場合は、この色データはP=(R、G、B)として表すことができる。同様にしてシード1やシード2の基準画素をPとすると、この色データはP=(R、G、B)として表すことができる。そして画素値の近さとして、以下の数1式に示すRGB値のユークリッド距離dを考える。
判定部133は、このユークリッド距離dが、予め定められた閾値以下であった場合に、第1の指定領域や第2の指定領域に属するとの判定を行なう。即ちユークリッド距離dが、予め定められた閾値以下であった場合は、基準画素Pと対象画素Pの画素値はより近いと考えられるため、その場合は、基準画素Pと対象画素Pとは、同じ指定領域に属するとする。
なおシード1とシード2の双方に対して、ユークリッド距離dが、閾値以下となる場合もあるが、この場合は、判定部133は、ユークリッド距離dがより小さい値となる方の指定領域に属するとする。
図12は、図11で示す第1の範囲に属する対象画素について、ユークリッド距離dを基に判定を行なった結果を示している。
ここでシード1と同じ黒色となったものは、指定領域1に属する画素と判定され、シード2と同じ灰色となったものは、指定領域2に属する画素と判定されたことを示している。なお白色の画素は、この場合、何れの指定領域にも属さないと判定されたことを示している。
判定部133を以上のように動作させることで、与えたシードに対して、自動でシードを拡散する効果がある。本実施の形態では、例えば、初回のみに判定部133にこの動作をさせることもできる。または最初の数回をこの動作にすることもできる。この場合、以後は、判定部133は、後述する「強さ」を使用して判定を行うことが好ましい。なお判定部133は、初回から後述する「強さ」を使用した判定を行ってもかまわない。
なお上述した例では、色データがRGBデータである場合で説明を行なったが、これに限られるものではなく、Lデータ、YCbCrデータ、HSVデータ、IPTデータなど他の色空間における色データであってもよい。また全ての色成分を用いず、例えば、色データとしてHSVデータを用いたときに、H、Sの値のみ使用してもよい。
また指定領域の切り分けがうまくいかない場合に、他の色空間における色データを使用するとよい場合がある。例えば、数1式に示したRGB値のユークリッド距離dの代わりに下記数2式に示したYCbCr値を使用したユークリッド距離d を考える。数2式は、対象画素の色データが、P=(Y、Cb、Cr)であり、基準画素の色データが、P=(Y、Cb、Cr)であったときのユークリッド距離d を示している、また数2式のユークリッド距離d は、重み係数W、WCb、WCrを使用した重みづけユークリッド距離となっている。数2式を使用した場合、他えば、指定領域間の輝度差は大きいが、色度の差が小さい場合に有効である。即ち、重み係数Wを小さくし、輝度成分Yのユークリッド距離d に対する寄与度を小さくする。これにより色度成分のユークリッド距離d に対する寄与度が相対的に大きくなる。その結果、輝度差は大きいが、色度の差が小さい指定領域間においても指定領域の切り分けの精度が向上する。
また使用する色データは、3成分からなるものに限定されるものではない。例えば、n次元色空間を使用し、n個の色成分によるユークリッド距離d を考えてもよい。
例えば、数3式は、色成分が、X、X、…、Xである場合である。そして数3式は、対象画素の色データが、P=(X1i、X2i、…、Xni)であり、基準画素の色データが、P=(X10、X20、…、Xn0)であったときのユークリッド距離d を示している、なお数3式のユークリッド距離d も重み係数WX1、WX2、…、WXnを使用した重みづけユークリッド距離となっている。この場合、n個の色成分のうち指定領域の時性がよく現れている色成分についての重み係数を他より相対的に大きくすることで、指定領域の切り分けの精度が向上する。
特性変更部134は、第1の範囲内の対象画素(第1の対象画素)に対し付与される特性を変更する。
ここで「特性」とは、その画素に付与されるラベルと強さのことを言う。
「ラベル」は、上述したようにその画素が何れの指定領域に属するかを表すものであり、指定領域1に属する画素は、「ラベル1」、指定領域2に属する画素は、「ラベル2」が付与される。ここではシード1のラベルはラベル1、シード2のラベルはラベル2となるので、判定部133で指定領域1に属する画素と判定された場合(図12で黒色となった画素)は、ラベル1にラベル付けされる。また判定部133で指定領域2に属する画素と判定された場合(図12で灰色となった画素)は、ラベル2にラベル付けされる。
「強さ」は、ラベルに対応する指定領域に属する強さであり、ある画素がラベルに対応する指定領域に属する可能性の大きさを表す。強さが大きいほどその画素がラベルに対応する指定領域に属する可能性が高く、強さが小さいほどその画素がラベルに対応する指定領域に属する可能性が低い。強さは、次のようにして定まる。
まずユーザが最初に指定した代表位置に含まれる画素の強さは、初期値として1となる。つまり領域を拡張する前のシード1やシード2の画素は、強さが1である。またまだラベル付けがされていない画素については、強さは0である。
そして強さが与えられた画素が周辺の画素に及ぼす影響力を考える。
図13(a)〜(b)は、影響力を決定する方法について示した図である。図13(a)〜(b)において、横軸は、ユークリッド距離dを表し、縦軸は、影響力を表す。
このユークリッド距離dは、強さを与えられた画素とその画素の周辺に位置する画素との間で決まる画素値のユークリッド距離dである。そして例えば、図13(a)に図示するように非線形の単調減少関数を定め、ユークリッド距離dに対し、この単調減少関数により決まる値を影響力とする。
つまりユークリッド距離dが小さいほど、影響力はより大きくなり、ユークリッド距離dが大きいほど、影響力はより小さくなる。
なお単調減少関数は、図13(a)のような形状のものに限られるものではなく、単調減少関数であれば特に限られるものではない。よって図13(b)のような線形の単調減少関数であってもよい。またユークリッド距離dの特定の範囲で線形であり、他の範囲で非線形であるような区分線形の単調減少関数であってもよい。
そして指定領域に属すると判定された画素の強さは、基準画素の強さに影響力を乗じたものとなる。例えば、基準画素の強さが1で、その左側に隣接する対象画素に与える影響力が0.9だった場合、この左側に隣接する対象画素が指定領域に属すると判定されたときに与えられる強さは、1×0.9=0.9となる。また例えば、基準画素の強さが1で、その2つ左側に隣接する対象画素に与える影響力が0.8だった場合、この対象画素が指定領域に属すると判定されたときに与えられる強さは、1×0.8=0.8となる。
以上の計算方法を利用し、判定部133は、第1の範囲内の対象画素(第1の対象画素)に与えられている強さにより判定を行なうこともできる。このとき対象画素が、ラベルを有しない場合は、基準画素が属する指定領域に含まれると判定し、対象画素が他の指定領域についてのラベルを既に有する場合は、強さが大きい方の指定領域に含まれると判定する。そして前者の場合は、全て基準画素と同じラベル付けを行なう。また後者の場合は、特性のうち強さが強い方のラベル付けを行う。この方法では、いったんあるラベルにラベル付けされた画素について、他のラベルに変更されることがあり得る。
例えば、対象画素(第1の対象画素)がいったんあるラベルにラベル付けされていたとする。そして他のラベルが付された基準画素の強さがuで影響力がwijであったとすると、対象画素(第1の対象画素)に及ぼす強さuは、u=wijとなる。そして対象画素(第1の対象画素)が現状有している強さと、このuとを比較し、uの方が、大きければ、他のラベルに変更される。対してuが同じか小さければ、他のラベルに変更されず、ラベルは維持される。
図14は、図11で示す第1の範囲内の対象画素について、強さを基にした方法で判定を行なった結果を示している。
図11に示す第1の範囲は、シード1とシード2とで一部重なる。そして第1の範囲が、重ならない箇所、即ち、シード1とシード2とで競合しない箇所では、この場合、ラベル付けされていないもので、全て基準画素であるシード1またはシード2と同じラベル付けを行なう。一方、第1の範囲が、シード1とシード2とで重なる箇所、即ち、競合する箇所では、強さが強い方のラベル付けをする。その結果、図14に示すようにラベル付けがなされる。
図15(a)〜(h)は、強さを基にした領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
このうち図15(a)は、このとき設定される第1の範囲を示している。つまり画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦3画素×横3画素の範囲を第1の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
図15(b)に、シード1およびシード2のそれぞれの第1の範囲内の対象画素について判定を行なった結果を示す。この場合、シード1およびシード2のそれぞれの第1の範囲は重ならないため、それぞれの第1の範囲内の対象画素は、全て基準画素であるシード1またはシード2と同じラベル付けが行なわれる。
また図15(c)に、さらに領域拡張を行ない、更新された後の結果を示す。この場合、図14と同様にシード1とシード2とで第1の範囲が、重ならない箇所では、全て基準画素であるシード1またはシード2と同じラベル付けが行なわれる。そして第1の範囲が、シード1とシード2とで重なる箇所では、強さが強い方のラベル付けが行なわれる。
また対象画素に既に他のラベルによるラベル付けがされていた場合でも、その対象画素が現在有している強さと、基準画素から及ぼされる強さを比較し、強さが強い方のラベル付けがなされる。また強さは、より強い方の強さとなる。即ち、この場合、対象画素のラベルと強さは変更される。
以下、ラベル付けされた対象画素については、新たな基準画素として選択され、図15(d)〜(h)に示すように順次領域は更新されていく。最終的には、図15(h)に示すように第1の指定領域と第2の指定領域に切り分けが行なわれる。
以上のようにして対象画素が指定領域に属すると判定された場合、特性変更部134においてラベルと強さが変更される。
このラベル、強さ、影響力の情報は、実際には、各画素毎の情報として、後述するメインメモリ92(図32参照)等に記憶される。そして必要に応じメインメモリ92から読み出されるとともに、ラベル、強さ、影響力が変更されたときは、これらの情報の書き換えが行なわれる。これにより領域検出部13の処理速度が向上する。
なお上述した画素選択部131、範囲設定部132、判定部133、特性変更部134の処理は収束するまで繰り返し行なわれる。即ち、図12で説明したように新たに指定領域1や指定領域2に属すると判定された画素は、新たに基準画素として選択され、さらに新たに選択された基準画素の周辺の特定の範囲を再度第1の範囲として設定し、この再度設定された第1の範囲内の対象画素について、指定領域1や指定領域2に属するか否かの判定を再び行なうことになる。第1の範囲内の対象画素について、指定領域1や指定領域2に属するか否かの判定が行なわれることになる。この処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域1および指定領域2の切り出しが行なえる。これは、基準画素の選択および第1の範囲の設定を順次変更しつつ判定を複数回行うことで、指定領域の検出を行う、と言うこともできる。なおこの方法(領域拡張方法)によれば、いったんあるラベルにラベル付けされた画素についても、他のラベルに変更されることがあり得る。
収束判定部135は、上記一連の処理が収束したか否かを判定する。
収束判定部135は、例えば、ラベルが変更される画素がなくなったときに収束したと判定する。また予め最大更新回数を定めておき、最大更新回数に達したときに収束したものとみなすこともできる。
以上述べた第1の実施形態による領域拡張方法では、指定領域に含まれるか否かの判定の対象となる対象画素は、第1の範囲内に属するとともに基準画素であるシード1やシード2を除いた画素となる。そして基準画素の画素値に対してこれらの対象画素の画素値を比較して対象画素が属する指定領域を決定する。つまり対象画素が、基準画素からの影響を受けて変化する、いわば「攻撃型」の方法である。
またこの領域拡張方法では、領域拡張を行なう直前における画像全体のラベルおよび強さはいったん記憶される。そしてそれぞれの指定領域から選択された基準画素により設定される第1の範囲内の対象画素が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。そして変更後のラベルおよび強さは、再び領域拡張を行なう直前における画像全体のラベルおよび強さとして記憶され、再度領域拡張が行なわれていく。つまりこの場合、画像全体のラベルおよび強さは一斉に変更され、いわば「同期型」の領域拡張方法である。
またこの領域拡張方法では、第1の範囲は固定でも変更してもよい。そして第1の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。具体的には、例えば、最初は、第1の範囲は大きく設定し、ある更新回数が、ある指定回数以上になったら第1の範囲を小さくする。この指定回数は、複数指定し、第1の範囲を段階的に小さくしていってもよい。つまり初期段階では、第1の範囲は大きく設定することで、処理速度が速くなる。またある程度更新が進んだ段階では、第1の範囲を小さくすることで指定領域の分離精度がより向上する。つまり処理速度の向上と指定領域の切り出しの分離精度とが両立する。なおこれは、判定を繰り返すにつれて第1の範囲を小さくなるように設定していく、と言うこともできる。
[第2の実施形態(「攻撃型」で「非同期型」の場合)]
次に領域検出部13の第2の実施形態について説明を行なう。
図16(a)〜(h)は、第2の実施形態による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
図16(a)は、このとき設定される第1の範囲であり、図15(a)と同様の図である。
本実施の形態では、判定部133は、図16(b)に示すように2行2列の位置に設定されるシード2を起点とし、まず第1の範囲内の対象画素が何れの指定領域に属するか否かを判定する。そして図16(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域に属するか否かを判定していく。この判定は、例えば、上述したように、数1式〜数3式を使用し、画素値の近さを利用することで行うことができる。またこの判定は、図15の場合と同様に、強さを使用した方法により行うことができる。
そして図中右端までを対象画素として判定した後は、次に基準画素を第3列に移し、同様に基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域に属するか否かを判定していく。そして図中右端までを対象画素として判定した後は、さらに次の列に移る。これは図16(e)〜(g)に示すように繰り返され、図中右下端部に基準画素が移動するまで行なわれる。これは、判定部133は、基準画素を一画素毎に走査するように移動させつつ判定を行なう、と言うことができる。
さらに右下端部に基準画素が達し、画素の移動がこれ以上できなくなった後は、上述した場合と逆向きに基準画素を移動させ、基準画素が左上端部に移動するまで同様の処理を行なう。これで基準画素が1回往復移動したことになる。さらに以後、収束するまでこの基準画素の往復移動を繰り返す。
これは、図17に示すように行と列の順を反転させて同様の処理を行なうと言うこともできる。またこれは、基準画素が終端位置(この場合、右下端部や左上端部)に達したときは、基準画素を逆方向に走査させるようにさらに移動させる、と言うこともできる。
なおここで挙げた例では、起点が1つの例で説明をしたが、起点を複数設定し、それぞれを移動させてもよい。また起点として画像中の画素の何れを選択してもよい。
また起点が1つの場合でも、基準画素が右下端部に達した後に、基準画素を再び左上端部から走査させるように移動させてもよい。さらに基準画素をランダムに走査させるように移動させてもよい。
そして最終的には、図16(h)に示すように、第1の指定領域と第2の指定領域に切り分けが行なわれる。
この領域拡張方法によれば、図15で説明した方法に比較して、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
なお第2の実施形態において、判定部133以外の画素選択部131、範囲設定部132、特性変更部134、収束判定部135の動作については第1の実施形態と同様である。また同様に第1の範囲は固定でも変更してもよく、そして第1の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。
またこの領域拡張方法では、選択された基準画素が一画素ずつ移動する度に、第1の範囲内の対象画素が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。これは、判定部133は、選択した一の基準画素のみを対象として第1の範囲に含まれる画素の各々について指定領域への属否の判定を行った後、新たに基準画素を一つ選択し、第1の範囲の設定および判定を再度行って、指定領域の検出を行う、と言うこともできる。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。つまりこの場合、画像全体のラベルおよび強さは一斉に変更されるわけではなく、基準画素が一画素ずつ移動する度に定まる第1の範囲内の対象画素(第1の対象画素)だけが変更の対象となる。よってこれは、いわば「非同期型」の領域拡張方法である。第1の実施形態のような「同期型」の領域拡張方法では、1回の基準画素の選択につき、ひとつ前の画像の状態のラベルおよび強さをもとに画像全体のラベルおよび強さが一斉に変更される。そのような意味で、ここでは、「同期型」と言っている。言い換えれば、(ラベルおよび強さの)状態遷移が切り替わるのが比較的遅い。しかし第2の実施形態では、「同期型」とは異なり、1回の基準画素の選択につき、1つの画素である対象画素(第1の対象画素)のラベルおよび強さだけが変更される。即ち、対象画素(第1の対象画素)以外のラベルおよび強さは、変化しない。そのような意味で、ここでは、「非同期型」と言っている。その後、再び基準画素を選択し、またその第1の範囲内の画素だけ対象画素となる。そしてこれを繰り返すことになるため、同期型よりも早く(ラベルおよび強さの)状態遷移が切り替わる、ということになる。
また第1の実施形態および第2の実施形態では、基準画素を選択し、この基準画素に対し第1の範囲内の対象画素(第1の対象画素)が、この基準画素が属する指定領域に入るか否かを判定する。この判定は、基準画素の選択およびこれに伴い設定される第1の範囲を順次変更しつつ、複数回行う。そしてこの判定は、上述したように画素値の近さや強さを比較することで行う。そしてこれにより第1の範囲内の対象画素(第1の対象画素)のラベルが変更される。この場合、基準画素は、周辺にある対象画素(第1の対象画素)に対し、影響を及ぼし、これにより対象画素(第1の対象画素)のラベルが変化するのであり、その意味でここでは、「攻撃型」と言っている。
次に第1の実施形態および第2の実施形態における領域検出部13の動作について説明を行なう。
図18は、第1の実施形態および第2の実施形態における領域検出部13の動作について説明したフローチャートである。
以下、図9および図18を使用して領域検出部13の動作を説明する。
まず画素選択部131が、指定領域に属する画素の中から選択される基準画素を選択する(ステップ101)。図10(b)の例では、画素選択部131は、この基準画素としてシード1およびシード2を選択する。
次に範囲設定部132が、基準画素に対し指定領域に含まれるかを判定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ102)。図11(b)の例では、範囲設定部132は、シード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。
そして判定部133が、第1の範囲内の対象画素が何れの指定領域に属するかを判定する(ステップ103)。このとき判定部133は、対象画素が指定領域間で競合する箇所では、強さが強い方の指定領域に属すると判定する。また画素値のユークリッド距離dを基にして判定をし、指定領域の拡散をしてもよい。
さらに特性変更部134が、判定部133において何れかの指定領域に属すると判定された対象画素について、特性を変更する(ステップ104)。具体的には、特性変更部134は、これらの対象画素に対し、ラベル付けを行ない、さらに強さを付与する。
次に収束判定部135が、一連の処理が収束したか否かを判定する(ステップ105)。この判定は、上述したようにラベルが変更される画素がなくなったときに収束したと判定してもよく予め定められた最大更新回数に達したときに収束したと判定してもよい。
そして収束判定部135が処理が収束したと判定した場合(ステップ105でYes)、指定領域の切り出しの処理を終了する。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ105でNo)、ステップ101に戻る。なおこの場合、画素選択部131で選択される基準画素は変更される。
[第3の実施形態(「受け身型」で「同期型」の場合)]
次に領域検出部13の第3の実施形態について説明を行なう。
第3の実施形態では、画素選択部131は、指定領域に含まれるか否かの判定の対象となる対象画素を1つ選択する。そして範囲設定部132は、選択された対象画素(第2の対象画素)に対し設定され、この対象画素が何れの指定領域に含まれるか否かを判定する基準画素が含まれる範囲である第2の範囲を変更する。
図19は、画素選択部131により選択される対象画素、および範囲設定部132により設定される第2の範囲について示した図である。
図19では、図10(a)で示した原画像に対し、図10(b)で示した場合と同様に基準画素をシード1およびシード2として設定される。そして対象画素(第2の対象画素)としてT1で示す一画素が選択された場合を示している。さらに第2の範囲として対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
判定部133は、対象画素T1が何れの指定領域に属するか否かを判定する。判定部133では、対象画素T1が、シード1が属する指定領域(第1の指定領域)に含まれるか、シード2が属する指定領域(第2の指定領域)に属するかの判定を行なう。
このとき例えば、対象画素T1の画素値と、第2の範囲に含まれる基準画素であるシード1およびシード2の画素値の何れに近いか否かで、対象画素T1が、第1の指定領域に属するか、第2の指定領域に属するかを判定する。即ち、画素値の近さにより判定を行う。
またこの判定は、強さを使用した方法により行うことができる。この場合、対象画素T1(第2の対象画素)が指定領域に属するかの判定を行なうときには、第2の範囲に含まれる基準画素の強さにより判定を行なうことになる。
図20は、本実施の形態による判定の結果について示した図である。
図20では、対象画素T1の画素値は、シード1の画素値よりシード2の画素値に近く、その結果、対象画素T1は、第2の指定領域に属すると判定されたことを示している。
なお特性変更部134、収束判定部135の動作については、第1の実施形態と同様である。
本実施の形態の場合も画素選択部131、範囲設定部132、判定部133、特性変更部134の処理は収束するまで繰り返し行なわれる。そしてこの処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域1および指定領域2の切り出しが行なえる。また第2の範囲は可変であり、その範囲は、更新回数により順次小さくしていくことが好ましい。
具体的には、最初は、第2の範囲は大きく設定し、ある更新回数が、ある指定回数以上になったら第2の範囲を小さくする。この指定回数は、複数指定し、第2の範囲を段階的に小さくしていってもよい。つまり初期段階では、第2の範囲は小さく設定することで、基準画素がその中に存在する可能性が高く、判定をより効率的になる。またある程度更新が進んだ段階では、第2の範囲を小さくすることで指定領域の分離精度が向上する。
本実施の形態による領域拡張方法では、対象画素T1に着目し、対象画素T1の画素値に対して第2の範囲内にある基準画素(シード1、シード2)の画素値を比較して対象画素T1が属する指定領域を決定する。つまり対象画素T1が、第2の範囲内の基準画素からの影響を受けて変化する、いわば「受け身型」の方法である。
受け身型においても、いったんあるラベルにラベル付けされた画素について、他のラベルに変更されることがあり得る。
この方法は、図8で説明した従来の領域拡張方法と類似するが、従来の領域拡張方法では、対象画素T1がこれと接する固定された周辺8画素から影響を受けるのに対し、第3の実施形態による領域拡張方法では、第2の範囲が可変であることに特徴を有する。そして第2の範囲を大きくすることで上述したように判定をより効率的に行なえる。これが周辺8画素固定であると、その中に基準画素が存在する可能性は小さくなるため、判定の効率が低下する。
またこの領域拡張方法では、領域拡張を行なう直前における画像全体のラベルおよび強さはいったん記憶される。そして選択された対象画素T1が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。そして変更後のラベルおよび強さは、再び領域拡張を行なう直前における画像全体のラベルおよび強さとして記憶され、再度領域拡張が行なわれていく。つまりこの場合、いわば「同期型」の領域拡張方法である。
また第2の範囲を小さくすることで指定領域の分離精度がより向上する。よって本実施の形態の第2の範囲については、更新回数により小さくなるように変更する。
[第4の実施形態(「受け身型」で「非同期型」の場合)]
なお上述した場合は、第1の実施形態と同様の「同期型」であったが、第2の実施形態と同様の「非同期型」を使用することもできる。以下、「受け身型」であるとともに、「非同期型」の場合を、第4の実施形態として説明を行なう。
図21(a)〜(h)は、第4の実施形態による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
図21(a)は、図10(a)に示した原画像に対し、図10(b)で示した基準画素としてのシード1およびシード2を設定した場合を示している。これは図15および図16で説明した場合と同様である。
そして図21(b)は、このとき設定される第2の範囲を示している。本実施の形態では、判定部133は、図21(b)に示すように1行1列の位置を起点とし、これをまず対象画素T1として、この対象画素T1が何れの指定領域に属するか否かを判定する。そして図21(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、対象画素T1が何れの指定領域に属するか否かを判定していく。この判定は、強さによりなされ、第1の実施形態〜第3の実施形態と同様である。
そして図中右端までを対象画素T1として判定した後は、次に対象画素T1を第2列に移し、同様に対象画素T1を図中右側に一画素ずつ移動させつつ、この対象画素T1が何れの指定領域に属するか否かを判定していく。そして図中右端まで判定した後は、さらに次の列に移る。これは図16(e)〜(g)に示すように繰り返され、図中右下端部に対象画素T1が移動するまで行なわれる。
さらに右下端部に対象画素T1が達し、画素の移動がこれ以上できなくなった後は、上述した場合と逆向きに対象画素T1を移動させ、対象画素T1が左上端部に移動するまで同様の処理を行なう。これで対象画素T1が1回往復移動したことになる。さらに以後、収束するまでこの対象画素T1の往復移動を繰り返す。
なおここで挙げた例では、起点が1つの例で説明をしたが、第3の実施形態で説明したように起点を複数設定し、それぞれを移動させてもよい。また起点として画像中の画素の何れを選択してもよい。
そして最終的には、図21(h)に示すように、第1の指定領域と第2の指定領域に切り分けが行なわれる。
この領域拡張方法でも、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
第2の範囲は固定でも変更してもよく、そして第2の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。
またこの領域拡張方法では、選択された対象画素T1が一画素ずつ移動する度に、対象画素T1が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。つまり予め定められた順で一の対象画素T1(第2の対象画素)を選択し、選択された一の対象画素T1(第2の対象画素)に対し、1回の判定を行うことを繰り返す。これは、判定部133は、指定領域に含まれる画素を基準画素として選択した一の対象画素T1(第2の対象画素)について指定領域への属否の判定を行った後、新たに対象画素T1(第2の対象画素)を一つ選択し、第2の範囲の設定および判定を再度行って、指定領域の検出を行う、と言うこともできる。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。つまりこの場合、対象画素T1が一画素ずつ移動する度に対象画素T1(第2の対象画素)だけが変更の対象となる。これは「非同期型」の領域拡張方法であると言ってよい。
また第3の実施形態および第4の実施形態では、一の対象画素T1(第2の対象画素)を選択し、この対象画素T1(第2の対象画素)に対し、第2の範囲内にある基準画素が属する指定領域に入るか否かを判定する。この判定は、対象画素T1(第2の対象画素)の選択およびこれに伴い設定される第2の範囲を順次変更しつつ、複数回行う。またこの判定は、上述したように画素値の近さや強さを比較することで行う。そしてこれにより対象画素T1(第2の対象画素)のラベルが変更される。この場合、対象画素T1(第2の対象画素)は、周辺にある基準画素から影響を及ぼされ、これにより対象画素T1(第2の対象画素)のラベルが変化するのであり、その意味でここでは、「受け身型」と言っている。
次に第3の実施形態および第4の実施形態における領域検出部13の動作について説明を行なう。
図22は、第3の実施形態および第4の実施形態における領域検出部13の動作について説明したフローチャートである。
以下、図9および図22を使用して領域検出部13の動作を説明する。
まず画素選択部131が、対象画素(第2の対象画素)を選択する(ステップ201)。図19に示した例では、画素選択部131は、対象画素T1を選択する。
次に範囲設定部132が、対象画素に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ202)。図19に示した例では、範囲設定部132は、対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲とする。
そして判定部133が、対象画素が何れの指定領域に属するかを判定する(ステップ203)。上述した例では、判定部133は、対象画素T1とシード1およびシート2の画素値の近さや強さにより判定を行なう。
さらに特性変更部134が、判定部133において対象画素が何れかの指定領域に属すると判定された場合、特性を変更する(ステップ204)。具体的には、対象画素T1にラベル付けを行ない、さらに強さを付与する。
次に収束判定部135が、一連の処理が収束したか否かを判定する(ステップ205)。この判定は、上述したようにラベルが変更される画素がなくなったときに収束したと判定してもよく予め定められた最大更新回数に達したときに収束したと判定してもよい。
そして収束判定部135が処理が収束したと判定した場合(ステップ205でYes)、指定領域の切り出しの処理を終了する。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ205でNo)、ステップ201に戻る。なおこの場合、画素選択部131で選択される対象画素(第2の対象画素)は変更される。
[第5の実施形態(「攻撃型」と「受け身型」を双方使用する場合)]
次に領域検出部13の第5の実施形態について説明を行なう。
第5の実施形態では、第1の実施形態および第2の実施形態で説明した「攻撃型」の領域拡張方法と、第3の実施形態および第4の実施形態で説明した「受け身型」の領域拡張方法の双方を使用する。つまり第5の実施形態では、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法とを更新の途中で切り替えながら領域を拡張していく。
つまり範囲設定部132は、更新の度に、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法の何れを使用するかを選択する。そして「攻撃型」の領域拡張方法を選択した場合は、第1の範囲の設定を行う。そして判定部133が、第1の範囲内の対象画素が何れの指定領域に属するかを判定する。また「受け身型」の領域拡張方法を選択した場合は、第2の範囲の設定を行う。そして判定部133が、対象画素が何れの指定領域に属するかを判定する。即ち、第1の範囲の設定と第2の範囲の設定とを少なくとも1回切り替えつつ判定を行っていく。
この切り替えの方法は、特に制限はなく、例えば、「攻撃型」と「受け身型」を交互に使用してもよい。また最初に予め定められた更新回数分「攻撃型」を使用し、その後、「受け身型」を最後まで使用する方法でもよい。また逆に最初に予め定められた更新回数分「受け身型」を使用し、その後、「攻撃型」を最後まで使用する方法でもよい。なお「攻撃型」の場合、第1の実施形態および第2の実施形態の何れも使用することができる。
このように「攻撃型」と「受け身型」を双方使用する領域拡張方法でも指定領域1および指定領域2の切り出しが行える。
また本実施の形態では、設定される第1の範囲や第2の範囲は固定でもよく、可変であってもよい。そして第1の範囲や第2の範囲は、更新回数により順次小さくしていくことが好ましい。また第1の実施形態と同様の「同期型」でも、第2の実施形態と同様の「非同期型」でも何れの方法でも使用することができる。
次に第5の実施形態における領域検出部13の動作について説明を行なう。
図23は、第5の実施形態における領域検出部13の動作について説明したフローチャートである。
以下、図9および図23を使用して領域検出部13の動作を説明する。
まず画素選択部131が、「攻撃型」と「受け身型」の何れを使用するかを選択する(ステップ301)。
そして画素選択部131が、「攻撃型」を選択した場合(ステップ302でYes)、画素選択部131が、指定領域に属する画素の中から選択される基準画素を選択する(ステップ303)。
また範囲設定部132が、この基準画素に対し指定領域に含まれるかを判定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ304)。
さらに判定部133が、第1の範囲内の対象画素が何れの指定領域に属するかを判定する(ステップ305)。
対して画素選択部131が、「受け身型」を選択した場合(ステップ302でNo)、画素選択部131が、対象画素T1(第2の対象画素)を選択する(ステップ306)。
また範囲設定部132が、この対象画素T1に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ307)。
さらに判定部133が、対象画素T1が何れの指定領域に属するかを判定する(ステップ308)。
次に特性変更部134が、判定部133において何れかの指定領域に属すると判定された対象画素T1について、特性を変更する(ステップ309)。
そして収束判定部135が、一連の処理が収束したか否かを判定する(ステップ310)。
収束判定部135が処理が収束したと判定した場合(ステップ310でYes)、指定領域の切り出しの処理を終了する。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ310でNo)、ステップ301に戻る。なおこの場合、画素選択部131で選択される基準画素または対象画素(第2の対象画素)は変更される。
[第6の実施形態(前処理を行う場合)]
図24は、第6の実施形態における領域検出部13の機能構成例を表すブロック図である。
図示するように本実施の形態の領域検出部13は、図9に示した領域検出部13と同様に、画素選択部131と、範囲設定部132と、判定部133と、特性変更部134と、収束判定部135とを備える。これらの動作は、図9で示した領域検出部13と同様である。即ち、図24で示した領域検出部13も、第1の実施形態〜第5の実施形態で説明した動作を行う。
一方、図24で示した領域検出部13は、図9に示した領域検出部13に比較して、前処理部136をさらに備える点で異なる。以後、前処理部136の動作を中心に本実施の形態の領域検出部13の説明を行う。
図25は、本実施の形態で使用する画像Gに対してシードを描いた場合を示している。
画像Gは、ネクタイを締めたスーツ姿の男性の写真である。そしてユーザが、この画像G中のネクタイの部分にシード1を描き、ネクタイ以外の部分にシード2を描いた場合を示している。つまりユーザは、ネクタイの部分とネクタイ以外の部分とを分け、指定領域として切り出したい意図でシードを描いている。
図26(a)〜(b)は、画像Gのネクタイの一部を拡大した画像を示している。
このうち図26(a)は、拡大する箇所を太線の矩形で示している。そして図26(b)は、この箇所を拡大後の画像を示している。
図26(b)に示すようにネクタイの部分は、細かな模様が組み合わさった画像となっている。
図27は、図25〜図26で示した画像Gに対し、図9に示した領域検出部13を使用して指定領域の切り出しを行った場合を示した図である。
ここで「第1の指定領域(S1)」は、画像Gからネクタイの部分が切り出されるはずである。また「第2の指定領域(S2)」は、画像Gからネクタイ以外の部分が切り出されるはずである。しかしながら実際には、「第1の指定領域(S1)」は、正確にネクタイの部分を切り出すことができず、「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界は、いびつとなっている。
図28(a)〜(b)は、対象画素に対する周辺画素の影響について示した図である。
図28(a)〜(b)では、4画素×4画素からなる画像のうち2行2列に位置する対象画素に対し、この対象画素の周辺の8画素が与える強さを表している。ここで周辺の8画素と対象画素とは、線により結ばれているが、これは、周辺の画素が対象画素に与える強さを表す。即ち、強さがより大きいほどこの線は太くなり、強さがより小さいほどこの線は細くなるように図示している。
そして図28(a)は、図26(b)に示したような画像において、対象画素に対する周辺画素の影響を示している。図示するように対象画素に対する周辺画素の強さは、ばらついている。このばらつきは、上述した細かな模様に起因する。そしてこのばらつきにより対象画素が何れの指定領域に属するかを判定する際に、誤った結果となりやすく、図27で示すような切り出し結果となると考えられる。
そこで本実施の形態では、前処理部136を設け、指定領域を切り出す前に、画像をぼかす処理を行なう。
図29(a)は、図26(b)と同様の画像であり、前処理部136によりぼかす前の画像を示している。対して図29(b)は、前処理部136によりぼかした後の画像を示している。
この場合、図28(a)で示したようなばらつきが緩和される。そして対象画素に対する周辺画素の影響は図28(b)で示すようにより均一なものとなる。その結果、対象画素が何れの指定領域に属するかを判定する際の精度が向上する。
前処理部136は、画像をぼかす処理のために、例えば、低周波フィルタを使用する。
ここで画像中(x、y)の位置にある画素の画素値をI(x、y)とし、低周波フィルタの関数をG(x、y)とすると、ぼかす処理後の画素値I(x、y)は、I(x、y)をG(x、y)により畳み込む以下の数4式により算出することができる。なお画素値は、画素の輝度成分でもよく、色度成分でもよい。またRGB値であってもよい。
また低周波フィルタの関数をG(x、y)は、例えば、以下の数5式で表される関数を例示することができる。なお数5式でσは、滑らかさの度合いをコントロールするパラメータである。
また低周波フィルタとして、以下の数6式に示すDOGフィルタGDOG(x、y)を使用してもよい。このDOGフィルタGDOG(x、y)は、画像中の特定の帯域を強調するものである。なお数6式では、パラメータσ、σ、Aを制御することで、変化する周波数帯域が変化する。即ち、σが小さいほど高周波への反応が強くなる。なおσはσよりも大きな値を設定する。Aは数6式右辺の第1項と第2項の相対的な強さを制御し、Aが0に近づくほど「ぼかし」のフィルタに近づく。
その他にも、数5式のような関数と周辺画素との輝度差との積でフィルタリングを行うバイラテラルフィルタを用いてもよい。これにより画像を滑らかにしつつエッジを強調することができ、指定領域の切り出しの精度がより向上する。
図30は、前処理部136により画像をぼかす処理を行ない、その後、第1の実施形態〜第5の実施形態による方法を使用して指定領域の切り出しを行った場合を示した図である。
図示するように「第1の指定領域(S1)」は、正確にネクタイの部分を切り出した領域となっており、「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界は、いびつとはなっていない。
以上詳述した領域検出部13の構成によれば、領域拡張方法を使用して指定領域の切り出す場合、指定領域の切り出しが、従来に比較してより高速になる。
なお画像情報取得部11で取得する画像の視認性が悪い場合、予めRetinex処理などを行うことで視認性を高めることができる。
画像の画素位置(x、y)の画素値(輝度値)をI(x、y)として、視認性を高めた画像の画素値I’(x、y)とすると、Retinex処理によって、以下のように視認性を向上させることができる。
I’(x、y)=αR(x、y)+(1―α)I(x、y)
αは、反射率を強調するパラメータ、R(x、y)は推定反射率成分であり、Retinexモデルでは、反射率成分を強調することで視認性を高めることができる。本実施の形態では、R(x、y)の算出は、既存のRetinexモデルのいかなる方法でもよいものとする。0≦α≦1とすれば、α=0のときは原画像を表し、α=1のときは反射率画像(最大の視認性)を表す。αはユーザが調整してもよいし、または画像の暗さに応じて、対応づけておいてもよい。
図31(a)〜(b)は、Retinex処理を行い、原画像に対し視認性向上を行なった場合の概念図である。
このうち図31(a)は、原画像であり、図31(b)は、Retinex処理を行なった後の画像である。このように視認性向上を行なうことで、指定領域の切り出しの精度がより向上する。
なお以上説明した領域検出部13で行われる処理は、画像中の指定領域に含まれる画素であって指定領域に属する強さを有する画素を基準画素として選択し、基準画素周辺の特定の範囲を第1の範囲として設定すると共に第1の範囲に含まれる画素を対象画素とし、基準画素の有する強さおよび基準画素の対象画素に及ぼす影響力に基づいて、対象画素の指定領域への属否を判定する領域判定方法として捉えることもできる。
さらに画像中の指定領域に含まれる画素であって指定領域に属する強さを有する画素を基準画素として選択し、基準画素周辺にある対象画素に対し、基準画素の有する強さおよび基準画素が対象画素に及ぼす影響力に基づいて、対象画素の指定領域に属する強さを判定し、判定した画素を新たに基準画素として選択し判定を再度行って指定領域の検出を行う領域判定方法として捉えることもできる。
<領域判定装置のハードウェア構成例>
次に、領域判定装置10のハードウェア構成について説明する。
図32は、領域判定装置10のハードウェア構成を示した図である。
領域判定装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、領域判定装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、領域判定装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
<プログラムの説明>
ここで以上説明を行った本実施の形態における領域判定装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
よって本実施の形態で、領域判定装置10が行なう処理は、コンピュータに、画像中の指定領域に含まれる画素であって指定領域に属する強さを有する画素を基準画素として選択する機能と、基準画素周辺の特定の範囲を第1の範囲として設定すると共に第1の範囲に含まれる画素を対象画素とし、基準画素の有する強さおよび基準画素の対象画素に及ぼす影響力に基づいて、対象画素の指定領域への属否を判定する機能と、を実現させるプログラムとして捉えることもできる。
またコンピュータに、画像中の指定領域に含まれる画素であって指定領域に属する強さを有する画素を基準画素として選択する機能と、基準画素周辺にある対象画素に対し、基準画素の有する強さおよび基準画素が対象画素に及ぼす影響力に基づいて、対象画素の指定領域に属する強さを判定する機能と、を実現させ、判定した画素を新たに基準画素として選択し判定を再度行って指定領域の検出を行うプログラムとして捉えることもできる。
なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。
以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
1…領域判定システム、10…領域判定装置、11…画像情報取得部、12…ユーザ指示受付部、13…領域検出部、14…領域切替部、15…画像処理部、16…画像情報出力部、20…表示装置、30…入力装置、131…画素選択部、132…範囲設定部、133…判定部、134…特性変更部、135…収束判定部、136…前処理部

Claims (10)

  1. 画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する手段と、
    前記基準画素周辺の特定の範囲を第1の範囲として設定すると共に当該第1の範囲に含まれる画素を対象画素とし、当該基準画素の有する前記強さおよび当該基準画素の当該対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域への属否を判定する手段と、を有する領域判定装置。
  2. 画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する手段と、
    前記基準画素周辺にある対象画素に対し、当該基準画素の有する前記強さおよび当該基準画素が前記対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域に属する強さを判定する手段と、を有し、
    前記判定した画素を新たに前記基準画素として選択し当該判定を再度行って前記指定領域の検出を行う領域判定装置。
  3. 前記対象画素の前記指定領域への属否を判定する手段は、前記判定を繰り返すにつれて前記第1の範囲を小さくなるように設定していくことを特徴とする請求項1に記載の領域判定装置。
  4. 前記対象画素の前記指定領域への属否を判定する手段は、当該対象画素について前記指定領域への属否を判定するときに、前記基準画素と当該対象画素との画素値の近さにより判定を行なうことを特徴とする請求項1に記載の領域判定装置。
  5. 前記対象画素の前記指定領域への属否を判定する手段は、当該対象画素が当該指定領域に属するとの判定をしたときに、当該対象画素に対し何れの指定領域に属するかを表すラベルと当該ラベルに対応する前記強さとを変更することを特徴とする請求項に記載の領域判定装置。
  6. 前記対象画素の前記指定領域への属否を判定する手段は、当該対象画素の当該指定領域への属否を判定する前に、画像をぼかす処理を行なうことを特徴とする請求項に記載の領域判定装置。
  7. 画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択し、
    前記基準画素周辺の特定の範囲を第1の範囲として設定すると共に当該第1の範囲に含まれる画素を対象画素とし、当該基準画素の有する前記強さおよび当該基準画素の当該対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域への属否を判定する領域判定方法。
  8. 画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択し、
    前記基準画素周辺にある対象画素に対し、当該基準画素の有する前記強さおよび当該基準画素が前記対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域に属する強さを判定し、
    前記判定した画素を新たに前記基準画素として選択し当該判定を再度行って前記指定領域の検出を行う領域判定方法。
  9. コンピュータに、
    画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する機能と、
    前記基準画素周辺の特定の範囲を第1の範囲として設定すると共に当該第1の範囲に含まれる画素を対象画素とし、当該基準画素の有する前記強さおよび当該基準画素の当該対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域への属否を判定する機能と、
    を実現させるプログラム。
  10. コンピュータに、
    画像中の指定領域に含まれる画素であって当該指定領域に属する強さを有する画素を基準画素として選択する機能と、
    前記基準画素周辺にある対象画素に対し、当該基準画素の有する前記強さおよび当該基準画素が前記対象画素に及ぼす影響力に基づいて、当該対象画素の前記指定領域に属する強さを判定する機能と、を実現させ、
    前記判定した画素を新たに前記基準画素として選択し当該判定を再度行って前記指定領域の検出を行うプログラム。
JP2015110623A 2014-05-30 2015-05-29 領域判定装置、領域判定方法およびプログラム Expired - Fee Related JP5854162B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015110623A JP5854162B2 (ja) 2014-05-30 2015-05-29 領域判定装置、領域判定方法およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014113459 2014-05-30
JP2014113459 2014-05-30
JP2015110623A JP5854162B2 (ja) 2014-05-30 2015-05-29 領域判定装置、領域判定方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015118740A Division JP5880767B2 (ja) 2014-05-30 2015-06-11 領域判定装置、領域判定方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016006645A JP2016006645A (ja) 2016-01-14
JP5854162B2 true JP5854162B2 (ja) 2016-02-09

Family

ID=54702170

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015110623A Expired - Fee Related JP5854162B2 (ja) 2014-05-30 2015-05-29 領域判定装置、領域判定方法およびプログラム
JP2015118740A Active JP5880767B2 (ja) 2014-05-30 2015-06-11 領域判定装置、領域判定方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015118740A Active JP5880767B2 (ja) 2014-05-30 2015-06-11 領域判定装置、領域判定方法およびプログラム

Country Status (4)

Country Link
US (2) US20150347862A1 (ja)
JP (2) JP5854162B2 (ja)
CN (1) CN105321165B (ja)
AU (1) AU2014268155B1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894491A (zh) * 2015-12-07 2016-08-24 乐视云计算有限公司 图像高频信息的定位方法和装置
JP6930099B2 (ja) * 2016-12-08 2021-09-01 富士フイルムビジネスイノベーション株式会社 画像処理装置
JP2018151994A (ja) * 2017-03-14 2018-09-27 富士通株式会社 画像処理方法、画像処理プログラム、及び画像処理装置
JP2019101844A (ja) * 2017-12-05 2019-06-24 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP7154877B2 (ja) * 2018-08-22 2022-10-18 キヤノン株式会社 画像投射装置、画像投射装置の制御方法、および、プログラム
CN112866631B (zh) * 2020-12-30 2022-09-02 杭州海康威视数字技术股份有限公司 一种区域确定方法、系统、装置及电子设备
CN116469025B (zh) * 2022-12-30 2023-11-24 以萨技术股份有限公司 一种识别任务的处理方法、电子设备及存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048212A (ja) * 1998-07-31 2000-02-18 Canon Inc 画像処理方法及び装置、記録媒体
JP2001043376A (ja) * 1999-07-30 2001-02-16 Canon Inc 画像抽出方法及び装置並びに記憶媒体
JP3426189B2 (ja) * 2000-04-26 2003-07-14 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像処理方法、相対濃度の検出方法、および画像処理装置
US7260259B2 (en) * 2002-01-08 2007-08-21 Siemens Medical Solutions Usa, Inc. Image segmentation using statistical clustering with saddle point detection
US7483023B2 (en) * 2005-03-17 2009-01-27 Siemens Medical Solutions Usa, Inc. Model based adaptive multi-elliptical approach: a one click 3D segmentation approach
US7636128B2 (en) * 2005-07-15 2009-12-22 Microsoft Corporation Poisson matting for images
US8508546B2 (en) * 2006-09-19 2013-08-13 Adobe Systems Incorporated Image mask generation
CN100545865C (zh) * 2007-01-24 2009-09-30 中国科学院自动化研究所 一种对图像初始分割边界进行优化的自动分割方法
CN101404085B (zh) * 2008-10-07 2012-05-16 华南师范大学 交互式三维体分割序列图像的分割方法及其应用
CN101840577B (zh) * 2010-06-11 2012-07-25 西安电子科技大学 基于图切割的图像自动分割方法
JP5615238B2 (ja) * 2011-07-12 2014-10-29 富士フイルム株式会社 分版条件決定装置、方法及びプログラム
JP5846357B2 (ja) * 2011-08-15 2016-01-20 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
CN103049907B (zh) * 2012-12-11 2016-06-29 深圳市旭东数字医学影像技术有限公司 交互式图像分割方法
CN103578107B (zh) * 2013-11-07 2016-09-14 中科创达软件股份有限公司 一种交互式图像分割方法

Also Published As

Publication number Publication date
JP2016006645A (ja) 2016-01-14
US20150347862A1 (en) 2015-12-03
CN105321165B (zh) 2018-08-24
US20160283819A1 (en) 2016-09-29
JP5880767B2 (ja) 2016-03-09
CN105321165A (zh) 2016-02-10
AU2014268155B1 (en) 2015-12-10
JP2016006647A (ja) 2016-01-14

Similar Documents

Publication Publication Date Title
JP5854162B2 (ja) 領域判定装置、領域判定方法およびプログラム
JP5858188B1 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2017126304A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US20130016246A1 (en) Image processing device and electronic apparatus
JP5867198B2 (ja) 領域指定方法及び領域指定装置
JP6287337B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US20170039683A1 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
JP5907196B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP6241320B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN110502205B (zh) 图片显示边缘处理方法、装置、电子设备和可读存储介质
US9495757B2 (en) Image processing apparatus and image processing method
JP6269323B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2011013791A (ja) 文書処理装置及びプログラム
JP6550819B2 (ja) 選択支援装置及びプログラム
JP3855889B2 (ja) フォント処理装置、端末装置、表示装置、フォント処理方法およびフォント処理プログラム
JP7363235B2 (ja) 情報処理装置及び情報処理プログラム
JP6930099B2 (ja) 画像処理装置
JP2018097415A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2017162035A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2016004309A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN116823972A (zh) 一种信息处理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151123

R150 Certificate of patent or registration of utility model

Ref document number: 5854162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees