JP5858188B1 - 画像処理装置、画像処理方法、画像処理システムおよびプログラム - Google Patents
画像処理装置、画像処理方法、画像処理システムおよびプログラム Download PDFInfo
- Publication number
- JP5858188B1 JP5858188B1 JP2015120622A JP2015120622A JP5858188B1 JP 5858188 B1 JP5858188 B1 JP 5858188B1 JP 2015120622 A JP2015120622 A JP 2015120622A JP 2015120622 A JP2015120622 A JP 2015120622A JP 5858188 B1 JP5858188 B1 JP 5858188B1
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- designated
- region
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/026—Control of mixing and/or overlay of colours in general
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0242—Compensation of deficiencies in the appearance of colours
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0666—Adjustment of display parameters for control of colour parameters, e.g. colour temperature
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0457—Improvement of perceived resolution by subpixel rendering
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/06—Colour space transformation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/12—Use of DVI or HDMI protocol in interfaces along the display data pipeline
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
【課題】指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理装置等を提供する。【解決手段】画像中の指定領域の代表位置を表す位置情報を取得するユーザ指示受付部12と、位置情報から指定領域を検出する第1の領域検出部13および第2の領域検出部15と、を備え、第2の領域検出部15は、予め定められた領域において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に予め定められた領域において指定領域を再度検出することを特徴とする画像処理装置10。【選択図】図2
Description
本発明は、画像処理装置、画像処理方法、画像処理システム、プログラムに関する。
特許文献1には、画像取得部が、X線CT装置から複数のCT画像を取得して3次元画像を生成し、低解像度画像生成部が、3次元画像M0を多重解像度変換して低解像度画像を生成し、第1抽出部が、低解像度画像からグラフカット法を用いて肝臓領域等の特定領域を抽出し、輪郭領域設定部が、低解像度画像から抽出した肝臓領域の輪郭を3次元画像に設定し、輪郭を含む輪郭領域を3次元画像に設定する第2抽出部が、輪郭領域から肝臓領域の輪郭を抽出し、かつ3次元画像から肝臓領域を抽出する画像処理装置が開示されている。
ユーザが画像処理を行なう際には、ユーザが画像処理を行なう領域として指定する指定領域を切り出す処理が必要となる。
本発明は、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理装置等を提供することを目的とする。
本発明は、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理装置等を提供することを目的とする。
請求項1に記載の発明は、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、位置情報から指定領域を検出する領域検出部と、を備え、前記領域検出部は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理装置である。
請求項2に記載の発明は、前記領域検出部は、第1の領域検出部と第2の領域検出部とを含み、前記第1の領域検出部は、位置情報から指定領域を検出し、前記第2の領域検出部は、拡大された指定領域の境界部において、当該指定領域の設定を解除することを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記位置情報取得部は、追加の位置情報を取得し、前記領域検出部は、追加の位置情報の周辺に対応する画素についてさらに前記指定領域の設定を解除することを特徴とする請求項1に記載の画像処理装置である。
請求項4に記載の発明は、前記位置情報取得部は、位置情報の少なくとも一部を消去する消去情報をさらに取得し、前記領域検出部は、前記消去情報により少なくとも一部が消去された位置情報から指定領域を検出することを特徴とする請求項1に記載の画像処理装置である。
請求項5に記載の発明は、ユーザが指定領域を指定する際に使用する画像の画像サイズを変更するとともに、変更された画像のサイズに合わせて位置情報を変更する画像サイズ変更部をさらに備え、前記領域検出部は、変更された位置情報を基に指定領域を検出することを特徴とする請求項1に記載の画像処理装置である。
請求項6に記載の発明は、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、位置情報から指定領域を検出する第1の領域検出部と、検出された指定領域を拡大する指定領域拡大部と、拡大された指定領域の境界部において、当該境界部以外の領域に属する画素の中から選択された基準画素を基に指定領域を再度検出する第2の領域検出部と、を備えることを特徴とする画像処理装置である。
請求項7に記載の発明は、ユーザが指定領域を指定する際に使用する画像の画像サイズを変更するとともに、変更された画像のサイズに合わせて位置情報を変更する画像サイズ変更部をさらに備え、前記第1の領域検出部は、変更された位置情報を基に指定領域を検出することを特徴とする請求項6に記載の画像処理装置である。
請求項8に記載の発明は、前記画像サイズ変更部は、ユーザが指定領域を指定する際に使用する画像と位置情報とを分離し、各々を別々に変更することを特徴とする請求項7に記載の画像処理装置である。
請求項9に記載の発明は、前記第2の領域検出部は、前記指定領域拡大部で拡大された指定領域の境界の画素を中心として指定領域の設定を解除するフィルタを適用し、指定領域の設定を解除された画素に対し解除されていない画素を前記基準画素として指定領域を再度検出することを特徴とする請求項6乃至8の何れか1項に記載の画像処理装置である。
請求項10に記載の発明は、前記第2の領域検出部は、前記拡大された指定領域に属する画素の中から選択された基準画素に対し設定され、当該指定領域に含まれるか否かを決定する対象画素である第1の対象画素の範囲である第1の範囲を設定、または選択された対象画素である第2の対象画素に対し設定され、当該第2の対象画素が何れの指定領域に含まれるか否かを決定する当該基準画素が含まれる範囲である第2の範囲を変更する範囲設定部と、前記第1の対象画素または前記第2の対象画素が何れの指定領域に属するかを決定する決定部と、を備えることを特徴とする請求項6乃至9の何れか1項に記載の画像処理装置である。
請求項11に記載の発明は、前記第1の領域検出部は、指定領域に属する画素の中から選択された基準画素に対し設定され、当該指定領域に含まれるか否かを決定する対象画素である第1の対象画素の範囲である第1の範囲を設定、または選択された対象画素である第2の対象画素に対し設定され、当該第2の対象画素が何れの指定領域に含まれるか否かを決定する当該基準画素が含まれる範囲である第2の範囲を変更する範囲設定部と、前記第1の対象画素または前記第2の対象画素が何れの指定領域に属するかを決定する決定部と、を備えることを特徴とする請求項6乃至10の何れか1項に記載の画像処理装置である。
請求項12に記載の発明は、前記位置情報取得部は、追加の位置情報を取得し、前記第1の領域検出部は、追加の位置情報に基づき指定領域を検出することを特徴とする請求項6乃至11の何れか1項に記載の画像処理装置である。
請求項13に記載の発明は、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得工程と、位置情報から指定領域を検出する領域検出工程と、を備え、前記領域検出工程は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理方法である。
請求項14に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、位置情報から指定領域を検出する領域検出部と、を備え、前記領域検出部は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理システムである。
請求項15に記載の発明は、コンピュータに、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得機能と、位置情報から指定領域を検出する領域検出機能と、を実現させ、前記領域検出機能は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とするプログラムである。
請求項2に記載の発明は、前記領域検出部は、第1の領域検出部と第2の領域検出部とを含み、前記第1の領域検出部は、位置情報から指定領域を検出し、前記第2の領域検出部は、拡大された指定領域の境界部において、当該指定領域の設定を解除することを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記位置情報取得部は、追加の位置情報を取得し、前記領域検出部は、追加の位置情報の周辺に対応する画素についてさらに前記指定領域の設定を解除することを特徴とする請求項1に記載の画像処理装置である。
請求項4に記載の発明は、前記位置情報取得部は、位置情報の少なくとも一部を消去する消去情報をさらに取得し、前記領域検出部は、前記消去情報により少なくとも一部が消去された位置情報から指定領域を検出することを特徴とする請求項1に記載の画像処理装置である。
請求項5に記載の発明は、ユーザが指定領域を指定する際に使用する画像の画像サイズを変更するとともに、変更された画像のサイズに合わせて位置情報を変更する画像サイズ変更部をさらに備え、前記領域検出部は、変更された位置情報を基に指定領域を検出することを特徴とする請求項1に記載の画像処理装置である。
請求項6に記載の発明は、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、位置情報から指定領域を検出する第1の領域検出部と、検出された指定領域を拡大する指定領域拡大部と、拡大された指定領域の境界部において、当該境界部以外の領域に属する画素の中から選択された基準画素を基に指定領域を再度検出する第2の領域検出部と、を備えることを特徴とする画像処理装置である。
請求項7に記載の発明は、ユーザが指定領域を指定する際に使用する画像の画像サイズを変更するとともに、変更された画像のサイズに合わせて位置情報を変更する画像サイズ変更部をさらに備え、前記第1の領域検出部は、変更された位置情報を基に指定領域を検出することを特徴とする請求項6に記載の画像処理装置である。
請求項8に記載の発明は、前記画像サイズ変更部は、ユーザが指定領域を指定する際に使用する画像と位置情報とを分離し、各々を別々に変更することを特徴とする請求項7に記載の画像処理装置である。
請求項9に記載の発明は、前記第2の領域検出部は、前記指定領域拡大部で拡大された指定領域の境界の画素を中心として指定領域の設定を解除するフィルタを適用し、指定領域の設定を解除された画素に対し解除されていない画素を前記基準画素として指定領域を再度検出することを特徴とする請求項6乃至8の何れか1項に記載の画像処理装置である。
請求項10に記載の発明は、前記第2の領域検出部は、前記拡大された指定領域に属する画素の中から選択された基準画素に対し設定され、当該指定領域に含まれるか否かを決定する対象画素である第1の対象画素の範囲である第1の範囲を設定、または選択された対象画素である第2の対象画素に対し設定され、当該第2の対象画素が何れの指定領域に含まれるか否かを決定する当該基準画素が含まれる範囲である第2の範囲を変更する範囲設定部と、前記第1の対象画素または前記第2の対象画素が何れの指定領域に属するかを決定する決定部と、を備えることを特徴とする請求項6乃至9の何れか1項に記載の画像処理装置である。
請求項11に記載の発明は、前記第1の領域検出部は、指定領域に属する画素の中から選択された基準画素に対し設定され、当該指定領域に含まれるか否かを決定する対象画素である第1の対象画素の範囲である第1の範囲を設定、または選択された対象画素である第2の対象画素に対し設定され、当該第2の対象画素が何れの指定領域に含まれるか否かを決定する当該基準画素が含まれる範囲である第2の範囲を変更する範囲設定部と、前記第1の対象画素または前記第2の対象画素が何れの指定領域に属するかを決定する決定部と、を備えることを特徴とする請求項6乃至10の何れか1項に記載の画像処理装置である。
請求項12に記載の発明は、前記位置情報取得部は、追加の位置情報を取得し、前記第1の領域検出部は、追加の位置情報に基づき指定領域を検出することを特徴とする請求項6乃至11の何れか1項に記載の画像処理装置である。
請求項13に記載の発明は、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得工程と、位置情報から指定領域を検出する領域検出工程と、を備え、前記領域検出工程は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理方法である。
請求項14に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、位置情報から指定領域を検出する領域検出部と、を備え、前記領域検出部は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理システムである。
請求項15に記載の発明は、コンピュータに、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得機能と、位置情報から指定領域を検出する領域検出機能と、を実現させ、前記領域検出機能は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とするプログラムである。
請求項1の発明によれば、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理装置が提供できる。さらに切り出し精度が低下しやすい箇所において切り出し精度を高くすることができる。
請求項2の発明によれば、高解像度の画像を使用した場合でも、指定領域の切り出しを行なう際の処理速度の向上を図ることができる。
請求項3の発明によれば、追加の位置情報により指定領域の切り出しを行なう際の切り出し精度を高くすることができる。
請求項4の発明によれば、ユーザが、位置情報の修正を行うことができる。
請求項5の発明によれば、指定領域の切り出しを行なう際の画像サイズを選択することができる。
請求項6の発明によれば、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理装置が提供できる。
請求項7の発明によれば、ユーザが指定領域を指定する画像、第1の領域検出部で指定領域を切り出す画像、および第2の領域検出部で指定領域を切り出す画像のサイズがそれぞれ異なっていても処理が可能になる。
請求項8の発明によれば、位置情報の精度がより向上する。
請求項9の発明によれば、指定領域の設定の解除がより容易になる。
請求項10の発明によれば、第2の領域検出部における指定領域の切り出しの処理がより高速化する。
請求項11の発明によれば、第1の領域検出部における指定領域の切り出しの処理がより高速化する。
請求項12の発明によれば、追加の位置情報により指定領域の切り出しを行なう際の切り出し精度を高くすることができる。
請求項13の発明によれば、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理方法が提供できる。さらに切り出し精度が低下しやすい箇所において切り出し精度を高くすることができる。
請求項14の発明によれば、画像処理がより容易に行える画像処理システムが提供できる。
請求項15の発明によれば、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる機能をコンピュータにより実現できる。さらに切り出し精度が低下しやすい箇所において切り出し精度を高くすることができる。
請求項2の発明によれば、高解像度の画像を使用した場合でも、指定領域の切り出しを行なう際の処理速度の向上を図ることができる。
請求項3の発明によれば、追加の位置情報により指定領域の切り出しを行なう際の切り出し精度を高くすることができる。
請求項4の発明によれば、ユーザが、位置情報の修正を行うことができる。
請求項5の発明によれば、指定領域の切り出しを行なう際の画像サイズを選択することができる。
請求項6の発明によれば、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理装置が提供できる。
請求項7の発明によれば、ユーザが指定領域を指定する画像、第1の領域検出部で指定領域を切り出す画像、および第2の領域検出部で指定領域を切り出す画像のサイズがそれぞれ異なっていても処理が可能になる。
請求項8の発明によれば、位置情報の精度がより向上する。
請求項9の発明によれば、指定領域の設定の解除がより容易になる。
請求項10の発明によれば、第2の領域検出部における指定領域の切り出しの処理がより高速化する。
請求項11の発明によれば、第1の領域検出部における指定領域の切り出しの処理がより高速化する。
請求項12の発明によれば、追加の位置情報により指定領域の切り出しを行なう際の切り出し精度を高くすることができる。
請求項13の発明によれば、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる画像処理方法が提供できる。さらに切り出し精度が低下しやすい箇所において切り出し精度を高くすることができる。
請求項14の発明によれば、画像処理がより容易に行える画像処理システムが提供できる。
請求項15の発明によれば、指定領域の切り出しを行なう際に、一度指定領域の検出がなされた領域について当該指定領域の解除を行わずに切り出しを行う場合に比べて指定領域の切り出しの精度を高くすることができるとともに、一度指定領域の検出がなされた領域の全てをリセットし新たに受け付けた代表位置の位置情報を用いて再び領域検出をし切り出しを行う場合に比べて処理速度の向上を図ることができる機能をコンピュータにより実現できる。さらに切り出し精度が低下しやすい箇所において切り出し精度を高くすることができる。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<発明の背景>
例えば、カラーの画像の画質調整を行なうときには、カラーの画像全体に対し行なう場合とカラーの画像中において領域別に行なう場合がある。カラーの画像を表現する要素は、一般にRGB等の色成分、L*a*b*等の輝度と色度、またはHSVなどの輝度と色相と彩度により表すことができる。また画質を制御する代表例としては、色成分のヒストグラム制御、輝度のコントラスト制御、輝度のヒストグラム制御、輝度の帯域制御、色相制御、彩度制御などが挙げられる。また近年では、Retinex等のように視認性を表す画質についての制御も重要視されている。色や輝度の帯域に基づく画質を制御する場合、特に特定の領域に対してのみ画質調整を行うときは、この領域を切り出す処理が必要となる。
例えば、カラーの画像の画質調整を行なうときには、カラーの画像全体に対し行なう場合とカラーの画像中において領域別に行なう場合がある。カラーの画像を表現する要素は、一般にRGB等の色成分、L*a*b*等の輝度と色度、またはHSVなどの輝度と色相と彩度により表すことができる。また画質を制御する代表例としては、色成分のヒストグラム制御、輝度のコントラスト制御、輝度のヒストグラム制御、輝度の帯域制御、色相制御、彩度制御などが挙げられる。また近年では、Retinex等のように視認性を表す画質についての制御も重要視されている。色や輝度の帯域に基づく画質を制御する場合、特に特定の領域に対してのみ画質調整を行うときは、この領域を切り出す処理が必要となる。
一方、近年のICT(Information and Communication Technology)機器の増加に伴って、画像処理の幅が広がったことから、上記のように画像加工・画像編集も様々なアプローチが考えられる。この場合、タブレット端末等に代表されるICT機器の利点は、タッチパネル等による直観性であり、ユーザインタラクティブ性が高まった中での画像加工・画像編集が行えることが特徴である。
また近年のデザインや医療等の分野における画像の切り出し処理は、高解像度画像を対象にする場合が多い。例えば、デザインの分野では、高解像度画像は、切り出し領域の色調整や質感などを変更する作業などに使用されることがある。また後工程が高解像度画像を要求するプリント出力である場合もある。このようなときは、高解像度画像へのマスキング(切り出し領域)が必要となることが多い。
以上の状況を踏まえ、本実施の形態では、以下のような画像処理システム1を用いて、特定の領域の切り出しや画質調整を行なう。
<画像処理システム全体の説明>
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
画像処理装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、画像処理装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、画像情報の作成等が行われるようになっている。
表示装置20は、表示画面21に画像を表示する。表示装置20は、例えばPC用の液晶ディスプレイ、液晶テレビあるいはプロジェクタなど、加法混色にて画像を表示する機能を備えたもので構成される。したがって、表示装置20における表示方式は、液晶方式に限定されるものではない。なお、図1に示す例では、表示装置20内に表示画面21が設けられているが、表示装置20として例えばプロジェクタを用いる場合、表示画面21は、表示装置20の外部に設けられたスクリーン等となる。
入力装置30は、キーボードやマウス等で構成される。入力装置30は、画像処理を行なうためのアプリケーションソフトウェアの起動、終了や、詳しくは後述するが、画像処理を行なう際に、ユーザが画像処理装置10に対し画像処理を行なうための指示を入力するのに使用する。
画像処理装置10および表示装置20は、DVI(Digital Visual Interface)を介して接続されている。なお、DVIに代えて、HDMI(登録商標)(High-Definition Multimedia Interface)やDisplayPort等を介して接続するようにしてもかまわない。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
このような画像処理システム1において、表示装置20には、まず最初に画像処理を行なう前の画像である原画像が表示される。そしてユーザが入力装置30を使用して、画像処理装置10に対し画像処理を行なうための指示を入力すると、画像処理装置10により原画像の画像情報に対し画像処理がなされる。この画像処理の結果は、表示装置20に表示される画像に反映され、画像処理後の画像が再描画されて表示装置20に表示されることになる。この場合、ユーザは、表示装置20を見ながらインタラクティブに画像処理を行なうことができ、より直感的に、またより容易に画像処理の作業を行える。
なお本実施の形態における画像処理システム1は、図1の形態に限られるものではない。例えば、画像処理システム1としてタブレット端末を例示することができる。この場合、タブレット端末は、タッチパネルを備え、このタッチパネルにより画像の表示を行なうとともにユーザの指示が入力される。即ち、タッチパネルが、表示装置20および入力装置30として機能する。また同様に表示装置20および入力装置30を統合した装置として、タッチモニタを用いることもできる。これは、上記表示装置20の表示画面21としてタッチパネルを使用したものである。この場合、画像処理装置10により画像情報が作成され、この画像情報に基づきタッチモニタに画像が表示される。そしてユーザは、このタッチモニタをタッチ等することで画像処理を行なうための指示を入力する。
[第1の実施形態]
次に画像処理装置10について説明を行なう。まず第1の実施形態について説明を行なう。
次に画像処理装置10について説明を行なう。まず第1の実施形態について説明を行なう。
<画像処理装置の説明>
図2は、第1の実施形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち本実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、第1の領域検出部13と、指定領域拡大部14と、第2の領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。
図2は、第1の実施形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち本実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、第1の領域検出部13と、指定領域拡大部14と、第2の領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。
画像情報取得部11は、画像処理を行なう画像の画像情報を取得する。即ち、画像情報取得部11は、画像処理を行なう前の原画像の画像情報を取得する。この画像情報は、表示装置20で表示を行なうための、例えば、RGB(Red、Green、Blue)のビデオデータ(RGBデータ)である。
本実施の形態では、画像情報取得部11は、2種類の画像の画像情報を取得する。一方の画像は、高解像度の画像であり、ユーザが実際に画像処理を行いたい使用画像G’である。よって本実施の形態では、この使用画像G’に対して最終的に指定領域を切り出す必要がある。また他方の画像は、使用画像G’に対し低解像度の画像Gである。画像Gは、例えば、使用画像G’を縮小したものである。詳しくは後述するが、低解像度の画像Gは、例えば、ユーザ指示受付部12、領域切替部16、および画像処理部17でユーザの指示を受け付けるために表示装置20に表示される。また第1の領域検出部13で指定領域を切り出すために使用される。
本実施の形態では、画像情報取得部11は、2種類の画像の画像情報を取得する。一方の画像は、高解像度の画像であり、ユーザが実際に画像処理を行いたい使用画像G’である。よって本実施の形態では、この使用画像G’に対して最終的に指定領域を切り出す必要がある。また他方の画像は、使用画像G’に対し低解像度の画像Gである。画像Gは、例えば、使用画像G’を縮小したものである。詳しくは後述するが、低解像度の画像Gは、例えば、ユーザ指示受付部12、領域切替部16、および画像処理部17でユーザの指示を受け付けるために表示装置20に表示される。また第1の領域検出部13で指定領域を切り出すために使用される。
ユーザ指示受付部12は、位置情報取得部の一例であり、入力装置30により入力された画像処理に関するユーザによる指示を受け付ける。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像Gの中から、ユーザが特定の画像領域として指定した指定領域を指定する指示をユーザ指示情報として受け付ける。この特定の画像領域は、この場合、ユーザが画像処理を行なう画像領域である。実際には、本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、ユーザが入力した指定領域の代表位置を表す位置情報を取得する。
また詳しくは後述するが、ユーザ指示受付部12は、ユーザが、この指定領域の中から実際に画像処理を行なうものを選択する指示をユーザ指示情報として受け付ける。さらにユーザ指示受付部12は、選択された指定領域に対し、ユーザが画像処理を行う処理項目や処理量等に関する指示をユーザ指示情報として受け付ける。これらの内容に関するさらに詳しい説明については後述する。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像Gの中から、ユーザが特定の画像領域として指定した指定領域を指定する指示をユーザ指示情報として受け付ける。この特定の画像領域は、この場合、ユーザが画像処理を行なう画像領域である。実際には、本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、ユーザが入力した指定領域の代表位置を表す位置情報を取得する。
また詳しくは後述するが、ユーザ指示受付部12は、ユーザが、この指定領域の中から実際に画像処理を行なうものを選択する指示をユーザ指示情報として受け付ける。さらにユーザ指示受付部12は、選択された指定領域に対し、ユーザが画像処理を行う処理項目や処理量等に関する指示をユーザ指示情報として受け付ける。これらの内容に関するさらに詳しい説明については後述する。
本実施の形態では、指定領域を指定する作業を下記に説明するユーザインタラクティブに行う方法を採用する。
図3(a)〜(b)は、指定領域を指定する作業をユーザインタラクティブに行う方法の例を示した図である。
図3(a)では、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、前景である人物の頭髪の部分、および頭髪以外の部分をそれぞれ指定領域として選択する場合を示している。即ち、この場合指定領域は2つある。以後、頭髪の部分の指定領域を「第1の指定領域」、頭髪以外の部分の指定領域を「第2の指定領域」と言うことがある。
図3(a)〜(b)は、指定領域を指定する作業をユーザインタラクティブに行う方法の例を示した図である。
図3(a)では、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、前景である人物の頭髪の部分、および頭髪以外の部分をそれぞれ指定領域として選択する場合を示している。即ち、この場合指定領域は2つある。以後、頭髪の部分の指定領域を「第1の指定領域」、頭髪以外の部分の指定領域を「第2の指定領域」と言うことがある。
また図3(b)についても、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、前景である人物の顔の部分、および顔以外の部分をそれぞれ指定領域として選択する場合を示している。即ち、この場合指定領域は2つある。以後、顔の部分の指定領域を「第1の指定領域」、顔以外の部分の指定領域を「第2の指定領域」と言うことがある。
そしてユーザは、指定領域のそれぞれに対し代表となる軌跡をそれぞれ与える。この軌跡は、入力装置30により入力することができる。具体的には、入力装置30がマウスであった場合は、マウスを操作して表示装置20の表示画面21で表示している画像Gをドラッグし軌跡を描く。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により画像Gをなぞりスワイプすることで同様に軌跡を描く。なお軌跡ではなく、点として与えてもよい。即ち、ユーザは、頭髪の部分などのそれぞれの指定領域に対し代表となる位置を示す情報を与えればよい。これは指定領域の代表位置を表す位置情報をユーザが入力する、と言い換えることもできる。なお以後、この軌跡や点等を「シード」と言うことがある。
図3(a)の例では、頭髪の部分と頭髪以外の部分にそれぞれシードが描かれている(以後、これらのシードをそれぞれ「シード1」、「シード2」と言うことがある)。また図3(b)の例では、顔の部分、および顔以外の部分にそれぞれシードが描かれている(以後、これらのシードをそれぞれ「シード1」、「シード2」と言うことがある)。
第1の領域検出部13は、ユーザ指示受付部12で受け付けられたユーザ指示情報に基づき、表示装置20で表示されている画像Gの中から指定領域を検出する。実際には、第1の領域検出部13は、表示装置20で表示している画像Gの中から、指定領域を切り出す処理を行う。
第1の領域検出部13が、シードの情報を基にして指定領域を切り出すには、まずシードが描かれた箇所の画素に対しラベルを付加する。図3(a)の例では、頭髪の部分に描かれた軌跡(シード1)に対応する画素に「ラベル1」を、頭髪以外の部分(シード2)に対応する画素に「ラベル2」を付加する。
また図3(b)の例では、顔の部分に描かれた軌跡(シード1)に対応する画素に「ラベル1」を、顔以外の部分(シード2)に対応する画素に「ラベル2」を付加する。本実施の形態では、このようにラベルを付与することを「ラベル付け」と言う。
また図3(b)の例では、顔の部分に描かれた軌跡(シード1)に対応する画素に「ラベル1」を、顔以外の部分(シード2)に対応する画素に「ラベル2」を付加する。本実施の形態では、このようにラベルを付与することを「ラベル付け」と言う。
そして詳しくは後述するが、シードが描かれた画素と周辺の画素との間で画素値の近さを基に、近ければ連結し、遠ければ連結しない作業等を繰り返し、領域を拡張していく領域拡張方法により、指定領域を切り出していく。
図4(a)〜(b)は、図3(a)〜(b)で示した画像Gについて、領域拡張方法により指定領域が切り出された後の様子を示している。
このうち図4(a)は、図3(a)で示した画像Gについて、領域拡張方法により「第1の指定領域(S1)」、「第2の指定領域(S2)」が切り出された様子を示している。
また図4(b)は、図3(b)で示した画像Gについて、領域拡張方法により「第1の指定領域(S1)」、「第2の指定領域(S2)」が切り出された様子を示している。
以後、図4(a)〜(b)のように指定領域が切り出された画像を分離画像Gbと言うことがある。
このうち図4(a)は、図3(a)で示した画像Gについて、領域拡張方法により「第1の指定領域(S1)」、「第2の指定領域(S2)」が切り出された様子を示している。
また図4(b)は、図3(b)で示した画像Gについて、領域拡張方法により「第1の指定領域(S1)」、「第2の指定領域(S2)」が切り出された様子を示している。
以後、図4(a)〜(b)のように指定領域が切り出された画像を分離画像Gbと言うことがある。
以上のような方法を採用することで、指定領域が複雑な形状であっても、ユーザは、より直感的に、またより容易に指定領域が切り出せる。ただしここで切り出した指定領域は、低解像度の画像Gに対するものである。本実施の形態では、以下の処理により、これを高解像度の使用画像G’で使用できるようにする。
指定領域拡大部14は、第1の領域検出部13で検出された指定領域を拡大する。
図5(a)〜(c)は、指定領域拡大部14が行う処理について示した図である。
図5(a)〜(c)では、図4(b)で示した指定領域を拡大する場合を示している。このうち図5(a)は、図4(b)と同様の図であり、指定領域として、「第1の指定領域(S1)」および「第2の指定領域(S2)」が切り出された後の分離画像Gbを示している。
図5(a)〜(c)は、指定領域拡大部14が行う処理について示した図である。
図5(a)〜(c)では、図4(b)で示した指定領域を拡大する場合を示している。このうち図5(a)は、図4(b)と同様の図であり、指定領域として、「第1の指定領域(S1)」および「第2の指定領域(S2)」が切り出された後の分離画像Gbを示している。
そして図5(b)は、この分離画像Gbを拡大し、拡大分離画像Gzとした場合を示している。この拡大分離画像Gzは、指定領域を拡大したものとなる。指定領域拡大部14は、使用画像G’の大きさになるまで、分離画像Gbを拡大する。即ち、指定領域拡大部14は、使用画像G’に合わせて分離画像Gbを拡大する。
図5(b)に図示するように拡大後の拡大分離画像Gzは、その大きさが使用画像G’と同じものとなる。しかし解像度が低い分離画像Gbをそのまま単に拡大しただけであるので、「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界は、ジャギーが目立つものとなる。
図5(c)は、「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界を拡大した図である。図中使用画像G’におけるこの2つの指定領域の真の境界を実線で示している。図示するように「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界は、真の境界に対してずれが生じている。なおここでは、拡大分離画像Gzは、分離画像Gbを単に拡大しただけであるが、他のより高精度な拡大方法を用いた場合でもこのずれは生じる。
第2の領域検出部15は、指定領域拡大部14で拡大された指定領域の境界部において指定領域を再度検出する。つまり第2の領域検出部15は、図5(b)〜(c)に示した「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界領部において指定領域を検出する処理を再度行う。この処理は、高解像度の使用画像G’を使用し、境界部で選択的に行われ、他の箇所では行われない。そして「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界が真の境界となるようにする。以下、第2の領域検出部15が行う具体的な処理について説明する。
まず第2の領域検出部15は、拡大分離画像Gzにおける「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界部において、ラベルをリセットする。つまり「第1の指定領域(S1)」に含まれる画素に付与されていた「ラベル1」と、「第2の指定領域(S2)」に含まれる画素に付与されていた「ラベル2」をリセットする。
本実施の形態では、第2の領域検出部15は、拡大分離画像Gzの中で隣接画素のラベルが異なる画素に対し、ラベルをリセットするフィルタを通す。
図6(a)〜(b)は、第2の領域検出部15が、ラベルをリセットする処理について示した図である。
このうち図6(a)は、ラベルをリセットするフィルタを示している。このフィルタは、隣接画素のラベルが異なる画素を中心として設定される。図6(a)では、この中心となる画素を中心画素とし、この中心画素に対して設定されるフィルタを図示している。中心画素のラベルは、「ラベル1」および「ラベル2」の何れであってもよい。またフィルタの大きさは、使用画像G’の大きさにより決定すればよく、例えば、使用画像G’が画像Gの大きさの10倍であるときには、10画素×10画素とする。
図6(a)〜(b)は、第2の領域検出部15が、ラベルをリセットする処理について示した図である。
このうち図6(a)は、ラベルをリセットするフィルタを示している。このフィルタは、隣接画素のラベルが異なる画素を中心として設定される。図6(a)では、この中心となる画素を中心画素とし、この中心画素に対して設定されるフィルタを図示している。中心画素のラベルは、「ラベル1」および「ラベル2」の何れであってもよい。またフィルタの大きさは、使用画像G’の大きさにより決定すればよく、例えば、使用画像G’が画像Gの大きさの10倍であるときには、10画素×10画素とする。
図6(b)は、このフィルタを使用してラベルをリセットした後について示した図である。図6(b)で示すように図6(a)で図示した「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界部においてラベルがリセットされる。ここでは、この範囲を領域S0として図示している。またラベルをリセットした後のラベルをここでは「ラベル0」とする。つまり領域S0の画素には、「ラベル0」が付与されていると言うこともできる。
図7(a)〜(b)は、ラベルをリセットする前と後とを比較した図である。
このうち図7(a)は、ラベルをリセットする前の画像であり、図5(b)と同様の拡大分離画像Gzである。また図7(b)は、ラベルをリセットした後の画像であり、ラベルリセット画像Grとして図示している。このラベルリセット画像Grは、「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界部においてラベルがリセットされ、領域S0となっていることがわかる。
このうち図7(a)は、ラベルをリセットする前の画像であり、図5(b)と同様の拡大分離画像Gzである。また図7(b)は、ラベルをリセットした後の画像であり、ラベルリセット画像Grとして図示している。このラベルリセット画像Grは、「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界部においてラベルがリセットされ、領域S0となっていることがわかる。
次に第2の領域検出部15は、領域S0において指定領域の検出を再度行う。第2の領域検出部15は、第1の領域検出部13の説明で上述した領域拡張方法を使用して、指定領域を切り出していく。ただし第1の領域検出部13は、低解像度の画像Gの全体を対象として指定領域を切り出したが、第2の領域検出部15は、使用画像G’を使用し、境界部である領域S0について選択的に指定領域を切り出していく。つまりラベルをリセットされなかった図7(b)の「第1の指定領域(S1)」および「第2の指定領域(S2)」に含まれる画素のラベルは、固定ラベルであり、ラベルが「ラベル1」または「ラベル2」から変更されることはない。一方、第2の領域検出部15は、領域S0に含まれ、「ラベル0」が付与されている画素について、「ラベル1」または「ラベル2」を再度付与する処理を行う。
図8(a)〜(e)は、第2の領域検出部15が、領域S0において指定領域の検出を再度行う処理について示した図である。
図8(a)〜(e)では、図中上から下に行くに従い、指定領域の検出が進む様子を示している。このうち図8(a)は、第2の領域検出部15で指定領域の検出を行う前のラベルリセット画像Grであり、図7(b)と同様の図である。また図8(e)は、第2の領域検出部15で指定領域の検出が終了し、最終分離画像Gbeとなった状態を示す図である。ここでは、「第1の指定領域(S1)」と「第2の指定領域(S2)」とに再度切り分けられ、領域S0が消滅しているのがわかる。なお図8(b)〜図8(d)は、図8(a)から図8(e)へ移行するときの途中の状態を示している。
図8(a)〜(e)では、図中上から下に行くに従い、指定領域の検出が進む様子を示している。このうち図8(a)は、第2の領域検出部15で指定領域の検出を行う前のラベルリセット画像Grであり、図7(b)と同様の図である。また図8(e)は、第2の領域検出部15で指定領域の検出が終了し、最終分離画像Gbeとなった状態を示す図である。ここでは、「第1の指定領域(S1)」と「第2の指定領域(S2)」とに再度切り分けられ、領域S0が消滅しているのがわかる。なお図8(b)〜図8(d)は、図8(a)から図8(e)へ移行するときの途中の状態を示している。
図8(e)の状態で、「第1の指定領域(S1)」と「第2の指定領域(S2)」との境界は、図5(c)で示した真の境界とほぼ一致し、図5(b)〜(c)に示したジャギーはほぼ生じず、より滑らかな境界となる。
このように第2の領域検出部15は、指定領域拡大部14で拡大された指定領域の境界の画素を中心として指定領域の設定を解除するフィルタを適用し、指定領域の設定を解除された画素に対し指定領域を再度検出する。
図2に戻り、領域切替部16は、複数の指定領域を切り替える。即ち、指定領域が複数存在した場合、ユーザが画像調整を行ないたい指定領域の選択を行ない、これに従い、領域切替部16が指定領域を切り替える。
図9(a)〜(b)は、ユーザが指定領域の選択を行なうときに、表示装置20の表示画面21に表示される画面の例を示している。
図9(a)〜(b)に示した例では、表示画面21の左側に指定領域が選択された状態の画像Gが表示され、表示画面21の右側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。この場合、「領域1」は、「第1の指定領域(S1)」に、「領域2」は、「第2の指定領域(S2)」に対応する。そしてユーザが入力装置30を使用して、このラジオボタン212a、212bを選択すると、指定領域が切り替わる。
図9(a)〜(b)に示した例では、表示画面21の左側に指定領域が選択された状態の画像Gが表示され、表示画面21の右側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。この場合、「領域1」は、「第1の指定領域(S1)」に、「領域2」は、「第2の指定領域(S2)」に対応する。そしてユーザが入力装置30を使用して、このラジオボタン212a、212bを選択すると、指定領域が切り替わる。
図9(a)は、ラジオボタン212aが選択されている状態であり、指定領域として、顔の部分の画像領域である「第1の指定領域(S1)」が選択されている。そしてユーザがラジオボタン212bを選択すると、図9(b)に示すように指定領域として、顔以外の部分の画像領域である「第2の指定領域(S2)」に切り替わる。
実際には、図9で説明を行なった操作の結果は、ユーザ指示情報としてユーザ指示受付部12により取得され、さらに領域切替部16により指定領域の切り替えが行なわれる。
画像処理部17は、選択された指定領域に対し実際に画像処理を行なう。
図10は、画像処理を行なう際に、表示装置20の表示画面21に表示される画面の例を示している。
ここでは、選択された指定領域に対し、色相、彩度、輝度の調整を行なう例を示している。この例では、表示画面21の左上側に指定領域が選択された状態の画像Gが表示され、表示画面21の右上側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。ここでは、ラジオボタンのうち212aが選択されており、指定領域として、顔の部分の画像領域である「第1の指定領域(S1)」が選択されている。なおラジオボタン212a、212bを操作することで、指定領域の切り替えが可能であることは、図9の場合と同様である。
図10は、画像処理を行なう際に、表示装置20の表示画面21に表示される画面の例を示している。
ここでは、選択された指定領域に対し、色相、彩度、輝度の調整を行なう例を示している。この例では、表示画面21の左上側に指定領域が選択された状態の画像Gが表示され、表示画面21の右上側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。ここでは、ラジオボタンのうち212aが選択されており、指定領域として、顔の部分の画像領域である「第1の指定領域(S1)」が選択されている。なおラジオボタン212a、212bを操作することで、指定領域の切り替えが可能であることは、図9の場合と同様である。
また表示画面21の下側には、「色相」、「彩度」、「輝度」の調整を行なうためのスライドバー213aと、スライダ213bが表示される。スライダ213bは、入力装置30の操作によりスライドバー213a上において図中左右に移動し、スライドが可能である。スライダ213bは、初期状態ではスライドバー213aの中央に位置し、この位置において「色相」、「彩度」、「輝度」の調整前の状態を表す。
そしてユーザが、入力装置30を使用して、「色相」、「彩度」、「輝度」の何れかのスライダ213bをスライドバー213a上で図中左右にスライドさせると、選択された指定領域に対し画像処理がなされ、表示画面21で表示される画像Gもそれに対応して変化する。この場合、図中右方向にスライダ213bをスライドさせると、対応する「色相」、「彩度」、「輝度」の何れかを増加させる画像処理がなされる。対して図中左方向にスライダ213bをスライドさせると、対応する「色相」、「彩度」、「輝度」の何れかを減少させる画像処理がなされる。
再び図2に戻り、画像情報出力部18は、以上のように画像処理がなされた後の画像情報を出力する。画像処理がなされた後の画像情報は、表示装置20に送られる。そして表示装置20にてこの画像情報に基づき画像Gが表示される。なお領域切替部16や画像処理部17において、表示装置20に表示される画像Gは、ユーザに画像処理の結果を見せるためのものであり、実際に画像処理が行われるのは、より高解像度の使用画像G’となる。画像Gの画像情報は、例えば、使用画像G’を縮小することで作成できる。
<第1の領域検出部、第2の領域検出部の説明>
次に第1の領域検出部13および第2の領域検出部15が領域拡張方法により指定領域を切り出す方法についてさらに詳しく説明を行なう。
次に第1の領域検出部13および第2の領域検出部15が領域拡張方法により指定領域を切り出す方法についてさらに詳しく説明を行なう。
ここではまず従来の領域拡張方法についての説明を行なう。
図11(a)〜(c)は、従来の領域拡張方法について説明した図である。
このうち図11(a)は、原画像であり、縦3画素、横3画素の3×3=9画素の領域からなる。この原画像は、2つの画像領域から構成される。図11(a)では、それぞれの画素の色の濃さの違いによりこの2つの画像領域を表している。それぞれの画像領域に含まれる画素値は互いに近い値を示すものとする。
図11(a)〜(c)は、従来の領域拡張方法について説明した図である。
このうち図11(a)は、原画像であり、縦3画素、横3画素の3×3=9画素の領域からなる。この原画像は、2つの画像領域から構成される。図11(a)では、それぞれの画素の色の濃さの違いによりこの2つの画像領域を表している。それぞれの画像領域に含まれる画素値は互いに近い値を示すものとする。
そして図11(b)に示すように、2行1列に位置する画素にシード1を、1行3列に位置する画素にシード2を与える。
このとき中央の画素である2行2列に位置する画素が、シード1が含まれる指定領域に属するか、シード2が含まれる指定領域に属するか否かを判定する場合を考える。ここでは、この中央の画素について、中央の画素の画素値と、中央の画素に接する周辺8画素の中に存在するシードの画素値を比較する。そして画素値が近ければ、中央の画素は、そのシードが含まれる指定領域に含まれると判定する。この場合、周辺8画素の中には、シード1とシード2の2つのシードが含まれるが、中央の画素の画素値は、シード1の画素値よりシード2の画素値とより近いため、シード1が含まれる指定領域に属すると判定される。
そして図11(c)に示すように、中央の画素は、シード1の領域に属するようになる。そして中央の画素は、今度は、新たなシードとして扱われる。そしてこの場合、中央の画素は、シード1と同じ、「ラベル1」にラベル付けされる。
従来の領域拡張方法では、シードの画素に接する画素を指定領域に含まれるか否かの判定の対象となる対象画素として選択し(上述した例では、中央の画素)、この対象画素の画素値と、対象画素の周辺8画素の画素に含まれるシードの画素値とを比較する。そして対象画素は、画素値が近いシードに含まれる領域に属すると考え、ラベル付けをする。さらにこれを繰り返すことで領域を拡張していく。
なお従来の領域拡張方法としては、例えば、下記文献に記載のGrow-Cut法が代表的な例として挙げられる。
V.Vezhnevets and V.Konouchine: "Grow-Cut" -Interactive Multi-label N-D Image Segmentation", Proc.Graphicon.pp 150-156(2005)
V.Vezhnevets and V.Konouchine: "Grow-Cut" -Interactive Multi-label N-D Image Segmentation", Proc.Graphicon.pp 150-156(2005)
このように従来の領域拡張方法では、対象画素に着目し、対象画素の画素値に対して周辺8画素にあるシードの画素の画素値を比較して対象画素が属する指定領域を決定する。つまり対象画素が、周辺8画素からの影響を受けて変化する、いわば「受け身型」の方法である。
しかしながら従来の領域拡張方法では、画素を対象画素として1つずつ選択し、ラベル付けを行なっていく必要があり、処理速度が遅くなりやすい問題がある。また領域が入り組んでいる箇所などでは、切り分けの際の精度が低くなりやすい。
そこで本実施の形態では、第1の領域検出部13および第2の領域検出部15を以下の構成とし、上記問題の抑制を図っている。なお第1の領域検出部13および第2の領域検出部15の構成は、同様のものとなるため、以後、第1の領域検出部13を例として説明を行う。
図12は、本実施形態における第1の領域検出部13の機能構成例を表すブロック図である。
図示するように本実施の形態の第1の領域検出部13は、画素選択部131と、範囲設定部132と、判定部133と、特性変更部134と、収束判定部135とを備える。
以下、図12に示す第1の領域検出部13について、実施例1〜実施例4に分けて説明を行なう。
図示するように本実施の形態の第1の領域検出部13は、画素選択部131と、範囲設定部132と、判定部133と、特性変更部134と、収束判定部135とを備える。
以下、図12に示す第1の領域検出部13について、実施例1〜実施例4に分けて説明を行なう。
(実施例1(「攻撃型」で「同期型」の場合))
まず第1の領域検出部13の実施例1について説明を行なう。
実施例1において、画素選択部131は、指定領域に属する画素の中から選択される基準画素を選択する。ここで「指定領域に属する画素」は、例えば、ユーザが指定した代表位置に含まれる画素、即ち、上述したシードの画素である。またこれには、領域拡張により新たにラベル付けされた画素も含まれる。
ここでは画素選択部131は、基準画素として指定領域に属する画素の中から1つの画素を選択する。
まず第1の領域検出部13の実施例1について説明を行なう。
実施例1において、画素選択部131は、指定領域に属する画素の中から選択される基準画素を選択する。ここで「指定領域に属する画素」は、例えば、ユーザが指定した代表位置に含まれる画素、即ち、上述したシードの画素である。またこれには、領域拡張により新たにラベル付けされた画素も含まれる。
ここでは画素選択部131は、基準画素として指定領域に属する画素の中から1つの画素を選択する。
図13(a)は、この指定領域の切り分けが行なわれる原画像を示したものである。図示するように原画像は、全体が縦9画素、横7画素の9×7=63画素の領域からなり、図示するように画像領域R1と画像領域R2が含まれる。この画像領域R1に含まれる画素のそれぞれの画素値、また画像領域R2に含まれる画素のそれぞれの画素値は近い値を採る。そして以下に説明するようにこの画像領域R1と画像領域R2をそれぞれ指定領域として切り分けるものとする。
そして説明を簡単にするため、図13(b)で示すように、ユーザが指定した代表位置は、画像領域R1と画像領域R2のそれぞれに指定された2箇所で、それぞれ1画素からなり、画素選択部131は、この1画素を基準画素として選択するものとする。図13(b)では、この基準画素をシード1およびシード2で図示している。
詳しくは後述するが、このシード1およびシード2は、それぞれラベル付けされており、強さを有する。ここでは、シード1およびシード2は、それぞれラベル1とラベル2にラベル付けされ、強さとして双方とも初期値として1が設定されるものとする。
範囲設定部132は、基準画素に対し設定され、この基準画素が属する指定領域に含まれるか否かを決定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する。
図14は、第1の範囲について説明した図である。
図示するように、画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。図では、この範囲を太線の枠内の範囲として表示している。
また詳しくは後述するが、本実施の形態では、第1の範囲は可変であり、処理が進行するに従い範囲が縮小されることが好ましい。
図14は、第1の範囲について説明した図である。
図示するように、画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。図では、この範囲を太線の枠内の範囲として表示している。
また詳しくは後述するが、本実施の形態では、第1の範囲は可変であり、処理が進行するに従い範囲が縮小されることが好ましい。
判定部133は、決定部の一例であり、第1の範囲内の対象画素(第1の対象画素)が何れの指定領域に属するかを決定する。
判定部133では、上記第1の範囲に含まれる25画素のうち、シード1またはシード2を除くそれぞれ24画素について、指定領域に含まれるか否かの判定の対象となる対象画素(第1の対象画素)とする。そしてこれらの対象画素が、シード1が属する指定領域(第1の指定領域)に含まれるか、シード2が属する指定領域(第2の指定領域)に属するかの判定を行なう。
判定部133では、上記第1の範囲に含まれる25画素のうち、シード1またはシード2を除くそれぞれ24画素について、指定領域に含まれるか否かの判定の対象となる対象画素(第1の対象画素)とする。そしてこれらの対象画素が、シード1が属する指定領域(第1の指定領域)に含まれるか、シード2が属する指定領域(第2の指定領域)に属するかの判定を行なう。
このときの判定基準として画素値の近さを採用することができる。
具体的には、第1の範囲内に含まれる上記24画素に便宜上番号を付し、i番目(iは1〜24の何れかの整数値)の対象画素をPiとしたとき、この画素の色データがRGBデータである場合は、この色データはPi=(Ri、Gi、Bi)として表すことができる。同様にしてシード1やシード2の基準画素をP0とすると、この色データはP0=(R0、G0、B0)として表すことができる。そして画素値の近さとして、以下の数1式に示すRGB値のユークリッド距離diを考える。
具体的には、第1の範囲内に含まれる上記24画素に便宜上番号を付し、i番目(iは1〜24の何れかの整数値)の対象画素をPiとしたとき、この画素の色データがRGBデータである場合は、この色データはPi=(Ri、Gi、Bi)として表すことができる。同様にしてシード1やシード2の基準画素をP0とすると、この色データはP0=(R0、G0、B0)として表すことができる。そして画素値の近さとして、以下の数1式に示すRGB値のユークリッド距離diを考える。
判定部133は、このユークリッド距離diが、予め定められた閾値以下であった場合に、第1の指定領域や第2の指定領域に属するとの判定を行なう。即ちユークリッド距離diが、予め定められた閾値以下であった場合は、基準画素P0と対象画素Piの画素値はより近いと考えられるため、その場合は、基準画素P0と対象画素Piとは、同じ指定領域に属するとする。
なおシード1とシード2の双方に対して、ユークリッド距離diが、閾値以下となる場合もあるが、この場合は、判定部133は、ユークリッド距離diがより小さい値となる方の指定領域に属するとする。
図15は、図14で示す第1の範囲に属する対象画素について、ユークリッド距離diを基に判定を行なった結果を示している。
ここでシード1と同じ黒色となったものは、指定領域1に属する画素と判定され、シード2と同じ灰色となったものは、指定領域1に属する画素と判定されたことを示している。なお白色の画素は、この場合、何れの指定領域にも属さないと判定されたことを示している。
ここでシード1と同じ黒色となったものは、指定領域1に属する画素と判定され、シード2と同じ灰色となったものは、指定領域1に属する画素と判定されたことを示している。なお白色の画素は、この場合、何れの指定領域にも属さないと判定されたことを示している。
判定部133を以上のように動作させることで、与えたシードに対して、自動でシードを拡散する効果がある。本実施の形態では、例えば、初回のみに判定部133にこの動作をさせることもできる。または最初の数回をこの動作にすることもできる。この場合、以後は、判定部133は、後述する「強さ」を使用して判定を行うことが好ましい。なお判定部133は、初回から後述する「強さ」を使用した判定を行ってもかまわない。
なお上述した例では、色データがRGBデータである場合で説明を行なったが、これに限られるものではなく、L*a*b*データ、YCbCrデータ、HSVデータ、IPTデータなど他の色空間における色データであってもよい。また全ての色成分を用いず、例えば、色データとしてHSVデータを用いたときに、H、Sの値のみ使用してもよい。
また指定領域の切り分けがうまくいかない場合に、他の色空間における色データを使用するとよい場合がある。例えば、数1式に示したRGB値のユークリッド距離diの代わりに下記数2式に示したYCbCr値を使用したユークリッド距離di wを考える。数2式は、対象画素の色データが、Pi=(Yi、Cbi、Cri)であり、基準画素の色データが、P0=(Y0、Cb0、Cr0)であったときのユークリッド距離di wを示している、また数2式のユークリッド距離di wは、重み係数WY、WCb、WCrを使用した重みづけユークリッド距離となっている。数2式を使用した場合、他えば、指定領域間の輝度差は大きいが、色度の差が小さい場合に有効である。即ち、重み係数WYを小さくし、輝度成分Yのユークリッド距離di wに対する寄与度を小さくする。これにより色度成分のユークリッド距離di wに対する寄与度が相対的に大きくなる。その結果、輝度差は大きいが、色度の差が小さい指定領域間においても指定領域の切り分けの精度が向上する。
また使用する色データは、3成分からなるものに限定されるものではない。例えば、n次元色空間を使用し、n個の色成分によるユークリッド距離di wを考えてもよい。
例えば、数3式は、色成分が、X1、X2、…、Xnである場合である。そして数3式は、対象画素の色データが、Pi=(X1i、X2i、…、Xni)であり、基準画素の色データが、P0=(X10、X20、…、Xn0)であったときのユークリッド距離di wを示している、なお数3式のユークリッド距離di wも重み係数WX1、WX2、…、WXnを使用した重みづけユークリッド距離となっている。この場合、n個の色成分のうち指定領域の時性がよく現れている色成分についての重み係数を他より相対的に大きくすることで、指定領域の切り分けの精度が向上する。
例えば、数3式は、色成分が、X1、X2、…、Xnである場合である。そして数3式は、対象画素の色データが、Pi=(X1i、X2i、…、Xni)であり、基準画素の色データが、P0=(X10、X20、…、Xn0)であったときのユークリッド距離di wを示している、なお数3式のユークリッド距離di wも重み係数WX1、WX2、…、WXnを使用した重みづけユークリッド距離となっている。この場合、n個の色成分のうち指定領域の時性がよく現れている色成分についての重み係数を他より相対的に大きくすることで、指定領域の切り分けの精度が向上する。
特性変更部134は、第1の範囲内の対象画素(第1の対象画素)に対し付与される特性を変更する。
ここで「特性」とは、その画素に付与されるラベルと強さのことを言う。
「ラベル」は、上述したようにその画素が何れの指定領域に属するかを表すものであり、指定領域1に属する画素は、「ラベル1」、指定領域2に属する画素は、「ラベル2」が付与される。ここではシード1のラベルはラベル1、シード2のラベルはラベル2となるので、判定部133で指定領域1に属する画素と判定された場合(図15で黒色となった画素)は、ラベル1にラベル付けされる。また判定部133で指定領域2に属する画素と判定された場合(図16で灰色となった画素)は、ラベル2にラベル付けされる。
ここで「特性」とは、その画素に付与されるラベルと強さのことを言う。
「ラベル」は、上述したようにその画素が何れの指定領域に属するかを表すものであり、指定領域1に属する画素は、「ラベル1」、指定領域2に属する画素は、「ラベル2」が付与される。ここではシード1のラベルはラベル1、シード2のラベルはラベル2となるので、判定部133で指定領域1に属する画素と判定された場合(図15で黒色となった画素)は、ラベル1にラベル付けされる。また判定部133で指定領域2に属する画素と判定された場合(図16で灰色となった画素)は、ラベル2にラベル付けされる。
「強さ」は、ラベルに対応する指定領域に属する強さであり、ある画素がラベルに対応する指定領域に属する可能性の大きさを表す。強さが大きいほどその画素がラベルに対応する指定領域に属する可能性が高く、強さが小さいほどその画素がラベルに対応する指定領域に属する可能性が低い。強さは、次のようにして定まる。
まずユーザが最初に指定した代表位置に含まれる画素の強さは、初期値として1となる。つまり領域を拡張する前のシード1やシード2の画素は、強さが1である。またまだラベル付けがされていない画素については、強さは0である。
まずユーザが最初に指定した代表位置に含まれる画素の強さは、初期値として1となる。つまり領域を拡張する前のシード1やシード2の画素は、強さが1である。またまだラベル付けがされていない画素については、強さは0である。
そして強さが与えられた画素が周辺の画素に及ぼす影響力を考える。
図16(a)〜(b)は、影響力を決定する方法について示した図である。図16(a)〜(b)において、横軸は、ユークリッド距離diを表し、縦軸は、影響力を表す。
このユークリッド距離diは、強さを与えられた画素とその画素の周辺に位置する画素との間で決まる画素値のユークリッド距離diである。そして例えば、図16(a)に図示するように非線形の単調減少関数を定め、ユークリッド距離diに対し、この単調減少関数により決まる値を影響力とする。
つまりユークリッド距離diが小さいほど、影響力はより大きくなり、ユークリッド距離diが大きいほど、影響力はより小さくなる。
なお単調減少関数は、図16(a)のような形状のものに限られるものではなく、単調減少関数であれば特に限られるものではない。よって図16(b)のような線形の単調減少関数であってもよい。またユークリッド距離diの特定の範囲で線形であり、他の範囲で非線形であるような区分線形の単調減少関数であってもよい。
図16(a)〜(b)は、影響力を決定する方法について示した図である。図16(a)〜(b)において、横軸は、ユークリッド距離diを表し、縦軸は、影響力を表す。
このユークリッド距離diは、強さを与えられた画素とその画素の周辺に位置する画素との間で決まる画素値のユークリッド距離diである。そして例えば、図16(a)に図示するように非線形の単調減少関数を定め、ユークリッド距離diに対し、この単調減少関数により決まる値を影響力とする。
つまりユークリッド距離diが小さいほど、影響力はより大きくなり、ユークリッド距離diが大きいほど、影響力はより小さくなる。
なお単調減少関数は、図16(a)のような形状のものに限られるものではなく、単調減少関数であれば特に限られるものではない。よって図16(b)のような線形の単調減少関数であってもよい。またユークリッド距離diの特定の範囲で線形であり、他の範囲で非線形であるような区分線形の単調減少関数であってもよい。
そして指定領域に属すると判定された画素の強さは、基準画素の強さに影響力を乗じたものとなる。例えば、基準画素の強さが1で、その左側に隣接する対象画素に与える影響力が0.9だった場合、この左側に隣接する対象画素が指定領域に属すると判定されたときに与えられる強さは、1×0.9=0.9となる。また例えば、基準画素の強さが1で、その2つ左側に隣接する対象画素に与える影響力が0.8だった場合、この対象画素が指定領域に属すると判定されたときに与えられる強さは、1×0.8=0.8となる。
以上の計算方法を利用し、判定部133は、第1の範囲内の対象画素(第1の対象画素)に与えられている強さにより判定を行なうこともできる。このとき対象画素が、ラベルを有しない場合は、基準画素が属する指定領域に含まれると判定し、対象画素が他の指定領域についてのラベルを既に有する場合は、強さが大きい方の指定領域に含まれると判定する。そして前者の場合は、全て基準画素と同じラベル付けを行なう。また後者の場合は、特性のうち強さが強い方のラベル付けを行う。この方法では、いったんあるラベルにラベル付けされた画素について、他のラベルに変更されることがあり得る。
例えば、対象画素(第1の対象画素)がいったんあるラベルにラベル付けされていたとする。そして他のラベルが付された基準画素の強さがuiで影響力がwijであったとすると、対象画素(第1の対象画素)に及ぼす強さujは、uj=wijuiとなる。そして対象画素(第1の対象画素)が現状有している強さと、このujとを比較し、ujの方が、大きければ、他のラベルに変更される。対してujが同じか小さければ、他のラベルに変更されず、ラベルは維持される。
図17は、図14で示す第1の範囲内の対象画素について、強さを基にした方法で判定を行なった結果を示している。
図14に示す第1の範囲は、シード1とシード2とで一部重なる。そして第1の範囲が、重ならない箇所、即ち、シード1とシード2とで競合しない箇所では、この場合、ラベル付けされていないもので、全て基準画素であるシード1またはシード2と同じラベル付けを行なう。一方、第1の範囲が、シード1とシード2とで重なる箇所、即ち、競合する箇所では、強さが強い方のラベル付けをする。その結果、図17に示すようにラベル付けがなされる。
図14に示す第1の範囲は、シード1とシード2とで一部重なる。そして第1の範囲が、重ならない箇所、即ち、シード1とシード2とで競合しない箇所では、この場合、ラベル付けされていないもので、全て基準画素であるシード1またはシード2と同じラベル付けを行なう。一方、第1の範囲が、シード1とシード2とで重なる箇所、即ち、競合する箇所では、強さが強い方のラベル付けをする。その結果、図17に示すようにラベル付けがなされる。
図18(a)〜(h)は、強さを基にした領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
このうち図18(a)は、このとき設定される第1の範囲を示している。つまり画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦3画素×横3画素の範囲を第1の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
このうち図18(a)は、このとき設定される第1の範囲を示している。つまり画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦3画素×横3画素の範囲を第1の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
図18(b)に、シード1およびシード2のそれぞれの第1の範囲内の対象画素について判定を行なった結果を示す。この場合、シード1およびシード2のそれぞれの第1の範囲は重ならないため、それぞれの第1の範囲内の対象画素は、全て基準画素であるシード1またはシード2と同じラベル付けが行なわれる。
また図18(c)に、さらに領域拡張を行ない、更新された後の結果を示す。この場合、図17と同様にシード1とシード2とで第1の範囲が、重ならない箇所では、全て基準画素であるシード1またはシード2と同じラベル付けが行なわれる。そして第1の範囲が、シード1とシード2とで重なる箇所では、強さが強い方のラベル付けが行なわれる。
また対象画素に既に他のラベルによるラベル付けがされていた場合でも、その対象画素が現在有している強さと、基準画素から及ぼされる強さを比較し、強さが強い方のラベル付けがなされる。また強さは、より強い方の強さとなる。即ち、この場合、対象画素のラベルと強さは変更される。
以下、ラベル付けされた対象画素については、新たな基準画素として選択され、図19(d)〜(h)に示すように順次領域は更新されていく。最終的には、図19(h)に示すように第1の指定領域と第2の指定領域に切り分けが行なわれる。
なお上述した例では、色データがRGBデータである場合で説明を行なったが、これに限られるものではなく、L*a*b*データ、YCbCrデータ、HSVデータなど他の色空間における色データであってもよい。また全ての色成分を用いず、例えば、色データとしてHSVデータを用いたときに、H、Sの値のみ使用してもよい。
以上のようにして対象画素が指定領域に属すると判定された場合、特性変更部134においてラベルと強さが変更される。
このラベル、強さ、影響力の情報は、実際には、各画素毎の情報として、後述するメインメモリ92(図47参照)等に記憶される。そして必要に応じメインメモリ92から読み出されるとともに、ラベル、強さ、影響力が変更されたときは、これらの情報の書き換えが行なわれる。これにより第1の領域検出部13の処理速度が向上する。
このラベル、強さ、影響力の情報は、実際には、各画素毎の情報として、後述するメインメモリ92(図47参照)等に記憶される。そして必要に応じメインメモリ92から読み出されるとともに、ラベル、強さ、影響力が変更されたときは、これらの情報の書き換えが行なわれる。これにより第1の領域検出部13の処理速度が向上する。
なお上述した画素選択部131、範囲設定部132、判定部133、特性変更部134の処理は収束するまで繰り返し行なわれる。即ち、図15で説明したように新たに指定領域1や指定領域2に属すると判定された画素は、新たに基準画素として選択され、さらに第1の範囲内の対象画素について、指定領域1や指定領域2に属するかの判定が行なわれることになる。この処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域1および指定領域2の切り出しが行なえる。なおこの方法(領域拡張方法)によれば、いったんあるラベルにラベル付けされた画素についても、他のラベルに変更されることがあり得る。
収束判定部135は、上記一連の処理が収束したか否かを判定する。
収束判定部135は、例えば、ラベルが変更される画素がなくなったときに収束したと判定する。また予め最大更新回数を定めておき、最大更新回数に達したときに収束したものとみなすこともできる。
収束判定部135は、例えば、ラベルが変更される画素がなくなったときに収束したと判定する。また予め最大更新回数を定めておき、最大更新回数に達したときに収束したものとみなすこともできる。
以上述べた実施例1による領域拡張方法では、指定領域に含まれるか否かの判定の対象となる対象画素は、第1の範囲内に属するとともに基準画素であるシード1やシード2を除いた画素となる。そして基準画素の画素値に対してこれらの対象画素の画素値を比較して対象画素が属する指定領域を決定する。つまり対象画素が、基準画素からの影響を受けて変化する、いわば「攻撃型」の方法である。
またこの領域拡張方法では、領域拡張を行なう直前における画像全体のラベルおよび強さはいったん記憶される。そしてそれぞれの指定領域から選択された基準画素により設定される第1の範囲内の対象画素が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。そして変更後のラベルおよび強さは、再び領域拡張を行なう直前における画像全体のラベルおよび強さとして記憶され、再度領域拡張が行なわれていく。つまりこの場合、画像全体のラベルおよび強さは一斉に変更され、いわば「同期型」の領域拡張方法である。
またこの領域拡張方法では、第1の範囲は固定でも変更してもよい。そして第1の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。具体的には、例えば、最初は、第1の範囲は大きく設定し、ある更新回数が、ある指定回数以上になったら第1の範囲を小さくする。この指定回数は、複数指定し、第1の範囲を段階的に小さくしていってもよい。つまり初期段階では、第1の範囲は大きく設定することで、処理速度が速くなる。またある程度更新が進んだ段階では、第1の範囲を小さくすることで指定領域の分離精度がより向上する。つまり処理速度の向上と指定領域の切り出しの分離精度とが両立する。
(実施例2(「攻撃型」で「非同期型」の場合))
次に第1の領域検出部13の実施例2について説明を行なう。
次に第1の領域検出部13の実施例2について説明を行なう。
図19(a)〜(h)は、実施例2による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
図19(a)は、このとき設定される第1の範囲であり、図18(a)と同様の図である。
本実施の形態では、判定部133は、図19(b)に示すように2行2列の位置に設定されるシード2を起点とし、まず第1の範囲内の対象画素が何れの指定領域に属するか否かを判定する。そして図19(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域に属するか否かを判定していく。この判定は、例えば、上述したように、数1式〜数3式を使用し、画素値の近さを利用することで行うことができる。またこの判定は、図18の場合と同様に、強さを使用した方法により行うことができる。
そして図中右端までを対象画素として判定した後は、次に基準画素を第3列に移し、同様に基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域に属するか否かを判定していく。そして図中右端までを対象画素として判定した後は、さらに次の列に移る。これは図19(e)〜(g)に示すように繰り返され、図中右下端部に基準画素が移動するまで行なわれる。これは、判定部133は、基準画素を一画素毎に走査するように移動させつつ判定を行なう、と言うことができる。
図19(a)は、このとき設定される第1の範囲であり、図18(a)と同様の図である。
本実施の形態では、判定部133は、図19(b)に示すように2行2列の位置に設定されるシード2を起点とし、まず第1の範囲内の対象画素が何れの指定領域に属するか否かを判定する。そして図19(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域に属するか否かを判定していく。この判定は、例えば、上述したように、数1式〜数3式を使用し、画素値の近さを利用することで行うことができる。またこの判定は、図18の場合と同様に、強さを使用した方法により行うことができる。
そして図中右端までを対象画素として判定した後は、次に基準画素を第3列に移し、同様に基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域に属するか否かを判定していく。そして図中右端までを対象画素として判定した後は、さらに次の列に移る。これは図19(e)〜(g)に示すように繰り返され、図中右下端部に基準画素が移動するまで行なわれる。これは、判定部133は、基準画素を一画素毎に走査するように移動させつつ判定を行なう、と言うことができる。
さらに右下端部に基準画素が達し、画素の移動がこれ以上できなくなった後は、上述した場合と逆向きに基準画素を移動させ、基準画素が左上端部に移動するまで同様の処理を行なう。これで基準画素が1回往復移動したことになる。さらに以後、収束するまでこの基準画素の往復移動を繰り返す。
これは、図20に示すように行と列の順を反転させて同様の処理を行なうと言うこともできる。またこれは、基準画素が終端位置(この場合、右下端部や左上端部)に達したときは、基準画素を逆方向に走査させるようにさらに移動させる、と言うこともできる。
これは、図20に示すように行と列の順を反転させて同様の処理を行なうと言うこともできる。またこれは、基準画素が終端位置(この場合、右下端部や左上端部)に達したときは、基準画素を逆方向に走査させるようにさらに移動させる、と言うこともできる。
なおここで挙げた例では、起点が1つの例で説明をしたが、起点を複数設定し、それぞれを移動させてもよい。また起点として画像中の画素の何れを選択してもよい。
そして最終的には、図19(h)に示すように、第1の指定領域と第2の指定領域に切り分けが行なわれる。
この領域拡張方法によれば、図18で説明した方法に比較して、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
この領域拡張方法によれば、図18で説明した方法に比較して、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
なお実施例2において、判定部133以外の画素選択部131、範囲設定部132、特性変更部134、収束判定部135の動作については実施例1と同様である。また同様に第1の範囲は固定でも変更してもよく、そして第1の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。
またこの領域拡張方法では、選択された基準画素が一画素ずつ移動する度に、第1の範囲内の対象画素が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。つまり予め定められた順で一の基準画素を選択し、選択された一の基準画素に対する対象画素(第1の対象画素)に対し、1回の判定を行うことを繰り返す。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。つまりこの場合、画像全体のラベルおよび強さは一斉に変更されるわけではなく、基準画素が一画素ずつ移動する度に定まる第1の範囲内の対象画素(第1の対象画素)だけが変更の対象となる。よってこれは、いわば「非同期型」の領域拡張方法である。
次に実施例1および実施例2における第1の領域検出部13の動作について説明を行なう。
図21は、実施例1および実施例2における第1の領域検出部13の動作について説明したフローチャートである。
以下、図12および図21を使用して第1の領域検出部13の動作を説明する。
まず画素選択部131が、指定領域に属する画素の中から選択される基準画素を選択する(ステップ101)。図13(b)の例では、画素選択部131は、この基準画素としてシード1およびシード2を選択する。
図21は、実施例1および実施例2における第1の領域検出部13の動作について説明したフローチャートである。
以下、図12および図21を使用して第1の領域検出部13の動作を説明する。
まず画素選択部131が、指定領域に属する画素の中から選択される基準画素を選択する(ステップ101)。図13(b)の例では、画素選択部131は、この基準画素としてシード1およびシード2を選択する。
次に範囲設定部132が、基準画素に対し指定領域に含まれるかを決定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ102)。図13(b)の例では、範囲設定部132は、シード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。
そして判定部133が、第1の範囲内の対象画素が何れの指定領域に属するかを判定する(ステップ103)。このとき判定部133は、対象画素が指定領域間で競合する箇所では、強さが強い方の指定領域に属すると判定する。また画素値のユークリッド距離diを基にして判定をし、指定領域の拡散をしてもよい。
さらに特性変更部134が、判定部133において何れかの指定領域に属すると判定された対象画素について、特性を変更する(ステップ104)。具体的には、特性変更部134は、これらの対象画素に対し、ラベル付けを行ない、さらに強さを付与する。
次に収束判定部135が、一連の処理が収束したか否かを判定する(ステップ105)。この判定は、上述したようにラベルが変更される画素がなくなったときに収束したと判定してもよく予め定められた最大更新回数に達したときに収束したと判定してもよい。
そして収束判定部135が処理が収束したと判定した場合(ステップ105でYes)、指定領域の切り出しの処理を終了する。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ105でNo)、ステップ101に戻る。なおこの場合、画素選択部131で選択される基準画素は変更される。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ105でNo)、ステップ101に戻る。なおこの場合、画素選択部131で選択される基準画素は変更される。
(実施例3(「受け身型」で「同期型」の場合))
次に第1の領域検出部13の実施例3について説明を行なう。
実施例3では、画素選択部131は、指定領域に含まれるか否かの判定の対象となる対象画素を1つ選択する。そして範囲設定部132は、選択された対象画素(第2の対象画素)に対し設定され、この対象画素が何れの指定領域に含まれるか否かを判定する基準画素が含まれる範囲である第2の範囲を変更する。
図22は、画素選択部131により選択される対象画素、および範囲設定部132により設定される第2の範囲について示した図である。
図22では、図13(a)で示した原画像に対し、図13(b)で示した場合と同様に基準画素をシード1およびシード2として設定される。そして対象画素(第2の対象画素)としてT1で示す一画素が選択された場合を示している。さらに第2の範囲として対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
次に第1の領域検出部13の実施例3について説明を行なう。
実施例3では、画素選択部131は、指定領域に含まれるか否かの判定の対象となる対象画素を1つ選択する。そして範囲設定部132は、選択された対象画素(第2の対象画素)に対し設定され、この対象画素が何れの指定領域に含まれるか否かを判定する基準画素が含まれる範囲である第2の範囲を変更する。
図22は、画素選択部131により選択される対象画素、および範囲設定部132により設定される第2の範囲について示した図である。
図22では、図13(a)で示した原画像に対し、図13(b)で示した場合と同様に基準画素をシード1およびシード2として設定される。そして対象画素(第2の対象画素)としてT1で示す一画素が選択された場合を示している。さらに第2の範囲として対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
判定部133は、対象画素T1が何れの指定領域に属するか否かを判定する。判定部133では、対象画素T1が、シード1が属する指定領域(第1の指定領域)に含まれるか、シード2が属する指定領域(第2の指定領域)に属するかの判定を行なう。
このとき例えば、対象画素T1の画素値と、第2の範囲に含まれる基準画素であるシード1およびシード2の画素値の何れに近いか否かで、対象画素T1が、第1の指定領域に属するか、第2の指定領域に属するかを判定する。即ち、画素値の近さにより判定を行う。
またこの判定は、強さを使用した方法により行うことができる。この場合、対象画素T1(第2の対象画素)が指定領域に属するかの判定を行なうときには、第2の範囲に含まれる基準画素の強さにより判定を行なうことになる。
このとき例えば、対象画素T1の画素値と、第2の範囲に含まれる基準画素であるシード1およびシード2の画素値の何れに近いか否かで、対象画素T1が、第1の指定領域に属するか、第2の指定領域に属するかを判定する。即ち、画素値の近さにより判定を行う。
またこの判定は、強さを使用した方法により行うことができる。この場合、対象画素T1(第2の対象画素)が指定領域に属するかの判定を行なうときには、第2の範囲に含まれる基準画素の強さにより判定を行なうことになる。
図23は、本実施の形態による判定の結果について示した図である。
図23では、対象画素T1の画素値は、シード1の画素値よりシード2の画素値に近く、その結果、対象画素T1は、第2の指定領域に属すると判定されたことを示している。
図23では、対象画素T1の画素値は、シード1の画素値よりシード2の画素値に近く、その結果、対象画素T1は、第2の指定領域に属すると判定されたことを示している。
なお特性変更部134、収束判定部135の動作については、実施例1と同様である。
本実施の形態の場合も画素選択部131、範囲設定部132、判定部133、特性変更部134の処理は収束するまで繰り返し行なわれる。そしてこの処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域1および指定領域2の切り出しが行なえる。また第2の範囲は可変であり、その範囲は、更新回数により順次小さくしていくことが好ましい。
本実施の形態の場合も画素選択部131、範囲設定部132、判定部133、特性変更部134の処理は収束するまで繰り返し行なわれる。そしてこの処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域1および指定領域2の切り出しが行なえる。また第2の範囲は可変であり、その範囲は、更新回数により順次小さくしていくことが好ましい。
具体的には、最初は、第2の範囲は大きく設定し、ある更新回数が、ある指定回数以上になったら第2の範囲を小さくする。この指定回数は、複数指定し、第2の範囲を段階的に小さくしていってもよい。つまり初期段階では、第2の範囲は小さく設定することで、基準画素がその中に存在する可能性が高く、判定がより効率的になる。またある程度更新が進んだ段階では、第2の範囲を小さくすることで指定領域の分離精度が向上する。
本実施の形態による領域拡張方法では、対象画素T1に着目し、対象画素T1の画素値に対して第2の範囲内にある基準画素(シード1、シード2)の画素値を比較して対象画素T1が属する指定領域を決定する。つまり対象画素T1が、第2の範囲内の基準画素からの影響を受けて変化する、いわば「受け身型」の方法である。
受け身型においても、いったんあるラベルにラベル付けされた画素について、他のラベルに変更されることがあり得る。
この方法は、図11で説明した従来の領域拡張方法と類似するが、従来の領域拡張方法では、対象画素T1がこれと接する固定された周辺8画素から影響を受けるのに対し、実施例3による領域拡張方法では、第2の範囲が可変であることに特徴を有する。そして第2の範囲を大きくすることで上述したように判定をより効率的に行なえる。これが周辺8画素固定であると、その中に基準画素が存在する可能性は小さくなるため、判定の効率が低下する。
またこの領域拡張方法では、領域拡張を行なう直前における画像全体のラベルおよび強さはいったん記憶される。そして選択された対象画素T1が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。そして変更後のラベルおよび強さは、再び領域拡張を行なう直前における画像全体のラベルおよび強さとして記憶され、再度領域拡張が行なわれていく。つまりこの場合、いわば「同期型」の領域拡張方法である。
また第2の範囲を小さくすることで指定領域の分離精度がより向上する。よって本実施の形態の第2の範囲については、更新回数により小さくなるように変更する。
(実施例4(「受け身型」で「非同期型」の場合))
なお上述した場合は、実施例1と同様の「同期型」であったが、実施例2と同様の「非同期型」を使用することもできる。以下、「受け身型」であるとともに、「非同期型」の場合を、実施例4として説明を行なう。
なお上述した場合は、実施例1と同様の「同期型」であったが、実施例2と同様の「非同期型」を使用することもできる。以下、「受け身型」であるとともに、「非同期型」の場合を、実施例4として説明を行なう。
図24(a)〜(h)は、実施例4による領域拡張方法で順次ラベル付けがされていく過程の例を示した図である。
図24(a)は、図13(a)に示した原画像に対し、図13(b)で示した基準画素としてのシード1およびシード2を設定した場合を示している。これは図18および図19で説明した場合と同様である。
図24(a)は、図13(a)に示した原画像に対し、図13(b)で示した基準画素としてのシード1およびシード2を設定した場合を示している。これは図18および図19で説明した場合と同様である。
そして図24(b)は、このとき設定される第2の範囲を示している。本実施の形態では、判定部133は、図24(b)に示すように1行1列の位置を起点とし、これをまず対象画素T1として、この対象画素T1が何れの指定領域に属するか否かを判定する。そして図24(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、対象画素T1が何れの指定領域に属するか否かを判定していく。この判定は、強さによりなされ、実施例1〜実施例3と同様である。
そして図中右端までを対象画素T1として判定した後は、次に対象画素T1を第2列に移し、同様に対象画素T1を図中右側に一画素ずつ移動させつつ、この対象画素T1が何れの指定領域に属するか否かを判定していく。そして図中右端まで判定した後は、さらに次の列に移る。これは図24(e)〜(g)に示すように繰り返され、図中右下端部に対象画素T1が移動するまで行なわれる。
そして図中右端までを対象画素T1として判定した後は、次に対象画素T1を第2列に移し、同様に対象画素T1を図中右側に一画素ずつ移動させつつ、この対象画素T1が何れの指定領域に属するか否かを判定していく。そして図中右端まで判定した後は、さらに次の列に移る。これは図24(e)〜(g)に示すように繰り返され、図中右下端部に対象画素T1が移動するまで行なわれる。
さらに右下端部に対象画素T1が達し、画素の移動がこれ以上できなくなった後は、上述した場合と逆向きに対象画素T1を移動させ、対象画素T1が左上端部に移動するまで同様の処理を行なう。これで対象画素T1が1回往復移動したことになる。さらに以後、収束するまでこの対象画素T1の往復移動を繰り返す。
なおここで挙げた例では、起点が1つの例で説明をしたが、実施例3で説明したように起点を複数設定し、それぞれを移動させてもよい。また起点として画像中の画素の何れを選択してもよい。
そして最終的には、図24(h)に示すように、第1の指定領域と第2の指定領域に切り分けが行なわれる。
この領域拡張方法でも、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
この領域拡張方法でも、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
第2の範囲は固定でも変更してもよく、そして第2の範囲を変更する場合は、その範囲は、更新回数により小さくなるように変更することが好ましい。
またこの領域拡張方法では、選択された対象画素T1が一画素ずつ移動する度に、対象画素T1が何れの指定領域に属するかが判定部133にて判定され、領域拡張が行なわれる。つまり予め定められた順で一の対象画素T1(第2の対象画素)を選択し、選択された一の対象画素T1(第2の対象画素)に対し、1回の判定を行うことを繰り返す。そして判定後は、特性変更部134にて記憶されていたラベルおよび強さが変更される。つまりこの場合、対象画素T1が一画素ずつ移動する度に対象画素T1(第2の対象画素)だけが変更の対象となる。これは「非同期型」の領域拡張方法であると言ってよい。
次に実施例3および実施例4における第1の領域検出部13の動作について説明を行なう。
図25は、実施例3および実施例4における第1の領域検出部13の動作について説明したフローチャートである。
以下、図12および図25を使用して第1の領域検出部13の動作を説明する。
まず画素選択部131が、対象画素(第2の対象画素)を選択する(ステップ201)。図22に示した例では、画素選択部131は、対象画素T1を選択する。
図25は、実施例3および実施例4における第1の領域検出部13の動作について説明したフローチャートである。
以下、図12および図25を使用して第1の領域検出部13の動作を説明する。
まず画素選択部131が、対象画素(第2の対象画素)を選択する(ステップ201)。図22に示した例では、画素選択部131は、対象画素T1を選択する。
次に範囲設定部132が、対象画素に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ202)。図22に示した例では、範囲設定部132は、対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲とする。
そして判定部133が、対象画素が何れの指定領域に属するかを判定する(ステップ203)。上述した例では、判定部133は、対象画素T1とシード1およびシート2の画素値の近さや強さにより判定を行なう。
さらに特性変更部134が、判定部133において対象画素が何れかの指定領域に属すると判定された場合、特性を変更する(ステップ204)。具体的には、対象画素T1にラベル付けを行ない、さらに強さを付与する。
次に収束判定部135が、一連の処理が収束したか否かを判定する(ステップ205)。この判定は、上述したようにラベルが変更される画素がなくなったときに収束したと判定してもよく予め定められた最大更新回数に達したときに収束したと判定してもよい。
そして収束判定部135が処理が収束したと判定した場合(ステップ205でYes)、指定領域の切り出しの処理を終了する。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ205でNo)、ステップ201に戻る。なおこの場合、画素選択部131で選択される対象画素(第2の対象画素)は変更される。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ205でNo)、ステップ201に戻る。なおこの場合、画素選択部131で選択される対象画素(第2の対象画素)は変更される。
(実施例5)
次に第1の領域検出部13の実施例5について説明を行なう。
実施例4では、実施例1および実施例2で説明した「攻撃型」の領域拡張方法と、実施例3および実施例4で説明した「受け身型」の領域拡張方法の双方を使用する。つまり実施例5では、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法とを更新の途中で切り替えながら領域を拡張していく。
次に第1の領域検出部13の実施例5について説明を行なう。
実施例4では、実施例1および実施例2で説明した「攻撃型」の領域拡張方法と、実施例3および実施例4で説明した「受け身型」の領域拡張方法の双方を使用する。つまり実施例5では、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法とを更新の途中で切り替えながら領域を拡張していく。
つまり範囲設定部132は、更新の度に、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法の何れを使用するかを選択する。そして「攻撃型」の領域拡張方法を選択した場合は、第1の範囲の設定を行う。そして判定部133が、第1の範囲内の対象画素が何れの指定領域に属するかを判定する。また「受け身型」の領域拡張方法を選択した場合は、第2の範囲の設定を行う。そして判定部133が、対象画素が何れの指定領域に属するかを判定する。即ち、第1の範囲の設定と第2の範囲の設定とを少なくとも1回切り替えつつ判定を行っていく。
この切り替えの方法は、特に制限はなく、例えば、「攻撃型」と「受け身型」を交互に使用してもよい。また最初に予め定められた更新回数分「攻撃型」を使用し、その後、「受け身型」を最後まで使用する方法でもよい。また逆に最初に予め定められた更新回数分「受け身型」を使用し、その後、「攻撃型」を最後まで使用する方法でもよい。なお「攻撃型」の場合、実施例1および実施例2の何れも使用することができる。
このように「攻撃型」と「受け身型」を双方使用する領域拡張方法でも指定領域1および指定領域2の切り出しが行える。
このように「攻撃型」と「受け身型」を双方使用する領域拡張方法でも指定領域1および指定領域2の切り出しが行える。
また本実施の形態では、設定される第1の範囲や第2の範囲は固定でもよく、可変であってもよい。そして第1の範囲や第2の範囲は、更新回数により順次小さくしていくことが好ましい。また実施例1と同様の「同期型」でも、実施例2と同様の「非同期型」でも何れの方法でも使用することができる。
次に実施例5における第1の領域検出部13の動作について説明を行なう。
図26は、実施例5における第1の領域検出部13の動作について説明したフローチャートである。
以下、図12および図26を使用して第1の領域検出部13の動作を説明する。
まず画素選択部131が、「攻撃型」と「受け身型」の何れを使用するかを選択する(ステップ301)。
図26は、実施例5における第1の領域検出部13の動作について説明したフローチャートである。
以下、図12および図26を使用して第1の領域検出部13の動作を説明する。
まず画素選択部131が、「攻撃型」と「受け身型」の何れを使用するかを選択する(ステップ301)。
そして画素選択部131が、「攻撃型」を選択した場合(ステップ302でYes)、画素選択部131が、指定領域に属する画素の中から選択される基準画素を選択する(ステップ303)。
また範囲設定部132が、この基準画素に対し指定領域に含まれるかを決定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ304)。
さらに判定部133が、第1の範囲内の対象画素が何れの指定領域に属するかを判定する(ステップ305)。
また範囲設定部132が、この基準画素に対し指定領域に含まれるかを決定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ304)。
さらに判定部133が、第1の範囲内の対象画素が何れの指定領域に属するかを判定する(ステップ305)。
対して画素選択部131が、「受け身型」を選択した場合(ステップ302でNo)、画素選択部131が、対象画素T1(第2の対象画素)を選択する(ステップ306)。
また範囲設定部132が、この対象画素T1に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ307)。
さらに判定部133が、対象画素T1が何れの指定領域に属するかを判定する(ステップ308)。
また範囲設定部132が、この対象画素T1に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ307)。
さらに判定部133が、対象画素T1が何れの指定領域に属するかを判定する(ステップ308)。
次に特性変更部134が、判定部133において何れかの指定領域に属すると判定された対象画素T1について、特性を変更する(ステップ309)。
そして収束判定部135が、一連の処理が収束したか否かを判定する(ステップ310)。
収束判定部135が処理が収束したと判定した場合(ステップ310でYes)、指定領域の切り出しの処理を終了する。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ310でNo)、ステップ301に戻る。なおこの場合、画素選択部131で選択される基準画素または対象画素(第2の対象画素)は変更される。
収束判定部135が処理が収束したと判定した場合(ステップ310でYes)、指定領域の切り出しの処理を終了する。
一方、収束判定部135が処理が収束していないと判定した場合(ステップ310でNo)、ステップ301に戻る。なおこの場合、画素選択部131で選択される基準画素または対象画素(第2の対象画素)は変更される。
以上詳述した第1の領域検出部13の構成によれば、領域拡張方法を使用して指定領域を切り出す場合、指定領域の切り出しが、従来に比較してより高速になる。
なお画像情報取得部11で取得する画像の視認性が悪い場合、予めRetinex処理などを行うことで視認性を高めることができる。
画像の画素位置(x、y)の画素値(輝度値)をI(x、y)として、視認性を高めた画像の画素値I’(x、y)とすると、Retinex処理によって、以下のように視認性を向上させることができる。
画像の画素位置(x、y)の画素値(輝度値)をI(x、y)として、視認性を高めた画像の画素値I’(x、y)とすると、Retinex処理によって、以下のように視認性を向上させることができる。
I’(x、y)=αR(x、y)+(1―α)I(x、y)
αは、反射率を強調するパラメータ、R(x、y)は推定反射率成分であり、Retinexモデルでは、反射率成分を強調することで視認性を高めることができる。本実施の形態では、R(x、y)の算出は、既存のRetinexモデルのいかなる方法でもよいものとする。0≦α≦1とすれば、α=0のときは原画像を表し、α=1のときは反射率画像(最大の視認性)を表す。αはユーザが調整してもよいし、または画像の暗さに応じて、対応づけておいてもよい。
図27(a)〜(b)は、Retinex処理を行い、原画像に対し視認性向上を行なった場合の概念図である。
このうち図27(a)は、原画像であり、図27(b)は、Retinex処理を行なった後の画像である。このように視認性向上を行なうことで、指定領域の切り出しの精度がより向上する。
このうち図27(a)は、原画像であり、図27(b)は、Retinex処理を行なった後の画像である。このように視認性向上を行なうことで、指定領域の切り出しの精度がより向上する。
[第2の実施形態]
次に画像処理装置10の第2の実施形態について説明を行なう。
次に画像処理装置10の第2の実施形態について説明を行なう。
<画像処理装置の説明>
図28は、第2の実施形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、画像サイズ変更部19と、第1の領域検出部13と、指定領域拡大部14と、第2の領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。即ち、本実施の形態の画像処理装置10は、図2で示した第1の実施形態の画像処理装置10に対して、画像サイズ変更部19が加わる構成となっている。
図28は、第2の実施形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、画像サイズ変更部19と、第1の領域検出部13と、指定領域拡大部14と、第2の領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。即ち、本実施の形態の画像処理装置10は、図2で示した第1の実施形態の画像処理装置10に対して、画像サイズ変更部19が加わる構成となっている。
例えば、図3に示すような曲線で指定領域のシードを入力する場合、ユーザーにとって編集に最適なサイズがある。一方で、第1の領域検出部13で指定領域の切り出しの処理を行うサイズは画像処理装置10の処理能力などにも依存するので、編集を行う際に使用するサイズと指定領域の切り出しの処理を行うサイズとは異なるサイズにした方がよい場合がある。またさらに第2の領域検出部15が指定領域を最終的に切り出す使用画像G’のサイズが別途存在する。即ち、この場合、画像のサイズは3種類となる。
図29(a)〜(c)は、本実施の形態で使用する3種類のサイズの画像について説明した図である。
このうち図29(a)は、表示装置20に表示され、ユーザが指定領域のシードを入力する編集画像について示している。ここではこの画像を画像Gとしている。この画像Gは、第1の実施形態の画像Gと同じものである。そして図3で説明した「シード1」、「シード2」が与えられている。
また図29(b)は、第1の領域検出部13で指定領域の切り出しの処理を行うサイズである。ここではこの画像を画像G”として図示している。図示するように画像G”は、画像Gよりも小さいサイズとなり、より低解像度の画像となる。これにより第1の領域検出部13で行う指定領域の切り出しの処理速度が向上する。
さらに図29(c)は、第2の領域検出部15が指定領域を最終的に切り出す使用画像G’である。この使用画像G’は、第1の実施形態の使用画像G’と同じものである。第1の実施形態と同様に、使用画像G’は、画像Gよりも大きいサイズとなり、より高解像度の画像となる。
このうち図29(a)は、表示装置20に表示され、ユーザが指定領域のシードを入力する編集画像について示している。ここではこの画像を画像Gとしている。この画像Gは、第1の実施形態の画像Gと同じものである。そして図3で説明した「シード1」、「シード2」が与えられている。
また図29(b)は、第1の領域検出部13で指定領域の切り出しの処理を行うサイズである。ここではこの画像を画像G”として図示している。図示するように画像G”は、画像Gよりも小さいサイズとなり、より低解像度の画像となる。これにより第1の領域検出部13で行う指定領域の切り出しの処理速度が向上する。
さらに図29(c)は、第2の領域検出部15が指定領域を最終的に切り出す使用画像G’である。この使用画像G’は、第1の実施形態の使用画像G’と同じものである。第1の実施形態と同様に、使用画像G’は、画像Gよりも大きいサイズとなり、より高解像度の画像となる。
本実施の形態では、画像G”は、画像Gを縮小することにより作成する。このときユーザが与えたシードについても同様に縮小される。本実施の形態では、画像サイズ変更部19が、この処理を行う。画像サイズ変更部19は、ユーザが指定領域を指定する際に使用する画像Gの画像サイズを変更するとともに、変更された画像のサイズに合わせてシードを変更する。ただし、画像Gをそのまま縮小した場合、シードが有する位置情報が損なわれる。即ち、画像Gだけではなく、与えたシードの位置情報を保つ必要がある。以下、画像サイズ変更部19が行う処理について説明を行う。
画像サイズ変更部19は、まず図29(a)に示した編集画像を、画像Gとシードを表す画像である位置情報画像Gpに分解する。
図30(a)〜(c)は、図29(a)に示した編集画像を、画像Gと位置情報画像Gpに分解した状態を示した図である。
ここでは、図30(a)に図29(a)に示した編集画像を示し、図30(b)に示す画像Gと、図30(c)に示す位置情報画像Gpに分解している。
図30(a)〜(c)は、図29(a)に示した編集画像を、画像Gと位置情報画像Gpに分解した状態を示した図である。
ここでは、図30(a)に図29(a)に示した編集画像を示し、図30(b)に示す画像Gと、図30(c)に示す位置情報画像Gpに分解している。
次に画像Gおよび位置情報画像Gpの各々を縮小するが、重要となるのは位置情報画像Gpの縮小である。位置情報画像Gpは線分により構成され、縮小方法によってはシードが消えてしまう可能性がある。そこで、本実施の形態では、位置情報画像Gpに対しては、最近傍マッピングを行う。位置情報画像Gpの画素の1つ1つの位置を(i、j)、マッピングした画素の位置を(y、x)、サイズ変更率をr、変更前の画素値をP、変更後の画素値をpとすると、以下の数4式によりマッピングを行うことができる。また数4式による最近傍マッピングのイメージを図31に示す。
(y、x)は画素の位置なので、四捨五入などをして整数化する。シードはフラグ(ONかOFFか)を表すので、例えば、シード1が赤で表されている場合は(R、G、B)=(255、0、0)とすることで、ラベル1の領域とみなし、シード2が青で表されている場合は(R、G、B)=(0、0、255)とすることで、ラベル2の領域とみなすことができる。数4式のマッピングは、補間を行うことがないダイレクトなマッピングなので、シードのフラグとしての性質(ONかOFFか)を損なうことなく、高速に画像縮小が行える。一方で、四捨五入で位置を決めるため、位置の精度は低下する可能性がある。
そこで、シードの位置の精度をより向上させたい場合は、線形補間などの近傍による補間処理を行ってもよい。線形補間による補間処理では、変換後の画素値は、以下の数5式のようになる。また数5式による線形補間による補間処理のイメージを図32に示す。
線形補間による補間処理と最近傍マッピングとの違いは、四捨五入をすることなく近傍に位置する画素値からの重みづけを行うところにある。
図33(a)〜(b)は、シードを表す曲線の一部を線形補間する様子を表した図である。このうち図33(a)は、線形補間前の状態であり、図33(b)は、線形補間後の状態を示す。
線形補間による補間処理によれば、シードの位置の精度を保つことができる。このときシード以外の画素値は、すべて(R、G、B)=(0、0、0)とみなすことができる。またシードの画素値は、例えば、シード1の場合は、補間処理前は、(R、G、B)=(255、0、0)であったものが、補間処理後は、(R、G、B)=(0<R≦255、0、0)となる。図33(a)〜(b)では、(R、G、B)=(0、0、0)の画素を黒色、(R、G、B)=(255、0、0)の画素を白色とし、(R、G、B)=(0<R<255、0、0)の画素をグレーとしている。
線形補間による補間処理によれば、シードの位置の精度を保つことができる。このときシード以外の画素値は、すべて(R、G、B)=(0、0、0)とみなすことができる。またシードの画素値は、例えば、シード1の場合は、補間処理前は、(R、G、B)=(255、0、0)であったものが、補間処理後は、(R、G、B)=(0<R≦255、0、0)となる。図33(a)〜(b)では、(R、G、B)=(0、0、0)の画素を黒色、(R、G、B)=(255、0、0)の画素を白色とし、(R、G、B)=(0<R<255、0、0)の画素をグレーとしている。
そして(R、G、B)=(0<R<255、0、0)の画素は、閾値処理をし、シードの画素と、シードでない画素とを切り分ける必要がある。本実施の形態では閾値Θを設定し、R>Θならば、R=255、それ以外ならR=0とするなどの処理を行う。Θは、例えば、128などの数値を設定することができる。
図34(a)〜(b)は、閾値処理前と閾値処理後について示した図である。このうち図34(a)は、図33(b)と同様の図であり、閾値処理前の状態である。また図34(b)は、閾値処理後の状態を示す。このようにすることで、図34(b)に示すようにシードを表す画像である位置情報画像Gpを精度よく縮小する。
また他にも(R、G、B)=(0<R<255、0、0)の画素を、固定シードと可変シードとに分けてもよい。ここで、固定シードとは、指定領域の切り出しの過程でラベルが変わらない画素をいい、可変シードとは、指定領域の切り出しの過程でラベルが変わる可能性がある画素をいう。ラベルが変わるという点では、可変シードは、ラベル付けされていない画素と変わらないが、ラベル付けされていない画素との違いは、ラベルとラベルの強さの初期値を持つ点である。
例えば、図35のように、図34(a)の画素について、R>Θならば、固定シード、0<R≦Θならば可変シードとする処理を行う。Θは、例えば、128などの数値を設定することができる。
例えば、図35のように、図34(a)の画素について、R>Θならば、固定シード、0<R≦Θならば可変シードとする処理を行う。Θは、例えば、128などの数値を設定することができる。
なお以上シードが1種類である場合を説明したが、シードが2種類以上であっても同様に行うことができる。
そして図36で示すように、縮小した画像Gである画像G”と縮小した位置情報画像Gpsとを合成する。そして第1の領域検出部13で指定領域の切り出しを行う。即ち、第1の領域検出部13は、変更されたシードを基に指定領域を検出する。
以上のように、第2の実施形態では、画像サイズ変更部19が、ユーザの編集に適したサイズである編集画像に対し、編集対象となる画像Gとシードの位置を表す位置情報画像Gpに分解して、画像処理に適したサイズへ各々を縮小させることを特徴とする。これは、画像サイズ変更部19は、ユーザが指定領域を指定する際に使用する編集画像と位置情報とを分離し、各々を別々に変更する、と言い換えることもできる。
そして図36で示すように、縮小した画像Gである画像G”と縮小した位置情報画像Gpsとを合成する。そして第1の領域検出部13で指定領域の切り出しを行う。即ち、第1の領域検出部13は、変更されたシードを基に指定領域を検出する。
以上のように、第2の実施形態では、画像サイズ変更部19が、ユーザの編集に適したサイズである編集画像に対し、編集対象となる画像Gとシードの位置を表す位置情報画像Gpに分解して、画像処理に適したサイズへ各々を縮小させることを特徴とする。これは、画像サイズ変更部19は、ユーザが指定領域を指定する際に使用する編集画像と位置情報とを分離し、各々を別々に変更する、と言い換えることもできる。
また図28に示した画像情報取得部11、ユーザ指示受付部12、第1の領域検出部13、指定領域拡大部14、第2の領域検出部15、領域切替部16、画像処理部17、画像情報出力部18の各部の機能は、第1の実施形態と同様である。ただし第1の領域検出部13で画像Gのかわりに画像Gを縮小した画像G”を使用する。
[第3の実施形態]
次に画像処理装置10の第3の実施形態について説明を行なう。第3の実施形態では、画像処理装置10の機能構成例を表すブロック図は、図2と同様である。
第1の実施形態では、指定領域が2つの場合を説明したが、第3の実施形態では、指定領域が3つの場合について説明を行う。
次に画像処理装置10の第3の実施形態について説明を行なう。第3の実施形態では、画像処理装置10の機能構成例を表すブロック図は、図2と同様である。
第1の実施形態では、指定領域が2つの場合を説明したが、第3の実施形態では、指定領域が3つの場合について説明を行う。
図37は、図3(b)で示した画像Gに対し、3つのシードを付与した場合を示した図である。
図37では、頭髪の部分、顔の部分、および頭髪や顔以外の部分にそれぞれ「シード1」、「シード2」、「シード3」が描かれている。
そして第1の領域検出部13は、「シード1」に対応する画素に「ラベル1」を、「シード2」に対応する画素に「ラベル2」を、「シード3」に対応する画素に「ラベル3」を付加し、画像Gの中から、領域拡張方法により指定領域を切り出す処理を行う。
図37では、頭髪の部分、顔の部分、および頭髪や顔以外の部分にそれぞれ「シード1」、「シード2」、「シード3」が描かれている。
そして第1の領域検出部13は、「シード1」に対応する画素に「ラベル1」を、「シード2」に対応する画素に「ラベル2」を、「シード3」に対応する画素に「ラベル3」を付加し、画像Gの中から、領域拡張方法により指定領域を切り出す処理を行う。
図38(a)〜(c)は、図37で示した画像Gについて、領域拡張方法により指定領域が切り出される様子を示している。
このうち図38(a)は、図37で示した画像Gであり、シードとして軌跡が描かれた状態を示している。
そして図38(b)で示すように、シードとして軌跡が描かれた箇所から指定領域内に領域が拡張していき、図38(c)で示すように最後に指定領域として3つの指定領域である「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」が切り出される。
このうち図38(a)は、図37で示した画像Gであり、シードとして軌跡が描かれた状態を示している。
そして図38(b)で示すように、シードとして軌跡が描かれた箇所から指定領域内に領域が拡張していき、図38(c)で示すように最後に指定領域として3つの指定領域である「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」が切り出される。
また図39(a)〜(c)は、本実施の形態で、指定領域拡大部14が行う処理について示した図であり、第1の実施の形態では、図5(a)〜(b)に対応する。
つまり指定領域拡大部14は、図39(a)に示す指定領域が切り出された分離画像Gbを拡大し、図39(b)に示す拡大分離画像Gzとする。
つまり指定領域拡大部14は、図39(a)に示す指定領域が切り出された分離画像Gbを拡大し、図39(b)に示す拡大分離画像Gzとする。
図39(c)は、本実施の形態で、第2の領域検出部15が行う処理について示した図である。
つまり第2の領域検出部15は、「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」それぞれの境界部においてラベルをリセットして領域S0とし、ラベルリセット画像Grとする。
つまり第2の領域検出部15は、「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」それぞれの境界部においてラベルをリセットして領域S0とし、ラベルリセット画像Grとする。
図40(a)〜(b)は、本実施の形態で、第2の領域検出部15が、領域S0において指定領域の検出を再度行う処理について示した図である。
このうち図40(a)は、図39(c)と同様の図であり、第2の領域検出部15が指定領域の検出を行う前のラベルリセット画像Grを示している。そして第2の領域検出部15が、領域S0において指定領域の検出を再度行う。その結果、図40(b)で示すように、「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」に再度切り分けられ、領域S0が消滅し、最終分離画像Gbeとなる。
以後の処理は、第1の実施の形態と同様である。
このうち図40(a)は、図39(c)と同様の図であり、第2の領域検出部15が指定領域の検出を行う前のラベルリセット画像Grを示している。そして第2の領域検出部15が、領域S0において指定領域の検出を再度行う。その結果、図40(b)で示すように、「第1の指定領域(S1)」、「第2の指定領域(S2)」、「第3の指定領域(S3)」に再度切り分けられ、領域S0が消滅し、最終分離画像Gbeとなる。
以後の処理は、第1の実施の形態と同様である。
従来のグラフカット法では、2つの指定領域について切り出すことしかできない。対して本実施の形態の画像処理装置10では、3つの指定領域について切り出すことも可能である。なお本実施の形態の画像処理装置10では、4つ以上の指定領域について切り出すようにしてもよい。
[第4の実施形態]
次に画像処理装置10の第4の実施形態について説明を行なう。第4の実施形態では、画像処理装置10の機能構成例を表すブロック図は、図2と同様である。
第4の実施形態では、第1の領域検出部13において指定領域の切り出しがうまくいかなかった場合にシードを追加し、これにより指定領域の切り出しを再度行う場合について説明を行う。
次に画像処理装置10の第4の実施形態について説明を行なう。第4の実施形態では、画像処理装置10の機能構成例を表すブロック図は、図2と同様である。
第4の実施形態では、第1の領域検出部13において指定領域の切り出しがうまくいかなかった場合にシードを追加し、これにより指定領域の切り出しを再度行う場合について説明を行う。
図41(a)〜(e)は、指定領域の切り出しを行う際にシードを追加する場合について説明した図である。
図41(a)は、図3(b)と同様の図であり、ユーザが、画像Gの顔の部分にシード1を描き、顔以外の部分にシード2を描いた場合を示している。
図41(a)は、図3(b)と同様の図であり、ユーザが、画像Gの顔の部分にシード1を描き、顔以外の部分にシード2を描いた場合を示している。
そして図41(b)は、第1の領域検出部13により、画像Gが、「第1の指定領域(S1)」と「第2の指定領域(S2)」とに切り分けられた場合を示している。しかしながら図41(b)では、図中、点線による円で囲った領域において、指定領域の切り出しがうまくいかなかった場合を示している。即ち、本来「第2の指定領域(S2)」となるべき箇所が、「第1の指定領域(S1)」となっている部分がある。この箇所には、本来「ラベル1」が付与されるべきであるが、「ラベル2」が付与されている。
そしてこのようになったときは、図41(c)で示すように、ユーザは、この箇所に、追加のシード2を与え、「第2の指定領域(S2)」であることを指示する。つまりユーザは、追加の位置情報を与える。この追加の位置情報は、ユーザ指示受付部12により取得される。
そして追加のシード2が与えられた場合、第1の領域検出部13は、追加した位置情報の周辺に対応する画素について、付与されていた「ラベル1」または「ラベル2」をリセットする。つまりこの箇所において指定領域の設定を解除する。なお他の箇所のラベル維持され、「ラベル1」または「ラベル2」となっている。
図41(d)は、追加したシード2およびこの周辺に対応する画素についてラベルがリセットされた状態を示した図である。図では、この箇所を領域S0で図示している。また領域S0の画素には、「ラベル0」が付与されていると言うこともできる。領域S0は、図示するように、例えば、矩形形状として設定される。
以下は、第1の実施形態と同様であり、図41(e)に示すように「第1の指定領域(S1)」と「第2の指定領域(S2)」とに切り分けられる。図41(e)の状態では、追加したシード2の作用により、画像Gの顔の部分である「第1の指定領域(S1)」と顔以外の部分である「第2の指定領域(S2)」に正確に切り分けが行われていることがわかる。
図42(a)〜(c)は、追加のシードを修正する場合を示した図である。
図42(a)は、ユーザが、追加のシード2を描いた場合を示している。ただしこの場合、点線による円で囲った領域において、「第1の指定領域(S1)」となるべき箇所に、追加のシード2がはみ出して、描かれている。
この場合、ユーザは、いったん描いたシード2を修正することができる。具体的には、シード2の一部を消去し、はみ出した箇所を削除する。実際には、図42(b)に示すように、ユーザは、シードを描くときと同様に、シードを消去するための軌跡を描く。ユーザのシードを消去する情報(消去情報)は、ユーザ指示受付部12により取得される。そしてシード2について少なくとも一部を選択的に消去することができる。図42(c)は、追加のシード2のはみ出した箇所を消去した後の状態について示している。
以後は、第1の領域検出部13が消去情報により少なくとも一部が消去された追加のシード2を基に指定領域を検出する。即ち、図41(d)〜(e)に示したように、第1の領域検出部13が、指定領域の切り出しを行う。
図42(a)は、ユーザが、追加のシード2を描いた場合を示している。ただしこの場合、点線による円で囲った領域において、「第1の指定領域(S1)」となるべき箇所に、追加のシード2がはみ出して、描かれている。
この場合、ユーザは、いったん描いたシード2を修正することができる。具体的には、シード2の一部を消去し、はみ出した箇所を削除する。実際には、図42(b)に示すように、ユーザは、シードを描くときと同様に、シードを消去するための軌跡を描く。ユーザのシードを消去する情報(消去情報)は、ユーザ指示受付部12により取得される。そしてシード2について少なくとも一部を選択的に消去することができる。図42(c)は、追加のシード2のはみ出した箇所を消去した後の状態について示している。
以後は、第1の領域検出部13が消去情報により少なくとも一部が消去された追加のシード2を基に指定領域を検出する。即ち、図41(d)〜(e)に示したように、第1の領域検出部13が、指定領域の切り出しを行う。
なお上述した場合は、追加するシードは1つであったが、複数であってもよい。
図43は、追加するシードが複数の場合を示した図である。
図中、シード1とシード2について1つずつシードを追加した場合を示している。図では、これを追加のシード1および追加のシード2として図示している。そしてそれぞれについて矩形形状の領域S0が設定された場合を示している。なおシード1について複数の追加のシードを与えてもよく、シード2について複数の追加のシードを与えてもよい。
図43は、追加するシードが複数の場合を示した図である。
図中、シード1とシード2について1つずつシードを追加した場合を示している。図では、これを追加のシード1および追加のシード2として図示している。そしてそれぞれについて矩形形状の領域S0が設定された場合を示している。なおシード1について複数の追加のシードを与えてもよく、シード2について複数の追加のシードを与えてもよい。
また上述した例では、領域S0について、矩形形状で設定したが、これに限られるものではない。
図44(a)〜(b)は、追加のシードが与えられたときの領域S0の設定の方法について示した図である。
このうち図44(a)は、追加のシードに対し、領域S0を矩形形状で設定した場合であり、上述した場合と同様である。一方、図44(b)は、追加のシードに対し、領域S0を追加のシードを囲む太い曲線形状で設定した場合である。
図44(a)〜(b)は、追加のシードが与えられたときの領域S0の設定の方法について示した図である。
このうち図44(a)は、追加のシードに対し、領域S0を矩形形状で設定した場合であり、上述した場合と同様である。一方、図44(b)は、追加のシードに対し、領域S0を追加のシードを囲む太い曲線形状で設定した場合である。
また設定される領域S0の中に従来与えていたシードが含まれることがある。この場合は、従来与えていたシードについては、ラベルをリセットせず、ラベルを維持する。
図45は、設定される領域S0の中に従来与えていたシードが含まれる場合を示している。
この場合、追加のシードにより設定される矩形形状の領域S0中に従来与えていたシード1が含まれる。しかしながらシード1の箇所は、「第1の指定領域(S1)」に含まれることは、明確であるため、この箇所のラベルは「ラベル1」として維持される。また矩形形状内の他の部分については、ラベルがリセットされ、領域S0となる。
図45は、設定される領域S0の中に従来与えていたシードが含まれる場合を示している。
この場合、追加のシードにより設定される矩形形状の領域S0中に従来与えていたシード1が含まれる。しかしながらシード1の箇所は、「第1の指定領域(S1)」に含まれることは、明確であるため、この箇所のラベルは「ラベル1」として維持される。また矩形形状内の他の部分については、ラベルがリセットされ、領域S0となる。
なお第4の実施形態で、図41(d)から指定領域の切り出しを行うのに、画像全体を対象とする必要はない。
図46(a)〜(b)は、第4の実施形態で、指定領域の切り出しを行うときに対象とする画像の範囲を示した図である。
図46(a)は、図41(d)の状態であり、領域S0を設定した状態である。このうち図46(b)で示すように設定した領域S0の範囲から予め定められた幅だけ大きい矩形領域を設定し、この矩形領域内で指定領域の切り出しを行なえばよい。この場合、「第1の指定領域(S1)」の画素をシード1、「第2の指定領域(S2)」の画素をシード2と扱うことができる。
図46(a)〜(b)は、第4の実施形態で、指定領域の切り出しを行うときに対象とする画像の範囲を示した図である。
図46(a)は、図41(d)の状態であり、領域S0を設定した状態である。このうち図46(b)で示すように設定した領域S0の範囲から予め定められた幅だけ大きい矩形領域を設定し、この矩形領域内で指定領域の切り出しを行なえばよい。この場合、「第1の指定領域(S1)」の画素をシード1、「第2の指定領域(S2)」の画素をシード2と扱うことができる。
なお第1の実施形態〜第4の実施形態で説明した画像処理装置10では、第1の領域検出部13および第2の領域検出部15の双方で、上述した実施例1〜4の領域拡張方法により指定領域の切り出しを行っていたが、この方法により必ずしも行う必要はない。即ち、Grow-Cut法等の従来の領域拡張方法でも処理速度が十分である場合がある。ただした実施例1〜4の方法の方が、指定領域の切り出しが、より高速であるのは、上述した通りである。
また画像情報取得部11は、画像Gおよび使用画像G’の2種類の画像情報を取得していたが、使用画像G’の画像情報を取得し、これを縮小することで画像Gを作成してもよい。
以上説明した画像処理装置10によれば、より低解像度の画像Gまたは画像G”全体を基にまず指定領域を切り出す。画像Gまたは画像G”は、低解像度の画像であるため、画像G全体を対象とした場合でも指定領域の切り出しの処理を、より高速に行える。そして指定領域を使用画像G’の大きさまで拡大し、いったん検出された指定領域の境界部において指定領域を再度検出する。切り出し処理は、境界部において選択的に行われるため、その対象範囲は比較的狭い。そして指定領域の切り出しは、再度シードを与えるようなことは必要とせず、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に行う。そのため高解像度の使用画像G’を使用した場合でも、指定領域の切り出しを行なう際の切り出し精度がより向上するとともに処理速度の向上が図れる。また上述した実施例1〜4の領域拡張方法を使用することでさらに処理速度の向上を図れる。また第4の実施形態では、追加のシードが与えられたときに、追加のシードおよび追加のシードの周辺に対応する画素について同様のことを行う。この場合も、指定領域の切り出しを行なう際の切り出し精度がより向上するとともに処理速度の向上が図れる。
また以上説明した画像処理装置10が行う処理は、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得工程と、位置情報から指定領域を検出する領域検出工程と、を備え、領域検出工程は、予め定められた領域において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に予め定められた領域において指定領域を再度検出することを特徴とする画像処理方法と捉えることもできる。
<画像処理装置のハードウェア構成例>
次に、画像処理装置10のハードウェア構成について説明する。
図47は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
次に、画像処理装置10のハードウェア構成について説明する。
図47は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
<プログラムの説明>
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
よって本実施の形態で、画像処理装置10が行なう処理は、コンピュータに、画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得機能と、位置情報から指定領域を検出する領域検出機能と、を実現させ、領域検出機能は、予め定められた領域において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に予め定められた領域において指定領域を再度検出することを特徴とするプログラムとして捉えることもできる。
なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。
以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
1…画像処理システム、10…画像処理装置、11…画像情報取得部、12…ユーザ指示受付部、13…第1の領域検出部、14…指定領域拡大部、15…第2の領域検出部、16…領域切替部、17…画像処理部、18…画像情報出力部、19…画像サイズ変更部、20…表示装置、30…入力装置、131…画素選択部、132…範囲設定部、133…判定部、134…特性変更部、135…収束判定部
Claims (15)
- 画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、
位置情報から指定領域を検出する領域検出部と、
を備え、
前記領域検出部は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理装置。 - 前記領域検出部は、第1の領域検出部と第2の領域検出部とを含み、
前記第1の領域検出部は、位置情報から指定領域を検出し、
前記第2の領域検出部は、拡大された指定領域の境界部において、当該指定領域の設定を解除することを特徴とする請求項1に記載の画像処理装置。 - 前記位置情報取得部は、追加の位置情報を取得し、
前記領域検出部は、追加の位置情報の周辺に対応する画素についてさらに前記指定領域の設定を解除することを特徴とする請求項1に記載の画像処理装置。 - 前記位置情報取得部は、位置情報の少なくとも一部を消去する消去情報をさらに取得し、
前記領域検出部は、前記消去情報により少なくとも一部が消去された位置情報から指定領域を検出することを特徴とする請求項1に記載の画像処理装置。 - ユーザが指定領域を指定する際に使用する画像の画像サイズを変更するとともに、変更された画像のサイズに合わせて位置情報を変更する画像サイズ変更部をさらに備え、
前記領域検出部は、変更された位置情報を基に指定領域を検出することを特徴とする請求項1に記載の画像処理装置。 - 画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、
位置情報から指定領域を検出する第1の領域検出部と、
検出された指定領域を拡大する指定領域拡大部と、
拡大された指定領域の境界部において、当該境界部以外の領域に属する画素の中から選択された基準画素を基に指定領域を再度検出する第2の領域検出部と、
を備えることを特徴とする画像処理装置。 - ユーザが指定領域を指定する際に使用する画像の画像サイズを変更するとともに、変更された画像のサイズに合わせて位置情報を変更する画像サイズ変更部をさらに備え、
前記第1の領域検出部は、変更された位置情報を基に指定領域を検出することを特徴とする請求項6に記載の画像処理装置。 - 前記画像サイズ変更部は、ユーザが指定領域を指定する際に使用する画像と位置情報とを分離し、各々を別々に変更することを特徴とする請求項7に記載の画像処理装置。
- 前記第2の領域検出部は、前記指定領域拡大部で拡大された指定領域の境界の画素を中心として指定領域の設定を解除するフィルタを適用し、指定領域の設定を解除された画素に対し解除されていない画素を前記基準画素として指定領域を再度検出することを特徴とする請求項6乃至8の何れか1項に記載の画像処理装置。
- 前記第2の領域検出部は、
前記拡大された指定領域に属する画素の中から選択された基準画素に対し設定され、当該指定領域に含まれるか否かを決定する対象画素である第1の対象画素の範囲である第1の範囲を設定、または選択された対象画素である第2の対象画素に対し設定され、当該第2の対象画素が何れの指定領域に含まれるか否かを決定する当該基準画素が含まれる範囲である第2の範囲を変更する範囲設定部と、
前記第1の対象画素または前記第2の対象画素が何れの指定領域に属するかを決定する決定部と、
を備えることを特徴とする請求項6乃至9の何れか1項に記載の画像処理装置。 - 前記第1の領域検出部は、
指定領域に属する画素の中から選択された基準画素に対し設定され、当該指定領域に含まれるか否かを決定する対象画素である第1の対象画素の範囲である第1の範囲を設定、または選択された対象画素である第2の対象画素に対し設定され、当該第2の対象画素が何れの指定領域に含まれるか否かを決定する当該基準画素が含まれる範囲である第2の範囲を変更する範囲設定部と、
前記第1の対象画素または前記第2の対象画素が何れの指定領域に属するかを決定する決定部と、
を備えることを特徴とする請求項6乃至10の何れか1項に記載の画像処理装置。 - 前記位置情報取得部は、追加の位置情報を取得し、
前記第1の領域検出部は、追加の位置情報に基づき指定領域を検出することを特徴とする請求項6乃至11の何れか1項に記載の画像処理装置。 - 画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得工程と、
位置情報から指定領域を検出する領域検出工程と、
を備え、
前記領域検出工程は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理方法。 - 画像を表示する表示装置と、
前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、
ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、
を備え、
前記画像処理装置は、
前記画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得部と、
位置情報から指定領域を検出する領域検出部と、
を備え、
前記領域検出部は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とする画像処理システム。 - コンピュータに、
画像中の指定領域の代表位置を表す位置情報を取得する位置情報取得機能と、
位置情報から指定領域を検出する領域検出機能と、
を実現させ、
前記領域検出機能は、いったん検出された指定領域の境界部において指定領域の設定を解除し、指定領域の設定を解除されなかった画素の中から選択された基準画素を基に当該境界部において指定領域を再度検出することを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015120622A JP5858188B1 (ja) | 2015-06-15 | 2015-06-15 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
US14/926,736 US9792695B2 (en) | 2015-06-15 | 2015-10-29 | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium |
CN201510848466.1A CN106251322B (zh) | 2015-06-15 | 2015-11-27 | 图像处理设备、图像处理方法和图像处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015120622A JP5858188B1 (ja) | 2015-06-15 | 2015-06-15 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5858188B1 true JP5858188B1 (ja) | 2016-02-10 |
JP2017004441A JP2017004441A (ja) | 2017-01-05 |
Family
ID=55300992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015120622A Expired - Fee Related JP5858188B1 (ja) | 2015-06-15 | 2015-06-15 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9792695B2 (ja) |
JP (1) | JP5858188B1 (ja) |
CN (1) | CN106251322B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022131024A (ja) * | 2021-02-26 | 2022-09-07 | セイコーエプソン株式会社 | 表示方法およびプログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6249263B2 (ja) * | 2015-09-08 | 2017-12-20 | 日本電気株式会社 | 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム |
US10304220B2 (en) * | 2016-08-31 | 2019-05-28 | International Business Machines Corporation | Anatomy segmentation through low-resolution multi-atlas label fusion and corrective learning |
US10354391B2 (en) * | 2016-10-27 | 2019-07-16 | Peter Jin-Pyong Yim | Method and system for multi-label image segmentation |
JP6919433B2 (ja) * | 2017-09-05 | 2021-08-18 | 富士フイルムビジネスイノベーション株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
CN107945729B (zh) * | 2017-12-15 | 2020-05-08 | 京东方科技集团股份有限公司 | 转换方法及电路、显示装置及驱动方法和电路、存储介质 |
JP7154877B2 (ja) * | 2018-08-22 | 2022-10-18 | キヤノン株式会社 | 画像投射装置、画像投射装置の制御方法、および、プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09167233A (ja) * | 1995-12-15 | 1997-06-24 | Toshiba Corp | 画像処理方法および画像処理装置 |
JP2002271629A (ja) * | 2001-03-08 | 2002-09-20 | Ricoh Co Ltd | 画像処理方法及び記録媒体 |
JP2004096489A (ja) * | 2002-08-30 | 2004-03-25 | Seiko Epson Corp | 画像処理装置及びその方法、画像形成装置、並びにコンピュータが読出し可能なプログラム |
JP2005167374A (ja) * | 2003-11-28 | 2005-06-23 | Ricoh Co Ltd | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3773642B2 (ja) * | 1997-12-18 | 2006-05-10 | 株式会社東芝 | 画像処理装置および画像形成装置 |
US7260259B2 (en) * | 2002-01-08 | 2007-08-21 | Siemens Medical Solutions Usa, Inc. | Image segmentation using statistical clustering with saddle point detection |
US8913830B2 (en) * | 2005-01-18 | 2014-12-16 | Siemens Aktiengesellschaft | Multilevel image segmentation |
US7483023B2 (en) * | 2005-03-17 | 2009-01-27 | Siemens Medical Solutions Usa, Inc. | Model based adaptive multi-elliptical approach: a one click 3D segmentation approach |
US7636128B2 (en) * | 2005-07-15 | 2009-12-22 | Microsoft Corporation | Poisson matting for images |
CA2658727C (en) * | 2006-07-25 | 2017-10-24 | Humaneyes Technologies Ltd. | Interactive segmentation of images with single scribbles |
US20080136820A1 (en) * | 2006-10-20 | 2008-06-12 | Microsoft Corporation | Progressive cut: interactive object segmentation |
US8131076B2 (en) * | 2007-06-14 | 2012-03-06 | Siemens Aktiengesellschaft | Editing of pre-segmented images using seeds derived from contours |
CN101404085B (zh) * | 2008-10-07 | 2012-05-16 | 华南师范大学 | 交互式三维体分割序列图像的分割方法及其应用 |
US8488863B2 (en) * | 2008-11-06 | 2013-07-16 | Los Alamos National Security, Llc | Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials |
US8929635B2 (en) * | 2011-07-21 | 2015-01-06 | Carestream Health, Inc. | Method and system for tooth segmentation in dental images |
US8873835B2 (en) * | 2011-11-30 | 2014-10-28 | Adobe Systems Incorporated | Methods and apparatus for correcting disparity maps using statistical analysis on local neighborhoods |
JP5836908B2 (ja) | 2012-09-27 | 2015-12-24 | 富士フイルム株式会社 | 画像処理装置および方法並びにプログラム |
CN103049907B (zh) * | 2012-12-11 | 2016-06-29 | 深圳市旭东数字医学影像技术有限公司 | 交互式图像分割方法 |
CN103578107B (zh) * | 2013-11-07 | 2016-09-14 | 中科创达软件股份有限公司 | 一种交互式图像分割方法 |
-
2015
- 2015-06-15 JP JP2015120622A patent/JP5858188B1/ja not_active Expired - Fee Related
- 2015-10-29 US US14/926,736 patent/US9792695B2/en active Active
- 2015-11-27 CN CN201510848466.1A patent/CN106251322B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09167233A (ja) * | 1995-12-15 | 1997-06-24 | Toshiba Corp | 画像処理方法および画像処理装置 |
JP2002271629A (ja) * | 2001-03-08 | 2002-09-20 | Ricoh Co Ltd | 画像処理方法及び記録媒体 |
JP2004096489A (ja) * | 2002-08-30 | 2004-03-25 | Seiko Epson Corp | 画像処理装置及びその方法、画像形成装置、並びにコンピュータが読出し可能なプログラム |
JP2005167374A (ja) * | 2003-11-28 | 2005-06-23 | Ricoh Co Ltd | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022131024A (ja) * | 2021-02-26 | 2022-09-07 | セイコーエプソン株式会社 | 表示方法およびプログラム |
JP7287409B2 (ja) | 2021-02-26 | 2023-06-06 | セイコーエプソン株式会社 | 表示方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US9792695B2 (en) | 2017-10-17 |
CN106251322B (zh) | 2019-04-26 |
CN106251322A (zh) | 2016-12-21 |
US20160364626A1 (en) | 2016-12-15 |
JP2017004441A (ja) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5858188B1 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5880767B2 (ja) | 領域判定装置、領域判定方法およびプログラム | |
JP3189870B2 (ja) | 画像処理装置 | |
US20130016246A1 (en) | Image processing device and electronic apparatus | |
JP5867198B2 (ja) | 領域指定方法及び領域指定装置 | |
JP2017126304A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2003271125A (ja) | 画像表示装置、画像表示方法、及び画像表示プログラム | |
JP6287337B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5907196B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6241320B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
US9495757B2 (en) | Image processing apparatus and image processing method | |
JP6269323B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5512903B1 (ja) | 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム | |
JP6550819B2 (ja) | 選択支援装置及びプログラム | |
US7961945B2 (en) | System and method for on-the-fly segmentations for image deformations | |
US10366515B2 (en) | Image processing apparatus, image processing system, and non-transitory computer readable medium | |
JP2018097415A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6711031B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6930099B2 (ja) | 画像処理装置 | |
JP2016004309A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2013003990A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2019101844A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2011238281A (ja) | 画像処理方法及び画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5858188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |