WO2014045950A1 - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
WO2014045950A1
WO2014045950A1 PCT/JP2013/074448 JP2013074448W WO2014045950A1 WO 2014045950 A1 WO2014045950 A1 WO 2014045950A1 JP 2013074448 W JP2013074448 W JP 2013074448W WO 2014045950 A1 WO2014045950 A1 WO 2014045950A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
peripheral
region
elements
image processing
Prior art date
Application number
PCT/JP2013/074448
Other languages
French (fr)
Japanese (ja)
Inventor
雄馬 松田
雅文 矢野
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2014536771A priority Critical patent/JPWO2014045950A1/en
Publication of WO2014045950A1 publication Critical patent/WO2014045950A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • An object of the present invention is to provide an image processing system, an image processing method, and a program capable of extracting silhouette information of an object shape by dividing a general image such as a photograph.
  • FIG. 1 is a block diagram showing a schematic configuration of an image processing system according to the first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing an example of an input image.
  • FIG. 3 is an explanatory diagram showing an example of an image obtained by compressing an input image.
  • FIG. 4 is an explanatory diagram showing an example of an initial nucleus (pixel) selected from the image of FIG.
  • FIG. 5 is an explanatory diagram showing an example of peripheral pixel representation from the image of FIG.
  • FIG. 6 is an explanatory diagram showing an example of how the set gradually expands in the image of FIG.
  • FIG. 7 is a block diagram showing a configuration of an initial nucleus selection unit used in the image processing system shown in FIG.
  • FIG. 8 is an explanatory diagram showing an example of the component feature.
  • the inventors propose a system that performs image processing as follows.
  • the processing operation of this image processing system can be shown by the following three steps.
  • a pixel that is a nucleus of silhouette information of an object shape included in an image, that is, an initial nucleus is selected.
  • the surrounding pixel representation is generated by comparing the color information, ie, RGB values, of each pixel and the surrounding pixel. For example, as shown in FIG.
  • a pixel within 3 pixels in each of the vertical and horizontal directions with respect to a certain pixel (center pixel) is defined as a peripheral pixel, and a difference between RGB values from the center pixel (RGB value is expressed by a three-dimensional vector. (Expressed in norm).
  • This peripheral pixel representation is performed for all pixels. That is, all the pixels recognize a difference from surrounding pixels as an expression.
  • the third step by comparing the initial kernel and the “peripheral pixel representation” of its surrounding pixels, it is determined whether the corresponding peripheral pixel should be included in the same set as the initial kernel and included in the set If so, the same decision is made for the surrounding pixels.
  • an element that is neither a “diagram” nor a “ground” of a set is represented by a matrix of 1, -1, 0 (each element of the matrix is, for example, each element of an image), and elements outside the set (peripheral elements) , Let us say that the elements that are neither the “figure” nor the “ground” in the vicinity are represented by a matrix of 1, -1, 0, respectively.
  • the inter-element-set comparison unit 103-2 includes an element outside the target set in the set based on an evaluation value obtained by summing all elements of the set expression and the peripheral element expression with all elements. It can be determined whether or not it should be.
  • the initial nucleus selection unit 101 selects a pixel that is a nucleus of silhouette information of an object shape included in an image, that is, an initial nucleus, by the following three steps.
  • the component characterization unit 101-1 of the initial kernel selection unit 101 performs a component characterization step (S ⁇ b> 1002) for expressing each component (for example, pixel) constituting the given image as an element feature.
  • the element feature comparison unit 101-2 of the initial core selection unit 101 performs an element feature comparison step (S1003) for comparing the element features of the respective constituent elements.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

In order to extract the silhouette information of an object shape by dividing a general image, an image processing system divides, from the image, the area of an object or shape included in the image. The image processing system comprises: an initial core selection unit that selects, as an initial core, out of the constituent elements constituting the image, one or more elements that are starting points to start a calculation necessary for locating the area; a peripheral element representation unit that compares each of the constituent elements with peripheral elements around that constituent element, thereby characterizing the peripheral elements as peripheral element representations; and a set generation unit that compares the characteristics of the initial core constituting the area or of the constituent elements of the area with the peripheral element representations of the peripheral elements, thereby determining whether the peripheral elements belong to the same area as the initial core, thereby generating a set of constituent elements constituting the area, thereby dividing the area from the image.

Description

画像処理システム、画像処理方法、およびプログラムImage processing system, image processing method, and program
 本発明は、画像情報に含まれる一般的な物体または形状の認識や検索などを行うためのシステムに関し、特に、画像情報から物体または形状の情報を分割することによって対象を識別処理する画像処理システムに関する。 The present invention relates to a system for recognizing or searching a general object or shape included in image information, and in particular, an image processing system for identifying a target by dividing object or shape information from image information. About.
 近年、デジタルカメラを始めとするデジタル映像機器の急速な普及に伴い、撮影された画像や映像のなかに、どのような物体が含まれているのかを識別する一般物体認識への期待が高まっている。
 一般物体認識では、データベース内に分類されずに格納されている画像データの適切な分類や、必要な画像データの検索などが行なわれている。またさらには、動画像の中からの所望のシーンの抽出や、所望のシーンだけを切り取っての再編集など、様々な用途に応用できる可能性を、一般物体認識は有している。
 物体認識に関する技術として、顔認識や指紋認識など様々な認識技術がこれまでに開発されてきたが、これらは多くの場合、特定の用途に向けられたものである。このような特定の用途に特化した認識技術は、別の用途に利用しようとすると能率よく動作しない。この問題点としては、認識率の低下や誤識別、情報処理量の増大などの問題が挙げられる。このため、一般的な物体の認識を能率よく行う技術の開発が期待されている。
 情報処理装置によって一般物体を認識する方法として、物体形状のシルエットを利用する方法が提案されており、広く利用されている(例えば、特許文献1、特許文献2参照)。
 これらの方法を用いて画像内に含まれる一般物体を認識するためには、画像からシルエット情報を抽出する必要がある。しかしながら、一般的な画像からシルエット情報を抽出することは容易ではない。
 画像からシルエット情報を抽出する技術としては、画像内の輝度情報を空間的に微分処理することによりエッジを取り出し、エッジ情報から物体の輪郭情報を抽出することによってシルエット情報を抽出する方法が一般的である。
 こうした微分処理によるエッジ抽出手法は、輝度の微分値がどの値を超えた場合に「エッジ」とし、どの値を超えない場合に「エッジ」としないかを決定する閾値を前もって与える必要がある。しかしながら、この手法で物体の輪郭をなすエッジ情報を抽出するためには、前もって、抽出すべきエッジ情報に適した閾値を知っておく必要があり、一般的な、初めて扱う画像に対して自動的にこれを行うことは困難である。
 一方で、これらの課題を回避することのできる技術として、画像を構成するピクセルに帰属する情報を用いて、ピクセルをクラスタリングすることによってシルエット情報を抽出する技術もまた、提案されている(例えば、特許文献3、特許文献4参照)。
 例えば、特許文献3に開示された技術は、画像にバンドパスフィルタを適用したうえで、出力値を二種類の閾値によって三値化し、画像を三種類のクラスターに分解する技術である。また、特許文献4に開示された技術は、画像内に含まれるエッジ情報からエッジ分布情報を抽出し、特異なエッジをもつピクセルをクラスタリング処理の初期核とし、初期核の近傍に位置しかつ類似度の強いピクセル(エッジ情報などピクセルに起因する情報で定義した値が閾値以内のピクセル)をクラスターに取り込んでいく技術である。これらの技術は、エッジに関する閾値を前もって与える必要はない。
 しかしながら、特許文献3では三値化するための閾値を設定する必要があり、特許文献4では「類似度の強さ」を定義するための閾値を設定する必要があり、一般的な、初めて扱う画像に対して自動的にこれを行うことは、やはり困難である。
In recent years, with the rapid spread of digital video equipment such as digital cameras, there is an increasing expectation for general object recognition that identifies what objects are included in captured images and videos. Yes.
In general object recognition, appropriate classification of image data stored without being classified in a database, retrieval of necessary image data, and the like are performed. Furthermore, general object recognition has a possibility of being applied to various uses such as extraction of a desired scene from a moving image and re-editing by cutting out only the desired scene.
Various recognition techniques, such as face recognition and fingerprint recognition, have been developed so far as techniques related to object recognition, and these are often directed to specific applications. Such a recognition technology specialized for a specific application does not operate efficiently when it is used for another application. Examples of this problem include problems such as a decrease in recognition rate, misidentification, and an increase in the amount of information processing. For this reason, development of a technique for efficiently recognizing a general object is expected.
As a method for recognizing a general object by an information processing apparatus, a method using a silhouette of an object shape has been proposed and widely used (see, for example, Patent Document 1 and Patent Document 2).
In order to recognize a general object included in an image using these methods, it is necessary to extract silhouette information from the image. However, it is not easy to extract silhouette information from a general image.
As a technique for extracting silhouette information from an image, a method of extracting silhouette information by extracting edge information by spatially differentiating luminance information in the image and extracting object contour information from the edge information is generally used. It is.
In such an edge extraction method based on differentiation processing, it is necessary to give in advance a threshold value that determines “edge” when the differential value of luminance exceeds, and “edge” when it does not exceed that value. However, in order to extract edge information that defines the outline of an object using this method, it is necessary to know a threshold value suitable for the edge information to be extracted in advance. It is difficult to do this.
On the other hand, as a technique that can avoid these problems, a technique for extracting silhouette information by clustering pixels using information belonging to pixels constituting an image has also been proposed (for example, (See Patent Document 3 and Patent Document 4).
For example, the technique disclosed in Patent Document 3 is a technique in which a band pass filter is applied to an image, an output value is ternarized by two types of threshold values, and the image is decomposed into three types of clusters. In addition, the technique disclosed in Patent Document 4 extracts edge distribution information from edge information included in an image, uses a pixel having a specific edge as an initial nucleus of clustering processing, and is located in the vicinity of the initial nucleus and is similar. This is a technique for taking in high-strength pixels (pixels whose values defined by pixel-related information such as edge information are within a threshold) into clusters. These techniques do not require pre-giving thresholds for edges.
However, in Patent Document 3, it is necessary to set a threshold value for ternarization, and in Patent Document 4, it is necessary to set a threshold value for defining “strength of similarity”. It is still difficult to do this automatically for images.
特開平10−055447号公報JP 10-055447 A WO2012/070474A1WO2012 / 070474A1 特開平06−076062号公報Japanese Patent Laid-Open No. 06-076062 特開平10−149449号公報JP-A-10-149449
 画像内に含まれる一般物体を認識するためには、物体形状をシルエットなどの形で抽出し、特定する必要がある。しかしながら、写真などの一般的な画像からシルエット情報を抽出するためには、従来手法では、画像を構成するピクセルに帰属する情報に閾値処理を施す必要があり、一般的な初めて扱う画像に対して適用可能な閾値を前もって与えることは困難であった。
 本発明の目的は、写真などの一般的な画像を分割することによって物体形状のシルエット情報を抽出することを可能とする画像処理システム、画像処理方法、およびプログラムを提供することにある。
In order to recognize a general object included in an image, it is necessary to extract and specify the object shape in the form of a silhouette or the like. However, in order to extract silhouette information from a general image such as a photograph, it is necessary to perform threshold processing on information belonging to pixels constituting the image in the conventional method. It was difficult to give an applicable threshold in advance.
An object of the present invention is to provide an image processing system, an image processing method, and a program capable of extracting silhouette information of an object shape by dividing a general image such as a photograph.
 本発明の一形態は、画像内に含まれる物体または形状の領域を、画像から分割する画像処理システムであって、画像を構成する構成要素のうち、領域を特定するために必要な計算を開始する開始点であるひとつまたは複数の要素を、初期核として選択する初期核選択手段と、構成要素のひとつひとつとそれらの周辺の周辺要素とを比較することによって、周辺要素を周辺要素表現として特徴化する周辺要素表現手段と、領域をなす初期核または領域の構成要素の特徴と、その周辺要素の周辺要素表現とを比較することによって、それぞれの周辺要素が初期核と同一の領域に所属するか否かを決定して、領域をなす構成要素の集合を生成し、領域を画像から分割する集合生成手段と、を備えることを特徴とする。 One aspect of the present invention is an image processing system that divides an object or shape region included in an image from an image, and starts calculation necessary to identify the region among components constituting the image. Characterize the peripheral element as a peripheral element representation by comparing the initial kernel selection means that selects one or more elements that are the starting points to be used as the initial kernel, and each of the constituent elements and their surrounding peripheral elements Whether each peripheral element belongs to the same area as the initial nucleus by comparing the characteristics of the peripheral element representation means, the characteristics of the initial nucleus constituting the area or the constituent elements of the area, and the peripheral element representation of the peripheral element. A set generation means for determining whether or not to generate a set of constituent elements forming an area and dividing the area from an image.
 本発明によれば、写真などの一般的な画像を分割することによって物体形状のシルエット情報を抽出することを可能とする画像処理システムを提供できる。 According to the present invention, it is possible to provide an image processing system capable of extracting silhouette information of an object shape by dividing a general image such as a photograph.
 図1は本発明の第1の実施の形態に係る画像処理システムの概略構成を示すブロック図であり、
 図2は入力画像の一例を示す説明図であり、
 図3は入力画像を圧縮した画像の一例を示す説明図であり、
 図4は図3の画像から選択された初期核(ピクセル)の一例を示す説明図であり、
 図5は図3の画像から周辺ピクセル表現の一例を示す説明図であり、
 図6は図3の画像において集合が徐々に拡大されていく様子の一例を示す説明図であり、
 図7は図1に示した画像処理システムに使用される、初期核選択部の構成を示すブロック図であり、
 図8は構成要素特徴の一例を示す説明図であり、
 図9は図1に示した画像処理システムに使用される、周辺要素表現部の構成を示すブロック図であり、
 図10は図1に示した画像処理システムに使用される、集合生成部の構成を示すブロック図であり、
 図11は周辺要素との差異が曖昧な要素の一例を示す説明図であり、
 図12は要素追加手段によって集合に要素が追加されていく様子の一例を示す説明図であり、
 図13は図1に示した画像処理システムによって生成されたシルエット情報の一例を示す説明図であり、
 図14は図1に示した画像処理システムの動作の一例を示すフローチャートであり、
 図15は本発明の第2の実施の形態における画像処理システムの概略構成を示すブロック図であり、
 図16は図15に示した画像処理システムに使用される、入力画像制御部の構成を示すブロック図であり、
 図17は図17A及び図17Bからなり、図15に示した画像処理システムの動作の一例を示すフローチャートである。
FIG. 1 is a block diagram showing a schematic configuration of an image processing system according to the first embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an example of an input image.
FIG. 3 is an explanatory diagram showing an example of an image obtained by compressing an input image.
FIG. 4 is an explanatory diagram showing an example of an initial nucleus (pixel) selected from the image of FIG.
FIG. 5 is an explanatory diagram showing an example of peripheral pixel representation from the image of FIG.
FIG. 6 is an explanatory diagram showing an example of how the set gradually expands in the image of FIG.
FIG. 7 is a block diagram showing a configuration of an initial nucleus selection unit used in the image processing system shown in FIG.
FIG. 8 is an explanatory diagram showing an example of the component feature.
FIG. 9 is a block diagram showing a configuration of a peripheral element expression unit used in the image processing system shown in FIG.
FIG. 10 is a block diagram showing the configuration of the set generation unit used in the image processing system shown in FIG.
FIG. 11 is an explanatory diagram showing an example of an element in which the difference from surrounding elements is ambiguous.
FIG. 12 is an explanatory diagram showing an example of how elements are added to the set by the element adding means.
FIG. 13 is an explanatory diagram showing an example of silhouette information generated by the image processing system shown in FIG.
FIG. 14 is a flowchart showing an example of the operation of the image processing system shown in FIG.
FIG. 15 is a block diagram showing a schematic configuration of an image processing system according to the second embodiment of the present invention.
FIG. 16 is a block diagram showing a configuration of an input image control unit used in the image processing system shown in FIG.
FIG. 17 is a flowchart composed of FIGS. 17A and 17B and showing an example of the operation of the image processing system shown in FIG.
[発明の概略]
 これまで画像からシルエット情報を抽出する際には、二つの方法が採用されている。ひとつの方法は、画像内の輝度情報を空間的に微分処理し、微分値が閾値を超える場合をエッジとし、エッジ情報を用いて物体の輪郭を抽出する方法である。もうひとつの方法は、輝度の差分値が閾値以内のピクセルを同一物体のシルエット情報としてクラスタリングする方法である。
 しかしながら、何れの手法であっても画像によって最適値が異なる閾値を前もって設定する必要があり、初めて扱う画像に対して自動的にこれを行うことは困難である。すなわち、初めて扱う画像に対してシルエット情報を抽出する手法は、これまで考案されていない。
 こうした課題に対して、発明者らは以下のように画像処理を行なうシステムを提案する。
 本画像処理システムの処理動作は、次に述べる3のステップで示すことができる。
 第一のステップでは、画像内に含まれる物体形状のシルエット情報の核となるピクセルすなわち初期核を選択する。例えば、ピクセルによって構成される図3のような画像が画像処理システムに与えられた際に、図4のようにひとつ(または複数)のピクセルを「初期核」として選択する。
 第二のステップでは、それぞれのピクセルと周辺ピクセルとの、色情報すなわちRGB値を比較することで、周辺ピクセル表現を生成する。例えば、図5のようにあるピクセル(中心ピクセル)に対して縦横それぞれ3ピクセル以内のピクセルを周辺ピクセルと定義し、中心ピクセルとのRGB値の差(RGB値を三次元ベクトルで表現し、そのノルムで表現)を値で表現する。この周辺ピクセル表現は、すべてのピクセルについて行う。すなわち、すべてのピクセルが、周辺のピクセルとの差を表現として認識する。
 第三のステップでは、初期核とその周辺ピクセルの「周辺ピクセル表現」とを比較することで、該当する周辺ピクセルが、初期核と同一の集合に含まれるべきかを決定し、集合に含まれるのであれば、その周辺ピクセルについて同一の意思決定を実施する。例えば、初期核との差が小さいピクセルを、集合内に取り込んでいき、物体形状のシルエットをなす集合を形成していく。このようにして集合が徐々に拡大されていく様子の例を図6に示す。
 以下、図1乃至図17A及び図17Bを参照して、それぞれのステップ行なう本発明の画像処理システムを、実施の形態を用いて説明する。
 本実施の形態を採用することにより、画像から物体形状のシルエット情報を抽出することを可能にする画像処理を行なう情報処理システムを提供できる。
[第1の実施の形態]
[構成の説明]
 図1は、本発明の第1の実施形態に係る画像認識システムの構成を示すブロック図である。なお、本発明に関連が薄い構成については、説明を簡略化又は省略する。
 図示の画像処理システムは、情報処理の全体を管理する制御部10と、処理対象とする画像データを取得する画像情報取得部20と、取得した画像データなどを記憶する画像情報記憶部30と、画像処理を完了した物体のシルエットを画像内要素(ピクセル)の集合として記憶する集合情報記憶部40と、処理結果出力部50とを含み構成されている。また、図示の画像処理システムは、初期核選択部101、周辺要素表現部102、および集合生成部103を含み構成されている。
 制御部10は、画像処理に関連する情報処理の全体動作を管理する。
 画像情報取得部20は、動画や写真などユーザが指定した画像データを本システムに取り込み、画像情報記憶部30に記憶する。取り込み方法は、ユーザが指定した画像情報をそのまま取得してもよいし、演算量を省略するために、モザイク処理による圧縮などの前処理を施したうえで取得してもよい。
 画像情報取得部20によって取得される画像情報の例(赤い色のりんごの例)を、図2および図3に例示する。図2は取り込んだ画像そのものの例を示す。図3はモザイク処理によって圧縮を施した図の例を示す。なお、動画像などから、任意の間隔などで自動的に収集して画像情報を取り込むようにすることも可能である。
 画像情報記憶部30は、取得した画像データや処理して得た結果、必要に応じて中間データ(初期核情報や周辺要素表現など)を記憶する。画像情報記憶部30は、メモリで構成してもよいし、ハードディスクドライブ(HDD)で構成してもよく、記憶部であればよい。
 集合情報記憶部40は、画像処理を完了した物体のシルエットを、画像内要素(ピクセル)の集合として記憶する。すなわち、集合情報記憶部40には、集合情報が記憶されている。なお、集合情報記憶部40として、外部データベースを参照することとしてもよい。
 処理結果出力部50は、システムで得られた画像処理結果を出力する。例えば、処理結果出力部50は、集合情報記憶部40に記録されている処理結果の対象の物体や形状をモニターなどに出力する。なお、出力形態は、どのような情報を出力してもよい。
 初期核選択部101は、図4に示すように、画像内に含まれる物体形状のシルエット情報の核となるピクセルすなわち初期核を選択する。初期核選択部101は、具体的には3つの構成要素からなる。
 すなわち、初期核選択部101は、図7に示されるように、与えられた画像を構成するひとつひとつの構成要素(例えばピクセル)を要素特徴として表現する構成要素特徴化部101−1と、それぞれの構成要素の要素特徴同士を比較する要素特徴比較部101−2と、要素特徴の比較結果から最適な要素を上記初期核として選択する最適要素選択部101−3とから成る。
 構成要素特徴化部101−1は、如何なる要素の特徴化であっても構わないが、画像においては色情報を用いることが望ましい。例えば、構成要素特徴化部101−1は、要素特徴として色情報を表すRGB値を用いる。
 この時、注視したい物体の色情報が前もって決まっているのであれば、構成要素特徴化部101−1は、要素特徴として、その色情報(RGB値をベクトルで表現したもの)と、要素の色情報との差分(ベクトルのノルム)を用いることも可能である。また、目立つ要素を初期核としたいのであれば、構成要素特徴化部101−1は、要素特徴として、対象とする要素の周辺要素との差分、例えば、色情報の差分(RGB値をベクトルで表現したもののノルム)を用いることも可能である。さらに、なるべく大きな領域から順に注視したいのであれば、構成要素特徴化部101−1は、周辺の要素(または画像全体の要素)の中から、色情報の差分が、前もって定められた閾値以内のもの、すなわち集合要素候補の数を数え、その数を、要素の特徴として表現することも可能である。また、色情報の差分は、必ずしもRGB値のベクトル表現のノルムである必要はなく、例えば、RGBそれぞれの差分のうち、最大のものを利用しても構わない。
 このようにして表現した要素特徴の例を、図8に示す。図8は、図5と同等の方法で、それぞれのピクセルに対して、周辺ピクセルとの差異を計算したうえで、それらの周辺ピクセルとの差異のなかから最大の値を選択し、可視化したものである。つまり、周辺ピクセルとの差異が大きいものがより大きな値で示される。この例と同等の方法を用いると、より周辺との差異が大きな目立つピクセルを選択することが可能である。
 要素特徴比較部101−2は、構成要素特徴化部101−1によって特徴化されたそれぞれの要素を比較する。
 最適要素選択部101−3は、要素特徴比較部101−2によって比較されたものの中から最適なものを選択する。例えば、最適要素選択部101−3は、注視したい物体の色情報が前もって決まっている場合であれば、その色情報と最も近い特徴を持つ要素を選択する。最適要素選択部101−3は、目立つ要素を初期核としたい場合は、周辺との差分特徴の値が最大となる要素を選択する。最適要素選択部101−3は、なるべく大きな領域から順に注視したい場合は、集合要素候補の数が最大となる要素を選択する。この最適要素選択部101−3は、初期核となるのに最適な要素を選択することを可能にする手段であれば、これ以外の手法を採用することも可能である。
 図8の例では、最適要素選択部101−3は、図8のうちで最も値が大きなものを選択することによって、より周辺との差異が大きな目立つピクセルを選択することが可能である。
 周辺要素表現部102は、それぞれのピクセルとその周辺ピクセルとの、色情報すなわちRGB値を比較することで、周辺ピクセル表現を生成する。周辺要素表現手段102は、具体的には2つの構成要素からなる。
 すなわち、図9に示されるように、周辺要素表現部102は、与えられた画像を構成するひとつひとつの構成要素(例えばピクセル)に対し、その周辺要素となるべき要素を特定する周辺要素領域特定部102−1と、対象とする要素とその周辺要素とを比較することでそれぞれの周辺要素を特徴化する周辺要素特徴化部102−2とから成る。
 周辺要素領域特定部102−1は、画像を構成するひとつひとつの要素に対し、その周辺要素となるべき要素を特定する。この操作は、初期核を開始点として集合を形成していく際、初期核を含む集合内の核要素が、周囲の要素を集合内に取り込んでいく際に集合の要素の候補となる要素をサーチする範囲を特定する目的で行う。すなわち、集合に新たに取り込みたい要素の範囲が広ければ広く、狭ければ狭く取ることが可能であり、対象とする要素に隣接する要素であってもよいし、また、画像全体であってもよい。周辺要素となる範囲は狭いほうが、一回当たりの集合を決定する演算時間(すなわち集合生成部において行われる手段)を短縮できる。一方、範囲が広いほうが、同等の特徴をもつ要素を、より高い精度で集合に含めることができる。
 図5の例では、周辺要素特定部102−1は、あるピクセルから縦横3ピクセル以内に含まれるものを周辺要素領域として特定している。
 周辺要素特徴化部102−2は、周辺要素領域特定部102−1によって定めた領域の周辺要素を、対象とする要素と比較することによって特徴化する。例えば、周辺要素特徴化部102−2は、色情報の差分を、RGB値のベクトル表現のノルムで表現することによってこれを行う。また、周辺要素特徴化部102−2は、この色情報の差分値を、閾値を超えるかどうかによって二値化して評価してもよく、二種類の閾値を用いて三値化してもよい。二値化或いは三値化を行うことにより、ある要素を中心とした集合(ここでは「図」と記述する)と、そうでない集合(ここでは「地」と記述する)を表現することが可能である(三値化により、どちらでもない領域となる中間領域を設定することが可能である)。この閾値は、色情報の差分情報の画像全体の分布情報によって正規化することが可能であり、ある特定の画像を対象としない手法に一般化することが可能である。この手法によって、あるピクセルを中心として周辺ピクセルを特徴化(色情報の差分による表現)した例が図5に示されている。
 集合生成部103は、初期核とその周辺ピクセルの「周辺ピクセル表現」とを比較することで、該当する周辺ピクセルが、初期核と同一の集合に含まれるべきかを決定する。該当する周辺ピクセルが、初期核と同一の集合に含まれるのであれば、集合生成部103は、その周辺ピクセルについて同一の意思決定を実施する。集合生成部103は、具体的には3つの構成要素からなる。
 すなわち、集合生成部103は、図10に示されるように、初期核を開始点として生成された集合の特徴を表現する集合表現生成部103−1と、対象とする集合の集合表現と対象とする集合に含まれない外部要素の周辺要素表現とを比較する要素集合間比較部103−2と、要素集合間比較手段の比較結果によって、それぞれの外部要素が対象とする集合に追加されるべきか否かを決定し、追加されるべきであれば追加を行う要素追加部103−3とから成る。
 集合表現生成部103−1は、初期核を開始点として生成された集合の特徴を表現する。集合の特徴は、初期核および要素追加部103−3によって集合の要素として追加されたすべての要素によって表現することも可能である。例えば、集合表現を、初期核のRGB値や、集合に含まれる要素のRGB値の平均値とすることで、集合に含まれる要素に近い色情報をもつ要素を、集合に含めることが可能である。しかしながら、このように単純に集合に含まれる要素のみを用いるのではなく、集合のそれぞれの要素が「地」とする要素を表現に加えることも可能である。すなわち、集合内に含まれる要素を「図」として、それらとの色情報が離れている要素を「地」とした場合、集合の「図」と「地」によって集合を表現することが可能となる。
 この手法を用い、「地」の情報を参照することで、例えば、図11に白枠で示されているような、周辺要素(ピクセル)との差異が曖昧な要素を、集合に追加するかどうかの判断を行う場合に、どこまで追加し続けるべきかが明確になり、延々と周辺の要素を追加して、ついには画像全体を要素としてしまう処理を避けることができる。したがって、「図」と「地」の両方の情報を用いて表現することが、より望ましい。集合表現生成手段として採用されうる手段はこの限りではなく、集合を表現することが可能な手段であれば如何なる手段であってもよい。
 要素集合間比較部103−2は、対象とする集合の集合表現と、対象とする集合に含まれない外部要素の周辺要素表現とを比較する。例えば、集合の「図」と「地」とどちらでもない要素をそれぞれ1,−1,0のマトリクス(マトリクスの各要素は例えば画像の各要素)で表現し、集合外部の要素(周辺要素)について、その周辺の「図」と「地」とどちらでもない要素をそれぞれ1,−1,0のマトリクスで表現するとする。この場合、要素集合間比較部103−2は、この集合表現と周辺要素表現の各要素の積算をすべての要素で和算した評価値によって、対象としている集合外部の要素が、集合に含まれるべきか否かを判断することができる。
 すなわち、要素集合間比較部103−2は、評価値が正でかつ絶対値の大きなものであれば、その要素は集合に含まれるべきものであり、負でかつ絶対値の大きなものであれば、その要素は集合に含まれるべきではないものと判断することができる。さらに、要素集合間比較部103−2は、集合の値が1となる場合の評価値と、−1となる場合の評価値を別々に評価しておくことで、より精度の高い評価を行うことが可能となる。
 要素集合間比較部103−2は、必ずしもここで示した構成要素である必要はなく、集合外部の要素が集合に含まれるかどうかを判断することが可能であればどのような方法を用いることも可能である。
 要素追加部103−3は、要素集合間比較部103−2の比較結果によって、それぞれの外部要素が対象とする集合に追加されるべきか否かを決定し、追加されるべきであれば追加を行う。例えば、要素追加部103−3は、前記したマトリクス要素の積算を和算した評価値が、規定された値、例えば0を超えた場合に要素追加を行う。この追加要素処理は、外部要素だけでなく、集合内の要素に対しても行うことが望ましい。要素追加処理は、外部要素が新たに集合に追加される毎に行うのが望ましいが、演算時間の増大を防ぐために、幾つかの外部要素の追加をまとめて行ったあとでこれを行うことも可能である。
 要素追加部103−3は、追加すべき要素がなくなる状態に収束するまで実施するのが望ましいが、演算時間の増大を防ぐために、演算回数の上限などの条件を設けることも可能である。この追加処理が徐々に行われていく様子を図12に示し、追加が完了した際の集合の様子を図13に示す。
[動作の説明]
 次に、第1の実施の形態の動作例について説明する。図14は、本第1の実施の形態に係る画像処理システムの動作の例を示すフローチャートである。
 まず、画像情報取得部20は、ユーザが指定する対象画像データを取得して画像情報記憶部30に記録する(S1001)。画像情報の取得は、ユーザが指定したものに限らず、システムが自動的に、半自動的に取得してもよい。
 次に、初期核選択部101は、以下の3つのステップによって、画像内に含まれる物体形状のシルエット情報の核となるピクセルすなわち初期核を選択する。まず、初期核選択部101の構成要素特徴化部101−1は、与えられた画像を構成するひとつひとつの構成要素(例えばピクセル)を要素特徴として表現する構成要素特徴化ステップ(S1002)を実施する。次に、初期核選択部101の要素特徴比較部101−2は、それぞれの構成要素の要素特徴を比較する要素特徴比較ステップ(S1003)を実施する。最後に、初期核選択部101の最適要素選択部101−3は、要素特徴の比較結果から最適な要素を前記初期核として選択する最適要素選択ステップ(S1004)を実施する。
 次に、周辺要素表現部102は、以下の2つのステップによって、それぞれのピクセルが、周辺ピクセルと、色情報すなわちRGB値を比較することで、周辺ピクセル表現を生成する。まず、周辺要素表現部102の周辺要素領域特定部102−1は、与えられた画像を構成するひとつひとつの構成要素(例えばピクセル)に対し、その周辺要素となるべき要素を特定する、周辺要素領域特定ステップ(S1005)を実施する。次に、周辺要素表現部102の周辺要素特徴化部102−2は、対象とする要素とその周辺要素を比較することでそれぞれの周辺要素を特徴化する、周辺要素特徴化ステップ(S1006)を実施する。
 次に、集合生成部103は、以下の3つのステップによって、初期核とその周辺ピクセルの「周辺ピクセル表現」を比較することで、該当する周辺ピクセルが、初期核と同一の集合に含まれるべきかを決定し、集合に含まれるのであれば、その周辺ピクセルについて同一の意思決定を実施する。まず、集合生成部103の集合表現生成部103−1は、初期核を開始点として生成された集合の特徴を表現する、集合表現生成ステップ(S1007)を実施する。次に、集合生成部103の要素集合間比較部103−2は、対象とする集合の集合表現と、対象とする集合に含まれない外部要素の周辺要素表現とを比較する、要素集合間比較ステップ(S1008)を実施する。次に、集合生成部103の要素追加部103−3は、要素集合間比較部103−2の比較結果によって、それぞれの外部要素が対象とする集合に追加されるべきか否かを決定し、追加されるべきであれば追加を行う要素追加ステップ(S1009)を実施する。要素追加ステップは、要素追加手段が定めた終了条件を満たすまで実施し続ける。
 最後に、処理結果出力部50は、処理した結果生成された集合を、物体形状のシルエットをなす領域情報として出力する(S1010)。
 このように画像処理システムを動作させることによって、画像から物体形状のシルエット情報を抽出することを可能にする画像処理処理を行なうことが期待できる。
 尚、画像処理システムの各部は、ハードウェアとソフトウェアの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、RAMに画像処理プログラムが展開され、該プログラムに基づいて制御部(CPU)等のハードウェアを動作させることによって、各部を各種手段として実現する。また、該プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録されたプログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
 上記実施の形態を別の表現で説明すれば、画像処理システムとして動作させる情報処理装置を、RAMに展開された画像処理プログラムに基づき、初期核選択部101、周辺要素表現部102、集合生成部103として制御部10を動作させることで実現することが可能である。
 以上説明したように、本発明の第1の実施の形態によれば、画像から物体形状のシルエット情報を抽出することを可能にする画像処理を提供できる。
 また、本発明の具体的な構成は前述の実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の変更があってもこの発明に含まれる。
[第2の実施の形態]
 本発明を実施するための第2の実施の形態について、図面を参照して詳細に説明する。
[構成の説明]
 図15は、本発明の第2の実施の形態に係る画像処理システムの構成を示すブロック図である。なお、本発明に関連が薄い構成については、説明を簡略化又は省略する。
 本第2の実施の形態は、第1の実施の形態において取得された画像サイズが非常に大きく、計算量が膨大になる場合を想定している。こうした場合、第1の実施の形態は、取得された画像を細分化し、細分化された画像内で一旦シルエットの部分情報を生成した後、細分化されたすべての画像内で生成されたシルエット情報を要素として、再び第1の実施の形態で施された手法を実施することにより、全体のシルエット情報を計算する手法を採用する。
 このために、第2の実施の形態は、入力画像制御部201を新たに設ける点が、第1の実施の形態とは異なる。このほか、いくつかの要素は第1の実施の形態とは異なる機能を有す。
 入力画像制御部201は、取得された画像を細分化するとともに、細分化された画像(細分化画像)内で一旦シルエットの部分情報を生成するために、システムの入力画像として、それぞれの細分化画像内を与える制御を行うとともに、すべての細分化画像の入力が完了した後、それぞれの細分化画像内で構成されたシルエット情報を構成要素とする画像情報を入力として与える。入力画像制御は、具体的には3つの構成要素からなる。
 すなわち、入力画像制御部201は、図16に示されるように、システムが取得した画像(原画像)を、グリッド分割を始めとする何らかの方法で前もって細分化する画像細分化部201−1と、細分化画像のそれぞれを、システムへの入力画像として与える細分化画像入力部201−2と、それぞれの細分化画像内で構成された領域を構成要素とした画像を、システムへの入力として与える統合画像入力部201−3とから成る。
 画像細分化部201−1は、細分化画像の縦横のサイズを前もって与える方式で細分化してもよいし、細分化画像数を前もって与えて、それに適した画像サイズによって細分化してもよい。その他、画像細分化部201−は、画像の細分化を目的とする構成要素であれば、如何なる構成要素であっても構わない。
 細分化画像入力部201−2は、画像細分化部201−1によって細分化された画像をひとつひとつ入力する。
 統合画像入力部201−3は、それぞれの細分化画像内で構成された領域を構成要素とした画像を構成したうえで、システムへの入力を行う。
[動作の説明]
 次に、第2の実施の形態の動作例について説明する。図17は、本第2の実施の形態に係る画像処理システムの動作の例を示すフローチャートである。なお、本発明に関連が薄い構成については、説明を簡略化又は省略する。
 入力画像制御部201は、以下の3つのステップによって、取得された画像を細分化するとともに、細分化された画像(細分化画像)内で一旦シルエットの部分情報を生成するために、システムの入力画像として、それぞれの細分化画像内を与える制御を行うとともに、すべての細分化画像の入力が完了した後、それぞれの細分化画像内で構成されたシルエット情報を構成要素とする画像情報を入力として与える。
 まず、入力画像制御部201の画像細分化部201−1は、システムが取得した画像(原画像)を、グリッド分割を始めとする何らかの方法で前もって細分化する、画像細分化ステップ(S2001)を実施する。次に、入力画像制御部201の細分化画像入力部201−2は、細分化画像のそれぞれを、システムへの入力画像として与える細分化画像入力ステップ(S2002)を実施する。最後に、入力画像制御部201の統合画像入力部201−3は、それぞれの細分化画像内で構成された領域を構成要素とした画像を、システムへの入力として与える統合画像入力ステップ(S2003)を実施する。
 なお、上述の各実施の形態において、実施の形態の処理は、プログラム、ソフトウェア、又はコンピュータによって実行されることが可能な命令でコード化された、コンピュータ読み取り可能な記憶媒体に格納された情報を、コンピュータにインストールすることによって実行されてもよい。記憶媒体には、光ディスク、フロッピー(登録商標)ディスク、ハードディスク等の可搬型の記録媒体が含まれることはもとより、ネットワークのようにデータを一時的に記録保持するような伝送媒体も含まれる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1) 画像内に含まれる物体または形状の領域を、前記画像から分割する画像処理システムであって、
 前記画像を構成する構成要素のうち、前記領域を特定するために必要な計算を開始する開始点であるひとつまたは複数の要素を、初期核として選択する初期核選択手段と、
 前記構成要素のひとつひとつと、それらの周辺の周辺要素とを比較することによって、前記周辺要素を周辺要素表現として特徴化する周辺要素表現手段と、
 前記領域をなす前記初期核または前記領域の構成要素の特徴と、その周辺要素の前記周辺要素表現とを比較することによって、それぞれの前記周辺要素が前記初期核と同一の領域に所属するか否かを決定して、前記領域をなす前記構成要素の集合を生成し、前記領域を前記画像から分割する集合生成手段と、
 を備えることを特徴とする画像処理システム。
(付記2) 前記初期核選択手段は、
 前記画像を構成する前記構成要素のひとつひとつを要素特徴として表現する構成要素特徴化手段と、
 前記要素特徴同士を比較する要素特徴比較手段と、
 前記要素特徴の比較結果から最適な要素を前記初期核として選択する最適要素選択手段と、
 を備えること特徴とする付記1に記載の画像処理システム。
(付記3) 前記構成要素特徴化手段は、該当する要素と前記画像を構成する前記構成要素のすべてに関して、i)定められた範囲内に含まれる要素との特徴量の差分のうちの最大の値、ii)差分が前もって定められた数値以内となる要素の数、およびiii)前もって定められた特徴と前記該当する要素特徴との差分、のいずれか1つによって特徴化を行うことを特徴とする付記2に記載の画像処理システム。
(付記4) 前記周辺要素表現手段は、
 前記画像を構成する前記構成要素のひとつひとつに対し、その周辺要素となるべき別の前記構成要素を特定する周辺要素領域特定手段と、
 前記構成要素のひとつひとつとその前記周辺要素とを比較することで、それぞれの周辺要素を特徴化する周辺要素特徴化手段と、
 を備えることを特徴とする付記1から3の何れかに記載の画像処理システム。
(付記5) 前記周辺要素特徴化手段は、該当する要素と前記周辺要素領域特定手段によって定められた周辺要素との比較によって得られる特徴量の差分値、または、前記差分値を二種類の閾値で三値化した値によって特徴化を行うことを特徴とする付記4に記載の画像処理システム。
(付記6) 前記周辺要素特徴化手段において三値化を行う閾値は、
 前記画像を構成する前記構成要素の特徴量の差分値の分布情報を始めとする、前記画像に帰属する特徴量を用いて正規化処理を行うことによって決定することを特徴とする付記5に記載の画像処理システム。
(付記7) 前記集合生成手段は、
 前記初期核を開始点として生成された集合の特徴を、前記初期核を含む集合の構成要素を用いることによって集合表現を生成する集合表現生成手段と、
 前記集合の前記集合表現と、前記集合に含まれない外部要素の前記周辺要素表現とを比較する要素集合間比較手段と、
 前記要素集合間比較手段の比較結果によって、前記外部要素が前記集合に追加されるべきか否かを決定し、追加されるべきであれば追加を行う要素追加手段と、
 を備えることを特徴とする付記4から6の何れかに記載の画像処理システム。
(付記8) 前記集合表現生成手段は、前記画像を構成する前記構成要素のすべてまたは定められた範囲内に含まれる要素を、前記集合の構成要素に含まれる可能性の高さを連続値または三値化を含む多値化を行った値によって表現することを特徴とする付記7に記載の画像処理システム。
(付記9) 前記要素集合間比較手段は、
 前記集合表現生成手段及び前記周辺要素特徴化手段によって表現された、前記画像を構成する前記構成要素のすべてまたは定められた範囲内に含まれる要素における特徴を、それぞれの要素内で積算し、
 該当するすべての要素において前記積算結果を和算することで、
 前記要素と前記集合との比較を行うことを特徴とする付記7又は8に記載の画像処理システム。
(付記10) 前記画像処理システムは、
 前記画像を前もって細分化する画像細分化手段と、
 細分化された画像のそれぞれを、前記初期核選択手段、前記周辺要素表現手段、および前記集合生成手段のそれぞれの入力画像として与える細分化画像入力手段と、
 細分化された画像内で構成された領域を構成要素とした画像を、前記初期核選択手段、前記周辺要素表現手段、および前記集合生成手段のそれぞれの入力として与える統合画像入力手段と、
 を備えること特徴とする付記1から9の何れかに記載の画像処理システム。
(付記11) 画像内に含まれる物体または形状の領域を、前記画像から分割する画像処理方法であって、
 前記画像を構成する構成要素のうち、前記領域を特定するために必要な計算を開始する開始点であるひとつまたは複数の要素を、初期核として選択する初期核選択工程と、
 前記構成要素のひとつひとつと、それらの周辺の周辺要素とを比較することによって、前記周辺要素を周辺要素表現として特徴化する周辺要素表現工程と、
 前記領域をなす前記初期核または前記領域の構成要素の特徴と、その周辺要素の前記周辺要素表現とを比較することによって、それぞれの前記周辺要素が前記初期核と同一の領域に所属するか否かを決定して、前記領域をなす前記構成要素の集合を生成し、前記領域を前記画像から分割する集合生成工程と、
 を含むことを特徴とする画像処理方法。
(付記12) 前記初期核選択工程は、
 前記画像を構成する前記構成要素のひとつひとつを要素特徴として表現する構成要素特徴化工程と、
 前記要素特徴同士を比較する要素特徴比較工程と、
 前記要素特徴の比較結果から最適な要素を前記初期核として選択する最適要素選択工程と、
 から成ること特徴とする付記11に記載の画像処理方法。
(付記13) 前記構成要素特徴化工程は、該当する要素と前記画像を構成する前記構成要素のすべてに関して、i)定められた範囲内に含まれる要素との特徴量の差分のうちの最大の値、ii)差分が前もって定められた数値以内となる要素の数、およびiii)前もって定められた特徴と前記該当する要素特徴との差分、のいずれか1つによって特徴化を行うことを特徴とする付記12に記載の画像処理方法。
(付記14) 前記周辺要素表現工程は、
 前記画像を構成する前記構成要素のひとつひとつに対し、その周辺要素となるべき別の前記構成要素を特定する周辺要素領域特定工程と、
 前記構成要素のひとつひとつとその前記周辺要素とを比較することで、それぞれの周辺要素を特徴化する周辺要素特徴化工程と、
 から成ることを特徴とする付記11から13の何れかに記載の画像処理方法。
(付記15) 前記周辺要素特徴化工程は、該当する要素と前記周辺要素領域特定工程によって定められた周辺要素との比較によって得られる特徴量の差分値、または、前記差分値を二種類の閾値で三値化した値によって特徴化を行うことを特徴とする付記14に記載の画像処理方法。
(付記16) 前記周辺要素特徴化工程において三値化を行う閾値は、
 前記画像を構成する前記構成要素の特徴量の差分値の分布情報を始めとする、前記画像に帰属する特徴量を用いて正規化処理を行うことによって決定することを特徴とする付記15に記載の画像処理方法。
(付記17) 前記集合生成工程は、
 前記初期核を開始点として生成された集合の特徴を、前記初期核を含む集合の構成要素を用いることによって集合表現を生成する集合表現生成工程と、
 前記集合の前記集合表現と、前記集合に含まれない外部要素の前記周辺要素表現とを比較する要素集合間比較工程と、
 前記要素集合間比較工程の比較結果によって、前記外部要素が前記集合に追加されるべきか否かを決定し、追加されるべきであれば追加を行う要素追加工程と、
 から成ることを特徴とする請求項14から16の何れかに記載の画像処理方法。
(付記18) 前記集合表現生成工程は、前記画像を構成する前記構成要素のすべてまたは定められた範囲内に含まれる要素を、前記集合の構成要素に含まれる可能性の高さを連続値または三値化を含む多値化を行った値によって表現することを特徴とする付記17に記載の画像処理方法。
(付記19) 前記要素集合間比較工程は、
 前記集合表現生成工程及び前記周辺要素特徴化工程によって表現された、前記画像を構成する前記構成要素のすべてまたは定められた範囲内に含まれる要素における特徴を、それぞれの要素内で積算し、
 該当するすべての要素において前記積算結果を和算することで、
 前記要素と前記集合との比較を行うことを特徴とする付記17又は18に記載の画像処理方法。
(付記20) 前記画像処理方法は、
 前記画像を前もって細分化する画像細分化工程と、
 細分化された画像のそれぞれを、前記初期核選択工程、前記周辺要素表現工程、および前記集合生成工程のそれぞれの入力画像として与える細分化画像入力工程と、
 細分化された画像内で構成された領域を構成要素とした画像を、前記初期核選択工程、前記周辺要素表現工程、および前記集合生成工程のそれぞれの入力として与える統合画像入力工程と、
 を更に含むこと特徴とする付記11から19の何れかに記載の画像処理方法。
(付記21) コンピュータに、画像内に含まれる物体または形状の領域を、前記画像から分割させる画像処理プログラムであって、前記コンピュータに、
 前記画像を構成する構成要素のうち、前記領域を特定するために必要な計算を開始する開始点であるひとつまたは複数の要素を、初期核として選択する初期核選択手順と、
 前記構成要素のひとつひとつと、それらの周辺の周辺要素とを比較することによって、前記周辺要素を周辺要素表現として特徴化する周辺要素表現手順と、
 前記領域をなす前記初期核または前記領域の構成要素の特徴と、その周辺要素の前記周辺要素表現とを比較することによって、それぞれの前記周辺要素が前記初期核と同一の領域に所属するか否かを決定して、前記領域をなす前記構成要素の集合を生成し、前記領域を前記画像から分割する集合生成手順と、
 を実行させる画像処理プログラム。
(付記22) 前記初期核選択手順は、前記コンピュータに、
 前記画像を構成する前記構成要素のひとつひとつを要素特徴として表現する構成要素特徴化手順と、
 前記要素特徴同士を比較する要素特徴比較手順と、
 前記要素特徴の比較結果から最適な要素を前記初期核として選択する最適要素選択手順と、
 を実行させる付記21に記載の画像処理プログラム。
(付記23) 前記構成要素特徴化手順は、前記コンピュータに、該当する要素と前記画像を構成する前記構成要素のすべてに関して、i)定められた範囲内に含まれる要素との特徴量の差分のうちの最大の値、ii)差分が前もって定められた数値以内となる要素の数、およびiii)前もって定められた特徴と前記該当する要素特徴との差分、のいずれか1つによって特徴化を行わせることを特徴とする付記22に記載の画像処理プログラム。
(付記24) 前記周辺要素表現手順は、前記コンピュータに、
 前記画像を構成する前記構成要素のひとつひとつに対し、その周辺要素となるべき別の前記構成要素を特定する周辺要素領域特定手順と、
 前記構成要素のひとつひとつとその前記周辺要素とを比較することで、それぞれの周辺要素を特徴化する周辺要素特徴化手順と、
 を実行させる付記21から23の何れかに記載の画像処理プログラム。
(付記25) 前記周辺要素特徴化手順は、前記コンピュータに、該当する要素と前記周辺要素領域特定手順によって定められた周辺要素との比較によって得られる特徴量の差分値、または、前記差分値を二種類の閾値で三値化した値によって特徴化を行わせることを特徴とする付記24に記載の画像処理プログラム。
(付記26) 前記周辺要素特徴化手順において三値化を行う閾値は、
 前記画像を構成する前記構成要素の特徴量の差分値の分布情報を始めとする、前記画像に帰属する特徴量を用いて正規化処理を行うことによって決定することを特徴とする付記25に記載の画像処理プログラム。
(付記27) 前記集合生成手順は、前記コンピュータに、
 前記初期核を開始点として生成された集合の特徴を、前記初期核を含む集合の構成要素を用いることによって集合表現を生成する集合表現生成手順と、
 前記集合の前記集合表現と、前記集合に含まれない外部要素の前記周辺要素表現とを比較する要素集合間比較手順と、
 前記要素集合間比較手順の比較結果によって、前記外部要素が前記集合に追加されるべきか否かを決定し、追加されるべきであれば追加を行う要素追加手順と、
 を実行させる付記24から26の何れかに記載の画像処理プログラム。
(付記28) 前記集合表現生成手順は、前記コンピュータに、前記画像を構成する前記構成要素のすべてまたは定められた範囲内に含まれる要素を、前記集合の構成要素に含まれる可能性の高さを連続値または三値化を含む多値化を行った値によって表現させることを特徴とする付記27に記載の画像処理プログラム。
(付記29) 前記要素集合間比較手順は、前記コンピュータに、
 前記集合表現生成手順及び前記周辺要素特徴化手順によって表現された、前記画像を構成する前記構成要素のすべてまたは定められた範囲内に含まれる要素における特徴を、それぞれの要素内で積算し、
 該当するすべての要素において前記積算結果を和算することで、
 前記要素と前記集合との比較を行わせることを特徴とする付記27又は28に記載の画像処理プログラム。
(付記30) 前記画像処理プログラムは、前記コンピュータに、
 前記画像を前もって細分化する画像細分化手順と、
 細分化された画像のそれぞれを、前記初期核選択手順、前記周辺要素表現手順、および前記集合生成手順のそれぞれの入力画像として与える細分化画像入力手順と、
 細分化された画像内で構成された領域を構成要素とした画像を、前記初期核選択手順、前記周辺要素表現手順、および前記集合生成手順のそれぞれの入力として与える統合画像入力手順と、
 を更に実行させる付記21から29の何れかに記載の画像処理プログラム。
[Summary of the Invention]
So far, two methods have been adopted to extract silhouette information from an image. One method is a method of spatially differentiating luminance information in an image, extracting a contour of an object using edge information when the differential value exceeds a threshold value. The other method is a method of clustering pixels whose luminance difference values are within a threshold as silhouette information of the same object.
However, in any of the methods, it is necessary to set in advance a threshold having a different optimum value depending on an image, and it is difficult to automatically perform this for an image handled for the first time. In other words, a method for extracting silhouette information from an image handled for the first time has not been devised so far.
In response to these problems, the inventors propose a system that performs image processing as follows.
The processing operation of this image processing system can be shown by the following three steps.
In the first step, a pixel that is a nucleus of silhouette information of an object shape included in an image, that is, an initial nucleus is selected. For example, when an image as shown in FIG. 3 composed of pixels is given to the image processing system, one (or a plurality of) pixels are selected as the “initial nucleus” as shown in FIG.
In the second step, the surrounding pixel representation is generated by comparing the color information, ie, RGB values, of each pixel and the surrounding pixel. For example, as shown in FIG. 5, a pixel within 3 pixels in each of the vertical and horizontal directions with respect to a certain pixel (center pixel) is defined as a peripheral pixel, and a difference between RGB values from the center pixel (RGB value is expressed by a three-dimensional vector. (Expressed in norm). This peripheral pixel representation is performed for all pixels. That is, all the pixels recognize a difference from surrounding pixels as an expression.
In the third step, by comparing the initial kernel and the “peripheral pixel representation” of its surrounding pixels, it is determined whether the corresponding peripheral pixel should be included in the same set as the initial kernel and included in the set If so, the same decision is made for the surrounding pixels. For example, pixels having a small difference from the initial nucleus are taken into the set, and a set that forms a silhouette of the object shape is formed. An example of how the set is gradually expanded in this way is shown in FIG.
The image processing system of the present invention that performs each step will be described below with reference to FIGS. 1 to 17A and 17B.
By adopting this embodiment, it is possible to provide an information processing system that performs image processing that makes it possible to extract silhouette information of an object shape from an image.
[First Embodiment]
[Description of configuration]
FIG. 1 is a block diagram showing a configuration of an image recognition system according to the first embodiment of the present invention. In addition, about the structure with little connection with this invention, description is simplified or abbreviate | omitted.
The illustrated image processing system includes a control unit 10 that manages the entire information processing, an image information acquisition unit 20 that acquires image data to be processed, an image information storage unit 30 that stores the acquired image data, and the like. It includes a set information storage unit 40 that stores silhouettes of objects for which image processing has been completed as a set of in-image elements (pixels), and a processing result output unit 50. The illustrated image processing system includes an initial nucleus selection unit 101, a peripheral element expression unit 102, and a set generation unit 103.
The control unit 10 manages the overall operation of information processing related to image processing.
The image information acquisition unit 20 captures image data designated by the user, such as a moving image or a photograph, into the system and stores it in the image information storage unit 30. As the capturing method, the image information designated by the user may be acquired as it is, or may be acquired after performing preprocessing such as compression by mosaic processing in order to omit the calculation amount.
Examples of image information acquired by the image information acquisition unit 20 (examples of red apples) are illustrated in FIGS. 2 and 3. FIG. 2 shows an example of the captured image itself. FIG. 3 shows an example of a diagram compressed by mosaic processing. It is also possible to automatically collect image information from a moving image or the like at an arbitrary interval or the like.
The image information storage unit 30 stores acquired image data and results obtained by processing, and intermediate data (such as initial core information and peripheral element expressions) as necessary. The image information storage unit 30 may be configured by a memory, a hard disk drive (HDD), or any storage unit.
The set information storage unit 40 stores the silhouette of an object for which image processing has been completed as a set of elements (pixels) in the image. That is, the set information storage unit 40 stores set information. Note that an external database may be referred to as the collective information storage unit 40.
The processing result output unit 50 outputs the image processing result obtained by the system. For example, the processing result output unit 50 outputs the target object or shape of the processing result recorded in the collective information storage unit 40 to a monitor or the like. Note that any information may be output as the output form.
As shown in FIG. 4, the initial nucleus selection unit 101 selects a pixel that is a nucleus of silhouette information of an object shape included in an image, that is, an initial nucleus. Specifically, the initial nucleus selection unit 101 includes three components.
That is, as shown in FIG. 7, the initial kernel selection unit 101 includes a component element characterization unit 101-1 that expresses each component (for example, pixel) constituting a given image as an element feature, It comprises an element feature comparison unit 101-2 that compares element features of constituent elements, and an optimum element selection unit 101-3 that selects an optimum element from the comparison result of the element features as the initial nucleus.
The component element characterization unit 101-1 may be any element characterization, but it is desirable to use color information in the image. For example, the component element characterization unit 101-1 uses RGB values representing color information as element features.
At this time, if the color information of the object to be watched is determined in advance, the constituent element characterization unit 101-1 uses the color information (RGB values represented by vectors) and the element color as the element features. It is also possible to use a difference (vector norm) with information. Further, if it is desired to use a conspicuous element as an initial nucleus, the component element characterization unit 101-1 uses a difference from a peripheral element of the target element as an element feature, for example, a color information difference (RGB value as a vector). It is also possible to use the norm of the expression. Furthermore, if it is desired to keep an eye on the order from the largest possible region, the component characterization unit 101-1 determines that the difference in color information is within a predetermined threshold value from surrounding elements (or elements of the entire image). It is also possible to count the number of objects, that is, the set element candidates, and express the number as a feature of the element. Further, the difference in color information is not necessarily the norm of the vector representation of RGB values, and for example, the maximum difference among the differences between RGB may be used.
An example of the element feature expressed in this way is shown in FIG. FIG. 8 shows the result of calculating the difference from the surrounding pixels for each pixel in the same manner as in FIG. 5 and then selecting the maximum value from the differences from the surrounding pixels and visualizing it. It is. That is, a larger difference from the surrounding pixels is indicated by a larger value. When a method equivalent to this example is used, it is possible to select a conspicuous pixel having a larger difference from the surrounding area.
The element feature comparison unit 101-2 compares each element characterized by the component element characterization unit 101-1.
The optimum element selection unit 101-3 selects an optimum one from those compared by the element feature comparison unit 101-2. For example, if the color information of the object to be watched is determined in advance, the optimum element selection unit 101-3 selects the element having the feature closest to the color information. The optimum element selection unit 101-3 selects an element having a maximum difference feature value with respect to the surrounding area when it is desired to use a conspicuous element as an initial nucleus. The optimal element selection unit 101-3 selects an element that maximizes the number of set element candidates when it is desired to keep an eye on an area as large as possible. The optimum element selection unit 101-3 can adopt other methods as long as it is a means that enables selection of an optimum element to be an initial nucleus.
In the example of FIG. 8, the optimum element selection unit 101-3 can select a conspicuous pixel having a larger difference from the surrounding area by selecting the largest value in FIG.
The peripheral element expression unit 102 generates a peripheral pixel expression by comparing color information, that is, RGB values, of each pixel and its peripheral pixels. Specifically, the peripheral element representation means 102 is composed of two components.
That is, as shown in FIG. 9, the peripheral element expression unit 102 specifies, for each constituent element (for example, pixel) constituting the given image, a peripheral element region specifying unit that specifies an element to be the peripheral element. 102-1 and a peripheral element characterization unit 102-2 that characterizes each peripheral element by comparing the target element and its peripheral elements.
The peripheral element region specifying unit 102-1 specifies, for each element constituting the image, an element that should be the peripheral element. In this operation, when forming a set starting from the initial nucleus, the core elements in the set including the initial nucleus are elements that are candidates for the set element when surrounding elements are taken into the set. This is done for the purpose of specifying the search range. That is, if the range of elements to be newly incorporated into the set is wide, it can be widened, and if it is narrow, it can be narrowed. It can be an element adjacent to the target element, or it can be the entire image. Good. When the range of peripheral elements is narrower, the calculation time for determining a set per time (that is, means performed in the set generation unit) can be shortened. On the other hand, elements with the same characteristics can be included in the set with higher accuracy when the range is wider.
In the example of FIG. 5, the peripheral element specifying unit 102-1 specifies as a peripheral element region an area included within 3 pixels vertically and horizontally from a certain pixel.
The peripheral element characterization unit 102-2 characterizes the peripheral element in the region defined by the peripheral element region specifying unit 102-1 by comparing it with a target element. For example, the peripheral element characterization unit 102-2 performs this by expressing the difference of the color information with the norm of the RGB value vector representation. In addition, the peripheral element characterization unit 102-2 may evaluate the difference value of the color information by binarizing depending on whether or not the threshold value is exceeded, or may ternary using two types of thresholds. By binarization or ternarization, it is possible to express a set centered on a certain element (described here as “figure”) and a set other than that (described here as “ground”). (By ternarization, it is possible to set an intermediate area that is neither area). This threshold value can be normalized by the distribution information of the entire image of the difference information of the color information, and can be generalized to a method that does not target a specific image. FIG. 5 shows an example in which peripheral pixels are characterized (represented by color information difference) around a certain pixel by this method.
The set generation unit 103 determines whether or not the corresponding peripheral pixel should be included in the same set as the initial nucleus by comparing the initial nucleus and the “peripheral pixel representation” of the surrounding pixels. If the corresponding peripheral pixel is included in the same set as the initial nucleus, the set generation unit 103 performs the same decision making for the peripheral pixel. Specifically, the set generation unit 103 includes three components.
That is, as shown in FIG. 10, the set generation unit 103 includes a set expression generation unit 103-1 that represents the characteristics of the set generated with the initial nucleus as a starting point, and a set expression and target of the target set. Each external element should be added to the target set according to the comparison result of the inter-element-set comparison unit 103-2 that compares the peripheral element representations of the external elements not included in the set to be compared and the inter-element-set comparison means And an element adding unit 103-3 for adding if it is to be added.
The set expression generation unit 103-1 represents the characteristics of the set generated with the initial nucleus as a starting point. The characteristics of the set can also be expressed by all elements added as elements of the set by the initial kernel and the element adding unit 103-3. For example, an element having color information close to the elements included in the set can be included in the set by setting the set expression to the RGB value of the initial nucleus or the average value of the RGB values of the elements included in the set. is there. However, instead of simply using only the elements included in the set as described above, it is also possible to add to the expression elements that each element of the set is “ground”. In other words, if the elements included in the set are “figure” and the elements whose color information is separated from them are “ground”, the set can be expressed by the “figure” and “ground” of the set. Become.
By using this technique and referring to the information of “ground”, for example, whether an element with an ambiguous difference from surrounding elements (pixels) as shown in a white frame in FIG. 11 is added to the set. When determining whether or not, it becomes clear how much to continue adding, and it is possible to avoid the process of finally adding the peripheral elements and finally using the entire image as an element. Therefore, it is more desirable to express using both information of "Figure" and "Ground". The means that can be adopted as the set expression generation means is not limited to this, and any means that can express a set may be used.
The inter-element-set comparison unit 103-2 compares the set expression of the target set with the peripheral element expressions of external elements not included in the target set. For example, an element that is neither a “diagram” nor a “ground” of a set is represented by a matrix of 1, -1, 0 (each element of the matrix is, for example, each element of an image), and elements outside the set (peripheral elements) , Let us say that the elements that are neither the “figure” nor the “ground” in the vicinity are represented by a matrix of 1, -1, 0, respectively. In this case, the inter-element-set comparison unit 103-2 includes an element outside the target set in the set based on an evaluation value obtained by summing all elements of the set expression and the peripheral element expression with all elements. It can be determined whether or not it should be.
That is, the inter-element-set comparison unit 103-2 determines that the element should be included in the set if the evaluation value is positive and has a large absolute value, and if the evaluation value is negative and has a large absolute value. , It can be determined that the element should not be included in the set. Further, the inter-element-set comparison unit 103-2 performs evaluation with higher accuracy by separately evaluating the evaluation value when the set value is 1 and the evaluation value when the set value is -1. It becomes possible.
The inter-element-set comparison unit 103-2 does not necessarily need to be the component shown here, and any method can be used as long as it can be determined whether an element outside the set is included in the set. Is also possible.
The element addition unit 103-3 determines whether or not each external element should be added to the target set according to the comparison result of the inter-element set comparison unit 103-2. I do. For example, the element addition unit 103-3 performs element addition when the evaluation value obtained by summing up the integration of the matrix elements exceeds a prescribed value, for example, 0. This additional element processing is desirably performed not only on external elements but also on elements in the set. It is desirable to perform element addition processing each time a new external element is added to the set. However, this may be done after several external elements are added together in order to prevent an increase in computation time. Is possible.
The element adding unit 103-3 is desirably performed until convergence to a state where there are no more elements to be added, but in order to prevent an increase in calculation time, conditions such as an upper limit of the number of calculations can be provided. FIG. 12 shows how this addition process is performed gradually, and FIG. 13 shows the state of the set when the addition is completed.
[Description of operation]
Next, an operation example of the first embodiment will be described. FIG. 14 is a flowchart illustrating an example of the operation of the image processing system according to the first embodiment.
First, the image information acquisition unit 20 acquires target image data designated by the user and records it in the image information storage unit 30 (S1001). The acquisition of image information is not limited to the one specified by the user, and the system may acquire it automatically or semi-automatically.
Next, the initial nucleus selection unit 101 selects a pixel that is a nucleus of silhouette information of an object shape included in an image, that is, an initial nucleus, by the following three steps. First, the component characterization unit 101-1 of the initial kernel selection unit 101 performs a component characterization step (S <b> 1002) for expressing each component (for example, pixel) constituting the given image as an element feature. . Next, the element feature comparison unit 101-2 of the initial core selection unit 101 performs an element feature comparison step (S1003) for comparing the element features of the respective constituent elements. Finally, the optimum element selection unit 101-3 of the initial nucleus selection unit 101 performs an optimum element selection step (S1004) for selecting an optimum element as the initial nucleus from the comparison result of the element features.
Next, the peripheral element representation unit 102 generates a peripheral pixel representation by comparing each pixel with color information, that is, an RGB value, according to the following two steps. First, the peripheral element region specifying unit 102-1 of the peripheral element expression unit 102 specifies, for each constituent element (for example, pixel) constituting the given image, an element that should be the peripheral element. The specific step (S1005) is performed. Next, the peripheral element characterization unit 102-2 of the peripheral element expression unit 102 performs a peripheral element characterization step (S1006) of characterizing each peripheral element by comparing the target element with the peripheral element. carry out.
Next, the set generation unit 103 compares the “peripheral pixel representation” of the initial nucleus and its surrounding pixels through the following three steps, so that the corresponding peripheral pixel should be included in the same set as the initial nucleus. If it is included in the set, the same decision is made for the surrounding pixels. First, the set expression generation unit 103-1 of the set generation unit 103 performs a set expression generation step (S <b> 1007) for expressing the characteristics of the set generated with the initial nucleus as a starting point. Next, the inter-element set comparison unit 103-2 of the set generation unit 103 compares the set representation of the target set with the peripheral element representations of external elements not included in the target set. Step (S1008) is performed. Next, the element addition unit 103-3 of the set generation unit 103 determines whether or not each external element should be added to the target set according to the comparison result of the inter-element set comparison unit 103-2. If it is to be added, an element addition step (S1009) for performing addition is performed. The element adding step is continued until the end condition defined by the element adding means is satisfied.
Finally, the processing result output unit 50 outputs the set generated as a result of the processing as region information that forms a silhouette of the object shape (S1010).
By operating the image processing system in this way, it can be expected to perform image processing that makes it possible to extract silhouette information of an object shape from an image.
Note that each unit of the image processing system may be realized using a combination of hardware and software. In a form in which hardware and software are combined, an image processing program is developed in the RAM, and hardware such as a control unit (CPU) is operated based on the program, thereby realizing each unit as various means. Further, the program may be recorded on a recording medium and distributed. The program recorded on the recording medium is read into a memory via a wired, wireless, or recording medium itself, and operates a control unit or the like. Examples of the recording medium include an optical disk, a magnetic disk, a semiconductor memory device, and a hard disk.
To describe the above-described embodiment in another expression, an information processing apparatus that operates as an image processing system is based on an image processing program expanded in a RAM, an initial kernel selection unit 101, a peripheral element expression unit 102, a set generation unit It can be realized by operating the control unit 10 as 103.
As described above, according to the first embodiment of the present invention, it is possible to provide image processing that makes it possible to extract silhouette information of an object shape from an image.
In addition, the specific configuration of the present invention is not limited to the above-described embodiment, and changes within a range not departing from the gist of the present invention are included in the present invention.
[Second Embodiment]
A second embodiment for carrying out the present invention will be described in detail with reference to the drawings.
[Description of configuration]
FIG. 15 is a block diagram showing a configuration of an image processing system according to the second embodiment of the present invention. In addition, about the structure with little connection with this invention, description is simplified or abbreviate | omitted.
The second embodiment assumes a case where the image size acquired in the first embodiment is very large and the calculation amount becomes enormous. In such a case, the first embodiment subdivides the acquired image, generates partial information of the silhouette once in the subdivided image, and then generates silhouette information generated in all of the subdivided images. By using the technique applied in the first embodiment again as a factor, a technique for calculating the entire silhouette information is adopted.
For this reason, the second embodiment is different from the first embodiment in that an input image control unit 201 is newly provided. In addition, some elements have functions different from those of the first embodiment.
The input image control unit 201 subdivides the acquired image and generates the partial information of the silhouette once in the subdivided image (subdivided image). In addition to performing the control for giving the inside of the image, after the input of all the subdivided images is completed, the image information having the silhouette information constituted in each subdivided image as a constituent element is given as an input. Specifically, the input image control includes three components.
That is, as shown in FIG. 16, the input image control unit 201 includes an image segmentation unit 201-1 that subdivides an image (original image) acquired by the system in advance by some method including grid division, A subdivided image input unit 201-2 that gives each of the subdivided images as an input image to the system, and an integration that gives, as an input to the system, an image having an area configured in each subdivided image as a constituent element And an image input unit 201-3.
The image subdivision unit 201-1 may subdivide the subdivision image by the method of giving the vertical and horizontal sizes in advance, or may give the number of subdivision images in advance and subdivide the image by a suitable image size. In addition, the image segmentation unit 201-may be any component as long as it is a component intended for image segmentation.
The segmented image input unit 201-2 inputs the images segmented by the image segmentation unit 201-1 one by one.
The integrated image input unit 201-3 configures an image having regions configured in the respective subdivided images as constituent elements, and performs input to the system.
[Description of operation]
Next, an operation example of the second embodiment will be described. FIG. 17 is a flowchart illustrating an example of the operation of the image processing system according to the second embodiment. In addition, about the structure with little connection with this invention, description is simplified or abbreviate | omitted.
The input image control unit 201 subdivides the acquired image by the following three steps and inputs the system in order to generate partial information of the silhouette once in the subdivided image (subdivided image). As an image, control is given to each subdivided image, and after input of all the subdivided images is completed, image information including silhouette information composed in each subdivided image as input is input. give.
First, the image segmentation unit 201-1 of the input image control unit 201 performs an image segmentation step (S2001) in which an image (original image) acquired by the system is segmented in advance by some method such as grid division. carry out. Next, the segmented image input unit 201-2 of the input image control unit 201 performs a segmented image input step (S2002) in which each segmented image is provided as an input image to the system. Finally, the integrated image input unit 201-3 of the input image control unit 201 provides an integrated image input step as an input to the system, with an image having regions configured in the respective subdivided images as components (S2003). To implement.
In each of the above-described embodiments, the processing of the embodiment includes information stored in a computer-readable storage medium encoded with a program, software, or an instruction that can be executed by a computer. It may be executed by installing it on a computer. The storage medium includes not only a portable recording medium such as an optical disk, a floppy (registered trademark) disk, and a hard disk, but also a transmission medium that temporarily records and holds data such as a network.
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.
(Supplementary Note 1) An image processing system that divides a region of an object or a shape included in an image from the image,
An initial nucleus selecting means for selecting one or more elements, which are starting points for starting calculation necessary for specifying the region, among the components constituting the image, as an initial nucleus;
A peripheral element expression means for characterizing the peripheral element as a peripheral element expression by comparing each of the constituent elements with the peripheral elements around them;
Whether each of the peripheral elements belongs to the same region as the initial nucleus by comparing the characteristics of the constituent elements of the initial nucleus or the region constituting the region and the peripheral element representation of the peripheral element. Set generation means for generating the set of the constituent elements forming the region and dividing the region from the image;
An image processing system comprising:
(Supplementary Note 2) The initial nucleus selection means includes:
Component characterization means for expressing each of the components constituting the image as element features;
Element feature comparison means for comparing the element features;
Optimal element selection means for selecting an optimal element as the initial nucleus from the comparison result of the element characteristics;
The image processing system according to claim 1, further comprising:
(Additional remark 3) The said component element characterization means is the largest among the difference of the feature-value with respect to the element contained in the defined range regarding all the said components which comprise the said element and the said image. And ii) the number of elements within which a difference is within a predetermined numerical value, and iii) the difference between the predetermined characteristic and the corresponding element characteristic, The image processing system according to appendix 2.
(Supplementary Note 4) The peripheral element expression means includes:
Peripheral element region specifying means for specifying another constituent element to be a peripheral element for each of the constituent elements constituting the image;
A peripheral element characterizing means for characterizing each peripheral element by comparing each of the constituent elements with the peripheral element;
The image processing system according to any one of appendices 1 to 3, further comprising:
(Supplementary Note 5) The peripheral element characterization unit is configured to use a difference value of a feature amount obtained by comparing the corresponding element with a peripheral element determined by the peripheral element region specifying unit, or the difference value is obtained by using two types of threshold values. The image processing system according to appendix 4, wherein the characterization is performed using the ternarized values in (4).
(Supplementary Note 6) The threshold for performing ternarization in the peripheral element characterization means is:
The supplementary note 5 is characterized in that the determination is performed by performing a normalization process using a feature amount belonging to the image, including distribution information of a difference value of a feature amount of the constituent elements constituting the image. Image processing system.
(Supplementary Note 7) The set generation means includes:
A set expression generation means for generating a set expression by using a component of the set including the initial nucleus, and a feature of the set generated using the initial nucleus as a starting point;
A comparison means between element sets for comparing the set representation of the set with the peripheral element representation of external elements not included in the set;
An element addition unit that determines whether or not the external element should be added to the set according to a comparison result of the inter-element set comparison unit;
The image processing system according to any one of appendices 4 to 6, further comprising:
(Supplementary Note 8) The set expression generation means sets the possibility of being included in all of the constituent elements constituting the image or the elements included in a predetermined range as the constituent elements of the set, or Item 8. The image processing system according to appendix 7, wherein the image processing system is expressed by a multivalued value including ternary value.
(Supplementary note 9) The inter-element-set comparison means includes:
The features in the elements included in all or a predetermined range of the constituent elements constituting the image expressed by the set expression generating means and the peripheral element characterizing means are integrated in the respective elements,
By summing up the integration results for all applicable elements,
The image processing system according to appendix 7 or 8, wherein the element is compared with the set.
(Supplementary Note 10) The image processing system includes:
Image segmentation means for segmenting the image in advance;
Subdivided image input means for giving each of the subdivided images as input images of the initial nucleus selection means, the peripheral element representation means, and the set generation means,
An integrated image input means for giving an image having a region formed in the subdivided image as a component, as an input of each of the initial nucleus selection means, the peripheral element representation means, and the set generation means;
The image processing system according to any one of appendices 1 to 9, further comprising:
(Supplementary note 11) An image processing method for dividing an object or a region of a shape included in an image from the image,
An initial nucleus selection step of selecting one or more elements, which are starting points for starting calculation necessary for specifying the region, among the components constituting the image as an initial nucleus;
A peripheral element expression step for characterizing the peripheral element as a peripheral element expression by comparing each of the constituent elements with the peripheral elements around them,
Whether each of the peripheral elements belongs to the same region as the initial nucleus by comparing the characteristics of the constituent elements of the initial nucleus or the region constituting the region and the peripheral element representation of the peripheral element. A set generation step of generating a set of the constituent elements forming the region and dividing the region from the image;
An image processing method comprising:
(Supplementary Note 12) The initial nucleus selection step includes:
A component characterization step of expressing each of the components constituting the image as element features;
An element feature comparison step for comparing the element features;
An optimal element selection step of selecting an optimal element as the initial nucleus from the comparison result of the element characteristics;
The image processing method according to appendix 11, characterized by comprising:
(Additional remark 13) The said component element characterization process is the largest of the difference of the feature-value with respect to the element included in the defined range regarding the said element and all the said component which comprises the said image. And ii) the number of elements within which a difference is within a predetermined numerical value, and iii) the difference between the predetermined characteristic and the corresponding element characteristic, The image processing method according to appendix 12.
(Supplementary Note 14) The peripheral element expression step includes:
For each of the constituent elements constituting the image, a peripheral element region specifying step for specifying another constituent element to be the peripheral element;
A peripheral element characterization process for characterizing each peripheral element by comparing each of the constituent elements with the peripheral element;
14. The image processing method according to any one of appendices 11 to 13, characterized by comprising:
(Supplementary Note 15) In the peripheral element characterization step, the difference value of the feature amount obtained by comparison between the corresponding element and the peripheral element determined by the peripheral element region specifying step, or the difference value is represented by two types of threshold values. 15. The image processing method according to appendix 14, wherein the characterization is performed using the ternary values obtained in step 14.
(Supplementary Note 16) The threshold for performing ternarization in the peripheral element characterization step is:
Item 15. The supplementary note 15, wherein the determination is performed by performing a normalization process using feature amounts belonging to the image including distribution information of difference values of feature amounts of the constituent elements constituting the image. Image processing method.
(Supplementary Note 17) The set generation step includes:
A set expression generation step of generating a set expression by using a component of the set including the initial nucleus as a feature of the set generated using the initial nucleus as a starting point;
An inter-element-set comparison step of comparing the set representation of the set with the peripheral element representation of external elements not included in the set;
An element addition step of determining whether or not the external element should be added to the set according to a comparison result of the inter-element set comparison step;
The image processing method according to claim 14, comprising:
(Supplementary Note 18) In the set expression generation step, all of the constituent elements constituting the image or elements included in a predetermined range are set to continuous values or the possibility of being included in the constituent elements of the set. 18. The image processing method according to appendix 17, wherein the image processing method is expressed by a multi-valued value including ternarization.
(Supplementary note 19) The element set comparison step includes:
The features in the elements included in all or all of the constituent elements constituting the image expressed by the set expression generation step and the peripheral element characterization step are integrated in the respective elements,
By summing up the integration results for all applicable elements,
The image processing method according to appendix 17 or 18, wherein the element is compared with the set.
(Supplementary Note 20) The image processing method includes:
An image segmentation step for segmenting the image in advance;
A subdivided image input step of giving each of the subdivided images as input images of the initial nucleus selection step, the peripheral element representation step, and the set generation step;
An integrated image input step of giving an image having an area configured in the subdivided image as a component as an input of each of the initial nucleus selection step, the peripheral element representation step, and the set generation step;
The image processing method according to any one of appendices 11 to 19, further comprising:
(Supplementary note 21) An image processing program for causing a computer to divide a region of an object or a shape included in an image from the image, wherein the computer
An initial kernel selection procedure for selecting, as an initial kernel, one or more elements that are starting points for starting calculation necessary to identify the region from among the components constituting the image;
A peripheral element expression procedure for characterizing the peripheral element as a peripheral element expression by comparing each of the constituent elements with their peripheral peripheral elements;
Whether each of the peripheral elements belongs to the same region as the initial nucleus by comparing the characteristics of the constituent elements of the initial nucleus or the region constituting the region and the peripheral element representation of the peripheral element. A set generation procedure for generating a set of the constituent elements forming the region and dividing the region from the image;
An image processing program for executing
(Supplementary Note 22) The initial nucleus selection procedure is performed by the computer.
A component characterization procedure for expressing each of the components constituting the image as element features;
An element feature comparison procedure for comparing the element features;
An optimal element selection procedure for selecting an optimal element as the initial nucleus from the comparison result of the element characteristics;
Item 22. The image processing program according to appendix 21, wherein the image processing program is executed.
(Additional remark 23) The said component element characterization procedure makes the said computer calculate the difference of the feature-value with respect to the element included in the defined range about the said element and all the said component which comprises the said image. Characterizing is performed by any one of the maximum value among them, ii) the number of elements whose difference is within a predetermined numerical value, and iii) the difference between the predetermined characteristic and the corresponding element characteristic. The image processing program according to attachment 22, wherein the image processing program is executed.
(Supplementary Note 24) The peripheral element expression procedure is performed on the computer.
For each of the constituent elements constituting the image, a peripheral element region specifying procedure for specifying another constituent element to be the peripheral element;
A peripheral element characterization procedure for characterizing each peripheral element by comparing each of the constituent elements with the peripheral element;
The image processing program according to any one of appendices 21 to 23, wherein:
(Supplementary Note 25) In the peripheral element characterization procedure, the difference value of the feature amount obtained by comparing the corresponding element with the peripheral element determined by the peripheral element region specifying procedure, or the difference value is stored in the computer. 25. The image processing program according to appendix 24, wherein characterization is performed using values ternarized with two types of threshold values.
(Supplementary Note 26) The threshold for performing ternarization in the peripheral element characterization procedure is:
25. The supplementary note 25, wherein the determination is performed by performing a normalization process using feature amounts belonging to the image including distribution information of difference values of feature amounts of the constituent elements constituting the image. Image processing program.
(Supplementary note 27) The set generation procedure is performed by the computer.
A set expression generation procedure for generating a set expression by using a component of the set including the initial nucleus as a feature of the set generated using the initial nucleus as a starting point;
An inter-element-set comparison procedure for comparing the set representation of the set with the peripheral element representation of external elements not included in the set;
An element addition procedure for determining whether or not the external element should be added to the set according to the comparison result of the comparison procedure between the element sets, and adding if it should be added;
27. The image processing program according to any one of appendices 24 to 26, wherein:
(Supplementary Note 28) In the set expression generation procedure, the computer is highly likely to include all or all of the constituent elements constituting the image in the set range. 28. The image processing program according to appendix 27, wherein the image processing program is expressed by a continuous value or a multivalued value including a ternary value.
(Supplementary Note 29) The inter-element set comparison procedure is performed on the computer.
The features in the elements included in all of the constituent elements constituting the image or in a predetermined range expressed by the set expression generation procedure and the peripheral element characterization procedure are integrated in each element,
By summing up the integration results for all applicable elements,
29. The image processing program according to appendix 27 or 28, wherein the element is compared with the set.
(Supplementary Note 30) The image processing program is stored in the computer.
An image segmentation procedure for segmenting the image in advance;
A subdivided image input procedure that gives each of the subdivided images as input images of the initial nucleus selection procedure, the peripheral element representation procedure, and the set generation procedure;
An integrated image input procedure for giving an image having an area configured in the subdivided image as a component as an input of each of the initial nucleus selection procedure, the peripheral element representation procedure, and the set generation procedure;
30. The image processing program according to any one of appendices 21 to 29, wherein the program is further executed.
 本発明によれば、画像から物体形状のシルエット情報を抽出することを可能にする画像処理処理を実施し、物体形状の位置と形状を特定することができるので、画像の検索や、画像の分類といった用途に適用可能である。 According to the present invention, it is possible to perform image processing that makes it possible to extract silhouette information of an object shape from an image and specify the position and shape of the object shape. It is applicable to such uses.
 10  制御部
 20  画像情報取得部
 30  画像情報記憶部
 40  集合情報記憶部
 50  処理結果出力部
 101 初期核選択部
 101−1  構成要素特徴化部
 101−2  要素特徴比較部
 101−3  最適要素選択部
 102 周辺要素表現部
 102−1  周辺要素領域特定部
 102−2  周辺要素特徴化部
 103 集合生成部
 103−1  集合表現生成部
 103−2  要素集合間比較部
 103−3  要素追加部
 201 入力画像制御部
 201−1  画像細分化部
 201−2  細分化画像入力部
 201−3  統合画像入力部
 この出願は、2012年9月20日に出願された、日本特許出願第2012−206877号を基礎とする優先権を主張し、その開示を全てここに取り込む。
DESCRIPTION OF SYMBOLS 10 Control part 20 Image information acquisition part 30 Image information storage part 40 Aggregate information storage part 50 Processing result output part 101 Initial nucleus selection part 101-1 Component element characterization part 101-2 Element feature comparison part 101-3 Optimal element selection part DESCRIPTION OF SYMBOLS 102 Peripheral element expression part 102-1 Peripheral element area | region specific part 102-2 Peripheral element characterization part 103 Set generation part 103-1 Set expression generation part 103-2 Comparison element between element sets 103-3 Element addition part 201 Input image control Section 201-1 Image segmentation section 201-2 Segmented image input section 201-3 Integrated image input section This application is based on Japanese Patent Application No. 2012-206877 filed on September 20, 2012. Claim priority and incorporate all its disclosure here.

Claims (10)

  1.  画像内に含まれる物体または形状の領域を、前記画像から分割する画像処理システムであって、
     前記画像を構成する構成要素のうち、前記領域を特定するために必要な計算を開始する開始点であるひとつまたは複数の要素を、初期核として選択する初期核選択手段と、
     前記構成要素のひとつひとつと、それらの周辺の周辺要素とを比較することによって、前記周辺要素を周辺要素表現として特徴化する周辺要素表現手段と、
     前記領域をなす前記初期核または前記領域の構成要素の特徴と、その周辺要素の前記周辺要素表現とを比較することによって、それぞれの前記周辺要素が前記初期核と同一の領域に所属するか否かを決定して、前記領域をなす前記構成要素の集合を生成し、前記領域を前記画像から分割する集合生成手段と、
     を備えることを特徴とする画像処理システム。
    An image processing system for dividing an object or a region of a shape included in an image from the image,
    An initial nucleus selecting means for selecting one or more elements, which are starting points for starting calculation necessary for specifying the region, among the components constituting the image, as an initial nucleus;
    A peripheral element expression means for characterizing the peripheral element as a peripheral element expression by comparing each of the constituent elements with the peripheral elements around them;
    Whether each of the peripheral elements belongs to the same region as the initial nucleus by comparing the characteristics of the constituent elements of the initial nucleus or the region constituting the region and the peripheral element representation of the peripheral element. Set generation means for generating the set of the constituent elements forming the region and dividing the region from the image;
    An image processing system comprising:
  2.  前記初期核選択手段は、
     前記画像を構成する前記構成要素のひとつひとつを要素特徴として表現する構成要素特徴化手段と、
     前記要素特徴同士を比較する要素特徴比較手段と、
     前記要素特徴の比較結果から最適な要素を前記初期核として選択する最適要素選択手段と、
     を備えること特徴とする請求項1に記載の画像処理システム。
    The initial nucleus selection means includes
    Component characterization means for expressing each of the components constituting the image as element features;
    Element feature comparison means for comparing the element features;
    Optimal element selection means for selecting an optimal element as the initial nucleus from the comparison result of the element characteristics;
    The image processing system according to claim 1, further comprising:
  3.  前記構成要素特徴化手段は、該当する要素と前記画像を構成する前記構成要素のすべてに関して、
     i)定められた範囲内に含まれる要素との特徴量の差分のうちの最大の値、
     ii)差分が前もって定められた数値以内となる要素の数、および
     iii)前もって定められた特徴と前記該当する要素特徴との差分、
    のいずれか1つによって特徴化を行うことを特徴とする請求項2に記載の画像処理システム。
    The component characterization means relates to the corresponding element and all of the components constituting the image.
    i) the maximum value of the difference in feature quantity from the element included in the determined range;
    ii) the number of elements whose difference is within a predetermined numerical value; and iii) the difference between the predetermined characteristic and the corresponding element characteristic;
    The image processing system according to claim 2, wherein the characterization is performed by any one of the following.
  4.  前記周辺要素表現手段は、
     前記画像を構成する前記構成要素のひとつひとつに対し、その周辺要素となるべき別の前記構成要素を特定する周辺要素領域特定手段と、
     前記構成要素のひとつひとつとその前記周辺要素とを比較することで、それぞれの周辺要素を特徴化する周辺要素特徴化手段と、
     を備えることを特徴とする請求項1から3の何れかに記載の画像処理システム。
    The peripheral element expression means includes:
    Peripheral element region specifying means for specifying another constituent element to be a peripheral element for each of the constituent elements constituting the image;
    A peripheral element characterizing means for characterizing each peripheral element by comparing each of the constituent elements with the peripheral element;
    The image processing system according to claim 1, further comprising:
  5.  前記周辺要素特徴化手段は、該当する要素と前記周辺要素領域特定手段によって定められた周辺要素との比較によって得られる特徴量の差分値、または、前記差分値を二種類の閾値で三値化した値によって特徴化を行うことを特徴とする請求項4に記載の画像処理システム。 The peripheral element characterization unit ternarizes the difference value of the feature amount obtained by comparing the corresponding element with the peripheral element determined by the peripheral element region specifying unit, or the difference value by using two types of threshold values. 5. The image processing system according to claim 4, wherein the characterization is performed according to the obtained value.
  6.  前記周辺要素特徴化手段において三値化を行う閾値は、
     前記画像を構成する前記構成要素の特徴量の差分値の分布情報を始めとする、前記画像に帰属する特徴量を用いて正規化処理を行うことによって決定することを特徴とする請求項5に記載の画像処理システム。
    The threshold for performing ternarization in the peripheral element characterization means is:
    6. The method according to claim 5, wherein the determination is performed by performing a normalization process using feature amounts belonging to the image, including distribution information of difference values of feature amounts of the constituent elements constituting the image. The image processing system described.
  7.  前記集合生成手段は、
     前記初期核を開始点として生成された集合の特徴を、前記初期核を含む集合の構成要素を用いることによって集合表現を生成する集合表現生成手段と、
     前記集合の前記集合表現と、前記集合に含まれない外部要素の前記周辺要素表現とを比較する要素集合間比較手段と、
     前記要素集合間比較手段の比較結果によって、前記外部要素が前記集合に追加されるべきか否かを決定し、追加されるべきであれば追加を行う要素追加手段と、
     を備えることを特徴とする請求項4から6の何れかに記載の画像処理システム。
    The set generation means includes:
    A set expression generation means for generating a set expression by using a component of the set including the initial nucleus, and a feature of the set generated using the initial nucleus as a starting point;
    A comparison means between element sets for comparing the set representation of the set with the peripheral element representation of external elements not included in the set;
    An element addition unit that determines whether or not the external element should be added to the set according to a comparison result of the inter-element set comparison unit;
    The image processing system according to claim 4, further comprising:
  8.  前記画像処理システムは、
     前記画像を前もって細分化する画像細分化手段と、
     細分化された画像のそれぞれを、前記初期核選択手段、前記周辺要素表現手段、および前記集合生成手段のそれぞれの入力画像として与える細分化画像入力手段と、
     細分化された画像内で構成された領域を構成要素とした画像を、前記初期核選択手段、前記周辺要素表現手段、および前記集合生成手段のそれぞれの入力として与える統合画像入力手段と、
     を備えること特徴とする請求項1から7の何れかに記載の画像処理システム。
    The image processing system includes:
    Image segmentation means for segmenting the image in advance;
    Subdivided image input means for giving each of the subdivided images as input images of the initial nucleus selection means, the peripheral element representation means, and the set generation means,
    An integrated image input means for giving an image having a region formed in the subdivided image as a component, as an input of each of the initial nucleus selection means, the peripheral element representation means, and the set generation means;
    The image processing system according to claim 1, further comprising:
  9.  画像内に含まれる物体または形状の領域を、前記画像から分割する画像処理方法であって、
     前記画像を構成する構成要素のうち、前記領域を特定するために必要な計算を開始する開始点であるひとつまたは複数の要素を、初期核として選択する初期核選択工程と、
     前記構成要素のひとつひとつと、それらの周辺の周辺要素とを比較することによって、前記周辺要素を周辺要素表現として特徴化する周辺要素表現工程と、
     前記領域をなす前記初期核または前記領域の構成要素の特徴と、その周辺要素の前記周辺要素表現とを比較することによって、それぞれの前記周辺要素が前記初期核と同一の領域に所属するか否かを決定して、前記領域をなす前記構成要素の集合を生成し、前記領域を前記画像から分割する集合生成工程と、
     を含むことを特徴とする画像処理方法。
    An image processing method for dividing a region of an object or a shape included in an image from the image,
    An initial nucleus selection step of selecting one or more elements, which are starting points for starting calculation necessary for specifying the region, among the components constituting the image as an initial nucleus;
    A peripheral element expression step for characterizing the peripheral element as a peripheral element expression by comparing each of the constituent elements with the peripheral elements around them,
    Whether each of the peripheral elements belongs to the same region as the initial nucleus by comparing the characteristics of the constituent elements of the initial nucleus or the region constituting the region and the peripheral element representation of the peripheral element. A set generation step of generating a set of the constituent elements forming the region and dividing the region from the image;
    An image processing method comprising:
  10.  コンピュータに、画像内に含まれる物体または形状の領域を、前記画像から分割させる画像処理プログラムであって、前記コンピュータに、
     前記画像を構成する構成要素のうち、前記領域を特定するために必要な計算を開始する開始点であるひとつまたは複数の要素を、初期核として選択する初期核選択手順と、
     前記構成要素のひとつひとつと、それらの周辺の周辺要素とを比較することによって、前記周辺要素を周辺要素表現として特徴化する周辺要素表現手順と、
     前記領域をなす前記初期核または前記領域の構成要素の特徴と、その周辺要素の前記周辺要素表現とを比較することによって、それぞれの前記周辺要素が前記初期核と同一の領域に所属するか否かを決定して、前記領域をなす前記構成要素の集合を生成し、前記領域を前記画像から分割する集合生成手順と、
     を実行させる画像処理プログラム。
    An image processing program for causing a computer to divide an object or shape area included in an image from the image, wherein the computer
    An initial kernel selection procedure for selecting, as an initial kernel, one or more elements that are starting points for starting calculation necessary to identify the region from among the components constituting the image;
    A peripheral element expression procedure for characterizing the peripheral element as a peripheral element expression by comparing each of the constituent elements with their peripheral peripheral elements;
    Whether each of the peripheral elements belongs to the same region as the initial nucleus by comparing the characteristics of the constituent elements of the initial nucleus or the region constituting the region and the peripheral element representation of the peripheral element. A set generation procedure for generating a set of the constituent elements forming the region and dividing the region from the image;
    An image processing program for executing
PCT/JP2013/074448 2012-09-20 2013-09-04 Image processing system, image processing method, and program WO2014045950A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014536771A JPWO2014045950A1 (en) 2012-09-20 2013-09-04 Image processing system, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-206877 2012-09-20
JP2012206877 2012-09-20

Publications (1)

Publication Number Publication Date
WO2014045950A1 true WO2014045950A1 (en) 2014-03-27

Family

ID=50341264

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/074448 WO2014045950A1 (en) 2012-09-20 2013-09-04 Image processing system, image processing method, and program

Country Status (2)

Country Link
JP (1) JPWO2014045950A1 (en)
WO (1) WO2014045950A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981750A (en) * 1995-09-18 1997-03-28 Iseki & Co Ltd Weed recognizing device of weeding robot
JP2001043376A (en) * 1999-07-30 2001-02-16 Canon Inc Image extraction method and device and storage medium
JP2001266142A (en) * 2000-01-13 2001-09-28 Nikon Corp Method/device for sorting data, method/device for processing signal, method/device for detecting position, method/device for processing image, method/device for exposure and method for manufacturing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981750A (en) * 1995-09-18 1997-03-28 Iseki & Co Ltd Weed recognizing device of weeding robot
JP2001043376A (en) * 1999-07-30 2001-02-16 Canon Inc Image extraction method and device and storage medium
JP2001266142A (en) * 2000-01-13 2001-09-28 Nikon Corp Method/device for sorting data, method/device for processing signal, method/device for detecting position, method/device for processing image, method/device for exposure and method for manufacturing device

Also Published As

Publication number Publication date
JPWO2014045950A1 (en) 2016-08-18

Similar Documents

Publication Publication Date Title
JP7317919B2 (en) Appearance search system and method
CN109151501B (en) Video key frame extraction method and device, terminal equipment and storage medium
AU2015274708B2 (en) Rule-based video importance analysis
CN110088805B (en) Method for detecting and segmenting a plurality of foreground objects
JP4725690B2 (en) Video identifier extraction device
AU2012219026B2 (en) Image quality assessment
US9020195B2 (en) Object tracking device, object tracking method, and control program
CN104508682B (en) Key frame is identified using the openness analysis of group
US20230196837A1 (en) Action recognition method and apparatus, and device and storage medium
EP3044947A1 (en) Automated selection of keeper images from a burst photo captured set
Varnousfaderani et al. Weighted color and texture sample selection for image matting
JP5500024B2 (en) Image recognition method, apparatus, and program
JP5914046B2 (en) Image processing apparatus and image processing method
JP5965764B2 (en) Image area dividing apparatus and image area dividing program
US9595113B2 (en) Image transmission system, image processing apparatus, image storage apparatus, and control methods thereof
JP4369308B2 (en) Representative image selection device, representative image selection method, and representative image selection program
Katsenou et al. Understanding video texture—A basis for video compression
WO2014045950A1 (en) Image processing system, image processing method, and program
JP6068895B2 (en) Image processing apparatus and program
KR101323369B1 (en) Apparatus and method for clustering video frames
Ye et al. Unsupervised Monocular depth estimation based on dual attention mechanism and depth-aware loss
Majumder et al. Two-in-One Refinement for Interactive Segmentation.
Kalaivani et al. Automatic color image segmentation
JP4449483B2 (en) Image analysis apparatus, image analysis method, and computer program
Kalboussi et al. A spatiotemporal model for video saliency detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13839744

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014536771

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13839744

Country of ref document: EP

Kind code of ref document: A1