JP2006031114A - Image division processing system - Google Patents

Image division processing system Download PDF

Info

Publication number
JP2006031114A
JP2006031114A JP2004205120A JP2004205120A JP2006031114A JP 2006031114 A JP2006031114 A JP 2006031114A JP 2004205120 A JP2004205120 A JP 2004205120A JP 2004205120 A JP2004205120 A JP 2004205120A JP 2006031114 A JP2006031114 A JP 2006031114A
Authority
JP
Japan
Prior art keywords
image
processing system
partial
partial images
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004205120A
Other languages
Japanese (ja)
Other versions
JP4477439B2 (en
Inventor
Yasushi Tsukahara
裕史 塚原
Hiroshi Doi
浩史 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Denso IT Laboratory Inc
Original Assignee
Hitachi Software Engineering Co Ltd
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd, Denso IT Laboratory Inc filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2004205120A priority Critical patent/JP4477439B2/en
Publication of JP2006031114A publication Critical patent/JP2006031114A/en
Application granted granted Critical
Publication of JP4477439B2 publication Critical patent/JP4477439B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for dividing an image to a plurality of areas, which performs an area division robust to difference in resolution, change of object, occlusion, sudden environmental change or the like of the image by extracting a proper characteristic quantity by a further objective criterion. <P>SOLUTION: Small areas (windows) are set in the whole image, and a group of partial images obtained by cutting out small areas of the image from each window is formed. An order relation corresponding to the non-similarity among all the cut partial images is defined among them, and each partial image is mapped to a point in an optional distance space based on only the order relation. Clustering is performed for the group of the thus-mapped points in the distance space, and partial images obtained by reversely mapping the points belonging to each cluster are regarded to belong to the same area, and reintegrated. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像分割処理システムに関し、特に、画像の特徴量に基づいて複数の部分領域に分割するシステムに関するものである。   The present invention relates to an image division processing system, and more particularly to a system that divides a plurality of partial areas based on image feature amounts.

画像の中から対象物体を識別するための方法として、画像をその特徴量に基づいて複数の小さい部分領域に分割する方法がある。このような方法では、特徴量(の相関係数)が大きく変化する箇所を検出し、そこを部分領域間の境界と見なすことで領域の分割を行うことができる。ここで、特徴量とは、画像の各部分領域における構造を特徴付ける情報である。特徴量を抽出するには、平均輝度と分散を用いる方法、あるいはエッジ強度やテクスチャーなどの情報に基づいて抽出するヒューリスティックな方法などがある。例えば、特許文献1では、平均色、代表色または濃度という量を特徴量として使用している。ところが、このようにして抽出される特徴量が画像を領域分割するにあたって最適な基準となるかどうかは自明ではないので、客観的な評価に基づいて真に最適な特徴量を求めることが重要である。   As a method for identifying a target object from an image, there is a method of dividing an image into a plurality of small partial regions based on the feature amount. In such a method, it is possible to divide the region by detecting a portion where the feature amount (correlation coefficient thereof) greatly changes and regarding that as a boundary between the partial regions. Here, the feature amount is information that characterizes the structure in each partial region of the image. In order to extract a feature amount, there are a method using average luminance and variance, or a heuristic method for extracting based on information such as edge strength and texture. For example, in Patent Document 1, an amount of average color, representative color, or density is used as a feature amount. However, it is not obvious whether the feature quantity extracted in this way is the optimum standard for segmenting an image, so it is important to find the true optimum feature quantity based on objective evaluation. is there.

画像の中から対象物体を識別するプロセスにおいては、統計的手法によって有用な特徴量を抽出するアプローチが知られている。特に、画像から線形変換によって得られるような特徴量を抽出するものとして、(1)主成分分析(Principal Component Analysis;PCA)や重判別分析(Multiple Discriminant Analysis;MDA)を用いるものなどが一般的である。例えば、特許文献2には、MDAに基づく物体認識方法及び物体認識装置が記載されている。ところが、対象物体や背景(環境)の条件などによっては、線形性の仮定が成り立たないこともあり、画像からの線形変換によって常に領域分割に有用な特徴量が得られるとは限らない。このような場合に対処する方法としては、(2)ニューラルネットワークや非線形変換を行った後に主成分分析を行う方法がある。但し、これらの手法では、非線形変換の形を予め仮定する必要があるが、抽出すべき特徴量が予め仮定した非線形変換と異なる場合には、適切な特徴量を得ることができない。そこで、どのような非線形変換を行うかを予め仮定しない手法として、(3)自己組織化写像(Self-Organizing Maps;SOM)を用いる手法や、計量的多次元尺度構成法(Multi Dimensional Scaling;MDS)などを利用することができる。例えば、特許文献3には、SOMに基づいた画像検索装置が記載されており、特許文献4には、MDSに基づいた画像の類似尺度構成処理方法が記載されている。   In the process of identifying a target object from an image, an approach for extracting useful features by a statistical method is known. In particular, (1) Principal Component Analysis (PCA) or Multiple Discriminant Analysis (MDA) is generally used to extract feature values obtained by linear transformation from images. It is. For example, Patent Document 2 describes an object recognition method and an object recognition device based on MDA. However, depending on the conditions of the target object and the background (environment), the assumption of linearity may not be satisfied, and a feature quantity useful for region segmentation is not always obtained by linear transformation from an image. As a method for dealing with such a case, there are (2) a method of performing principal component analysis after performing a neural network or nonlinear transformation. However, in these methods, it is necessary to presuppose the shape of the nonlinear transformation in advance, but if the feature amount to be extracted is different from the nonlinear transformation assumed in advance, an appropriate feature amount cannot be obtained. Therefore, as a method that does not assume in advance what kind of nonlinear transformation is performed, (3) a method using a self-organizing map (SOM), a multi-dimensional scaling method (Multi Dimensional Scaling; MDS) ) Etc. can be used. For example, Patent Literature 3 describes an image search device based on SOM, and Patent Literature 4 describes an image similarity scale configuration processing method based on MDS.

特開平11−167634号公報。Japanese Patent Application Laid-Open No. 11-167634. 特開2000−242784号公報。JP 2000-242784. 特開2000−90239号公報。JP 2000-90239 A. 特許第3155033号公報。Japanese Patent No. 3155033. 田口善弘他,2001年,「非計量多次元尺度構成法への期待と新しい視点」,統計数理第49巻第1号,p133-153。Taguchi Yoshihiro et al., 2001, “Expectations and New Perspectives on Non-metric Multidimensional Scaling Methods”, Statistical Mathematics Vol. 49, No. 1, p133-153.

まず、画像に関する統計的な特徴量の構成手法について全般的に言える問題は、統計的分析を行う前に、原始的な特徴量として平均輝度と分散、またはエッジやテクスチャー情報など、分析者がヒューリスティックに導入した特徴量を初期特徴量として抽出した後に、統計処理を行って、さらに統計的特徴量を抽出していることである。つまり、統計処理を行う以前に分析者がノイズであると判断した情報は取り除かれてしまうこととなる。ところが、実際にはどのような情報がノイズであるかを予め予測することはできない。また、特徴量として抽出された情報にもノイズが含まれている可能性がある。むしろ、従来の統計的特徴抽出方法は、ヒューリスティックに定義された特徴量に含まれているノイズを除去するためだけに統計分析を行うものであると言える。そうすると、統計分析によってノイズを排除し統計学的に真に意味のある特徴量を抽出するためには、画像から情報を切り落とすことなく統計分析を実行するのが望ましい。しかしながら、一般的に画像データは非常に次元が高いデータであり、そのような高次元のデータに対して判別分析などを行うに膨大な量の計算処理が必要となるため、画像から情報を切り落とすことなく統計分析を実行するのは実質的には困難である。このため、従来の手法では、まず分析者がヒューリスティックな特徴量を抽出し、こうして次元が下がったデータに対して統計分析を実行している。   First of all, the problem that can be generally said about the method of constructing statistical features related to images is that before the statistical analysis, the analyst heuristics such as average luminance and variance, or edge and texture information as primitive features. After extracting the feature quantity introduced in step 1 as the initial feature quantity, statistical processing is performed to further extract the statistical feature quantity. That is, information that the analyst determines as noise before performing statistical processing is removed. However, what information is actually noise cannot be predicted in advance. Further, there is a possibility that noise is included in the information extracted as the feature amount. Rather, it can be said that the conventional statistical feature extraction method performs a statistical analysis only to remove noise contained in the heuristically defined feature quantity. Then, in order to eliminate noise by statistical analysis and extract a statistically meaningful feature value, it is desirable to perform statistical analysis without cutting off information from the image. However, in general, image data is very high-dimensional data, and a huge amount of calculation processing is required to perform discriminant analysis on such high-dimensional data, so information is cut off from the image. It is practically difficult to perform statistical analysis without it. For this reason, in the conventional method, an analyst first extracts heuristic feature amounts, and thus performs statistical analysis on the data whose dimensions have been lowered.

従来技術(1)で説明した手法では、特徴量が画像情報に関する線形変換として与えられることを仮定しているが、そのような仮定が一般的に成り立つとは限らないので、適用できる対象が限られてしまうという問題がある。   In the method described in the prior art (1), it is assumed that the feature amount is given as a linear transformation related to image information. However, since such an assumption is not generally valid, the applicable objects are limited. There is a problem that it will be.

従来技術(2)で説明した手法では、非線形変換によって得られる特徴量を扱うためには、どのような非線形変換を行うかを予め決めておかなければならないが、これを予め決定できない場合には、適切な特徴量を得ることができないという問題がある。   In the method described in the prior art (2), in order to handle the feature amount obtained by the nonlinear transformation, it is necessary to determine in advance what kind of nonlinear transformation is performed. There is a problem that an appropriate feature amount cannot be obtained.

従来技術(3)で説明した手法では、非線形変換を予め仮定する必要はないが、特徴量の成す空間に計量を与えなければならず、解析結果はこの計量に大きく影響される。しかしながら、求めるべき特徴空間に計量をどのように与えれば良いかは自明ではないので、設定した計量が不適切であった場合には、精度が悪くなるという問題がある。さらに、SOMの場合には、特徴空間が離散的な格子によって表されるため、離散化に伴う誤差が大きく影響する可能性がある。   In the method described in the prior art (3), it is not necessary to presuppose nonlinear transformation in advance, but a metric must be given to the space formed by the feature quantity, and the analysis result is greatly influenced by this metric. However, since it is not self-evident how to provide the metric to the feature space to be obtained, there is a problem that accuracy is deteriorated when the set metric is inappropriate. Furthermore, in the case of SOM, since the feature space is represented by a discrete grid, errors due to discretization may greatly affect.

また、画像分割処理では、画像計測装置による解像度などの違い、対象物体の変化、オクルージョンや環境(背景)の突然の変化などによるノイズが発生するが、これらは統計的に扱うことは困難である。上記した従来技術はずれもデータを計量的に扱っているため、このようなノイズの発生に対するロバスト性が低いという問題がある。また、このような大きなノイズの影響を画像に対する前処理において十分に補正することも困難である場合が多い。   In image segmentation processing, noise is generated due to differences in resolution between image measurement devices, changes in target objects, sudden changes in occlusion and the environment (background), and these are difficult to handle statistically. . Since the above-described conventional technology handles data quantitatively, there is a problem that the robustness against such noise generation is low. In addition, it is often difficult to sufficiently correct the influence of such large noise in the preprocessing for the image.

さらに、MRI画像のような3次元画像に対して、従来の手法を適用する際には、特徴量を抽出するために、一度、2次元の断面画像を取ってから解析を行い、再度3次元の情報に組み直す必要性があるが、このような場合には、断面間のグローバルな特徴を抽出するのが困難である。また、近年のMRI画像計測技術の発展によって、テンソル値の3次元画像を取得することも出来るようになっているが、テンソル値(行列値)のデータは色相や輝度のようなデータとは異なり、各成分自体の値よりも、行列式、固有値およびトレースなどの量の方に本質的な意味があり、従来手法のような平均輝度やエッジ強度のような特徴量は有効な特徴量とはならない場合が多い。   Furthermore, when applying a conventional method to a three-dimensional image such as an MRI image, in order to extract a feature amount, a two-dimensional cross-sectional image is once taken and analyzed, and then again three-dimensional. However, in such a case, it is difficult to extract global features between cross sections. Also, recent developments in MRI image measurement technology have made it possible to acquire 3D images of tensor values, but tensor value (matrix value) data differs from data such as hue and brightness. The amount of determinants, eigenvalues, and traces is more meaningful than the value of each component itself, and features such as average luminance and edge strength as in the conventional method are effective features. Often not.

本発明は、このような従来技術における問題点に鑑みてなされたものであり、画像を複数の領域に分割処理するシステムであって、適切な特徴量をより客観的な規準によって抽出することにより、画像の解像度の違い、対象物体の変化、オクルージョンや環境の突然な変化などに対してロバストな領域分割を行うことができるシステムを提供しようとするものである。   The present invention has been made in view of such problems in the prior art, and is a system that divides an image into a plurality of regions by extracting an appropriate feature amount based on a more objective criterion. It is an object of the present invention to provide a system that can perform region segmentation that is robust against differences in image resolution, changes in target objects, occlusions, and sudden changes in the environment.

本発明者は、上記の課題を解決するために、まず画像の大きさに比べて十分に小さく予め定められた形状の領域(窓)を、この窓が画像全体を覆うように設定し(窓はお互いに重なりあっても良いし、重なりがないようにしても良い)、それぞれの窓から画像の小領域を切り出した部分画像の集合を作成し、切り出されたすべての部分画像同士の間にそれらの間の非類似度(あるいは類似度)に相当するような順序関係を定義し、この順序関係のみに基づいて各部分画像を任意の距離空間における点へと写像し、このようにして写像された距離空間における点の集合に関してクラスタリングを行い、各クラスタに属する点を逆写像して得られる部分画像を同じ領域に属するものとして再統合することで、画像を対象物体の領域と背景領域とに分割することに想到した。   In order to solve the above problem, the present inventor first sets an area (window) having a predetermined shape that is sufficiently smaller than the image size so that the window covers the entire image (window). May be overlapped with each other or may not overlap each other), and a set of partial images obtained by cutting out a small area of the image from each window is created, and between all the cut out partial images Define an order relationship that corresponds to the dissimilarity (or similarity) between them, and map each partial image to a point in an arbitrary metric space based on this order relationship. Clustering is performed on the set of points in the metric space, and the partial images obtained by reverse mapping the points belonging to each cluster are reintegrated as belonging to the same region, so that the image is divided into the target object region and the background region. In It was conceived to be split.

従来技術で説明した手法に比べ、本発明では、特に、従来技術(1)で説明した手法に比べ、写像元における非類似度あるいは類似度といった量の間の順序関係のみを使用すること、順序関係のみが大切なので、ノイズや環境の明るさの変動などに対してロバスト性が高いこと、先の非類似度あるいは類似度のスケールの選び方にも依存しないため、写像先の空間における距離スケールすなわち計量の定義に影響されずに、精度高く写像を構成することができること、かつ写像が非線形であっても適用することができること、さらに、従来技術(2)で説明した手法に比べ、予め非線形写像の形を決めておく必要がないため、任意の形の非線形写像を構成することができること、また、従来技術(3)で説明した手法に比べ、写像先の空間は連続空間として扱うことができ、自己組織化写像のように空間を離散化することによる写像の精度の悪化はないこと、かつ、距離スケールすなわち計量の定義に依存しないため、自己組織化写像及び計量的多次元尺度構成法のように精度良く写像を構成するためには、距離スケールを非常に正確に調整しなければならないというような問題に影響されなくなることに特徴を有している。   Compared to the method described in the prior art, the present invention uses only the order relationship between the quantities such as dissimilarity or similarity in the mapping source, especially in comparison with the method described in the prior art (1). Since only the relationship is important, it is highly robust against noise and fluctuations in the brightness of the environment, and it does not depend on how the dissimilarity or similarity scale is selected. The mapping can be constructed with high accuracy without being affected by the definition of the metric, and can be applied even when the mapping is nonlinear. Further, compared to the method described in the prior art (2), the nonlinear mapping is previously performed. Since it is not necessary to determine the shape of, it is possible to construct a non-linear mapping of an arbitrary shape, and compared to the method described in the prior art (3), the space of the mapping destination is Since it can be treated as a continuation space, there is no deterioration in the accuracy of mapping by discretizing the space as in the self-organizing mapping, and it does not depend on the definition of the distance scale, that is, the metric, so self-organizing mapping and metric In order to construct a mapping with high accuracy like the general multidimensional scaling method, it is characterized by being unaffected by the problem that the distance scale must be adjusted very accurately.

さらに、ノイズ削除、輝度補正、背景変動補正などの画像に対する前処理を実行しなくとも、これらの影響を受けずに処理を行うことが出来るため、計算コストを大きく削減することが可能であることにおいても特徴を有している。   Furthermore, the calculation cost can be greatly reduced because the processing can be performed without being affected by these effects without performing pre-processing on the image such as noise removal, brightness correction, and background fluctuation correction. Also has features.

さらに、MRI画像のような3次元画像に対しても、本発明では、3次元画像を2次元の断面に分割する必要性はなく、3次元画像のまま、解析を行うことが可能であり、また、近年のMRI画像計測技術の発展によって、テンソル値の3次元画像を取得することも出来るようになっているが、このようなテンソル値のデータであっても客観的に本質な特徴量を抽出することができるようになることにおいても特徴を有している。   Furthermore, even for a three-dimensional image such as an MRI image, in the present invention, it is not necessary to divide the three-dimensional image into two-dimensional cross sections, and it is possible to analyze the three-dimensional image as it is, In addition, with the recent development of MRI image measurement technology, it has become possible to acquire three-dimensional images of tensor values. Even with such tensor value data, objective feature values can be obtained objectively. It also has a feature in that it can be extracted.

以上のような特徴を実現するための手段として、本発明は、画像の分割対象領域に対して、該分割対象領域全体を覆うようにして所定形状の窓領域を複数個設定する窓領域設定手段と、前記各窓領域に含まれる部分画像の集合から、互いに異なる2つの部分画像の組を生成し、各組の部分画像間における類似度又は非類似度を、各部分画像から抽出される特徴量に基づいて計算する類似度計算手段と、前記類似度又は非類似度に基づいて前記各部分画像の組の間での順序関係を決定する順序関係決定手段と、前記各部分画像組の間で決定された順序関係が保存されるようにして、前記各部分画像を距離空間上に写像する写像手段と、前記距離空間上に写像された点を距離又は分布密度に基づいてクラスタを構成するクラスタリング手段と、各クラスタに属する点に対応する部分画像を前記写像の逆写像によって求め、これらの部分画像を1つの領域として統合する領域分割手段と、を含むことを特徴とする画像分割処理システムを提供するものである。   As means for realizing the above-described features, the present invention provides window area setting means for setting a plurality of window areas having a predetermined shape so as to cover the entire area to be divided with respect to the area to be divided. And a set of two different partial images from the set of partial images included in each window region, and the similarity or dissimilarity between the partial images of each set is extracted from each partial image A similarity calculation means for calculating based on a quantity, an order relation determining means for determining an order relation between each set of partial images based on the similarity or dissimilarity, and each partial image set The order relation determined in step (2) is saved, and mapping means for mapping the partial images on the metric space and the points mapped on the metric space form a cluster based on the distance or distribution density. Clustering means and each An image division processing system comprising: an area dividing unit that obtains a partial image corresponding to a point belonging to a raster by inverse mapping of the mapping and integrates the partial images as one area. is there.

本発明の画像分割処理システムにおいて、前記写像手段は、前記部分画像の組の間で決定された順序関係のみに基づいて写像を行うことを特徴とする。   In the image division processing system according to the present invention, the mapping means performs mapping based only on the order relationship determined between the sets of partial images.

本発明の画像分割処理システムにおいて、前記写像手段は、前記部分画像の組の間で決定された順序関係に基づいて各部分画像組に自然数による番号付けを行うとともに、前記部分画像集合から前記距離空間に写像される点の集合から、互いに異なる2点からなる組を生成し、それらの組に対して2点間の距離により順序関係を決定し、この順序関係に従ってそれらの組に自然数による番号付けを行い、前記部分画像の組に付けられた番号とそれらが前記距離空間に写像される点の組に付けられた番号との差の自乗を全ての前記部分画像の組について足し合わせた値が最小化されるようにして、写像を行うことを特徴とする。   In the image division processing system of the present invention, the mapping means performs natural numbering on each partial image set based on the order relationship determined between the partial image sets, and also sets the distance from the partial image set. A set of two different points is generated from a set of points mapped in the space, and the order relation is determined by the distance between the two points for those sets, and according to this order relation, a number by a natural number is assigned to these sets. A value obtained by adding the squares of the difference between the number assigned to the set of partial images and the number assigned to the set of points where they are mapped to the metric space for all the sets of partial images. The mapping is performed so that is minimized.

本発明の画像分割処理システムにおいて、前記写像手段は、前記部分画像の組が前記距離空間に写像される点の組の2点間距離を計算するとともに、前記写像される点の組において補助距離の大小関係によって定められる順序関係が、前記部分画像の組の間で決定される順序関係と一致するようにして、前記2点間距離の補助距離を計算し、前記写像される点の組における2点間距離と補助距離との差の自乗を全ての前記写像される点の組について足し合わせた値が最小化されるようにして、写像を行うことを特徴とする。   In the image division processing system of the present invention, the mapping means calculates a distance between two points of a set of points where the set of partial images is mapped to the metric space, and an auxiliary distance in the set of mapped points. The auxiliary distance of the distance between the two points is calculated so that the order relation determined by the magnitude relation of the two coincides with the order relation determined between the sets of partial images, and in the set of points to be mapped The mapping is performed such that the sum of the squares of the differences between the distances between the two points and the auxiliary distances is minimized for all the pairs of points to be mapped.

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値(あるいはスカラー値)とを与える関数の汎関数として定義されていることを特徴とする。   In the image division processing system of the present invention, the similarity or dissimilarity between each set of partial images is obtained by calculating the positional information of each pixel on each partial image and the hue or gray value (or scalar value) on the pixel. It is defined as a functional of the given function.

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、画像が画像間の差分又はマッチングによって生成された差分画像、オプティカルフロー画像、ステレオ画像のいずれかである場合には、各部分画像上の各画素の位置情報と、画素上の差分値、ベクトル値又は距離値とを与える関数の汎関数として定義されていることを特徴とする。ここで、差分とは色相の差分又は濃淡値の差分のことであり、負の値を取り得るものとする。また、オプティカルフローは速度場に相当し、2次元あるいは3次元のベクトルで表されるものである。   In the image division processing system of the present invention, the similarity or dissimilarity between each set of partial images is any one of a difference image, an optical flow image, and a stereo image generated by image difference or matching. In this case, it is defined as a functional of a function that gives position information of each pixel on each partial image and a difference value, vector value, or distance value on the pixel. Here, the difference is a difference in hue or a difference in gray value, and can assume a negative value. The optical flow corresponds to a velocity field and is represented by a two-dimensional or three-dimensional vector.

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とについてのヒストグラム関数の汎関数として定義されていることを特徴とする。   In the image division processing system according to the present invention, the similarity or dissimilarity between each set of partial images is a general function of the histogram function for the positional information of each pixel on each partial image and the hue or gray value on the pixel. It is defined as a function.

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子を作用させることで得られるベクトル値関数に関する汎関数として定義されていることを特徴とする。   In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. It is defined as a functional related to a vector value function obtained by applying a differential operator related to the spatial coordinates of.

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する積分演算子を作用させることで得られる関数に関する汎関数として定義されていることを特徴とする。   In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. It is defined as a functional related to a function obtained by applying an integral operator related to the spatial coordinates of.

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子をさせることで得られるベクトル値関数を引数とする2階テンソル値関数に関して、その各成分に画像上の空間座標に関する積分演算子を作用させることで得られる2階テンソル値関数(構造テンソル)に関する汎関数として定義されていることを特徴とする。   In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. A second-order tensor obtained by applying an integral operator related to the spatial coordinates on the image to each component of the second-order tensor value function that takes a vector value function obtained by performing a differential operator on the spatial coordinates of It is defined as a functional related to a value function (structure tensor).

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は白黒の濃淡値とを与える関数の自己相関関数に関する汎関数として定義されていることを特徴とする。   In the image division processing system of the present invention, the similarity or dissimilarity between each set of partial images is a function of giving positional information of each pixel on each partial image and hue or black and white gray value on the pixel. It is defined as a functional related to an autocorrelation function.

本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子を作用させることで得られるベクトル値関数に関する自己相関関数に関する汎関数として定義されていることを特徴とする。   In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. It is defined as a functional related to an autocorrelation function related to a vector value function obtained by applying a differential operator related to the spatial coordinates of

本発明の画像分割処理システムにおいて、前記クラスタリング手段は、全クラスタ数を予め指定せずにクラスタリング行うことを特徴とする。   In the image division processing system of the present invention, the clustering means performs clustering without specifying the total number of clusters in advance.

本発明の画像分割処理システムにおいて、前記クラスタリング手段は、混合確率分布を用いた尤度あるいは対数尤度最大化する処理、事後確率を最大化する処理、あるいは予め与えられた事前分布に基づく期待値を計算する処理のいずれかの処理を実行することを特徴とする。   In the image segmentation processing system of the present invention, the clustering means is a process for maximizing likelihood or log likelihood using a mixed probability distribution, a process for maximizing a posteriori probability, or an expected value based on a pre-distribution given in advance. Any one of the processes of calculating is performed.

本発明の画像分割処理システムにおいて、前記クラスタリング手段は、混合ガウス分布に関する最尤推定法、事後確率最大化法あるいはベイズ推定法を適用することによって定まる各ガウス成分が1つのクラスを表すとし、各部分画像が属するクラスタをその部分画像に対応する距離空間における点の各ガウス成分に関するマハラノビス距離が最小となるガウス成分として定めることを特徴とする。   In the image segmentation processing system according to the present invention, the clustering unit is configured such that each Gaussian component determined by applying a maximum likelihood estimation method, a posteriori probability maximization method, or a Bayesian estimation method for a mixed Gaussian distribution represents one class, The cluster to which the partial image belongs is defined as a Gaussian component that minimizes the Mahalanobis distance for each Gaussian component of the point in the metric space corresponding to the partial image.

本発明の画像分割処理システムにおいて、前記クラスタリング手段は、初期状態として全データを含む1つのクラスタから開始し、同じクラスタに属する2点間の距離が最大となる2点組を選択し、その距離が予め定められた閾値以上である場合に、そのクラスタを2分し、選択された2点をそれぞれのクラスタの種とし、同じクラスタに属していた全ての点に関して、これらのクラスタの種との間の距離を計算し、距離が小さい方のクラスタに属するように分類する処理を各クラスタにおけるクラスタ分割条件が満たされなくなるまで実行する分割クラスタリングを適用することを特徴とする。   In the image division processing system of the present invention, the clustering means selects a two-point set starting from one cluster including all data as an initial state, and having the maximum distance between two points belonging to the same cluster, and the distance. Is equal to or greater than a predetermined threshold, the cluster is divided into two, the selected two points are the seeds of each cluster, and all points belonging to the same cluster are It is characterized by applying division clustering that calculates the distance between them and executes the process of classifying them so as to belong to the cluster with the smaller distance until the cluster division condition in each cluster is not satisfied.

本発明の画像分割処理システムにおいて、前記クラスタリング手段は、全クラスタ数を予め指定して行うことを特徴とする。   In the image division processing system according to the present invention, the clustering means performs the process by specifying the total number of clusters in advance.

本発明の画像分割処理システムにおいて、前記クラスタリング手段は、K-最近接法又はK-平均法を実行するクラスタリングを行うことを特徴とする。   In the image segmentation processing system of the present invention, the clustering means performs clustering that executes a K-nearest neighbor method or a K-average method.

以上、説明したように、本発明の画像分割処理システムによれば、統計的な解析において、最も客観性の高い規準に従い、かつ画像における対象物体の違い、変化、オクルージョン及び環境の大きな変動に対してロバスト性が高い画像の領域分割において真に有益な特徴量を抽出することができ、しかも、この特徴量を用いることで、ロバスト性の高い対象物体の領域と背景領域との領域分割を行うことができるようになる。   As described above, according to the image segmentation processing system of the present invention, in statistical analysis, according to the most objective standard, and against the difference, change, occlusion, and large variation of the environment of the target object in the image. In addition, it is possible to extract truly useful features in image segmentation with high robustness, and by using these feature values, segment the target object region and background region with high robustness. Will be able to.

また、そのロバスト性の高さから、画像の解像度の違いや、各種の統計的または非統計的なノイズ、環境の状態の大きな変化があっても、特に特殊な前処理を行うことなく、領域の分割を行うことができ、適用できる問題の範囲が広がり、かつ、このような前処理のための処理時間を短縮することが可能となる。   In addition, because of its robustness, even if there are differences in image resolution, various statistical or non-statistical noises, and large changes in environmental conditions, the area can be processed without any special preprocessing. The range of applicable problems can be widened, and the processing time for such preprocessing can be shortened.

また、3次元以上の画像中における空間的な構造を特徴づける特徴量を抽出することができるようになる。さらには、テンソル値(行列値)の画像(2次元及び3次元以上)であっても、画像を特徴づける特徴量を抽出することができるようになる。   Further, it is possible to extract a feature amount that characterizes a spatial structure in a three-dimensional or higher image. Furthermore, even if the image is a tensor value (matrix value) (two-dimensional or three-dimensional or more), it is possible to extract a feature amount that characterizes the image.

以下、添付図面を参照しながら、本発明の画像分割処理システムを実施するための最良の形態を詳細に説明する。図1〜図5は、本発明の実施の形態を例示する図であり、これらの図において、同一の符号を付した部分は同一物を表わし、基本的な構成及び動作は同様であるものとする。   The best mode for carrying out the image division processing system of the present invention will be described below in detail with reference to the accompanying drawings. 1 to 5 are diagrams illustrating embodiments of the present invention. In these drawings, the same reference numerals denote the same components, and the basic configuration and operation are the same. To do.

図1は、本発明の一実施形態として構築される画像分割処理システムの内部構成を概略的に示す機能ブロック図である。この画像分割処理システムは、画像データを保存する記録装置100、ユーザに対するインタフェース画面や画像データを分割処理した結果などを表示するための表示装置101、ユーザからの操作入力を受け付けるためのキーボード102とマウスなどのポインティングデバイス103、画像分割処理に必要な演算処理、制御処理等を行う中央処理装置104、画像分割処理に必要なプログラムを格納するプログラムメモリ105、画像分割処理の対象となる画像データ110を格納するデータメモリ106を備えている。   FIG. 1 is a functional block diagram schematically showing an internal configuration of an image division processing system constructed as an embodiment of the present invention. The image division processing system includes a recording device 100 for storing image data, a display device 101 for displaying an interface screen for a user, a result of division processing of image data, and a keyboard 102 for receiving operation input from the user. A pointing device 103 such as a mouse, a central processing unit 104 that performs arithmetic processing and control processing necessary for image division processing, a program memory 105 that stores a program necessary for image division processing, and image data 110 that is a target of image division processing Is stored.

図2は、図1に示す画像分割処理システムのプログラムメモリ105に含まれる各種の処理プログラムを概略的に示す機能ブロック図である。図2において、プログラムメモリ105には、画像入力処理部B1、画像処理部B2、部分画像構成処理部B3、初期特徴量計算処理部B4、非類似度計算処理部B5、順序関係保存特徴写像構成処理部B6、クラスタリング処理部B7、画像領域分割処理部B8、領域演算処理部B9、領域分割画像出力処理部B10が含まれている。以下において、これらの処理部における処理を詳細に説明する。   FIG. 2 is a functional block diagram schematically showing various processing programs included in the program memory 105 of the image division processing system shown in FIG. In FIG. 2, the program memory 105 includes an image input processing unit B1, an image processing unit B2, a partial image configuration processing unit B3, an initial feature amount calculation processing unit B4, a dissimilarity calculation processing unit B5, and an order relation storage feature mapping configuration. A processing unit B6, a clustering processing unit B7, an image region division processing unit B8, a region calculation processing unit B9, and a region division image output processing unit B10 are included. Hereinafter, processing in these processing units will be described in detail.

画像入力処理部B1は、記録装置100などから分割対象となる画像データをメモリ106に取得する。以下においては、2次元画像を分割する場合について説明するが、本発明の画像分割処理システムは3次元画像であっても同様に分割処理を実行することができる。   The image input processing unit B1 acquires image data to be divided from the recording apparatus 100 or the like in the memory 106. In the following, a case where a two-dimensional image is divided will be described. However, the image division processing system of the present invention can similarly execute a division process even for a three-dimensional image.

画像処理部B2は、取得した対象画像がカラー画像である場合には、グレースケール画像への変換、輝度正規化、ヒストグラム平滑化、サイズ変更、ノイズ低減などの各種フィルタリング処理を行うものとする。但し、これらの画像処理は必ずしも行う必要があるものではなく、画像入力処理部B1により取得した画像データをそのまま用いて以下の処理を行ってもよい。従来技術では、ここで輝度の正規化処理などを行わないと以下の処理に重大な影響を与えることとなるが、本発明の画像分割処理システムは、ここで輝度の正規化処理を行わなくとも以下の処理に問題が生じないという点でロバスト性が高いシステムである。ここでは、取得した画像データはRGB値で表されるカラー画像データであり、画像処理部B2では特に上記したような画像処理を行わないものとする。   When the acquired target image is a color image, the image processing unit B2 performs various filtering processes such as conversion to a gray scale image, luminance normalization, histogram smoothing, size change, and noise reduction. However, these image processes are not necessarily performed, and the following process may be performed using the image data acquired by the image input processing unit B1 as it is. In the prior art, if the luminance normalization processing is not performed here, the following processing will be seriously affected. However, the image division processing system of the present invention does not perform the luminance normalization processing here. The system is highly robust in that no problems occur in the following processing. Here, the acquired image data is color image data represented by RGB values, and the image processing unit B2 does not perform the above-described image processing.

部分画像構成処理部B3は、画像データ全体を覆うように窓を設定して、複数の部分画像を構成する。ここで、画像データに対する窓の設定方法を図3に示す。図3に示す窓の設定方法は、注目領域が画像全体であり窓が矩形である場合の例であり、図3(a)に示すように窓はお互いに交差しないように設定されていても良く、あるいは図3(b)に示すようにお互いに交差するものがあるように設定されていても良い。また、窓の形も図3のような矩形ではなくても、注目領域全体を覆うことができるようになっていれば、形は任意で構わない。以下の処理では、図3(a)に示すような窓の設定方法を採用するが、部分画像の大きさは原理的にはかならずしも全て同じではなくても良い。   The partial image configuration processing unit B3 configures a plurality of partial images by setting a window so as to cover the entire image data. A window setting method for image data is shown in FIG. The window setting method shown in FIG. 3 is an example in which the region of interest is the entire image and the window is rectangular. Even if the windows are set so as not to cross each other as shown in FIG. Alternatively, it may be set so that there are those that cross each other as shown in FIG. Further, even if the shape of the window is not a rectangle as shown in FIG. 3, the shape may be arbitrary as long as it can cover the entire region of interest. In the following processing, the window setting method as shown in FIG. 3A is adopted, but the sizes of the partial images are not necessarily the same in principle.

初期特徴量計算処理部B4は、構成された各部分画像からヒストグラムやエッジ強度などの初期特徴量を抽出する。但し、特に特徴抽出せずに、与えられた部分画像そのものを特別な場合における特徴量として使用してもよい。ここでは、初期特徴抽出において、有益な情報を一切失わないようにするため、与えられた部分画像をそのまま初期特徴量として、以下の処理を行うものとする。   The initial feature quantity calculation processing unit B4 extracts initial feature quantities such as histograms and edge strengths from the configured partial images. However, the given partial image itself may be used as a feature amount in a special case without performing feature extraction. Here, in order to avoid losing any useful information in the initial feature extraction, it is assumed that the following processing is performed using the given partial image as an initial feature amount as it is.

非類似度計算処理部B5は、お互いに異なるように選ばれた2つの部分画像からなる組全体について、各組に属する2つの部分画像間の非類似度を計算する。非類似度としては、部分画像組全体から順序集合上への任意の写像を使用することができる。対象画像に応じて、適切な非類似度が与えられれば良い。以下の説明では、順序集合として、特に、実数を使用するものとする。今、各部分画像をCi (i=1,2,...,N) と表す。Nは部分画像構成処理部B3において、切り出された部分画像の数(すなわち設定された窓の数)を表す。部分画像Ciに属する画素をkと表し、部分画像Cj に属する画素をlと表し、画素kにおけるRGBの値をそれぞれRk 、Gk、Bk と表すことにする。非類似度としては、2つの部分画像それぞれに属する画素値すべてから実数への任意の関数が使用できる。例えば、画像の領域の平行移動や回転に対して不変性が高い非類似度の与え方としては、(1)式に示すような関数dが使用できる。 The dissimilarity calculation processing unit B5 calculates the dissimilarity between two partial images belonging to each group for the entire group composed of two partial images selected so as to be different from each other. As the dissimilarity, any mapping from the entire partial image set onto the ordered set can be used. An appropriate dissimilarity may be given according to the target image. In the following description, it is assumed that real numbers are used as the ordered set. Now, each partial image is represented as C i (i = 1, 2,..., N). N represents the number of partial images cut out (that is, the number of windows set) in the partial image configuration processing unit B3. A pixel belonging to the partial image C i is represented by k, a pixel belonging to the partial image C j is represented by l, and RGB values at the pixel k are represented by R k , G k , and B k , respectively. As the dissimilarity, any function from all the pixel values belonging to each of the two partial images to a real number can be used. For example, as a method of giving a dissimilarity that is highly invariant with respect to translation and rotation of an image area, a function d as shown in equation (1) can be used.

Figure 2006031114
Figure 2006031114

または、カラーヒストグラムインターセクションのような量も非類似度として良く使用される。このようにして与えられた非類似度に基づいて、部分画像組全体からなる集合の上に順序関係が、非類似度が写像する順序集合上において定義されている順序関係によって自然に定義される。このように、非類似度計算処理部B5では、各部分画像の組の間に順序関係が定義される。この順序関係を与える順序関数δを(2)式のように表す。   Alternatively, quantities such as color histogram intersection are often used as dissimilarities. Based on the dissimilarity given in this way, the order relationship is naturally defined by the order relationship defined on the ordered set to which the dissimilarity is mapped on the set of the entire partial image set. . As described above, in the dissimilarity calculation processing unit B5, an order relationship is defined between sets of partial images. An order function δ that gives this order relationship is expressed as in equation (2).

Figure 2006031114
Figure 2006031114

順序関数は(3)式のような関係を満たすものである。   The order function satisfies the relationship as shown in equation (3).

Figure 2006031114
Figure 2006031114

このように任意の2つのお互いに異なる部分画像の組の間に順序関係が定義された部分画像の集合は、順序関係保存特徴写像構成処理部B6において写像処理されることとなる。   Thus, a set of partial images in which an order relationship is defined between any two sets of different partial images is subjected to mapping processing in the order relationship preserving feature mapping configuration processing unit B6.

順序関係保存特徴写像構成処理部B6は、部分画像の集合をある距離空間の点の集合に1対1で写像する。ここで写像に関しては、写像によって写される距離空間上の点全体からなる集合から選ばれるお互いに異なる2点の組合せ全体がなす集合上に、2点間の距離に基づいて与えられる、お互いに異なる2点の組の全体からなる集合上に定義される順序関係が、写像元の部分画像のお互いに異なる2つの部分画像の組全体からなる集合対して、非類似度計算処理部B5において計算される順序関係と一致するように選ばれていれば、任意の写像を使用することができる。以下では、このような写像を「特徴写像」と呼ぶ。例えば、非計量多次元尺度構成法を用いて、このような写像の一つを構成することができる。特に、以下の処理では、非計量的多次元尺度構成法を部分画像の全体からなる集合上から選ばれたお互いに異なる2つの部分画像の組合せ全体からなる集合上に定義される順序関係のみを用いて特徴写像を構成する方法(非特許文献1参照)に従う。   The order relationship preserving feature mapping configuration processing unit B6 maps a set of partial images to a set of points in a certain metric space on a one-to-one basis. Here, regarding the mapping, given to the set formed by the whole combination of two different points selected from the set consisting of the entire points in the metric space mapped by the mapping, given based on the distance between the two points, The dissimilarity calculation processing unit B5 calculates the order relationship defined on the set consisting of two different sets of points for the set consisting of two sets of different partial images of the mapping source partial image. Any mapping can be used as long as it is chosen to match the ordering relationship being made. Hereinafter, such a map is referred to as a “feature map”. For example, one such map can be constructed using non-metric multidimensional scaling. In particular, in the following processing, only the order relationship defined on the set consisting of the combination of two different partial images selected from the set consisting of the entire partial images is applied to the non-metric multidimensional scaling method. It follows the method of using the feature map to construct (see Non-Patent Document 1).

特徴写像を構成するために、まず、部分画像Ci が写される距離空間上の点の位置座標をランダムに初期状態として選び、ベクトル To construct a feature map, first, the position coordinates of a point on the metric space where the partial image C i is mapped are randomly selected as the initial state,

Figure 2006031114
で表す。お互いに異なる2つの部分画像の組から成る集合上における順序関係を順序が小さいものから順に1,2,...,Nと番号をつけるものとする。つまり、ある部分画像組(Ci, Cj)の写像元での順番がmであったとき、順序関数δ(Ci, Cj)の値はmで与えられ、(4)式のように表すことができる。
Figure 2006031114
Represented by Assume that the order relation on the set of two different partial images is numbered 1, 2,..., N in ascending order. In other words, when the order of a partial image group (C i , C j ) at the mapping source is m, the value of the order function δ (C i , C j ) is given by m, as in equation (4) Can be expressed as

Figure 2006031114
同様に、位置ベクトル
Figure 2006031114
Similarly, the position vector

Figure 2006031114
から選ばれるお互いに異なる2つの位置ベクトルの組合せ全体から成る集合上に、位置ベクトル
Figure 2006031114
A position vector on a set of two combinations of two different position vectors selected from

Figure 2006031114
間の距離
Figure 2006031114
Distance between

Figure 2006031114
の大小関係に基づいて順序関係を定義し、順序が小さいものから順に1,2,...,N番号が付けるものとする。この順序関係を与える順序関数を とおく。つまり、位置ベクトルの組
Figure 2006031114
The order relation is defined based on the magnitude relation of, and 1, 2, ..., N numbers are assigned in order from the smallest order. Let us give an order function that gives this order relation. That is, a set of position vectors

Figure 2006031114
の順序がnであったとき、順序関数
Figure 2006031114
When the order of n is n

Figure 2006031114
の値はnで与えられ、(5)式のように表すことができる。
Figure 2006031114
The value of is given by n and can be expressed as in equation (5).

Figure 2006031114
部分画像組(Ci, Cj)の写像元での順位がmで与えられるとき、写像先での位置座標の組
Figure 2006031114
When the rank at the mapping source of the partial image set (C i , C j ) is given by m, the set of position coordinates at the mapping destination

Figure 2006031114
の順位をTm と置く。つまり、(6)式のように表すことができる。
Figure 2006031114
Put the rank and T m. That is, it can be expressed as in equation (6).

Figure 2006031114
目的の特徴写像を構成するためには、以下の手順(ア)〜(オ)に従う。
Figure 2006031114
In order to construct the target feature map, the following procedures (a) to (e) are followed.

(ア)以下の(7)式に定義する行列の成分を対角成分以外のすべてについて計算する。(対角成分はすべて0と置いても良い。)ここで、mは部分画像の組(Ci, Cj)の順位を表し、Tm は(6)式で定義される位置ベクトルの組 (A) The matrix components defined in the following equation (7) are calculated for all components other than the diagonal components. (All the diagonal components may be set to 0.) Here, m represents the order of the set of partial images (C i , C j ), and T m is a set of position vectors defined by equation (6).

Figure 2006031114
の順位を表す。
Figure 2006031114
Represents the ranking.

Figure 2006031114
Figure 2006031114

(イ)位置ベクトル

Figure 2006031114
それぞれについて以下の(8)式で与えられる差分ベクトル (B) Position vector
Figure 2006031114
The difference vector given by the following equation (8) for each

Figure 2006031114
を計算する。
Figure 2006031114
Calculate

Figure 2006031114
(8)式におけるμは更新率で小さい正の数である。
Figure 2006031114
In the equation (8), μ is a positive number that is a small update rate.

(ウ)手順(イ)で求めた差分ベクトルによって、位置ベクトルを以下の(9)式のように更新する。   (C) The position vector is updated according to the following equation (9) with the difference vector obtained in the procedure (a).

Figure 2006031114
Figure 2006031114

(エ)更新された位置ベクトル

Figure 2006031114
を (D) Updated position vector
Figure 2006031114
The

Figure 2006031114
と置きなおし、以下の(10)式が満たされるように、位置ベクトル
Figure 2006031114
And the position vector so that the following expression (10) is satisfied:

Figure 2006031114
のスケールを変換する。
Figure 2006031114
Convert the scale.

Figure 2006031114
Figure 2006031114

(オ)手順(ア)〜(エ)を終了条件が満たされるまで繰返し行う。例えば、(7)式で与えられる行列Di,j の全ての非対角成分がすべて0となるか、予め決めた最大繰返し数に達するまで繰り返す。 (E) Repeat steps (a) to (d) until the end condition is satisfied. For example, the processing is repeated until all the off-diagonal components of the matrix D i, j given by the equation (7) are all 0 or a predetermined maximum number of repetitions is reached.

以上のようにして、順序関係保存特徴写像構成処理部B6において特徴写像が構成される。この処理の様子を図4に示す。図4は、2次元のユークリッド空間に写像する特徴写像の例である。ある領域に属する部分画像は同じ領域に属する部分画像とは非類似度が小さく、他の流域に属する部分画像とは非類似度が大きいので、同一の領域に属する部分画像同士は写像先の距離空間では近くの点に写像され、他の領域に属する部分画像に対応する点からは離れている。部分画像の集合及び特徴写像によって写像される距離空間上の点の集合は、クラスタリング処理部B7によってさらに処理される。   As described above, the feature map is configured in the order relation storage feature map configuration processing unit B6. The state of this process is shown in FIG. FIG. 4 is an example of a feature map that maps to a two-dimensional Euclidean space. Partial images belonging to a certain area have a low degree of dissimilarity with partial images belonging to the same area, and a large degree of dissimilarity with partial images belonging to other basins. In space, it is mapped to a nearby point and is away from points corresponding to partial images belonging to other areas. The set of partial images and the set of points on the metric space mapped by the feature map are further processed by the clustering processing unit B7.

クラスタリング処理部B7は、順序関係保存特徴写像構成処理部B6で計算された特徴写像による部分画像全体の像である位置ベクトル   The clustering processing unit B7 is a position vector that is an image of the entire partial image based on the feature map calculated by the order relation preserving feature map configuration processing unit B6.

Figure 2006031114
の配置に関するクラスタリングを行う。クラスタリング手法としてはクラスタ数を予め与える必要のない混合ガウス分布などの混合確率分布を用いた最尤推定法のようなクラスタリング手法が良いが、位置ベクトル間の距離を用いたdivisive clusteringなどを用いても良い。
Figure 2006031114
Perform clustering for the placement of. As a clustering method, a clustering method such as a maximum likelihood estimation method using a mixed probability distribution such as a mixed Gaussian distribution that does not require the number of clusters to be given in advance is good. Also good.

混合ガウス分布を使用する場合には、位置ベクトルの配置

Figure 2006031114
は、以下の(11)式で表されるような混合ガウス分布からランダムに選ばれたN個の点であると見なす。 Position vector placement when using a mixed Gaussian distribution
Figure 2006031114
Is assumed to be N points randomly selected from a mixed Gaussian distribution represented by the following equation (11).

Figure 2006031114
(11)式において、Jは特徴写像の写像先の距離空間の次元を表し、Lはガウス分布の成分数を表し、
Figure 2006031114
In equation (11), J represents the dimension of the metric space to which the feature map is mapped, L represents the number of components of the Gaussian distribution,

Figure 2006031114
は各ガウス分布成分のそれぞれ平均値ベクトル、共分散行列を表し、Θl -1 は共分散行列Θl の逆行列を表し、|Θl|は共分散行列Θlの行列式を表し、λl は各ガウス分布成分の重みを表し、以下の(12)式を満たす。
Figure 2006031114
Represents the mean vector and covariance matrix of each Gaussian distribution component, Θ l −1 represents the inverse of the covariance matrix Θ l , | Θ l | represents the determinant of the covariance matrix Θ l , and λ l represents the weight of each Gaussian distribution component and satisfies the following equation (12).

Figure 2006031114
各ガウス分布成分が一つのクラスタを表す。このとき、位置ベクトルの配置
Figure 2006031114
Each Gaussian distribution component represents one cluster. At this time, position vector arrangement

Figure 2006031114
に関する対数尤度関数
Figure 2006031114
Log-likelihood function for

Figure 2006031114
は以下の(13)式で表される。
Figure 2006031114
Is represented by the following equation (13).

Figure 2006031114
この対数尤度関数
Figure 2006031114
This log-likelihood function

Figure 2006031114
をパラメタ
Figure 2006031114
The parameters

Figure 2006031114
について最適化することで、目的のクラスタ数およびクラスタ位置とサイズとが計算される。最適化手法としては、例えば、Greedy-EMアルゴリズム(J. Verbeek, N. Vlassis, and B. Krose, Neural Computation Vol.15, No.2, pages 469-485, 2003.)が使用できる。位置ベクトル がどのクラスタに属するかは、各ガウス分布成分に関するマハラノビス距離を計算し、もっともマハラノビス距離が小さくなるガウス成分として決めることができる。第 ガウス分布成分で表されるクラスタから位置ベクトル
Figure 2006031114
, The target number of clusters and the cluster position and size are calculated. As an optimization method, for example, the Greedy-EM algorithm (J. Verbeek, N. Vlassis, and B. Krose, Neural Computation Vol. 15, No. 2, pages 469-485, 2003.) can be used. Which cluster the position vector belongs to can be determined as a Gaussian component with the smallest Mahalanobis distance by calculating the Mahalanobis distance for each Gaussian distribution component. Position vector from the cluster represented by the Gaussian distribution component

Figure 2006031114
までのマハラノビス距離は以下の(14)式で計算される。
Figure 2006031114
The Mahalanobis distance is calculated by the following equation (14).

Figure 2006031114
Figure 2006031114

図5(a)に、混合ガウス分布によるクラスタリング結果の例を表す。楕円は同一のクラスタに属する点を囲んでいる。   FIG. 5A shows an example of the clustering result by the mixed Gaussian distribution. Ellipses enclose points that belong to the same cluster.

以上のようにして、クラスタリング処理部B7では、順序関係保存特徴写像構成処理部B6で計算された特徴写像による部分画像全体の像である位置ベクトル   As described above, in the clustering processing unit B7, a position vector that is an image of the entire partial image based on the feature map calculated by the order relation preserving feature map configuration processing unit B6.

Figure 2006031114
の配置に関するクラスタリングを行い、クラスタごとにどの位置ベクトルがそのクラスタに属するかを表すリストを構成することができる。
Figure 2006031114
And a list representing which position vector belongs to the cluster for each cluster.

画像領域分割処理部B8では、クラスタリング処理部B7により構成されたリストに基づいて、各クラスタについて、そのクラスタに属する位置ベクトルの特徴写像による逆写像の像である部分画像を切り出す際に使用した窓の領域を計算する。このようにして計算された窓領域の集合和を計算し、そのクラスタに対応する領域とする。このようにして、各クラスタに属する領域を計算することができる。このとき、窓領域に重なりがある場合には、以下の領域演算処理部B9により窓領域の重なりを領域演算し、その重なり領域を再分類する。   In the image area division processing unit B8, based on the list configured by the clustering processing unit B7, for each cluster, a window used for cutting out a partial image that is a reverse mapping image by a feature mapping of position vectors belonging to the cluster Calculate the area of. The set sum of the window areas calculated in this way is calculated and set as an area corresponding to the cluster. In this way, the area belonging to each cluster can be calculated. At this time, if there is an overlap in the window area, the following area calculation processing unit B9 calculates the overlap of the window areas and reclassifies the overlap area.

領域演算処理部B9は、窓領域に重なりがある場合に、重なり領域を計算するための処理を行う部分である。一般的には、窓の重なりがある領域では、まず、重なっている窓がどの分割領域に属すると判定されたかを、その窓領域の大きさで重み付けして投票し、もっとも多く投票された分割領域に属すると判定する方法をとる。このような投票において、同じ値となる分割領域が複数現れた場合には、それらの中から一様かつランダムに一つと選択するか、または、判定不可能領域という特別な分割領域を一つ追加し、その分割領域に属するものとする。尚、重なりがない窓領域を使用する場合には、領域演算処理部B9による処理は省略することができる。   The area calculation processing unit B9 is a part that performs processing for calculating an overlapping area when there is an overlapping window area. In general, in an area with overlapping windows, first, the divided areas that have been voted the most are voted by weighting the size of the window area to which the overlapping window is determined to belong. A method of determining that the image belongs to the area is taken. In such voting, when multiple divided areas with the same value appear, select one uniformly and randomly from them, or add one special divided area, which is an undecidable area And belong to the divided area. In addition, when using the window area | region which does not overlap, the process by area | region calculation process part B9 can be abbreviate | omitted.

領域分割画像出力処理部B10では、画像領域分割処理部B8によるクラスタリング結果又は領域演算処理部B9による再分類結果に基づいて、各クラスタに属する領域を統合し、対象画像の領域分割結果の表示データを生成して出力する。このようにして、画像分割処理システムの表示装置101には、画像データを領域分割した結果が図5(b)のようにして表示されることとなる。   The area division image output processing unit B10 integrates the areas belonging to each cluster based on the clustering result by the image area division processing part B8 or the reclassification result by the area calculation processing part B9, and displays display data of the area division result of the target image Is generated and output. In this way, the display device 101 of the image division processing system displays the result of dividing the image data as shown in FIG. 5B.

以上、本発明の画像分割処理システムについて、具体的な実施の形態を示して説明したが、本発明はこれらに限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、上記各実施形態又は他の実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。   While the image division processing system of the present invention has been described with reference to specific embodiments, the present invention is not limited to these. A person skilled in the art can make various changes and improvements to the configurations and functions of the invention according to the above-described embodiments or other embodiments without departing from the gist of the present invention.

本発明の画像分割処理システムは、医療システム、監視システム、検査システムおよび高度道路交通システム(Intelligent Transportation Systems;ITS)などにおいて、計測された画像を領域分割することにより画像中の物体を検出及び認識するシステムとして利用可能である。   The image segmentation processing system of the present invention detects and recognizes an object in an image by segmenting the measured image in a medical system, a monitoring system, an inspection system, an intelligent transportation system (ITS), and the like. It can be used as a system.

本発明の一実施形態として構築される画像分割処理システムの内部構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the internal structure of the image division processing system constructed | assembled as one Embodiment of this invention. 図1に示す画像分割処理システムのプログラムメモリに含まれる各種の処理プログラムを概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the various processing programs contained in the program memory of the image division | segmentation processing system shown in FIG. 図1に示す画像分割処理システムの部分画像構成処理部により画像データに対する窓を設定する方法を示す図である。It is a figure which shows the method of setting the window with respect to image data by the partial image structure process part of the image division processing system shown in FIG. 図1に示す画像分割処理システムの順序関係保存特徴写像構成処理部において特徴写像が構成される様子を示す図である。It is a figure which shows a mode that a feature map is comprised in the order relation preservation | save feature map structure process part of the image division | segmentation processing system shown in FIG. (a)は混合ガウス分布によるクラスタリング結果の例を表す図である。(b)は画像データを領域分割した結果を示す図である。(A) is a figure showing the example of the clustering result by mixed Gaussian distribution. (B) is a diagram showing the result of dividing the image data into regions.

符号の説明Explanation of symbols

100 記録装置
101 表示装置
102 キーボード
103 ポインティングデバイス
104 中央処理装置
105 プログラムメモリ
106 データメモリ
110 画像データ
DESCRIPTION OF SYMBOLS 100 Recording device 101 Display device 102 Keyboard 103 Pointing device 104 Central processing unit 105 Program memory 106 Data memory 110 Image data

Claims (19)

画像の分割対象領域に対して、該分割対象領域全体を覆うようにして所定形状の窓領域を複数個設定する窓領域設定手段と、
前記各窓領域に含まれる部分画像の集合から、互いに異なる2つの部分画像の組を生成し、各組の部分画像間における類似度又は非類似度を、各部分画像から抽出される特徴量に基づいて計算する類似度計算手段と、
前記類似度又は非類似度に基づいて前記各部分画像の組の間での順序関係を決定する順序関係決定手段と、
前記各部分画像組の間で決定された順序関係が保存されるようにして、前記各部分画像を距離空間上に写像する写像手段と、
前記距離空間上に写像された点を距離又は分布密度に基づいてクラスタを構成するクラスタリング手段と、
各クラスタに属する点に対応する部分画像を前記写像の逆写像によって求め、これらの部分画像を1つの領域として統合する領域分割手段と、を含むことを特徴とする画像分割処理システム。
A window area setting means for setting a plurality of window areas having a predetermined shape so as to cover the entire area to be divided with respect to the area to be divided of the image;
A set of two different partial images is generated from the set of partial images included in each window region, and the similarity or dissimilarity between the partial images of each set is used as a feature amount extracted from each partial image. Similarity calculation means for calculating based on;
Order relation determining means for determining an order relation between the sets of partial images based on the similarity or dissimilarity;
Mapping means for mapping each partial image on a metric space in such a manner that the order relationship determined between the partial image sets is stored;
Clustering means for forming a cluster based on the distance or distribution density of the points mapped on the metric space;
An image division processing system comprising: an area dividing unit that obtains partial images corresponding to points belonging to each cluster by inverse mapping of the mapping, and integrates the partial images as one area.
前記写像手段は、前記部分画像の組の間で決定された順序関係のみに基づいて写像を行うことを特徴とする請求項1に記載の画像分割処理システム。   The image division processing system according to claim 1, wherein the mapping unit performs mapping based only on an order relationship determined between the sets of partial images. 前記写像手段は、前記部分画像の組の間で決定された順序関係に基づいて各部分画像組に自然数による番号付けを行うとともに、前記部分画像集合から前記距離空間に写像される点の集合から、互いに異なる2点からなる組を生成し、それらの組に対して2点間の距離により順序関係を決定し、この順序関係に従ってそれらの組に自然数による番号付けを行い、前記部分画像の組に付けられた番号とそれらが前記距離空間に写像される点の組に付けられた番号との差の自乗を全ての前記部分画像の組について足し合わせた値が最小化されるようにして、写像を行うことを特徴とする請求項1に記載の画像分割処理システム。   The mapping means numbers each partial image set with a natural number based on an order relationship determined between the partial image sets, and from a set of points mapped from the partial image set to the metric space. Generating sets of two points different from each other, determining an order relationship for the sets based on the distance between the two points, and numbering the sets with natural numbers according to the order relationship, So that the sum of the squares of the difference between the number attached to the number and the number assigned to the set of points where they are mapped to the metric space is minimized for all the sets of partial images, The image division processing system according to claim 1, wherein mapping is performed. 前記写像手段は、前記部分画像の組が前記距離空間に写像される点の組の2点間距離を計算するとともに、前記写像される点の組において補助距離の大小関係によって定められる順序関係が、前記部分画像の組の間で決定される順序関係と一致するようにして、前記2点間距離の補助距離を計算し、前記写像される点の組における2点間距離と補助距離との差の自乗を全ての前記写像される点の組について足し合わせた値が最小化されるようにして、写像を行うことを特徴とする請求項1に記載の画像分割処理システム。   The mapping means calculates a distance between two points of a set of points where the set of partial images is mapped to the metric space, and an order relationship determined by a magnitude relationship of auxiliary distances in the set of mapped points. The auxiliary distance of the distance between the two points is calculated so as to coincide with the order relationship determined between the sets of the partial images, and the distance between the two points and the auxiliary distance in the set of mapped points is calculated. 2. The image division processing system according to claim 1, wherein mapping is performed such that a value obtained by adding a square of the difference to a set of all the mapped points is minimized. 各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数の汎関数として定義されていることを特徴とする請求項1〜4のいずれか1項に記載の画像分割処理システム。   The similarity or dissimilarity between the partial images of each set is defined as a functional of a function that gives positional information of each pixel on each partial image and a hue or gray value on the pixel. The image division processing system according to any one of claims 1 to 4. 各組の部分画像間における類似度又は非類似度は、画像が画像間の差分又はマッチングによって生成された差分画像、オプティカルフロー画像、ステレオ画像のいずれかである場合には、各部分画像上の各画素の位置情報と、画素上の差分値、ベクトル値又は距離値とを与える関数の汎関数として定義されていることを特徴とする請求項1〜4のいずれか1項に記載の画像分割処理システム。   The degree of similarity or dissimilarity between each set of partial images is the difference between the images, if the image is a difference image generated by matching or matching, an optical flow image, or a stereo image. The image division according to any one of claims 1 to 4, wherein the image division is defined as a functional of a function that gives positional information of each pixel and a difference value, a vector value, or a distance value on the pixel. Processing system. 各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とについてのヒストグラム関数の汎関数として定義されていることを特徴とする請求項1〜4のいずれか1項に記載の画像分割処理システム。   Similarity or dissimilarity between each set of partial images is defined as a functional of a histogram function with respect to positional information of each pixel on each partial image and hue or gray value on the pixel. The image division processing system according to any one of claims 1 to 4. 各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子を作用させることで得られるベクトル値関数に関する汎関数として定義されていることを特徴とする請求項5に記載の画像分割処理システム。   The similarity or dissimilarity between each set of partial images is obtained by applying a differential operator related to the spatial coordinates on the image to the function that gives the position information of each pixel on each partial image and the hue or gray value on the pixel. The image division processing system according to claim 5, wherein the image division processing system is defined as a functional related to a vector value function obtained by performing the processing. 各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する積分演算子を作用させることで得られる関数に関する汎関数として定義されていることを特徴とする請求項5に記載の画像分割処理システム。   The similarity or dissimilarity between each set of partial images is obtained by applying an integral operator related to the spatial coordinates on the image to the function that gives the position information of each pixel on each partial image and the hue or gray value on the pixel. The image division processing system according to claim 5, wherein the image division processing system is defined as a functional related to a function obtained by performing the processing. 各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子をさせることで得られるベクトル値関数を引数とする2階テンソル値関数に関して、その各成分に画像上の空間座標に関する積分演算子を作用させることで得られる2階テンソル値関数に関する汎関数として定義されていることを特徴とする請求項5に記載の画像分割処理システム。   The similarity or dissimilarity between each set of partial images causes a function that gives the position information of each pixel on each partial image and the hue or gray value on the pixel to be a differential operator with respect to the spatial coordinates on the image. Is defined as a functional related to the second-order tensor value function obtained by applying an integral operator related to the spatial coordinates on the image to each component. The image division processing system according to claim 5, wherein: 各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は白黒の濃淡値とを与える関数の自己相関関数に関する汎関数として定義されていることを特徴とする請求項5に記載の画像分割処理システム。   The similarity or dissimilarity between each set of partial images is defined as a functional related to the autocorrelation function of the function that gives the position information of each pixel on each partial image and the hue or black and white gray value on the pixel. The image division processing system according to claim 5, wherein 各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子を作用させることで得られるベクトル値関数に関する自己相関関数に関する汎関数として定義されていることを特徴とする請求項5に記載の画像分割処理システム。   The similarity or dissimilarity between each set of partial images is obtained by applying a differential operator related to the spatial coordinates on the image to the function that gives the position information of each pixel on each partial image and the hue or gray value on the pixel. 6. The image division processing system according to claim 5, wherein the image division processing system is defined as a functional related to an autocorrelation function related to a vector value function obtained by performing the processing. 前記クラスタリング手段は、全クラスタ数を予め指定せずにクラスタリング行うことを特徴とする請求項1〜12のいずれか1項に記載の画像分割処理システム。   The image dividing processing system according to claim 1, wherein the clustering unit performs clustering without specifying the total number of clusters in advance. 前記クラスタリング手段は、混合確率分布を用いた尤度あるいは対数尤度最大化する処理、事後確率を最大化する処理、あるいは予め与えられた事前分布に基づく期待値を計算する処理のいずれかの処理を実行することを特徴とする請求項13に記載の画像分割処理システム。   The clustering means is one of processing for maximizing likelihood or logarithmic likelihood using a mixed probability distribution, processing for maximizing posterior probability, or processing for calculating an expected value based on a predistribution given in advance. The image division processing system according to claim 13, wherein: 前記クラスタリング手段は、混合ガウス分布に関する最尤推定法、事後確率最大化法あるいはベイズ推定法を適用することによって定まる各ガウス成分が1つのクラスを表すとし、各部分画像が属するクラスタをその部分画像に対応する距離空間における点の各ガウス成分に関するマハラノビス距離が最小となるガウス成分として定めることを特徴とする請求項14に記載の画像分割処理システム。   The clustering means assumes that each Gaussian component determined by applying a maximum likelihood estimation method, a posteriori probability maximization method or a Bayesian estimation method for a mixed Gaussian distribution represents one class, and a cluster to which each partial image belongs is represented by the partial image. The image division processing system according to claim 14, wherein the image division processing system is defined as a Gaussian component that minimizes the Mahalanobis distance for each Gaussian component of a point in a metric space corresponding to. 前記クラスタリング手段は、初期状態として全データを含む1つのクラスタから開始し、同じクラスタに属する2点間の距離が最大となる2点組を選択し、その距離が予め定められた閾値以上である場合に、そのクラスタを2分し、選択された2点をそれぞれのクラスタの種とし、同じクラスタに属していた全ての点に関して、これらのクラスタの種との間の距離を計算し、距離が小さい方のクラスタに属するように分類する処理を各クラスタにおけるクラスタ分割条件が満たされなくなるまで実行する分割クラスタリングを適用することを特徴とする請求項13に記載の画像分割処理システム。   The clustering means starts from one cluster including all data as an initial state, selects a two-point set having the maximum distance between two points belonging to the same cluster, and the distance is equal to or greater than a predetermined threshold. The cluster is divided into two, the two selected points are the seeds of each cluster, and for all points that belonged to the same cluster, the distance between these cluster seeds is calculated, and the distance is 14. The image division processing system according to claim 13, wherein division clustering is executed in which the process of classifying so as to belong to a smaller cluster is performed until the cluster division condition in each cluster is not satisfied. 前記クラスタリング手段は、全クラスタ数を予め指定して行うことを特徴とする請求項1〜12のいずれか1項に記載の画像分割処理システム。   The image dividing processing system according to claim 1, wherein the clustering unit performs the designation by specifying the total number of clusters in advance. 前記クラスタリング手段は、K-最近接法を実行するクラスタリングを行うことを特徴とする請求項17に記載の画像分割処理システム。   18. The image segmentation processing system according to claim 17, wherein the clustering means performs clustering that executes a K-nearest neighbor method. 前記クラスタリング手段は、K-平均法を実行するクラスタリングを行うことを特徴とする請求項17に記載の画像分割処理システム。   18. The image segmentation processing system according to claim 17, wherein the clustering means performs clustering that executes a K-means method.
JP2004205120A 2004-07-12 2004-07-12 Image segmentation system Expired - Fee Related JP4477439B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004205120A JP4477439B2 (en) 2004-07-12 2004-07-12 Image segmentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004205120A JP4477439B2 (en) 2004-07-12 2004-07-12 Image segmentation system

Publications (2)

Publication Number Publication Date
JP2006031114A true JP2006031114A (en) 2006-02-02
JP4477439B2 JP4477439B2 (en) 2010-06-09

Family

ID=35897427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004205120A Expired - Fee Related JP4477439B2 (en) 2004-07-12 2004-07-12 Image segmentation system

Country Status (1)

Country Link
JP (1) JP4477439B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010079556A1 (en) 2009-01-09 2010-07-15 パナソニック株式会社 Moving object detection method and moving object detection apparatus
WO2011013281A1 (en) 2009-07-29 2011-02-03 パナソニック株式会社 Mobile body detection method and mobile body detection apparatus
US8068701B2 (en) 2006-08-31 2011-11-29 Sony Corporation Image-processing apparatus, image-processing method and image-processing program
JP2011529349A (en) * 2008-05-23 2011-12-08 ロンゴーニ,サルヴァトーレ Method for designing and / or selecting a device and / or material to be implanted in a human or animal body tissue and device and / or material according to that method
CN102741884A (en) * 2010-07-27 2012-10-17 松下电器产业株式会社 Mobile body detection device and mobile body detection method
US8401243B2 (en) 2009-12-28 2013-03-19 Panasonic Corporation Articulated object region detection apparatus and method of the same
US8560488B2 (en) 2008-08-08 2013-10-15 Nec Corporation Pattern determination devices, methods, and programs
KR101507732B1 (en) 2013-07-30 2015-04-07 국방과학연구소 Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same
JP2022116080A (en) * 2016-09-05 2022-08-09 ケイロン メディカル テクノロジーズ リミテッド Multi-modal medical image processing

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8068701B2 (en) 2006-08-31 2011-11-29 Sony Corporation Image-processing apparatus, image-processing method and image-processing program
JP2011529349A (en) * 2008-05-23 2011-12-08 ロンゴーニ,サルヴァトーレ Method for designing and / or selecting a device and / or material to be implanted in a human or animal body tissue and device and / or material according to that method
US8560488B2 (en) 2008-08-08 2013-10-15 Nec Corporation Pattern determination devices, methods, and programs
WO2010079556A1 (en) 2009-01-09 2010-07-15 パナソニック株式会社 Moving object detection method and moving object detection apparatus
US8213681B2 (en) 2009-01-09 2012-07-03 Panasonic Corporation Moving object detection method and moving object detection apparatus
WO2011013281A1 (en) 2009-07-29 2011-02-03 パナソニック株式会社 Mobile body detection method and mobile body detection apparatus
US8363902B2 (en) 2009-07-29 2013-01-29 Panasonic Corporation Moving object detection method and moving object detection apparatus
US8401243B2 (en) 2009-12-28 2013-03-19 Panasonic Corporation Articulated object region detection apparatus and method of the same
CN102741884A (en) * 2010-07-27 2012-10-17 松下电器产业株式会社 Mobile body detection device and mobile body detection method
US8599252B2 (en) 2010-07-27 2013-12-03 Panasonic Corporation Moving object detection apparatus and moving object detection method
KR101507732B1 (en) 2013-07-30 2015-04-07 국방과학연구소 Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same
JP2022116080A (en) * 2016-09-05 2022-08-09 ケイロン メディカル テクノロジーズ リミテッド Multi-modal medical image processing

Also Published As

Publication number Publication date
JP4477439B2 (en) 2010-06-09

Similar Documents

Publication Publication Date Title
JP4376145B2 (en) Image classification learning processing system and image identification processing system
US8345974B2 (en) Hierarchical recursive image segmentation
US10346728B2 (en) Nodule detection with false positive reduction
EP2701098B1 (en) Region refocusing for data-driven object localization
EP1296279B1 (en) Method and computer program product for locating facial features
KR101548928B1 (en) Invariant visual scene and object recognition
JP4545641B2 (en) Similar image retrieval method, similar image retrieval system, similar image retrieval program, and recording medium
US20110158535A1 (en) Image processing apparatus and image processing method
US20100215269A1 (en) Iterative fisher linear discriminant analysis
JP4588575B2 (en) Method, apparatus and program for detecting multiple objects in digital image
US9449395B2 (en) Methods and systems for image matting and foreground estimation based on hierarchical graphs
TWI701608B (en) Neural network system, method and device for image matching and positioning
KR101618996B1 (en) Sampling method and image processing apparatus for estimating homography
Spiclin et al. Groupwise registration of multimodal images by an efficient joint entropy minimization scheme
Limper et al. Mesh Saliency Analysis via Local Curvature Entropy.
US20230144724A1 (en) Method for Finding Image Regions that Significantly Influence Classification in a Tool for Pathology Classification in a Medical Image
US20050105794A1 (en) Greedy support vector machine classification for feature selection applied to the nodule detection problem
JP4477439B2 (en) Image segmentation system
JP4434868B2 (en) Image segmentation system
Khoder et al. Multicriteria classification method for dimensionality reduction adapted to hyperspectral images
US20110150344A1 (en) Content based image retrieval apparatus and method
KR102405168B1 (en) Method and apparatus for generating of data set, computer-readable storage medium and computer program
EP4091093A1 (en) Shift invariant loss for deep learning based image segmentation
Kanjanawattana et al. Extraction and identification of bar graph components by automatic epsilon estimation
Zou et al. A Dirichlet Process Mixture Model for Directional-Linear Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100311

R150 Certificate of patent or registration of utility model

Ref document number: 4477439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees