JP2005141776A - Image extraction device and method - Google Patents
Image extraction device and method Download PDFInfo
- Publication number
- JP2005141776A JP2005141776A JP2005029962A JP2005029962A JP2005141776A JP 2005141776 A JP2005141776 A JP 2005141776A JP 2005029962 A JP2005029962 A JP 2005029962A JP 2005029962 A JP2005029962 A JP 2005029962A JP 2005141776 A JP2005141776 A JP 2005141776A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- extraction
- attribute
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像から領域を抽出する画像抽出技術に関し、とくに画像中の領域に着目し領域を位相関係で表現する画像構造を抽出するのに最適なものである。 The present invention relates to an image extraction technique for extracting a region from an image, and is particularly suitable for extracting an image structure that expresses a region in a phase relationship by focusing on the region in the image.
画像から領域を抽出することが望まれる。ここでは画像検索を例に挙げる。画像検索に関する従来技術として、一般のデータベースにおけるキーワード付与を基本とした検索手法がある。これは、画像登録者が任意のキーワードを付与するか、もしくは、あらかじめキーワードとなる言葉を決めておき、登録時にこれらのキーワード群を参照して適切なキーワードを付与する手法である。検索の際には、検索者の意図によるキーワードもしくはキーワード群から適切な用語を選び検索を実行する、単語の一致を基本とした検索手法である。この手法は検索装置の構成が容易であり、検索者の意図するキーワードが登録してありさえすれば容易かつ高速に検索できるという利点があるが、反面、画像の登録時に登録者がキーワードを付与する必要があり、手間が掛かる。また、登録者と検索者とが異なる場合には、両者の意図の違いから異なるキーワードが付与される可能性があり、検索者が目的の画像を検索できない状況が発生する。 It is desirable to extract a region from an image. Here, image search is taken as an example. As a conventional technique related to image search, there is a search technique based on keyword assignment in a general database. This is a method in which an image registrant assigns an arbitrary keyword, or a word to be a keyword is determined in advance, and an appropriate keyword is assigned by referring to these keyword groups at the time of registration. This is a search method based on word matching, in which a search is performed by selecting an appropriate term from a keyword or a group of keywords according to a searcher's intention. This method has the advantage that the configuration of the search device is easy and search can be performed easily and quickly as long as the keyword intended by the searcher is registered, but the registrant assigns the keyword when registering the image. It takes a lot of work. Further, when the registrant and the searcher are different, different keywords may be assigned due to the difference in intention between the two, and a situation in which the searcher cannot search the target image occurs.
前述の問題を解決するために、特許文献1および特許文献2に示されているようなキーワードの代わりに例示画像を検索キーとして用いる手法が提案されている。この手法は、蓄積画像から画像特有の視覚的特徴に基づく検索を実現させるための手法である。基本的には画像情報を構成物の形、大きさ、位置、さらには色、テクスチャ等を記述した概略画像を用い、蓄積画像全体に対して条件に合う画像を検索する手法である。また蓄積画像からの検索の効率化を図るため、登録画像の代表色をマッピングし、検索キーとなる画像の持つ代表色をこの色空間上にマッピングし、この近傍に存在する画像に対してのみ整合・評価を行なうことにより初期段階である程度の大分類を実施して高速化を図っている。しかし、検索の度に例示画を作成する必要があり、また、検索したい画像を例示画に描くことが困難な状況も発生する。
In order to solve the above-described problem, a technique has been proposed in which an example image is used as a search key instead of a keyword as shown in
また、特許文献3に示されているような概略画像作成段階で素材の構成情報とその属性情報を作図プロセッサなどを用いて簡易に作成/登録でき、検索も構成情報とその属性情報のテーブルを用いて実施する方法もある。ここでの構成要素とは、例えば、机、りんごであり、その属性情報は位置、大きさ、姿勢等であり、確度の高い検索が可能となる。しかしながら、あらかじめ蓄積画像に対してこれら構成情報/属性情報を付加する必要がある。
In addition, the composition information of the material and its attribute information can be easily created / registered by using a drawing processor or the like at the outline image creation stage as shown in
また、自然画像の検索を効率よく行なう手法として、例えば、特許文献4がある。これは自然画像をコンポーネント化し、コンポーネントの形状/特徴情報を検索キーとする手法である。しかしながら、画像のコンポーネント化に際してはマウス/キーボード/デジタイザ等による人の介入を前提としている。
Moreover, as a technique for efficiently searching for a natural image, for example, there is
以上までに説明した従来の画像検索方法は、画像の登録時、もしくは、検索時にかなりの手間を要していた。この問題を解決するための方法として、画像から自動的、もしくは、半自動的にキーワードを抽出して、画像とともに登録する方法がある。 The conventional image retrieval methods described above have required considerable labor at the time of image registration or retrieval. As a method for solving this problem, there is a method of extracting a keyword automatically or semi-automatically from an image and registering it together with the image.
例えば、特許文献5では、画像から自動的に感覚語を抽出して画像とともに登録し、この感覚語をキーワードとする方法である。この感覚語による検索は、絵画などのある特定の画像群に対しては有効であるが、一般的な画像に対してはあまり有効ではない。これは、一般の画像から感覚語を抽出することが容易ではないことと、人により感覚が異なることが原因である。
For example, in
また、画像から構成要素に関するキーワードを抽出する手法として、例えば、特許文献6がある。これは画像データの領域を設定し、さらにその領域に含まれる色情報、周波数情報などの物理情報を抽出し、物理量そのものをキーワードとしたり、領域の物理情報から、例えば、空、海等の言葉に結び付けることを可能にしている。しかしながら、領域の物理情報だけから結び付けられる言葉には限りがある。
Moreover, as a method for extracting a keyword related to a component from an image, for example, there is
既存の画像から領域を抽出してこれに基づいて、画像の検索等を行なうことが望まれる。
この発明は、以上の事情を考慮してなされたものであり、画像から領域を抽出する画像抽出技術を提供することを目的としている。 The present invention has been made in consideration of the above circumstances, and an object thereof is to provide an image extraction technique for extracting a region from an image.
この発明によれば、上述の目的を達成するために、特許請求の範囲に記載のとおりの構成を採用している。ここでは、発明を詳細に説明するのに先だって、特許請求の範囲の記載について補充的に説明を行なっておく。 According to this invention, in order to achieve the above-mentioned object, the configuration as described in the claims is adopted. Here, prior to describing the invention in detail, supplementary explanations of the claims will be given.
すなわち、この発明の一側面によれば、上述の目的を達成するために、画像抽出装置に:入力された画像を量子化して画像データを生成する画像入力処理手段と;該画像入力処理手段により生成された前記画像データから、類似する特徴を持つ画素から構成される領域を抽出する領域抽出手段とを設けるようにしている。 That is, according to one aspect of the present invention, in order to achieve the above-described object, the image extracting apparatus includes: an image input processing unit that quantizes an input image to generate image data; An area extracting means for extracting an area composed of pixels having similar characteristics from the generated image data is provided.
前記領域抽出手段は、例えば、前記画像入力処理手段により生成された前記画像データからエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する。 For example, the region extracting unit extracts a pixel corresponding to an edge from the image data generated by the image input processing unit, and extracts a closed region constituted by the pixel as a region.
この構成によれば簡易に類似の画素に着目して画像から領域を抽出することができる。 According to this configuration, it is possible to easily extract a region from an image while paying attention to similar pixels.
また、この構成において、前記領域抽出手段により抽出された領域の持つ物理情報を当該領域の属性として抽出する領域属性抽出手段を設けても良い。 In this configuration, a region attribute extraction unit that extracts physical information of the region extracted by the region extraction unit as an attribute of the region may be provided.
前記領域属性抽出手段は、例えば、領域の色、大きさ、形状、テクスチャにそれぞれ関連する複数種類の特徴量のうちの少なくとも1種類を領域の属性として抽出する。 The area attribute extraction unit extracts, for example, at least one of a plurality of types of feature quantities respectively associated with the color, size, shape, and texture of the area as an attribute of the area.
また、前記領域抽出手段により抽出された領域間の位相関係を算出して、画像を前記領域属性抽出手段により抽出された属性を持つ領域の位相関係で表現する画像構造抽出手段を設けても良い。 Further, there may be provided an image structure extraction unit that calculates a phase relationship between the regions extracted by the region extraction unit and expresses an image by a phase relationship of regions having attributes extracted by the region attribute extraction unit. .
前記画像構造抽出手段は、例えば、領域と領域との位相関係として、一致、重複、包含、接合もしくは排他のいずれかの関係を抽出する。前記画像構造抽出手段は、領域と領域の位相関係として、領域の重心の座標を基準とした領域間の距離と方向を抽出してもよい。 The image structure extracting unit extracts, for example, a relationship of coincidence, overlap, inclusion, joining, or exclusion as a phase relationship between regions. The image structure extraction unit may extract a distance and a direction between regions based on the coordinates of the center of gravity of the region as the phase relationship between the regions.
なお、この発明は装置またはシステムとして実現できるのみでなく、方法としても実現可能である。また、そのような発明の一部をソフトウェアとして構成することができることはもちろんである。またそのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品もこの発明の技術的な範囲に含まれることも当然である。また、ソフトウェアをコンピュータにインストールしてこの発明を実現する場合には、上述の各手段はコンピュータのハードウェア資源およびソフトウェア資源を協働させて適宜に実現される。 The present invention can be realized not only as an apparatus or a system but also as a method. Of course, a part of the invention can be configured as software. Of course, software products used to cause a computer to execute such software are also included in the technical scope of the present invention. Further, when the present invention is realized by installing software in a computer, the above-described units are appropriately realized by cooperating computer hardware resources and software resources.
この発明の上述の側面および他の側面は特許請求の範囲に記載され以下実施例を用いて詳述される。 These and other aspects of the invention are set forth in the appended claims and will be described in detail below with reference to examples.
この発明によれば、画像から領域を抽出することができる。 According to the present invention, a region can be extracted from an image.
以下、本発明の実施例について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は本発明の画像登録装置の実施の一形態を示すブロック図である。図中、1は画像入力部、2は領域抽出部、3は領域属性抽出部、4は画像構造抽出部、5はオブジェクト抽出部、6はキーワード抽出部、7は画像登録部である。 FIG. 1 is a block diagram showing an embodiment of an image registration apparatus of the present invention. In the figure, 1 is an image input unit, 2 is a region extraction unit, 3 is a region attribute extraction unit, 4 is an image structure extraction unit, 5 is an object extraction unit, 6 is a keyword extraction unit, and 7 is an image registration unit.
画像入力部1は、入力された画像を量子化し、画像データを生成する。領域抽出部2は画像入力部1で生成された画像データから、類似する特徴を持つ画素により構成される領域を抽出する。領域属性抽出部3は、領域抽出部2で抽出された各領域を解析し、領域の色、テクスチャ、大きさ、形状に関する特徴を属性として抽出する。画像構造抽出部4は、領域抽出部2で抽出された各領域間の位相関係を調査し、領域属性抽出部3により抽出された属性を持つ領域と各領域間の位相関係を表現したデータ構造を作成する。オブジェクト抽出部5は、属性条件および領域間の位相関係とオブジェクトとを対応づけた辞書を参照しながら画像構造抽出部4で作成されたデータ構造を走査し、前記データ構造の一部またはすべてをオブジェクトで置換する。キーワード抽出部6は、オブジェクト抽出部5で更新されたデータ構造からオブジェクトとオブジェクトの位置関係を対象画像のキーワードとして抽出する。画像登録部7は、キーワード抽出部6で抽出されたキーワードを対応する画像に関係づけて画像データベースに登録する。
The
図2は、本発明の画像登録装置の実施の一形態を実現する構成例を示すブロック図である。図中、101は画像入力処理部、102は画像データ記憶メモリ、103は領域抽出処理部、104は領域/領域属性記憶メモリ、105は領域属性抽出処理部、106は画像構造抽出処理部、107は画像構造記憶メモリ、108はオブジェクト抽出処理部、109はオブジェクト辞書、110はキーワード抽出処理部、111は画像登録処理部である。 FIG. 2 is a block diagram showing a configuration example for realizing an embodiment of the image registration apparatus of the present invention. In the figure, 101 is an image input processing unit, 102 is an image data storage memory, 103 is a region extraction processing unit, 104 is a region / region attribute storage memory, 105 is a region attribute extraction processing unit, 106 is an image structure extraction processing unit, 107 Is an image structure storage memory, 108 is an object extraction processing unit, 109 is an object dictionary, 110 is a keyword extraction processing unit, and 111 is an image registration processing unit.
画像入力処理部101では、スキャナなどを用いて入力対象の原稿を入力し、量子化して多階調のRGBカラー画像データ(RGB表色系の3要素R,G,Bで表される画像データ)を生成する。ここでは入力対象を原稿としたので入力手段としてスキャナを用いたが、屋外などの風景を入力対象とする場合にはビデオカメラなどにより入力してもよい。あるいは、計算機を用いて描画された画像などでもよい。入力される画像を一旦記憶装置に格納しておき、処理を行なう時に読み出すように構成することができる。この例では、RGBカラー画像データを入力画像として生成したが、本発明はこれに限定するわけではなく、グレイスケールの画像データでもよいし、また、L*a*b*などの他の表色系を用いてもよい。
The image
画像データ記憶メモリ102は、画像入力処理部101により生成された画像データを記憶する。
The image
領域抽出処理部103では、画像データ記憶メモリ102に記憶されている画像データを基に類似する特徴(色や濃度、テクスチャなど)を持つ画素により構成される領域を抽出する。従来までに多くの領域を抽出する手法が提案されているが、例えば、非階層的クラスタリング、いわゆる、k−平均領域分割手法を用いることができる。本実施例では、各画素の色相、彩度、明度を基に、k−平均領域分割方法を用いて、画像を構成するすべての画素をクラスタリングする場合を示す。本発明における領域は画像中の構成要素、例えば、顔や目などといったオブジェクトに対応するため、極端に小さなクラスタが得られてもあまり意味がない。従って、必要に応じて、クラスタを統合する処理を最後に行なってもよい。そして、同じクラスタに属する隣接画素をラベリングにより抽出することで、類似する特徴を持つ画素から構成される領域が抽出できる。ここで、ラベリングにより抽出された領域をすべて記憶する必要はなく、領域の大きさや総数などに対して閾値を設け、記憶する領域を制限してもよい。
The region
本実施例では、k−平均領域分割およびラベリングにより領域抽出処理を行なったが、本発明はこれに限定するものではなく、類似する特徴を持つ画素により構成される領域を抽出できる手法であればどのような手法でも使用可能である。他の領域抽出手法としては、画像からエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する方法などがある。 In this embodiment, the region extraction processing is performed by k-average region division and labeling. However, the present invention is not limited to this, and any method can be used as long as it can extract a region composed of pixels having similar characteristics. Any technique can be used. As another region extraction method, there is a method of extracting a pixel corresponding to an edge from an image and extracting a closed region constituted by the pixel as a region.
領域/領域属性記憶メモリ104は、領域抽出処理部103により抽出された領域を領域データとして記憶する。領域データの構成も種々の方法が考えられるが、この例では、図3に示すようなラベリング画像により領域データを構成し、領域/領域属性記憶メモリ104に記憶する。図中、一マスが1つの画素の対応し、マスの中の数値は対応する画素の属する領域に固有の番号(以降、領域番号と称する)である。本発明における領域データの構成方法はラベリング画像に限るわけではなく、画像中の各画素にユニークな番号を与えておいて各領域をその領域に属する画素に与えられたユニークな番号の集合で表す方法や、領域の輪郭点集合で表す方法などの他の方法を用いて領域データを構成してもよい。
The region / region
領域属性抽出処理部105では、領域/領域属性記憶メモリ104に記憶されている各々の領域に対応する属性を抽出する。抽出した属性は、対応する領域に関連づけて領域/領域属性記憶メモリ104に記憶する。本発明における属性とは、領域の色、大きさ、形状、テクスチャに関する性質を表すものであり、例えば、平均色相、彩度のヒストグラム、面積、絶対最大長、近似形状を表すパラメータ、丸さ(針状)の度合、平均エッジ強度、空間周波数などの特徴量を用いることができる。本発明は、抽出する属性を前述の特徴量に限定するものではなく、領域の色、大きさ、形状、テクスチャに関する性質を表す特徴量であれば何でもよい。しかし、領域の色、大きさ、形状に関する性質を表す特徴量を少なくとも各1つは用いることが好ましい。この例では、簡単にするために、テクスチャに関する特徴を除いた、領域の平均色相、平均彩度、平均明度、構成画素数、針状の度合、主軸方向を抽出する属性として用いる。これらの特徴を既知の方法により領域データから計算して、例えば、図4に示すように領域番号と組にしたテーブル(以降、属性テーブルと称する)として、領域/領域属性記憶メモリ104に記憶できる。
The region attribute
また、領域抽出処理部103で用いる領域抽出方法によっては、この領域抽出の過程において領域の属性に当たる特徴が算出できる。このような場合には、算出した時点でこの特徴を属性として対応する領域に関連づけて領域/領域属性記憶メモリ104に記憶することもできる。この例では、k−平均領域分割の際に各領域の平均色相、平均彩度、平均明度が、ラベリングの際に各領域の構成画素数が算出できるので、領域抽出処理の中でこれらの属性を領域/領域属性記憶メモリ104に記憶するようにしている。また、ここで算出した属性(針状の度合、主軸方向)は、すべて領域データから算出できるが、用いる属性によっては(例えば、テクスチャに関する特徴)必要に応じて画像データ記憶メモリに記憶されている画像データを参照して属性を算出するように構成することもできる。
Further, depending on the region extraction method used in the region
画像構造抽出処理部106は、領域/領域属性記憶メモリ104に記憶されている領域データを用いて、各領域間の位相関係を抽出する。本発明における領域間の位相関係とは、一致/包含/重複/接合/排他などといった領域と領域の関係を指し、詳細な関係として領域間の距離と方向を持つようにすることもできる。この例では、領域分割により各領域を抽出したので、任意の2つの領域が重なり合うことはない。従って、2つの領域の位相関係は、「含んでいる/含まれている(包含)」か、「隣接している(接合)」か、「離れている(排他)」のいずれかになる。この領域間の位相関係は、領域/領域属性記憶メモリ104に記憶されている領域データ(ラベリング画像)を水平方向と垂直方向に走査して、各領域ごとに隣接している領域番号を抽出することで算出することができる。但し、この方法を用いる場合は、図5に示すように画像の外縁部分に画像外を表す領域を作成しておく必要がある。図中の「0」の数値でラベリングされた画素が画像外を表す領域である。各領域に隣接する領域を抽出した結果は、例えば、図6の隣接領域番号リストの項に示すようになる。この結果から、隣接している領域の数が1つしかない領域番号2と3の領域はその隣接している領域番号1の領域に含まれていることが分かる。そして、領域番号1の隣接領域番号リストから領域番号2と3を取り除くことで、含んでいるのでなく接合している領域のリストを得ることができる。また、当然ながら、最終的な位相関係を示す領域のリストからは画像外を表す領域(この例では領域番号が0の領域)は除かなければならない。本発明における位相関係の抽出方法は前述の方法に限定するものではない。また、この例では隣接関係を4近傍で算出したが8近傍で算出してもよい。領域間の詳細な関係として用いる領域間の距離と方向は、領域の重心の座標を基準とした距離と方向を算出することで得ることができる。
The image structure
画像構造記憶メモリ107は、画像構造抽出処理部106で作成した領域間の位相関係を記憶する。この例では、図7に示すような、領域番号をノードに持ち、領域間の位相関係をエッジに持つグラフ構造(以降、画像構造グラフと称する)を作成して記憶する。領域間の詳細な関係として各領域間の距離と方向を算出している場合にはこれらの値もエッジに持たせることができる。図7に示した画像構造グラフは、図8に示したラベリング画像(1つの閉領域が1つの領域を表している)から作成したもので、図7に示した1から11までの領域番号は、順に、顔面、左目、右目、口、左まゆ、右まゆ、髪の毛、左耳、右耳、首、背景の領域を指しているものとする。この例における画像構造グラフでは、包含もしくは隣接する領域間の関係のみを記述したが、重複を許すような領域を領域抽出処理部103で抽出した場合には、一致や重複などといった領域間の位相関係を追加することができる。
The image
オブジェクト抽出処理部108では、オブジェクト辞書109を参照しながら、画像構造記憶メモリ107に記憶された画像構造グラフからオブジェクトを抽出する。本発明におけるオブジェクトとは、「人の顔」や「木」などのものに固有の名称、および、「赤い円」や「白い四角」などの領域の属性による表現を指す。
The object
オブジェクト辞書109は、オブジェクトの名称とオブジェクトを構成する領域の属性および領域間の位相関係を記述したグラフ構造(以降、オブジェクトグラフと称する)とオブジェクト条件との組(以降、オブジェクト項目と称する)を複数保持している。オブジェクト辞書109に記憶しているオブジェクトグラフは、画像構造グラフと同じ形式である。異なる点は、属性の代わりにオブジェクトグラフの各ノードが示す番号に対応する属性条件を持っている点である。以降、オブジェクトグラフのノードが持つ番号を属性条件番号と称する。この属性条件とは、画像構造グラフとオブジェクトグラフとの対応するノードが適合するかどうかを調べるための条件である。また、オブジェクト条件とは、オブジェクトを構成する領域の属性間の相対的な関係に関する規則であり、例えば、領域Aのは構成画素数領域Bの構成画素数の2倍以上、3倍以下といった条件である。図9に、「人の顔」というオブジェクトに対応する、オブジェクト項目とこのオブジェクト項目に対応する部分の属性条件の例を示す。図中、属性条件番号301が顔面、302と303が目、304が髪の毛に相当する。
The
以下では、オブジェクト抽出方法の一例を図10に示すフローチャートを参照しながら説明する。まず、領域/領域属性記憶メモリ104に記憶されている属性テーブルを構成画素数で降順にソートする(S201)。これは、面積の大きな領域ほど主要な構成要素である可能性が高いという経験則に基づく。以降の処理は、ソートされた属性テーブルの領域(領域番号)を順に処理対象とする(S202)。オブジェクト辞書109に登録してある属性条件を検索して、処理対象の領域の属性が条件を満たしている属性条件番号のリストを作成する(S203)。このリストの属性条件番号を持つオブジェクトグラフと画像構造グラフとを比較する(S204)。この比較は、処理対象の領域番号を持つ画像構造グラフのノードとS203で抽出された属性条件番号を持つオブジェクトグラフのノードを一致させた上で、このオブジェクトグラフの持つノードに対応するすべての属性条件とエッジに対応する位相関係が画像構造グラフの一部またはすべてに適合するかどうかを調べる。これが適合した場合には更に、この属性条件番号に対応するオブジェクト条件を適用して、最終的に適合するかしないかを求める(S205)。最終的に適合しないと判断された場合には、S208の処理を行なう。適合した場合は、画像構造グラフの適合した部分グラフを対応するオブジェクトで置換する(S206)。この置換はオブジェクトを一意に決定することのできる番号を持つノードによるものであり、例えば、オブジェクト辞書109に登録されている対応するオブジェクト項目の番号(オブジェクト番号と称する)を用いることができる。この置換に伴って、エッジの削除やエッジに対応している位相関係や領域間の距離と方向の修正も行なう。距離と方向を算出するためのオブジェクトの重心は、オブジェクトに置換された画像構造グラフの部分グラフに含まれている領域を統合した領域から算出することができる。そして、オブジェクトに置換された画像構造グラフの部分グラフに含まれている領域番号およびこれに対応する属性をS201でソートされた属性テーブルから削除する(S207)。S208ではすべての領域について処理を行なったどうかを調べて、未処理の領域が残っていればS202に戻って処理を繰り返す。
Hereinafter, an example of the object extraction method will be described with reference to the flowchart shown in FIG. First, the attribute table stored in the region / region
オブジェクト抽出処理部108の結果、画像構造グラフに含まれているいくつかの部分グラフがオブジェクトに置換され、画像構造グラフの各ノードにオブジェクト番号もしくは領域番号を持つようなグラフが得られる。図7に示す画像構造グラフに対してオブジェクト抽出処理を行ない、これが図9に示したオブジェクト辞書109に登録してあるオブジェクトグラフに適合した結果得られるグラフを図11に示す。図7の領域番号1,2,3,7がそれぞれ図9の属性条件番号301,302,303,304に適合し、図9に示したオブジェクト条件も満たしているものとする。各ノード間のエッジ(位相関係)が適合しており、図7の領域番号1,2,3,7からなる部分グラフが「人の顔」というオブジェクトに対応するオブジェクト番号100を持つノードに置換されている。
As a result of the object
ここでは、ものの固有の名称をオブジェクトとする例を示したが、オブジェクト辞書109に「赤い円」や「白い四角」などといった領域の属性に関する表現をオブジェクトの名称とするようなオブジェクト項目を作成することで、「赤い円」や「白い四角」などといったオブジェクトを抽出することができる。
Here, an example is shown in which the unique name of an object is an object, but an object item is created in the
また、この例では、オブジェクトグラフと画像構造グラフの比較は各ノードやエッジが適合するかしないかでオブジェクトの抽出を行なったが、ここに適合度という概念を取り入れて、最も適合度の高い画像構造グラフの部分グラフを対応するオブジェクトで置換するようにすることもできる。例えば、オブジェクト辞書109に保持している属性条件を属性を与えることによりその適合度を返すような関数、例えば、ファジィ関数で構成することにより実現できる。
In this example, the object graph and the image structure graph are compared by extracting objects based on whether or not each node or edge is suitable. It is also possible to replace the subgraph of the structure graph with the corresponding object. For example, it can be realized by configuring the attribute condition held in the
本発明におけるオブジェクト辞書109は予め作成しておく必要がある。この作成方法に例としては、複数の人の顔の画像に対して前述してきたような画像構造グラフを作成し、複数の画像構造グラフを得る。そして、複数の画像構造グラフで対応するノード(領域)の属性と共通するエッジの位相関係から「人の顔」というオブジェクトに対応するオブジェクトグラフを作成することができる。また、得られた複数の画像構造グラフのノードが持つ属性間の関係のうち、共通すると見なせる関係をオブジェクト条件とすることができる。
The
キーワード抽出処理部110は、オブジェクト抽出処理部108により部分グラフがオブジェクトに置換された画像構造グラフを解析してオブジェクトとオブジェクト間の関係をキーワードとして抽出する。この例では、画像構造グラフ中に存在するオブジェクト番号から定まるオブジェクト(ものに固有な名称)とオブジェクトの画像中における相対的な位置、例えば、「人の顔」というオブジェクトとこのオブジェクトのの位置として「人の顔は画像の中央」というキーワードが抽出できる。また、オブジェクト間の関係として、抽出したオブジェクトの間の相対的な位置関係、例えば、「自動車の左上に信号機」というキーワードを抽出できる。
The keyword
画像登録処理部111は、キーワード抽出処理部110で抽出されたキーワードを入力画像に関連づけて蓄積装置(図示せず)に登録する。
The image
以上、説明した画像登録装置を用いることで、画像の登録時に人手によりキーワードを付与する手間を省き、キーワードを指定することで容易かつ高速に目的の画像を検索する検索装置を構成することができる。但し、本発明による画像登録装置によって抽出され画像とともに登録されるキーワードは主としてもの固有な名称であるため、検索時に検索キーとして指定されたキーワードの類義語も検索キーに加えて検索するように画像検索装置を構成するほうが好ましい。 As described above, by using the image registration apparatus described above, it is possible to configure a search apparatus that can easily and quickly search for a target image by designating a keyword, without the need for manually assigning a keyword when registering an image. . However, since the keywords extracted by the image registration apparatus according to the present invention and registered together with the images are mainly unique names, the image search is performed so that the synonym of the keyword specified as the search key at the time of search is also searched in addition to the search key. It is preferable to construct the apparatus.
1 画像入力部
2 領域抽出部
3 領域属性抽出部
4 画像構造抽出部
5 オブジェクト抽出部
6 キーワード抽出部
7 画像登録部
101 画像入力処理部
102 画像データ記憶メモリ
103 領域抽出処理部
104 領域 / 領域属性記憶メモリ
105 領域属性抽出処理部
106 画像構造抽出処理部
107 画像構造記憶メモリ
108 オブジェクト抽出処理部
109 オブジェクト辞書
110 キーワード抽出処理部
111 画像登録処理部
DESCRIPTION OF
Claims (10)
該画像入力処理手段により生成された前記画像データから、類似する特徴を持つ画素から構成される領域を抽出する領域抽出手段とを有することを特徴とする画像抽出装置。 Image input processing means for quantizing the input image to generate image data;
An image extracting apparatus comprising: an area extracting unit that extracts an area composed of pixels having similar characteristics from the image data generated by the image input processing unit.
前記画像データを参照してテクスチャに関する属性を算出する領域属性抽出手段とを有することを特徴とする画像抽出装置。 Image input processing means for quantizing the input image to generate image data;
An image extraction apparatus comprising: region attribute extraction means for calculating an attribute relating to texture with reference to the image data.
領域属性抽出手段により、前記画像データを参照してテクスチャに関する属性を算出する領域属性抽出ステップとを有することを特徴とする画像抽出方法。 An image input processing step of quantizing the input image and generating image data by the image input processing means;
A region attribute extraction step of calculating an attribute relating to texture by referring to the image data by a region attribute extraction means.
領域抽出手段により、前記画像入力処理手段により生成された前記画像データから類似する特徴を持つ画素から構成される領域を抽出する領域抽出ステップとを有することを特徴とする画像抽出方法。 An image input processing step of quantizing the input image and generating image data by the image input processing means;
An image extraction method comprising: an area extraction step of extracting an area composed of pixels having similar characteristics from the image data generated by the image input processing means by an area extraction means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005029962A JP2005141776A (en) | 2005-02-07 | 2005-02-07 | Image extraction device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005029962A JP2005141776A (en) | 2005-02-07 | 2005-02-07 | Image extraction device and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20436896A Division JP3661287B2 (en) | 1996-08-02 | 1996-08-02 | Image registration apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005141776A true JP2005141776A (en) | 2005-06-02 |
Family
ID=34698242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005029962A Pending JP2005141776A (en) | 2005-02-07 | 2005-02-07 | Image extraction device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005141776A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007164300A (en) * | 2005-12-09 | 2007-06-28 | Sony Computer Entertainment Inc | Image display device, image display method, program and information recording medium |
KR100811775B1 (en) | 2006-08-28 | 2008-03-10 | 계명대학교 산학협력단 | System and method of processing bio-image |
KR100813168B1 (en) | 2006-06-08 | 2008-03-17 | 삼성전자주식회사 | Method for extracting object in digital image with shape prior and system for executing the method |
JP2010040032A (en) * | 2008-07-31 | 2010-02-18 | Fuji Xerox Co Ltd | Search method, search program and search system |
JP2011523137A (en) * | 2008-06-06 | 2011-08-04 | トムソン ライセンシング | Image similarity search system and method |
JP2020149337A (en) * | 2019-03-13 | 2020-09-17 | 株式会社日立製作所 | Image search device, image search method, and computer program |
-
2005
- 2005-02-07 JP JP2005029962A patent/JP2005141776A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007164300A (en) * | 2005-12-09 | 2007-06-28 | Sony Computer Entertainment Inc | Image display device, image display method, program and information recording medium |
JP4731303B2 (en) * | 2005-12-09 | 2011-07-20 | 株式会社ソニー・コンピュータエンタテインメント | Image display device, image display method, program, and information storage medium |
KR100813168B1 (en) | 2006-06-08 | 2008-03-17 | 삼성전자주식회사 | Method for extracting object in digital image with shape prior and system for executing the method |
KR100811775B1 (en) | 2006-08-28 | 2008-03-10 | 계명대학교 산학협력단 | System and method of processing bio-image |
JP2011523137A (en) * | 2008-06-06 | 2011-08-04 | トムソン ライセンシング | Image similarity search system and method |
JP2010040032A (en) * | 2008-07-31 | 2010-02-18 | Fuji Xerox Co Ltd | Search method, search program and search system |
JP2020149337A (en) * | 2019-03-13 | 2020-09-17 | 株式会社日立製作所 | Image search device, image search method, and computer program |
JP7227799B2 (en) | 2019-03-13 | 2023-02-22 | 株式会社日立製作所 | Image retrieval device, image retrieval method and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020224424A1 (en) | Image processing method and apparatus, computer readable storage medium, and computer device | |
JP4553650B2 (en) | Image group representation method, descriptor derived by representation method, search method, apparatus, computer program, and storage medium | |
Soman et al. | Content based image retrieval using advanced color and texture features | |
JP2009282980A (en) | Method and apparatus for image learning, automatic notation, and retrieving | |
JP2008097607A (en) | Method to automatically classify input image | |
TWI536186B (en) | Three-dimension image file serching method and three-dimension image file serching system | |
JP2005141776A (en) | Image extraction device and method | |
JP3661287B2 (en) | Image registration apparatus and method | |
CN107169425A (en) | A kind of recognition methods of item property and device | |
JP2004341940A (en) | Similar image retrieval device, similar image retrieval method, and similar image retrieval program | |
Jenni et al. | Pre-processing image database for efficient Content Based Image Retrieval | |
JP2016099980A (en) | Image segmentation method, device, and program | |
JP2018081629A (en) | Determination device, method for determination, and determination program | |
JP2014211730A (en) | Image searching system, image searching device, and image searching method | |
JP5890340B2 (en) | Image classification device and image classification program | |
Belhi et al. | Deep learning and cultural heritage: the CEPROQHA project case study | |
US20130022267A1 (en) | System and method for modeling a region segmented image | |
Moreira et al. | Image provenance analysis | |
Nguyen et al. | Clustering web video search results with convolutional neural networks | |
JP2011048481A (en) | Image processing apparatus and program | |
US10810744B2 (en) | Image processing device, image processing method and image processing program | |
JP6336827B2 (en) | Image search device, image search method, and search system | |
Kumari et al. | A Study and usage of Visual Features in Content Based Image Retrieval Systems. | |
Bruneau et al. | A three-level signature by graph for Reverse Engineering of mechanical assemblies | |
Gondra et al. | Learning spatial relations for object-specific segmentation using Bayesian network model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080104 |