JP2005141776A - Image extraction device and method - Google Patents

Image extraction device and method Download PDF

Info

Publication number
JP2005141776A
JP2005141776A JP2005029962A JP2005029962A JP2005141776A JP 2005141776 A JP2005141776 A JP 2005141776A JP 2005029962 A JP2005029962 A JP 2005029962A JP 2005029962 A JP2005029962 A JP 2005029962A JP 2005141776 A JP2005141776 A JP 2005141776A
Authority
JP
Japan
Prior art keywords
image
region
extraction
attribute
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005029962A
Other languages
Japanese (ja)
Inventor
Ryosuke Toho
良介 東方
Yutaka Nakamura
豊 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005029962A priority Critical patent/JP2005141776A/en
Publication of JP2005141776A publication Critical patent/JP2005141776A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To automatically extract a keyword related to more components from an image intended to be registered to register it as a keyword for retrieving the image. <P>SOLUTION: An image input part 1 quantitizes an inputted image to generate image data. A region extraction part 2 extracts regions from the image data. A region attribute extraction part 3 analyzes each region and provides it, as attributes, with features related to a color, fixture, size and shape of the region. An image structure extraction part 4 investigates a phase relationship among the respective regions to create a data structure expressing a phase relationship among the regions. An object extraction part 5 scans the data structure while referring to a dictionary to replace a part or the whole of the data structure with an object. A keyword extraction part 6 extracts a positional relationship between objects as a keyword of the object image. Image registration part 7 registers the keyword in an image database by associating it with the corresponding image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像から領域を抽出する画像抽出技術に関し、とくに画像中の領域に着目し領域を位相関係で表現する画像構造を抽出するのに最適なものである。   The present invention relates to an image extraction technique for extracting a region from an image, and is particularly suitable for extracting an image structure that expresses a region in a phase relationship by focusing on the region in the image.

画像から領域を抽出することが望まれる。ここでは画像検索を例に挙げる。画像検索に関する従来技術として、一般のデータベースにおけるキーワード付与を基本とした検索手法がある。これは、画像登録者が任意のキーワードを付与するか、もしくは、あらかじめキーワードとなる言葉を決めておき、登録時にこれらのキーワード群を参照して適切なキーワードを付与する手法である。検索の際には、検索者の意図によるキーワードもしくはキーワード群から適切な用語を選び検索を実行する、単語の一致を基本とした検索手法である。この手法は検索装置の構成が容易であり、検索者の意図するキーワードが登録してありさえすれば容易かつ高速に検索できるという利点があるが、反面、画像の登録時に登録者がキーワードを付与する必要があり、手間が掛かる。また、登録者と検索者とが異なる場合には、両者の意図の違いから異なるキーワードが付与される可能性があり、検索者が目的の画像を検索できない状況が発生する。   It is desirable to extract a region from an image. Here, image search is taken as an example. As a conventional technique related to image search, there is a search technique based on keyword assignment in a general database. This is a method in which an image registrant assigns an arbitrary keyword, or a word to be a keyword is determined in advance, and an appropriate keyword is assigned by referring to these keyword groups at the time of registration. This is a search method based on word matching, in which a search is performed by selecting an appropriate term from a keyword or a group of keywords according to a searcher's intention. This method has the advantage that the configuration of the search device is easy and search can be performed easily and quickly as long as the keyword intended by the searcher is registered, but the registrant assigns the keyword when registering the image. It takes a lot of work. Further, when the registrant and the searcher are different, different keywords may be assigned due to the difference in intention between the two, and a situation in which the searcher cannot search the target image occurs.

前述の問題を解決するために、特許文献1および特許文献2に示されているようなキーワードの代わりに例示画像を検索キーとして用いる手法が提案されている。この手法は、蓄積画像から画像特有の視覚的特徴に基づく検索を実現させるための手法である。基本的には画像情報を構成物の形、大きさ、位置、さらには色、テクスチャ等を記述した概略画像を用い、蓄積画像全体に対して条件に合う画像を検索する手法である。また蓄積画像からの検索の効率化を図るため、登録画像の代表色をマッピングし、検索キーとなる画像の持つ代表色をこの色空間上にマッピングし、この近傍に存在する画像に対してのみ整合・評価を行なうことにより初期段階である程度の大分類を実施して高速化を図っている。しかし、検索の度に例示画を作成する必要があり、また、検索したい画像を例示画に描くことが困難な状況も発生する。   In order to solve the above-described problem, a technique has been proposed in which an example image is used as a search key instead of a keyword as shown in Patent Document 1 and Patent Document 2. This method is a method for realizing a search based on visual characteristics unique to an image from an accumulated image. Basically, this is a technique for searching for an image that meets the conditions of the entire stored image using a schematic image describing the shape, size, position, color, texture, etc. of the image information. In order to improve the efficiency of retrieval from stored images, the representative color of the registered image is mapped, the representative color of the image that is the search key is mapped on this color space, and only for the image existing in the vicinity. By performing matching and evaluation, a certain degree of large classification is performed in the initial stage to increase the speed. However, it is necessary to create an example image for each search, and there are situations where it is difficult to draw an image to be searched for in the example image.

また、特許文献3に示されているような概略画像作成段階で素材の構成情報とその属性情報を作図プロセッサなどを用いて簡易に作成/登録でき、検索も構成情報とその属性情報のテーブルを用いて実施する方法もある。ここでの構成要素とは、例えば、机、りんごであり、その属性情報は位置、大きさ、姿勢等であり、確度の高い検索が可能となる。しかしながら、あらかじめ蓄積画像に対してこれら構成情報/属性情報を付加する必要がある。   In addition, the composition information of the material and its attribute information can be easily created / registered by using a drawing processor or the like at the outline image creation stage as shown in Patent Document 3, and the table of the composition information and its attribute information is also searched. There is also a method of using it. The constituent elements here are, for example, a desk and an apple, and their attribute information includes a position, a size, a posture, and the like, and a search with high accuracy is possible. However, it is necessary to add the configuration information / attribute information to the stored image in advance.

また、自然画像の検索を効率よく行なう手法として、例えば、特許文献4がある。これは自然画像をコンポーネント化し、コンポーネントの形状/特徴情報を検索キーとする手法である。しかしながら、画像のコンポーネント化に際してはマウス/キーボード/デジタイザ等による人の介入を前提としている。   Moreover, as a technique for efficiently searching for a natural image, for example, there is Patent Document 4. This is a technique in which a natural image is converted into a component and the shape / feature information of the component is used as a search key. However, it is premised on human intervention by a mouse / keyboard / digitizer or the like when converting an image into a component.

以上までに説明した従来の画像検索方法は、画像の登録時、もしくは、検索時にかなりの手間を要していた。この問題を解決するための方法として、画像から自動的、もしくは、半自動的にキーワードを抽出して、画像とともに登録する方法がある。   The conventional image retrieval methods described above have required considerable labor at the time of image registration or retrieval. As a method for solving this problem, there is a method of extracting a keyword automatically or semi-automatically from an image and registering it together with the image.

例えば、特許文献5では、画像から自動的に感覚語を抽出して画像とともに登録し、この感覚語をキーワードとする方法である。この感覚語による検索は、絵画などのある特定の画像群に対しては有効であるが、一般的な画像に対してはあまり有効ではない。これは、一般の画像から感覚語を抽出することが容易ではないことと、人により感覚が異なることが原因である。   For example, in Patent Document 5, a sense word is automatically extracted from an image and registered together with the image, and this sense word is used as a keyword. This search based on sensory words is effective for a specific group of images such as paintings, but is not very effective for general images. This is due to the fact that it is not easy to extract sensory words from general images and that the sensations differ from person to person.

また、画像から構成要素に関するキーワードを抽出する手法として、例えば、特許文献6がある。これは画像データの領域を設定し、さらにその領域に含まれる色情報、周波数情報などの物理情報を抽出し、物理量そのものをキーワードとしたり、領域の物理情報から、例えば、空、海等の言葉に結び付けることを可能にしている。しかしながら、領域の物理情報だけから結び付けられる言葉には限りがある。   Moreover, as a method for extracting a keyword related to a component from an image, for example, there is Patent Document 6. This sets the area of the image data, further extracts the physical information such as color information and frequency information contained in the area, and uses the physical quantity itself as a keyword or from the physical information of the area, for example, words such as sky and sea It is possible to bind to. However, there are limits to the words that can be linked only from the physical information of the area.

既存の画像から領域を抽出してこれに基づいて、画像の検索等を行なうことが望まれる。
特開平4−60770号公報 特開平6−243178号公報 特開平1−130278号公報 特開平4−267480号公報 特開平1−73460号公報 特開平2−187864号公報
It is desirable to extract a region from an existing image and perform image search or the like based on the extracted region.
Japanese Patent Laid-Open No. 4-60770 JP-A-6-243178 Japanese Patent Laid-Open No. 1-130278 JP-A-4-267480 JP-A-1-73460 Japanese Patent Laid-Open No. 2-187864

この発明は、以上の事情を考慮してなされたものであり、画像から領域を抽出する画像抽出技術を提供することを目的としている。   The present invention has been made in consideration of the above circumstances, and an object thereof is to provide an image extraction technique for extracting a region from an image.

この発明によれば、上述の目的を達成するために、特許請求の範囲に記載のとおりの構成を採用している。ここでは、発明を詳細に説明するのに先だって、特許請求の範囲の記載について補充的に説明を行なっておく。   According to this invention, in order to achieve the above-mentioned object, the configuration as described in the claims is adopted. Here, prior to describing the invention in detail, supplementary explanations of the claims will be given.

すなわち、この発明の一側面によれば、上述の目的を達成するために、画像抽出装置に:入力された画像を量子化して画像データを生成する画像入力処理手段と;該画像入力処理手段により生成された前記画像データから、類似する特徴を持つ画素から構成される領域を抽出する領域抽出手段とを設けるようにしている。   That is, according to one aspect of the present invention, in order to achieve the above-described object, the image extracting apparatus includes: an image input processing unit that quantizes an input image to generate image data; An area extracting means for extracting an area composed of pixels having similar characteristics from the generated image data is provided.

前記領域抽出手段は、例えば、前記画像入力処理手段により生成された前記画像データからエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する。   For example, the region extracting unit extracts a pixel corresponding to an edge from the image data generated by the image input processing unit, and extracts a closed region constituted by the pixel as a region.

この構成によれば簡易に類似の画素に着目して画像から領域を抽出することができる。   According to this configuration, it is possible to easily extract a region from an image while paying attention to similar pixels.

また、この構成において、前記領域抽出手段により抽出された領域の持つ物理情報を当該領域の属性として抽出する領域属性抽出手段を設けても良い。   In this configuration, a region attribute extraction unit that extracts physical information of the region extracted by the region extraction unit as an attribute of the region may be provided.

前記領域属性抽出手段は、例えば、領域の色、大きさ、形状、テクスチャにそれぞれ関連する複数種類の特徴量のうちの少なくとも1種類を領域の属性として抽出する。   The area attribute extraction unit extracts, for example, at least one of a plurality of types of feature quantities respectively associated with the color, size, shape, and texture of the area as an attribute of the area.

また、前記領域抽出手段により抽出された領域間の位相関係を算出して、画像を前記領域属性抽出手段により抽出された属性を持つ領域の位相関係で表現する画像構造抽出手段を設けても良い。   Further, there may be provided an image structure extraction unit that calculates a phase relationship between the regions extracted by the region extraction unit and expresses an image by a phase relationship of regions having attributes extracted by the region attribute extraction unit. .

前記画像構造抽出手段は、例えば、領域と領域との位相関係として、一致、重複、包含、接合もしくは排他のいずれかの関係を抽出する。前記画像構造抽出手段は、領域と領域の位相関係として、領域の重心の座標を基準とした領域間の距離と方向を抽出してもよい。   The image structure extracting unit extracts, for example, a relationship of coincidence, overlap, inclusion, joining, or exclusion as a phase relationship between regions. The image structure extraction unit may extract a distance and a direction between regions based on the coordinates of the center of gravity of the region as the phase relationship between the regions.

なお、この発明は装置またはシステムとして実現できるのみでなく、方法としても実現可能である。また、そのような発明の一部をソフトウェアとして構成することができることはもちろんである。またそのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品もこの発明の技術的な範囲に含まれることも当然である。また、ソフトウェアをコンピュータにインストールしてこの発明を実現する場合には、上述の各手段はコンピュータのハードウェア資源およびソフトウェア資源を協働させて適宜に実現される。   The present invention can be realized not only as an apparatus or a system but also as a method. Of course, a part of the invention can be configured as software. Of course, software products used to cause a computer to execute such software are also included in the technical scope of the present invention. Further, when the present invention is realized by installing software in a computer, the above-described units are appropriately realized by cooperating computer hardware resources and software resources.

この発明の上述の側面および他の側面は特許請求の範囲に記載され以下実施例を用いて詳述される。   These and other aspects of the invention are set forth in the appended claims and will be described in detail below with reference to examples.

この発明によれば、画像から領域を抽出することができる。   According to the present invention, a region can be extracted from an image.

以下、本発明の実施例について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は本発明の画像登録装置の実施の一形態を示すブロック図である。図中、1は画像入力部、2は領域抽出部、3は領域属性抽出部、4は画像構造抽出部、5はオブジェクト抽出部、6はキーワード抽出部、7は画像登録部である。   FIG. 1 is a block diagram showing an embodiment of an image registration apparatus of the present invention. In the figure, 1 is an image input unit, 2 is a region extraction unit, 3 is a region attribute extraction unit, 4 is an image structure extraction unit, 5 is an object extraction unit, 6 is a keyword extraction unit, and 7 is an image registration unit.

画像入力部1は、入力された画像を量子化し、画像データを生成する。領域抽出部2は画像入力部1で生成された画像データから、類似する特徴を持つ画素により構成される領域を抽出する。領域属性抽出部3は、領域抽出部2で抽出された各領域を解析し、領域の色、テクスチャ、大きさ、形状に関する特徴を属性として抽出する。画像構造抽出部4は、領域抽出部2で抽出された各領域間の位相関係を調査し、領域属性抽出部3により抽出された属性を持つ領域と各領域間の位相関係を表現したデータ構造を作成する。オブジェクト抽出部5は、属性条件および領域間の位相関係とオブジェクトとを対応づけた辞書を参照しながら画像構造抽出部4で作成されたデータ構造を走査し、前記データ構造の一部またはすべてをオブジェクトで置換する。キーワード抽出部6は、オブジェクト抽出部5で更新されたデータ構造からオブジェクトとオブジェクトの位置関係を対象画像のキーワードとして抽出する。画像登録部7は、キーワード抽出部6で抽出されたキーワードを対応する画像に関係づけて画像データベースに登録する。   The image input unit 1 quantizes the input image and generates image data. The region extraction unit 2 extracts a region composed of pixels having similar characteristics from the image data generated by the image input unit 1. The region attribute extraction unit 3 analyzes each region extracted by the region extraction unit 2 and extracts features relating to the color, texture, size, and shape of the region as attributes. The image structure extraction unit 4 investigates the phase relationship between the regions extracted by the region extraction unit 2 and expresses the phase structure between the region having the attribute extracted by the region attribute extraction unit 3 and each region. Create The object extraction unit 5 scans the data structure created by the image structure extraction unit 4 while referring to the dictionary that associates the attribute condition and the phase relationship between the regions with the object, and part or all of the data structure is scanned. Replace with object. The keyword extraction unit 6 extracts the positional relationship between objects from the data structure updated by the object extraction unit 5 as a keyword of the target image. The image registration unit 7 registers the keyword extracted by the keyword extraction unit 6 in the image database in association with the corresponding image.

図2は、本発明の画像登録装置の実施の一形態を実現する構成例を示すブロック図である。図中、101は画像入力処理部、102は画像データ記憶メモリ、103は領域抽出処理部、104は領域/領域属性記憶メモリ、105は領域属性抽出処理部、106は画像構造抽出処理部、107は画像構造記憶メモリ、108はオブジェクト抽出処理部、109はオブジェクト辞書、110はキーワード抽出処理部、111は画像登録処理部である。   FIG. 2 is a block diagram showing a configuration example for realizing an embodiment of the image registration apparatus of the present invention. In the figure, 101 is an image input processing unit, 102 is an image data storage memory, 103 is a region extraction processing unit, 104 is a region / region attribute storage memory, 105 is a region attribute extraction processing unit, 106 is an image structure extraction processing unit, 107 Is an image structure storage memory, 108 is an object extraction processing unit, 109 is an object dictionary, 110 is a keyword extraction processing unit, and 111 is an image registration processing unit.

画像入力処理部101では、スキャナなどを用いて入力対象の原稿を入力し、量子化して多階調のRGBカラー画像データ(RGB表色系の3要素R,G,Bで表される画像データ)を生成する。ここでは入力対象を原稿としたので入力手段としてスキャナを用いたが、屋外などの風景を入力対象とする場合にはビデオカメラなどにより入力してもよい。あるいは、計算機を用いて描画された画像などでもよい。入力される画像を一旦記憶装置に格納しておき、処理を行なう時に読み出すように構成することができる。この例では、RGBカラー画像データを入力画像として生成したが、本発明はこれに限定するわけではなく、グレイスケールの画像データでもよいし、また、L*a*b*などの他の表色系を用いてもよい。   The image input processing unit 101 inputs a document to be input using a scanner or the like, quantizes it, and multi-tone RGB color image data (image data represented by three elements R, G, and B of the RGB color system) ) Is generated. Here, since the input object is a document, a scanner is used as an input means. However, when a landscape such as the outdoors is an input object, it may be input by a video camera or the like. Alternatively, an image drawn using a computer may be used. An input image can be stored once in a storage device and read when processing is performed. In this example, RGB color image data is generated as an input image. However, the present invention is not limited to this, and gray scale image data may be used, and other color specifications such as L * a * b * may be used. A system may be used.

画像データ記憶メモリ102は、画像入力処理部101により生成された画像データを記憶する。   The image data storage memory 102 stores the image data generated by the image input processing unit 101.

領域抽出処理部103では、画像データ記憶メモリ102に記憶されている画像データを基に類似する特徴(色や濃度、テクスチャなど)を持つ画素により構成される領域を抽出する。従来までに多くの領域を抽出する手法が提案されているが、例えば、非階層的クラスタリング、いわゆる、k−平均領域分割手法を用いることができる。本実施例では、各画素の色相、彩度、明度を基に、k−平均領域分割方法を用いて、画像を構成するすべての画素をクラスタリングする場合を示す。本発明における領域は画像中の構成要素、例えば、顔や目などといったオブジェクトに対応するため、極端に小さなクラスタが得られてもあまり意味がない。従って、必要に応じて、クラスタを統合する処理を最後に行なってもよい。そして、同じクラスタに属する隣接画素をラベリングにより抽出することで、類似する特徴を持つ画素から構成される領域が抽出できる。ここで、ラベリングにより抽出された領域をすべて記憶する必要はなく、領域の大きさや総数などに対して閾値を設け、記憶する領域を制限してもよい。   The region extraction processing unit 103 extracts a region composed of pixels having similar characteristics (color, density, texture, etc.) based on the image data stored in the image data storage memory 102. Conventionally, a method for extracting a large number of regions has been proposed. For example, a non-hierarchical clustering method, a so-called k-average region dividing method can be used. In this embodiment, a case is shown in which all pixels constituting an image are clustered using the k-average region division method based on the hue, saturation, and brightness of each pixel. Since regions in the present invention correspond to components in an image, for example, objects such as faces and eyes, even if extremely small clusters are obtained, it does not make much sense. Therefore, if necessary, the process of integrating the clusters may be performed last. Then, by extracting adjacent pixels belonging to the same cluster by labeling, it is possible to extract a region composed of pixels having similar characteristics. Here, it is not necessary to store all the areas extracted by labeling, and a threshold may be provided for the size and total number of areas to limit the area to be stored.

本実施例では、k−平均領域分割およびラベリングにより領域抽出処理を行なったが、本発明はこれに限定するものではなく、類似する特徴を持つ画素により構成される領域を抽出できる手法であればどのような手法でも使用可能である。他の領域抽出手法としては、画像からエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する方法などがある。   In this embodiment, the region extraction processing is performed by k-average region division and labeling. However, the present invention is not limited to this, and any method can be used as long as it can extract a region composed of pixels having similar characteristics. Any technique can be used. As another region extraction method, there is a method of extracting a pixel corresponding to an edge from an image and extracting a closed region constituted by the pixel as a region.

領域/領域属性記憶メモリ104は、領域抽出処理部103により抽出された領域を領域データとして記憶する。領域データの構成も種々の方法が考えられるが、この例では、図3に示すようなラベリング画像により領域データを構成し、領域/領域属性記憶メモリ104に記憶する。図中、一マスが1つの画素の対応し、マスの中の数値は対応する画素の属する領域に固有の番号(以降、領域番号と称する)である。本発明における領域データの構成方法はラベリング画像に限るわけではなく、画像中の各画素にユニークな番号を与えておいて各領域をその領域に属する画素に与えられたユニークな番号の集合で表す方法や、領域の輪郭点集合で表す方法などの他の方法を用いて領域データを構成してもよい。   The region / region attribute storage memory 104 stores the region extracted by the region extraction processing unit 103 as region data. Various methods are conceivable for the configuration of the region data. In this example, the region data is configured with a labeling image as shown in FIG. 3 and stored in the region / region attribute storage memory 104. In the figure, one square corresponds to one pixel, and the numerical value in the square is a number unique to the area to which the corresponding pixel belongs (hereinafter referred to as an area number). The method of constructing region data in the present invention is not limited to a labeling image, and a unique number is assigned to each pixel in the image, and each region is represented by a set of unique numbers assigned to pixels belonging to that region. The region data may be configured by using other methods such as a method and a method of representing the region by a set of contour points.

領域属性抽出処理部105では、領域/領域属性記憶メモリ104に記憶されている各々の領域に対応する属性を抽出する。抽出した属性は、対応する領域に関連づけて領域/領域属性記憶メモリ104に記憶する。本発明における属性とは、領域の色、大きさ、形状、テクスチャに関する性質を表すものであり、例えば、平均色相、彩度のヒストグラム、面積、絶対最大長、近似形状を表すパラメータ、丸さ(針状)の度合、平均エッジ強度、空間周波数などの特徴量を用いることができる。本発明は、抽出する属性を前述の特徴量に限定するものではなく、領域の色、大きさ、形状、テクスチャに関する性質を表す特徴量であれば何でもよい。しかし、領域の色、大きさ、形状に関する性質を表す特徴量を少なくとも各1つは用いることが好ましい。この例では、簡単にするために、テクスチャに関する特徴を除いた、領域の平均色相、平均彩度、平均明度、構成画素数、針状の度合、主軸方向を抽出する属性として用いる。これらの特徴を既知の方法により領域データから計算して、例えば、図4に示すように領域番号と組にしたテーブル(以降、属性テーブルと称する)として、領域/領域属性記憶メモリ104に記憶できる。   The region attribute extraction processing unit 105 extracts attributes corresponding to the respective regions stored in the region / region attribute storage memory 104. The extracted attribute is stored in the area / area attribute storage memory 104 in association with the corresponding area. The attributes in the present invention represent properties related to the color, size, shape, and texture of the region. For example, the average hue, saturation histogram, area, absolute maximum length, approximate shape parameter, roundness ( Features such as the degree of needle-like), average edge strength, and spatial frequency can be used. In the present invention, the attribute to be extracted is not limited to the above-described feature quantity, and any attribute quantity may be used as long as it represents a property related to the color, size, shape, and texture of the region. However, it is preferable to use at least one feature amount that represents properties relating to the color, size, and shape of the region. In this example, for the sake of simplicity, it is used as an attribute for extracting the average hue, average saturation, average brightness, number of constituent pixels, needle-like degree, and principal axis direction, excluding features related to texture. These features can be calculated from the area data by a known method and stored in the area / area attribute storage memory 104 as, for example, a table paired with area numbers (hereinafter referred to as attribute table) as shown in FIG. .

また、領域抽出処理部103で用いる領域抽出方法によっては、この領域抽出の過程において領域の属性に当たる特徴が算出できる。このような場合には、算出した時点でこの特徴を属性として対応する領域に関連づけて領域/領域属性記憶メモリ104に記憶することもできる。この例では、k−平均領域分割の際に各領域の平均色相、平均彩度、平均明度が、ラベリングの際に各領域の構成画素数が算出できるので、領域抽出処理の中でこれらの属性を領域/領域属性記憶メモリ104に記憶するようにしている。また、ここで算出した属性(針状の度合、主軸方向)は、すべて領域データから算出できるが、用いる属性によっては(例えば、テクスチャに関する特徴)必要に応じて画像データ記憶メモリに記憶されている画像データを参照して属性を算出するように構成することもできる。   Further, depending on the region extraction method used in the region extraction processing unit 103, a feature corresponding to the region attribute can be calculated in the region extraction process. In such a case, at the time of calculation, this feature can be stored in the region / region attribute storage memory 104 as an attribute in association with the corresponding region. In this example, the average hue, average saturation, and average brightness of each region can be calculated during the k-average region division, and the number of constituent pixels of each region can be calculated during labeling. Are stored in the region / region attribute storage memory 104. In addition, all the attributes (needle degree, main axis direction) calculated here can be calculated from the area data, but depending on the attributes used (for example, features related to texture), they are stored in the image data storage memory as necessary. An attribute can be calculated with reference to image data.

画像構造抽出処理部106は、領域/領域属性記憶メモリ104に記憶されている領域データを用いて、各領域間の位相関係を抽出する。本発明における領域間の位相関係とは、一致/包含/重複/接合/排他などといった領域と領域の関係を指し、詳細な関係として領域間の距離と方向を持つようにすることもできる。この例では、領域分割により各領域を抽出したので、任意の2つの領域が重なり合うことはない。従って、2つの領域の位相関係は、「含んでいる/含まれている(包含)」か、「隣接している(接合)」か、「離れている(排他)」のいずれかになる。この領域間の位相関係は、領域/領域属性記憶メモリ104に記憶されている領域データ(ラベリング画像)を水平方向と垂直方向に走査して、各領域ごとに隣接している領域番号を抽出することで算出することができる。但し、この方法を用いる場合は、図5に示すように画像の外縁部分に画像外を表す領域を作成しておく必要がある。図中の「0」の数値でラベリングされた画素が画像外を表す領域である。各領域に隣接する領域を抽出した結果は、例えば、図6の隣接領域番号リストの項に示すようになる。この結果から、隣接している領域の数が1つしかない領域番号2と3の領域はその隣接している領域番号1の領域に含まれていることが分かる。そして、領域番号1の隣接領域番号リストから領域番号2と3を取り除くことで、含んでいるのでなく接合している領域のリストを得ることができる。また、当然ながら、最終的な位相関係を示す領域のリストからは画像外を表す領域(この例では領域番号が0の領域)は除かなければならない。本発明における位相関係の抽出方法は前述の方法に限定するものではない。また、この例では隣接関係を4近傍で算出したが8近傍で算出してもよい。領域間の詳細な関係として用いる領域間の距離と方向は、領域の重心の座標を基準とした距離と方向を算出することで得ることができる。   The image structure extraction processing unit 106 uses the region data stored in the region / region attribute storage memory 104 to extract the phase relationship between the regions. The phase relationship between regions in the present invention refers to the relationship between regions, such as coincidence / inclusion / overlap / join / exclusion, and may have a distance and direction between regions as a detailed relationship. In this example, since each area is extracted by area division, any two areas do not overlap. Accordingly, the phase relationship between the two regions is either “included / included (included)”, “adjacent (joined)”, or “separated (exclusive)”. As for the phase relationship between the regions, the region data (labeled image) stored in the region / region attribute storage memory 104 is scanned in the horizontal direction and the vertical direction, and adjacent region numbers are extracted for each region. Can be calculated. However, when this method is used, it is necessary to create a region representing the outside of the image in the outer edge portion of the image as shown in FIG. Pixels labeled with a numerical value of “0” in the figure are areas that represent outside the image. The result of extracting the regions adjacent to each region is, for example, as shown in the section of the adjacent region number list in FIG. From this result, it can be seen that the regions of region numbers 2 and 3 that have only one adjacent region are included in the region of region number 1 that is adjacent. Then, by removing the region numbers 2 and 3 from the adjacent region number list of the region number 1, it is possible to obtain a list of regions that are joined but not included. Needless to say, the region representing the outside of the image (the region having the region number 0 in this example) must be excluded from the region list indicating the final phase relationship. The phase relationship extraction method in the present invention is not limited to the above-described method. In this example, the adjacency relationship is calculated in the vicinity of 4 but may be calculated in the vicinity of 8. The distance and direction between the regions used as the detailed relationship between the regions can be obtained by calculating the distance and the direction based on the coordinates of the center of gravity of the region.

画像構造記憶メモリ107は、画像構造抽出処理部106で作成した領域間の位相関係を記憶する。この例では、図7に示すような、領域番号をノードに持ち、領域間の位相関係をエッジに持つグラフ構造(以降、画像構造グラフと称する)を作成して記憶する。領域間の詳細な関係として各領域間の距離と方向を算出している場合にはこれらの値もエッジに持たせることができる。図7に示した画像構造グラフは、図8に示したラベリング画像(1つの閉領域が1つの領域を表している)から作成したもので、図7に示した1から11までの領域番号は、順に、顔面、左目、右目、口、左まゆ、右まゆ、髪の毛、左耳、右耳、首、背景の領域を指しているものとする。この例における画像構造グラフでは、包含もしくは隣接する領域間の関係のみを記述したが、重複を許すような領域を領域抽出処理部103で抽出した場合には、一致や重複などといった領域間の位相関係を追加することができる。   The image structure storage memory 107 stores the phase relationship between the regions created by the image structure extraction processing unit 106. In this example, as shown in FIG. 7, a graph structure (hereinafter referred to as an image structure graph) having an area number at a node and a phase relationship between areas at an edge is created and stored. When the distance and direction between the regions are calculated as a detailed relationship between the regions, these values can also be given to the edges. The image structure graph shown in FIG. 7 is created from the labeling image shown in FIG. 8 (one closed area represents one area). The area numbers 1 to 11 shown in FIG. It is assumed that the face, left eye, right eye, mouth, left eyebrow, right eyebrow, hair, left ear, right ear, neck, and background area are pointed in order. In the image structure graph in this example, only the relationship between the inclusion or adjacent regions is described. However, when the region extraction processing unit 103 extracts a region that allows overlap, the phase between regions such as coincidence and overlap Relationships can be added.

オブジェクト抽出処理部108では、オブジェクト辞書109を参照しながら、画像構造記憶メモリ107に記憶された画像構造グラフからオブジェクトを抽出する。本発明におけるオブジェクトとは、「人の顔」や「木」などのものに固有の名称、および、「赤い円」や「白い四角」などの領域の属性による表現を指す。   The object extraction processing unit 108 extracts an object from the image structure graph stored in the image structure storage memory 107 while referring to the object dictionary 109. An object in the present invention refers to a name unique to things such as “person's face” or “tree” and an expression based on attributes of a region such as “red circle” or “white square”.

オブジェクト辞書109は、オブジェクトの名称とオブジェクトを構成する領域の属性および領域間の位相関係を記述したグラフ構造(以降、オブジェクトグラフと称する)とオブジェクト条件との組(以降、オブジェクト項目と称する)を複数保持している。オブジェクト辞書109に記憶しているオブジェクトグラフは、画像構造グラフと同じ形式である。異なる点は、属性の代わりにオブジェクトグラフの各ノードが示す番号に対応する属性条件を持っている点である。以降、オブジェクトグラフのノードが持つ番号を属性条件番号と称する。この属性条件とは、画像構造グラフとオブジェクトグラフとの対応するノードが適合するかどうかを調べるための条件である。また、オブジェクト条件とは、オブジェクトを構成する領域の属性間の相対的な関係に関する規則であり、例えば、領域Aのは構成画素数領域Bの構成画素数の2倍以上、3倍以下といった条件である。図9に、「人の顔」というオブジェクトに対応する、オブジェクト項目とこのオブジェクト項目に対応する部分の属性条件の例を示す。図中、属性条件番号301が顔面、302と303が目、304が髪の毛に相当する。   The object dictionary 109 is a combination of a graph structure (hereinafter referred to as an object graph) describing object names, attributes of regions constituting the object, and topological relationships between the regions, and object conditions (hereinafter referred to as object items). Hold multiple. The object graph stored in the object dictionary 109 has the same format as the image structure graph. The difference is that an attribute condition corresponding to the number indicated by each node of the object graph is provided instead of the attribute. Hereinafter, the number of the node of the object graph is referred to as an attribute condition number. This attribute condition is a condition for examining whether or not the corresponding nodes of the image structure graph and the object graph match. The object condition is a rule relating to the relative relationship between attributes of the areas constituting the object. For example, the condition of the area A is 2 to 3 times the number of constituent pixels of the constituent pixel area B. It is. FIG. 9 shows an example of an object item corresponding to the object “human face” and an attribute condition of a portion corresponding to the object item. In the figure, the attribute condition number 301 corresponds to the face, 302 and 303 correspond to the eyes, and 304 corresponds to the hair.

以下では、オブジェクト抽出方法の一例を図10に示すフローチャートを参照しながら説明する。まず、領域/領域属性記憶メモリ104に記憶されている属性テーブルを構成画素数で降順にソートする(S201)。これは、面積の大きな領域ほど主要な構成要素である可能性が高いという経験則に基づく。以降の処理は、ソートされた属性テーブルの領域(領域番号)を順に処理対象とする(S202)。オブジェクト辞書109に登録してある属性条件を検索して、処理対象の領域の属性が条件を満たしている属性条件番号のリストを作成する(S203)。このリストの属性条件番号を持つオブジェクトグラフと画像構造グラフとを比較する(S204)。この比較は、処理対象の領域番号を持つ画像構造グラフのノードとS203で抽出された属性条件番号を持つオブジェクトグラフのノードを一致させた上で、このオブジェクトグラフの持つノードに対応するすべての属性条件とエッジに対応する位相関係が画像構造グラフの一部またはすべてに適合するかどうかを調べる。これが適合した場合には更に、この属性条件番号に対応するオブジェクト条件を適用して、最終的に適合するかしないかを求める(S205)。最終的に適合しないと判断された場合には、S208の処理を行なう。適合した場合は、画像構造グラフの適合した部分グラフを対応するオブジェクトで置換する(S206)。この置換はオブジェクトを一意に決定することのできる番号を持つノードによるものであり、例えば、オブジェクト辞書109に登録されている対応するオブジェクト項目の番号(オブジェクト番号と称する)を用いることができる。この置換に伴って、エッジの削除やエッジに対応している位相関係や領域間の距離と方向の修正も行なう。距離と方向を算出するためのオブジェクトの重心は、オブジェクトに置換された画像構造グラフの部分グラフに含まれている領域を統合した領域から算出することができる。そして、オブジェクトに置換された画像構造グラフの部分グラフに含まれている領域番号およびこれに対応する属性をS201でソートされた属性テーブルから削除する(S207)。S208ではすべての領域について処理を行なったどうかを調べて、未処理の領域が残っていればS202に戻って処理を繰り返す。   Hereinafter, an example of the object extraction method will be described with reference to the flowchart shown in FIG. First, the attribute table stored in the region / region attribute storage memory 104 is sorted in descending order by the number of constituent pixels (S201). This is based on an empirical rule that a region having a larger area is more likely to be a major component. In the subsequent processing, the sorted attribute table areas (area numbers) are sequentially processed (S202). The attribute conditions registered in the object dictionary 109 are searched to create a list of attribute condition numbers in which the attributes of the processing target area satisfy the conditions (S203). The object graph having the attribute condition number in this list is compared with the image structure graph (S204). This comparison is performed by matching the nodes of the image structure graph having the region number to be processed with the nodes of the object graph having the attribute condition number extracted in S203, and all the attributes corresponding to the nodes of the object graph. It is examined whether the phase relationship corresponding to the condition and the edge is suitable for part or all of the image structure graph. If this is met, the object condition corresponding to this attribute condition number is further applied to determine whether or not it is finally met (S205). If it is finally determined that it does not fit, the process of S208 is performed. If it is matched, the matched subgraph of the image structure graph is replaced with the corresponding object (S206). This replacement is based on a node having a number that can uniquely determine an object. For example, the number of a corresponding object item registered in the object dictionary 109 (referred to as an object number) can be used. Along with this replacement, the edge is deleted, the phase relationship corresponding to the edge, and the distance and direction between regions are corrected. The center of gravity of the object for calculating the distance and the direction can be calculated from an area obtained by integrating the areas included in the partial graph of the image structure graph replaced with the object. Then, the area number included in the partial graph of the image structure graph replaced with the object and the attribute corresponding thereto are deleted from the attribute table sorted in S201 (S207). In S208, it is checked whether or not processing has been performed for all areas. If there is any unprocessed area, the process returns to S202 and the process is repeated.

オブジェクト抽出処理部108の結果、画像構造グラフに含まれているいくつかの部分グラフがオブジェクトに置換され、画像構造グラフの各ノードにオブジェクト番号もしくは領域番号を持つようなグラフが得られる。図7に示す画像構造グラフに対してオブジェクト抽出処理を行ない、これが図9に示したオブジェクト辞書109に登録してあるオブジェクトグラフに適合した結果得られるグラフを図11に示す。図7の領域番号1,2,3,7がそれぞれ図9の属性条件番号301,302,303,304に適合し、図9に示したオブジェクト条件も満たしているものとする。各ノード間のエッジ(位相関係)が適合しており、図7の領域番号1,2,3,7からなる部分グラフが「人の顔」というオブジェクトに対応するオブジェクト番号100を持つノードに置換されている。   As a result of the object extraction processing unit 108, some subgraphs included in the image structure graph are replaced with objects, and a graph having an object number or an area number at each node of the image structure graph is obtained. FIG. 11 shows a graph obtained as a result of performing the object extraction process on the image structure graph shown in FIG. 7 and adapting it to the object graph registered in the object dictionary 109 shown in FIG. It is assumed that the area numbers 1, 2, 3, and 7 in FIG. 7 match the attribute condition numbers 301, 302, 303, and 304 in FIG. 9 and the object conditions shown in FIG. 9 are also satisfied. The edge (topological relationship) between the nodes is matched, and the subgraph consisting of the region numbers 1, 2, 3, and 7 in FIG. 7 is replaced with the node having the object number 100 corresponding to the object “human face”. Has been.

ここでは、ものの固有の名称をオブジェクトとする例を示したが、オブジェクト辞書109に「赤い円」や「白い四角」などといった領域の属性に関する表現をオブジェクトの名称とするようなオブジェクト項目を作成することで、「赤い円」や「白い四角」などといったオブジェクトを抽出することができる。   Here, an example is shown in which the unique name of an object is an object, but an object item is created in the object dictionary 109 such that an expression relating to an area attribute such as “red circle” or “white square” is the object name. Thus, objects such as “red circles” and “white squares” can be extracted.

また、この例では、オブジェクトグラフと画像構造グラフの比較は各ノードやエッジが適合するかしないかでオブジェクトの抽出を行なったが、ここに適合度という概念を取り入れて、最も適合度の高い画像構造グラフの部分グラフを対応するオブジェクトで置換するようにすることもできる。例えば、オブジェクト辞書109に保持している属性条件を属性を与えることによりその適合度を返すような関数、例えば、ファジィ関数で構成することにより実現できる。   In this example, the object graph and the image structure graph are compared by extracting objects based on whether or not each node or edge is suitable. It is also possible to replace the subgraph of the structure graph with the corresponding object. For example, it can be realized by configuring the attribute condition held in the object dictionary 109 with a function such as a fuzzy function that returns the fitness by giving an attribute.

本発明におけるオブジェクト辞書109は予め作成しておく必要がある。この作成方法に例としては、複数の人の顔の画像に対して前述してきたような画像構造グラフを作成し、複数の画像構造グラフを得る。そして、複数の画像構造グラフで対応するノード(領域)の属性と共通するエッジの位相関係から「人の顔」というオブジェクトに対応するオブジェクトグラフを作成することができる。また、得られた複数の画像構造グラフのノードが持つ属性間の関係のうち、共通すると見なせる関係をオブジェクト条件とすることができる。   The object dictionary 109 in the present invention needs to be created in advance. As an example of this creation method, an image structure graph as described above is created for a plurality of human face images, and a plurality of image structure graphs are obtained. Then, an object graph corresponding to the object “human face” can be created from the phase relationship of the edges common to the attributes of the nodes (regions) corresponding to the plurality of image structure graphs. In addition, among the relationships between attributes of the nodes of the obtained plurality of image structure graphs, a relationship that can be regarded as common can be set as an object condition.

キーワード抽出処理部110は、オブジェクト抽出処理部108により部分グラフがオブジェクトに置換された画像構造グラフを解析してオブジェクトとオブジェクト間の関係をキーワードとして抽出する。この例では、画像構造グラフ中に存在するオブジェクト番号から定まるオブジェクト(ものに固有な名称)とオブジェクトの画像中における相対的な位置、例えば、「人の顔」というオブジェクトとこのオブジェクトのの位置として「人の顔は画像の中央」というキーワードが抽出できる。また、オブジェクト間の関係として、抽出したオブジェクトの間の相対的な位置関係、例えば、「自動車の左上に信号機」というキーワードを抽出できる。   The keyword extraction processing unit 110 analyzes the image structure graph in which the partial graph is replaced with the object by the object extraction processing unit 108 and extracts the relationship between the objects as a keyword. In this example, the object (name unique to the object) determined from the object number existing in the image structure graph and the relative position in the image of the object, for example, the object “human face” and the position of this object The keyword “human face is the center of the image” can be extracted. Further, as a relationship between objects, a relative positional relationship between the extracted objects, for example, a keyword “traffic signal at the upper left of the car” can be extracted.

画像登録処理部111は、キーワード抽出処理部110で抽出されたキーワードを入力画像に関連づけて蓄積装置(図示せず)に登録する。   The image registration processing unit 111 registers the keyword extracted by the keyword extraction processing unit 110 in the storage device (not shown) in association with the input image.

以上、説明した画像登録装置を用いることで、画像の登録時に人手によりキーワードを付与する手間を省き、キーワードを指定することで容易かつ高速に目的の画像を検索する検索装置を構成することができる。但し、本発明による画像登録装置によって抽出され画像とともに登録されるキーワードは主としてもの固有な名称であるため、検索時に検索キーとして指定されたキーワードの類義語も検索キーに加えて検索するように画像検索装置を構成するほうが好ましい。   As described above, by using the image registration apparatus described above, it is possible to configure a search apparatus that can easily and quickly search for a target image by designating a keyword, without the need for manually assigning a keyword when registering an image. . However, since the keywords extracted by the image registration apparatus according to the present invention and registered together with the images are mainly unique names, the image search is performed so that the synonym of the keyword specified as the search key at the time of search is also searched in addition to the search key. It is preferable to construct the apparatus.

本発明の実施例の画像登録装置を全体として示すブロック図である。It is a block diagram which shows the image registration apparatus of the Example of this invention as a whole. 実施例の画像登録装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image registration apparatus of an Example. 実施例における領域データを表現するラベリング画像の例を示す図である。It is a figure which shows the example of the labeling image expressing the area | region data in an Example. 実施例の属性テーブルの例を示す図である。It is a figure which shows the example of the attribute table of an Example. 実施例において領域間の位相関係を抽出する際に用いるラベリング画像の例を示す図である。It is a figure which shows the example of the labeling image used when extracting the phase relationship between area | regions in an Example. 実施例において領域ごとの隣接領域を抽出した例を示す図である。It is a figure which shows the example which extracted the adjacent area | region for every area | region in the Example. 実施例の画像構造グラフの例を示す図である。It is a figure which shows the example of the image structure graph of an Example. 図7の画像構造グラフに対応するラベリング画像の例を示す図である。It is a figure which shows the example of the labeling image corresponding to the image structure graph of FIG. 実施例のオブジェクト辞書の例を示す図である。It is a figure which shows the example of the object dictionary of an Example. 実施例のオブジェクト抽出処理方法の処理フローの例を示す図である。It is a figure which shows the example of the processing flow of the object extraction processing method of an Example. 実施例のオブジェクト抽出処理後の画像構造グラフの例を示す図である。It is a figure which shows the example of the image structure graph after the object extraction process of an Example.

符号の説明Explanation of symbols

1 画像入力部
2 領域抽出部
3 領域属性抽出部
4 画像構造抽出部
5 オブジェクト抽出部
6 キーワード抽出部
7 画像登録部
101 画像入力処理部
102 画像データ記憶メモリ
103 領域抽出処理部
104 領域 / 領域属性記憶メモリ
105 領域属性抽出処理部
106 画像構造抽出処理部
107 画像構造記憶メモリ
108 オブジェクト抽出処理部
109 オブジェクト辞書
110 キーワード抽出処理部
111 画像登録処理部
DESCRIPTION OF SYMBOLS 1 Image input part 2 Area extraction part 3 Area attribute extraction part 4 Image structure extraction part 5 Object extraction part 6 Keyword extraction part 7 Image registration part 101 Image input process part 102 Image data storage memory 103 Area extraction process part 104 Area / area attribute Storage memory 105 Region attribute extraction processing unit 106 Image structure extraction processing unit 107 Image structure storage memory 108 Object extraction processing unit 109 Object dictionary 110 Keyword extraction processing unit 111 Image registration processing unit

Claims (10)

入力された画像を量子化して画像データを生成する画像入力処理手段と、
該画像入力処理手段により生成された前記画像データから、類似する特徴を持つ画素から構成される領域を抽出する領域抽出手段とを有することを特徴とする画像抽出装置。
Image input processing means for quantizing the input image to generate image data;
An image extracting apparatus comprising: an area extracting unit that extracts an area composed of pixels having similar characteristics from the image data generated by the image input processing unit.
前記領域抽出手段は、前記画像入力処理手段により生成された前記画像データからエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する請求項1に記載の画像抽出装置。   The image extracting apparatus according to claim 1, wherein the region extracting unit extracts a pixel corresponding to an edge from the image data generated by the image input processing unit and extracts a closed region constituted by the pixel as a region. さらに前記領域抽出手段により抽出された領域の持つ物理情報を当該領域の属性として抽出する領域属性抽出手段を有する請求項1または2記載の画像抽出装置。   The image extraction apparatus according to claim 1, further comprising region attribute extraction means for extracting physical information of the region extracted by the region extraction means as an attribute of the region. 前記領域属性抽出手段は、領域の色、大きさ、形状、テクスチャにそれぞれ関連する複数種類の特徴量のうちの少なくとも1種類の特徴量を領域の属性として抽出する請求項3に記載の画像抽出装置。   The image extraction according to claim 3, wherein the region attribute extraction unit extracts at least one type of feature amount among a plurality of types of feature amounts respectively associated with the color, size, shape, and texture of the region as an attribute of the region. apparatus. さらに前記領域抽出手段により抽出された領域間の位相関係を算出して、画像を前記領域属性抽出手段により抽出された属性を持つ領域の位相関係で表現する画像構造抽出手段を有する請求項3または4記載の画像抽出装置。   4. The image structure extracting unit according to claim 3, further comprising: an image structure extracting unit that calculates a phase relationship between the regions extracted by the region extracting unit and expresses an image by a phase relationship of regions having attributes extracted by the region attribute extracting unit. 4. The image extraction device according to 4. 前記画像構造抽出手段は、領域と領域との位相関係として、一致、重複、包含、接合もしくは排他のいずれかの関係を抽出する請求項5記載の画像抽出装置。   The image extraction apparatus according to claim 5, wherein the image structure extraction unit extracts a relationship of coincidence, overlap, inclusion, joining, or exclusion as a phase relationship between regions. 前記画像構造抽出手段は、領域と領域の位相関係として、領域の重心の座標を基準とした領域間の距離と方向を抽出する請求項5に記載の画像抽出装置。   The image extraction apparatus according to claim 5, wherein the image structure extraction unit extracts a distance and a direction between regions based on coordinates of a center of gravity of the region as a phase relationship between the regions. 入力された画像を量子化して画像データを生成する画像入力処理手段と、
前記画像データを参照してテクスチャに関する属性を算出する領域属性抽出手段とを有することを特徴とする画像抽出装置。
Image input processing means for quantizing the input image to generate image data;
An image extraction apparatus comprising: region attribute extraction means for calculating an attribute relating to texture with reference to the image data.
画像入力処理手段により、入力された画像を量子化して画像データを生成する画像入力処理ステップと、
領域属性抽出手段により、前記画像データを参照してテクスチャに関する属性を算出する領域属性抽出ステップとを有することを特徴とする画像抽出方法。
An image input processing step of quantizing the input image and generating image data by the image input processing means;
A region attribute extraction step of calculating an attribute relating to texture by referring to the image data by a region attribute extraction means.
画像入力処理手段により、入力された画像を量子化して画像データを生成する画像入力処理ステップと、
領域抽出手段により、前記画像入力処理手段により生成された前記画像データから類似する特徴を持つ画素から構成される領域を抽出する領域抽出ステップとを有することを特徴とする画像抽出方法。
An image input processing step of quantizing the input image and generating image data by the image input processing means;
An image extraction method comprising: an area extraction step of extracting an area composed of pixels having similar characteristics from the image data generated by the image input processing means by an area extraction means.
JP2005029962A 2005-02-07 2005-02-07 Image extraction device and method Pending JP2005141776A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005029962A JP2005141776A (en) 2005-02-07 2005-02-07 Image extraction device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005029962A JP2005141776A (en) 2005-02-07 2005-02-07 Image extraction device and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP20436896A Division JP3661287B2 (en) 1996-08-02 1996-08-02 Image registration apparatus and method

Publications (1)

Publication Number Publication Date
JP2005141776A true JP2005141776A (en) 2005-06-02

Family

ID=34698242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005029962A Pending JP2005141776A (en) 2005-02-07 2005-02-07 Image extraction device and method

Country Status (1)

Country Link
JP (1) JP2005141776A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164300A (en) * 2005-12-09 2007-06-28 Sony Computer Entertainment Inc Image display device, image display method, program and information recording medium
KR100811775B1 (en) 2006-08-28 2008-03-10 계명대학교 산학협력단 System and method of processing bio-image
KR100813168B1 (en) 2006-06-08 2008-03-17 삼성전자주식회사 Method for extracting object in digital image with shape prior and system for executing the method
JP2010040032A (en) * 2008-07-31 2010-02-18 Fuji Xerox Co Ltd Search method, search program and search system
JP2011523137A (en) * 2008-06-06 2011-08-04 トムソン ライセンシング Image similarity search system and method
JP2020149337A (en) * 2019-03-13 2020-09-17 株式会社日立製作所 Image search device, image search method, and computer program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164300A (en) * 2005-12-09 2007-06-28 Sony Computer Entertainment Inc Image display device, image display method, program and information recording medium
JP4731303B2 (en) * 2005-12-09 2011-07-20 株式会社ソニー・コンピュータエンタテインメント Image display device, image display method, program, and information storage medium
KR100813168B1 (en) 2006-06-08 2008-03-17 삼성전자주식회사 Method for extracting object in digital image with shape prior and system for executing the method
KR100811775B1 (en) 2006-08-28 2008-03-10 계명대학교 산학협력단 System and method of processing bio-image
JP2011523137A (en) * 2008-06-06 2011-08-04 トムソン ライセンシング Image similarity search system and method
JP2010040032A (en) * 2008-07-31 2010-02-18 Fuji Xerox Co Ltd Search method, search program and search system
JP2020149337A (en) * 2019-03-13 2020-09-17 株式会社日立製作所 Image search device, image search method, and computer program
JP7227799B2 (en) 2019-03-13 2023-02-22 株式会社日立製作所 Image retrieval device, image retrieval method and computer program

Similar Documents

Publication Publication Date Title
WO2020224424A1 (en) Image processing method and apparatus, computer readable storage medium, and computer device
JP4553650B2 (en) Image group representation method, descriptor derived by representation method, search method, apparatus, computer program, and storage medium
Soman et al. Content based image retrieval using advanced color and texture features
JP2009282980A (en) Method and apparatus for image learning, automatic notation, and retrieving
JP2008097607A (en) Method to automatically classify input image
TWI536186B (en) Three-dimension image file serching method and three-dimension image file serching system
JP2005141776A (en) Image extraction device and method
JP3661287B2 (en) Image registration apparatus and method
CN107169425A (en) A kind of recognition methods of item property and device
JP2004341940A (en) Similar image retrieval device, similar image retrieval method, and similar image retrieval program
Jenni et al. Pre-processing image database for efficient Content Based Image Retrieval
JP2016099980A (en) Image segmentation method, device, and program
JP2018081629A (en) Determination device, method for determination, and determination program
JP2014211730A (en) Image searching system, image searching device, and image searching method
JP5890340B2 (en) Image classification device and image classification program
Belhi et al. Deep learning and cultural heritage: the CEPROQHA project case study
US20130022267A1 (en) System and method for modeling a region segmented image
Moreira et al. Image provenance analysis
Nguyen et al. Clustering web video search results with convolutional neural networks
JP2011048481A (en) Image processing apparatus and program
US10810744B2 (en) Image processing device, image processing method and image processing program
JP6336827B2 (en) Image search device, image search method, and search system
Kumari et al. A Study and usage of Visual Features in Content Based Image Retrieval Systems.
Bruneau et al. A three-level signature by graph for Reverse Engineering of mechanical assemblies
Gondra et al. Learning spatial relations for object-specific segmentation using Bayesian network model

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080104