JP2005293367A - Image processing method and device - Google Patents

Image processing method and device Download PDF

Info

Publication number
JP2005293367A
JP2005293367A JP2004109230A JP2004109230A JP2005293367A JP 2005293367 A JP2005293367 A JP 2005293367A JP 2004109230 A JP2004109230 A JP 2004109230A JP 2004109230 A JP2004109230 A JP 2004109230A JP 2005293367 A JP2005293367 A JP 2005293367A
Authority
JP
Japan
Prior art keywords
area
region
candidate
relevance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004109230A
Other languages
Japanese (ja)
Inventor
Toru Miyamoto
徹 宮本
Hitoshi Yamakado
均 山門
Takashi Tani
宇 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004109230A priority Critical patent/JP2005293367A/en
Publication of JP2005293367A publication Critical patent/JP2005293367A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method for extracting a desired area by an easy operation. <P>SOLUTION: This image processing method for extracting an area desired by a user from an image includes a step S11 for dividing the image into several areas, a step S12 for designating one point in the image according to an instruction by the user, a correlation degree calculation step S13 for analyzing a correlation degree between an area including the designated point and another area, a step S14 for extracting a plurality of candidate areas by combining the area including the designated point and a plurality of areas having high correlation, a step S15 for presenting a plurality of candidate areas to the user, and a step S16 for making a selection in the displayed candidate areas according to the instruction by the user. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ユーザーが画像中の任意の点を指定した後、その点を含む所望の領域を抽出
する際に用いて好適な画像処理方法及び装置に関する。
The present invention relates to an image processing method and apparatus suitable for use in extracting a desired region including a point after a user designates an arbitrary point in an image.

デジタルカメラとPC(パーソナルコンピュータ)などの普及によって、デジタルカメ
ラで撮影した画像データをPC上で簡単に編集できるようになってきた。さらに、撮影後
すぐに画像データを編集したいという要求がでてきている。例えば、デジタルカメラや携
帯電話などの撮影した機器内で、(簡易的な)編集を行いたいという要求や、撮影した画
像のチェックを簡単に行いたいという要求がある。
With the widespread use of digital cameras and PCs (personal computers), image data taken with digital cameras can be easily edited on a PC. Furthermore, there is a demand for editing image data immediately after shooting. For example, there is a request to perform (simple) editing within a device such as a digital camera or a mobile phone, or a request to easily check a captured image.

しかし、デジタルカメラや携帯電話といった携帯機器では、マウスなどのインターフェ
ースが使えないため、例えば、画像のある部分を拡大したいといった場合、所望の領域の
左上と右下を十字キーを何度も押して指定する必要があるなど、煩雑な操作を強いられて
いた。
However, since portable devices such as digital cameras and mobile phones cannot use an interface such as a mouse, for example, when you want to enlarge a certain part of an image, specify the upper left and lower right of the desired area by pressing the cross key repeatedly. For example, it was necessary to perform complicated operations.

別の技術的な背景としては、画像処理技術において、画像をいくつかの領域に分割する
手法、あるいは、画像中からある領域を抽出する手法はいくつか提案されている。しかし
、例えば、誘目度として人が注目する領域を推定する手法などはあるものの、抽出した領
域それぞれの関係や重要度を計算する手法は少ない。したがって、いくつかの領域に分割
された画像から、複数の領域を含めて指定したい場合は、その分割数分の領域を指定する
ための複数回の操作が必要となる。具体的には、複数の人物写真(団体写真)などの場合
、各人毎に領域抽出できるが、両隣1人ずつを含めて拡大するといったことは、複数回の
指定操作が必要である。
As another technical background, in the image processing technique, several methods for dividing an image into several regions or extracting a certain region from the image have been proposed. However, for example, although there is a method for estimating an area attracted by a person as the degree of attraction, there are few methods for calculating the relationship and importance of each extracted region. Therefore, when it is desired to specify a plurality of areas from an image divided into several areas, it is necessary to perform a plurality of operations for specifying the areas corresponding to the number of divisions. Specifically, in the case of a plurality of person photographs (group photographs) or the like, an area can be extracted for each person, but enlarging to include one person on both sides requires a plurality of designation operations.

画像中のある点を指定して拡大する処理において、最も簡単な手法は、特許文献1に記
載されているように、所定の倍率で画像中心/所定の点を中心に領域を確定する方法が考
えられる。しかし、この場合、最適な倍率というものは存在しないため、例えば、1.1
倍ずつ拡大させていくというような操作を繰り返しユーザーに強いることになる。
In the process of enlarging by designating a certain point in the image, the simplest method is to determine the area around the image center / predetermined point at a predetermined magnification as described in Patent Document 1. Conceivable. However, in this case, since there is no optimal magnification, for example, 1.1
The user is forced to repeatedly perform operations such as magnifying each time.

また、特許文献2に記載されているように倍率を指定することなく、複写物から有効画
像領域を検出し、出力する用紙に合わせて拡大する手法も提案されている。しかし、有効
画像領域とは、画像やテキストなどの無い空白領域以外のことであり、本発明が対象とし
ているような、画像内の有効領域を検出する手法とは異なる。
In addition, as described in Patent Document 2, there is also proposed a method of detecting an effective image area from a copy without specifying a magnification and enlarging it according to a sheet to be output. However, the effective image area is a non-blank area having no image or text, and is different from the technique for detecting the effective area in the image as the subject of the present invention.

次に、ユーザーに指定させた1点から、ある特徴を計算し領域を抽出する手法がある。
例えば、特許文献3では、輪郭抽出を行い画像から領域を抽出する。しかし、この方法で
は、1つの領域しか特定できず、背景などを同時に選択したいなど、複数の領域に渡る抽
出はすることはできない。
特開2000−75416号公報 特開平7−327129号公報 特開2000−125119号公報
Next, there is a method of extracting a region by calculating a certain feature from one point designated by the user.
For example, in Patent Document 3, a contour is extracted and a region is extracted from an image. However, in this method, only one area can be specified, and it is not possible to perform extraction over a plurality of areas, for example, when it is desired to select a background or the like at the same time.
JP 2000-75416 A JP 7-327129 A JP 2000-125119 A

上記のような方法では、予め定められた手法で正当な結果を得られた場合であっても、
ユーザーが所望する領域にならない場合がある。例えば、同じ画像であってもユーザーが
所望する領域は、隣の人物を含めた領域であったり、上半身までの領域であったりする場
合が考えられる。このような場合、上記のような方法では、簡単な操作で、ユーザーの希
望を正確に反映した領域を抽出することはできないという課題があった。
In the above method, even when a valid result is obtained by a predetermined method,
There may be cases where the user does not have the desired area. For example, even if it is the same image, the region desired by the user may be a region including an adjacent person or a region up to the upper body. In such a case, the above-described method has a problem that it is not possible to extract a region that accurately reflects the user's wishes with a simple operation.

例えば近似色領域を抽出する方法では、例えば顔領域の1点から、顔領域以外を抽出で
きないという課題がある。また、形状を用いる場合では、様々な形状を検索可能にするた
めには、複数の形状を記憶しておく必要があるが、現実的にはその種類の多さから困難と
言える。
For example, in the method of extracting the approximate color area, there is a problem that, for example, other than the face area cannot be extracted from one point of the face area. In addition, in the case of using shapes, it is necessary to store a plurality of shapes in order to be able to search various shapes, but it can be said that it is actually difficult because of the number of types.

本発明は、上記の事情に鑑みてなされたものであり、簡単な操作で所望の領域を抽出す
ることができる画像処理方法及び装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing method and apparatus capable of extracting a desired region with a simple operation.

上記課題を解決するため、本発明は、画像からユーザーが所望する領域を抽出する画像
処理方法であって、画像を領域分割するステップと、ユーザーの指示に応じて画像中の1
点を指定するステップと、指定点を含む領域と他の領域の関連度を解析する関連度解析ス
テップと、指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を
抽出するステップと、複数の候補領域をユーザーに提示するステップと、ユーザーの指示
に応じて表示した候補領域を選択するステップとを含んでいることを特徴とする。
In order to solve the above problems, the present invention is an image processing method for extracting a region desired by a user from an image, the step of dividing the image into regions, and 1 in the image according to a user instruction.
Multiple candidate regions are extracted by combining a step that specifies points, a relevance analysis step that analyzes the degree of association between an area that includes the specified point and other areas, and an area that includes the specified point and multiple areas that have a high degree of association And a step of presenting a plurality of candidate areas to the user, and a step of selecting the candidate areas displayed according to the user's instruction.

本発明では、画像をあらかじめ領域分割を行っておき、ユーザーが画像中の任意の点を
指定した際に、その点を含む領域と、その領域に関連する領域を解析し、関連度合いによ
って複数の領域をユーザーに提示する。これにより、ユーザーが画像中の任意の点を指定
するだけで、複数の領域が自動的に提示される。これらのなかから所望の領域を選択すれ
ば、所望の領域を簡単に抽出することが可能となる。
In the present invention, when an image is divided into regions in advance and the user designates an arbitrary point in the image, the region including the point and the region related to the region are analyzed, and a plurality of points are determined depending on the degree of association. Present the area to the user. Thus, a plurality of areas are automatically presented only by the user specifying an arbitrary point in the image. If a desired area is selected from these, it is possible to easily extract the desired area.

他の発明は、前記関連度解析ステップにおいて、指定点との距離を指標として、距離が
近いものを関連度が高い領域とすることを特徴とする。これによれば、指定点との距離を
指標として関連度が求められるので、ユーザーが指定した領域と近い領域を選択して抽出
したいという希望を持っている場合に対応することができる。
Another aspect of the invention is characterized in that, in the relevance analysis step, a distance from a designated point is used as an index, and a region having a close distance is defined as a region having a high relevance. According to this, since the degree of association is obtained using the distance from the designated point as an index, it is possible to cope with a case where there is a desire to select and extract an area close to the area designated by the user.

他の発明は、前記関連度解析ステップにおいて、指定点を含む領域と隣接するものを関
連度が高い領域とすることを特徴とする。これによれば、ユーザーが指定した領域と隣接
した領域を選択して抽出したいという希望を持っている場合に対応することができる。
Another invention is characterized in that, in the relevance analysis step, a region adjacent to a region including a designated point is set as a region having a high relevance. According to this, it is possible to cope with a case where there is a desire to select and extract an area adjacent to the area designated by the user.

他の発明は、前記関連度解析ステップにおいて、指定点を含む領域を抱合しているもの
を関連度が高い領域とすることを特徴とする。これによれば、抱合関係(各領域の状態を
変化させずに結合している関係)にあれば、候補領域として提示されるので、ユーザーが
指定した領域と抱合している領域を選択して抽出したいという希望を持っている場合に対
応することができる。
Another invention is characterized in that, in the relevance analysis step, a region that includes a designated point is combined as a region having a high relevance. According to this, if there is a conjugation relationship (relationship that does not change the state of each region), it is presented as a candidate region, so select the region that is conjugated with the region specified by the user This can be done when there is a desire to extract.

他の発明は、前記関連度解析ステップにおいて、指定点を含む領域に対する形状又は色
の少なくとも一方に係る相似度を指標として、相似度が高いものを関連度が高い領域とす
ることを特徴とする。これによれば、ユーザーが指定した領域と形状や色の相似度が高い
領域を選択して抽出したいという希望を持っている場合に対応することができる。
Another invention is characterized in that, in the relevance analysis step, a region having a high degree of similarity is defined as a region having a high degree of relevance, using as an index the similarity of at least one of the shape and color of the region including the designated point. . According to this, it is possible to cope with a case where there is a desire to select and extract a region having a high degree of similarity in shape and color with the region designated by the user.

他の発明は、前記前記関連度解析ステップにおいて、特定の色や形状間の関連性をあら
かじめ記憶しておき、その関連性を指標として用いることを特徴とする。これによれば、
関連度を簡単な処理で求めることが可能になる。
Another invention is characterized in that, in the relevance analysis step, the relevance between specific colors and shapes is stored in advance, and the relevance is used as an index. According to this,
The degree of relevance can be obtained by simple processing.

他の発明は、前記関連度解析ステップにおいて、面積を指標として、比較的大きな面積
を持つものを関連度が低い領域とすることを特徴とする。これによれば、ユーザーが指定
した領域と比較的小さい領域とを選択して抽出したいという希望を持っている場合に対応
することができる。
Another invention is characterized in that, in the relevance analysis step, a region having a relatively large area is defined as a region having a low relevance, using the area as an index. According to this, it is possible to cope with a case where there is a desire to select and extract a region designated by the user and a relatively small region.

他の発明は、前記複数の領域候補を抽出するステップにおいて、所定の値以上の関連度
である領域を関連性の高い領域として、関連性の高い領域と指定点を含む領域の合成領域
を候補領域として抽出することを特徴とする。これによれば、指定領域と関連度がより高
い領域とをユーザーが容易に選択して抽出することができるようになる。
In another aspect of the present invention, in the step of extracting the plurality of region candidates, a region having a relevance level equal to or higher than a predetermined value is set as a highly related region, and a combined region of a highly related region and a region including a designated point is selected. It is characterized by extracting as a region. According to this, the user can easily select and extract the designated area and the area having a higher degree of association.

他の発明は、前記複数の領域候補を抽出するステップにおいて、複数の関連性のある領
域と指定点を含む領域の合成領域を候補領域として抽出することを特徴とする。これによ
れば、指定領域と関連度がより高い複数の領域とをユーザーが容易に選択して抽出するこ
とができるようになる。
Another invention is characterized in that, in the step of extracting the plurality of region candidates, a combined region of a plurality of related regions and a region including a designated point is extracted as a candidate region. According to this, the user can easily select and extract the designated region and a plurality of regions having a higher degree of association.

他の発明は、前記複数の領域候補を抽出するステップにおいて、候補領域Aが、別の候
補領域Bに所定の割合で含まれていて、候補領域Aと候補領域Bを合成した領域Cが、候
補領域Bに対して所定の割合の増加に収まる場合に、領域Cを候補領域とすることを特徴
とする。これによれば、候補領域の数を適切に減少させることができるので、ユーザーが
所望の領域を容易に選択して抽出することができるようになる。
In another aspect, in the step of extracting the plurality of region candidates, the candidate region A is included in another candidate region B at a predetermined ratio, and the region C obtained by combining the candidate region A and the candidate region B is: The region C is selected as a candidate region when it falls within a predetermined rate of increase with respect to the candidate region B. According to this, since the number of candidate areas can be reduced appropriately, the user can easily select and extract a desired area.

また、本発明の他の態様は、画像からユーザーが所望する領域を抽出する画像処理装置
であって、画像を領域分割する手段と、ユーザーの指示に応じて画像中の1点を指定する
手段と、指定点を含む領域と他の領域の関連度を解析する関連度解析手段と、指定点を含
む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する手段と、複数
の候補領域をユーザーに提示する手段と、ユーザーの指示に応じて表示した候補領域を選
択する手段とを備えていることを特徴とする。
According to another aspect of the present invention, there is provided an image processing apparatus for extracting an area desired by a user from an image, and means for dividing an image into areas, and means for designating one point in the image in accordance with a user instruction Relevance analysis means for analyzing the degree of association between the area including the designated point and another area, means for extracting a plurality of candidate areas by combining the area containing the designated point and a plurality of areas with high relevance, and a plurality of areas Means for presenting the candidate area to the user, and means for selecting the candidate area displayed according to the user's instruction.

また、本発明のさらに他の態様は、画像からユーザーが所望する領域を抽出する画像処
理プログラムであって、画像を領域分割するステップと、ユーザーの指示に応じて画像中
の1点を指定するステップと、指定点を含む領域と他の領域の関連度を解析する関連度解
析ステップと、指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領
域を抽出するステップと、複数の候補領域をユーザーに提示するステップと、
ユーザーの指示に応じて表示した候補領域を選択するステップとをコンピュータによっ
て実行するための記述を含んでいることを特徴とする。
According to still another aspect of the present invention, there is provided an image processing program for extracting a region desired by a user from an image, the step of dividing the image into regions, and designating one point in the image according to a user instruction. A step of analyzing the relevance between the region including the designated point and the other region, a step of extracting a plurality of candidate regions by combining the region including the designated point and a plurality of regions having a high degree of relevance; Presenting multiple candidate areas to the user;
And a step of selecting a candidate area displayed in accordance with a user instruction by a computer.

以下、図面を参照して本発明の画像処理装置の実施の形態について説明する。本実施の
形態は、携帯電話端末、デジタルカメラ、個人情報端末、パーソナルコンピュータ等の情
報機器において、それを構成するコンピュータおよびその周辺装置と、そのコンピュータ
で実行されるプログラムとによって実現される。本実施形態では、その情報機器が、少な
くとも液晶表示装置等の画像表示装置と、十字カーソル等の表示画像中の任意の点を指定
可能な操作子とを備えているものとする。本実施の形態は、そのような構成を用いて、ユ
ーザーが画像中の任意の点を指定した際に、その点を含む領域に関連する領域を解析し、
関連度合いによってその点を含む領域と関連性を有する複数の領域をユーザーに提示する
。そして、ユーザーが複数の領域のいずれかを選択することで、画像中の所望の領域を抽
出できるようになっている。抽出した画像は、所定の記憶媒体に記憶したり、電子メール
に添付して送信したり、あるいは所定の記憶装置に記憶して他の画像と合成したりするこ
とができるようになる。
Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings. The present embodiment is realized by an information device such as a mobile phone terminal, a digital camera, a personal information terminal, a personal computer, and the like, a computer constituting the computer and its peripheral devices, and a program executed by the computer. In the present embodiment, it is assumed that the information device includes at least an image display device such as a liquid crystal display device and an operator that can specify an arbitrary point in a display image such as a cross cursor. In this embodiment, when a user designates an arbitrary point in an image using such a configuration, an area related to the area including the point is analyzed,
A plurality of areas having relevance to the area including the point are presented to the user according to the degree of relevance. The user can extract a desired region in the image by selecting one of the plurality of regions. The extracted image can be stored in a predetermined storage medium, transmitted by being attached to an e-mail, or stored in a predetermined storage device and synthesized with another image.

図1を参照して本実施形態による画像処理の流れについて説明する。本実施の形態では
、ユーザーが処理対象となる画像を選択した際に、あらかじめ領域分割処理を行う(ステ
ップS11)。
The flow of image processing according to this embodiment will be described with reference to FIG. In this embodiment, when the user selects an image to be processed, an area division process is performed in advance (step S11).

領域分割処理は、簡単な例では、与えられた画像の色情報がRGB(Red(赤) Green
(緑) Blue(青))で表現されていることとする。これに対して、まず、このRGB色
情報をHSV(Hue(色相) Saturation(彩度) Value(明度))情報に変換する。H
(色相)は、環状に表現されその角度によって色相が分類できる。例えば24色に分類す
る場合は、15度ずつに分類する。これにより、与えられた画像を、24色の近似色領域
に分けて分類することができる。そして同一色に分類された連続する近似領域毎に分割領
域を形成する。
In a simple example, the area division processing is performed when the color information of a given image is RGB (Red) Green
(Green) Blue (blue)). In contrast, first, the RGB color information is converted into HSV (Hue (Hue) Saturation (saturation) Value (lightness)) information. H
(Hue) is expressed in a ring shape, and the hue can be classified according to the angle. For example, when the color is classified into 24 colors, the color is classified by 15 degrees. Thereby, a given image can be classified into 24 approximate color regions. A divided region is formed for each successive approximate region classified into the same color.

ここでは、HSV手法を用いたが、Lab(ラブ・カラー;色情報を数値化するカラー
モデル)など色相情報をもつ手法で行っても良い。また、24色といった色相を固定した
分類手法ではなく、k−means法のような分類手法を用いても良い。
Here, the HSV method is used, but a method having hue information such as Lab (love color; a color model for digitizing color information) may be used. Further, a classification method such as a k-means method may be used instead of a classification method in which hues such as 24 colors are fixed.

次に、分割した領域を、本実施形態を構成する情報機器の表示装置に表示し、操作子を
用いたユーザーの指示に応じて画像中の1点を指定する(ステップS12)。例えば図2
に示すように、画像1が複数の領域10〜18に分割されて表示され、ユーザーの指示に
応じて指定点20が指定される。
Next, the divided area is displayed on the display device of the information device constituting this embodiment, and one point in the image is designated in accordance with the user's instruction using the operation element (step S12). For example, FIG.
As shown in FIG. 5, the image 1 is divided into a plurality of areas 10 to 18 and displayed, and a designated point 20 is designated according to a user instruction.

なお、以下では、図2に示した各領域11〜18を、図3に示すように領域A〜領域H
として説明する。
In the following, each of the regions 11 to 18 shown in FIG. 2 is changed from region A to region H as shown in FIG.
Will be described.

次に、指定点20を含む領域10(以下、指定領域10)と、他の領域A〜H(領域1
1〜18)との関連度を解析する(ステップS13)。ステップS13の関連度の解析で
は、まず、各領域A〜Hの領域の色、形状等の各領域に関する情報を計算する。例えば、
図4に示すように、指定領域10と各領域A〜H間の距離と、各領域A〜Hの面積を求め
る。この例では、図5に示すように、各領域の距離と面積が求められたとする。ただし、
この場合、各領域の面積として、図4に示す、破線で示した領域の外接矩形面積を用いて
いる。また、各領域間の距離は、領域の重心同士の距離とし、重心は外接矩形の中心とし
ている。
Next, an area 10 including the designated point 20 (hereinafter, designated area 10) and other areas A to H (area 1).
1 to 18) are analyzed (step S13). In the relevance analysis in step S13, first, information about each region such as the color and shape of the regions A to H is calculated. For example,
As shown in FIG. 4, the distance between the designated area 10 and each of the areas A to H and the area of each of the areas A to H are obtained. In this example, it is assumed that the distance and area of each region are obtained as shown in FIG. However,
In this case, as the area of each region, the circumscribed rectangular area of the region shown by the broken line shown in FIG. 4 is used. The distance between the regions is the distance between the centroids of the regions, and the centroid is the center of the circumscribed rectangle.

次に関連度を求める対象とするかどうかを判定する。すなわち、関連度を求める対象と
して適当であるか否かを判定する。例えば、この判定では、図4に示すように、領域Hが
、画像1全体となるため(すなわち領域抽出したときの外形が画像1と一致するため)、
対象から外される。また、領域F、Gは、指定領域10の外接矩形10a内に収まるため
、対象から外される。
Next, it is determined whether or not the degree of relevance is to be obtained. That is, it is determined whether or not it is appropriate as a target for determining the degree of association. For example, in this determination, as shown in FIG. 4, the region H is the entire image 1 (that is, the outer shape when the region is extracted matches the image 1),
Removed from the subject. In addition, the areas F and G are excluded from the target because they fall within the circumscribed rectangle 10 a of the designated area 10.

次に、領域F〜Hを除いた各領域A〜Eにおいて、図6に示すように、指定領域10と
の相似性、隣接の有無といった関連性を表す指標が求められる。例えば、領域A〜Eと指
定領域10の距離を、それらの距離のうち最大のもので正規化した値を、距離に係る関連
性を表す指標としている。
Next, in each of the areas A to E excluding the areas F to H, as shown in FIG. For example, a value obtained by normalizing the distances between the areas A to E and the designated area 10 with the maximum distance among the distances is used as an index representing the relationship related to the distance.

面積に係る関連性を表す指標は、領域A〜Eの面積をそれらのうちで最大の面積によっ
て正規化した数値で表している。
The index representing the relationship related to the area is represented by a numerical value obtained by normalizing the areas of the regions A to E by the maximum area among them.

相似度(相似性に係る指標)は、例えば、色の近似性と外接矩形の形(アスペクト比)
を用いて表すことができる。この場合、例えば(相似性に係る指標)=(非相似度)=0
.5*(色の指標)+0.5*(形状の指標)、として相似性の指標を求めることができ
る。この相似性に係る指標は、値が大きいほど相似性が低いことを示す(すなわち非相似
度を表す)。
Similarity (an index related to similarity) is, for example, color approximation and circumscribed rectangle shape (aspect ratio)
Can be used. In this case, for example, (index for similarity) = (dissimilarity) = 0
. A similarity index can be obtained as 5 * (color index) + 0.5 * (shape index). The index related to the similarity indicates that the larger the value is, the lower the similarity is (that is, the degree of dissimilarity).

ここで、色の指標は、指定領域10の平均色と各領域の平均色の色距離を計算し、最大
値で正規化した値を用いる。 形状の指標は、アスペクト比を用いて計算する。すなわち
、指定領域10のアスペクト比が(x0:y0)で、ある領域のアスペクト比が(x1:
y1)の時、アスペクト比の差P
Here, as the color index, a color distance between the average color of the designated area 10 and the average color of each area is calculated, and a value normalized by the maximum value is used. The shape index is calculated using the aspect ratio. That is, the aspect ratio of the designated area 10 is (x0: y0), and the aspect ratio of a certain area is (x1:
When y1), the aspect ratio difference P

P=|(x0/y0)−(x1/y1)|   P = | (x0 / y0) − (x1 / y1) |

各領域において求め、Pの最大値で正規化した値を形状の指標として用いる。   A value obtained in each region and normalized by the maximum value of P is used as a shape index.

例えば、図3において、領域Dの色が、指定領域10と同一色であり、かつ、形状も等
しいとすると、色の指標は0、形状の指標も0となるので、相似性に係る指標の計算結果
(非相似度)は0となる。あるいは、例えば領域Aの色が、指定領域10とは異なるが、
形状(アスペクト比)が等しいとした場合、相似性に係る指標(非相似度)は、例えば、
0より大きく、0.5以下の値となる。
For example, in FIG. 3, if the color of the region D is the same color as the designated region 10 and the shape is the same, the color index is 0 and the shape index is 0. The calculation result (dissimilarity) is 0. Or, for example, the color of the area A is different from the designated area 10,
If the shape (aspect ratio) is equal, the similarity index (dissimilarity) is, for example,
The value is greater than 0 and less than or equal to 0.5.

隣接に係る指標は、指定領域10の境界と接する領域を0、それ以外の領域を1として
求めている。つまり、隣接に係る指標が小さいほど関連性が高くなる。
The index related to the adjacency is obtained with 0 as the area in contact with the boundary of the designated area 10 and 1 as the other area. That is, the smaller the index related to the adjacency, the higher the relevance.

図6に示す全ての指標を領域毎に加算することで、各領域の非関連度が求められる。図
6に示す例では、各指標が大きいほど関連性が低く、小さいほど高い。すなわち、各指標
を足したものは、値が大きいときに関連度が小さく、値が小さいときに関連度が大きくな
る。つまり、各指標の加算値が、非関連度を表す数値となる。
By adding all the indices shown in FIG. 6 for each area, the degree of unrelatedness of each area can be obtained. In the example shown in FIG. 6, the relevance is lower as each index is larger, and the relevance is higher as the index is smaller. That is, the sum of each index has a low relevance when the value is large, and a high relevance when the value is small. That is, the added value of each index is a numerical value that represents the degree of disassociation.

図6に示す例では、領域Aの非関連度の値が最も小さく、領域Cの非関連度の値が最も
大きくなっている。つまり、関連度の順位は、高いものから、領域A、B、D、E、Cと
なっている。
In the example shown in FIG. 6, the value of the degree of irrelevance in the area A is the smallest, and the value of the degree of irrelevance in the area C is the largest. That is, the ranking of the degree of association is from A to B in the areas A, B, D, E, and C.

次に、図1のステップS13で求めた関連度(あるいは非関連度)に基づいて、ユーザ
ーに提示する候補領域を選択する(ステップS14)。基本的には、非関連度が低い領域
と指定領域10を合成した領域が、候補領域として選択される。ただし、あらかじめ所定
のしきい値以上の非関連度となる領域は候補としないようにすることができる。そして、
選択された候補領域は、ユーザーに対して提示され(ステップS15)、ユーザーの指示
に応じてそれが選択される(ステップS16)。例えばユーザーがカーソルキーを動かす
ことで、異なる候補領域が順次選択されるようにして、所望の領域を選択した状態でユー
ザーがエンターキーを押すことで領域を選択できるようにする。
また別の方法として、数字キーなどによって直接、領域候補番号を選択できるようにし
ても良い。
Next, a candidate area to be presented to the user is selected based on the degree of association (or degree of unrelevance) obtained in step S13 of FIG. 1 (step S14). Basically, a region obtained by synthesizing the designated region 10 with a region having a low degree of unrelevance is selected as a candidate region. However, it is possible to prevent a region having an unrelated degree equal to or higher than a predetermined threshold from being a candidate. And
The selected candidate area is presented to the user (step S15), and is selected according to the user's instruction (step S16). For example, different candidate areas are sequentially selected by moving the cursor key by the user, and the user can select an area by pressing the enter key in a state where a desired area is selected.
As another method, the area candidate number may be directly selected by a numeric key or the like.

ステップS15では例えば候補領域を選択する際に、図6のように指標として0〜1の
値を持つ4つの指標を用いている場合、非関連度の最高値は4であるため、例えばその半
分の2をしきい値として選択を行う。しきい値を2とした場合、領域A、Bが選択される
。図7の例では、候補領域3までがユーザーに提示する対象となる。
In step S15, for example, when selecting a candidate area, if four indices having values of 0 to 1 are used as indices as shown in FIG. 2 is selected as a threshold value. When the threshold value is 2, regions A and B are selected. In the example of FIG. 7, up to the candidate area 3 is the target to be presented to the user.

図7において、破線で示す矩形の右上または左上端に四角で囲って示した番号が、候補
領域の順位番号(小さいほど関連性が高い番号)である。候補領域1は、指定領域10そ
のものである。候補領域2は、指定領域10と領域Aの合成領域の外接矩形で決まる領域
である。候補領域3は、指定領域10と領域Bの合成領域の外接矩形で決まる領域である
。なお、候補領域4が指定領域10と領域D、候補領域5が指定領域10と領域Eからそ
れぞれ形成される領域である。
In FIG. 7, the number indicated by a rectangle at the upper right or upper left corner of the rectangle indicated by the broken line is the rank number of the candidate area (the smaller the number, the higher the relevance). Candidate area 1 is designated area 10 itself. The candidate area 2 is an area determined by a circumscribed rectangle of the combination area of the designated area 10 and the area A. Candidate area 3 is an area determined by a circumscribed rectangle of the combined area of designated area 10 and area B. The candidate area 4 is an area formed from the designated area 10 and the area D, and the candidate area 5 is an area formed from the designated area 10 and the area E, respectively.

また、候補領域を提示する数に上限を決めておく方法も有効である。あらかじめ、ユー
ザーが表示させる最大候補数を設定しておく。例えば、ユーザーが5つを設定した場合、
指定領域10を第1の候補領域とするため、残り4つの領域A、B、D、Eが選択される
。この場合の、候補領域は、図7のようになる。しきい値で決定する例に代えて、最大候
補数を決めてこのようにユーザーに提示することも可能である。
It is also effective to determine an upper limit for the number of candidate areas to be presented. The maximum number of candidates displayed by the user is set in advance. For example, if the user sets five,
In order to make the designated area 10 the first candidate area, the remaining four areas A, B, D, and E are selected. The candidate area in this case is as shown in FIG. Instead of the example of determining by the threshold value, the maximum number of candidates can be determined and presented to the user in this way.

さらに、抽出した候補領域に対して、重複する領域が大きい領域を検出し、候補領域と
して合成することで、候補領域の数を削減したり、あるいは、新たな候補領域を追加する
ようにしてもよい。
Furthermore, the number of candidate areas can be reduced or a new candidate area can be added by detecting an area having a large overlapping area with respect to the extracted candidate areas and combining them as candidate areas. Good.

図7の場合に、候補領域2の面積をS2、候補領域3の面積をS3としたとき、それら
の重複領域が、面積S2の所定の割合(例:0.8)以上であるときで、候補領域2と候
補領域3を合成した領域が、面積S3の所定の割合(例:1.2)に収まるとき、候補領
域2と候補領域3を合成した候補領域(図8の候補領域2)を生成する。候補領域1は指
定点20の領域である。この指定領域10は、候補領域2に対して重複しているが、指定
点の領域10は合成しない。この場合の最終的な候補領域は、図8のようになる。図8で
は、図7の候補領域2と候補領域3を合成し、図7の候補領域4と候補領域5の候補番号
を1ずつ繰り上げている。
In the case of FIG. 7, when the area of the candidate area 2 is S2 and the area of the candidate area 3 is S3, the overlapping area is equal to or greater than a predetermined ratio (eg, 0.8) of the area S2. When the region obtained by combining candidate region 2 and candidate region 3 falls within a predetermined ratio (eg, 1.2) of area S3, the candidate region obtained by combining candidate region 2 and candidate region 3 (candidate region 2 in FIG. 8) Is generated. Candidate area 1 is an area of designated point 20. This designated area 10 overlaps with the candidate area 2, but the designated point area 10 is not synthesized. The final candidate area in this case is as shown in FIG. In FIG. 8, candidate area 2 and candidate area 3 of FIG. 7 are combined, and the candidate numbers of candidate area 4 and candidate area 5 of FIG.

さらに、3つ以上の領域の組み合わせにおいても、候補領域を面積比によって統廃合を
行うこともできる(図9参照)。図9では、指定点の領域10と図7の候補領域1、2、
4、5が含まれた候補5が追加されているとともに、候補領域3が、領域1と領域2を併
合した候補に変更されている。
Furthermore, even in a combination of three or more regions, candidate regions can be integrated or abandoned by area ratio (see FIG. 9). In FIG. 9, the designated point area 10 and the candidate areas 1 and 2 in FIG.
The candidate 5 including 4 and 5 is added, and the candidate area 3 is changed to a candidate obtained by merging the area 1 and the area 2.

なお、上記の構成では、関連度を、図6に示す距離、面積、非相似度、および隣接の各
指標から求めることとしたが、色や形状のみを指標とすることも可能である。
In the above configuration, the degree of association is obtained from the distance, area, dissimilarity, and adjacent indices shown in FIG. 6, but only the color and shape can be used as indices.

また相似性を表す指標として、相関関数を用いても良い。基準点は、左下などとなり、
相関度の高いものを0、最も相関度が低いものを1として計算を行う。相関関数を用いた
相似度の計算方法は例えば、次のように行う。
Further, a correlation function may be used as an index representing similarity. The reference point is the lower left, etc.
The calculation is performed with 0 having the highest degree of correlation and 1 having the lowest degree of correlation. For example, the similarity calculation method using the correlation function is performed as follows.

(1)指定領域の重心(外接矩形中心)点と、その領域境界線上の各点の距離をサンプリ
ングする。サンプリング開始点は、例えば、最も左上にある境界画素点とする。
(1) The distance between the center of gravity (center of the circumscribed rectangle) of the designated area and each point on the area boundary line is sampled. The sampling start point is, for example, the uppermost boundary pixel point.

(2)領域分割した各領域についても、同様に重心と境界線上の点の距離をサンプリング
する。
(2) For each divided area, the distance between the center of gravity and the point on the boundary line is similarly sampled.

(3)指定領域のサンプル数に、各領域のサンプル数を合わせる。指定領域のサンプル数
をMx、比較領域のサンプル数をMy、サンプル番号 Nのサンプル値のうち、変更前サ
ンプル値をY1(N)、変更後サンプル値をY2(N)、倍率s=Mx/My、d=N
/s、n=整数部(d),k=小数部(d)とすると、変更後サンプル値をY2(N)は
、以下の式で求められる。
(3) The number of samples in each area is matched with the number of samples in the specified area. The number of samples in the designated area is Mx, the number of samples in the comparison area is My, and among the sample values of sample number N, the sample value before change is Y1 (N), the sample value after change is Y2 (N), and the magnification s = Mx / My, d = N
Assuming that / s, n = integer part (d), and k = decimal part (d), Y2 (N) is the sample value after the change, obtained by the following equation.

Figure 2005293367
Figure 2005293367

例えば、サンプル値計算例は次のようになる。ここでは、M1=200,M2=150
として、比較領域のN(=10)番目の値を求める。
For example, a sample value calculation example is as follows. Here, M1 = 200, M2 = 150
As a result, an Nth (= 10) th value of the comparison area is obtained.

Figure 2005293367
Figure 2005293367

(4)相関関数にて相関係数を求める
平均と分散:
(4) Find correlation coefficient with correlation function Average and variance:

Figure 2005293367
Figure 2005293367

相関係数:

Figure 2005293367
Correlation coefficient:
Figure 2005293367

(5)非相似度を次式で求める。 (5) The dissimilarity is obtained by the following equation.

Figure 2005293367
Figure 2005293367

以上のように、本実施の形態によれば、画像中の特定の画素(点)を指定する操作とし
ては、ユーザーが画像中の任意の点を指定するだけで、所望の領域を選択することが可能
となる。これにより、ユーザーは所望の領域を簡単に拡大して印刷することや、画像編集
することが可能となる。
As described above, according to the present embodiment, as an operation for specifying a specific pixel (point) in an image, the user simply selects an arbitrary point in the image and selects a desired region. Is possible. As a result, the user can easily enlarge and print a desired area or edit an image.

なお、本発明の実施の形態は、上記のものに限定されず、各処理過程を統合したり、分
散したり、各処理過程を実行するためのハードウェアを統合、分割あるいは分散したりす
ることができる。また、本発明の実施の形態を構成するプログラムは、コンピュータ読み
取り可能な記録媒体または通信回線を介して頒布することができる。
The embodiment of the present invention is not limited to the above-described one, and the processing steps are integrated or distributed, and the hardware for executing the processing steps is integrated, divided, or distributed. Can do. Moreover, the program which comprises embodiment of this invention can be distributed via a computer-readable recording medium or a communication line.

なお、関連度の計算処理(図1のステップS13〜S14)においては、次の(1)〜
(6)ような構成を用いることができる。(1)指定点を含む領域を抱合しているものを
関連度が高い領域とする。(2)指定点を含む領域に対する形状または色の少なくとも一
方に係る相似度を指標として、相似度が高いものを関連度が高い領域とする。(3)特定
の色や形状間の関連性をあらかじめ記憶しておき、その関連性を指標として用いる。(4
)面積を指標として、比較的大きな面積を持つものを関連度が低い領域とする。(5)所
定の値以上の関連度である領域を関連性の高い領域として、関連性の高い領域と指定点を
含む領域の合成領域を候補領域として抽出する。(6)複数の関連性のある領域と指定点
を含む領域の合成領域を候補領域として抽出する。
In the relevance calculation process (steps S13 to S14 in FIG. 1), the following (1) to
(6) A configuration as described above can be used. (1) A region that includes an area including a designated point is regarded as a highly related area. (2) Using a similarity degree related to at least one of a shape and a color with respect to an area including a designated point as an index, an area having a high similarity degree is set as an area having a high degree of association. (3) The relationship between specific colors and shapes is stored in advance, and the relationship is used as an index. (4
) Using an area as an index, a region having a relatively large area is defined as a region having a low degree of association. (5) A region having a relevance level equal to or higher than a predetermined value is set as a highly related region, and a combined region of a highly related region and a region including a designated point is extracted as a candidate region. (6) A composite region of a plurality of related regions and a region including a designated point is extracted as a candidate region.

本発明の実施の形態の処理の流れを示すフローチャート。The flowchart which shows the flow of a process of embodiment of this invention. 図1の流れを説明するための画像1の例を示す図。The figure which shows the example of the image 1 for demonstrating the flow of FIG. 図1の流れを説明するための画像1の例を示す図。The figure which shows the example of the image 1 for demonstrating the flow of FIG. 図1のステップS13の計算処理を説明するための画像1の表示例を示す図。The figure which shows the example of a display of the image 1 for demonstrating the calculation process of FIG.1 S13. 図1のステップS13の計算内容の一例を説明するための図表。The chart for demonstrating an example of the calculation content of step S13 of FIG. 図1のステップS13の関連度(非関連度)計算例を説明するための図表。The chart for demonstrating the example of a relevance (non-relevance) calculation of step S13 of FIG. 図1のステップS14の処理を説明するための画像1の表示例を示す図。The figure which shows the example of a display of the image 1 for demonstrating the process of step S14 of FIG. 図1のステップS14の処理を説明するための画像1の表示例を示す図。The figure which shows the example of a display of the image 1 for demonstrating the process of step S14 of FIG. 図1のステップS14の処理を説明するための画像1の表示例を示す図。The figure which shows the example of a display of the image 1 for demonstrating the process of step S14 of FIG.

符号の説明Explanation of symbols

1 画像、10 指定領域、20 指定点 1 image, 10 specified area, 20 specified points

Claims (12)

画像からユーザーが所望する領域を抽出する画像処理方法であって、
画像を領域分割するステップと、
ユーザーの指示に応じて画像中の1点を指定するステップと、
指定点を含む領域と他の領域の関連度を解析する関連度解析ステップと、
指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する
ステップと、
複数の候補領域をユーザーに提示するステップと、
ユーザーの指示に応じて表示した候補領域を選択するステップと
を含んでいることを特徴とする画像処理方法。
An image processing method for extracting an area desired by a user from an image,
Dividing the image into regions,
Designating a point in the image according to a user instruction;
A relevance analysis step for analyzing the relevance between the region including the specified point and another region;
Extracting a plurality of candidate regions by combining a region including the designated point and a plurality of highly relevant regions;
Presenting multiple candidate areas to the user;
And a step of selecting a candidate area displayed in response to a user instruction.
前記関連度解析ステップにおいて、指定点との距離を指標として、距離が近いものを関
連度が高い領域とすることを特徴とする請求項1記載の画像処理方法。
The image processing method according to claim 1, wherein, in the relevance analysis step, an area having a high relevance is defined as an area having a close distance with a distance from the designated point as an index.
前記関連度解析ステップにおいて、指定点を含む領域と隣接するものを関連度が高い領
域とすることを特徴とする請求項1記載の画像処理方法。
2. The image processing method according to claim 1, wherein in the relevance analysis step, an area adjacent to the area including the designated point is set as a high relevance area.
前記関連度解析ステップにおいて、指定点を含む領域を抱合しているものを関連度が高
い領域とすることを特徴とする請求項1記載の画像処理方法。
The image processing method according to claim 1, wherein in the relevance analysis step, an area that includes an area including a designated point is set as a high relevance area.
前記関連度解析ステップにおいて、指定点を含む領域に対する形状又は色の少なくとも
一方に係る相似度を指標として、相似度が高いものを関連度が高い領域とすることを特徴
とする請求項1記載の画像処理方法。
2. The relevance analysis step according to claim 1, wherein the similarity is a region having a high degree of relevance, using as an index the similarity of at least one of the shape and color of the region including the designated point. Image processing method.
前記前記関連度解析ステップにおいて、特定の色や形状間の関連性をあらかじめ記憶し
ておき、その関連性を指標として用いることを特徴とする請求項5記載の画像処理方法。
6. The image processing method according to claim 5, wherein in the relevance analysis step, relevance between specific colors and shapes is stored in advance, and the relevance is used as an index.
前記関連度解析ステップにおいて、面積を指標として、比較的大きな面積を持つものを
関連度が低い領域とすることを特徴とする請求項1〜6のいずれか1項に記載の画像処理
方法。
7. The image processing method according to claim 1, wherein in the relevance analysis step, an area having a relatively large area is used as an index, and an area having a low relevance is used as an index.
前記複数の領域候補を抽出するステップにおいて、所定の値以上の関連度である領域を
関連性の高い領域として、関連性の高い領域と指定点を含む領域の合成領域を候補領域と
して抽出することを特徴とする請求項1〜7のいずれか1項に記載の画像処理方法。
In the step of extracting the plurality of region candidates, a region having a relevance level equal to or higher than a predetermined value is extracted as a highly related region, and a combined region of the highly related region and the region including the designated point is extracted as a candidate region. The image processing method according to claim 1, wherein:
前記複数の領域候補を抽出するステップにおいて、複数の関連性のある領域と指定点を
含む領域の合成領域を候補領域として抽出することを特徴とする請求項8記載の画像処理
方法。
9. The image processing method according to claim 8, wherein, in the step of extracting the plurality of region candidates, a combined region of a plurality of related regions and a region including a designated point is extracted as a candidate region.
前記複数の領域候補を抽出するステップにおいて、候補領域Aが、別の候補領域Bに所
定の割合で含まれていて、候補領域Aと候補領域Bを合成した領域Cが、候補領域Bに対
して所定の割合の増加に収まる場合に、領域Cを候補領域とすることを特徴とする請求項
1〜9のいずれか1項に記載の画像処理方法。
In the step of extracting the plurality of region candidates, the candidate region A is included in another candidate region B at a predetermined ratio, and the region C obtained by combining the candidate region A and the candidate region B is compared with the candidate region B. 10. The image processing method according to claim 1, wherein the area C is a candidate area when the increase falls within a predetermined ratio.
画像からユーザーが所望する領域を抽出する画像処理装置であって、
画像を領域分割する手段と、
ユーザーの指示に応じて画像中の1点を指定する手段と、
指定点を含む領域と他の領域の関連度を解析する関連度解析手段と、
指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する
手段と、
複数の候補領域をユーザーに提示する手段と、
ユーザーの指示に応じて表示した候補領域を選択する手段と
を備えていることを特徴とする画像処理装置。
An image processing apparatus that extracts an area desired by a user from an image,
Means for segmenting the image;
Means for designating one point in the image in response to a user instruction;
Relevance analysis means for analyzing the relevance of the region including the specified point and other regions;
Means for extracting a plurality of candidate regions by combining a region including the designated point and a plurality of highly relevant regions;
Means for presenting multiple candidate areas to the user;
An image processing apparatus comprising: means for selecting a candidate area displayed in accordance with a user instruction.
画像からユーザーが所望する領域を抽出する画像処理プログラムであって、
画像を領域分割するステップと、
ユーザーの指示に応じて画像中の1点を指定するステップと、
指定点を含む領域と他の領域の関連度を解析する関連度解析ステップと、
指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する
ステップと、
複数の候補領域をユーザーに提示するステップと、
ユーザーの指示に応じて表示した候補領域を選択するステップと
をコンピュータによって実行するための記述を含んでいることを特徴とする画像処理プ
ログラム。
An image processing program for extracting an area desired by a user from an image,
Dividing the image into regions,
Designating a point in the image according to a user instruction;
A relevance analysis step for analyzing the relevance between the region including the specified point and another region;
Extracting a plurality of candidate regions by combining a region including the designated point and a plurality of highly relevant regions;
Presenting multiple candidate areas to the user;
An image processing program comprising: a step of selecting a candidate area displayed in accordance with a user instruction by a computer.
JP2004109230A 2004-04-01 2004-04-01 Image processing method and device Withdrawn JP2005293367A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004109230A JP2005293367A (en) 2004-04-01 2004-04-01 Image processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004109230A JP2005293367A (en) 2004-04-01 2004-04-01 Image processing method and device

Publications (1)

Publication Number Publication Date
JP2005293367A true JP2005293367A (en) 2005-10-20

Family

ID=35326206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004109230A Withdrawn JP2005293367A (en) 2004-04-01 2004-04-01 Image processing method and device

Country Status (1)

Country Link
JP (1) JP2005293367A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011509451A (en) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Segmentation of image data
JP2012049628A (en) * 2010-08-24 2012-03-08 Nikon Corp Image processing apparatus, imaging apparatus and image processing program
JP2013048405A (en) * 2011-07-22 2013-03-07 Nikon Corp Area extraction device, imaging device, and area extraction program
JPWO2011061905A1 (en) * 2009-11-20 2013-04-04 日本電気株式会社 Object region extraction device, object region extraction method, and program
WO2013088665A1 (en) * 2011-12-16 2013-06-20 パナソニック株式会社 Image region extraction device, image region extraction method, and image region extraction program
WO2015041177A1 (en) * 2013-09-18 2015-03-26 株式会社ニコン Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device
JP2019091352A (en) * 2017-11-16 2019-06-13 株式会社Preferred Networks Object detection device, object detection method and program
JP2021047841A (en) * 2019-09-19 2021-03-25 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and device for labeling point of interest, computer device, and storage medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011509451A (en) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Segmentation of image data
US8515172B2 (en) 2007-12-20 2013-08-20 Koninklijke Philips N.V. Segmentation of image data
JPWO2011061905A1 (en) * 2009-11-20 2013-04-04 日本電気株式会社 Object region extraction device, object region extraction method, and program
JP2012049628A (en) * 2010-08-24 2012-03-08 Nikon Corp Image processing apparatus, imaging apparatus and image processing program
JP2013048405A (en) * 2011-07-22 2013-03-07 Nikon Corp Area extraction device, imaging device, and area extraction program
WO2013088665A1 (en) * 2011-12-16 2013-06-20 パナソニック株式会社 Image region extraction device, image region extraction method, and image region extraction program
JP2013125529A (en) * 2011-12-16 2013-06-24 Panasonic Corp Image region extraction device, image region extraction method, and image region extraction program
US9292929B2 (en) 2011-12-16 2016-03-22 Panasonic Intellectual Property Corporation Of America Image region extraction device, image region extraction method, and image region extraction program
WO2015041177A1 (en) * 2013-09-18 2015-03-26 株式会社ニコン Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device
JPWO2015041177A1 (en) * 2013-09-18 2017-03-02 株式会社ニコン Image analysis apparatus, image analysis method, image analysis program, cell manufacturing method, cell culture method, and cell manufacturing apparatus
US10163218B2 (en) 2013-09-18 2018-12-25 Nikon Corporation Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device
JP2019091352A (en) * 2017-11-16 2019-06-13 株式会社Preferred Networks Object detection device, object detection method and program
JP7118622B2 (en) 2017-11-16 2022-08-16 株式会社Preferred Networks OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND PROGRAM
JP2021047841A (en) * 2019-09-19 2021-03-25 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and device for labeling point of interest, computer device, and storage medium
US11403766B2 (en) 2019-09-19 2022-08-02 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and device for labeling point of interest

Similar Documents

Publication Publication Date Title
US8094935B2 (en) Representative color extracting method and apparatus based on human color sense and data histogram distributions
JP6089886B2 (en) Region dividing method and inspection apparatus
JP2008521133A (en) Distribution-based event clustering
JP5062819B2 (en) Image processing apparatus, image processing method, program, and recording medium
AU2018202767B2 (en) Data structure and algorithm for tag less search and svg retrieval
JP2005202469A (en) Image processor, image processing method and program
US20080219563A1 (en) Configuration of a plurality of images for multi-dimensional display
JP2007226536A (en) Image search device, image search method, and program for searching image
JP5294818B2 (en) Information processing apparatus and information processing method
US10331953B2 (en) Image processing apparatus
JP2005524362A (en) Image guidance model based point and click interface for wireless handheld devices
US7869633B2 (en) Person image retrieval apparatus
JP2005293367A (en) Image processing method and device
CN109408652B (en) Picture searching method, device and equipment
JP2004021430A (en) Image searching device, image searching method, and image searching program
JP2006013722A (en) Unit and method for processing image
JP2000123173A (en) Image characteristic extracting method, similar image retrieval system and recording medium
US11283945B2 (en) Image processing apparatus, image processing method, program, and recording medium
US20170032218A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2007241370A (en) Portable device and imaging device
JP2007011762A (en) Area extraction apparatus and area extraction method
US20170206580A1 (en) Merchandise retrieval device and merchandise retrieval method
JP2002208013A (en) Device for extracting image area and method for the same
KR101063139B1 (en) Content-based image retrieval method and apparatus robust to size change, rotation, and cutting
JP2008159049A (en) Image recording system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070403

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20070731