JP2001236508A - Device and method for calculating remarkability - Google Patents

Device and method for calculating remarkability

Info

Publication number
JP2001236508A
JP2001236508A JP2000045684A JP2000045684A JP2001236508A JP 2001236508 A JP2001236508 A JP 2001236508A JP 2000045684 A JP2000045684 A JP 2000045684A JP 2000045684 A JP2000045684 A JP 2000045684A JP 2001236508 A JP2001236508 A JP 2001236508A
Authority
JP
Japan
Prior art keywords
saliency
feature
image data
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000045684A
Other languages
Japanese (ja)
Other versions
JP3848514B2 (en
Inventor
Takashi Torio
隆 鳥生
Toshio Endo
利生 遠藤
Makoto Goto
誠 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2000045684A priority Critical patent/JP3848514B2/en
Publication of JP2001236508A publication Critical patent/JP2001236508A/en
Application granted granted Critical
Publication of JP3848514B2 publication Critical patent/JP3848514B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device and a method for calculating remarkableness, which can calculate the remarkableness of an image component while considering the degree of human experience or memory when calculating remarkableness. SOLUTION: This is a remarkableness calculating method for inputting first image data to become the object of remarkableness calculation, extracting the features of respective parts in the first image data, quantifying the remarkableness on the basis of the extracted features of respective parts and displaying outputting the calculated remarkableness, a plurality of second image data to become learning objects are inputted, the kinds of features are previously learnt and determined on the basis of a plurality of second image data and the features of respective parts are extracted on the basis of the determined kinds of features and the first image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、表示されている画
像内における各部分の重要性を測る尺度として画像各部
の顕著性を算出する装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for calculating the saliency of each part of an image as a scale for measuring the importance of each part in a displayed image.

【0002】[0002]

【従来の技術】人が画像を観察する場合には、特に意識
することなく画像内の特定の部分に着目することが多
い。これは、その部分が他の部分とは異なる特徴を有す
る場合に多く見られる。このように、人が画像を観察し
たときに人の目の注意が向きやすい程度を表す評価尺度
を「顕著性」と呼んでいる。
2. Description of the Related Art When observing an image, a person often pays attention to a specific portion in the image without being particularly conscious. This is often the case when the part has different characteristics than the other parts. In this way, an evaluation scale indicating the degree to which a person's eyes are more likely to pay attention when observing an image is referred to as “prominence”.

【0003】例えば、図1に示すような画像を観察した
場合には、人の目の注意は、1本だけ傾いている線に向
けられることから、この部分が他の部分に比べて顕著性
が高いものと考えられる。
For example, when observing an image as shown in FIG. 1, attention of a human eye is directed to a line inclined only by one, so that this part is more prominent than other parts. Is considered high.

【0004】かかる顕著性を定量化して算出する方法と
しては、種々の方法が考えられている。例えば、イッテ
ィ氏(L.Itti)らによる「高速画像解析のための視覚顕
著性モデル("A model of Silency-based Visual Atten
tion for Rapid Scene Analysis",IEEE Transactions o
n Pattern Analysis and Machine Intelligence 1998;2
0(11):1254-1259.)」においては、画像各部の明るさや
色、線方向等の局所的な変動量を各部の特徴として算出
して、それらの重み付け平均値を求めることで顕著性と
定義している。例えば図1のような場合には、1本だけ
傾いている線の部分で線方向の変動量が大きく評価され
ることになる。同様の方法が、ウォルフ氏(J.M.Wolf
e)による「視覚による検索の修正モデル("Guided sea
rch 2.0:arevised model of visual search",Psychonom
ic Bulletin Review, vol.1, pp.202 -238,1994.)」に
も開示されている。
Various methods have been considered as methods for quantifying and calculating such saliency. See, for example, "A model of Silency-based Visual Atten," by L. Itti et al.
tion for Rapid Scene Analysis ", IEEE Transactions o
n Pattern Analysis and Machine Intelligence 1998; 2
0 (11): 1254-1259.)), The local variation of brightness, color, line direction, etc. of each part of the image is calculated as a feature of each part, and the weighted average value is calculated to obtain the saliency. Is defined. For example, in the case of FIG. 1, the amount of variation in the line direction is largely evaluated at a portion of a line inclined only by one line. A similar approach was taken by Wolff (JMWolf)
e) "A modified model of visual search (" Guided sea
rch 2.0: arevised model of visual search ", Psychonom
ic Bulletin Review, vol.1, pp.202-238, 1994.) ”.

【0005】図2は、このような従来の顕著性算出方法
における処理の流れ図である。まず顕著性算出対象とな
る画像を入力し(ステップS21)、画像各部において
線方向の変動量(周囲の線方向との差)等を各部の特徴
として算出する(ステップS22)。そして、それらの
特徴に基づいて顕著性を算出して(ステップS23)、
顕著性マップ等を用いて出力表示する(ステップS2
4)。ここで「顕著性マップ」とは、定量化された画像
の顕著性を、顕著性算出の対象となった画像と同一の座
標上で色の濃淡等を用いて表示したものの総称を意味す
る。
FIG. 2 is a flow chart of a process in such a conventional saliency calculation method. First, an image as a saliency calculation target is input (step S21), and a variation in a line direction (a difference from a surrounding line direction) or the like is calculated as a feature of each unit in each unit of the image (step S22). Then, saliency is calculated based on those features (step S23),
Output and display using a saliency map or the like (step S2)
4). Here, the “saliency map” refers to a general term for the saliency of a quantified image displayed on the same coordinates as the image for which the saliency is calculated using the shades of color.

【0006】[0006]

【発明が解決しようとする課題】しかし、上述した顕著
性の算出方法では、画像から抽出するべき特徴の種類が
固定されており、どの特徴でもって顕著性を評価すれば
最も的確に顕著性を判断することができるのかは問わな
いという問題点があった。
However, in the above-described method of calculating saliency, the type of feature to be extracted from an image is fixed, and the saliency is most accurately determined by evaluating the saliency with any feature. There is a problem that it does not matter whether it can be judged.

【0007】すなわち、あらかじめ指定した一又は二以
上の特徴の種類に基づいて顕著性を算出するため、仮に
顕著性抽出対象となる画像に明らかに周囲と異なってい
る部分が有ったとしても、指定されている特徴の種類と
相異していれば顕著性が高いものとは判断されないとい
う不都合が生じてしまうからである。
That is, since saliency is calculated based on one or more types of features specified in advance, even if an image from which saliency is to be extracted has a part clearly different from the surroundings, This is because if it is different from the type of the specified feature, a problem occurs that it is not determined that the feature is high.

【0008】また、上述した算出方法では、人間の経験
や記憶といった要素を考慮に入れて顕著性を算出するこ
とができないという問題点もあった。
In addition, the above-described calculation method has a problem that saliency cannot be calculated in consideration of factors such as human experience and memory.

【0009】例えば、図3(a)においては、普段から
見慣れている文字である‘5’の中に1つだけ‘2’が
あることを容易に見つけることができる。すなわち、文
字‘2’については顕著性が高いものと判断することが
容易である。
For example, in FIG. 3 (a), it can be easily found that there is only one "2" in the character "5" which is commonly used. That is, it is easy to determine that the character “2” has high saliency.

【0010】それに対し、図3(b)は、図3(a)と
同じ画像を90度回転させただけの画像であるにもかか
わらず、図3(a)と同じ文字‘2’を見つけることが
図3(a)の場合と比べて困難となっている。すなわ
ち、画像自体を90度回転させたことによって、‘5’
や‘2’といった文字が普段から目にすることのない図
形となってしまったことが原因と考えられ、顕著性の判
断には人間の経験や記憶が大きく作用しているものと考
えられる。
On the other hand, FIG. 3 (b) finds the same character "2" as in FIG. 3 (a), although it is an image obtained by rotating the same image as in FIG. 3 (a) by 90 degrees. This is more difficult than in the case of FIG. That is, by rotating the image itself by 90 degrees, '5'
It is considered that the reason is that characters such as and '2' have become figures that are not usually seen, and it is considered that human experience and memory greatly influence the judgment of saliency.

【0011】また、図4(a)においては、普段から見
慣れている文字である‘N’の中から‘N’の反転文字
を見つけることは容易である。一方、図4(a)全体を
左右反転した図4(b)においては、普段見かけない
‘N’の反転文字の中から普段見慣れている文字である
‘N’を見つけることは、図4(a)の場合と比べて困
難となっている。したがって、この例においても、顕著
性の判断には人間の経験や記憶が大きく作用しているも
のと考えられる。
In FIG. 4A, it is easy to find an inverted character of "N" from "N" which is a character which is commonly used. On the other hand, in FIG. 4B in which the entirety of FIG. 4A is inverted left and right, finding a character “N” that is usually familiar from the inverted characters of “N” that is not usually seen is not performed in FIG. This is more difficult than the case of a). Therefore, also in this example, it is considered that human experience and memory greatly influence the determination of saliency.

【0012】本発明は、上記問題点を解消するべく、画
像成分の顕著性を算出する場合に、人間の経験や記憶の
度合を考慮して算出することのできる顕著性算出装置及
び方法を提供することを目的とする。
The present invention provides an apparatus and method for calculating saliency, which can be calculated in consideration of human experience and the degree of memory when calculating the saliency of an image component in order to solve the above problems. The purpose is to do.

【0013】[0013]

【課題を解決するための手段】上記目的を達成するため
に本発明にかかる顕著性算出装置は、顕著性算出の対象
となる第1の画像データを入力する画像入力部と、第1
の画像データの各部の特徴を抽出する特徴抽出部と、抽
出された各部の特徴に基づいて顕著性を定量化する顕著
性算出部と、算出された顕著性を表示出力する出力表示
部とを含む顕著性算出装置であって、学習対象となる第
2の画像データを複数入力する学習画像群入力部と、複
数の第2の画像データに基づいて特徴の種類を事前に学
習し、決定しておく特徴種類決定部とをさらに含み、特
徴種類決定部で決定された特徴の種類を特徴抽出部に入
力し、特徴抽出部で特徴の種類と第1の画像データに基
づいて各部の特徴を抽出することを特徴とする。
In order to achieve the above object, a saliency calculating apparatus according to the present invention comprises: an image input unit for inputting first image data to be calculated;
A feature extraction unit that extracts features of each part of the image data, a saliency calculation unit that quantifies saliency based on the extracted features of each part, and an output display unit that displays and outputs the calculated saliency. A learning image group input unit for inputting a plurality of second image data to be learned, and learning and determining a feature type in advance based on the plurality of second image data. And a feature type determining unit that inputs the type of the feature determined by the feature type determining unit to the feature extracting unit. The feature extracting unit determines a feature of each unit based on the feature type and the first image data. It is characterized by extracting.

【0014】かかる構成により、学習画像によって抽出
すべき特徴の種類を変動させることができ、画像データ
に見合った特徴の種類に基づいて顕著性を判断すること
ができる。したがって、かかる学習効果を人間の経験や
記憶の度合と擬制することにより、より人の感覚に近似
した顕著性の判断が可能となる。
With this configuration, the type of feature to be extracted from the learning image can be changed, and the saliency can be determined based on the type of feature that matches the image data. Therefore, by emulating such a learning effect with the degree of human experience and memory, it is possible to determine the saliency more similar to the human sense.

【0015】また、本発明にかかる顕著性算出装置は、
出力表示部で出力された顕著性に基づいて、第1の画像
データの中から顕著性の高い領域である第3の画像デー
タを抽出する領域抽出部をさらに含み、学習画像群入力
部の代わりに、領域抽出部によって抽出された第3の画
像データを入力する抽出領域再入力部を含み、特徴種類
決定部において第3の画像データに基づいて特徴の種類
を学習し、特徴抽出部で抽出すべき特徴の種類を再決定
することが好ましい。顕著性を判断した画像に基づい
て、新たな特徴の種類を設定することができることか
ら、繰り返し顕著性を算出することにより人の感覚に近
似した顕著性の判断が可能となるからである。
Further, the saliency calculating device according to the present invention comprises:
The image processing apparatus further includes an area extracting unit that extracts third image data, which is an area with high saliency, from the first image data based on the saliency output from the output display unit. Further includes an extraction region re-input unit for inputting the third image data extracted by the region extraction unit, wherein the feature type determination unit learns the type of the feature based on the third image data, and the feature extraction unit extracts Preferably, the type of feature to be re-determined is determined. This is because a new type of feature can be set based on an image for which saliency has been determined, and thus, by repeatedly calculating saliency, it is possible to determine saliency similar to a human sense.

【0016】また、本発明にかかる顕著性算出装置は、
特徴種類決定部においてKL変換を用いることが好まし
い。さらに、本発明にかかる顕著性算出装置は、顕著性
算出部においてKL変換を用いることが好ましい。限ら
れた個数の特徴によって画像データをより忠実に表現す
るための一つの方法だからである。
Further, the saliency calculating device according to the present invention comprises:
It is preferable to use KL conversion in the feature type determination unit. Furthermore, in the saliency calculation device according to the present invention, it is preferable that the saliency calculation unit uses KL conversion. This is because this is one method for more faithfully expressing image data using a limited number of features.

【0017】また、本発明は、上記のような顕著性算出
装置の機能をコンピュータの処理ステップとして実行す
るソフトウェアを特徴とするものであり、具体的には、
顕著性算出の対象となる第1の画像データを入力する工
程と、第1の画像データの各部の特徴を抽出する工程
と、抽出された各部の特徴に基づいて顕著性を定量化す
る工程と、算出された顕著性を表示出力する工程とを含
む顕著性算出方法であって、学習対象となる第2の画像
データを複数入力する工程と、複数の第2の画像データ
に基づいて特徴の種類を事前に学習し、決定しておく工
程とをさらに含み、決定された特徴の種類と第1の画像
データに基づいて各部の特徴を抽出する方法並びにその
ような工程をプログラムとして記録したコンピュータ読
み取り可能な記録媒体であることを特徴とする。
Further, the present invention is characterized by software for executing the function of the saliency calculating device as described above as a processing step of a computer.
A step of inputting first image data to be subjected to saliency calculation, a step of extracting characteristics of each part of the first image data, and a step of quantifying saliency based on the extracted characteristics of each part. Displaying the calculated saliency and outputting the calculated saliency, wherein a plurality of second image data to be learned are input, and a feature is calculated based on the plurality of second image data. A method of preliminarily learning and determining the type, a method of extracting the characteristic of each part based on the determined type of the characteristic and the first image data, and a computer recording such a step as a program It is a readable recording medium.

【0018】かかる構成により、コンピュータ上へ当該
プログラムをロードさせ実行することで、学習画像によ
って抽出すべき特徴の種類を変動させることができ、画
像データに見合った特徴の種類に基づいて顕著性を判断
することができる。したがって、かかる学習効果を人間
の経験や記憶の度合と擬制することにより、より人の感
覚に近似した顕著性の判断ができる顕著性算出装置を実
現することが可能となる。
With this configuration, by loading and executing the program on the computer, the type of feature to be extracted by the learning image can be changed, and the saliency can be increased based on the type of feature matching the image data. You can judge. Therefore, it is possible to realize a saliency calculating device that can judge saliency more similar to a human sense by simulating the learning effect with the degree of human experience and memory.

【0019】[0019]

【発明の実施の形態】(実施の形態1)以下、本発明の
実施の形態1にかかる顕著性算出装置について、図面を
参照しながら説明する。図5は本発明の実施の形態1に
かかる顕著性算出装置の構成図である。図5において、
51は画像入力部を、52は特徴抽出部を、53は顕著
性算出部を、54は出力表示部を、それぞれ示し、この
構成である限りにおいては従来の顕著性算出装置とは何
ら相異しない。
(Embodiment 1) Hereinafter, a saliency calculating apparatus according to Embodiment 1 of the present invention will be described with reference to the drawings. FIG. 5 is a configuration diagram of the saliency calculating device according to the first embodiment of the present invention. In FIG.
Reference numeral 51 denotes an image input unit, 52 denotes a feature extraction unit, 53 denotes a saliency calculation unit, and 54 denotes an output display unit. As far as this configuration is concerned, there is no difference from the conventional saliency calculation device. do not do.

【0020】本実施の形態1は、特徴抽出時において、
事前に複数の画像群によって学習した特徴の種類に基づ
いて特徴を決定する点、すなわち学習する画像によって
抽出すべき特徴の種類が変動する点において、従来例と
相違する。つまり、かかる機能を実現するために、学習
画像群入力部521及び特徴種類決定部522を有する
点に特徴を有する。
In the first embodiment, at the time of feature extraction,
This is different from the conventional example in that features are determined based on the types of features learned in advance from a plurality of image groups, that is, the types of features to be extracted vary depending on the images to be learned. That is, the feature is that a learning image group input unit 521 and a feature type determination unit 522 are provided to realize such a function.

【0021】本実施の形態1にかかる顕著性算出装置
は、まず図5において、画像入力部51から顕著性抽出
の対象となる画像を入力する。入力媒体としては、スキ
ャナやデジタルカメラ等が一般的であるが、これに限定
されるものではない。また、ファイルに保存されている
ビットマップイメージやTIFFファイル、JPEGフ
ァイル等であっても良い。
The saliency calculating device according to the first embodiment first inputs an image to be extracted for saliency from an image input unit 51 in FIG. The input medium is generally a scanner, a digital camera, or the like, but is not limited thereto. Further, a bitmap image, a TIFF file, a JPEG file, or the like stored in a file may be used.

【0022】次に、特徴抽出部52で顕著性算出対象画
像から特徴を抽出することになるが、本実施の形態1で
は事前に特徴種類決定部522において、抽出の対象と
なる特徴の種類を決定しておくことができる。
Next, a feature is extracted from the saliency calculation target image by the feature extracting unit 52. In the first embodiment, the feature type determining unit 522 determines the type of the feature to be extracted in advance. You can decide.

【0023】すなわち、まず学習画像群入力部521か
ら学習の対象となる画像を入力する。例えば、アルファ
ベットが記載されている画像やひらがな、あるいは片仮
名が記載されている画像等、複数の画像を、画像入力部
51と同様にスキャナ等の入力媒体を用いて入力してお
くことになる。学習画像群入力部521から入力された
画像において特徴を有すると判断された特徴の種類が、
人が画像の顕著性を判断する際の経験や記憶等に相当す
るものとなる。
That is, first, an image to be learned is input from the learning image group input unit 521. For example, a plurality of images, such as an image in which an alphabet is described, an image in which hiragana or katakana is described, are input using an input medium such as a scanner in the same manner as the image input unit 51. The type of the feature determined to have the feature in the image input from the learning image group input unit 521 is:
This corresponds to experience, memory, and the like when a person judges the saliency of an image.

【0024】そして、特徴種類決定部522では、入力
された画像群に基づいて、顕著性を算出するべき特徴の
種類を決定する。具体的には、以下の処理を行うことに
なる。
The feature type determining section 522 determines the type of feature for which saliency should be calculated based on the input image group. Specifically, the following processing is performed.

【0025】まず、入力された学習画像全体から特徴を
有する局所領域を所定の方法によって検出する。そのた
めに、例えば学習画像の一部の大きさを有する窓領域を
定め、窓領域を学習画像の上下左右端からドット単位等
で移動させながら、学習画像全体の中から特徴を有する
局所領域を検出する等の方法が考えられるが、特にかか
る方法に限定されるものではない。
First, a local region having a characteristic is detected from the entire input learning image by a predetermined method. For this purpose, for example, a window region having a partial size of the learning image is determined, and a local region having a feature is detected from the entire learning image while moving the window region from the upper, lower, left, and right ends of the learning image in dot units or the like. However, the method is not particularly limited to this method.

【0026】そして、各局所領域内の画像パターンをベ
クトルとみなして、各局所領域に対応するベクトルすべ
てに基づいて共分散行列を算出する。ここで、共分散行
列Pとは、(数1)で表すことができる行列をいい、n
個のm次元ベクトルviから、その分散の程度を求める
べく算出されるものである。
The image pattern in each local area is regarded as a vector, and a covariance matrix is calculated based on all the vectors corresponding to each local area. Here, the covariance matrix P refers to a matrix that can be expressed by (Equation 1), and n
From m-dimensional vector v i, is intended to be calculated to determine the degree of dispersion.

【0027】[0027]

【数1】 (Equation 1)

【0028】(数1)において、ベクトルvaveは、n
個のm次元ベクトルviの単純平均値を、添字‘T’は
転置行列であることを、それぞれ示している。したがっ
て、求める共分散行列Pは、m行m列の正方行列とな
る。
In equation (1), the vector v ave is n
The simple average of m-dimensional vector v i, subscript 'T' is that it is a transposed matrix, respectively. Therefore, the obtained covariance matrix P is a square matrix with m rows and m columns.

【0029】選択すべき特徴の種類は、かかる共分散行
列の固有ベクトルのうち、固有値が大きなベクトルから
順に、固有値の総和が一定のしきい値に達するまで選択
することで得る。こうして選択されたq個の固有ベクト
ルe1、e2、…、eqを主要固有ベクトルと呼ぶ。
The type of feature to be selected is obtained by selecting, from the eigenvectors of the covariance matrix, the vector having the largest eigenvalue until the sum of the eigenvalues reaches a certain threshold value. The eigenvectors e 1 , e 2 ,..., E q thus selected are referred to as main eigenvectors.

【0030】したがって、学習画像の各局所領域の画像
パターンは、これらq個の主要固有ベクトルの重み付け
線形和でもって近似される。すなわち、重み付け線形和
を求めるべく、KL展開によって各画像パターンの主要
固有ベクトルを重みとして求め、画像パターンを表すベ
クトルvと各主要固有ベクトルeiの(iは1からqま
での自然数)の内積Qを(数2)のように求めること
で、q個の特徴ベクトルを定めることになる。
Therefore, the image pattern of each local region of the learning image is approximated by a weighted linear sum of these q main eigenvectors. That is, in order to obtain a weighted linear sum, a main eigenvector of each image pattern is obtained as a weight by KL expansion, and an inner product Q of a vector v representing the image pattern and each main eigenvector e i (i is a natural number from 1 to q) is calculated. By calculating as in (Equation 2), q feature vectors are determined.

【0031】[0031]

【数2】 (Equation 2)

【0032】従来の方法では、主要固有ベクトルが固定
であり、顕著性算出の基準となる特徴の種類が固定され
ているのに対し、本実施の形態1によれば主要固有ベク
トルがサンプル画像の種類によって変動する。すなわ
ち、サンプル画像がアルファベットを表示した画像であ
ればアルファベットについては特徴ベクトルの一つとし
て選択されることになる。
In the conventional method, the main eigenvector is fixed, and the type of feature serving as a reference for calculating saliency is fixed. On the other hand, according to the first embodiment, the main eigenvector depends on the type of sample image. fluctuate. That is, if the sample image is an image displaying the alphabet, the alphabet is selected as one of the feature vectors.

【0033】なお、KL展開は限られた個数の特徴で画
像パターンをできるだけ忠実に表現するための一つの手
法にすぎず、多数の学習パターンを限られた個数の特徴
で近似的に表現できる方法で有れば、どのような方法を
用いても良い。
The KL expansion is only one method for expressing an image pattern as faithfully as possible with a limited number of features, and is a method for approximately expressing a large number of learning patterns with a limited number of features. If so, any method may be used.

【0034】こうして算出されたq個の内積を各局所領
域における特徴の種類とみなし、q次元の特徴ベクトル
とすると、仮に入力画像のある局所領域の画像パターン
と類似したパターンが多数の学習パターンの中に頻繁に
出現していれば、この画像パターンは抽出された特徴に
よって比較的忠実に再現できる。
The q inner products thus calculated are regarded as types of features in each local region, and as a q-dimensional feature vector, a pattern similar to the image pattern of a certain local region of the input image is assumed to be a pattern of many learning patterns. If it appears frequently in the image, this image pattern can be reproduced relatively faithfully by the extracted features.

【0035】再現の忠実度は、その画像パターンの二乗
ノルムと特徴ベクトルの二乗ノルムの差でもって評価す
ることができる。その差が画像パターンを特徴ベクトル
で表したときの残差を表しており、小さければ小さいほ
ど忠実に再現できていることを示している。
The fidelity of reproduction can be evaluated by the difference between the square norm of the image pattern and the square norm of the feature vector. The difference represents a residual when the image pattern is represented by a feature vector, and the smaller the value, the more faithfully the image can be reproduced.

【0036】次に、顕著性算出部53において、求まっ
た主要固有ベクトルに基づいて選択された特徴に基づい
て顕著性を算出する。具体的には、以下のような処理を
行うことになる。
Next, the saliency calculating section 53 calculates the saliency based on the feature selected based on the obtained main eigenvector. Specifically, the following processing is performed.

【0037】まず、各局所領域から抽出された特徴ベク
トルのすべてを対象としてKL変換を行い、上述したの
と同様にr個の主要固有ベクトルe1、e2、…、er
求める。次に、各局所領域から抽出された特徴ベクトル
とr個の主要固有ベクトルのそれぞれとの内積を二次特
徴ベクトルとして算出する。
[0037] First, the KL transform all feature vectors extracted from the local region as a target, likewise the r to that described above leading eigenvectors e 1, e 2, ..., seek e r. Next, an inner product of the feature vector extracted from each local region and each of the r main eigenvectors is calculated as a secondary feature vector.

【0038】こうして求めたr個の二次特徴ベクトルの
二乗ノルムと、各局所領域の画像パターンをベクトルと
みなした時の二乗ノルムとの差を算出して、各局所領域
ごとの顕著性を表す指標とする。
The difference between the square norm of the r secondary feature vectors obtained in this way and the square norm when the image pattern of each local region is regarded as a vector is calculated to indicate the saliency of each local region. Use as an index.

【0039】例えば図6に示すように画像パターンのベ
クトル61がn次元(図6では表記簡略化のため3次元
空間で表記する。)であったとすると、特徴ベクトル6
2を求めることはq次元の空間上(図6では表記簡略化
のため2次元の平面で表記する。)へ射影することに該
当する。そして、二次特徴ベクトル63を求めること
は、q次元の空間上の点をr次元の空間上(図6では表
記簡略化のため直線で表記する。)へ射影することに該
当する。すなわち、KL変換を経るごとに次元の小さな
空間へと変換されていくことになる。そして、求める二
乗ノルムの差64は、画像パターンのベクトル61と二
次特徴ベクトル63との差を示す太線部分となる。
For example, as shown in FIG. 6, if the vector 61 of the image pattern is n-dimensional (in FIG. 6, it is represented in a three-dimensional space for simplification), the feature vector 6
Finding 2 corresponds to projecting onto a q-dimensional space (in FIG. 6, a two-dimensional plane is used for simplification). Then, obtaining the secondary feature vector 63 corresponds to projecting a point in the q-dimensional space onto an r-dimensional space (in FIG. 6, a straight line is used to simplify the description). That is, each time the KL conversion is performed, the space is converted into a space having a small dimension. Then, the difference 64 of the square norm to be obtained is a thick line portion indicating the difference between the vector 61 of the image pattern and the secondary feature vector 63.

【0040】かかる処理によって求まる顕著性は、ある
局所領域の画像パターンを入力画像におけるすべての局
所領域におけるパターンの特徴集合から定まるq個の主
要固有ベクトルの重み付け線形和で近似したときの残差
を表している。すなわち、ある局所領域の画像パターン
が、それ以外の領域におけるパターンと類似していない
ときは顕著性が高くなる。また、ある局所領域の画像パ
ターンが学習画像における局所パターンと類似していな
いときにも顕著性が高くなる。
The saliency obtained by such processing represents a residual when an image pattern of a certain local region is approximated by a weighted linear sum of q main eigenvectors determined from a feature set of patterns in all local regions in the input image. ing. That is, when the image pattern of a certain local area is not similar to the pattern of the other area, the saliency becomes high. Also, the saliency increases when the image pattern of a certain local area is not similar to the local pattern in the learning image.

【0041】また、画像から特徴を抽出する前処理とし
て、各局所領域において同時生起行列Oを算出すること
も考えられる。同時生起行列Oとは、(数3)で示すよ
うな行列をいい、画像上の1点における画素値I(x,
y)と当該1点を平行移動した点における画素値I(x
+i,y+j)との積の総和を表すものである。
As a pre-process for extracting features from an image, a simultaneous occurrence matrix O may be calculated in each local region. The co-occurrence matrix O refers to a matrix represented by (Equation 3), and has a pixel value I (x,
y) and the pixel value I (x
+ I, y + j).

【0042】[0042]

【数3】 (Equation 3)

【0043】かかる行列による前処理を行うことで、平
行移動に対する画像パターン認識の変動を最小限に抑制
することができる。例えば、図7に示すように、画像が
大きく、一部について窓によって認識する場合におい
て、窓(a)では文字‘5’が窓の右側に位置している
と認識されるのに対し、窓(b)では文字‘5’が窓の
左側に位置していると認識されてしまう。これらを別画
像と認識したのでは、単なる平行移動であり同一画像パ
ターンとして認識すべき画像であっても、異なる特徴を
有すると認識されるおそれがあり、特徴の種類として抽
出すべき次元数の限定されている本実施の形態1におい
ては、数多くの特徴を抽出することとなって好ましくな
い。
By performing the pre-processing using such a matrix, it is possible to minimize fluctuations in image pattern recognition due to parallel movement. For example, as shown in FIG. 7, when the image is large and part of the image is recognized by the window, the character “5” is recognized to be located on the right side of the window in the window (a), whereas In (b), the character “5” is recognized as being located on the left side of the window. Recognition of these as different images is a simple translation, and even images that should be recognized as the same image pattern may be recognized as having different features. In the limited first embodiment, many features are extracted, which is not preferable.

【0044】そこで、窓位置の操作による窓の位置変化
によっては別パターンと認識せず、平行移動しても値が
変わらないように同時生起行列Oの算出処理をしておく
ことで、数少ない特徴で本質的な差異を抽出することが
可能となる。
Therefore, by calculating the co-occurrence matrix O in such a manner that the pattern is not recognized as another pattern depending on the change in the window position due to the operation of the window position and the value does not change even if the window is moved in parallel, a few features are obtained. , It is possible to extract the essential difference.

【0045】最後に、出力表示部54において、顕著性
マップとして算出した顕著性について出力表示する。例
えば図8及び図9は、同時生起行列を求めた上で、実際
に顕著性を算出した出力結果の例示図である。なお、図
8及び図9はそれぞれ図3と図4に対応した出力表示を
示している。
Finally, the output display unit 54 outputs and displays the saliency calculated as the saliency map. For example, FIG. 8 and FIG. 9 are illustrations of an output result of actually calculating saliency after obtaining a co-occurrence matrix. 8 and 9 show output displays corresponding to FIGS. 3 and 4, respectively.

【0046】まず、図8(a)では、顕著性の高い文字
のところが白く表示されている。図8(a)において
は、顕著性の高いところが1箇所だけであることから、
その部分に注意が引かれることで‘2’の文字を容易に
見つけることが可能となる。
First, in FIG. 8A, characters with high saliency are displayed in white. In FIG. 8A, since there is only one place with high saliency,
By paying attention to that part, the character '2' can be easily found.

【0047】一方、図8(b)では、すべての文字につ
いて顕著性が同程度に高くなっていることから、一つ一
つの文字に順に注意が引かれることになり、‘2’の文
字を見つけるまでに想到の時間を要することがわかる。
On the other hand, in FIG. 8B, since the saliency of all the characters is almost the same, attention is drawn to each character in turn, and the character of "2" is It turns out that it takes time to find out.

【0048】同様に図9(a)では、顕著性の高い文字
のところが白く表示されている。一方、図9(b)で
は、文字‘N’ではない‘N’の反転文字の部分で顕著
性が高くなっているので、文字‘N’を見つけることが
困難となっていることが明らかである。
Similarly, in FIG. 9A, characters with high saliency are displayed in white. On the other hand, in FIG. 9B, it is apparent that it is difficult to find the character 'N' since the saliency is high in the inverted character portion of 'N' which is not the character 'N'. is there.

【0049】上述した本発明の実施の形態1にかかる顕
著性算出装置を実現するプログラムの処理の流れは図1
0に示すようになる。
The processing flow of the program for realizing the saliency calculating device according to the first embodiment of the present invention is shown in FIG.
0.

【0050】まず、顕著性算出の対象となる画像を入力
する前に、サンプルとなる学習画像群を入力し(ステッ
プ101)、各画像の各局所領域に対応するベクトルす
べてに基づいて共分散行列を算出する(ステップS10
2)。そして、共分散行列に基づいてKL変換等するこ
とによって主要固有ベクトルを特徴の種類として決定す
る(ステップS103)。
First, before inputting an image to be subjected to saliency calculation, a learning image group to be sampled is input (step 101), and a covariance matrix is calculated based on all vectors corresponding to each local region of each image. (Step S10)
2). Then, the main eigenvector is determined as a feature type by performing KL transformation or the like based on the covariance matrix (step S103).

【0051】特徴の種類が確定した後に、顕著性算出対
象となる画像を入力する(ステップS104)。そし
て、まず主要固有ベクトルに基づいて特徴ベクトルを算
出する(ステップS105)。次に、算出された特徴ベ
クトルに基づいてKL変換等によって再度主要固有ベク
トルを決定し(ステップS106)、二次特徴ベクトル
を算出する(ステップS107)。
After the type of the feature is determined, an image to be subjected to saliency calculation is input (step S104). Then, first, a feature vector is calculated based on the main eigenvector (step S105). Next, a main eigenvector is determined again by KL conversion or the like based on the calculated feature vector (step S106), and a secondary feature vector is calculated (step S107).

【0052】最後に、各画像の各局所領域に対応するベ
クトルと二次特徴ベクトルとの二乗ノルムの差を算出し
て(ステップS108)、顕著性マップとして出力表示
する(ステップS109)。
Finally, the difference of the square norm between the vector corresponding to each local region of each image and the secondary feature vector is calculated (step S108), and output and displayed as a saliency map (step S109).

【0053】一方、上述した方法は、あらかじめ多数の
学習画像群を準備しておく方法であるが、例えば図11
に示すような構成とすることで、算出した顕著性に基づ
いて画像の部分領域を抽出して、当該抽出領域と特徴の
種類に基づいて特徴の種類を漸次更新していくことも考
えられる。
On the other hand, the above-described method is a method of preparing a large number of learning image groups in advance.
It is also conceivable to extract a partial region of an image based on the calculated saliency and gradually update the feature type based on the extracted region and the feature type.

【0054】図11において、111は領域抽出部を、
112は抽出領域再入力部を、113は同時生起行列算
出部を、114は共分散行列更新部を、それぞれ示す。
なお、同時生起行列算出部113は必須の構成要件では
ない。
In FIG. 11, reference numeral 111 denotes an area extracting unit;
Reference numeral 112 denotes an extraction area re-input unit, 113 denotes a simultaneous occurrence matrix calculation unit, and 114 denotes a covariance matrix update unit.
Note that the co-occurrence matrix calculation unit 113 is not an essential component.

【0055】図11では、一旦顕著性マップとして出力
された結果に基づいて、領域抽出部111によって顕著
性が高いと判断された部分領域を抽出する点に特徴を有
する。すなわち、出力された顕著性マップから改めて領
域抽出部111によって各部の特徴を抽出して、抽出し
た画像データを再度抽出領域再入力部112から入力す
る。再入力された画像データに基づいて再度同時生起行
列算出部113において同時生起行列を算出し、共分散
行列更新部114において共分散行列を更新することで
KL変換をやり直し、主要固有ベクトル自体を再計算し
ようとするものである。
FIG. 11 is characterized in that, based on the result once output as the saliency map, a partial area determined to be highly salient by the area extracting unit 111 is extracted. That is, the feature of each part is extracted again by the area extracting unit 111 from the output saliency map, and the extracted image data is input again from the extracted area re-input unit 112. The co-occurrence matrix is calculated again in the co-occurrence matrix calculation unit 113 based on the re-input image data, and the covariance matrix is updated in the covariance matrix update unit 114, so that the KL transform is performed again, and the main eigenvector itself is recalculated. What you want to do.

【0056】こうすることで、システムを使えば使うほ
ど、すなわちシステム上の経験を多く積めば積むほど、
適切な特徴の種類を用いて顕著性を判断することができ
るようになる顕著性算出装置を実現することが可能とな
る。
By doing so, the more you use the system, that is, the more experience you have on the system, the more
It is possible to realize a saliency calculation device that can determine the saliency using an appropriate feature type.

【0057】以上のように本実施の形態1によれば、学
習画像データや顕著性が高いと判断された画像データに
よって抽出すべき特徴の種類を変動させることができ、
画像データに見合った特徴の種類に基づいて顕著性を判
断することができる。したがって、かかる学習効果を人
間の経験や記憶の度合と擬制することにより、より人の
感覚に近似した顕著性の判断が可能となる。
As described above, according to the first embodiment, the types of features to be extracted can be changed based on the learning image data or the image data determined to have high saliency.
The saliency can be determined based on the type of feature appropriate for the image data. Therefore, by emulating such a learning effect with the degree of human experience and memory, it is possible to determine the saliency more similar to the human sense.

【0058】本実施の形態にかかる顕著性算出装置は、
様々な分野において応用が可能である。例えば、画面の
表示領域に制限のある携帯端末等への適用が考えられ
る。図12は本発明の一実施例にかかる顕著性算出装置
を用いた携帯端末における処理流れ図である。
The saliency calculating device according to the present embodiment
It can be applied in various fields. For example, application to a mobile terminal or the like having a limited display area on a screen can be considered. FIG. 12 is a processing flowchart in a portable terminal using the saliency calculation device according to one embodiment of the present invention.

【0059】一般に、携帯端末のような小画面に大きな
画像を表示する場合には、画像を縮小して表示すること
になるが、単純に縮小して表示する方法では、画面の表
示密度の関係上、細部の表示がされない場合が多い。か
かる表示上の問題を解消するべく、画像の一部を切り出
して表示することが良く行われる。本実施例では、入力
される画像の顕著性を求め、画像内において顕著性の高
い部分、すなわち画像内において重要な部分領域を切り
出して表示することを目的としている。
In general, when a large image is displayed on a small screen such as a portable terminal, the image is reduced and displayed. In addition, details are often not displayed. In order to solve such a display problem, a part of an image is often cut out and displayed. The purpose of the present embodiment is to determine the saliency of an input image and cut out and display a highly salient portion in the image, that is, an important partial region in the image.

【0060】図12では、まず表示すべき画像データの
全体を入力し(ステップS121)、画像データ全体に
わたって顕著性を算出することで、当該画像データ全体
における顕著性マップを求める(ステップS122)。
かかる顕著性の算出に、本実施の形態にかかる顕著性算
出方法を用いている。
In FIG. 12, first, the entire image data to be displayed is input (step S121), and the saliency is calculated for the entire image data to obtain a saliency map for the entire image data (step S122).
The saliency calculation method according to the present embodiment is used for calculating the saliency.

【0061】次に、携帯端末で表示できるサイズには物
理的な制約があることから、表示可能な画像領域サイズ
を指定するとともに(ステップS123)、当該画像領
域サイズの窓を表示画像データ全体について順次ラスタ
走査し(ステップS124)、窓の位置を変えるごとに
窓領域内の顕著性を算出する(ステップS125)。こ
の顕著性の算出にも、本実施の形態にかかる顕著性算出
方法を用いる。
Next, since there is a physical restriction on the size that can be displayed on the portable terminal, the size of the image area that can be displayed is specified (step S123), and the window of the image area size is set for the entire display image data. Raster scanning is performed sequentially (step S124), and saliency in the window area is calculated each time the position of the window is changed (step S125). The saliency calculation method according to the present embodiment is also used for calculating the saliency.

【0062】そして、顕著性が最も高いと判断された窓
領域を切り出し領域として選択することで(ステップS
126)、携帯端末の画面へ最も顕著性の高い画面、す
なわち利用者にとって重要な情報が最も多く含まれてい
ると判断される部分の画像が表示される(ステップS1
27)。
Then, a window region determined to have the highest saliency is selected as a cutout region (step S).
126), a screen with the highest saliency, that is, an image of a portion determined to contain the most important information for the user is displayed on the screen of the portable terminal (step S1).
27).

【0063】こうすることで、顕著性が高い情報が最も
多く含まれていると判断される画像データを、すなわち
人が見て重要な部分であると判断できる部分を携帯端末
の画面上に表示することができるとともに、画像データ
を縮小して表示しているわけではないので、画像の細部
を消失しているという弊害も解消できる。
By doing so, the image data determined to contain the most prominent information, ie, the part that can be determined to be an important part by a person, is displayed on the screen of the portable terminal. In addition, since the image data is not displayed in a reduced size, the problem of losing details of the image can be solved.

【0064】また、TVカメラによる異常監視システム
の無人化への適用も考えられる。図13は本発明の他の
実施例にかかる顕著性算出装置を用いた異常監視システ
ムにおける処理流れ図である。
It is also conceivable to apply an abnormality monitoring system using a TV camera to unmanned operation. FIG. 13 is a processing flowchart in an abnormality monitoring system using a saliency calculation device according to another embodiment of the present invention.

【0065】図13では、画像を入力する入力媒体はテ
レビカメラであり、カメラから常時動画像として、ある
いは一定時間間隔ごとの静止画像として、監視対象とな
る画像データを入力する(ステップS131)。そし
て、カメラにより入力された画像データの顕著性を算出
する(ステップS132)。すなわち、動画像について
は一定時間間隔ごとの画像データについての顕著性を、
静止画像については各々の顕著性を算出する。かかる顕
著性の算出には本実施の形態にかかる顕著性算出方法を
用いている。
In FIG. 13, the input medium for inputting an image is a television camera. Image data to be monitored is input from the camera as a constantly moving image or as a still image at fixed time intervals (step S131). Then, the saliency of the image data input by the camera is calculated (step S132). That is, for a moving image, the saliency of image data at regular time intervals,
The saliency of each still image is calculated. For the calculation of the saliency, the saliency calculation method according to the present embodiment is used.

【0066】そして、顕著性が突然増加したり、急激に
増加した場合を検出することで(ステップS133:Y
es)、異常が発生したものと判断する(ステップS1
34)。例えば、普段は人の出入りのない場所を常時監
視しておき、顕著性を算出しておくと、人や他の生物の
画像が入力されると顕著性が非常に高く算出される。し
たがって、実際に人が監視カメラを常時覗いていなくて
も、顕著性の定量値による自動判断によって人や生物等
の進入を容易に監視することが可能となる。
Then, by detecting a case where the saliency suddenly increases or suddenly increases (step S133: Y
es), it is determined that an abnormality has occurred (step S1)
34). For example, if a place where no person enters or exits is always monitored and saliency is calculated, the saliency is calculated to be very high when an image of a person or another living thing is input. Therefore, even if a person does not always look into the surveillance camera at all times, it is possible to easily monitor the entry of a person, a living thing, or the like by automatic judgment based on the quantitative value of the saliency.

【0067】さらに、ウェブ画面等の設計において利用
者に見て欲しい情報について顕著性を高めるように配置
する等の宣伝広告強化補助を行う画面作成支援装置とし
て応用することも考えられる。図14は本発明の他の実
施例にかかる顕著性算出装置を用いたウェブ画面上の注
意喚起システムにおける処理流れ図である。
Further, it is conceivable that the present invention is applied to a screen creation support device for assisting in enhancing advertisements, such as arranging information desired by the user in the design of a web screen or the like so as to increase the saliency. FIG. 14 is a flowchart of a process performed by the alert system on the web screen using the saliency calculating device according to another embodiment of the present invention.

【0068】図14では、まず初期の設計画面を顕著性
算出の対象画像として入力する(ステップS141)。
そして、対象画像の顕著性を算出して顕著性マップを作
成する(ステップS142)。かかる顕著性の算出には
本実施の形態にかかる顕著性算出方法を用いている。
In FIG. 14, first, an initial design screen is input as a saliency calculation target image (step S141).
Then, the saliency of the target image is calculated to create a saliency map (step S142). For the calculation of the saliency, the saliency calculation method according to the present embodiment is used.

【0069】次に、利用者に見て欲しい情報を表示する
オブジェクトを指定し(ステップS143)、当該オブ
ジェクトが画像上で占めている領域について領域内の顕
著性を算出する(ステップS144)。かかる顕著性の
算出には本実施の形態にかかる顕著性算出方法を用いて
いる。
Next, an object for displaying information desired by the user is specified (step S143), and the saliency of the area occupied by the object in the image is calculated (step S144). For the calculation of the saliency, the saliency calculation method according to the present embodiment is used.

【0070】かかるオブジェクト領域の顕著性が、事前
に定めておいた所定のしきい値Tよりも大きい場合に
は、画面表示において十分な顕著性を有するものと判断
して処理を終了する(ステップS145:Yes)。逆
に、事前に定めておいたしきい値Tよりも小さい場合に
は(ステップS145:No)、十分な顕著性を有して
いないものと判断して、対象画面の設計の変更を行った
後に(ステップS146)、同様の処理を繰り返す。か
かる設計変更として考えられるのは、オブジェクトの色
や配置等の変更であることは言うまでもない。
If the saliency of the object area is larger than a predetermined threshold value T determined in advance, it is determined that the object area has sufficient saliency in the screen display, and the process is terminated (step S1). S145: Yes). Conversely, if the threshold value T is smaller than the predetermined threshold value T (step S145: No), it is determined that the threshold value does not have sufficient saliency, and the design of the target screen is changed. (Step S146), similar processing is repeated. Needless to say, such a design change is a change in the color or arrangement of the object.

【0071】なお、本発明の実施の形態にかかる顕著性
算出装置を実現するプログラムを記憶した記録媒体は、
図15に示す記録媒体の例に示すように、CD−ROM
152−1やフロッピー(登録商標)ディスク152−
2等の可搬型記録媒体152だけでなく、通信回線の先
に備えられた他の記憶装置151や、コンピュータ15
3のハードディスクやRAM等の記録媒体154のいず
れでも良く、プログラム実行時には、プログラムはロー
ディングされ、主メモリ上で実行される。
The recording medium storing the program for realizing the saliency calculating device according to the embodiment of the present invention is:
As shown in the example of the recording medium shown in FIG.
152-1 and floppy (registered trademark) disk 152-
2 as well as other storage devices 151 provided at the end of the communication line and the computer 15.
3 or a recording medium 154 such as a RAM. When the program is executed, the program is loaded and executed on the main memory.

【0072】また、本発明の実施の形態にかかる顕著性
算出装置により生成された二次特徴ベクトル等を記録し
た記録媒体も、図15に示す記録媒体の例に示すよう
に、CD−ROM152−1やフロッピーディスク15
2−2等の可搬型記録媒体152だけでなく、通信回線
の先に備えられた他の記憶装置151や、コンピュータ
153のハードディスクやRAM等の記録媒体154の
いずれでも良く、例えば本発明にかかる顕著性算出装置
を利用する際にコンピュータ153により読み取られ
る。
The recording medium on which the secondary feature vector or the like generated by the saliency calculating device according to the embodiment of the present invention is recorded is also a CD-ROM 152- as shown in the example of the recording medium shown in FIG. 1 or floppy disk 15
Not only a portable recording medium 152 such as 2-2, but also any other storage device 151 provided at the end of a communication line, or a recording medium 154 such as a hard disk or a RAM of a computer 153 may be used, for example, according to the present invention. It is read by the computer 153 when using the saliency calculation device.

【0073】[0073]

【発明の効果】以上のように本発明にかかる顕著性算出
装置によれば、学習画像データや顕著性が高いと判断さ
れた画像データによって抽出すべき特徴の種類を変動さ
せることができ、画像データに見合った特徴の種類に基
づいて顕著性を判断することができる。したがって、か
かる学習効果を人間の経験や記憶の度合と擬制すること
により、より人の感覚に近似した顕著性の判断が可能と
なる。
As described above, according to the saliency calculating apparatus according to the present invention, it is possible to change the type of feature to be extracted based on the learning image data or the image data determined to have high saliency. The saliency can be determined based on the type of feature that matches the data. Therefore, by emulating such a learning effect with the degree of human experience and memory, it is possible to determine the saliency more similar to the human sense.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 顕著性判断の例示図FIG. 1 is a diagram showing an example of saliency judgment

【図2】 従来の顕著性算出方法における処理流れ図FIG. 2 is a processing flowchart in a conventional saliency calculation method.

【図3】 顕著性判断の例示図FIG. 3 is an illustration of an example of saliency judgment

【図4】 顕著性判断の例示図FIG. 4 is an illustration of an example of saliency judgment

【図5】 本発明の実施の形態にかかる顕著性算出装置
の基本構成図
FIG. 5 is a basic configuration diagram of a saliency calculating device according to the embodiment of the present invention;

【図6】 本発明の実施の形態にかかる顕著性算出装置
における顕著性算出プロセスの説明図
FIG. 6 is an explanatory diagram of a saliency calculation process in the saliency calculation device according to the embodiment of the present invention;

【図7】 本発明の実施の形態にかかる顕著性算出装置
におけるパターン認識の説明図
FIG. 7 is an explanatory diagram of pattern recognition in the saliency calculation device according to the embodiment of the present invention;

【図8】 本発明の実施の形態にかかる顕著性算出装置
における出力表示の例示図
FIG. 8 is an exemplary view showing an output display in the saliency calculating device according to the embodiment of the present invention;

【図9】 本発明の実施の形態にかかる顕著性算出装置
における出力表示の例示図
FIG. 9 is an exemplary view showing an output display in the saliency calculating device according to the embodiment of the present invention;

【図10】 本発明の実施の形態にかかる顕著性算出装
置における処理の流れ図
FIG. 10 is a flowchart of a process in the saliency calculating device according to the embodiment of the present invention;

【図11】 本発明の実施の形態にかかる顕著性算出装
置の構成図
FIG. 11 is a configuration diagram of a saliency calculation device according to the embodiment of the present invention.

【図12】 本発明の一実施例にかかる顕著性算出装置
における処理の流れ図
FIG. 12 is a flowchart of a process in the saliency calculation device according to the embodiment of the present invention;

【図13】 本発明の他の実施例にかかる顕著性算出装
置における処理の流れ図
FIG. 13 is a flowchart of a process in a saliency calculating apparatus according to another embodiment of the present invention.

【図14】 本発明の他の実施例にかかる顕著性算出装
置における処理の流れ図
FIG. 14 is a flowchart of a process in a saliency calculating device according to another embodiment of the present invention.

【図15】 記録媒体の例示図FIG. 15 is an exemplary diagram of a recording medium.

【符号の説明】[Explanation of symbols]

51 画像入力部 52 特徴抽出部 53 顕著性算出部 54 出力表示部 61 画像パターンのベクトル 62 特徴ベクトル 63 二次特徴ベクトル 64 二乗ノルムの差 111 領域抽出部 112 抽出領域再入力部 113 同時生起行列算出部 114 共分散行列算出部 151 回線先の記憶装置 152 CD−ROMやフロッピーディスク等の可搬型
記録媒体 152−1 CD−ROM 152−2 フロッピーディスク 153 コンピュータ 154 コンピュータ上のRAM/ハードディスク等の
記録媒体 521 学習画像群入力部 522 特徴種類決定部
REFERENCE SIGNS LIST 51 image input unit 52 feature extraction unit 53 saliency calculation unit 54 output display unit 61 vector of image pattern 62 feature vector 63 secondary feature vector 64 difference of square norm 111 area extraction unit 112 extraction area re-input unit 113 simultaneous occurrence matrix calculation Unit 114 covariance matrix calculation unit 151 storage device at line destination 152 portable recording medium such as CD-ROM or floppy disk 152-1 CD-ROM 152-2 floppy disk 153 computer 154 recording medium such as RAM / hard disk on computer 521 Learning image group input unit 522 Feature type determination unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 後藤 誠 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 Fターム(参考) 5L096 CA24 FA19 FA28 FA33 FA81 GA17 HA09 JA05  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Makoto Goto 4-1-1, Kamidadanaka, Nakahara-ku, Kawasaki-shi, Kanagawa F-term in Fujitsu Limited (Reference) 5L096 CA24 FA19 FA28 FA33 FA81 GA17 HA09 JA05

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 顕著性算出の対象となる第1の画像デー
タを入力する画像入力部と、 前記第1の画像データにおける各部の特徴を抽出する特
徴抽出部と、 抽出された前記各部の特徴に基づいて顕著性を定量化す
る顕著性算出部と、 算出された顕著性を表示出力する出力表示部とを含む顕
著性算出装置であって、 学習対象となる第2の画像データを複数入力する学習画
像群入力部と、複数の前記第2の画像データに基づいて
特徴の種類を事前に学習し、決定しておく特徴種類決定
部とをさらに含み、 前記特徴種類決定部で決定された前記特徴の種類を前記
特徴抽出部に入力し、前記特徴抽出部で前記特徴の種類
と前記第1の画像データに基づいて前記各部の特徴を抽
出することを特徴とする顕著性算出装置。
1. An image input unit for inputting first image data to be subjected to saliency calculation, a feature extraction unit for extracting features of each unit in the first image data, and a feature of each of the extracted units A saliency calculation device including a saliency calculation unit that quantifies saliency on the basis of an output display unit that displays and outputs the calculated saliency, wherein a plurality of second image data to be learned are input. A learning image group input unit that performs learning based on a plurality of second image data, and a feature type determining unit that determines and determines a feature type in advance. A saliency calculation apparatus, wherein the type of the feature is input to the feature extraction unit, and the feature extraction unit extracts a feature of each unit based on the type of the feature and the first image data.
【請求項2】 前記出力表示部で出力された顕著性に基
づいて、前記第1の画像データの中から顕著性の高い領
域である第3の画像データを抽出する領域抽出部をさら
に含み、 前記学習画像群入力部の代わりに、前記領域抽出部によ
って抽出された前記第3の画像データを入力する抽出領
域再入力部を含み、前記特徴種類決定部において前記第
3の画像データに基づいて特徴の種類を学習し、前記特
徴抽出部で抽出すべき特徴の種類を再決定する請求項1
記載の顕著性算出装置。
2. The image processing apparatus according to claim 1, further comprising: an area extracting unit configured to extract third image data that is an area with high saliency from the first image data based on the saliency output from the output display unit. In place of the learning image group input unit, the learning image group input unit includes an extraction area re-input unit that inputs the third image data extracted by the area extraction unit, and the feature type determination unit uses the extraction type based on the third image data. 2. A feature type is learned, and the feature type to be extracted by the feature extraction unit is determined again.
The saliency calculation device according to the above.
【請求項3】 前記特徴種類決定部においてKL変換を
用いる請求項1又は2記載の顕著性算出装置。
3. The saliency calculation device according to claim 1, wherein the feature type determination unit uses KL conversion.
【請求項4】 前記顕著性算出部においてKL変換を用
いる請求項1から3のいずれか一項に記載の顕著性算出
装置。
4. The saliency calculation device according to claim 1, wherein the saliency calculation unit uses KL conversion.
【請求項5】 顕著性算出の対象となる第1の画像デー
タを入力する工程と、 前記第1の画像データにおける各部の特徴を抽出する工
程と、 抽出された前記各部の特徴に基づいて顕著性を定量化す
る工程と、 算出された顕著性を表示出力する工程とを含む顕著性算
出方法であって、 学習対象となる第2の画像データを複数入力する工程
と、複数の前記第2の画像データに基づいて特徴の種類
を事前に学習し、決定しておく工程とをさらに含み、 決定された前記特徴の種類と前記第1の画像データに基
づいて前記各部の特徴を抽出することを特徴とする顕著
性算出方法。
5. A step of inputting first image data to be subjected to saliency calculation, a step of extracting features of each part in the first image data, and a salient feature based on the extracted features of each part. A plurality of second image data to be learned, including a step of quantifying the degree of saliency, and a step of displaying and outputting the calculated saliency. And learning the type of the feature in advance based on the image data of (a), and determining the type of the feature based on the determined type of the feature and the first image data. A saliency calculation method characterized by the following.
【請求項6】 顕著性算出の対象となる第1の画像デー
タを入力するステップと、 前記第1の画像データにおける各部の特徴を抽出するス
テップと、 抽出された前記各部の特徴に基づいて顕著性を定量化す
るステップと、 算出された顕著性を表示出力するステップとを含む顕著
性算出方法を実現するコンピュータに実行させるプログ
ラムを記録したコンピュータ読み取り可能な記録媒体で
あって、 学習対象となる第2の画像データを複数入力するステッ
プと、複数の前記第2の画像データに基づいて特徴の種
類を事前に学習し、決定しておくステップとをさらに含
み、 決定された前記特徴の種類と前記第1の画像データに基
づいて前記各部の特徴を抽出することを特徴とするコン
ピュータに実行させるプログラムを記録したコンピュー
タ読み取り可能な記録媒体。
6. A step of inputting first image data to be subjected to saliency calculation, a step of extracting features of each part in the first image data, and a salient feature based on the extracted features of each part. A computer-readable recording medium storing a program to be executed by a computer for realizing a saliency calculation method including a step of quantifying the saliency and a step of displaying and outputting the calculated saliency, which is to be learned. The method further includes a step of inputting a plurality of second image data and a step of learning and determining a type of a feature in advance based on the plurality of the second image data, and determining the type of the determined feature. A computer-readable program storing a program to be executed by a computer, wherein a feature of each unit is extracted based on the first image data. Recording medium that can be taken.
JP2000045684A 2000-02-23 2000-02-23 Saliency calculation apparatus and method Expired - Fee Related JP3848514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000045684A JP3848514B2 (en) 2000-02-23 2000-02-23 Saliency calculation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000045684A JP3848514B2 (en) 2000-02-23 2000-02-23 Saliency calculation apparatus and method

Publications (2)

Publication Number Publication Date
JP2001236508A true JP2001236508A (en) 2001-08-31
JP3848514B2 JP3848514B2 (en) 2006-11-22

Family

ID=18568224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000045684A Expired - Fee Related JP3848514B2 (en) 2000-02-23 2000-02-23 Saliency calculation apparatus and method

Country Status (1)

Country Link
JP (1) JP3848514B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
JP2009500736A (en) * 2005-07-06 2009-01-08 トムソン ライセンシング A method for obtaining one saliency map from multiple saliency maps generated from visual quantities
JP2009246919A (en) * 2008-04-01 2009-10-22 Fujifilm Corp Image processing apparatus, image processing method, and image processing program
US7817848B2 (en) 2005-11-28 2010-10-19 Fujitsu Ten Limited Apparatus, method, and computer product for discriminating object
JP2012022353A (en) * 2010-07-12 2012-02-02 Nippon Hoso Kyokai <Nhk> Image evaluation device and image evaluation program
EP2797051A2 (en) 2013-04-26 2014-10-29 Omron Corporation Image saliency map determination device, method, program, and recording medium
EP2879080A2 (en) 2013-12-02 2015-06-03 Omron Corporation Image processing device and method, and computer readable medium
EP2919162A1 (en) 2014-03-13 2015-09-16 Omron Corporation Image processing apparatus and image processing method
JP2016091172A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Image processing device, method for controlling teh same, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62229489A (en) * 1986-03-31 1987-10-08 Toshiba Corp Pattern recognition learning device
JPH05280960A (en) * 1992-03-30 1993-10-29 Fuji Photo Film Co Ltd Defect inspection device
JPH0921757A (en) * 1995-07-04 1997-01-21 Sharp Corp Pattern fault inspection apparatus
JP2000046749A (en) * 1998-07-31 2000-02-18 Yamatake Corp Method for inspecting connection quality of part
JP2000207566A (en) * 1999-01-18 2000-07-28 Ricoh Co Ltd Device for extracting texture feature

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62229489A (en) * 1986-03-31 1987-10-08 Toshiba Corp Pattern recognition learning device
JPH05280960A (en) * 1992-03-30 1993-10-29 Fuji Photo Film Co Ltd Defect inspection device
JPH0921757A (en) * 1995-07-04 1997-01-21 Sharp Corp Pattern fault inspection apparatus
JP2000046749A (en) * 1998-07-31 2000-02-18 Yamatake Corp Method for inspecting connection quality of part
JP2000207566A (en) * 1999-01-18 2000-07-28 Ricoh Co Ltd Device for extracting texture feature

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
安居院猛,長尾智晴, 画像の処理と認識, vol. 初版6刷, CSNB199700276001, 28 June 1996 (1996-06-28), JP, pages 47 - 62, ISSN: 0000742805 *
岡田 至弘: "パターン・画像情報の処理利用技術", 電気学会論文誌C, vol. 第113-C巻 第12号, JPNX006038062, 20 December 1993 (1993-12-20), JP, pages 1056 - 1061, ISSN: 0000765701 *
福井基文: "複数選択処理を用いた静止画像の脳内表現", 電子情報通信学会技術研究報告, vol. 99, no. 453, JPNX006038063, 20 November 1999 (1999-11-20), JP, pages 1 - 6, ISSN: 0000765702 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
US7532745B2 (en) 2002-02-27 2009-05-12 Nec Corporation Image recognition system and recognition method thereof, and program
US8027522B2 (en) 2002-02-27 2011-09-27 Nec Corporation Image recognition system and recognition method thereof and program
JP2009500736A (en) * 2005-07-06 2009-01-08 トムソン ライセンシング A method for obtaining one saliency map from multiple saliency maps generated from visual quantities
US7817848B2 (en) 2005-11-28 2010-10-19 Fujitsu Ten Limited Apparatus, method, and computer product for discriminating object
JP2009246919A (en) * 2008-04-01 2009-10-22 Fujifilm Corp Image processing apparatus, image processing method, and image processing program
US8687887B2 (en) 2008-04-01 2014-04-01 Fujifilm Corporation Image processing method, image processing apparatus, and image processing program
JP2012022353A (en) * 2010-07-12 2012-02-02 Nippon Hoso Kyokai <Nhk> Image evaluation device and image evaluation program
EP2797051A2 (en) 2013-04-26 2014-10-29 Omron Corporation Image saliency map determination device, method, program, and recording medium
US9189861B2 (en) 2013-04-26 2015-11-17 Omron Corporation Image processing device, image processing method, program, and recording medium
EP2879080A2 (en) 2013-12-02 2015-06-03 Omron Corporation Image processing device and method, and computer readable medium
JP2015106382A (en) * 2013-12-02 2015-06-08 オムロン株式会社 Image processing apparatus, image processing method and program
KR20150063924A (en) 2013-12-02 2015-06-10 오므론 가부시키가이샤 Image processing apparatus, image processing method and computer readable medium
US9367762B2 (en) 2013-12-02 2016-06-14 Omron Corporation Image processing device and method, and computer readable medium
EP2919162A1 (en) 2014-03-13 2015-09-16 Omron Corporation Image processing apparatus and image processing method
KR20150107579A (en) 2014-03-13 2015-09-23 오므론 가부시키가이샤 Image processing apparatus and image processing method
US9600746B2 (en) 2014-03-13 2017-03-21 Omron Corporation Image processing apparatus and image processing method
JP2016091172A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Image processing device, method for controlling teh same, and program

Also Published As

Publication number Publication date
JP3848514B2 (en) 2006-11-22

Similar Documents

Publication Publication Date Title
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
CN108416377B (en) Information extraction method and device in histogram
CN108229490B (en) Key point detection method, neural network training method, device and electronic equipment
CN108304820B (en) Face detection method and device and terminal equipment
JP4292837B2 (en) Pattern feature extraction method and apparatus
JP4877374B2 (en) Image processing apparatus and program
CN108682007B (en) JPEG image resampling automatic detection method based on depth random forest
TWI254891B (en) Face image detection method, face image detection system, and face image detection program
JP2008537198A (en) Intelligent import of information from a foreign application user interface using artificial intelligence
KR20190082593A (en) System and Method for Reidentificating Object in Image Processing
JP2006323507A (en) Attribute identifying system and attribute identifying method
JP6937508B2 (en) Image processing system, evaluation model construction method, image processing method and program
US9165220B2 (en) Image object recognition based on a feature vector with context information
CN113240655B (en) Method, storage medium and device for automatically detecting type of fundus image
US6606412B1 (en) Method for classifying an object in a moving picture
JP2005148880A (en) Age estimation device, method, and program
JP2022185144A (en) Object detection method and training method and device of object detection model
JP5311899B2 (en) Pattern detector learning apparatus, learning method, and program
JP2001236508A (en) Device and method for calculating remarkability
Ataer-Cansizoglu et al. Verification of very low-resolution faces using an identity-preserving deep face super-resolution network
CN112131969A (en) Remote sensing image change detection method based on full convolution neural network
CN108876776B (en) Classification model generation method, fundus image classification method and device
CN116912604B (en) Model training method, image recognition device and computer storage medium
Gimenez et al. Unsupervised edge map scoring: A statistical complexity approach
CN117437691A (en) Real-time multi-person abnormal behavior identification method and system based on lightweight network

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060825

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees