JP6044234B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6044234B2
JP6044234B2 JP2012217219A JP2012217219A JP6044234B2 JP 6044234 B2 JP6044234 B2 JP 6044234B2 JP 2012217219 A JP2012217219 A JP 2012217219A JP 2012217219 A JP2012217219 A JP 2012217219A JP 6044234 B2 JP6044234 B2 JP 6044234B2
Authority
JP
Japan
Prior art keywords
saliency
motion
image
value
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012217219A
Other languages
Japanese (ja)
Other versions
JP2014071664A (en
Inventor
貴明 畠中
貴明 畠中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2012217219A priority Critical patent/JP6044234B2/en
Publication of JP2014071664A publication Critical patent/JP2014071664A/en
Application granted granted Critical
Publication of JP6044234B2 publication Critical patent/JP6044234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関し、例えば、時間経過により変化する画像領域の顕著性を求める画像処理装置及び画像処理方法に適用し得るものである。   The present invention relates to an image processing apparatus and an image processing method, and can be applied to, for example, an image processing apparatus and an image processing method for obtaining the saliency of an image region that changes over time.

近年、画像処理分野において、ボトムアップ型注意を、客観指標値として算出する方法が研究されている。ボトムアップ型注意で得られた指標値は、例えば、ロボットが物体への接近を瞬時に検出する技術(特許文献2参照)や、また例えば、視覚コンテンツの評価技術(特許文献3参照)に利用されている。ここで、ボトムアップ型注意とは、人や動物が瞬間的に注目領域を特定する反応をいう。   In recent years, in the image processing field, a method for calculating bottom-up type attention as an objective index value has been studied. The index value obtained by the bottom-up type attention is used, for example, for a technique in which a robot instantaneously detects an approach to an object (see Patent Document 2) or for example, a visual content evaluation technique (see Patent Document 3). Has been. Here, bottom-up attention refers to a reaction in which a person or animal instantaneously specifies a region of interest.

画像中の点や領域に対して、人間が瞬間的に注目する度合い、すなわち顕著性の高さを数値化した顕著性値を算出する方法として、非特許文献1に記載のIttiの顕著性モデルが存在する。   Itti's saliency model described in Non-Patent Document 1 is a method for calculating a saliency value obtained by quantifying the degree to which a person instantaneously pays attention to points or regions in an image, that is, the level of saliency. Exists.

目の網膜にある網膜神経節細胞の中に、受容野(Receptive Field)と呼ばれる領域があり、この受容野に光による刺激を受けると、その情報が脳に伝達される。受容野は、中央にある円形の部分(center)とその周辺領域(surround)との2つで構成されており、受容野に置ける仕組みを応用し、Ittiらは、centerとSurroundとの刺激により信号が強くなる箇所(注意を引く場所)を数値化するようなモデルを構築して顕著性マップとした。   In the retinal ganglion cells in the retina of the eye, there is a region called a receptive field, and when this receptive field is stimulated by light, the information is transmitted to the brain. The receptive field is composed of two parts, a circular center in the center and the surrounding area (surround). By applying a mechanism that can be placed in the receptive field, Itti et al. A saliency map was constructed by constructing a model that digitizes the places where the signal is strong (the place where attention is drawn).

特許文献1の記載技術は、非特許文献1に記載の顕著性値を利用して、入力画像の特徴量に基づいて顕著性マップを算出し、この顕著性マップを用いて入力画像の注目点を推定して主要被写体領域と背景領域とを分離するというものである。   The technique described in Patent Document 1 uses the saliency value described in Non-Patent Document 1 to calculate a saliency map based on the feature amount of the input image, and uses this saliency map to focus on the input image. And the main subject area and the background area are separated.

Ittiの顕著性モデルは、画像の輝度、色味(色相、明度、彩度等)、方向を考慮しているが、これは、ある時刻における1画像のみから算出しており、時間領域で変化する画像との間での変化を考慮していない。   The Itti saliency model takes into account the brightness, hue (hue, lightness, saturation, etc.) and direction of the image, but this is calculated from only one image at a certain time and changes in the time domain. Does not consider changes between images.

従って、Ittiの顕著性モデルは、一般的に顕著性が高いとされる、広い領域の色が急激に変わるような時間変化に起因する顕著性が反映されないという課題がある。   Therefore, the Itti saliency model has a problem that the saliency due to a time change in which the color of a wide region changes rapidly, which is generally considered to be highly saliency, is not reflected.

上記課題に対応する技術として非特許文献2に記載の技術がある。非特許文献2において、Guoらは画像の時間変化を反映させた顕著性値を算出している。   There exists a technique of nonpatent literature 2 as a technique corresponding to the above-mentioned subject. In Non-Patent Document 2, Guo et al. Calculate a saliency value reflecting a time change of an image.

図2は、時間変化を反映させた顕著性値を算出する顕著性値算出方式を説明する説明図である。   FIG. 2 is an explanatory diagram for explaining a saliency value calculation method for calculating a saliency value reflecting a time change.

図2に示すように、従来の顕著性値算出方式は、輝度色味顕著性算出部102は、画像入力部101からの入力画像の輝度及び色味(色相、明度、彩度)に関する顕著性を算出して、加算部105に与える。   As shown in FIG. 2, in the conventional saliency value calculation method, the luminance and hue saliency calculation unit 102 is saliency related to the luminance and hue (hue, lightness, and saturation) of the input image from the image input unit 101. Is calculated and given to the adding unit 105.

また、画像入力部101からの入力画像は、時間方向顕著性算出部103及び蓄積部104に蓄積される。また、蓄積部104により予め定められた時間だけ蓄積された画像が、時間方向顕著性算出部103に与えられる。   Further, the input image from the image input unit 101 is accumulated in the time direction saliency calculating unit 103 and the accumulating unit 104. In addition, an image accumulated by the accumulation unit 104 for a predetermined time is given to the time direction saliency calculation unit 103.

そして、時間方向顕著性算出部103は、画像入力部101からの入力画像と、過去の入力画像とに基づいて時間方向顕著性値を算出して加算部105に与える。なお、このとき、遅延に応じた過去の入力画像が存在しない場合、時間方向顕著性は全て「0」として扱う。   Then, the time direction saliency calculation unit 103 calculates a time direction saliency value based on the input image from the image input unit 101 and the past input image, and provides the time direction saliency value to the addition unit 105. At this time, if there is no past input image corresponding to the delay, the time direction saliency is all treated as “0”.

加算部105は、輝度色味顕著性算出部102からの輝度色味顕著性値と、時間方向法顕著性算出部103からの時間方向顕著性値とに対して、予め定められた重みを乗じた上で加算する。これにより、入力画像の輝度色味顕著性値だけでなく、時間方向顕著性値も反映させた統合顕著性値を算出することができる。この統合顕著性値は、後段のデータ処理部106に与えられる。   The adding unit 105 multiplies the luminance color saliency value from the luminance color saliency calculation unit 102 and the time direction saliency value from the time direction method saliency calculation unit 103 by a predetermined weight. Then add. As a result, it is possible to calculate an integrated saliency value that reflects not only the luminance color saliency value of the input image but also the time direction saliency value. This integrated saliency value is given to the data processing unit 106 at the subsequent stage.

特開2011−35636号公報JP 2011-35636 A 特開2007−12047号公報JP 2007-12047 A 特開2011−39778号公報JP 2011-39778 A

Laurent Itti,Christof Koch,Ernst Niebur,“A Model of Saliency-based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.20.No.11,pp.1254-1259,1998年11月Laurent Itti, Christof Koch, Ernst Niebur, “A Model of Saliency-based Visual Attention for Rapid Scene Analysis”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20.No.11, pp.1254-1259, 199811 Moon Chenlei Guo,Liming Zhang,“A Novel Multiresolution Spatiotemporal Saliency Detection Model and Its Applications in Image and Video Compression”,IEEE Transactions on Image Processing,Vol.19.No.1,pp185-198,2010年1月Chenlei Guo, Liming Zhang, “A Novel Multiresolution Spatiotemporal Saliency Detection Model and Its Applications in Image and Video Compression”, IEEE Transactions on Image Processing, Vol.19.No.1, pp185-198, January 2010

しかしながら、非特許文献2の記載技術は、画像中の点の同一位置の時間的変化を反映させることができるが、類似色を含むオブジェクトが移動するような場合、本来オブジェクトが移動しているにもかかわらず、時間経過後の画像における同一位置に類似色が残ることで、本来移動しているはずの点が移動を伴っていないように顕著性が算出される問題がある。   However, the technique described in Non-Patent Document 2 can reflect a temporal change of the same position of a point in an image. However, when an object including a similar color moves, the object is originally moved. Nevertheless, there is a problem in that the saliency is calculated so that the point that should have moved does not accompany movement because the similar color remains in the same position in the image after the elapse of time.

そのため、入力画像の顕著性を算出する際に、時間経過を反映する項に、対象の点又は領域の動きベクトルが、周辺の動きベクトルと異なる度合いを加味した、精度の高い顕著性を算出する画像処理装置及び画像処理方法が求められている。   Therefore, when calculating the saliency of the input image, a highly accurate saliency is calculated by adding the degree that the motion vector of the target point or region is different from the surrounding motion vector to the term reflecting the passage of time. There is a need for an image processing apparatus and an image processing method.

かかる課題を解決するために、第1の本発明は、(1)動画像を構成する入力画像における各画素の特徴量に基づいて顕著性値を求める顕著性算出手段と、(2)入力画像の顕著性値と過去の画像の顕著性値とに基づいて、時間的に変化する時間変化顕著性値を求める時間変化顕著性算出手段と、(3)過去の画像を参照して、入力画像を分割した各領域の動きの顕著性を示す動き顕著性値を算出する動き顕著性算出手段と、(4)顕著性算出手段による顕著性値と、時間変化顕著性値と、動き顕著性値とに基づいて、動画像におけるオブジェクトの動きを反映させた統合顕著性値を求める統合顕著性算出手段とを備え、動き顕著性算出手段が、入力画像を複数の領域に分割し、過去の画像を参照して、入力画像における各領域の動き探索を行う動き探索部と、動き探索部による各領域の動き探索結果を取得し、入力画像における対象領域と1又は複数の周辺領域との動きベクトルの差分量に基づいて、対象領域の動き顕著性値を求める動き顕著性算出部とを有し、動き顕著性算出部が、入力画像における対象領域の動きベクトルと、複数の周辺領域のそれぞれの動きベクトルとの差分量の総和に基づいて上記動き顕著性値を求めるものであることを特徴とする画像処理装置である。 In order to solve this problem, the first aspect of the present invention includes (1) saliency calculation means for obtaining a saliency value based on a feature amount of each pixel in an input image constituting a moving image, and (2) an input image. A time change saliency calculating means for obtaining a time change saliency value that changes with time based on the saliency value of the image and a saliency value of the past image, and (3) an input image with reference to the past image Motion saliency calculating means for calculating a motion saliency value indicating the saliency of the movement of each region obtained by dividing the image, Integrated saliency calculating means for obtaining an integrated saliency value that reflects the movement of an object in a moving image , and the motion saliency calculating means divides the input image into a plurality of regions and stores past images. To search for the motion of each region in the input image. The motion saliency value of the target area is acquired based on the difference amount of the motion vector between the target area and one or a plurality of peripheral areas in the input image. A motion saliency calculating unit that determines the motion saliency based on a sum of differences between a motion vector of the target region in the input image and each of the motion vectors of the plurality of surrounding regions. An image processing apparatus characterized by obtaining a sex value .

第2の本発明は、動画像の顕著性を求める画像処理方法において、(1)顕著性算出手段が、動画像を構成する入力画像における各画素の特徴量に基づいて顕著性値を求める顕著性算出工程と、(2)時間変化顕著性算出手段が、入力画像の顕著性値と過去の画像の顕著性値とに基づいて、時間的に変化する時間変化顕著性値を求める時間変化顕著性算出工程と、(3)動き顕著性算出手段が、過去の画像を参照して、入力画像を分割した各領域の動きの顕著性を示す動き顕著性値を算出する動き顕著性算出工程と、(4)統合顕著性算出手段が、顕著性算出手段による顕著性値と、時間変化顕著性値と、動き顕著性値とに基づいて、動画像におけるオブジェクトの動きを反映させた統合顕著性値を求める統合顕著性算出工程とを有し、動き顕著性算出手段が、入力画像を複数の領域に分割し、過去の画像を参照して、入力画像における各領域の動き探索を行う動き探索工程と、動き探索部による各領域の動き探索結果を取得し、入力画像における対象領域と1又は複数の周辺領域との動きベクトルの差分量に基づいて、対象領域の動き顕著性値を求める動き顕著性算出工程とを有し、動き顕著性算出工程で、入力画像における対象領域の動きベクトルと、複数の周辺領域のそれぞれの動きベクトルとの差分量の総和に基づいて上記動き顕著性値を求めることを特徴とする画像処理方法である。 According to a second aspect of the present invention, in the image processing method for determining the saliency of the moving image, (1) the saliency calculating unit determines the saliency value based on the feature amount of each pixel in the input image constituting the moving image. And (2) time change saliency calculating means for obtaining a time change saliency value that changes with time based on the saliency value of the input image and the saliency value of the past image. And (3) a motion saliency calculating step in which the motion saliency calculating means calculates a motion saliency value indicating the saliency of the motion of each region obtained by dividing the input image with reference to the past image. (4) The integrated saliency calculating unit reflects the movement of the object in the moving image based on the saliency value, the time change saliency value, and the motion saliency value obtained by the saliency calculating unit. possess the integration saliency calculating step of obtaining a value, motion The articulation calculation means divides the input image into a plurality of regions, refers to past images, performs a motion search step of performing a motion search of each region in the input image, and a motion search result of each region by the motion search unit A motion saliency calculating step of obtaining a motion saliency value of the target region based on a difference amount of motion vectors between the target region and one or a plurality of peripheral regions in the input image. The image processing method is characterized in that the motion saliency value is obtained based on the sum of the difference amounts between the motion vector of the target region in the input image and the motion vectors of the plurality of peripheral regions .

本発明によれば、入力画像の顕著性を算出する際に、時間経過を反映する項に、対象の点又は領域の動きベクトルが、周辺の動きベクトルと異なる度合いを加味した、精度の高い顕著性を算出することができる。   According to the present invention, when calculating the saliency of the input image, a high-accuracy saliency is obtained by adding a degree that the motion vector of the target point or region is different from the surrounding motion vector to the term reflecting the passage of time. Sex can be calculated.

実施形態の画像処理装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the image processing apparatus of embodiment. 従来の時間変化に応じた顕著性を算出する画像処理装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the image processing apparatus which calculates the saliency according to the conventional time change.

(A)主たる実施形態
以下、本発明の画像処理装置及び画像処理方法の実施形態を、図面を参照しながら詳細に説明する。
(A) Main Embodiments Hereinafter, embodiments of an image processing apparatus and an image processing method of the present invention will be described in detail with reference to the drawings.

(A−1)実施形態の構成
図1は、実施形態に係る画像処理装置200の機能を示す機能ブロック図である。
(A-1) Configuration of Embodiment FIG. 1 is a functional block diagram illustrating functions of an image processing apparatus 200 according to the embodiment.

画像処理装置200のハードウェア構成は、例えば、CPU、ROM、RAM、EEPROM、入出力インタフェース部等を有して構成され、CPUが、ROMに格納される画像処理プログラムを実行することで図1の機能ブロックを実現する。また、画像処理プログラムはインストールされるものであっても良く、その場合でも、画像処理装置200が実現すると図1の処理が実現される。   The hardware configuration of the image processing apparatus 200 includes, for example, a CPU, a ROM, a RAM, an EEPROM, an input / output interface unit, and the like, and the CPU executes an image processing program stored in the ROM. Realize functional blocks. Further, the image processing program may be installed, and even in that case, when the image processing apparatus 200 is realized, the processing of FIG. 1 is realized.

図1において、画像処理装置200は、画像入力部201、輝度色味顕著性算出部202、時間方向顕著性算出部203、蓄積部204、加算部205、データ処理部206、領域分割部207、動き探索部208、動き顕著性算出部209を有する。なお、領域分割部207、動き探索部208及び動き顕著性算出部209を含む構成を動き顕著性成分生成部210ともいう。   In FIG. 1, an image processing apparatus 200 includes an image input unit 201, a luminance tint saliency calculating unit 202, a time direction saliency calculating unit 203, a storage unit 204, an adding unit 205, a data processing unit 206, an area dividing unit 207, A motion search unit 208 and a motion saliency calculation unit 209 are included. A configuration including the region dividing unit 207, the motion search unit 208, and the motion saliency calculation unit 209 is also referred to as a motion saliency component generation unit 210.

画像入力部201は、入力された入力画像を、輝度色味顕著性算出部202、時間方向顕著性算出部203、蓄積部204及び領域分割部207のそれぞれに与えるものである。画像入力部201がキャプチャーする画像は、動画像を構成する画像を想定する。   The image input unit 201 supplies the input image to each of the luminance and tint saliency calculating unit 202, the time direction saliency calculating unit 203, the accumulating unit 204, and the region dividing unit 207. The image captured by the image input unit 201 is assumed to be an image constituting a moving image.

輝度色味顕著性算出部202は、画像入力部201からの入力画像の輝度色味顕著性値を求め、求めた輝度色味顕著性値を加算部205に与えるものである。つまり、輝度色味顕著性算出部202は、今回入力された入力画像、例えば時刻tに入力された入力画像の顕著性マップを算出するものである。   The luminance and tint saliency calculating unit 202 obtains the luminance and tint saliency value of the input image from the image input unit 201 and gives the obtained luminance and tint saliency value to the adding unit 205. That is to say, the luminance tint saliency calculating unit 202 calculates a saliency map of the input image input this time, for example, the input image input at time t.

輝度色味顕著性算出部202による輝度色味顕著性値の算出方法は、様々な方法を広く適用することができるが、例えば非特許文献1に記載のIttiらの顕著性マップの算出方法を適用することができる。   Various methods can be widely applied to the method of calculating the luminance / tint saliency value by the luminance / tint saliency calculating unit 202. For example, the saliency map calculating method of Itti et al. Can be applied.

例えば、輝度色味顕著性算出部202は、画像入力部201からの入力画像について、原画像から段階的に縮小された複数の画像(スケール画像)を用意する。輝度色味顕著性算出部202は、各スケール画像のそれぞれについて、輝度(Intensity)、色相成分(Color Channel)、方向成分(Orientation)を画素(ピクセル)毎に求め、各スケール画像間で、輝度、色相成分、方向成分の差分を取ることで、輝度、色相成分、方向成分のそれぞれの顕著性値を求める。これらの顕著性値を輝度色味顕著性値という。   For example, the luminance and tint saliency calculating unit 202 prepares a plurality of images (scale images) reduced in stages from the original image for the input image from the image input unit 201. The luminance tint saliency calculating unit 202 obtains luminance (Intensity), hue component (Color Channel), and direction component (Orientation) for each pixel (pixel) for each scale image, and the luminance between the scale images. By calculating the difference between the hue component and the direction component, the saliency values of the luminance, hue component, and direction component are obtained. These saliency values are referred to as luminance color saliency values.

時間方向顕著性算出部203は、画像入力部201からの入力画像と、蓄積部204に所定時間だけ蓄積された過去の画像とに基づいて、時間的に変化した画像中の顕著性値を求めるものである。時間方向顕著性算出部203は、入力画像について各画素の顕著性値と、過去の画像の各画素の顕著性値との差分を取ることで、時間的に変化する顕著性を求める。この時間的に変化する顕著性を時間変化顕著値という。   The time direction saliency calculating unit 203 obtains the saliency value in the temporally changed image based on the input image from the image input unit 201 and the past image stored in the storage unit 204 for a predetermined time. Is. The temporal direction saliency calculating unit 203 obtains the temporally changing saliency by taking the difference between the saliency value of each pixel and the saliency value of each pixel of the past image in the input image. This saliency that changes with time is called a time change saliency value.

時間方向顕著性算出部203による時間方向顕著性値は、様々な方法を広く適用することができるが、例えば非特許文献2に記載のGuoらの顕著性算出方法を適用することができる。   Various methods can be widely applied to the time-direction saliency value by the time-direction saliency calculation unit 203. For example, the saliency calculation method of Guo et al. Described in Non-Patent Document 2 can be applied.

なお、時間方向顕著性算出部203には、蓄積部204から所定時間だけ蓄積された画像が入力されるが、遅延時間が経過するまで、すなわち蓄積部204から過去の画像が与えられるまでは、時間方向顕著性値は全て「0」とする。   The time direction saliency calculating unit 203 receives an image accumulated for a predetermined time from the accumulation unit 204, but until a delay time elapses, that is, until a past image is given from the accumulation unit 204. The time direction saliency values are all “0”.

蓄積部204は、画像入力部201からの入力画像を、所定時間だけ蓄積するものである。蓄積部204は、所定時間の蓄積後、蓄積順序に従って蓄積された画像を時間方向顕著性算出部203に与える。つまり、所定時間だけ蓄積された過去の画像が時間方向顕著性算出部203に与えられる。   The accumulation unit 204 accumulates the input image from the image input unit 201 for a predetermined time. The accumulation unit 204 gives the image accumulated in accordance with the accumulation order to the time direction saliency calculation unit 203 after accumulation for a predetermined time. That is, past images accumulated for a predetermined time are given to the time direction saliency calculating unit 203.

動き顕著性成分生成部210は、画像入力部201からの入力画像と、蓄積部204に蓄積される過去の入力画像とに基づいて、画像中のオブジェクト(対象)の動きの顕著性成分を生成するものである。   The movement saliency component generation unit 210 generates a movement saliency component of the object (target) in the image based on the input image from the image input unit 201 and the past input image stored in the storage unit 204. To do.

また、上述したように、動き顕著性成分生成部210は、領域分割部207、動き探索部208、動き顕著性算出部209を有する。   Further, as described above, the motion saliency component generation unit 210 includes the region dividing unit 207, the motion search unit 208, and the motion saliency calculation unit 209.

領域分割部207は、画像入力部201からの入力画像を所定の領域に分割するものである。領域分割部207は、後述する動き探索部208による動き探索を行うため、入力画像を複数の領域に分割する。ここで、領域分割部207による画像領域の分割方法は、例えば、所定画素数(例えば16×16画素)を1領域として入力画像を分割する。勿論、分割する1領域は、16×16画素に限定されるものではなく、例えば4×4画素や8×8画素等を1領域としても良い。また例えば、正方形以外の形状(例えば矩形形状等)を1領域として分割しても良い。   The area dividing unit 207 divides the input image from the image input unit 201 into predetermined areas. The region dividing unit 207 divides the input image into a plurality of regions in order to perform a motion search by a motion search unit 208 described later. Here, the image area dividing method by the area dividing unit 207 divides the input image, for example, with a predetermined number of pixels (for example, 16 × 16 pixels) as one area. Of course, one area to be divided is not limited to 16 × 16 pixels. For example, 4 × 4 pixels, 8 × 8 pixels, or the like may be used as one area. Further, for example, a shape other than a square (for example, a rectangular shape) may be divided as one region.

動き探索部208は、領域分割部207により分割された領域分割情報と、入力画像とを領域分割部207から取得する。また、動き探索部208は、今回の入力画像と蓄積部204に蓄積される過去の入力画像とに基づいて、動き探索を行い、入力画像の各領域の動きベクトル情報を求めるものである。さらに、動き探索部208は、入力画像の領域分割情報と、各領域の動きベクトル情報を動き顕著性算出部209に与える。   The motion search unit 208 acquires the area division information divided by the area division unit 207 and the input image from the area division unit 207. The motion search unit 208 performs a motion search based on the current input image and the past input image stored in the storage unit 204, and obtains motion vector information of each area of the input image. Furthermore, the motion search unit 208 provides the segmentation information of the input image and the motion vector information of each region to the motion saliency calculation unit 209.

動き顕著性算出部209は、動き探索部208から入力画像の領域分割情報と各領域の動きベクトル情報とを受け取り、各分割領域の動き顕著性値を求めて、加算部205に与えるものである。つまり、動き顕著性算出部209は、対象領域とその周辺領域の動きベクトルの差分量を求める。これにより、対象領域の動きベクトルと周辺領域の動きベクトルの差分量の総和を動き顕著性値として出力することができる。   The motion saliency calculating unit 209 receives the region division information of the input image and the motion vector information of each region from the motion search unit 208, obtains the motion saliency value of each divided region, and gives it to the adding unit 205. . That is, the motion saliency calculation unit 209 obtains a difference amount between the motion vectors of the target region and the surrounding region. As a result, the sum of the difference amounts between the motion vector of the target region and the motion vector of the peripheral region can be output as the motion saliency value.

加算部205は、上記顕著性算出手段による上記顕著性値と、上記時間変化顕著性値と、上記動き顕著性値とに基づいて、動画像におけるオブジェクトの動きを反映させた統合顕著性値を求めるものである。   The adding unit 205 calculates an integrated saliency value reflecting the motion of the object in the moving image based on the saliency value by the saliency calculating unit, the time change saliency value, and the motion saliency value. It is what you want.

つまり、加算部205は、輝度色味顕著性算出部202からの輝度色味顕著性値と、時間方向顕著性算出部203からの時間方向顕著性値と、動き顕著性算出部209からの動き顕著性値とに対して所定の重み係数を付与して、各顕著性値の成分を加算して統合顕著性値を求めるものである。   In other words, the adding unit 205 performs the luminance tint saliency value from the luminance tint saliency calculating unit 202, the time direction saliency value from the time direction saliency calculating unit 203, and the movement from the motion saliency calculating unit 209. A predetermined weighting coefficient is assigned to the saliency value, and components of each saliency value are added to obtain an integrated saliency value.

データ処理部206は、加算部205により求められた統合顕著性値を用いて、所定のデータ処理を行うものである。データ処理部206のデータ処理の内容は、動画像の顕著性値を利用した処理であれば特に限定されるものではない。   The data processing unit 206 performs predetermined data processing using the integrated saliency value obtained by the adding unit 205. The content of the data processing of the data processing unit 206 is not particularly limited as long as the processing uses the saliency value of the moving image.

(A−2)実施形態の動作
次に、この実施形態の画像処理装置200による動画像の顕著性値を算出する処理の動作を説明する。
(A-2) Operation of Embodiment Next, an operation of processing for calculating a saliency value of a moving image by the image processing apparatus 200 of this embodiment will be described.

図1において、画像入力部201に動画像としての1フレームの画像が入力されると、入力画像は、輝度色味顕著性算出部202、時間方向顕著性算出部203、蓄積部204及び領域分割部207に入力される。   In FIG. 1, when one frame image as a moving image is input to the image input unit 201, the input image is divided into a luminance tint saliency calculation unit 202, a time direction saliency calculation unit 203, a storage unit 204, and a region division. Input to the unit 207.

輝度色味顕著性算出部202は、入力画像に基づいて、輝度及び色味に関する顕著性値が算出され、その算出された顕著性値が加算部205に与えられる。   The luminance and hue saliency calculating unit 202 calculates saliency values related to luminance and hue based on the input image, and the calculated saliency values are given to the adding unit 205.

輝度色味顕著性算出部202は、例えば、非特許文献1に記載の技術により輝度及び色味に関する顕著性値を算出する。   For example, the luminance and tint saliency calculating unit 202 calculates a saliency value related to luminance and tint by the technique described in Non-Patent Document 1.

例えば、輝度色味顕著性算出部202は、画像入力部201からの入力画像について、原画像から段階的に縮小された複数の画像(スケール画像)を生成する。輝度色味顕著性算出部202は、各スケール画像のそれぞれについて、特徴量としての、輝度(Intensity)、色相成分(Color Channel)、方向成分(Orientation)を求め、各スケール画像間で、輝度、色相成分、方向成分の差分を取ることで、輝度、色相成分、方向成分のそれぞれの顕著性値を求める。   For example, the luminance and tint saliency calculating unit 202 generates a plurality of images (scale images) that are reduced in stages from the original image for the input image from the image input unit 201. The luminance tint saliency calculating unit 202 obtains luminance (Intensity), a hue component (Color Channel), and a direction component (Orientation) as feature amounts for each scale image, and the luminance, By calculating the difference between the hue component and the direction component, the saliency values of the luminance, the hue component, and the direction component are obtained.

例えば、σ番目のスケール画像のRGB成分を、赤成分r(σ)、緑成分g(σ)、青成分b(σ)とすると、輝度色味顕著性算出部202は、σ番目のスケール画像に対する各ピクセルの輝度I(σ)を以下の式(1)のように計算する。   For example, assuming that the RGB component of the σth scale image is a red component r (σ), a green component g (σ), and a blue component b (σ), the luminance tone saliency calculating unit 202 performs the σth scale image. The luminance I (σ) of each pixel with respect to is calculated as in the following equation (1).

I(σ)={r(σ)+g(σ)+b(σ)}/3 …(1)
そして、輝度色味顕著性算出部202は、各スケール画像間の輝度の差分を求める。このとき、各スケール画像の大きさはバラバラなので、輝度色味顕著性算出部202は、サイズの小さい側を大きい側に合わせて伸張させた上でピクセル毎に差分を求める。サイズの大きい側は、中心(Center)の画素、サイズの小さい側は中心の画素とその周辺(Surround)の画素を含む平均を表す。輝度色味顕著性算出部202は、輝度に対する差異I(c,s)=|I(c)−I(s)|で求めることができる。
I (σ) = {r (σ) + g (σ) + b (σ)} / 3 (1)
Then, the luminance tint saliency calculating unit 202 obtains a luminance difference between the scale images. At this time, since the size of each scale image is different, the luminance tint saliency calculating unit 202 obtains a difference for each pixel after extending the smaller size side to the larger side. The larger side represents the center pixel, and the smaller side represents the average including the center pixel and the surrounding pixels. The luminance tint saliency calculating unit 202 can obtain the luminance difference I (c, s) = | I (c) −I (s) |.

次に、輝度色味顕著性算出部202は、色彩に対する輝度の影響を除外するため、RGB各成分を輝度で正規化する。正規化したRGB成分を使用して、色相成分として、赤R(σ)、緑G(σ)、青B(σ)、黄Y(σ)の各値を求める。

Figure 0006044234
Next, the luminance tint saliency calculating unit 202 normalizes each RGB component with the luminance in order to exclude the influence of the luminance on the color. Using normalized RGB components, values of red R (σ), green G (σ), blue B (σ), and yellow Y (σ) are obtained as hue components.
Figure 0006044234

輝度色味顕著性算出部202は、上記式(2)により、色相成分の各値が負数になった場合、その値をゼロとする。   The luminance and tint saliency calculating unit 202 sets the value to zero when each value of the hue component becomes a negative number according to the above equation (2).

輝度色味顕著性算出部202は、ある中心部分の色相は周辺部分の色相によって抑制されるので、色相の組み合わせとしては、赤と緑、青と黄がある。従って、輝度色味顕著性算出部202は、赤と緑(又は青と黄)の差異について中央部と周辺部の差を求めることで色相成分の顕著性を取得する。   Since the hue at a certain central portion is suppressed by the hue at the peripheral portion, the luminance hue saliency calculating unit 202 includes red and green and blue and yellow as combinations of hues. Therefore, the brightness and tint saliency calculating unit 202 obtains the saliency of the hue component by obtaining the difference between the central part and the peripheral part for the difference between red and green (or blue and yellow).

RB(c,s)=|{R(c)−G(c)}−{G(s)−R(s)}|…(3)
BY(c,s)=|{B(c)−Y(c)}−{Y(s)−B(s)}|…(4)
次に、輝度色味顕著性算出部202は、例えばガウスフィルタ(例えばカボールフィルタ等)を用いて、回転角θ=0°、45°、90°、135°の4方向に対して畳み込み積分を行う。輝度色味顕著性算出部202は、方向性のCenter−Surroundスケール間の差分が方向性コントラストO(c,s,θ)を求める。
RB (c, s) = | {R (c) −G (c)} − {G (s) −R (s)} | (3)
BY (c, s) = | {B (c) −Y (c)} − {Y (s) −B (s)} | (4)
Next, the luminance tint saliency calculating unit 202 uses, for example, a Gaussian filter (for example, a Kabor filter) to convolve and integrate the four directions of rotation angles θ = 0 °, 45 °, 90 °, and 135 °. I do. The luminance tint saliency calculating unit 202 obtains the directional contrast O (c, s, θ) based on the difference between the directional Center-Surround scales.

なお、輝度色味顕著性算出部202による輝度色味顕著性値の算出方法については、非特許文献1の記載技術を参照することができる。   Note that the technology described in Non-Patent Document 1 can be referred to for the method of calculating the luminance / color saliency value by the luminance / color saliency calculating unit 202.

時間方向顕著性算出部203は、画像入力部201からの入力画像と、所定時間だけ蓄積された過去の画像とに基づいて、時間的に変化した画像の顕著性を求める。   The time direction saliency calculating unit 203 obtains the saliency of the temporally changed image based on the input image from the image input unit 201 and the past image accumulated for a predetermined time.

時間方向顕著性算出部203は、例えば、非特許文献2に記載の技術により時間的に変化する時間方向顕著性値を算出する。つまり、時間方向顕著性算出部203は、動画像を構成するある画像フレームの顕著性値と、所定時間だけ蓄積された画像フレームの顕著性値とを比較して、時間的に変化する時間方向顕著性値を求める。   The time direction saliency calculating unit 203 calculates, for example, a time direction saliency value that changes with time according to the technique described in Non-Patent Document 2. That is, the time direction saliency calculation unit 203 compares the saliency value of a certain image frame constituting the moving image with the saliency value of the image frame accumulated for a predetermined time, and changes in time direction. Determine the saliency value.

例えば、時間方向顕著性算出部203は、時刻tの入力画像のRGB成分を、赤成分r(t)、緑成分g(t)、青成分b(t)とすると、時刻tの入力画像の各ピクセルの輝度I(t)を以下のように計算する。   For example, if the RGB component of the input image at time t is a red component r (t), a green component g (t), and a blue component b (t), the time direction saliency calculating unit 203 The luminance I (t) of each pixel is calculated as follows.

I(t)={r(t)+g(t)+b(t)}/3 …(5)
M(t)=|I(t)−I(t−τ)| …(6)
ここで、τは遅延時間を示す。式(6)は、時刻tにキャプチャーした入力画像と、蓄積部204に蓄積されている所定時間だけ過去の入力画像との輝度の差分量である。
I (t) = {r (t) + g (t) + b (t)} / 3 (5)
M (t) = | I (t) −I (t−τ) | (6)
Here, τ represents a delay time. Expression (6) is a luminance difference amount between the input image captured at time t and the past input image stored in the storage unit 204 for a predetermined time.

また、時間方向顕著性算出部203は、遅延に応じた過去の入力画像が存在しない場合は、時間方向顕著性は全て「0」として扱う。   The time direction saliency calculating unit 203 treats all the time direction saliency as “0” when there is no past input image corresponding to the delay.

なお、時間方向顕著性算出部203による時間変化に応じた時間変化顕著性値の算出方法については、非特許文献2の記載技術を参照することができる。   For the method of calculating the time change saliency value according to the time change by the time direction saliency calculation unit 203, the technique described in Non-Patent Document 2 can be referred to.

領域分割部207は、画像入力部201から入力された画像フレームを、予め定められた方法で複数の領域に分割する。領域分割部207は、例えば16×16ピクセルを1領域とし、画像フレームを複数の領域に分割する。   The area dividing unit 207 divides the image frame input from the image input unit 201 into a plurality of areas by a predetermined method. The area dividing unit 207 divides an image frame into a plurality of areas, for example, with 16 × 16 pixels as one area.

動き探索部208は、領域分割部207により分割された領域分割情報を取得する。また、動き探索部208は、入力画像のフレームと蓄積部204に蓄積される所定時間だけの過去の画像フレームとに基づいて、入力画像のフレームの各領域に対して動き探索を行い、各領域の動きベクトルを求める。   The motion search unit 208 acquires the area division information divided by the area division unit 207. In addition, the motion search unit 208 performs a motion search on each area of the input image frame based on the input image frame and the past image frames stored in the storage unit 204 for a predetermined time. Find the motion vector of.

動き探索部208は、入力画像のフレームの各領域の動きベクトルを求めることにある。つまり、動き探索部208は、蓄積部204に所定時間だけ蓄積された過去の入力画像のフレームを参照フレームとして、今回の入力画像のフレームの各領域の動き探索を行い、各領域の動きベクトルを求める。   The motion search unit 208 is to obtain a motion vector of each area of the frame of the input image. That is, the motion search unit 208 performs a motion search of each area of the current input image frame using the past input image frame accumulated in the accumulation unit 204 for a predetermined time as a reference frame, and obtains a motion vector of each area. Ask.

ここで、動き探索部208による動き探索の方法は、種々の方法を広く適用することができる。例えば、画像の検索範囲を順番に全て検索する「全検索方法」、対象の存在確率が高い場所から螺旋状に範囲を広げながら検索する「スパイラル検索方法」、画面における初期検索位置を中心としてコストを評価して、そのコストが最小となるまで検索する「ダイヤモンド検索方法」、ダイヤモンド検索方法での初期検索位置とする候補を補正した「MVFAST方法(Motion Vector Field Adaptive Serch Technique)」、MVFAST方法を拡張した「PMVFAST」、動きベクトルのビット量に基づいて検索する「MVビット量方法」、レート歪「RD(Rate Distortion)理論法」等を広く適用することができる。また、動き探索の方法は、上記に挙げたものに限定されるものではなく、上記の方法の拡張方法や組み合わせた方法等も適用できる。   Here, various methods can be widely applied as the motion search method by the motion search unit 208. For example, the “all search method” that searches all image search ranges in order, the “spiral search method” that searches while expanding the range in a spiral from a place where the target existence probability is high, and the cost centered on the initial search position on the screen “Diamond Search Method” that searches until the cost is minimized, “MVFAST Method (Motion Vector Field Adaptive Serch Technique)” that corrects candidates for the initial search position in the diamond search method, and MVFAST Method The expanded “PMVFAST”, the “MV bit amount method” for searching based on the bit amount of the motion vector, the rate distortion “RD (Rate Distortion) theory method”, and the like can be widely applied. In addition, the motion search method is not limited to the above-described method, and an extended method or a combined method of the above methods can be applied.

動き顕著性算出部209は、入力された画像フレームの各領域の動き顕著性値を算出する。   The motion saliency calculation unit 209 calculates the motion saliency value of each area of the input image frame.

例えば、i行j列の領域に対する動き顕著性Sv(j、i)は、下記式(7)で算出する。

Figure 0006044234
For example, the motion saliency Sv (j, i) for the region of i rows and j columns is calculated by the following equation (7).
Figure 0006044234

ここで、||・||は、ベクトルのユークリッドノルムとする。また、V(j,i)は、i行j列の領域に対する動きベクトルとする。   Here, || · || is a vector Euclidean norm. Further, V (j, i) is a motion vector for the region of i rows and j columns.

式(7)は、対象領域(i行j列の領域)と、その対象領域の上下左右に隣接する領域を周辺領域として、対象領域の動きベクトルと、各周辺領域の動きベクトルの差分量の総和を動き顕著性値とするものである。   Expression (7) is obtained by calculating the difference amount between the motion vector of the target region and the motion vector of each peripheral region, with the target region (region of i rows and j columns) and a region adjacent to the target region in the vertical and horizontal directions as the peripheral region. The sum is used as a motion saliency value.

つまり、動き顕著性算出部209によれば、画像中のオブジェクトの動きの量を考慮した顕著性の成分を求めることができる。これにより、あるオブジェクトが類似色であっても、そのオブジェクトの動きを反映させることができるので、動画像の顕著性値の精度を向上させることができる。   That is, according to the motion saliency calculation unit 209, a saliency component can be obtained in consideration of the amount of motion of the object in the image. Thereby, even if a certain object is a similar color, since the motion of the object can be reflected, the precision of the saliency value of the moving image can be improved.

なお、ここでは、周辺領域は、対象領域の上下左右に隣接する4個の領域とする場合を例示するが、対象領域の斜め方向に存在する他の4個の領域の全部又は一部を含むようにしてもよい。   In this example, the peripheral region is exemplified as four regions adjacent to the target region in the top, bottom, left, and right directions, but includes all or part of the other four regions existing in the diagonal direction of the target region. You may make it.

また、周辺領域は、対象領域に隣接する領域と対象領域に隣接しない領域とを含むものとしてもよいし、又は対象領域に隣接しない領域としてもよい。対象領域に隣接しない領域を含むものを周辺領域とする場合、対象領域の動き顕著性値は、対象領域から離れた領域の動きベクトルとの間の差分量を求めることになるため、例えば画像中において、オブジェクトが占める画像領域が広い場合(すなわちオブジェクト画像が大きい場合)に有効である。   The peripheral region may include a region adjacent to the target region and a region not adjacent to the target region, or may be a region not adjacent to the target region. When a region including a region that is not adjacent to the target region is used as a peripheral region, the motion saliency value of the target region is obtained as a difference amount from a motion vector of a region far from the target region. This is effective when the image area occupied by the object is wide (that is, when the object image is large).

さらに、式(7)では、ユークリッドノルムの2乗和で動き顕著性値を求める場合を例示したが、ユークリッドノルムの和であってもよい。   Furthermore, although the case where the motion saliency value is obtained by the square sum of the Euclidean norm is exemplified in Expression (7), the sum of the Euclidean norm may be used.

また、周辺領域が対象領域に隣接しない領域とする場合、対象領域と周辺領域との間の距離に反比例する重み係数を用いるようにしてもよい。これにより、例えば、対象領域の動きベクトルと、対象領域から比較的離れた領域の動きベクトルとの差分量の寄与度を小さくすることができる。   Further, when the peripheral region is not adjacent to the target region, a weighting factor that is inversely proportional to the distance between the target region and the peripheral region may be used. Thereby, for example, it is possible to reduce the contribution of the difference amount between the motion vector of the target region and the motion vector of a region relatively far from the target region.

さらに、対象領域と周辺領域との間の距離が、予め定められた閾値より大きい場合、その差分量に乗じる重み係数を「0」とするようにしてもよい。これにより、対象領域の動きベクトルと、対象領域から閾値以上離れた領域の動きベクトルとの差分量を削除することができる。   Furthermore, when the distance between the target region and the peripheral region is larger than a predetermined threshold, the weighting factor by which the difference amount is multiplied may be set to “0”. As a result, the difference amount between the motion vector of the target region and the motion vector of the region separated from the target region by a threshold or more can be deleted.

動き顕著性算出部209は、入力された画像フレームの各領域について、式(7)に従って動き顕著性値Sv(j,i)を求めて、加算部205に与える。   The motion saliency calculation unit 209 obtains a motion saliency value Sv (j, i) according to the equation (7) for each region of the input image frame, and gives it to the addition unit 205.

加算部205は、輝度色味顕著性算出部202からの輝度色味顕著性値と、時間方向顕著性値算出部203からの時間方向顕著性値と、動き顕著性算出部209からの動き顕著性値とを受け取り、予め定められた重み係数を各顕著性値に乗じて、重み係数を乗じた後の各顕著性値の成分を加算して統合顕著性値を求める。   The adding unit 205 includes a luminance tint saliency value from the luminance tint saliency calculating unit 202, a time direction saliency value from the time direction saliency value calculating unit 203, and a motion saliency from the motion saliency calculating unit 209. The saliency value is received, the predetermined saliency value is multiplied by each saliency value, and the components of each saliency value after being multiplied by the weight coefficient are added to obtain an integrated saliency value.

これにより、画像におけるオブジェクトの動きを反映させた顕著性を得ることができる。   Thereby, the saliency reflecting the movement of the object in the image can be obtained.

データ処理部206は、加算部205からの統合顕著性値を用いて所定のデータ処理を行う。   The data processing unit 206 performs predetermined data processing using the integrated saliency value from the addition unit 205.

(A−3)実施形態の効果
以上のように、この実施形態によれば、従来の時間的に変化する顕著性値に、さらに、周辺領域と異なる動きをしている領域に対して、その領域の動きの量に応じた顕著性値を上乗せすることにより、顕著性値の精度を向上させることができる。
(A-3) Effects of the Embodiment As described above, according to this embodiment, the saliency value that changes with time is further increased with respect to an area that moves differently from the surrounding area. By adding the saliency value corresponding to the amount of movement of the region, the accuracy of the saliency value can be improved.

(B)他の実施形態
上述した実施形態でも、本発明の種々の変形実施形態を説明したが、以下の他の変形実施形態も本発明は適用することができる。
(B) Other Embodiments In the above-described embodiments, various modified embodiments of the present invention have been described. However, the present invention can also be applied to other modified embodiments described below.

上述した実施形態において、輝度及び色味に関する顕著性値の算出方法は、非特許文献1に記載の方法を適用するものとしたが、非特許文献1の記載技術に限定されるものではなく、拡張方式等を広く適用することができる。また、上述した実施形態において、時間変化顕著性値の算出方法は、非特許文献2に記載の方法を適用するものとしたが、これに限定されるものではない。   In the above-described embodiment, the method of calculating the saliency value related to luminance and color is assumed to apply the method described in Non-Patent Document 1, but is not limited to the description technique of Non-Patent Document 1, An expansion method etc. can be widely applied. In the embodiment described above, the method described in Non-Patent Document 2 is applied as the method for calculating the temporal change saliency value. However, the present invention is not limited to this.

また、上述した実施形態では、色味に関する顕著性成分の一例として色相成分とする場合を例示したが、明度や彩度に関する顕著性を用いるようにしてもよい。   Further, in the above-described embodiment, the case where the hue component is used as an example of the saliency component relating to the color is illustrated, but the saliency relating to the brightness and the saturation may be used.

上述した実施形態において、加算部は、各顕著性値に対して正規化処理を行うようにしてもよい。例えば、顕著性マップ上の値が所定の範囲に属するように正規化するようにしてもよいし、顕著性マップ上の最大値を検出し、その最大値近い値が周辺に存在する場合には、それらの値を平均化するようにしてもよい。また、顕著性マップ上の全てに値に所定値を掛けて正規化するようにしてもよい。   In the embodiment described above, the adding unit may perform normalization processing on each saliency value. For example, normalization may be performed so that values on the saliency map belong to a predetermined range, or when a maximum value on the saliency map is detected and a value close to the maximum value exists in the vicinity These values may be averaged. Alternatively, normalization may be performed by multiplying all values on the saliency map by a predetermined value.

上述した実施形態におけるデータ処理部は、統合顕著値を利用した様々なデータ処理に適用することができる。例えば、画像中におけるオブジェクト領域と、それ以外の領域とを分離する処理や、ナビゲーションシステムにおける画像処理や、ゲーム機における画像処理や、ビデオカメラ等による動画像処理等に広く適用できる。   The data processing unit in the embodiment described above can be applied to various data processing using the integrated saliency value. For example, the present invention can be widely applied to processing for separating an object region and other regions in an image, image processing in a navigation system, image processing in a game machine, moving image processing using a video camera, and the like.

200…画像処理装置、201…画像入力部、202…輝度色味顕著性算出部、203…時間方向顕著性算出部、204…蓄積部、205…加算部、206…データ処理部、207…領域分割部、208…動き探索部、209…動き顕著性算出部、210…動き顕著性成分生成部。   DESCRIPTION OF SYMBOLS 200 ... Image processing apparatus, 201 ... Image input part, 202 ... Luminance tint saliency calculation part, 203 ... Time direction saliency calculation part, 204 ... Accumulation part, 205 ... Addition part, 206 ... Data processing part, 207 ... Area | region Dividing unit, 208... Motion search unit, 209... Motion saliency calculating unit, 210.

Claims (4)

動画像を構成する入力画像における各画素の特徴量に基づいて顕著性値を求める顕著性算出手段と、
上記入力画像の顕著性値と過去の画像の顕著性値とに基づいて、時間的に変化する時間変化顕著性値を求める時間変化顕著性算出手段と、
過去の画像を参照して、上記入力画像を分割した各領域の動きの顕著性を示す動き顕著性値を算出する動き顕著性算出手段と、
上記顕著性算出手段による上記顕著性値と、上記時間変化顕著性値と、上記動き顕著性値とに基づいて、動画像におけるオブジェクトの動きを反映させた統合顕著性値を求める統合顕著性算出手段と
を備え
上記動き顕著性算出手段が、
上記入力画像を複数の領域に分割し、過去の画像を参照して、上記入力画像における各領域の動き探索を行う動き探索部と、
上記動き探索部による上記各領域の動き探索結果を取得し、上記入力画像における対象領域と1又は複数の周辺領域との動きベクトルの差分量に基づいて、対象領域の動き顕著性値を求める動き顕著性算出部と
を有し、
上記動き顕著性算出部が、上記入力画像における対象領域の動きベクトルと、複数の周辺領域のそれぞれの動きベクトルとの差分量の総和に基づいて上記動き顕著性値を求めるものである
ことを特徴とする画像処理装置。
Saliency calculating means for obtaining a saliency value based on the feature amount of each pixel in the input image constituting the moving image;
Based on the saliency value of the input image and the saliency value of the past image, time change saliency calculation means for obtaining a time change saliency value that changes with time,
A motion saliency calculating means for calculating a motion saliency value indicating the saliency of motion of each region obtained by dividing the input image with reference to past images;
Integrated saliency calculation for obtaining an integrated saliency value reflecting the movement of an object in a moving image based on the saliency value, the time change saliency value, and the motion saliency value by the saliency calculating means. and means,
The motion saliency calculating means is
A motion search unit that divides the input image into a plurality of regions, refers to past images, and performs a motion search of each region in the input image;
A motion for obtaining a motion saliency value of a target region based on a motion vector difference amount between the target region and one or a plurality of peripheral regions in the input image by acquiring a motion search result of each region by the motion search unit With the saliency calculator
Have
The motion saliency calculating unit obtains the motion saliency value based on a sum of difference amounts between a motion vector of a target region in the input image and motion vectors of a plurality of surrounding regions. An image processing apparatus.
上記動き顕著性算出部が、上記入力画像における対象領域と、それぞれの周辺領域との距離に応じた重みを、対象領域の動きベクトルと各周辺領域の動きベクトルとの差分量に付与して上記動き顕著性値を求めるものであることを特徴とする請求項に記載の画像処理装置。 The motion saliency calculating unit assigns a weight according to the distance between the target area in the input image and each peripheral area to the difference amount between the motion vector of the target area and the motion vector of each peripheral area. The image processing apparatus according to claim 1 , wherein a motion saliency value is obtained. 上記動き顕著性算出部が、上記入力画像における対象領域と周辺領域との距離が閾値を超える場合、対象領域の動きベクトルと当該周辺領域の動きベクトルとの差分量を削除することを特徴とする請求項1又は2に記載の画像処理装置。 When the distance between the target area and the peripheral area in the input image exceeds a threshold, the motion saliency calculating unit deletes the difference amount between the motion vector of the target area and the motion vector of the peripheral area The image processing apparatus according to claim 1 . 動画像の顕著性を求める画像処理方法において、
顕著性算出手段が、動画像を構成する入力画像における各画素の特徴量に基づいて顕著性値を求める顕著性算出工程と、
時間変化顕著性算出手段が、上記入力画像の顕著性値と過去の画像の顕著性値とに基づいて、時間的に変化する時間変化顕著性値を求める時間変化顕著性算出工程と、
動き顕著性算出手段が、過去の画像を参照して、上記入力画像を分割した各領域の動きの顕著性を示す動き顕著性値を算出する動き顕著性算出工程と、
統合顕著性算出手段が、上記顕著性算出手段による上記顕著性値と、上記時間変化顕著性値と、上記動き顕著性値とに基づいて、動画像におけるオブジェクトの動きを反映させた統合顕著性値を求める統合顕著性算出工程と
を有し、
上記動き顕著性算出手段が、
上記入力画像を複数の領域に分割し、過去の画像を参照して、上記入力画像における各領域の動き探索を行う動き探索工程と、
上記動き探索部による上記各領域の動き探索結果を取得し、上記入力画像における対象領域と1又は複数の周辺領域との動きベクトルの差分量に基づいて、対象領域の動き顕著性値を求める動き顕著性算出工程と
を有し、
上記動き顕著性算出工程で、上記入力画像における対象領域の動きベクトルと、複数の周辺領域のそれぞれの動きベクトルとの差分量の総和に基づいて上記動き顕著性値を求める
ことを特徴とする画像処理方法。
In an image processing method for determining the saliency of a moving image,
A saliency calculating means for obtaining a saliency value based on a feature amount of each pixel in the input image constituting the moving image; and
A time-change saliency calculating step for obtaining a time-change saliency value that changes with time based on the saliency value of the input image and the saliency value of the past image;
A motion saliency calculating unit that calculates a motion saliency value indicating the saliency of the motion of each region obtained by dividing the input image with reference to a past image;
The integrated saliency calculation unit reflects the movement of the object in the moving image based on the saliency value obtained by the saliency calculation unit, the time change saliency value, and the motion saliency value. possess the integration saliency calculating step of obtaining a value,
The motion saliency calculating means is
Dividing the input image into a plurality of regions, referring to past images, a motion search step of performing a motion search of each region in the input image;
A motion for obtaining a motion saliency value of a target region based on a motion vector difference amount between the target region and one or a plurality of peripheral regions in the input image by acquiring a motion search result of each region by the motion search unit Saliency calculation process and
Have
An image characterized in that, in the motion saliency calculating step, the motion saliency value is obtained based on a sum of differences between a motion vector of a target region in the input image and motion vectors of a plurality of surrounding regions. Processing method.
JP2012217219A 2012-09-28 2012-09-28 Image processing apparatus and image processing method Active JP6044234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012217219A JP6044234B2 (en) 2012-09-28 2012-09-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012217219A JP6044234B2 (en) 2012-09-28 2012-09-28 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2014071664A JP2014071664A (en) 2014-04-21
JP6044234B2 true JP6044234B2 (en) 2016-12-14

Family

ID=50746810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012217219A Active JP6044234B2 (en) 2012-09-28 2012-09-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6044234B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4189358B2 (en) * 2004-06-17 2008-12-03 株式会社東芝 Image coding apparatus and method
US9538219B2 (en) * 2011-02-04 2017-01-03 Panasonic Intellectual Property Corporation Of America Degree of interest estimating device and degree of interest estimating method

Also Published As

Publication number Publication date
JP2014071664A (en) 2014-04-21

Similar Documents

Publication Publication Date Title
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
CN108122208B (en) Image processing apparatus and method for foreground mask correction for object segmentation
US9405960B2 (en) Face hallucination using convolutional neural networks
US9619708B2 (en) Method of detecting a main subject in an image
US7382902B2 (en) Evaluation of the definition of an eye iris image
US9710698B2 (en) Method, apparatus and computer program product for human-face features extraction
CN110493488B (en) Video image stabilization method, video image stabilization device and computer readable storage medium
KR20180065889A (en) Method and apparatus for detecting target
CN110264493A (en) A kind of multiple target object tracking method and device under motion state
US8774519B2 (en) Landmark detection in digital images
CN110191287B (en) Focusing method and device, electronic equipment and computer readable storage medium
EP3526767A1 (en) Determining variance of a block of an image based on a motion vector for the block
JP2015099559A (en) Image processing apparatus, image processing method, and program
JP2019057815A (en) Monitoring system
CN108369739B (en) Object detection device and object detection method
CN108647605B (en) Human eye gaze point extraction method combining global color and local structural features
CN111611836A (en) Ship detection model training and ship tracking method based on background elimination method
RU2647645C1 (en) Method of eliminating seams when creating panoramic images from video stream of frames in real-time
CN116051736A (en) Three-dimensional reconstruction method, device, edge equipment and storage medium
JP6044234B2 (en) Image processing apparatus and image processing method
US20040101169A1 (en) Determination of a definition score of a digital image
JP5786838B2 (en) Image region dividing apparatus, method, and program
JP2021009493A (en) Image processing device, control method of image processing device, and program
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
Rahman et al. Real-time face-based auto-focus for digital still and cell-phone cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R150 Certificate of patent or registration of utility model

Ref document number: 6044234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150