JP6669376B2 - Image processing apparatus, control method therefor, and program - Google Patents

Image processing apparatus, control method therefor, and program Download PDF

Info

Publication number
JP6669376B2
JP6669376B2 JP2014222686A JP2014222686A JP6669376B2 JP 6669376 B2 JP6669376 B2 JP 6669376B2 JP 2014222686 A JP2014222686 A JP 2014222686A JP 2014222686 A JP2014222686 A JP 2014222686A JP 6669376 B2 JP6669376 B2 JP 6669376B2
Authority
JP
Japan
Prior art keywords
region
area
image
image processing
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014222686A
Other languages
Japanese (ja)
Other versions
JP2016091172A (en
Inventor
小林 悟
悟 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014222686A priority Critical patent/JP6669376B2/en
Publication of JP2016091172A publication Critical patent/JP2016091172A/en
Application granted granted Critical
Publication of JP6669376B2 publication Critical patent/JP6669376B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置及びその制御方法、並びにプログラムに関し、特に、注目領域検出における視覚的顕著度を算出する技術に関する。   The present invention relates to an image processing apparatus, a control method thereof, and a program, and more particularly, to a technique for calculating a visual saliency in detecting an attention area.

従来の画像処理装置において、2つの領域の特徴量を比較することにより、画像内に存在する被写体を検出する技術が開示されている(特許文献1,2参照)。   2. Description of the Related Art In a conventional image processing apparatus, a technique for detecting a subject existing in an image by comparing feature amounts of two regions has been disclosed (see Patent Documents 1 and 2).

特許文献1では、候補領域とその周辺領域の動きベクトルを比較することにより、被写体を検出している。特許文献2では、半径の小さい訓練データ抽出領域と半径の大きい検証データ抽出領域の特徴量の違いに基づき、視覚的に目立ち易い顕著な領域を検出している。つまり、訓練データ抽出領域とその周囲の領域である検証データ抽出領域の特徴量の違いが大きいほど、視覚的に顕著な度合い(以下、「視覚的顕著度」と称す)が高いと判定している。   In Patent Literature 1, a subject is detected by comparing a motion vector between a candidate area and a surrounding area. In Patent Literature 2, a remarkable region that is visually conspicuous is detected based on a difference in feature amount between a training data extraction region having a small radius and a verification data extraction region having a large radius. In other words, it is determined that the greater the difference between the feature amounts of the training data extraction region and the verification data extraction region that is the surrounding region, the higher the visually significant degree (hereinafter, referred to as “visually significant degree”). I have.

特開2010−218361号公報JP 2010-218361 A 特開2012−123631号公報JP 2012-123631 A

しかしながら、2つの領域の特徴量を比較し被写体を検出する際に、周囲領域と、その中心位置に周囲領域よりも小さい内側領域を設定した場合、内側領域が画像端に接している位置では、周囲領域の一部が画像外にはみ出してしまう。そのため、周囲領域の特徴量を算出できず、被写体を検出できないといった課題がある。   However, when detecting the subject by comparing the feature values of the two regions, if a surrounding region and an inner region smaller than the surrounding region are set at the center position, at a position where the inner region is in contact with the image edge, Part of the surrounding area protrudes outside the image. Therefore, there is a problem that the feature amount of the surrounding area cannot be calculated, and the subject cannot be detected.

前述の特許文献1,2では、内側領域の周囲に周辺領域を設定する例について記載されているが、該2領域の位置関係について具体的な言及はない。   In Patent Documents 1 and 2 described above, examples are described in which a peripheral region is set around an inner region, but there is no specific reference to the positional relationship between the two regions.

本発明は、上記問題に鑑みて成されたものであり、画像端まで視覚的顕著度を算出することができ、被写体の検出範囲を拡大することができる画像処理装置およびその制御方法、並びにプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and has an image processing apparatus capable of calculating a visual saliency to an end of an image and expanding a detection range of a subject, a control method thereof, and a program. The purpose is to provide.

上記目的を達成するために、本発明の画像処理装置は、画像の第1領域における第1の特徴量および前記画像の第2領域における第2の特徴量を算出する特徴量算出手段と、前記第1の特徴量と前記第2の特徴量との比較結果に基づき、前記第1領域もしくは第2領域における視覚的顕著度を算出する視覚的顕著度算出手段とを備え、前記特徴量算出手段は、前記第1領域および前記第2領域を前記画像内の複数の位置に設定し、それぞれの位置で前記第1の特徴量と前記第2の特徴量を算出し、前記第2の領域の前記画像内の位置に応じて、前記第1領域と前記第2領域の相対位置を変化させることを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention includes: a feature amount calculating unit configured to calculate a first feature amount in a first region of an image and a second feature amount in a second region of the image; A visual saliency calculating means for calculating a visual saliency in the first region or the second region based on a comparison result between the first characteristic amount and the second characteristic amount; Sets the first region and the second region at a plurality of positions in the image, calculates the first characteristic amount and the second characteristic amount at each position, and calculates the second region A relative position between the first area and the second area is changed according to a position in the image.

本発明によれば、特徴量を算出する領域の画像内位置に応じて、内側領域と周囲領域の相対位置関係を変化させる。これにより、画像端まで視覚的顕著度を算出することができ、被写体の検出範囲を拡大することができる。   According to the present invention, the relative positional relationship between the inner region and the surrounding region is changed according to the position in the image of the region for which the feature value is calculated. Thus, the visual saliency can be calculated up to the end of the image, and the detection range of the subject can be expanded.

本発明の第1の実施形態に係る画像処理装置の一例であるデジタルカメラの概略構成を示すブロック図である。FIG. 1 is a block diagram illustrating a schematic configuration of a digital camera that is an example of an image processing device according to a first embodiment of the present invention. 図1における注目領域検出部の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an attention area detection unit in FIG. 1. (a)注目領域を検出するための内側領域及び周囲領域の一例を示す図、(b)検出した注目度合いである視覚的顕著度を示す図である。FIG. 5A is a diagram illustrating an example of an inner region and a surrounding region for detecting a region of interest, and FIG. 6B is a diagram illustrating a visual saliency that is a detected degree of interest. 注目領域検出部の動作処理を示すフローチャートである。9 is a flowchart illustrating an operation process of an attention area detection unit. 第1の実施形態における注目領域の検出方法を説明するための図である。FIG. 5 is a diagram for explaining a method of detecting a region of interest in the first embodiment. 水平方向のサンプリングレートが輝度と色とで異なる場合のYUV4:2:2画像を1画素ずつ表記した図である。FIG. 6 is a diagram illustrating a YUV 4: 2: 2 image in a case where a horizontal sampling rate differs between luminance and color, one pixel at a time. 本発明の第2の実施形態に係る画像処理装置の一例であるデジタルカメラの概略構成を示すブロック図である。FIG. 9 is a block diagram illustrating a schematic configuration of a digital camera that is an example of an image processing device according to a second embodiment of the present invention. 内側領域が周囲領域の常に中心に位置している場合の領域配置図である。FIG. 11 is a region layout diagram when the inner region is always located at the center of the surrounding region. 第2の実施形態における注目領域の検出方法を説明するための図である。It is a figure for explaining the detection method of the attention area in a 2nd embodiment.

以下、本発明の実施の形態を図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像処理装置の一例であるデジタルカメラの概略構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating a schematic configuration of a digital camera which is an example of an image processing apparatus according to a first embodiment of the present invention.

図1において、デジタルカメラ100は、ズームレンズおよびフォーカスレンズを含むレンズ101、絞り機能を備えるシャッター102、光学像を電気信号に変換するCCDセンサやCMOSセンサ等で構成される撮像部103を備える。また、デジタルカメラ100は、撮像部103が出力するアナログ信号をデジタル信号に変換するA/D変換器104、AF制御のために光学像を電気信号に変換するCCDセンサやCMOSセンサ等で構成されるAFセンサ105を備える。   In FIG. 1, a digital camera 100 includes a lens 101 including a zoom lens and a focus lens, a shutter 102 having an aperture function, and an imaging unit 103 including a CCD sensor, a CMOS sensor, and the like for converting an optical image into an electric signal. The digital camera 100 includes an A / D converter 104 that converts an analog signal output from the imaging unit 103 into a digital signal, and a CCD sensor or a CMOS sensor that converts an optical image into an electric signal for AF control. The AF sensor 105 is provided.

また、デジタルカメラ100は、AFセンサ105が出力するアナログ信号をデジタル信号に変換するAF用A/D変換器106、A/D変換器104から出力される画像データに対して、ホワイトバランス処理やガンマ補正処理等を行う画像処理部107を備える。   The digital camera 100 also performs white balance processing on image data output from the A / D converter for AF 106 and the A / D converter 104 for converting an analog signal output from the AF sensor 105 into a digital signal. An image processing unit 107 that performs gamma correction processing and the like is provided.

デジタルカメラ100は、画像メモリ108、画像メモリ108を制御するメモリ制御部109、メモリ制御部109から入力されたデジタル信号をアナログ信号に変換するD/A変換器110を備える。また、デジタルカメラ100は、LCD等の表示部111、画像データを圧縮符号化・復号化するコーデック部112を備える。   The digital camera 100 includes an image memory 108, a memory control unit 109 that controls the image memory 108, and a D / A converter 110 that converts a digital signal input from the memory control unit 109 into an analog signal. In addition, the digital camera 100 includes a display unit 111 such as an LCD, and a codec unit 112 that compresses / encodes / decodes image data.

さらに、デジタルカメラ100は、画像データを記憶するメモリカードやハードディスク等の記録媒体113、記録媒体113とのインタフェースである記録媒体I/F114、画像内の注目領域を検出する注目領域検出部115を備える。   Further, the digital camera 100 includes a recording medium 113 such as a memory card or a hard disk for storing image data, a recording medium I / F 114 serving as an interface with the recording medium 113, and an attention area detection unit 115 for detecting an attention area in an image. Prepare.

また、デジタルカメラ100は、自装置全体を制御するシステム制御部50、各種のユーザからの操作指示を入力するための操作部120、電源スイッチ121、および電源部122を備える。   Further, the digital camera 100 includes a system control unit 50 for controlling the entire device, an operation unit 120 for inputting operation instructions from various users, a power switch 121, and a power supply unit 122.

デジタルカメラ100は、EEPROM等の不揮発性メモリ123、各種制御に用いる時間や、内蔵された時計の時間を計測するシステムタイマ124を備える。さらに、デジタルカメラ100は、システム制御部50の動作用の定数、変数、不揮発性メモリ123から読みだしたプログラム等を展開するシステムメモリ125を備える。   The digital camera 100 includes a nonvolatile memory 123 such as an EEPROM, and a system timer 124 that measures time used for various controls and time of a built-in clock. Further, the digital camera 100 includes a system memory 125 for developing constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 123, and the like.

次に、図1のデジタルカメラ100における撮影時の基本的な動作について説明する。   Next, a basic operation of the digital camera 100 shown in FIG. 1 during shooting will be described.

撮像部103は、レンズ101及びシャッター102を介して入射した光を光電変換し、入力画像信号としてA/D変換器104へ出力する。A/D変換器104は、撮像部103から出力されるアナログ画像信号をデジタル画像信号に変換して画像処理部107に出力する。AFセンサ105は、レンズ101及びシャッター102を介して入射した光を複数の対となるラインセンサで受光し、AF用A/D変換器106へ出力する。AF用A/D変換器106は、AFセンサ105から出力されるアナログ信号をデジタル信号に変換し、システム制御部50に出力する。システム制御部50は、一対のラインセンサが出力した像信号に基づいて、被写体からの光束の分割方向における相対的位置ずれ量を検出し、いわゆる位相差AF制御を行う。   The imaging unit 103 photoelectrically converts the light incident through the lens 101 and the shutter 102 and outputs the light to the A / D converter 104 as an input image signal. The A / D converter 104 converts an analog image signal output from the imaging unit 103 into a digital image signal and outputs the digital image signal to the image processing unit 107. The AF sensor 105 receives the light incident through the lens 101 and the shutter 102 with a plurality of pairs of line sensors, and outputs the light to the A / D converter 106 for AF. The A / D converter for AF 106 converts an analog signal output from the AF sensor 105 into a digital signal and outputs the digital signal to the system control unit 50. The system control unit 50 detects a relative displacement amount of the light beam from the subject in the dividing direction based on the image signals output from the pair of line sensors, and performs so-called phase difference AF control.

画像処理部107は、A/D変換器104からの画像データまたはメモリ制御部109から読み出された画像データに対して、ホワイトバランス処理やガンマ補正処理などの各種画像処理を行う。画像処理部107から出力された画像データは、メモリ制御部109を介して画像メモリ108に書き込まれる。また、画像処理部107では、撮像部103が撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、AE(自動露出)処理、AF(オートフォーカス)処理などを行う。   The image processing unit 107 performs various image processing such as white balance processing and gamma correction processing on the image data from the A / D converter 104 or the image data read from the memory control unit 109. The image data output from the image processing unit 107 is written to the image memory 108 via the memory control unit 109. Further, in the image processing unit 107, predetermined calculation processing is performed using the image data captured by the imaging unit 103, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation results. Thus, AE (automatic exposure) processing, AF (autofocus) processing, and the like are performed.

画像メモリ108は、撮像部103から出力された画像データや、表示部111に表示するための画像データを格納する。D/A変換器110は、画像メモリ108に格納されている画像表示用のデータをアナログ信号に変換して表示部111に供給する。表示部111は、LCD等の表示器上に、D/A変換器110からのアナログ信号に応じた表示を行う。コーデック部112は、画像メモリ108に記憶された画像データをJPEGやMPEGなどの規格に基づき圧縮符号化する。   The image memory 108 stores image data output from the imaging unit 103 and image data to be displayed on the display unit 111. The D / A converter 110 converts the data for image display stored in the image memory 108 into an analog signal and supplies the analog signal to the display unit 111. The display unit 111 performs display on a display such as an LCD according to the analog signal from the D / A converter 110. The codec 112 compresses and encodes the image data stored in the image memory 108 based on a standard such as JPEG or MPEG.

注目領域検出部115は、画像内の注目領域を検出し、注目領域情報をシステム制御部50に出力する。システム制御部50は、注目領域情報に基づき、所定処理を優先する領域を決定する。所定処理には、例えば、画像内に複数の被写体が存在する場合に、注目領域に属する被写体に合焦するようにAF制御する処理が含まれる。また、画像内に複数の被写体が存在する場合に、注目領域に属する被写体が適正な明るさになるようにAE制御する処理が含まれる。なお、注目領域検出部115の詳細については後述する。   The attention area detection unit 115 detects an attention area in the image, and outputs attention area information to the system control unit 50. The system control unit 50 determines an area in which the predetermined process is prioritized based on the attention area information. The predetermined process includes, for example, a process of performing AF control so that, when a plurality of subjects are present in an image, the subject belonging to the attention area is focused. Further, when a plurality of subjects are present in the image, a process for performing AE control so that the subjects belonging to the attention area have appropriate brightness is included. The details of the attention area detection unit 115 will be described later.

システム制御部50は、上記基本動作以外に、不揮発性メモリ123に記憶されたプログラムを実行することで、後述する各種処理を実現する。   The system control unit 50 realizes various processes to be described later by executing a program stored in the nonvolatile memory 123 in addition to the basic operation.

次に、画像内の注目領域を検出する注目領域検出部115について図2および図3を参照して説明する。   Next, the attention area detection unit 115 that detects the attention area in the image will be described with reference to FIGS.

図2は、図1における注目領域検出部115の構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration example of the attention area detection unit 115 in FIG.

注目領域検出部115は、内側領域設定部201、周囲領域設定部202、内側領域特徴量算出部203、周囲領域特徴量算出部204、および視覚的顕著度算出部205を備える。これら各部の詳細な動作については後述する。   The attention area detection unit 115 includes an inside area setting unit 201, a surrounding area setting unit 202, an inside area feature amount calculation unit 203, a surrounding area feature amount calculation unit 204, and a visual saliency calculation unit 205. Detailed operations of these units will be described later.

図3(a)は、画像内の注目領域を検出するための内側領域及び周囲領域の一例を示す図であり、図3(b)は、検出した注目度合いである視覚的顕著度を示す図である。なお、図3(b)は、白いほど視覚的顕著度が大きいことを示している。   FIG. 3A is a diagram illustrating an example of an inner region and a surrounding region for detecting a region of interest in an image, and FIG. 3B is a diagram illustrating a visual saliency that is a detected degree of interest. It is. FIG. 3B shows that the whiter, the higher the visual saliency.

注目領域検出部115は、システム制御部50からの設定情報に基づき、内側領域a301及び周囲領域b301を画像全体において移動させ、複数位置において内側領域a301の特徴量と周囲領域b301の特徴量の比較を行う。その比較結果から内側領域a301の特徴量と周囲領域b301の特徴量の違いが大きい場合は、目立ち易い領域と判定し、大きい視覚的顕著度を算出する。一方、内側領域a301の特徴量と周囲領域b301の特徴量の違いが小さい場合は、目立ち難い領域と判定し、小さい視覚的顕著度を算出する。   The attention area detection unit 115 moves the inside area a301 and the surrounding area b301 over the entire image based on the setting information from the system control unit 50, and compares the feature quantity of the inside area a301 with the feature quantity of the surrounding area b301 at a plurality of positions. I do. If the difference between the feature amount of the inner region a301 and the feature amount of the surrounding region b301 is large from the comparison result, the region is determined to be a conspicuous region, and a large visual saliency is calculated. On the other hand, when the difference between the feature value of the inner region a301 and the feature value of the surrounding region b301 is small, the region is determined to be inconspicuous, and a small visual saliency is calculated.

図3(a)に示すように、背景にボールが存在し、内側領域がボール周辺に位置する場合は、内側領域a301の特徴量と周囲領域b301の特徴量の違いが大きいため、視覚的顕著度は大きい値を示す。一方、内側領域がボール周辺以外に位置する場合は、内側領域a301の特徴量と周囲領域b301の特徴量の違いが小さいため、視覚的顕著度は小さい値を示している。   As shown in FIG. 3A, when a ball is present in the background and the inner region is located around the ball, the difference between the feature amount of the inner region a301 and the feature amount of the surrounding region b301 is large, so that the difference is visually noticeable. The degree shows a large value. On the other hand, when the inner region is located other than around the ball, the difference between the feature amount of the inner region a301 and the feature amount of the surrounding region b301 is small, and the visual saliency shows a small value.

以上のように、注目領域検出部115は、内側領域a301と周囲領域b301を画像全体において移動させながら、内側領域位置における視覚的顕著度を算出する。   As described above, the attention area detection unit 115 calculates the visual saliency at the inside area position while moving the inside area a301 and the surrounding area b301 in the entire image.

図3(a)に示すように、内側領域a301が周囲領域b301の常に中心に存在する相対位置関係にあると、内側領域a301が画像端に接する位置の場合に周囲領域b301の一部が画像外にはみ出てしまう。そのため、周囲領域b301の一部の画素情報が欠落し、視覚的顕著度が算出できない。そこで、注目領域検出部115が注目領域を検出する。   As shown in FIG. 3A, when the inner area a301 is in a relative positional relationship that always exists at the center of the surrounding area b301, when the inner area a301 is in a position in contact with the edge of the image, a part of the surrounding area b301 becomes an image. It protrudes outside. Therefore, some pixel information of the surrounding area b301 is missing, and the visual saliency cannot be calculated. Therefore, the attention area detection unit 115 detects the attention area.

図4は、図2に示す各部により実行される注目領域検出動作の流れを示すフローチャートである。図5は、図4に示す注目領域検出動作を説明するための図である。   FIG. 4 is a flowchart showing the flow of the attention area detection operation executed by each unit shown in FIG. FIG. 5 is a diagram for explaining the attention area detection operation shown in FIG.

ステップS401では、システム制御部50は、内側領域初期位置及び内側領域移動量、周囲領域初期位置及び周囲領域移動量を決定する。図5では、内側領域初期位置としてa501、内側領域移動量としてa511、周囲領域初期位置としてb501、周囲領域移動量としてb511が位置決定された例を示している。ここで、システム制御部50は、内側領域と周囲領域の相対位置関係を画像内位置に応じて変化させるために、内側領域移動量を周囲領域移動量よりも大きな移動量になるように決定する。移動量の詳細については後述する。   In step S401, the system control unit 50 determines the inner region initial position and the inner region moving amount, and the surrounding region initial position and the surrounding region moving amount. FIG. 5 shows an example in which a501 is determined as the inner region initial position, a511 is determined as the inner region movement amount, b501 is determined as the surrounding region initial position, and b511 is determined as the surrounding region movement amount. Here, in order to change the relative positional relationship between the inner region and the surrounding region according to the position in the image, the system control unit 50 determines the inner region moving amount to be larger than the surrounding region moving amount. . Details of the movement amount will be described later.

なお、本実施形態では、内側領域および周囲領域の初期位置を初期開始座標と初期終了座標として定義するが、これに限ったものではない。例えば、内側領域および周囲領域の初期位置を初期開始座標と領域サイズとして定義してもよい。   In the present embodiment, the initial positions of the inner area and the surrounding area are defined as the initial start coordinates and the initial end coordinates, but the present invention is not limited to this. For example, the initial positions of the inner area and the surrounding area may be defined as the initial start coordinates and the area size.

ステップS401で決定された内側領域初期位置及び内側領域移動量は、注目領域検出部115内の内側領域設定部201に送出され、周囲領域初期位置及び周囲領域移動量は、周囲領域設定部202に送出される。   The inside area initial position and the inside area movement amount determined in step S401 are sent to the inside area setting unit 201 in the attention area detection unit 115, and the surrounding area initial position and the surrounding area movement amount are sent to the surrounding area setting unit 202. Sent out.

次に、ステップS402では、内側領域設定部201は、内側領域初期位置及び内側領域移動量に基づき、内側領域を設定する。具体的には、次の式(1)〜式(4)に基づき、内側領域を示す矩形の左上座標(inner_sx,inner_sy)と右下座標(inner_ex,inner_ey)を算出する。   Next, in step S402, the inside area setting unit 201 sets the inside area based on the inside area initial position and the inside area movement amount. Specifically, upper left coordinates (inner_sx, inner_sy) and lower right coordinates (inner_ex, inner_ey) of the rectangle indicating the inner area are calculated based on the following equations (1) to (4).

inner_sx=inner_inisx+inner_stepx*step_cntx (1)
inner_ex=inner_iniex+inner_stepx*step_cntx (2)
inner_sy=inner_inisy+inner_stepy*step_cnty (3)
inner_ey=inner_iniey+inner_stepy*step_cnty (4)
上記式(1)及び式(2)において、変数は以下の通りである。なお、水平初期開始座標、水平初期終了座標、および水平移動量は、システム制御部50から入力される。また、水平移動回数は、画像右端において、内側領域が画像外ではみ出す直前に0に初期化される。
inner_sx = inner_inisx + inner_stepx * step_cntx (1)
inner_ex = inner_iniex + inner_stepx * step_cntx (2)
inner_sy = inner_inisy + inner_stepy * step_cnty (3)
inner_ey = inner_iniey + inner_stepy * step_cnty (4)
In the above equations (1) and (2), the variables are as follows. Note that the horizontal initial start coordinates, the horizontal initial end coordinates, and the horizontal movement amount are input from the system control unit 50. Also, the number of horizontal movements is initialized to 0 at the right end of the image immediately before the inner region protrudes outside the image.

inner_sx:内側領域の水平開始座標
inner_ex:内側領域の水平終了座標
inner_inisx:内側領域の水平初期開始座標
inner_iniex:内側領域の水平初期終了座標
inner_stepx:内側領域水平移動量となる。
inner_sx: horizontal start coordinates of the inner area inner_ex: horizontal end coordinates of the inner area inner_inisx: horizontal initial start coordinates of the inner area inner_iniex: horizontal initial end coordinates of the inner area inner_stepx: inner area horizontal movement amount.

step_cntx:水平移動回数
上記式(3)及び式(4)において、
inner_sy:内側領域の垂直開始座標、
inner_ey:内側領域の垂直終了座標、
inner_inisy:内側領域の垂直初期開始座標、
inner_iniey:内側領域の垂直初期終了座標、
inner_stepy:内側領域垂直移動量となる。なお、垂直初期開始座標、垂直初期終了座標、および垂直移動量は、システム制御部50から入力される。
step_cntx: Number of horizontal movements In the above equations (3) and (4),
inner_sy: vertical start coordinates of the inner area,
inner_ey: vertical end coordinates of the inner area,
inner_inisy: vertical initial start coordinates of the inner area,
inner_iniey: vertical initial end coordinates of the inner area,
inner_stepy: The vertical movement amount of the inner area. Note that the vertical initial start coordinates, the vertical initial end coordinates, and the vertical movement amount are input from the system control unit 50.

また、step_cnty:垂直移動回数となる。なお、垂直移動回数は、画像下端において、内側領域が画像外ではみ出す直前に0に初期化される。   Also, step_cnty: the number of vertical movements. Note that the number of vertical movements is initialized to 0 at the lower end of the image immediately before the inner region protrudes outside the image.

次に、内側領域を複数位置に設定する動作について図5を参照して説明する。   Next, an operation of setting the inner region at a plurality of positions will be described with reference to FIG.

まず、内側領域を水平方向の複数位置に設定する場合について説明する。   First, a case where the inner region is set at a plurality of positions in the horizontal direction will be described.

図5における内側領域a501は、初期位置に属するため、式(1)、式(2)、式(3)及び式(4)に従い、step_cntx=0、step_cnty=0として算出される。   Since the inner area a501 in FIG. 5 belongs to the initial position, it is calculated as step_cntx = 0 and step_cnty = 0 according to the equations (1), (2), (3), and (4).

次に、図5における内側領域a502は、内側領域a501から水平方向に1回移動した領域なので、式(1)、式(2)、式(3)及び式(4)に従い、step_cntx=1、step_cnty=0として算出される。   Next, since the inner area a502 in FIG. 5 is an area that has been moved once in the horizontal direction from the inner area a501, step_cntx = 1, according to the equations (1), (2), (3), and (4). It is calculated as step_cnty = 0.

同様に、図5における内側領域a503は、内側領域a501から水平方向に2回移動した領域なので、式(1)、式(2)、式(3)及び式(4)に従い、step_cntx=2、step_cnty=0として算出される。   Similarly, since the inner area a503 in FIG. 5 is an area that has moved horizontally twice from the inner area a501, step_cntx = 2 according to the equations (1), (2), (3), and (4). It is calculated as step_cnty = 0.

次に、内側領域を垂直方向の複数位置に設定する場合について説明する。   Next, a case where the inner region is set at a plurality of positions in the vertical direction will be described.

図5における内側領域a504は、内側領域a501から垂直方向に1回移動した領域なので、式(1)、式(2)、式(3)及び式(4)に従い、step_cntx=0、step_cnty=1として算出される。   Since the inner area a504 in FIG. 5 is an area that has moved vertically once from the inner area a501, step_cntx = 0 and step_cnty = 1 according to the equations (1), (2), (3), and (4). Is calculated as

同様に、図5における内側領域a505は、内側領域a501から垂直方向に2回移動した領域なので、式(1)、式(2)、式(3)及び式(4)に従い、step_cntx=0、step_cnty=2として算出される。その他の内側領域も上記と同様の算出方法により設定される。   Similarly, since the inner area a505 in FIG. 5 is an area that has moved vertically twice from the inner area a501, step_cntx = 0 according to equations (1), (2), (3), and (4). It is calculated as step_cnty = 2. Other inner regions are set by the same calculation method as described above.

以上のように、内側領域設定部201は、内側領域を画像内の複数位置に設定する。   As described above, the inner area setting unit 201 sets the inner area at a plurality of positions in the image.

ステップS402で設定された内側領域は、内側領域設定部201から内側領域特徴量算出部203に送出される。   The inside area set in step S402 is sent from the inside area setting unit 201 to the inside area feature amount calculation unit 203.

図4に戻り、ステップS403では、周囲領域設定部202は、周囲領域初期位置及び周囲領域移動量に基づき、周囲領域を設定する。具体的には、次の算出式に基づき、周囲領域を示す矩形の左上座標(surround_sx,surround_sy)と右下座標(surround_ex,surround_ey)が算出される。   Returning to FIG. 4, in step S403, the surrounding area setting unit 202 sets the surrounding area based on the surrounding area initial position and the surrounding area movement amount. Specifically, the upper left coordinates (surround_sx, surround_sy) and the lower right coordinates (surround_ex, surround_ey) of the rectangle indicating the surrounding area are calculated based on the following calculation formula.

surround_sx=surround_inisx+surround_stepx*step_cntx (5)
surround_ex=surround_iniex+surround_stepx*step_cntx (6)
surround_sy=surround_inisy+surround_stepy*step_cnty (7)
surround_ey=surround_iniey+surround_stepy*step_cnty (8)
式(5)及び式(6)において、変数は以下の通りである。なお、水平初期開始座標、水平初期終了座標、および水平移動量は、システム制御部50から入力される。また、水平移動回数は、画像右端において、周囲領域が画像外ではみ出す直前に0に初期化される。
surround_sx = surround_inisx + surround_stepx * step_cntx (5)
surround_ex = surround_iniex + surround_stepx * step_cntx (6)
surround_sy = surround_inisy + surround_stepy * step_cnty (7)
surround_ey = surround_iniey + surround_stepy * step_cnty (8)
In Equations (5) and (6), the variables are as follows. Note that the horizontal initial start coordinates, the horizontal initial end coordinates, and the horizontal movement amount are input from the system control unit 50. Also, the number of horizontal movements is initialized to 0 at the right end of the image immediately before the surrounding area extends outside the image.

surround_sx:周囲領域の水平開始座標
surround_ex:周囲領域の水平終了座標
surround_inisx:周囲領域の水平初期開始座標
surround_iniex:周囲領域の水平初期終了座標
surround_stepx:周囲領域水平移動量
step_cntx:水平移動回数
式(7)及び式(8)において、変数は以下の通りである。なお、垂直初期開始座標、垂直初期終了座標、および垂直移動量は、システム制御部50から入力される。また、垂直移動回数は、画像下端において、周囲領域が画像外ではみ出す直前に0に初期化される。
surround_sx: the horizontal start coordinate of the surrounding area surround_ex: the horizontal end coordinate of the surrounding area surround_inisx: the horizontal initial start coordinate of the surrounding area surround_iniex: the horizontal initial end coordinate of the surrounding area surround_stepx: the horizontal movement amount of the surrounding area step_cntx: the number of horizontal movements And in equation (8), the variables are as follows: Note that the vertical initial start coordinates, the vertical initial end coordinates, and the vertical movement amount are input from the system control unit 50. In addition, the number of vertical movements is initialized to 0 at the lower end of the image immediately before the surrounding area extends outside the image.

surround_sy:周囲領域の垂直開始座標
surround_ey:周囲領域の垂直終了座標
surround_inisy:周囲領域の垂直初期開始座標
surround_iniey:周囲領域の垂直初期終了座標
surround_stepy:周囲領域垂直移動量
step_cnty:垂直移動回数
次に、周囲領域を複数位置に設定する動作について図5を参照して説明する。
surround_sy: the vertical start coordinate of the surrounding area surround_ey: the vertical end coordinate of the surrounding area surround_inisy: the vertical initial start coordinate of the surrounding area surround_iniey: the vertical initial end coordinate of the surrounding area surround_stepy: the vertical movement amount of the surrounding area, next step number, vertical movement The operation of setting an area at a plurality of positions will be described with reference to FIG.

まず、周囲領域を水平方向の複数位置に設定する場合について説明する。   First, a case where the surrounding area is set at a plurality of positions in the horizontal direction will be described.

図5における周囲領域b501は、初期位置に属するため、式(5)、式(6)、式(7)及び式(8)に従い、step_cntx=0、step_cnty=0として算出される。   Since the surrounding area b501 in FIG. 5 belongs to the initial position, it is calculated as step_cntx = 0 and step_cnty = 0 according to the equations (5), (6), (7), and (8).

次に、図5における周囲領域b502は、周囲領域b501から水平方向に1回移動した領域なので、式(5)、式(6)、式(7)及び式(8)に従い、step_cntx=1、step_cnty=0として算出される。   Next, since the surrounding region b502 in FIG. 5 is a region that has been moved once in the horizontal direction from the surrounding region b501, step_cntx = 1 according to Expressions (5), (6), (7), and (8). It is calculated as step_cnty = 0.

同様に、図5における周囲領域b503は、周囲領域b501から水平方向に2回移動した領域なので、式(5)、式(6)、式(7)及び式(8)に従い、step_cntx=2、step_cnty=0として算出される。   Similarly, since the surrounding region b503 in FIG. 5 is a region that has moved horizontally twice from the surrounding region b501, step_cntx = 2 according to Expressions (5), (6), (7), and (8). It is calculated as step_cnty = 0.

次に、周囲領域を垂直方向の複数位置に設定する場合について説明する。   Next, a case where the surrounding area is set at a plurality of positions in the vertical direction will be described.

図5における周囲領域b504は、周囲領域b501から垂直方向に1回移動した領域なので、式(5)、式(6)、式(7)及び式(8)に従い、step_cntx=0、step_cnty=1として算出される。   The surrounding area b504 in FIG. 5 is an area that has moved once in the vertical direction from the surrounding area b501, and therefore, according to Equations (5), (6), (7) and (8), step_cntx = 0 and step_cnty = 1 Is calculated as

同様に、図5における周囲領域b505は、周囲領域b501から垂直方向に2回移動した領域なので、式(5)、式(6)、式(7)及び式(8)に従い、step_cntx=0、step_cnty=2として算出される。その他の周囲領域も上記同様の算出方法により設定される。   Similarly, since the surrounding region b505 in FIG. 5 is a region that has moved vertically twice from the surrounding region b501, step_cntx = 0 according to Expressions (5), (6), (7), and (8). It is calculated as step_cnty = 2. Other surrounding areas are set by the same calculation method as described above.

以上のように、周囲領域設定部202は、周囲領域を画像内の複数位置に設定する。   As described above, the surrounding area setting unit 202 sets the surrounding area at a plurality of positions in the image.

ステップS403で設定された周囲領域は、周囲領域設定部202から周囲領域特徴量算出部204に送出される。   The surrounding area set in step S403 is sent from the surrounding area setting unit 202 to the surrounding area feature amount calculating unit 204.

図4に戻り、ステップS404では、内側領域特徴量算出部203は、ステップS402で内側領域設定部201が設定した複数位置の内側領域において、画像の特徴量を算出する。算出された内側領域特徴量は、内側領域特徴量算出部203から視覚的顕著度算出部205に送出される。   Returning to FIG. 4, in step S404, the inside region feature amount calculation unit 203 calculates the feature amount of an image in the inside regions at a plurality of positions set by the inside region setting unit 201 in step S402. The calculated inside region feature amount is sent from the inside region feature amount calculation unit 203 to the visual saliency calculation unit 205.

次に、ステップS405では、周囲領域特徴量算出部204は、ステップS403で周囲領域設定部202が設定した複数位置の周囲領域において、画像の特徴量を算出する。算出された周囲領域特徴量は、周囲領域特徴量算出部204から視覚的顕著度算出部205に送出される。   Next, in step S405, the surrounding area feature amount calculation unit 204 calculates the feature amount of the image in the surrounding areas at a plurality of positions set by the surrounding area setting unit 202 in step S403. The calculated surrounding region feature amount is sent from the surrounding region feature amount calculating unit 204 to the visual saliency calculating unit 205.

ここで、上述した内側領域特徴量算出部203及び周囲領域特徴量算出部204が算出する特徴量とは、領域内の明るさ、色、エッジ強度、明るさヒストグラム、色ヒストグラム及びエッジ強度ヒストグラムのうち少なくとも一つを含むものである。   Here, the feature amounts calculated by the above-described inner region feature amount calculation unit 203 and surrounding region feature amount calculation unit 204 are brightness, color, edge strength, brightness histogram, color histogram, and edge strength histogram in the region. It includes at least one of them.

次に、ステップS406では、視覚的顕著度算出部205は、内側領域特徴量と、その内側領域の周囲に位置する周囲領域特徴量の違いに基づき、視覚的顕著度を算出する。例えば、図5に示す内側領域a501の特徴量と周囲領域b501の特徴量の違いに基づき、視覚的顕著度が算出される。特徴量の違いを算出する具体的な方法には、特徴量の差分絶対値を評価して視覚的顕著度を算出する方法がある。例えば、特徴量が明るさの場合は、内側領域の輝度平均値と周囲領域の輝度平均値の差分絶対値を視覚的顕著度とする。また、特徴量が明るさヒストグラムの場合は、内側領域の明るさヒストグラムと周囲領域の明るさヒストグラムのビン毎の差分絶対値を算出し、その積算値を視覚的顕著度とする。   Next, in step S406, the visual saliency calculating unit 205 calculates the visual saliency based on the difference between the inner region feature and the surrounding region feature located around the inner region. For example, the visual saliency is calculated based on the difference between the feature amount of the inner region a501 and the feature amount of the surrounding region b501 shown in FIG. As a specific method of calculating the difference between the feature amounts, there is a method of calculating the visual saliency by evaluating the absolute value of the difference between the feature amounts. For example, when the feature amount is brightness, the absolute value of the difference between the average luminance value of the inner region and the average luminance value of the surrounding region is set as the visual saliency. When the feature amount is a brightness histogram, the absolute value of the difference between the brightness histogram of the inner region and the brightness histogram of the surrounding region for each bin is calculated, and the integrated value is used as the visual saliency.

図4のステップS407では、システム制御部50は、画像全体の全ての探索領域を探索したか否か判定し、探索していない場合は、ステップS402以降の処理を繰り返す。一方、画像全体の全ての探索領域を探索した場合には、本処理を終了する。   In step S407 in FIG. 4, the system control unit 50 determines whether or not all the search areas of the entire image have been searched, and if not, repeats the processing from step S402. On the other hand, if all the search areas of the entire image have been searched, the present process is terminated.

次に、システム制御部50が決定する初期位置及び移動量について図5を参照して詳しく説明する。   Next, the initial position and the movement amount determined by the system control unit 50 will be described in detail with reference to FIG.

システム制御部50は、内側領域及び周囲領域の初期位置が、図5に示すa501及びb501のように、画像内の左上隅に接するように決定する。そして、システム制御部50は、画像右上隅で、内側領域が周囲領域の右上に位置するように、水平方向の内側領域移動量a511と周囲領域移動量b511を決定する。その際、水平方向の内側領域移動量a511は、周囲領域移動量b511よりも大きな移動量になる。   The system control unit 50 determines that the initial positions of the inner area and the surrounding area are in contact with the upper left corner in the image as in a501 and b501 shown in FIG. Then, the system control unit 50 determines the horizontal inner region movement amount a511 and the surrounding region movement amount b511 in the upper right corner of the image such that the inner region is located at the upper right of the surrounding region. At this time, the horizontal inner region movement amount a511 is larger than the surrounding region movement amount b511.

垂直方向も同様に、システム制御部50は、画像左下隅で、内側領域が周囲領域の左下に位置するように、垂直方向の内側領域移動量a511と周囲領域移動量b511を決定する。その際、垂直方向の内側領域移動量a511は、周囲領域移動量b511よりも大きな移動量になる。   Similarly, in the vertical direction, the system control unit 50 determines the vertical inner region movement amount a511 and the peripheral region movement amount b511 such that the inner region is located at the lower left of the surrounding region at the lower left corner of the image. At this time, the vertical inner region movement amount a511 is larger than the surrounding region movement amount b511.

このように、内側領域及び周囲領域の初期位置を決定し、決定した初期位置から所定の移動量を累積加算して内側領域と周囲領域の位置を決定することにより、画像中心では、内側領域は周囲領域の中心に位置するようになる。   As described above, the initial positions of the inner region and the surrounding region are determined, and a predetermined amount of movement is cumulatively added from the determined initial position to determine the positions of the inner region and the surrounding region. It will be located at the center of the surrounding area.

以上のように、周囲領域と内側領域の相対位置を画像内位置に応じて変化させることにより、画像端まで視覚的顕著度を算出することが可能となる。   As described above, by changing the relative position between the surrounding region and the inner region according to the position in the image, it is possible to calculate the visual saliency up to the end of the image.

ところで、画像データの輝度サンプリングレートと色サンプリングレートが異なる場合は、低いサンプリングレートでサンプリングされた画素情報の境界に内側領域及び周辺領域が整合するように調整を行ってもよい。   When the luminance sampling rate and the color sampling rate of the image data are different, the adjustment may be performed so that the inner area and the peripheral area match the boundaries of the pixel information sampled at a lower sampling rate.

水平方向のサンプリングレートが輝度と色とで異なる(YUV4:2:2画像)場合について図6を参照して具体的に説明する。   A case where the horizontal sampling rate differs between luminance and color (YUV 4: 2: 2 image) will be specifically described with reference to FIG.

図6は、YUV4:2:2画像を1画素ずつ表記した図であり、内側領域設定部201又は周囲領域設定部202が算出する領域を601,602に示している。なお、垂直方向のサンプリングレートが異なる場合も同様の処理で領域を調整する。   FIG. 6 is a diagram in which the YUV 4: 2: 2 image is represented one pixel at a time, and the areas calculated by the inner area setting unit 201 or the surrounding area setting unit 202 are indicated by 601 and 602. Note that, even when the sampling rate in the vertical direction is different, the area is adjusted by the same processing.

内側領域設定部201は、式(1),(2)により算出した内側領域の水平開始座標と水平終了座標が、図6の領域601であった場合、サンプリングレートが低い色画素情報の境界に整合するように水平開始座標と水平終了座標を図6の領域602の様に調整する。   When the horizontal start coordinates and the horizontal end coordinates of the inside area calculated by the formulas (1) and (2) are the area 601 in FIG. 6, the inside area setting unit 201 sets the boundary between the color pixel information having a low sampling rate. The horizontal start coordinates and the horizontal end coordinates are adjusted as shown in an area 602 in FIG.

周囲領域設定部202も内側領域設定部201と同様の処理により、水平開始座標と水平終了座標を調整する。   The surrounding area setting unit 202 also adjusts the horizontal start coordinates and the horizontal end coordinates by the same processing as the inside area setting unit 201.

なお、内側領域設定部201は、内側領域が周囲領域外にはみ出してしまう場合は、内側領域が周囲領域内に存在するように内側領域の位置を調整してもよい。同様に、周囲領域設定部202は、内側領域が周囲領域外にはみ出してしまう場合は、内側領域が周囲領域内に存在するように周囲領域の位置を調整してもよい。   When the inner region protrudes outside the surrounding region, the inner region setting unit 201 may adjust the position of the inner region so that the inner region exists in the surrounding region. Similarly, when the inner region protrudes outside the surrounding region, the surrounding region setting unit 202 may adjust the position of the surrounding region so that the inner region exists in the surrounding region.

上記第1の実施形態によれば、特徴量を算出する領域の画像内位置に応じて、内側領域と周囲領域の相対位置関係を変化させる。これにより、画像端まで視覚的顕著度を算出することができ、被写体の検出範囲を拡大することができる。   According to the first embodiment, the relative positional relationship between the inner region and the surrounding region is changed according to the position in the image of the region for which the feature value is calculated. Thus, the visual saliency can be calculated up to the end of the image, and the detection range of the subject can be expanded.

[第2の実施形態]
上記第1の実施形態では、図5に示す領域配置のように、内側領域と周囲領域の相対位置を画像内位置によって変化させた場合、画像端まで視覚的顕著度を算出することができる。
[Second embodiment]
In the first embodiment, when the relative position between the inner region and the surrounding region is changed according to the position in the image as in the region arrangement shown in FIG. 5, the visual saliency can be calculated up to the end of the image.

しかしながら、画像内位置によって、内側領域と特徴量の違いを算出する周囲領域の相対的位置関係に偏りが発生してしまうおそれがある。例えば、画像左側では、内側領域に対して、右側に偏った周囲領域との特徴量の違いを算出し、画像右側では、内側領域に対して、左側に偏った周囲領域との特徴量の違いを算出する。そのため、内側領域が周囲領域の常に中心に位置している場合の方が、適切に視覚的顕著度を算出することができる。ただし、この場合は画像端まで視覚的顕著度を算出することができない。   However, depending on the position in the image, there is a possibility that the relative positional relationship between the inner region and the surrounding region for calculating the difference between the feature amounts may be biased. For example, on the left side of the image, the difference in the feature amount between the inner region and the surrounding region biased to the right is calculated, and on the right side of the image, the difference in the feature amount between the inner region and the surrounding region biased to the left side is calculated. Is calculated. Therefore, the visual saliency can be more appropriately calculated when the inner region is always located at the center of the surrounding region. However, in this case, the visual saliency cannot be calculated up to the end of the image.

本発明の第2の実施形態では、上記のようなトレードオフを解決するために、画像端に被写体が存在するか否かを推定し、視覚的顕著度を算出するための領域配置を決定する。なお、上記第1の実施の形態と同様の部分については、同一の符号を用いてその説明を省略する。以下に、上記第1の実施の形態と異なる点のみを説明する。   In the second embodiment of the present invention, in order to solve the above-described trade-off, it is estimated whether or not a subject exists at an end of an image, and an area arrangement for calculating visual saliency is determined. . Note that the same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. Hereinafter, only differences from the first embodiment will be described.

図7は、本発明の第2の実施形態に係る画像処理装置の一例であるデジタルカメラの概略構成を示すブロック図である。   FIG. 7 is a block diagram illustrating a schematic configuration of a digital camera which is an example of an image processing device according to a second embodiment of the present invention.

図7に示すデジタルカメラ700は、図1に示すデジタルカメラ100に対して、画像端被写体存在推定部701のみが追加されており、その他の構成要素は上記図1と同様である。   The digital camera 700 shown in FIG. 7 is different from the digital camera 100 shown in FIG. 1 only in that an image end subject existence estimating unit 701 is added, and the other components are the same as those in FIG.

画像端被写体存在推定部701は、画像端に被写体が存在するか否かを推定し、存在すると推定した場合は、その位置をシステム制御部50に出力する。そして、システム制御部50は、画像端被写体存在推定部701による推定結果に基づき、内側領域及び周囲領域の初期位置及び移動量を算出し、注目領域検出部115に出力する。なお、注目領域検出部115の構成及び動作は上記第1の実施形態と同様のため、その説明は省略する。   The image end subject existence estimating unit 701 estimates whether or not the subject exists at the image end, and outputs the position to the system control unit 50 when it is estimated that the subject exists. Then, the system control unit 50 calculates the initial position and the movement amount of the inner area and the surrounding area based on the estimation result by the image end subject existence estimating unit 701 and outputs the calculated initial position and the moving amount to the attention area detecting unit 115. Note that the configuration and operation of the attention area detection unit 115 are the same as in the first embodiment, and a description thereof will be omitted.

次に、画像端被写体存在推定部701について図8及び図9を参照して詳しく説明する。   Next, the image end subject existence estimating unit 701 will be described in detail with reference to FIGS.

図8は、内側領域が周囲領域の常に中心に位置している場合の領域配置図である。つまり、図示例では、内側領域と周囲領域の相対位置が画像内位置によって変化しない。また、領域800は、内側領域が周辺領域の常に中心に位置している場合の、内側領域が配置される領域を示している。つまり、注目領域検出部115は、領域800の内側のみ視覚的顕著度を算出することができる。   FIG. 8 is an area layout diagram when the inner area is always located at the center of the surrounding area. That is, in the illustrated example, the relative position between the inner region and the surrounding region does not change depending on the position in the image. A region 800 indicates a region where the inner region is arranged when the inner region is always located at the center of the peripheral region. That is, the attention area detection unit 115 can calculate the visual saliency only inside the area 800.

画像端被写体存在推定部701は、領域800よりも外側の画像端領域に被写体が存在するか否かを推定する。例えば、フレーム間の動きベクトル検出を行うことにより、前フレームの被写体が、現フレームの画像端領域に存在するか否かを推定する。また、画像端領域のフレーム間差分絶対値を評価することにより、画像端領域に被写体が存在するか否かを推定してもよい。これにより、新たな被写体がフレームインしたか否かを推定することができる。   The image end subject existence estimating unit 701 estimates whether or not a subject exists in an image end area outside the area 800. For example, by detecting a motion vector between frames, it is estimated whether or not the subject of the previous frame exists in the image end area of the current frame. Alternatively, it may be estimated whether or not a subject exists in the image end region by evaluating the inter-frame difference absolute value of the image end region. This makes it possible to estimate whether or not a new subject has entered the frame.

画像端被写体存在推定部701が、領域800よりも外側の画像端に被写体が存在しないと推定した場合、システム制御部50は、図8のように内側領域が周囲領域の常に中心に位置するように初期位置と移動量を算出し、注目領域検出部115に出力する。   When the image end subject existence estimating unit 701 estimates that the subject does not exist at the image end outside the region 800, the system control unit 50 determines that the inner region is always located at the center of the surrounding region as shown in FIG. The initial position and the movement amount are calculated and output to the attention area detection unit 115.

画像端被写体存在推定部701が、領域800よりも外側の画像端に被写体が存在すると推定した場合、システム制御部50は、図9のように画像端の被写体推定位置まで内側領域を設定できるように初期位置と移動量を算出し、注目領域検出部115に出力する。図9に示す領域900が、画像端被写体存在推定部701が推定した画像端被写体の位置を示す。この場合、上記第1の実施形態のように、画像内位置に基づき、内側領域と周囲領域の相対位置が変化する。   When the image end subject existence estimating unit 701 estimates that the subject exists at the image end outside the region 800, the system control unit 50 can set the inner region up to the subject estimation position at the image end as shown in FIG. The initial position and the movement amount are calculated and output to the attention area detection unit 115. An area 900 illustrated in FIG. 9 indicates the position of the image end subject estimated by the image end subject existence estimation unit 701. In this case, as in the first embodiment, the relative position between the inner region and the surrounding region changes based on the position in the image.

なお、注目領域を検出する対象の探索領域よりも広い領域の画素情報が存在する場合は、システム制御部50は、図8のように内側領域が周囲領域の常に中心に位置するように初期位置と移動量を算出し、注目領域検出部115に出力してもよい。例えば、電子ズーム時において、電子ズーム領域のみ注目領域の探索をする場合、電子ズーム領域の周囲に画素情報が存在するため、内側領域が周囲領域の常に中心に位置する領域配置にしてもよい。このように内側領域を周囲領域の常に中心に位置する領域配置にするのは、電子ズーム時に限ったものではない。手振れ補正分の余白画素情報が必要な電子防振時や記録画角よりも広い画角を表示部に表示するサラウンドビュー時でも同様である。   When there is pixel information of a region wider than the search region for which the target region is to be detected, the system control unit 50 sets the initial position so that the inner region is always located at the center of the surrounding region as shown in FIG. May be calculated and output to the attention area detection unit 115. For example, at the time of electronic zooming, when searching for an attention area only in the electronic zoom area, pixel information is present around the electronic zoom area, so that the inner area may be always arranged at the center of the surrounding area. It is not limited to the electronic zoom that the inner area is always arranged at the center of the surrounding area. The same applies to electronic image stabilization that requires margin pixel information for camera shake correction or to surround view in which an angle of view wider than the recording angle of view is displayed on the display unit.

以上、本発明の好ましい実施形態について説明したが、本発明は上記実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications and changes can be made within the scope of the gist.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program and reads the program. This is the process to be performed.

50 システム制御部
100 デジタルカメラ
103 撮像部
107 画像処理部
115 注目領域検出部
201 内側領域設定部
202 周囲領域設定部
203 内側領域特徴量算出部
204 周囲領域特徴量算出部
205 視覚的顕著度算出部
50 System control unit 100 Digital camera 103 Imaging unit 107 Image processing unit 115 Attention area detection unit 201 Inner area setting unit 202 Surrounding area setting unit 203 Inner area feature amount calculation unit 204 Surrounding area feature amount calculation unit 205 Visual saliency calculation unit

Claims (12)

画像の第1領域における第1の特徴量および前記画像の第2領域における第2の特徴量を算出する特徴量算出手段と、
前記第1の特徴量と前記第2の特徴量との比較結果に基づき、前記第1領域もしくは第2領域における視覚的顕著度を算出する視覚的顕著度算出手段とを備え、
前記特徴量算出手段は、前記第1領域および前記第2領域を前記画像内の複数の位置に設定し、それぞれの位置で前記第1の特徴量と前記第2の特徴量を算出し、前記第2の領域の前記画像内の位置に応じて、前記第1領域と前記第2領域の相対位置を変化させることを特徴とする画像処理装置。
Feature value calculating means for calculating a first feature value in a first region of the image and a second feature value in a second region of the image;
A visual saliency calculating means for calculating a visual saliency in the first region or the second region based on a comparison result between the first characteristic amount and the second characteristic amount,
The feature amount calculation means sets the first region and the second region at a plurality of positions in the image, calculates the first feature amount and the second feature amount at each position, An image processing apparatus, wherein a relative position between the first region and the second region is changed according to a position of a second region in the image.
前記第1領域及び前記第2領域の位置を決定する位置決定手段をさらに備え、
前記位置決定手段は、初期位置及び移動量に基づき前記第1領域および前記第2領域の位置を決定することを特徴とする請求項1記載の画像処理装置。
The apparatus further includes position determination means for determining the positions of the first area and the second area,
2. The image processing apparatus according to claim 1, wherein the position determining unit determines the positions of the first area and the second area based on an initial position and a moving amount.
前記位置決定手段は、前記初期位置に移動量を累積加算することにより前記第1領域および前記第2領域の位置を決定することを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the position determining unit determines the positions of the first area and the second area by cumulatively adding a movement amount to the initial position. 前記位置決定手段は、前記第1領域の移動量とは異なる前記第2領域の移動量に基づき、前記第1領域及び前記第2領域の位置を決定することにより、前記第1領域と前記第2領域の相対位置を変化させることを特徴とする請求項2または3に記載の画像処理装置。   The position determining means determines the positions of the first area and the second area based on the amount of movement of the second area different from the amount of movement of the first area. The image processing apparatus according to claim 2, wherein a relative position of the two areas is changed. 前記第1領域の移動量、前記第2領域の移動量よりも大きくすることを特徴とする請求項4記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the movement amount of the first region, larger than the movement amount of the second region. 前記位置決定手段は、前記第2領域の内側に位置するよう前記第1領域の位置を補正することを特徴とする請求項2または3に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the position determining unit corrects a position of the first area so as to be located inside the second area. 前記視覚的顕著度が高いと判定された領域を優先して所定処理を行う制御手段を有し、 前記第1の領域は、前記第2の領域の内側に位置し、
前記視覚的顕著度算出手段は、前記第1の特徴量と前記第2の特徴量の違いが大きいほど、前記視覚的顕著度が高いと判定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
A control unit that performs a predetermined process by giving priority to an area determined to have high visual saliency; the first area is located inside the second area;
6. The visual saliency calculating unit determines that the greater the difference between the first feature amount and the second feature amount is, the higher the visual saliency is. The image processing apparatus according to claim 1.
異なるサンプリングレートを持つ画像信号に基づき前記視覚的顕著度を算出する場合において、前記位置決定手段は、低いサンプリングレートでサンプリングされた画像信号の境界に前記第1領域および前記第2領域が整合するように当該領域の位置を調整することを特徴とする請求項2または3に記載の画像処理装置。   When calculating the visual saliency based on image signals having different sampling rates, the position determining means aligns the first area and the second area with a boundary of an image signal sampled at a low sampling rate. The image processing apparatus according to claim 2, wherein the position of the area is adjusted as described above. 前記画像の画像端に被写体が存在するか否か推定する推定手段をさらに備え、
前記位置決定手段は、前記推定手段の推定結果に応じて、前記第1領域および前記第2領域の初期位置及び移動量を変更することを特徴とする請求項2乃至のいずれか1項に記載の画像処理装置。
Estimating means for estimating whether or not a subject is present at an image end of the image,
Said position determining means, in accordance with the estimation result of the estimating means, to any one of claims 2 to 6, characterized in that to change the initial position and the movement amount of the first region and the second region The image processing apparatus according to any one of the preceding claims.
前記位置決定手段は、前記推定手段により前記画像端に被写体が存在しないと推定された場合は、前記第1領域と前記第2領域の相対位置を変化させないことを特徴とする請求項9に記載の画像処理装置。   10. The position determination unit according to claim 9, wherein when the estimation unit estimates that the subject does not exist at the image end, the relative position between the first region and the second region is not changed. Image processing device. 画像の第1領域における第1の特徴量および前記画像の第2領域における第2の特徴量を算出する特徴量算出工程と、
前記第1の特徴量と前記第2の特徴量との比較結果に基づき、前記第1領域もしくは第2領域における視覚的顕著度を算出する視覚的顕著度算出工程とを備え、
前記特徴量算出工程は、前記第1領域および前記第2領域を前記画像内の複数の位置に設定し、それぞれの位置で前記第1の特徴量と前記第2の特徴量を算出し、前記第2の領域の前記画像内の位置に応じて、前記第1領域と前記第2領域の相対位置を変化させることを特徴とする画像処理装置の制御方法。
A feature value calculating step of calculating a first feature value in a first region of the image and a second feature value in a second region of the image;
A visual saliency calculating step of calculating a visual saliency in the first region or the second region based on a comparison result between the first characteristic amount and the second characteristic amount,
The feature amount calculating step sets the first region and the second region at a plurality of positions in the image, calculates the first feature amount and the second feature amount at each position, A method for controlling an image processing apparatus, comprising: changing a relative position between the first region and the second region according to a position of a second region in the image.
請求項11に記載の制御方法を画像処理装置に実行させるためのコンピュータに読み取り可能なプログラム。   A computer-readable program for causing an image processing apparatus to execute the control method according to claim 11.
JP2014222686A 2014-10-31 2014-10-31 Image processing apparatus, control method therefor, and program Active JP6669376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014222686A JP6669376B2 (en) 2014-10-31 2014-10-31 Image processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014222686A JP6669376B2 (en) 2014-10-31 2014-10-31 Image processing apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2016091172A JP2016091172A (en) 2016-05-23
JP6669376B2 true JP6669376B2 (en) 2020-03-18

Family

ID=56019347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014222686A Active JP6669376B2 (en) 2014-10-31 2014-10-31 Image processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6669376B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
JP3848514B2 (en) * 2000-02-23 2006-11-22 富士通株式会社 Saliency calculation apparatus and method
JP4630174B2 (en) * 2005-11-14 2011-02-09 日本放送協会 Motion vector detection device
US7940985B2 (en) * 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection
JP2010011441A (en) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd Imaging apparatus and image playback device
JP5508808B2 (en) * 2009-10-15 2014-06-04 オリンパス株式会社 Image analysis method and image analysis apparatus
US8989437B2 (en) * 2011-05-16 2015-03-24 Microsoft Corporation Salient object detection by composition
JP2013048307A (en) * 2011-07-26 2013-03-07 Panasonic Corp Moving picture decoder and moving picture decoding method

Also Published As

Publication number Publication date
JP2016091172A (en) 2016-05-23

Similar Documents

Publication Publication Date Title
JP5980294B2 (en) Data processing apparatus, imaging apparatus, and data processing method
US8988529B2 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
US8890971B2 (en) Image processing apparatus, image capturing apparatus, and computer program
JP2010081587A (en) Imaging apparatus, and tracking method therefor
US9973687B2 (en) Capturing apparatus and method for capturing images without moire pattern
US9838594B2 (en) Irregular-region based automatic image correction
JP2010021598A (en) Image capturing apparatus and method
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
US20130176447A1 (en) Image processing apparatus, image capturing apparatus, and program
JP2011258180A (en) Subject tracking apparatus, subject tracking method, and program
US20170201665A1 (en) Image capturing apparatus and image capturing method
JP2014187610A (en) Image processing device, image processing method, program, and imaging device
TWI451184B (en) Focus adjusting method and image capture device thereof
JP2015012482A (en) Image processing apparatus and image processing method
JP6564284B2 (en) Image processing apparatus and image processing method
US9420161B2 (en) Image-capturing apparatus
JP2011066827A (en) Image processing apparatus, image processing method and program
JP2021111929A (en) Imaging device, control method of imaging device, and program
JP6242742B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6669376B2 (en) Image processing apparatus, control method therefor, and program
JP5615012B2 (en) White balance stable adjustment device and control method thereof, program for white balance stable adjustment
JP2006279413A (en) Motion vector detector, image display, image photographing apparatus, motion vector detecting method, program, and recording medium
JP5322842B2 (en) Automatic focusing device, automatic focusing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R151 Written notification of patent or utility model registration

Ref document number: 6669376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151