JP2013012124A - Image processing device, imaging device, and program - Google Patents

Image processing device, imaging device, and program Download PDF

Info

Publication number
JP2013012124A
JP2013012124A JP2011145538A JP2011145538A JP2013012124A JP 2013012124 A JP2013012124 A JP 2013012124A JP 2011145538 A JP2011145538 A JP 2011145538A JP 2011145538 A JP2011145538 A JP 2011145538A JP 2013012124 A JP2013012124 A JP 2013012124A
Authority
JP
Japan
Prior art keywords
image
images
saliency
unit
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011145538A
Other languages
Japanese (ja)
Other versions
JP5862071B2 (en
Inventor
Keiichi Nitta
啓一 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011145538A priority Critical patent/JP5862071B2/en
Publication of JP2013012124A publication Critical patent/JP2013012124A/en
Application granted granted Critical
Publication of JP5862071B2 publication Critical patent/JP5862071B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract an image in which a main subject is photographed in a preferable state.SOLUTION: An image processing device comprises: an image acquisition unit that acquires plural images; a main subject estimation unit that estimates a main subject in the plural images; a saliency degree calculation unit that calculates a visual saliency degree for each of the plural images; and an image selection unit that compares the saliency degrees of the main subject among the plural images, and selects any image of the plural images on the basis of the saliency degrees of the main subject. In the image processing device, the image selection unit may select the image when the saliency degree of the main subject in each of the plural images is greater.

Description

本発明は画像処理装置、撮像装置およびプログラムに関する。   The present invention relates to an image processing apparatus, an imaging apparatus, and a program.

複数画像の個々の品質を自動的に評価して選別し、選別した画像をユーザ選択に委ねる画像表示装置が提案されている(特許文献1参照)。
[特許文献1]特開2006−311340号公報
There has been proposed an image display device that automatically evaluates and selects individual qualities of a plurality of images, and leaves the selected images to user selection (see Patent Document 1).
[Patent Document 1] Japanese Patent Application Laid-Open No. 2006-311340

しかしながら、画像全体の品質により評価した場合、ユーザが着目する被写体がどのように写っているかは評価されておらず、自動的な評価がユーザの選択と一致するとは限らなかった。   However, when the evaluation is performed based on the quality of the entire image, how the subject focused on by the user is not evaluated, and the automatic evaluation does not always coincide with the user's selection.

本発明の第一態様として、複数の画像を取得する画像取得部と、複数の画像における主要被写体を推定する主要被写体推定部と、複数の画像のそれぞれについて、視覚的な顕著度を算出する顕著度算出部と、複数の画像の間で主要被写体の顕著度を比較し、主要被写体の顕著度に基づいて複数の画像のうちのいずれかの画像を選択する画像選択部とを備える画像処理装置が提供される。   As a first aspect of the present invention, an image acquisition unit that acquires a plurality of images, a main subject estimation unit that estimates a main subject in the plurality of images, and a saliency that calculates visual saliency for each of the plurality of images An image processing apparatus comprising: a degree calculation unit; and an image selection unit that compares the saliency of the main subject between the plurality of images and selects any one of the plurality of images based on the saliency of the main subject Is provided.

本発明の第二態様として、上記画像処理装置と、被写界の像光を撮像する撮像部とを備える撮像装置が提供される。   As a second aspect of the present invention, there is provided an imaging apparatus including the image processing apparatus and an imaging unit that captures image light of an object scene.

本発明の第三態様として、複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出段階と、複数の被写体のいずれが、複数の被写体における主要被写体であるかを推定する主要被写体推定段階と、複数の画像のそれぞれについて、視覚的な顕著度算出する顕著度算出段階と、複数の画像の間で主要被写体の顕著度を比較し、主要被写体の顕著度に基づいて複数の画像のうちのいずれかの画像を選択する画像選択段階とを計算機に実行させる画像処理プログラムが提供される。   As a third aspect of the present invention, a subject extraction stage for extracting a plurality of different subjects included in a plurality of images, and a main subject estimation stage for estimating which of the plurality of subjects is a main subject in the plurality of subjects. And a saliency calculation stage for calculating a visual saliency for each of the plurality of images, and comparing the saliency of the main subject between the plurality of images, and among the plurality of images based on the saliency of the main subject. An image processing program for causing a computer to execute an image selection step of selecting any one of the above images is provided.

上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。これら特徴群のサブコンビネーションもまた発明となり得る。   The above summary of the present invention does not enumerate all necessary features of the present invention. A sub-combination of these feature groups can also be an invention.

デジタルカメラ100の斜視図である。1 is a perspective view of a digital camera 100. FIG. デジタルカメラ100の斜視図である。1 is a perspective view of a digital camera 100. FIG. デジタルカメラ100の内部回路200を示すブロック図である。2 is a block diagram showing an internal circuit 200 of the digital camera 100. FIG. 撮影画像処理部203の動作手順を示す流れ図である。5 is a flowchart illustrating an operation procedure of a captured image processing unit 203. 撮影画像群410を例示する模式図である。4 is a schematic diagram illustrating a captured image group 410. FIG. 被写体抽出部250の動作を模式的に示す図である。6 is a diagram schematically showing the operation of a subject extraction unit 250. FIG. 主要被写体推定部260の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of a main subject estimation unit 260. 主要被写体推定部260の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of a main subject estimation unit 260. 主要被写体推定部260の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of a main subject estimation unit 260. 画像選択部270の動作手順を示す流れ図である。5 is a flowchart showing an operation procedure of an image selection unit 270. 顕著度マップ生成部222のブロック図である。5 is a block diagram of a saliency map generation unit 222. FIG. 顕著度マップ生成の手順を示す流れ図である。It is a flowchart which shows the procedure of saliency map generation. 顕著度マップの生成過程を模式的に示す図である。It is a figure which shows typically the production | generation process of a saliency map. 輝度情報抽出部610のブロック図である。6 is a block diagram of a luminance information extraction unit 610. FIG. 輝度情報抽出の手順を示す流れ図である。It is a flowchart which shows the procedure of luminance information extraction. 色情報抽出部620のブロック図である。6 is a block diagram of a color information extraction unit 620. FIG. 色情報抽出の手順を示す流れ図である。It is a flowchart which shows the procedure of color information extraction. エッジ情報抽出部630のブロック図である。6 is a block diagram of an edge information extraction unit 630. FIG. エッジ情報抽出の手順を示す流れ図である。It is a flowchart which shows the procedure of edge information extraction. 主要被写体の顕著度を示す模式図である。It is a schematic diagram which shows the saliency of a main subject. 画像選択部270の動作を模式的に示す図である。FIG. 10 is a diagram schematically illustrating the operation of an image selection unit 270. 画像選択部270の動作を模式的に示す図である。FIG. 10 is a diagram schematically illustrating the operation of an image selection unit 270. 画像選択部270の動作を模式的に示す図である。FIG. 10 is a diagram schematically illustrating the operation of an image selection unit 270. 画像選択部270の動作を模式的に示す図である。FIG. 10 is a diagram schematically illustrating the operation of an image selection unit 270. 画像選択部270の動作を模式的に示す図である。FIG. 10 is a diagram schematically illustrating the operation of an image selection unit 270. 画像処理プログラムを実行するパーソナルコンピュータの模式図である。It is a schematic diagram of a personal computer that executes an image processing program.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、撮像装置の一種であり、撮影画像処理装置を備えたデジタルカメラ100を斜め前方から見た斜視図である。デジタルカメラ100は、筐体110と、筐体110の前面に配置されたレンズ鏡筒120および発光窓130と、筐体110の上面に配置された電源スイッチ142、レリーズボタン144、ズームレバー146を備える。   FIG. 1 is a perspective view of a digital camera 100 that is a type of imaging apparatus and includes a captured image processing apparatus as viewed obliquely from the front. The digital camera 100 includes a housing 110, a lens barrel 120 and a light emitting window 130 disposed on the front surface of the housing 110, a power switch 142, a release button 144, and a zoom lever 146 disposed on the top surface of the housing 110. Prepare.

レンズ鏡筒120は、筐体110の内部に配置された撮像素子に被写体の像光を結像する撮影レンズ122を保持する。筐体110の内部に配置された図示していない発光部により発生した光は、発光窓130を介して被写体を照明する。電源スイッチ142、レリーズボタン144、ズームレバー146は、デジタルカメラ100の操作部140の一部をなす。   The lens barrel 120 holds a photographing lens 122 that forms an image light of a subject on an image sensor disposed inside the housing 110. Light generated by a light emitting unit (not shown) disposed inside the housing 110 illuminates the subject through the light emitting window 130. The power switch 142, the release button 144, and the zoom lever 146 form part of the operation unit 140 of the digital camera 100.

電源スイッチ142は、押される毎にデジタルカメラ100の電源を断続する。ズームレバー146は、レンズ鏡筒120に保持された撮影レンズの倍率を変化させる。レリーズボタン144がユーザによって半押しされた場合に、自動合焦部、測光センサ等が駆動されると共に、撮像素子によるスルー画像撮影動作が実行される。これにより、デジタルカメラ100はスルー画像撮影に続く、被写体像の本撮影に備える。   Each time the power switch 142 is pressed, the power of the digital camera 100 is interrupted. The zoom lever 146 changes the magnification of the photographing lens held in the lens barrel 120. When the release button 144 is half-pressed by the user, the automatic focusing unit, the photometric sensor, and the like are driven, and a through image capturing operation by the image sensor is executed. Thereby, the digital camera 100 prepares for the main photographing of the subject image following the through image photographing.

レリーズボタン144の全押し操作がなされると、シャッタが開いて被写体像の本撮影動作が実行される。撮影範囲の明るさが暗いなどの場合には、本撮影のタイミングに合わせて発光窓130から光が被写体に向かって投射される。   When the release button 144 is fully pressed, the shutter is opened and the subject image is actually captured. When the brightness of the shooting range is dark, the light is projected from the light emission window 130 toward the subject in accordance with the timing of the main shooting.

図2は、デジタルカメラ100を斜め後方から見た斜視図である。図1と共通の要素には同じ参照番号を付して重複する説明を省く。   FIG. 2 is a perspective view of the digital camera 100 as viewed obliquely from the rear. Elements that are the same as those in FIG. 1 are given the same reference numerals, and redundant descriptions are omitted.

筐体110の背面には、十字キー141および背面ボタン143を含む操作部140の一部と、背面表示部150とが配される。十字キー141および背面ボタン143は、デジタルカメラ100に各種設定を入力する場合、デジタルカメラ100の動作モードを切り替える場合、レンズ鏡筒の変倍等をリアルタイムで変更する場合等に、ユーザにより操作される。   A part of the operation unit 140 including a cross key 141 and a back button 143 and a back display unit 150 are arranged on the back surface of the housing 110. The cross key 141 and the back button 143 are operated by the user when inputting various settings to the digital camera 100, switching the operation mode of the digital camera 100, changing the magnification of the lens barrel in real time, and the like. The

背面表示部150は、液晶表示パネル等により形成され、筐体110背面の多くの領域を占める。デジタルカメラ100が撮影モードの場合、レンズ鏡筒120に入射する被写体像が撮像素子により連続的に光電変換され、スルー画として背面表示部150に表示される。ユーザは、背面表示部150に表示されたスルー画を観察することにより、有効な撮影範囲を知ることができる。   The rear display unit 150 is formed of a liquid crystal display panel or the like, and occupies many areas on the rear surface of the housing 110. When the digital camera 100 is in the shooting mode, a subject image incident on the lens barrel 120 is continuously photoelectrically converted by the imaging device and displayed on the rear display unit 150 as a through image. The user can know the effective shooting range by observing the through image displayed on the rear display unit 150.

また、背面表示部150には、電池の残量、記憶媒体の残り容量等、デジタルカメラ100の状態が併せて表示される。更に、デジタルカメラ100が再生モードで動作する場合は、後述する二次記憶媒体332から画像データが読み出され、再生画像が背面表示部150に表示される。   The rear display unit 150 also displays the status of the digital camera 100 such as the remaining battery level and the remaining capacity of the storage medium. Further, when the digital camera 100 operates in the playback mode, image data is read from a secondary storage medium 332 described later, and the playback image is displayed on the rear display unit 150.

図3は、デジタルカメラ100の内部回路200を模式的に示すブロック図である。図1および図2と共通の要素には同じ参照番号を付して重複する説明を省く。内部回路200は、制御部201、撮像部202および撮影画像処理部203を含む。   FIG. 3 is a block diagram schematically showing the internal circuit 200 of the digital camera 100. Elements common to those in FIGS. 1 and 2 are denoted by the same reference numerals, and redundant description is omitted. The internal circuit 200 includes a control unit 201, an imaging unit 202, and a captured image processing unit 203.

制御部201は、CPU210、表示駆動部220、プログラムメモリ230およびメインメモリ240で構成される。CPU210は、プログラムメモリ230からメインメモリ240に読み込んだファームウエアに従って、デジタルカメラ100の動作を包括的に制御する。CPU210には、入力画像の顕著度マップを生成する顕著度マップ生成部222も形成される。顕著度マップ生成部222に対する入力画像は、デジタルカメラ100の撮影画像の他、外部から供給された画像ファイルであってもよい。表示駆動部220は、CPU210からの指示に従って表示画像を生成し、生成した画像を背面表示部150に表示する。   The control unit 201 includes a CPU 210, a display driving unit 220, a program memory 230, and a main memory 240. The CPU 210 comprehensively controls the operation of the digital camera 100 according to the firmware read from the program memory 230 to the main memory 240. The CPU 210 is also formed with a saliency map generation unit 222 that generates a saliency map of the input image. The input image to the saliency map generation unit 222 may be an image file supplied from the outside in addition to a captured image of the digital camera 100. The display driving unit 220 generates a display image in accordance with an instruction from the CPU 210 and displays the generated image on the rear display unit 150.

撮像部202は、撮像素子駆動部310、撮像素子312、アナログ/デジタル変換部320、画像処理部330、自動合焦部340および測光センサ350を含む。撮像素子駆動部310は、撮像素子312を駆動して、撮影レンズ122により撮像素子312の撮像面に結像された被写体像を光電変換して画像信号にする。撮像素子312としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を用いることができる。   The imaging unit 202 includes an imaging device driving unit 310, an imaging device 312, an analog / digital conversion unit 320, an image processing unit 330, an automatic focusing unit 340, and a photometric sensor 350. The image sensor driving unit 310 drives the image sensor 312 to photoelectrically convert the subject image formed on the image pickup surface of the image sensor 312 by the photographing lens 122 into an image signal. As the imaging element 312, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like can be used.

撮像素子312が出力する画像信号は、アナログ/デジタル変換部320により離散化され、画像処理部330により撮影画像データに変換される。画像処理部330は、撮影画像データを生成する過程で、画像のホワイトバランス、シャープネス、ガンマ、階調補正等を調整すると共に、撮影画像データを後述する二次記憶媒体332に記憶する際の圧縮率等を設定する。   The image signal output from the image sensor 312 is discretized by the analog / digital conversion unit 320 and converted into captured image data by the image processing unit 330. The image processing unit 330 adjusts white balance, sharpness, gamma, gradation correction, and the like of the image in the process of generating the captured image data, and compresses the captured image data when it is stored in the secondary storage medium 332 described later. Set the rate, etc.

画像処理部330において生成された画像データは、二次記憶媒体332に格納して保存される。二次記憶媒体332としては、フラッシュメモリカード等の不揮発性記憶素子を備えた媒体が使用される。二次記憶媒体332の少なくとも一部は、デジタルカメラ100から着脱して交換できる。   The image data generated by the image processing unit 330 is stored and stored in the secondary storage medium 332. As the secondary storage medium 332, a medium including a nonvolatile storage element such as a flash memory card is used. At least a part of the secondary storage medium 332 can be detached from the digital camera 100 and replaced.

自動合焦部340は、例えば、撮像素子312の撮像面に配設された位相差方式の焦点検出素子を用いて、周知の位相差方式による自動合焦動作を行う。測光センサ350は、被写体の明るさを計測して、デジタルカメラ100の撮影条件を決定する。変倍駆動部360は、CPU210の指示に従って撮影レンズ122の一部を移動させる。これにより、撮影レンズ122の倍率が変化して、撮影画像の画角が変化する。   The automatic focusing unit 340 performs an automatic focusing operation by a known phase difference method using, for example, a phase difference type focus detection element disposed on the imaging surface of the imaging element 312. The photometric sensor 350 measures the brightness of the subject and determines the shooting conditions of the digital camera 100. The magnification driving unit 360 moves a part of the photographing lens 122 in accordance with an instruction from the CPU 210. As a result, the magnification of the photographic lens 122 changes, and the angle of view of the photographic image changes.

入力受付部370は、操作部140からの入力を受け付け、CPU210に入力する。CPU210は、入力された信号に応じて各部への指令を発生する。また、CPU210は、指令を発生する場合に、入力受付部370に保持された設定値を参照して動作条件を決定する。   The input receiving unit 370 receives an input from the operation unit 140 and inputs the input to the CPU 210. The CPU 210 generates a command to each unit according to the input signal. In addition, when generating a command, the CPU 210 refers to a set value held in the input receiving unit 370 to determine an operation condition.

上記のような内部回路200を有するデジタルカメラ100は、さらにユーザがレリーズボタン144を押し下げる1回の撮影操作(全押し操作)に対して、撮像部202が複数の画像データを取得する撮影モードを有する。同撮影モードの設定がなされると、CPU210は、撮像素子駆動部310により、撮像素子312が連続撮影を行うよう制御する。これにより、時系列撮影画像(映像)データが取得される。   The digital camera 100 having the internal circuit 200 as described above has a shooting mode in which the imaging unit 202 acquires a plurality of image data in response to one shooting operation (full pressing operation) in which the user presses the release button 144. Have. When the shooting mode is set, the CPU 210 controls the image sensor 312 to perform continuous shooting using the image sensor driving unit 310. Thereby, time-series photographed image (video) data is acquired.

このようにして取得された時系列の撮影画像データは、画像処理部330内のFIFO(First In First Out)メモリに順次入力される。FIFOメモリは、所定の記憶容量を有しており、順次入力される入力データが当該所定の容量に達すると、入力された順に撮影画像データが出力される。   The time-series captured image data acquired in this way is sequentially input to a FIFO (First In First Out) memory in the image processing unit 330. The FIFO memory has a predetermined storage capacity, and when input data sequentially input reaches the predetermined capacity, the captured image data is output in the input order.

上記撮影モードでは、ユーザによるレリーズボタン144の全押し操作から所定時間が経過するまで、時系列の撮影画像データが、順次FIFOメモリに入力され、この間に、FIFOメモリから出力されたデータは削除される。レリーズボタン144の全押し操作がなされてから所定時間が経過すると、FIFOメモリへの撮影画像データの書き込みが禁止される。これにより、FIFOメモリ内には、レリーズボタン144の全押し操作の前後に取得された複数フレームの時系列撮影画像データが保持される。   In the shooting mode, time-series shot image data is sequentially input to the FIFO memory until a predetermined time has elapsed since the user fully pressed the release button 144, and during this time, the data output from the FIFO memory is deleted. The When a predetermined time elapses after the release button 144 is fully pressed, writing of the captured image data to the FIFO memory is prohibited. As a result, a plurality of frames of time-series captured image data acquired before and after the release button 144 is fully pressed are held in the FIFO memory.

即ち、一度の撮影操作(全押し操作)に対して撮像部202が時系列で撮像した複数の画像を取得することにより、それら複数の画像から、撮影条件(絞り開度、シャッタ速度、撮像素子感度等)、撮影タイミング等が適していた撮影画像を、当該撮影モードで取得された複数フレームの撮影画像の中から選択できる。これにより、撮影の成功率を向上させることができる。   That is, by acquiring a plurality of images captured in time series by the imaging unit 202 for a single shooting operation (full pressing operation), shooting conditions (aperture opening, shutter speed, imaging element) are acquired from the plurality of images. Sensitivity, etc.), shooting timing, and the like can be selected from a plurality of frames of shooting images acquired in the shooting mode. Thereby, the success rate of photographing can be improved.

近年、デジタルカメラ100の性能が向上し、ユーザの一度のレリーズボタン操作に対して数十フレームにも及ぶ画像データを取得することもできるようになってきている。そのような場合には特に、大量の撮影画像データから保存すべき画像データを選択することがユーザの負担になる場合がある。本実施形態によれば、このようなユーザの負担を後述のように軽減することができる。   In recent years, the performance of the digital camera 100 has improved, and it has become possible to acquire image data of several tens of frames in response to a single release button operation by the user. In such a case, it may be a burden on the user to select image data to be stored from a large amount of photographed image data. According to the present embodiment, such a burden on the user can be reduced as described later.

図3に示される、デジタルカメラ100は、撮影画像処理部203を備える。撮影画像処理部203は、被写体抽出部250、主要被写体推定部260および画像選択部270を有し、複数の撮影画像から、画像としての価値がより高いと推定される撮影画像を選択する。   A digital camera 100 shown in FIG. 3 includes a captured image processing unit 203. The captured image processing unit 203 includes a subject extraction unit 250, a main subject estimation unit 260, and an image selection unit 270, and selects a captured image that is estimated to have a higher value as an image from a plurality of captured images.

ここで、画像としての価値とは、画像データとしての品質の高さの他、撮影内容に対する評価も含む。画像データとしての品質の高さとは、画像の解像が高い、ダイナミックレンジが広い、白とび/黒つぶれ等が生じていない等、デジタルデータとして信号品質に依存する価値の高さを意味する。一方、撮影内容に対する評価とは、ユーザにとって関心が高い被写体が映像に含まれているか、当該被写体にピントがあっているか、当該被写体の露光状態が適切であるか等、ユーザの主観的価値に依存する評価を意味する。   Here, the value as an image includes not only the high quality as image data but also the evaluation of the captured content. High quality as image data means high value depending on signal quality as digital data, such as high image resolution, wide dynamic range, no overexposure / blackout, and the like. On the other hand, the evaluation of the shooting content is based on the subjective value of the user, such as whether the subject is highly interested in the video, whether the subject is in focus, or whether the exposure state of the subject is appropriate. Means dependent evaluation.

図4及び図10は、デジタルカメラ100の撮影画像処理部203における処理手順を示す流れ図である。図4では、被写体抽出部250および主要被写体推定部260における処理までが示される。撮影画像処理部203は、FIFOメモリ、あるいは二次記憶媒体332から、複数フレームの撮影画像データを読み出すことにより、複数の撮影画像ファイルを取得する(ステップS101)。   4 and 10 are flowcharts showing a processing procedure in the captured image processing unit 203 of the digital camera 100. FIG. FIG. 4 shows processing up to the subject extraction unit 250 and the main subject estimation unit 260. The captured image processing unit 203 acquires a plurality of captured image files by reading captured image data of a plurality of frames from the FIFO memory or the secondary storage medium 332 (step S101).

図5は、撮影画像処理部203に取得された複数の撮影画像を概念的に示す図である。図示のように、取得された複数の撮影画像41−1〜41−nは、撮影画像群410として撮影画像処理部203において処理される。   FIG. 5 is a diagram conceptually showing a plurality of captured images acquired by the captured image processing unit 203. As illustrated, the plurality of captured images 41-1 to 41-n acquired are processed in the captured image processing unit 203 as a captured image group 410.

ここで、撮影画像41−1〜41−nは、例えば、ブラケット撮影、連写等により時間的あるいは時系列的に連続して撮影された画像であってもよい。また、同じ場所、同じ日、同じ季節等、撮影条件の一部が共通する画像であってもよい。   Here, the captured images 41-1 to 41-n may be images captured continuously in time or time series by bracket shooting, continuous shooting, or the like. Further, the images may have a common part of shooting conditions such as the same place, the same day, the same season, and the like.

ただし、複数の撮影画像41−1〜41−nは、互いに異なる内容を有するものとする。ここでいう異なる内容とは、撮影画像41−1〜41−nに含まれる被写体が相違することの他、同じ被写体が同じ構図で撮影されている場合であっても、合焦位置、露光条件等が相違するものも含む。   However, the plurality of captured images 41-1 to 41-n have different contents from each other. The different contents referred to here include in-focus positions and exposure conditions even when the subjects included in the captured images 41-1 to 41-n are different, and even when the same subject is captured with the same composition. Including those that differ.

再び図4を参照すると、撮影画像処理部203は、取得した複数の撮影画像41−1〜41−nのうちの1フレームの撮影画像から、被写体抽出部250において、撮影画像に含まれる被写体を抽出させる(ステップS102)。撮影画像からの被写体抽出は、ソーベルフィルタ等による輪郭抽出の他、周知の顔認識技術、主成分分析を使った固有顔、線形判別分析、弾性バンチグラフマッチング、隠れマルコフモデル等、さまざまな方法を用いることができる。   Referring to FIG. 4 again, the photographed image processing unit 203 uses the subject extraction unit 250 to select subjects included in the photographed image from one frame of the obtained photographed images 41-1 to 41-n. Extract (step S102). Subject extraction from captured images includes various methods such as contour extraction using a Sobel filter, etc., well-known face recognition technology, eigenface using principal component analysis, linear discriminant analysis, elastic bunch graph matching, hidden Markov model, etc. Can be used.

図6は、被写体抽出部250における処理を概念的に示す図である。図示のように、被写体抽出部250は、取得した複数の撮影画像41−1〜41−nの各々から、被写体11〜33を抽出する。抽出される被写体は、顔を含む人物を始め、樹木等の静物、自動車、動物等、人物以外の被写体を含んでもよい。   FIG. 6 is a diagram conceptually showing processing in the subject extraction unit 250. As illustrated, the subject extraction unit 250 extracts subjects 11 to 33 from each of the acquired plurality of captured images 41-1 to 41-n. The extracted subject may include subjects other than the person, such as a person including a face, a still life such as a tree, a car, an animal, and the like.

再び図4を参照すると、被写体抽出部250は、ある1フレームの撮影画像、例えば撮影画像41−1に含まれる被写体11〜33を全て抽出すると、取得した撮影画像群410に、まだ被写体抽出をしていない撮影画像があるか否かを調べる(ステップS103)。まだ被写体抽出をしていない撮影画像が残っている場合(ステップS103:NO)、被写体抽出部250は、当該撮影画像からの被写体抽出を順次実行する(ステップS102)。   Referring to FIG. 4 again, when the subject extraction unit 250 extracts all of the subjects 11 to 33 included in a certain frame of the captured image, for example, the captured image 41-1, the subject extraction unit 250 still extracts the subject in the acquired captured image group 410. It is checked whether there is a photographed image that has not been performed (step S103). If there are still captured images that have not been subject extracted (step S103: NO), the subject extraction unit 250 sequentially executes subject extraction from the captured images (step S102).

ステップS103において、取得した撮影画像群410に含まれる撮影画像41−1〜41−nの全てに対して被写体抽出したことが判った場合(ステップS103:YES)、被写体抽出部250は処理を完了して、主要被写体推定部260に処理を渡す。   If it is determined in step S103 that the subject has been extracted from all of the captured images 41-1 to 41-n included in the acquired captured image group 410 (step S103: YES), the subject extraction unit 250 completes the processing. Then, the process is passed to the main subject estimation unit 260.

被写体抽出部250により抽出された被写体11〜33はメインメモリ240に記録され、後述する主要被写体推定部260による処理の単位となる。なお、一面の草原、空等のように主要被写体として抽出する対象がない画像では被写体を抽出できない。よって、取得した複数の画像に、このような主要被写体を検出できない画像が含まれていた場合、撮影画像処理部203は、そのような撮影画像を処理の対象から除く。   The subjects 11 to 33 extracted by the subject extraction unit 250 are recorded in the main memory 240 and become a unit of processing by the main subject estimation unit 260 described later. It should be noted that a subject cannot be extracted from an image having no target to be extracted as a main subject, such as a plain or sky. Therefore, when the acquired plurality of images include an image in which such a main subject cannot be detected, the captured image processing unit 203 excludes such a captured image from the processing target.

主要被写体推定部260は、撮影画像群410に含まれる撮影画像41−1〜41−nの各々において被写体抽出部250により抽出された複数の被写体11〜33を対象として、それらの中から撮影画像41−1〜41−nにおける1つの主要被写体を推定する(ステップS104)。即ち、主要被写体推定部260は、撮影画像41−1〜41−nに含まれる複数の被写体11〜33から、ユーザにとって最も重要と推定される被写体を主要被写体と推定する。   The main subject estimation unit 260 targets a plurality of subjects 11 to 33 extracted by the subject extraction unit 250 in each of the captured images 41-1 to 41-n included in the captured image group 410, and takes a captured image from them. One main subject in 41-1 to 41-n is estimated (step S104). That is, the main subject estimation unit 260 estimates the subject that is estimated to be most important for the user from the plurality of subjects 11 to 33 included in the captured images 41-1 to 41-n as the main subject.

このようにして、一連の撮影画像における主要被写体が推定される。主要被写体推定部260は、ある1フレームの撮影画像、例えば撮影画像41−1に含まれる被写体11〜33からどの被写体が主要被写体かを推定すると、各撮影画像において、推定された主要被写体の領域を特定する(ステップS105)。   In this way, the main subject in the series of captured images is estimated. When the main subject estimation unit 260 estimates which subject is the main subject from one frame of a captured image, for example, the subjects 11 to 33 included in the captured image 41-1, the region of the estimated main subject in each captured image. Is specified (step S105).

なお、主要被写体を推定する処理(S104)には、推定の対象となる被写体を含む領域を特定する処理が含まれる場合がある。このような場合は、主要被写体を推定した後に、推定された主要被写体の領域を改めて特定する処理(ステップS105)を省くことができる。   Note that the process of estimating the main subject (S104) may include a process of specifying an area including the subject to be estimated. In such a case, after the main subject is estimated, it is possible to omit the process of respecifying the estimated main subject region (step S105).

しかしながら、例えば顔のように、被写体の一部分を用いて主要被写体の抽出を実行した場合は、その顔を含む被写体全体の領域、例えば全身を改めて主要被写体として特定してもよい。逆に、ステップS104において、対象となる被写体全体を用いて主要被写体を抽出する場合は、主要被写体の領域を特定(ステップS105)する処理を省くことができる。   However, when the extraction of the main subject is executed using a part of the subject such as a face, the entire subject region including the face, for example, the whole body may be specified as the main subject again. Conversely, when the main subject is extracted using the entire subject as a target in step S104, the process of specifying the main subject region (step S105) can be omitted.

こうして、主要被写体推定部260は、取得した撮影画像群410に含まれる全ての撮影画像41−1〜41−nに対して主要被写体領域を特定する。全ての撮影画像41−1〜41−nに対して主要被写体領域の特定(ステップS105)が終了すると撮影画像処理部203は、主要被写体推定部260における処理は終了する。   In this way, the main subject estimation unit 260 specifies the main subject region for all the captured images 41-1 to 41-n included in the acquired captured image group 410. When the main subject area is identified (step S105) for all the captured images 41-1 to 41-n, the captured image processing unit 203 ends the processing in the main subject estimation unit 260.

図7及び図8は、図4のステップS104における、複数の被写体11〜33から主要被写体を推定する方法を模式的に示す図である。主要被写体推定部260は、例えば、図7に示すように、被写界421における各被写体の位置の履歴に基づいて主要被写体を推定する。なお、図7は、撮影画像の内容を示す図ではなく、主要被写体を推定する方法の概念を示す模式図である。   7 and 8 are diagrams schematically showing a method of estimating the main subject from the plurality of subjects 11 to 33 in step S104 of FIG. For example, as illustrated in FIG. 7, the main subject estimation unit 260 estimates the main subject based on the history of the position of each subject in the object scene 421. FIG. 7 is a schematic diagram showing a concept of a method for estimating a main subject, not a diagram showing the contents of a captured image.

主要被写体推定部260は、デジタルカメラ100の複数の撮影画像41−1〜41−nについて被写体11〜33を個別に追尾して、各被写体の位置が、撮影画像41−1〜41−nの所定位置(例えば中心C)からどれぐらい離れた位置に写っているかを調べる。なお、図7では、説明を簡単にする為に、被写体26,27のみに注目して、被写体26,27の位置が、撮影画像41−1〜41−nの所定位置(例えば中心C)からどれぐらい離れた位置に写っているかを、5フレームの撮影画像について重畳して示している。   The main subject estimation unit 260 individually tracks the subjects 11 to 33 for the plurality of photographed images 41-1 to 41-n of the digital camera 100, and the positions of the subjects are the photographed images 41-1 to 41-n. It is examined how far away from a predetermined position (for example, center C). In FIG. 7, for the sake of simplicity of description, focusing only on the subjects 26 and 27, the positions of the subjects 26 and 27 are determined from predetermined positions (for example, the center C) of the captured images 41-1 to 41-n. The distant position is shown superimposed on the captured image of 5 frames.

主要被写体推定部260は、複数の撮影画像41−1〜41−5において、被写体26が写っている位置を、複数の撮影画像41−1〜41−5の中心Cから被写体26のまでの距離d、d、d、d、dの平均値を算出する。また、主要被写体推定部260は、他の被写体27についても、複数の撮影画像41−1〜41−5の中心Cから補被写体27のまでの距離D、D、D、D、Dの平均値も算出する。 The main subject estimation unit 260 determines the position of the subject 26 in the plurality of photographed images 41-1 to 41-5 from the center C of the plurality of photographed images 41-1 to 41-5 to the subject 26. The average value of d 1 , d 2 , d 3 , d 4 , d 5 is calculated. In addition, the main subject estimation unit 260 also sets the distances D 1 , D 2 , D 3 , D 4 , and the distances from the center C of the plurality of captured images 41-1 to 41-5 to the complementary subject 27 for the other subjects 27. the average value of D 5 is also calculated.

主要被写体推定部260は、上記のようにして算出した平均値を比較することにより、被写体27の方が、被写体26よりも、撮影画像の中心Cの近くに写っていることが多いと判定する。これにより、主要被写体推定部260は、被写体27を主要被写体と推定する。なお、上記の例では、撮影画像中の所定位置を画像の中心Cとする例について説明したが、例えば、この所定位置を、構図上好ましいとされている、画面上を縦横3分割した3分割線、あるいは当該3分割線上の所定点とする構成としてもよい。   The main subject estimation unit 260 compares the average values calculated as described above, and determines that the subject 27 is often shown closer to the center C of the captured image than the subject 26. . Thereby, the main subject estimation unit 260 estimates the subject 27 as the main subject. In the above example, an example in which the predetermined position in the captured image is the center C of the image has been described. For example, this predetermined position is preferably divided into three divided vertically and horizontally on the screen. A line or a predetermined point on the three-divided line may be used.

また、図8に示すように、主要被写体推定部260は、被写界422における位置を他の方法で評価してもよい。図8も、撮影画像の内容を示す図ではなく、主要被写体を推定する方法の概念を示す模式図である。   In addition, as illustrated in FIG. 8, the main subject estimation unit 260 may evaluate the position in the object scene 422 by another method. FIG. 8 is also a schematic diagram showing a concept of a method for estimating a main subject, not a diagram showing the contents of a captured image.

主要被写体推定部260は、図8に示すように、デジタルカメラ100の被写界422の中央付近に、中心領域Aを設定する。次いで、複数の撮影画像41−1〜41−5において、被写体26、27が、中心領域Aに入り込んだ回数を計数する。これにより、被写体27の方が、被写体26よりも、中心領域A内に写っている回数が多い場合に、被写体27を主要被写体と推定する。   As shown in FIG. 8, the main subject estimation unit 260 sets the center area A near the center of the object scene 422 of the digital camera 100. Next, the number of times the subjects 26 and 27 have entered the central area A in the plurality of captured images 41-1 to 41-5 is counted. Thus, when the subject 27 is captured more frequently in the central area A than the subject 26, the subject 27 is estimated as the main subject.

このように、撮影画像処理部203は、複数の画像間における被写体の位置に基づいて、主要被写体を推定してもよい。ただし、被写体の位置を評価する方法が上記の例に限られないことはもちろんである。例えば、図7に示した方法において、中心Cとの距離D、D、D、D、Dを評価する場合に、単純平均ではなく、統計的な処理を加えて評価値を算出してもよい。また、中心Cとの距離の被写体27が、時間の経過と共に被写界422の中心に近づいていることを評価してもよい。 As described above, the captured image processing unit 203 may estimate the main subject based on the position of the subject between a plurality of images. However, it goes without saying that the method for evaluating the position of the subject is not limited to the above example. For example, in the method shown in FIG. 7, when evaluating the distances D 1 , D 2 , D 3 , D 4 , and D 5 with respect to the center C, the evaluation value is calculated by adding statistical processing instead of simple averaging. It may be calculated. Further, it may be evaluated that the subject 27 at a distance from the center C is approaching the center of the object scene 422 as time passes.

また、図9に示すように、主要被写体推定部260は、ユーザが撮影操作(レリーズボタン144の全押し操作)をしたタイミングに近いタイミングで撮影された撮影画像における被写体の評価に重みをつけて評価してもよい。即ち、デジタルカメラ100の撮像部202は、一度の撮影操作に対して時系列で撮像された複数の画像を撮影できる。こうして取得された複数の撮影画像41−1〜41−nのうち、レリーズボタン144が押し下げられたタイミングに時間的に近い撮影画像に写り込んでいる被写体26、27は、撮影者が撮影することを意図した被写体である蓋然性が高い。   Further, as shown in FIG. 9, the main subject estimation unit 260 weights the evaluation of the subject in the photographed image photographed at a timing close to the timing when the user performs the photographing operation (full-press operation of the release button 144). You may evaluate. That is, the image capturing unit 202 of the digital camera 100 can capture a plurality of images captured in time series for one capturing operation. Of the plurality of captured images 41-1 to 41-n acquired in this way, the subjects 26 and 27 that are reflected in the captured images that are close in time to the timing when the release button 144 is pressed must be photographed by the photographer. The probability that the subject is intended to be high.

よって、上記のように被写体26、27を評価する場合に、取得されたタイミングが、レリーズボタン144が押し下げられたタイミングに時間的に近い撮影画像に写り込んでいる被写体26、27に重みをつけて評価してもよい。また、レリーズタイミングにより近い画像において被写界421の中心Cにより近かった被写体27、あるいは、レリーズタイミングにより近い画像において被写界421の中心領域Aに入っていた被写体27に重み付けをしてもよい。これにより、主要被写体の推定精度をより向上させることができる。特に、動く被写体をカメラを移動させながら撮影行うなどの場合、撮影者は、写したい被写体が、撮影画面の所定位置(例えば撮影画面中央)になるように、カメラを移動させながら撮影を行うことが多い。上記構成によれば、主要被写体を適切に推定することができる。   Therefore, when the subjects 26 and 27 are evaluated as described above, the subjects 26 and 27 appearing in the captured image that is close in time to the timing when the release button 144 is pressed are weighted. May be evaluated. Also, the subject 27 that is closer to the center C of the object scene 421 in the image closer to the release timing, or the subject 27 that is in the center area A of the object scene 421 in the image closer to the release timing may be weighted. . Thereby, the estimation accuracy of the main subject can be further improved. In particular, when shooting a moving subject while moving the camera, the photographer performs shooting while moving the camera so that the subject to be photographed is at a predetermined position on the shooting screen (for example, the center of the shooting screen). There are many. According to the above configuration, the main subject can be estimated appropriately.

このように、主要被写体推定部260は、人物である被写体の顔を識別して主要被写体を推定してもよい。ただし、主要被写体推定部260における主要被写体の推定方法が上記の例に限られないことはもちろんである。例えば、被写体が人物の場合、笑顔の度合いである笑顔度の最も高い被写体を主要被写体と推定する、あるいは検出された顔のサイズが最も大きい被写体を主要被写体と推定するなどの手法を用いるものであっても構わない。   As described above, the main subject estimation unit 260 may estimate the main subject by identifying the face of the subject that is a person. However, it goes without saying that the main subject estimation method in the main subject estimation unit 260 is not limited to the above example. For example, when the subject is a person, a method is used such as estimating the subject with the highest smile level, which is the degree of smile, as the main subject, or estimating the subject with the largest detected face size as the main subject. It does not matter.

さらには、予め優先順位を付けて登録されている固有の被写体について、複数フレームの撮影画像データの各々で認識処理を行って、主要被写体を推定する構成としてもよい。また、上記の方法のいくつかを組み合わせ、あるいは繰り返すことにより、主要被写体推定の精度向上を図ってもよい。   Furthermore, a configuration may be adopted in which a main subject is estimated by performing a recognition process on each of a plurality of frames of captured image data for a unique subject that has been registered with priorities. Further, the accuracy of main subject estimation may be improved by combining or repeating some of the above methods.

また、上記の例は、複数の撮影画像について同じ主要被写体を推定した。しかしながら、撮影画像相互で異なる主要被写体を推定してもよい。これにより、特定の被写体の撮影状態に関する評価ではなく、撮影内容を評価できる。   In the above example, the same main subject is estimated for a plurality of captured images. However, different main subjects may be estimated for the captured images. Thereby, it is possible to evaluate the shooting content, not the evaluation regarding the shooting state of the specific subject.

図10は、撮影画像処理部203において、図4に示した処理手順に続く処理手順を示す流れ図である。撮影画像処理部203においては、顕著度算出部280を含む画像選択部270が処理を実行する。画像選択部270は、主要被写体推定部260において主要な被写体27を検出された撮影画像41−1〜41−nのそれぞれに対して、顕著度算出部280において、少なくとも主要被写体27の領域についての画像の顕著度分布を示す顕著度マップを算出する(ステップS106)。   FIG. 10 is a flowchart illustrating a processing procedure subsequent to the processing procedure illustrated in FIG. 4 in the captured image processing unit 203. In the photographed image processing unit 203, the image selection unit 270 including the saliency calculation unit 280 performs processing. For each of the captured images 41-1 to 41-n in which the main subject 27 is detected by the main subject estimation unit 260, the image selection unit 270 performs at least the region of the main subject 27 in the saliency calculation unit 280. A saliency map indicating the saliency distribution of the image is calculated (step S106).

図11は、CPU210に形成された顕著度マップ生成部222の内部構造を模式的に示すブロック図である。顕著度マップ生成部222は、輝度情報抽出部610、色情報抽出部620、エッジ情報抽出部630および線形結合部640を有する。   FIG. 11 is a block diagram schematically showing the internal structure of the saliency map generation unit 222 formed in the CPU 210. The saliency map generation unit 222 includes a luminance information extraction unit 610, a color information extraction unit 620, an edge information extraction unit 630, and a linear combination unit 640.

輝度情報抽出部610、色情報抽出部620およびエッジ情報抽出部630は、顕著度マップ生成部222に対して入力された入力画像を並列的に受け入れる。入力画像を受け入れた輝度情報抽出部610、色情報抽出部620およびエッジ情報抽出部630の各々は、特定の特徴に関する特徴量を画像の領域毎に抽出し、抽出した特徴量の分布を示す情報マップを生成する。   The luminance information extraction unit 610, the color information extraction unit 620, and the edge information extraction unit 630 accept input images input to the saliency map generation unit 222 in parallel. Each of the luminance information extraction unit 610, the color information extraction unit 620, and the edge information extraction unit 630 that has received the input image extracts a feature amount related to a specific feature for each region of the image, and indicates information indicating the distribution of the extracted feature amount Generate a map.

即ち、輝度情報抽出部610は、入力画像の領域毎、例えば画素毎の輝度を抽出して、入力画像における輝度分布を示す輝度情報マップを生成する。色情報抽出部620は、入力画像における色分布を示す色情報マップを生成する。エッジ情報抽出部630は、入力画像における方向性エッジの分布を示す方向性エッジ情報を示す方向性エッジ情報マップを生成する。   That is, the luminance information extraction unit 610 extracts the luminance for each area of the input image, for example, for each pixel, and generates a luminance information map indicating the luminance distribution in the input image. The color information extraction unit 620 generates a color information map indicating the color distribution in the input image. The edge information extraction unit 630 generates a directional edge information map indicating directional edge information indicating a directional edge distribution in the input image.

線形結合部640は、輝度情報抽出部610が生成した輝度情報マップ、色情報抽出部620が生成した色情報マップおよびエッジ情報抽出部630が生成したエッジ情報マップを線形結合して顕著度マップを生成する。生成された顕著度マップは、入力画像における視覚刺激の強さの分布を示す。   The linear combination unit 640 linearly combines the luminance information map generated by the luminance information extraction unit 610, the color information map generated by the color information extraction unit 620, and the edge information map generated by the edge information extraction unit 630 to generate a saliency map. Generate. The generated saliency map shows the distribution of visual stimulus intensity in the input image.

図12は、顕著度マップ生成部222における処理の一例を概観する流れ図である。また、図13は、顕著度マップの生成過程を模式的に示す図であり、図12と併せて参照する。   FIG. 12 is a flowchart outlining an example of processing in the saliency map generation unit 222. FIG. 13 is a diagram schematically showing a saliency map generation process, which is referred to in conjunction with FIG.

処理の対象となる入力画像として、例えば撮影画像41−1が供給された場合、顕著度マップ生成部222は、まず、入力画像から抽出した輝度情報に基づいて輝度情報マップ46−1を生成する処理を輝度情報抽出部610に実行させる(ステップS201)。輝度情報抽出部610は、生成した輝度情報マップ46−1を線形結合部640に転送する。   For example, when the captured image 41-1 is supplied as an input image to be processed, the saliency map generation unit 222 first generates a luminance information map 46-1 based on the luminance information extracted from the input image. The process is executed by the luminance information extraction unit 610 (step S201). The luminance information extraction unit 610 transfers the generated luminance information map 46-1 to the linear combination unit 640.

また、顕著度マップ生成部222は、入力画像から抽出した色情報に基づいて色情報マップ47−1、47−2を生成する処理を色情報抽出部620に実行させる(ステップS202)。抽出する色情報としては、例えば、R(赤)−G(緑)の差分、B(青)−Y(黄)の差分が例示できる。色情報抽出部620は、生成した色情報マップを線形結合部640に転送する。   In addition, the saliency map generation unit 222 causes the color information extraction unit 620 to execute processing for generating the color information maps 47-1 and 47-2 based on the color information extracted from the input image (step S202). As color information to extract, the difference of R (red) -G (green) and the difference of B (blue) -Y (yellow) can be illustrated, for example. The color information extraction unit 620 transfers the generated color information map to the linear combination unit 640.

更に、顕著度マップ生成部222は、入力画像から抽出した方向性エッジ情報に基づいて方向性エッジ情報マップ48−1〜48−4を生成する処理を方向性エッジ情報抽出部630に実行させる(ステップS203)。抽出する方向性エッジ情報としては、0度、45度、90度、135度のそれぞれの方向性エッジを例示できる。方向性エッジ情報抽出部630は、生成した方向性エッジ情報マップ48−1〜48−4を線形結合部640に転送する。   Furthermore, the saliency map generation unit 222 causes the directional edge information extraction unit 630 to execute processing for generating the directional edge information maps 48-1 to 48-4 based on the directional edge information extracted from the input image ( Step S203). As the directional edge information to be extracted, directional edges of 0 degree, 45 degrees, 90 degrees, and 135 degrees can be exemplified. The directional edge information extraction unit 630 transfers the generated directional edge information maps 48-1 to 48-4 to the linear combination unit 640.

なお、以降の説明において単に「情報マップ」と記載した場合は、輝度情報マップ46−1、色情報マップ47−1、47−2および方向性エッジ情報マップ48−1〜48−4のいずれかを特定することなく、線形結合部640に入力される情報全体を指すものとする。また、図12における、各情報マップを生成するステップS201からステップS203までの処理は、順序を入れ換えても差し支えない。また、処理装置の容量に余裕がある場合は並列処理してもよい。   In the following description, when “information map” is simply described, any one of the luminance information map 46-1, the color information maps 47-1 and 47-2, and the directional edge information maps 48-1 to 48-4 is selected. It is assumed that the entire information input to the linear combination unit 640 is pointed out without specifying. In addition, the order of the processes from step S201 to step S203 for generating each information map in FIG. 12 may be changed. Moreover, when there is a margin in the capacity of the processing device, parallel processing may be performed.

次に、顕著度マップ生成部222は、上記ステップS201からステップS203までに生成した輝度情報マップ46−1、色情報マップ47−1、47−2および方向性エッジ情報マップ48−1〜48−4を線形結合して顕著度マップ49−1を生成する処理を線形結合部640に実行させる(ステップS204)。   Next, the saliency map generation unit 222 generates the luminance information map 46-1, the color information maps 47-1 and 47-2, and the directional edge information maps 48-1 to 48- generated from step S201 to step S203. The linear combination unit 640 is caused to execute a process of generating a saliency map 49-1 by linearly combining 4 (step S204).

ここで、線形結合部640は、情報マップ毎に予め定めた情報重みWbを用いて情報マップを線形結合してもよい。即ち、目的とする顕著度マップ上の画素の画素値は、各情報マップにおいて対応する画素の画素値に、情報マップ毎に予め定められた重みWbが乗算される。よって、情報重みWbが乗算された画素値の総和が、顕著度マップにおける画素の画素値となる。   Here, the linear combination unit 640 may linearly combine the information maps using the information weight Wb that is predetermined for each information map. That is, the pixel value of the pixel on the target saliency map is obtained by multiplying the pixel value of the corresponding pixel in each information map by a weight Wb that is predetermined for each information map. Therefore, the sum of the pixel values multiplied by the information weight Wb becomes the pixel value of the pixel in the saliency map.

更に、顕著度マップ49−1における各画素の画素値は、0から1までの間に分布するように正規化される。こうして、輝度情報マップ、色情報マップおよびエッジ情報マップの各領域の特徴量が、同じ位置にある領域ごとに重み付き加算された顕著度マップが生成される。   Further, the pixel value of each pixel in the saliency map 49-1 is normalized so as to be distributed between 0 and 1. In this way, a saliency map is generated in which the feature amounts of the areas of the luminance information map, the color information map, and the edge information map are weighted and added for each area at the same position.

なお、上記の例では、輝度、色および方向性エッジの各々について情報マップを生成し、これらの情報マップを線形結合して顕著度マップ49−1を生成した。しかしながら、顕著度マップの生成に用いる情報マップの種類および数は上記のものに限られるわけではない。   In the above example, an information map is generated for each of the luminance, color, and directional edge, and these information maps are linearly combined to generate the saliency map 49-1. However, the types and number of information maps used for generating the saliency map are not limited to the above.

例えば、静止画カメラの連写あるいはブラケット撮影等のように時系列的に取得された画像が入力された場合は、画像中の運動の方向性等に関する情報マップを生成して用いることも好ましい。更に、顔検出、個体検出等の他の画像処理により抽出された情報マップを用いてもよい。   For example, when an image acquired in time series, such as continuous shooting of a still image camera or bracket shooting, is input, it is also preferable to generate and use an information map related to the direction of motion in the image. Furthermore, an information map extracted by other image processing such as face detection or individual detection may be used.

図14は、顕著度マップ生成部222における輝度情報抽出部610のブロック図である。ここでも、図13を併せて参照する。輝度情報抽出部610は、輝度画像生成部612、ガウシアンピラミッド生成部614、差分画像生成部616および輝度情報マップ生成部618を有する。   FIG. 14 is a block diagram of the luminance information extraction unit 610 in the saliency map generation unit 222. Here, FIG. 13 is also referred to. The luminance information extraction unit 610 includes a luminance image generation unit 612, a Gaussian pyramid generation unit 614, a difference image generation unit 616, and a luminance information map generation unit 618.

輝度画像生成部612は、入力画像の各画素について、当該画素の輝度を画素値とする輝度画像42−1を生成する。ガウシアンピラミッド生成部614は、輝度画像生成部612から取得した輝度画像から、解像度が順次低下する複数の画像を生成して、輝度を特徴量とするガウシアンピラミッド43−1を生成する。   For each pixel of the input image, the luminance image generation unit 612 generates a luminance image 42-1 having the pixel luminance as the pixel value. The Gaussian pyramid generation unit 614 generates a plurality of images whose resolutions are sequentially reduced from the luminance image acquired from the luminance image generation unit 612, and generates a Gaussian pyramid 43-1 having luminance as a feature amount.

差分画像生成部616は、ガウシアンピラミッド生成部614から取得したガウシアンピラミッドに含まれる解像度の異なる画像から複数の輝度差分画像45−1を算出して輝度差分画像45−1を生成する。輝度情報マップ生成部618は、差分画像生成部616から取得した複数の輝度差分画像45−1から単一の輝度情報マップ46−1を生成する。   The difference image generation unit 616 calculates a plurality of luminance difference images 45-1 from images having different resolutions included in the Gaussian pyramid acquired from the Gaussian pyramid generation unit 614 and generates a luminance difference image 45-1. The luminance information map generation unit 618 generates a single luminance information map 46-1 from the plurality of luminance difference images 45-1 acquired from the difference image generation unit 616.

輝度情報マップは、入力画像における輝度差が大きいことによる視覚刺激の強さの分布を示す。輝度情報抽出部610が生成した輝度情報マップ46−1は、既に説明した通り、線形結合部640に提供される。   The luminance information map shows the distribution of the intensity of visual stimulation due to a large luminance difference in the input image. The luminance information map 46-1 generated by the luminance information extraction unit 610 is provided to the linear combination unit 640 as described above.

図15は、輝度情報抽出部610において実行される処理を示す流れ図である。図13を併せて参照する。   FIG. 15 is a flowchart showing processing executed in the luminance information extraction unit 610. Please refer to FIG.

輝度情報抽出部610は、入力画像として撮影画像41−1を入力され、輝度画像生成部612により、入力画像の輝度画像42−1を生成する。輝度画像42−1は、入力画像の各画素の輝度値を画素値とする。   The luminance information extraction unit 610 receives the captured image 41-1 as an input image, and the luminance image generation unit 612 generates a luminance image 42-1 of the input image. The luminance image 42-1 uses the luminance value of each pixel of the input image as a pixel value.

輝度画像生成部612は、例えば、入力画像を色差−輝度信号に変換してその輝度成分を抽出することにより輝度画像を生成する(ステップS301)。また、輝度画像生成部612は、画素毎のR(赤)、G(緑)およびB(青)の各成分の値の平均値を輝度画像の画素毎の画素値としてもよい。   For example, the luminance image generation unit 612 generates a luminance image by converting the input image into a color difference-luminance signal and extracting the luminance component (step S301). The luminance image generation unit 612 may use an average value of R (red), G (green), and B (blue) components for each pixel as a pixel value for each pixel of the luminance image.

次に、輝度情報抽出部610は、ガウシアンピラミッド生成部614により、輝度画像42−1に基づくガウシアンピラミッド43−1を生成させる(ステップS302)。ガウシアンピラミッド43−1は互いに解像度が異なる複数の画像を含む。   Next, the luminance information extraction unit 610 causes the Gaussian pyramid generation unit 614 to generate the Gaussian pyramid 43-1 based on the luminance image 42-1 (step S302). The Gaussian pyramid 43-1 includes a plurality of images having different resolutions.

即ち、ガウシアンピラミッド生成部614において、輝度画像生成部612から供給された当初の輝度画像42−1は、最も解像度が高いレベルL1の画像とされる。次いで、ガウシアンピラミッド生成部614は、レベルL1の輝度画像42−1の各画素について、隣接する4つの画素の画素値の平均値をひとつの画素の画素値とする処理により、解像度がより低いレベルL2の画像を生成する。   That is, in the Gaussian pyramid generation unit 614, the initial luminance image 42-1 supplied from the luminance image generation unit 612 is the image of the level L1 with the highest resolution. Next, the Gaussian pyramid generation unit 614 performs a process of setting the average value of the pixel values of the four adjacent pixels as the pixel value of one pixel for each pixel of the luminance image 42-1 at the level L1, and thus the level having a lower resolution. An L2 image is generated.

以下、ガウシアンピラミッド生成部614は、同様の処理を繰り返すことにより、例えばレベルL8まで解像度が漸減する複数の画像を生成する。これにより、8種類の解像度で階層化されたガウシアンピラミッド43−1が生成される。   Hereinafter, the Gaussian pyramid generation unit 614 generates a plurality of images whose resolution gradually decreases to, for example, level L8 by repeating the same processing. Thereby, the Gaussian pyramid 43-1 hierarchized by 8 types of resolutions is produced | generated.

続いて、輝度情報抽出部610は、差分画像生成部616に、ガウシアンピラミッド43−1に基づいて輝度差分画像45−1を生成させる(ステップS303)。輝度差分画像45−1は、ガウシアンピラミッド43−1に含まれる複数の画像相互の差分として、複数生成される。   Subsequently, the luminance information extraction unit 610 causes the difference image generation unit 616 to generate a luminance difference image 45-1 based on the Gaussian pyramid 43-1 (step S303). A plurality of luminance difference images 45-1 are generated as differences between a plurality of images included in the Gaussian pyramid 43-1.

差分画像生成部616が、5つの輝度差分画像45−1を生成する場合を例にあげる。差分画像生成部616は、ガウシアンピラミッド43−1を形成するレベルL1からレベルL8までの8つの輝度画像のうち、例えば、[レベルL6−レベルL3]、[レベルL7−レベルL3]、[レベルL7−レベルL4]、[レベルL8−レベルL4]および[レベルL8−レベルL5]の組み合わせで対応画素の画素値の差分を算出する。   As an example, the difference image generation unit 616 generates five luminance difference images 45-1. The difference image generation unit 616 includes, for example, [level L6-level L3], [level L7-level L3], [level L7] among eight luminance images from level L1 to level L8 forming the Gaussian pyramid 43-1. The difference between the pixel values of the corresponding pixels is calculated by a combination of [Level L4], [Level L8-Level L4], and [Level L8-Level L5].

ただし、差分画像生成部616が取得したガウシアンピラミッド43−1において、複数の画像は互いに解像度が異なるので大きさ(画素数)も異なる。そこで、差分画像生成部616は、処理の対象となる画像のうち、解像度の低い(小さい)画像をアップコンバートして、解像度の高い(大きい)輝度画像に大きさを合わせる。   However, in the Gaussian pyramid 43-1 acquired by the difference image generation unit 616, the plurality of images have different resolutions and therefore have different sizes (number of pixels). Therefore, the difference image generation unit 616 up-converts a low-resolution (small) image among the images to be processed, and matches the size to a high-resolution (large) luminance image.

次いで、差分画像生成部616は、大きさ(画素数)の揃った画像44−1に対して、対応する画素毎に差分を算出して、輝度を特徴量とする輝度差分画像45−1を生成する。差分の算出は、予め定められた数の輝度差分画像45−1が生成されるまで複数の輝度画像に対して繰り返される。こうして、輝度の差分を画素値とする5つの輝度差分画像45−1が得られる。   Next, the difference image generation unit 616 calculates a difference for each corresponding pixel with respect to the image 44-1 having the same size (number of pixels), and generates a luminance difference image 45-1 having luminance as a feature amount. Generate. The calculation of the difference is repeated for a plurality of luminance images until a predetermined number of luminance difference images 45-1 are generated. In this way, five luminance difference images 45-1 having the luminance difference as the pixel value are obtained.

更に、差分画像生成部616は、輝度差分画像45−1の各々に対して、各画素の画素値が例えば0から255までの間の値となるように、輝度差分画像45−1の各々における画素値を正規化する。このようにして、差分画像生成部616は、5つの輝度差分画像45−1を生成する。   Further, the difference image generation unit 616 includes a luminance difference image 45-1 in each of the luminance difference images 45-1 such that the pixel value of each pixel is a value between 0 and 255, for example. Normalize pixel values. In this way, the difference image generation unit 616 generates five luminance difference images 45-1.

次に、輝度情報抽出部610は、輝度情報マップ生成部618に、輝度差分画像45−1から輝度情報マップ46−1を生成させる(ステップS304)。即ち、輝度情報マップ生成部618は、複数の輝度差分画像45−1を加算して単一の輝度情報マップ46−1を生成する。   Next, the luminance information extraction unit 610 causes the luminance information map generation unit 618 to generate the luminance information map 46-1 from the luminance difference image 45-1 (step S304). In other words, the luminance information map generation unit 618 generates a single luminance information map 46-1 by adding the plurality of luminance difference images 45-1.

ここで、予め定めた輝度差分画像45−1ごとの重みである差分重みWaにより輝度差分画像45−1の各々に重みを付けて加算してもよい。これにより、輝度差分画像45−1の各々の同じ位置にある画素の画素値のそれぞれに差分重みWaが乗算された上で算出された総和が、輝度情報マップ46−1における当該画素の画素値となる。   Here, each of the luminance difference images 45-1 may be weighted and added with a difference weight Wa that is a weight for each predetermined luminance difference image 45-1. As a result, the pixel value of the pixel in the luminance information map 46-1 is obtained by multiplying each pixel value of the pixel at the same position in the luminance difference image 45-1 by the difference weight Wa. It becomes.

輝度情報マップ46−1の各画素における画素値は、その画素と、その画素の周囲の平均的な輝度との差分の分布を示す。画像において周囲との輝度の差分が大きい領域は視覚を強く刺激するので、当該画素を含む領域の画像は注目されやすい。よって、主要被写体を含む領域の輝度の差分が大きい場合は、主要被写体に注目が集まりやすいと推測できる。   The pixel value in each pixel of the luminance information map 46-1 indicates the distribution of the difference between that pixel and the average luminance around that pixel. Since an area having a large luminance difference from the surroundings in the image strongly stimulates vision, the image of the area including the pixel is likely to be noticed. Therefore, when the difference in luminance of the area including the main subject is large, it can be estimated that attention is likely to be focused on the main subject.

図16は、顕著度マップ生成部222における色情報抽出部620のブロック図である。色情報抽出部620は、R(赤)−G(緑)差分画像621、B(青)−Y(黄)差分画像622、ガウシアンピラミッド生成部623、差分画像生成部624および色情報マップ生成部625を有する。   FIG. 16 is a block diagram of the color information extraction unit 620 in the saliency map generation unit 222. The color information extraction unit 620 includes an R (red) -G (green) difference image 621, a B (blue) -Y (yellow) difference image 622, a Gaussian pyramid generation unit 623, a difference image generation unit 624, and a color information map generation unit. 625.

R−G差分画像生成部621は、撮影画像41−1を入力画像として、入力画像の各画素について、当該画素の赤成分と緑成分との差分を画素値とする色差画像を生成する。B−Y差分画像生成部622は、入力画像の各画素について、当該画素の青成分と黄成分との差分を画素値とする色差画像を生成する。ガウシアンピラミッド生成部623は、R−G差分画像生成部621またはB−Y差分画像生成部622から取得した色差画像から、それぞれ、互いに解像度が異なる複数の画像を生成して、色差を特徴量とするガウシアンピラミッドをそれぞれ生成する。   The RG difference image generation unit 621 uses the captured image 41-1 as an input image, and generates a color difference image having a pixel value as a difference between the red component and the green component of each pixel of the input image. The BY difference image generation unit 622 generates, for each pixel of the input image, a color difference image having a pixel value as a difference between the blue component and the yellow component of the pixel. The Gaussian pyramid generation unit 623 generates a plurality of images having different resolutions from the color difference images acquired from the RG difference image generation unit 621 or the BY difference image generation unit 622, and uses the color difference as a feature amount. Generate each Gaussian pyramid.

差分画像生成部624は、ガウシアンピラミッド生成部623から取得したガウシアンピラミッドに含まれる解像度の異なる画像の差分を算出して、色差分画像を生成する。色情報マップ生成部625は、差分画像生成部624の各々から取得した複数の色差分画像に基づいて、それぞれ単一の色情報マップ47−1、47−2を生成する。よって、色情報抽出部620は、単一の入力画像から、R−G差分画像生成部621由来の色情報マップ47−1と、B−Y差分画像生成部622由来の色情報マップ47−2との2つを生成する。   The difference image generation unit 624 calculates a difference between images having different resolutions included in the Gaussian pyramid acquired from the Gaussian pyramid generation unit 623, and generates a color difference image. The color information map generation unit 625 generates single color information maps 47-1 and 47-2 based on a plurality of color difference images acquired from each of the difference image generation units 624. Therefore, the color information extraction unit 620, from a single input image, the color information map 47-1 derived from the RG difference image generation unit 621 and the color information map 47-2 derived from the BY difference image generation unit 622. And generate two.

色情報マップ47−1、47−2は、入力画像において色相の変化が大きいことによる視覚刺激の強さの分布を示す。色情報抽出部620が生成した色情報マップは、既に説明した通り、線形結合部640に提供される。   The color information maps 47-1 and 47-2 show the distribution of the intensity of visual stimulation due to a large change in hue in the input image. The color information map generated by the color information extraction unit 620 is provided to the linear combination unit 640 as described above.

図17は、色情報抽出部620において実行される処理を示す流れ図である。色情報抽出部620は、まず、R−G差分画像生成部621に、入力画像の色情報画像として、R−G差分画像を生成させる(ステップS401)。   FIG. 17 is a flowchart showing processing executed in the color information extraction unit 620. First, the color information extraction unit 620 causes the RG difference image generation unit 621 to generate an RG difference image as a color information image of the input image (step S401).

即ち、R−G差分画像生成部621は、入力画像の画素毎に、R(赤)成分とG(緑)成分との差分を算出し、算出された差分を当該画素の画素値とするR−G差分画像を生成する。生成されたR−G差分画像は、ガウシアンピラミッド生成部623に転送される。   That is, the RG difference image generation unit 621 calculates the difference between the R (red) component and the G (green) component for each pixel of the input image, and uses the calculated difference as the pixel value of the pixel. -G Generate a difference image. The generated RG difference image is transferred to the Gaussian pyramid generation unit 623.

同様に、色情報抽出部620は、B−Y差分画像生成部622に、入力画像のB−Y差分画像を生成させる(ステップS401)。即ち、B−Y差分画像生成部622は、入力画像の画素毎に、B(青)成分とY(黄)成分との差分を算出し、算出された差分を当該画素の画素値とするB−Y差分画像を生成する。生成されたB−Y差分画像は、ガウシアンピラミッド生成部623に転送される。   Similarly, the color information extraction unit 620 causes the BY difference image generation unit 622 to generate a BY difference image of the input image (step S401). That is, the B-Y difference image generation unit 622 calculates the difference between the B (blue) component and the Y (yellow) component for each pixel of the input image, and uses the calculated difference as the pixel value of the pixel. -Y A difference image is generated. The generated BY difference image is transferred to the Gaussian pyramid generation unit 623.

次に、色情報抽出部620は、ガウシアンピラミッド生成部623に、上記のR−G差分画像およびB−Y差分画像に基づくガウシアンピラミッドをそれぞれ生成させる(ステップS402)。ガウシアンピラミッドは、互いに解像度が異なる複数の画像を含む。なお、以降の説明において単に「色差分画像」と記載した場合、R−G差分画像およびB−Y差分画像を包括的に意味する。   Next, the color information extraction unit 620 causes the Gaussian pyramid generation unit 623 to generate the Gaussian pyramids based on the RG difference image and the BY difference image, respectively (step S402). The Gaussian pyramid includes a plurality of images having different resolutions. In the following description, when simply described as “color difference image”, it means an RG difference image and a BY difference image comprehensively.

ガウシアンピラミッド生成部623において、R−G差分画像生成部621またはB−Y差分画像生成部622から供給された当初の色差分画像は、最も解像度が高いレベルL1の画像とされる。次いで、ガウシアンピラミッド生成部623は、レベルL1の色差分画像の各画素について、隣接する4つの画素の画素値の平均値をひとつの画素の画素値とする処理により、解像度がより低いレベルL2の色差分画像を生成する。   In the Gaussian pyramid generation unit 623, the initial color difference image supplied from the RG difference image generation unit 621 or the BY difference image generation unit 622 is the image of the level L1 with the highest resolution. Next, the Gaussian pyramid generation unit 623 performs, for each pixel of the color difference image at the level L1, the average value of the pixel values of the four adjacent pixels as the pixel value of one pixel, thereby reducing the resolution of the level L2 with the lower resolution. Generate a color difference image.

以下、同様の処理を繰り返すことにより、例えばレベルL8まで解像度が漸減する複数の色差分画像を生成する。これにより、8種類の解像度で階層化された色差分画像のガウシアンピラミッドが生成される。   Thereafter, by repeating the same processing, for example, a plurality of color difference images whose resolution gradually decreases to level L8 are generated. Thereby, a Gaussian pyramid of the color difference image hierarchized with eight kinds of resolutions is generated.

続いて、色情報抽出部620は、差分画像生成部624に、取得したガウシアンピラミッドに基づく色差分画像を生成させる(ステップS403)。色差分画像は、複数の色差分画像により形成される。複数の色差分画像は、ガウシアンピラミッドに含まれる複数の色差分画像相互の差分として生成される。   Subsequently, the color information extraction unit 620 causes the difference image generation unit 624 to generate a color difference image based on the acquired Gaussian pyramid (step S403). The color difference image is formed by a plurality of color difference images. The plurality of color difference images are generated as differences between the plurality of color difference images included in the Gaussian pyramid.

差分画像生成部624が、5つの色差分画像を生成して、色相を特徴量とする差分画像を形成する場合を例にあげて説明する。差分画像生成部624は、ガウシアンピラミッドを形成するレベルL1からレベルL8までの8つの色差分画像のうち、例えば、[レベルL6−レベルL3]、[レベルL7−レベルL3]、[レベルL7−レベルL4]、[レベルL8−レベルL4]および[レベルL8−レベルL5]の組み合わせで対応画素の画素値の差分を算出する。   A case where the difference image generation unit 624 generates five color difference images and forms a difference image having the hue as a feature amount will be described as an example. Of the eight color difference images from level L1 to level L8 forming the Gaussian pyramid, the difference image generation unit 624, for example, [level L6-level L3], [level L7-level L3], [level L7-level]. L4], [level L8-level L4] and [level L8-level L5] are combined to calculate the difference between the pixel values of the corresponding pixels.

ただし、差分画像生成部624が取得したガウシアンピラミッドにおいて、複数の色差分画像は互いに解像度が異なるので大きさも異なる。そこで、差分画像生成部624は、処理の対象となる色差分画像のうち、解像度の低い(小さい)画像をアップコンバートして、解像度の高い(大きい)色差分画像に大きさ(画素数)を合わせる。   However, in the Gaussian pyramid acquired by the difference image generation unit 624, the plurality of color difference images have different resolutions and different sizes. Therefore, the difference image generation unit 624 up-converts a low resolution (small) image among color difference images to be processed, and sets the size (number of pixels) to a high resolution (large) color difference image. Match.

次いで、差分画像生成部624は、大きさ(画素数)の揃った2つの色差分画像に対して、対応する画素毎に差分を算出して、色相を特徴量とする色差分画像を生成する。差分の算出は、予め定められた数の色差分画像が生成されるまで複数の色差分画像に対して繰り返される。こうして、色差の差分を画素値とする5つの色差分画像が得られる。   Next, the difference image generation unit 624 calculates a difference for each corresponding pixel with respect to two color difference images having the same size (number of pixels), and generates a color difference image having a hue as a feature amount. . The difference calculation is repeated for a plurality of color difference images until a predetermined number of color difference images are generated. In this way, five color difference images having the pixel difference as the color difference difference are obtained.

更に、差分画像生成部624は、色差分画像の各々に対して、各画素の画素値が例えば0から255までの間の値となるように、色差分画像の各々における画素値を正規化する。このようにして、差分画像生成部624は、5つの色差分画像を生成する。また、色差分画像は、R−G差分画像由来の色差分画像と、B−Y差分画像由来の色差分画像がそれぞれ個別に複数生成される。   Further, the difference image generation unit 624 normalizes the pixel value in each color difference image so that the pixel value of each pixel becomes a value between 0 and 255, for example, for each color difference image. . In this way, the difference image generation unit 624 generates five color difference images. In addition, as the color difference image, a plurality of color difference images derived from the RG difference image and a plurality of color difference images derived from the BY difference image are generated individually.

次に、色情報抽出部620は、色情報マップ生成部625に、色差分画像から色情報マップ47−1、47−2を生成させる(ステップS404)。即ち、色情報マップ生成部625は、色差分画像を形成する複数の色差分画像を加算して、R−G差分画像由来の色情報マップ47−1と、B−Y差分画像由来の色情報マップ47−2とをそれぞれひとつずつする。   Next, the color information extraction unit 620 causes the color information map generation unit 625 to generate color information maps 47-1 and 47-2 from the color difference image (step S404). That is, the color information map generation unit 625 adds a plurality of color difference images forming the color difference image, and adds the color information map 47-1 derived from the RG difference image and the color information derived from the BY difference image. One map 47-2 is created.

ここで、予め定めた色差分画像ごとの重みである差分重みWaにより色差分画像の各々に重みを付けて加算してもよい。これにより、各色差分画像の同じ位置にある画素の画素値のそれぞれに差分重みWaが乗算された上で算出された総和が、色情報マップにおける当該画素の画素値となる。   Here, each color difference image may be weighted and added with a difference weight Wa that is a weight for each color difference image determined in advance. Thus, the sum calculated by multiplying the pixel values of the pixels at the same position of each color difference image by the difference weight Wa becomes the pixel value of the pixel in the color information map.

色情報マップ47−1、47−2において、各画素の画素値は、画素とその周囲の平均的な色相の差分の分布を示す。画像において、周囲との色相の変化が大きい領域は視覚を強く刺激するので、当該画素を含む領域の画像は注目されやすい。よって、主要被写体を含む領域の色の差分が大きい場合は、主要被写体に注目が集まりやすいと推測できる。   In the color information maps 47-1 and 47-2, the pixel value of each pixel indicates a distribution of an average hue difference between the pixel and its surroundings. In an image, an area having a large hue change with the surroundings strongly stimulates vision, and thus an image of an area including the pixel is likely to be noticed. Therefore, when the color difference of the area including the main subject is large, it can be estimated that attention is easily collected on the main subject.

なお、上記の例では、入力画像から抽出される色情報画像として、R成分およびG成分の差分、並びに、B成分およびY成分の差分に基づく色差分画像を用いた。しかしながら、例えば、R成分と輝度成分との差分である色差成分Crと、B成分と輝度成分との差分である色差成分Cbとに基づいて色差分画像を生成してもよい。   In the above example, the color difference image based on the difference between the R component and the G component and the difference between the B component and the Y component is used as the color information image extracted from the input image. However, for example, a color difference image may be generated based on the color difference component Cr that is the difference between the R component and the luminance component and the color difference component Cb that is the difference between the B component and the luminance component.

図18は、顕著度マップ生成部222における方向性エッジ情報抽出部630のブロック図である。方向性エッジ情報抽出部630は、方向性エッジ画像生成部631、632、633、634、ガウシアンピラミッド生成部635、差分画像生成部636および方向性エッジ情報マップ生成部637を有する。   FIG. 18 is a block diagram of the directional edge information extraction unit 630 in the saliency map generation unit 222. The directional edge information extraction unit 630 includes directional edge image generation units 631, 632, 633, and 634, a Gaussian pyramid generation unit 635, a difference image generation unit 636, and a directional edge information map generation unit 637.

方向性エッジ画像生成部631、632、633、634は、入力画像の各画素について、当該画素における方向性エッジの強度を画素値とする方向性エッジ画像を生成する。入力画像におけるエッジ成分は、ガボアフィルタ、ソーベルフィルタ、ロバーツフィルタ等のエッジ抽出オペレータにより抽出できる。   The directional edge image generation units 631, 632, 633, and 634 generate a directional edge image for each pixel of the input image, with the intensity of the directional edge at the pixel as a pixel value. The edge component in the input image can be extracted by an edge extraction operator such as a Gabor filter, Sobel filter, or Roberts filter.

方向性エッジ画像生成部631、632、633、634の各々は、入力画像から抽出されたエッジ成分のうち、予め指定された角度の成分に応じて評価したエッジ強度を方向性エッジ画像における画素の画素値として、入力画像に基づく方向性エッジ画像を生成する。図示の例では、方向性エッジ画像生成部631、632、633、634は、それぞれ、0°、45°、90°または135°の角度を方向性の評価基準として予め指定されている。よって、ひとつひとつの方向性エッジ画像生成部631、632、633、634が生成した方向性エッジ画像は、入力画像から抽出されたエッジが含む0°、45°、90°または135°の傾き成分の分布を示す。   Each of the directional edge image generation units 631, 632, 633, and 634 has the edge strength evaluated according to the component of the angle specified in advance among the edge components extracted from the input image. A directional edge image based on the input image is generated as a pixel value. In the illustrated example, each of the directional edge image generation units 631, 632, 633, and 634 is designated in advance with an angle of 0 °, 45 °, 90 °, or 135 ° as a directional evaluation criterion. Therefore, the directional edge images generated by the individual directional edge image generating units 631, 632, 633, and 634 have inclination components of 0 °, 45 °, 90 °, or 135 ° included in the edges extracted from the input image. Show the distribution.

ガウシアンピラミッド生成部635は、方向性エッジ画像生成部631、632、633、634から取得した方向性エッジ画像から、互いに解像度が異なる複数の方向性エッジ画像を生成する。これにより、4種類の指定角度に応じた方向性エッジを特徴量とするガウシアンピラミッドが生成される。   The Gaussian pyramid generation unit 635 generates a plurality of directional edge images having different resolutions from the directional edge images acquired from the directional edge image generation units 631, 632, 633, and 634. As a result, a Gaussian pyramid having a directional edge corresponding to four types of designated angles as a feature quantity is generated.

差分画像生成部636は、ガウシアンピラミッド生成部635から取得したガウシアンピラミッドに含まれる解像度の異なる方向性エッジ画像から、それぞれ複数の方向性エッジ差分画像を算出して方向性エッジ差分画像を生成する。方向性エッジ情報マップ生成部637は、差分画像生成部636から取得した方向性エッジ差分画像から、それぞれ単一の方向性エッジ情報マップ48−1〜48−4を生成する。よって、方向性エッジ情報抽出部630は、単一の入力画像から、0°、45°、90°および135°の4方向に対応した方向性エッジ画像に由来する4つの方向性エッジ情報マップ48−1〜48−4を生成する。   The difference image generation unit 636 calculates a plurality of directional edge difference images from the directional edge images having different resolutions included in the Gaussian pyramid acquired from the Gaussian pyramid 635, and generates a directional edge difference image. The directional edge information map generation unit 637 generates single directional edge information maps 48-1 to 48-4 from the directional edge difference image acquired from the difference image generation unit 636. Therefore, the directional edge information extraction unit 630 has four directional edge information maps 48 derived from directional edge images corresponding to four directions of 0 °, 45 °, 90 °, and 135 ° from a single input image. -1 to 48-4 are generated.

方向性エッジ情報マップは、入力画像において方向性エッジの変化が大きいことによる視覚刺激の強さの分布を示す。方向性エッジ情報抽出部630が生成した方向性エッジ情報マップは、既に説明した通り、線形結合部640に提供される。   The directional edge information map shows the distribution of the intensity of the visual stimulus due to a large change in the directional edge in the input image. The directional edge information map generated by the directional edge information extraction unit 630 is provided to the linear combination unit 640 as described above.

図19は、方向性エッジ情報抽出部630において実行される処理を示す流れ図である。方向性エッジ情報抽出部630は、まず、方向性エッジ画像生成部631、632、633、634のそれぞれに、入力画像の方向性エッジ情報画像を生成させる(ステップS501)。   FIG. 19 is a flowchart showing processing executed in the directional edge information extraction unit 630. The directional edge information extraction unit 630 first causes the directional edge image generation units 631, 632, 633, and 634 to generate a directional edge information image of the input image (step S501).

即ち、方向性エッジ画像生成部631、632、633、634の各々は、入力画像の画素毎にエッジ検出と方向性の評価を実行し、方向性エッジ画像を生成する。これにより、例えば、0°、45°、90°、135°の4種類の方向性に対応した方向性エッジ画像が生成される。生成された方向性エッジ画像は、それぞれガウシアンピラミッド生成部635に転送される。   That is, each of the directional edge image generation units 631, 632, 633, and 634 performs edge detection and directionality evaluation for each pixel of the input image, and generates a directional edge image. Thereby, for example, directional edge images corresponding to four types of directional characteristics of 0 °, 45 °, 90 °, and 135 ° are generated. The generated directional edge images are transferred to the Gaussian pyramid generation unit 635, respectively.

次に、方向性エッジ情報抽出部630は、ガウシアンピラミッド生成部635に、上記方向性エッジ画像に基づくガウシアンピラミッドをそれぞれ生成させる(ステップS502)。ガウシアンピラミッドは、互いに解像度が異なる複数の画像を含む。なお、以降の説明において単に「エッジ差分画像」と記載した場合、方向性エッジの角度を問わず、0°、45°、90°および135°の方向性エッジ画像を包括的に意味する。   Next, the directional edge information extraction unit 630 causes the Gaussian pyramid generation unit 635 to generate a Gaussian pyramid based on the directional edge image (step S502). The Gaussian pyramid includes a plurality of images having different resolutions. In the following description, when simply described as “edge difference image”, it means comprehensively directional edge images of 0 °, 45 °, 90 °, and 135 ° regardless of the angle of the directional edge.

ガウシアンピラミッド生成部635において、方向性エッジ画像生成部631、632、633、634から供給された当初の方向性エッジ画像は、最も解像度が高いレベルL1の画像とされる。次いで、ガウシアンピラミッド生成部635は、レベルL1のエッジ差分画像の各画素について、隣接する4つの画素の画素値の平均値をひとつの画素の画素値とする処理により、解像度がより低いレベルL2のエッジ差分画像を生成する。   In the Gaussian pyramid generation unit 635, the initial directional edge image supplied from the directional edge image generation units 631, 632, 633, and 634 is an image of the level L1 with the highest resolution. Next, the Gaussian pyramid generation unit 635 performs the process of setting the average value of the pixel values of four adjacent pixels as the pixel value of one pixel for each pixel of the edge difference image of the level L1, and the level L2 having a lower resolution. An edge difference image is generated.

以下、同様の処理を繰り返すことにより、例えばレベルL8まで解像度が漸減する複数のエッジ差分画像を生成する。これにより、8種類の解像度で階層化されたエッジ差分画像のガウシアンピラミッドが生成される。   Thereafter, by repeating the same processing, for example, a plurality of edge difference images whose resolution gradually decreases to level L8 are generated. Thereby, a Gaussian pyramid of the edge difference image hierarchized with eight kinds of resolutions is generated.

続いて、方向性エッジ情報抽出部630は、差分画像生成部636に、取得したガウシアンピラミッドに基づく方向性エッジ差分画像を生成させる(ステップS503)。方向性エッジ差分画像は、複数のエッジ差分画像により形成される。複数のエッジ差分画像は、ガウシアンピラミッドに含まれる複数のエッジ差分画像相互の差分として生成される。   Subsequently, the directional edge information extraction unit 630 causes the difference image generation unit 636 to generate a directional edge difference image based on the acquired Gaussian pyramid (step S503). The directional edge difference image is formed by a plurality of edge difference images. The plurality of edge difference images are generated as differences between the plurality of edge difference images included in the Gaussian pyramid.

差分画像生成部636が、5つのエッジ差分画像を生成して、方向性エッジを特徴量とする方向性エッジ差分画像を形成する場合を例にあげて説明する。差分画像生成部636は、ガウシアンピラミッドを形成するレベルL1からレベルL8までの8つのエッジ差分画像のうち、例えば、[レベルL6−レベルL3]、[レベルL7−レベルL3]、[レベルL7−レベルL4]、[レベルL8−レベルL4]および[レベルL8−レベルL5]の組み合わせで対応画素の画素値の差分を算出する。   A case where the difference image generation unit 636 generates five edge difference images and forms a directional edge difference image having a directional edge as a feature amount will be described as an example. The difference image generation unit 636 includes, for example, [level L6−level L3], [level L7−level L3], [level L7−level] among the eight edge difference images from level L1 to level L8 forming the Gaussian pyramid. L4], [level L8-level L4] and [level L8-level L5] are combined to calculate the difference between the pixel values of the corresponding pixels.

ただし、差分画像生成部636が取得したガウシアンピラミッドにおいて、複数のエッジ差分画像は互いに解像度が異なるので大きさ(画素数)も異なる。そこで、差分画像生成部636は、処理の対象となるエッジ差分画像のうち、解像度の低い(小さい)画像をアップコンバートして、解像度の高い(大きい)エッジ差分画像に大きさ(画素数)を合わせる。   However, in the Gaussian pyramid acquired by the difference image generation unit 636, the plurality of edge difference images have different resolutions and therefore have different sizes (number of pixels). Therefore, the difference image generation unit 636 up-converts a low resolution (small) image among the edge difference images to be processed, and sets the size (number of pixels) to the high resolution (large) edge difference image. Match.

次いで、差分画像生成部636は、大きさ(画素数)の揃った2つのエッジ差分画像に対して、対応する画素毎に差分を算出して、方向性エッジを特徴量とするエッジ差分画像を生成する。差分の算出は、予め定められた数のエッジ差分画像が生成されるまで複数のエッジ差分画像に対して繰り返される。こうして、方向性エッジ画像の差分を画素値とする5つのエッジ差分画像が得られる。   Next, the difference image generation unit 636 calculates a difference for each corresponding pixel with respect to two edge difference images having the same size (number of pixels), and generates an edge difference image having a directional edge as a feature amount. Generate. The difference calculation is repeated for a plurality of edge difference images until a predetermined number of edge difference images are generated. In this way, five edge difference images having pixel values corresponding to differences in directional edge images are obtained.

更に、差分画像生成部636は、エッジ差分画像の各々に対して、各画素の画素値が例えば0から255までの間の値となるように、エッジ差分画像の各々における画素値を正規化する。このようにして、差分画像生成部636は、5つのエッジ差分画像により方向性エッジ差分画像を形成する。方向性エッジ差分画像は、0°、45°、90°および135°の各方向性エッジ画像に対応して個別に生成される。   Further, the difference image generation unit 636 normalizes the pixel value in each of the edge difference images so that the pixel value of each pixel becomes a value between 0 and 255, for example, for each of the edge difference images. . In this way, the difference image generation unit 636 forms a directional edge difference image from the five edge difference images. The directional edge difference images are individually generated corresponding to the directional edge images of 0 °, 45 °, 90 °, and 135 °.

次に、方向性エッジ情報抽出部630は、方向性エッジ情報マップ生成部637に、方向性エッジ差分画像から方向性エッジ情報マップを生成させる(ステップS504)。即ち、方向性エッジ情報マップ生成部637は、方向性エッジ差分画像を形成する複数のエッジ差分画像を加算して単一の方向性エッジ情報マップを生成する。また、方向性エッジ情報マップ48−1〜48−4は、0°、45°、90°および135°の各方向についてひとつずつ生成される。   Next, the directional edge information extraction unit 630 causes the directional edge information map generation unit 637 to generate a directional edge information map from the directional edge difference image (step S504). That is, the directional edge information map generating unit 637 adds a plurality of edge difference images forming the directional edge difference image to generate a single directional edge information map. Further, the directional edge information maps 48-1 to 48-4 are generated one by one for each direction of 0 °, 45 °, 90 °, and 135 °.

ここで、予め定めたエッジ差分画像ごとの重みである差分重みWaによりエッジ差分画像の各々に重みを付けて加算してもよい。これにより、各エッジ差分画像の同じ位置にある画素の画素値のそれぞれに差分重みWaが乗算された上で算出された総和が、方向性エッジ情報マップ48−1〜48−4における当該画素の画素値となる。   Here, each edge difference image may be weighted and added with a difference weight Wa that is a weight for each edge difference image determined in advance. As a result, the sum calculated by multiplying the pixel values of the pixels at the same position of each edge difference image by the difference weight Wa is the sum of the pixels in the directional edge information maps 48-1 to 48-4. It becomes a pixel value.

こうして生成された方向性エッジ情報マップ48−1〜48−4において、各画素の画素値は、周辺の領域に対する方向性エッジの変化の大きさを示す。画像において、周囲と比べてエッジ強度が強い領域は、その画像を見る人の目を引く領域となる。よって、主要被写体を含む領域の輝度の差分が大きい場合は、主要被写体に注目が集まりやすいと推測できる。   In the directional edge information maps 48-1 to 48-4 generated in this way, the pixel value of each pixel indicates the magnitude of the change of the directional edge with respect to the surrounding area. In the image, a region having a stronger edge strength than the surrounding region is a region that catches the eye of a person who views the image. Therefore, when the difference in luminance of the area including the main subject is large, it can be estimated that attention is likely to be focused on the main subject.

再び図10を参照すると、次に、顕著度算出部280は、撮影画像41−1〜41−nの各々について、少なくとも主要な被写体27の領域について、顕著度を特定する(ステップS107)。ここでいう被写体27の顕著度は、撮影画像41−1〜41−nの各々において主要な被写体27が占める領域の顕著度を数値化して生成される。   Referring to FIG. 10 again, next, the saliency calculating unit 280 specifies the saliency for at least the area of the main subject 27 for each of the captured images 41-1 to 41-n (step S107). The saliency of the subject 27 here is generated by quantifying the saliency of the area occupied by the main subject 27 in each of the captured images 41-1 to 41-n.

図20は、上記のような顕著度の数値化を概念的に示す模式図である。画像選択部270は、撮影画像41−1〜41−3の各々において主要な被写体27が占める領域(図中に白枠で囲む)の顕著度の例えば平均値を算出する。これにより、各顕著度マップ49−1、49−2、49−3における被写体27の顕著度が数値化され、撮影画像41−1〜41−3の相対評価が容易になる。   FIG. 20 is a schematic diagram conceptually showing the quantification of the saliency as described above. The image selection unit 270 calculates, for example, an average value of the saliency of the area (surrounded by a white frame in the drawing) occupied by the main subject 27 in each of the captured images 41-1 to 41-3. As a result, the saliency of the subject 27 in each saliency map 49-1, 49-2, 49-3 is digitized, and the relative evaluation of the captured images 41-1 to 41-3 is facilitated.

なお、主要な被写体27の顕著度は、当該被写体27の領域における顕著度の算術平均に限られるわけではなく、統計的な処理を加えて、算出した被写体27の顕著度が、主要被写体に対するユーザの感覚に対してより忠実になるようにしてもよい。   Note that the saliency of the main subject 27 is not limited to the arithmetic average of the saliency in the area of the subject 27, and the saliency of the calculated subject 27 is calculated based on statistical processing. You may be more faithful to your senses.

また、画像選択部270は、主要な被写体27の領域に含まれる画素における顕著度の最大値をもって当該被写体27の顕著度を代表させてもよい。これにより、撮影画像41−1〜41−nの各々について被写体27の顕著度を特定する処理の負荷を低減できる。   Further, the image selection unit 270 may represent the saliency of the subject 27 with the maximum value of the saliency in the pixels included in the region of the main subject 27. Thereby, it is possible to reduce the processing load for specifying the saliency of the subject 27 for each of the captured images 41-1 to 41-n.

再び図10を参照すると、顕著度算出部280は、撮影画像41−1〜41−nの各々において数値化した被写体27の顕著度に応じて、撮影画像群410に含まれる撮影画像41−1〜41−nを序列化する(ステップS108)。即ち、個々の撮影画像41−1〜41−nにおいて被写体27の顕著度を数値化する毎に、既に処理の終わった撮影画像の数値化された顕著度と比較して撮影画像41−1〜41−nを配列する。   Referring to FIG. 10 again, the saliency calculating unit 280 includes the captured images 41-1 included in the captured image group 410 according to the saliency of the subject 27 quantified in each of the captured images 41-1 to 41-n. ˜41-n are ordered (step S108). That is, each time the saliency of the subject 27 is digitized in each of the captured images 41-1 to 41-n, the captured images 41-1 to 41-1 are compared with the quantified saliency of the captured image that has already been processed. 41-n is arranged.

また、顕著度算出部280は、顕著度を算出して序列化する毎に、まだ序列化されていない撮影画像が残っているか否かを調べ(ステップS109)、まだ主要な被写体27の顕著度を数値化されていない撮影画像41−1〜41−nが残っている場合(ステップS109:NO)は、顕著度の数値化と撮影画像41−1〜41−nの序列化を順次実行する(ステップS108)。取得した撮影画像群410に含まれる全ての撮影画像41−1〜41−nにおいて、主要な被写体27の顕著度数値化が完了している場合(ステップS109:YES)、顕著度算出部280は処理を画像選択部270に渡す。   Further, each time the saliency calculating unit 280 calculates and ranks the saliency, the saliency calculating unit 280 checks whether or not the captured images that have not yet been ranked remain (step S109), and the saliency of the main subject 27 is still present. When the captured images 41-1 to 41-n that are not digitized remain (step S109: NO), the saliency is digitized and the captured images 41-1 to 41-n are sequentially arranged. (Step S108). In the case where all the captured images 41-1 to 41-n included in the acquired captured image group 410 have been digitized the saliency of the main subject 27 (step S109: YES), the saliency calculating unit 280 The processing is passed to the image selection unit 270.

なお、顕著度算出部280は、例えば、撮影画像41−1〜41−nの各々の画像フレーム中の顕著度の最大値が1となるように顕著度を正規化して顕著度マップを算出する。その上で、主要被写体領域の顕著度が最大の画像を選択する。ここで、顕著度算出部280は、撮影画像群410に含まれる撮影画像41−1〜41−nにおける顕著度の最大値が1となるように、顕著度を正規化して算出してもよい。   Note that the saliency calculating unit 280 calculates the saliency map by normalizing the saliency so that the maximum value of the saliency in each image frame of the captured images 41-1 to 41-n is 1, for example. . Then, an image having the highest saliency in the main subject area is selected. Here, the saliency calculator 280 may normalize and calculate the saliency so that the maximum saliency of the captured images 41-1 to 41-n included in the captured image group 410 is 1. .

さらには、各撮影画像フレーム内において、フレーム内の最大の顕著度と、主要被写体領域の顕著度(主要被写体領域の顕著度の平均値でも、主要被写体領域の顕著度の最大値でもよい)との比率(主要被写体の顕著度/フレーム内の最大の顕著度)を算出し、この値に基づいて、この値が大きい撮影画像を選択する構成としてもよい。このような構成とすれば、主要被写体の目の引きやすさを撮影画像毎に評価できる。   Further, in each captured image frame, the maximum saliency in the frame and the saliency of the main subject area (which may be the average saliency of the main subject area or the maximum saliency of the main subject area) (The saliency of the main subject / the maximum saliency in the frame) is calculated, and based on this value, a captured image having a large value may be selected. With such a configuration, it is possible to evaluate the ease of eye catching of the main subject for each captured image.

また、一連の撮影画像の中の最大の顕著度を1として、各撮影画像フレームにおける主要被写体領域の顕著度を算出し、当該主要被写体領域が最大の顕著度を有する撮影画像フレームを選択する構成としてもよい。   Further, the maximum saliency in the series of captured images is set to 1, and the saliency of the main subject area in each captured image frame is calculated, and the captured image frame having the maximum saliency in the main subject area is selected. It is good.

また更に、特性マップの種類は上記の例に限られない。例えば、明度、彩度、色相、運動等の特徴量を用いて特性マップを作成してもよい。また、特性マップ作成処理として、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、色空間分布等を用いてもよい。   Furthermore, the type of characteristic map is not limited to the above example. For example, a characteristic map may be created using feature quantities such as brightness, saturation, hue, and motion. Further, as the characteristic map creation processing, multi-scale contrast, Center-Surround color histogram, color space distribution, or the like may be used.

更に、上記ステップS108において、主要な被写体27の数値化された顕著度の差が少なく、撮影画像41−1〜41−nを序列化することが難しい場合は、顕著度マップ49−1の算出に用いた輝度情報マップ46−1、色情報マップ47−1および方向性エッジ情報マップ48−1のいずれかを用いて、主要な被写体27の領域の特徴量に基づいて撮影画像41−1〜41−nを序列化してもよい。これにより、新たな特徴量を算出する処理の負担なしに、撮影画像41−1〜41−nの序列化を補助できる。   Furthermore, when the difference between the quantified saliency levels of the main subject 27 is small in step S108 and it is difficult to rank the captured images 41-1 to 41-n, the saliency map 49-1 is calculated. One of the luminance information map 46-1, the color information map 47-1 and the directional edge information map 48-1 used in the above is used, and the captured images 41-1 to 41-1 are based on the feature amount of the main subject 27 region. 41-n may be ordered. Accordingly, it is possible to assist the ordering of the captured images 41-1 to 41-n without burdening the process of calculating new feature values.

また更に、撮影画像41−1〜41−nにおける主要な被写体の特徴量の差が小さく、撮影画像41−1〜41−nを序列化することが難しい場合、顕著度とは異なる尺度を導入して撮影画像41−1〜41−nを序列化してもよい。これにより、顕著度では序列化し難い場合にも撮影画像を序列化でき、撮影画像の選択精度を向上させることができる。図21から図25までのそれぞれは、画像選択部270が実行し得る撮影画像序列化の方法を例示する模式図である。   Furthermore, when the difference between the feature amounts of the main subjects in the captured images 41-1 to 41-n is small and it is difficult to order the captured images 41-1 to 41-n, a scale different from the saliency is introduced. Then, the captured images 41-1 to 41-n may be ordered. As a result, even when it is difficult to rank the saliency, the captured images can be ordered, and the selection accuracy of the captured images can be improved. Each of FIGS. 21 to 25 is a schematic view illustrating a method of ordering captured images that can be executed by the image selection unit 270.

図21に示すように、画像選択部270は、主要な被写体27の撮影状態を評価の尺度として撮影画像を選択してもよい。即ち、図21に示す撮影画像41−4に写り込んでいる被写体11〜33は、撮影画像41−1に写り込んでいる被写体11〜33と共通であり、撮影画像41−4内の配置も等しい。   As illustrated in FIG. 21, the image selection unit 270 may select a captured image using the shooting state of the main subject 27 as an evaluation scale. That is, the subjects 11 to 33 reflected in the captured image 41-4 shown in FIG. 21 are the same as the subjects 11 to 33 reflected in the captured image 41-1, and the arrangement in the captured image 41-4 is also similar. equal.

しかしながら、撮影画像41−4は、撮影画像41−1と異なる絞り値で撮影されており、撮影画像の被写界深度が変化している。このため、撮影画像41−1と比較した場合、主要な被写体27のコントラストに対して、他の被写体11〜14、21〜26、28〜33のコントラストが低い。   However, the captured image 41-4 is captured with an aperture value different from that of the captured image 41-1, and the depth of field of the captured image changes. For this reason, when compared with the captured image 41-1, the contrast of the other subjects 11 to 14, 21 to 26, and 28 to 33 is lower than the contrast of the main subject 27.

このように、撮影画像41−4における主要な被写体27のコントラストが他の被写体11〜14、21〜26、28〜33よりも高い場合(高い空間周波数成分が多い場合)に、画像選択部270は、撮影画像41−4において主要な被写体27がより強調されていると判断し、撮影画像群410において、撮影画像41−4に対して、撮影画像41−1よりも高い順位を与える。   Thus, when the contrast of the main subject 27 in the captured image 41-4 is higher than the other subjects 11-14, 21-26, and 28-33 (when there are many high spatial frequency components), the image selection unit 270 Determines that the main subject 27 is more emphasized in the captured image 41-4, and in the captured image group 410, gives a higher rank to the captured image 41-4 than the captured image 41-1.

なお、ステップS109で用いた顕著度マップ49−1は、輝度および色の分布も勘案して算出されているので撮影画像41−1のコントラストも反映されている。よって、撮影画像41−4と比較する場合にコントラストを評価の尺度することは、コントラストという尺度に重みをつけて評価していることに他ならない。   Note that the saliency map 49-1 used in step S109 is calculated in consideration of the luminance and color distribution, and thus the contrast of the captured image 41-1 is also reflected. Therefore, when comparing with the captured image 41-4, the evaluation of the contrast is nothing but the evaluation with weighting the scale called contrast.

また、図22に示すように、画像選択部270は、被写体11〜33の配置を評価の尺度として撮影画像を選択してもよい。即ち、撮影画像41−2に写り込んでいる被写体は、撮影画像41−1に写り込んでいる被写体11〜33と共通している。しかしながら、撮影画像41−2においては、主要な被写体27と他の被写体11〜14、21〜26、28〜33との相対位置が撮影画像41−1と異なる。   As illustrated in FIG. 22, the image selection unit 270 may select a captured image using the arrangement of the subjects 11 to 33 as an evaluation scale. That is, the subject reflected in the captured image 41-2 is common to the subjects 11 to 33 reflected in the captured image 41-1. However, in the captured image 41-2, the relative positions of the main subject 27 and the other subjects 11 to 14, 21 to 26, and 28 to 33 are different from the captured image 41-1.

このため、撮影画像41−2において被写体11〜14、21〜26、28〜33が占める面積は、撮影画像41−1に比較すると小さい。このように、撮影画像41−3において他の被写体11〜14、21〜26、28〜33が占める面積が小さい場合に、画像選択部270は、当該撮影画像41−2において主要な被写体27が相対的に強調されていると評価し、撮影画像41−2に対して、撮影画像群410において撮影画像41−1よりも高い順位を与える。   For this reason, the area occupied by the subjects 11 to 14, 21 to 26, and 28 to 33 in the captured image 41-2 is smaller than that of the captured image 41-1. As described above, when the area occupied by the other subjects 11 to 14, 21 to 26, and 28 to 33 in the captured image 41-3 is small, the image selection unit 270 determines that the main subject 27 in the captured image 41-2 is the main subject 27. It is evaluated that the image is relatively emphasized, and a higher order than the captured image 41-1 is given to the captured image 41-2 in the captured image group 410.

また、図23に示すように、画像選択部270は、撮影画像に写り込んでいる主要な被写体27の大きさを尺度として撮影画像を選択してもよい。即ち、撮影画像41−3に写り込んでいる被写体は、撮影画像41−1に写り込んでいる被写体11〜33と略共通している。しかしながら、撮影画像41−3においては、主要な被写体27が、他の被写体11〜26、28〜33に対して相対的に大きく写っている。   In addition, as illustrated in FIG. 23, the image selection unit 270 may select a photographed image on the basis of the size of the main subject 27 reflected in the photographed image. That is, the subject reflected in the captured image 41-3 is substantially the same as the subjects 11-33 reflected in the captured image 41-1. However, in the captured image 41-3, the main subject 27 is shown relatively large relative to the other subjects 11 to 26 and 28 to 33.

これにより、撮影画像41−3において主要な被写体27が占める面積は、撮影画像41−1に比較すると大きい。そこで、画像選択部270は、撮影画像41−3における主要な被写体27が大きく写っていることを評価して、撮影画像41−3に対して、撮影画像群410において撮影画像41−1よりも高い順位を与える。   Thereby, the area occupied by the main subject 27 in the captured image 41-3 is larger than that in the captured image 41-1. Therefore, the image selection unit 270 evaluates that the main subject 27 in the photographed image 41-3 is greatly captured, and the photographed image group 410 in the photographed image group 410 is more than the photographed image 41-1. Give high ranking.

なお、ステップS109における評価で用いた顕著度マップ433において、顕著度の値を算出する場合に、主要被写体の大きさ評価尺度が入っている場合には、撮影画像における主要な被写体27の大きさを改めて評価することは、被写体27の大きさという尺度に重みをつけて評価していることに他ならない。   In the saliency map 433 used in the evaluation in step S109, when the saliency value is calculated and the size evaluation scale of the main subject is included, the size of the main subject 27 in the photographed image is included. Reassessing is nothing but evaluating the weight 27 on the scale of the size of the subject 27.

また、図24に示すように、画像選択部270は、被写体27の撮影状態を評価の尺度として撮影画像を選択してもよい。即ち、撮影画像41−5に写り込んでいる被写体11〜33は、撮影画像41−1に写り込んでいる被写体と略共通している。しかしながら、撮影画像41−5においては、主要な被写体27に対して照明が強く当たっており、他の被写体11〜26、28〜33は相対的に暗く写っている。   In addition, as illustrated in FIG. 24, the image selection unit 270 may select a captured image using the shooting state of the subject 27 as an evaluation scale. In other words, the subjects 11 to 33 reflected in the captured image 41-5 are substantially the same as the subject reflected in the captured image 41-1. However, in the photographed image 41-5, the main subject 27 is strongly illuminated, and the other subjects 11 to 26 and 28 to 33 appear relatively dark.

そこで、画像選択部270は、撮影画像41−5における主要な被写体27が他の被写体11〜26、28〜33よりも明るく写っていること(主要な被写体27が適切な明るさで写っていること)を評価して、撮影画像41−5に対して、撮影画像群410において撮影画像41−1よりも高い順位を与える。   Therefore, the image selection unit 270 makes the main subject 27 in the captured image 41-5 appear brighter than the other subjects 11 to 26 and 28 to 33 (the main subject 27 is shown with appropriate brightness). In other words, the captured image 41-5 is given a higher rank than the captured image 41-1 in the captured image group 410.

なお、ステップS109で用いた顕著度マップは、輝度の分布も反映して算出されている。よって、撮影画像における主要な被写体27の明るさを改めて評価することは、明るさという尺度に重みをつけて評価していることに他ならない。   Note that the saliency map used in step S109 is calculated by reflecting the luminance distribution. Therefore, the evaluation of the brightness of the main subject 27 in the captured image is nothing but an evaluation with weighting the scale of brightness.

また、図25に示すように、画像選択部270は、主要な被写体27が、撮影画像の画面上の所定の位置(例えば画面中央)に位置することを評価の尺度として撮影画像を選択してもよい。撮影画像41−6に写り込んでいる被写体11〜33は、撮影画像41−1と共通している。しかしながら、撮影画像41−6においては、主要な被写体27の位置が、被写界中央に接近している。   Also, as shown in FIG. 25, the image selection unit 270 selects a captured image using an evaluation scale that the main subject 27 is located at a predetermined position (for example, the center of the screen) of the captured image. Also good. The subjects 11 to 33 shown in the photographed image 41-6 are common to the photographed image 41-1. However, in the captured image 41-6, the position of the main subject 27 is close to the center of the object scene.

これにより、撮影画像41−6は、撮影画像41−1と比較した場合に、主要な被写体27が相対的に強調されていると評価できる。そこで、画像選択部270は、撮影画像41−6において被写体27が画面上の所定の位置(例えば画面中央)に近いことを評価して、撮影画像41−6に対して、撮影画像群410において撮影画像41−1よりも高い順位を与える。このような構成とすれば、より適切な構図の撮影画像を抽出することができる。   Thereby, the captured image 41-6 can be evaluated as the main subject 27 being relatively emphasized when compared with the captured image 41-1. Therefore, the image selection unit 270 evaluates that the subject 27 is close to a predetermined position on the screen (for example, the center of the screen) in the captured image 41-6, and in the captured image group 410 with respect to the captured image 41-6. A higher order than the photographed image 41-1 is given. With such a configuration, a captured image having a more appropriate composition can be extracted.

このように、画像選択部270は、撮影画像41−1〜41−nの各々における主要被写体27の撮影状態を評価して、ユーザにとってより重要な主要被写体27の撮影状態が、他の被写体11〜26、28〜33に対してより良好な撮影状態にあり、結果として主要被写体27が強調されている画像を選択して、複数の撮影画像41−1〜41−nに順位をつけて序列化できる。   In this way, the image selection unit 270 evaluates the shooting state of the main subject 27 in each of the shot images 41-1 to 41-n, and the shooting state of the main subject 27 that is more important to the user is the other subject 11. To 26 and 28 to 33, images that are in a better shooting state and as a result the main subject 27 is emphasized are selected, and the plurality of captured images 41-1 to 41-n are ranked and ordered. Can be

なお、主要な被写体27の評価は、ここまでに例示した方法の全てまたは一部により実行できる。また、主要な被写体27の評価を複数の方法により実行する場合、実行の順序は上記した順序でなくてもよい。更に、更に、上記の評価方法は例の一部に過ぎず、更に他の評価項目あるいは評価方法を併用してもよい。   The evaluation of the main subject 27 can be executed by all or part of the methods exemplified so far. Further, when the evaluation of the main subject 27 is executed by a plurality of methods, the execution order may not be the order described above. Furthermore, the above evaluation method is only a part of the example, and other evaluation items or evaluation methods may be used in combination.

再び図10を参照する。全ての撮影画像41−1〜41−nに対して序列化が完了して(ステップS109:YES)、処理を渡された画像選択部270は、序列に従って撮影画像を選択する(ステップS110)。これにより、画像選択部270は、複数の撮影画像41−1〜41−nの間で主要な被写体27の顕著度を比較し、主要な被写体27の顕著度に基づいて撮影画像41−1〜41−nを選択できる。   Refer to FIG. 10 again. The ordering of all the photographed images 41-1 to 41-n is completed (step S109: YES), and the image selection unit 270 to which the process has been passed selects the photographed images according to the order (step S110). Thereby, the image selection unit 270 compares the saliency of the main subject 27 between the plurality of photographic images 41-1 to 41-n, and the photographic images 41-1 to 41-1 are based on the saliency of the main subject 27. 41-n can be selected.

即ち、画像選択部270は、序列化した撮影画像群410に対して、予め定めた選択率、閾値、フレーム数等に応じて、序列に基づく撮影画像の選択を実行する。即ち、選択率が予め指定されている場合は、撮影画像群410を形成する撮影画像41−1〜41−nのうちの一定の割合の撮影画像を、序列の上位から選択する。あるいは、画像選択部270は、序列の下位から選択してもよい。   In other words, the image selection unit 270 selects a photographed image based on the order of the ordered photographed image group 410 according to a predetermined selection rate, threshold value, number of frames, and the like. That is, when the selection rate is designated in advance, a certain ratio of the captured images 41-1 to 41-n forming the captured image group 410 is selected from the top of the order. Alternatively, the image selection unit 270 may select from the lower order of the order.

また、予め閾値が定められている場合は、主要な被写体27の顕著度が、所与の値を超えた撮影画像を選択する。また、予めフレーム数が決められている場合は、上記の序列の上位または下位から所与のフレーム数の撮影画像を選択する。こうして、画像選択部270は、主要被写体の顕著度に基づいて形成された序列に従って撮影画像を選択するので、ユーザが手間をかけることなく、撮影意図を反映した撮影画像を選択できる。   If a threshold is set in advance, a captured image in which the saliency of the main subject 27 exceeds a given value is selected. Further, when the number of frames is determined in advance, a photographed image having a given number of frames is selected from the upper or lower order of the above order. In this way, the image selection unit 270 selects a captured image according to an order formed based on the saliency of the main subject, so that the user can select a captured image that reflects the shooting intention without taking time and effort.

以上のようにして画像選択部270が選択した撮影画像41−2〜41−6は、例えば、デジタルカメラ100が再生モードに設定された場合に、優先的にユーザに提示される。これにより、ユーザは、多数の撮影画像から撮影画像を選択する場合の選択作業時間を短縮できる。また、デジタルカメラ100は、特に評価が低かった撮影画像については、自動的に破棄するか、あるいは、ユーザから表示することを指示されるまでは非表示とするようにしてもよい。   The captured images 41-2 to 41-6 selected by the image selection unit 270 as described above are preferentially presented to the user when the digital camera 100 is set to the playback mode, for example. Thereby, the user can shorten the selection work time when selecting a captured image from a large number of captured images. In addition, the digital camera 100 may automatically discard a photographed image that has a particularly low evaluation, or may not display the captured image until it is instructed to be displayed by the user.

上記のように、顕著度マップを用いることで、ユーザにとって関心が高い被写体が、各撮影画像において顕著であるか(目立っており人目を引きやすいか)否かというユーザの主観的価値を、定量的に表すことができる。そこで、画像選択部270は、撮影画像の各々において主要被写体がより顕著であるか否かを評価して画像を選択する。   As described above, by using the saliency map, it is possible to quantify the user's subjective value as to whether or not a subject that is highly interested in the user is prominent in each captured image (whether it is conspicuous and easy to catch attention). Can be expressed. Therefore, the image selection unit 270 selects an image by evaluating whether or not the main subject is more prominent in each captured image.

これによって、ユーザは、多くの撮影画像から選択画像を抽出する手間を省くことができる。また、ユーザによる選択を全て省くのではなく、画像選択部270による選択範囲を広くして、ユーザの選択の手間を軽減するに留めてもよい。   Thereby, the user can save the trouble of extracting the selected image from many photographed images. Further, instead of omitting all the selections by the user, the selection range by the image selection unit 270 may be widened to reduce the user's selection effort.

図26は、上記撮影画像処理部203における処理と同等の撮影画像処理プログラムを実行し得るパーソナルコンピュータ500を模式的に示す図である。パーソナルコンピュータ500は、ディスプレイ520、本体部530およびキーボード540を有する。   FIG. 26 is a diagram schematically illustrating a personal computer 500 that can execute a captured image processing program equivalent to the processing in the captured image processing unit 203. The personal computer 500 includes a display 520, a main body 530, and a keyboard 540.

本体部530は、デジタルカメラ100との通信により、デジタルカメラ100から撮影画像の画像データを取得できる。取得した画像データは、パーソナルコンピュータ500の記憶媒体に格納できる。また、パーソナルコンピュータ500は、実行すべきプログラムをロードする場合に用いる光学ドライブ532も備える。   The main body 530 can acquire image data of a photographed image from the digital camera 100 through communication with the digital camera 100. The acquired image data can be stored in a storage medium of the personal computer 500. The personal computer 500 also includes an optical drive 532 used when loading a program to be executed.

上記のようなパーソナルコンピュータ500は、撮影画像処理プログラムを読み込ませることにより、図4および図10に示した手順を実行する撮影画像処理プログラムを実行する装置として動作する。また、パーソナルコンピュータ500は、ケーブル510を介して、デジタルカメラ100から撮影画像データを取得して処理の対象とすることができる。   The personal computer 500 as described above operates as a device that executes a captured image processing program that executes the procedure shown in FIGS. 4 and 10 by reading the captured image processing program. Further, the personal computer 500 can acquire photographed image data from the digital camera 100 via the cable 510 and make it a target of processing.

即ち、撮影画像処理プログラムは、複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出段階と、複数の被写体のそれぞれが、複数の画像のそれぞれにおいていずれの位置にあるかに基づいて、複数の被写体のいずれが、複数の被写体における主要被写体であるかを推定する主要被写体推定段階と、複数の画像のそれぞれについて、視覚的刺激の強度に応じた顕著度の分布を算出する顕著度算出段階と、複数の画像の間で主要被写体の顕著度を比較し、主要被写体の顕著度に基づいて複数の画像のうちのいずれかの画像を選択する画像選択段階とを計算機に実行させる。   That is, the captured image processing program is based on a subject extraction stage for extracting a plurality of different subjects included in a plurality of images, and on which position each of the plurality of subjects is in each of the plurality of images. A main subject estimation stage for estimating which of a plurality of subjects is a main subject of the plurality of subjects, and a saliency calculation for calculating a distribution of saliency according to the intensity of visual stimulus for each of the plurality of images The computer executes a step and an image selection step of comparing the saliency of the main subject between the plurality of images and selecting any one of the plurality of images based on the saliency of the main subject.

これにより、ユーザは、より大きなディスプレイ520およびキーボード540で、操作しやすい。パーソナルコンピュータ500を用いることにより、より大量の画像を高速に処理できる。また、被写体抽出手順、主要被写体推定手順および画像選択手順の各々における評価項目を増やすと共に、評価単位を細かくしてもよい。これにより、ユーザの意図をより詳細に反映しつつ画像選択を補助できる。   Thus, the user can easily operate with the larger display 520 and the keyboard 540. By using the personal computer 500, a larger amount of images can be processed at high speed. In addition, the number of evaluation items in each of the subject extraction procedure, the main subject estimation procedure, and the image selection procedure may be increased, and the evaluation unit may be made finer. Thereby, image selection can be assisted while reflecting the user's intention in more detail.

なお、デジタルカメラ100およびパーソナルコンピュータ500の間の撮影画像データの転送は、図示のようにケーブル510を経由してもよいし、無線通信であってもよい。また、画像データが格納された二次記憶媒体を受け渡すことにより、画像データを取得してもよい。また、撮影画像処理プログラムの実行は、パーソナルコンピュータ500に限られるものではなく、店頭あるいはオンラインのプリントサービス設備等で実行してもよい。   Note that the transfer of captured image data between the digital camera 100 and the personal computer 500 may be via a cable 510 as shown in the figure, or may be wireless communication. Further, the image data may be acquired by delivering a secondary storage medium in which the image data is stored. The execution of the photographed image processing program is not limited to the personal computer 500, and may be executed at a storefront or an online print service facility.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

また、特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示していない限り、あるいは、前の処理の出力を後の処理で用いない限り、任意の順序で実現し得ることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するとは限らない。   In addition, the execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the specification, and the drawings is particularly “before”, “ It should be noted that it can be realized in any order unless it is clearly indicated as “prior to” or the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it does not necessarily mean that implementation in this order is essential. Absent.

11〜33 被写体、41−1、41−2、41−3、41−4、41−5、41−6、41−n 撮影画像、42−1 輝度画像、43−1 ガウシアンピラミッド、44−1 正規化画像、45−1 輝度差分画像、46−1 輝度情報マップ、47−1、47−2 色情報マップ、48−1、48−2、48−3、48−4 方向性エッジ情報マップ、49−1、49−2、49−3 顕著度マップ、100 デジタルカメラ、110 筐体、120 鏡筒、122 撮影レンズ、130 発光窓、140 操作部、141 十字キー、142 電源スイッチ、143 背面ボタン、144 レリーズボタン、146 ズームレバー、150 背面表示部、200 内部回路、201 制御部、202 撮像部、203 撮影画像処理部、210 CPU、220 表示駆動部、222 顕著度マップ生成部、230 プログラムメモリ、240 メインメモリ、250 被写体抽出部、260 主要被写体推定部、270 画像選択部、280 顕著度算出部、310 撮像素子駆動部、312 撮像素子、320 アナログ/デジタル変換部、330 画像処理部、332 二次記憶媒体、340 自動合焦部、350 測光センサ、360 変倍駆動部、370 入力受付部、410 撮影画像群、421、422 被写界、500 パーソナルコンピュータ、510 ケーブル、520 ディスプレイ、530 本体部、532 光学ドライブ、540 キーボード、610 輝度情報抽出部、612 輝度画像生成部、614、623、635 ガウシアンピラミッド生成部、616、624、636 差分画像生成部、618 輝度情報マップ生成部、620色情報抽出部、621 R−G差分画像生成部、622 B−Y差分画像生成部、623 ガウシアンピラミッド生成部、625 色情報マップ生成部、630 エッジ情報抽出部、640 線形結合部、631、632、633、634 方向性エッジ画像生成部、637 方向性エッジ情報マップ生成部 11-33 Subject, 41-1, 41-2, 41-3, 41-4, 41-5, 41-6, 41-n Photographed image, 42-1 Luminance image, 43-1 Gaussian pyramid, 44-1 Normalized image, 45-1 Luminance difference image, 46-1 Luminance information map, 47-1, 47-2 Color information map, 48-1, 48-2, 48-3, 48-4 Directional edge information map, 49-1, 49-2, 49-3 Saliency map, 100 digital camera, 110 housing, 120 lens barrel, 122 taking lens, 130 light emitting window, 140 operation unit, 141 cross key, 142 power switch, 143 back button 144 Release button, 146 Zoom lever, 150 Rear display unit, 200 Internal circuit, 201 Control unit, 202 Imaging unit, 203 Captured image processing unit, 210 CPU 220 display drive unit, 222 saliency map generation unit, 230 program memory, 240 main memory, 250 subject extraction unit, 260 main subject estimation unit, 270 image selection unit, 280 saliency calculation unit, 310 image sensor drive unit, 312 imaging Element, 320 Analog / digital conversion unit, 330 Image processing unit, 332 Secondary storage medium, 340 Automatic focusing unit, 350 Photometric sensor, 360 Variable magnification drive unit, 370 Input reception unit, 410 Captured image group, 421, 422 Field, 500 personal computer, 510 cable, 520 display, 530 main unit, 532 optical drive, 540 keyboard, 610 luminance information extraction unit, 612 luminance image generation unit, 614, 623, 635 Gaussian pyramid generation unit, 616, 624, 636 difference Image generation unit, 618 luminance information map generation unit, 620 color information extraction unit, 621 RG differential image generation unit, 622 BY differential image generation unit, 623 Gaussian pyramid generation unit, 625 color information map generation unit, 630 edge Information extraction unit, 640 linear combination unit, 631, 632, 633, 634 Directional edge image generation unit, 637 Directional edge information map generation unit

Claims (10)

複数の画像を取得する画像取得部と、
前記複数の画像における主要被写体を推定する主要被写体推定部と、
前記複数の画像のそれぞれについて、視覚的な顕著度を算出する顕著度算出部と、
前記複数の画像の間で前記主要被写体の顕著度を比較し、前記主要被写体の前記顕著度に基づいて前記複数の画像のうちのいずれかの画像を選択する画像選択部と
を備える画像処理装置。
An image acquisition unit for acquiring a plurality of images;
A main subject estimation unit for estimating a main subject in the plurality of images;
A saliency calculator that calculates a visual saliency for each of the plurality of images;
An image processing apparatus comprising: an image selection unit that compares the saliency of the main subject between the plurality of images and selects any one of the plurality of images based on the saliency of the main subject. .
前記複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出部を更に備え、
前記主要被写体推定部は、前記複数の被写体のいずれが主要被写体であるかを推定する
請求項1に記載の画像処理装置。
A subject extraction unit that extracts a plurality of different subjects included in the plurality of images;
The image processing apparatus according to claim 1, wherein the main subject estimation unit estimates which of the plurality of subjects is a main subject.
前記画像選択部は、前記複数の画像のそれぞれにおける前記主要被写体の顕著度がより大きい場合に当該画像を選択する請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image selection unit selects the image when the saliency of the main subject in each of the plurality of images is larger. 前記顕著度算出部は、前記複数の画像の各々における輝度値、色および方向性エッジの各々の分布を合成して前記顕著度の分布を算出する請求項1から請求項3までのいずれか一項に記載の画像処理装置。   The saliency calculating unit calculates the saliency distribution by combining the distributions of luminance values, colors, and directional edges in each of the plurality of images. The image processing apparatus according to item. 前記顕著度算出部は、前記輝度値、色および方向性エッジの各々について個別に正規化した分布を合成して前記顕著度の分布を算出する請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the saliency calculating unit calculates the saliency distribution by combining distributions individually normalized for each of the luminance value, color, and directional edge. 前記画像選択部は、前記輝度値、色および方向性エッジの各々の分布のいずれかに更に基づいて、前記複数の画像のうちのいずれかの画像を選択する請求項5に記載の画像処理装置。   The image processing device according to claim 5, wherein the image selection unit selects any one of the plurality of images further based on any one of the distributions of the luminance value, the color, and the directional edge. . 前記画像取得部は、時間的に連続して撮影された複数の画像を前記複数の画像として取得する請求項1から請求項6までのいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image acquisition unit acquires a plurality of images taken continuously in time as the plurality of images. 請求項1から請求項7までのいずれか一項に記載の画像処理装置において、
前記画像選択部は、さらに、前記複数の各画像の顕著度の最大値と、前記主要被写体の顕著度との比率を、前記複数の画像の各々について算出し、当該比率に基づいて、前記複数の画像の何れかの画像を選択することを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 7,
The image selection unit further calculates a ratio between the maximum value of the saliency of each of the plurality of images and the saliency of the main subject for each of the plurality of images, and the plurality of the plurality of images based on the ratio An image processing apparatus, wherein any one of the images is selected.
請求項1から請求項8までのいずれか一項に記載の画像処理装置と、
被写界の像光を撮像する撮像部と
を備える撮像装置。
An image processing apparatus according to any one of claims 1 to 8,
An imaging device comprising: an imaging unit that captures image light of an object scene.
複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出段階と、
前記複数の画像における主要被写体を推定する主要被写体推定段階と、
前記複数の画像のそれぞれについて、視覚的な顕著度を算出する顕著度算出段階と、
前記複数の画像の間で前記主要被写体の顕著度を比較し、前記主要被写体の前記顕著度に基づいて前記複数の画像のうちのいずれかの画像を選択する画像選択段階と
を計算機に実行させる画像処理プログラム。
A subject extraction stage for extracting a plurality of different subjects included in a plurality of images;
A main subject estimation step for estimating a main subject in the plurality of images;
A saliency calculating step for calculating a visual saliency for each of the plurality of images;
Comparing the saliency of the main subject between the plurality of images, and causing a computer to execute an image selection step of selecting any one of the plurality of images based on the saliency of the main subject Image processing program.
JP2011145538A 2011-06-30 2011-06-30 Image processing apparatus, imaging apparatus, and program Active JP5862071B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011145538A JP5862071B2 (en) 2011-06-30 2011-06-30 Image processing apparatus, imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011145538A JP5862071B2 (en) 2011-06-30 2011-06-30 Image processing apparatus, imaging apparatus, and program

Publications (2)

Publication Number Publication Date
JP2013012124A true JP2013012124A (en) 2013-01-17
JP5862071B2 JP5862071B2 (en) 2016-02-16

Family

ID=47685938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011145538A Active JP5862071B2 (en) 2011-06-30 2011-06-30 Image processing apparatus, imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP5862071B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014168141A (en) * 2013-02-28 2014-09-11 Nikon Corp Image processing device, imaging device, and image processing program
JP2015008428A (en) * 2013-06-25 2015-01-15 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP2016071734A (en) * 2014-09-30 2016-05-09 キヤノン株式会社 Image processor and control method thereof, program, and storage medium
JP2016530595A (en) * 2013-06-12 2016-09-29 スリーエム イノベイティブ プロパティズ カンパニー Presenting the results of visual attention modeling
JP2016189544A (en) * 2015-03-30 2016-11-04 富士フイルム株式会社 Image pickup device, image pickup method, program and recording medium
JP2020184146A (en) * 2019-05-07 2020-11-12 パイオニア株式会社 Saliency estimation device, saliency estimation method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311340A (en) * 2005-04-28 2006-11-09 Olympus Imaging Corp Image display device and digital camera
JP2007097090A (en) * 2005-09-30 2007-04-12 Fujifilm Corp Image display apparatus, method and program, and photo print order accepting device
JP2009245406A (en) * 2008-04-01 2009-10-22 Fujifilm Corp Image processing apparatus and program for the same
JP2010103884A (en) * 2008-10-27 2010-05-06 Sanyo Electric Co Ltd Image processing device, image processing method and electronic apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311340A (en) * 2005-04-28 2006-11-09 Olympus Imaging Corp Image display device and digital camera
JP2007097090A (en) * 2005-09-30 2007-04-12 Fujifilm Corp Image display apparatus, method and program, and photo print order accepting device
JP2009245406A (en) * 2008-04-01 2009-10-22 Fujifilm Corp Image processing apparatus and program for the same
JP2010103884A (en) * 2008-10-27 2010-05-06 Sanyo Electric Co Ltd Image processing device, image processing method and electronic apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014168141A (en) * 2013-02-28 2014-09-11 Nikon Corp Image processing device, imaging device, and image processing program
JP2016530595A (en) * 2013-06-12 2016-09-29 スリーエム イノベイティブ プロパティズ カンパニー Presenting the results of visual attention modeling
US10176396B2 (en) 2013-06-12 2019-01-08 3M Innovative Properties Company Systems and methods for computing and presenting results of visual attention modeling
JP2015008428A (en) * 2013-06-25 2015-01-15 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP2016071734A (en) * 2014-09-30 2016-05-09 キヤノン株式会社 Image processor and control method thereof, program, and storage medium
US10121067B2 (en) 2014-09-30 2018-11-06 Canon Kabushiki Kaisha Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium
JP2016189544A (en) * 2015-03-30 2016-11-04 富士フイルム株式会社 Image pickup device, image pickup method, program and recording medium
JP2020184146A (en) * 2019-05-07 2020-11-12 パイオニア株式会社 Saliency estimation device, saliency estimation method and program

Also Published As

Publication number Publication date
JP5862071B2 (en) 2016-02-16

Similar Documents

Publication Publication Date Title
JP5246275B2 (en) Imaging apparatus and program
CN101325658B (en) Imaging device, imaging method and computer program
CN105765967B (en) The method, system and medium of the setting of first camera are adjusted using second camera
US9767539B2 (en) Image capture device with contemporaneous image correction mechanism
CN101867724B (en) Imaging device and imaging method
US8861806B2 (en) Real-time face tracking with reference images
US9584733B2 (en) High dynamic range transition
CN103971090B (en) Image processing apparatus, image capture apparatus and image processing method
US20120133797A1 (en) Imaging apparatus, imaging method and computer program
US9282238B2 (en) Camera system for determining pose quality and providing feedback to a user
JP5862071B2 (en) Image processing apparatus, imaging apparatus, and program
JP6074954B2 (en) Focus evaluation device, imaging device, and program
US20120069222A1 (en) Foreground/Background Separation Using Reference Images
CN103905727B (en) Object area tracking apparatus, control method, and program of the same
KR20140016401A (en) Method and apparatus for capturing images
US7957633B2 (en) Focus adjusting apparatus and focus adjusting method
US20100074547A1 (en) Method for discriminating focus quality of image pickup device
US20100188520A1 (en) Imaging device and storage medium storing program
WO2017080348A2 (en) Scene-based photographing device and method, and computer storage medium
US8670609B2 (en) Systems and methods for evaluating images
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5414216B2 (en) Imaging apparatus, control method thereof, and program
WO2017071560A1 (en) Picture processing method and device
JP2013012993A (en) Image processing device, imaging device, and image processing program
JP6776532B2 (en) Image processing equipment, imaging equipment, electronic devices and image processing programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5862071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250