JP2021189788A - Image processing apparatus, imaging apparatus, control method, and program - Google Patents

Image processing apparatus, imaging apparatus, control method, and program Download PDF

Info

Publication number
JP2021189788A
JP2021189788A JP2020094910A JP2020094910A JP2021189788A JP 2021189788 A JP2021189788 A JP 2021189788A JP 2020094910 A JP2020094910 A JP 2020094910A JP 2020094910 A JP2020094910 A JP 2020094910A JP 2021189788 A JP2021189788 A JP 2021189788A
Authority
JP
Japan
Prior art keywords
image
images
evaluation
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020094910A
Other languages
Japanese (ja)
Other versions
JP2021189788A5 (en
Inventor
裕紀子 久保
Yukiko Kubo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020094910A priority Critical patent/JP2021189788A/en
Publication of JP2021189788A publication Critical patent/JP2021189788A/en
Publication of JP2021189788A5 publication Critical patent/JP2021189788A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing apparatus which reduces the influence of contrast effect that appears when a plurality of images are simultaneously displayed.SOLUTION: An image processing unit 107 as an image processing apparatus of a digital camera includes: an acquisition unit 201 which acquires a plurality of images to be simultaneously displayed on a screen and information on arrangement mode thereof; an evaluation unit 202 which evaluates the influence of visual contrast effect between images that appears when the plurality of images acquired by the acquisition unit 201 are simultaneously displayed, on the basis of the information on arrangement mode; and a derivation unit 212 which derives a correction amount for reducing the influence of the visual contrast effect for each of the plurality of images, on the basis of a result evaluated by the evaluation unit 202.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、撮像装置、制御方法及びプログラムに関し、特に視覚的な効果を生じさせる画像処理技術に関する。 The present invention relates to an image processing device, an image pickup device, a control method and a program, and particularly to an image processing technique for producing a visual effect.

本発明は、画像処理装置に関し、特にディスプレイ上に複数枚同時に表示される画像間で発生する対比効果の補正を行う画像処理に関するものである。 The present invention relates to an image processing apparatus, and more particularly to an image processing for correcting a contrasting effect generated between a plurality of images displayed simultaneously on a display.

ディスプレイの表示可能な輝度(表示輝度)の範囲が拡張されたことに伴い、より人間の視覚に近い階調表現の画像表示が可能となってきている。これに伴い、デジタルカメラ等の撮像装置には、従来圧縮していた高輝度側の階調を含む、高分解能の階調表現(HDR:ハイダイナミックレンジ)の画像を撮像する機能を備えるものも開発されてきている。例えば、HDR映像信号規格であるBT.2100のOETF(Opto-Electronic transfer function)を用いて撮像画像の変換処理(以下、ガンマ処理)を行うことで、HDRモニタで高輝度側の階調を表示できる。 As the range of brightness that can be displayed on a display (display brightness) has been expanded, it has become possible to display images with gradation expressions that are closer to human vision. Along with this, some image pickup devices such as digital cameras have a function of capturing a high-resolution gradation expression (HDR: high dynamic range) image including the gradation on the high-luminance side, which has been conventionally compressed. It has been developed. For example, BT, which is an HDR video signal standard. By performing conversion processing (hereinafter, gamma processing) of the captured image using the 2100 OETF (Opto-Electronic transfer function), the gradation on the high luminance side can be displayed on the HDR monitor.

ガンマ処理を適用して得られるHDR画像は、従来のSDR画像に比べて高輝度側の階調が表現される。このとき、例えば背景の明度や彩度が上がることで、前景が暗い、色がくすむ、コントラストが高い等、SDR画像とは異なる印象の画像として知覚(視認)される対比効果が生じる。このような対比効果は、1つの画像内だけでなく、例えば1つの画面内に複数の画像を配置して表示する態様においても、画像間で生じ得る。例えばHDR画像とSDR画像を同時表示させる場合や、最高輝度の異なる複数のHDR画像を同時表示させる場合において、周辺に配置される画像よりも明度や彩度が低い画像は視認しにくくなる。より具体的には、画面に配置される1つの画像に着目する場合、該着目する画像(着目画像)の周辺に配置される画像の明度・彩度が高いと、着目画像は暗い、色がくすんでいるといった印象の画像として知覚される。 The HDR image obtained by applying the gamma processing expresses the gradation on the higher luminance side than the conventional SDR image. At this time, for example, by increasing the brightness and saturation of the background, a contrasting effect is produced that is perceived (visually recognized) as an image having an impression different from that of the SDR image, such as a dark foreground, dull color, and high contrast. Such a contrasting effect can occur not only within one image but also between images, for example, in a mode in which a plurality of images are arranged and displayed in one screen. For example, when displaying an HDR image and an SDR image at the same time, or when displaying a plurality of HDR images having different maximum brightness at the same time, it becomes difficult to visually recognize an image having a lower brightness and saturation than an image arranged in the periphery. More specifically, when focusing on one image arranged on the screen, if the brightness / saturation of the image arranged around the image of interest (the image of interest) is high, the image of interest is dark and the color is dark. It is perceived as an image with the impression of being dull.

特許文献1には、複数の動画のサムネイルをディスプレイに一覧表示する際に、撮影シーンごとに生じる明るさまたは色調のバラツキを低減すべく、各動画の階調の特徴量に基づいてサムネイルの階調値を補正する装置が記載されている。 In Patent Document 1, when displaying a list of thumbnails of a plurality of moving images on a display, the thumbnail floor is based on the feature amount of the gradation of each moving image in order to reduce the variation in brightness or color tone that occurs in each shooting scene. A device for correcting the adjustment price is described.

特開2009−055231号公報Japanese Unexamined Patent Publication No. 2009-055231

しかしながら、特許文献2に記載される補正は動画の階調の特徴量に基づくものであり、例えば隣接して配置される場合のような対比効果がより強く表れる態様については考慮されていない。故に、複数の画像(サムネイル)の配置態様によっては、ユーザにより知覚される明度・彩度のバラツキが好適に低減されない可能性があった。 However, the correction described in Patent Document 2 is based on the feature amount of the gradation of the moving image, and does not consider the mode in which the contrast effect appears more strongly, for example, when they are arranged adjacent to each other. Therefore, depending on the arrangement mode of the plurality of images (thumbnails), there is a possibility that the variation in brightness / saturation perceived by the user may not be suitably reduced.

本発明は、上述の問題点に鑑みてなされたものであり、複数の画像を同時表示する際に表れる対比効果の影響を低減する画像処理装置、撮像装置、制御方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and provides an image processing device, an image pickup device, a control method, and a program that reduce the influence of the contrasting effect that appears when displaying a plurality of images at the same time. The purpose.

本発明の画像処理装置は、画面に同時表示する複数の画像とその配置態様の情報を取得する取得手段と、配置態様の情報に基づいて、取得手段により取得された複数の画像を同時表示する際に表れる画像間の視覚的な対比効果の影響を評価する評価手段と、評価手段による評価結果に基づいて、複数の画像それぞれについて視覚的な対比効果の影響を低減する補正量を導出する導出手段と、を有することを特徴とする。 The image processing apparatus of the present invention simultaneously displays a plurality of images to be simultaneously displayed on the screen and an acquisition means for acquiring information on the arrangement mode, and a plurality of images acquired by the acquisition means based on the information on the arrangement mode. An evaluation means that evaluates the effect of the visual contrast effect between the images that appear at the time, and a derivation that derives a correction amount that reduces the effect of the visual contrast effect for each of a plurality of images based on the evaluation result by the evaluation means. It is characterized by having means and.

このような構成により本発明によれば、複数の画像を同時表示する際に表れる対比効果の影響を低減することが可能となる。 According to the present invention, it is possible to reduce the influence of the contrasting effect that appears when a plurality of images are displayed at the same time by such a configuration.

本発明の実施形態に係るデジタルカメラ100の機能構成を示したブロック図A block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention. 本発明の実施形態に係る画像処理部107の機能モジュールの構成を示したブロック図The block diagram which showed the structure of the functional module of the image processing part 107 which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルカメラ100で実行される表示処理を例示したフローチャートA flowchart illustrating the display process executed by the digital camera 100 according to the embodiment of the present invention. 本発明の実施形態に係るマップ構成処理を例示したフローチャートA flowchart illustrating the map configuration process according to the embodiment of the present invention. 本発明の実施形態に係るマップ構成処理を説明するための図The figure for demonstrating the map composition processing which concerns on embodiment of this invention. 本発明の実施形態に係る評価部202による評価を説明するための図The figure for demonstrating the evaluation by the evaluation unit 202 which concerns on embodiment of this invention. 本発明の実施形態に係る影響マップの構成を説明するための図The figure for demonstrating the structure of the influence map which concerns on embodiment of this invention.

[実施形態]
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[Embodiment]
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.

以下に説明する一実施形態は、画像処理装置の一例としての、撮像した画像の一覧表示機能を備えたデジタルカメラに、本発明を適用した例を説明する。しかし、本発明は、複数の画像を同時表示する際に、各画像の補正量を導出することが可能な任意の機器に適用可能である。また、本明細書において、「対比効果」とは、複数の画像を同時表示する際の、画像間の明度や彩度の差異に起因する視覚的な印象の違い(見え方の違い)を示すものとして説明する。 One embodiment described below describes an example in which the present invention is applied to a digital camera having a function of displaying a list of captured images as an example of an image processing device. However, the present invention is applicable to any device capable of deriving a correction amount for each image when displaying a plurality of images at the same time. Further, in the present specification, the "contrast effect" indicates a difference in visual impression (difference in appearance) due to a difference in brightness and saturation between images when a plurality of images are displayed at the same time. Explain as a thing.

《デジタルカメラの構成》
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示したブロック図である。
<< Configuration of digital camera >>
FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention.

システム制御部101は、例えばCPU等の、デジタルカメラ100が備える各ブロックを制御する制御装置である。システム制御部101は、デジタルカメラ100が備える各ブロックの動作プログラムをROM102から読み出して、RAM103に展開して実行することによりデジタルカメラ100が備える各ブロックの動作を制御する。 The system control unit 101 is a control device that controls each block included in the digital camera 100, such as a CPU. The system control unit 101 controls the operation of each block included in the digital camera 100 by reading the operation program of each block included in the digital camera 100 from the ROM 102, expanding the program into the RAM 103, and executing the program.

ROM102は、例えばフラッシュROM等の書き換え可能な不揮発性メモリである。ROM102は、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。一方、RAM103は、書き換え可能な揮発性メモリである。RAM103は、デジタルカメラ100が備える各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作により出力された中間データの一時的な記憶領域としても用いられる。本実施形態では、システム制御部101と後述の画像処理部107が、RAM103をワークメモリとして使用するものとする。 The ROM 102 is a rewritable non-volatile memory such as a flash ROM. The ROM 102 stores, in addition to the operation program of each block included in the digital camera 100, parameters and the like necessary for the operation of each block. On the other hand, the RAM 103 is a rewritable volatile memory. The RAM 103 is used not only as an expansion area for an operation program of each block included in the digital camera 100, but also as a temporary storage area for intermediate data output by the operation of each block. In the present embodiment, the system control unit 101 and the image processing unit 107 described later use the RAM 103 as a work memory.

光学系104は、被写体像を撮像部105に結像する。光学系104には、例えば、固定レンズ、焦点距離を変更する変倍レンズ、焦点調節を行うフォーカスレンズ等が含まれている。光学系104には絞りも含まれており、絞りにより光学系の開口径を調節することで撮影時の光量調節を行う。 The optical system 104 forms a subject image on the image pickup unit 105. The optical system 104 includes, for example, a fixed lens, a variable magnification lens that changes the focal length, a focus lens that adjusts the focus, and the like. The optical system 104 also includes a diaphragm, and the amount of light at the time of shooting is adjusted by adjusting the aperture diameter of the optical system with the diaphragm.

撮像部105は、例えばCCDイメージセンサやCMOSイメージセンサ等の撮像素子である。撮像部105は、光学系104により撮像素子の撮像面に結像された光学像を光電変換してアナログ画像信号を得る。撮像部105は、得られたアナログ画像信号をA/D変換部106に出力する。 The image pickup unit 105 is an image pickup element such as a CCD image sensor or a CMOS image sensor. The image pickup unit 105 obtains an analog image signal by photoelectrically converting an optical image formed on the image pickup surface of the image pickup device by the optical system 104. The image pickup unit 105 outputs the obtained analog image signal to the A / D conversion unit 106.

A/D変換部106は、入力されたアナログ画像信号にA/D変換処理を適用することで、デジタル画像データ(以下では単に画像として言及)を得る。A/D変換部106は、得られた画像をRAM103に出力して記憶させる。 The A / D conversion unit 106 obtains digital image data (hereinafter, simply referred to as an image) by applying the A / D conversion process to the input analog image signal. The A / D conversion unit 106 outputs the obtained image to the RAM 103 and stores it.

画像処理部107は、RAM103に記憶されている画像に対して、各種の画像処理を行い、画像処理後の画像を記録媒体108に記録する。画像処理部107が行う画像処理は、例えば、ホワイトバランス調整、色補間、縮小/拡大に係る処理等を含むものであってよい。本実施形態のデジタルカメラ100では、HDR画像とSDR画像の2種類の画像を記録可能に構成されているものとする。ここで、HDR画像とは、HDR映像信号規格であるBT.2100に記載されたPQ、HLG方式の映像信号を想定しているものとして説明する。より詳しくは、HDR画像の色域はBT.2020、デジタルカメラ100内で使用するHDR画像のガンマがPQ方式であるものとして説明する。 The image processing unit 107 performs various image processing on the image stored in the RAM 103, and records the image after the image processing on the recording medium 108. The image processing performed by the image processing unit 107 may include, for example, white balance adjustment, color interpolation, processing related to reduction / enlargement, and the like. It is assumed that the digital camera 100 of the present embodiment is configured to be capable of recording two types of images, an HDR image and an SDR image. Here, the HDR image is an HDR video signal standard BT. It will be described assuming that the PQ and HLG system video signals described in 2100 are assumed. More specifically, the color gamut of the HDR image is BT. In 2020, the gamma of the HDR image used in the digital camera 100 will be described as assuming that it is the PQ method.

また画像処理部107は、後述の記録媒体108に記録されている画像を表示する画面を生成する処理も行う。ここで、画像の表示態様は、1つの画像のみを表示する態様と、複数の画像を画面内に配置して同時表示する態様の2種類が含まれるものとし、画像処理部107は設定されている表示態様に応じて処理内容を異ならせる。 The image processing unit 107 also performs a process of generating a screen for displaying an image recorded on the recording medium 108 described later. Here, it is assumed that the display mode of the image includes two types, a mode in which only one image is displayed and a mode in which a plurality of images are arranged on the screen and simultaneously displayed, and the image processing unit 107 is set. The processing content is different depending on the display mode.

記録媒体108は、例えば、メモリカード等の、デジタルカメラ100に着脱可能に構成されていてよい記録装置である。記録媒体108には、画像処理部107により画像処理が適用された画像(撮像画像)やA/D変換部106によりA/D変換された画像信号(RAW画像)等が、記録画像として記録される。 The recording medium 108 is a recording device, such as a memory card, which may be detachably configured on the digital camera 100. An image (captured image) to which image processing has been applied by the image processing unit 107, an image signal (RAW image) A / D converted by the A / D conversion unit 106, and the like are recorded as recorded images on the recording medium 108. To.

表示部109は、例えばLCD等の表示装置であり、デジタルカメラ100における各種の情報提示を行う。表示部109は、デジタルカメラ100が撮像モードに設定されて撮像部105により撮像が行われている際、A/D変換された画像を表示(スルー表示)することで、デジタルビューファインダとして機能する。また表示部109は、デジタルカメラ100が再生モードに設定されている際、記録媒体108に記録されている画像を表示する。 The display unit 109 is, for example, a display device such as an LCD, and presents various types of information in the digital camera 100. The display unit 109 functions as a digital viewfinder by displaying (through display) the A / D converted image when the digital camera 100 is set to the image pickup mode and the image pickup unit 105 is performing the image pickup. .. Further, the display unit 109 displays an image recorded on the recording medium 108 when the digital camera 100 is set to the reproduction mode.

操作入力部110は、例えばレリーズスイッチ、設定ボタン、モード設定ダイアル等のユーザ入力インタフェースを含み、ユーザによりなされた操作入力を検出すると、該操作入力に対応する制御信号をシステム制御部101に出力する。また表示部109がタッチパネルセンサを備えている態様においては、操作入力部110は、表示部109に対してなされたタッチ操作を検出するインタフェースとしても機能する。 The operation input unit 110 includes a user input interface such as a release switch, a setting button, and a mode setting dial, and when it detects an operation input made by the user, it outputs a control signal corresponding to the operation input to the system control unit 101. .. Further, in the embodiment in which the display unit 109 is provided with the touch panel sensor, the operation input unit 110 also functions as an interface for detecting a touch operation performed on the display unit 109.

デジタルカメラ100が備えるこれらの機能ブロックは、基本的にはバス111によって接続され、バス111を介してブロック間の信号のやり取りが可能に構成される。 These functional blocks included in the digital camera 100 are basically connected by a bus 111, and are configured to enable signal exchange between the blocks via the bus 111.

〈画像処理部107の詳細構成〉
次に、本実施形態のデジタルカメラ100の再生モードにおける複数の画像の表示に係り、画像処理部107が有する各種の画像処理機能について、図2を参照して説明する。
<Detailed configuration of image processing unit 107>
Next, various image processing functions possessed by the image processing unit 107, which are related to the display of a plurality of images in the reproduction mode of the digital camera 100 of the present embodiment, will be described with reference to FIG.

取得部201は、表示部109に表示する1つの画面について、該画面内に配置する複数の画像を記録媒体108から読み出して取得する。本実施形態では、発明の理解を容易にすべく、複数の画像はいずれも記録媒体108に記録されている画像であるものとして説明するが、本発明の実施において、画像の取得元がこれに限られるものではないことは容易に理解されよう。 The acquisition unit 201 reads out and acquires a plurality of images arranged in the screen for one screen displayed on the display unit 109 from the recording medium 108. In the present embodiment, in order to facilitate understanding of the invention, the plurality of images are all assumed to be images recorded on the recording medium 108, but in the embodiment of the present invention, the image acquisition source is the same. It is easy to understand that it is not limited.

また取得部201は、表示対象の複数の画像について、画面内にどのように配置するかを示す配置態様の情報も取得する。1つの画像についての配置態様の情報は、例えば該画像の画面中の表示位置及び表示サイズの情報を含むものであってよい。本実施形態では表示対象の画像は、1つの画面中にモザイク状に配置されて同時表示されるものとし、その表示サイズには複数種類のサイズが設けられているものとする。以下では、1つの画面には、表示対象の画像が間隙なく配置されるものとして説明するが、配置態様はこれに限られるものではない。 In addition, the acquisition unit 201 also acquires information on an arrangement mode indicating how the plurality of images to be displayed are arranged on the screen. The information on the arrangement mode for one image may include, for example, information on the display position and display size of the image on the screen. In the present embodiment, the images to be displayed are arranged in a mosaic pattern on one screen and simultaneously displayed, and the display sizes are provided with a plurality of types. Hereinafter, the image to be displayed is arranged on one screen without any gap, but the arrangement mode is not limited to this.

評価部202は、取得部201により取得された表示対象の画像及びその配置態様の情報に基づいて、該画像群を同時表示した場合に表れる視覚的な対比効果の影響を評価する。本実施形態では評価部202は、視覚的な対比効果の影響を評価値として導出し、表示する画面と同様の分布を示し、画素値として各画像が配置される領域にその評価値に基づく補正量を格納した影響マップを構成する。詳細は後述するが評価部202は、取得した画像を明るさ成分画像と色成分画像に分離する分離部211、各画像について評価値を導出する導出部212、及び導出された評価値に基づいて影響マップを構成するマップ構成部213を含む。 The evaluation unit 202 evaluates the influence of the visual contrast effect that appears when the image group is simultaneously displayed, based on the information of the image to be displayed and the arrangement mode thereof acquired by the acquisition unit 201. In the present embodiment, the evaluation unit 202 derives the influence of the visual contrast effect as an evaluation value, shows the same distribution as the screen to be displayed, and corrects based on the evaluation value in the area where each image is arranged as a pixel value. Construct an impact map that stores the amount. Although the details will be described later, the evaluation unit 202 is based on the separation unit 211 that separates the acquired image into the brightness component image and the color component image, the derivation unit 212 that derives the evaluation value for each image, and the derived evaluation value. Includes a map configuration unit 213 that constitutes an impact map.

補正部203は、評価部202により構成された影響マップに基づいて表示対象の複数の画像を補正する。各画像の補正量は、生成する画面における該画像の表示位置に対応した、影響マップ中の画素の画素値によって規定される。 The correction unit 203 corrects a plurality of images to be displayed based on the influence map configured by the evaluation unit 202. The correction amount of each image is defined by the pixel value of the pixel in the influence map corresponding to the display position of the image on the generated screen.

生成部204は、補正部203による補正がなされた画像と配置態様の情報とに基づいて、表示部109に表示する画面を生成する。より詳しくは、生成部204は、表示対象の画像の各々について、補正後の画像を表示サイズに基づいて拡大/縮小した上で、表示する画面を展開する例えばRAM103上の表示用領域に配置して画面を生成する。 The generation unit 204 generates a screen to be displayed on the display unit 109 based on the image corrected by the correction unit 203 and the information on the arrangement mode. More specifically, the generation unit 204 arranges the corrected image for each of the images to be displayed in the display area on the RAM 103, for example, after enlarging / reducing the corrected image based on the display size. To generate a screen.

本実施形態ではハードウェアとしてデジタルカメラ100が備える各ブロックに対応した回路やプロセッサにより処理が実現されるものとして説明する。しかしながら、本発明の実施はこれに限られるものではなく、各ブロックの処理が該各ブロックと同様の処理を行うプログラムにより実現されるものであってもよい。 In the present embodiment, it is assumed that the processing is realized by a circuit or a processor corresponding to each block included in the digital camera 100 as hardware. However, the implementation of the present invention is not limited to this, and the processing of each block may be realized by a program that performs the same processing as each block.

《表示処理》
このような構成をもつ本実施形態のデジタルカメラ100で、複数の画像を表示部109に表示する際に実行される表示処理について、図3のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、システム制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。本表示処理は、例えばデジタルカメラ100が再生モードで起動され、記録媒体108に記録されている複数の画像を同時表示する設定になされた際に開始し、該設定がなされている間、表示更新レートに従って繰り返し実行されるものとして説明する。
<< Display processing >>
The display processing executed when displaying a plurality of images on the display unit 109 in the digital camera 100 of the present embodiment having such a configuration will be described with reference to the flowchart of FIG. The process corresponding to the flowchart can be realized by the system control unit 101 reading, for example, the corresponding process program stored in the ROM 102, expanding it into the RAM 103, and executing the process. This display process is started, for example, when the digital camera 100 is activated in the playback mode and is set to simultaneously display a plurality of images recorded on the recording medium 108, and the display is updated while the setting is made. It will be described as being repeatedly executed according to the rate.

S301で、システム制御部101は、画面に配列される表示対象の画像群の内容を変更するか否かを判断する。本実施形態では画面に配列される画像群は、表示送り操作に係る操作入力がなされたことに応じて変更されるものとして説明するが、本発明の実施はこれに限られるものではない。例えば、選択操作がなされた画像と関連性が高い画像が表示されるよう表示対象が変更されるものであってもよいし、反対に類似性が高い画像を除外して表示するよう表示対象が変更されるものであってもよい。また例えば、スライドショーのように、時間経過に応じて順次表示対象が変更されるものであってもよい。システム制御部101は、表示対象の画像群の内容を変更すると判断した場合は処理をS302に移し、変更しないと判断した場合は処理をS307に移す。 In S301, the system control unit 101 determines whether or not to change the contents of the image group to be displayed arranged on the screen. In the present embodiment, the image group arranged on the screen will be described as being changed according to the operation input related to the display feed operation, but the embodiment of the present invention is not limited to this. For example, the display target may be changed so that an image having a high relevance to the image for which the selection operation is performed is displayed, or conversely, the display target is displayed so as to exclude the image having a high similarity. It may be changed. Further, for example, a slide show may be used in which the display target is sequentially changed according to the passage of time. When the system control unit 101 determines that the content of the image group to be displayed is changed, the process is transferred to S302, and when it is determined that the content is not changed, the process is transferred to S307.

S302で、システム制御部101は、表示対象の画像群の選択及びそれらの配置態様の情報の構成を行い、表示対象の画像群を特定する情報及び配置態様の情報を画像処理部107に伝送する。より詳しくはシステム制御部101は、表示対象の画像群を選択し、所定の配置規則に基づいて各画像の表示位置及びサイズを決定し、配置態様の情報を構成する。画像処理部107は、該情報を受信すると、システム制御部101の制御の下、以下のS303乃至S306の処理を実行する。なお、本実施形態では発明の理解を簡潔にすべく、表示対象の画像群はいずれもHDR画像であるものとし、表現可能な階調範囲に差異はないものとして説明する。 In S302, the system control unit 101 selects an image group to be displayed and configures information on the arrangement mode thereof, and transmits information for specifying the image group to be displayed and information on the arrangement mode to the image processing unit 107. .. More specifically, the system control unit 101 selects an image group to be displayed, determines the display position and size of each image based on a predetermined arrangement rule, and constitutes information on the arrangement mode. Upon receiving the information, the image processing unit 107 executes the following processes S303 to S306 under the control of the system control unit 101. In the present embodiment, in order to simplify the understanding of the invention, it is assumed that all the image groups to be displayed are HDR images, and there is no difference in the gradation range that can be expressed.

S303で、画像処理部107の取得部201は、受信した情報に基づいて表示対象の画像を記録媒体108から読み出して取得する。読み出された画像は、例えばRAM103や画像処理部107が有する不図示の画像メモリに展開されるものであってよい。 In S303, the acquisition unit 201 of the image processing unit 107 reads out the image to be displayed from the recording medium 108 and acquires it based on the received information. The read image may be expanded into, for example, an image memory (not shown) included in the RAM 103 or the image processing unit 107.

S304で、画像処理部107は、表示対象の画像についてマップ構成処理を実行し、影響マップを構成する。 In S304, the image processing unit 107 executes a map configuration process for the image to be displayed to configure an influence map.

〈マップ構成処理〉
ここで、本ステップで実行されるマップ構成処理について、さらに図4のフローチャートを参照して詳細を説明する。なお、以下の例では、配置態様の情報は、図5(a)に示されるような配置態様で各画像が画面に配置されることを記述しているものとして説明する。
<Map configuration processing>
Here, the map configuration process executed in this step will be described in detail with reference to the flowchart of FIG. In the following example, the information on the arrangement mode will be described as describing that each image is arranged on the screen in the arrangement mode as shown in FIG. 5A.

S401で、分離部211は、表示対象の画像群の各々を、明るさ成分の画像と色成分画像とに分離する。より詳しくは分離部211は、表示対象の画像であるHDR画像を、人間の視覚特性を考慮したICtCp色空間に変換することで、明るさ成分画像(I画像)と色成分画像(Ct画像、Cp画像)とに分離する。 In S401, the separation unit 211 separates each of the image groups to be displayed into a brightness component image and a color component image. More specifically, the separation unit 211 converts the HDR image, which is the image to be displayed, into an ICtCp color space in consideration of human visual characteristics, thereby converting the brightness component image (I image) and the color component image (Ct image,). Cp image) and separate.

S402で、評価部202は、表示対象の画像群のうちから、評価値を未導出の画像を処理対象の画像(対象画像)として選択する。対象画像の選択順序はいずれであってもよく、表示対象の画像の全てについて本ステップで順に選択する。 In S402, the evaluation unit 202 selects an image whose evaluation value has not been derived from the image group to be displayed as the image to be processed (target image). The selection order of the target images may be any, and all the images to be displayed are selected in order in this step.

S403で、導出部212は、S402において選択された対象画像について視覚的な対比効果の影響を示す評価値を導出する。ここで、視覚的な対比効果の影響とは、1つの画面に配置して表示する場合に、対象画像の周辺に近接して配置される画像との対比で対象画像の視認性に生じる影響(暗く見える、色がにじむ等)を示す。本実施形態では、視覚的な対比効果の影響を定量的に評価すべく、導出部212は、画像間の明るさの差(平均輝度の差)、画像間の位置関係(画面配置時の中心間距離)及び画像間の表示サイズの比率について評価値の導出を行う。しかしながら、画像間に表れる視覚的な対比効果の影響は、これらの項目に限り評価されるものでなくてよい。 In S403, the derivation unit 212 derives an evaluation value indicating the influence of the visual contrast effect on the target image selected in S402. Here, the effect of the visual contrast effect is the effect that occurs on the visibility of the target image in comparison with the image arranged close to the periphery of the target image when the images are arranged and displayed on one screen (the effect of the visual contrast effect). It looks dark, the color bleeds, etc.). In the present embodiment, in order to quantitatively evaluate the influence of the visual contrast effect, the derivation unit 212 describes the difference in brightness between images (difference in average brightness) and the positional relationship between images (center when the screen is arranged). The evaluation value is derived for the ratio of the display size between the images and the distance). However, the effect of the visual contrast effect that appears between the images need not be evaluated only for these items.

またこれらの評価値の導出は、対象画像について、該対象画像の周辺に近接して配置される全ての画像のうちの、最大の平均輝度を示す画像(以下、最大輝度画像)との関係において行われるものとして以下では説明する。これは、最大輝度画像と対象画像との間で視覚的な対比効果の影響が最も強く表れるからである。しかしながら、本発明の実施はこれに限られるものではなく、各項目に係る対象画像の評価値は、該対象画像と最大輝度画像との関係について導出されるものに限られず、対象画像の周辺に配置される他の画像との関係について導出されるものであってもよい。なお、本実施形態では、周辺に配置される画像は、生成する画面において、対象画像(矩形)の辺または頂点に隣接して配置される画像、として定義する。しかしながら、1つの画面に複数の画像を配置して同時表示する態様における、任意の画像の周辺に配置される画像の定義は、適宜変更されるものであってよい。 Further, the derivation of these evaluation values is based on the relationship between the target image and the image showing the maximum average brightness (hereinafter referred to as the maximum brightness image) among all the images arranged close to the periphery of the target image. It will be described below as what is done. This is because the influence of the visual contrast effect between the maximum luminance image and the target image appears most strongly. However, the implementation of the present invention is not limited to this, and the evaluation value of the target image according to each item is not limited to the one derived from the relationship between the target image and the maximum luminance image, and is around the target image. It may be derived from the relationship with other images to be arranged. In the present embodiment, the image arranged in the periphery is defined as an image arranged adjacent to the side or the apex of the target image (rectangle) on the generated screen. However, in the embodiment in which a plurality of images are arranged on one screen and displayed at the same time, the definition of the image arranged around any image may be changed as appropriate.

以下、配置態様の情報が図5(a)のような画面構成を示し、画面中の501で示される画像が対象画像である場合の、該対象画像に係る各種評価値の導出方法について例示する。ここでは、配置態様の情報が図5(a)のような画面構成を示す場合について、実際に表示部109に表示される画面ではなく、図6に示すような画面と同サイズの平均輝度マップを用いて各種評価値を導出する。しかしながら、各種評価値の導出に際して平均輝度マップの構成が必須ではないことは言うまでもない。 Hereinafter, when the information of the arrangement mode shows the screen configuration as shown in FIG. 5A and the image shown by 501 in the screen is the target image, a method of deriving various evaluation values related to the target image will be exemplified. .. Here, when the information on the arrangement mode shows the screen configuration as shown in FIG. 5A, the average luminance map having the same size as the screen shown in FIG. 6 is not the screen actually displayed on the display unit 109. Various evaluation values are derived using. However, it goes without saying that the configuration of the average luminance map is not essential when deriving various evaluation values.

対象画像と最大輝度画像の明るさの差に係る評価値Eaは、最大輝度画像の明るさ画像全体の平均輝度値と対象輝度の明るさ画像全体の平均輝度値の差として導出される。生成する画面に配置する画像の平均輝度が図6(a)に示される平均輝度マップのように分布する場合、最大輝度画像は対象画像の画面下方に配置される画像となる。図の例では、対象画像に対応する領域601には、該領域の辺または頂点を介して接する領域は4種類存在し、このうち平均輝度が最も高い700nitを示す領域602に対応する画像が最大輝度画像となる。このとき、領域601の平均輝度をIi、領域602の平均輝度をIi+1とすると、明るさの差に係る評価値Eaは、
i+1−Ii=700−80=620
となる。
Evaluation value E a of the difference in brightness of the target image and the maximum brightness image is derived as the difference in brightness of the entire image the average brightness value of the average luminance value and the target luminance of the entire brightness image of maximum brightness image. When the average luminance of the image arranged on the generated screen is distributed as in the average luminance map shown in FIG. 6A, the maximum luminance image is an image arranged at the lower part of the screen of the target image. In the example of the figure, in the region 601 corresponding to the target image, there are four types of regions that are in contact with each other via the sides or vertices of the region, and the image corresponding to the region 602 showing the highest average brightness of 700 nit is the largest. It becomes a luminance image. At this time, assuming that the average brightness of the area 601 is I i and the average brightness of the area 602 is I i + 1 , the evaluation value E a related to the difference in brightness is.
I i + 1 −I i = 700-80 = 620
Will be.

対象画像と最大輝度画像の位置関係に係る評価値Ebは、生成する画面における対象画像と最大輝度画像の中心(撮像画像の場合は光軸中心)座標の距離として導出される。これは、最大輝度画像と対象画像との視覚的な対比効果の影響が、画面上でのこれら画像の距離が小さいほど強く表れることによる。生成する画面に対応する平均輝度マップが図6(a)のとおりである場合、評価の対象は図6(b)に示されるように、領域601の中心座標611と領域602の中心座標612との間の該マップにおける距離となる。このとき、中心座標611の座標を(xi,yi)、中心座標612の座標を(xi+1,yi+1)とすると、位置関係に係る評価値Ebは、

Figure 2021189788
で導出できる。 The evaluation value E b related to the positional relationship between the target image and the maximum luminance image is derived as the distance between the coordinates of the center of the target image and the maximum luminance image (in the case of the captured image, the center of the optical axis) on the generated screen. This is because the influence of the visual contrast effect between the maximum luminance image and the target image appears stronger as the distance between these images on the screen becomes smaller. When the average luminance map corresponding to the generated screen is as shown in FIG. 6 (a), the evaluation targets are the center coordinates 611 of the region 601 and the center coordinates 612 of the region 602 as shown in FIG. 6 (b). The distance in the map between. At this time, assuming that the coordinates of the center coordinates 611 are (x i , y i ) and the coordinates of the center coordinates 612 are (x i + 1 , y i + 1 ), the evaluation value E b related to the positional relationship is
Figure 2021189788
Can be derived with.

対象画像と最大輝度画像の表示サイズの比率に係る評価値Ecは、生成する画面における最大輝度画像の表示サイズ(面積、画素数)に対する対象画像の表示サイズ(面積、画素数)の比率として導出される。これは、最大輝度画像と対象画像との視覚的な対比効果の影響が、対象画像の面積が相対的に小さいほど強く表れることによる。生成する画面に対応する平均輝度マップが図6(a)のとおりである場合、対象画像が配置される領域601の面積をSi、最大輝度画像が配置される領域602の面積をSi+1とすると、表示サイズの比率に係る評価値Ecは、
c=Si/Si+1
で導出できる。例えば、画面に配置される際の対象画像と最大輝度画像の画素数が図6(c)のようである場合、表示サイズの比率に係る評価値Ecは1となる。
Evaluation value E c of the ratio of the display size of the target image and the maximum brightness image, as a ratio of the display size of the target image to the display size of the maximum brightness image (area, number of pixels) in the resulting window (area, number of pixels) Derived. This is because the influence of the visual contrast effect between the maximum luminance image and the target image appears stronger as the area of the target image is relatively smaller. When the average luminance map corresponding to the generated screen is as shown in FIG. 6A, the area of the area 601 in which the target image is arranged is S i , and the area of the area 602 in which the maximum luminance image is arranged is S i +. Assuming 1 , the evaluation value E c related to the display size ratio is
E c = S i / S i + 1
Can be derived with. For example, when the number of pixels of the target image and the maximum luminance image when arranged on the screen is as shown in FIG. 6 (c), the evaluation value E c related to the ratio of the display size is 1.

S404で、マップ構成部213は、対象画像と最大輝度画像とについてS403で導出された評価値に基づいて、生成する画面に配置する際の対象画像の補正量を導出する。本実施形態のデジタルカメラ100では、表示対象の各画像についての視覚的な対比効果の影響を低減する補正を後述の表示処理のS305で一括して行うため、本マップ構成処理では上述した影響マップの構成を行う。影響マップは、表示輝度マップと同様に生成する画面と同サイズで、かつ、該画面における表示対象の各画像の配置位置と対応する領域に、該画像の補正量を格納した二次元情報である。従って、マップ構成部213は、例えばRAM103に設けられた影響マップの展開領域の対象画像に対応する領域の画素値として、導出した補正量を格納する。 In S404, the map component unit 213 derives the correction amount of the target image when it is arranged on the screen to be generated, based on the evaluation values derived in S403 for the target image and the maximum luminance image. In the digital camera 100 of the present embodiment, since the correction for reducing the influence of the visual contrast effect on each image to be displayed is collectively performed by S305 of the display processing described later, the influence map described above is performed in the map configuration processing. Make the configuration of. The influence map is two-dimensional information having the same size as the screen to be generated like the display luminance map and storing the correction amount of the image in the area corresponding to the arrangement position of each image to be displayed on the screen. .. Therefore, the map configuration unit 213 stores the derived correction amount as the pixel value of the area corresponding to the target image in the development area of the influence map provided in the RAM 103, for example.

ここで、対象画像の補正量の導出方法について図7を用いて説明する。本実施形態のデジタルカメラ100では、1つの対象画像についての補正量は、該対象画像について最大輝度画像との関係で導出した3種類の評価値に基づいてそれぞれ導出される。対象画像と最大輝度画像との関係で導出した評価値の各々について、マップ構成部213は、予め定められた関数に基づいて補正量を導出する。本実施形態では補正量は、対象画像の明るさ成分(I)の値を変更する加算値(gain)として表されるものとして説明するが、本発明の実施はこれに限られるものではない。例えば、補正量は所定の係数であり、乗算することで補正が行われるものであってもよい。 Here, a method of deriving the correction amount of the target image will be described with reference to FIG. 7. In the digital camera 100 of the present embodiment, the correction amount for one target image is derived based on three types of evaluation values derived in relation to the maximum luminance image for the target image. For each of the evaluation values derived in relation to the target image and the maximum luminance image, the map component unit 213 derives a correction amount based on a predetermined function. In the present embodiment, the correction amount is described as being represented as an additional value (gain) for changing the value of the brightness component (I) of the target image, but the embodiment of the present invention is not limited to this. For example, the correction amount is a predetermined coefficient, and the correction may be performed by multiplying.

周辺に配置される画像との平均輝度の差が大きいほど視覚的な対比効果の影響が強くなるため、明るさに係る関数は、図7(a)に示されるように明るさの差に係る評価値Eaが大きくなるほど大きい補正量gainaを出力する傾向を示す。また周辺に配置される画像との距離が短いほど視覚的な対比効果の影響が強くなるため、距離に係る関数は、図7(b)に示されるように位置関係に係る評価値Ebが小さいほど大きい補正量gainbを出力する傾向を示す。また周辺に配置される画像との面積比が小さい、即ち、最大輝度画像の面積の方が大きいほど視覚的な対比効果の影響が強くなるため、面積比に係る関数は、図7(c)に示されるように表示サイズの比率に係る評価値Ecが小さいほど大きい補正量gaincを出力する傾向を示す。 The larger the difference in average brightness from the images arranged in the periphery, the stronger the effect of the visual contrast effect. Therefore, the function related to brightness is related to the difference in brightness as shown in FIG. 7 (a). The larger the evaluation value E a is, the larger the correction amount gain a tends to be output. Further, the shorter the distance from the images arranged in the periphery, the stronger the influence of the visual contrast effect. Therefore, the function related to the distance has an evaluation value E b related to the positional relationship as shown in FIG. 7 (b). The smaller the value, the larger the correction amount gain b tends to be output. Further, the smaller the area ratio with the image arranged in the periphery, that is, the larger the area of the maximum luminance image, the stronger the influence of the visual contrast effect. Therefore, the function related to the area ratio is shown in FIG. 7 (c). As shown in, the smaller the evaluation value E c related to the ratio of the display size, the larger the correction amount gain c tends to be output.

さらに表示対象の画像群を同時表示する際に生じる視覚的な対比効果の影響は、対象画像とその周辺に配置される画像との間の輝度差、距離、面積比に応じて生じるものだけでなく、該対象画像の平均輝度に応じても生じる。換言すれば、対象画像が暗いほど視覚的な対比効果の影響が強くなる可能性が高いため、対象画像そのものの平均輝度に係る関数は、図7(d)に示されるように、該平均輝度が小さいほど大きい補正量gaindを出力する傾向を示す。 Furthermore, the effect of the visual contrast effect that occurs when the image groups to be displayed at the same time is displayed only depends on the brightness difference, distance, and area ratio between the target image and the images arranged around it. It does not occur even if it depends on the average brightness of the target image. In other words, the darker the target image, the stronger the influence of the visual contrast effect. Therefore, the function related to the average brightness of the target image itself is the average brightness as shown in FIG. 7 (d). The smaller the value, the larger the correction amount gain d tends to be output.

マップ構成部213は、このように導出された4種類の補正量に基づいて最終的な補正量Mapcombを決定し、影響マップの対象画像に対応する領域の画素値として格納する。最終的な補正量Mapcombは、例えば予備的に導出する補正量の数n(本実施形態では4)を用いて、

Figure 2021189788
で導出されるものであってよい。なお、画像間、または対象画像そのものについて行った複数の評価結果に基づく補正量は、このように複数の補正量の平均化によって導出されるものである必要はなく、重み付け加算等、異なる手法で導出されるものであってよい。 The map component unit 213 determines the final correction amount Map comb based on the four types of correction amounts derived in this way, and stores it as the pixel value of the region corresponding to the target image of the influence map. The final correction amount Map comb uses, for example, the number n of correction amounts to be derived in advance (4 in this embodiment).
Figure 2021189788
It may be derived from. It should be noted that the correction amount based on the results of multiple evaluations performed between images or the target image itself does not have to be derived by averaging the plurality of correction amounts in this way, and a different method such as weighting addition may be used. It may be derived.

S405で、画像処理部107は、対象画像として未選択の画像が表示対象の画像群に存在するか否かを判断する。画像処理部107は、対象画像として未選択の画像が表示対象の画像群に存在すると判断した場合は処理をS402に戻し、存在しないと判断した場合は本マップ構成処理を完了する。このようにすることで、生成する画面の各領域について補正量を格納した、図5(b)に示されるような影響マップを構成することができる。図の例では、補正量の大きさによって画素値が変化しており、補正を行わない領域を黒(0)とし、補正での加算値が大きいほど白に近い色を示すよう構成されている。 In S405, the image processing unit 107 determines whether or not an unselected image as the target image exists in the image group to be displayed. If the image processing unit 107 determines that an unselected image as the target image exists in the image group to be displayed, the process returns to S402, and if it determines that the image does not exist, the image processing unit 107 completes the map configuration process. By doing so, it is possible to construct an influence map as shown in FIG. 5B, which stores the correction amount for each area of the generated screen. In the example of the figure, the pixel value changes depending on the size of the correction amount, and the area where the correction is not performed is set to black (0), and the larger the addition value in the correction, the closer the color is to white. ..

マップ構成処理が終了すると、画像処理部107の補正部203は表示処理のS305で、構成された影響マップに基づいて表示対象の各画像を補正する。より詳しくは、補正部203は、表示対象の各画像について、影響マップ中の該画像に対応する領域を参照し、該領域の画素値Mapcombを各画像の明るさ成分に加算することで補正を行う。例えば、1つの画像の座標(x,y)の明るさ成分の信号値I’(x,y)は、同補正前の信号値I(x,y)を用いて、
I’(x,y)=I(x,y)+Mapcomb
で導出できる。
When the map configuration process is completed, the correction unit 203 of the image processing unit 107 corrects each image to be displayed based on the configured influence map in S305 of the display process. More specifically, the correction unit 203 refers to the area corresponding to the image in the influence map for each image to be displayed , and corrects by adding the pixel value Map comb of the area to the brightness component of each image. I do. For example, the signal value I'(x, y) of the brightness component of the coordinates (x, y) of one image is set by using the signal value I (x, y) before the correction.
I'(x, y) = I (x, y) + Map comb
Can be derived with.

S306で、画像処理部107の生成部204は、補正後の表示対象の画像群を配置態様の情報に基づいて配列した画面を生成する。そしてシステム制御部101はS307で、該生成された画面を表示部109に表示するよう制御し、処理をS301に戻す。 In S306, the generation unit 204 of the image processing unit 107 generates a screen in which the corrected image group to be displayed is arranged based on the information of the arrangement mode. Then, the system control unit 101 controls in S307 to display the generated screen on the display unit 109, and returns the process to S301.

以上説明したように、本実施形態の画像処理装置によれば、同時表示する複数の画像について、それらの配置態様に応じて画像間に生じる視覚的な対比効果の影響を低減させた状態で表示させるよう制御することができる。 As described above, according to the image processing apparatus of the present embodiment, a plurality of images to be simultaneously displayed are displayed in a state where the influence of the visual contrast effect generated between the images is reduced according to their arrangement mode. It can be controlled to cause.

なお、本実施形態では表示対象の画像群がいずれもHDR画像であるものとして説明したが、本発明の実施はこれに限られるものではない。表示対象の画像群は、例えばHDR画像に加え、SDR画像が含まれるものであってもよい。この場合、HDR画像とSDR画像は、前者がBT.2100記載のPQガンマ及びBT2020の色空間で現像されており、後者がsRGBガンマ及びsRGB色域の色空間で現像されている点で異なっている。従って、例えば表現される輝度の値範囲が異なっており、HDR画像とSDR画像とを単純に比較することができないため、平均輝度の差を導出する際に、SDR画像をHDR画像で用いられているガンマと色空間に変換すればよい。 In the present embodiment, it has been described that all the image groups to be displayed are HDR images, but the implementation of the present invention is not limited to this. The image group to be displayed may include, for example, an SDR image in addition to the HDR image. In this case, the HDR image and the SDR image have the former BT. It differs in that it is developed in the color spaces of PQ gamma and BT2020 described in 2100, and the latter is developed in the color spaces of sRGB gamma and sRGB color gamut. Therefore, for example, since the value range of the expressed brightness is different and the HDR image and the SDR image cannot be simply compared, the SDR image is used as the HDR image when deriving the difference in the average brightness. All you have to do is convert it to the existing gamma and color space.

また本実施形態では表示対象の画像群について、明るさ成分I(明度、輝度)の大小に基づいて視覚的な対比効果の影響を評価する方法について説明したが、本発明の実施はこれに限られるものではない。例えば色成分Ct、Cpから彩度(色味)に係る色情報を導出し、該色情報に基づいて評価を行うものとしてもよい。またこれらの双方を用いて評価を行うものとしてもよい Further, in the present embodiment, a method of evaluating the influence of the visual contrast effect on the image group to be displayed based on the magnitude of the brightness component I (brightness, luminance) has been described, but the embodiment of the present invention is limited to this. It is not something that can be done. For example, color information related to saturation (taste) may be derived from the color components Ct and Cp, and evaluation may be performed based on the color information. Further, the evaluation may be performed using both of these.

また本実施形態では画像間に生じる視覚的な対比効果の影響の評価値として、明るさの差、表示サイズの比率を用いるものとして説明したが、本発明の実施において、画像間の差異を評価するにあたり、差、比率のいずれを用いてもよいことは言うまでもない。即ち、画像間の明るさの差異の評価は、2つの画像間の明るさの差または比率に基づいて行われるものであってよいし、表示サイズについても同様である。 Further, in the present embodiment, the difference in brightness and the ratio of the display size are used as the evaluation value of the influence of the visual contrast effect generated between the images. However, in the embodiment of the present invention, the difference between the images is evaluated. Needless to say, either the difference or the ratio may be used. That is, the evaluation of the difference in brightness between the images may be performed based on the difference or ratio of the brightness between the two images, and the same applies to the display size.

また本実施形態では表示対象の画像群の全てを対象画像として選択し、これら画像の全てについて補正量を導出する態様について説明したが、本発明の実施はこれに限られるものではない。例えば、同時表示される画像群のうちから、カーソルや枠等によって1つの画像をユーザが選択可能に構成されている場合、選択された画像についてのみ視覚的な対比効果の影響を低減するよう補正するものであってもよい。 Further, in the present embodiment, an embodiment in which all the image groups to be displayed are selected as the target images and the correction amount is derived for all of these images has been described, but the embodiment of the present invention is not limited to this. For example, if one image is configured so that the user can select one image from the images displayed at the same time by a cursor, a frame, etc., the correction is made so as to reduce the influence of the visual contrast effect only on the selected image. It may be something to do.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiment, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to publicize the scope of the invention.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:デジタルカメラ、101:システム制御部、102:ROM、103:RAM、107:画像処理部、109:表示部、201:取得部、202:評価部、203:補正部、204:生成部、211:分離部、212:導出部、213:マップ構成部 100: Digital camera, 101: System control unit, 102: ROM, 103: RAM, 107: Image processing unit, 109: Display unit, 201: Acquisition unit, 202: Evaluation unit, 203: Correction unit, 204: Generation unit, 211: Separation unit, 212: Derivation unit, 213: Map configuration unit

Claims (12)

画面に同時表示する複数の画像とその配置態様の情報を取得する取得手段と、
前記配置態様の情報に基づいて、前記取得手段により取得された前記複数の画像を同時表示する際に表れる画像間の視覚的な対比効果の影響を評価する評価手段と、
前記評価手段による評価結果に基づいて、前記複数の画像それぞれについて前記視覚的な対比効果の影響を低減する補正量を導出する導出手段と、
を有することを特徴とする画像処理装置。
An acquisition means for acquiring information on a plurality of images to be displayed simultaneously on the screen and their arrangement modes,
An evaluation means for evaluating the influence of a visual contrast effect between images appearing when the plurality of images acquired by the acquisition means are simultaneously displayed based on the information of the arrangement mode, and an evaluation means.
A derivation means for deriving a correction amount for reducing the influence of the visual contrast effect for each of the plurality of images based on the evaluation result by the evaluation means.
An image processing apparatus characterized by having.
前記評価手段は、前記複数の画像のうちの、近接して配置される画像間の明るさ及び色味の少なくともいずれかの差または比率に基づいて評価を行うことを特徴とする請求項1に記載の画像処理装置。 The first aspect of the present invention is characterized in that the evaluation means performs evaluation based on at least one difference or ratio of brightness and color between images arranged in close proximity to the plurality of images. The image processing device described. 前記評価手段は、前記複数の画像のうちの、近接して配置される画像間の前記画面における距離に基づいて評価を行うことを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the evaluation means performs evaluation based on a distance on the screen between images arranged in close proximity to the plurality of images. 前記評価手段は、前記複数の画像のうちの、近接して配置される画像間の表示サイズの差または比率に基づいて評価を行うことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The evaluation means according to any one of claims 1 to 3, wherein the evaluation means performs evaluation based on a difference or ratio of display sizes between images arranged in close proximity to the plurality of images. The image processing device described. 前記評価手段は、前記複数の画像それぞれの明るさに基づいて評価を行うことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the evaluation means performs evaluation based on the brightness of each of the plurality of images. 前記評価手段は、前記複数の画像のそれぞれについて、該画像と、該画像に近接して配置される画像のうちの最大の平均輝度を示す画像とに基づいて評価を行うことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The evaluation means is characterized in that each of the plurality of images is evaluated based on the image and the image showing the maximum average brightness among the images arranged close to the image. Item 6. The image processing apparatus according to any one of Items 1 to 5. 前記導出手段により導出された補正量に基づいて、前記複数の画像を補正する補正手段をさらに有することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, further comprising a correction means for correcting the plurality of images based on the correction amount derived by the derivation means. 前記補正手段により補正された前記複数の画像を前記配置態様の情報に基づいて配列することで、前記画面を生成する生成手段をさらに有することを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, further comprising a generation means for generating the screen by arranging the plurality of images corrected by the correction means based on the information of the arrangement mode. 前記生成手段により生成された前記画面を表示する表示手段をさらに有することを特徴とする請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, further comprising a display means for displaying the screen generated by the generation means. 撮像手段と、
請求項1乃至9のいずれか1項に記載の画像処理装置と、
を有し、
前記画像処理装置の前記取得手段が、前記撮像手段により撮像された画像を取得する
ことを特徴とする撮像装置。
Imaging means and
The image processing apparatus according to any one of claims 1 to 9.
Have,
An image pickup device characterized in that the acquisition means of the image processing device acquires an image captured by the image pickup means.
画面に同時表示する複数の画像とその配置態様の情報を取得する取得工程と、
前記配置態様の情報に基づいて、前記取得工程において取得された前記複数の画像を同時表示する際に表れる画像間の視覚的な対比効果の影響を評価する評価工程と、
前記評価工程における評価結果に基づいて、前記複数の画像それぞれについて前記視覚的な対比効果の影響を低減する補正量を導出する導出工程と、
を有することを特徴とする画像処理装置の制御方法。
An acquisition process for acquiring information on multiple images to be displayed simultaneously on the screen and their arrangement modes,
An evaluation step for evaluating the influence of a visual contrast effect between images appearing when the plurality of images acquired in the acquisition step are simultaneously displayed based on the information of the arrangement mode, and an evaluation step.
Based on the evaluation results in the evaluation step, a derivation step of deriving a correction amount for reducing the influence of the visual contrast effect for each of the plurality of images, and a derivation step.
A method for controlling an image processing apparatus, which comprises.
コンピュータを、請求項1乃至9のいずれか1項に記載の画像処理装置の各手段として機能させるプログラム。 A program that causes a computer to function as each means of the image processing apparatus according to any one of claims 1 to 9.
JP2020094910A 2020-05-29 2020-05-29 Image processing apparatus, imaging apparatus, control method, and program Pending JP2021189788A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020094910A JP2021189788A (en) 2020-05-29 2020-05-29 Image processing apparatus, imaging apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020094910A JP2021189788A (en) 2020-05-29 2020-05-29 Image processing apparatus, imaging apparatus, control method, and program

Publications (2)

Publication Number Publication Date
JP2021189788A true JP2021189788A (en) 2021-12-13
JP2021189788A5 JP2021189788A5 (en) 2023-06-06

Family

ID=78849778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020094910A Pending JP2021189788A (en) 2020-05-29 2020-05-29 Image processing apparatus, imaging apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP2021189788A (en)

Similar Documents

Publication Publication Date Title
US7415166B2 (en) Image processing device
US9538085B2 (en) Method of providing panoramic image and imaging device thereof
JP5672796B2 (en) Image processing apparatus and image processing method
CN101090457A (en) Apparatus and method to generate image
US20110311159A1 (en) Image processing apparatus, image processing method, and recording medium recording a program
WO2019124289A1 (en) Device, control method, and storage medium
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2017143354A (en) Image processing apparatus and image processing method
JPH10336494A (en) Digital camera with zoom display function
JP5950755B2 (en) Image processing apparatus, control method, program, and storage medium
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
US20210400207A1 (en) Imaging apparatus, method of controlling imaging apparatus and computer-readable medium
JP2004287794A (en) Image processor
JP2021189788A (en) Image processing apparatus, imaging apparatus, control method, and program
JP2016076771A (en) Imaging device
JP5284183B2 (en) Image processing apparatus and method
JP2008219230A (en) Imaging apparatus, and image processing method
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2004072297A (en) Image pickup device
WO2020084894A1 (en) Multi-camera system, control value calculation method and control device
JP5705027B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium
JP2011151597A (en) Apparatus and program for processing image, and electronic camera
JP5417920B2 (en) Image processing apparatus, image processing method, electronic camera, and image processing program
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP6025555B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401