JP5459072B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5459072B2
JP5459072B2 JP2010120221A JP2010120221A JP5459072B2 JP 5459072 B2 JP5459072 B2 JP 5459072B2 JP 2010120221 A JP2010120221 A JP 2010120221A JP 2010120221 A JP2010120221 A JP 2010120221A JP 5459072 B2 JP5459072 B2 JP 5459072B2
Authority
JP
Japan
Prior art keywords
image
thumbnail
feature
image data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010120221A
Other languages
Japanese (ja)
Other versions
JP2011248566A (en
Inventor
善亮 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010120221A priority Critical patent/JP5459072B2/en
Publication of JP2011248566A publication Critical patent/JP2011248566A/en
Application granted granted Critical
Publication of JP5459072B2 publication Critical patent/JP5459072B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関し、特に、複数の画像が1画面内に一覧表示される場合に、各々の画像処理の内容及び全体像をユーザが容易に把握することを可能とする技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and in particular, when a plurality of images are displayed in a list on one screen, the user can easily grasp the contents and overall image of each image processing. It relates to technology that makes it possible.

近年、鑑賞用の画像を表示するデジタルフォトフレーム(以下、単に「フォトフレーム」と呼ぶ)が登場してきた。即ち、ユーザは、フォトフレームを用いて、多数の画像の中から所望の画像を選択する操作をすることで、当該所望の画像を鑑賞することができる。   In recent years, digital photo frames (hereinafter simply referred to as “photo frames”) that display images for viewing have appeared. That is, the user can appreciate the desired image by performing an operation of selecting the desired image from a large number of images using the photo frame.

フォトフレームは、このような画像の選択操作を支援すべく、表示対象の候補となる複数の画像を縮小して一覧表示する機能を有している場合が多い。
このように、一覧表示するために元の画像が縦横均等に縮小された縮小画像を含む、解像度(サイズ)が固定された画像を、以下、「サムネイル画像」と呼ぶ。また、サムネイル画像に含まれる縮小画像の元の画像を、以下、「原画像」と呼ぶ。
なお、縮小画像そのものがサムネイル画像となるとは限らない。原画像とサムネイル画像との画面アスペクト比が異なる場合には、原画像と同一の画面アスペクト比を有する縮小画像に対して、余白領域が付加されて画面アスペクト比が調整された画像が、サムネイル画像として用いられるからである。
In many cases, a photo frame has a function of reducing a plurality of images that are candidates for display to display a list in order to support such an image selection operation.
In this way, an image having a fixed resolution (size) including a reduced image obtained by reducing the original image evenly in the vertical and horizontal directions for list display is hereinafter referred to as a “thumbnail image”. In addition, the original image of the reduced image included in the thumbnail image is hereinafter referred to as “original image”.
Note that the reduced image itself is not necessarily a thumbnail image. When the screen aspect ratio of the original image is different from that of the thumbnail image, an image in which a margin area is added to the reduced image having the same screen aspect ratio as the original image and the screen aspect ratio is adjusted is a thumbnail image. It is because it is used as.

図7は、サムネイル画像の一例を示している。
フォトフレームは、その画面500内に、10枚ものサムネイル画像511乃至520を一覧表示させることができる。ここで、「画面」とは、デジタルフォトフレーム等の表示装置又は装置が有する表示部の表示領域全体に表示される画像をいう。
FIG. 7 shows an example of a thumbnail image.
The photo frame can display a list of ten thumbnail images 511 to 520 in the screen 500. Here, the “screen” refers to an image displayed on the entire display area of a display unit such as a digital photo frame or a display unit included in the device.

フォトフレームの表示対象の候補となる画像データの中には、階調処理や、絵画調の画像に変換する画調変換処理等、各種各様の画像処理が施されているものも存在する。このため、表示対象の候補となる画像データに画像処理が施されている場合、その画像処理の内容を把握した上で、表示対象の画像データを選択したという要望が近年挙げられている。   Some image data that are candidates for display of a photo frame have been subjected to various types of image processing such as gradation processing and image-tone conversion processing for conversion into a painting-like image. For this reason, when image processing is applied to image data that is a candidate for display target, there has recently been a demand for selecting image data to be displayed after grasping the contents of the image processing.

このため、特許文献1には、画像処理等の履歴を示す文字情報やアイコンを画像に重畳して表示する手法(以下、「特許文献1の手法」と呼ぶ)が開示されている。このような特許文献1の手法を適用することで、デジタルフォトフレームの画面全体に1枚の画像のみが表示されているときには、ユーザは、当該1枚の画像に重畳された文字情報やアイコンを視認することで、当該1枚の画像の画像データに対して施された画像処理の内容を容易に把握することができる。   For this reason, Patent Document 1 discloses a technique (hereinafter referred to as “Method of Patent Document 1”) in which character information and icons indicating a history of image processing and the like are superimposed on an image and displayed. By applying such a method of Patent Document 1, when only one image is displayed on the entire screen of the digital photo frame, the user can display character information or an icon superimposed on the one image. By visually recognizing, it is possible to easily grasp the contents of the image processing performed on the image data of the one image.

特開2008−42473号公報JP 2008-42473 A

しかしながら、特許文献1の手法を適用しても、フォトフレームの1画面内に複数のサムネイル画像が一覧表示されているときには、当該複数のサムネイル画像の各々に重畳される文字情報やアイコンは、非常に小さく表示される。このように非常に小さい文字情報やアイコンを視認することは、ユーザにとって非常に困難である。
また、サムネイル画像に含まれている原画像の縮小画像をみて、原画像内に存在する小さな違いを判断することも、ユーザにとって非常に困難である。
このため、ユーザにとっては、サムネイル画像を用いて、画像処理の内容を把握することは非常に困難である。
However, even if the method of Patent Document 1 is applied, when a plurality of thumbnail images are displayed in a list on one screen of a photo frame, character information and icons superimposed on each of the plurality of thumbnail images are extremely Appears small. It is very difficult for the user to visually recognize such very small character information and icons.
In addition, it is very difficult for the user to determine a small difference existing in the original image by looking at the reduced image of the original image included in the thumbnail image.
For this reason, it is very difficult for a user to grasp the contents of image processing using thumbnail images.

なお、原画像内に存在する小さな違いを判断することの困難性を緩和するだけならば、原画像に含まれる顔を認識し、認識された顔の画像のみをサムネイル画像とする、といった従来の手法を適用すればよい。しかしながら、当該従来の手法を適用すると、ユーザにとっては、原画像の全体像が分からなくなり、表示対象を選択するという本来の目的を達成することが困難になってしまう。   In order to alleviate the difficulty of determining small differences existing in the original image, the conventional method of recognizing the face included in the original image and using only the recognized face image as the thumbnail image is used. A method may be applied. However, when the conventional method is applied, it becomes difficult for the user to achieve the original purpose of selecting a display target because the user does not know the whole image of the original image.

本発明は、このような状況に鑑みなされたものであり、複数の画像が1画面内に一覧表示される場合に、各々の画像処理の内容(画像処理が施されてないという内容含む)及び全体像をユーザが容易に把握できるようにすることを目的とする。   The present invention has been made in view of such a situation. When a plurality of images are displayed in a list on one screen, the content of each image processing (including the content that the image processing has not been performed) and The purpose is to allow the user to easily grasp the whole picture.

本発明の一態様によると、
原画像の縮小画像に対して余白領域が付加されたサムネイル画像の画像データの中から、処理対象を決定する決定手段と、
前記決定手段により決定された処理対象に対応する前記原画像の画像データから、前記原画像の特徴領域の少なくとも一部を含む画像であって、前記サムネイル画像と同一解像度の画像の画像データを、特徴画像の画像データとして抽出する特徴画像抽出手段と、
前記特徴画像と前記サムネイル画像とを合成する合成処理を、前記決定手段により処理対象として決定された前記サムネイル画像のデータ及び前記特徴画像抽出手段により抽出された前記特徴画像の画像データに施すことによって、前記サムネイル画像の前記余白領域に前記特徴画像が重畳された合成サムネイル画像の画像データを生成する画像合成手段と、
を備える画像処理装置を提供する。
According to one aspect of the invention,
Determining means for determining a processing target from image data of thumbnail images in which a blank area is added to a reduced image of the original image;
From the image data of the original image corresponding to the processing target determined by the determining means, the image includes at least a part of the feature region of the original image, and the image data of the image having the same resolution as the thumbnail image, Feature image extraction means for extracting as feature image data;
By performing a synthesis process for synthesizing the feature image and the thumbnail image on the data of the thumbnail image determined as a processing target by the determination unit and the image data of the feature image extracted by the feature image extraction unit Image synthesizing means for generating image data of a synthesized thumbnail image in which the feature image is superimposed on the margin area of the thumbnail image;
An image processing apparatus is provided.

本発明の別の態様によると、上述した本発明の一態様に係る画像処理装置に対応する画像処理方法及び画像処理プログラムの各々を提供する。   According to another aspect of the present invention, an image processing method and an image processing program corresponding to the image processing apparatus according to one aspect of the present invention described above are provided.

本発明によれば、複数の画像が1画面内に一覧表示される場合に、各々の画像処理の内容(画像処理が施されてないという内容含む)及び全体像をユーザが容易に把握することができる。   According to the present invention, when a plurality of images are displayed in a list on one screen, the user can easily grasp the contents of each image processing (including the content that the image processing is not performed) and the whole image. Can do.

第1実施形態のフォトフレームのハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the photo frame of 1st Embodiment. 図1のフォトフレームのデータ処理部の機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure of the data processing part of the photo frame of FIG. 図2のデータ処理部のうち画像合成部の処理の概要を説明する図である。It is a figure explaining the outline | summary of a process of the image synthetic | combination part among the data processing parts of FIG. 図2のデータ処理部がサムネイル表示処理を実行したことにより表示された一覧画像の一例を示す図である。It is a figure which shows an example of the list image displayed when the data processing part of FIG. 2 performed the thumbnail display process. 図2のデータ処理部が実行するサムネイル表示処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a flow of thumbnail display processing executed by a data processing unit in FIG. 2. 第2実施形態のフォトフレームのデータ処理部がサムネイル表示処理を実行したことにより表示された一覧画像の一例を示す図である。It is a figure which shows an example of the list image displayed when the data processing part of the photo frame of 2nd Embodiment performed the thumbnail display process. 従来例の複数のサムネイル画像の一例を示す図である。It is a figure which shows an example of the some thumbnail image of a prior art example.

[第1実施形態]
図1乃至図5を参照して、本発明が適用される画像処理装置の第1実施形態に係るフォトフレーム1について説明する。
[First Embodiment]
A photo frame 1 according to a first embodiment of an image processing apparatus to which the present invention is applied will be described with reference to FIGS.

図1は、フォトフレーム1の内部のハードウェア構成を示すブロック図である。
図1に示すように、フォトフレーム1は、データ処理部11と、ユーザインタフェース部12と、を備えている。
FIG. 1 is a block diagram showing an internal hardware configuration of the photo frame 1.
As shown in FIG. 1, the photo frame 1 includes a data processing unit 11 and a user interface unit 12.

データ処理部11は、CPU(Central Processing Unit)31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33と、メモリ34と、表示制御部35と、画像処理部36と、を備えている。   The data processing unit 11 includes a CPU (Central Processing Unit) 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a memory 34, a display control unit 35, and an image processing unit 36. I have.

CPU31は、ROM32に記録されているプログラムに従って各種の処理を実行する。
即ち、ROM32には、表示制御部35、画像処理部36、通信部43、ドライブ44を制御する機能等、各種機能を実現するためのプログラムが記憶されている。そこで、CPU31は、ROM32に記憶されているプログラムに従って処理を実行することで、表示制御部35、画像処理部36、通信部43、ドライブ44を制御したり、各種機能を実現することができる。
RAM33には、CPU31が各種の処理を実行する上において必要なデータ等が適宜記憶される。
The CPU 31 executes various processes according to programs recorded in the ROM 32.
That is, the ROM 32 stores programs for realizing various functions such as a function for controlling the display control unit 35, the image processing unit 36, the communication unit 43, and the drive 44. Therefore, the CPU 31 can control the display control unit 35, the image processing unit 36, the communication unit 43, and the drive 44 by executing processing according to a program stored in the ROM 32, and can realize various functions.
The RAM 33 appropriately stores data necessary for the CPU 31 to execute various processes.

メモリ34は、DRAM(Dynamic Random Access Memory)等で構成され、データ処理部11に入力された画像データや、画像処理部36により画像処理が施された画像データを一時的に記憶する。メモリ34はまた、各種画像処理に必要なデータも適宜記憶する。   The memory 34 is constituted by a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores image data input to the data processing unit 11 and image data subjected to image processing by the image processing unit 36. The memory 34 also appropriately stores data necessary for various image processing.

表示制御部35は、メモリ34に記憶された画像データを読み出し、当該画像データにより表現される画像を、表示部41に表示させる制御を実行する。例えば、表示制御部35は、当該画像データに基づいてRGB信号を生成し、当該RGB信号を表示部41に供給することにより、表示部41に表示させる。   The display control unit 35 reads image data stored in the memory 34 and executes control for causing the display unit 41 to display an image represented by the image data. For example, the display control unit 35 generates an RGB signal based on the image data and supplies the RGB signal to the display unit 41 to display the RGB signal on the display unit 41.

画像処理部36は、DSP(Digital Signal Processor)等で構成され、メモリ34に記憶された画像データに対して、ホワイトバランス補正処理やγ補正処理等の各種画像処理を施す。   The image processing unit 36 is configured by a DSP (Digital Signal Processor) or the like, and performs various image processing such as white balance correction processing and γ correction processing on the image data stored in the memory 34.

ユーザインタフェース部12は、表示部41と、操作部42と、通信部43と、ドライブ44と、を備えている。
表示部41は、フォトフレーム1の筐体に設けられたディスプレイ等で構成され、上述した表示制御部35の制御の下、各種画像を表示する。表示部41の表示例については、図4等を用いて後述する。
操作部42は、ユーザの指示操作を受け付け、CPU31に通知する。CPU31は、通知された指示操作に応じて、各種処理を実行する。
通信部20は、CPU31の制御の下、他の装置と通信する。この場合、通信部20は、インターネットを含むネットワークに適宜接続する。
ドライブ44は、CPU31の制御の下、リムーバブル記録媒体51に対するデータの読み書きを行う。
The user interface unit 12 includes a display unit 41, an operation unit 42, a communication unit 43, and a drive 44.
The display unit 41 is configured by a display or the like provided in the housing of the photo frame 1 and displays various images under the control of the display control unit 35 described above. A display example of the display unit 41 will be described later with reference to FIG.
The operation unit 42 receives a user instruction operation and notifies the CPU 31 of it. The CPU 31 executes various processes according to the notified instruction operation.
The communication unit 20 communicates with other devices under the control of the CPU 31. In this case, the communication unit 20 appropriately connects to a network including the Internet.
The drive 44 reads and writes data from and to the removable recording medium 51 under the control of the CPU 31.

リムーバブル記録媒体51は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等で構成され、各種データを記録する。
例えば、リムーバブル記録媒体51は、JPEG(Joint Photographic Experts Group)形式の画像データを、Exif(Exchangeable Image File Format)形式のファイルに含めて記録する。
なお、このような画像データを含むファイルを、以下、「画像ファイル」と呼ぶ。画像ファイルには、画像データの他、当該画像データに関する各種メタ情報を含めることが可能である。本実施形態では、当該画像データに施された画像処理の内容を示すメタ情報が、画像情報として画像ファイルに含められる。
The removable recording medium 51 is composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like, and records various data.
For example, the removable recording medium 51 records image data in JPEG (Joint Photographic Experts Group) format in a file in Exif (Exchangeable Image File Format) format.
A file including such image data is hereinafter referred to as an “image file”. The image file can include various meta information related to the image data in addition to the image data. In the present embodiment, meta information indicating the content of image processing performed on the image data is included in the image file as image information.

CPU31を含むデータ処理部11は、操作部42からサムネイル画像等の一覧の表示が指示された場合、複数のサムネイル画像等の画像データを生成し、当該複数のサムネイル画像等の一覧を表示部41に表示するまでの一連の処理を実行する。このような一連の処理を、以下、「サムネイル表示処理」と呼ぶ。
なお、複数のサムネイル画像等と「等」を記載しているのは、後述する合成サムネイル画像を含める意である。
The data processing unit 11 including the CPU 31 generates image data such as a plurality of thumbnail images when the operation unit 42 is instructed to display a list of thumbnail images and the like, and displays a list of the plurality of thumbnail images and the like. A series of processing until it is displayed on is executed. Such a series of processing is hereinafter referred to as “thumbnail display processing”.
Note that “etc.” with a plurality of thumbnail images and the like is intended to include a composite thumbnail image described later.

図2は、このようなサムネイル表示処理を実行するためのデータ処理部11の機能的構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram showing a functional configuration of the data processing unit 11 for executing such thumbnail display processing.

データ処理部11は、画像取得部61と、画像記憶部62と、合成サムネイル画像生成部63と、一覧画像表示制御部64と、を備えている。   The data processing unit 11 includes an image acquisition unit 61, an image storage unit 62, a composite thumbnail image generation unit 63, and a list image display control unit 64.

画像取得部61は、例えば、図1のCPU31、及び当該CPU31により実行されるプログラムの組み合わせにより構成される。
画像取得部61は、図1のドライブ44を介してリムーバブル記録媒体51から供給される画像ファイルや、通信部43を介して他の装置(図示せぬ)から供給される画像ファイルを取得する。
画像取得部61は、画像ファイルに含まれている画像データから、サムネイル画像の画像データを生成し、画像記憶部62のサムネイル画像記憶部71に記憶させる。
このように、サムネイル画像の画像データは、画像取得部61により取得された画像ファイルに含まれる画像データを元にして生成される。従って、画像取得部61により取得された画像ファイルに含まれる画像データが、原画像の画像データになる。そこで、画像取得部61は、当該原画像の画像データを含む画像ファイルを、画像記憶部62の原画像記憶部72に記憶させる。
The image acquisition unit 61 is configured by, for example, a combination of the CPU 31 in FIG. 1 and a program executed by the CPU 31.
The image acquisition unit 61 acquires an image file supplied from the removable recording medium 51 via the drive 44 in FIG. 1 and an image file supplied from another device (not shown) via the communication unit 43.
The image acquisition unit 61 generates image data of a thumbnail image from the image data included in the image file, and stores it in the thumbnail image storage unit 71 of the image storage unit 62.
As described above, the image data of the thumbnail image is generated based on the image data included in the image file acquired by the image acquisition unit 61. Therefore, the image data included in the image file acquired by the image acquisition unit 61 becomes the image data of the original image. Therefore, the image acquisition unit 61 stores an image file including the image data of the original image in the original image storage unit 72 of the image storage unit 62.

画像記憶部62は、例えば、図1のメモリ34により構成される。画像記憶部62は、サムネイル表示処理で生成又は使用される画像データを記憶すべく、サムネイル画像記憶部71と、原画像記憶部72と、特徴画像記憶部73と、合成サムネイル画像記憶部74と、を備えている。
サムネイル画像記憶部71は、上述したように、画像取得部61により生成されたサムネイル画像の画像データを記憶する。
原画像記憶部72は、上述したように、画像取得部61により取得された画像ファイル、即ち、原画像の画像データを含む画像ファイルを記憶する。
特徴画像記憶部73及び合成サムネイル画像記憶部74については、後述する。
The image storage unit 62 is configured by, for example, the memory 34 of FIG. The image storage unit 62 stores the image data generated or used in the thumbnail display process, the thumbnail image storage unit 71, the original image storage unit 72, the feature image storage unit 73, and the composite thumbnail image storage unit 74. It is equipped with.
The thumbnail image storage unit 71 stores the image data of the thumbnail image generated by the image acquisition unit 61 as described above.
As described above, the original image storage unit 72 stores the image file acquired by the image acquisition unit 61, that is, the image file including the image data of the original image.
The feature image storage unit 73 and the composite thumbnail image storage unit 74 will be described later.

合成サムネイル画像生成部63は、例えば、図1のCPU31及び画像処理部36、並びに当該CPU31により実行されるプログラムの組み合わせにより構成される。
合成サムネイル画像生成部63は、サムネイル画像の余白領域に対して原画像の特徴領域の少なくとも一部を合成した画像(以下、「合成サムネイル画像」と呼ぶ)の画像データを生成する。
合成サムネイル画像生成部63は、このような合成サムネイル画像の画像データを生成すべく、合成対象決定部81と、特徴画像抽出部82と、画像合成部83と、を備えている。
The composite thumbnail image generation unit 63 is configured by, for example, a combination of the CPU 31 and the image processing unit 36 illustrated in FIG. 1 and a program executed by the CPU 31.
The composite thumbnail image generation unit 63 generates image data of an image obtained by combining at least a part of the feature area of the original image with the blank area of the thumbnail image (hereinafter referred to as “composite thumbnail image”).
The combined thumbnail image generating unit 63 includes a combining target determining unit 81, a feature image extracting unit 82, and an image combining unit 83 in order to generate such image data of the combined thumbnail image.

合成対象決定部81は、サムネイル画像記憶部71に記憶されたサムネイル画像の画像データの中から、合成サムネイル画像の画像データを生成する対象(以下、「合成対象」と呼ぶ)を決定する。なお、合成対象の決定手法については、後述する。
合成対象決定部81は、合成対象として決定したサムネイル画像の画像データを、サムネイル画像記憶部71から読み出して画像合成部83に供給し、それ以外のサムネイル画像の画像データを、サムネイル画像記憶部71から読み出して一覧画像表示制御部64に供給する。
即ち、サムネイル画像記憶部71に記憶されたサムネイル画像の画像データのうち合成対象は、後述するように、画像合成部83に供給されて合成サムネイル画像の画像データに変換されて、一覧画像表示制御部64に供給される。一方、サムネイル画像記憶部71に記憶されたサムネイル画像の画像データのうち合成対象以外は、サムネイル画像の画像データのまま一覧画像表示制御部64に供給される。
また、合成対象決定部81により決定された合成対象は、特徴画像抽出部82に通知される。
The compositing target determining unit 81 determines a target (hereinafter referred to as “compositing target”) for generating image data of the composite thumbnail image from the image data of the thumbnail image stored in the thumbnail image storage unit 71. The method for determining the composition target will be described later.
The compositing target determination unit 81 reads out the image data of the thumbnail image determined as the compositing target from the thumbnail image storage unit 71 and supplies it to the image composition unit 83, and supplies the image data of the other thumbnail images to the thumbnail image storage unit 71. Is read from the image data and supplied to the list image display control unit 64.
That is, among the image data of the thumbnail images stored in the thumbnail image storage unit 71, the compositing target is supplied to the image compositing unit 83 and converted into the image data of the composite thumbnail image, as will be described later, and the list image display control is performed. Supplied to the unit 64. On the other hand, the image data of the thumbnail images stored in the thumbnail image storage unit 71 other than the synthesis target are supplied to the list image display control unit 64 as the image data of the thumbnail images.
In addition, the synthesis target determined by the synthesis target determination unit 81 is notified to the feature image extraction unit 82.

特徴画像抽出部82は、通知された合成対象に対応する原画像を認識し、当該原画像の画像データを原画像記憶部72から読み出し、当該原画像から特徴領域を検出する。
そして、特徴画像抽出部82は、当該原画像の特徴領域の少なくとも一部を含む画像であって、サムネイル画像と同一解像度(同一サイズ)の画像(以下、「特徴画像」と呼ぶ)の画像データを、当該原画像の画像データから抽出する。
抽出された特徴画像の画像データは、特徴画像記憶部73に記憶される。
The feature image extraction unit 82 recognizes the original image corresponding to the notified composition target, reads the image data of the original image from the original image storage unit 72, and detects a feature region from the original image.
Then, the feature image extraction unit 82 is an image including at least a part of the feature region of the original image, and has the same resolution (same size) as the thumbnail image (hereinafter referred to as “feature image”). Are extracted from the image data of the original image.
The image data of the extracted feature image is stored in the feature image storage unit 73.

なお、原画像から検出される特徴領域の種類や、当該特徴領域の検出手法は、特に限定されない。本実施形態では、特徴領域として、人間の顔の像の領域(以下、「顔領域」と呼ぶ)が検出されている。顔領域の検出手法については後述する。   Note that the type of feature region detected from the original image and the method for detecting the feature region are not particularly limited. In the present embodiment, a human face image area (hereinafter referred to as a “face area”) is detected as a feature area. The face area detection method will be described later.

画像合成部83には、合成対象決定部81により合成対象として決定されたサムネイル画像の画像データが、サムネイル画像記憶部71から読み出されて供給されると共に、合成対象に対応する特徴画像の画像データが、特徴画像記憶部73から読み出されて供給される。
すると、画像合成部83は、特徴画像を背景として、サムネイル画像を前景として、前景を背景の上に合成する合成処理を、特徴画像及びサムネイル画像の各画像データに施す。これにより、合成サムネイル画像の画像データが生成される。
The image synthesis unit 83 is supplied with the image data of the thumbnail image determined as the synthesis target by the synthesis target determination unit 81 by being read from the thumbnail image storage unit 71 and the image of the feature image corresponding to the synthesis target. Data is read from the feature image storage unit 73 and supplied.
Then, the image synthesis unit 83 performs a synthesis process for synthesizing the feature image and the thumbnail image on the feature image and the thumbnail image, using the feature image as the background, the thumbnail image as the foreground, and the foreground on the background. Thereby, the image data of the composite thumbnail image is generated.

図3は、画像合成部83の処理の概要を説明する図である。
原画像101は、水平方向(図3中横方向)にN個の画素が配置され、垂直方向(図3中縦方向)にM個の画素が配置されて構成されている。ここで、NとMは、相互に異なる任意の整数値である。
ここで、画像を、「水平方向の画素数×垂直方向の画素数の画像」と表現するものとすると、原画像101はN×Mの画像である。この場合、原画像101の画面アスペクト比は、N:Mになる。
FIG. 3 is a diagram for explaining the outline of the processing of the image composition unit 83.
The original image 101 is configured such that N pixels are arranged in the horizontal direction (horizontal direction in FIG. 3), and M pixels are arranged in the vertical direction (vertical direction in FIG. 3). Here, N and M are arbitrary integer values different from each other.
Here, if the image is expressed as “an image having the number of pixels in the horizontal direction × the number of pixels in the vertical direction”, the original image 101 is an N × M image. In this case, the screen aspect ratio of the original image 101 is N: M.

本実施形態では、このような画面アスペクト比がN:Mの原画像101の画像データから、画面アスペクト比が1:1(後述するnを利用すると、n:n)のサムネイル画像102の画像データが生成される。
即ち、サムネイル化のために、原画像101の画像データに対して画面アスペクト比を変化させずに1/L倍(Lは1よりも大きな任意の値)に縮小する縮小処理が施された場合、n×mの縮小画像111の画像データが得られる。ここで、nは、(N/L)を満たす整数値であり、mは、(M/L)を満たす整数値である。即ち、原画像101の画面アスペクト比であるN:Mと、縮小画像111の画面アスペクト比であるn:mとは一致する。
一方、本実施形態では、サムネイル画像の画面アスペクト比は1:1である。従って、画面アスペクト比がn:m(nとmは相互に異なる値のため1:1ではない)である縮小画像111の画像データをそのまま、サムネイル画像の画像データとして採用することはできない。
そこで、本実施形態では、n×mの縮小画像111に対して、水平方向に平行に余白領域112U及び112Dが上下に付加されたn×nの画像102、即ち、画面アスペクト比が1:1(=n:n)に調整された画像102の画像データが、サムネイル画像の画像データとして採用されている。
In the present embodiment, the image data of the thumbnail image 102 having the screen aspect ratio of 1: 1 (n: n when n described later is used) from the image data of the original image 101 having the screen aspect ratio of N: M. Is generated.
That is, when thumbnailing is performed, the image data of the original image 101 is reduced to 1 / L times (L is an arbitrary value larger than 1) without changing the screen aspect ratio. , N × m reduced image 111 image data is obtained. Here, n is an integer value that satisfies (N / L), and m is an integer value that satisfies (M / L). That is, the screen aspect ratio N: M of the original image 101 matches the screen aspect ratio n: m of the reduced image 111.
On the other hand, in the present embodiment, the screen aspect ratio of the thumbnail image is 1: 1. Therefore, the image data of the reduced image 111 having a screen aspect ratio of n: m (n and m are different from each other and are not 1: 1) cannot be directly used as the image data of the thumbnail image.
Therefore, in the present embodiment, the n × n image 102 in which the margin regions 112U and 112D are added vertically to the n × m reduced image 111 in parallel to the horizontal direction, that is, the screen aspect ratio is 1: 1. The image data of the image 102 adjusted to (= n: n) is adopted as the image data of the thumbnail image.

なお、余白領域112U及び112Dを含め余白領域とは、サムネイル画像のうち、原画像の縮小画像の画素以外の画素から構成される領域をいう。従って、余白領域の画素の画素値は、特に限定されないが、サムネイル画像の段階では余白領域であることを明確にすべく、同一の画素値であることが好適であり、本実施形態では、白を示す値が採用されている。即ち、本実施形態では、余白領域112U及び112Dを含め余白領域は、サムネイル画像の段階では白い領域となる。   The blank area including the blank areas 112U and 112D is an area composed of pixels other than the pixels of the reduced image of the original image in the thumbnail image. Accordingly, the pixel value of the pixel in the blank area is not particularly limited, but it is preferable that the pixel value is the same in order to clarify that it is the blank area at the stage of the thumbnail image. A value indicating is adopted. That is, in this embodiment, the blank area including the blank areas 112U and 112D is a white area at the stage of the thumbnail image.

また、図3の例の原画像101は横長であるため、即ち、原画像101の水平方向の画素数Nは垂直方向の画素数Mよりも多いため(N>Mであるため)、余白領域112U及び112Dは、水平方向と平行になるように、縮小画像111の上下に付加されている。しかしながら、図示はしないが、縦長の原画像の場合、即ち、垂直方向の方が水平方向よりも画素数が多い原画像の場合、余白領域は、垂直方向と平行になるように、原画像の縮小画像の左右に付加された画像が、サムネイル画像となる(図4のサムネイル画像211参照)。   Further, since the original image 101 in the example of FIG. 3 is horizontally long, that is, the number of pixels N in the horizontal direction of the original image 101 is larger than the number of pixels M in the vertical direction (N> M), the blank area 112U and 112D are added above and below the reduced image 111 so as to be parallel to the horizontal direction. However, although not shown, in the case of a vertically long original image, that is, in the case of an original image having more pixels in the vertical direction than in the horizontal direction, the blank area is parallel to the vertical direction. Images added to the left and right of the reduced image become thumbnail images (see thumbnail image 211 in FIG. 4).

本実施形態では、このようにして原画像101の画像データからサムネイル画像102の画像データが生成される。さらに、原画像101内の顔領域を少なくとも含むn×nの画像121が特徴画像として、当該特徴画像の画像データが原画像101の画像データから抽出される。   In the present embodiment, the image data of the thumbnail image 102 is generated from the image data of the original image 101 in this way. Further, an n × n image 121 including at least a face area in the original image 101 is used as a feature image, and image data of the feature image is extracted from the image data of the original image 101.

そこで、画像合成部83は、特徴画像121を背景として、サムネイル画像102を前景として、前景を背景の上に合成する合成処理を、特徴画像121及びサムネイル画像102の各画像データに施す。これにより、合成サムネイル画像103の画像データが生成される。
具体的には、前景のサムネイル画像102のうち、原画像101の縮小画像111の部分は、透過率0%(非透明)で、背景の特徴画像121の上に合成される。一方、前景のサムネイル画像102のうち、余白領域112U及び112Dの部分は、透過率100%(全透明)で、背景の特徴画像121の上に合成される。その結果、サムネイル画像102の余白領域112U及び112Dに対して、特徴画像121が重畳された画像103の画像データが、合成サムネイル画像の画像データとして得られることになる。
以上まとめると、画像合成部83は、前景の特徴画像121を背景のサムネイル画像102に合成する合成処理を、特徴画像121及びサムネイル画像102の各画像データに施すことによって、サムネイル画像102の余白領域112U及び112Dに特徴画像121が重畳された合成サムネイル画像103の画像データを生成する。
Therefore, the image composition unit 83 performs composition processing for compositing the feature image 121 and the thumbnail image 102 on the feature image 121 and the thumbnail image 102, with the thumbnail image 102 as the foreground and the foreground on the background. Thereby, image data of the composite thumbnail image 103 is generated.
Specifically, the portion of the reduced image 111 of the original image 101 in the foreground thumbnail image 102 is synthesized on the background feature image 121 with a transmittance of 0% (non-transparent). On the other hand, the margin areas 112U and 112D in the foreground thumbnail image 102 are combined on the background feature image 121 with a transmittance of 100% (total transparency). As a result, the image data of the image 103 in which the feature image 121 is superimposed on the blank areas 112U and 112D of the thumbnail image 102 is obtained as the image data of the composite thumbnail image.
In summary, the image synthesis unit 83 performs a synthesis process for synthesizing the foreground feature image 121 with the background thumbnail image 102 on the image data of the feature image 121 and the thumbnail image 102, so that the margin area of the thumbnail image 102 is displayed. Image data of the composite thumbnail image 103 in which the feature image 121 is superimposed on 112U and 112D is generated.

図2に戻り、このようにして画像合成部83により生成された合成サムネイル画像の画像データは、合成サムネイル画像記憶部74に記憶される。   Returning to FIG. 2, the image data of the combined thumbnail image generated by the image combining unit 83 in this way is stored in the combined thumbnail image storage unit 74.

以上説明したように、サムネイル画像記憶部71に記憶されたサムネイル画像の画像データのうち、合成対象決定部81によって合成対象と決定されたサムネイル画像の画像データは、合成サムネイル画像の画像データに変換されて、合成サムネイル画像記憶部74に記憶される。その後、合成サムネイル画像の画像データは、合成サムネイル画像記憶部74から読み出されて、一覧画像表示制御部64に供給される。
一方、サムネイル画像記憶部71に記憶されたサムネイル画像の画像データのうち、合成対象決定部81によって合成対象と決定されなかったサムネイル画像の画像データは、サムネイル画像記憶部71からそのまま読み出されて、一覧画像表示制御部64に供給される。
As described above, among the image data of the thumbnail images stored in the thumbnail image storage unit 71, the image data of the thumbnail image determined as the synthesis target by the synthesis target determination unit 81 is converted into the image data of the synthesized thumbnail image. And stored in the composite thumbnail image storage unit 74. Thereafter, the image data of the combined thumbnail image is read from the combined thumbnail image storage unit 74 and supplied to the list image display control unit 64.
On the other hand, among the image data of the thumbnail images stored in the thumbnail image storage unit 71, the image data of the thumbnail images that have not been determined as the synthesis target by the synthesis target determination unit 81 are read from the thumbnail image storage unit 71 as they are. , And supplied to the list image display control unit 64.

一覧画像表示制御部64は、サムネイル画像記憶部71又は合成サムネイル画像記憶部74から供給された複数の画像データに基づいて、サムネイル画像や合成サムネイル画像を複数枚羅列した画像(以下、「一覧画像」と呼ぶ)を、表示部41の画面として表示する。   The list image display control unit 64 is based on a plurality of image data supplied from the thumbnail image storage unit 71 or the composite thumbnail image storage unit 74, and is an image in which a plurality of thumbnail images and composite thumbnail images are arranged (hereinafter, “list image”). Is displayed as a screen of the display unit 41.

図4は、フォトフレーム1の表示部41の画面として表示される一覧画像の例を示している。
図4の例の一覧画像200(画面200)には、2枚のサムネイル画像211及び212、並びに、8枚の合成サムネイル画像221乃至228が含まれている。
8枚の合成サムネイル画像221乃至228の各々の中央部分には、原画像の縮小画像が含まれている。ユーザは、これらの縮小画像から、原画像の画像データに対して何らかの画像処理が施されていると把握することまではできるが、縮小画像内の小さな違いが区別付かないため、画像処理の内容を把握することは非常に困難である。
しかしながら、8枚の合成サムネイル画像221乃至228の各々の上下の部分、即ち、サムネイル画像の余白領域であった部分には、原画像の特徴領域(本実施形態では顔領域)の少なくとも一部を含む特徴画像が重畳されている。
ここで、合成サムネイル画像221乃至228の各々の中央部分の縮小画像には、即ち、合成前のサムネイル画像の中央部分の縮小画像には、原画像内の顔領域も縮小して含まれている。従って、視点を変えると、合成前のサムネイル画像内の顔領域の拡大画像が、特徴画像であると把握することもできる。このように把握すると、合成サムネイル画像221乃至228とは、合成前のサムネイル画像内の顔領域の拡大画像が、当該サムネイル画像の余白領域に重畳された画像であるといえる。
従って、ユーザは、合成サムネイル画像221乃至228のうち、特徴画像(縮小画像からみると顔領域の拡大画像)をみることで、原画像の画像データに対して施された画像処理の内容を容易に把握することが可能になる。
一方で、ユーザは、合成サムネイル画像221乃至228のうち、中央部分の縮小画像をみることで、原画像の全体像を把握することが容易に可能になる。
以上まとめると、図4の例の一覧画像200のように、複数のサムネイル画像又は合成サムネイル画像が1画面内に一覧表示される場合に、各々の画像処理の内容(画像処理が施されてないという内容含む)及び全体像をユーザが容易に把握することが可能になる。
FIG. 4 shows an example of a list image displayed as a screen of the display unit 41 of the photo frame 1.
The list image 200 (screen 200) in the example of FIG. 4 includes two thumbnail images 211 and 212, and eight composite thumbnail images 221 to 228.
The central portion of each of the eight composite thumbnail images 221 to 228 includes a reduced image of the original image. The user can understand from these reduced images that some image processing has been performed on the image data of the original image, but since the small differences in the reduced images cannot be distinguished, the contents of the image processing It is very difficult to figure out.
However, at least a part of the characteristic area (the face area in the present embodiment) of the original image is included in the upper and lower parts of each of the eight composite thumbnail images 221 to 228, that is, the marginal area of the thumbnail image. Including feature images are superimposed.
Here, the reduced image of the central portion of each of the combined thumbnail images 221 to 228, that is, the reduced image of the central portion of the thumbnail image before combining includes the face area in the original image in a reduced manner. . Therefore, if the viewpoint is changed, it is possible to grasp that the enlarged image of the face area in the thumbnail image before composition is a feature image. From this understanding, it can be said that the combined thumbnail images 221 to 228 are images in which the enlarged image of the face area in the thumbnail image before the combination is superimposed on the blank area of the thumbnail image.
Therefore, the user can easily understand the contents of the image processing performed on the image data of the original image by looking at the feature image (enlarged image of the face area when viewed from the reduced image) among the composite thumbnail images 221 to 228. It becomes possible to grasp.
On the other hand, the user can easily grasp the entire image of the original image by looking at the reduced image at the center of the combined thumbnail images 221 to 228.
In summary, when a plurality of thumbnail images or composite thumbnail images are displayed in a list on one screen as in the list image 200 in the example of FIG. 4, the contents of each image processing (the image processing is not performed). And the whole image can be easily grasped by the user.

ここで、原画像の画像データに対して施されている可能性がある画像処理としては、例えば、画調変換処理が存在する。
画調変換処理とは、処理対象の画像を、所定の画調の画像に変換する処理をいう。所定の画調として、「日本画調」、「西洋画調」、「水彩画調」、「水墨画調」、「ペン画調」、「ゴッホ調」等、各種各様の画調を採用することができる。
具体的には例えば、所定のパラメータの値を、処理対象の画像が有する値から、所定の画調に合致した値に更新する処理が、画調変換処理の一例である。この場合に用いられるパラメータは、例えば、コントラスト、明るさ、色の濃さ、色合い、シャープネス、ノイズ低減フィルタの効果設定、色温度、及びγ補正のγ値が存在する。これらのパラメータは、単独で用いられる場合もあるし、任意の2以上の組み合わせで用いられる場合もある。なお、これらのパラメータは当然ながら例示であり、画調変換処理を表現するために妥当であれば、如何なるパラメータを用いてもよい。
画調変換処理は、例えば、機器に予め定められている編集機能や、フォトショップ(登録商標)等のアプリケーションソフトウエアにより実現される。
Here, as image processing that may be performed on the image data of the original image, for example, there is image tone conversion processing.
The image tone conversion process is a process for converting an image to be processed into an image having a predetermined image tone. Adopt various styles such as "Japanese style", "Western style", "Watercolor style", "Ink style", "Pen style", "Goch style", etc. Can do.
Specifically, for example, a process of updating the value of a predetermined parameter from a value of an image to be processed to a value that matches a predetermined image tone is an example of the image tone conversion process. The parameters used in this case include, for example, contrast, brightness, color density, hue, sharpness, noise reduction filter effect setting, color temperature, and γ correction γ value. These parameters may be used alone or in any combination of two or more. Note that these parameters are merely examples, and any parameters may be used as long as they are appropriate for expressing the tone conversion processing.
The image tone conversion processing is realized by, for example, an editing function predetermined for the device or application software such as Photoshop (registered trademark).

また、原画像の画像データに対して施されている可能性がある画像処理としては、例えば、階調処理が存在する。
階調処理とは、画像の明度を段階的に変化させる処理をいう。
具体的には例えば、撮像時に光量を段階的に変化させることによって画像の明度を変化する処理や、機器に予め定められている編集機能又はフォトショップ(登録商標)等のアプリケーションソフトウエアにより実現される編集機能によって、撮像後の画像の明度を段階的に変換させる処理も、階調処理の一例である。
Further, as image processing that may be performed on the image data of the original image, for example, gradation processing exists.
Gradation processing is processing that changes the brightness of an image in stages.
Specifically, for example, it is realized by a process of changing the brightness of an image by changing the light amount stepwise at the time of imaging, an editing function predetermined for the device, or application software such as Photoshop (registered trademark). The process of converting the brightness of the image after imaging by the editing function is an example of the gradation process.

以上、原画像の画像データに対して施されている可能性がある画像処理として、画調変換処理と階調処理について説明したが、これらは例示に過ぎない。即ち、原画像の画像データに対しては、任意の種類の画像処理が施されている可能性がある。   As described above, the image tone conversion processing and the gradation processing have been described as image processing that may be performed on the image data of the original image, but these are merely examples. That is, there is a possibility that any kind of image processing is performed on the image data of the original image.

ここで、ユーザの目的が、上述したように、一覧画像に含まれる合成サムネイル画像から、原画像の画像データに対して施された画像処理の内容を把握することである場合には、画像処理が施されてない原画像に対応するサムネイル画像データから、合成サムネイル画像の画像データを生成する必要は特にない。
従って、このような場合には、図2の合成対象決定部81は、画像処理が施された原画像に対応するサムネイル画像の画像データのみを、合成対象として決定すればよい。
ここで、原画像の画像データに対して画像処理が施されているか否かの判断手法は、特に限定されず、例えば、複数の原画像に関するデータベースであって、施された画像処理の種類が格納されたデータベースが存在する場合、当該データベースを用いる手法を採用してもよい。
ただし、本実施形態では、次のような判断手法が採用されている。即ち、本実施形態では、上述したように、原画像の画像データは画像ファイルに含められて原画像記憶部72に記憶されている。この画像ファイルには、当該原画像の画像データに対して施された画像処理の内容を示す画像情報が、メタ情報の1つとして含まれている。そこで、合成対象決定部81は、この画像情報の内容に基づいて、原画像の画像データに対して画像処理が施されているか否かを判断する。
Here, as described above, when the user's purpose is to grasp the contents of the image processing performed on the image data of the original image from the composite thumbnail image included in the list image, the image processing is performed. There is no particular need to generate image data of a composite thumbnail image from thumbnail image data corresponding to an original image that has not been subjected to.
Therefore, in such a case, the compositing target determination unit 81 in FIG. 2 may determine only the image data of the thumbnail image corresponding to the original image that has undergone image processing as the compositing target.
Here, a method for determining whether or not image processing is performed on the image data of the original image is not particularly limited. For example, the database is a database regarding a plurality of original images, and the type of image processing performed is determined. When a stored database exists, a method using the database may be employed.
However, in the present embodiment, the following determination method is adopted. That is, in this embodiment, as described above, the image data of the original image is included in the image file and stored in the original image storage unit 72. This image file includes image information indicating the content of image processing performed on the image data of the original image as one piece of meta information. Therefore, the compositing target determining unit 81 determines whether image processing has been performed on the image data of the original image based on the content of the image information.

このような判断手法が適用されたサムネイル表示処理の流れを説明するフローチャートが、図5に示されている。
即ち、図5は、図2の機能的構成を有するデータ処理部11が実行するサムネイル表示処理の流れの一例を説明するフローチャートである。
A flowchart for explaining the flow of the thumbnail display process to which such a determination method is applied is shown in FIG.
That is, FIG. 5 is a flowchart for explaining an example of the flow of thumbnail display processing executed by the data processing unit 11 having the functional configuration of FIG.

サムネイル表示処理は、ユーザが操作部42(図1)を用いて一覧画像(サムネイル画像又は合成サムネイル画像の一覧)の表示を指示操作したことをトリガとして開始する。なお、サムネイル表示処理の開始のトリガは、これに特に限定されず、その他例えば、画像データがデータ処理部11に入力されたことをトリガとして、サムネイル表示処理を自動的に開始するようにしてもよい。   The thumbnail display process is triggered by a user's instruction operation to display a list image (a list of thumbnail images or composite thumbnail images) using the operation unit 42 (FIG. 1). The trigger for starting the thumbnail display process is not particularly limited to this. For example, the thumbnail display process may be automatically started by using the input of image data to the data processing unit 11 as a trigger. Good.

ステップS1において、画像取得部61は、原画像の画像データを取得する。
即ち、画像取得部61は、表示対象の候補として、原画像の画像データを含む画像ファイルを、図1のドライブ44を介してリムーバブル記録媒体51から取得したり、通信部43を介して他の装置(図示せず)から取得する。
具体的には例えば、図3の原画像101の画像データが取得される。
In step S1, the image acquisition unit 61 acquires the image data of the original image.
That is, the image acquisition unit 61 acquires an image file including the image data of the original image as a display target candidate from the removable recording medium 51 via the drive 44 in FIG. Obtained from a device (not shown).
Specifically, for example, the image data of the original image 101 in FIG. 3 is acquired.

ステップS2において、画像取得部61は、原画像の画像データから、サムネイル画像の画像データを生成する。
即ち、画像取得部61は、原画像の縮小画像に対して余白領域を付加することで、画面アスペクト比が1:1のサムネイル画像の画像データを生成する。
具体的には例えば、図3に示すように、原画像101の縮小画像111に対して余白領域112U及び112Dが付加された画像102の画像データが、サムネイル画像の画像データとして生成される。
In step S <b> 2, the image acquisition unit 61 generates image data of a thumbnail image from the image data of the original image.
That is, the image acquisition unit 61 generates image data of a thumbnail image having a screen aspect ratio of 1: 1 by adding a blank area to the reduced image of the original image.
Specifically, for example, as illustrated in FIG. 3, image data of an image 102 in which blank areas 112U and 112D are added to the reduced image 111 of the original image 101 is generated as image data of a thumbnail image.

原画像の画像データを含む画像ファイルが原画像記憶部72に記憶され、サムネイル画像の画像データがサムネイル画像記憶部71に記憶されると、処理はステップS3に進む。   When the image file including the image data of the original image is stored in the original image storage unit 72 and the image data of the thumbnail image is stored in the thumbnail image storage unit 71, the process proceeds to step S3.

ステップS3において、合成対象決定部81は、原画像の画像データに対して画像処理が施されているか否かを判定する。
即ち、合成対象決定部81は、原画像の画像データが含まれている画像ファイルから、画像情報を読み出し、当該画像情報の内容に基づいて、原画像の画像データに対して画像処理が施されているか否かを判定する。
In step S3, the compositing target determining unit 81 determines whether image processing has been performed on the image data of the original image.
That is, the compositing target determination unit 81 reads image information from an image file that includes the image data of the original image, and performs image processing on the image data of the original image based on the content of the image information. It is determined whether or not.

そもそも画像情報が画像ファイルに存在しないか、又は、画像ファイルから読み出された画像情報が、原画像の画像データに対して画像処理が施されていないことを示す情報の場合、原画像の画像データは合成対象でないとして、ステップS3においてNOであると判定されて、処理はステップS4に進む。
ステップS4において、一覧画像表示制御部64は、サムネイル画像を一覧画像に含める。即ち、サムネイル画像の画像データが、サムネイル画像記憶部71から読み出され、一覧画像表示制御部64に供給されて、一覧画像の画像データの生成用として一覧画像表示制御部64に保持される。
これにより、処理はステップS9に進む。ただし、ステップS9以降の処理については後述する。
In the first place, when the image information does not exist in the image file or the image information read from the image file is information indicating that the image data of the original image has not been subjected to image processing, the image of the original image Assuming that the data is not a synthesis target, NO is determined in step S3, and the process proceeds to step S4.
In step S4, the list image display control unit 64 includes thumbnail images in the list image. That is, image data of thumbnail images is read from the thumbnail image storage unit 71, supplied to the list image display control unit 64, and held in the list image display control unit 64 for generating image data of the list image.
Thereby, a process progresses to step S9. However, the processing after step S9 will be described later.

これに対して、画像ファイルから読み出された画像情報が、所定の画像処理の内容を示す情報、即ち原画像の画像データに対して画像処理が施されていることを示す情報の場合、原画像の画像データは合成対象であるとして、ステップS3においてYESであると判定されて、処理はステップS5に進む。   On the other hand, when the image information read from the image file is information indicating the content of predetermined image processing, that is, information indicating that image processing is performed on the image data of the original image, Assuming that the image data of the image is to be synthesized, it is determined as YES in Step S3, and the process proceeds to Step S5.

ステップS5において、特徴画像抽出部82は、原画像の画像データを原画像記憶部72から読み出して、当該原画像から顔領域を検出する。
即ち、本実施形態では、上述したように、特徴領域として顔領域が採用されている。そこで、特徴画像抽出部82は、原画像から人間の顔に関する特徴点を1以上抽出し、抽出した1以上の特徴点から顔領域を検出する。
詳細には例えば、特徴画像抽出部82は、特開2001−16573号公報等に開示された特徴点抽出処理を原画像の画像データに対して施すことで、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等を、人間の顔に関する特徴点として検出する。
特徴画像抽出部82は、このように検出した各特徴点に基づいて、眉、目、鼻、唇の各領域を画定し、眉、目、鼻、唇の各領域の境界を輪郭として決定することによって、顔領域を検出する。
なお、顔領域の検出手法は、上述の手法に特に限定されず、その他例えば、原画像の画像データから輝度画像データを生成し、当該輝度画像データを用いて顔領域を検出する手法等、様々な手法を採用することができる。
In step S5, the feature image extraction unit 82 reads the image data of the original image from the original image storage unit 72, and detects a face area from the original image.
That is, in the present embodiment, as described above, the face area is adopted as the feature area. Therefore, the feature image extraction unit 82 extracts one or more feature points related to the human face from the original image, and detects a face region from the extracted one or more feature points.
Specifically, for example, the feature image extraction unit 82 performs feature point extraction processing disclosed in Japanese Patent Laid-Open No. 2001-16573 on the image data of the original image, so that each of the eyebrows, eyes, nose, and lips An end point, a face contour point, a head vertex, a lower end point of a chin, and the like are detected as feature points related to a human face.
The feature image extraction unit 82 demarcates the eyebrows, eyes, nose, and lips based on the feature points thus detected, and determines the boundaries of the regions of the eyebrows, eyes, nose, and lips as contours. Thus, the face area is detected.
Note that the method for detecting a face area is not particularly limited to the above-described technique, and various other methods such as a technique for generating luminance image data from image data of an original image and detecting the face area using the luminance image data are available. Can be adopted.

ステップS6において、特徴画像抽出部82は、原画像から検出された顔領域の少なくとも一部を含む画像の画像データを、特徴画像の画像データとして、原画像の画像データから抽出する。
具体的には例えば、図3に示すように、原画像101の顔領域の一部の画像121の画像データが、特徴画像の画像データとして抽出される。
このようにして抽出された特徴画像の画像データは、特徴画像記憶部73に記憶される。これにより、処理はステップS7に進む。
In step S6, the feature image extraction unit 82 extracts image data of an image including at least a part of the face area detected from the original image as image data of the feature image from the image data of the original image.
Specifically, for example, as illustrated in FIG. 3, image data of a part of the image 121 of the face area of the original image 101 is extracted as image data of a feature image.
The image data of the feature image extracted in this way is stored in the feature image storage unit 73. Thereby, a process progresses to step S7.

ステップS7において、画像合成部83は、サムネイル画像の余白領域に特徴画像を重畳した合成サムネイル画像の画像データを生成する。   In step S7, the image composition unit 83 generates image data of a composite thumbnail image in which the feature image is superimposed on the blank area of the thumbnail image.

即ち、画像合成部83には、ステップS2の処理で生成されたサムネイル画像の画像データが供給されると共に、ステップS6の処理で抽出された特徴画像の画像データが供給される。そこで、画像合成部83は、特徴画像を背景として、サムネイル画像を前景として、前景を背景の上に合成する合成処理を、特徴画像及びサムネイル画像の各画像データに施すことで、合成サムネイル画像の画像データを生成する。   That is, the image composition unit 83 is supplied with the image data of the thumbnail image generated by the process of step S2 and the image data of the feature image extracted by the process of step S6. Therefore, the image composition unit 83 performs composition processing for compositing the feature image and the thumbnail image on the feature image and the thumbnail image with the feature image as a background, the thumbnail image as a foreground, and the foreground on the background. Generate image data.

具体的には例えば、上述した図3を用いて説明すると、前景のサムネイル画像102のうち、原画像101の縮小画像111の部分の画像データは、透過率0%(非透明)で、背景の特徴画像121の画像データに合成される。一方、前景のサムネイル画像102のうち、余白領域112U及び112Dの部分の画像データは、透過率100%(全透明)で、背景の特徴画像121の画像データに合成される。その結果、サムネイル画像102の余白領域112U及び112Dに特徴画像121を重畳した画像103の画像データが、合成サムネイル画像の画像データとして生成される。
より具体的には例えば、本実施形態では、サムネイル画像102を含む前景の画像データには、透過度情報(以下、「アルファ値」と呼ぶ)を保存するためのデータ領域(以下、「アルファチャネル」と呼ぶ)が設けられているものとする。この場合、画像合成部83は、前景を構成する各画素のアルファチャネル内のアルファ値をそれぞれ設定することで、透過率の設定を画素単位で実現することができる。
そこで、画像合成部83は、前景のサムネイル画像102のうち、原画像101の縮小画像111を構成する各画素については、低いアルファ値を設定することで、透過率0%(非透明)を実現する。一方、画像合成部83は、前景のサムネイル画像102のうち、余白領域112U及び112Dの部分を構成する各画素については、高いアルファ値を設定されることで、透過率100%(全透明)を実現する。
このようにして、画像合成部83により生成された合成サムネイル画像の画像データは、合成サムネイル画像記憶部74に記憶される。これにより、処理はステップS8に進む。
Specifically, for example, referring to FIG. 3 described above, the image data of the reduced image 111 portion of the original image 101 in the foreground thumbnail image 102 has a transmittance of 0% (non-transparent) and the background image. The image data of the feature image 121 is combined. On the other hand, the image data of the margin areas 112U and 112D in the foreground thumbnail image 102 is combined with the image data of the background feature image 121 with a transmittance of 100% (total transparency). As a result, the image data of the image 103 in which the feature image 121 is superimposed on the blank areas 112U and 112D of the thumbnail image 102 is generated as the image data of the composite thumbnail image.
More specifically, for example, in the present embodiment, the foreground image data including the thumbnail image 102 includes a data area (hereinafter referred to as “alpha channel”) for storing transparency information (hereinafter referred to as “alpha value”). ")" Is provided. In this case, the image composition unit 83 can set the transmittance in units of pixels by setting the alpha value in the alpha channel of each pixel constituting the foreground.
Therefore, the image composition unit 83 sets a low alpha value for each pixel constituting the reduced image 111 of the original image 101 in the foreground thumbnail image 102, thereby realizing a transmittance of 0% (non-transparent). To do. On the other hand, in the foreground thumbnail image 102, the image compositing unit 83 sets a high alpha value for each pixel constituting the margin areas 112U and 112D so that the transmittance is 100% (total transparency). Realize.
In this way, the image data of the combined thumbnail image generated by the image combining unit 83 is stored in the combined thumbnail image storage unit 74. Thereby, a process progresses to step S8.

ステップS8において、一覧画像表示制御部64は、合成サムネイル画像を一覧画像に含める。即ち、合成サムネイル画像の画像データが、合成サムネイル画像記憶部74から読み出されて、一覧画像表示制御部64に供給されて、一覧画像の画像データの生成用として一覧画像表示制御部64に保持される。   In step S8, the list image display control unit 64 includes the composite thumbnail image in the list image. That is, the image data of the combined thumbnail image is read from the combined thumbnail image storage unit 74, supplied to the list image display control unit 64, and held in the list image display control unit 64 for generating image data of the list image. Is done.

このようにして、ステップS8の処理で合成サムネイル画像が一覧画像に含められるか、又はステップS4の処理でサムネイル画像が一覧画像に含められると、処理はステップS9に進む。
ステップS9において、一覧画像表示制御部64は、表示対象の候補に対応するサムネイル画像又は合成サムネイル画像の全てが一覧画像に含められたか否かを判定する。
表示対象の候補となる原画像の中に、そのサムネイル画像又は合成サムネイル画像が一覧画像に含められていないものが未だ存在する場合、ステップS9においてNOであると判定されて、処理はステップS1に戻され、それ以降の処理が繰り返される。
即ち、表示対象の候補となる複数の原画像の各々について、ステップS1乃至S9のループ処理がその都度実行されることで、そのサムネイル画像又は合成サムネイル画像が一覧画像に順次含まれていく。
そして、表示対象の候補に対応するサムネイル画像又は合成サムネイル画像の全てが一覧画像に含められると、ステップS9においてYESであると判定されて、処理はステップS10に進む。
In this way, when the combined thumbnail image is included in the list image in the process of step S8, or when the thumbnail image is included in the list image in the process of step S4, the process proceeds to step S9.
In step S <b> 9, the list image display control unit 64 determines whether all thumbnail images or combined thumbnail images corresponding to the display target candidates are included in the list image.
If there is still an original image that is a candidate for display whose thumbnail image or composite thumbnail image is not included in the list image, it is determined NO in step S9, and the process proceeds to step S1. Is returned, and the subsequent processing is repeated.
That is, for each of a plurality of original images that are candidates for display, the loop processing of steps S1 to S9 is executed each time, so that the thumbnail images or synthesized thumbnail images are sequentially included in the list image.
If all thumbnail images or composite thumbnail images corresponding to display target candidates are included in the list image, it is determined as YES in step S9, and the process proceeds to step S10.

ステップS10において、一覧画像表示制御部64は、サムネイル画像や合成サムネイル画像を全て含む画像を、一覧画像として表示部41に表示する。
具体的には例えば、図4に示す一覧画像200が、表示部41の画面として表示される。
In step S <b> 10, the list image display control unit 64 displays images including all thumbnail images and composite thumbnail images on the display unit 41 as list images.
Specifically, for example, the list image 200 shown in FIG. 4 is displayed as the screen of the display unit 41.

このように、第1実施形態では、画像処理が施された原画像の画像データから、当該原画像の縮小画像に余白領域を付加したサムネイル画像の画像データが生成される。さらに、サムネイル画像の余白領域に、原画像の特徴領域(本実施形態では顔領域)の少なくとも一部を含む特徴画像を重畳した合成サムネイル画像の画像データが生成される。そして、当該合成サムネイル画像を含む一覧画像が表示部41の画面として表示される。
ここで、特徴画像とは、サムネイル画像の観点からすると、サムネイル画像の特徴領域(本実施形態では顔領域)の拡大画像に相当する。従って、ユーザは、合成サムネイル画像のうち、特徴画像をみることで、サムネイル画像だけをみた場合と比較して、原画像内の小さな違いを確認し易くなるので、原画像の画像データに施された画像処理の内容を容易に把握することが可能になる。
一方で、ユーザは、合成サムネイル画像のうち、原画像の縮小画像をみることで、当該原画像の全体像を把握することが容易に可能になる。
以上まとめると、一覧画像のように、複数のサムネイル画像又は合成サムネイル画像が1画面内に一覧表示される場合に、各々の画像処理の内容(画像処理が施されてないという内容含む)及び全体像をユーザが容易に把握することが可能になる。
As described above, in the first embodiment, image data of a thumbnail image in which a blank area is added to a reduced image of the original image is generated from the image data of the original image subjected to image processing. Furthermore, image data of a combined thumbnail image is generated by superimposing a feature image including at least a part of a feature region (a face region in the present embodiment) of the original image on a margin region of the thumbnail image. Then, a list image including the composite thumbnail image is displayed as a screen of the display unit 41.
Here, from the viewpoint of a thumbnail image, the feature image corresponds to an enlarged image of a feature area (a face area in the present embodiment) of the thumbnail image. Therefore, the user can easily confirm small differences in the original image by looking at the feature image of the composite thumbnail image, as compared with the case where only the thumbnail image is seen. It is possible to easily grasp the contents of the processed image.
On the other hand, the user can easily grasp the whole image of the original image by looking at the reduced image of the original image among the combined thumbnail images.
In summary, when a plurality of thumbnail images or composite thumbnail images are displayed as a list within one screen, such as a list image, the contents of each image process (including the contents that the image process has not been performed) and the whole The user can easily grasp the image.

さらに、合成サムネイル画像において、特徴画像が重畳される場所は、原画像とサムネイル画像の画面アスペクト比の違いによって必然的に生ずる余白領域である。このため、サムネイル画像や合成サムネイル画像を複数枚含む一覧画像の視認性、即ち、一覧性を阻害することはなく、かつ、表示部41の画面といった限られた範囲(表示領域の範囲)を無駄に消費することもない。   Further, in the composite thumbnail image, the place where the feature image is superimposed is a blank area that inevitably occurs due to the difference in the screen aspect ratio between the original image and the thumbnail image. Therefore, the visibility of the list image including a plurality of thumbnail images and composite thumbnail images, that is, the list property is not hindered, and a limited range (display area range) such as the screen of the display unit 41 is wasted. There is no consumption.

[第2実施形態]
次に、本発明が適用される画像処理装置の第2実施形態について説明する。
[Second Embodiment]
Next, a second embodiment of the image processing apparatus to which the present invention is applied will be described.

第2実施形態の画像処理装置として、図1のハードウェア構成のフォトフレーム1をそのまま採用することができる。また、第2実施形態のフォトフレーム1が、サムネイル表示処理を実現するための機能的構成も、図2の機能的構成をそのまま採用することができる。よって、第2実施形態のフォトフレーム1のハードウェア構成及び機能的構成の説明は省略する。   As an image processing apparatus according to the second embodiment, the photo frame 1 having the hardware configuration shown in FIG. 1 can be employed as it is. In addition, the functional configuration for realizing the thumbnail display processing in the photo frame 1 of the second embodiment can be employed as it is. Therefore, description of the hardware configuration and functional configuration of the photo frame 1 of the second embodiment is omitted.

そこで、以下、第2実施形態のフォトフレーム1のうち、第1実施形態との差異点についてのみ説明する。   Therefore, only the differences from the first embodiment of the photo frame 1 of the second embodiment will be described below.

即ち、第1実施形態では、ユーザの目的が、上述したように、一覧画像に含まれる合成サムネイル画像から、原画像の画像データに対して施された画像処理の内容を把握することが前提とされた。このため、第1実施形態では、図2の合成対象決定部81は、画像処理が施された原画像に対応するサムネイル画像の画像データを、合成対象として決定していた。即ち、第1実施形態では、画像処理が施された原画像に対応するサムネイル画像の画像データのみから、合成サムネイル画像の画像データが生成された。   That is, in the first embodiment, it is assumed that the user's purpose is to grasp the contents of the image processing performed on the image data of the original image from the composite thumbnail image included in the list image as described above. It was done. For this reason, in the first embodiment, the compositing target determining unit 81 in FIG. 2 determines the image data of the thumbnail image corresponding to the original image subjected to the image processing as the compositing target. That is, in the first embodiment, the image data of the combined thumbnail image is generated only from the image data of the thumbnail image corresponding to the original image that has been subjected to image processing.

これに対して、第2実施形態では、ユーザの目的が、一覧画像に含まれる合成サムネイル画像から、ブラケット撮影された複数の原画像の間の撮像条件の違いを把握することが前提とされる。このため、第2実施形態では、合成対象決定部81は、ブラケット撮影により得られた原画像に対応するサムネイル画像の画像データを、合成対象として決定する。即ち、第2実施形態では、ブラケット撮影により得られた原画像に対応するサムネイル画像の画像データのみから、合成サムネイル画像の画像データが生成される。
従って、図示はしないが、第2実施形態のサムネイル表示処理も、原則として、図5のフローチャートに従った処理となる。ただし、第2実施形態のサムネイル表示処理では、ステップS3の処理のみが、「原画像はブラケット撮影により得られたものであるか?」という処理に置換される。
ここで、ブラケット撮影とは、露出値、ズーム値、フォーカス値、ホワイトバランス値フラッシュ発光量等の撮影時における1種類以上の設定値を複数段階に変更して、設定値変更する毎に撮影をすることをいう。ブラケット撮影により、異なる設定値でそれぞれ撮影された場合の原画像の画像データがそれぞれ得られる。
On the other hand, in the second embodiment, it is assumed that the user's purpose is to grasp the difference in imaging conditions between a plurality of original images taken with brackets from the synthesized thumbnail images included in the list image. . For this reason, in the second embodiment, the compositing target determining unit 81 determines the image data of the thumbnail image corresponding to the original image obtained by bracket shooting as the compositing target. That is, in the second embodiment, the image data of the composite thumbnail image is generated only from the image data of the thumbnail image corresponding to the original image obtained by bracket shooting.
Accordingly, although not shown, the thumbnail display process of the second embodiment is also a process according to the flowchart of FIG. 5 in principle. However, in the thumbnail display process of the second embodiment, only the process of step S3 is replaced with a process of “Is the original image obtained by bracket shooting?”.
Here, bracket shooting refers to shooting each time the setting value is changed by changing one or more setting values such as exposure value, zoom value, focus value, white balance value flash emission amount, etc., in multiple stages. To do. By bracket shooting, image data of an original image when each is shot with different setting values is obtained.

図6は、第2実施形態のフォトフレーム1の表示部41の画面として表示される一覧画像の例を示している。
図6の例の一覧画像300(画面300)には、10枚の合成サムネイル画像311乃至320が含まれている。
10枚の合成サムネイル画像311乃至320の各々の中央部分には、原画像の縮小画像が含まれている。ユーザは、これらの縮小画像から、原画像の画像データがブラケット撮影により得られたものであると把握することまではできるが、縮小画像内の小さな違いが区別付かないため、撮像条件の違いを把握することは非常に困難である。
しかしながら、10枚の合成サムネイル画像311乃至320の各々の上下の部分、即ち、サムネイル画像の余白領域であった部分には、原画像の特徴領域(本実施形態では顔領域)の少なくとも一部を含む特徴画像が重畳されている。
ここで、合成サムネイル画像311乃至320の各々の中央部分の縮小画像には、即ち、合成前のサムネイル画像の中央部分の縮小画像には、原画像内の顔領域も縮小して含まれている。従って、視点を変えると、合成前のサムネイル画像内の顔領域の拡大画像が、特徴画像であると把握することもできる。このように把握すると、合成サムネイル画像311乃至320とは、合成前のサムネイル画像内の顔領域の拡大画像が、当該サムネイル画像の余白領域に重畳された画像であるといえる。
従って、ユーザは、合成サムネイル画像311乃至320のうち、特徴画像(縮小画像からみると顔領域の拡大画像)を見比べることで、ブラケット撮影により得られた複数の原画像の間の撮像条件の違いを容易に把握することが可能になる。
一方で、ユーザは、合成サムネイル画像311乃至320のうち、中央部分の縮小画像をみることで、原画像の全体像を把握することが容易に可能になる。
以上まとめると、図6の例の一覧画像300のように、複数のサムネイル画像又は合成サムネイル画像が1画面内に一覧表示される場合に、各々の撮影条件の違い及び全体像をユーザが容易に把握することが可能になる。
FIG. 6 shows an example of a list image displayed as a screen of the display unit 41 of the photo frame 1 of the second embodiment.
The list image 300 (screen 300) in the example of FIG. 6 includes ten composite thumbnail images 311 to 320.
The central portion of each of the ten composite thumbnail images 311 to 320 includes a reduced image of the original image. From these reduced images, the user can grasp that the image data of the original image is obtained by bracket shooting, but small differences in the reduced images cannot be distinguished, so the difference in imaging conditions can be determined. It is very difficult to grasp.
However, at least a part of the characteristic area (the face area in the present embodiment) of the original image is included in the upper and lower parts of each of the ten composite thumbnail images 311 to 320, that is, the marginal area of the thumbnail image. Including feature images are superimposed.
Here, the reduced image of the central portion of each of the combined thumbnail images 311 to 320, that is, the reduced image of the central portion of the thumbnail image before combining includes the face area in the original image in a reduced manner. . Therefore, if the viewpoint is changed, it is possible to grasp that the enlarged image of the face area in the thumbnail image before composition is a feature image. If grasped in this way, it can be said that the synthesized thumbnail images 311 to 320 are images in which the enlarged image of the face area in the thumbnail image before synthesis is superimposed on the blank area of the thumbnail image.
Therefore, the user compares the characteristic images (enlarged images of the face area when viewed from the reduced image) among the composite thumbnail images 311 to 320, and thus the difference in imaging conditions between the plurality of original images obtained by bracket shooting. Can be easily grasped.
On the other hand, the user can easily grasp the entire image of the original image by looking at the reduced image at the center of the combined thumbnail images 311 to 320.
In summary, when a plurality of thumbnail images or composite thumbnail images are displayed as a list in one screen as in the list image 300 in the example of FIG. 6, the user can easily identify differences in the shooting conditions and the overall image. It becomes possible to grasp.

さらに、合成サムネイル画像において、特徴画像が重畳される場所は、原画像とサムネイル画像の画面アスペクト比の違いによって必然的に生ずる余白領域である。このため、第1実施形態と全く同様に、サムネイル画像や合成サムネイル画像を複数枚含む一覧画像の視認性、即ち、一覧性を阻害することはなく、かつ、表示部41の画面といった限られた範囲(表示領域の範囲)を無駄に消費することもない。   Further, in the composite thumbnail image, the place where the feature image is superimposed is a blank area that inevitably occurs due to the difference in the screen aspect ratio between the original image and the thumbnail image. For this reason, just as in the first embodiment, the visibility of the list image including a plurality of thumbnail images and composite thumbnail images, that is, the list property is not hindered, and the screen of the display unit 41 is limited. The range (display area range) is not wasted.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.

例えば、上述した第1実施形態では、画像処理が施された原画像に対応するサムネイル画像の画像データのみが、合成対象となり、合成サムネイル画像の画像データが生成された。一方、上述した第2実施形態では、ブラケット撮影により得られた原画像に対応するサムネイル画像の画像データのみが、合成対象となり、合成サムネイル画像の画像データが生成された。
しかしながら、合成対象は、上述した第1実施形態や第2実施形態の例に特に限定されず、任意でよい。例えば、第1実施形態と第2実施形態とを組み合わせてもよい。即ち、画像処理が施された原画像及びブラケット撮影により得られた原画像の各々に対応するサムネイル画像の画像データを、合成対象として、合成サムネイル画像の画像データを生成するようにしてもよい。
For example, in the first embodiment described above, only the image data of the thumbnail image corresponding to the original image that has been subjected to image processing is to be combined, and the image data of the combined thumbnail image is generated. On the other hand, in the above-described second embodiment, only the image data of the thumbnail image corresponding to the original image obtained by bracket shooting is the object to be combined, and the image data of the combined thumbnail image is generated.
However, the synthesis target is not particularly limited to the examples of the first embodiment and the second embodiment described above, and may be arbitrary. For example, the first embodiment and the second embodiment may be combined. That is, the image data of the combined thumbnail image may be generated by using the image data of the thumbnail image corresponding to each of the original image subjected to the image processing and the original image obtained by the bracket shooting as a compositing target.

例えば、上述した実施形態では、本発明が適用される画像処理装置は、フォトフレームとして構成される例として説明した。しかしながら、本発明は、フォトフレームに特に限定されず、電子機器一般に適用することができる。具体的には例えば、本発明は、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。   For example, in the above-described embodiments, the image processing apparatus to which the present invention is applied has been described as an example configured as a photo frame. However, the present invention is not particularly limited to a photo frame, and can be applied to electronic devices in general. Specifically, for example, the present invention is applicable to a video camera, a portable navigation device, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。   The series of processes described above can be executed by hardware or can be executed by software.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパソコンであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブル記録媒体51(図1)により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブル記録媒体51は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM32や、図示せぬハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable recording medium 51 (FIG. 1) distributed separately from the apparatus main body in order to provide the program to the user, but is also incorporated in the apparatus main body in advance. And a recording medium provided to the user. The removable recording medium 51 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preinstalled in the apparatus main body is configured by, for example, the ROM 32 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

1・・・フォトフレーム(画像処理装置)、11・・・データ処理部、12・・・ユーザインタフェース部、31・・・CPU、32・・・ROM、33・・・RAM、34・・・メモリ、35・・・表示制御部、36・・・画像処理部、41・・・表示部(表示手段)、42・・・操作部、43・・・通信部、44・・・ドライブ、51・・・リムーバブル記録媒体、61・・・画像取得部、62・・・画像記憶部、63・・・合成サムネイル画像生成部、64・・・一覧画像表示制御部、71・・・サムネイル画像記憶部、72・・・原画像記憶部、73・・・特徴画像記憶部、74・・・合成サムネイル画像記憶部、81・・・合成対象決定部、82・・・特徴画像抽出部、83・・・画像合成部 DESCRIPTION OF SYMBOLS 1 ... Photo frame (image processing apparatus) 11 ... Data processing part 12 ... User interface part 31 ... CPU, 32 ... ROM, 33 ... RAM, 34 ... Memory 35... Display control unit 36... Image processing unit 41... Display unit (display means) 42. ... Removable recording medium, 61 ... Image acquisition unit, 62 ... Image storage unit, 63 ... Composite thumbnail image generation unit, 64 ... List image display control unit, 71 ... Thumbnail image storage , 72 ... Original image storage unit, 73 ... Feature image storage unit, 74 ... Composite thumbnail image storage unit, 81 ... Composite object determination unit, 82 ... Feature image extraction unit, 83 ..Image composition unit

Claims (6)

原画像の縮小画像に対して余白領域が付加されたサムネイル画像の画像データの中から、処理対象を決定する決定手段と、
前記決定手段により決定された処理対象に対応する前記原画像の画像データから、前記原画像の特徴領域の少なくとも一部を含む画像であって、前記サムネイル画像と同一解像度の画像の画像データを、特徴画像の画像データとして抽出する特徴画像抽出手段と、
前記特徴画像と前記サムネイル画像とを合成する合成処理を、前記決定手段により処理対象として決定された前記サムネイル画像のデータ及び前記特徴画像抽出手段により抽出された前記特徴画像の画像データに施すことによって、前記サムネイル画像の前記余白領域に前記特徴画像が重畳された合成サムネイル画像の画像データを生成する画像合成手段と、
を備える画像処理装置。
Determining means for determining a processing target from image data of thumbnail images in which a blank area is added to a reduced image of the original image;
From the image data of the original image corresponding to the processing target determined by the determining means, the image includes at least a part of the feature region of the original image, and the image data of the image having the same resolution as the thumbnail image, Feature image extraction means for extracting as feature image data;
By performing a synthesis process for synthesizing the feature image and the thumbnail image on the data of the thumbnail image determined as a processing target by the determination unit and the image data of the feature image extracted by the feature image extraction unit Image synthesizing means for generating image data of a synthesized thumbnail image in which the feature image is superimposed on the margin area of the thumbnail image;
An image processing apparatus comprising:
前記決定手段は、画像処理が施された前記原画像の画像データから生成された前記サムネイル画像の画像データを、処理対象として決定する、
請求項1に記載の画像処理装置。
The determining means determines the image data of the thumbnail image generated from the image data of the original image subjected to image processing as a processing target.
The image processing apparatus according to claim 1.
前記決定手段は、ブラケット撮影により得られた前記原画像の画像データから生成された前記サムネイル画像の画像データを、処理対象として決定する、
請求項1又は2に記載の画像処理装置。
The determination means determines the image data of the thumbnail image generated from the image data of the original image obtained by bracket shooting as a processing target.
The image processing apparatus according to claim 1.
前記特徴画像抽出手段は、前記特徴領域として、前記原画像に含まれる人物の顔領域を検出し、検出した前記顔領域の少なくとも一部を含む画像のデータを、前記特徴画像のデータとして抽出する、
請求項1乃至3の何れか1項に記載の画像処理装置。
The feature image extraction unit detects a human face area included in the original image as the feature area, and extracts image data including at least a part of the detected face area as the feature image data. ,
The image processing apparatus according to claim 1.
原画像の縮小画像に対して余白領域が付加されたサムネイル画像の画像データの中から、処理対象を決定する決定ステップと、
前記決定ステップの処理により決定された処理対象に対応する前記原画像の画像データから、前記原画像の特徴領域の少なくとも一部を含む画像であって、前記サムネイル画像と同一解像度の画像の画像データを、特徴画像の画像データとして抽出する特徴画像抽出ステップと、
前記特徴画像と前記サムネイル画像とを合成する合成処理を、前記決定ステップの処理により処理対象として決定された前記サムネイル画像のデータ及び前記特徴画像抽出ステップの処理により抽出された前記特徴画像の画像データに施すことによって、前記サムネイル画像の前記余白領域に前記特徴画像が重畳された合成サムネイル画像の画像データを生成する画像合成ステップと、
を含む画像処理方法。
A determination step of determining a processing target from image data of thumbnail images in which a blank area is added to the reduced image of the original image;
From the image data of the original image corresponding to the processing target determined by the processing of the determination step, the image data includes at least a part of the feature region of the original image and has the same resolution as the thumbnail image A feature image extraction step for extracting the image as feature image data;
The combination processing for combining the feature image and the thumbnail image is the thumbnail image data determined as the processing target by the determination step processing and the feature image image data extracted by the feature image extraction step processing. An image synthesis step for generating image data of a synthesized thumbnail image in which the feature image is superimposed on the margin area of the thumbnail image;
An image processing method including:
画像処理装置が備えるコンピュータを、
原画像の縮小画像に対して余白領域が付加されたサムネイル画像の画像データの中から、処理対象を決定する決定手段と、
前記決定手段により決定された処理対象に対応する前記原画像の画像データから、前記原画像の特徴領域の少なくとも一部を含む画像であって、前記サムネイル画像と同一解像度の画像の画像データを、特徴画像の画像データとして抽出する特徴画像抽出手段と、
前記特徴画像と前記サムネイル画像とを合成する合成処理を、前記決定手段により処理対象として決定された前記サムネイル画像のデータ及び前記特徴画像抽出手段により抽出された前記特徴画像の画像データに施すことによって、前記サムネイル画像の前記余白領域に前記特徴画像が重畳された合成サムネイル画像の画像データを生成する画像合成手段と、
して機能させるための、画像処理プログラム。
A computer provided in the image processing apparatus,
Determining means for determining a processing target from image data of thumbnail images in which a blank area is added to a reduced image of the original image;
From the image data of the original image corresponding to the processing target determined by the determining means, the image includes at least a part of the feature region of the original image, and the image data of the image having the same resolution as the thumbnail image, Feature image extraction means for extracting as feature image data;
By performing a synthesis process for synthesizing the feature image and the thumbnail image on the data of the thumbnail image determined as a processing target by the determination unit and the image data of the feature image extracted by the feature image extraction unit Image synthesizing means for generating image data of a synthesized thumbnail image in which the feature image is superimposed on the margin area of the thumbnail image;
Image processing program to make it function.
JP2010120221A 2010-05-26 2010-05-26 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5459072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010120221A JP5459072B2 (en) 2010-05-26 2010-05-26 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010120221A JP5459072B2 (en) 2010-05-26 2010-05-26 Image processing apparatus, image processing method, and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014000680A Division JP5761386B2 (en) 2014-01-07 2014-01-07 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2011248566A JP2011248566A (en) 2011-12-08
JP5459072B2 true JP5459072B2 (en) 2014-04-02

Family

ID=45413755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010120221A Expired - Fee Related JP5459072B2 (en) 2010-05-26 2010-05-26 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5459072B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257296A (en) * 1997-03-06 1998-09-25 Brother Ind Ltd Image forming device
JP4778158B2 (en) * 2001-05-31 2011-09-21 オリンパス株式会社 Image selection support device
JP2005020664A (en) * 2003-06-30 2005-01-20 Kyocera Mita Corp Image forming method and image forming apparatus
JP4303622B2 (en) * 2004-03-22 2009-07-29 富士フイルム株式会社 Image reproducing apparatus and method
JP4352980B2 (en) * 2004-04-23 2009-10-28 オムロン株式会社 Enlarged display device and enlarged image control device
JP2008262416A (en) * 2007-04-12 2008-10-30 Olympus Imaging Corp Image reproduction device, image reproduction program, recording medium and image reproduction method
JP2009055272A (en) * 2007-08-27 2009-03-12 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP2009290476A (en) * 2008-05-28 2009-12-10 Fujifilm Corp Image editing device, recording medium, and image editing method
JP5191864B2 (en) * 2008-11-05 2013-05-08 富士フイルム株式会社 Three-dimensional display device, method and program
JP5479850B2 (en) * 2009-10-30 2014-04-23 オリンパスイメージング株式会社 Moving image creating apparatus and moving image creating method

Also Published As

Publication number Publication date
JP2011248566A (en) 2011-12-08

Similar Documents

Publication Publication Date Title
US9165389B2 (en) Image processing apparatus, image processing method, and program
EP2525561B1 (en) Data-generating device, data-generating method, data-generating program, and recording medium
JP4399462B2 (en) Image processing apparatus, method, and program
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP4821642B2 (en) Image processing method, image processing apparatus, digital camera, and image processing program
WO2016026466A1 (en) Method and apparatus for optimizing light-painted image
JP2010072934A (en) Album creation device and album creation method
JP5408037B2 (en) Image processing apparatus and method, and program
JP2004234624A (en) Static image generating device, static image generating method, static image generating program and recording medium with static image generating program recorded
US8971636B2 (en) Image creating device, image creating method and recording medium
US7129961B1 (en) System and method for dynamic autocropping of images
JP5385059B2 (en) Image display method, program, image display apparatus, and imaging apparatus
JP5556194B2 (en) Display control apparatus and display control program
JP4323910B2 (en) Image composition apparatus and method
JP5459072B2 (en) Image processing apparatus, image processing method, and image processing program
JP5761386B2 (en) Image processing apparatus, image processing method, and image processing program
JP4212430B2 (en) Multiple image creation apparatus, multiple image creation method, multiple image creation program, and program recording medium
CN112488972A (en) Method and device for synthesizing green screen image and virtual image in real time
JP5232107B2 (en) Image display method, program, image display apparatus, and imaging apparatus
JP2012137958A (en) Image processing device, imaging device, image processing method, and program
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2012039558A (en) Reference image identification device and program
JP2010226485A (en) Image processing apparatus and digital camera
JP6606935B2 (en) Image processing apparatus, image processing method, and program
JP6476811B2 (en) Image generating apparatus, image generating method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131230

R150 Certificate of patent or registration of utility model

Ref document number: 5459072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees