JP4682254B2 - Image display method and image processing apparatus - Google Patents

Image display method and image processing apparatus Download PDF

Info

Publication number
JP4682254B2
JP4682254B2 JP2009024851A JP2009024851A JP4682254B2 JP 4682254 B2 JP4682254 B2 JP 4682254B2 JP 2009024851 A JP2009024851 A JP 2009024851A JP 2009024851 A JP2009024851 A JP 2009024851A JP 4682254 B2 JP4682254 B2 JP 4682254B2
Authority
JP
Japan
Prior art keywords
image
images
shooting
processing
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009024851A
Other languages
Japanese (ja)
Other versions
JP2009165142A (en
Inventor
智康 吉川
俊太郎 荒谷
勝弘 宮本
智之 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009024851A priority Critical patent/JP4682254B2/en
Publication of JP2009165142A publication Critical patent/JP2009165142A/en
Application granted granted Critical
Publication of JP4682254B2 publication Critical patent/JP4682254B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明はデジタル画像データをテレビ画面上で再生する為の画像表示方法に関するものである。   The present invention relates to an image display method for reproducing digital image data on a television screen.

デジタルハイビジョン放送が開始され、ハイビジョン対応のテレビ受信機の普及により、従来よりも高画質で迫力のある映像を家庭で楽しめるようになってきている。また、電子スチルカメラの普及により、電子化した静止画および動画をパソコンだけでなく、テレビのモニター画面に表示して楽しむユーザも増えてきている。   With the start of digital high-definition broadcasting and the spread of high-definition television receivers, it has become possible to enjoy powerful images with higher image quality at home. In addition, with the spread of electronic still cameras, an increasing number of users enjoy displaying electronic still images and moving images on a monitor screen of a television as well as a personal computer.

テレビ受信機にて静止画や動画を見る場合には、ユーザはモニター画面に表示されたサムネイル画像の一覧を見て、そのサムネイル画像を選択することで、再生データを選択するのが一般的である。   When viewing still images and videos on a TV receiver, the user generally selects playback data by viewing a list of thumbnail images displayed on the monitor screen and selecting the thumbnail image. is there.

一方、近年記憶容量を飛躍的に増大させたメモリの利用が可能になっており、これに伴い記憶できる画像の数も飛躍的に増大している。例えば、メモリカードは500枚を超えるデジタル写真の記憶をすることができるようになってきている。   On the other hand, in recent years, it has become possible to use a memory whose storage capacity has been drastically increased, and the number of images that can be stored has increased dramatically. For example, memory cards have become capable of storing over 500 digital photos.

このような大量の画像データの中から、ユーザが所望の画像データを探し出すことは容易なことではなくなってきている。   It has become difficult for a user to find desired image data from such a large amount of image data.

大量のデータオブジェクトを効率よく画面に配置し、ユーザ自身の目で容易に選択できるようにする技術としては、例えば、特許文献1に、サムネイル画像を重ねるように表示させながら移動させ、所望のデータを容易に見つけられるようにする技術が開示されている。また、特許文献2には、画像を3D空間の中にデータを表示させ、仮想的な視点を移動することで所望のデータを見つけられるようにする技術が開示されている。   As a technique for efficiently arranging a large amount of data objects on the screen and enabling easy selection with the user's own eyes, for example, Patent Document 1 moves while displaying thumbnail images so that desired data is displayed. A technique for making it easy to find the above is disclosed. Patent Document 2 discloses a technique for displaying desired data in a 3D space by displaying an image and moving a virtual viewpoint.

特開2001−306375号公報JP 2001-306375 A 特開平9−259130号公報JP-A-9-259130 特開2002−358522号公報JP 2002-358522 A

しかしながら、従来の技術では、サムネイル画像同士が重なり合って表示され、写真を判別する為に重要な部分が隠れてしまう場合があった。例えば図14に示すような写真Aと写真Bがあった場合、写真Aは画像の左部分にある「かけっこ」をしている子供達が重要な部分であり、また写真Bは画像の右側にある人物が重要である。これらの写真を他の写真とともに重ねるように表示すると同図(a)のように、重要な部分が隠れたまま表示されてしまうことがあった。   However, in the conventional technique, thumbnail images are displayed so as to overlap each other, and an important part for discriminating a photograph may be hidden. For example, when there are a picture A and a picture B as shown in FIG. 14, the picture A is an important part for children who are “kicking” in the left part of the image, and the picture B is on the right side of the image. A person is important. When these photographs are displayed so as to be overlapped with other photographs, an important part is sometimes hidden and displayed as shown in FIG.

そのため、上記特許文献1及び特許文献2に開示された提案では、ユーザが表示画像をスクロールしたり、仮想的な視点の位置を動かすなどの操作を行って、その写真の重要な部分がみられるようにしてから、写真を判別するしかなかった。   Therefore, in the proposals disclosed in Patent Document 1 and Patent Document 2, an important part of the photograph is seen when the user performs an operation such as scrolling the display image or moving the position of the virtual viewpoint. After that, the only way to identify the photos was.

本発明は上記問題に鑑みてなされるものであり、大量の画像を画面上に効率よく配置し
た状態において、ユーザが容易に希望の画像を見つけることができる画像表示方法を提供することを目的としている。
The present invention has been made in view of the above problems, and an object thereof is to provide an image display method that allows a user to easily find a desired image in a state where a large number of images are efficiently arranged on a screen. Yes.

また、撮影されたほとんどのデジタル画像は、撮影者が被写対象とした領域とそれ以外の領域とに分割できる。ここで、前者の領域を注目領域、後者の領域を非注目領域と呼ぶことにする。   In addition, most digital images that have been taken can be divided into a region that the photographer has taken as a subject and other regions. Here, the former area is referred to as an attention area, and the latter area is referred to as a non-attention area.

画像表示装置の操作者が、大量のデジタル画像から所望する画像を検索する状況を考えると、個々のデジタル画像内の注目領域を判断していると考えられる。   Considering the situation where the operator of the image display apparatus searches for a desired image from a large number of digital images, it is considered that the region of interest in each digital image is determined.

従来、サムネイル画像を作成する際には、注目領域・非注目領域の区別無く一律で画像データを縮小する。このため、サムネイル画像一覧表示で複数画像を表示した場合、注目領域が小さく表示されることになる。従って、この方法で大量のデジタル画像の中から俯瞰により、注目領域を判断基準として所望の画像を見つけ出すことは難しい。   Conventionally, when creating a thumbnail image, the image data is reduced uniformly without distinction between the attention area and the non-attention area. For this reason, when a plurality of images are displayed in the thumbnail image list display, the attention area is displayed small. Therefore, it is difficult to find a desired image using the attention area as a determination criterion from a large number of digital images by this method.

そこで特許文献3では、画像の顔領域を検出し、検出された顔領域を拡大してサムネイル画像一覧表示する手法が提案されている。この構成により注目領域として顔領域を検知し、その部分を拡大表示することによってデジタル画像の検索性を高めたシステムが可能となる。   Therefore, Patent Document 3 proposes a method of detecting a face area of an image and enlarging the detected face area to display a thumbnail image list. With this configuration, it is possible to detect a face area as an attention area and display the enlarged portion of the face area, thereby enabling a system with improved digital image search performance.

しかし、この方法では注目領域を拡大した、サムネイル画像一覧表示のため、一画面上で表示可能な画像枚数は予め固定されている。このため表示可能な画像枚数を超える画像を表示させる場合、スクロール機能やページめくり機能などが別途必要となり、ユーザの操作が煩わしくなる。   However, in this method, the number of images that can be displayed on one screen is fixed in advance for displaying a thumbnail image list in which the region of interest is enlarged. For this reason, when displaying images exceeding the number of displayable images, a scroll function, a page turning function, and the like are separately required, and the user's operation becomes troublesome.

また拡大した注目領域と元画像の両方をサムネイル画像表示した場合、さらに一画面上で表示可能な画像枚数は少なくなってしまう。   When both the enlarged attention area and the original image are displayed as thumbnail images, the number of images that can be displayed on one screen is further reduced.

さらに、対象画像から顔領域が検知できなかった場合には、対処できない等の問題点があった。   Furthermore, there is a problem that it is impossible to deal with a face area that cannot be detected from the target image.

本発明に係る画像表示方法は、複数の画像を重なり合わせて表示する画像表示方法であって、前記複数の画像の各々に関連付けて付与された撮影シーンモード情報を取得する取得工程と、前記取得工程で取得された各画像の撮影シーンモード情報に基づいて、前記複数の画像を重なり合わせて表示する場合に各画像の撮影シーンモードに対応して定められる露出領域が他の画像によって隠されないように、各画像の表示位置を決定する決定工程と、前記決定工程で決定された各画像の表示位置に従って、前記複数の画像を重なり合わせて表示する表示工程と、を含むことを特徴とする。
The image display method according to the present invention is an image display method for displaying a plurality of images in an overlapping manner, an acquisition step of acquiring shooting scene mode information given in association with each of the plurality of images, and the acquisition Based on the shooting scene mode information of each image acquired in the process, when the plurality of images are displayed in an overlapped manner, the exposure area determined corresponding to the shooting scene mode of each image is not hidden by other images. And a display step of determining the display position of each image and a display step of displaying the plurality of images in an overlapping manner according to the display position of each image determined in the determination step.

本発明に係るプログラムは、上記画像表示方法をコンピュータに実行させるためのプログラムである。A program according to the present invention is a program for causing a computer to execute the image display method.

本発明に係る画像処理装置は、複数の画像を重なり合わせて表示した画像データを生成する画像処理装置であって、前記複数の画像の各々に関連付けて付与された撮影シーンモード情報を取得する取得手段と、前記取得手段により取得された各画像の撮影シーンモード情報に基づいて、前記複数の画像を重なり合わせて表示する場合に各画像の撮影シーンモードに対応して定められる露出領域が他の画像によって隠されないように、各画像の表示位置を決定する決定手段と、前記決定手段により決定された各画像の表示位置に従って、前記複数の画像を重なり合わせて表示した画像データを生成する生成手段と、を有することを特徴とする。
An image processing apparatus according to the present invention is an image processing apparatus that generates image data in which a plurality of images are displayed so as to overlap each other, and obtains shooting scene mode information given in association with each of the plurality of images. And an exposure area determined in accordance with the shooting scene mode of each image when the plurality of images are displayed in an overlapping manner based on the shooting scene mode information of each image acquired by the acquisition unit. A determination unit that determines a display position of each image so as not to be hidden by the image, and a generation unit that generates image data in which the plurality of images are displayed according to the display position of each image determined by the determination unit. It is characterized by having.

本発明の画像処理装置およびその画像表示方法により、複数の画像を重ねて一覧表示した場合に、注目領域と考えられる部分を検知することで、この注目領域を重ならないように制御する。これにより、各画像の注目領域が必ず露出することにより、ユーザによる画像検索性と画像の大量表示の両立ができる構成となる。

With the image processing apparatus and image display method of the present invention, when a plurality of images are displayed as a list, a portion that is considered as a region of interest is detected so that the region of interest does not overlap. As a result, the attention area of each image is always exposed, so that it is possible to achieve both image searchability by the user and mass display of images.

つまり本発明によればユーザが容易に所望の写真を見つけることができる。   That is, according to the present invention, the user can easily find a desired photograph.

図1は本発明の第1の実施形態におけるテレビ受像機の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a television receiver according to the first embodiment of the present invention. 図2は本実施形態のテレビ受像機のリモコンを示すブロック図である。FIG. 2 is a block diagram showing a remote controller of the television receiver of this embodiment. 図3は第1の実施形態における表示制御部110の動作の流れを示すチャート図である。FIG. 3 is a chart diagram showing a flow of operations of the display control unit 110 in the first embodiment. 図4は第1の実施形態における表示制御部110が重なり制御するために用いた情報テーブルに含まれるレイアウト情報を示した図である。FIG. 4 is a diagram showing the layout information included in the information table used for the overlap control by the display control unit 110 in the first embodiment. 図5は第1の実施形態における表示制御部110が重なり制御するために用いた情報テーブルの内容を示した図である。FIG. 5 is a view showing the contents of the information table used for the overlap control by the display control unit 110 in the first embodiment. 図6は第1の実施形態における重なり制御の作用を示した図である。FIG. 6 is a diagram showing the effect of overlap control in the first embodiment. 図7は第2の実施形態における表示制御部110の動作の流れを示すチャート図である。FIG. 7 is a chart showing an operation flow of the display control unit 110 in the second embodiment. 図8は第2の実施形態における表示制御部110が重なり制御するために用いた露出制御マスクの種類を示した図である。FIG. 8 is a diagram showing the types of exposure control masks used by the display control unit 110 in the second embodiment for overlapping control. 図9は第2の実施形態における表示制御部110の動作の流れを示すチャート図である。FIG. 9 is a chart showing an operation flow of the display control unit 110 in the second embodiment. 図10は第2の実施形態における重なり制御の動作例を示した図である。FIG. 10 is a diagram showing an operation example of overlap control in the second embodiment. 図11は本発明を使わない場合の重ね表示の例と、本発明の第2の実施形態における重なり制御の作用を示した図である。FIG. 11 is a diagram showing an example of overlap display when the present invention is not used, and an operation of overlap control in the second embodiment of the present invention. 図12は第3の実施形態における表示制御部110の動作の流れを示すチャート図である。FIG. 12 is a chart showing the flow of operations of the display control unit 110 in the third embodiment. 図13は第3の実施形態における重なり制御の動作例を示した図である。FIG. 13 is a diagram showing an operation example of overlap control in the third embodiment. 図14は本発明を使わない場合の画像一覧の表示例と、本発明を使った画像一覧の表示例を示した図である。FIG. 14 is a diagram showing a display example of an image list when the present invention is not used and a display example of an image list using the present invention. 図15は本実施形態で使用したデジタルカメラの液晶画面に表示される画面例を示したものである。FIG. 15 shows an example of a screen displayed on the liquid crystal screen of the digital camera used in this embodiment. 図16は本発明の第1、第2の実施形態で用いた焦点位置を記録可能なデジタルカメラにおける撮影時の液晶モニターの状態を示した図である。FIG. 16 is a diagram showing a state of the liquid crystal monitor at the time of photographing in the digital camera capable of recording the focal position used in the first and second embodiments of the present invention. 図17は、本発明の実施形態に係る画像表示装置の構成を示したブロック図である。FIG. 17 is a block diagram showing the configuration of the image display apparatus according to the embodiment of the present invention. 図18は、注目領域検出の一手法として使用されている顔検知処理の処理フローを示したフローチャートである。FIG. 18 is a flowchart showing a processing flow of face detection processing used as one method of attention area detection. 図19(a)は、画像データの一例を示した図であり、図19(b)は、顔検知処理後の顔領域を判定結果の一例を示した図である。FIG. 19A is a diagram illustrating an example of image data, and FIG. 19B is a diagram illustrating an example of a determination result of a face area after face detection processing. 図20(a)は、画像データの一例を示した図であり、図20(b)は、撮影情報による注目領域の範囲決定処理の一例を示した図である。FIG. 20A is a diagram illustrating an example of image data, and FIG. 20B is a diagram illustrating an example of range-of-interest determination processing based on shooting information. 図21は、第4の実施形態の注目領域決定処理の処理フローを示したフローチャートである。FIG. 21 is a flowchart illustrating a processing flow of attention area determination processing according to the fourth embodiment. 図22(a)は、無作為に画像を重ね表示した場合の一例を示した図であり、図22(b)は、注目領域の大きさを考慮した画像を重ね表示した場合の一例を示した図である。FIG. 22A is a diagram showing an example in which images are randomly displayed in an overlapping manner, and FIG. 22B shows an example in which images in consideration of the size of a region of interest are superimposed and displayed. It is a figure. 図23は、重ね表示処理の処理フローを示したフローチャートである。FIG. 23 is a flowchart showing a process flow of the overlap display process. 図24は、重ね一覧表示の一実施例を示した図である。FIG. 24 is a diagram showing an example of the overlapping list display. 図25は、第5の実施形態の注目領域決定処理の処理フローを示したフローチャートである。FIG. 25 is a flowchart illustrating a processing flow of attention area determination processing according to the fifth embodiment. 図26は、第6の実施形態の注目領域検知後の結果を示した図である。FIG. 26 is a diagram illustrating a result after the attention area detection according to the sixth embodiment. 図27は、第7の実施形態での表示制御部110の動作の流れを示すチャート図である。FIG. 27 is a chart diagram illustrating a flow of operations of the display control unit 110 according to the seventh embodiment.

以下図面を参照しながら本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1は本発明が適用される画像表示装置としてのデジタルテレビ受信装置100の構成を示した図である。
(First embodiment)
First, a first embodiment of the present invention will be described. FIG. 1 is a diagram showing a configuration of a digital television receiver 100 as an image display device to which the present invention is applied.

図1において、不図示のアンテナにより受信された信号はチューナ部101に入力される。チューナ部101は、入力された信号に対して、復調、誤り訂正等の処理を施し、トランスポートストリーム(TS)と呼ばれる形式のデジタルデータを生成する。チューナ部は更に、生成したTSデータに対しデスクランブル解除処理を行い、デマルチプレクサ102に出力する。   In FIG. 1, a signal received by an antenna (not shown) is input to the tuner unit 101. The tuner unit 101 performs processing such as demodulation and error correction on the input signal to generate digital data in a format called a transport stream (TS). The tuner unit further performs descrambling processing on the generated TS data and outputs it to the demultiplexer 102.

デマルチプレクサ部102は、チューナ部101より入力された複数チャンネル分の映像、音声データ、および電子番組ガイド(EPG)データ、データ放送データ等が時分割多重化されているTSデータの中から、映像データおよび音声データを取り出し、映像・音声デコーダ103に出力する。映像・音声デコーダで処理された映像データはビデオメモリ107に書き込まれ、表示合成部108を介して、表示器へと出力される。一方音声データは音声出力部104にて出力される。   The demultiplexer unit 102 receives video, audio data, electronic program guide (EPG) data, data broadcast data, and the like for a plurality of channels input from the tuner unit 101 from TS data in which time division multiplexing is performed. Data and audio data are extracted and output to the video / audio decoder 103. Video data processed by the video / audio decoder is written in the video memory 107 and output to the display device via the display synthesis unit 108. On the other hand, the audio data is output from the audio output unit 104.

109はカードスロットであり、リムーバブルメモリカード等を接続し、本実施形態においてはデジタルカメラとのデータのやり取りを行うために使用される。105は画像データ入力部であり、カードスロット109に接続されたメモリカードからデジタル画像データを読み込む。106は画像処理部であり、画像データ入力部より入力したデジタル画像データに対して画像処理を施し、ビデオメモリ107へと書き込む。   Reference numeral 109 denotes a card slot, which is connected to a removable memory card or the like, and is used to exchange data with the digital camera in this embodiment. An image data input unit 105 reads digital image data from a memory card connected to the card slot 109. An image processing unit 106 performs image processing on the digital image data input from the image data input unit and writes the digital image data in the video memory 107.

110は表示制御部であり、画像データ入力部105に対する画像読込の指示、画像処理部106に対する処理実行の指示、ビデオメモリ107への表示データの書き込み、表示合成部108に対する合成処理の指示、記憶部113に対する情報の記憶指示を行う。また、表示制御部110はユーザ入力部111を介してリモコン114からの入力データの取得、また画像データ入力部105を介して、デジタル画像データに付与された撮影データの取得も行なう。本実施形態では、表示制御部110が、重なり決定部及び露出決定部に相当する。   Reference numeral 110 denotes a display control unit that instructs the image data input unit 105 to read an image, instructs the image processing unit 106 to execute processing, writes display data to the video memory 107, and instructs the display composition unit 108 to perform composition processing. An instruction to store information is given to the unit 113. The display control unit 110 also acquires input data from the remote controller 114 via the user input unit 111 and also acquires shooting data attached to the digital image data via the image data input unit 105. In the present embodiment, the display control unit 110 corresponds to an overlap determination unit and an exposure determination unit.

リモコン114の例を図2に示す。ただし本図は本実施形態を説明する為に必要な機能を実現するための操作を行うボタンのみを表すものであり、実際の受信装置に必要なボタンはこの限りでない。   An example of the remote controller 114 is shown in FIG. However, this figure shows only buttons for performing operations for realizing functions necessary for explaining the present embodiment, and buttons necessary for an actual receiving apparatus are not limited to this.

図2において、201はリモコンと図1のユーザ入力部受光部111との赤外線通信を行うための発光部、202は電源をON/OFFする為の電源キー、203は上下左右ボタンの真中に決定キーを配したカーソル&決定キー、204、205はUp/Down2つのキーからなるアップダウンキー、206は1〜9、0の数字がマトリクス上に並んだ数字キー、207は青、赤、緑、黄の4色のボタンが横一列に並んでいるカラーキーである。   2, 201 is a light emitting unit for performing infrared communication between the remote controller and the user input unit light receiving unit 111 of FIG. 1, 202 is a power key for turning on / off the power, and 203 is determined at the middle of the up / down / left / right buttons. Cursor & Enter key with keys, 204 and 205 are Up / Down keys consisting of 2 Up / Down keys, 206 is a numeric key with numbers 1-9 and 0 arranged in a matrix, 207 is blue, red, green, It is a color key with four yellow buttons arranged in a row.

また、208はテレビ受信機のモニターの表示モードを切替えるモニターモードキー、209は画像ビューア機能を呼出す為の「ビューワ」キーである。   Reference numeral 208 denotes a monitor mode key for switching the display mode of the monitor of the television receiver. Reference numeral 209 denotes a “viewer” key for calling an image viewer function.

本実施形態において用いたデジタル画像はデジタルカメラにて撮影された静止画および動画データであり、静止画データはデジタルカメラにてJPEG圧縮処理を施された後、静止画像データファイルとしてメモリカードに記録されたものを用いている。また、動画データも同様にデジタルカメラにてフレーム単位でJPEG圧縮処理された画像群を動画像データファイルとしてメモリカードに記録されたものを用いている。以後の説明で「画像ファイル」は静止画像データもしくは動画像データの事を示すとする。   The digital images used in this embodiment are still images and moving image data taken by a digital camera. The still image data is JPEG compression processed by the digital camera and then recorded on a memory card as a still image data file. Is used. Similarly, moving image data uses a group of images that have been JPEG-compressed in units of frames by a digital camera and recorded on a memory card as a moving image data file. In the following description, “image file” indicates still image data or moving image data.

それぞれの画像ファイルには、画像に関連付けられた関連情報として、デジタルカメラによる撮影時の情報が付与されている。撮影時の情報とは、撮影日時やカメラ機種名のほかに、撮影シーンモード、撮影時におけるファインダー内の焦点位置を示す焦点位置情報、ストロボ発光状態情報、被写体との距離を示す情報、ズーム状態情報などがある。   Each image file is given information at the time of photographing with a digital camera as related information associated with the image. Information at the time of shooting includes the shooting date / time and camera model name, as well as the shooting scene mode, focus position information indicating the focus position in the viewfinder at the time of shooting, strobe lighting status information, information indicating the distance to the subject, zoom status There is information.

本実施形態で使用したデジタルカメラでは撮影時の撮影時におけるファインダー内の焦点位置情報として、「左」「中」「右」のうち何れかが記録されるものを用いている。   In the digital camera used in the present embodiment, information in which one of “left”, “middle”, and “right” is recorded is used as focus position information in the viewfinder at the time of shooting.

図15は本実施形態で使用したデジタルカメラの液晶画面に表示される画面例を示したものであり、図中(a)はシャッターボタンに手を触れる前の状態、図中(b)はシャッターボタンを軽く押した後、左側の矩形領域に焦点が合った状態を示している。   FIG. 15 shows an example of a screen displayed on the liquid crystal screen of the digital camera used in this embodiment. FIG. 15A shows a state before touching the shutter button, and FIG. 15B shows a shutter. After the button is pressed lightly, the left rectangular area is in focus.

(処理動作)
本実施形態によるデジタルテレビ受信装置100におけるデジタル画像の一覧表示は、ユーザがカードスロット109にメモリカードを装着し、リモコン操作によって、画像ビ
ューア機能を呼びだすことによって開始される。
(Processing operation)
Display of a list of digital images in the digital television receiver 100 according to the present embodiment is started when a user inserts a memory card into the card slot 109 and calls an image viewer function by remote control operation.

図3はデジタルテレビ受信装置における画像ビューア機能の一部の動作について表示制御部110の動作を中心に示した図である。また、図5は表示制御部110が画像データの一覧表示のレイアウト制御を行う際に使用するテーブルデータである。また図4は、図5の各インデクスに対応つけられた画像表示位置を示した例である。以下これらの図を使って表示制御部110の動作処理の説明を行う。   FIG. 3 is a diagram mainly showing the operation of the display control unit 110 for a part of the operation of the image viewer function in the digital television receiver. FIG. 5 shows table data used when the display control unit 110 performs layout control for displaying a list of image data. FIG. 4 is an example showing image display positions associated with the indexes in FIG. Hereinafter, the operation process of the display control unit 110 will be described with reference to these drawings.

ユーザが図2に示すリモコンの「ビューワ」キーを押下すると、表示制御部110は図3に示す処理を開始する。   When the user presses the “viewer” key on the remote control shown in FIG. 2, the display control unit 110 starts the process shown in FIG. 3.

まず表示制御部110は画像データ入力部105を介してメモリスロット109に挿入されているメモリカードにある画像ファイルの総数を読出し記憶する(S301)。そして次に1枚目の画像ファイルのExifヘッダ情報を読出しを行う(S302,S303)。   First, the display control unit 110 reads and stores the total number of image files in the memory card inserted into the memory slot 109 via the image data input unit 105 (S301). Next, the Exif header information of the first image file is read (S302, S303).

そして図5に示すテーブルの1番目の内容を読み出し(S304)、画像データが未登録であれば(S305)、先に読み出したExifヘッダ情報の中の焦点位置情報と、テーブルの「非露出部分」と比較し(S307)、同じであれば(S308)次のテーブルの内容を読み出す(S306,S304)。そして画像データが未登録であれば(S305)、Exifヘッダの情報に含まれる焦点位置情報と、テーブルの「非露出部分」とを比較する。ここで、同じでない場合には、この位置のテーブルに現在処理中の画像ファイルを登録する(S309)。   Then, the first content of the table shown in FIG. 5 is read (S304). If the image data is not registered (S305), the focal position information in the previously read Exif header information and the “non-exposed portion” of the table are displayed. ”(S307), if they are the same (S308), the contents of the next table are read (S306, S304). If the image data is not registered (S305), the focal position information included in the information of the Exif header is compared with the “non-exposed portion” of the table. If they are not the same, the image file being processed is registered in the table at this position (S309).

図5では「左」という焦点位置情報をもったIMG001.JPGという画像が、1番目のインデクスの所では非露出部分も「左」であるため登録されず、2番目のインデクスの所で非露出部分と異なっている為、テーブルに登録された状態を示している。   In FIG. 5, IMG001. The image JPG is not registered because the non-exposed part is also “left” at the first index, and is registered in the table because it is different from the non-exposed part at the second index. ing.

このように表示制御部110はテーブルのインデクスの小さいほうから空いている場所を探していき、空いているところを見つけたら、インデクスに対応つけられた非露出部分と、画像ファイルの焦点位置情報とを比較し、同じであったら、次のテーブルに関して同様の処理を行う。   In this way, the display control unit 110 searches for a vacant place from the smaller index of the table, and when the vacant place is found, the non-exposed portion associated with the index, the focal position information of the image file, If they are the same, the same processing is performed for the next table.

同様に2番目、3番目・・・とメモリカードの処理を続け、M(=画像総数)番目の画像データの処理が終れば、テーブルに登録した内容に従って各画像の表示処理を行う。表示制御部110は画像入力部105を介してメモリカードからこの画像のデータを読出し(S314)、画像処理部106へと送りデコード処理を行った後(S318)、ビデオメモリ107に対して表示データを書き込むことで画像の表示を行う(S319)。   Similarly, the processing of the second, third,... Memory card is continued, and when the processing of the M (= total number of images) -th image data is completed, display processing of each image is performed according to the contents registered in the table. The display control unit 110 reads out the image data from the memory card via the image input unit 105 (S314), sends it to the image processing unit 106, performs decoding processing (S318), and then displays the display data on the video memory 107. The image is displayed by writing (S319).

尚、特に図示しないが、図3の処理により、全ての画像の表示が行われると、ユーザはリモコンの上下左右キーを操作してカーソルを動かし、見たい画像を選択する。そして見たい画像のところで決定キーを押すと、その画像だけを画面に表示することができる。   Although not shown in particular, when all the images are displayed by the processing of FIG. 3, the user operates the up / down / left / right keys of the remote controller to move the cursor to select an image to be viewed. If you press the Enter key at the image you want to see, only that image can be displayed on the screen.

(作用・効果)
以上説明した表示制御部110の処理により、得られる作用について説明する。図6(a)は「左」という焦点位置情報もった画像ファイルIMG001.jpgが前述の処理によって図6の「1」(図4,5,6,10,11,13における丸囲み数字を本文では、かぎかっこで囲んで表記する。)の場所ではなく、「2」の位置に配置された様子を示している。これにより、この画像の左側の被写体部分が露出されるようになり、例えば同図(b)に示したように「1」の位置に配置された場合に比べ、容易にこの写真を見つけることが出来るようになる。
(Action / Effect)
An operation obtained by the processing of the display control unit 110 described above will be described. FIG. 6A shows an image file IMG001. jpg is “2” instead of the place of “1” in FIG. 6 (the circled numbers in FIGS. 4, 5, 6, 10, 11, and 13 are enclosed in square brackets in the text) by the above processing. It shows a state of being arranged at the position of. As a result, the subject portion on the left side of the image is exposed, and this photo can be easily found compared to the case where it is arranged at the position “1” as shown in FIG. become able to do.

つまり本発明の第1の実施形態によれば、写真固有の情報を基にその写真を判別するのに適した部分を露出させることが出来るようになる。
また、上記説明においては撮影時に記録された焦点位置情報という情報を用いる例を紹介したが、それ以外にも例えばデジタルカメラが撮影シーンモードとして被写体位置あるいは焦点位置が固定されたモードを設定可能な場合には、この撮影シーンモードの情報を用いてもよい。例えば図16のように「人物右」「人物左」といった撮影シーンモードを持ったデジタルカメラで撮影し、画像のExifヘッダ情報に「人物右」という情報があった場合、画像の右側部分を露出するように一覧表示位置を制御することで、上記説明と同様の作用が得られる。
That is, according to the first embodiment of the present invention, it is possible to expose a portion suitable for discriminating a photo based on information unique to the photo.
In the above description, an example using information called focal position information recorded at the time of photographing was introduced. However, for example, a digital camera can set a subject position or a focal point fixed mode as a photographing scene mode. In this case, information on the shooting scene mode may be used. For example, as shown in FIG. 16, when a photograph is taken with a digital camera having shooting scene modes such as “person right” and “person left”, and there is information “person right” in the Exif header information of the image, the right portion of the image is exposed. By controlling the list display position as described above, the same operation as described above can be obtained.

なお、上記説明において、説明を簡便にするため画面上に12枚の写真しか表示しない例を示したが、さらに大量の枚数を表示する場合であっても構わない。   In the above description, in order to simplify the description, an example in which only 12 photos are displayed on the screen has been shown. However, a larger number of images may be displayed.

(第2の実施形態)
次に本発明の他の実施形態について説明する。本実施形態で用いたデジタルテレビ受信装置の構成は図1と同じであるので説明は省略する。
(Second Embodiment)
Next, another embodiment of the present invention will be described. Since the configuration of the digital television receiver used in this embodiment is the same as that shown in FIG.

本実施形態においても先の実施形態で用いたものと同様のデジタルカメラで撮影されたデジタル画像を用いるが、本実施形態で使用したデジタルカメラでは、特に撮影日時の情報、撮影時のカメラの向きを示す情報(つまり横長写真/縦長写真を示す)と、撮影時の撮影シーンモードとして「オートモード」「風景モード」「人物モード(ポートレートモード)」「ナイト(夜間撮影)モード」といったモード設定が記録されるものを用いている。ここでは、撮影シーンモードに関する設定情報が、撮影モードに関する情報に相当する。   In this embodiment, a digital image taken with a digital camera similar to that used in the previous embodiment is used. However, in the digital camera used in this embodiment, information on the shooting date and time, and the direction of the camera at the time of shooting are used. Mode settings such as “Auto mode”, “Landscape mode”, “Portrait mode”, “Night (nighttime shooting) mode” as the shooting scene mode when shooting Is recorded. Here, the setting information related to the shooting scene mode corresponds to information related to the shooting mode.

(処理動作)
本実施形態のデジタルテレビ受信装置100におけるデジタル画像の一覧表示は、ユーザがカードスロット109にメモリカードを装着し、リモコン操作によって、画像ビューア機能を呼びだすことによって開始される。
(Processing operation)
Display of a list of digital images in the digital television receiver 100 of this embodiment is started when a user inserts a memory card into the card slot 109 and calls an image viewer function by remote control operation.

図7はデジタルテレビ受信装置における画像ビューア機能の一部の動作について表示制御部110の動作を中心に示した図である。また図8は図7の処理で使用される露出制御マスクの種類を示したものである。露出制御マスクは、焦点位置や撮影シーンモードに応じて露出量及び/露出位置が異なるものが用意されている。以下これらの図を使って説明する。   FIG. 7 is a diagram mainly showing the operation of the display control unit 110 for a part of the operation of the image viewer function in the digital television receiver. FIG. 8 shows the types of exposure control masks used in the process of FIG. Exposure control masks with different exposure amounts and / or exposure positions are prepared depending on the focal position and the shooting scene mode. This will be described below with reference to these drawings.

先ず表示制御部110はメモリカードに記録されている画像データの総数を取得し(S701)、1番目の画像データのExifヘッダ情報を読み込む(S702)。   First, the display control unit 110 acquires the total number of image data recorded on the memory card (S701), and reads the Exif header information of the first image data (S702).

この画像データのExifヘッダ情報に焦点位置情報が入っている場合(S704)、図8(a)に示した左露出用マスク、中央露出用マスク、右露出用マスクの3つの露出制御マスクのうち、焦点位置情報に対応した焦点位置の露出制御マスクを決定する(S705)。一方、画像データに焦点位置情報が無い場合において(S706)、撮影シーンモード情報がある場合には、図8の(b)に示した露出制御マスクのうち、撮影シーンモード情報に対応した露出制御マスクを決定する。(S707)、また、Exifヘッダ情報に焦点位置情報も、撮影シーンモード情報も含まない場合には標準露出マスクに決定する(S708)。   When the focus position information is included in the Exif header information of this image data (S704), among the three exposure control masks of the left exposure mask, the center exposure mask, and the right exposure mask shown in FIG. Then, the exposure control mask at the focal position corresponding to the focal position information is determined (S705). On the other hand, when there is no focus position information in the image data (S706), if there is shooting scene mode information, the exposure control corresponding to the shooting scene mode information in the exposure control mask shown in FIG. Determine the mask. (S707) If the Exif header information contains neither focus position information nor shooting scene mode information, a standard exposure mask is determined (S708).

そして、以降の画像データに対しても同様の処理を行って、露出制御マスクを決定して
いく(S709,S710,S703〜)。
The same processing is performed on the subsequent image data to determine an exposure control mask (S709, S710, S703).

図9は表示制御部110が行う表示処理の内容を示した図である。また図10は本実施形態で用いた画像データと、表示制御部110による図9の表示制御による画面上での様子を示した図である。図中(a)は本実施形態で用いた画像データを表した図である。使用した画像「1」〜「10」は焦点位置情報が左、中、右の3種類のものが順番に並んでいるものとしている。   FIG. 9 is a diagram showing the contents of display processing performed by the display control unit 110. FIG. 10 is a diagram showing the image data used in the present embodiment and the state on the screen by the display control of FIG. 9 by the display control unit 110. In the figure, (a) is a diagram showing the image data used in this embodiment. The used images “1” to “10” are assumed to have three types of focus position information arranged in order of left, middle, and right.

以下これらの図を用いて説明する。   This will be described below with reference to these drawings.

先ず表示制御部110はメモリカードから1枚目の画像データのサムネイル画像を読み出し(S901〜S902)、画像のデコード処理を行い(S903)、図7の処理にて決定された露出制御マスクを使ってマスク処理を行う(S904)。このマスク処理としては各画素のデータに対して露出部分か否かを示すフラグデータを埋め込む処理を行う。   First, the display control unit 110 reads a thumbnail image of the first image data from the memory card (S901 to S902), performs image decoding processing (S903), and uses the exposure control mask determined in the processing of FIG. Then, mask processing is performed (S904). As this masking process, a process of embedding flag data indicating whether or not the data is an exposed portion is performed on the data of each pixel.

本実施形態においては、各画素の青成分(0〜255の値)の下位1ビットを使用してフラグデータとしている。つまり、画像の中で青の下位1ビットが0の画素は非露出部分、1のところは露出部分を意味するものとする。   In this embodiment, the lower 1 bit of the blue component (value of 0 to 255) of each pixel is used as flag data. That is, in the image, a pixel whose lower 1 bit of blue is 0 means a non-exposed part, and 1 means an exposed part.

次に表示制御部110は処理中の画像を画面上の予め定めた基準位置に配置する(S905)。本実施形態では基準位置を画面上で一覧表示しようとしている領域の左端と定めている。このとき配置しようとしている領域の下に露出部分を示すフラグデータを含んだ画素が無いかどうかを調べる(S906)。1枚目の画像データの場合には他の画像はないので、そのまま基準位置に配置される。   Next, the display control unit 110 arranges the image being processed at a predetermined reference position on the screen (S905). In the present embodiment, the reference position is defined as the left end of the area to be displayed as a list on the screen. At this time, it is checked whether there is a pixel including flag data indicating an exposed portion under the region to be arranged (S906). In the case of the first image data, since there is no other image, it is arranged as it is at the reference position.

同様に2枚目の画像データを処理していく過程で、配置した画像の下に露出部分を示すフラグデータがある、つまり他画像の露出部分の上に重なってしまっている場合には(S907、S908)、配置した画像の位置を右方向に一定画素分動かして再配置する(S909)。   Similarly, in the process of processing the second image data, when there is flag data indicating an exposed portion under the arranged image, that is, when it overlaps with an exposed portion of another image (S907). , S908), the position of the arranged image is moved to the right by a certain pixel and rearranged (S909).

図中(b)は2枚目までの表示処理が終った状態を表した図であり、2枚目の配置処理において、当初基準位置に配置されたものの、1枚目の画像の露出部分に重なってしまっている為、2枚目の画像は右方向に動かされ、1枚目の露出部分との重なりが無くなったところで配置処理が終った状態を示している。   In the figure, (b) is a diagram showing a state in which the display process up to the second sheet is completed. In the second sheet layout process, although it was initially positioned at the reference position, Since the images overlap, the second image is moved to the right, and the arrangement processing is finished when the overlap with the exposed portion of the first image disappears.

次に3枚目の画像データを処理していく過程においても、基準位置に配置された時点では1枚目の画像の露出部分と重なっているので、再配置のために画像を移動する。但し図中(a)からわかるようにこの例では3枚目の画像は焦点位置情報が右側となっていた写真であり、右露出用マスクが用いられることが図7の処理で決定している画像である。表示制御部ではこの場合基準位置から左方向へ画像を動かし(S910)、他の画像の露出部分との重なりがなくなるところまで動かして再配置する。またこのとき表示制御部は配置済の画像群(ここでは1枚目と2枚目)を右にスライドさせ、3枚目の画像が図中点線で囲った一覧表示領域からはみ出さないようにする。また基準位置も同じ量だけ右に移動する(S913)。図10(c)はこのときの状態を表した図である。   Next, in the process of processing the third image data, the image is moved for rearrangement because it overlaps with the exposed portion of the first image when it is arranged at the reference position. However, as can be seen from (a) in the figure, in this example, the third image is a photograph in which the focal position information is on the right side, and it is determined in the processing of FIG. 7 that the right exposure mask is used. It is an image. In this case, the display control unit moves the image leftward from the reference position (S910), and moves the image to a position where it does not overlap with the exposed portion of the other image, and rearranges the image. At this time, the display control unit slides the arranged image group (here, the first and second images) to the right so that the third image does not protrude from the list display area surrounded by the dotted line in the figure. To do. The reference position is also moved to the right by the same amount (S913). FIG. 10C shows the state at this time.

4枚目以降の画像データについても同様の処理を行っていき、図10の(d)〜(f)のように配置処理が進んでいく。   Similar processing is performed on the fourth and subsequent image data, and the placement processing proceeds as shown in FIGS.

(作用・効果)
次に本実施形態における表示制御部110の処理による作用について説明するが、その
前に図11を使って本発明を使わない場合の表示例を説明する。図11(a)は本発明を用いずに単純に画像を重ねて表示していく場合の表示例である。このとき全ての画像が図中(b)のように中央部分に焦点位置がある場合には、図中(c)のようにおおよそその部分が露出されることになる。しかしながら、図中(d)のように焦点位置が中央でない画像が混在している画像群を一覧表示した場合には、図中(e)に示したように、一部の画像で露出部分がかなり隠れてしまうことになってしまう。
(Action / Effect)
Next, the operation of the processing of the display control unit 110 in this embodiment will be described. Before that, a display example when the present invention is not used will be described with reference to FIG. FIG. 11A shows a display example when images are simply superimposed and displayed without using the present invention. At this time, when all the images have a focal position at the central portion as shown in FIG. 5B, the portion is exposed as shown in FIG. However, when a list of images in which images whose focal positions are not in the center is mixed as shown in (d) in the figure, the exposed portion of some images is exposed as shown in (e) in the figure. It will be quite hidden.

一般にユーザが本実施形態で用いたような複数の焦点位置を持つデジタルカメラにて撮影する際、ユーザ自身が重要と考えている部分に焦点が合っていることを確認しながら撮影するのが普通である。つまり焦点位置の近くの領域が隠れて表示されてしまうということは、多くの場合においてユーザが重要と感じた被写体、つまり写真を判別する為に重要な部分を隠しているといえる。   In general, when shooting with a digital camera having a plurality of focal positions as used in the present embodiment, it is normal to shoot while confirming that the part that the user considers important is in focus. It is. In other words, the fact that the area near the focal point is hidden and displayed means that an important part for discriminating a subject that the user feels important in many cases, that is, a photograph, is hidden.

一方、上述してきた本実施形態における表示制御部110の処理を行った場合には、図中(f)のようにいずれの画像においても焦点位置近くの領域が隠れることなく表示できる。   On the other hand, when the processing of the display control unit 110 in the present embodiment described above is performed, an area near the focal position can be displayed without being hidden in any image as shown in FIG.

また、図11では詳述しないが、図7および図8を用いてに示した露出制御マスクの決定処理において、「風景」「人物」といった撮影シーンモードによって露出制御マスクを切り替えることにより、焦点位置情報が無い場合でも、その写真の撮影シーンに合わせて露出部分や露出量を制御できることが出来るようになる。例えば風景写真の場合には風景全体がユーザにとっての「印象」として残っている場合が多く、画像を判別し選択するためには露出部分を多くする必要がある。一方、人物写真の場合には顔が判別できるように露出するだけでよく、露出部分はあまり多くなくてもよいという傾向がある。   Although not described in detail in FIG. 11, in the exposure control mask determination process shown in FIGS. 7 and 8, the focus position is changed by switching the exposure control mask depending on the shooting scene mode such as “landscape” and “person”. Even when there is no information, the exposure part and the exposure amount can be controlled according to the shooting scene of the photograph. For example, in the case of a landscape photograph, the entire landscape often remains as an “impression” for the user, and it is necessary to increase the exposed portion in order to identify and select an image. On the other hand, in the case of a human photograph, it is only necessary to expose the face so that the face can be identified, and there is a tendency that the exposed portion does not have to be so many.

このような、撮影シーンモードを反映した制御をすることで、判別しやすさを維持しながら画像の特性に合わせた効率的な画像配置を行うことが出来るようになる。   By performing such control that reflects the shooting scene mode, it is possible to perform efficient image placement in accordance with image characteristics while maintaining ease of discrimination.

尚、上記説明では、一覧表示の方法として、画像を重ねながら横一列に並べていく場合だけを説明したが、本発明の主旨からすれば、画像の重ね合わせ方はこれに限られないことは当然であり、縦に重ねる場合、横にも縦にも重ねる場合であっても同様である。   In the above description, only the case where the images are arranged in a horizontal row while being overlaid has been described as a list display method. However, according to the gist of the present invention, the method of overlapping the images is not limited to this. The same applies to the case where the images are stacked vertically and horizontally and vertically.

また、上記説明では露出制御マスクを使ったマスク処理の説明において、青成分データの下位1ビットをフラグとして用いるとしたが、本発明の主旨からすればこれに限られるものではなく、画素ごとに専用のフラグビットを設けてもよいし、アルファブレンド量を示すデータのビットを用いても良い。   In the above description, in the description of the mask process using the exposure control mask, the lower 1 bit of the blue component data is used as a flag. However, the present invention is not limited to this, and is not limited to this for each pixel. A dedicated flag bit may be provided, or a bit of data indicating the alpha blend amount may be used.

また、上記説明において、撮影シーンモードとして「風景」「人物」の2種類のみを例としてあげたが、これに限られないことは当然であり、「夜景」「マクロ」などといった撮影シーンであってもよい。   In the above description, only two types of scene modes, “landscape” and “person”, are given as an example. However, the present invention is not limited to this, and the scenes such as “night view” and “macro” can be used. May be.

(第3の実施形態)
上記第2の実施形態においては、焦点位置情報、撮影シーンモード情報といったExifヘッダ情報からより効率的、かつ判別しやすい画像配置を行ったが、本発明の本質からすれば勿論これに限定することは無く、例えば撮影日時情報から効率的な画像配置を行うことが出来る。
(Third embodiment)
In the second embodiment, the image arrangement is more efficient and easy to discriminate from the Exif header information such as the focus position information and the shooting scene mode information, but of course, the present invention is limited to this. For example, efficient image placement can be performed based on the shooting date and time information.

本実施形態で用いるデジタルテレビ受信装置の構成は図1と同じであるので説明は省略する。   The configuration of the digital television receiver used in this embodiment is the same as that in FIG.

(処理動作)
図13(a)は本実施形態で用いる画像データを示した図である。画像は時系列に並んでおり、画像下には撮影時間が示されている。
(Processing operation)
FIG. 13A shows image data used in the present embodiment. The images are arranged in time series, and the shooting time is shown below the images.

先ず表示制御部110はメモリカードから1番目の画像データのExifヘッダ情報を読み出し(S1201〜S1202)、さらに1番目の画像データのサムネイル画像を読み出す(S1203)。読み出された画像データを画像処理部106へ送り、デコード処理を行う(S1204)。   First, the display control unit 110 reads the Exif header information of the first image data from the memory card (S1201 to S1202), and further reads the thumbnail image of the first image data (S1203). The read image data is sent to the image processing unit 106, and decoding processing is performed (S1204).

次に、(N−1)番目の画像の撮影時間を読出し(S1205)。ここで、N番目の画像の撮影時間と(N−1)番目の画像の撮影時間との差が10秒以内であれば(図13では「5」、「6」)、N番目と(N−1)番目の画像との重なり量を多くなるように制御する(S1206〜S1207)。一方、N番目の画像の撮影時間と(N−1)番目の画像の撮影時間との差が10秒を超える場合には、N番目と(N−1)番目の画像との重なり量を所定の通常量となるように制御する(S1206,S1208)。   Next, the shooting time of the (N-1) th image is read (S1205). If the difference between the shooting time of the Nth image and the shooting time of the (N−1) th image is within 10 seconds (“5” and “6” in FIG. 13), the Nth and (N -1) Control is performed so as to increase the amount of overlap with the first image (S1206 to S1207). On the other hand, when the difference between the shooting time of the Nth image and the shooting time of the (N-1) th image exceeds 10 seconds, the overlap amount between the Nth image and the (N-1) th image is set to a predetermined amount. (S1206, S1208).

同様に(N+1)番目以降の画像データについても同様の処理を行い、メモリカードに記録された全ての画像データに対して同様の処理を行ったところで処理を終了する(S1209〜S1210)。   Similarly, the same processing is performed on the (N + 1) th and subsequent image data, and the processing is terminated when the same processing is performed on all the image data recorded on the memory card (S1209 to S1210).

このような制御により、図13の(c)に示すような配置で一覧表示される。   By such control, a list is displayed in an arrangement as shown in FIG.

(作用・効果)
上記処理により、全ての画像を同じ重ね量で重ねていった場合(図13の(b))に比べ、より多くの画像を配置することが可能となる。この処理により撮影時間が10秒以下と少ない画像群の場合、1枚だけは露出が多いが(図13の(c)における「6」)、残りの(「4」と「5」の)画像は少ない露出になる。露出部分が減ってしまう為、写真の判別の為には望ましくないように思えるが、一般にこのように撮影時間が非常に近い画像の場合、ユーザは露出の多い画像(「6」)の内容から、露出の少ない画像(「4」、「5」)の内容を推測できるため、特に画像の選択のために障害にはならないことがわかっている。
(Action / Effect)
With the above processing, it is possible to arrange more images than when all the images are overlapped with the same overlap amount ((b) of FIG. 13). With this processing, in the case of an image group with a shooting time of 10 seconds or less, only one image has a large exposure (“6” in FIG. 13C), but the remaining images (“4” and “5”). Is less exposed. Although it seems that it is not desirable for photo discrimination because the exposed part is reduced, in general, in the case of an image with a very short shooting time as described above, the user can use the content of the image with a lot of exposure ("6"). It is known that the contents of the images (“4”, “5”) with low exposure can be estimated, and this is not an obstacle particularly for selection of images.

つまり、本実施形態の表示制御部110の処理によれば、画像の撮影時間の差に応じて、効率的な一覧表示を行うことが可能となる。   That is, according to the processing of the display control unit 110 of the present embodiment, it is possible to perform efficient list display according to the difference in image capturing time.

(第4の実施形態)
図17は、本発明の実施形態に係る画像表示装置の構成を示したブロック図である。
(Fourth embodiment)
FIG. 17 is a block diagram showing the configuration of the image display apparatus according to the embodiment of the present invention.

ここで1101は画像表示装置全体を示している。1201は制御CPUであり、画像表
示装置1101の全体の制御を行っている。1203は画像表示部で、液晶やプラズマディスプレイ等の薄型画面を実現できるデバイスにより構成されている。画像表示部1203は、制御CPU1201に指示された画像を表示する。本実施形態では、制御CPU1201が重なり決定部及び露出決定部に相当し、画像表示部1203が表示器に相当する。
Here, reference numeral 1101 denotes the entire image display apparatus. A control CPU 1201 controls the entire image display device 1101. An image display unit 1203 includes a device that can realize a thin screen such as a liquid crystal display or a plasma display. The image display unit 1203 displays an image instructed to the control CPU 1201. In the present embodiment, the control CPU 1201 corresponds to an overlap determination unit and an exposure determination unit, and the image display unit 1203 corresponds to a display.

また、画像表示装置1101は、本発明の特徴である複数画像データの重ね一覧表示を表示する装置でもある。   The image display device 1101 is also a device that displays an overlapping list display of a plurality of image data, which is a feature of the present invention.

1205は画像蓄積部で、ハードディスクなどの不揮発性記憶装置からなっている。ユーザの操作により、デジタルカメラやデジタルビデオカメラなどで撮影され、画像表示装置に取り込まれた画像を大量に蓄積保存することができる。   An image storage unit 1205 includes a nonvolatile storage device such as a hard disk. A large amount of images taken by a digital camera, a digital video camera, etc., and captured by an image display device can be accumulated and stored by a user operation.

1207はメモリカードである。メモリカード1207は着脱可能な構成である。またメモリカード1207はデジタルカメラやデジタルビデオカメラ等の画像撮影機器とも接続が可能であり、メモリカード1207を経由し、撮影された画像データを画像表示装置1101内に取り込むことができる。   Reference numeral 1207 denotes a memory card. The memory card 1207 is detachable. The memory card 1207 can also be connected to an image capturing device such as a digital camera or a digital video camera, and the captured image data can be taken into the image display device 1101 via the memory card 1207.

1209は外部入力端子である。この端子を経由し、直接デジタルカメラやデジタルビデオカメラ等の画像撮影機器の画像データを画像表示装置1101内に取り込むことができる。   Reference numeral 1209 denotes an external input terminal. Via this terminal, image data of an image capturing device such as a digital camera or a digital video camera can be directly taken into the image display device 1101.

1211は画像デコーダ部である。画像蓄積部1205やメモリカード1207、外部入力端子1209から取り込まれた画像データはここで制御CPU1201等の画像表示装
置1101内部で扱えるデータフォーマットに変換される。
Reference numeral 1211 denotes an image decoder unit. Image data captured from the image storage unit 1205, the memory card 1207, and the external input terminal 1209 is converted into a data format that can be handled inside the image display device 1101 such as the control CPU 1201 here.

1213は顔検知処理部である。取り込まれた画像データ内に人物像があるか否かを判断し、人物像がある場合には、その領域を特定する処理を行う。処理の詳細については、後述する。   Reference numeral 1213 denotes a face detection processing unit. It is determined whether or not there is a person image in the captured image data. If there is a person image, processing for specifying the area is performed. Details of the processing will be described later.

1215はキャッシュメモリである。画像デコーダ1211でデコードされた画像データの一時保持や、画像表示部1203に表示されている画像データの保持、顔検知処理部1213の一時データ保持などに使用される。   Reference numeral 1215 denotes a cache memory. It is used for temporarily holding image data decoded by the image decoder 1211, holding image data displayed on the image display unit 1203, holding temporary data of the face detection processing unit 1213, and the like.

図18は、注目領域検出の一手法として使用されている顔検知処理の処理フローを示したフローチャートである。   FIG. 18 is a flowchart showing a processing flow of face detection processing used as one method of attention area detection.

本処理は、重ね一覧表示の実行に先立ち、表示対象となる画像データより、顔検知処理部1213で実行される。処理開始後、ステップ1101へ進む。   This process is executed by the face detection processing unit 1213 from the image data to be displayed prior to the execution of the overlay list display. After the start of processing, the process proceeds to step 1101.

ステップ1101では、画像データ内色データの中から肌色データが含まれる領域を探し出す処理を実行する。処理後、ステップ1103へ進む。   In step 1101, a process of searching for an area containing skin color data from the color data in the image data is executed. After processing, go to step 1103.

ステップ1103では、顔の特徴を示すパターン目や口の形状の画像パターンと対象画像とのパターンマッチング処理を実行する。処理後、ステップ1105へ進む。   In step 1103, pattern matching processing is performed between the target image and an image pattern having a pattern or mouth shape indicating the facial features. After the processing, the process proceeds to step 1105.

ステップ1105では、ステップ1101およびステップ1103の処理結果にもとづき、対象画像内に顔領域が存在したか否かで処理を分岐している。すなわちもし顔領域が存在したら処理をステップ1107へ進める。またもし顔領域が存在しなければ本処理は終了となる。   In step 1105, the processing branches depending on whether or not a face area exists in the target image based on the processing results of steps 1101 and 1103. That is, if a face area exists, the process proceeds to step 1107. If the face area does not exist, this process ends.

ステップ1107では、ステップ1101およびステップ1103の処理結果より顔領域と判断したエリアの情報をキャッシュメモリ215へ書き出し、制御CPU1201へ処
理を戻すことで本処理は終了となる。
In step 1107, the area information determined as the face area based on the processing results in steps 1101 and 1103 is written to the cache memory 215 and the process is returned to the control CPU 1201, thus ending this process.

図19(a)は、画像データの一例を示した図である。また図19(b)は、顔検知処理後の顔領域の判定結果による注目領域の範囲決定処理の一例を示した図である。   FIG. 19A shows an example of image data. FIG. 19B is a diagram illustrating an example of a region-of-interest determination process based on the determination result of the face region after the face detection process.

図19(a)に示したような、人物像が写った画像データを、顔検知処理部1213により図18で説明した処理の流れで、顔検知処理を実行する。図19(b)で示したように、顔領域として判断したエリアは1303と1305の部分である。図のように顔領域は円図形データとして認識される。   Face detection processing is executed on the image data in which a human image is captured as shown in FIG. 19A by the face detection processing unit 1213 in the processing flow described with reference to FIG. As shown in FIG. 19B, the areas determined as face areas are portions 1303 and 1305. As shown in the figure, the face area is recognized as circular graphic data.

顔検知処理で検知された顔領域を注目領域と判断し、重ね一覧表示の制御に適用している。   The face area detected by the face detection process is determined as the attention area, and is applied to the control of the overlapping list display.

顔検知処理は、被写体としての顔が画像データ全てに占める割合が大きい場合は検知率が良い。しかし、その割合が低い場合、顔を検知することができない場合がある。この場合の処理について、図20(a)と図20(b)を用いて説明する。   The face detection process has a good detection rate when the ratio of the face as the subject to the entire image data is large. However, when the ratio is low, the face may not be detected. Processing in this case will be described with reference to FIGS. 20 (a) and 20 (b).

図20(a)は、画像データの一例を示した図である。また図20(b)は、撮影情報による注目領域の範囲決定処理の一例を示した図である。   FIG. 20A shows an example of image data. FIG. 20B is a diagram illustrating an example of a range-of-interest determination process based on shooting information.

デジタルカメラ等で撮影された画像データには、撮影時の情報を画像データ内に保持することができる(Exif情報)。このExif情報には撮影時の位置情報が含まれている。そこで本発明では、顔検知処理が失敗した場合、Exif情報の焦点位置情報を読み取る。図20(a)で1403と1405で示した範囲である。   For image data shot with a digital camera or the like, information at the time of shooting can be held in the image data (Exif information). This Exif information includes position information at the time of shooting. Therefore, in the present invention, when the face detection process fails, the focal position information of the Exif information is read. This is the range indicated by 1403 and 1405 in FIG.

この焦点位置情報から位置情報を含んだ円図形で示される範囲を注目領域と認識している。図20(b)の1407で示した範囲である。   From this focus position information, a range indicated by a circular figure including the position information is recognized as the attention area. This is the range indicated by 1407 in FIG.

対象画像から顔領域が検知できなかった場合、このExif情報の焦点位置情報から注目領域を判断している。   When the face area cannot be detected from the target image, the attention area is determined from the focal position information of the Exif information.

図21は、注目領域決定処理の処理フローを示したフローチャートである。   FIG. 21 is a flowchart showing a processing flow of the attention area determination processing.

本処理は、重ね一覧表示の制御の前処理段階で実行する。処理開始後、ステップ1201へ進む。   This process is executed in the pre-processing stage of the control of the overlapping list display. After the start of processing, the process proceeds to step 1201.

ステップ1201では、画像蓄積部1205、メモリカード1207、外部入力端子1209から画像データを読み込み、画像デコーダ211でデコードした後、キャッシュメモ215へ画像データを格納している。処理後、ステップ1203へ進む。   In step 1201, image data is read from the image storage unit 1205, memory card 1207, and external input terminal 1209, decoded by the image decoder 211, and then stored in the cache memo 215. After the processing, the process proceeds to step 1203.

ステップ1203では、読み取った画像を対象として、顔検知処理部1203により図18で説明した顔検知処理を呼び出している。処理後、ステップ1205へ進む。   In step 1203, the face detection processing described in FIG. 18 is called by the face detection processing unit 1203 for the read image. After the processing, the process proceeds to step 1205.

ステップ1205では、顔検知処理結果により顔領域が有ったか否かで処理を分岐している。すなわちもし顔領域が有った場合、処理をステップ1207へ進める。またもし顔領域が無かった場合には、処理をステップ1209へ進める。   In step 1205, the process branches depending on whether or not there is a face area based on the face detection process result. That is, if there is a face area, the process proceeds to step 1207. If there is no face area, the process proceeds to step 1209.

ステップ1207では、対象画像内に顔領域が有ったと判断されたので、キャッシュメモリ内にある顔領域データを対象画像の注目領域データとして登録する処理を行う。当該登録処理後、本処理は終了となる。   In step 1207, since it is determined that there is a face area in the target image, a process for registering the face area data in the cache memory as attention area data of the target image is performed. After the registration process, this process ends.

ステップ1209では、対象画像にExif情報があるか否かで処理を分岐している。すなわちもしExif情報がある場合には、処理をステップ1211へ進める。またもし無ければ、処理をステップ1215へ進める。   In step 1209, the process branches depending on whether or not the target image has Exif information. That is, if there is Exif information, the process proceeds to step 1211. If not, the process proceeds to Step 1215.

ステップ1211では、Exif情報を対象画像データより読み込み、さらに焦点位置情報を読み出す処理を行う。処理後、ステップ1213へ進む。   In step 1211, the Exif information is read from the target image data, and the focal position information is read. After the processing, the process proceeds to step 1213.

ステップ1213では、図20(a)と図20(b)で説明した焦点位置情報から注目
領域に変換する処理を実行する。この領域を注目領域として登録する。当該登録処理後、本処理は終了となる。
In step 1213, processing for converting the focal position information described in FIGS. 20A and 20B to the attention area is executed. This area is registered as the attention area. After the registration process, this process ends.

ステップ1215では、対象画像から、顔領域が存在せず、Exif情報の取得もできなかったことから、画像の中心位置を注目領域として登録する処理を行う。当該登録処理後、本処理は終了となる。   In step 1215, since the face area does not exist from the target image and the Exif information cannot be acquired, processing for registering the center position of the image as the attention area is performed. After the registration process, this process ends.

ここで説明した処理は、重ね一覧表示の表示対象となる全ての画像データに対して実行される。   The process described here is executed for all image data to be displayed in the overlapping list display.

図22(a)は、無作為に画像を重ね表示した場合の一例を示した図である。また図22(b)は、注目領域の大きさを考慮した画像を重ね表示した場合の一例を示した図である。   FIG. 22A is a diagram illustrating an example in which images are randomly displayed in an overlapping manner. FIG. 22B is a diagram showing an example in which images in consideration of the size of the attention area are displayed in an overlapping manner.

本発明の複数画像の重ね一覧表示は、各画像1501、1503、1505のそれぞれの注目領域部分1701、1703,1705の領域を保護領域として必ず画面上に表示する。これによりユーザの検索性を高めている。また他の領域は、非注目領域として他の画像の下に配置することで、効率よく画像を表示することができる。   In the multiple image overlapping list display of the present invention, the areas of the attention area portions 1701, 1703, and 1705 of the respective images 1501, 1503, and 1505 are always displayed on the screen as protection areas. This enhances the searchability of the user. In addition, the other area can be efficiently displayed by arranging the other area below the other image as a non-attention area.

図22(a)で示したように無作為に画像を重ね表示した場合に比べ、図22(b)のように注目領域の大きいものを上にするように重ねて表示した方が、画面を有効に使用できる。この処理を取り入れることで、さらに効率よく画像を表示することができる。   Compared to the case where images are randomly overlaid as shown in FIG. 22 (a), the screen is displayed in a manner such that a large area of interest is overlaid as shown in FIG. 22 (b). Can be used effectively. By incorporating this processing, an image can be displayed more efficiently.

図23は、重ね表示処理の処理フローを示したフローチャートである。   FIG. 23 is a flowchart showing a process flow of the overlap display process.

本処理は、ユーザにより重ね一覧表示が選択された場合に実行される。処理開始後、ステップ1301へ進む。   This processing is executed when the overlap list display is selected by the user. After the start of processing, the process proceeds to step 1301.

ステップ1301では、図21で説明した注目領域決定処理を実行する処理を呼び出している。表示対象となる画像のすべてについて、この処理を実行する。処理後、ステップ1303へ進む。   In step 1301, a process for executing the attention area determination process described in FIG. 21 is called. This process is executed for all the images to be displayed. After the processing, the process proceeds to step 1303.

ステップ1303では、ステップ1301の注目領域決定処理をうけ、各画像の注目領域の大きい順番に並べ替える処理を実行している。処理後、ステップ1305へ進む。   In step 1303, the attention area determination processing in step 1301 is performed, and processing for rearranging the attention areas of each image in descending order is executed. After the processing, the process proceeds to step 1305.

ステップ1305では、画像を示す変数Nに先頭画像を示す1を設定している。またNの数字が大きくなるにつれ、下の方に重ねられて表示することを示している。処理後、ステップ1307へ進む。   In step 1305, 1 indicating the head image is set in the variable N indicating the image. In addition, as the number of N increases, it is displayed superimposed on the bottom. After processing, go to step 1307.

ステップ1307では、変数Nで示された画像の位置を決定する処理が行われる。配置
位置の決定方法は乱数により座標値を求める方式となっている。ここで,配置位置の決定として,座標値は注目領域が最大限露出し,かつ非注目領域が最大限上位画像に隠れる位置が選択される。処理後、ステップ1309へ進む。
In step 1307, processing for determining the position of the image indicated by the variable N is performed. The method for determining the arrangement position is a method for obtaining coordinate values by random numbers. Here, as the determination of the arrangement position, the coordinate value is selected such that the attention area is exposed to the maximum and the non-attention area is hidden by the upper image to the maximum. After processing, go to step 1309.

ステップ1309では、配置された画像が規制角度範囲に収まっているか否かを判断している。これは余りに画像表示角度が大きいと、ユーザから見づらい印象を与えるためである。規定範囲外と判断された場合は処理を、ステップ1307に戻す。また規定範囲内であった場合は、処理をステップ1311へ進める。   In step 1309, it is determined whether or not the arranged image is within the restricted angle range. This is because if the image display angle is too large, it gives an impression that it is difficult for the user to see. If it is determined that it is out of the specified range, the process returns to step 1307. If it is within the specified range, the process proceeds to step 1311.

ステップ1311では、配置対象画像の注目領域に上位画像が重なっているか否かを判
断している。もし重なっている判断された場合には、処理をステップ1307に戻す。またもし重なっていないと判断した場合には処理をステップ1313へ進める。
In step 1311, it is determined whether or not the upper image overlaps the attention area of the arrangement target image. If it is determined that there is an overlap, the process returns to step 1307. If it is determined that they do not overlap, the process proceeds to step 1313.

ステップ1313では、変数Nに格納された値が、表示対象の最終画像を示しているか
否かで処理を分岐させている。すなわち最終画像の場合には、処理をステップ1317に進める。また最終画像でない場合には、処理をステップ1315へ進める。
In step 1313, the process branches depending on whether or not the value stored in the variable N indicates the final image to be displayed. That is, in the case of the final image, the process proceeds to Step 1317. If it is not the final image, the process proceeds to step 1315.

ステップ1315では、変数Nの値をインクリメントし、次の画像の配置位置を決定す
る処理が繰り返される。
In step 1315, the process of incrementing the value of the variable N and determining the arrangement position of the next image is repeated.

ステップ1317では、表示対象となる全ての画像の配置位置が決定したことにより、画像表示部1201に重ね一覧表示を実行する処理を呼び出している。表示終了後、本処理は終了となる。   In step 1317, when the arrangement positions of all the images to be displayed have been determined, the image display unit 1201 is called a process for executing an overlapping list display. After the display is completed, this process ends.

図24は、重ね一覧表示の一実施例を示した図である。画像表示部1201上に各画像の注目領域が必ず表示しているのが分かる。   FIG. 24 is a diagram showing an example of the overlapping list display. It can be seen that the attention area of each image is always displayed on the image display unit 1201.

(第5の実施形態)
本実施形態に係る画像表示装置の基本構成は、第4の実施形態と同じである。ただし、図21で説明した注目領域検知について、顔検知処理より焦点位置情報を優先した構成である。
(Fifth embodiment)
The basic configuration of the image display apparatus according to this embodiment is the same as that of the fourth embodiment. However, the focus area information is prioritized over the face detection process for the attention area detection described in FIG.

図25は、本実施形態の注目領域決定処理の処理フローを示したフローチャートである。   FIG. 25 is a flowchart showing a processing flow of attention area determination processing of the present embodiment.

本処理は、重ね一覧表示の制御の前処理段階で実行する。処理開始後、ステップ1401へ進む。   This process is executed in the pre-processing stage of the control of the overlapping list display. After the start of processing, the process proceeds to step 1401.

ステップ1401では、画像蓄積部1205、メモリカード1207、外部入力端子1209から画像データを読み込み、画像デコーダ211でデコードした後、キャッシュメモ215へ画像データを格納している。処理後、ステップ1403へ進む。   In step 1401, image data is read from the image storage unit 1205, memory card 1207, and external input terminal 1209, decoded by the image decoder 211, and stored in the cache memo 215. After the processing, the process proceeds to step 1403.

ステップ1403では、対象画像にExif情報があるか否かで処理を分岐している。すなわちもしExif情報がある場合には、処理をステップ1407へ進める。またもし無ければ、処理をステップ1405へ進める。   In step 1403, the process branches depending on whether or not the target image has Exif information. That is, if there is Exif information, the process proceeds to step 1407. If not, the process proceeds to Step 1405.

ステップ1405では、読み取った画像を対象として、顔検知処理部1203により図18で説明した顔検知処理を呼び出している。処理後、ステップ1411へ進む。   In step 1405, the face detection processing described in FIG. 18 is called by the face detection processing unit 1203 for the read image. After processing, go to step 1411.

ステップ1407では、Exif情報を対象画像データより読み込み、さらに焦点位置情報を読み出す処理を行う。処理後、ステップ1409へ進む。   In step 1407, the Exif information is read from the target image data, and the focus position information is read. After processing, go to step 1409.

ステップ1409では、図20(a)と図20(b)で説明した焦点位置情報から注目領域に変換する処理を実行する。この領域を注目領域として登録する。当該登録処理後、本処理は終了となる。   In step 1409, processing for converting the focal position information described in FIGS. 20A and 20B into a region of interest is executed. This area is registered as the attention area. After the registration process, this process ends.

ステップ1411では、顔検知処理結果により顔領域が有ったか否かで処理を分岐している。すなわちもし顔領域が有った場合、処理をステップ1413へ進める。またもし顔領域が無かった場合には、処理をステップ1415へ進める。   In step 1411, the process branches depending on whether or not there is a face area based on the face detection process result. That is, if there is a face area, the process proceeds to step 1413. If there is no face area, the process proceeds to step 1415.

ステップ1413では、対象画像内に顔領域が有ったと判断されたので、キャッシュメモリ内にある顔領域データを対象画像の注目領域データとして登録する処理を行う。当該登録処理後、本処理は終了となる。   In step 1413, since it is determined that there is a face area in the target image, processing for registering the face area data in the cache memory as attention area data of the target image is performed. After the registration process, this process ends.

ステップ1415では、対象画像から、顔領域が存在せず、Exif情報の取得もできなかったことから、画像の中心位置を注目領域として登録する処理を行う。当該登録処理後、本処理は終了となる。   In step 1415, since the face area does not exist from the target image and the Exif information cannot be acquired, a process of registering the center position of the image as the attention area is performed. After the registration process, this process ends.

(第6の実施形態)
本実施形態に係る画像表示装置の基本構成は、第4の実施形態と同じである。ただし、注目領域は、顔検知領域と撮影情報の論理和を取っている。
(Sixth embodiment)
The basic configuration of the image display apparatus according to this embodiment is the same as that of the fourth embodiment. However, the attention area takes the logical sum of the face detection area and the shooting information.

図26は、本実施形態の注目領域検知後の結果を示した図である。領域1501が顔検知による注目領域、領域1503は焦点領域、領域1505は焦点領域1503より変換した注目領域となる。本実施形態は、注目領域を領域1501と領域1505の論理和で決定している。   FIG. 26 is a diagram illustrating a result after the attention area detection according to the present embodiment. An area 1501 is an attention area by face detection, an area 1503 is a focus area, and an area 1505 is an attention area converted from the focus area 1503. In this embodiment, the attention area is determined by the logical sum of the area 1501 and the area 1505.

(第7の実施形態)
本実施形態に係る画像表示装置の基本構成は、第2の実施形態と同じである。ただし、表示制御部110の動作の流れが異なる。図27は、本実施形態での表示制御部110の動作の流れを示すチャート図である。また図27の処理で使用される露出制御マスクの種類は、図8に示したものと同様である。露出制御マスクは、焦点位置や撮影シーンモードに応じて露出量及び/露出位置が異なるものが用意されている。以下これらの図を使って説明する。
(Seventh embodiment)
The basic configuration of the image display apparatus according to this embodiment is the same as that of the second embodiment. However, the operation flow of the display control unit 110 is different. FIG. 27 is a chart showing the flow of operations of the display control unit 110 in this embodiment. The type of exposure control mask used in the process of FIG. 27 is the same as that shown in FIG. Exposure control masks with different exposure amounts and / or exposure positions are prepared depending on the focal position and the shooting scene mode. This will be described below with reference to these drawings.

先ず表示制御部110はメモリカードに記録されている画像データの総数を取得し(S1501)、1番目の画像データの顔検知を実行する(S1503、S1505)。   First, the display control unit 110 acquires the total number of image data recorded on the memory card (S1501), and executes face detection of the first image data (S1503, S1505).

対象の画像データ内で顔が検知された場合(S1507)、図8(a)に示した左露出用マスク、中央露出用マスク、右露出用マスクの3つの露出制御マスクのうち、焦点位置情報に対応した焦点位置の露出制御マスクを決定する(S1509)。   When a face is detected in the target image data (S1507), focus position information among the three exposure control masks of the left exposure mask, center exposure mask, and right exposure mask shown in FIG. The exposure control mask at the focal position corresponding to is determined (S1509).

一方で、対象の画像データ内で顔が検知できなかった場合、Exifヘッダ情報の読取を行い(S1511)、その中における焦点位置情報の有無を判断する(S1513)。もし焦点位置情報があった場合、焦点位置情報を元に図8(a)に示した露出マスクを決定する(S1515)。   On the other hand, if the face cannot be detected in the target image data, the Exif header information is read (S1511), and the presence / absence of the focus position information is determined (S1513). If there is focal position information, the exposure mask shown in FIG. 8A is determined based on the focal position information (S1515).

また焦点位置情報が無かった場合、撮影シーン情報の有無を判断し(S1517)、撮影シーンがあった場合、撮影シーンモード情報に対応した露出制御マスクを決定する。(S1519)。   If there is no focal position information, the presence / absence of shooting scene information is determined (S1517). If there is a shooting scene, an exposure control mask corresponding to the shooting scene mode information is determined. (S1519).

そして、以降の画像データに対しても同様の処理を行って、露出制御マスクを決定していく(S1523,S1505〜)。   The same processing is performed on the subsequent image data to determine the exposure control mask (S1523, S1505).

100 デジタルテレビ受信装置
105 画像データ入力部
106 画像データ処理部
107 ビデオメモリ
108 表示合成部
109 カードスロット
110 表示制御部
113 記憶部
112 表示器
1101 画像表示装置
1201 制御CPU
1203 画像表示部
DESCRIPTION OF SYMBOLS 100 Digital television receiver 105 Image data input part 106 Image data processing part 107 Video memory 108 Display composition part 109 Card slot 110 Display control part 113 Storage part 112 Display 1101 Image display apparatus 1201 Control CPU
1203 Image display unit

Claims (9)

複数の画像を重なり合わせて表示する画像表示方法であって、
前記複数の画像の各々に関連付けて付与された撮影シーンモード情報を取得する取得工程と、
前記取得工程で取得された各画像の撮影シーンモード情報に基づいて、前記複数の画像を重なり合わせて表示する場合に各画像の撮影シーンモードに対応して定められる露出領域が他の画像によって隠されないように、各画像の表示位置を決定する決定工程と、
前記決定工程で決定された各画像の表示位置に従って、前記複数の画像を重なり合わせて表示する表示工程と、
を含むことを特徴とする画像表示方法。
An image display method for displaying a plurality of images in an overlapping manner,
An acquisition step of acquiring shooting scene mode information given in association with each of the plurality of images;
Based on the shooting scene mode information of each image acquired in the acquisition step, when the plurality of images are displayed in an overlapped manner, an exposure area defined corresponding to the shooting scene mode of each image is hidden by another image. Determination step for determining the display position of each image,
In accordance with the display position of each image determined in the determination step, a display step for displaying the plurality of images in an overlapping manner,
An image display method comprising:
前記撮影シーンモードは、オート撮影モード、風景撮影モード、人物撮影モード、ナイト撮影モードのうちの少なくとも1つを含むことを特徴とする請求項1に記載の画像表示方法。The image display method according to claim 1, wherein the shooting scene mode includes at least one of an auto shooting mode, a landscape shooting mode, a portrait shooting mode, and a night shooting mode. 前記風景撮影モードに対応して定められる露出領域は、前記人物撮影モードに対応して定められる露出領域よりも大きいことを特徴とする請求項2に記載の画像表示方法。The image display method according to claim 2, wherein an exposure area determined corresponding to the landscape shooting mode is larger than an exposure area determined corresponding to the person shooting mode. 前記決定工程は、前記取得工程で撮影シーンモード情報が取得できなかった画像については、該画像の中央を含む予め定められた露出領域が他の画像によって隠されないように、各画像の表示位置を決定することを特徴とする請求項1乃至3のいずれか一項に記載の画像表示方法。 In the determination step, the display position of each image is set so that a predetermined exposure area including the center of the image is not hidden by another image for the image in which the shooting scene mode information cannot be acquired in the acquisition step. the image display method according to any one of claims 1 to 3, characterized in that the determining. 請求項1乃至のいずれか一項に記載の画像表示方法をコンピュータに実行させるためのプログラム。 The program for making a computer perform the image display method as described in any one of Claims 1 thru | or 4 . 複数の画像を重なり合わせて表示した画像データを生成する画像処理装置であって、
前記複数の画像の各々に関連付けて付与された撮影シーンモード情報を取得する取得手段と、
前記取得手段により取得された各画像の撮影シーンモード情報に基づいて、前記複数の画像を重なり合わせて表示する場合に各画像の撮影シーンモードに対応して定められる露出領域が他の画像によって隠されないように、各画像の表示位置を決定する決定手段と、
前記決定手段により決定された各画像の表示位置に従って、前記複数の画像を重なり合わせて表示した画像データを生成する生成手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that generates image data in which a plurality of images are overlapped and displayed,
Acquisition means for acquiring shooting scene mode information given in association with each of the plurality of images;
Based on the shooting scene mode information of each image acquired by the acquisition unit, when the plurality of images are displayed in an overlapped manner, an exposure area defined corresponding to the shooting scene mode of each image is hidden by another image. Determination means for determining the display position of each image,
Generating means for generating image data displayed by superimposing the plurality of images according to the display position of each image determined by the determining means;
An image processing apparatus comprising:
前記撮影シーンモードは、オート撮影モード、風景撮影モード、人物撮影モード、ナイト撮影モードのうちの少なくとも1つを含むことを特徴とする請求項6に記載の画像処理装置。The image processing apparatus according to claim 6, wherein the shooting scene mode includes at least one of an auto shooting mode, a landscape shooting mode, a person shooting mode, and a night shooting mode. 前記風景撮影モードに対応して定められる露出領域は、前記人物撮影モードに対応して定められる露出領域よりも大きいことを特徴とする請求項7に記載の画像処理装置。The image processing apparatus according to claim 7, wherein an exposure area determined corresponding to the landscape shooting mode is larger than an exposure area determined corresponding to the person shooting mode. 前記決定手段は、前記取得手段により撮影シーンモード情報が取得できなかった画像については、該画像の中央を含む予め定められた露出領域が他の画像によって隠されないように、各画像の表示位置を決定することを特徴とする請求項6乃至8のいずれか一項に記載の画像処理装置。
The determination unit determines the display position of each image so that a predetermined exposure area including the center of the image is not hidden by another image for an image for which the shooting scene mode information cannot be acquired by the acquisition unit. The image processing device according to claim 6 , wherein the image processing device is determined.
JP2009024851A 2003-06-20 2009-02-05 Image display method and image processing apparatus Expired - Fee Related JP4682254B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009024851A JP4682254B2 (en) 2003-06-20 2009-02-05 Image display method and image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003176856 2003-06-20
JP2009024851A JP4682254B2 (en) 2003-06-20 2009-02-05 Image display method and image processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004048430A Division JP4280656B2 (en) 2003-06-20 2004-02-24 Image display device and image display method thereof

Publications (2)

Publication Number Publication Date
JP2009165142A JP2009165142A (en) 2009-07-23
JP4682254B2 true JP4682254B2 (en) 2011-05-11

Family

ID=40961815

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009024851A Expired - Fee Related JP4682254B2 (en) 2003-06-20 2009-02-05 Image display method and image processing apparatus
JP2009024852A Expired - Fee Related JP4724757B2 (en) 2003-06-20 2009-02-05 Image display method and image processing apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009024852A Expired - Fee Related JP4724757B2 (en) 2003-06-20 2009-02-05 Image display method and image processing apparatus

Country Status (1)

Country Link
JP (2) JP4682254B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5385059B2 (en) * 2009-09-07 2014-01-08 株式会社ニコンシステム Image display method, program, image display apparatus, and imaging apparatus
JP6268891B2 (en) 2013-10-07 2018-01-31 セイコーエプソン株式会社 Collage image creation program, collage image creation method, and collage image creation apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000138814A (en) * 1998-10-30 2000-05-16 Minolta Co Ltd Image layout device
JP2003078743A (en) * 2001-08-30 2003-03-14 Minolta Co Ltd Digital image input device and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3737690B2 (en) * 2000-09-28 2006-01-18 株式会社東芝 Image processing method, image processing apparatus, and image processing program
JP4778158B2 (en) * 2001-05-31 2011-09-21 オリンパス株式会社 Image selection support device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000138814A (en) * 1998-10-30 2000-05-16 Minolta Co Ltd Image layout device
JP2003078743A (en) * 2001-08-30 2003-03-14 Minolta Co Ltd Digital image input device and program

Also Published As

Publication number Publication date
JP2009165142A (en) 2009-07-23
JP4724757B2 (en) 2011-07-13
JP2009157938A (en) 2009-07-16

Similar Documents

Publication Publication Date Title
JP4280656B2 (en) Image display device and image display method thereof
KR100691531B1 (en) Image displaying method and image displaying apparatus
JP4208726B2 (en) Image display device, image display method, and image display program
KR100714888B1 (en) Image display method and image display device
JP4926416B2 (en) Image display method, program, recording medium, and image display apparatus
JP4614391B2 (en) Image display method and image display apparatus
JP4682254B2 (en) Image display method and image processing apparatus
JP4136838B2 (en) Image display method and image display apparatus
JP5663920B2 (en) Electronic device and panorama image display program
JP5078041B2 (en) Data utilization method in AV equipment
JP4630749B2 (en) Image output apparatus and control method thereof
JP4827907B2 (en) Image display method and image display apparatus
JP5195317B2 (en) Camera device, photographing method, and photographing control program
JP2006229267A (en) Digital camera, animation editing method and program
JP2005157027A (en) Method for displaying image
JP2007180727A (en) Image reproducing device, calendar display method, program, and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees