JP2011228801A - Image display device,imaging device and image display program - Google Patents

Image display device,imaging device and image display program Download PDF

Info

Publication number
JP2011228801A
JP2011228801A JP2010094277A JP2010094277A JP2011228801A JP 2011228801 A JP2011228801 A JP 2011228801A JP 2010094277 A JP2010094277 A JP 2010094277A JP 2010094277 A JP2010094277 A JP 2010094277A JP 2011228801 A JP2011228801 A JP 2011228801A
Authority
JP
Japan
Prior art keywords
image
images
feature
display device
feature region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010094277A
Other languages
Japanese (ja)
Inventor
Saeko Samejima
冴映子 鮫島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010094277A priority Critical patent/JP2011228801A/en
Publication of JP2011228801A publication Critical patent/JP2011228801A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform preferable display when a plurality of images are displayed on the same screen.SOLUTION: An image display device comprises: a feature region setting section for setting the feature region inside of the images; and a display control section for displaying a plurality of the images without overlapping the feature regions which is set by the feature region setting section when a plurality of the images are displayed on the display device.

Description

本発明は、画像表示装置、撮像装置および画像表示プログラムに関する。   The present invention relates to an image display device, an imaging device, and an image display program.

画像情報を個別に解析した結果に基づいて決定した各画像の表示効果に基づいて、画像を順番に再生表示する画像再生装置が提案されている(例えば、特許文献1参照)。   There has been proposed an image reproduction apparatus that reproduces and displays images in order based on the display effect of each image determined based on the result of individually analyzing image information (see, for example, Patent Document 1).

特開2006−129453号公報JP 2006-129453 A

しかし、従来の画像再生装置では、画像毎に表示効果を決定するため、複数枚の画像を同一画面上に表示させると、期待される表示効果が得られなくなるおそれがある。   However, in the conventional image reproducing apparatus, since the display effect is determined for each image, if a plurality of images are displayed on the same screen, the expected display effect may not be obtained.

請求項1に記載の画像表示装置は、画像内に特徴領域を設定する特徴領域設定部と、複数の画像を表示装置に表示させる際、前記特徴領域設定部により設定された前記特徴領域が重ならないように前記複数の画像を表示させる表示制御部とを備えることを特徴とする。   The image display device according to claim 1 is characterized in that a feature region setting unit that sets a feature region in an image and a feature region set by the feature region setting unit overlap when displaying a plurality of images on the display device. And a display control unit for displaying the plurality of images so as not to be lost.

請求項10に記載の撮像装置は、被写体を撮像して画像を生成する撮像部と、請求項1から請求項9のいずれか1項に記載の画像表示装置とを備えることを特徴とする。   An imaging apparatus according to a tenth aspect includes an imaging unit that captures an image of a subject and generates an image, and the image display apparatus according to any one of the first to ninth aspects.

請求項11に記載の画像表示プログラムは、画像内に特徴領域を設定する特徴領域設定ステップと、複数の画像を表示装置に表示させる際、前記特徴領域設定ステップにより設定された前記特徴領域が重ならないように前記複数の画像を表示させる表示制御ステップとをコンピューターに実行させることを特徴とする。   The image display program according to claim 11 includes: a feature region setting step for setting a feature region in an image; and the feature region set by the feature region setting step is overlapped when displaying a plurality of images on a display device. The display control step for displaying the plurality of images is executed by a computer so as not to occur.

本発明によれば、複数の画像を同一画面上に表示させる際に好ましい表示が行える。   According to the present invention, a preferable display can be performed when a plurality of images are displayed on the same screen.

画像表示装置1の構成を説明するブロック図Block diagram illustrating the configuration of the image display device 1 記録媒体10内部のファイル構成の一例を示す図The figure which shows an example of the file structure inside the recording medium 10 フォルダ1に記録されている画像の一例を示す図The figure which shows an example of the image currently recorded on the folder 1 画像表示装置1の画像表示の処理の一例を示すフローチャートThe flowchart which shows an example of the process of the image display of the image display apparatus 1 図4に示す特徴領域選択処理のサブルーチンの第一例を示すフローチャートThe flowchart which shows the 1st example of the subroutine of the characteristic area selection process shown in FIG. 図4に示す特徴領域選択処理のサブルーチンの第二例を示すフローチャートThe flowchart which shows the 2nd example of the subroutine of the characteristic area selection process shown in FIG. 図4に示す特徴領域選択処理のサブルーチンの第三例を示すフローチャートThe flowchart which shows the 3rd example of the subroutine of the characteristic area selection process shown in FIG. スライドショー表示の第一例を説明する図The figure explaining the first example of a slide show display スライドショー表示の第二例を説明する図The figure explaining the 2nd example of a slide show display スライドショー表示の第三例を説明する図The figure explaining the 3rd example of a slide show display 電子カメラ50の構成を説明するブロック図The block diagram explaining the structure of the electronic camera 50

(第1実施形態)
以下、図面に基づいて本発明の実施の形態を詳細に説明する。なお、本実施形態で説明する「スライドショー」は、複数の表示形態を有し、例えば、電子カメラで撮影された複数の静止画像を順番に表示モニタの同一画面上に表示させる表示形態である(詳細は後述する)。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The “slide show” described in the present embodiment has a plurality of display forms, for example, a display form in which a plurality of still images taken by an electronic camera are displayed in order on the same screen of a display monitor ( Details will be described later).

図1は、画像表示装置1の構成を説明するブロック図である。図1に示す通り画像表示装置1は、記録媒体インターフェース(以下、「記録媒体I/F」という)2と、メモリ3と、表示モニタ4と、通信インターフェース(以下、「通信I/F」という)5と、CPU(Central Processing Unit)6と、操作部7と、データバス8とを備える。   FIG. 1 is a block diagram illustrating the configuration of the image display device 1. As shown in FIG. 1, the image display device 1 includes a recording medium interface (hereinafter referred to as “recording medium I / F”) 2, a memory 3, a display monitor 4, and a communication interface (hereinafter referred to as “communication I / F”). ) 5, a CPU (Central Processing Unit) 6, an operation unit 7, and a data bus 8.

記録媒体I/F2は、電子カメラで撮影された画像が保存されている記録媒体10から画像データを読み出す。読み出された画像データは、一時的にメモリ3に記録される。なお、画像データは、一例として、Exif(Exchangeable Image File Format)形式の画像データであって、撮影時に、撮影年月日、撮影時刻等の撮影情報が画像データの所定のヘッダファイルに書き込まれている。   The recording medium I / F 2 reads image data from the recording medium 10 in which images taken by the electronic camera are stored. The read image data is temporarily recorded in the memory 3. Note that the image data is, for example, image data in an Exif (Exchangeable Image File Format) format, and shooting information such as shooting date and time is written in a predetermined header file of the image data at the time of shooting. Yes.

図2は、記録媒体10内部のファイル構成の一例を示す図である。記録媒体10には、フォルダ1と、フォルダ2と、フォルダ3とが作成されており、フォルダ毎に、画像が記録されている。   FIG. 2 is a diagram illustrating an example of a file configuration inside the recording medium 10. In the recording medium 10, a folder 1, a folder 2, and a folder 3 are created, and an image is recorded for each folder.

図3は、フォルダ1に記録されている画像の一例を示す図である。フォルダ1には、例えば、運動会で同じ日に撮影された画像が記録されている。なお、これらの画像は、画像1−1、画像1−2、画像1−3の順番に撮影されている。ここで、図3では、説明の便宜上、後述する特徴領域を示す顔枠W1〜W3を示している。ただし、これらの顔枠W1〜W3は、実際のスライドショーにおいて表示モニタ4に表示されない。   FIG. 3 is a diagram illustrating an example of an image recorded in the folder 1. In the folder 1, for example, images taken on the same day at an athletic meet are recorded. These images are taken in the order of image 1-1, image 1-2, and image 1-3. Here, in FIG. 3, for convenience of explanation, face frames W <b> 1 to W <b> 3 indicating feature areas described later are shown. However, these face frames W1 to W3 are not displayed on the display monitor 4 in the actual slide show.

メモリ3は、記録媒体I/F2が記録媒体10から読み出した画像データを、一時的に記録する。また、メモリ3は、データベース3aを有している。データベース3aは、被写体の特徴部分を示す参照画像が予め登録されている。具体的には、データベース3aには、人物、建築物、乗り物等の画像が分類されて登録されている。なお、データベース3aには、記録媒体10に記録されている画像も登録することができる。この登録動作は、画像を登録する指示入力を操作部7が受け付けた後、CPU6の制御により行われる。表示モニタ4は、例えば、液晶モニタであって画像を表示する。通信I/F5は、外部機器との通信を行う際の通信インターフェースを提供する。   The memory 3 temporarily records the image data read from the recording medium 10 by the recording medium I / F 2. The memory 3 has a database 3a. In the database 3a, a reference image indicating a characteristic part of a subject is registered in advance. Specifically, images of people, buildings, vehicles, and the like are classified and registered in the database 3a. In addition, the image recorded on the recording medium 10 can also be registered in the database 3a. This registration operation is performed under the control of the CPU 6 after the operation unit 7 receives an instruction input for registering an image. The display monitor 4 is a liquid crystal monitor, for example, and displays an image. The communication I / F 5 provides a communication interface when communicating with an external device.

CPU6は、画像表示装置1の制御を行うプロセッサであり、コンピューターとしての機能を有する。CPU6は、本実施形態のプログラムが実行されることにより、特徴領域設定部6aと、表示順序設定部6bと、表示制御部6cとしても機能する。   The CPU 6 is a processor that controls the image display apparatus 1 and has a function as a computer. The CPU 6 also functions as a feature region setting unit 6a, a display order setting unit 6b, and a display control unit 6c by executing the program of the present embodiment.

特徴領域設定部6aは、画像内に特徴領域を設定する。例えば、特徴領域設定部6aは、被写体像を撮像した画像を解析して画像から被写体の特徴部分を抽出し、その抽出した特徴部分に基づいて、画像内に特徴領域の候補を特定する。そして、特徴領域設定部6aは、特徴領域のうち、主要被写体に対応する特徴領域を選択する。これにより、特徴領域設定部6aは、その画像から特徴領域を設定することができる。   The feature area setting unit 6a sets a feature area in the image. For example, the feature region setting unit 6a analyzes an image obtained by capturing a subject image, extracts a feature portion of the subject from the image, and specifies a feature region candidate in the image based on the extracted feature portion. Then, the feature region setting unit 6a selects a feature region corresponding to the main subject from the feature regions. Thereby, the feature region setting unit 6a can set the feature region from the image.

具体的には、特徴領域設定部6aは、画像を解析して画像から被写体として人物の顔(特徴部分)を抽出する。また、特徴領域設定部6aは、顔の領域の位置座標、サイズ(範囲)を画像データに基づいて取得し、顔の領域を特徴領域として設定する。   Specifically, the feature region setting unit 6a analyzes the image and extracts a human face (feature portion) as a subject from the image. The feature area setting unit 6a acquires the position coordinates and size (range) of the face area based on the image data, and sets the face area as the feature area.

例えば、特徴領域設定部6aは、データベース3aに登録された参照画像と撮影した画像とをマッチングすることにより、主要被写体の顔を認証する。なお、顔の抽出処理やマッチング処理は、公知技術により実現できる。例えば、特徴領域設定部6aは、データベース3aに既に保存されている同一人物の顔を主要被写体として認証し、その顔の領域を特徴領域として設定する。また、特徴領域設定部6aは、1つの画像内に1人の顔のみが検出された場合、その顔の領域を主要被写体の特徴領域として設定する。なお、特徴領域設定部6aは、画像内で、顔の領域が1番大きい領域を、主要被写体の特徴領域として設定しても良い。また、本実施形態では、主要被写体の認証をユーザの入力で行っても良い(後述する変形例2参照)。   For example, the feature area setting unit 6a authenticates the face of the main subject by matching a reference image registered in the database 3a with a captured image. Note that face extraction processing and matching processing can be realized by a known technique. For example, the feature area setting unit 6a authenticates the face of the same person already stored in the database 3a as the main subject, and sets the face area as the feature area. In addition, when only one face is detected in one image, the feature area setting unit 6a sets the face area as the feature area of the main subject. Note that the feature area setting unit 6a may set the area having the largest face area in the image as the feature area of the main subject. In the present embodiment, authentication of the main subject may be performed by user input (see Modification 2 described later).

表示順序設定部6bは、画像データのヘッダファイルを参照し、撮影年月日、撮影時刻に基づいて、表示モニタ4に表示させる画像の表示順序を設定する。この場合、表示順序設定部6bは、例えば、撮影年月日、撮影時刻の古い順から画像を表示させるように表示順序を設定する。   The display order setting unit 6b refers to the header file of the image data, and sets the display order of images to be displayed on the display monitor 4 based on the shooting date and shooting time. In this case, the display order setting unit 6b sets the display order so that, for example, images are displayed in order from the oldest shooting date and time.

表示制御部6cは、複数の画像を表示モニタ4に表示させるときに、主要被写体の特徴領域が重ならないように各々の画像を重畳させて、表示モニタ4に表示させる。この際、表示制御部6cは、必要に応じて、画像を拡大又は縮小して表示モニタ4に表示させる。   When displaying a plurality of images on the display monitor 4, the display control unit 6 c superimposes each image so that the characteristic areas of the main subject do not overlap and displays the images on the display monitor 4. At this time, the display control unit 6c enlarges or reduces the image on the display monitor 4 as necessary.

操作部7は、画像表示又は停止、電源のオンオフ等の操作を受け付けるタッチパネルである。なお、操作部7のタッチパネルは、透明のタッチパネルであって、表示モニタ4の表示画面上に配置されているものとする。この操作部7のタッチパネルは、表面に接触した指先等の位置を検出する。そして、操作部7は、検出した位置情報をCPU6に出力することでユーザからの操作を受け付ける。   The operation unit 7 is a touch panel that receives operations such as image display or stop, power on / off, and the like. Note that the touch panel of the operation unit 7 is a transparent touch panel and is disposed on the display screen of the display monitor 4. The touch panel of the operation unit 7 detects the position of a fingertip or the like that is in contact with the surface. And the operation part 7 receives operation from a user by outputting the detected positional information to CPU6.

次に、本実施形態における画像表示装置の動作例を説明する。図4は、画像表示装置1による画像表示の処理の一例を示すフローチャートである。図5〜図7は、図4に示す特徴領域設定処理のサブルーチンの第一例〜第三例を示すフローチャートである。   Next, an operation example of the image display apparatus in the present embodiment will be described. FIG. 4 is a flowchart illustrating an example of image display processing by the image display apparatus 1. 5 to 7 are flowcharts showing first to third examples of the subroutine for the feature area setting process shown in FIG.

ここで、画像表示装置1の電源がオンされると、CPU6の制御により、記録媒体10に記録されている画像データが、記録I/F2を介して読み出される。そして、読み出された画像データは、メモリ3に一時的に記録される。この状態で、CPU6は、スライドショーの指示入力を操作部(タッチパネル)7より受け付けると、このフローチャートを開始させる。なお、CPU6は、操作部7からのユーザの入力に応じて、スライドショーの表示形態を設定する。また、CPU6は、操作部7からのユーザの入力に応じてデータベース3aを参照するか否かの設定の変更を行う。   Here, when the power of the image display device 1 is turned on, the image data recorded on the recording medium 10 is read out via the recording I / F 2 under the control of the CPU 6. The read image data is temporarily recorded in the memory 3. In this state, when the CPU 6 receives an instruction input for a slide show from the operation unit (touch panel) 7, the CPU 6 starts this flowchart. The CPU 6 sets a slideshow display form in response to a user input from the operation unit 7. Further, the CPU 6 changes the setting as to whether or not to refer to the database 3 a in accordance with a user input from the operation unit 7.

また、本実施形態の画像処理装置1は、複数の方法で主要被写体の特徴領域を設定することができる。以下の説明では、一例として、表示対象の画像を1枚毎にチェックして、主要被写体の特徴領域を設定する場合(図5のサブルーチン)を説明する。なお、主要被写体の特徴領域の設定に関し、他の方法の例は変形例1、2で説明する。   Further, the image processing apparatus 1 according to the present embodiment can set the feature region of the main subject by a plurality of methods. In the following description, as an example, a case will be described in which the image to be displayed is checked for each sheet and the characteristic area of the main subject is set (subroutine in FIG. 5). In addition, regarding the setting of the feature area of the main subject, examples of other methods will be described in the first and second modifications.

ステップS101:CPU6は、主要被写体の特徴領域の設定するための選択入力を受け付ける。この場合、CPU6は、図5に示す特徴領域設定処理のサブルーチンに移行する。   Step S101: The CPU 6 accepts a selection input for setting the feature area of the main subject. In this case, the CPU 6 proceeds to a feature area setting process subroutine shown in FIG.

ステップS201:CPU6の特徴領域設定部6aは、フォルダ1に記録されている、1(n=1)枚目の画像の解析処理を行う。これにより、特徴領域設定部6aは、画像内における特徴部分として被写体の顔の抽出処理を行う。   Step S201: The feature area setting unit 6a of the CPU 6 performs analysis processing of the first (n = 1) -th image recorded in the folder 1. Thereby, the feature area setting unit 6a performs the process of extracting the face of the subject as a feature portion in the image.

ステップS202:CPU6は、ステップS201の処理により画像内で顔が抽出されたか否かを判定する。顔が抽出されていない場合(ステップS202:No)、CPU6は、後述するステップS206の処理に移行する。一方、顔が抽出されている場合(ステップS202:Yes)、CPU6は、ステップS203の処理に移行する。   Step S202: The CPU 6 determines whether or not a face has been extracted from the image by the process of step S201. When the face has not been extracted (step S202: No), the CPU 6 proceeds to the process of step S206 described later. On the other hand, when the face is extracted (step S202: Yes), the CPU 6 proceeds to the process of step S203.

ステップS203:CPU6は、ステップS201の処理で画像から複数の顔が抽出されたか否かを判定する。抽出された顔が1つである場合(ステップS203:No)、特徴領域設定部6aは、抽出された顔を主要被写体の特徴領域として設定し、後述するステップS205の処理に移行する。一方、複数の顔が抽出された場合(ステップS203:Yes)、ステップS204の処理に移行する。   Step S203: The CPU 6 determines whether or not a plurality of faces have been extracted from the image in the process of step S201. When there is one extracted face (step S203: No), the feature area setting unit 6a sets the extracted face as the feature area of the main subject, and proceeds to the process of step S205 described later. On the other hand, when a plurality of faces are extracted (step S203: Yes), the process proceeds to step S204.

ステップS204:特徴領域設定部6aは、複数の顔が抽出された場合、主要被写体の選択を行う。一例として、特徴領域設定部6aは、データベース3aを参照する設定の場合、以下の処理を行う。特徴領域設定部6aは、データベース3aを参照して、参照画像とのマッチングにより顔毎に認証を行う。そして、特徴領域設定部6aは、認証結果に基づいて主要被写体を選択し、さらに、その主要被写体に対応する特徴領域を設定する。例えば、図3(a)の画像1−1を例にすると、特徴領域設定部6aは、データベース3aを参照し、人物P1、P2の顔がデータベースに登録された参照画像の何れかに一致するかを判定する。ここで、人物P1の顔が登録された参照画像と一致し、人物P2の顔が登録された参照画像の何れにも一致していない場合、特徴領域設定部6aは、人物P1の顔を主要被写体として選択し、画像1−1について人物P1に対応する特徴領域を設定する。   Step S204: The feature area setting unit 6a selects a main subject when a plurality of faces are extracted. As an example, the feature area setting unit 6a performs the following processing in the case of setting referring to the database 3a. The feature area setting unit 6a refers to the database 3a and performs authentication for each face by matching with the reference image. Then, the feature region setting unit 6a selects a main subject based on the authentication result, and further sets a feature region corresponding to the main subject. For example, taking the image 1-1 in FIG. 3A as an example, the feature region setting unit 6a refers to the database 3a, and the faces of the persons P1 and P2 match any of the reference images registered in the database. Determine whether. Here, when the face of the person P1 matches the registered reference image and the face of the person P2 does not match any of the registered reference images, the feature region setting unit 6a sets the face of the person P1 as the main face. It selects as a to-be-photographed object and sets the characteristic area corresponding to the person P1 about the image 1-1.

一方、特徴領域設定部6aは、データベースを参照しない設定になっていた場合、図3(a)の例では、人物P1、人物P2の顔を何れも主要被写体として選択する。この場合、特徴領域設定部6aは、画像1−1について人物P1、P2にそれぞれ対応する2つの特徴領域を設定する。図3(a)では、簡単のため、それぞれの顔領域を囲む顔枠W1、W2内を特徴領域としている。   On the other hand, when the setting is made such that the database is not referred to, the feature area setting unit 6a selects both the faces of the person P1 and the person P2 as main subjects in the example of FIG. In this case, the feature region setting unit 6a sets two feature regions respectively corresponding to the persons P1 and P2 for the image 1-1. In FIG. 3A, for the sake of simplicity, the inside of the face frames W1 and W2 surrounding each face area is used as a feature area.

ステップS205:特徴領域設定部6aは、画像毎に選択された主要被写体の特徴領域を、他の画像に重ねて表示しない重畳禁止領域に指定する。   Step S205: The feature region setting unit 6a designates the feature region of the main subject selected for each image as a superposition prohibition region that is not displayed overlaid on another image.

ステップS206:CPU6は、フォルダ内1の画像を全てチェックしたか否かを判定する。全ての画像がチェックされていない場合(ステップS206:No)、n=n+1として(ステップS207)、ステップS201の処理に戻り、特徴領域設定部6aは、次の画像の解析処理を行う。   Step S206: The CPU 6 determines whether or not all the images in the folder 1 have been checked. When all the images are not checked (step S206: No), n = n + 1 is set (step S207), the process returns to the process of step S201, and the feature area setting unit 6a performs an analysis process of the next image.

一方、全ての画像がチェックされた場合(ステップS206:Yes)、CPU6は、サブルーチンを終了し、図4に示すステップS102の処理に戻る。   On the other hand, if all the images have been checked (step S206: Yes), the CPU 6 ends the subroutine and returns to the process of step S102 shown in FIG.

ステップS102:CPU6の表示順序設定部6bは、フォルダ1内の画像において、主要被写体が選択された画像データのヘッダファイルを参照し、撮影年月日、撮影時刻に基づいて、表示モニタ4に表示させる画像の表示順序を設定する。この場合、表示順序設定部6bは、例えば、古い撮影日時に撮影された画像から順番に表示させるように表示順序を設定する。図3を例にすると、表示順序設定部6bは、画像1−1、画像1−2、画像1−3の順番に表示順序を設定する。   Step S102: The display order setting unit 6b of the CPU 6 refers to the header file of the image data in which the main subject is selected in the image in the folder 1, and displays it on the display monitor 4 based on the shooting date and shooting time. Set the display order of images to be displayed. In this case, for example, the display order setting unit 6b sets the display order so that images are displayed in order from images taken on the old photographing date and time. Taking FIG. 3 as an example, the display order setting unit 6b sets the display order in the order of image 1-1, image 1-2, and image 1-3.

ステップS103:CPU6の表示制御部6cは、画像毎に指定された重畳禁止領域が重ならないように、主要被写体を含む各々の画像を重畳させて、表示モニタ4上でスライドショー表示させる。説明の便宜上、特徴領域設定部6aは、図3に示す人物P1、P2及びP3の顔を主要被写体とする。   Step S103: The display control unit 6c of the CPU 6 superimposes each image including the main subject so as to display the slide show on the display monitor 4 so that the superimposition prohibition areas designated for each image do not overlap. For convenience of explanation, the feature region setting unit 6a uses the faces of the persons P1, P2, and P3 shown in FIG. 3 as main subjects.

図8は、スライドショー表示の第一例を説明する図である。先ず、表示制御部6cは、画像1−1を表示モニタ4に表示させる(図8(a))。この場合、表示制御部6cは、表示モニタ4に画像1−1を全画面表示させず、画像1−1の縮小画像を、表示モニタ4を正面から見て右上に表示させる。   FIG. 8 is a diagram illustrating a first example of the slide show display. First, the display control unit 6c displays the image 1-1 on the display monitor 4 (FIG. 8A). In this case, the display control unit 6c does not display the image 1-1 on the display monitor 4 in full screen, but displays a reduced image of the image 1-1 on the upper right when the display monitor 4 is viewed from the front.

次に、表示制御部6cは、所定時間経過後(例えば、1秒後)、画像1−1と画像1−2とを重畳表示させる(図8(b))。このとき、画像1−2の人物P1、P2の顔の領域(図3(b)に示す顔枠W1、W2内)が画像1−1の人物P1、P2の顔の領域(図3(a)に示す顔枠W1、W2内)に重ならないように配置される。また、表示制御部6cは、撮影時刻の新しい方の画像1−2を、画像1−1よりも大きなサイズで表示モニタ4に表示させる。なお、画像同士の重なりの上下関係は、主要被写体の顔の領域が重ならなければ、特に限定されるものではない。   Next, the display control unit 6c displays the image 1-1 and the image 1-2 in a superimposed manner after a predetermined time has elapsed (for example, after one second) (FIG. 8B). At this time, the face areas of the persons P1 and P2 in the image 1-2 (in the face frames W1 and W2 shown in FIG. 3B) are the face areas of the persons P1 and P2 in the image 1-1 (FIG. 3A The face frames W1 and W2 shown in FIG. In addition, the display control unit 6c causes the display monitor 4 to display the image 1-2 having the latest photographing time with a size larger than that of the image 1-1. Note that the vertical relationship of overlapping images is not particularly limited as long as the face areas of the main subject do not overlap.

次に、表示制御部6cは、所定時間経過後(例えば、1秒後)、さらに画像1−3を重畳表示させる(図8(c))。このとき、画像1−3における人物P1〜P3の顔の領域(図3(c)に示す顔枠W1、W2、W3内)が、画像1−2及び画像1−1の人物P1、P2の顔の領域(図3(a)、図3(b)に示す顔枠W1、W2内)に重ならないように配置される。そして、CPU6は、図4に示すフローを終了させる。   Next, after a predetermined time has elapsed (for example, after 1 second), the display control unit 6c further displays the image 1-3 in a superimposed manner (FIG. 8C). At this time, the areas of the faces of the persons P1 to P3 in the image 1-3 (in the face frames W1, W2, and W3 shown in FIG. 3C) are the images 1-2 and the persons P1 and P2 of the image 1-1. Arranged so as not to overlap the face area (within the face frames W1 and W2 shown in FIGS. 3A and 3B). Then, the CPU 6 ends the flow shown in FIG.

なお、画像表示装置1は、表示モニタ4に表示された画像(図8(c))のデータを、通信I/F5を介してプリンタに転送し、出力処理させても良い。或いは、画像表示装置1は、表示モニタ4に表示された画像(図8(c))のデータを、通信I/F5を介して、無線LAN(Local Area Network)又は有線LANに接続し、外部のメモリに記録しても良い。   Note that the image display device 1 may transfer the data of the image (FIG. 8C) displayed on the display monitor 4 to the printer via the communication I / F 5 and perform output processing. Alternatively, the image display device 1 connects the data of the image (FIG. 8C) displayed on the display monitor 4 to a wireless LAN (Local Area Network) or a wired LAN via the communication I / F 5, and externally It may be recorded in the memory.

さらに、本実施形態では、データベース3aを内蔵したが、通信I/F5を介して、外部に設けられたデータベースを参照できるようにしても良い。
(変形例1)
次に、主要被写体の特徴領域を設定方法の第二例として、表示対象の画像を全てチェックした後に、主要被写体を設定する場合(図6のサブルーチン)を説明する。
Further, in the present embodiment, the database 3a is built in, but a database provided outside may be referred to via the communication I / F 5.
(Modification 1)
Next, as a second example of the method for setting the feature area of the main subject, a case where the main subject is set after checking all the images to be displayed (subroutine in FIG. 6) will be described.

ステップS301:特徴領域設定部6aは、例えば図2に示すフォルダ2に記録されている、1(n=1)枚目の画像の解析処理を行う。   Step S301: The feature area setting unit 6a performs an analysis process on the first (n = 1) -th image recorded in, for example, the folder 2 shown in FIG.

ステップS302:CPU6は、ステップS201の処理により画像内で顔が抽出されたか否かを判定する。顔が抽出されていない場合(ステップS302:No)、CPU6は、後述するステップS304の処理に移行する。一方、顔が抽出されている場合(ステップS302:Yes)、CPU6は、ステップS303の処理に移行する。   Step S302: The CPU 6 determines whether or not a face has been extracted from the image by the process of step S201. When the face has not been extracted (step S302: No), the CPU 6 proceeds to the process of step S304 described later. On the other hand, when the face is extracted (step S302: Yes), the CPU 6 proceeds to the process of step S303.

ステップS303:特徴領域設定部6aは、表示対象となる複数の画像にわたって、主要被写体の顔毎に出現回数をカウントする。一例として、特徴領域設定部6aは、データベース3aを参照する設定の場合、以下の処理を行う。特徴領域設定部6aは、データベース3aを参照して、参照画像とのマッチングにより顔毎に認証を行う。そして、特徴領域設定部6aは、認証結果に基づいて顔毎に出現回数をカウントする。このカウント数は、メモリ3内で上書きされていく。   Step S303: The feature area setting unit 6a counts the number of appearances for each face of the main subject across a plurality of images to be displayed. As an example, the feature area setting unit 6a performs the following processing in the case of setting referring to the database 3a. The feature area setting unit 6a refers to the database 3a and performs authentication for each face by matching with the reference image. Then, the feature region setting unit 6a counts the number of appearances for each face based on the authentication result. This count number is overwritten in the memory 3.

ステップS304:CPU6は、フォルダ内2の画像を全てチェックしたか否かを判定する。全ての画像がチェックされていない場合(ステップS304:No)、n=n+1として(ステップS307)、ステップS301の処理に戻り、特徴領域設定部6aは、次の画像の解析処理を行う。一方、全ての画像がチェックされた場合(ステップS304:Yes)、CPU6は、ステップS305の処理に移行する。   Step S304: The CPU 6 determines whether or not all the images in the folder 2 have been checked. When all the images are not checked (step S304: No), n = n + 1 is set (step S307), and the process returns to the process of step S301, and the feature area setting unit 6a performs the analysis process of the next image. On the other hand, when all the images are checked (step S304: Yes), the CPU 6 proceeds to the process of step S305.

ステップS305:特徴領域設定部6aは、ステップS303の処理によりカウントされた顔毎の出現回数を参照し、例えば出現回数の最も多い顔を主要被写体の特徴領域に設定する。   Step S305: The feature area setting unit 6a refers to the number of appearances for each face counted in the process of step S303, and sets, for example, the face with the highest number of appearances as the feature area of the main subject.

ステップS306:特徴領域設定部6aは、ステップS305の処理により設定された主要被写体の特徴領域(顔の領域)を、他の画像に重ねて表示しない重畳禁止領域に指定する。そして、CPU6は、サブルーチンを終了し、図4に示すステップS102の処理に戻る。上記の変形例1では、表示対象となる複数の画像において、出現回数の最も多い顔を主要被写体に設定することができる。
(変形例2)
次に、主要被写体の特徴領域を設定方法の第三例として、ユーザの入力により、主要被写体を設定する場合(図7のサブルーチン)を説明する。
Step S306: The feature region setting unit 6a designates the feature region (face region) of the main subject set by the processing in step S305 as a superposition prohibition region that is not displayed superimposed on another image. Then, the CPU 6 ends the subroutine and returns to the process of step S102 shown in FIG. In the first modification described above, the face with the highest number of appearances can be set as the main subject in the plurality of images to be displayed.
(Modification 2)
Next, as a third example of the method for setting the feature area of the main subject, a case where the main subject is set by a user input (subroutine in FIG. 7) will be described.

ステップS401:CPU6の表示制御部6cは、ユーザに画像毎に主要被写体を設定させるため、表示モニタ4に縮小画像を一覧表示させる。例えば、表示制御部6cは、メモリ3に記録されている画像に対応する縮小画像を表示モニタ4に一覧表示させると共に操作部7を介してユーザからの画像の指定を受け付ける。   Step S401: The display controller 6c of the CPU 6 displays a list of reduced images on the display monitor 4 in order to allow the user to set a main subject for each image. For example, the display control unit 6 c displays a list of reduced images corresponding to the images recorded in the memory 3 on the display monitor 4 and accepts designation of an image from the user via the operation unit 7.

ステップS402:CPU6は、ステップS401の処理で選択された画像からユーザに主要被写体(特徴領域)を指定させる。ここで、ユーザは、操作部(タッチパネル)7からのユーザの入力に応じて、例えば画像毎に主要被写体を選択することができる。具体的には、特徴領域設定部6aは、ユーザが例えば画像内の特定の領域を指でタッチした場合、指で指定された領域を特徴領域に設定する。そして、特徴領域設定部6aは、画像内での特徴領域の位置座標をメモリ3に記録する。特徴領域設定部6aは、例えば画像毎に、ユーザが選択した特徴領域の位置座標を順次メモリ3に記録する。   Step S402: The CPU 6 causes the user to designate a main subject (feature area) from the image selected in the process of step S401. Here, the user can select a main subject for each image, for example, in accordance with a user input from the operation unit (touch panel) 7. Specifically, when the user touches a specific area in the image with a finger, for example, the characteristic area setting unit 6a sets the area designated with the finger as the characteristic area. Then, the feature area setting unit 6 a records the position coordinates of the feature area in the image in the memory 3. The feature region setting unit 6a sequentially records the position coordinates of the feature region selected by the user in the memory 3 for each image, for example.

ステップS403:特徴領域設定部6aは、画像毎にユーザの入力により選択された特徴領域を、他の画像に重ねて表示しない重畳禁止領域に指定する。そして、CPU6は、サブルーチンを終了し、図4に示すステップS102の処理に戻る。上記の変形例2では、ユーザの入力により、特徴領域を設定することができる。   Step S403: The feature region setting unit 6a designates the feature region selected by the user's input for each image as a superimposition prohibition region that is not displayed superimposed on another image. Then, the CPU 6 ends the subroutine and returns to the process of step S102 shown in FIG. In the second modification, the feature region can be set by user input.

以上より、本実施形態の画像表示装置1によれば、複数枚の画像を同一画面上に表示させるときに、例えば、主要被写体の特徴部分が重なって隠れることなく、好ましい表示が行える。例えば、画像表示装置1では、撮影時刻の古い順から画像を重畳表示させるので、時間経過の様子が分かる。この際、主要被写体の顔の領域が画像の重なりで隠れることがない。さらに、画像表示装置1は、撮影時刻が新しくなるにつれ、一例として、表示モニタ4に画像を大きく表示させる。したがって、画像表示装置1では、単に、静止画像を順番に表示するスライドショーとは異なる表示効果が得られる。上述した例では、運動会について、同じ日の徒競走のシーンについて説明したが、例えば、表示制御部6cは、年度別に撮影された運動会の画像に基づいて、古い順から表示させても良い。   As described above, according to the image display device 1 of the present embodiment, when displaying a plurality of images on the same screen, for example, a preferable display can be performed without hiding the characteristic portions of the main subject overlapping. For example, in the image display device 1, images are superimposed and displayed from the oldest shooting time, so that the state of time passage can be understood. At this time, the face area of the main subject is not hidden by overlapping images. Furthermore, the image display apparatus 1 displays an image on the display monitor 4 as an example as the shooting time becomes new. Therefore, in the image display device 1, a display effect different from that of a slide show that simply displays still images in order can be obtained. In the above-described example, the scene of the athlete race on the same day has been described for the athletic meet. However, for example, the display control unit 6c may display the oldest based on the image of the athletic meet photographed for each year.

なお、スライドショーの表示形態として、画像の枚数が多い場合、画像表示装置1は、所定枚数毎に画像データを読み込むようにして、図4に示すフローチャートを繰り返しても良い。また、表示制御部6cは、撮影日時に限られず、複数の画像を所定の順番で表示させても良い。また、表示制御部6cは、複数の画像を同時に表示モニタ4に表示させても良い。
<第1実施形態の補足事項>
(1)第1実施形態では、特徴領域設定部6aは、人物の顔を抽出し、顔の領域を特徴領域として設定した。しかし、特徴領域設定部6aは、さらに、被写体の輪郭を抽出し、輪郭で形成される領域を特徴領域として設定しても良い。以下、具体例として、図9を用いて説明する。
As a slide show display form, when the number of images is large, the image display apparatus 1 may repeat the flowchart shown in FIG. 4 by reading image data every predetermined number of images. Further, the display control unit 6c is not limited to the shooting date and time, and may display a plurality of images in a predetermined order. The display control unit 6c may display a plurality of images on the display monitor 4 at the same time.
<Supplementary items of the first embodiment>
(1) In the first embodiment, the feature area setting unit 6a extracts a human face and sets the face area as a feature area. However, the feature region setting unit 6a may further extract the contour of the subject and set a region formed by the contour as the feature region. Hereinafter, a specific example will be described with reference to FIG.

図9は、スライドショー表示の第二例を説明する図である。ここでは、図9に表示した画像2−1から2−5は、図2に示す記録媒体10のフォルダ2に格納されているものとする。撮影時刻は、画像2−1から2−5の順とする。なお、フォルダ2は、人物P4を主に撮影した画像が保存されている。   FIG. 9 is a diagram illustrating a second example of the slide show display. Here, it is assumed that the images 2-1 to 2-5 displayed in FIG. 9 are stored in the folder 2 of the recording medium 10 shown in FIG. The shooting times are in the order of images 2-1 to 2-5. Note that the folder 2 stores an image mainly of the person P4.

ここで、図4及び図5に示すフローチャートに対応付けると、ステップS201の処理において、特徴領域設定部6aは、画像に含まれる被写体の輪郭も抽出する。そして、特徴領域設定部6aは、被写体の輪郭で形成される領域(被写体の輪郭形状)をマッチングの対象に指定する。   Here, in association with the flowcharts shown in FIGS. 4 and 5, in the process of step S201, the feature region setting unit 6a also extracts the contour of the subject included in the image. Then, the feature region setting unit 6a designates a region (contour shape of the subject) formed by the contour of the subject as a matching target.

次に、ステップS201の処理での特徴領域設定部6aは、被写体の輪郭形状と、データベース3a内の各参照画像の輪郭形状とをマッチングする。両者が一致する場合、特徴領域設定部6aは、被写体の輪郭形状を主要被写体の特徴領域とする。   Next, the feature region setting unit 6a in the process of step S201 matches the contour shape of the subject with the contour shape of each reference image in the database 3a. When the two match, the feature region setting unit 6a sets the contour shape of the subject as the feature region of the main subject.

一例として、図9(a)に示す画像2−5において、被写体の輪郭形状(F1)がデータベース3a内の観覧車の参照画像と一致した場合、特徴領域設定部6aは、画像2−5の特徴部分をF1に示す観覧車と推定して抽出する(ステップS201)。なお、画像2−5では、観覧車(F1)以外の被写体が存在しないものとする。この場合、CPU6は、画像内の特徴部分が抽出されたものと判定する(ステップS202:Yes)。   As an example, in the image 2-5 illustrated in FIG. 9A, when the contour shape (F1) of the subject matches the reference image of the ferris wheel in the database 3a, the feature region setting unit 6a displays the image 2-5. The characteristic portion is estimated and extracted as a ferris wheel indicated by F1 (step S201). In the image 2-5, it is assumed that no subject other than the ferris wheel (F1) exists. In this case, the CPU 6 determines that the feature portion in the image has been extracted (step S202: Yes).

続いて、CPU6は、画像2−5に複数の特徴部分が存在しない旨の判定を行なう(ステップS203:No)。そして、特徴領域設定部6aは、画像2−5で観覧車F1の輪郭の領域を重畳禁止領域として指定する(ステップS205)。その後、CPU6は、全ての画像をチェックした後(ステップS206:Yes)、表示順序設定部6bが、表示順序を設定する(ステップS102)。表示制御部6cは、画像2−5を表示するときに、観覧車F1の領域が他の画像によって隠れないように、表示モニタ4に表示させる(ステップS103)。これにより、表示制御部6cは、人物以外の主要被写体も他の画像で隠れないように表示させることができる。   Subsequently, the CPU 6 determines that a plurality of feature portions do not exist in the image 2-5 (step S203: No). Then, the feature area setting unit 6a designates the outline area of the Ferris wheel F1 as an overlap prohibition area in the image 2-5 (step S205). Thereafter, the CPU 6 checks all images (step S206: Yes), and then the display order setting unit 6b sets the display order (step S102). When displaying the image 2-5, the display control unit 6c displays the image on the display monitor 4 so that the area of the Ferris wheel F1 is not hidden by other images (step S103). Thereby, the display control unit 6c can display a main subject other than a person so as not to be hidden by other images.

なお、特徴領域設定部6aは、主要被写体の特徴領域を選択した後、主要被写体の周囲(予め設定した距離の範囲内)に別の人物の顔(主要被写体の顔よりも小さい顔)が存在するときに、上記した別の人物の顔も主要被写体の特徴領域として選択しても良い。具体的に、図9(a)の画像2−1の例において、特徴領域設定部6aは、人物P4の顔を先ず主要被写体の特徴領域に選択した後、人物P5の顔も主要被写体の特徴領域として選択する。上記の処理によれば、例えば、親子を撮影した画像において、親及び子の顔をそれぞれ特徴領域として設定することが可能となる。   The feature area setting unit 6a selects a feature area of the main subject, and then there is another person's face (a face smaller than the face of the main subject) around the main subject (within a preset distance range). When doing so, the face of another person described above may also be selected as the feature region of the main subject. Specifically, in the example of the image 2-1 in FIG. 9A, the feature area setting unit 6a first selects the face of the person P4 as the feature area of the main subject, and then the face of the person P5 is also a feature of the main subject. Select as region. According to the above processing, for example, in the image obtained by photographing the parent and child, it is possible to set the parent and child faces as feature regions, respectively.

また、表示順序設定部6bは、特徴領域設定部6aが主要被写体の特徴領域を人物P4の顔とした場合、画像内で人物P4の顔が占める割合の大きい順に画像の表示順序を設定しても良い。この場合、表示制御部6cは、人物P4の含まれていない画像2−5(観覧車F1)を、表示モニタ4に最後に表示させる。また、例えば、人物と建築物とが映っている画像について、表示制御部6cは、人物を優先的に主要被写体とするようにしても良い。   The display order setting unit 6b sets the image display order in descending order of the proportion of the face of the person P4 in the image when the feature area setting unit 6a sets the feature area of the main subject as the face of the person P4. Also good. In this case, the display control unit 6c causes the display monitor 4 to finally display the image 2-5 (ferris wheel F1) that does not include the person P4. Further, for example, for an image showing a person and a building, the display control unit 6c may preferentially set the person as the main subject.

また、表示制御部6cは、ユーザの指示に応じて表示モニタ4に表示されている画像の位置を入れ替えても良い。一例として、表示制御部6cは、複数の画像のうち、指定された画像が最も大きく表示されるように画像を入れ替える。図9(a)において、例えば、ユーザがタッチパネル表面上で画像2−3における人物P6の顔の領域を指先で指定した場合、表示制御部6cは、図9(b)に示す通り、表示モニタ4の画面内において、画像2−3を拡大すると共に画像2−1を縮小して配置を置き換えるようにして表示しても良い。なお、この際、表示制御部6cは、画像2−3の人物P6の一部が画像2−5によって隠れないように表示する。すなわち、表示制御部6cは、画像2−3の特徴領域である人物P6の顔の領域と画像2−5の特徴領域である観覧車F1との輪郭が重ならないように表示する。   Further, the display control unit 6c may change the position of the image displayed on the display monitor 4 in accordance with a user instruction. As an example, the display control unit 6c switches the images so that the designated image is displayed in the largest size among the plurality of images. In FIG. 9A, for example, when the user designates the face area of the person P6 in the image 2-3 with the fingertip on the touch panel surface, the display control unit 6c displays the display monitor as shown in FIG. 9B. 4 may be displayed by enlarging the image 2-3 and reducing the image 2-1 to replace the arrangement. At this time, the display control unit 6c displays so that a part of the person P6 in the image 2-3 is not hidden by the image 2-5. That is, the display control unit 6c displays the face area of the person P6, which is the feature area of the image 2-3, and the outline of the Ferris wheel F1, which is the feature area of the image 2-5, so as not to overlap.

(2)第1実施形態では、人物の顔を主要被写体の特徴領域とした。ここで、複数の画像において、データベース3aの参照画像とのマッチングにより、主要被写体が車と推定された場合、表示制御部6cは、例えば、スライドショー表示において、車の輪郭の領域が重ならないように複数の画像を車の向きに応じた方向に移動させて表示しても良い。以下、具体例として、図10を用いて説明する。   (2) In the first embodiment, the face of a person is used as the feature area of the main subject. Here, in a plurality of images, when the main subject is estimated to be a car by matching with a reference image in the database 3a, the display control unit 6c, for example, in a slide show display, does not overlap the car contour areas. A plurality of images may be displayed by moving in a direction corresponding to the direction of the car. Hereinafter, a specific example will be described with reference to FIG.

図10は、スライドショー表示の第三例を説明する図である。ここでは、図10に表示した画像3−1、3−2は、図1に示す記録媒体10のフォルダ3に格納されているものとする。フォルダ3には、車の画像が多数格納されているものとするが、図10の例では、2枚の画像(3−1、3−2)の表示例を説明する。画像3−1は車C1を右側面から撮影した画像であり、画像3−2は車C2を左側面から撮影した画像である。   FIG. 10 is a diagram for explaining a third example of the slide show display. Here, it is assumed that the images 3-1 and 3-2 displayed in FIG. 10 are stored in the folder 3 of the recording medium 10 shown in FIG. Although a lot of car images are stored in the folder 3, an example of displaying two images (3-1, 3-2) will be described in the example of FIG. An image 3-1 is an image obtained by photographing the car C1 from the right side surface, and an image 3-2 is an image obtained by photographing the car C2 from the left side surface.

ここで、表示制御部6cは、スライドショーの他の表示形態として、例えば、2枚の画像を時系列(又は同時)に表示させて、画像内を移動させるようにしても良い。このとき、表示制御部6cは、車の輪郭の形状から、望ましい進行方向を推定する。そして、表示制御部6cは、一例として表示モニタ4上で、画像3−1を右向きに移動させ、画像3−2を左向きに移動させる(図10(a))。その後、表示制御部6cは、画像(3−1、3−2)の車C1、C2が重なる直前で両方の画像の移動を停止させる(図10(b))。上記の表示例では、スライドショーを行う際、後ろ向きに車の画像が移動しないで済むので、違和感のない表示効果が得られる。なお、特徴領域設定部6aは、車の輪郭のうち一部(例えば、車のフロント部分)の領域を特徴部分として抽出し、表示制御部6cは、その一部の領域が重ならないように画像の移動方向を制御して所定の位置で停止させても良い。   Here, as another display form of the slide show, for example, the display control unit 6c may display two images in time series (or simultaneously) and move the images. At this time, the display control unit 6c estimates a desirable traveling direction from the shape of the contour of the car. Then, as an example, the display control unit 6c moves the image 3-1 to the right and the image 3-2 to the left on the display monitor 4 (FIG. 10A). Thereafter, the display control unit 6c stops the movement of both images immediately before the cars C1 and C2 of the images (3-1 and 3-2) overlap (FIG. 10B). In the above display example, when the slide show is performed, the image of the car does not have to move backward, so that a display effect without a sense of incongruity can be obtained. The feature area setting unit 6a extracts a part of the outline of the car (for example, a front part of the car) as a feature part, and the display control unit 6c displays an image so that the part of the areas do not overlap. It is also possible to stop at a predetermined position by controlling the moving direction.

また、図10では、車の場合を例示したが、他の被写体でも同様の制御を行っても良い。一例として、主要被写体が人物の場合には、CPU6が、画像を解析することにより、顔の視線の向きや顔の向きを検出し、表示制御部6cは、人物の視線の向き等に応じて画像の移動方向を制御しても良い。
(3)第1実施形態の画像表示装置1では、画像データを取り込むため、記録媒体I/F2を備える例について説明した。これに限定されず、例えば、USB(Universal Serial Bus)ケーブルを介して接続した機器から画像データを取り込むためのUSBインターフェース等、他のインターフェースを備えても良い。
Further, although FIG. 10 illustrates the case of a car, the same control may be performed for other subjects. As an example, when the main subject is a person, the CPU 6 analyzes the image to detect the face direction of the face and the face direction, and the display control unit 6c determines the direction of the person's line of sight, The moving direction of the image may be controlled.
(3) In the image display device 1 of the first embodiment, the example in which the recording medium I / F 2 is provided to capture image data has been described. For example, another interface such as a USB interface for capturing image data from a device connected via a USB (Universal Serial Bus) cable may be provided.

(第2実施形態)
次に、本発明の第2実施形態について説明する。なお、第1実施形態と第2実施形態とでは、同様の構成要素については同じ名称を付して説明を省略する。第2実施形態は、第1実施形態の画像表示装置と同様の機能を搭載した電子カメラである。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment and the second embodiment, the same components are assigned the same names and the description thereof is omitted. The second embodiment is an electronic camera equipped with the same function as the image display device of the first embodiment.

図11は、電子カメラ50の構成を説明するブロック図である。図11に示す通り電子カメラ50は、ズームレンズとフォーカスレンズとを含む撮影レンズ51と、撮像部52と、メモリ53と、表示モニタ54と、通信I/F55と、記録媒体I/F56と、記録媒体57と、レリーズ釦58と、操作部59と、CPU60と、データバス61とを備える。   FIG. 11 is a block diagram illustrating the configuration of the electronic camera 50. As shown in FIG. 11, the electronic camera 50 includes a photographing lens 51 including a zoom lens and a focus lens, an imaging unit 52, a memory 53, a display monitor 54, a communication I / F 55, a recording medium I / F 56, A recording medium 57, a release button 58, an operation unit 59, a CPU 60, and a data bus 61 are provided.

撮像部52は、レンズ駆動機構、絞り、シャッター機構、撮像素子、AFE(アナログフロントエンド)等からなる。この撮像部52は、撮影レンズ51が結像した被写体像の画像データを生成する。撮像部52は、静止画像の撮影時には、記録用の静止画像の画像データを生成する。   The imaging unit 52 includes a lens driving mechanism, a diaphragm, a shutter mechanism, an imaging element, an AFE (analog front end), and the like. The imaging unit 52 generates image data of a subject image formed by the photographing lens 51. The imaging unit 52 generates image data of a recording still image when capturing a still image.

撮像部52が出力する画像データは、メモリ53に一時的に記録される。このメモリ53は、フレームメモリとしても機能する。また、メモリ53は、第1実施形態と同様のデータベース53aを備える。   Image data output by the imaging unit 52 is temporarily recorded in the memory 53. This memory 53 also functions as a frame memory. The memory 53 includes a database 53a similar to that in the first embodiment.

表示モニタ54は、静止画像、構図確認用のスルー画像及び電子カメラ50の操作メニュー等を表示する。表示モニタ54には、液晶モニタ等を適宜選択して用いることができる。通信I/F55、記録媒体I/F56及び記録媒体57は、第1実施形態と同様の構成である。   The display monitor 54 displays a still image, a through image for composition confirmation, an operation menu of the electronic camera 50, and the like. As the display monitor 54, a liquid crystal monitor or the like can be appropriately selected and used. The communication I / F 55, the recording medium I / F 56, and the recording medium 57 have the same configuration as in the first embodiment.

レリーズ釦58は、半押し操作(撮影準備動作)の指示入力と全押し操作(撮像動作開始)との指示入力とを受け付ける。   The release button 58 accepts an instruction input for a half-press operation (imaging preparation operation) and an instruction input for a full-press operation (imaging operation start).

操作部59は、例えば、コマンド選択用のコマンドダイヤル、電源ボタン等を有している。そして、操作部59は、電子カメラ50を操作するための指示入力を受け付ける。   The operation unit 59 includes, for example, a command dial for command selection, a power button, and the like. Then, the operation unit 59 receives an instruction input for operating the electronic camera 50.

CPU60は、電子カメラ50の統括的な制御を行うマイクロプロセッサであり、コンピューターとしての機能を有する。また、CPU60は、画像処理機能を備え、メモリ53に記録されている画像データを読み出し、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。さらに、CPU60は、第1実施形態と同様、特徴領域設定部6aと、表示順序設定部60bと、表示制御部60cとしても機能する。   The CPU 60 is a microprocessor that performs overall control of the electronic camera 50 and has a function as a computer. Further, the CPU 60 has an image processing function, reads image data recorded in the memory 53, and performs various image processing (gradation conversion processing, contour enhancement processing, white balance processing, etc.). Further, the CPU 60 also functions as a feature region setting unit 6a, a display order setting unit 60b, and a display control unit 60c, as in the first embodiment.

次に、第2実施形態における電子カメラ50のスライドショーの動作例を説明する。第1実施形態における画像表示装置1と電子カメラ50との異なる点は、電子カメラ50が、撮影機能を有しており、撮影した画像が記録媒体57に記録される点である。   Next, an example of a slide show operation of the electronic camera 50 in the second embodiment will be described. The difference between the image display device 1 and the electronic camera 50 in the first embodiment is that the electronic camera 50 has a photographing function and the photographed image is recorded on the recording medium 57.

ここで、電子カメラ50のスライドショーの動作は、第1実施形態における画像表示装置1のスライドショーの動作と比較して、基本的に図4のフローチャートと同様の処理を行う。   Here, the slide show operation of the electronic camera 50 basically performs the same processing as the flowchart of FIG. 4 in comparison with the slide show operation of the image display device 1 in the first embodiment.

以上より、第2実施形態の電子カメラ50によれば、第1実施形態の画像表示装置1と同様にして、複数枚の画像を同一画面上に表示させるときに、主要被写体の特徴部分が重なって隠れることなく、好ましい表示が行える。   As described above, according to the electronic camera 50 of the second embodiment, similar to the image display device 1 of the first embodiment, when a plurality of images are displayed on the same screen, the characteristic portions of the main subject overlap. A favorable display can be performed without being hidden.

なお、上述した画像表示装置1は、携帯電話、画像表示機能を有する音楽携帯プレーヤー、電子アルバム、デジタルフォトフレーム、若しくはパーソナルコンピューター(表示モニタが外付けの場合を含む)等に適用することもできる。   The image display device 1 described above can also be applied to a mobile phone, a portable music player having an image display function, an electronic album, a digital photo frame, or a personal computer (including a case where a display monitor is externally attached). .

上述した第1、第2実施形態で扱われる画像は、電子カメラで撮像された画像に限られない。例えば、上述した本実施形態の画像は、光学スキャナー装置から読み取られた画像でも良く、或いは、画像描画用のアプリケーションソフトで描かれた画像であっても良い。   The images handled in the first and second embodiments described above are not limited to images captured by an electronic camera. For example, the image of this embodiment described above may be an image read from an optical scanner device, or may be an image drawn with application software for image drawing.

3、53・・・メモリ、3a、53a・・・データベース、4、54・・・表示モニタ、6a、60a・・・特徴領域設定部、6b、60b・・・表示順序設定部、6c、60c・・・表示制御部、52・・・撮像部 3, 53 ... Memory, 3a, 53a ... Database, 4, 54 ... Display monitor, 6a, 60a ... Feature region setting unit, 6b, 60b ... Display order setting unit, 6c, 60c ... Display control unit, 52 ... Imaging unit

Claims (11)

画像内に特徴領域を設定する特徴領域設定部と、
複数の画像を表示装置に表示させる際、前記特徴領域設定部により設定された前記特徴領域が重ならないように前記複数の画像を表示させる表示制御部とを備えること
を特徴とする画像表示装置。
A feature region setting unit for setting a feature region in the image;
An image display device comprising: a display control unit configured to display the plurality of images so that the feature regions set by the feature region setting unit do not overlap when displaying a plurality of images on a display device.
請求項1に記載の画像表示装置において、
前記特徴領域設定部は、前記画像を解析することで前記画像の前記特徴領域を設定すること
を特徴とする画像表示装置。
The image display device according to claim 1,
The feature region setting unit sets the feature region of the image by analyzing the image.
請求項1または請求項2に記載の画像表示装置において、
前記特徴領域設定部は、前記画像を解析することで前記画像内の被写体を抽出し、前記被写体の輪郭で形成される領域を前記特徴領域として設定すること
を特徴とする画像表示装置。
The image display device according to claim 1 or 2,
The image display device, wherein the feature region setting unit extracts a subject in the image by analyzing the image, and sets a region formed by a contour of the subject as the feature region.
請求項1から請求項3のいずれか1項に記載の画像表示装置において、
前記特徴領域設定部は、予め登録された特徴領域に関する特徴領域情報に基づいて前記画像の前記特徴領域を設定すること
を特徴とする画像表示装置。
The image display device according to any one of claims 1 to 3,
The feature region setting unit sets the feature region of the image based on feature region information regarding a feature region registered in advance.
請求項1から請求項4のいずれか1項に記載の画像表示装置において、
前記複数の画像を前記表示装置に表示させる表示順序を設定する表示順序設定部をさらに備えること
を特徴とする画像表示装置。
The image display device according to any one of claims 1 to 4,
An image display device, further comprising: a display order setting unit that sets a display order for displaying the plurality of images on the display device.
請求項5に記載の画像表示装置において、
前記表示順序設定部は、前記複数の画像それぞれの撮影日時に基づいて前記表示順序を設定すること
を特徴とする画像表示装置。
The image display device according to claim 5,
The image display device, wherein the display order setting unit sets the display order based on the shooting date and time of each of the plurality of images.
請求項1から請求項6のいずれか1項に記載の画像表示装置において、
前記表示制御部は、前記特徴領域が重ならないように前記複数の画像を重畳して表示させること
を特徴とする画像表示装置。
The image display device according to any one of claims 1 to 6,
The display control unit displays the plurality of images so that the feature regions do not overlap with each other.
請求項1から請求項7のいずれか1項に記載の画像表示装置において、
前記表示制御部は、前記特徴領域が重ならないように前記複数の画像のうち少なくとも1つの画像を移動させて表示させること
を特徴とする画像表示装置。
The image display device according to any one of claims 1 to 7,
The display control unit moves and displays at least one of the plurality of images so that the feature regions do not overlap.
請求項1から請求項8のいずれか1項に記載の画像表示装置において、
前記特徴領域設定部は、前記表示装置に表示させる複数の画像について個別に前記特徴領域を設定すること
を特徴とする画像表示装置。
The image display device according to any one of claims 1 to 8,
The feature region setting unit sets the feature region individually for a plurality of images to be displayed on the display device.
被写体を撮像して画像を生成する撮像部と、
請求項1から請求項9のいずれか1項に記載の画像表示装置とを備えること
を特徴とする撮像装置。
An imaging unit that images a subject and generates an image;
An image pickup apparatus comprising: the image display apparatus according to claim 1.
画像内に特徴領域を設定する特徴領域設定ステップと、
複数の画像を表示装置に表示させる際、前記特徴領域設定ステップにより設定された前記特徴領域が重ならないように前記複数の画像を表示させる表示制御ステップとをコンピューターに実行させること
を特徴とする画像表示プログラム。
A feature region setting step for setting a feature region in the image;
When displaying a plurality of images on a display device, the computer executes a display control step for displaying the plurality of images so that the feature regions set in the feature region setting step do not overlap. Display program.
JP2010094277A 2010-04-15 2010-04-15 Image display device,imaging device and image display program Withdrawn JP2011228801A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010094277A JP2011228801A (en) 2010-04-15 2010-04-15 Image display device,imaging device and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010094277A JP2011228801A (en) 2010-04-15 2010-04-15 Image display device,imaging device and image display program

Publications (1)

Publication Number Publication Date
JP2011228801A true JP2011228801A (en) 2011-11-10

Family

ID=45043685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010094277A Withdrawn JP2011228801A (en) 2010-04-15 2010-04-15 Image display device,imaging device and image display program

Country Status (1)

Country Link
JP (1) JP2011228801A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848986A (en) * 1994-08-03 1996-02-20 Nippon Oil Co Ltd Refrigerator oil composition and fluid composition for refrigerator
JP2014039084A (en) * 2012-08-10 2014-02-27 Olympus Imaging Corp Imaging apparatus
JP2015084483A (en) * 2013-10-25 2015-04-30 キヤノン株式会社 Image reproducing apparatus, method and program
JP2015179892A (en) * 2014-03-18 2015-10-08 大日本印刷株式会社 Photographing apparatus, photographing method and photographing system
JP2016103841A (en) * 2016-01-04 2016-06-02 オリンパス株式会社 Imaging apparatus and imaging method
JP2020201705A (en) * 2019-06-10 2020-12-17 コニカミノルタ株式会社 Image processing apparatus, image forming apparatus, display device, image processing program, and image processing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848986A (en) * 1994-08-03 1996-02-20 Nippon Oil Co Ltd Refrigerator oil composition and fluid composition for refrigerator
JP2014039084A (en) * 2012-08-10 2014-02-27 Olympus Imaging Corp Imaging apparatus
JP2015084483A (en) * 2013-10-25 2015-04-30 キヤノン株式会社 Image reproducing apparatus, method and program
JP2015179892A (en) * 2014-03-18 2015-10-08 大日本印刷株式会社 Photographing apparatus, photographing method and photographing system
JP2016103841A (en) * 2016-01-04 2016-06-02 オリンパス株式会社 Imaging apparatus and imaging method
JP2020201705A (en) * 2019-06-10 2020-12-17 コニカミノルタ株式会社 Image processing apparatus, image forming apparatus, display device, image processing program, and image processing method
JP7251334B2 (en) 2019-06-10 2023-04-04 コニカミノルタ株式会社 Image processing device, image forming device, display device, image processing program, and image processing method

Similar Documents

Publication Publication Date Title
US20200252547A1 (en) Image Processing Device, Image Processing Method and Program
JP4980779B2 (en) Imaging apparatus, method and program
JP4794584B2 (en) Imaging device, image display device, and program thereof
US20110019239A1 (en) Image Reproducing Apparatus And Image Sensing Apparatus
JP4663699B2 (en) Image display device and image display method
JP2011228801A (en) Image display device,imaging device and image display program
JP5966584B2 (en) Display control apparatus, display control method, and program
JP4901258B2 (en) Camera and data display method
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
JP2008245093A (en) Digital camera, and control method and control program of digital camera
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
WO2007023704A1 (en) Imaging device, display control device, and display device
JP2005056175A (en) Image estimation device
JP5785038B2 (en) Photography equipment
JP4588627B2 (en) Image processing apparatus and image processing program
JP4379191B2 (en) Electronic camera and image processing program
JP2013012982A (en) Imaging apparatus and image reproduction apparatus
JP2012186538A (en) Electronic camera, image display device, program, and recording medium
JP5034969B2 (en) Imaging apparatus, imaging method, and program
JP2008236011A (en) Photography device
JP2010102179A (en) Display
JP2013229696A (en) Imaging apparatus
WO2013141025A1 (en) Image processing device, image processing method, program, and recording medium
JP2018014698A (en) Imaging apparatus and control method of the same
JP2019053533A (en) Image sharing system, server, information terminal, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130702