JP2010263352A - Image processing program and camera - Google Patents

Image processing program and camera Download PDF

Info

Publication number
JP2010263352A
JP2010263352A JP2009111849A JP2009111849A JP2010263352A JP 2010263352 A JP2010263352 A JP 2010263352A JP 2009111849 A JP2009111849 A JP 2009111849A JP 2009111849 A JP2009111849 A JP 2009111849A JP 2010263352 A JP2010263352 A JP 2010263352A
Authority
JP
Japan
Prior art keywords
image
period
shooting
images
processing program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009111849A
Other languages
Japanese (ja)
Inventor
Yuko Hattori
佑子 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009111849A priority Critical patent/JP2010263352A/en
Publication of JP2010263352A publication Critical patent/JP2010263352A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing program which selects a suitable representative image even if there is no operation history information based on the user operation. <P>SOLUTION: The image processing program makes a computer perform: classification processing which classifies a plurality of images into groups for every predetermined period based on the photography day of each image; first extraction processing which extracts, for each period, a plurality of images representing each period from the groups classified by the classification processing based on the degree of user value of an image in the group; second extraction processing which extracts, for each period, one representative image representing each period from a plurality of images extracted by the first extraction processing based on the degree of image evaluation of the plurality of images; and photographing history information generation processing which generates the photographing history information by associating the information indicating each period, the representative image corresponding to the period, and the information about the representative image of the period. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理プログラムおよびこのプログラムを搭載したカメラに関する。   The present invention relates to an image processing program and a camera equipped with the program.

複数の画像を代表する画像を優先表示する技術が知られている(特許文献1参照)。   A technique for preferentially displaying images representing a plurality of images is known (see Patent Document 1).

特開2006−157778号公報JP 2006-157778 A

従来技術では、閲覧や印刷などの操作履歴情報に基づいて、閲覧回数や印刷回数などが多い画像を優先表示するので、ユーザ操作による操作履歴情報がない場合には、適切な代表画像を選ぶことが困難であった。   In the prior art, images with a large number of browsing or printing operations are preferentially displayed based on operation history information such as browsing and printing, so if there is no operation history information by user operation, an appropriate representative image is selected. It was difficult.

本発明による画像処理プログラムは、複数の画像を各画像の撮影日に基づいて所定期間ごとのグループに分類する分類処理と、分類処理によって分類されたグループから、該グループ内の画像の使用者価値度に基づいて期間を代表する複数の画像を各期間についてそれぞれ抽出する第1抽出処理と、第1抽出処理によって抽出された複数の画像から、該複数の画像の画像評価度に基づいて期間を代表する1つの代表画像を各期間についてそれぞれ抽出する第2抽出処理と、各期間についての期間を示す情報と、当該期間に対応する代表画像と、当該期間の代表画像に関する情報とを関連付けた撮影履歴情報を生成する撮影履歴情報生成処理と、をコンピュータに実行させることを特徴とする。   An image processing program according to the present invention includes a classification process for classifying a plurality of images into groups for each predetermined period based on the shooting date of each image, and a user value of an image in the group from the group classified by the classification process. A first extraction process for extracting a plurality of images representing periods based on the degree for each period, and a plurality of images extracted by the first extraction process based on the image evaluation degree of the plurality of images. A second extraction process for extracting one representative image for each period, information indicating the period for each period, a representative image corresponding to the period, and imaging related to the representative image for the period The imaging history information generation process for generating history information is executed by a computer.

本発明によれば、ユーザ操作に基づく操作履歴情報がなくても、適切な代表画像を選ぶことができる。   According to the present invention, an appropriate representative image can be selected without the operation history information based on the user operation.

本発明の一実施形態による電子カメラの構成例を説明するブロック図である。It is a block diagram explaining the structural example of the electronic camera by one Embodiment of this invention. 撮影履歴情報の生成処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the production | generation process of imaging | photography history information. 代表画像の抽出処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the extraction process of a representative image. 電子カメラの背面図である。It is a rear view of an electronic camera. 登録撮影を説明する図である。It is a figure explaining registration photography. ダイジェスト表示を例示する図である。It is a figure which illustrates a digest display. ダイジェスト表示を例示する図である。It is a figure which illustrates a digest display. ダイジェスト表示を例示する図である。It is a figure which illustrates a digest display. ダイジェスト表示を例示する図である。It is a figure which illustrates a digest display. 操作メニュー画面を例示する図である。It is a figure which illustrates the operation menu screen. ダイジェスト表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a digest display process. 変形例2を説明する図である。It is a figure explaining the modification 2. FIG. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による電子カメラ1の構成例を説明するブロック図である。図1において、電子カメラ1は、撮影光学系11と、撮像素子12と、AFE(Analog front end)回路13と、画像処理回路14と、スピーカ駆動回路15と、スピーカ16と、LCDモニタ17と、RAM18と、フラッシュメモリ19と、CPU20と、メモリカードインターフェース(I/F)21と、電源制御回路22と、操作部材23と、GPS装置25とを備える。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 1 according to an embodiment of the present invention. In FIG. 1, an electronic camera 1 includes a photographing optical system 11, an image sensor 12, an AFE (Analog front end) circuit 13, an image processing circuit 14, a speaker drive circuit 15, a speaker 16, and an LCD monitor 17. RAM 18, flash memory 19, CPU 20, memory card interface (I / F) 21, power supply control circuit 22, operation member 23, and GPS device 25.

CPU20、RAM18、フラッシュメモリ19、メモリカードインターフェース21、電源制御回路22、画像処理回路14、スピーカ駆動回路15、LCDモニタ17、GPS装置25は、それぞれがバス24を介して接続されている。   The CPU 20, RAM 18, flash memory 19, memory card interface 21, power supply control circuit 22, image processing circuit 14, speaker drive circuit 15, LCD monitor 17, and GPS device 25 are connected via a bus 24.

撮影光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図1を簡単にするため、撮影光学系11を単レンズとして図示している。   The photographing optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the image sensor 12. In order to simplify FIG. 1, the photographing optical system 11 is shown as a single lens.

撮像素子12は、その受光面に受光素子が二次元配列されたCCDイメージセンサやCMOSイメージセンサなどによって構成される。撮像素子12は、撮影光学系11を通過した光束による被写体像を光電変換してアナログ画像信号を生成する。アナログ画像信号は、AFE回路13に入力される。   The image sensor 12 is configured by a CCD image sensor, a CMOS image sensor, or the like in which light receiving elements are two-dimensionally arranged on the light receiving surface. The image sensor 12 photoelectrically converts a subject image by a light beam that has passed through the photographing optical system 11 to generate an analog image signal. The analog image signal is input to the AFE circuit 13.

AFE回路13は、アナログ画像信号に対して相関二重サンプリングやゲイン調整などのアナログ処理を行うとともに、アナログ処理後の画像信号をデジタル画像データに変換する。デジタル画像データは画像処理回路14に入力される。画像処理回路14は、デジタル画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を施す。   The AFE circuit 13 performs analog processing such as correlated double sampling and gain adjustment on the analog image signal, and converts the image signal after the analog processing into digital image data. The digital image data is input to the image processing circuit 14. The image processing circuit 14 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image data.

スピーカ駆動回路15は、CPU20から送出された音声データに基づいて、たとえば操作音、音楽、音声メッセージなどの音声再生信号を生成する。スピーカ16は、音声再生信号に基づいて音声再生を行う。   The speaker drive circuit 15 generates a sound reproduction signal such as an operation sound, music, a voice message, and the like based on the sound data sent from the CPU 20. The speaker 16 performs audio reproduction based on the audio reproduction signal.

LCDモニタ17は液晶パネルによって構成され、CPU20からの指示に応じて画像や操作メニュー画面などを表示する。RAM18はCPU20のワークメモリとして使用される。また、RAM18は、画像処理回路14による画像処理の前工程や後工程でのデジタル画像データを一時的に記憶する。フラッシュメモリ19は、CPU20に実行させるプログラムを記憶する。   The LCD monitor 17 is composed of a liquid crystal panel, and displays an image, an operation menu screen, and the like according to an instruction from the CPU 20. The RAM 18 is used as a work memory for the CPU 20. The RAM 18 temporarily stores digital image data in the pre-process and post-process of image processing by the image processing circuit 14. The flash memory 19 stores a program to be executed by the CPU 20.

CPU20は、フラッシュメモリ19が記憶するプログラムを実行することによって電子カメラ1が行う動作を統括的に制御する。CPU20は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、たとえば、スルー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。スルー画像は、撮影指示前に撮像素子12によって所定の時間間隔(たとえば30コマ/毎秒)で繰り返し取得されるモニタ用画像のことをいう。   The CPU 20 comprehensively controls operations performed by the electronic camera 1 by executing a program stored in the flash memory 19. The CPU 20 also performs AF (autofocus) operation control and automatic exposure (AE) calculation. The AF operation uses, for example, a contrast detection method for obtaining a focus position of a focusing lens (not shown) based on contrast information of a through image. The through image refers to a monitor image that is repeatedly acquired by the image sensor 12 at a predetermined time interval (for example, 30 frames / second) before a shooting instruction.

メモリカードインターフェース21はコネクタ(不図示)を有し、該コネクタにメモリカードなどの記憶媒体51が接続される。メモリカードインターフェース21は、接続された記憶媒体51に対するデータの書き込みや、記憶媒体51からのデータの読み込みを行う。記憶媒体51は、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。   The memory card interface 21 has a connector (not shown), and a storage medium 51 such as a memory card is connected to the connector. The memory card interface 21 writes data to the connected storage medium 51 and reads data from the storage medium 51. The storage medium 51 is configured by a memory card incorporating a semiconductor memory, a hard disk drive, or the like.

電源制御回路22は、CPU20からの指示に応じて撮像素子12、LCDモニタ17、およびLCDモニタ17のバックライト(不図示)を始めとするカメラ内各ブロックに対する電力の供給/遮断を制御する。   The power supply control circuit 22 controls supply / cut-off of power to each block in the camera including the imaging device 12, the LCD monitor 17, and the backlight (not shown) of the LCD monitor 17 in accordance with an instruction from the CPU 20.

操作部材23は、後述するレリーズボタン23a、ズームスイッチ23b 23c、十字スイッチ23g、メニュースイッチ23eなどを含む。操作部材23は、モード切替え操作やメニュー選択操作など、各操作に応じた操作信号をCPU20へ送出する。   The operation member 23 includes a release button 23a, a zoom switch 23b 23c, a cross switch 23g, a menu switch 23e, and the like which will be described later. The operation member 23 sends an operation signal corresponding to each operation, such as a mode switching operation or a menu selection operation, to the CPU 20.

GPS装置25は、CPU20からの指示に応じてGPS衛星からの電波を受信し、受信信号をCPU20へ出力する。CPU20は、GPS装置25からの受信信号に基づいて所定の演算を行い、電子カメラ1の測位情報(緯度、経度、高度)を検出する。   The GPS device 25 receives radio waves from GPS satellites in response to instructions from the CPU 20 and outputs received signals to the CPU 20. The CPU 20 performs a predetermined calculation based on a received signal from the GPS device 25 and detects positioning information (latitude, longitude, altitude) of the electronic camera 1.

電子カメラ1は、撮影時に撮像素子12で取得された画像信号に所定の画像処理および圧縮処理を施し、圧縮処理後の画像データに、測位情報、および当該撮影画像に関する情報などを含む付加情報を付加した画像ファイルを生成するように構成されている。具体的には、JPEG形式の画像データを画像データ部に格納し、付加情報を付加情報部に格納したExif形式の画像ファイルを生成する。Exif形式の画像ファイルは、JPEG画像フォーマットの画像データ内にサムネイル画像や付加情報データを埋め込むようにしたものである。生成した画像ファイルは、記録媒体51に記録される。   The electronic camera 1 performs predetermined image processing and compression processing on the image signal acquired by the image sensor 12 at the time of shooting, and adds additional information including positioning information and information about the shot image to the image data after the compression processing. It is configured to generate an added image file. Specifically, an image file in Exif format is generated in which image data in JPEG format is stored in the image data portion and additional information is stored in the additional information portion. The Exif format image file is obtained by embedding thumbnail images and additional information data in image data in the JPEG image format. The generated image file is recorded on the recording medium 51.

また、電子カメラ1は撮影モードと再生モードとが切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体51に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体51から読み出すなどして、画像データによる再生画像をLCDモニタ17に表示するモードである。   Further, the electronic camera 1 is configured to be able to switch between a shooting mode and a playback mode. The shooting mode is an operation mode in which a subject image is shot and data of the shot image is stored in the recording medium 51 as an image file. The reproduction mode is a mode for displaying the reproduced image based on the image data on the LCD monitor 17 by reading the captured image data from the recording medium 51.

<撮影履歴情報の生成>
本実施形態の電子カメラ1は、撮影履歴情報を生成する機能を備える。撮影履歴情報は、該カメラによる撮影画像のダイジェストを表示するための情報である。電子カメラ1のCPU20は、撮影画像を撮影日に基づいて所定期間ごとの画像群に分け、該画像群ごとに代表画像を抽出し、代表画像に関する撮影情報などを該代表画像に関連づけてフラッシュメモリ19へ記録する。
<Generation of shooting history information>
The electronic camera 1 according to the present embodiment has a function of generating shooting history information. The shooting history information is information for displaying a digest of images taken by the camera. The CPU 20 of the electronic camera 1 divides the captured images into image groups for each predetermined period based on the shooting date, extracts a representative image for each image group, associates shooting information regarding the representative image with the representative image, and the flash memory. Record to 19.

本実施形態は、上記撮影履歴情報の生成、および生成した撮影履歴情報に基づいて撮影画像のダイジェストをLCDモニタ17に表示する点に特徴を有するので、以降の説明は撮影履歴情報の生成、表示に必要な処理を中心に行う。   The present embodiment is characterized in that the shooting history information is generated and a digest of the shot image is displayed on the LCD monitor 17 based on the generated shooting history information. The processing that is necessary for this is performed.

図2は、CPU20が実行する撮影履歴情報の生成処理の流れを説明するフローチャートである。CPU20は、たとえば、暦の月が変わって最初に電子カメラ1が使用された場合の使用後において、該カメラ1の電源オフ処理時に(具体的には、電源スイッチのオフ操作に応じて所定の電源オフ処理を行った後であって、電源制御回路22による電源供給を停止する前)、図2による処理を開始する。   FIG. 2 is a flowchart for explaining the flow of processing for generating shooting history information executed by the CPU 20. For example, after the electronic camera 1 is used for the first time when the calendar month changes, the CPU 20 performs a power-off process of the camera 1 (specifically, a predetermined amount according to an operation of turning off the power switch). After the power-off process is performed and before the power supply by the power control circuit 22 is stopped), the process shown in FIG. 2 is started.

図2のステップS11において、CPU20は、記録媒体51内に記録されている撮影画像のファイルから各画像の撮影日時の情報を抽出してステップ12へ進む。ステップS12において、CPU20は、全ての画像ファイルについて撮影日時情報を抽出したか否かを判定する。撮影日時情報の抽出は、図2の処理を前回行った以降に撮影した新規撮影分について行えばよい。CPU20は、全ての画像ファイルについて撮影日時情報を抽出した場合にステップS12を肯定判定してステップS13へ進む。CPU20は、撮影日時情報を抽出していない画像ファイルが存在する場合にステップS12を否定判定してステップS11へ戻る。   In step S <b> 11 of FIG. 2, the CPU 20 extracts information on the shooting date and time of each image from the captured image file recorded in the recording medium 51, and proceeds to step 12. In step S <b> 12, the CPU 20 determines whether shooting date / time information has been extracted for all image files. The extraction of the shooting date / time information may be performed for a new shot taken after the previous processing of FIG. If the CPU 20 has extracted the shooting date / time information for all the image files, the CPU 20 makes a positive determination in step S12 and proceeds to step S13. If there is an image file from which the shooting date / time information has not been extracted, the CPU 20 makes a negative determination in step S12 and returns to step S11.

ステップS13〜S15、S21およびS22では期間の設定を行う。ステップS13において、CPU20は、一ヶ月に一度は撮影が行われたか否かを判定する。CPU20は、たとえば、直近の一ヶ月に撮影している場合にステップS13を肯定判定してステップS21へ進み、撮影していない場合にはステップS13を否定判定し、ステップS14へ進む。CPU20は、ステップS21において期間を一ヶ月としてステップS16へ進む。   In steps S13 to S15, S21 and S22, a period is set. In step S13, the CPU 20 determines whether or not shooting has been performed once a month. For example, the CPU 20 makes a positive determination in step S13 when shooting is performed in the most recent month and proceeds to step S21. If not, the CPU 20 determines negative in step S13 and proceeds to step S14. In step S21, the CPU 20 sets the period to one month and proceeds to step S16.

ステップS14において、CPU20は、二ヶ月に一度は撮影したか否かを判定する。CPU20は、たとえば、直近の二ヶ月において撮影している場合にステップS14を肯定判定してステップS22へ進み、撮影していない場合にはステップS14を否定判定し、ステップS22へ進む。CPU20は、ステップS22において期間を二ヶ月としてステップS16へ進む。   In step S14, the CPU 20 determines whether or not the image has been taken once every two months. For example, the CPU 20 makes a positive determination in step S14 when shooting has been performed in the last two months and proceeds to step S22. If not, the CPU 20 makes a negative determination in step S14 and proceeds to step S22. In step S22, the CPU 20 sets the period to two months and proceeds to step S16.

ステップS15において、CPU20は、期間を三ヶ月としてステップS16へ進む。なお、本例では期間を一ヶ月〜三ヶ月に設定する例を示したが、これより広い半年や一年の期間を設定するように構成しても構わないし、これより狭い一週間の期間を設定するようにしても構わない。   In step S15, the CPU 20 sets the period to three months and proceeds to step S16. In this example, the period is set to one month to three months. However, it may be configured to set a wider half year or one year, or a narrower one week period. You may make it set.

ステップS16において、CPU20は、撮影画像を上記設定した期間ごとに分類してステップS17へ進む。分類は、上記期間ごとに設けたフォルダ内に画像ファイルを格納しなくても、フラッシュメモリ19の履歴用記録エリア内に管理テーブルを作成し、該テーブルに画像ファイルと期間とを対応づける情報を格納するだけでもよい。   In step S16, the CPU 20 classifies the captured images for each of the set periods and proceeds to step S17. The classification creates a management table in the history recording area of the flash memory 19 without storing the image file in the folder provided for each period, and stores information for associating the image file with the period in the table. You can just store it.

ステップS17において、CPU20は代表画像の抽出処理を行ってステップS18へ進む。抽出処理は、上記期間ごとに分類された画像群を代表する1コマの撮影画像を選ぶ処理である。抽出処理の詳細については後述する。   In step S17, the CPU 20 performs a representative image extraction process and proceeds to step S18. The extraction process is a process of selecting one frame of captured image that represents an image group classified for each period. Details of the extraction process will be described later.

ステップS18において、CPU20は、代表画像として抽出した撮影画像のファイルを開き、当該ファイルの本画像のデータサイズを小さく縮小化した縮小画像データ(縮小代表画像)を生成してステップS19へ進む。縮小代表画像のサイズは、LCDモニタ17の画面解像度に応じたサイズである。なお、履歴用記録エリアの容量に余裕がある場合は、縮小画像データの生成を省略してもよい。   In step S18, the CPU 20 opens the captured image file extracted as the representative image, generates reduced image data (reduced representative image) obtained by reducing the data size of the main image of the file, and proceeds to step S19. The size of the reduced representative image is a size corresponding to the screen resolution of the LCD monitor 17. Note that generation of reduced image data may be omitted when there is a sufficient capacity in the history recording area.

ステップS19において、CPU20は、期間を示す情報と、縮小代表画像と、縮小代表画像に関する情報(たとえば、撮影日時情報(タイムゾーン情報を含む)、撮影地点情報、撮影時のカメラ設定情報(焦点距離、絞り値、被写体距離、AF設定エリア情報を含む)、撮影シーン情報、文字情報)とを関連づけた撮影履歴情報を生成し、該撮影履歴情報をフラッシュメモリ19の履歴用記録エリア内へ記録してステップS20へ進む。   In step S19, the CPU 20 includes information indicating the period, reduced representative image, information related to the reduced representative image (for example, shooting date / time information (including time zone information), shooting point information, camera setting information at the time of shooting (focal length). (Including aperture value, subject distance, AF setting area information), shooting scene information, character information), and the shooting history information is recorded in the history recording area of the flash memory 19. The process proceeds to step S20.

撮影履歴情報は、記録媒体51内の画像ファイルとは別にフラッシュメモリ19内に記録するものであり、記録媒体51内の画像ファイルに比べて非常にデータサイズが小さい。このため、別個の記録媒体51に記録されている複数の画像ファイルに基づいて生成した撮影履歴情報を、1つにまとめてフラッシュメモリ19の履歴用記録エリア内へ記録することが可能である。なお、一旦フラッシュメモリ19に記録した撮影履歴情報は、通常は消去しない。すなわち、記録媒体51内の撮影画像ファイルを削除(他の記録媒体へのリムーブを含む)したとしても、削除した画像ファイルに基づいて生成した撮影履歴情報は保持するように構成される。   The shooting history information is recorded in the flash memory 19 separately from the image file in the recording medium 51, and has a very small data size compared to the image file in the recording medium 51. Therefore, the shooting history information generated based on the plurality of image files recorded on the separate recording medium 51 can be collectively recorded in the history recording area of the flash memory 19. Note that the shooting history information once recorded in the flash memory 19 is not normally deleted. In other words, even if the photographed image file in the recording medium 51 is deleted (including removal to another recording medium), the photographing history information generated based on the deleted image file is retained.

ステップS20において、CPU20は、設定した全ての期間について撮影履歴情報を記録したか否かを判定する。CPU20は、設定した全期間についてそれぞれの撮影履歴情報を記録した場合にステップS20を肯定判定して図2による処理を終了する。CPU20は、撮影履歴情報を記録していない期間が存在する場合には、ステップS20を否定判定してステップS17へ戻り、上述した処理を繰り返す。   In step S20, the CPU 20 determines whether shooting history information has been recorded for all the set periods. The CPU 20 makes an affirmative decision in step S20 when the respective shooting history information has been recorded for the entire set period, and ends the process of FIG. If there is a period during which no shooting history information is recorded, the CPU 20 makes a negative determination in step S20, returns to step S17, and repeats the above-described processing.

<代表画像の抽出処理>
代表画像の抽出処理の詳細について、図3に例示するフローチャートを参照して説明する。図3のステップS171において、CPU20は、記録媒体51内に記録されている撮影画像ファイルから各画像を読出して、読出した画像に対して被写体認識処理を行う。CPU20は、たとえば、テンプレートマッチングなどの公知の技術を用いることにより、「風景」、「ポートレート」、「料理」、「花」、「犬」、「夕焼け」、「結婚式」などの撮影シーンを判定するために必要な認識処理を行う。テンプレートデータは、あらかじめフラッシュメモリ19内に記録されている。なお、画像に対する被写体認識処理は、該画像の撮影時に行うようにしてもよい。
<Representative image extraction process>
Details of the representative image extraction processing will be described with reference to the flowchart illustrated in FIG. 3. In step S171 in FIG. 3, the CPU 20 reads each image from the captured image file recorded in the recording medium 51, and performs subject recognition processing on the read image. The CPU 20 uses, for example, a known technique such as template matching to capture shooting scenes such as “landscape”, “portrait”, “cooking”, “flower”, “dog”, “sunset”, “wedding”, etc. A recognition process necessary for determining the above is performed. Template data is recorded in the flash memory 19 in advance. Note that subject recognition processing for an image may be performed when the image is captured.

判定シーンが「風景」の場合には、画像に写っている被写体が「山」、「街角」、「海」、「日本の被写体」等の推定を行う。被写体推定は、例えば、テンプレートマッチングにより行う。「街角」の推定には、たとえば、建造物のテンプレートデータを用いる。   When the determination scene is “landscape”, the subject in the image is estimated as “mountain”, “street corner”, “sea”, “Japanese subject”, and the like. The subject estimation is performed by template matching, for example. For example, template data of a building is used for estimating the “street corner”.

本実施形態ではさらに、判定シーンが「ポートレート」の場合には、画像に写っている「顔」から性別の推定や、概年齢の推定を行う。これらの推定は公知の顔属性推定技術を用いる。また、写っている「顔」をあらかじめ電子カメラ1に登録されている「顔」と比較することによって個人認証(識別)も行う。顔識別処理は、例えば、公知の識別技術を用いる。   In the present embodiment, when the determination scene is “portrait”, gender estimation and approximate age estimation are performed from the “face” in the image. These estimations use a known face attribute estimation technique. Further, personal authentication (identification) is also performed by comparing the “face” in the photograph with the “face” registered in the electronic camera 1 in advance. The face identification process uses, for example, a known identification technique.

電子カメラ1が「顔」の識別に用いる参照用データは、フラッシュメモリ19内に記録(登録)することができる。登録手順については後述する。   The reference data that the electronic camera 1 uses to identify the “face” can be recorded (registered) in the flash memory 19. The registration procedure will be described later.

ステップS172において、CPU20はシーン判定を行ってステップS173へ進む。CPU20は、上記被写体認識結果を用いて「風景」、「ポートレート」、「料理」、「花」、「犬」、「夕焼け」、「結婚式」などから1つを判定する。   In step S172, the CPU 20 performs scene determination and proceeds to step S173. The CPU 20 determines one from “landscape”, “portrait”, “cooking”, “flower”, “dog”, “sunset”, “wedding” and the like using the subject recognition result.

ステップS173において、CPU20は、全ての画像ファイルについてシーン判定したか否かを判定する。CPU20は、全ての画像ファイルについてそれぞれの撮影シーン判定をした場合にステップS173を肯定判定してステップS174へ進む。CPU20は、シーン判定していない画像ファイルが存在する場合には、ステップS173を否定判定してステップS171へ戻り、上述した処理を繰り返す。   In step S173, the CPU 20 determines whether scene determination has been performed for all image files. If the CPU 20 determines each shooting scene for all image files, the CPU 20 makes a positive determination in step S173 and proceeds to step S174. If there is an image file that has not undergone scene determination, the CPU 20 makes a negative determination in step S173, returns to step S171, and repeats the above-described processing.

ステップS174において、CPU20は、設定した期間に分類されている画像群の中で、撮影場所の頻度が特に低い画像の有無を判定する。撮影場所の特定は、上記付加情報データに含まれる測位情報に基づいて生成される撮影地点情報に基づく。CPU20は、電子カメラ1がこれまでに撮影した全画像の平均的な撮影場所に比べて、特異な撮影場所(たとえば、大半の画像がA地域で撮影されているのに対し、ある期間にのみB地域で撮影された画像が含まれる)の撮影画像が当該期間に分類されている場合に、ステップS174を肯定判定してステップS175へ進む。CPU20は、当該期間に分類されている画像の撮影場所が全画像の平均的な撮影場所と一致する場合にはステップS174を否定判定してステップS176へ進む。上記平均的な撮影場所は、ユーザが手動で設定する(たとえば、家の位置を設定する)ように構成してもよい。   In step S <b> 174, the CPU 20 determines whether there is an image with a particularly low frequency of the shooting location in the image group classified in the set period. The shooting location is specified based on shooting point information generated based on the positioning information included in the additional information data. The CPU 20 has a peculiar shooting location (for example, most of the images are shot in the area A, but only during a certain period compared to the average shooting location of all the images taken by the electronic camera 1 so far. If the captured image (including images captured in the B area) is classified in the period, an affirmative determination is made in step S174 and the process proceeds to step S175. If the shooting location of the image classified in the period matches the average shooting location of all the images, the CPU 20 makes a negative determination in step S174 and proceeds to step S176. The average shooting location may be configured to be manually set by the user (for example, the position of the house is set).

ステップS175において、CPU20は、当該期間に分類されている画像群のうち、該当する画像群(すなわち、特異的な撮影場所で撮影された画像群)を代表画像の抽出元(候補)としてステップS176Bへ進む。ステップS176において、CPU20は、当該期間に分類されている画像群のうち、最多撮影日に撮影された画像群(すなわち、1日のうちで最も数多く撮影された画像群)を代表画像の抽出元(候補)としてステップS176Bへ進む。ステップS176Bにおいて、CPU20は、ステップS175またはステップS176による画像群で、最多撮影シーンの撮影画像を代表画像の抽出元(候補)としてステップS177へ進む。   In step S175, the CPU 20 sets a corresponding image group (that is, an image group shot at a specific shooting location) among the image groups classified in the period as a representative image extraction source (candidate) in step S176B. Proceed to In step S176, the CPU 20 extracts, from the image groups classified in the period, the image group photographed on the most frequently photographed day (that is, the image group photographed most frequently in one day) as a representative image extraction source. Proceed to step S176B as (candidate). In step S176B, the CPU 20 proceeds to step S177 with the captured image of the most frequently captured scene as the representative image extraction source (candidate) in the image group of step S175 or step S176.

ステップS177において、CPU20は、抽出元(候補)とした画像群に対して判定されている(S172)撮影シーンに応じた抽出基準に基づいて、候補とした画像群の中から代表画像を抽出してステップS178へ進む。   In step S177, the CPU 20 extracts a representative image from the candidate image group based on the extraction criteria determined in accordance with the shooting scene (S172) for the image group as the extraction source (candidate). Then, the process proceeds to step S178.

抽出基準は以下の通りである。
1.判定シーンが「風景」の場合は、画像群の中で画像が有する空間周波数が最も高い画像を選ぶ。空間周波数が等しい画像が複数存在する場合は、撮影時の絞りが小さい(小径絞り)方の画像を選ぶ。
The extraction criteria are as follows.
1. When the judgment scene is “landscape”, an image having the highest spatial frequency in the image group is selected. When there are a plurality of images having the same spatial frequency, an image with a smaller aperture (small aperture) at the time of shooting is selected.

2.判定シーンが「ポートレート」の場合で、個人を識別した場合は、画像群の中で識別した人物の「顔」領域の大きさが最大の画像を選ぶ。「顔」領域の大きさが等しい画像が存在する場合は、「顔」領域の明るさが適切(画素信号値が所定の範囲内にあってオーバーでもアンダーでもない)な画像を選ぶ。「顔」領域の明るさが適切な画像が複数存在する場合は、「顔」領域の空間周波数が最も高い画像を選ぶ。 2. When the determination scene is “portrait” and an individual is identified, an image having the largest “face” area size of the identified person in the image group is selected. If there are images having the same size of the “face” area, an image with an appropriate brightness of the “face” area (the pixel signal value is within a predetermined range and is neither over nor under) is selected. If there are a plurality of images with appropriate brightness in the “face” area, an image having the highest spatial frequency in the “face” area is selected.

なお、判定シーンが「ポートレート」の場合で、個人を識別していない場合は、画像群の中で人物の「顔」領域の大きさが最大の画像を選ぶ。「顔」領域の大きさが等しい画像が存在する場合は、「顔」領域の明るさが適切(画素信号値が所定の範囲内にあってオーバーでもアンダーでもない)な画像を選ぶ。「顔」領域の明るさが適切な画像が複数存在する場合は、「顔」領域の空間周波数が最も高い画像を選ぶ。   When the determination scene is “portrait” and an individual is not identified, an image having the largest human “face” area size is selected from the image group. If there are images having the same size of the “face” area, an image with an appropriate brightness of the “face” area (the pixel signal value is within a predetermined range and is neither over nor under) is selected. If there are a plurality of images with appropriate brightness in the “face” area, an image having the highest spatial frequency in the “face” area is selected.

3.判定シーンが「料理」の場合は、画像群の中で画像が有する空間周波数が最も高い画像を選ぶ。空間周波数が等しい画像が存在する場合は、色が広範囲に分布しているものを選ぶ。具体的には、画面内の異なるポイント(たとえば20ポイント)ごとに対応する画素信号の色成分比率(たとえば、RGB成分比率)を求め、画面内で比率のばらつきが最も大きい画像を選ぶ。 3. When the determination scene is “cooking”, an image having the highest spatial frequency in the image group is selected. If there are images with the same spatial frequency, select one that has a wide color distribution. Specifically, the color component ratio (for example, RGB component ratio) of the pixel signal corresponding to each different point (for example, 20 points) in the screen is obtained, and an image having the largest variation in the ratio in the screen is selected.

判定シーンが「花」、「犬」、「夕焼け」、「結婚式」などの場合も、画像群の中で画像が有する空間周波数が最も高い画像を選ぶ。空間周波数が等しい画像が存在する場合は、撮影時の絞りが小さい(小径絞り)方の画像を選ぶ。   Even when the determination scene is “flower”, “dog”, “sunset”, “wedding”, etc., the image having the highest spatial frequency in the image group is selected. If there are images with the same spatial frequency, an image with a smaller aperture (small aperture) at the time of shooting is selected.

ステップS177において、CPU20は、全ての期間から代表画像を抽出したか否かを判定する。CPU20は、設定した各期間からそれぞれ代表画像を抽出した場合にステップS178を肯定判定して図3による処理を終了する。CPU20は、代表画像を抽出していない期間が存在する場合には、ステップS178を否定判定してステップS174へ戻り、上述した処理を繰り返す。   In step S177, the CPU 20 determines whether or not representative images have been extracted from all periods. When the CPU 20 extracts representative images from the set periods, the CPU 20 makes an affirmative decision in step S178 and ends the process of FIG. If there is a period during which no representative image is extracted, the CPU 20 makes a negative determination in step S178, returns to step S174, and repeats the above-described processing.

<登録撮影処理>
上述した「顔」の識別に用いる参照用データの登録手順について説明する。図4は、電子カメラ1の背面図である。電子カメラ1の背面には、LCDモニタ17と、ズームスイッチ23b(T)と、ズームスイッチ23c(W)と、モードスイッチ23dと、メニュースイッチ23eと、削除スイッチ23fと、十字スイッチ23gと、OKスイッチ23hとが設けられている。
<Registered shooting process>
A procedure for registering reference data used for identifying the “face” described above will be described. FIG. 4 is a rear view of the electronic camera 1. On the back of the electronic camera 1, there are an LCD monitor 17, a zoom switch 23b (T), a zoom switch 23c (W), a mode switch 23d, a menu switch 23e, a deletion switch 23f, a cross switch 23g, and an OK. A switch 23h is provided.

CPU20は、メニュースイッチ23eが押下操作されると、図4に例示する「操作メニュー」画面をLCDモニタ17に表示させる。 「操作メニュー」には、「ダイジェスト表示設定」項目41と、「登録撮影」項目42とが含まれる。CPU20は、「操作メニュー」画面を表示中に十字スイッチ23gが上下方向に押下操作されると、操作信号に応じて選択項目を上下に変更する。CPU20は、「登録撮影」項目42を選択した状態で十字スイッチ23gが右方向に押下操作されると、LCDモニタ17に図5に例示するアシスト枠Gを表示させて、登録撮影操作を受けつける。   When the menu switch 23 e is pressed, the CPU 20 displays an “operation menu” screen illustrated in FIG. 4 on the LCD monitor 17. The “operation menu” includes a “digest display setting” item 41 and a “registered shooting” item 42. When the cross switch 23g is pressed down while the “operation menu” screen is displayed, the CPU 20 changes the selection item up or down according to the operation signal. When the cross switch 23g is pressed rightward with the “registered shooting” item 42 selected, the CPU 20 displays the assist frame G illustrated in FIG. 5 on the LCD monitor 17 and accepts the registered shooting operation.

CPU20は、撮像素子12によって所定のフレームレート(たとえば30fps)で撮像されている画像(いわゆるスルー画像)をLCDモニタ17に表示させるとともに、アシスト枠Gを表示中の画像に重ねて表示させる。撮影者は、登録しようとする被写体人物の顔がアシスト枠G内に収まるように電子カメラ1を構える。   The CPU 20 displays an image (a so-called through image) captured by the image sensor 12 at a predetermined frame rate (for example, 30 fps) on the LCD monitor 17 and displays the assist frame G so as to overlap the displayed image. The photographer holds the electronic camera 1 so that the face of the subject person to be registered is within the assist frame G.

CPU20は、レリーズボタン23aが全押し操作された場合に撮影処理を行う。CPU20はさらに、取得した画像データのうちアシスト枠G内に対応するデータに基づいて顔検出処理を行い、顔を検出した場合に、新たな人物の「顔」として参照用データをフラッシュメモリ19に記録(登録)する。   The CPU 20 performs a photographing process when the release button 23a is fully pressed. The CPU 20 further performs face detection processing based on the data corresponding to the assist frame G in the acquired image data, and when a face is detected, the reference data is stored in the flash memory 19 as a “face” of a new person. Record (register).

具体的には、アシスト枠G内に対応する画像データに基づいてサムネイル画像データを生成し、上記画像データに基づいて特徴量データを生成する。そして、サムネイル画像データおよび特徴量データを含む参照用データをフラッシュメモリ19に記録する。この参照用データは、「顔」の識別の際に登録されている「顔」を示す情報として、写っている「顔」との比較に用いられる。   Specifically, thumbnail image data is generated based on image data corresponding to the assist frame G, and feature amount data is generated based on the image data. Then, reference data including thumbnail image data and feature amount data is recorded in the flash memory 19. This reference data is used as information indicating the “face” registered at the time of identifying the “face”, and is used for comparison with the captured “face”.

<ダイジェスト表示>
撮影履歴情報を用いたダイジェスト表示を説明する。図6は、ダイジェスト表示を例示する図である。図6において、4つの期間を代表する代表画像がLCDモニタ17に一覧表示されている。図6の例では、表示中の各期間は一ヶ月であるが、期間によって長さが異なる場合もある。代表画像の近傍には、代表画像に対応する期間を示す表示(撮影年月)が表示される。
<Digest display>
A digest display using the shooting history information will be described. FIG. 6 is a diagram illustrating a digest display. In FIG. 6, representative images representing four periods are displayed in a list on the LCD monitor 17. In the example of FIG. 6, each period being displayed is one month, but the length may vary depending on the period. In the vicinity of the representative image, a display (shooting date) indicating a period corresponding to the representative image is displayed.

図6の一覧表示中に十字スイッチ23gが右方向に押下操作されると、CPU20は、図7に例示するように表示中の代表画像をスクロールさせる。図7によれば、図6において表示されていなかった期間(2008.12)が新たに右端に表示される。CPU20は、十字スイッチ23gが左方向に押下操作された場合には、反対方向へスクロールさせる。なお、図6および図7では1画面に4枚の代表画像を表示する場合を例示しているが、1画面当たりの表示画像数は4枚に限らず、9枚でも16枚でも構わない。   When the cross switch 23g is pressed in the right direction during the list display of FIG. 6, the CPU 20 scrolls the representative image being displayed as illustrated in FIG. According to FIG. 7, the period (2008.12) not displayed in FIG. 6 is newly displayed at the right end. When the cross switch 23g is pressed in the left direction, the CPU 20 scrolls in the opposite direction. 6 and 7 exemplify the case where four representative images are displayed on one screen, the number of display images per screen is not limited to four, and may be nine or sixteen.

図8は、他のダイジェスト表示(スライドショー表示)を例示する図である。図8において、1つの期間(2008.11)を代表する代表画像がLCDモニタ17に表示されている。図8の例では、表示中の期間は一ヶ月である。代表画像の近傍には、代表画像に対応する期間を示す表示(撮影年月)と、対応する文字情報(本例では「おいしそう *^_^*」)が表示される。   FIG. 8 is a diagram illustrating another digest display (slide show display). In FIG. 8, a representative image representing one period (2008.11) is displayed on the LCD monitor 17. In the example of FIG. 8, the displayed period is one month. In the vicinity of the representative image, a display indicating the period corresponding to the representative image (shooting date) and corresponding character information (in this example, “Looks like * ^ _ ^ *”) are displayed.

文字情報は、あらかじめ撮影シーンに対応させてフラッシュメモリ19に記録しておいた所定の文字情報データに基づく。たとえば、「料理」の撮影シーンに対応させて「おいしそう *^_^*」を表示するためのデータを記録しておく。CPU20は、判定シーンが「料理」である代表画像を表示する場合、対応する文字情報を表示させる。   The character information is based on predetermined character information data recorded in the flash memory 19 in advance corresponding to the shooting scene. For example, the data for displaying “delicious * ^ _ ^ *” corresponding to the shooting scene of “cooking” is recorded. When displaying a representative image whose determination scene is “cooking”, the CPU 20 displays corresponding character information.

図8の表示から所定時間(インターバル時間と呼ぶ)が経過すると、電子カメラ1のCPU20は、図8の表示画像に代えて図9の表示画像をLCDモニタ17に表示させる。図9の例では、図8に表示されていた期間(2008.11)の次の期間(2008.12)について代表画像が表示されている。代表画像の近傍には、代表画像に対応する期間を示す表示(撮影年月)と、対応する文字情報(本例では「○△島 (^_^)v」)が表示される。スライドショー表示の場合、表示中に所定の音楽をBGMとしてスピーカ16から再生する。   When a predetermined time (referred to as interval time) elapses from the display of FIG. 8, the CPU 20 of the electronic camera 1 displays the display image of FIG. 9 on the LCD monitor 17 instead of the display image of FIG. In the example of FIG. 9, the representative image is displayed for the period (2008.12) next to the period (2008.11) displayed in FIG. In the vicinity of the representative image, a display indicating the period corresponding to the representative image (shooting date) and the corresponding character information (in this example, “◯ △ island (^ _ ^) v”) are displayed. In the case of the slide show display, predetermined music is reproduced from the speaker 16 as BGM during the display.

ダイジェスト表示を一覧表示で行うか、あるいはスライドショー表示で行うかは、あらかじめメニュー処理において設定される。また、スライドショー表示の際に表示画像を更新する上記インターバル時間、インターバル時間が経過後に隣接する間を表示するか、あるいはランダムに選んだ期間を表示するかについても、それぞれメニュー処理において設定される。   Whether the digest display is performed in the list display or the slide show display is set in advance in the menu process. In addition, whether to display the interval time for updating the display image at the time of the slide show display, an interval between adjacent intervals after elapse of the interval time, or a period selected at random is set in the menu processing.

CPU20は、図4に例示した「操作メニュー」画面を表示中に、「ダイジェスト表示設定」項目41を選択した状態で十字スイッチ23gが右方向に押下操作されると、図10に例示する「ダイジェスト表示設定」画面をLCDモニタ17に表示させる。「ダイジェスト表示設定」画面には、「表示形式」項目101と、「インターバル設定」項目102と、「BGM設定」項目103とが含まれる。   When the “digest display setting” item 41 is selected while the “operation menu” screen illustrated in FIG. 4 is being displayed and the cross switch 23g is pressed rightward, the CPU 20 performs the “digest” illustrated in FIG. The “display setting” screen is displayed on the LCD monitor 17. The “digest display setting” screen includes a “display format” item 101, an “interval setting” item 102, and a “BGM setting” item 103.

CPU20は、「表示形式」項目101を選択した状態で十字スイッチ23gが右方向に押下操作されると、ダイジェスト表示を一覧表示で行うか、あるいはスライドショー表示で行うかの選択操作や、ダイジェスト表示を開始させる操作を受け付ける。   When the cross switch 23g is pressed rightward while the “display format” item 101 is selected, the CPU 20 selects whether to perform digest display as a list display or as a slide show display, and displays a digest display. Accept the operation to start.

CPU20は、「インターバル設定」項目102を選択した状態で十字スイッチ23gが右方向に押下操作されると、インターバル時間の設定操作を受け付ける。CPU20はさらに、「BGM設定」項目103を選択した状態で十字スイッチ23gが右方向に押下操作されると、ダイジェスト表示中にBGMとしてスピーカ16から再生するサウンドファイルの選択操作を受け付ける。   When the cross switch 23g is pressed down in the right direction with the “interval setting” item 102 selected, the CPU 20 accepts an interval time setting operation. Further, when the cross switch 23g is pressed rightward while the “BGM setting” item 103 is selected, the CPU 20 accepts a sound file selection operation to be reproduced from the speaker 16 as BGM during the digest display.

図11は、上述したようにメニュー設定されたCPU20が実行するダイジェスト表示処理の流れを説明するフローチャートである。CPU20は、ダイジェスト表示の開始指示が行われると、図11による処理を開始させる。図11のステップS51において、CPU20は表示形式を判定する。CPU20は、メニュー処理において「一覧表示」が設定されている場合にステップS52へ進み、メニュー処理において「スライドショー表示」が設定されている場合にはステップS56へ進む。   FIG. 11 is a flowchart for explaining the flow of the digest display process executed by the CPU 20 set with the menu as described above. CPU20 will start the process by FIG. 11, if the instruction | indication of a digest display start is performed. In step S51 of FIG. 11, the CPU 20 determines the display format. The CPU 20 proceeds to step S52 when “list display” is set in the menu process, and proceeds to step S56 when “slide show display” is set in the menu process.

ステップS52において、CPU20は、撮影履歴情報に基づいて図6、図7に例示した一覧表示を行ってステップS53へ進む。ステップS53において、CPU20は、スクロール操作の有無を判定する。CPU20は、十字スイッチ23gが左方向または右方向に押下操作された場合には、ステップS53を肯定判定してステップS54へ進む。CPU20は、十字スイッチ23gが左方向または右方向に押下操作されない場合には、ステップS53を否定判定してステップS55へ進む。   In step S52, the CPU 20 performs the list display illustrated in FIGS. 6 and 7 based on the shooting history information, and proceeds to step S53. In step S53, the CPU 20 determines whether or not there is a scroll operation. When the cross switch 23g is pressed leftward or rightward, the CPU 20 makes a positive determination in step S53 and proceeds to step S54. If the cross switch 23g is not pressed in the left direction or the right direction, the CPU 20 makes a negative determination in step S53 and proceeds to step S55.

ステップS54において、CPU20は、十字スイッチ23gの押下操作方向に応じて表示画像をスクロールさせてステップS55へ進む。ステップS55において、CPU20は終了操作が行われたか否かを判定する。CPU20は、ダイジェスト表示を終了させる操作(たとえば、OKスイッチ23hの押下操作)が行われた場合にステップS55を肯定判定して図11による処理を終了する。CPU20は、ダイジェスト表示を終了させる操作(たとえば、OKスイッチ23hの押下操作)が行われない場合には、ステップS55を否定判定してステップS52へ戻り、上述した処理を繰り返す。   In step S54, the CPU 20 scrolls the display image in accordance with the pressing operation direction of the cross switch 23g and proceeds to step S55. In step S55, the CPU 20 determines whether or not an end operation has been performed. When an operation for ending the digest display (for example, an operation of pressing the OK switch 23h) is performed, the CPU 20 makes a positive determination in step S55 and ends the process of FIG. If the operation for ending the digest display (for example, pressing the OK switch 23h) is not performed, the CPU 20 makes a negative determination in step S55, returns to step S52, and repeats the above-described processing.

ステップS56において、CPU20は、撮影履歴情報から所定の期間の縮小代表画像を読出してステップS57へ進む。「期間」の初期値は、たとえば最古のものとし、不図示のメニュー処理において指定されている場合は、指定された「期間」についての縮小代表画像を読出す。   In step S56, the CPU 20 reads a reduced representative image for a predetermined period from the shooting history information, and proceeds to step S57. The initial value of “period” is, for example, the oldest, and when designated in menu processing (not shown), a reduced representative image for the designated “period” is read.

ステップS57において、CPU20は、撮影履歴情報に基づいて図8、図9に例示したスライドショー表示を行ってステップS58へ進む。ステップS58において、CPU20は、タイムアップしたか否かを判定する。CPU20は、設定されているインターバル時間が経過した場合にステップS58を肯定判定してステップS59へ進む。CPU20は、設定されているインターバル時間が経過していない場合には、ステップS58を否定判定してステップS60へ進む。   In step S57, the CPU 20 performs the slide show display illustrated in FIGS. 8 and 9 based on the shooting history information, and proceeds to step S58. In step S58, the CPU 20 determines whether the time is up. When the set interval time has elapsed, the CPU 20 makes a positive determination in step S58 and proceeds to step S59. If the set interval time has not elapsed, the CPU 20 makes a negative determination in step S58 and proceeds to step S60.

ステップS59において、CPU20は、撮影履歴情報から次の期間の縮小代表画像を読出してステップS57へ戻る。ステップS57へ戻る場合はスライドショー表示を繰り返す。次の「期間」は、現在表示中の「期間」に隣接する新しい「期間」とし、不図示のメニュー処理においてランダム選択することが指定されている場合は、ランダムに選択した「期間」についての縮小代表画像を読出す。   In step S59, the CPU 20 reads the reduced representative image of the next period from the shooting history information, and returns to step S57. When returning to step S57, the slide show display is repeated. The next “period” is a new “period” adjacent to the currently displayed “period”, and if it is specified to be selected randomly in the menu process (not shown), the “period” selected at random Read the reduced representative image.

ステップS60において、CPU20は終了操作が行われたか否かを判定する。CPU20は、ダイジェスト表示を終了させる操作(たとえば、OKスイッチ23hの押下操作)が行われた場合にステップS60を肯定判定して図11による処理を終了する。CPU20は、ダイジェスト表示を終了させる操作(たとえば、OKスイッチ23hの押下操作)が行われない場合には、ステップS60を否定判定してステップS58へ戻り、上述した処理を繰り返す。   In step S60, the CPU 20 determines whether or not an end operation has been performed. When an operation for ending the digest display (for example, an operation of pressing the OK switch 23h) is performed, the CPU 20 makes an affirmative determination in step S60 and ends the process of FIG. If the operation for ending the digest display (for example, pressing the OK switch 23h) is not performed, the CPU 20 makes a negative determination in step S60, returns to step S58, and repeats the above-described processing.

以上説明した実施形態によれば、以下の作用効果を奏する。
(1)電子カメラ1のCPU20は、複数の画像を各画像の撮影日に基づいて所定期間ごとのグループに分類する分類処理(ステップS16)と、分類処理によって分類されたグループから、該グループ内の画像の使用者価値度に基づいて期間を代表する複数の画像を各期間についてそれぞれ抽出する第1抽出処理(ステップS174−S176)と、第1抽出処理によって抽出された複数の画像から、該複数の画像の画像評価度に基づいて期間を代表する1つの代表画像を各期間についてそれぞれ抽出する第2抽出処理(ステップS177)と、各期間についての期間を示す情報と、当該期間に対応する代表画像と、当該期間の代表画像に関する情報とを関連付けた撮影履歴情報を生成する撮影履歴情報生成処理(ステップS19)と、を実行するようにしたので、画像の閲覧操作や印刷操作などのユーザ操作に基づく操作履歴情報がなくても、適切な代表画像を抽出できる。
According to the embodiment described above, the following operational effects are obtained.
(1) The CPU 20 of the electronic camera 1 classifies a plurality of images into groups for each predetermined period based on the shooting date of each image (step S16), and from the groups classified by the classification processing, From the plurality of images extracted by the first extraction processing (steps S174 to S176) and the plurality of images extracted by the first extraction processing, respectively, for each period, a plurality of images representing the period based on the user value of the image of A second extraction process (step S177) for extracting one representative image representing a period for each period based on the degree of image evaluation of a plurality of images, information indicating the period for each period, and corresponding to the period Shooting history information generation processing (step S19) for generating shooting history information in which the representative image and information related to the representative image of the period are associated with each other. Since as rows, even without operation history information based on a user operation such as image browsing operation and printing operation can be extracted appropriate representative image.

また、各期間についての期間を示す情報と、当該期間に対応する代表画像と、当該期間の代表画像に関する情報とを関連付けて撮影履歴情報を生成するので、元の画像が削除された場合でも撮影履歴情報を残しておくことが可能になる。   In addition, since shooting history information is generated by associating information indicating a period for each period, a representative image corresponding to the period, and information regarding the representative image of the period, shooting is performed even when the original image is deleted. It becomes possible to keep history information.

(2)上記(1)の第1抽出処理は、分類前の全ての画像の平均的な撮影位置に対して特異な撮影位置で撮影された画像がグループ内に存在する場合は該特異な撮影位置で撮影された複数の画像を抽出し、特異な撮影位置で撮影された画像がグループ内に存在しない場合は該グループ内において最多撮影日に撮影された複数の画像を抽出するようにしたので、旅行に出かけた画像が存在する場合は、旅行中の撮影画像が抽出されるようになる。 (2) In the first extraction process of (1), when there is an image shot at a specific shooting position with respect to the average shooting position of all the images before classification, the specific shooting is performed. Since a plurality of images shot at a position are extracted and there are no images shot at a specific shooting position in the group, a plurality of images shot on the most frequently shot date in the group are extracted. When there is an image for a trip, a photographed image during the trip is extracted.

(3)上記(1)の第2抽出処理は、画像の撮影シーンを判定するシーン判定処理(ステップS172)を含み、判定した撮影シーンに応じた所定の判定基準に基づいて、第1抽出処理によって抽出されている複数の画像から1つの画像を抽出するようにしたので、たとえば、判定シーンが「風景」の場合と「ポートレート」の場合とで異なる基準で抽出することができる。 (3) The second extraction process of (1) includes a scene determination process (step S172) for determining a shooting scene of an image, and the first extraction process based on a predetermined determination criterion corresponding to the determined shooting scene. Since one image is extracted from the plurality of images extracted by the above, for example, the determination scene can be extracted based on different standards for “landscape” and “portrait”.

(4)CPU20はさらに、撮影履歴情報に基づいて、期間を代表する再生画像を各期間についてそれぞれ表示するための表示処理(図11)を行うようにしたので、上述したように抽出した代表画像を期間ごとに再生表示させることができる。 (4) Since the CPU 20 further performs display processing (FIG. 11) for displaying the reproduced images representing the periods for each period based on the shooting history information, the representative image extracted as described above. Can be reproduced and displayed for each period.

(5)上記(4)の表示処理は、代表画像に対応する期間、代表画像の撮影位置、代表画像について判定されている撮影シーン、該撮影シーンに対応する所定の文字情報を示す表示を含めたので、再生表示画像の観察者は、期間ごとの代表画像の画像ファイルを新たに読み出すことなしに、再生表示されている内容から思い出を振り返ることができる。 (5) The display process of (4) includes a period corresponding to the representative image, a shooting position of the representative image, a shooting scene determined for the representative image, and a display indicating predetermined character information corresponding to the shooting scene. Therefore, the viewer of the reproduced display image can look back on the memories from the content displayed and reproduced without newly reading out the image file of the representative image for each period.

(6)第2抽出処理によって抽出された代表画像の縮小サイズ画像を生成する代表縮小画像生成処理(ステップS18)を行うことにより、撮影履歴情報の代表画像を縮小サイズ画像にしたので、歴代の代表縮小画像を全て含めた場合でも撮影履歴情報全体のデータサイズが抑えられる。これにより、演算に要する時間短縮と、履歴用記録エリアの使用容量の節約とを実現できる。 (6) The representative reduced image generation process (step S18) for generating a reduced size image of the representative image extracted by the second extraction process is performed to reduce the representative image of the shooting history information to a reduced size image. Even when all the representative reduced images are included, the data size of the entire photographing history information can be suppressed. As a result, it is possible to reduce the time required for calculation and save the usage capacity of the history recording area.

<画像の使用者価値度判定について>
上述したステップS174において、CPU20は、電子カメラ1がこれまでに撮影した全画像の平均的な撮影場所に比べて、特異な撮影場所の撮影画像を抽出するようにした。特異な撮影場所の撮影画像はユーザにとって思い入れの深い画像、すなわち使用者価値度の高い画像であると判定する。これに対して、電子カメラ1がこれまでに撮影した全画像の平均的な撮影場所の撮影画像は、特異な撮影場所の撮影画像と比べると使用者価値度の低い画像であると判定する。
<About user image user value determination>
In step S174 described above, the CPU 20 extracts a photographed image at a specific photographing location as compared with the average photographing location of all the images photographed by the electronic camera 1 so far. The photographed image at the unique photographing location is determined to be an image that is deeply considered by the user, that is, an image having a high user value. On the other hand, it is determined that the captured image at the average shooting location of all the images captured by the electronic camera 1 so far is an image having a lower user value than the captured image at the specific shooting location.

また、上述したステップS176において、CPU20は、当該期間に分類されている画像群のうち、最多撮影日に撮影された画像群(すなわち、当該期間のうち、最も数多くの画像が撮影された日に含まれる画像)を代表画像の抽出元とするようにした。最多撮影日に撮影された画像群に含まれる画像は、使用者価値度の高い画像であると判定する。これに対して、最多撮影日以外の日に撮影された画像は、最多撮影日に撮影された画像と比べると使用者価値度の低い画像であると判定する。
なお、画像の使用者価値度を判定する基準として、付加情報データに含まれる測位情報に基づいて生成される撮影地点情報などを用いたが、これに限るものではなく、画像の使用者価値度を判定できる基準であればよい。
Further, in step S176 described above, the CPU 20 selects the image group captured on the most frequently-captured date among the image groups classified in the period (that is, the day on which the most images were captured in the period). Included image) as a representative image extraction source. It is determined that the images included in the image group photographed on the most frequent photographing date are images having a high user value. On the other hand, it is determined that an image shot on a date other than the most frequent shooting date is an image having a lower user value than an image shot on the highest shooting date.
Note that the shooting point information generated based on the positioning information included in the additional information data is used as a criterion for determining the user value of the image. However, the image user value is not limited to this. Any standard can be used.

<画像の画像評価度判定について>
上述したステップS176Bにおいて、CPU20は、最多撮影シーンの撮影画像を代表画像の抽出元とするようにした。そして、上述したステップS177において、抽出元(候補)とした画像群に対して判定されている撮影シーンに応じた抽出基準に基づいて、候補とした画像群の中から代表画像を抽出するようにした。これにより、抽出元(候補)とした画像群の中から画像評価度の高い画像を代表画像とすることができる。
<Determination of image evaluation degree of image>
In step S176B described above, the CPU 20 uses the captured image of the most frequently captured scene as the representative image extraction source. In step S177 described above, the representative image is extracted from the candidate image group based on the extraction criteria corresponding to the shooting scene determined for the image group as the extraction source (candidate). did. As a result, an image having a high image evaluation degree can be used as a representative image from the image group as the extraction source (candidate).

(変形例1)
図8および図9に例示したスライドショー表示において、代表画像の他に所定の背景パターンを表示させるように構成してもよい。そして、背景パターン表示に用いるデータを格納する背景パターンファイルを、BGM再生するサウンドファイルを選択する場合と同様に、期間ごとに選択可能に構成してもよい。
(Modification 1)
In the slide show display illustrated in FIGS. 8 and 9, a predetermined background pattern may be displayed in addition to the representative image. Then, the background pattern file that stores data used for background pattern display may be configured to be selectable for each period, as in the case of selecting a sound file to be played back by BGM.

(変形例2)
スライドショー表示において表示する背景パターン、およびBGM再生するサウンドファイルを、共通の撮影シーンが判定されている期間の間で揃えてもよい。図12は、変形例2を説明する図である。CPU20は、判定された撮影シーンが「料理」である期間について代表画像を表示する際、背景パターンファイルF1とし、BGM再生するサウンドファイルをS1とする。
(Modification 2)
The background pattern displayed in the slide show display and the sound file to be played back by BGM may be aligned during a period in which a common shooting scene is determined. FIG. 12 is a diagram for explaining the second modification. When the CPU 20 displays the representative image for the period in which the determined shooting scene is “cooking”, the CPU 20 sets the background pattern file F1 and the sound file for BGM playback as S1.

また、CPU20は、判定された撮影シーンが「花」である期間について代表画像を表示する際、背景パターンファイルF2とし、BGM再生するサウンドファイルをS2とする。同様に、CPU20は、判定された撮影シーンが「A子」である期間について代表画像を表示する際、背景パターンファイルF3とし、BGM再生するサウンドファイルをS3とする。   Further, when displaying the representative image for the period in which the determined shooting scene is “flower”, the CPU 20 sets the background pattern file F2 and the sound file for BGM playback as S2. Similarly, when displaying the representative image for the period in which the determined shooting scene is “child A”, the CPU 20 sets the background pattern file F3 and the sound file for BGM playback as S3.

たとえば、撮影シーンが「花」である4つの期間(2008.8〜2008.11)のうちいずれかの期間に対して背景パターンファイルの選択操作、またはサウンドファイルの選択操作が行われた場合、撮影シーンが「花」である他の期間に対しても、共通の背景パターンファイル、サウンドファイルを選ぶ。   For example, when a background pattern file selection operation or a sound file selection operation is performed in any one of four periods (2008. 8 to 2008. 11) in which the shooting scene is “flower”, A common background pattern file and sound file are selected for other periods in which the shooting scene is “flower”.

(変形例3)
撮影シーンに対応させた所定の文字情報を表示する場合に、ダイジェスト表示を観察する観察者に応じて文字情報を異ならせてもよい。たとえば、電子カメラ1にユーザ情報として年齢や性別を登録するように構成し、該ユーザ情報をフラッシュメモリ19に保存しておく。
(Modification 3)
When displaying predetermined character information corresponding to the shooting scene, the character information may be changed according to the observer who observes the digest display. For example, the electronic camera 1 is configured to register age and sex as user information, and the user information is stored in the flash memory 19.

変形例3のCPU20は、撮影シーンに対応する文字情報を表示する場合に、ユーザ情報に応じて表示内容を異ならせる。たとえば、「料理」の撮影シーンに対応させて、上述した「おいしそう *^_^*」の他に、「旨い!」や「うまい」を記録しておく。そして、ユーザ情報が女性を示す場合は「おいしそう *^_^*」を表示し、男性の成人を示す場合は「旨い!」を表示し、未成年を示す場合は「うまい」を表示するなどして、ユーザに応じて表現が異なる表示をする。男女間や世代間の言葉遣いの違いに応じて表現を変えたり、大人と子供で平仮名、片仮名、漢字の使用頻度を変えたりすることで、性別や年代別に異なる文字情報を提供できる。   When displaying the character information corresponding to the shooting scene, the CPU 20 of the third modification varies the display contents according to the user information. For example, “delicious!” And “delicious” are recorded in addition to the “delicious” * ^ _ ^ * as described above, corresponding to the shooting scene of “cooking”. If the user information indicates a woman, “Delicious” * ^ _ ^ * is displayed. If the user information indicates a male adult, “Delicious!” Is displayed. If the user information indicates a minor, “Delicious” is displayed. For example, the display differs depending on the user. By changing the expression according to the language difference between men and women and generations, or by changing the frequency of use of hiragana, katakana, and kanji for adults and children, it is possible to provide different character information by gender and age.

(変形例4)
ユーザ情報に応じて、背景パターンやBGM再生するサウンドファイルを異ならせてもよい。
(Modification 4)
Depending on the user information, the background pattern and the sound file for BGM playback may be different.

(変形例5)
電子カメラ1の場合を例に説明したが、フォトビューアやプロジェクタなどの画像再生機器にも本発明を適用してよい。
(Modification 5)
Although the case of the electronic camera 1 has been described as an example, the present invention may be applied to an image reproduction device such as a photo viewer or a projector.

(変形例6)
以上の説明では、電子カメラ1のCPU20が実行する処理を例に説明したが、上述した撮影履歴情報生成処理(図2、図3)を行う画像処理プログラムを図13に示すコンピュータ装置200に実行させることにより、撮影履歴情報生成装置を構成してもよい。プログラムをパーソナルコンピュータ200に取込んで使用する場合には、パーソナルコンピュータ200のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって撮影履歴情報生成装置として使用する。
(Modification 6)
In the above description, the processing executed by the CPU 20 of the electronic camera 1 has been described as an example. However, the image processing program for performing the above-described shooting history information generation processing (FIGS. 2 and 3) is executed in the computer device 200 shown in FIG. By doing so, the photographing history information generating device may be configured. When the program is used by being loaded into the personal computer 200, the program is loaded into the data storage device of the personal computer 200, and then the program is executed to be used as a photographing history information generation device.

パーソナルコンピュータ200に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体204をパーソナルコンピュータ200にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ200へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記録媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 200 may be performed by setting a recording medium 204 such as a CD-ROM storing the program in the personal computer 200, or to the personal computer 200 by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the hard disk device 203 of the server (computer) 202 connected to the communication line 201. The program can be supplied as various types of computer program products such as provision via the recording medium 204 or the communication line 201.

(変形例7)
変形例6のプログラムを用いて生成された撮影履歴情報を用いて、コンピュータ200にダイジェスト表示をさせることもできる。この場合は、ダイジェスト表示処理(図11)を行う画像処理プログラムをコンピュータ装置200に実行させることにより、ダイジェスト表示装置を構成する。なお、電子カメラ1およびコンピュータ装置200間を接続して(有線接続でも無線接続でもよい)、電子カメラ1によって生成された撮影履歴情報をコンピュータ装置200へ送信し、コンピュータ装置200がダイジェスト表示する構成にしてもよい。
(Modification 7)
It is also possible to cause the computer 200 to display a digest using the shooting history information generated using the program of the sixth modification. In this case, the digest display device is configured by causing the computer device 200 to execute an image processing program for performing the digest display processing (FIG. 11). A configuration in which the electronic camera 1 and the computer apparatus 200 are connected (wired connection or wireless connection), and shooting history information generated by the electronic camera 1 is transmitted to the computer apparatus 200, and the computer apparatus 200 performs a digest display. It may be.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1…電子カメラ
12…撮像素子
14…画像処理回路
17…LCDモニタ
18…RAM
19…フラッシュメモリ
20…CPU
21…メモリカードインターフェース
23…操作部材
25…GPS装置
51…記憶媒体
DESCRIPTION OF SYMBOLS 1 ... Electronic camera 12 ... Image pick-up element 14 ... Image processing circuit 17 ... LCD monitor 18 ... RAM
19 ... Flash memory 20 ... CPU
21 ... Memory card interface 23 ... Operation member 25 ... GPS device 51 ... Storage medium

Claims (8)

複数の画像を各画像の撮影日に基づいて所定期間ごとのグループに分類する分類処理と、
前記分類処理によって分類された前記グループから、該グループ内の画像の使用者価値度に基づいて前記期間を代表する複数の画像を前記各期間についてそれぞれ抽出する第1抽出処理と、
前記第1抽出処理によって抽出された前記複数の画像から、該複数の画像の画像評価度に基づいて前記期間を代表する1つの代表画像を前記各期間についてそれぞれ抽出する第2抽出処理と、
前記各期間についての期間を示す情報と、当該期間に対応する代表画像と、当該期間の代表画像に関する情報とを関連付けた撮影履歴情報を生成する撮影履歴情報生成処理と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
A classification process for classifying a plurality of images into groups for each predetermined period based on the shooting date of each image;
A first extraction process for extracting, for each period, a plurality of images representing the period from the group classified by the classification process, based on the user value of the images in the group;
A second extraction process for extracting one representative image representing the period from each of the plurality of images extracted by the first extraction process based on an image evaluation degree of the plurality of images.
Shooting history information generation processing for generating shooting history information in which information indicating a period for each period, a representative image corresponding to the period, and information regarding the representative image of the period are associated;
An image processing program for causing a computer to execute.
請求項1に記載の画像処理プログラムにおいて、
前記第1抽出処理は、
前記分類前の全ての画像の平均的な撮影位置に対して特異な撮影位置で撮影された画像が前記グループ内に存在する場合は該特異な撮影位置で撮影された複数の画像を抽出し、
前記特異な撮影位置で撮影された画像が前記グループ内に存在しない場合は該グループ内において最多撮影日に撮影された複数の画像を抽出することを特徴とする画像処理プログラム。
In the image processing program according to claim 1,
The first extraction process includes
If an image shot at a specific shooting position with respect to the average shooting position of all images before the classification exists in the group, extract a plurality of images shot at the specific shooting position,
An image processing program for extracting a plurality of images photographed on the most frequent photographing date in the group when an image photographed at the specific photographing position does not exist in the group.
請求項1または2に記載の画像処理プログラムにおいて、
前記第2抽出処理は、
画像の撮影シーンを判定するシーン判定処理を含み、
前記判定した撮影シーンに応じた所定の判定基準に基づいて、前記第1抽出処理によって抽出されている複数の画像から1つの画像を抽出することを特徴とする画像処理プログラム。
The image processing program according to claim 1 or 2,
The second extraction process includes
Including a scene determination process for determining a shooting scene of the image,
An image processing program that extracts one image from a plurality of images extracted by the first extraction processing based on a predetermined determination criterion corresponding to the determined shooting scene.
請求項1〜3のいずれか一項に記載の画像処理プログラムにおいて、
前記撮影履歴情報に基づいて、前記期間を代表する再生画像を前記各期間についてそれぞれ表示するための表示処理をさらにコンピュータに実行させることを特徴とする画像処理プログラム。
In the image processing program as described in any one of Claims 1-3,
An image processing program causing a computer to further execute a display process for displaying a reproduction image representing the period for each period based on the shooting history information.
請求項4に記載の画像処理プログラムにおいて、
前記表示処理は、前記代表画像に対応する期間、前記代表画像の撮影位置、前記代表画像について判定されている撮影シーン、該撮影シーンに対応する所定の文字情報を示す表示を含むことを特徴とする画像処理プログラム。
The image processing program according to claim 4,
The display processing includes a display showing a period corresponding to the representative image, a shooting position of the representative image, a shooting scene determined for the representative image, and predetermined character information corresponding to the shooting scene. An image processing program.
請求項1〜5のいずれか一項に記載の画像処理プログラムにおいて、
前記第2抽出処理によって抽出された前記代表画像の縮小サイズ画像を生成する代表縮小画像生成処理をさらにコンピュータに実行させ、
前記撮影履歴情報生成処理は、前記各期間についての期間を示す情報と、当該期間に対応する代表縮小画像と、当該期間の代表画像に関する情報とを関連付けた撮影履歴情報を生成することを特徴とする画像処理プログラム。
In the image processing program according to any one of claims 1 to 5,
Causing the computer to further execute a representative reduced image generation process for generating a reduced size image of the representative image extracted by the second extraction process;
The shooting history information generation process generates shooting history information in which information indicating a period for each period, a representative reduced image corresponding to the period, and information on the representative image of the period are associated with each other. An image processing program.
請求項5に記載の画像処理プログラムにおいて、
前記表示処理は、撮影シーンおよびユーザの登録情報に応じて前記文字情報を異ならせることを特徴とする画像処理プログラム。
The image processing program according to claim 5,
The image processing program characterized in that the display process varies the character information according to a shooting scene and user registration information.
請求項1〜7のいずれか一項に記載の画像処理プログラムを搭載したことを特徴とするカメラ。   A camera comprising the image processing program according to claim 1.
JP2009111849A 2009-05-01 2009-05-01 Image processing program and camera Pending JP2010263352A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009111849A JP2010263352A (en) 2009-05-01 2009-05-01 Image processing program and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009111849A JP2010263352A (en) 2009-05-01 2009-05-01 Image processing program and camera

Publications (1)

Publication Number Publication Date
JP2010263352A true JP2010263352A (en) 2010-11-18

Family

ID=43361100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009111849A Pending JP2010263352A (en) 2009-05-01 2009-05-01 Image processing program and camera

Country Status (1)

Country Link
JP (1) JP2010263352A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039075A (en) * 2011-05-31 2015-02-26 株式会社東芝 Stereoscopic image display device, and stereoscopic image display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039075A (en) * 2011-05-31 2015-02-26 株式会社東芝 Stereoscopic image display device, and stereoscopic image display method

Similar Documents

Publication Publication Date Title
US10546615B2 (en) Digital image processing apparatus and method of controlling the same
US7856173B2 (en) Shooting device for electrical image stabilizing using relationship between stabilization information and shooting condition
JP5782813B2 (en) Imaging apparatus and image display method
US8355056B2 (en) Image processing device, imaging device, and image processing program
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP2009272740A (en) Imaging device, image selection method, and image selection program
US8416320B2 (en) Image processing method and apparatus for generating and displaying screen nail images
JP2007159095A (en) Imaging apparatus
JP2008092299A (en) Electronic camera
JP2010087722A (en) Photographing device, and method for editing moving picture
JP2009070374A (en) Electronic device
US11367229B2 (en) Image processing apparatus, image processing method, and storage medium
JP2010177731A (en) Image reproducing device and imaging apparatus
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method
JP2013062711A (en) Photographing device, photographed image processing method, and program
JP2008054031A (en) Digital camera and display control method
JP4948014B2 (en) Electronic camera
US20210400192A1 (en) Image processing apparatus, image processing method, and storage medium
JP2010263352A (en) Image processing program and camera
JP2010087723A (en) Photographing device, and method for editing moving picture
JP6590681B2 (en) Image processing apparatus, image processing method, and program
JP2012090103A (en) Imaging device, and method for displaying the number of captured images
JP2010114708A (en) Camera device, photographing method, photographing control program
JP2009081502A (en) Photographing device and image reproducing device
JP2009077175A (en) Electronic camera