JP2012085223A - Photographing condition generation device, imaging device, and photographing condition generation program - Google Patents

Photographing condition generation device, imaging device, and photographing condition generation program Download PDF

Info

Publication number
JP2012085223A
JP2012085223A JP2010231797A JP2010231797A JP2012085223A JP 2012085223 A JP2012085223 A JP 2012085223A JP 2010231797 A JP2010231797 A JP 2010231797A JP 2010231797 A JP2010231797 A JP 2010231797A JP 2012085223 A JP2012085223 A JP 2012085223A
Authority
JP
Japan
Prior art keywords
shooting
imaging
condition
image data
environment information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010231797A
Other languages
Japanese (ja)
Inventor
Ryoyu Kaji
良脩 加治
Naohito Nakahara
尚人 中原
亮 ▲高▼見
Akira Takami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010231797A priority Critical patent/JP2012085223A/en
Publication of JP2012085223A publication Critical patent/JP2012085223A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a photographing condition reflecting user's photographing intent.SOLUTION: A photographing condition generation device is provided with: an extraction part which extracts information on photographic environment at a photographing time when photographic image data is generated, with respect to the photographic image data which is designated by a user to be deleted; and a generation part which generates the photographing condition of the imaging device on the basis of the extracted information on the photographing environment. The photographing condition generation device is provided with an acquisition part which acquires present environmental information, and the generation part generates the photographing condition on the basis of present environmental information which the acquisition part has acquired.

Description

本発明は撮影条件生成装置、撮像装置および撮影条件生成プログラムに関する。   The present invention relates to an imaging condition generation device, an imaging device, and an imaging condition generation program.

いったん撮影した撮影画像をユーザが削除した場合に、削除された画像の撮影条件を評価して以降の撮影条件に反映させる撮像装置がある(特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2009−218932号公報
There is an imaging apparatus in which when a user deletes a captured image once taken, the imaging condition of the deleted image is evaluated and reflected in subsequent imaging conditions (see Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2009-218932 A

撮像装置における撮影条件は撮影環境に応じて様々に設定される。このため、削除画像の撮影条件を総合的に評価しても、評価を反映した撮影条件が効果的に改善されるとは限らなかった。   Various shooting conditions are set in the imaging apparatus according to the shooting environment. For this reason, even if the shooting conditions of the deleted image are comprehensively evaluated, the shooting conditions reflecting the evaluation are not always effectively improved.

上記課題を解決すべく、本発明の第一態様として、ユーザが指定する削除対象の撮影画像データに対して、撮影画像データが生成された撮影時の撮影環境情報を抽出する抽出部と、抽出された撮影環境情報に基づいて撮像装置の撮影条件を生成する生成部とを備える撮影条件生成装置が提供される。   In order to solve the above-mentioned problem, as a first aspect of the present invention, an extraction unit that extracts shooting environment information at the time of shooting when shooting image data is generated with respect to shooting target image data specified by the user, and extraction An imaging condition generation device is provided that includes a generation unit that generates imaging conditions for the imaging device based on the acquired imaging environment information.

また、本発明の第二態様として、上記撮影条件生成装置を含む撮像装置であって、生成部により生成された撮影条件により撮影を実行する制御部を備える撮像装置が提供される。   Moreover, as a second aspect of the present invention, there is provided an imaging apparatus including the imaging condition generation apparatus, the imaging apparatus including a control unit that performs imaging according to the imaging conditions generated by the generation unit.

更に、本発明の第三態様として、ユーザが指定する削除対象の撮影画像データに対して、撮影画像データが生成された撮影時の撮影環境情報を抽出する抽出ステップと、抽出された撮影環境情報に基づいて撮像装置の撮影条件を生成する生成ステップとをコンピュータに実行させる撮影条件生成プログラムが提供される。   Furthermore, as a third aspect of the present invention, an extraction step of extracting shooting environment information at the time of shooting when the shooting image data is generated for the shooting image data to be deleted specified by the user, and the extracted shooting environment information An imaging condition generation program for causing a computer to execute a generation step for generating imaging conditions for an imaging apparatus based on the above is provided.

上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。これら特徴群のサブコンビネーションもまた発明となり得る。   The above summary of the present invention does not enumerate all necessary features of the present invention. A sub-combination of these feature groups can also be an invention.

カメラシステム1の模式的断面図である。1 is a schematic cross-sectional view of a camera system 1. FIG. カメラシステム1のブロック図である。1 is a block diagram of a camera system 1. FIG. カメラシステム1の背面図である。2 is a rear view of the camera system 1. FIG. 背面モニタ21の表示内容を示す図である。It is a figure which shows the display content of the back monitor. 画像ファイル50の構造を示す図である。3 is a diagram illustrating a structure of an image file 50. FIG. 本体CPU27の制御手順を示す流れ図である。It is a flowchart which shows the control procedure of main body CPU27. 失敗回避設定ファイルのデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of a failure avoidance setting file. 失敗回避設定算出モジュールの動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure of a failure avoidance setting calculation module. 本体CPU27の制御手順を示す流れ図である。It is a flowchart which shows the control procedure of main body CPU27. 本体CPU27の制御手順を示す流れ図である。It is a flowchart which shows the control procedure of main body CPU27. 本体CPU27の他の制御手順を示す流れ図である。12 is a flowchart showing another control procedure of the main body CPU 27. 削除履歴テーブルの構造を模式的に示す図である。It is a figure which shows typically the structure of a deletion log | history table. 本体CPU27の他の制御手順を示す流れ図である。12 is a flowchart showing another control procedure of the main body CPU 27. 制御プログラムを実行するコンピュータの斜視図である。It is a perspective view of the computer which performs a control program.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一眼レフカメラであるカメラシステム1の模式的断面図である。カメラシステム1は電子装置の一例であり、カメラ本体2および撮影レンズ3を含む。撮影レンズ3は、カメラ本体2に対して交換可能に装着される。   FIG. 1 is a schematic cross-sectional view of a camera system 1 that is a single-lens reflex camera. The camera system 1 is an example of an electronic device, and includes a camera body 2 and a photographing lens 3. The taking lens 3 is attached to the camera body 2 in a replaceable manner.

撮影レンズ3は、レンズCPU7、フォーカスレンズ、ズームレンズおよび防振レンズを含むレンズ群4、絞り5、カメラシステム1の振れを検出する角速度センサ6、レンズ群4を駆動する図示していない駆動装置等を備える。角速度センサ6は、少なくとも光軸に直交する2軸周りの角速度を検出する。   The photographing lens 3 includes a lens CPU 7, a lens group 4 including a focus lens, a zoom lens, and an anti-vibration lens, an aperture 5, an angular velocity sensor 6 that detects shake of the camera system 1, and a driving device (not shown) that drives the lens group 4. Etc. The angular velocity sensor 6 detects an angular velocity around at least two axes orthogonal to the optical axis.

駆動装置は、例えば振動波モータ、VCMにより構成される複数のモータを有し、フォーカスレンズを光軸方向に駆動する。また、防振レンズを光軸方向とは異なる方向に駆動する。レンズCPU7は、撮影レンズ3の全体を制御すると共に、カメラ本体2と協働するレンズCPU7を有する。   The drive device has a plurality of motors composed of, for example, a vibration wave motor and a VCM, and drives the focus lens in the optical axis direction. Further, the anti-vibration lens is driven in a direction different from the optical axis direction. The lens CPU 7 has a lens CPU 7 that controls the entire photographing lens 3 and cooperates with the camera body 2.

カメラ本体2は、メインミラー10を備える。メインミラー10は、撮影レンズ3からの光束を反射してファインダ光学系8に導く反射位置と、撮影レンズ3からの光束がCCDまたはCMOSなどから構成される撮像素子9に入射するように退避する退避位置との間で揺動する。   The camera body 2 includes a main mirror 10. The main mirror 10 retreats so that the light beam from the photographic lens 3 is reflected and guided to the finder optical system 8 and the light beam from the photographic lens 3 is incident on the image sensor 9 composed of a CCD or a CMOS. Swings between the retracted position.

カメラ本体2において、メインミラー10の一部の領域は半透過領域となっており、半透過領域を透過した光束を焦点検出センサ11へ反射するサブミラー12が配される。サブミラー12は、メインミラー10に連動して揺動し、メインミラー10が退避位置をとるときには、サブミラー12も光束から退避する。焦点検出センサ11は、位相差方式により入射する光束の焦点状態を検出する。   In the camera body 2, a partial region of the main mirror 10 is a semi-transmissive region, and a sub-mirror 12 that reflects the light beam transmitted through the semi-transmissive region to the focus detection sensor 11 is disposed. The sub mirror 12 swings in conjunction with the main mirror 10, and when the main mirror 10 takes the retracted position, the sub mirror 12 also retracts from the light flux. The focus detection sensor 11 detects the focus state of the incident light beam by the phase difference method.

反射位置にあるメインミラー10で反射された光束は、焦点板13、ペンタプリズム14を介してファインダ光学系8へ導かれる。ファインダ光学系8は複数のレンズを含み、ユーザはファインダ光学系8により被写界を確認できる。   The light beam reflected by the main mirror 10 at the reflection position is guided to the finder optical system 8 through the focusing screen 13 and the pentaprism 14. The finder optical system 8 includes a plurality of lenses, and the user can confirm the object field by the finder optical system 8.

ペンタプリズム14を透過する光束の一部は測光センサ15に導かれる。測光センサ15は、撮影レンズ3へ入射する光束を複数の領域ごとに測光することにより、被写界の輝度分布を計測する。また、ペンタプリズム14の上方にはGPS(Global Positioning System:全地球測位システム)モジュール16を備える。   A part of the light beam passing through the pentaprism 14 is guided to the photometric sensor 15. The photometric sensor 15 measures the luminance distribution of the object scene by measuring the light beam incident on the photographing lens 3 for each of a plurality of regions. A GPS (Global Positioning System) module 16 is provided above the pentaprism 14.

さらに、カメラ本体2は、撮影レンズ3のマウント部近傍で撮影レンズ3と干渉しない位置に、被写界の音を録音するマイクロフォン17を備える。また、カメラ本体2は、ファインダ光学系8の近傍に、ビープ音などを発するスピーカ18を備える。   Further, the camera body 2 includes a microphone 17 that records the sound of the object scene at a position near the mount portion of the photographing lens 3 so as not to interfere with the photographing lens 3. The camera body 2 includes a speaker 18 that emits a beep sound in the vicinity of the finder optical system 8.

メインミラー10が退避位置にあるとき、撮影レンズ3からの光束は、ローパスフィルタ19を介して撮像素子9に入射する。撮像素子9の背後には、撮像基板20が設けられ、撮像基板20の更に後方には外部に面して背面モニタ21が設けられる。   When the main mirror 10 is in the retracted position, the light beam from the photographing lens 3 enters the image sensor 9 through the low-pass filter 19. An imaging board 20 is provided behind the imaging device 9, and a rear monitor 21 is provided behind the imaging board 20 so as to face the outside.

図2は、本実施形態に係るカメラシステム1のブロック図である。図1と共通の要素には同じ参照番号を付して重複する説明を省く。   FIG. 2 is a block diagram of the camera system 1 according to the present embodiment. Elements that are the same as those in FIG. 1 are given the same reference numerals, and redundant descriptions are omitted.

本体CPU27は、レンズCPU7と協働してカメラシステム1の全体を制御する。本体CPU27に接続された撮像基板20は、撮像素子9を駆動する駆動部23、撮像素子9の出力をデジタル信号に変換するA/D変換部24、ASICで構成される画像処理部25および撮像素子9からの信号の高周波成分を抽出するコントラストAF回路26などを有している。   The main body CPU 27 controls the entire camera system 1 in cooperation with the lens CPU 7. The imaging board 20 connected to the main body CPU 27 includes a drive unit 23 that drives the imaging device 9, an A / D conversion unit 24 that converts the output of the imaging device 9 into a digital signal, an image processing unit 25 that includes an ASIC, and imaging. A contrast AF circuit 26 that extracts a high-frequency component of the signal from the element 9 is provided.

画像処理部25は、デジタル信号に変換された画像信号に対してホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を施すと共に、JPEGなどの画像圧縮を行って画像ファイルを生成する。生成された画像ファイルは、二次記録媒体34に記憶される。二次記録媒体34は、カメラ本体2に対して着脱可能なフラッシュメモリなどの記録媒体であっても良いし、カメラ本体2に内蔵されるSSD(Solid State Drive)などの記録媒体であっても良い。   The image processing unit 25 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the image signal converted into the digital signal and generates an image file by performing image compression such as JPEG. To do. The generated image file is stored in the secondary recording medium 34. The secondary recording medium 34 may be a recording medium such as a flash memory that can be attached to and detached from the camera body 2, or may be a recording medium such as an SSD (Solid State Drive) built in the camera body 2. good.

画像処理を施された画像信号は、背面モニタ制御部28の制御により、背面モニタ21に表示される。撮影直後に撮影された画像信号を所定時間表示すれば、二次記録媒体34に記録された画像ファイルに対応する画像をユーザに視認させることができる。   The image signal subjected to the image processing is displayed on the rear monitor 21 under the control of the rear monitor control unit 28. If the image signal taken immediately after shooting is displayed for a predetermined time, the image corresponding to the image file recorded on the secondary recording medium 34 can be viewed by the user.

また、撮像素子9が光電変換する被写体像を二次記録媒体34に格納することなく背面モニタ21に表示し続ければライブビュー表示ができる。ライブビュー表示している場合は、被写界の映像が背面モニタ21に表示される。   Further, if the subject image photoelectrically converted by the image sensor 9 is continuously displayed on the rear monitor 21 without being stored in the secondary recording medium 34, live view display can be performed. When the live view is displayed, the image of the object scene is displayed on the rear monitor 21.

さらに、撮像素子9が連続的に光電変換する被写体像を二次記録媒体34に連続的に記録すれば動画撮影ができる。この場合、記録される動画ファイルは、画像処理部25によりMPEG、H.264などに動画圧縮処理されている。また、動画撮影をする場合は、マイクロフォン17で音声も併せて記録できる。動画撮影により生成される動画像のフレームレートは、複数のフレームレートから、例えば30fpsなどと設定される。   Furthermore, if the subject image that is continuously photoelectrically converted by the image sensor 9 is continuously recorded on the secondary recording medium 34, moving image shooting can be performed. In this case, the moving image file to be recorded is MPEG, H.264 by the image processing unit 25. H.264 is a moving image compression process. In addition, when shooting moving images, the microphone 17 can also record sound. The frame rate of a moving image generated by moving image shooting is set to, for example, 30 fps from a plurality of frame rates.

コントラストAF回路26は、撮像素子9からの撮像信号の高周波成分を抽出してAF評価値信号を生成し、AF評価値信号が最大になるフォーカスレンズ位置を検出する。検出されたAF評価値信号は、本体CPU27に参照される。   The contrast AF circuit 26 extracts a high-frequency component of the imaging signal from the imaging device 9 to generate an AF evaluation value signal, and detects a focus lens position where the AF evaluation value signal is maximized. The detected AF evaluation value signal is referred to by the main body CPU 27.

レンズCPU7は、撮影レンズ3内の防振レンズを光軸方向とは異なる方向に駆動して、角速度センサ6で検出した手振れを打ち消す光学式手振れ補正機能を有する。一方、カメラ本体2も、画像処理部25から出力された複数枚の画像間の動きベクトルを算出して、画像読み出し位置を変化させることにより画像間の動きベクトルをキャンセルする電子式手振れ補正機能を備える。光学式手振れ補正は静止画撮影に好適であり、電子式手振れ補正は動画撮影に好適である。   The lens CPU 7 has an optical camera shake correction function that cancels the camera shake detected by the angular velocity sensor 6 by driving the image stabilizing lens in the photographing lens 3 in a direction different from the optical axis direction. On the other hand, the camera body 2 also has an electronic camera shake correction function that calculates a motion vector between a plurality of images output from the image processing unit 25 and cancels the motion vector between images by changing the image reading position. Prepare. Optical camera shake correction is suitable for still image shooting, and electronic camera shake correction is suitable for moving image shooting.

測光センサ15は、撮影レンズ3へ入射する光束を複数の領域ごとに測光して被写界の輝度分布を計測する。計測結果は本体CPU27に参照される。本体CPU27は、選択された測光モードに応じて露出値を算出する。測光モードは、明るい部分と暗い部分のバランスを取る分割測光モード、画面中央を適正露出とする中央重点測光モード、選択したフォーカスポイントの狭領域を適正露出とするスポット測光モードなどから選択できる。   The photometric sensor 15 measures the luminance distribution of the object scene by measuring the luminous flux incident on the photographing lens 3 for each of a plurality of regions. The measurement result is referred to by the main body CPU 27. The main body CPU 27 calculates an exposure value according to the selected photometry mode. The metering mode can be selected from a split metering mode that balances a bright part and a dark part, a center-weighted metering mode in which the center of the screen is properly exposed, and a spot metering mode in which a narrow area of the selected focus point is appropriately exposed.

カレンダ部54は、水晶発振子、計時用集積回路等を有しており、年月日時分秒といったカレンダ情報を生成する。本体CPU27は、カレンダ部54から日にちおよび時間に関する情報を取得できる。   The calendar unit 54 includes a crystal oscillator, a timekeeping integrated circuit, and the like, and generates calendar information such as year / month / day / hour / minute / second. The main body CPU 27 can acquire information on the date and time from the calendar unit 54.

GPSモジュール16は、GPS衛星からのGPS信号を受信してカメラ本体2が存在している緯度、経度、高度情報を算出する。本体CPU27は、GPSモジュール16からカメラ本体2の位置に関する位置情報を取得する。なお、GPS信号は高精度な時間情報を含むので、GPSモジュール16が受信したGPS信号からカレンダ部54を較正することもできる。   The GPS module 16 receives a GPS signal from a GPS satellite and calculates latitude, longitude, and altitude information where the camera body 2 exists. The main body CPU 27 acquires position information regarding the position of the camera main body 2 from the GPS module 16. Since the GPS signal includes highly accurate time information, the calendar unit 54 can be calibrated from the GPS signal received by the GPS module 16.

フラッシュROM29は、EEPROM(登録商標)を含み、カメラシステム1を動作させるプログラムのほか、各種調整値、設定値を格納する。具体的には、AF調整データ、AE調整データ、製造時の年月日時間データ、設定スイッチの設定履歴などの設定値を格納する。また、フラッシュROM29は、メニュー設定画面およびユーザガイド画面の使用履歴等も記憶する。更に、フラッシュROM29は、後述する削除履歴ファイル、失敗回避設定ファイルも格納する。   The flash ROM 29 includes an EEPROM (registered trademark), and stores various adjustment values and setting values in addition to a program for operating the camera system 1. Specifically, setting values such as AF adjustment data, AE adjustment data, manufacturing date / time data, and setting switch setting history are stored. The flash ROM 29 also stores a use history of the menu setting screen and the user guide screen. Further, the flash ROM 29 also stores a deletion history file and a failure avoidance setting file which will be described later.

フラッシュROMに格納する設定値のうち、ユーザが設定または変更する設定値は、背面モニタ21に表示する設定画面のメニュー項目として用意されている。更に、フラッシュROM29は、後述するように、削除された画像の撮影条件を含む削除履歴の蓄積、失敗回避設定の格納も担う。   Among the setting values stored in the flash ROM, setting values that are set or changed by the user are prepared as menu items on a setting screen displayed on the rear monitor 21. Further, as will be described later, the flash ROM 29 is also responsible for accumulating deletion history including shooting conditions for deleted images and storing failure avoidance settings.

RAM30は、本体CPU27が高速にアクセスできるDRAMなどの高速RAMであり、フラッシュROM29に記憶されたプログラムが展開される。また、本体CPU27が高速にアクセスできるように、頻繁に参照される調整値、設定値などがフラッシュROM29からRAM30にコピーされる場合もある。   The RAM 30 is a high-speed RAM such as a DRAM that can be accessed at high speed by the main body CPU 27, and a program stored in the flash ROM 29 is expanded. Further, adjustment values and setting values that are frequently referred to may be copied from the flash ROM 29 to the RAM 30 so that the main body CPU 27 can be accessed at high speed.

失敗回避設定算出モジュール55は、フラッシュROM29に格納された削除履歴から、後述する失敗回避設定を算出して生成する。また、失敗回避設定算出モジュール55は、算出した失敗回避設定をフラッシュROM29に書き込んで蓄積する。なお、失敗回避設定については後述する。   The failure avoidance setting calculation module 55 calculates and generates a failure avoidance setting, which will be described later, from the deletion history stored in the flash ROM 29. The failure avoidance setting calculation module 55 writes and stores the calculated failure avoidance setting in the flash ROM 29. The failure avoidance setting will be described later.

背面モニタ制御部28は、画像処理された撮影画像の他、フラッシュROM29から読み出したメニュー設定画面およびユーザガイド画面を背面モニタ21へ表示する。背面モニタ21は、表面にタッチパネルセンサが積層される。ユーザは、背面モニタ21に表示されるメニュー項目等を視認しつつタッチパネルセンサを操作できる。タッチパネルセンサから入力された指示は本体CPU27に参照される。   The rear monitor control unit 28 displays a menu setting screen and a user guide screen read from the flash ROM 29 on the rear monitor 21 in addition to the captured image subjected to image processing. The rear monitor 21 has a touch panel sensor laminated on the surface. The user can operate the touch panel sensor while visually recognizing menu items and the like displayed on the rear monitor 21. The instruction input from the touch panel sensor is referred to the main body CPU 27.

方位センサ33は地磁気センサを有し、カメラシステム1がどの方向を向いているかを検出する。IP通信部31は、インターネットプロトコルによるネットワーク接続部と、ネットワーク上から情報を取得するプログラムとを有する。これにより、IP通信部31は、イベントの開催される日時、場所等を含むイベント情報をネットワークを介して取得する。   The direction sensor 33 includes a geomagnetic sensor and detects which direction the camera system 1 is facing. The IP communication unit 31 includes a network connection unit based on the Internet protocol and a program for acquiring information from the network. As a result, the IP communication unit 31 acquires event information including the date, place, and the like where the event is held via the network.

レリーズスイッチ32は、ユーザがカメラシステム1に対して撮影のタイミングを指示する場合に押される。ユーザがレリーズスイッチ32を半押しすると、本体CPU27は、オートフォーカス、測光などの撮影準備動作が実行される。ユーザが更にレリーズスイッチ32を全押しすると、本体CPU27は、静止画撮影または動画撮影を開始する。   The release switch 32 is pressed when the user instructs the camera system 1 to take a shooting timing. When the user half-presses the release switch 32, the main body CPU 27 executes photographing preparation operations such as autofocus and photometry. When the user further presses the release switch 32, the main body CPU 27 starts still image shooting or moving image shooting.

図3は、カメラ本体2の背面図である。他の図と共通の要素には同じ参照番号を付して重複する説明を省く。   FIG. 3 is a rear view of the camera body 2. Elements that are the same as those in the other drawings are given the same reference numerals, and redundant descriptions are omitted.

カメラ本体2の背面中央には、ファインダ光学系8の後端および背面モニタ21が配される。背面モニタ21の側方には、背面ダイヤル35、十字ボタン36、決定ボタン37、再生モードボタン38、削除ボタン39、確認ボタン40等が配される。   A rear end of the finder optical system 8 and a rear monitor 21 are arranged in the center of the rear surface of the camera body 2. On the side of the rear monitor 21, a rear dial 35, a cross button 36, an enter button 37, a playback mode button 38, a delete button 39, a confirmation button 40, and the like are arranged.

カメラ本体2は、再生モードボタン38が押された場合に再生モードで動作する。再生モードにおいては、二次記録媒体34に格納された撮影画像データが背面モニタ21に表示される。この状態で背面ダイヤル35を回転させることにより、背面モニタ21に表示される撮影画像が順次切り替わる。このように、背面ダイヤル35は、画像を選択する選択部を形成する。   The camera body 2 operates in the playback mode when the playback mode button 38 is pressed. In the reproduction mode, the captured image data stored in the secondary recording medium 34 is displayed on the rear monitor 21. By rotating the rear dial 35 in this state, the captured images displayed on the rear monitor 21 are sequentially switched. Thus, the back dial 35 forms a selection unit for selecting an image.

再生モードであって背面モニタ21にある画像が表示されている場合に削除ボタン39が押されると、表示されていた画像を二次記録媒体34から削除できる。ただし、一動作で画像削除が完了すると、誤操作により撮影画像データが削除される場合がある。そこで、削除ボタン39に続いて確認ボタン40が押された場合に削除が実行される。   If the delete button 39 is pressed when an image on the rear monitor 21 is displayed in the playback mode, the displayed image can be deleted from the secondary recording medium 34. However, when the image deletion is completed in one operation, the photographed image data may be deleted due to an erroneous operation. Therefore, when the confirmation button 40 is pressed after the delete button 39, the deletion is executed.

なお、十字ボタン36は、上下左右の4箇所に個別にオン/オフするスイッチを有する。これにより、例えば、背面モニタ21に二次元的に配置された画像または選択肢を選択する場合に十字ボタン36を使用できる。また、十字ボタン36に含まれる4つのスイッチに、一時的に個別の機能を割り当てる場合もある。   The cross button 36 has switches that are individually turned on / off at four locations, top, bottom, left, and right. Thereby, for example, the cross button 36 can be used when selecting an image or option two-dimensionally arranged on the rear monitor 21. In addition, individual functions may be temporarily assigned to the four switches included in the cross button 36.

決定ボタン37は、十字ボタン36により選択した選択肢等を決定旨の指示を入力する場合に押される。これにより、確認ボタン40の場合と同様に、一動作で何らかの動作が確定することを防止している。   The decision button 37 is pressed when inputting an instruction to decide an option selected by the cross button 36. As a result, as in the case of the confirmation button 40, it is possible to prevent any operation from being confirmed by one operation.

図4は、カメラ本体2が再生モードになった場合に、背面モニタ21に表示される表示画像のひとつを例示する図である。図示の例では、背面モニタ21に、複数の撮影画像データに対応する複数の縮小画像49が表示されている。複数の縮小画像49は、例えば図中の一点鎖線で示すように撮像順に配列される。   FIG. 4 is a diagram illustrating one display image displayed on the rear monitor 21 when the camera body 2 is in the playback mode. In the illustrated example, a plurality of reduced images 49 corresponding to a plurality of photographed image data are displayed on the rear monitor 21. The plurality of reduced images 49 are arranged in the order of imaging as indicated by, for example, a one-dot chain line in the figure.

背面モニタ21に表示された複数の縮小画像49に対して、ユーザは背面ダイヤル35を操作することにより、図中に点線で示す選択枠43を、図中に一点鎖線で示す撮影順に移動させる。これにより、ひとつの縮小画像49に対応した撮影画像データが特定される。この状態で削除ボタン39を押すことにより、その縮小画像49に対応した撮影画像データの削除が指示される。   The user operates the rear dial 35 with respect to the plurality of reduced images 49 displayed on the rear monitor 21 to move the selection frame 43 indicated by a dotted line in the drawing in the order of shooting indicated by a one-dot chain line in the drawing. Thereby, photographed image data corresponding to one reduced image 49 is specified. By pressing the delete button 39 in this state, deletion of the captured image data corresponding to the reduced image 49 is instructed.

背面モニタ21において、上記のようにしてユーザから削除を指示された画像データA〜Eの縮小画像49には、図中に実線で示すように表示形態が変化した選択枠43が各々に付加される。更に、ユーザが、削除すべき撮影画像データA〜Fを全て特定した後に確認ボタン40を押すと、撮影画像データが削除される。このように、ユーザは、選択した縮小画像49に対応する撮影画像データA〜Fを一括して削除できる。   In the rear monitor 21, a selection frame 43 whose display form has changed as shown by a solid line in the drawing is added to each of the reduced images 49 of the image data A to E instructed to be deleted by the user as described above. The Furthermore, when the user presses the confirmation button 40 after specifying all the captured image data A to F to be deleted, the captured image data is deleted. As described above, the user can collectively delete the captured image data A to F corresponding to the selected reduced image 49.

なお、上記の例では、背面モニタ21に複数の縮小画像49を表示させて、削除する画像を複数指定する例を示した。しかしながら、細部を確認しながら削除すべき画像を特定できるように、背面モニタ21全体にひとつの画像を表示するようにしてもよい。この場合は、例えば、画像毎に削除ボタン39および確認ボタン40を押して、撮影画像データをひとつずつ削除する。   In the above example, a plurality of reduced images 49 are displayed on the rear monitor 21 and a plurality of images to be deleted are designated. However, one image may be displayed on the entire rear monitor 21 so that an image to be deleted can be identified while checking details. In this case, for example, the delete button 39 and the confirmation button 40 are pressed for each image to delete the photographed image data one by one.

図5は、カメラシステム1で生成される画像ファイル50の構造を示す図である。画像ファイル50は、タグデータ51、サムネイル画像データ52および本画像データ53を格納する。   FIG. 5 is a diagram showing the structure of the image file 50 generated by the camera system 1. The image file 50 stores tag data 51, thumbnail image data 52, and main image data 53.

本画像データ53は、カメラシステム1により撮影された撮影画像データに相当する。サムネイル画像データ52は、本画像データ53よりも解像度、階調等が低く、データサイズが小さい。よって、画像一覧等を表示する場合に容易に取り扱うことができる。   The main image data 53 corresponds to captured image data captured by the camera system 1. The thumbnail image data 52 has a lower resolution, gradation, etc., and a smaller data size than the main image data 53. Therefore, it can be easily handled when displaying an image list or the like.

タグデータ51は、カメラシステム1の仕様、撮影条件等を格納する。カメラシステム1に対して画像をJPEG(Joint Photographic Experts Group)形式で保存することを指示した場合、本画像データ53にタグデータ51およびサムネイル画像データ52が付加されてEXIFファイルとして保存される。   The tag data 51 stores specifications of the camera system 1, shooting conditions, and the like. When the camera system 1 is instructed to save an image in the JPEG (Joint Photographic Experts Group) format, the tag data 51 and the thumbnail image data 52 are added to the main image data 53 and saved as an EXIF file.

タグデータ51には、本画像データ53を撮影したカメラシステム1のメーカ、仕様、ファームウエアの版数、開放F値等の情報が記録される。また、EXIFファイルには、当該画像を撮影したときの露出時間、F値、ISO値、焦点距離、撮影日時等の撮影情報が記録される。更に、EXIFファイルには、カメラシステム1のカレンダ部54、方位センサ33、GPSモジュール16、IP通信部31等が検出した日時、姿勢、方位、位置、イベント等に関する付加情報も記録される。   In the tag data 51, information such as the manufacturer of the camera system 1 that captured the main image data 53, specifications, firmware version number, open F value, and the like are recorded. In the EXIF file, shooting information such as exposure time, F value, ISO value, focal length, shooting date and time when the image is shot is recorded. Further, the EXIF file also records additional information related to the date / time, orientation, orientation, position, event, etc. detected by the calendar unit 54, the orientation sensor 33, the GPS module 16, the IP communication unit 31 and the like of the camera system 1.

上記タグデータ51に記録された様々な情報は、静止画または動画を撮影する場合にカメラシステム1に設定される露出時間、ISO値等の撮影設定情報と、撮影設定値としては用いられないが、カメラシステム1の撮影日時、方位、位置等を示す撮影環境情報とに大別できる。   Various information recorded in the tag data 51 is not used as shooting setting information such as exposure time and ISO value set in the camera system 1 and shooting setting values when shooting still images or moving images. It can be roughly divided into shooting environment information indicating the shooting date and time, direction, position, and the like of the camera system 1.

よって、二次記録媒体34にEXIF形式で記録された画像ファイル50からは、画像ファイル50に含まれる本画像データ53自体の他に、当該本画像データ53を撮影したときの撮影環境情報および撮影設定情報を読み出すことができる。従って、本体CPU27は、画像ファイル50が削除対象として指定された場合に、当該画像ファイルに含まれる撮影環境情報および撮影設定情報を抽出できる。   Therefore, from the image file 50 recorded in the EXIF format on the secondary recording medium 34, in addition to the main image data 53 itself included in the image file 50, shooting environment information and shooting when the main image data 53 is shot. Setting information can be read. Therefore, when the image file 50 is designated as a deletion target, the main body CPU 27 can extract shooting environment information and shooting setting information included in the image file.

図6は、画像データの削除に係る本体CPU27の制御手順を示す流れ図である。十字ボタン36および決定ボタン37等を用いたユーザの操作により撮影画像に対して削除が指示された場合に、本体CPU27は図6に示す制御手順を開始する。   FIG. 6 is a flowchart showing a control procedure of the main body CPU 27 related to deletion of image data. When deletion of the captured image is instructed by the user's operation using the cross button 36, the determination button 37, or the like, the main body CPU 27 starts the control procedure shown in FIG.

本体CPU27は、まず、削除が指定された撮影画像の画像ファイル50のタグデータ51から、当該撮影画像を撮影したときの撮影設定情報と撮影環境情報とを含む削除画像データを読み込む(ステップS101)。次に、本体CPU27は、読み込んだ削除画像データを、フラッシュROM29に形成された削除履歴ファイルに順次追加して書き込む(ステップS102)。   First, the main body CPU 27 reads, from the tag data 51 of the image file 50 of the photographed image designated to be deleted, the deleted image data including the photographing setting information and the photographing environment information when the photographed image is photographed (step S101). . Next, the main body CPU 27 sequentially adds and writes the read deletion image data to the deletion history file formed in the flash ROM 29 (step S102).

削除画像データに含まれる撮影設定情報は、当該削除画像についてカメラシステム1が適正な設定値として算出した算出Ev値と、撮影に当たってユーザが設定した露光補正量を含んでいてもよい。また、カメラシステム1が適正な設定値として算出した色温度と、撮影のときに色温度に対してユーザが設定した補正値を含んでもよい。   The shooting setting information included in the deleted image data may include a calculated Ev value calculated by the camera system 1 as an appropriate setting value for the deleted image and an exposure correction amount set by the user in shooting. Moreover, the color temperature calculated as an appropriate setting value by the camera system 1 and the correction value set by the user for the color temperature at the time of shooting may be included.

削除画像データの撮影環境情報は、撮影日時、撮影場所、撮影方位、撮影時の天候の他、被写体に人物が含まれるか否かの情報を含んでもよい。また、撮影環境情報は、撮影時にIP通信部31を通じて取得していたイベント情報等も含んでよい。換言すれば、本体CPU27は、撮影環境情報として取得したい情報を、タグデータ51の付加情報として画像ファイル50に記録しておくことが好ましい。   The shooting environment information of the deleted image data may include information on whether or not a subject is included in addition to the shooting date and time, shooting location, shooting direction, and weather at the time of shooting. Further, the shooting environment information may include event information acquired through the IP communication unit 31 at the time of shooting. In other words, the main body CPU 27 preferably records information to be acquired as shooting environment information in the image file 50 as additional information of the tag data 51.

次に、本体CPU27は、失敗回避設定算出モジュール55に、失敗回避設定を算出させる(ステップS103)。失敗回避設定は、削除画像データが撮影環境情報として有する撮影環境において、ユーザが当該画像データを削除した理由と考えられる撮影設定を回避すべく算出される、当該撮影環境に適した撮影設定である。失敗回避設定の算出手順については、他の図を参照して後述する。   Next, the main body CPU 27 causes the failure avoidance setting calculation module 55 to calculate a failure avoidance setting (step S103). The failure avoidance setting is a shooting setting suitable for the shooting environment that is calculated to avoid the shooting setting that is considered to be the reason why the user deleted the image data in the shooting environment that the deleted image data has as shooting environment information. . The procedure for calculating the failure avoidance setting will be described later with reference to other drawings.

続いて、本体CPU27は、失敗回避設定を算出された削除画像データの撮影環境情報を読み込んで、失敗回避設定ファイルに同じ撮影環境情報を有する失敗回避設定が記録されているか否かを調べる(ステップS104)。ここで、失敗回避設定ファイルは、フラッシュROM29に記録されて、複数の失敗回避設定を規定したファイルを意味する。   Subsequently, the main body CPU 27 reads the shooting environment information of the deleted image data for which the failure avoidance setting has been calculated, and checks whether or not the failure avoidance setting having the same shooting environment information is recorded in the failure avoidance setting file (step). S104). Here, the failure avoidance setting file means a file that is recorded in the flash ROM 29 and defines a plurality of failure avoidance settings.

図7は、失敗回避設定ファイルのデータ構造を例示する模式図である。失敗回避設定ファイルは、撮影環境情報に応じて分類した状態で、撮影設定情報に関する失敗回避設定を規定する。   FIG. 7 is a schematic diagram illustrating the data structure of the failure avoidance setting file. The failure avoidance setting file defines failure avoidance settings related to shooting setting information in a state classified according to shooting environment information.

撮影環境情報は、既に説明した通り、撮影日時、撮影場所、撮影方位、天候情報、人物、シーンモード、イベント情報等、多くの項目を有する。よって、失敗回避設定ファイルにおいて、それぞれの失敗回避設定は複数の撮影環境情報、即ち、図示の例では時間と季節によりマトリックスをなす撮影環境テーブルに規定される。   As described above, the shooting environment information has many items such as shooting date and time, shooting location, shooting direction, weather information, person, scene mode, and event information. Therefore, in the failure avoidance setting file, each failure avoidance setting is defined in a plurality of shooting environment information, that is, a shooting environment table that forms a matrix according to time and season in the illustrated example.

このように、失敗回避設定算出モジュール55は、算出した失敗回避設定を、撮影環境情報によって分類して蓄積する。なお、図7は模式図に過ぎず、失敗回避設定はより多くの種類の撮影環境情報により分類されてもよい。その場合、上記失敗回避設定を規定したテーブルの次元が高くなる。   As described above, the failure avoidance setting calculation module 55 classifies and stores the calculated failure avoidance settings according to the shooting environment information. Note that FIG. 7 is merely a schematic diagram, and the failure avoidance setting may be classified by more types of shooting environment information. In that case, the dimension of the table defining the failure avoidance setting becomes high.

再び図6を参照すると、ステップS104において、共通の撮影環境情報を有する失敗回避設定が失敗回避設定ファイルに既に規定されていた場合、(ステップS104:NO)、失敗回避設定算出モジュール55は、既に規定されていた失敗回避設定を、算出した新しい失敗回避設定で上書きして保存する(ステップS105)。   Referring to FIG. 6 again, if the failure avoidance setting having common shooting environment information has already been defined in the failure avoidance setting file in step S104 (step S104: NO), the failure avoidance setting calculation module 55 has already completed. The specified failure avoidance setting is overwritten with the calculated new failure avoidance setting and stored (step S105).

一方、算出した失敗回避設定に対応する撮影環境情報が、失敗回避設定ファイルに規定されていない場合(ステップS104:YES)、失敗回避設定算出モジュール55は、既に規定されている失敗回避設定を残したまま、算出された新しい失敗回避設定を、失敗回避設定ファイルに新規に規定する(ステップS107)。更に、本体CPU27は、失敗回避設定が保存された削除画像データを削除履歴ファイルから削除して制御を終了する(ステップS106)。   On the other hand, when the shooting environment information corresponding to the calculated failure avoidance setting is not defined in the failure avoidance setting file (step S104: YES), the failure avoidance setting calculation module 55 leaves the failure avoidance setting already defined. The newly calculated failure avoidance setting is newly defined in the failure avoidance setting file (step S107). Further, the main body CPU 27 deletes the deleted image data in which the failure avoidance setting is stored from the deletion history file, and ends the control (step S106).

図8は、失敗回避設定の算出に関する本体CPU27の制御手順を示す流れ図である。図示の制御手順は、図6に示した制御手順のステップS103において実行される。   FIG. 8 is a flowchart showing a control procedure of the main body CPU 27 regarding calculation of the failure avoidance setting. The illustrated control procedure is executed in step S103 of the control procedure shown in FIG.

失敗回避設定算出モジュール55は、まず、削除履歴ファイルに書き込まれた削除画像データのうち、撮影設定情報を順次読み込む。そして、失敗回避設定算出モジュール55は、ステップS202で、読み込んだ撮影設定情報における撮影設定値から、基準となるカメラ適正値を算出し、このカメラ適正値と実際に撮影時に適用された撮影設定とを比較する。カメラ適正値とは、例えば、予め設定された基準となるプログラム線図に沿って露出値を算出した場合の露出値など、標準的な設定値である。つまり、ステップS202では、カメラシステム1が適正値とする設定値と、削除された画像データの設定値を比較する。   First, the failure avoidance setting calculation module 55 sequentially reads shooting setting information among the deleted image data written in the deletion history file. In step S202, the failure avoidance setting calculation module 55 calculates a camera proper value as a reference from the shooting setting value in the read shooting setting information, and the camera proper value and the shooting setting actually applied at the time of shooting. Compare The camera proper value is a standard set value such as an exposure value when the exposure value is calculated according to a preset program diagram as a reference. That is, in step S202, the setting value that the camera system 1 sets as an appropriate value is compared with the setting value of the deleted image data.

そして、ステップS203で、失敗回避設定算出モジュール55は、比較して得た差分を頻度分布としてリスト化する。上記ステップS201〜ステップS203は、フラッシュROM29の削除履歴から削除画像データが無くなるまで(ステップS204:YES)繰り返される(ステップS204:NO)。   In step S203, the failure avoidance setting calculation module 55 lists the differences obtained by comparison as a frequency distribution. Steps S201 to S203 are repeated until there is no deleted image data in the deletion history of the flash ROM 29 (step S204: YES) (step S204: NO).

削除履歴から削除画像データが無くなると(ステップS204:YES)、失敗回避設定算出モジュール55はループを抜けて、リスト化された頻度分布から、撮影設定値の補正値を算出する(ステップS205〜S207)。補正値の算出は、統計処理によって実行される。具体的には、ステップS205で、失敗回避設定算出モジュール55は、削除履歴として、頻度の少ない値の区間[a,b]を算出する。頻度の少ない値の区間[a,b]は、2つの極大値a、bに挟まれた区間として定義される。そして、ステップS206において失敗回避設定算出モジュール55は、区間[a,b]のうち、最も削除履歴の少ない、即ち、最も頻度の低い値差cを算出する。そして、値cを区間[a,b]における補正値として設定する。   When the deleted image data disappears from the deletion history (step S204: YES), the failure avoidance setting calculation module 55 exits the loop and calculates the correction value of the shooting setting value from the listed frequency distribution (steps S205 to S207). ). The correction value is calculated by statistical processing. Specifically, in step S205, the failure avoidance setting calculation module 55 calculates a section [a, b] having a less frequent value as the deletion history. The interval [a, b] having a low frequency value is defined as an interval between two maximum values a and b. In step S <b> 206, the failure avoidance setting calculation module 55 calculates the value difference c having the smallest deletion history, that is, the least frequent value in the section [a, b]. Then, the value c is set as a correction value in the section [a, b].

例えば、特定の測光モードを基準とした場合に、削除された画像データの露出値が何段分の差を持つかを頻度分布としてリスト化できる。例えば、1/3段ごとに設定された区間において、+1/3段と−1段とに極大値があれば、この区間において削除履歴の最も少ない、例えば−1/3段の補正値が設定される。設定された露出値は、シャッタスピードが固定された場合には絞り値の調整値として用い、絞り値が固定された場合にはシャッタスピード調整値として適用される。   For example, when a specific photometry mode is used as a reference, it is possible to list how many steps the exposure value of the deleted image data has as a frequency distribution. For example, in a section set every 1/3 stage, if there are local maximum values at +1/3 stage and -1 stage, a correction value of, for example, -1/3 stage having the smallest deletion history is set in this section. Is done. The set exposure value is used as an aperture value adjustment value when the shutter speed is fixed, and is applied as a shutter speed adjustment value when the aperture value is fixed.

上記のような制御手順は、露出値に限らず様々な撮影設定に対して適用され得る。例えば、コントラストの強弱、彩度の強弱、フォーカスポイントの前後、ズーミングの大小等を撮影設定値のひとつとして取り扱ってもよい。このように、失敗回避設定算出モジュール55は、削除画像データから抽出された撮影環境情報に基づいて、カメラシステム1における撮影設定値の補正値を生成する。   The control procedure as described above can be applied not only to the exposure value but also to various shooting settings. For example, contrast strength, saturation strength, before and after the focus point, zooming size, and the like may be handled as one of the shooting setting values. As described above, the failure avoidance setting calculation module 55 generates a correction value for the shooting setting value in the camera system 1 based on the shooting environment information extracted from the deleted image data.

なお、失敗回避設定算出モジュール55は、削除されなかった撮影画像の画像ファイルからも情報を取得してもよい。即ち、削除されなかった画像の枚数を勘案して、撮影枚数に対する削除画像データの枚数で頻度を置き換えることにより、撮影画像を削除したユーザの意図を反映した、より精度の高い失敗回避設定を算出できる。   Note that the failure avoidance setting calculation module 55 may also acquire information from the image file of the captured image that has not been deleted. In other words, taking into account the number of images that were not deleted, replacing the frequency with the number of deleted image data relative to the number of shots, calculates a more accurate failure avoidance setting that reflects the intention of the user who deleted the shot image it can.

また、カメラシステム1の稼働時間あるいは撮影枚数および削除枚数が少ない段階では、IP通信部31を通じて、他のカメラシステム1または電子機器から失敗回避設定を取得してもよい。ただし、ユーザ固有の傾向は反映され難くなるので、カメラシステム1で生成された失敗回避設定を重視しつつ、外部から導入された失敗回避設定を参照するように、失敗回避設定の由来に応じて失敗回避設定に重み付けをしてもよい。   Further, the failure avoidance setting may be acquired from another camera system 1 or an electronic device through the IP communication unit 31 when the operating time of the camera system 1 or the number of shots and the number of deleted images is small. However, since the user-specific tendency is difficult to be reflected, the failure avoidance setting generated by the camera system 1 is emphasized and the failure avoidance setting introduced from the outside is referred to according to the origin of the failure avoidance setting. The failure avoidance setting may be weighted.

図9は、失敗回避設定を利用して撮影を実行する場合の本体CPU27の制御手順を示す流れ図である。撮影は、ユーザがレリーズスイッチ32を押し下げた場合にカメラシステム1において実行される。   FIG. 9 is a flowchart showing a control procedure of the main body CPU 27 when shooting is performed using the failure avoidance setting. Shooting is executed in the camera system 1 when the user depresses the release switch 32.

カメラシステム1において撮影が開始されると、本体CPU27は、撮影環境に関する撮影環境情報を取得する(ステップS301)。次に、本体CPU27は、フラッシュROM29に格納された失敗回避設定ファイルから、取得した撮影環境情報と共通する撮影環境情報に対応した失敗回避設定を読み込む(ステップS302)。   When shooting is started in the camera system 1, the main body CPU 27 acquires shooting environment information related to the shooting environment (step S301). Next, the main body CPU 27 reads from the failure avoidance setting file stored in the flash ROM 29 the failure avoidance setting corresponding to the shooting environment information common to the acquired shooting environment information (step S302).

読み込まれた失敗回避設定は、この撮影における撮影設定値としてカメラシステム1に設定され(ステップS303)、カメラシステム1は、当該撮影設定の下に撮像素子9を露光して撮影を実行する(ステップS304)。このように、カメラシステム1の本体CPU27は、失敗回避設定算出モジュール55が生成した失敗回避設定を撮影設定値として撮影を実行する。カメラシステム1により撮影された撮影画像は、撮影設定情報と共に、撮影環境情報も併せて記録された画像ファイル50として二次記録媒体34に記録される(ステップS305)。こうして、撮影に係る本体CPU27の制御手順が終了する。   The read failure avoidance setting is set in the camera system 1 as a shooting setting value in this shooting (step S303), and the camera system 1 performs shooting by exposing the image sensor 9 under the shooting setting (step S303). S304). As described above, the main body CPU 27 of the camera system 1 performs shooting using the failure avoidance setting generated by the failure avoidance setting calculation module 55 as the shooting setting value. A photographed image photographed by the camera system 1 is recorded on the secondary recording medium 34 as an image file 50 in which photographing environment information is recorded together with photographing setting information (step S305). Thus, the control procedure of the main body CPU 27 for photographing is completed.

このように、カメラシステム1は、撮影環境情報に対応した失敗回避設定を適用して撮影するので、カメラシステム1が算出した撮影設定値がユーザの好みの設定値である可能性が高く、ユーザは削除すべき画像を撮影することが少なくなる。また、失敗回避設定は撮影環境情報に応じて使い分けられるので、例えば、白とびを避けたい夏の海の撮影と、多少の白とびを許容できる冬の雪山の撮影など、さまざまな撮影環境状況において、それぞれ適切な失敗回避設定を適用できる。   As described above, since the camera system 1 performs shooting by applying the failure avoidance setting corresponding to the shooting environment information, there is a high possibility that the shooting setting value calculated by the camera system 1 is the user's favorite setting value. Takes less images to delete. In addition, failure avoidance settings are used according to the shooting environment information, so in various shooting environment situations, for example, shooting in the summer sea where you want to avoid overexposure, and shooting in the snowy mountains in winter where you can allow some overexposure. Appropriate failure avoidance settings can be applied.

なお、カメラシステム1には、ユーザが希望しない場合に、失敗回避設定の読み込みを禁止する設定を設けてもよい。また、カメラシステム1の動作モードがマニュアル撮影等に設定された場合には、失敗回避設定の読み込みを自動的に控えてもよい。   The camera system 1 may be provided with a setting for prohibiting reading of the failure avoidance setting when the user does not desire. Further, when the operation mode of the camera system 1 is set to manual shooting or the like, reading of the failure avoidance setting may be automatically refrained.

図10は、カメラシステム1による撮影において撮影環境情報を取得する場合について、本体CPU27の制御手順を示す流れ図である。すなわち、図9におけるステップS301の具体的な処理を示す。撮影環境情報を取得する場合、本体CPU27は、カレンダ部54から撮影日時に関する日時情報を取得する(ステップS401)。日時情報は、GPSモジュール16が受信したGPS信号を参照することにより、高精度に較正できる。   FIG. 10 is a flowchart showing a control procedure of the main body CPU 27 when acquiring shooting environment information in shooting by the camera system 1. That is, the specific process of step S301 in FIG. 9 is shown. When acquiring the shooting environment information, the main body CPU 27 acquires date / time information regarding the shooting date / time from the calendar unit 54 (step S401). The date information can be calibrated with high accuracy by referring to the GPS signal received by the GPS module 16.

また、本体CPU27は、GPSモジュール16から、緯度情報、経度情報および高度を含む位置情報を取得する(ステップS402)。このとき、GPSモジュール16から、高精度な時間情報も併せて取得してもよい。更に、本体CPU27は、IP通信部31を通じて、天候情報を取得する(ステップS403)。更に、本体CPU27は、IP通信部31を通じて、地図情報(ステップS404)も取得する。   Further, the main body CPU 27 acquires position information including latitude information, longitude information, and altitude from the GPS module 16 (step S402). At this time, highly accurate time information may also be acquired from the GPS module 16. Furthermore, the main body CPU 27 acquires weather information through the IP communication unit 31 (step S403). Furthermore, the main body CPU 27 also acquires map information (step S404) through the IP communication unit 31.

このように、カメラシステム1において、本体CPU27は、日時情報、位置情報、天候情報および地図情報等の環境情報を取得する要素を有して環境情報を取得する。更に、本体CPU27は、これらの情報を総合的に勘案して、撮影環境情報を生成する(ステップS406)。例えば、日時情報および位置情報を合わせて取得することにより、撮影環境が朝方、昼間、夕方、夜間のいずれの時間帯に分類されるかを判定できる。また、日の出および日の入りの時間帯は光線状態が特殊なので、独立した撮影環境として分類としてもよい。このように、本体CPU27は、収集した環境情報から失敗回避設定を保存する場合に関連付ける撮影環境情報を生成する。   As described above, in the camera system 1, the main body CPU 27 has environmental elements such as date and time information, position information, weather information, and map information, and acquires environmental information. Further, the main body CPU 27 comprehensively considers these pieces of information to generate shooting environment information (step S406). For example, by acquiring the date / time information and the position information together, it is possible to determine whether the shooting environment is classified into morning, daytime, evening, or nighttime. Moreover, since the light beam state is special in the sunrise and sunset time zones, it may be classified as an independent shooting environment. As described above, the main body CPU 27 generates shooting environment information associated with the case where the failure avoidance setting is stored from the collected environment information.

また、天候情報を併せて判定することにより、被写界の色温度が曇天のものであったか晴天のものであったかが判る。更に、地図情報を併せることにより、撮影位置が何らかの施設内であるか、屋外であるかを判定して分類できる。また更に、海、山等の特定の環境であるか否かも判定できる。カメラシステム1に、他のセンサを設けて、より多くの撮影環境情報を収集してもよい。このように、収集する環境情報の項目を増やせば、失敗回避設定ファイルでマトリックス状に定義する撮影環境情報の分類を細分化することができ、より具体的な環境に精度良く対応することができる。   Further, by determining together with the weather information, it can be determined whether the color temperature of the object scene is cloudy or clear. Further, by combining the map information, it is possible to determine and classify whether the shooting position is in some facility or outdoors. Furthermore, it can be determined whether or not the environment is a specific environment such as a sea or a mountain. Another sensor may be provided in the camera system 1 to collect more shooting environment information. In this way, if the number of environment information items to be collected is increased, it is possible to subdivide the classification of shooting environment information defined in a matrix form in the failure avoidance setting file, and to deal with more specific environments with high accuracy. .

なお、カメラシステム1にブラケッティングモードが設定された場合に、本体CPU27は、失敗回避設定の補正値cを中心として、範囲[a,b]で撮影設定値を変化させてもよい。例えば、ブラケッティングの対象となる撮影設定値が露出値であるとすると、補正値cを中心として、範囲[a,b]において露出値が1/3段ずつずれる撮影設定値でブラケッティング撮影を実行する。   When the bracketing mode is set in the camera system 1, the main body CPU 27 may change the shooting setting value in the range [a, b] around the correction value c of the failure avoidance setting. For example, if the shooting setting value to be bracketed is an exposure value, bracketing shooting is performed with a shooting setting value in which the exposure value is shifted by 1/3 step in the range [a, b] around the correction value c. Execute.

また、本体CPU27は、ブラケッティングに対して適用する撮影設定値として、現在の撮影環境情報に対応した失敗回避設定ファイルにおいて、失敗回避設定を分類する撮影環境情報の隣接する項目に対応した複数の失敗回避設定を適用してもよい。再び図7を参照すると、時刻に関する環境設定情報を固定して、春夏秋冬に属する隣接した失敗回避設定を用いてブラケッティングを実行してもよい。これにより、例えば、屋内であって季節による撮影設定情報の影響が小さい場合に有効なブラケッティング撮影を実行できる。   In addition, the main body CPU 27 uses a plurality of items corresponding to the adjacent items of the shooting environment information for classifying the failure avoidance setting in the failure avoidance setting file corresponding to the current shooting environment information as shooting setting values to be applied to the bracketing. Failure avoidance settings may be applied. Referring to FIG. 7 again, the environment setting information regarding the time may be fixed, and bracketing may be executed using adjacent failure avoidance settings belonging to spring, summer, autumn and winter. Thereby, for example, it is possible to execute bracketing shooting effective when the influence of shooting setting information according to the season is small indoors.

このように、失敗回避設定は撮影環境情報に関連付けて失敗回避設定ファイルに格納される。よって、撮影環境が変化した場合は、変化した撮影環境に応じた失敗回避設定が適用される。よって、撮影設定値のユーザによる補正を減らすことができると共に、撮影後に削除する画像ファイルを減らすことができる。   Thus, the failure avoidance setting is stored in the failure avoidance setting file in association with the shooting environment information. Therefore, when the shooting environment changes, the failure avoidance setting according to the changed shooting environment is applied. Therefore, it is possible to reduce the correction of the shooting setting value by the user and to reduce the image files to be deleted after shooting.

なお、カメラシステム1は、撮影モードとしてシーンモードを備える場合がある。シーンモードは、風景、ポートレート、夕日、夜景、動体撮影など、撮影環境条件に応じて選択された撮影設定条件の組み合わせを、カメラシステム1に予め実装して選択できるようにした撮影モードである。このため、失敗回避設定ファイルにおける撮影環境設定の組み合わせの一部は、特定のシーンモードにおいて想定された撮影環境の組み合わせと一致する場合がある。   The camera system 1 may have a scene mode as a shooting mode. The scene mode is a shooting mode in which a combination of shooting setting conditions selected according to shooting environment conditions such as landscape, portrait, sunset, night view, and moving body shooting can be mounted in advance on the camera system 1 and selected. . For this reason, some of the combinations of shooting environment settings in the failure avoidance setting file may coincide with the combinations of shooting environments assumed in the specific scene mode.

そこで、そのような失敗回避設定は、撮影設定値としてではなく、シーンモードの初期値に反映させてもよい。このように、失敗回避設定算出モジュール55は、生成した補正値により、撮影シーンに対応して用意された複数の撮影モードのいずれかに設定されている撮影条件を変更してもよい。   Therefore, such a failure avoidance setting may be reflected not in the shooting setting value but in the initial value of the scene mode. As described above, the failure avoidance setting calculation module 55 may change the shooting condition set in any of a plurality of shooting modes prepared corresponding to the shooting scene, based on the generated correction value.

なお、失敗回避設定算出モジュール55は、撮影画像が撮影された撮影時刻と、当該撮影画像が削除された削除時刻との間隔が、予め定められた閾値時間以内である場合に、補正値を算出することとしてもよい。これにより、二次記録媒体34の容量が足りなくなった場合、単に古い画像が不要になった場合等の画像の削除と、ユーザの撮影意図に沿わない撮影画像の意図的な削除とを峻別して、失敗回避設定算出モジュール55が有効な補正値を算出できる。   The failure avoidance setting calculation module 55 calculates a correction value when the interval between the shooting time when the shot image is shot and the deletion time when the shot image is deleted is within a predetermined threshold time. It is good to do. As a result, when the capacity of the secondary recording medium 34 is insufficient, the deletion of an image, such as when an old image is no longer necessary, and the intentional deletion of a shot image that does not conform to the user's shooting intention are distinguished. Thus, the failure avoidance setting calculation module 55 can calculate an effective correction value.

また、上述の処理においては、削除履歴に複数の削除画像データの情報が蓄積された状況を想定して説明したが、複数の削除画像データは、連続的して削除指定が実行された画像データを対象画像データとしても良い。これにより、失敗回避設定算出モジュール55は、撮影画像を削除した特定の原因がより強く反映された補正値を算出するこができる。   Further, in the above-described processing, the description has been made on the assumption that information of a plurality of deletion image data is accumulated in the deletion history, but the plurality of deletion image data is image data for which deletion designation has been executed continuously. May be the target image data. As a result, the failure avoidance setting calculation module 55 can calculate a correction value that more strongly reflects the specific cause of deletion of the captured image.

図11は、図6に示した制御手順に換えて本体CPU27が実行し得る制御手順を示す流れ図である。即ち、十字ボタン36および決定ボタン37等を用いたユーザの操作により、削除すべき撮影画像が指定された場合に、本体CPU27は図11に示す制御手順を開始する。   FIG. 11 is a flowchart showing a control procedure that can be executed by the main body CPU 27 in place of the control procedure shown in FIG. That is, when the photographed image to be deleted is designated by the user's operation using the cross button 36, the decision button 37, etc., the main body CPU 27 starts the control procedure shown in FIG.

本体CPU27は、まず、削除が指定された撮影画像の画像ファイル50のタグデータ51から、当該撮影画像を撮影したときの撮影設定情報と撮影環境情報とを含む削除画像データを読み込む(ステップS501)。次に、本体CPU27は、読み込んだ削除画像データから、撮影環境情報と撮影設定情報とを抽出する(ステップS502)。   First, the main body CPU 27 reads the deleted image data including the shooting setting information and the shooting environment information when the shot image is shot from the tag data 51 of the shot image file 50 of which the deletion is specified (step S501). . Next, the main body CPU 27 extracts shooting environment information and shooting setting information from the read deleted image data (step S502).

次に、本体CPU27は、読み込んだ削除画像データ毎に、撮影環境情報に基づいて撮影設定情報を分類する(ステップS503)。更に、本体CPU27は、撮影環境情報により分類された撮影設定情報を、フラッシュROM29に格納された削除履歴テーブルに格納する(ステップS504)。こうして、本体CPU27は、撮影画像の削除後の制御手順を終了する。なお、上記一連の手順では、失敗回避設定は算出されない。   Next, the main body CPU 27 classifies the shooting setting information on the basis of the shooting environment information for each read deleted image data (step S503). Further, the main body CPU 27 stores the shooting setting information classified by the shooting environment information in the deletion history table stored in the flash ROM 29 (step S504). In this way, the main body CPU 27 ends the control procedure after deleting the photographed image. Note that the failure avoidance setting is not calculated in the above series of procedures.

図12は、上記した削除履歴テーブルのデータ構造を模式的に示す図である。図示のように、削除履歴テーブルにおいては、削除された撮影画像の撮影設定情報が、対応する撮影環境情報に応じて分類されている。既に説明した通り、撮影環境情報は、撮影日時、撮影場所、撮影方位、天候情報、人物、イベント情報等、多くの項目を有する。従って、撮影設定情報は、複数の撮影環境情報に応じてマトリックス状に配される。   FIG. 12 is a diagram schematically showing the data structure of the above-described deletion history table. As shown in the drawing, in the deletion history table, shooting setting information of deleted shot images is classified according to corresponding shooting environment information. As already described, the shooting environment information has many items such as shooting date / time, shooting location, shooting direction, weather information, person, event information, and the like. Therefore, the shooting setting information is arranged in a matrix according to a plurality of shooting environment information.

図13は、上記削除履歴テーブルを用いたカメラシステム1による撮影動作であり、本体CPU27が実行する制御手順を示す流れ図である。撮影動作は、ユーザがレリーズスイッチ32を押し下げた場合に開始される。   FIG. 13 is a flowchart showing a control procedure executed by the main body CPU 27, which is a photographing operation by the camera system 1 using the deletion history table. The shooting operation is started when the user depresses the release switch 32.

カメラシステム1において撮影動作が開始されると、本体CPU27は、撮影環境に関する撮影環境情報を取得する(ステップS601)。撮影環境情報の取得は、図10を参照して既に説明した手順で実行できる。   When the shooting operation is started in the camera system 1, the main body CPU 27 acquires shooting environment information related to the shooting environment (step S601). The acquisition of the shooting environment information can be performed by the procedure already described with reference to FIG.

次に、本体CPU27は、フラッシュROM29に格納された削除履歴テーブルから、取得した撮影環境情報と共通する撮影環境情報に対応する撮影設定情報を読み込む(ステップS602)。続いて、本体CPU27は、失敗回避設定算出モジュール55に、読み込んだ撮影設定情報から失敗回避設定を算出させる(ステップS603)。失敗回避設定の算出は、図8を参照して既に説明した手順で実行できる。   Next, the main body CPU 27 reads shooting setting information corresponding to shooting environment information common to the acquired shooting environment information from the deletion history table stored in the flash ROM 29 (step S602). Subsequently, the main body CPU 27 causes the failure avoidance setting calculation module 55 to calculate failure avoidance settings from the read shooting setting information (step S603). The calculation of the failure avoidance setting can be executed by the procedure already described with reference to FIG.

続いて、本体CPU27は、算出した失敗回避設定をカメラシステム1に適用した後(ステップS504)、撮像素子9を露光する(ステップS605)。更に、本体CPU27は、撮影画像に撮影環境情報を加えた画像ファイル50を生成して、二次記録媒体34に記録する(ステップS606)。こうして、撮影に係る本体CPU27の制御手順が終了する。   Subsequently, after applying the calculated failure avoidance setting to the camera system 1 (step S504), the main body CPU 27 exposes the image sensor 9 (step S605). Further, the main body CPU 27 generates an image file 50 in which shooting environment information is added to the shot image, and records it in the secondary recording medium 34 (step S606). Thus, the control procedure of the main body CPU 27 for photographing is completed.

上記のように、過去に削除した画像の撮影設定情報を撮影環境情報により分類して保持し、撮影する段階で失敗回避設定を算出することにより、常に最新の算出方法で失敗回避設定を算出できる。また、削除履歴テーブルに削除画像データが蓄積されるにつれて、算出される失敗回避設定の精度が向上される。   As described above, the shooting avoidance setting of the image deleted in the past is classified and held by the shooting environment information, and the failure avoidance setting is calculated at the stage of shooting, so that the failure avoidance setting can always be calculated by the latest calculation method. . Further, as the deletion image data is accumulated in the deletion history table, the accuracy of the calculated failure avoidance setting is improved.

なお、上記の一連の形態は、レンズ交換式一眼レフカメラであるカメラシステム1を例として説明した。しかしながら、上記の制御は、コンパクトデジタルカメラ、ミラーレス一眼カメラはもちろん、携帯電話などにも適用できる。また、失敗回避設定は、ビデオカメラの静止画および動画に対しても有効作用する。   The series of embodiments has been described by taking the camera system 1 which is a lens interchangeable single lens reflex camera as an example. However, the above control can be applied not only to compact digital cameras and mirrorless single-lens cameras, but also to mobile phones. The failure avoidance setting also works effectively for still images and moving images of the video camera.

図14は、撮影条件生成プログラムを実行するパーソナルコンピュータ60を模式的に示す図である。パーソナルコンピュータ60は、ケーブル61を介して、カメラシステム1と接続されている。   FIG. 14 is a diagram schematically illustrating a personal computer 60 that executes an imaging condition generation program. The personal computer 60 is connected to the camera system 1 via a cable 61.

パーソナルコンピュータ60は、ディスプレイ62、本体部63およびキーボード64を有する。本体部63は、予め定められた画像処理を施した上でディスプレイ62に画像を表示する背面モニタ制御部、カメラシステム1との通信により撮影画像データを格納する記録媒体、実行すべきプログラムをロードする場合に用いられる光学ドライブ65等を備える。また、本体部63は、ロードされたプログラムを実行するプロセッサを備える。   The personal computer 60 has a display 62, a main body 63 and a keyboard 64. The main body 63 is loaded with a rear monitor control unit that performs predetermined image processing and displays an image on the display 62, a recording medium that stores captured image data through communication with the camera system 1, and a program to be executed. An optical drive 65 or the like used in the case is provided. Further, the main body 63 includes a processor that executes the loaded program.

上記のようなパーソナルコンピュータ60は、プログラムを読み込ませることにより、図13までに示した制御手順を実行する画像処理装置として動作する。また、パーソナルコンピュータ60は、ケーブル61を介して、カメラシステム1から撮影画像データを受け取って処理の対象にできる。   The personal computer 60 as described above operates as an image processing apparatus that executes the control procedure shown in FIG. 13 by reading a program. Further, the personal computer 60 can receive photographed image data from the camera system 1 via the cable 61 and can process it.

よって、ユーザは、より大きなディスプレイ62およびキーボード64を用いて、撮影画像の削除、失敗回避設定の算出等ができる。また、カメラシステム1に蓄積した削除履歴および失敗回避設定をパーソナルコンピュータ60に格納することも、パーソナルコンピュータに格納した削除履歴および心配回避設定をカメラシステム1に転送することもできる。これにより、より大規模な削除履歴の蓄積、失敗回避設定の高度な算出等が可能になる。   Therefore, the user can delete the captured image, calculate the failure avoidance setting, and the like using the larger display 62 and keyboard 64. Further, the deletion history and failure avoidance setting stored in the camera system 1 can be stored in the personal computer 60, or the deletion history and worry avoidance setting stored in the personal computer can be transferred to the camera system 1. As a result, it is possible to accumulate a larger deletion history and to perform advanced calculation of failure avoidance settings.

なお、カメラシステム1およびパーソナルコンピュータ60の間のデータ転送は、図示するようにケーブル61を経由してもよいし、無線通信であってもよい。また、撮影画像データが格納された二次記録媒体34を受け渡すことにより、撮影画像データおよび設定情報を受け渡してもよい。   The data transfer between the camera system 1 and the personal computer 60 may be via a cable 61 as shown in the figure, or may be wireless communication. Alternatively, the photographic image data and the setting information may be delivered by delivering the secondary recording medium 34 in which the photographic image data is stored.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

また、特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示していない限り、あるいは、前の処理の出力を後の処理で用いない限り、任意の順序で実現し得ることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するとは限らない。   In addition, the execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the specification, and the drawings is particularly “before”, “ It should be noted that it can be realized in any order unless it is clearly indicated as “prior to” or the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it does not necessarily mean that implementation in this order is essential. Absent.

1 カメラシステム、2 カメラ本体、3 撮影レンズ、4 レンズ群、5 絞り、6 角速度センサ、7 レンズCPU、8 ファインダ光学系、9 撮像素子、10 メインミラー、11 焦点検出センサ、12 サブミラー、13 焦点板、14 ペンタプリズム、15 測光センサ、16 GPSモジュール、17 マイクロフォン、18 スピーカ、19 ローパスフィルタ、20 撮像基板、21 背面モニタ、23 駆動部、24 A/D変換部、25 画像処理部、26 コントラストAF回路、27 本体CPU、28 背面モニタ制御部、29 フラッシュROM、30 RAM、31 IP通信部、32 レリーズスイッチ、33 方位センサ、34 二次記録媒体、35 背面ダイヤル、36 十字ボタン、37 決定ボタン、38 再生モードボタン、39 削除ボタン、40 確認ボタン、43 選択枠、49 縮小画像、50 画像ファイル、51 タグデータ、52 サムネイル画像データ、53 本画像データ、54 カレンダ部、55 失敗回避設定算出モジュール、60 パーソナルコンピュータ、61 ケーブル、62 ディスプレイ、63 本体部、64 キーボード、65 光学ドライブ DESCRIPTION OF SYMBOLS 1 Camera system, 2 Camera body, 3 Shooting lens, 4 Lens group, 5 Aperture, 6 Angular velocity sensor, 7 Lens CPU, 8 Finder optical system, 9 Image sensor, 10 Main mirror, 11 Focus detection sensor, 12 Sub mirror, 13 Focus Plate, 14 Pentaprism, 15 Photometric sensor, 16 GPS module, 17 Microphone, 18 Speaker, 19 Low-pass filter, 20 Imaging board, 21 Rear monitor, 23 Drive unit, 24 A / D conversion unit, 25 Image processing unit, 26 Contrast AF circuit, 27 body CPU, 28 rear monitor control unit, 29 flash ROM, 30 RAM, 31 IP communication unit, 32 release switch, 33 direction sensor, 34 secondary recording medium, 35 rear dial, 36 cross-shaped button, 37 enter button 38 Playback mode Button, 39 delete button, 40 confirmation button, 43 selection frame, 49 reduced image, 50 image file, 51 tag data, 52 thumbnail image data, 53 main image data, 54 calendar section, 55 failure avoidance setting calculation module, 60 personal computer , 61 cable, 62 display, 63 main body, 64 keyboard, 65 optical drive

Claims (11)

ユーザが指定する削除対象の撮影画像データに対して、前記撮影画像データが生成された撮影時の撮影環境情報を抽出する抽出部と、
抽出された前記撮影環境情報に基づいて撮像装置の撮影条件を生成する生成部と
を備える撮影条件生成装置。
An extraction unit that extracts shooting environment information at the time of shooting when the shooting image data is generated for shooting image data to be deleted specified by the user;
An imaging condition generation apparatus comprising: a generation unit that generates imaging conditions for an imaging apparatus based on the extracted imaging environment information.
現在の前記環境情報を取得する取得部を備え、
前記生成部は、前記取得部が取得した現在の前記環境情報に基づいて前記撮影条件を生成する請求項1に記載の撮影条件生成装置。
An acquisition unit for acquiring the current environmental information;
The imaging condition generation device according to claim 1, wherein the generation unit generates the imaging condition based on the current environment information acquired by the acquisition unit.
前記生成部は、前記撮影画像データが撮影された時と削除指定された時の間隔が、予め定められた時間以内である場合に、前記撮影条件を生成する請求項1または2に記載の撮影条件生成装置。   3. The imaging according to claim 1, wherein the generation unit generates the imaging condition when an interval between when the captured image data is captured and when deletion is designated is within a predetermined time. Condition generator. 前記生成部は、ユーザが複数の前記撮影画像データに対し連続して削除指定を実行した場合に、前記撮影条件を生成する請求項1から3のいずれか1項に記載の撮影条件生成装置。   The imaging condition generation device according to any one of claims 1 to 3, wherein the generation unit generates the imaging condition when a user sequentially performs deletion designation on a plurality of the captured image data. 前記抽出部は、それぞれが複数の項目を有する複数種類の撮影環境パラメータによりマトリックス状に構成される撮影環境テーブルに、抽出した前記撮影環境情報を分類すると共に削除対象の前記撮影画像データが生成された撮影時の撮影条件を蓄積し、
前記生成部は、前記撮影環境テーブルに基づいて前記撮影条件を生成する請求項1から4のいずれか1項に記載の撮影条件生成装置。
The extraction unit classifies the extracted shooting environment information into a shooting environment table configured in a matrix by a plurality of types of shooting environment parameters each having a plurality of items, and the shooting image data to be deleted is generated. The shooting conditions at the time of shooting
5. The imaging condition generation device according to claim 1, wherein the generation unit generates the imaging conditions based on the imaging environment table.
前記生成部は、一度の撮影指示に対する前記撮影条件として、現在の前記環境情報に対応する前記撮影環境テーブルの対応項目と、前記対応項目に隣接する隣接項目のそれぞれに基づいて複数の前記撮影条件を生成する請求項5に記載の撮影条件生成装置。   The generation unit, as the shooting condition for one shooting instruction, a plurality of shooting conditions based on each of the corresponding item of the shooting environment table corresponding to the current environment information and the adjacent item adjacent to the corresponding item The imaging condition generation device according to claim 5 which generates 前記生成部は、それぞれが複数の項目を有する複数種類の撮影環境パラメータによりマトリックス状に構成される撮影条件テーブルに、推奨される前記撮影条件を生成して蓄積する請求項1から5のいずれか1項に記載の撮影条件生成装置。   6. The generation unit according to claim 1, wherein the generation unit generates and accumulates the recommended shooting conditions in a shooting condition table configured in a matrix by a plurality of types of shooting environment parameters each having a plurality of items. The imaging condition generation device according to item 1. 前記生成部は、一度の撮影指示に対する前記撮影条件として、現在の前記環境情報に対応する前記撮影条件テーブルの対応項目と、前記対応項目に隣接する隣接項目のそれぞれから前記撮影条件を選択する請求項7に記載の撮影条件生成装置。   The generation unit selects the shooting condition from each of a corresponding item of the shooting condition table corresponding to the current environment information and an adjacent item adjacent to the corresponding item as the shooting condition for one shooting instruction. Item 8. The imaging condition generation device according to Item 7. 請求項1から8のいずれか1項に記載の撮影条件生成装置を含む撮像装置であって、
前記生成部により生成された前記撮影条件により撮影を実行する制御部
を備える撮像装置。
An imaging apparatus including the imaging condition generation apparatus according to any one of claims 1 to 8,
An imaging apparatus comprising a control unit that performs imaging according to the imaging conditions generated by the generation unit.
前記生成部が生成する前記撮影条件に基づいて、撮影シーンに対応して用意された複数の撮影モードのいずれかに設定されている撮影条件を変更する変更部を備える請求項9に記載の撮像装置。   The imaging according to claim 9, further comprising: a changing unit that changes a shooting condition set in any of a plurality of shooting modes prepared corresponding to a shooting scene based on the shooting condition generated by the generation unit. apparatus. ユーザが指定する削除対象の撮影画像データに対して、前記撮影画像データが生成された撮影時の撮影環境情報を抽出する抽出ステップと、
抽出された前記撮影環境情報に基づいて撮像装置の撮影条件を生成する生成ステップと
をコンピュータに実行させる撮影条件生成プログラム。
An extraction step for extracting shooting environment information at the time of shooting when the shooting image data is generated for shooting image data to be deleted specified by the user;
A shooting condition generation program that causes a computer to execute a generation step of generating shooting conditions of an imaging device based on the extracted shooting environment information.
JP2010231797A 2010-10-14 2010-10-14 Photographing condition generation device, imaging device, and photographing condition generation program Withdrawn JP2012085223A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010231797A JP2012085223A (en) 2010-10-14 2010-10-14 Photographing condition generation device, imaging device, and photographing condition generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010231797A JP2012085223A (en) 2010-10-14 2010-10-14 Photographing condition generation device, imaging device, and photographing condition generation program

Publications (1)

Publication Number Publication Date
JP2012085223A true JP2012085223A (en) 2012-04-26

Family

ID=46243582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010231797A Withdrawn JP2012085223A (en) 2010-10-14 2010-10-14 Photographing condition generation device, imaging device, and photographing condition generation program

Country Status (1)

Country Link
JP (1) JP2012085223A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093691A (en) * 2012-11-05 2014-05-19 Olympus Imaging Corp Imaging apparatus, imaging method, and program
WO2020075954A1 (en) * 2018-10-10 2020-04-16 한국로봇융합연구원 Positioning system and method using combination of results of multimodal sensor-based location recognition
JP2020109915A (en) * 2019-01-07 2020-07-16 オリンパス株式会社 Imaging device, reproducing device, imaging method, and reproducing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093691A (en) * 2012-11-05 2014-05-19 Olympus Imaging Corp Imaging apparatus, imaging method, and program
US9641751B2 (en) 2012-11-05 2017-05-02 Olympus Corporation Imaging apparatus, imaging method thereof, and computer readable recording medium
WO2020075954A1 (en) * 2018-10-10 2020-04-16 한국로봇융합연구원 Positioning system and method using combination of results of multimodal sensor-based location recognition
JP2020109915A (en) * 2019-01-07 2020-07-16 オリンパス株式会社 Imaging device, reproducing device, imaging method, and reproducing method
JP7175772B2 (en) 2019-01-07 2022-11-21 オリンパス株式会社 Imaging device and imaging method

Similar Documents

Publication Publication Date Title
JP4178009B2 (en) Shooting system
US7978254B2 (en) Image capturing apparatus, its controlling method, and program
JP2009251557A (en) Imaging apparatus
JP5432664B2 (en) Imaging device
US8547454B2 (en) Digital image photographing apparatuses and methods of controlling the same to provide location information
JP2009042621A (en) Imaging apparatus and method
JP2012085223A (en) Photographing condition generation device, imaging device, and photographing condition generation program
US8917331B2 (en) Digital photographing apparatus and method of controlling the same
JP5638993B2 (en) Image display device and image display method
US20100079610A1 (en) Photographic apparatus and photographic control method, image display apparatus and image display method, and photographic system and control method thereof
JP5486662B2 (en) Imaging device and camera body
JP2012085228A (en) Photographing condition setting device, imaging device, image processing device, and photographing condition setting program
JP5851133B2 (en) Image reproducing apparatus, image reproducing method and program
US20110205396A1 (en) Apparatus and method, and computer readable recording medium for processing, reproducing, or storing image file including map data
JP4481185B2 (en) Image display device
JP5971169B2 (en) Image pickup apparatus and method for predicting and reporting the occurrence of hot flame in the apparatus
JP5800280B2 (en) Imaging apparatus, imaging condition control method, program
JP5176934B2 (en) Electronic camera
JP3913046B2 (en) Imaging device
US8576301B2 (en) Digital camera having plurality of image recording media and control method for the same
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program
JP5736715B2 (en) Imaging device
JP2014164028A (en) Imaging apparatus and switching method of imaging parameter and program
JP2015037219A (en) Imaging apparatus, imaging method, and program
JP2014002231A (en) Digital camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140107