JP2011061476A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2011061476A
JP2011061476A JP2009208659A JP2009208659A JP2011061476A JP 2011061476 A JP2011061476 A JP 2011061476A JP 2009208659 A JP2009208659 A JP 2009208659A JP 2009208659 A JP2009208659 A JP 2009208659A JP 2011061476 A JP2011061476 A JP 2011061476A
Authority
JP
Japan
Prior art keywords
imaging
setting
imaging apparatus
frequency
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009208659A
Other languages
Japanese (ja)
Other versions
JP5440047B2 (en
Inventor
Motoshi Nakayama
基司 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009208659A priority Critical patent/JP5440047B2/en
Publication of JP2011061476A publication Critical patent/JP2011061476A/en
Application granted granted Critical
Publication of JP5440047B2 publication Critical patent/JP5440047B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus whose operability can be improved. <P>SOLUTION: The imaging apparatus is equipped with: an imaging means for performing imaging under set imaging conditions; a detection means for detecting a photographing state; a frequency measurement means for measuring setting frequencies of the imaging conditions to the photographing state; and a determination means for determining the standard setting of the imaging conditions to the photographing state according to the setting frequencies. According to the present invention, the imaging apparatus whose operability can be improved is provided. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置に関し、特に撮像条件の標準設定を決定する撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that determines a standard setting of imaging conditions.

撮像装置を用いて撮影を行う使用者(ユーザ)は、自身の嗜好に合わせて撮像条件を所望の設定に変更することがある。撮像条件とは、例えば彩度、コントラスト、輪郭、色合い、白とび防止、黒潰れ防止、及び露出補正等を意味する。   A user (user) who performs shooting using the imaging apparatus may change the imaging condition to a desired setting according to his / her preference. The imaging conditions mean, for example, saturation, contrast, contour, hue, whiteout prevention, blackout prevention, exposure correction, and the like.

特許文献1には、撮像条件が読み出され、ユーザが設定する頻度が高い撮像条件で撮像できる撮像装置が開示されている。   Patent Document 1 discloses an imaging apparatus that can capture images under imaging conditions that are read out and frequently set by a user.

特開2006−238023号公報JP 2006-238023 A

しかしながら、特許文献1の技術では、ユーザの設定頻度を一律に反映させて撮像条件を定めてしまう。このため、撮像装置の操作性が悪くなることがある。本発明は上記課題に鑑み、操作性の向上が可能な撮像装置の提供を目的とする。   However, in the technique of Patent Document 1, the imaging condition is determined by uniformly reflecting the setting frequency of the user. For this reason, the operability of the imaging apparatus may deteriorate. In view of the above problems, an object of the present invention is to provide an imaging apparatus capable of improving operability.

本撮像装置は、設定された撮像条件で撮像を行う撮像手段(10)と、撮影状況を検出する検出手段(30、40、42、46、50、52、54)と、前記撮影状況に対する、前記撮像条件の設定頻度を計測する頻度計測手段(34)と、前記設定頻度に応じて、前記撮影状況に対する前記撮像条件の標準設定を決定する決定手段(38)と、を具備する。   The imaging apparatus includes: an imaging unit (10) that performs imaging under set imaging conditions; a detection unit (30, 40, 42, 46, 50, 52, and 54) that detects a shooting situation; and frequency measuring means (34) for measuring the set frequency of the imaging condition, according to the setting frequency, comprising a, a determining means (38) for determining the standard settings for the image pickup condition with respect to the shooting conditions.

上記構成において、前記撮像装置は、異なる種類の複数のレンズ(110)を選択的に装着可能であり、前記頻度計測手段は、前記撮像装置に装着されたレンズに対して、前記撮像条件の設定頻度を計測し、前記決定手段は、前記設定頻度に応じて、前記レンズの種類に対する前記撮像条件の標準設定を決定する構成とすることができる。   In the above configuration, the imaging device can selectively attach a plurality of different types of lenses (110), and the frequency measurement unit sets the imaging conditions for the lenses attached to the imaging device. The frequency may be measured, and the determination unit may determine a standard setting of the imaging condition for the lens type according to the setting frequency.

上記構成において、前記頻度計測手段は、前記撮像装置の使用者に対して、前記撮像条件の設定頻度を計測し、前記決定手段は、前記設定頻度に応じて、前記使用者に対する前記撮像条件の標準設定を決定する構成とすることができる。   In the above configuration, the frequency measuring unit measures a setting frequency of the imaging condition for a user of the imaging device, and the determining unit determines the imaging condition for the user according to the setting frequency. It may be configured to determine the standard settings.

上記構成において、前記決定手段は、前記設定頻度が基準値より大きい場合に、前記撮影状況に対する前記撮像条件の標準設定を決定する構成とすることができる。   The said structure WHEREIN: The said determination means can be set as the structure which determines the standard setting of the said imaging condition with respect to the said imaging | photography condition, when the said setting frequency is larger than a reference value.

上記構成において、前記撮像条件は複数であり、前記頻度計測手段は、前記複数の撮像条件の各々の設定頻度を計測し、前記決定手段は、複数の前記設定頻度の各々に応じて、前記撮影状況に対する前記複数の撮像条件のうち、少なくとも1つの撮像条件の標準設定を決定する構成とすることができる。   In the above configuration, the imaging condition is multiple, the frequency measuring means, said measuring each setting frequency of the plurality of imaging conditions, the determination means, in response to each of a plurality of the set frequency, the shooting It can be set as the structure which determines the standard setting of at least 1 imaging condition among the several imaging conditions with respect to a condition.

上記構成において、前記撮影状況は、被写体の輝度、時刻、場所、及び被写体中の人の顔の数、の少なくとも1つである構成とすることができる。   In the above configuration, the shooting situation may be at least one of the luminance of the subject, the time, the location, and the number of human faces in the subject.

本発明によれば、操作性の向上が可能な撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can improve operativity can be provided.

図1(a)及び図1(b)は実施例1に係る撮像装置を例示する斜視図である。FIG. 1A and FIG. 1B are perspective views illustrating an imaging apparatus according to the first embodiment. 図2は実施例1に係る撮像装置を例示するブロック図である。FIG. 2 is a block diagram illustrating the imaging apparatus according to the first embodiment. 図3は実施例1に係る撮像装置の制御を例示するフローチャートである。FIG. 3 is a flowchart illustrating the control of the imaging apparatus according to the first embodiment. 図4は実施例1に係る撮像装置の制御を例示するフローチャートである。FIG. 4 is a flowchart illustrating the control of the imaging apparatus according to the first embodiment. 図5は実施例1に係る撮像装置の制御を例示するフローチャートである。FIG. 5 is a flowchart illustrating the control of the imaging apparatus according to the first embodiment. 図6(a)及び図6(c)は撮像条件の設定回数及び基準値を例示するデータテーブルであり、図6(b)は新たに行われた撮影における撮像条件の設定を例示するテーブルである。FIGS. 6A and 6C are data tables illustrating the number of times of setting imaging conditions and reference values, and FIG. 6B is a table illustrating settings of imaging conditions in newly performed shooting. is there. 図7(a)及び図7(c)は露出補正の設定回数及び基準値を例示するデータテーブルであり、図7(b)は新たに行われた撮影に置ける露出補正の設定を例示するテーブルである。FIGS. 7 (a) and FIG. 7 (c) is a data table illustrating a set number and the reference value of exposure correction, FIG. 7 (b) is a table illustrating the setting of the exposure put the newly made photographing correction It is. 図8は実施例2に係る撮像装置の制御を例示するフローチャートである。FIG. 8 is a flowchart illustrating the control of the imaging apparatus according to the second embodiment. 図9は実施例3に係る撮像装置の制御を例示するフローチャートである。FIG. 9 is a flowchart illustrating the control of the imaging apparatus according to the third embodiment. 図10は実施例4に係る撮像装置の制御を例示するフローチャートである。FIG. 10 is a flowchart illustrating the control of the imaging apparatus according to the fourth embodiment. 図11は実施例5に係る撮像装置の制御を例示するフローチャートである。FIG. 11 is a flowchart illustrating the control of the imaging apparatus according to the fifth embodiment. 図12は実施例6に係る撮像装置の制御を例示するフローチャートである。FIG. 12 is a flowchart illustrating the control of the imaging apparatus according to the sixth embodiment. 図13は実施例6に係る撮像装置の制御を例示するフローチャートである。FIG. 13 is a flowchart illustrating the control of the imaging apparatus according to the sixth embodiment. 図14(a)から図14(d)は、ユーザ情報ディレクトリに格納された、撮像条件の設定回数の計測結果及び基準値を例示するデータテーブルである。FIG. 14A to FIG. 14D are data tables illustrating measurement results and reference values of the number of times of setting imaging conditions stored in the user information directory. 図15は実施例7に係る撮像装置の制御を例示するフローチャートである。FIG. 15 is a flowchart illustrating the control of the imaging apparatus according to the seventh embodiment. 図16は実施例7に係る撮像装置の制御を例示するフローチャートである。FIG. 16 is a flowchart illustrating the control of the imaging apparatus according to the seventh embodiment. 図17は実施例8に係る撮像装置の制御を例示するフローチャートである。FIG. 17 is a flowchart illustrating the control of the imaging apparatus according to the eighth embodiment. 図18は実施例8に係る撮像装置の制御を例示するフローチャートである。FIG. 18 is a flowchart illustrating the control of the imaging apparatus according to the eighth embodiment. 図19(a)及び19(b)は、表示部に表示される画像を例示する図である。19A and 19B are diagrams illustrating images displayed on the display unit.

図面を用いて、本発明の実施例について説明する。   Embodiments of the present invention will be described with reference to the drawings.

まず、実施例に係る撮像装置100の構成について説明する。図1(a)及び図1(b)の各々は、実施例に係る撮像装置100を正面側及び背面側の各々から例示する斜視図である。   First, the configuration of the imaging apparatus 100 according to the embodiment will be described. 1A and 1B are perspective views illustrating the imaging apparatus 100 according to the embodiment from the front side and the back side, respectively.

図1(a)に示すように、撮像装置100にはストロボ装着部101、シャッタボタン102、レンズ装着部103、及び記憶媒体装着部104が設けられている。   As illustrated in FIG. 1A, the imaging apparatus 100 includes a strobe mounting unit 101, a shutter button 102, a lens mounting unit 103, and a storage medium mounting unit 104.

ストロボ装着部101にはストロボ106が装着される。レンズ装着部103には、レンズ110が装着される。記憶媒体装着部104には、例えばSD(Secure Digital)カード等の携帯可能な記憶媒体112が装着される。また、撮像装置100に三脚108を装着することもできる。   A strobe 106 is attached to the strobe attachment unit 101. A lens 110 is attached to the lens attachment portion 103. The storage medium mounting unit 104 is mounted with a portable storage medium 112 such as an SD (Secure Digital) card. Further, the tripod 108 can be attached to the imaging apparatus 100.

レンズ装着部103には通信接点105が設けられており、通信接点105はレンズ110に設けられた通信接点107と電気的に導通する。また、レンズ110には、例えばレンズフィルタ等のレンズアクセサリ114を装着することができる。   The lens mounting portion 103 is provided with a communication contact 105, and the communication contact 105 is electrically connected to a communication contact 107 provided on the lens 110. In addition, a lens accessory 114 such as a lens filter can be attached to the lens 110.

図1(b)に示すように、撮像装置100の背面側には、操作部116、表示部118及び指紋検出部52が設けられている。なお、操作部116は、例えばボタン、ダイヤル等であり、ユーザは操作部116を操作して、撮像条件の設定やファイルの整理等をすることができる。表示部118は例えば液晶モニタ等であり、撮像された画像等を表示する。指紋検出部52は、ユーザの指紋を検出する。   As illustrated in FIG. 1B, an operation unit 116, a display unit 118, and a fingerprint detection unit 52 are provided on the back side of the imaging apparatus 100. Note that the operation unit 116 is, for example, a button or a dial, and the user can operate the operation unit 116 to set imaging conditions, organize files, and the like. The display unit 118 is a liquid crystal monitor, for example, and displays captured images. The fingerprint detection unit 52 detects the user's fingerprint.

次に、撮像装置100の構成について、ブロック図を用いて説明する。図2は撮像装置100の構成を例示するブロック図である。   Next, the configuration of the imaging apparatus 100 will be described using a block diagram. FIG. 2 is a block diagram illustrating the configuration of the imaging apparatus 100.

図2に示すように、撮像装置100は、電源スイッチ1、CPU(Central Processing Unit)2、シャッタスイッチ4、シャッタユニット6、シャッタ幕8、撮像素子10、A/D変換器12、制御回路14、D/A変換器16、タイミング発生回路18、画像表示メモリ20、メモリ22及び27、画像ファイル生成回路24、A/F(Auto Focus)ユニット26、並びに画像処理回路28を備える。ユーザは、電源スイッチ1を操作することにより撮像装置100を起動する。   As shown in FIG. 2, the imaging apparatus 100 includes a power switch 1, a CPU (Central Processing Unit) 2, a shutter switch 4, a shutter unit 6, a shutter curtain 8, an imaging element 10, an A / D converter 12, and a control circuit 14. , A D / A converter 16, a timing generation circuit 18, an image display memory 20, memories 22 and 27, an image file generation circuit 24, an A / F (Auto Focus) unit 26, and an image processing circuit 28. The user activates the imaging device 100 by operating the power switch 1.

シャッタスイッチ4は2種類のスイッチSW1及びSW2を含んでいる。ユーザがシャッタボタン102を、例えばシャッタストロークの半分まで押下した場合、シャッタスイッチ4に含まれるSW1がONとなる。SW1がONになったことに応じて、CPU2はAFユニット26に信号を送信する。信号を受信したAFユニット26は、通信接点105及び107を介して、レンズ110のフォーカスを操作する。AFユニット26は、例えば測距センサを含んでいる。ユーザがシャッタストロークの全ストロークまで押下した場合、SW2がONとなる。SW2がONになったことに応じて、CPU2はシャッタユニット6に信号を送信する。信号を受信したシャッタユニット6は、シャッタ幕8の開閉を行う。   The shutter switch 4 includes two types of switches SW1 and SW2. When the user presses the shutter button 102 to half the shutter stroke, for example, SW1 included in the shutter switch 4 is turned on. In response to the SW1 being turned on, the CPU 2 transmits a signal to the AF unit 26. The AF unit 26 that has received the signal operates the focus of the lens 110 via the communication contacts 105 and 107. The AF unit 26 includes, for example, a distance measuring sensor. When the user presses down all the shutter strokes, SW2 is turned on. In response to the SW2 being turned on, the CPU 2 transmits a signal to the shutter unit 6. The shutter unit 6 that has received the signal opens and closes the shutter curtain 8.

入射光は、レンズ110を介して撮像装置100に入射し、シャッタ幕8に到達する。上述のように、シャッタユニット6はシャッタ幕8の開閉を行う。シャッタ幕8が開いている場合、入射光は撮像素子10に到達する。すなわち、シャッタ幕8の開閉時間により、撮像素子10への露光時間が決まる。撮像素子10は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complimentary Metal Oxide Semiconductor)イメージセンサであり、入射光を撮像し、画像信号に変換する。すなわち、撮像素子10は、撮影対象である被写体を撮像し画像情報を出力する。このように、撮像装置100はデジタルカメラである。   Incident light enters the imaging device 100 via the lens 110 and reaches the shutter curtain 8. As described above, the shutter unit 6 opens and closes the shutter curtain 8. When the shutter curtain 8 is open, the incident light reaches the image sensor 10. That is, the exposure time to the image sensor 10 is determined by the opening / closing time of the shutter curtain 8. The imaging device 10 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complimentary Metal Oxide Semiconductor) image sensor, which captures incident light and converts it into an image signal. That is, the image sensor 10 captures an image of a subject to be imaged and outputs image information. As described above, the imaging apparatus 100 is a digital camera.

A/D変換器12は、撮像素子10が出力した画像データであるアナログ信号をデジタル信号に変換する。画像処理回路28は、A/D変換器12が出力した画像データに対して、所定の画素補間処理や色変換処理等を行う。制御回路14は、A/D変換器12、画像処理回路28、メモリ22及び画像ファイル生成回路24の制御を行う。メモリ22は、例えばRAM(Random Access Memory)であり、撮像素子10が撮像した画像データを格納する。また、メモリ22は、後述する撮像条件の設定頻度情報、標準設定、指紋情報、レンズ情報等を記憶する。撮像条件とは、例えば彩度、コントラスト、輪郭、色合い、白とび防止、黒潰れ防止、及び露出補正量等であり、ユーザが設定可能なものである。また、設定頻度とは、各撮像条件が例えば“AUTO”、“標準”、“強め”、及び“弱め”等に設定された頻度である。   The A / D converter 12 converts an analog signal that is image data output from the image sensor 10 into a digital signal. The image processing circuit 28 performs predetermined pixel interpolation processing, color conversion processing, and the like on the image data output from the A / D converter 12. The control circuit 14 controls the A / D converter 12, the image processing circuit 28, the memory 22, and the image file generation circuit 24. The memory 22 is, for example, a RAM (Random Access Memory), and stores image data captured by the image sensor 10. The memory 22 stores imaging condition setting frequency information, standard settings, fingerprint information, lens information, and the like, which will be described later. The imaging conditions are, for example, saturation, contrast, contour, hue, whiteout prevention, blackout prevention, exposure correction amount, and the like, which can be set by the user. The set frequency is a frequency at which each imaging condition is set to, for example, “AUTO”, “standard”, “strong”, “weak”, and the like.

画像ファイル生成回路24は、画像データをR,G,B(Red, Green, Blue:赤、緑、青)データからYCデータに変換し、例えばJPEG(Joint Photographic Coding Experts Group)形式に圧縮した画像ファイルを生成する。画像表示メモリ20は、表示部118に表示される画像データを格納する。D/A変換器16は、画像データであるデジタル信号をアナログ信号に変換する。タイミング発生回路18は、撮像素子10、A/D変換器12、D/A変換器16にクロック信号や制御信号を供給する。表示部118は、画像データを画像として表示する。メモリ27は、例えばフラッシュメモリやEEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性メモリであり、撮像条件の設定頻度情報、標準設定、指紋情報、レンズ情報等を記憶する。   The image file generation circuit 24 converts image data from R, G, B (Red, Green, Blue) data to YC data, and compresses the image data into, for example, JPEG (Joint Photographic Coding Experts Group) format. Generate a file. The image display memory 20 stores image data displayed on the display unit 118. The D / A converter 16 converts a digital signal that is image data into an analog signal. The timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 10, the A / D converter 12, and the D / A converter 16. The display unit 118 displays the image data as an image. The memory 27 is a nonvolatile memory such as a flash memory or an EEPROM (Electrically Erasable Programmable Read Only Memory), for example, and stores imaging condition setting frequency information, standard settings, fingerprint information, lens information, and the like.

また、図2に示すように撮像装置100は、測光センサ30、分類回路32、計測回路34、頻度演算回路36、標準設定決定回路38、時計40、レンズ情報検出回路46、顔検出部50、指紋検出部52、指紋検出回路54、記憶媒体装着部104、インターフェース(I/F)44、113及び115、ストロボ装着部101、レンズ装着部103、通信接点105、を備える。   The imaging apparatus 100 as shown in FIG. 2, the photometric sensor 30, the classification circuit 32, the measuring circuit 34, the frequency calculating circuit 36, the standard setting determination circuit 38, clock 40, lens information detection circuit 46, the face detection unit 50, fingerprint detection unit 52, a fingerprint detection circuit 54 comprises a storage medium mounting unit 104, an interface (I / F) 44,113 and 115, a strobe attachment portion 101, the lens mounting portion 103, communication contact 105.

さらに、撮像装置100には、例えばGPS(Global Positioning System)ユニットである位置情報検出部42、ストロボ106、レンズ110、及び記憶媒体112が装着される。撮像装置100は、異なる種類の複数のレンズ110を選択的に装着可能である。また、位置情報検出部42は、撮像装置100に含まれていてもよい。   Furthermore, the imaging apparatus 100 is equipped with, for example, a position information detection unit 42, a strobe 106, a lens 110, and a storage medium 112 which are GPS (Global Positioning System) units. The imaging apparatus 100 can selectively mount a plurality of different types of lenses 110. Further, the position information detection unit 42 may be included in the imaging device 100.

測光センサ30は被写体から反射される光量を検出する。分類回路32は撮像条件を分類する。計測回路34は、撮像条件の設定された回数を計測する。頻度演算回路36は、計測された撮像条件の設定回数から基準値を定める。標準設定決定回路38は、撮像条件の標準設定を決定する。時計40はCPU2に含まれ、撮影が行われた時刻を検出する。顔検出部50は、被写体中の人の顔の数を検出する。指紋検出部52はユーザの指紋情報を検出する。指紋検出回路54は、CPU2を介して、指紋検出部52が検出した指紋情報を受信し、指紋情報に基づきユーザを識別する。   The photometric sensor 30 detects the amount of light reflected from the subject. Classification circuit 32 classifies the image pickup condition. The measurement circuit 34 measures the number of times that the imaging condition is set. The frequency calculation circuit 36 determines a reference value from the set number of times of the measured imaging conditions. The standard setting determination circuit 38 determines the standard setting of the imaging conditions. The clock 40 is included in the CPU 2 and detects the time when the image was taken. The face detection unit 50 detects the number of human faces in the subject. The fingerprint detection unit 52 detects the fingerprint information of the user. The fingerprint detection circuit 54 receives the fingerprint information detected by the fingerprint detection unit 52 via the CPU 2 and identifies the user based on the fingerprint information.

レンズ110はメモリ111を備えている。メモリ111は、レンズ110の撮影距離、焦点距離、絞り値、開放F値等、レンズ110等の情報を格納している。撮像装置100とレンズ110とは、レンズ装着部103に設けられた通信接点105及びレンズ110に設けられた通信接点107を介して、通信を行う。レンズ情報検出回路46は、撮像装置100に取り付けられたレンズ110の情報を検出する。すなわち、レンズ情報検出回路46は、装着されたレンズ110の種類を検出する。   The lens 110 includes a memory 111. The memory 111 stores information on the lens 110, such as the shooting distance, focal length, aperture value, and open F value of the lens 110. The imaging device 100 and the lens 110 communicate with each other via a communication contact 105 provided on the lens mounting unit 103 and a communication contact 107 provided on the lens 110. The lens information detection circuit 46 detects information on the lens 110 attached to the imaging device 100. That is, the lens information detection circuit 46 detects the type of the mounted lens 110.

位置情報検出部42は撮影を行う位置を検出し、I/F44を介して撮像装置100と通信を行う。ストロボ106は、撮像装置100のストロボ装着部101に装着される。ストロボ装着部101は通信接点を含んでおり、ストロボ106に備えられた通信接点と通信を行う。記憶媒体112は、I/F113及び115を介して撮像装置100と通信を行う。   The position information detection unit 42 detects a shooting position and communicates with the imaging apparatus 100 via the I / F 44. The strobe 106 is attached to the strobe attachment unit 101 of the imaging apparatus 100. The strobe mounting unit 101 includes a communication contact, and communicates with the communication contact provided in the strobe 106. The storage medium 112 communicates with the imaging device 100 via the I / Fs 113 and 115.

次に、撮像装置100の制御について説明する。図3は撮像装置100の制御を例示するフローチャートである。   Next, a description will be given of the control of the imaging apparatus 100. FIG. 3 is a flowchart illustrating the control of the imaging apparatus 100.

図3に示すように、まずCPU2は、各撮像条件のflagを0とする(ステップS10)。ステップS10の後、CPU2は、各撮像条件のflagが1か判断する(ステップS11)。Yesの場合、ステップS12に進む。ステップS12については後述する。   As shown in FIG. 3, the CPU 2 first sets the flag of each imaging condition to 0 (step S10). After step S10, the CPU 2 determines whether the flag of each imaging condition is 1 (step S11). In the case of Yes, it progresses to step S12. Step S12 will be described later.

Noの場合、撮像素子10は撮像を行い、CPU2は撮像素子10が撮像した画像データを読み込む(ステップS13)。ステップS13の後CPU2は、例えばExif(Exchangeable Image File Format)形式の画像データから、複数の撮像条件の各々を検出する(ステップS14)。   In No, the image pick-up element 10 images, and CPU2 reads the image data imaged by the image pick-up element 10 (step S13). After step S13, the CPU 2 detects each of a plurality of imaging conditions from, for example, image data in an Exif (Exchangeable Image File Format) format (step S14).

ステップS14の後、撮像装置100は撮影状況を検出する(ステップS15)。より詳細に言えば、撮像装置100は撮影状況を検出し、撮影状況における複数の撮像条件の各々の設定回数を計測する。ステップS15の後、撮像装置100は、検出された撮影状況に対する撮像条件の標準設定決定の制御を行う(ステップS16)。ステップS15及びS16については後述する。ステップS16の後、CPU2は標準設定が決定されたか判断する(ステップS17)。   After step S14, the imaging apparatus 100 detects a shooting situation (step S15). More specifically, the imaging apparatus 100 detects a shooting situation and measures the set number of times for each of a plurality of imaging conditions in the shooting situation. After step S15, the imaging apparatus 100 controls the determination of the standard setting of the imaging condition for the detected shooting situation (step S16). Will be described later steps S15 and S16. After step S16, the CPU 2 determines whether the standard setting has been determined (step S17).

ステップS17においてNoの場合、ステップS11に戻る。Yesの場合、CPU2は、標準設定が決定された撮像条件のflagを1とする(ステップS18)。ステップS17の後、CPU2は撮影を続行するか判断する(ステップS19)。Noの場合、制御は終了する。   If No in step S17, the process returns to step S11. In the case of Yes, the CPU 2 sets the flag of the imaging condition for which the standard setting has been determined to 1 (step S18). After step S17, the CPU 2 determines whether to continue shooting (step S19). If No, the control ends.

Yesの場合、ステップS11に戻る。この場合、flagが1であるため、ステップS11でYesとなり、ステップS12に進む。CPU2は各撮像条件の標準設定を読み込む。つまり、標準設定が自動的に撮像条件となる(ステップS12)。ステップS12の後、撮像素子10は標準設定下で撮像を行い、CPU2は撮像素子10が撮像した画像データを読み込む(ステップS13)。ステップS14以降の制御は既述したものと同じであるため、説明を省略する。   If Yes, the flow returns to step S11. In this case, since the flag is 1, Yes is determined in step S11, and the process proceeds to step S12. The CPU 2 reads standard settings for each imaging condition. That is, the standard setting automatically becomes the imaging condition (step S12). After step S12, the image sensor 10 captures images under standard settings, and the CPU 2 reads image data captured by the image sensor 10 (step S13). Since the control after step S14 is the same as that already described, description thereof is omitted.

次に、撮影状況が被写体から反射される光量である場合の撮影状況検出制御を説明する。すなわち、実施例1に係る撮像装置100は、図3のステップS15の撮影状況検出ステップにおいて、輝度を検出する。図4は実施例1に係る撮像装置100の撮影状況検出制御を例示するフローチャートである。   Next, shooting state detection control when the shooting state is the amount of light reflected from the subject will be described. That is, the imaging apparatus 100 according to the first embodiment detects the luminance in the shooting state detection step of step S15 in FIG. FIG. 4 is a flowchart illustrating the shooting state detection control of the imaging apparatus 100 according to the first embodiment.

図4に示すように、図3のステップS14の後、測光センサ30は、測光センサ30は被写体から反射される光量を検出する。すなわち、測光センサ30は画像信号のうち、輝度信号をCPU2に出力する。CPU2は、受信した輝度信号に対数圧縮を行い、対数圧縮後のものを輝度(BV : Brightness Value)とする(ステップS20)。なお、測光センサ30は、撮像素子10が撮像を行う前に光量を検出してもよいし、撮像素子10が撮像した画像から光量を検出してもよい。   As shown in FIG. 4, after step S14 in FIG. 3, the photometric sensor 30 detects the amount of light reflected from the subject. That is, the photometric sensor 30 outputs a luminance signal among the image signals to the CPU 2. The CPU 2 performs logarithmic compression on the received luminance signal, and sets the result after logarithmic compression as luminance (BV: Brightness Value) (step S20). The photometric sensor 30 may detect the amount of light before the image sensor 10 captures an image, or may detect the amount of light from an image captured by the image sensor 10.

ステップS20の後、分類回路32は、輝度が2以下か判断する(ステップS21)。Yesの場合、計測回路34はBV=2における、複数の撮像条件の設定回数の各々を加算する(ステップS22)。   After step S20, the classification circuit 32 determines whether the luminance is 2 or less (step S21). In the case of Yes, the measurement circuit 34 adds each of the set times of the plurality of imaging conditions when BV = 2 (step S22).

ステップS21においてNoの場合、分類回路32は、輝度が4以下か判断する(ステップS23)。Yesの場合、計測回路34はBV=4に対する、複数の撮像条件の各々の設定回数を加算する(ステップS24)。   In the case of No in step S21, the classification circuit 32 determines whether the luminance is 4 or less (step S23). In the case of Yes, the measurement circuit 34 adds the set times of each of the plurality of imaging conditions for BV = 4 (step S24).

ステップS23においてNoの場合、分類回路32は、検出された輝度が6以下か判断する(ステップS25)。Yesの場合、計測回路34はBV=6に対する、複数の撮像条件の各々の設定回数を加算する(ステップS26)。   In the case of No in step S23, the classification circuit 32 determines whether the detected luminance is 6 or less (step S25). In the case of Yes, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions for BV = 6 (step S26).

ステップS25においてNoの場合、分類回路32は、検出された輝度が8以下か判断する(ステップS27)。Yesの場合、計測回路34はBV=8に対する、複数の撮像条件の各々の設定回数を加算する(ステップS28)。   In the case of No in step S25, the classification circuit 32 determines whether the detected luminance is 8 or less (step S27). In the case of Yes, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions for BV = 8 (step S28).

ステップS27においてNoの場合、分類回路32は、検出された輝度が10以下か判断する(ステップS29)。Yesの場合、計測回路34はBV=10に対する、複数の撮像条件の各々の設定回数を加算する(ステップS30)。   In the case of No in step S27, the classification circuit 32 determines whether the detected luminance is 10 or less (step S29). In the case of Yes, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions for BV = 10 (step S30).

ステップS29においてNoの場合、計測回路34は高輝度に対する、複数の撮像条件の各々の設定回数を加算する(ステップS31)。ステップS22、S24、S26、S28、S30及びS31の後、撮影状況検出制御は終了し、図3のステップS16に進む。   In the case of No in step S29, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions for high luminance (step S31). After Steps S22, S24, S26, S28, S30, and S31, the shooting state detection control ends, and the process proceeds to Step S16 in FIG.

次に、ステップS16の標準設定決定制御について説明する。図5は実施例1に係る撮像装置100の標準設定決定制御を例示するフローチャートである。   Next, the standard setting determination control in step S16 will be described. FIG. 5 is a flowchart illustrating the standard setting determination control of the imaging apparatus 100 according to the first embodiment.

図5に示すように、頻度演算回路36は、複数の撮像条件の各々の設定回数から、基準値を算出する(ステップS40)。基準値の算出例については後述する。   As shown in FIG. 5, the frequency calculation circuit 36 calculates a reference value from the set number of times for each of the plurality of imaging conditions (step S40). It will be described later example of calculation of the reference value.

ステップS40の後、標準設定決定回路38は、各撮像条件の設定頻度(図中では“頻度”と表記)が基準値より大きいか判断する(ステップS41)。Yesの場合、メモリ27は、設定頻度が基準値より大きい撮像条件を記憶する(ステップS42)。   After step S40, the standard setting determination circuit 38 determines whether the setting frequency of each imaging condition (indicated as “frequency” in the drawing) is greater than the reference value (step S41). In the case of Yes, the memory 27 stores the imaging condition whose setting frequency is greater than the reference value (step S42).

ステップS42の後、標準設定決定回路38は、撮影状況に対する撮像条件の標準設定を決定する(ステップS43)。より詳細に言えば、標準設定決定回路38は、設定頻度が基準値より大きい場合に、撮影状況ごとの撮像条件の標準設定を決定する。ステップS41においてNoの場合、標準設定決定回路38は標準設定を決定しない(ステップS44)。ステップS43の後、又はステップS44の後、標準設定決定制御は終了する。   After step S42, the standard setting determination circuit 38 determines the standard setting of the imaging condition for the shooting situation (step S43). More specifically, the standard setting determination circuit 38 determines the standard setting of the imaging condition for each imaging situation when the setting frequency is greater than the reference value. If No in step S41, the standard setting determining circuit 38 does not determine the standard setting (step S44). After step S43 or after step S44, the standard setting determination control ends.

次に、図5のステップS40〜S43に例示した基準値の決定、及び標準条件の決定について、具体例を用いてより詳細に説明する。図6(a)は、制御開始前における撮像条件の設定回数の計測結果、及び基準値を例示するデータテーブルである。図6(b)は、図3のステップS14において検出された、複数の撮像条件の設定を例示するテーブルである。図6(c)は、図5のステップS40において基準値が算出された後における、撮像条件の設定回数及び基準値を例示するデータテーブルである。   Next, the determination of the reference value and the determination of the standard condition exemplified in steps S40 to S43 in FIG. 5 will be described in more detail using a specific example. FIG. 6A is a data table exemplifying the measurement result of the number of times of setting the imaging condition before the start of control and the reference value. FIG. 6B is a table exemplifying setting of a plurality of imaging conditions detected in step S14 of FIG. FIG. 6C is a data table illustrating the set number of imaging conditions and the reference value after the reference value is calculated in step S40 of FIG.

図7(a)は、制御開始前における露出補正の設定回数、及び基準値を例示するデータテーブルである。図7(b)は、図3のステップS14において検出された、露出補正の設定を例示するテーブルである。図7(c)は、図5のステップS40において基準値が算出された後における、露出補正の設定回数及び基準値を例示するデータテーブルである。   FIG. 7A is a data table illustrating the number of exposure correction settings and a reference value before the start of control. FIG. 7B is a table illustrating the exposure correction setting detected in step S14 of FIG. FIG. 7C is a data table illustrating the number of exposure correction settings and the reference value after the reference value is calculated in step S40 of FIG.

なお、図6(a)から図7(c)においては、BV=2の場合のみ示しているが、実際には、分類回路32は、BV=2、4、6、8、10、及び10より高い高輝度、の各場合についても分類を行っている(図5のステップS22、S24,S26、S28、S30、及びS31)。不揮発性メモリであるメモリ27には、各輝度に対応したディレクトリが格納されている(図2参照)。BV=2に対応するディレクトリ(以下BV2ディレクトリ)には図6(a)及び図7(a)に示したデータテーブルが格納されている。また、制御終了後、BV2ディレクトリには、図6(c)及び図7(c)に示したデータテーブルが格納される。各輝度に対応するディレクトリにも同様に、図6(a)、図6(c)、図7(a)及び図7(c)に示したようなデータテーブルが格納されている。   In FIGS. 6A to 7C, only the case of BV = 2 is shown, but in reality, the classification circuit 32 has BV = 2, 4, 6, 8, 10, and 10. Classification is also performed for each case of higher luminance (steps S22, S24, S26, S28, S30, and S31 in FIG. 5). A directory corresponding to each luminance is stored in the memory 27 which is a nonvolatile memory (see FIG. 2). In the directory corresponding to BV = 2 (hereinafter referred to as BV2 directory), the data tables shown in FIGS. 6A and 7A are stored. After the control is completed, the data table shown in FIGS. 6C and 7C is stored in the BV2 directory. Similarly, the data tables as shown in FIG. 6A, FIG. 6C, FIG. 7A, and FIG.

図6(a)から図6(c)に示すように、複数の撮像条件(彩度、コントラスト、色合い、白とび防止、及び黒潰れ防止)の設定回数が計測されている。より具体的には、複数の撮像条件である彩度、コントラスト、色合い、白とび防止、及び黒潰れ防止、の各々が、“AUTO”、“標準”、“強め”、及び“弱め”の各々に設定された設定回数が計測されている。“AUTO”とは撮像装置100が自動的に設定した状態のことである。“標準”、“強め”、及び“弱め”は、それぞれユーザが設定した状態であり、“標準”は“強め”と“弱め”の中間の状態を表す。   FIG 6 (a) as shown in FIG. 6 (c), a plurality of imaging conditions (saturation, contrast, hue, overexposure prevention, and blackout prevention) set number of are measured. More specifically, each of “AUTO”, “standard”, “strong”, and “weak” is a plurality of imaging conditions such as saturation, contrast, hue, whiteout prevention, and blackout prevention. The set number of times set in is measured. “AUTO” is a state automatically set by the imaging apparatus 100. “Standard”, “strong”, and “weak” are states set by the user, respectively, and “standard” represents an intermediate state between “strong” and “weak”.

図6(a)に示すように、BV=2の撮影条件において、図4のステップS22までに、79回の撮影に用いられた撮像条件が計測されている。この例では、頻度演算回路36は、合計回数の60%に相当する値を基準値として定める。すなわち、表1においては、基準値は47となる。分類回路32がBV=2に分類を行うと(図4のステップS21)、CPU2はBV2ディレクトリを抽出する。   As shown in FIG. 6A, under the imaging condition of BV = 2, the imaging condition used for 79 times of imaging is measured until step S22 in FIG. In this example, the frequency calculation circuit 36 determines a value corresponding to 60% of the total number of times as a reference value. That is, in Table 1, the reference value is 47. When the classification circuit 32 classifies BV = 2 (step S21 in FIG. 4), the CPU 2 extracts the BV2 directory.

図6(b)に示すように、新たに行われた撮像では、彩度が“強め”、コントラストが“AUTO”、色合いが“弱め”、白とび防止が“弱め”、黒潰れ防止が“標準”に各々設定されている。   As shown in FIG. 6B, in the newly performed imaging, the saturation is “high”, the contrast is “AUTO”, the hue is “weak”, the overexposure prevention is “weak”, and the black crush prevention is “ They are respectively set to the standard ".

図6(c)に示すように、計測回路34は、撮像が行われるまでの設定回数に、新たに行われた撮像の撮像条件の設定回数を加算する(図4のステップS22)。図6(c)のデータテーブル中で、二重下線が付された部分が、加算されたものである。加算の結果、合計回数は80回となる。頻度演算回路36は、合計回数である80の60%に相当する48を基準値として定める(図5のステップS40)。   As shown in FIG. 6C, the measurement circuit 34 adds the set number of imaging conditions for newly performed imaging to the set number of times until imaging is performed (step S22 in FIG. 4). In the data table of FIG. 6C, the part with double underline is added. The result of the addition, the total number is 80 times. The frequency calculation circuit 36 determines 48 corresponding to 60% of 80 which is the total number of times as a reference value (step S40 in FIG. 5).

標準設定決定回路38は、各撮像条件の設定頻度の各々が基準値より大きいか判断する(図5のステップS41)。図6(c)に破線で囲ったように、コントラストが“AUTO”に設定された頻度が50回、黒潰れ防止が強めに設定された頻度が50回であり、それぞれ基準値より大きい。従って、標準設定決定回路38は、BV=2の撮影状況に対して、コントラストの標準設定を“AUTO”に、黒潰れ防止の標準設定を“強め”に決定する(図5のステップS43)。すなわち、標準設定決定回路38は、複数の撮像条件の設定回数の各々に応じ、輝度ごとに分類された複数の撮像条件のうち、少なくとも1つの撮像条件の標準設定を決定する。また、加算された後のデータテーブルはBV2ディレクトリに格納され、BV2ディレクトリはメモリ27に格納される(図5のステップS42)。   The standard setting determination circuit 38 determines whether each setting frequency of each imaging condition is larger than the reference value (step S41 in FIG. 5). As surrounded by a broken line in FIG. 6C, the frequency at which the contrast is set to “AUTO” is 50 times, and the frequency at which the black crush prevention is set to be strong is 50 times, which are larger than the reference values. Accordingly, the standard setting determination circuit 38 determines the contrast standard setting as “AUTO” and the standard setting for preventing black crushing as “strong” for the shooting situation of BV = 2 (step S43 in FIG. 5). That is, the standard setting determination circuit 38 determines the standard setting of at least one imaging condition among the plurality of imaging conditions classified for each luminance, according to the number of times of setting the plurality of imaging conditions. Further, the data table after the addition is stored in the BV2 directory, and the BV2 directory is stored in the memory 27 (step S42 in FIG. 5).

次に図7(a)から図7(c)について説明する。図7(a)に示すように、BV=2の撮影条件において、露出補正が−3〜+3の各々に設定された設定回数が計測されている。頻度演算回路36は、図6(a)と同様に合計回数の60%に相当する値を基準値として定める。   Next, FIG. 7A to FIG. 7C will be described. As shown in FIG. 7A, the number of times of setting the exposure correction to −3 to +3 is measured under the shooting condition of BV = 2. The frequency calculation circuit 36 determines a value corresponding to 60% of the total number of times as a reference value, as in FIG.

図7(b)に示すように、新たに行われた撮像では、露出補正が+1に設定されている。   As shown in FIG. 7B, the exposure correction is set to +1 in the newly performed imaging.

図7(c)に示すように、計測回路34は、撮像が行われるまでの露出補正の設定回数に、新たに行われた撮像における露出補正の設定回数を加算する(図4のステップS22)。加算の結果、合計回数は80回となる。頻度演算回路36は、合計回数である80の60%に相当する48を基準値として定める(図5のステップS40)。標準設定決定回路38は、設定頻度が50回で基準値より大きい−1を、露出補正の標準設定として定める(ステップS43)。   As shown in FIG. 7 (c), the measuring circuit 34, the set number of exposure correction to the imaging is performed, adds the set number of exposure correction in the newly made the imaging (step S22 in FIG. 4) . The result of the addition, the total number is 80 times. The frequency calculation circuit 36 determines 48 corresponding to 60% of 80 which is the total number of times as a reference value (step S40 in FIG. 5). The standard setting determination circuit 38 sets −1, which is larger than the reference value at the setting frequency of 50 times, as the standard setting for exposure correction (step S43).

図4及び5に示すように、頻度演算回路36及び標準設定決定回路38は、表1〜6に例示した制御を、BV=2の場合だけでなく、BV=4〜10、及び高輝度、の各場合においても行い、各撮影状況に対する撮像条件の標準設定を決定する。なお、撮像条件は図6(a)から図7(c)に例示したものに限定されず、例えば、輪郭、調光補正量、ホワイトバランス、及びISO感度等を含んでいてもよい。また、撮像条件は複数に限らず、1つでもよい。   As shown in FIGS. 4 and 5, the frequency computing circuit 36 and standard setting determination circuit 38, the illustrated control in Table 1-6, as well as the case of BV = 2, BV = 4~10, and high brightness, In each case, the standard setting of the imaging condition for each shooting situation is determined. Note that the imaging conditions are not limited to those illustrated in FIG. 6A to FIG. 7C, and may include, for example, contour, dimming correction amount, white balance, ISO sensitivity, and the like. Further, the imaging condition is not limited to a plurality and may be one.

撮像条件の設定についても“AUTO”、“標準”、“強め”、“弱め”以外の設定があってもよい。露出補正には、−3〜+3以外の設定があってもよい。さらに、基準値は合計頻度の60%相当の値に限定されず、例えば50、70、80又は90%相当の値を基準値としてもよい。設定頻度が基準値より大きい場合に標準設定を定めるとしたが、設定頻度が基準値以上である場合に標準設定を定めるとしてもよい。   Regarding the setting of the imaging condition, there may be a setting other than “AUTO”, “standard”, “strong”, and “weak”. The exposure correction may have a setting other than −3 to +3. Further, the reference value is not limited to a value corresponding to 60% of the total frequency, and for example, a value corresponding to 50, 70, 80, or 90% may be used as the reference value. Although the standard setting is determined when the setting frequency is larger than the reference value, the standard setting may be determined when the setting frequency is equal to or higher than the reference value.

以上のように、標準設定決定回路38は、撮像条件の設定頻度に応じて標準設定を定める。また、図6(a)から図7(c)では、標準設定決定回路38は、基準値を用いて標準設定を定めるとしたが、これに限定されず、高頻度の撮像条件の設定を標準設定とすることができる。例えば、標準設定決定回路38は、最頻出の撮像条件の標準設定を決定することもできる。すなわち、標準設定決定回路38は、例えば図6(c)の彩度の標準設定を、最頻出の設定である“標準”に決定することができる。   As described above, the standard setting determination circuit 38 determines the standard setting in accordance with the imaging condition setting frequency. Further, in FIG. 7 (c) from FIG. 6 (a), the standard setting determination circuit 38 is set to define a standard set by using the reference value is not limited to this, the standard setting of imaging conditions frequently It can be set. For example, the standard setting determination circuit 38 can also determine the standard setting of the most frequent imaging condition. In other words, the standard setting determination circuit 38 can determine, for example, the standard setting of saturation in FIG. 6C to “standard” which is the most frequent setting.

実施例1によれば、例えば光量が少ない夜間、光量が多い昼間、また屋内や屋外、天候等、撮影の状況に応じて、ユーザは撮像条件の設定をすることなく、ユーザ自身の嗜好を反映した標準設定下において迅速な撮影が可能となる。   According to the first embodiment, for example, the user reflects the user's own preference without setting the imaging conditions according to shooting conditions such as nighttime when the amount of light is low, daytime when the amount of light is high, indoors, outdoors, and weather. Quick shooting is possible under the standard settings.

図4に示した例では、分類回路32は輝度(BV)の値ごとに分類したが、分類の仕方はこれに限定されない。つまり、分類回路32は輝度に応じて、例えば“晴天”、“雨天”等の天候ごと、例えば“昼間”、“夜間”等の時間ごとに分類してもよい。   In the example illustrated in FIG. 4, the classification circuit 32 performs classification for each luminance (BV) value, but the classification method is not limited to this. That is, the classification circuit 32 according to the luminance, for example, "clear sky", each weather "rain", etc., for example, "Day", may be classified for each "night", such as time.

実施例2は、撮影を行う時刻に分類し、撮像条件の標準設定を決定する例である。すなわち、実施例2に係る撮像装置100は、図3のステップS15の撮影状況検出ステップにおいて、時刻を検出する。図8は、実施例2に係る撮像装置100の撮影状況検出制御を例示するフローチャートである。   The second embodiment is an example in which the standard setting of the imaging condition is determined by classifying the time when shooting is performed. That is, the imaging apparatus 100 according to the second embodiment detects the time in the shooting state detection step of step S15 in FIG. FIG. 8 is a flowchart illustrating imaging state detection control of the imaging apparatus 100 according to the second embodiment.

図8に示すように、CPU2に含まれる時計40は時刻を検出する(ステップS50)。ステップS50の後、分類回路32は、検出された時刻に含まれる月(図中では“month”と記載)が4月より前か、つまり1〜3月のいずれかに属するか判断する(ステップS51)。Yesの場合、計測回路34は“冬”に対する、複数の撮像条件の設定回数の各々を加算する(ステップS52)。   As shown in FIG. 8, the clock 40 included in the CPU 2 detects the time (step S50). After step S50, the classification circuit 32, the moon included in the detected time (in the figure "month" and claimed) Do before April, that determines whether belonging to any one of 1 to March (step S51). In the case of Yes, the measurement circuit 34 adds each of the set times of the plurality of imaging conditions for “winter” (step S52).

ステップS51においてNoの場合、分類回路32は、検出された月が6月より前か、つまり4又は5月であるか判断する(ステップS53)。Yesの場合、計測回路34は“春”に対する、複数の撮像条件の設定回数の各々を加算する(ステップS54)。   In the case of No in step S51, the classification circuit 32 determines whether the detected month is before June, that is, April or May (step S53). In the case of Yes, the measurement circuit 34 adds each of the set times of the plurality of imaging conditions for “spring” (step S54).

ステップS53においてNoの場合、分類回路32は、検出された月が9月より前か、つまり6〜8月のいずれかに属するか判断する(ステップS55)。Yesの場合、計測回路34は“夏”に対する、複数の撮像条件の設定回数の各々を加算する(ステップS56)。   In the case of No in step S53, the classification circuit 32 determines whether the detected month is before September, that is, belongs to any of June to August (step S55). In the case of Yes, the measurement circuit 34 adds each of the set times of the plurality of imaging conditions for “summer” (step S56).

ステップS55においてNoの場合、計測回路34は“秋”に対する、複数の撮像条件の各々の設定回数を加算する(ステップS57)。   In the case of No in step S55, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions for “autumn” (step S57).

ステップS52、S54、S56及びS57の後、撮影状況検出制御は終了し、図3に例示したステップS16に進む。ステップS16以降の制御は、図3及び5において既述したものと同様であるため、説明を省略する。   After steps S52, S54, S56, and S57, the shooting state detection control ends, and the process proceeds to step S16 illustrated in FIG. Since the control after step S16 is the same as that already described in FIGS.

実施例2では、時刻を月に応じて日本の季節に分類したが、分類の仕方はこれに限定されない。時刻を、例えば撮像装置100が使用される国における季節に分類してもよい。また、時刻を、例えば月、週、日、又は時分ごとに分類してもよい。   In the second embodiment, the time is classified into the Japanese season according to the month, but the classification method is not limited to this. For example, the time may be classified into seasons in a country where the imaging apparatus 100 is used. Moreover, you may classify | categorize time, for example for every month, week, day, or hour and minute.

実施例3は、撮影を行う場所に分類し、撮像条件の標準設定を決定する例である。すなわち、実施例3に係る撮像装置100は、図3のステップS15の撮影状況検出ステップにおいて、位置を検出する。図9は、実施例3に係る撮像装置100の撮影状況検出制御を例示するフローチャートである。   The third embodiment is an example in which the standard setting of the imaging condition is determined by classifying the shooting location. That is, the imaging apparatus 100 according to the third embodiment detects the position in the shooting state detection step of step S15 in FIG. FIG. 9 is a flowchart illustrating imaging state detection control of the imaging apparatus 100 according to the third embodiment.

図9に示すように、位置情報検出部42は撮像を行う位置を検出する(ステップS60)。ステップS60の後、CPU2はI/F44を介して位置情報を取得する。分類回路32は、取得した位置情報が新規位置情報であるか判断する(ステップS61)。位置情報(緯度・経度)の認識には、例えば画像データにタグとして負荷されるGeotag等を用いることができる。   As illustrated in FIG. 9, the position information detection unit 42 detects a position where imaging is performed (step S <b> 60). After step S60, the CPU 2 obtains position information via the I / F 44. The classification circuit 32 determines whether the acquired position information is new position information (step S61). For recognition of position information (latitude / longitude), for example, Geotag or the like loaded as a tag on image data can be used.

Noの場合、CPU2は、メモリ27に格納された位置情報ディレクトリから、図3のステップS13で取得された画像データと同じ、又は近似した位置に対応する位置情報ディレクトリを抽出する(ステップS62)。位置情報ディレクトリには、図6(a)、及び図7(a)に示したようなデータテーブルが格納されている。   In the case of No, the CPU 2 extracts a position information directory corresponding to the same or approximate position as the image data acquired in step S13 of FIG. 3 from the position information directory stored in the memory 27 (step S62). In the position information directory, data tables as shown in FIGS. 6A and 7A are stored.

Yesの場合、ディレクトリ生成回路48は新規位置情報に対応した新たな位置情報ディレクトリを作成し、メモリ27は作成された位置情報ディレクトリを格納する(ステップS63)。新たな位置情報ディレクトリには、新規位置情報に対応したデータテーブルが作成される。   In the case of Yes, the directory generation circuit 48 creates a new location information directory corresponding to the new location information, and the memory 27 stores the created location information directory (step S63). A data table corresponding to the new position information is created in the new position information directory.

ステップS62又はS63の後、計測回路34は、検出された位置情報に対する、複数の撮像条件の設定回数の各々を加算する(ステップS64)。言い換えれば、計測回路34は、場所ごとに複数の撮像条件の設定回数の各々を加算する。ステップS64の後、撮影状況検出制御は終了し、図3に例示したステップS16に進む。ステップS16以降の制御は、図3及び5において既述したものと同様であるため、説明を省略する。   After step S62 or S63, the measurement circuit 34 adds each of the set times of the plurality of imaging conditions to the detected position information (step S64). In other words, the measurement circuit 34 adds each of the set times of the plurality of imaging conditions for each place. After step S64, the shooting state detection control ends, and the process proceeds to step S16 illustrated in FIG. Since the control after step S16 is the same as that already described in FIGS.

なお、位置情報は緯度・経度でもよいし、例えば緯度・経度を所定の範囲でメッシュ状に区切った領域とすることもできる。また、市町村や県とすることもできる。実施例3によれば、ユーザが旅行等で同じ場所を再び訪れた場合にも、以前に訪れた際の標準設定を用いて、ユーザは撮影を行うことができる。   Note that the position information may be latitude / longitude, or may be, for example, an area obtained by dividing latitude / longitude into a mesh shape within a predetermined range. It can also be a municipality or a prefecture. According to the third embodiment, even when the user visits the same place again on a trip or the like, the user can take a picture using the standard setting when the user visited previously.

実施例4は、撮影に用いるレンズの種類に分類し、撮像条件の標準設定を決定する例である。すなわち、実施例4に係る撮像装置100は、図3のステップS15の撮影状況検出ステップにおいて、レンズの種類を検出する。図10は、実施例4に係る撮像装置100の撮影状況検出制御を例示するフローチャートである。   The fourth embodiment is an example in which the standard setting of the imaging condition is determined by classifying the type of lens used for photographing. That is, the imaging apparatus 100 according to the fourth embodiment detects the type of lens in the shooting state detection step of step S15 in FIG. FIG. 10 is a flowchart illustrating imaging state detection control of the imaging apparatus 100 according to the fourth embodiment.

図10に示すように、レンズ情報検出回路46は、通信接点105及び107を介して、撮像装置100に装着されたレンズ110の種類を検出する(ステップS70)。ステップS70の後、分類回路32は、検出したレンズ情報が新規レンズ情報であるか判断する(ステップS71)。   As shown in FIG. 10, the lens information detection circuit 46 detects the type of the lens 110 attached to the imaging device 100 via the communication contacts 105 and 107 (step S70). After step S70, the classification circuit 32 determines whether the detected lens information is new lens information (step S71).

Noの場合、CPU2は、メモリ27に格納されたレンズ情報ディレクトリから、ステップS74で取得したレンズ情報と一致するレンズ情報ディレクトリを抽出する(ステップS72)。すなわち、CPU2はレンズ情報を抽出する。レンズ情報ディレクトリには、図6(a)及び図7(a)に示したようなデータテーブルが格納されている。   In No, CPU2 extracts the lens information directory which corresponds with the lens information acquired by step S74 from the lens information directory stored in the memory 27 (step S72). That, CPU 2 extracts lens information. In the lens information directory, a data table as shown in FIGS. 6A and 7A is stored.

Yesの場合、ディレクトリ生成回路48は新規レンズ情報に対応した新たなレンズ情報ディレクトリを作成し、メモリ27は作成されたレンズ情報ディレクトリを格納する(ステップS73)。すなわち、ディレクトリ生成回路48は新たなレンズを登録する。新たなレンズ情報ディレクトリには、新規レンズ情報に対応したデータテーブルが作成される。   In the case of Yes, the directory generation circuit 48 creates a new lens information directory corresponding to the new lens information, and the memory 27 stores the created lens information directory (step S73). That is, the directory generation circuit 48 registers a new lens. A data table corresponding to the new lens information is created in the new lens information directory.

ステップS72又はS73の後、計測回路34は、検出されたレンズ情報に対する、複数の撮像条件の設定回数の各々を加算する(ステップS74)。ステップS74の後、撮影状況検出制御は終了し、図3に例示したステップS16に進む。ステップS16以降の制御は、図3及び5において既述したものと同様であるため、説明を省略する。   After step S72 or S73, the measurement circuit 34 adds each of the set times of the plurality of imaging conditions to the detected lens information (step S74). After step S74, the shooting state detection control ends, and the process proceeds to step S16 illustrated in FIG. Since the control after step S16 is the same as that already described in FIGS.

実施例4によれば、撮像装置100が例えば交換レンズの種類が多いDSLR(Digital Single Lens Reflex camera:デジタル一眼レフカメラ)や、レンズ交換が可能なカメラで、例えば開放F値が異なるレンズを使用する場合等でも、ユーザの操作性を向上させることが可能となる。   According to the fourth embodiment, the imaging apparatus 100 is, for example, a DSLR (Digital Single Lens Reflex camera) with many types of interchangeable lenses, or a camera capable of lens replacement, for example, using lenses with different open F values. Even in such a case, the user operability can be improved.

実施例5は、撮影される被写体ごとに分類し、撮像条件の標準設定を決定する例である。すなわち、実施例5に係る撮像装置100は、図3のステップS15の撮影状況検出ステップにおいて、被写体中の人の顔の数を検出する。図11は、実施例5に係る撮像装置100の撮影状況検出制御を例示するフローチャートである。   The fifth embodiment is an example in which classification is performed for each subject to be photographed and the standard setting of imaging conditions is determined. That is, the imaging apparatus 100 according to the fifth embodiment detects the number of human faces in the subject in the shooting state detection step of step S15 in FIG. FIG. 11 is a flowchart illustrating imaging state detection control of the imaging apparatus 100 according to the fifth embodiment.

図11に示すように、顔検出部50は、被写体に人の顔が存在するか判断する(ステップS80)。Noの場合、撮影状況検出制御は終了する。   As shown in FIG. 11, the face detection unit 50 determines whether a human face exists in the subject (step S80). If No, the shooting conditions detection control ends.

ステップS80においてYesの場合、分類回路32は、検出された顔の数が1つ(図11では「顔=1」と表記、以下同様)であるか判断する(ステップS81)。Yesの場合、計測回路34は、顔の数が1つである場合に対する複数の撮像条件の各々の設定回数を加算する(ステップS82)。   In the case of Yes in step S80, the classification circuit 32 determines whether the number of detected faces is 1 (indicated as “face = 1” in FIG. 11, the same applies hereinafter) (step S81). In the case of Yes, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions for the case where the number of faces is one (step S82).

ステップS81においてNoの場合、分類回路32は、検出された顔の数が2つであるか判断する(ステップS83)。Yesの場合、計測回路34は、顔の数が2つである場合に対する複数の撮像条件の各々の設定回数を加算する(ステップS84)。   In the case of No in step S81, the classification circuit 32 determines whether the number of detected faces is two (step S83). In the case of Yes, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions when the number of faces is two (step S84).

ステップS83においてNoの場合、分類回路32は、検出された顔の数が3つであるか判断する(ステップS85)。Yesの場合、計測回路34は、顔の数が3つである場合に対する複数の撮像条件の各々の設定回数を加算する(ステップS86)。   In the case of No in step S83, the classification circuit 32 determines whether the number of detected faces is three (step S85). In the case of Yes, the measurement circuit 34 adds the set number of times for each of the plurality of imaging conditions when the number of faces is three (step S86).

ステップS85においてNoの場合、計測回路34は、多人数に対する複数の撮像条件の各々の設定回数を加算する(ステップS87)。ステップS82、S84、S86、及びS87の後、撮影状況検出制御は終了し、図4に例示したステップS16に進む。ステップS16以降の制御は、図3及び5において既述したものと同様であるため、説明を省略する。   In the case of No in step S85, the measurement circuit 34 adds the set number of times for each of a plurality of imaging conditions for a large number of people (step S87). After steps S82, S84, S86, and S87, the shooting state detection control ends, and the process proceeds to step S16 illustrated in FIG. Since the control after step S16 is the same as that already described in FIGS.

実施例5によれば、例えば人物の撮影や記念写真の撮影等で、撮像装置100の操作性が向上し、ユーザは迅速な撮影が可能となる。なお、被写体中の人の顔の数ごとに分類を行うとしたが、分類の仕方はこれに限定されない。例えば、人の年齢、個人、人と人以外等に応じて分類してもよい。   According to the fifth embodiment, the operability of the imaging apparatus 100 is improved, for example, by shooting a person or taking a commemorative photo, and the user can quickly take a picture. Although the classification is performed for each number of human faces in the subject, the classification method is not limited to this. For example, you may classify | categorize according to a person's age, an individual, a person and a person other than a person.

このように、実施例1〜5によれば、撮像装置100は、撮影状況を検出する測光センサ30、位置情報検出部42、レンズ情報検出回路46、顔検出部50、指紋検出部52及び指紋検出回路54、を備える。また、撮像条件の設定頻度を計測する計測回路34と、設定頻度に応じて撮影状況に対する撮像条件の標準設定を決定する標準設定決定回路38と、を備える。この構成によれば、撮像装置100は、撮影状況に対するユーザの嗜好を反映した標準設定を決定できる。これにより、撮像装置100の操作性が向上し、ユーザは迅速な撮影が可能となる。   Thus, according to Examples 1 to 5, the imaging device 100, a photometry sensor 30 for detecting a shooting situation, the position information detection unit 42, the lens information detection circuit 46, the face detection unit 50, the fingerprint detecting portion 52 and fingerprint A detection circuit 54. In addition, a measurement circuit 34 that measures the setting frequency of the imaging condition and a standard setting determination circuit 38 that determines the standard setting of the imaging condition for the shooting situation according to the setting frequency are provided. According to this configuration, the imaging apparatus 100 can determine a standard setting that reflects the user's preference for the shooting situation. Thereby, the operability of the imaging apparatus 100 is improved, and the user can quickly shoot.

また、標準設定決定回路38は、設定頻度が基準値より大きい場合に、撮影状況に対する撮像条件の標準設定を決定する(図6(c)及び図7(c)参照)。この構成によれば、設定頻度の高い設定を撮像条件の標準設定とすることができる。従って、撮影状況に対するユーザの嗜好を、より確実に標準設定に反映することができる。   Further, when the setting frequency is larger than the reference value, the standard setting determination circuit 38 determines the standard setting of the imaging condition for the shooting situation (see FIGS. 6C and 7C). According to this configuration, a setting with a high setting frequency can be set as a standard setting of the imaging condition. Therefore, the user's preference for the shooting situation can be more reliably reflected in the standard setting.

また、撮像条件は複数であり、計測回路34は、複数の撮像条件の各々の設定頻度を計測し、標準設定決定回路38は、複数の設定頻度の各々に応じて、撮影状況に対する複数の撮像条件のうち、少なくとも1つの撮像条件の標準設定を決定する(図6(a)から図7(c)参照)。この構成によれば、撮像装置100の操作性がさらに向上する。   The imaging conditions are more, the measuring circuit 34 measures the set frequency of each of the plurality of imaging conditions, a standard setting determination circuit 38, in response to each of a plurality of setting frequency, a plurality of image pickup for shooting conditions Among the conditions, the standard setting of at least one imaging condition is determined (see FIGS. 6A to 7C). According to this configuration, the operability of the imaging apparatus 100 is further improved.

実施例6は、ユーザごとに、被写体から反射される輝度に分類し、撮像条件の標準設定を決定する例である。すなわち、実施例6に係る撮像装置100は、図3に示した制御に加えてユーザ識別処理を行い、またステップS15において、輝度を検出する。図12及び13は、実施例6に係る撮像装置100の制御を例示するフローチャートである。   The sixth embodiment is an example in which for each user, the luminance is reflected from the subject and the standard setting of the imaging condition is determined. That is, the imaging apparatus 100 according to the sixth embodiment performs user identification processing in addition to the control illustrated in FIG. 3, and detects luminance in step S15. 12 and 13 are flowcharts illustrating the control of the imaging apparatus 100 according to the sixth embodiment.

図12に示すように、まず、撮像装置100はユーザ識別処理を行う(ステップS90)。図13を参照して、ユーザ識別処理について説明する。   As shown in FIG. 12, first, the imaging apparatus 100 performs a user identification process (step S90). The user identification process will be described with reference to FIG.

図13に示すように、指紋検出部52はユーザの指紋情報を検出する(ステップS91)。指紋検出回路54は、CPU2を介して、指紋検出部52が検出した指紋情報を受信し、指紋情報に基づき撮像装置100のユーザが新しいユーザか判断する(ステップS92)。すなわち、指紋検出回路54は、検出された指紋情報が、あらかじめ登録されている指紋情報と一致するか判断する。   As shown in FIG. 13, the fingerprint detection unit 52 detects the fingerprint information of the user (step S91). Fingerprint detection circuit 54 via the CPU 2, receives the fingerprint information fingerprint detecting portion 52 has detected, the user of the imaging apparatus 100 based on the fingerprint information to determine whether new user (step S92). That is, the fingerprint detection circuit 54 determines whether or not the detected fingerprint information matches the pre-registered fingerprint information.

Noの場合、すなわち検出された指紋情報が登録されている指紋情報と一致する場合、CPU2は、メモリ27に格納されたユーザ情報ディレクトリから、検出した指紋情報と一致した指紋情報に対応するユーザ情報ディレクトリを抽出する(ステップS93)。すなわち、CPU2はユーザ情報を抽出する。   In the case of No, that is, when the detected fingerprint information matches the registered fingerprint information, the CPU 2 searches the user information directory stored in the memory 27 for user information corresponding to the fingerprint information that matches the detected fingerprint information. to extract the directory (step S93). That, CPU 2 extracts the user information.

Yesの場合、すなわち検出された指紋情報が登録されている指紋情報と一致しない場合、ディレクトリ生成回路48は新規ユーザに対応したユーザ情報ディレクトリを作成し、メモリ27は作成されたユーザ情報ディレクトリを格納する(ステップS94)。すなわち、ディレクトリ生成回路48は、新規ユーザの登録を行う。   If Yes, that is, if the detected fingerprint information does not match the registered fingerprint information, the directory generation circuit 48 creates a user information directory corresponding to the new user, and the memory 27 stores the created user information directory. (Step S94). That is, the directory generation circuit 48 registers a new user.

ステップS93又はS94の後、表示部118は新規ユーザを登録したこと、又はユーザ情報を抽出したことを表示する(ステップS95)。ステップS95の後、ユーザ識別処理は終了し、図12のステップS10に進む。撮像装置100は、ユーザ情報ディレクトリ内のデータテーブルを用いて、ステップS10〜S19の制御を行う。ステップS10〜S19は、図3に例示したものと同じである。   After step S93 or S94, the display unit 118 displays that a new user has been registered or that user information has been extracted (step S95). After step S95, the user identification process ends, and the process proceeds to step S10 in FIG. The imaging apparatus 100 performs control in steps S10 to S19 using the data table in the user information directory. Steps S10 to S19 are the same as those illustrated in FIG.

次に、ユーザ情報ディレクトリ内の情報について説明する。図14(a)及び図14(b)は、ユーザ1に対応するディレクトリ(「ユーザ1ディレクトリ」、以下同様)内に格納された撮像条件の設定回数の計測結果、及び基準値を例示するデータテーブルである。図14(a)はBV=2の場合のデータテーブルである。図14(b)はBV=4の場合のデータテーブルである。なお、ユーザ情報ディレクトリは、データテーブルを囲む実線で例示した。   Next, a description will be given of information in the user information directory. FIGS. 14 (a) and. 14 (b), the data to illustrate the directory corresponding to the user 1 ( "User 1 Directory", hereinafter the same) of the set number of stored imaging condition in the measurement result, and the reference value It is a table. FIG. 14A shows a data table when BV = 2. FIG. 14B is a data table when BV = 4. The user information directory is illustrated by a solid line surrounding the data table.

図14(c)及び図14(d)は、ユーザ2ディレクトリ内に格納された撮像条件の設定回数の計測結果、及び基準値を例示するデータテーブルである。図14(c)はBV=2の場合のデータテーブルである。図14(d)はBV=4の場合のデータテーブルである。基準値は合計回数の60%としており、図14(a)では36、図14(b)では48、図14(c)では60、図14(d)では30が、それぞれ基準値となる。   FIG. 14C and FIG. 14D are data tables illustrating measurement results of the number of times of setting of imaging conditions stored in the user 2 directory and reference values. FIG. 14C shows a data table when BV = 2. FIG. 14D is a data table when BV = 4. Reference value is set to 60% of the total number, FIG. 14 (a) in 36, and FIG. 14 (b) in 48, FIG. 14 (c) In 60, FIG. 14 (d) 30 becomes the respective reference values.

なお、ユーザ1及び2についてのみ図示するが、実際にはユーザ3についても同様のユーザ情報ディレクトリ、及びデータテーブルが作成されている。ユーザ情報ディレクトリはメモリ27に格納されている。   Although only the users 1 and 2 are illustrated, the same user information directory and data table are actually created for the user 3. The user information directory is stored in the memory 27.

図14(a)に示すように、ユーザ1に対しては、BV=2において、白とび防止の標準設定が、設定頻度が基準値より大きい“強め”になる(図中の破線による囲み)。白とび防止以外の撮像条件については、いずれも設定頻度が基準値以下であるため、標準設定は決定されない。   As shown in FIG. 14A, for user 1, when BV = 2, the standard setting for overexposure becomes “stronger” where the setting frequency is greater than the reference value (enclosed by a broken line in the figure). . For the imaging conditions other than whiteout prevention, the standard setting is not determined because the setting frequency is less than or equal to the reference value.

図14(b)に示すように、ユーザ1に対しては、BV=4において、コントラストの標準設定が、設定頻度が基準値より大きい“AUTO”に、黒潰れ防止の標準設定が“強め”になる。コントラストと黒潰れ防止とを除いた撮像条件については、いずれも設定頻度が基準値以下であるため、標準設定は決定されない。   As shown in FIG. 14B, for the user 1, when BV = 4, the contrast standard setting is “AUTO” where the setting frequency is larger than the reference value, and the black crush prevention standard setting is “strong”. become. With respect to the imaging conditions excluding contrast and blackout prevention, the standard setting is not determined because the setting frequency is lower than the reference value.

図14(c)に示すように、ユーザ2に対しては、BV=2において、彩度の標準設定が、設定頻度が基準値より大きい“標準”に、白とび防止の標準設定が“AUTO”になる。彩度と白とび防止とを除いた撮像条件については、いずれも設定頻度が基準値以下であるため、標準設定は決定されない。   As shown in FIG. 14C, for the user 2, for BV = 2, the standard setting of saturation is “standard” where the setting frequency is larger than the reference value, and the standard setting for overexposure is “AUTO”. "become. Regarding the imaging conditions excluding saturation and overexposure prevention, the standard setting is not determined because the setting frequency is lower than the reference value.

図14(d)に示すように、ユーザ2に対しては、BV=4において、色合いの標準設定が、設定頻度が基準値より大きい“強め”になる。色合いを除いた撮像条件については、いずれも設定頻度が基準値以下であるため、標準設定は決定されない。   As shown in FIG. 14D, for user 2, the standard setting of the hue becomes “stronger” than the reference value when BV = 4. As for the imaging conditions excluding the hue, since the setting frequency is less than the reference value, the standard setting is not determined.

このように、BV=2、又はBV=4と、輝度が同じである場合でも、ユーザごとに異なった標準設定を定めることができる。また、BV=2、4だけでなく、BV=6〜10、高輝度の場合についても同様に、ユーザごとに異なった標準設定を定めることができる。   Thus, even when the brightness is the same as BV = 2 or BV = 4, different standard settings can be determined for each user. Similarly, not only BV = 2 and 4 but also BV = 6 to 10 and high luminance, different standard settings can be determined for each user.

なお、図13に示したように実施例6ではユーザは3人としたが、2人でもよいし4人以上でもよい。また、図14(a)から図14(d)では、いずれのユーザについても、基準値は合計回数の60%としたが、基準値の定め方はこれに限定されない。例えばユーザ1に対しては合計回数の60%、ユーザ2に対しては80%、ユーザ3に対しては90%のように、ユーザごとに異なった基準値の定め方を採用してもよい。   As shown in FIG. 13, the number of users is three in the sixth embodiment, but may be two or four or more. 14A to 14D, the reference value is set to 60% of the total number of times for any user, but the method for determining the reference value is not limited to this. For example, different reference values may be adopted for each user, such as 60% of the total number of times for user 1, 80% for user 2, and 90% for user 3. .

実施例6では、指紋情報によりユーザの識別を行う例を説明したが、ユーザ識別方法はこれに限定されない。ユーザ識別方法の例として、他にユーザの瞳の光彩パターンや音声パターン等がある。光彩パターンの検出は、例えば、撮像装置100のファインダー内に光彩パターン検出部を設けることで実現できる。音声パターンの検出は、撮像装置100に例えばマイクロフォン等の集音装置を設けることで実現できる。   In the sixth embodiment, the example in which the user is identified based on the fingerprint information has been described. However, the user identification method is not limited to this. Other examples of the user identification method include a user's pupil iris pattern and voice pattern. The detection of the glow pattern can be realized, for example, by providing a glow pattern detection unit in the finder of the imaging apparatus 100. The detection of the sound pattern can be realized by providing a sound collecting device such as a microphone in the imaging device 100.

また、実施例6では、輝度に対する標準設定を決定したが、撮影状況は輝度に限定されない。例えば実施例2〜5のそれぞれに説明したように、撮影状況は、時刻、位置、被写体の人の顔の数、及びレンズの種類でもよく、また上記以外の撮影状況でもよい。   In the sixth embodiment, the standard setting for the luminance is determined, but the shooting situation is not limited to the luminance. For example, as described in each of Embodiments 2 to 5, the shooting situation may be time, position, the number of human faces of the subject, and the type of lens, or a shooting situation other than the above.

このように、実施例6によれば、計測回路34はユーザに対して撮像条件の設定頻度を計測し、標準設定決定回路38は設定頻度に応じて、ユーザに対する撮像条件の標準設定を決定する。この構成によれば、撮像装置100は、撮影状況に対する複数のユーザ各々の嗜好を反映した標準設定を決定できる。これにより、撮像装置100の操作性が向上し、各ユーザは迅速な撮影が可能となる。   Thus, according to the sixth embodiment, the measurement circuit 34 measures the setting frequency of the imaging condition for the user, and the standard setting determination circuit 38 determines the standard setting of the imaging condition for the user according to the setting frequency. . According to this configuration, the imaging apparatus 100 can determine a standard setting that reflects the preferences of each of a plurality of users with respect to the shooting situation. As a result, the operability of the imaging apparatus 100 is improved, and each user can quickly shoot.

実施例7は、レンズの種類ごとに輝度に分類し、撮像条件の標準設定を決定する例である。すなわち、実施例7に係る撮像装置100は、図3に示した制御に加えてレンズ識別処理を行い、またステップS15において、輝度を検出する。図15及び16は、実施例7に係る撮像装置100の制御を例示するフローチャートである。   The seventh embodiment is an example in which the standard setting of the imaging condition is determined by classifying the luminance for each lens type. That is, the imaging apparatus 100 according to the seventh embodiment performs lens identification processing in addition to the control illustrated in FIG. 3, and detects luminance in step S15. 15 and 16 are flowcharts illustrating the control of the imaging apparatus 100 according to the seventh embodiment.

図15に示すように、撮像装置100は、まずレンズ識別処理を行う(ステップS100)。図16を参照に、レンズ識別処理について説明する。   As shown in FIG. 15, the imaging apparatus 100 first performs lens identification processing (step S100). The lens identification process will be described with reference to FIG.

図16に示すように、レンズ識別処理のステップS70〜S73は、図9に例示したものと同じである。ステップS72又はS73の後、表示部118は新規レンズを登録したこと、又はレンズ情報を抽出したことを表示する(ステップS101)。ステップS101の後、レンズ識別処理は終了し、図15のステップS10に進む。ステップS10〜S19は、図3に例示したものと同じである。   As shown in FIG. 16, steps S70 to S73 of the lens identification process are the same as those illustrated in FIG. After step S72 or S73, the display unit 118 displays that a new lens has been registered or that lens information has been extracted (step S101). After step S101, the lens identification process ends, and the process proceeds to step S10 in FIG. Steps S10 to S19 are the same as those illustrated in FIG.

上記の制御により、図14(a)から図14(d)に示したものと同様、レンズごとに分類されたレンズ情報ディレクトリに、輝度に対する撮像条件の設定回数が計測され、基準値が定まる。レンズ110は複数であればよく、2つでもよいし3つ以上でもよい。   By the above control, the number of times of setting the imaging condition with respect to the luminance is measured in the lens information directory classified for each lens, and the reference value is determined, as in the case shown in FIGS. 14A to 14D. The number of lenses 110 may be two or more, and may be two or more.

なお、実施例7では、輝度に対する標準設定を決定したが、撮影状況は輝度に限定されない。例えば実施例2〜5のそれぞれに説明したように、撮影状況は、時刻、位置、及び被写体の人の顔の数、でもよく、また上記以外の撮影状況でもよい。   In the seventh embodiment, the standard setting for the luminance is determined, but the shooting situation is not limited to the luminance. For example, as described in each of Embodiments 2 to 5, the shooting situation may be the time, the position, the number of faces of the subject person, or a shooting situation other than the above.

このように、実施例7によれば、撮像装置100には、異なる種類の複数のレンズ110を選択的に装着可能であり、また計測回路34はレンズ110に対して撮像条件の設定頻度を計測し、標準設定決定回路38は設定頻度に応じて、レンズ110の種類に対する撮像条件の標準設定を決定する。この構成によれば、撮像装置100は、複数のレンズ110の種類、及び撮影状況に対する、ユーザの嗜好を反映した標準設定を決定できる。これにより、異なる複数の種類のレンズ110を用いる場合でも、撮像装置100の操作性が向上し、ユーザは迅速な撮影が可能となる。   As described above, according to the seventh embodiment, a plurality of different types of lenses 110 can be selectively attached to the imaging apparatus 100, and the measurement circuit 34 measures the setting frequency of imaging conditions for the lens 110. Then, the standard setting determination circuit 38 determines the standard setting of the imaging condition for the type of the lens 110 according to the setting frequency. According to this configuration, the imaging apparatus 100 can determine a standard setting that reflects the preference of the user with respect to the types of the plurality of lenses 110 and the shooting situation. As a result, even when a plurality of different types of lenses 110 are used, the operability of the imaging apparatus 100 is improved, and the user can shoot quickly.

実施例8は、複数の撮影状況に対する撮像条件の標準設定を決定する例である。図17は、実施例8に係る撮像装置100の制御を例示するフローチャートである。   Example 8 is an example in which the standard setting of imaging conditions for a plurality of imaging situations is determined. FIG. 17 is a flowchart illustrating the control of the imaging apparatus 100 according to the eighth embodiment.

図17に示すように、ステップS10〜S14は、図3に例示したものと同じである。ステップS14の後、撮像装置100は第1撮影状況を検出する(ステップS110)。ステップS110の後、撮像装置100は、ステップS110で検出した第1撮影状況とは異なる撮影状況である第2撮影状況を検出する(ステップS111)。   As shown in FIG. 17, steps S10 to S14 are the same as those illustrated in FIG. After step S14, the imaging apparatus 100 detects the first shooting situation (step S110). After step S110, the imaging apparatus 100 detects a second shooting situation that is different from the first shooting situation detected in step S110 (step S111).

ステップS111の後、ステップS16に進む。ステップS16〜S19は、図3において既述したものと同様である。すなわち、撮像装置100は、第1撮影状況及び第2撮影状況ごとの、撮像条件の標準設定を決定する。   After step S111, the process proceeds to step S16. Steps S16 to S19 are the same as those already described in FIG. That is, the imaging apparatus 100 determines the standard setting of the imaging conditions for each of the first shooting situation and the second shooting situation.

次に、第1撮影状況として被写体の人の顔の数、第2撮影状況として輝度を検出する例について説明する。図18は、ステップS110において、被写体の人の顔の数を検出する制御を例示するフローチャートである。   Next, an example will be described in which the number of human faces of the subject is detected as the first shooting situation and the luminance is detected as the second shooting situation. FIG. 18 is a flowchart illustrating an example of control for detecting the number of human faces of the subject in step S110.

図18に示すように、顔検出部50は、被写体に人の顔が存在するか判断する(ステップS112)。Noの場合、第1撮影状況検出制御は終了し、図15のステップS111に進む。   As shown in FIG. 18, the face detection unit 50 determines whether a human face exists in the subject (step S112). In No, 1st imaging condition detection control is complete | finished and it progresses to step S111 of FIG.

ステップS112においてYesの場合、分類回路32は、検出された顔の数が1つであるか判断する(ステップS113)。Yesの場合、CPU2は、メモリ27に格納された顔情報ディレクトリのうち、顔の数が1つである場合に対する顔情報ディレクトリを抽出する(ステップS114)。   If Yes in step S112, the classification circuit 32 determines whether the number of detected faces is one (step S113). In Yes, CPU2 extracts the face information directory with respect to the case where the number of faces is one among the face information directories stored in the memory 27 (step S114).

ステップS113においてNoの場合、分類回路32は、検出された顔の数が2つであるか判断する(ステップS115)。Yesの場合、CPU2は顔の数が2つである場合に対する顔情報ディレクトリを抽出する(ステップS116)。   In the case of No in step S113, the classification circuit 32 determines whether the number of detected faces is two (step S115). In the case of Yes, the CPU 2 extracts a face information directory for the case where the number of faces is two (step S116).

ステップS115においてNoの場合、分類回路32は、検出された顔の数が3つであるか判断する(ステップS117)。Yesの場合、CPU2は顔の数が3つである場合に対する顔情報ディレクトリを抽出する(ステップS118)。Noの場合、CPU2は多人数に対する顔情報ディレクトリを抽出する(ステップS119)。   In the case of No in step S115, the classification circuit 32 determines whether the number of detected faces is three (step S117). In the case of Yes, the CPU 2 extracts a face information directory for the case where the number of faces is three (step S118). In No, CPU2 extracts the face information directory with respect to many people (step S119).

ステップS114、S116、S118、及びS119の後、第1撮影状況検出制御は終了し、図17のステップS111に進む。撮像装置100は、第2撮影状況として輝度を検出する(ステップS111)。輝度検出制御は、図4に例示したものと同じものである。ステップS111の後、ステップS16に進む。ステップS16〜S19は図3に例示したものと同じである。   After steps S114, S116, S118, and S119, the first shooting situation detection control ends, and the process proceeds to step S111 in FIG. The imaging apparatus 100 detects luminance as the second shooting situation (step S111). The luminance detection control is the same as that illustrated in FIG. After step S111, the process proceeds to step S16. Steps S16 to S19 are the same as those illustrated in FIG.

すなわち、撮像装置100は、第1撮影状況として被写体の人の顔の数、第2撮影状況として輝度を検出する(ステップS110及びS111)。さらに、撮像装置100は標準設定を決定する(ステップS16)。標準設定決定制御は、図5に例示したものと同じなので説明を省略する。   That is, the imaging apparatus 100 detects the number of human faces of the subject as the first shooting situation and the luminance as the second shooting situation (steps S110 and S111). Furthermore, the imaging apparatus 100 determines standard settings (step S16). The standard setting determination control is the same as that illustrated in FIG.

実施例8によれば、被写体の人の顔の数を検出し、かつ輝度に対する撮像条件の設定頻度を計測する。すなわち、標準設定決定回路38は、人の顔の数及び輝度に対する、撮像条件の標準設定を決定する。これにより、人の顔の数及び輝度に対するユーザの嗜好を標準設定に反映できる。また、ユーザ自身が、撮像条件の設定を記憶や記録しなくてもよい。従って、撮像装置100の操作性が向上し、ユーザは迅速な撮影が可能となる。   According to the eighth embodiment, the number of faces of the subject person is detected, and the imaging condition setting frequency with respect to the luminance is measured. That is, the standard setting determination circuit 38 determines the standard setting of the imaging condition with respect to the number and luminance of human faces. Thereby, the preference of the user with respect to the number of human faces and the luminance can be reflected in the standard setting. Further, the user himself / herself may not store or record the setting of the imaging condition. Therefore, the operability of the imaging apparatus 100 is improved, and the user can quickly shoot.

なお、実施例8では、人の顔の数、及び輝度ごとに標準設定を決定したが、これに限定されない。すなわち、第1及び第2撮影状況として、実施例1〜5のそれぞれに説明した、輝度、時刻、場所、被写体の人の顔の数、及びレンズのいずれか、又は他の撮影状況を任意に組み合わせても、本発明は適用可能である。さらに、検出する撮影状況は3つ以上であってもよい。   In the eighth embodiment, the standard setting is determined for each number of human faces and luminance. However, the present invention is not limited to this. That is, as the first and second shooting situations, any of the brightness, time, place, number of human faces of the subject, and lenses described in each of the first to fifth embodiments, or any other shooting situation is arbitrarily set. Even if combined, the present invention is applicable. Further, three or more shooting situations may be detected.

このように、撮像装置100は、複数の撮影状況を検出し、計測回路34は複数の撮影状況に対して撮像条件の設定頻度を計測し、標準設定決定回路38は設定頻度に応じて、複数の撮影状況に対する撮像条件の標準設定を決定する。この構成によれば、撮像装置100は、複数の撮影状況に対する、ユーザの嗜好を反映した標準設定を決定できる。これにより、より詳細な撮影状況における、標準設定を決定できる。従って、撮像装置100の操作性が向上し、ユーザは迅速な撮影が可能となる。   As described above, the imaging device 100 detects a plurality of shooting situations, the measurement circuit 34 measures the setting frequency of imaging conditions for the plurality of shooting situations, and the standard setting determination circuit 38 sets a plurality of times according to the setting frequencies. The standard setting of the imaging condition for the shooting situation is determined. According to this configuration, the imaging apparatus 100 can determine standard settings that reflect user preferences for a plurality of shooting situations. Thereby, the standard setting in a more detailed photographing situation can be determined. Therefore, the operability of the imaging apparatus 100 is improved, and the user can take images quickly.

次に、実施例において表示部118が表示する画像の例について説明する。図19(a)は実施例1において表示部118が表示する画像を例示する図である。図19(b)は実施例7において表示部118が表示する画像を例示する図である。   Next, an example of an image displayed on the display unit 118 in the embodiment will be described. FIG. 19A is a diagram illustrating an image displayed on the display unit 118 in the first embodiment. FIG. 19B is a diagram illustrating an image displayed on the display unit 118 in the seventh embodiment.

まず、図19(a)について説明する。ユーザが図19(a)に示した撮像装置100を用いて撮影を行うと、撮像装置100は実施例に示した制御を行う。   First, FIG. 19A will be described. When the user performs shooting using the imaging apparatus 100 shown in FIG. 19A, the imaging apparatus 100 performs the control shown in the embodiment.

図19(a)に示すように、撮像装置100の背面に設けられた表示部118は、標準設定決定回路38が輝度ごとに撮像条件の標準設定を決定したこと(図5のステップS43参照)、つまり標準設定が更新されたことに応じて、標準設定更新の旨を表示することができる。   As shown in FIG. 19A, the display unit 118 provided on the back surface of the imaging apparatus 100 indicates that the standard setting determination circuit 38 has determined the standard setting of the imaging condition for each luminance (see step S43 in FIG. 5). That is, in response to the standard setting being updated, the standard setting update can be displayed.

図19(a)の例では、分類回路32は輝度に応じて天候ごとに分類をしている。従って、表示部118は、撮影状況を“シーン”と表し、“シーン”が“晴天”である場合の標準設定を更新したことをユーザに通知する。これにより、ユーザは標準設定が更新されたことを容易に把握できる。   In the example of FIG. 19A, the classification circuit 32 performs classification for each weather according to the luminance. Therefore, the display unit 118 represents the shooting situation as “scene”, and notifies the user that the standard setting when “scene” is “fine weather” has been updated. Thereby, the user can easily grasp that the standard setting has been updated.

次に、図19(b)について説明する。図19(b)に示した撮像装置100はユーザ識別処理を行う。すなわち、図13に示したように、指紋検出部52及び指紋検出回路54がユーザを識別する。   Next, FIG. 19B will be described. The imaging apparatus 100 illustrated in FIG. 19B performs user identification processing. That is, as shown in FIG. 13, the fingerprint detection unit 52 and the fingerprint detection circuit 54 identify the user.

図19(b)に示すように、表示部118は、指紋検出部52及び指紋検出回路54がユーザを識別したことに応じて、ユーザが識別され、当該ユーザに対する標準設定が抽出されたことを表示する(実施例6、図13のステップS95参照)。例えばユーザとして“ユーザA”が識別された場合、表示部118は、ユーザAに対する標準設定である“ユーザAモード”が設定されたことをユーザに通知する。これにより、ユーザは、ユーザAに応じた標準設定が抽出されたことを容易に把握することができる。また、表示部118は、レンズ110の種類が識別されたことを表示することもできる(実施例7、図16のステップS101参照)。   As shown in FIG. 19B, the display unit 118 indicates that the user has been identified and the standard setting for the user has been extracted in response to the fingerprint detection unit 52 and the fingerprint detection circuit 54 identifying the user. This is displayed (see step S95 in Example 6, FIG. 13). For example, when “user A” is identified as the user, the display unit 118 notifies the user that “user A mode” which is a standard setting for the user A is set. Thereby, the user can easily grasp that the standard setting according to the user A has been extracted. The display unit 118 can also display that the type of the lens 110 has been identified (see Example 7, step S101 in FIG. 16).

撮影状況として、輝度、時刻、位置、被写体の人の顔の数、及びレンズの種類について説明したが、上記以外の撮影状況でも本発明は適用可能である。   Although the luminance, time, position, number of human faces of the subject, and lens type have been described as the shooting situation, the present invention can also be applied to shooting situations other than those described above.

また、本発明は、デジタルカメラだけでなく、デジタルカメラ以外の撮像装置や、撮影機能を備える携帯電話、PDA(Personal Digital Assistant)、ノートパソコン、腕時計、及びビデオカメラ等の機器にも適用可能である。   Further, the present invention can be applied not only to digital cameras but also to devices such as imaging devices other than digital cameras, mobile phones having a photographing function, PDAs (Personal Digital Assistants), notebook computers, watches, and video cameras. is there.

以上、本発明の実施例について詳述したが、本発明はかかる特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

CPU 2
撮像素子 10
測光センサ 30
分類回路 32
計測回路 34
頻度演算回路 36
標準設定決定回路 38
時計 40
位置情報検出部 42
レンズ情報検出回路 46
ディレクトリ生成回路 48
顔検出部 50
指紋検出部 52
指紋検出回路 54
撮像装置 100
通信接点 105、107
レンズ 110
表示部 118
CPU 2
Image sensor 10
Photometric sensor 30
Classification circuit 32
Measurement circuit 34
Frequency calculation circuit 36
Standard setting decision circuit 38
Clock 40
Position information detection unit 42
Lens information detection circuit 46
Directory generation circuit 48
Face detection unit 50
Fingerprint detector 52
Fingerprint detection circuit 54
Imaging device 100
Communication contact 105, 107
Lens 110
Display unit 118

Claims (6)

設定された撮像条件で撮像を行う撮像手段と、
撮影状況を検出する検出手段と、
前記撮影状況に対する、前記撮像条件の設定頻度を計測する頻度計測手段と、
前記設定頻度に応じて、前記撮影状況に対する前記撮像条件の標準設定を決定する決定手段と、を具備することを特徴とする撮像装置。
Imaging means for imaging under set imaging conditions;
Detection means for detecting the shooting situation;
Frequency measuring means for measuring the setting frequency of the imaging condition for the shooting situation;
An image pickup apparatus comprising: a determination unit that determines a standard setting of the image pickup condition for the shooting state according to the setting frequency.
前記撮像装置は、異なる種類の複数のレンズを選択的に装着可能であり、
前記頻度計測手段は、前記撮像装置に装着されたレンズに対して、前記撮像条件の設定頻度を計測し、
前記決定手段は、前記設定頻度に応じて、前記レンズの種類に対する前記撮像条件の標準設定を決定することを特徴とする請求項1記載の撮像装置。
The imaging device can selectively attach a plurality of different types of lenses,
The frequency measuring means measures the setting frequency of the imaging condition for a lens attached to the imaging device,
The imaging apparatus according to claim 1, wherein the determination unit determines a standard setting of the imaging condition for the lens type according to the setting frequency.
前記頻度計測手段は、前記撮像装置の使用者に対して、前記撮像条件の設定頻度を計測し、
前記決定手段は、前記設定頻度に応じて、前記使用者に対する前記撮像条件の標準設定を決定することを特徴とする請求項1または2記載の撮像装置。
The frequency measuring means measures a setting frequency of the imaging condition for a user of the imaging device,
The imaging apparatus according to claim 1, wherein the determining unit determines a standard setting of the imaging condition for the user according to the setting frequency.
前記決定手段は、前記設定頻度が基準値より大きい場合に、前記撮影状況に対する前記撮像条件の標準設定を決定することを特徴とする請求項1から3いずれか一項記載の撮像装置。   4. The imaging apparatus according to claim 1, wherein the determination unit determines a standard setting of the imaging condition for the imaging situation when the setting frequency is greater than a reference value. 5. 前記撮像条件は複数であり、
前記頻度計測手段は、前記複数の撮像条件の各々の設定頻度を計測し、
前記決定手段は、複数の前記設定頻度の各々に応じて、前記撮影状況に対する前記複数の撮像条件のうち、少なくとも1つの撮像条件の標準設定を決定することを特徴とする請求項1から4いずれか一項記載の撮像装置。
The imaging conditions are plural,
The frequency measuring means measures a set frequency of each of the plurality of imaging conditions;
5. The method according to claim 1, wherein the determining unit determines a standard setting of at least one imaging condition among the plurality of imaging conditions for the imaging situation according to each of the plurality of setting frequencies. An imaging apparatus according to claim 1.
前記撮影状況は、被写体の輝度、時刻、場所、及び被写体中の人の顔の数、の少なくとも1つであることを特徴とする請求項1から5いずれか一項記載の撮像装置。   The imaging apparatus according to claim 1, wherein the photographing situation is at least one of luminance of the subject, time, location, and the number of human faces in the subject.
JP2009208659A 2009-09-09 2009-09-09 Imaging device Expired - Fee Related JP5440047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009208659A JP5440047B2 (en) 2009-09-09 2009-09-09 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009208659A JP5440047B2 (en) 2009-09-09 2009-09-09 Imaging device

Publications (2)

Publication Number Publication Date
JP2011061476A true JP2011061476A (en) 2011-03-24
JP5440047B2 JP5440047B2 (en) 2014-03-12

Family

ID=43948610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009208659A Expired - Fee Related JP5440047B2 (en) 2009-09-09 2009-09-09 Imaging device

Country Status (1)

Country Link
JP (1) JP5440047B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016021684A (en) * 2014-07-15 2016-02-04 キヤノン株式会社 Camera system, imaging apparatus and control method of the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0367236A (en) * 1989-08-07 1991-03-22 Nikon Corp Focal distance controller for camera
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2004247983A (en) * 2003-02-14 2004-09-02 Konica Minolta Holdings Inc Photographing apparatus, image processing apparatus, and image processing program
JP2004317377A (en) * 2003-04-17 2004-11-11 Nikon Corp Foreign matter detection tool, camera body, and foreign matter detection system for lens replacing type digital camera
JP2005347985A (en) * 2004-06-02 2005-12-15 Seiko Epson Corp Camera with learning function
JP2009017368A (en) * 2007-07-06 2009-01-22 Fujifilm Corp Digital camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0367236A (en) * 1989-08-07 1991-03-22 Nikon Corp Focal distance controller for camera
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2004247983A (en) * 2003-02-14 2004-09-02 Konica Minolta Holdings Inc Photographing apparatus, image processing apparatus, and image processing program
JP2004317377A (en) * 2003-04-17 2004-11-11 Nikon Corp Foreign matter detection tool, camera body, and foreign matter detection system for lens replacing type digital camera
JP2005347985A (en) * 2004-06-02 2005-12-15 Seiko Epson Corp Camera with learning function
JP2009017368A (en) * 2007-07-06 2009-01-22 Fujifilm Corp Digital camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016021684A (en) * 2014-07-15 2016-02-04 キヤノン株式会社 Camera system, imaging apparatus and control method of the same

Also Published As

Publication number Publication date
JP5440047B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
US7787665B2 (en) Image capturing apparatus, photograph quantity management method, and photograph quantity management program
US7889890B2 (en) Image capture apparatus and control method therefor
JP4613724B2 (en) Imaging apparatus and imaging method
JP5224955B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
CN101010943B (en) Image taking device and its controlling method
JP4882462B2 (en) Imaging device
JP4943769B2 (en) Imaging apparatus and in-focus position search method
US20070019081A1 (en) Image pickup apparatus, image pickup method and image pickup program
US8760561B2 (en) Image capture for spectral profiling of objects in a scene
CN102483559A (en) Photographing lens, photographing device, photographing system, imaging device, and personal device
US8411159B2 (en) Method of detecting specific object region and digital camera
US20120098989A1 (en) Imaging apparatus and method of displaying a number of captured images
JP2005184508A (en) Imaging device and control method therefor
JP2009290694A (en) Imaging device
US7679653B2 (en) Digital image acquisition arranged to acquire image data related to different light configurations
JP4623299B2 (en) Imaging apparatus and imaging method
JP5073602B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014103643A (en) Imaging device and subject recognition method
JP2006313978A (en) Imaging apparatus, control method, and computer program
JP5440047B2 (en) Imaging device
JP2010239184A (en) Imaging apparatus and image adjustment method of the same
JP2005292740A (en) Electronic camera
JP5728882B2 (en) Imaging device, number of shots display method
JP2012085228A (en) Photographing condition setting device, imaging device, image processing device, and photographing condition setting program
JP2012085223A (en) Photographing condition generation device, imaging device, and photographing condition generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Ref document number: 5440047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees