JP2009021862A - Imaging apparatus, and imaging control method - Google Patents

Imaging apparatus, and imaging control method Download PDF

Info

Publication number
JP2009021862A
JP2009021862A JP2007183419A JP2007183419A JP2009021862A JP 2009021862 A JP2009021862 A JP 2009021862A JP 2007183419 A JP2007183419 A JP 2007183419A JP 2007183419 A JP2007183419 A JP 2007183419A JP 2009021862 A JP2009021862 A JP 2009021862A
Authority
JP
Japan
Prior art keywords
pet
imaging
image data
image processing
exposure correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007183419A
Other languages
Japanese (ja)
Inventor
Toru Ueda
徹 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007183419A priority Critical patent/JP2009021862A/en
Publication of JP2009021862A publication Critical patent/JP2009021862A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an optimal image by performing high-precision pet detection. <P>SOLUTION: When a user selects the type of a pet, a CPU reads features of the pet stored in a ROM and determines whether the appearance is fine or smooth (S201, S203). In the case of fine appearance, contour emphasis is performed and in the case of smooth appearance, noise reduction processing is performed (S202, S204). Next, a ratio in occupation of a high-luminance portion and a low-luminance portion is determined (S205-S207). In a case where it is decided that the high-luminance portion is much and the low-luminance portion is also much, gradation correction is performed to widen dynamic ranges of both highlight/dark sides (S208) and in a case where it is decided that the high-luminance portion is much and the low-luminance portion is a little, gradation correction is performed to widen the dynamic range of the highlight side (S209). In a case where it is decided that the high-luminance portion is a little and the low-luminance portion is much, gradation correction is performed to widen the dynamic range of the dark side (S210). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は撮像装置及び撮像制御方法に係り、特に画像内においてペットの検出制御を行う撮像装置及び撮像制御方法に関する。   The present invention relates to an imaging apparatus and an imaging control method, and more particularly, to an imaging apparatus and an imaging control method for performing pet detection control in an image.

従来より、顔検出機能を有する撮像装置が知られている。この撮像装置は、肌色検出等を行って顔候補領域を検出し、検出した顔候補領域とデータベースに蓄積された顔のパターンデータとのマッチングを行って顔検出を行っている。特許文献1には、入力画像を小領域に分割し、各小領域の輝度特徴から目の候補領域と目の間の候補領域とを検出することにより、顔の検出精度向上を行う技術が記載されている。
特開2001−216515号公報
Conventionally, an imaging apparatus having a face detection function is known. This imaging apparatus detects a face candidate area by performing skin color detection or the like, and performs face detection by matching the detected face candidate area with face pattern data stored in a database. Patent Document 1 describes a technique for improving face detection accuracy by dividing an input image into small areas and detecting candidate areas between eyes and candidate areas between eyes from the luminance characteristics of each small area. Has been.
JP 2001-216515 A

顔検出における顔のデータベースの代わりに動物のデータベースを用いることで、ペット検出を行うことは可能である。ただし、ペットは犬や猫、鳥と種類が多く、また同じ犬でも毛の多さ、色などが多数存在するため、パラメータが1パターンのみだと全ての種類のペットにおいて満足する検出性能を提供することができない。本発明はこのような事情に鑑みてなされたもので、より精度の高いペット検出を行い、最適な画像を提供することができる撮像装置及び撮像制御方法を提供することを目的とする。   It is possible to perform pet detection by using an animal database instead of a face database in face detection. However, there are many types of pets such as dogs, cats, and birds, and there are many hairs, colors, etc. even in the same dog, so detection performance that satisfies all types of pets with only one pattern is provided. Can not do it. The present invention has been made in view of such circumstances, and an object thereof is to provide an imaging apparatus and an imaging control method capable of performing pet detection with higher accuracy and providing an optimum image.

前記目的を達成するために請求項1に記載の撮像装置は、被写体を撮像して画像データに変換する撮像手段と、撮像するペットをユーザが指定する入力手段と、ペットごとに前記ペットの外見の特徴を記憶するデータベースと、前記指定されたペットの外見の特徴を前記データベースから読み出す読み出し手段と、前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理手段と、前記画像処理が施された画像データから前記ペットを検出するペット検出手段とを備えたことを特徴とする。   In order to achieve the object, the imaging apparatus according to claim 1, an imaging unit that images a subject and converts it into image data, an input unit that a user specifies a pet to be imaged, and an appearance of the pet for each pet. A database for storing the characteristics of the above, a reading means for reading out the appearance characteristics of the designated pet from the database, an image processing means for performing predetermined image processing on the image data according to the characteristics of the read appearance, And pet detection means for detecting the pet from the image data subjected to the image processing.

これにより、ペットに対しての検出性能を向上させることができる。   Thereby, the detection performance with respect to a pet can be improved.

請求項2に示すように請求項1に記載の撮像装置において、撮像したペットの画像データから前記ペットの外見の特徴を抽出する抽出手段と、前記抽出したペットの外見の特徴を前記データベースに登録する登録手段とを備えたことを特徴とする。   The imaging device according to claim 1, wherein an extraction unit that extracts the appearance characteristics of the pet from the captured image data of the pet, and the extracted appearance characteristics of the pet are registered in the database. And a registration unit for performing the above-described registration.

これにより、自分の飼っているペットに対する検出性能を向上させることができる。   Thereby, the detection performance with respect to the pet which he keeps can be improved.

請求項3に示すように請求項1又は2に記載の撮像装置において、前記画像処理手段は、前記指定されたペットが高周波成分を多く含むほど強く輪郭強調処理を行うことを特徴とする。   According to a third aspect of the present invention, in the imaging apparatus according to the first or second aspect, the image processing means performs the edge enhancement process more strongly as the designated pet contains more high-frequency components.

これにより、解像度が増し、高周波成分の多いペットの検出精度を上げることができる。   Thereby, the resolution can be increased and the detection accuracy of a pet having a high frequency component can be increased.

請求項4に示すように請求項1から3のいずれかに記載の撮像装置において、前記画像処理手段は、前記指定されたペットが低周波成分を多く含むほど強くノイズ低減処理を行うことを特徴とする。   The imaging apparatus according to any one of claims 1 to 3, wherein the image processing unit performs noise reduction processing more strongly as the designated pet contains more low frequency components. And

これにより、本来無いはずの高周波成分を除去し、低周波成分の多いペットの検出精度を上げることができる。   As a result, it is possible to remove high-frequency components that are not supposed to exist and improve the detection accuracy of pets with many low-frequency components.

請求項5に示すように請求項1から4のいずれかに記載の撮像装置において、前記画像処理手段は、前記指定されたペットが輝度の高い部分を多く含む場合に高輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする。   The imaging apparatus according to any one of claims 1 to 4, wherein the image processing unit has a dynamic range on a high luminance side when the designated pet includes a lot of high luminance portions. An enlarged gradation conversion process is performed.

これにより、輝度が高いペットの白トビを防止し、検出精度を上げることができる。   As a result, pets with high brightness can be prevented from becoming white and detection accuracy can be increased.

請求項6に示すように請求項1から5のいずれかに記載の撮像装置において、前記画像処理手段は、前記指定されたペットが輝度の低い部分を多く含む場合に低輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする。   6. The imaging apparatus according to claim 1, wherein the image processing unit has a dynamic range on a low luminance side when the designated pet includes a lot of low luminance portions. An enlarged gradation conversion process is performed.

これにより、輝度が低いペットの黒つぶれを防止し、検出精度を上げることができる。   Thereby, it is possible to prevent blackening of a pet having a low luminance and increase detection accuracy.

請求項7に示すように請求項1から6のいずれかに記載の撮像装置において、前記画像処理手段は、前記ペット検出手段が前記ペットを検出した場合に、本撮像した画像データに前記ペットの外見の特徴に応じて所定の画像処理を施すことを特徴とする。   The imaging apparatus according to any one of claims 1 to 6, wherein when the pet detection unit detects the pet, the image processing unit adds the image of the pet to the captured image data. It is characterized in that predetermined image processing is performed in accordance with appearance characteristics.

これにより、ペットの特徴に適した画像を得ることができる。   Thereby, an image suitable for the characteristics of the pet can be obtained.

請求項8に示すように請求項7に記載の撮像装置において、前記画像処理手段は、前記ペットが輝度の高い部分が少なく輝度の低い部分を多く含む場合に、前記本撮像した画像データに強くノイズ低減処理を行うことを特徴とする。   The imaging apparatus according to claim 7, wherein the image processing unit strongly resists the main imaged image data when the pet includes a portion with a high luminance and a low luminance. A noise reduction process is performed.

これにより、本来無いはずの高周波成分を除去した画像を得ることができる。   Thereby, it is possible to obtain an image from which a high-frequency component that should not exist is removed.

請求項9に示すように請求項7又は8に記載の撮像装置において、前記画像処理手段は、前記ペットが輝度の低い部分が少なく輝度の高い部分を多く含む場合に、前記本撮像した画像データに高輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする。   9. The imaging device according to claim 7 or 8, wherein the image processing means includes the image data that is actually captured when the pet includes a small number of low-luminance portions and a large luminance portion. In addition, a gradation conversion process for expanding a dynamic range on the high luminance side is performed.

これにより、輝度が高いペットの白トビを防止した画像を得ることができる。   As a result, it is possible to obtain an image in which pets with high luminance are prevented from white spots.

前記目的を達成するために請求項10に記載の撮像装置は、被写体を撮像して画像データに変換する撮像手段と、撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出手段と、前記算出された露出補正条件をデータベースに登録する登録手段と、前記データベースから露出補正条件を読み出す読み出し手段と、前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正手段と、前記露出補正が施された画像データから前記ペットを検出するペット検出手段とを備えたことを特徴とする。   In order to achieve the object, the imaging apparatus according to claim 10 calculates an exposure correction condition when imaging the pet from the imaging unit that images the subject and converts the image into image data. Calculating means for registering, registration means for registering the calculated exposure correction condition in a database, reading means for reading the exposure correction condition from the database, and exposure to the image data in accordance with the exposure correction condition read from the database An exposure correction means for performing correction and a pet detection means for detecting the pet from the image data subjected to the exposure correction are provided.

これにより、ペットに対しての検出性能を向上させることができる。   Thereby, the detection performance with respect to a pet can be improved.

前記目的を達成するために請求項11に記載の撮像制御方法は、被写体を撮像して画像データに変換する撮像工程と、撮像するペットをユーザが指定する入力工程と、前記指定されたペットの外見の特徴をデータベースから読み出す読み出し工程と、前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理工程と、前記画像処理が施された画像データから前記ペットを検出するペット検出工程とを備えたことを特徴とする。   In order to achieve the object, an imaging control method according to claim 11, an imaging step of imaging a subject and converting it into image data, an input step in which a user specifies a pet to be imaged, and the specified pet A reading step of reading out appearance features from the database, an image processing step of performing predetermined image processing on the image data in accordance with the read out features of the appearance, and detecting the pet from the image data subjected to the image processing And a pet detection step.

これにより、ペットに対しての検出性能を向上させることができる。   Thereby, the detection performance with respect to a pet can be improved.

前記目的を達成するために請求項12に記載の撮像制御方法は、被写体を撮像して画像データに変換する撮像工程と、撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出工程と、前記算出された露出補正条件をデータベースに登録する登録工程と、前記データベースから露出補正条件を読み出す読み出し工程と、前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正工程と、前記露出補正が施された画像データから前記ペットを検出するペット検出工程とを備えたことを特徴とする。   In order to achieve the above object, the imaging control method according to claim 12 includes an imaging step of imaging a subject and converting it into image data, and exposure correction conditions when imaging the pet from the captured pet image data. A calculation step for calculating, a registration step for registering the calculated exposure correction condition in a database, a reading step for reading the exposure correction condition from the database, and the image data according to the exposure correction condition read from the database. An exposure correction process for performing exposure correction and a pet detection process for detecting the pet from the image data subjected to the exposure correction are provided.

これにより、ペットに対しての検出性能を向上させることができる。   Thereby, the detection performance with respect to a pet can be improved.

本発明によれば、データベースに登録されたペット特徴情報に基づいて画像処理を行うことにより、精度の高いペット検出を行うことができ、また最適な画像を提供することができる撮像装置及び撮像制御方法を提供することができる。   According to the present invention, by performing image processing based on pet feature information registered in the database, it is possible to perform highly accurate pet detection and to provide an optimal image and imaging control. A method can be provided.

以下、添付図面に従って本発明を実施するための最良の形態について説明する。   The best mode for carrying out the present invention will be described below with reference to the accompanying drawings.

<第1の実施の形態>
図1は、本発明が適用されたデジタルカメラの第1の実施の形態の電気的構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing an electrical configuration of a first embodiment of a digital camera to which the present invention is applied.

同図に示すように、本実施の形態のデジタルカメラ10は、光学ユニット11、モータ駆動部12、CCD13、タイミングジェネレータ14、アナログ信号処理部15、A/D変換器16、画像入力コントローラ17、バス18、検出部19、デジタル信号処理部20、フラッシュ21、充電部22、CPU23、メモリカード24、外部メモリインターフェース25、LCDインターフェース26、LCD27、メモリインターフェース28、RAM29、ROM30、圧縮処理部31等を備えて構成される。   As shown in the figure, the digital camera 10 of the present embodiment includes an optical unit 11, a motor driving unit 12, a CCD 13, a timing generator 14, an analog signal processing unit 15, an A / D converter 16, an image input controller 17, Bus 18, detection unit 19, digital signal processing unit 20, flash 21, charging unit 22, CPU 23, memory card 24, external memory interface 25, LCD interface 26, LCD 27, memory interface 28, RAM 29, ROM 30, compression processing unit 31, etc. It is configured with.

各部はCPU23に制御されて動作し、CPU23は、図示しない操作部からの入力に基づき所定の制御プログラムを実行することにより、デジタルカメラ10の各部を制御する。   Each unit operates under the control of the CPU 23, and the CPU 23 controls each unit of the digital camera 10 by executing a predetermined control program based on an input from an operation unit (not shown).

ROM30には、このCPU23が実行する制御プログラムのほか、制御に必要な各種データ等が記録されている。CPU23は、このROM30に記録された制御プログラムをRAM29に読み出し、逐次実行することにより、デジタルカメラ10の各部を制御する。   In addition to the control program executed by the CPU 23, various data necessary for control are recorded in the ROM 30. The CPU 23 controls each unit of the digital camera 10 by reading the control program recorded in the ROM 30 into the RAM 29 and sequentially executing the program.

なお、このRAM29は、プログラムの実行処理領域として利用されるほか、画像データ等の一時記憶領域、各種作業領域として利用される。   The RAM 29 is used as a program execution processing area, a temporary storage area for image data, and various work areas.

図示しない操作部は、シャッタボタンやズームレバー、メニューボタン、実行ボタン、キャンセルボタン、モード切換ダイヤル、電源ボタン等のカメラの一般的な操作手段を含み、操作に応じた信号をCPU23に出力する。   An operation unit (not shown) includes general camera operation means such as a shutter button, zoom lever, menu button, execution button, cancel button, mode switching dial, and power button, and outputs a signal corresponding to the operation to the CPU 23.

光学ユニット11は、フォーカスレンズ、ズームレンズ、絞りを含んで構成されており、これらはモータ駆動部12により移動を制御される。   The optical unit 11 includes a focus lens, a zoom lens, and a diaphragm, and these are controlled to move by a motor drive unit 12.

CCD13は、光学ユニット11の後段に配置されており、光学ユニット11を透過した被写体光を受光する。光学ユニット11を透過した被写体光は、このCCD13の受光面上に結像され、各受光素子によって電気信号に変換される。   The CCD 13 is arranged at the rear stage of the optical unit 11 and receives subject light transmitted through the optical unit 11. The subject light transmitted through the optical unit 11 is imaged on the light receiving surface of the CCD 13 and converted into an electric signal by each light receiving element.

このCCD13は、タイミングジェネレータ14から供給される垂直転送クロック及び水平転送クロックに同期して、各画素に蓄積された電荷を1ラインずつシリアルな画像信号として出力する。CPU23は、タイミングジェネレータ14を制御して、CCD13の駆動を制御する。なお、各画素の電荷蓄積時間(露出時間)は、タイミングジェネレータ14から与えられる電子シャッタ駆動信号によって決められる。   The CCD 13 outputs the charge accumulated in each pixel as a serial image signal line by line in synchronization with the vertical transfer clock and horizontal transfer clock supplied from the timing generator 14. The CPU 23 controls the timing generator 14 to control the driving of the CCD 13. Note that the charge accumulation time (exposure time) of each pixel is determined by an electronic shutter drive signal given from the timing generator 14.

また、画像信号の出力は、デジタルカメラ10が撮影モードにセットされると開始される。すなわち、デジタルカメラ10が撮影モードにセットされると、LCD27にスルー画像を表示するため、画像信号の出力が開始される。このスルー画像用の画像信号の出力は、本撮影の指示が行われると、一旦停止され、本撮影が終了すると、再度開始される。   The output of the image signal is started when the digital camera 10 is set to the shooting mode. In other words, when the digital camera 10 is set to the photographing mode, output of an image signal is started in order to display a through image on the LCD 27. The output of the image signal for the through image is temporarily stopped when the instruction for the main photographing is given, and is started again when the main photographing is finished.

CCD13から出力される画像信号は、アナログ信号であり、このアナログの画像信号は、アナログ信号処理部15に取り込まれる。   The image signal output from the CCD 13 is an analog signal, and this analog image signal is taken into the analog signal processing unit 15.

アナログ信号処理部15は、相関二重サンプリング回路(CDS)、自動ゲインコントロール回路(AGC)を含んで構成される。CDSは、画像信号に含まれるノイズの除去を行い、AGCは、ノイズ除去された画像信号を所定のゲインで増幅する。このアナログ信号処理部15で所要の画像処理が施されたアナログの画像信号は、A/D変換器16に取り込まれる。   The analog signal processing unit 15 includes a correlated double sampling circuit (CDS) and an automatic gain control circuit (AGC). The CDS removes noise contained in the image signal, and the AGC amplifies the noise-removed image signal with a predetermined gain. The analog image signal that has undergone the required image processing by the analog signal processing unit 15 is taken into the A / D converter 16.

A/D変換器16は、取り込んだアナログの画像信号を所定ビットの階調幅を持ったデジタルの画像信号に変換する。この画像信号は、いわゆるRAWデータであり、画素ごとR、G、Bの濃度を示す階調値を有している。   The A / D converter 16 converts the captured analog image signal into a digital image signal having a gradation width of a predetermined bit. This image signal is so-called RAW data, and has a gradation value indicating the density of R, G, and B for each pixel.

画像入力コントローラ17は、所定容量のラインバッファを内蔵しており、A/D変換器16から出力された1コマ分の画像信号を蓄積する。この画像入力コントローラ17に蓄積された1コマ分の画像信号は、バス18を介してRAM29に格納される。   The image input controller 17 has a built-in line buffer having a predetermined capacity, and stores the image signal for one frame output from the A / D converter 16. The image signal for one frame accumulated in the image input controller 17 is stored in the RAM 29 via the bus 18.

バス18には、上記CPU23、ROM30、RAM29、画像入力コントローラ17のほか、検出部19、デジタル信号処理部20、外部メモリインターフェース25、LCDインターフェース26、メモリインターフェース28、圧縮処理部31等が接続されており、これらはバス18を介して互いに情報を送受信できるようにされている。   In addition to the CPU 23, ROM 30, RAM 29, and image input controller 17, the detection unit 19, digital signal processing unit 20, external memory interface 25, LCD interface 26, memory interface 28, compression processing unit 31, etc. are connected to the bus 18. These are configured to be able to transmit / receive information to / from each other via the bus 18.

RAM29に格納された1コマ分の画像信号は、点順次(画素の順番)にデジタル信号処理部20に取り込まれる。   The image signal for one frame stored in the RAM 29 is taken into the digital signal processing unit 20 dot-sequentially (pixel order).

デジタル信号処理部20は、点順次に取り込んだR、G、Bの各色の画像信号に対して所定の画像処理を施し、輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)を生成する。   The digital signal processing unit 20 performs predetermined image processing on the image signals of R, G, and B colors captured in a dot-sequential manner, and outputs an image signal (Y / C) composed of a luminance signal Y and color difference signals Cr and Cb. Signal).

検出部19は、この画像信号から、被写体中に含まれる生物やペットの検出を行う。   The detection unit 19 detects a living thing or a pet contained in the subject from the image signal.

CPU23は、撮影領域(一画面)を複数の領域に分割し、分割領域ごとにR、G、Bごとの画像信号の積算値を算出し、この積算値から各分割領域における輝度値Yを算出する。R、G、Bごとの画像信号の積算値をr、g、bとすると、輝度値Yは[数1]のように表される。   The CPU 23 divides the shooting area (one screen) into a plurality of areas, calculates an integrated value of image signals for each R, G, and B for each divided area, and calculates a luminance value Y in each divided area from this integrated value. To do. When the integrated values of the image signals for R, G, and B are r, g, and b, the luminance value Y is expressed as [Equation 1].

[数1]
輝度値Y=0.299×r+0.587×g+0.114×b
ここで、r、g、bはそれぞれ0〜255の値をとるので、輝度値Yも0〜255の値となる。
[Equation 1]
Luminance value Y = 0.299 × r + 0.587 × g + 0.114 × b
Here, since r, g, and b each take a value from 0 to 255, the luminance value Y also takes a value from 0 to 255.

次に、算出された各分割領域における輝度値Yから仮の露出値(Ev値)αを求める。なお、仮の露出値αの算出方法は特に限定されず、公知の方法を用いて算出することができる。たとえば、画面全体の輝度値の平均を求めて、これを仮の露出値とする方式(いわゆる平均測光方式)や、平均測光方式において、輝度値の平均を求める際、画面中央付近の領域に重み付けする方式(いわゆる中央順点測光方式)、画像のごく狭い領域の輝度値の平均を求めて、これを仮の露出値とする方式(いわゆるスポット測光方式)、画面を複数の領域に分割し、パターン認識処理を行って、最も重要視される領域を予想し、その領域の輝度値の平均を求めて、これを仮の露出値とする方式(いわゆる分割測光方式)等、種々の方式を用いることができる。   Next, a temporary exposure value (Ev value) α is obtained from the calculated luminance value Y in each divided region. In addition, the calculation method of temporary exposure value (alpha) is not specifically limited, It can calculate using a well-known method. For example, in the method of calculating the average of the luminance values of the entire screen and using this as a temporary exposure value (so-called average metering method) or the average metering method, weighting the area near the center of the screen Method (so-called center forward point metering method), a method of calculating the average of brightness values in a very narrow area of an image, and using this as a temporary exposure value (so-called spot metering method), dividing the screen into a plurality of regions, Various methods are used such as a method (so-called divided photometry method) in which pattern recognition processing is performed to predict the most important region, the average of luminance values in the region is obtained, and this is used as a temporary exposure value. be able to.

本実施の形態のデジタルカメラでは、これらの測光方式をユーザが選択できるものとし、選択された測光方式の下で仮の露出値が算出される。   In the digital camera of the present embodiment, it is assumed that the user can select these photometry methods, and a temporary exposure value is calculated under the selected photometry method.

CPU23は、算出された仮の露出値αに対して必要に応じて露出補正を行い、最終的に得られた露出値(最終露出値)βに基づいて露出設定を行う。すなわち、最終露出値βから所定のプログラム線図に従って絞り値、シャッタ速度を決定する。   The CPU 23 performs exposure correction as necessary for the calculated temporary exposure value α, and performs exposure setting based on the finally obtained exposure value (final exposure value) β. That is, the aperture value and shutter speed are determined from the final exposure value β according to a predetermined program diagram.

CPU23は、撮影光量が不足している場合や、主要被写体が逆光であると判断した場合に、充電部22により充電されたコンデンサによりフラッシュ21を発光させ、撮影補助光とする。   When the photographing light amount is insufficient or when the main subject is determined to be backlit, the CPU 23 causes the flash 21 to be emitted by the capacitor charged by the charging unit 22 to obtain photographing auxiliary light.

圧縮処理部31は、CPU23からの圧縮指令に従い、入力された輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)に所定形式(たとえば、JPEG)の圧縮処理を施し、圧縮画像データを生成する。また、CPU23からの伸張指令に従い、入力された圧縮画像データに所定形式の伸張処理を施して、非圧縮の画像データを生成する。   In accordance with a compression command from the CPU 23, the compression processing unit 31 performs compression processing of a predetermined format (for example, JPEG) on an image signal (Y / C signal) composed of the input luminance signal Y and color difference signals Cr and Cb, Generate compressed image data. Further, in accordance with a decompression command from the CPU 23, the input compressed image data is subjected to decompression processing in a predetermined format to generate uncompressed image data.

LCDインターフェース26は、CPU23からの指令に従い、LCD27への表示を制御する。   The LCD interface 26 controls display on the LCD 27 in accordance with a command from the CPU 23.

外部メモリインターフェース25は、CPU23からの指令に従い、メモリカード24に対してデータの読み/書きを制御する。   The external memory interface 25 controls reading / writing of data with respect to the memory card 24 in accordance with a command from the CPU 23.

次に、ペット撮影モードの動作について説明する。ユーザは、図示しない操作部を用いてデジタルカメラ10をペット撮影モードに設定することができる。このペット撮影モードにおいては、まず最初に、撮影するペットの種類を選択する必要がある。撮影するペットの種類がネコの場合は「ネコ」を、カエルである場合は、「カエル」を選択する。撮影するペットの種類が設定されると、CPU23はCCD13から出力される信号に対して、ペット検出を行いやすいように処理を施す。図2は、この画像処理の動作を示したフローチャートである。   Next, the operation in the pet photographing mode will be described. The user can set the digital camera 10 to the pet photographing mode using an operation unit (not shown). In this pet photographing mode, first, it is necessary to select the type of pet to be photographed. If the pet to be photographed is a cat, “cat” is selected, and if it is a frog, “frog” is selected. When the type of pet to be photographed is set, the CPU 23 processes the signal output from the CCD 13 so as to facilitate pet detection. FIG. 2 is a flowchart showing the image processing operation.

まず、選択されたペットの種類の外見が、細かいか否かを判定する(ステップS201)。CPU23は、あらかじめROM30に記憶された各種ペットの特徴から、選択されたペットの種類の特徴を読み出す。図3(a)はネコの特徴を示す図であり、図3(b)はカエルの特徴を示す図である。このように読み出した特徴に基づいて、細かいか否かを判定する。   First, it is determined whether or not the appearance of the selected pet type is fine (step S201). The CPU 23 reads the characteristics of the selected pet type from the characteristics of the various pets stored in advance in the ROM 30. FIG. 3A is a diagram showing the characteristics of a cat, and FIG. 3B is a diagram showing the characteristics of a frog. Based on the feature thus read out, it is determined whether or not it is fine.

選択されたペットの種類が細かいと判断された場合は、高周波成分を強調する処理を行う(ステップS202)。図4(a)や図4(b)に示す輪郭強調フィルタを用いて輪郭を抽出し、抽出した輪郭成分にゲインをかけ、元画像と合成する。図5(a)は入力画像を示し、図5(b)はこの処理を施した画像を示す。このような処理を施すことにより、ネコのような毛がふさふさしたペットが被写体である場合の、ペット検出の検出精度を上げることができる。なお、輪郭強調フィルタのフィルタ行列は、図4の行列に限定されるものではなく、適宜決めればよい。   If it is determined that the type of the selected pet is fine, a process for emphasizing the high frequency component is performed (step S202). A contour is extracted using the contour enhancement filter shown in FIGS. 4A and 4B, gain is applied to the extracted contour component, and the resultant is combined with the original image. FIG. 5A shows an input image, and FIG. 5B shows an image subjected to this processing. By performing such processing, it is possible to increase the detection accuracy of pet detection when a pet with hair like cats is a subject. Note that the filter matrix of the edge enhancement filter is not limited to the matrix in FIG. 4 and may be determined as appropriate.

被写体が細かくないと判断された場合は、被写体がつるつるであるか否かを判定する(ステップS203)。この判定も、ROM30から読み出した特徴に基づいて行う。被写体がつるつるであると判断された場合は、メディアンフィルタを用いてノイズリダクション処理を行う(ステップS204)。図6(a)は入力画像を示し、図6(b)はノイズリダクション処理を施した画像を示す。このようにノイズを低減することで、例えばカエルのように毛が無いペットが被写体である場合に、本来無いはずのざらざらを無くし、ペット検出の検出精度を上げることができる。   If it is determined that the subject is not fine, it is determined whether or not the subject is smooth (step S203). This determination is also made based on the features read from the ROM 30. If it is determined that the subject is smooth, noise reduction processing is performed using a median filter (step S204). FIG. 6A shows an input image, and FIG. 6B shows an image subjected to noise reduction processing. By reducing noise in this way, for example, when a pet having no hair, such as a frog, is a subject, it is possible to eliminate roughness that should not be present and improve detection accuracy of pet detection.

次に、輝度が高い部分が多いか否かの判定(ステップS205)と、輝度が低い部分が多いか否かの判定を行う(ステップS206、ステップS207)。この判定も、ROM30から読み出した特徴に基づいて行う。   Next, it is determined whether there are many parts with high luminance (step S205) and whether there are many parts with low luminance (steps S206, S207). This determination is also made based on the features read from the ROM 30.

輝度が高い部分が多く、かつ輝度が低い部分も多いと判断した場合は、ハイライト・ダーク両側のダイナミックレンジを広げる階調補正を行う(ステップS208)。図7(a)に、通常のガンマカーブと、ハイライト・ダーク両側のダイナミックレンジを拡大したガンマカーブを示す。このようなガンマカーブを用いて階調補正を行うことにより、高輝度部及び低輝度部に階調を持たせることができ、輝度が高い部分と低い部分が共に多いペットが被写体である場合の、ペット検出の検出精度を上げることができる。   If it is determined that there are many high-luminance parts and many low-luminance parts, gradation correction is performed to widen the dynamic range on both the highlight and dark sides (step S208). FIG. 7A shows a normal gamma curve and a gamma curve obtained by enlarging the dynamic range of both the highlight and dark sides. By performing gradation correction using such a gamma curve, gradation can be given to the high-luminance part and the low-luminance part. The detection accuracy of pet detection can be increased.

輝度が高い部分が多く、輝度が低い部分は少ないと判断された場合は、ハイライト側のダイナミックレンジを広げり階調補正を行う(ステップS209)。図7(b)に、通常のガンマカーブと、ハイライト側のダイナミックレンジを拡大したガンマカーブを示す。このようなガンマカーブを用いて階調補正を行うことにより、通常ガンマカーブを用いた場合に飽和して白トビしてしまう領域にも階調を持たせることができ、輝度が高い部分が多いペットが被写体である場合の、ペット検出の検出精度を上げることができる。   If it is determined that there are many high-luminance portions and few low-luminance portions, the dynamic range on the highlight side is expanded and gradation correction is performed (step S209). FIG. 7B shows a normal gamma curve and a gamma curve obtained by enlarging the dynamic range on the highlight side. By performing gradation correction using such a gamma curve, it is possible to provide gradation even in areas that are saturated and white tones when using a normal gamma curve, and there are many areas with high luminance. The detection accuracy of pet detection when the pet is the subject can be increased.

輝度が高い部分は少なく、輝度が低い部分が多いと判断された場合は、ダーク側のダイナミックレンジを広げる階調補正を行う(ステップS210)。図7(c)に、通常のガンマカーブと、ダーク側のダイナミックレンジを拡大したガンマカーブを示す。このようなガンマカーブを用いて階調変換を行うことにより、通常ガンマカーブを用いた場合に黒つぶれしてしまうダーク側に階調を持たせることができ、輝度が低い部分が多いペットが被写体である場合の、ペット検出の検出精度を上げることができる。   If it is determined that there are few high-luminance parts and many low-luminance parts, gradation correction is performed to widen the dark side dynamic range (step S210). FIG. 7C shows a normal gamma curve and a gamma curve in which the dynamic range on the dark side is expanded. By performing gradation conversion using such a gamma curve, it is possible to give gradation to the dark side that would be blackened when using a normal gamma curve, and pets with many parts with low brightness will be subject In this case, the detection accuracy of pet detection can be increased.

画像処理が終了すると、この処理を施された信号を用いて、検出部19がペット検出を行う。この信号は、ペットの種類に応じて検出に適した処理が施されているため、ペットの検出精度を向上することができる。ペットを検出すると、検出したペットに対してAE/AFが行われ、ユーザはペットに適した撮影を行うことができる。   When the image processing is completed, the detection unit 19 performs pet detection using the signal subjected to this processing. Since this signal has been subjected to processing suitable for detection according to the type of pet, the detection accuracy of the pet can be improved. When a pet is detected, AE / AF is performed on the detected pet, and the user can perform photographing suitable for the pet.

このように、選択されたペットの種類に応じて入力信号に処理を施し、処理を施した信号を用いてペット検出を行うことにより、対象のペットの特徴に応じて検出精度を上げることができる。   In this way, by performing processing on the input signal according to the type of the selected pet and performing pet detection using the processed signal, the detection accuracy can be increased according to the characteristics of the target pet. .

<第2の実施の形態>
第2の実施の形態のデジタルカメラ10について説明する。図8は、第2の実施の形態のデジタルカメラ10の内部構成を示すブロック図である。図1に示すブロック図とは、マイペット情報記録部32を備えたところが異なっている。第2の実施の形態のデジタルカメラ10は、ユーザが自分のペットを登録し、その登録したペットの特徴に応じて画像処理を行うことにより、ペット検出の検出精度を上げる。
<Second Embodiment>
A digital camera 10 according to the second embodiment will be described. FIG. 8 is a block diagram illustrating an internal configuration of the digital camera 10 according to the second embodiment. The block diagram shown in FIG. 1 is different from the block diagram shown in FIG. In the digital camera 10 of the second embodiment, the user registers his / her pet and performs image processing according to the registered pet characteristics, thereby increasing the detection accuracy of pet detection.

最初に、自分のペットの外見の特徴をデジタルカメラ10に登録する必要がある。ユーザは、図示しない操作部を用いてマイペット登録モードに設定し、登録したいペットを撮影することにより、ペットの特徴を登録することができる。図9は、マイペット登録モードの動作について示したフローチャートである。   First, it is necessary to register the appearance characteristics of his / her pet in the digital camera 10. The user can register the pet characteristics by setting the my pet registration mode using an operation unit (not shown) and photographing the pet to be registered. FIG. 9 is a flowchart showing the operation in the my pet registration mode.

まず、登録対象となるペットの撮影を行う(ステップS901)。マイペット登録モードでの撮影においては、ペットの外見の特徴をつかむために、ペットをフレームいっぱいに、又はフレームからはみ出るくらいの画角で撮影を行う。また、スルー画像上に枠を表示させ、この枠内にペットが収まるように撮影を行い、枠内の画像において特徴を抽出してもよい。なお、正面だけでなく、横、後、上から等、様々な角度から複数の撮影を行うことにより、より詳細にペットの外見の特徴を捉えることができる。   First, a pet to be registered is photographed (step S901). When shooting in the My Pet Registration mode, in order to grasp the features of the pet's appearance, the pet is shot at a field angle that fills the frame or protrudes from the frame. Alternatively, a frame may be displayed on the through image, and shooting may be performed so that the pet fits within the frame, and features may be extracted from the image within the frame. Note that the appearance characteristics of the pet can be captured in more detail by performing a plurality of shootings from various angles such as from the side, rear, and top, as well as from the front.

次に、撮影した画像について、「細かい(高周波成分)」の重み付けを行う(ステップS902)。この重み付けは、撮影した画像にハイパスフィルタをかけ、高周波成分を抽出することにより行う。図10は、「細かい」の重み付けについて示した図である。図10に示すように、高周波成分が撮影領域の80%以上の場合に重みを5、70%〜80%の場合に4、50%〜70%の場合に3、30%〜50%の場合に2、及び30%以下の場合に1とする。なお、ステップS901において複数の画像を撮影した場合は、各画像の平均を算出して重み付けを行えばよい。   Next, weighting of “fine (high frequency component)” is performed on the photographed image (step S902). This weighting is performed by applying a high-pass filter to the captured image and extracting a high-frequency component. FIG. 10 is a diagram illustrating the “fine” weighting. As shown in FIG. 10, when the high-frequency component is 80% or more of the imaging region, the weight is 5, when the high-frequency component is 70% to 80%, 4, when the high frequency component is 50% to 70%, and 3, 30% to 50%. 2 and 30% or less. If a plurality of images are taken in step S901, the average of each image may be calculated and weighted.

次に、撮影した画像について、「つるつる(低周波成分)」の重み付けを行う(ステップS903)。この重み付けは、撮影した画像にローパスフィルタをかけ、低周波成分を抽出することにより行う。図11は、「つるつる」の重み付けについて示した図である。図11に示すように、低周波成分が領域の80%以上の場合に重みを5、70%〜80%の場合に4、50%〜70%の場合に3、30%〜50%の場合に2、及び30%以下の場合に1とする。   Next, the photographed image is weighted with “smooth (low frequency component)” (step S903). This weighting is performed by applying a low-pass filter to the captured image and extracting a low-frequency component. FIG. 11 is a diagram illustrating the weighting of “smooth”. As shown in FIG. 11, when the low frequency component is 80% or more of the region, the weight is 5, when the low frequency component is 70% to 80%, 3, when the low frequency component is 50% to 70%, and 3, 30% to 50%. 2 and 30% or less.

次に、撮影した画像について、「輝度が高い」の重み付けを行う(ステップS904)。図12は、ペットの高輝度部の判定について示した図である。図12に示すように、輝度が255に飽和している領域が40%以上の場合に重みを5、20%〜40%の場合に4、飽和している領域が20%以下で、かつ輝度が200以上の領域が40%以上の場合に3、飽和している領域が20%以下で、かつ輝度が200以上の領域が20%〜40%の場合に2、及び上記に該当しない場合に1とする。   Next, the captured image is weighted with “high brightness” (step S904). FIG. 12 is a diagram illustrating determination of a high-intensity part of a pet. As shown in FIG. 12, the weight is 5 when the area where the luminance is saturated to 255 is 40% or more, 4 when the area is 20% to 40%, the luminance is 20% or less, and the luminance. Is 3 when the area of 200 or more is 40% or more, 2 when the area of saturation is 20% or less and the area of luminance of 200 or more is 20% to 40%, and when the above is not applicable Set to 1.

次に、撮影した画像について、「輝度が低い」の重み付けを行う(ステップS905)。図13は、ペットの低輝度部の判定について示した図である。図13に示すように、輝度が0につぶれている領域が40%以上の場合に重みを5、20%〜40%の場合に4、0につぶれている領域が20%以下で、かつ輝度が60以下の領域が40%以上の場合に3、0につぶれている領域が20%以下で、かつ輝度が60以下の領域が20%〜40%の場合に2、及び上記に該当しない場合に1とする。   Next, the photographed image is weighted with “low brightness” (step S905). FIG. 13 is a diagram showing the determination of the low luminance part of the pet. As shown in FIG. 13, the weight is 5 when the area collapsed to 0% is 40% or more, 4 when the area is 20% to 40%, and the area collapsed to 0 is 20% or less. When the area of 60 or less is 40% or more, the area collapsed to 0 is 20% or less, and when the area of luminance 60 or less is 20% to 40%, 2 and when the above does not apply 1

最後に、得られた各重み情報を、マイペット情報記録部32に記録する(ステップS906)。図14は、マイペット情報記録部32に記録したマイペット情報の一例を示す図である。以上で、ペットの登録処理が終了する。   Finally, each obtained weight information is recorded in the my pet information recording unit 32 (step S906). FIG. 14 is a diagram illustrating an example of my pet information recorded in the my pet information recording unit 32. This completes the pet registration process.

マイペットの登録が終了すると、ユーザは、図示しない操作部を用いてマイペット撮影モードに設定し、ペット撮影を行うことができる。図15は、マイペット撮影モードの画像処理について示したフローチャートである。   When the registration of the my pet is completed, the user can set the my pet shooting mode using an operation unit (not shown) and perform the pet shooting. FIG. 15 is a flowchart showing image processing in the My Pet shooting mode.

ユーザはマイペット撮影モードに設定した際、複数のマイペットが登録されている場合は、複数のマイペットの中からこれから撮影を行うマイペットの選択を行う。マイペットが選択されると、CPU23は、マイペット情報記録部32からマイペット情報を読み出し、読み出したマイペット情報を用いて輝度が高い部分が多いか否かを判定する(ステップS1501)。ここでは、「輝度が高い」の重みが3以上の場合に、輝度が高い部分が多いと判断する。輝度が高い部分が多いと判断した場合は、輝度が低い部分が多いか否かを判定する(ステップS1502)。ここでも、「輝度が低い」の重みが3以上の場合に、輝度が低い部分が多いと判断する。輝度が低い部分が多いと判断した場合は、ハイライト・ダーク両側のダイナミックレンジを広げる階調補正を行う(ステップS1503)。このハイライト・ダーク両側のダイナミックレンジを広げる階調補正は、第1の実施の形態と同様に、図7(a)に示すガンマカーブを用いて行う。輝度が低い部分が少ないと判断した場合は、ハイライト側のダイナミックレンジを広げる階調補正を行う(ステップS1504)。この場合も、第1の実施の形態と同様に、図7(b)に示すガンマカーブを用いて行う。   When the user has set the my pet photographing mode, if a plurality of my pets are registered, the user selects a my pet to be photographed from among the plurality of my pets. When the my pet is selected, the CPU 23 reads out the my pet information from the my pet information recording unit 32, and determines whether or not there are many portions with high brightness using the read out my pet information (step S1501). Here, when the weight of “high luminance” is 3 or more, it is determined that there are many portions with high luminance. If it is determined that there are many portions with high luminance, it is determined whether there are many portions with low luminance (step S1502). Again, when the weight of “low luminance” is 3 or more, it is determined that there are many portions with low luminance. If it is determined that there are many portions with low luminance, gradation correction is performed to widen the dynamic range on both the highlight and dark sides (step S1503). The gradation correction for expanding the dynamic range on both the highlight and dark sides is performed using the gamma curve shown in FIG. 7A, as in the first embodiment. If it is determined that there are few portions with low luminance, gradation correction is performed to widen the dynamic range on the highlight side (step S1504). Also in this case, the gamma curve shown in FIG. 7B is used as in the first embodiment.

また、輝度が高い部分が少ないと判断した場合は、輝度が低い部分が多いか否かの判定を行う(ステップS1505)。ここでも、「輝度が低い」の重みが3以上の場合に、輝度が低い部分が多いと判断する。輝度が低い部分が多いと判断した場合は、ダーク側のダイナミックレンジを広げる階調補正を行う(ステップS1506)。このダーク側のダイナミックレンジを広げる階調補正は、第1の実施の形態と同様に、図7(c)に示すガンマカーブを用いて行う。輝度が低い部分が少ないと判断した場合は、階調補正を行わずに、ステップS1507に進む。   If it is determined that there are few high-luminance parts, it is determined whether there are many low-luminance parts (step S1505). Again, when the weight of “low luminance” is 3 or more, it is determined that there are many portions with low luminance. If it is determined that there are many portions with low luminance, gradation correction is performed to widen the dark side dynamic range (step S1506). Tone correction for expanding the dynamic range on the dark side is performed using a gamma curve shown in FIG. 7C, as in the first embodiment. If it is determined that there are few portions with low luminance, the process proceeds to step S1507 without performing gradation correction.

次に、マイペット情報の「細かい」の重みに応じて、輪郭強調処理を行う(ステップS1507)。図16は、輪郭強調フィルタのフィルタ行列を示す図である。「細かい」の重みが1のときは、図16(a)や図16(b)に示すフィルタ、重みが2〜4のときは、図16(c)や図16(d)に示すフィルタ、重みが5のときは図16(e)や図16(f)に示すフィルタを選択し、選択したフィルタを用いて輪郭強調を行う。   Next, contour emphasis processing is performed according to the “fine” weight of the My Pet information (step S1507). FIG. 16 is a diagram illustrating a filter matrix of the edge enhancement filter. When the “fine” weight is 1, the filters shown in FIGS. 16A and 16B, and when the weight is 2 to 4, the filters shown in FIGS. 16C and 16D, When the weight is 5, the filter shown in FIG. 16E or FIG. 16F is selected, and contour enhancement is performed using the selected filter.

輪郭強調処理が終了したら、次に、「つるつる」の重みに応じて、ノイズリダクション処理を行う(ステップS1508)。   When the contour emphasis process is completed, a noise reduction process is then performed according to the “smooth” weight (step S1508).

ここでは、ノイズリダクション処理としてウィナーフィルタを用いる。ウィナーフィルタは、輝度に対するノイズテーブル(輝度毎のノイズ量)を持ち、そのノイズ量分だけノイズを低減する処理を行う。マイペット情報の「つるつる」の重みに応じて、ノイズテーブルの量を変動させることで、重みに応じたノイズリダクションの強弱をつけることが可能となる。図17は、ウィナーフィルタのノイズテーブルについて示した図である。図17に示すように、つるつるさの重みが大きいほど、ノイズリダクション効果を大きくしている。   Here, a Wiener filter is used as the noise reduction process. The Wiener filter has a noise table (amount of noise for each luminance) for luminance, and performs a process of reducing noise by the amount of noise. By varying the amount of the noise table according to the “smooth” weight of the My Pet information, it is possible to increase or decrease the noise reduction according to the weight. FIG. 17 is a diagram illustrating a noise table of the Wiener filter. As shown in FIG. 17, the noise reduction effect is increased as the smoothness weight increases.

以上で画像処理が終了する。検出部19は、この画像処理が施された信号を用いてペット検出を行う。この信号は、登録したペットに応じて検出に適した処理が施されているため、ペットの検出精度を向上することができる。ペットを検出すると、検出したペットに対してAE/AFが行われ、ユーザはペットに適した撮影を行うことができる。   This completes the image processing. The detection unit 19 performs pet detection using the signal subjected to the image processing. Since this signal is subjected to processing suitable for detection according to the registered pet, the detection accuracy of the pet can be improved. When a pet is detected, AE / AF is performed on the detected pet, and the user can perform photographing suitable for the pet.

このように、登録されたペットに応じて入力信号に処理を施し、処理を施した信号を用いてペット検出を行うことにより、対象のペットの特徴に応じて検出精度を上げることができる。   In this manner, by performing processing on the input signal according to the registered pet and performing pet detection using the processed signal, the detection accuracy can be increased according to the characteristics of the target pet.

なお、重み付けの判定の閾値は、本実施の形態の数値に限定されるものではなく、適宜決定すればよい。   Note that the weighting threshold value is not limited to the numerical value of the present embodiment, and may be determined as appropriate.

<第3の実施の形態>
第3の実施の形態のデジタルカメラ10について説明する。図18は、第3の実施の形態のデジタルカメラ10の内部構成を示すブロック図である。図8に示すブロック図とは、マイペット用AF/AE制御部33を備えたところが異なっている。第3の実施の形態のデジタルカメラ10は、ユーザが自分のペットを登録し、そのペットの特徴に応じてAEを制御することにより、ペット検出の検出精度を上げる。
<Third Embodiment>
A digital camera 10 according to a third embodiment will be described. FIG. 18 is a block diagram illustrating an internal configuration of the digital camera 10 according to the third embodiment. 8 is different from the block diagram shown in FIG. 8 in that an AF / AE control unit 33 for my pet is provided. In the digital camera 10 according to the third embodiment, the user registers his / her pet and controls the AE according to the characteristics of the pet, thereby increasing the detection accuracy of pet detection.

あらかじめ自分のペットの外見の特徴をマイペット情報として登録する必要があるが、マイペット情報の登録については、第2の実施の形態と同様であるので説明は省略する。マイペット情報の登録後、ユーザは、図示しない操作部を用いてマイペット撮影モードに設定し、ペット撮影を行う。図19は、マイペット撮影モードの画像処理について示したフローチャートである。   Although it is necessary to register in advance the features of the appearance of his / her pet as my pet information, the registration of my pet information is the same as in the second embodiment, and a description thereof will be omitted. After registering the My Pet information, the user sets the My Pet shooting mode using an operation unit (not shown), and performs pet shooting. FIG. 19 is a flowchart showing image processing in the My Pet shooting mode.

最初に、マイペット情報記録部32からマイペット情報を読み出し、「輝度が高い」条件から、露出補正量を読み出す(ステップS1901)。図20は、「輝度が高い」の重みと、露出補正量を示した図である。図20に示すように、各条件に対して、露出補正量が決められている。次に、「輝度が低い」条件から、露出補正量を読み出す(ステップS1902)。図21は、「輝度が低い」の重みと、露出補正量を示した図である。図20と同様に、各条件に対して、露出補正量が決められている。   First, the mipet information is read from the mipet information recording unit 32, and the exposure correction amount is read from the “high brightness” condition (step S1901). FIG. 20 is a diagram showing the weight of “high brightness” and the exposure correction amount. As shown in FIG. 20, the exposure correction amount is determined for each condition. Next, the exposure correction amount is read from the condition “low brightness” (step S1902). FIG. 21 is a diagram showing the weight of “low brightness” and the exposure correction amount. As in FIG. 20, the exposure correction amount is determined for each condition.

次に、撮影に用いる露出値を算出する(ステップS1903)。通常のAEから算出した適正露出に対して、ステップS1901で読み出した露出補正量と、ステップS1902で読み出した露出補正量を加算し、撮影に用いる露出値を決定する。以上のように算出した露出値を用いて、検出部19はペット検出を行う。   Next, an exposure value used for photographing is calculated (step S1903). The exposure correction amount read in step S1901 and the exposure correction amount read in step S1902 are added to the appropriate exposure calculated from the normal AE to determine the exposure value used for photographing. Using the exposure value calculated as described above, the detection unit 19 performs pet detection.

例えば、黒い犬を日中の屋外で撮影しようとした場合、周りは明るいのでAEは露出を下げる方に動く。そうすると、黒い犬はさらに暗くなり、黒つぶれしてしまうので、その状態では検出するのは困難となる。マイペット情報の「輝度が低い」の重みが強い場合は、周りの環境光の強さに関係なく露出を上げ、ペット自体を明るくすることによってペットを認識させやすくする。   For example, when shooting a black dog outdoors during the day, the AE moves to lower the exposure because the surroundings are bright. As a result, the black dog becomes darker and is crushed, making it difficult to detect in that state. When the weight of “low brightness” in the My Pet information is strong, the exposure is increased regardless of the ambient light intensity, and the pet itself is made brighter to make it easier to recognize the pet.

なお、ここで算出した露出値を用いて本撮影を行ってもよい。このように本撮影を行うことにより、ペットに応じた好ましい露出の画像を得ることが可能となる。   Note that the actual photographing may be performed using the exposure value calculated here. By performing the main photographing as described above, it is possible to obtain an image with a preferable exposure according to the pet.

<第4の実施の形態>
第4の実施の形態のデジタルカメラ10について説明する。第4の実施の形態のデジタルカメラ10は、自分のペットを撮影し、撮影した画像についてペットに適した画像処理を行う。内部構成のブロック図は図8と同様であり、マイペット情報記録部32を備えている。
<Fourth embodiment>
A digital camera 10 according to a fourth embodiment will be described. The digital camera 10 according to the fourth embodiment photographs his / her pet and performs image processing suitable for the pet on the photographed image. The block diagram of the internal configuration is the same as that of FIG.

第2の実施の形態と同様に、事前に自分のペットの外見の特徴をデジタルカメラ10に登録する必要がある。マイペット情報の登録については、第2の実施の形態と同様であるので説明を省略する。   Similar to the second embodiment, it is necessary to register the appearance characteristics of his / her pet in the digital camera 10 in advance. Since the registration of my pet information is the same as in the second embodiment, the description thereof is omitted.

ユーザは、マイペット情報を登録後、図示しない操作部を用いてマイペット撮影モードに設定して、本撮影を行う。デジタルカメラ10は、撮影データにマイペットが写っていると判断すると、図22のフローチャートに示す画像処理を施し、処理をした画像信号を外部メモリインターフェース25を介してメモリカード24に記録する。撮影データにマイペットが写っているか否かの判断は、スルー画像からペット検出を行ってもよいし、マイペット撮影モードに設定されたことでマイペットが写っていると判断してもよい。   After registering the My Pet information, the user sets the My Pet shooting mode using an operation unit (not shown) and performs the main shooting. When the digital camera 10 determines that the mypet is captured in the photographic data, the digital camera 10 performs image processing shown in the flowchart of FIG. 22 and records the processed image signal in the memory card 24 via the external memory interface 25. The determination as to whether or not a My Pet is shown in the shooting data may be performed by detecting a pet from the through image, or by setting the My Pet shooting mode and determining that the My Pet is shown.

ここで、画像処理について説明する。図22は、マイペット撮影モードにおける画像処理を示したフローチャートである。なお、図15に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。   Here, the image processing will be described. FIG. 22 is a flowchart showing image processing in the My Pet shooting mode. In addition, the same code | symbol is attached | subjected to the part which is common in the flowchart shown in FIG. 15, and the detailed description is abbreviate | omitted.

まず、マイペット情報記録部32からマイペット情報を読み出し、輝度が高い部分が多いか否かの判定(ステップS1501)と、輝度が低い部分が多いか否かの判定(ステップS1502、ステップS1505)を行う。第2の実施の形態と同様に、「輝度が高い」の重みが3以上の場合に輝度が高い部分が多いと判断し、「輝度が低い」の重みが3以上の場合に輝度が低い部分が多いと判断する。輝度が高い部分が多く、輝度が低い部分が少ないと判断した場合は、ハイライト側のダイナミックレンジを広げた階調補正を行う(ステップS1504)。ダイナミックレンジを広げる階調補正については、第1の実施の形態と同様に行う。このように階調補正を行うことで、例えば白いペットに対する白トビを防止することができる。   First, the my pet information is read from the my pet information recording unit 32, and it is determined whether there are many portions with high luminance (step S1501) and whether there are many portions with low luminance (steps S1502 and S1505). I do. As in the second embodiment, it is determined that there are many portions with high brightness when the weight of “high brightness” is 3 or more, and the portion with low brightness when the weight of “low brightness” is 3 or more. It is judged that there are many. If it is determined that there are many high-luminance parts and few low-luminance parts, gradation correction is performed by expanding the dynamic range on the highlight side (step S1504). The gradation correction for expanding the dynamic range is performed in the same manner as in the first embodiment. By performing tone correction in this way, for example, white stripes on a white pet can be prevented.

また、輝度が高い部分が少なく、輝度が低い部分が多いと判断した場合は、ノイズリダクション処理の重みをプラス1とする(ステップS2201)。このように、ノイズリダクション処理を変更することで、例えばノイズの目立つ黒いペットに対して適切にノイズを低減することができる。   On the other hand, if it is determined that there are few high-luminance parts and many low-luminance parts, the noise reduction processing weight is set to plus 1 (step S2201). In this way, by changing the noise reduction processing, it is possible to appropriately reduce noise, for example, for a black pet with noticeable noise.

輝度が高い部分と輝度が低い部分が共に多いと判断した場合、及び共に少ないと判断した場合は、そのままステップS1507へ進む。   If it is determined that both the high luminance part and the low luminance part are both large and if both are low, the process proceeds to step S1507.

次に、マイペット情報の「細かい」の重みに応じて、輪郭強調処理を行う(ステップS1507)。第2の実施の形態と同様に、「細かい」の重みが1のときは、図16(a)や図16(b)に示すフィルタ、重みが2〜4のときは、図16(c)や図16(d)に示すフィルタ、重みが5のときは図16(e)や図16(f)に示すフィルタを使用し、輪郭強調処理を行う。このように、細かさに応じたフィルタを選択して輪郭強調処理を行うことで、例えば毛のふさふさしたペットに対してディテールを残すことができる。   Next, contour emphasis processing is performed according to the “fine” weight of the My Pet information (step S1507). Similarly to the second embodiment, when the “fine” weight is 1, the filter shown in FIG. 16A or 16B, and when the weight is 2 to 4, FIG. Alternatively, the filter shown in FIG. 16D and when the weight is 5, the filter shown in FIG. 16E or FIG. In this way, by selecting the filter according to the fineness and performing the contour emphasis process, it is possible to leave details for, for example, a pet whose hair is bushy.

輪郭強調処理が終了すると、次に、読み出したマイペット情報の「つるつる」の重みに応じて、ノイズリダクション処理を行う(ステップS1508)。ここで、ステップS2001でノイズリダクションの重みをプラス1されている場合は、「つるつる」の重みに1を加算し、ノイズリダクション処理を強めに行う。重みが6になってしまう場合は、重みは5とする。ノイズリダクション処理は、第2の実施の形態と同様にウィナーフィルタを用いる。各重みに対するノイズリダクション効果は、図17に示すようになっている。このように、「つるつる」の重みに応じてノイズリダクションを行うことで、例えば元々つるつるしたペットに対して、適切にノイズ低減を行うことができる。   When the contour emphasis process is completed, a noise reduction process is then performed according to the “smooth” weight of the read mypet information (step S1508). If the noise reduction weight is incremented by 1 in step S2001, 1 is added to the "smooth" weight, and the noise reduction process is performed stronger. If the weight becomes 6, the weight is 5. In the noise reduction process, a Wiener filter is used as in the second embodiment. The noise reduction effect for each weight is as shown in FIG. In this way, by performing noise reduction according to the weight of “smooth”, it is possible to appropriately reduce noise, for example, for a pet that originally slipped.

以上で画像処理が終了する。このように画像処理を施した画像をメモリカード24に記録することにより、自分のペットに適した画像を得ることができる。   This completes the image processing. By recording an image subjected to image processing in this way on the memory card 24, an image suitable for his / her pet can be obtained.

マイペット情報として色情報を取得し、色情報に基づいて画像処理を行ってもよい。色情報を用いることにより、例えば特徴的な模様や色があるペットに対し、その色を強調するように鮮やかにする画像処理をおこなったり、色が単調で面積が広いペットに対し、色の繋がりを考慮して階調補正を軟調にしたり、黒い部分が多いペットに対し、黒をしっかりと表現するためにオフセットをかけたりすることも可能となる。   Color information may be acquired as my pet information, and image processing may be performed based on the color information. By using color information, for example, a pet with a characteristic pattern or color is processed to make it vivid so as to emphasize the color, or a color is connected to a pet that is monotonous and has a large area. This makes it possible to soften the tone correction in consideration of the above, or to apply an offset to a pet with many black portions in order to express black well.

図1は、本発明が適用されたデジタルカメラの第1の実施の形態の電気的構成を示すブロック図である。FIG. 1 is a block diagram showing an electrical configuration of a first embodiment of a digital camera to which the present invention is applied. 図2は、ペット撮影モードにおける、画像処理の動作を示したフローチャートである。FIG. 2 is a flowchart showing an image processing operation in the pet photographing mode. 図3(a)はネコの特徴を示す図であり、図3(b)はカエルの特徴を示す図である。FIG. 3A is a diagram showing the characteristics of a cat, and FIG. 3B is a diagram showing the characteristics of a frog. 図4は、輪郭強調フィルタのフィルタ行列を示す図である。FIG. 4 is a diagram illustrating a filter matrix of the edge enhancement filter. 図5(a)は入力画像を示し、図5(b)は輪郭強調フィルタ処理を施した画像を示す。FIG. 5A shows an input image, and FIG. 5B shows an image subjected to the edge enhancement filter process. 図6(a)は入力画像を示し、図6(b)はローパスフィルタ処理を施した画像を示す。FIG. 6A shows an input image, and FIG. 6B shows an image subjected to low-pass filter processing. 図7は、処理に用いるガンマカーブを示した図である。FIG. 7 is a diagram showing a gamma curve used for processing. 図8は、第2の実施の形態のデジタルカメラ10の内部構成を示すブロック図である。FIG. 8 is a block diagram illustrating an internal configuration of the digital camera 10 according to the second embodiment. 図9は、マイペット登録モードの動作について示したフローチャートである。FIG. 9 is a flowchart showing the operation in the my pet registration mode. 図10は、ペットの細かさの判定について示した図である。FIG. 10 is a diagram showing the determination of the fineness of the pet. 図11は、ペットのつるつるさの判定について示した図である。FIG. 11 is a diagram illustrating the determination of the smoothness of the pet. 図12は、ペットの高輝度部の判定について示した図である。FIG. 12 is a diagram illustrating determination of a high-intensity part of a pet. 図13は、ペットの低輝度部の判定について示した図である。FIG. 13 is a diagram showing the determination of the low luminance part of the pet. 図14は、マイペット情報記録部32に記録したデータの一例を示す図である。FIG. 14 is a diagram illustrating an example of data recorded in the my pet information recording unit 32. 図15は、第2の実施の形態のマイペット撮影モードの画像処理について示したフローチャートである。FIG. 15 is a flowchart illustrating image processing in the mypet shooting mode according to the second embodiment. 図16は、輪郭強調フィルタのフィルタ行列を示す図である。FIG. 16 is a diagram illustrating a filter matrix of the edge enhancement filter. 図17は、ウィナーフィルタのノイズテーブルについて示した図である。FIG. 17 is a diagram illustrating a noise table of the Wiener filter. 図18は、第3の実施の形態のデジタルカメラ10の内部構成を示すブロック図である。FIG. 18 is a block diagram illustrating an internal configuration of the digital camera 10 according to the third embodiment. 図19は、第3の実施の形態のマイペット撮影モードの画像処理について示したフローチャートである。FIG. 19 is a flowchart illustrating image processing in the mypet shooting mode according to the third embodiment. 図20は、マイペット情報の「輝度が高い」の重みと、露出補正量を示した図である。FIG. 20 is a diagram illustrating the weight of “high luminance” of the My Pet information and the exposure correction amount. 図21は、マイペット情報の「輝度が低い」の重みと、露出補正量を示した図である。FIG. 21 is a diagram showing the weight of “low luminance” of the My Pet information and the exposure correction amount. 図22は、第4の実施の形態のマイペット撮影モードの画像処理について示したフローチャートである。FIG. 22 is a flowchart illustrating image processing in the mypet shooting mode according to the fourth embodiment.

符号の説明Explanation of symbols

11…光学ユニット、12…モータ駆動部、13…CCD、14…タイミングジェネレータ、15…アナログ信号処理部、16…A/D変換器、17…画像入力コントローラ、18…BUS、19…検出部、20…デジタル信号処理部、21…フラッシュ、22…充電部、23…CPU、24…メモリカード、25…外部メモリインターフェース、26…LCDインターフェース、27…LCD、28…メモリインターフェース、29…RAM、30…ROM、31…圧縮処理部、32…マイペット情報記録部、33…マイペット用AF/AE制御部   DESCRIPTION OF SYMBOLS 11 ... Optical unit, 12 ... Motor drive part, 13 ... CCD, 14 ... Timing generator, 15 ... Analog signal processing part, 16 ... A / D converter, 17 ... Image input controller, 18 ... BUS, 19 ... Detection part, DESCRIPTION OF SYMBOLS 20 ... Digital signal processing part, 21 ... Flash, 22 ... Charging part, 23 ... CPU, 24 ... Memory card, 25 ... External memory interface, 26 ... LCD interface, 27 ... LCD, 28 ... Memory interface, 29 ... RAM, 30 ... ROM, 31 ... compression processing part, 32 ... my pet information recording part, 33 ... my pet AF / AE control part

Claims (12)

被写体を撮像して画像データに変換する撮像手段と、
撮像するペットをユーザが指定する入力手段と、
ペットごとに前記ペットの外見の特徴を記憶するデータベースと、
前記指定されたペットの外見の特徴を前記データベースから読み出す読み出し手段と、
前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理手段と、
前記画像処理が施された画像データから前記ペットを検出するペット検出手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject and converting it into image data;
An input means for a user to specify a pet to be imaged;
A database for storing the pet's appearance characteristics for each pet;
Reading means for reading out the features of the appearance of the designated pet from the database;
Image processing means for performing predetermined image processing on the image data in accordance with the read appearance characteristics;
Pet detection means for detecting the pet from the image data subjected to the image processing;
An imaging apparatus comprising:
撮像したペットの画像データから前記ペットの外見の特徴を抽出する抽出手段と、
前記抽出したペットの外見の特徴を前記データベースに登録する登録手段と、
を備えたことを特徴とする請求項1に記載の撮像装置。
Extraction means for extracting the appearance characteristics of the pet from the image data of the captured pet;
Registration means for registering the extracted pet appearance characteristics in the database;
The imaging apparatus according to claim 1, further comprising:
前記画像処理手段は、前記指定されたペットが高周波成分を多く含むほど強く輪郭強調処理を行うことを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image processing unit performs an edge enhancement process more strongly as the designated pet contains a higher frequency component. 前記画像処理手段は、前記指定されたペットが低周波成分を多く含むほど強くノイズ低減処理を行うことを特徴とする請求項1から3のいずれかに記載の撮像装置。   4. The imaging apparatus according to claim 1, wherein the image processing unit performs noise reduction processing more intensely as the designated pet contains more low-frequency components. 5. 前記画像処理手段は、前記指定されたペットが輝度の高い部分を多く含む場合に高輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする請求項1から4のいずれかに記載の撮像装置。   5. The image processing unit according to claim 1, wherein the image processing unit performs gradation conversion processing for expanding a dynamic range on a high luminance side when the designated pet includes a lot of high luminance portions. The imaging device described. 前記画像処理手段は、前記指定されたペットが輝度の低い部分を多く含む場合に低輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする請求項1から5のいずれかに記載の撮像装置。   6. The image processing unit according to claim 1, wherein the image processing unit performs gradation conversion processing for expanding a dynamic range on a low luminance side when the designated pet includes a lot of low luminance portions. The imaging device described. 前記画像処理手段は、前記ペット検出手段が前記ペットを検出した場合に、本撮像した画像データに前記ペットの外見の特徴に応じて所定の画像処理を施すことを特徴とする請求項1から6のいずれかに記載の撮像装置。   7. The image processing unit according to claim 1, wherein when the pet detection unit detects the pet, the image processing unit performs predetermined image processing on the image data that has been actually captured according to the appearance characteristics of the pet. The imaging device according to any one of the above. 前記画像処理手段は、前記ペットが輝度の高い部分が少なく輝度の低い部分を多く含む場合に、前記本撮像した画像データに強くノイズ低減処理を行うことを特徴とする請求項7に記載の撮像装置。   8. The imaging according to claim 7, wherein the image processing unit strongly performs noise reduction processing on the main imaged image data when the pet has a small number of high-luminance portions and many low-luminance portions. apparatus. 前記画像処理手段は、前記ペットが輝度の低い部分が少なく輝度の高い部分を多く含む場合に、前記本撮像した画像データに高輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする請求項7又は8に記載の撮像装置。   The image processing means performs gradation conversion processing for enlarging a dynamic range on a high luminance side to the imaged image data when the pet includes a low luminance portion and a high luminance portion. The imaging device according to claim 7 or 8. 被写体を撮像して画像データに変換する撮像手段と、
撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出手段と、
前記算出された露出補正条件をデータベースに登録する登録手段と、
前記データベースから露出補正条件を読み出す読み出し手段と、
前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正手段と、
前記露出補正が施された画像データから前記ペットを検出するペット検出手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject and converting it into image data;
Calculating means for calculating exposure correction conditions when imaging the pet from the image data of the captured pet;
Registration means for registering the calculated exposure correction condition in a database;
Read means for reading exposure correction conditions from the database;
Exposure correction means for performing exposure correction on the image data in accordance with the exposure correction conditions read from the database;
Pet detection means for detecting the pet from the image data subjected to the exposure correction;
An imaging apparatus comprising:
被写体を撮像して画像データに変換する撮像工程と、
撮像するペットをユーザが指定する入力工程と、
前記指定されたペットの外見の特徴をデータベースから読み出す読み出し工程と、
前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理工程と、
前記画像処理が施された画像データから前記ペットを検出するペット検出工程と、
を備えたことを特徴とする撮像制御方法。
An imaging process for imaging a subject and converting it into image data;
An input process in which the user specifies the pet to be imaged;
A reading step of reading out the characteristics of the appearance of the designated pet from a database;
An image processing step of performing predetermined image processing on the image data in accordance with the read appearance characteristics;
A pet detection step of detecting the pet from the image data subjected to the image processing;
An imaging control method comprising:
被写体を撮像して画像データに変換する撮像工程と、
撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出工程と、
前記算出された露出補正条件をデータベースに登録する登録工程と、
前記データベースから露出補正条件を読み出す読み出し工程と、
前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正工程と、
前記露出補正が施された画像データから前記ペットを検出するペット検出工程と、
を備えたことを特徴とする撮像制御方法。
An imaging process for imaging a subject and converting it into image data;
A calculation step of calculating an exposure correction condition when imaging the pet from the image data of the captured pet;
A registration step of registering the calculated exposure correction condition in a database;
A reading step of reading exposure correction conditions from the database;
An exposure correction step of performing exposure correction on the image data in accordance with the exposure correction condition read from the database;
A pet detection step of detecting the pet from the image data subjected to the exposure correction;
An imaging control method comprising:
JP2007183419A 2007-07-12 2007-07-12 Imaging apparatus, and imaging control method Abandoned JP2009021862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007183419A JP2009021862A (en) 2007-07-12 2007-07-12 Imaging apparatus, and imaging control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007183419A JP2009021862A (en) 2007-07-12 2007-07-12 Imaging apparatus, and imaging control method

Publications (1)

Publication Number Publication Date
JP2009021862A true JP2009021862A (en) 2009-01-29

Family

ID=40361086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007183419A Abandoned JP2009021862A (en) 2007-07-12 2007-07-12 Imaging apparatus, and imaging control method

Country Status (1)

Country Link
JP (1) JP2009021862A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013514A (en) * 2009-07-03 2011-01-20 Fujifilm Corp Photographing control device and method, as well as program
JP2015118320A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Imaging apparatus, image processing method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189571A (en) * 1992-01-13 1993-07-30 Nikon Corp Method and device for pattern matching
JPH08329110A (en) * 1995-06-05 1996-12-13 Matsushita Electric Ind Co Ltd Method for processing picture
JP2003308524A (en) * 2002-04-16 2003-10-31 Nippon Signal Co Ltd:The Access control system
JP2004021924A (en) * 2002-06-20 2004-01-22 Nec Corp Face feature extraction method, apparatus and information storage medium
JP2005109579A (en) * 2003-09-26 2005-04-21 Sanyo Electric Co Ltd Imaging apparatus employing solid-state imaging device
JP2006092151A (en) * 2004-09-22 2006-04-06 Konica Minolta Holdings Inc Device, method and program for detecting area
JP2006229275A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2007026213A (en) * 2005-07-19 2007-02-01 Nikon Corp Imaging device
JP2007135501A (en) * 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189571A (en) * 1992-01-13 1993-07-30 Nikon Corp Method and device for pattern matching
JPH08329110A (en) * 1995-06-05 1996-12-13 Matsushita Electric Ind Co Ltd Method for processing picture
JP2003308524A (en) * 2002-04-16 2003-10-31 Nippon Signal Co Ltd:The Access control system
JP2004021924A (en) * 2002-06-20 2004-01-22 Nec Corp Face feature extraction method, apparatus and information storage medium
JP2005109579A (en) * 2003-09-26 2005-04-21 Sanyo Electric Co Ltd Imaging apparatus employing solid-state imaging device
JP2006092151A (en) * 2004-09-22 2006-04-06 Konica Minolta Holdings Inc Device, method and program for detecting area
JP2006229275A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2007026213A (en) * 2005-07-19 2007-02-01 Nikon Corp Imaging device
JP2007135501A (en) * 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013514A (en) * 2009-07-03 2011-01-20 Fujifilm Corp Photographing control device and method, as well as program
US8107805B2 (en) 2009-07-03 2012-01-31 Fujifilm Corporation Photographing control device and method, as well as program
JP2015118320A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Imaging apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
JP4218723B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US8982232B2 (en) Image processing apparatus and image processing method
JP5898466B2 (en) Imaging device, control method thereof, and program
CN107730456B (en) Image processing method and image processing apparatus
JP6720881B2 (en) Image processing apparatus and image processing method
JP2010263423A (en) Method and device for processing image
JP5156991B2 (en) Imaging apparatus, imaging method, and imaging program
US11838648B2 (en) Image processing device, imaging apparatus, image processing method, and program for determining a condition for high dynamic range processing
JP2010093679A (en) Imaging apparatus, and imaging control method
JP2006295582A (en) Image processor, imaging apparatus, and image processing program
KR20180138530A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
JP2003199115A (en) Method for contrast enhancement in color digital image
JP2002092607A (en) Image processor, image state determining method and recording medium
JP2009021862A (en) Imaging apparatus, and imaging control method
JP4534750B2 (en) Image processing apparatus and image processing program
JP4299753B2 (en) Image signal processing apparatus and image signal processing method
JP2009218689A (en) Photometry apparatus and imaging apparatus
JP2007174015A (en) Image management program and image management apparatus
JP5693647B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP5264695B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP2010119051A (en) Imaging device and imaging method
KR101408359B1 (en) Imaging apparatus and imaging method
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program
JP2018152095A (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110805

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110817