JP2009021862A - Imaging apparatus, and imaging control method - Google Patents
Imaging apparatus, and imaging control method Download PDFInfo
- Publication number
- JP2009021862A JP2009021862A JP2007183419A JP2007183419A JP2009021862A JP 2009021862 A JP2009021862 A JP 2009021862A JP 2007183419 A JP2007183419 A JP 2007183419A JP 2007183419 A JP2007183419 A JP 2007183419A JP 2009021862 A JP2009021862 A JP 2009021862A
- Authority
- JP
- Japan
- Prior art keywords
- pet
- imaging
- image data
- image processing
- exposure correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は撮像装置及び撮像制御方法に係り、特に画像内においてペットの検出制御を行う撮像装置及び撮像制御方法に関する。 The present invention relates to an imaging apparatus and an imaging control method, and more particularly, to an imaging apparatus and an imaging control method for performing pet detection control in an image.
従来より、顔検出機能を有する撮像装置が知られている。この撮像装置は、肌色検出等を行って顔候補領域を検出し、検出した顔候補領域とデータベースに蓄積された顔のパターンデータとのマッチングを行って顔検出を行っている。特許文献1には、入力画像を小領域に分割し、各小領域の輝度特徴から目の候補領域と目の間の候補領域とを検出することにより、顔の検出精度向上を行う技術が記載されている。
顔検出における顔のデータベースの代わりに動物のデータベースを用いることで、ペット検出を行うことは可能である。ただし、ペットは犬や猫、鳥と種類が多く、また同じ犬でも毛の多さ、色などが多数存在するため、パラメータが1パターンのみだと全ての種類のペットにおいて満足する検出性能を提供することができない。本発明はこのような事情に鑑みてなされたもので、より精度の高いペット検出を行い、最適な画像を提供することができる撮像装置及び撮像制御方法を提供することを目的とする。 It is possible to perform pet detection by using an animal database instead of a face database in face detection. However, there are many types of pets such as dogs, cats, and birds, and there are many hairs, colors, etc. even in the same dog, so detection performance that satisfies all types of pets with only one pattern is provided. Can not do it. The present invention has been made in view of such circumstances, and an object thereof is to provide an imaging apparatus and an imaging control method capable of performing pet detection with higher accuracy and providing an optimum image.
前記目的を達成するために請求項1に記載の撮像装置は、被写体を撮像して画像データに変換する撮像手段と、撮像するペットをユーザが指定する入力手段と、ペットごとに前記ペットの外見の特徴を記憶するデータベースと、前記指定されたペットの外見の特徴を前記データベースから読み出す読み出し手段と、前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理手段と、前記画像処理が施された画像データから前記ペットを検出するペット検出手段とを備えたことを特徴とする。
In order to achieve the object, the imaging apparatus according to
これにより、ペットに対しての検出性能を向上させることができる。 Thereby, the detection performance with respect to a pet can be improved.
請求項2に示すように請求項1に記載の撮像装置において、撮像したペットの画像データから前記ペットの外見の特徴を抽出する抽出手段と、前記抽出したペットの外見の特徴を前記データベースに登録する登録手段とを備えたことを特徴とする。
The imaging device according to
これにより、自分の飼っているペットに対する検出性能を向上させることができる。 Thereby, the detection performance with respect to the pet which he keeps can be improved.
請求項3に示すように請求項1又は2に記載の撮像装置において、前記画像処理手段は、前記指定されたペットが高周波成分を多く含むほど強く輪郭強調処理を行うことを特徴とする。 According to a third aspect of the present invention, in the imaging apparatus according to the first or second aspect, the image processing means performs the edge enhancement process more strongly as the designated pet contains more high-frequency components.
これにより、解像度が増し、高周波成分の多いペットの検出精度を上げることができる。 Thereby, the resolution can be increased and the detection accuracy of a pet having a high frequency component can be increased.
請求項4に示すように請求項1から3のいずれかに記載の撮像装置において、前記画像処理手段は、前記指定されたペットが低周波成分を多く含むほど強くノイズ低減処理を行うことを特徴とする。
The imaging apparatus according to any one of
これにより、本来無いはずの高周波成分を除去し、低周波成分の多いペットの検出精度を上げることができる。 As a result, it is possible to remove high-frequency components that are not supposed to exist and improve the detection accuracy of pets with many low-frequency components.
請求項5に示すように請求項1から4のいずれかに記載の撮像装置において、前記画像処理手段は、前記指定されたペットが輝度の高い部分を多く含む場合に高輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする。
The imaging apparatus according to any one of
これにより、輝度が高いペットの白トビを防止し、検出精度を上げることができる。 As a result, pets with high brightness can be prevented from becoming white and detection accuracy can be increased.
請求項6に示すように請求項1から5のいずれかに記載の撮像装置において、前記画像処理手段は、前記指定されたペットが輝度の低い部分を多く含む場合に低輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする。
6. The imaging apparatus according to
これにより、輝度が低いペットの黒つぶれを防止し、検出精度を上げることができる。 Thereby, it is possible to prevent blackening of a pet having a low luminance and increase detection accuracy.
請求項7に示すように請求項1から6のいずれかに記載の撮像装置において、前記画像処理手段は、前記ペット検出手段が前記ペットを検出した場合に、本撮像した画像データに前記ペットの外見の特徴に応じて所定の画像処理を施すことを特徴とする。
The imaging apparatus according to any one of
これにより、ペットの特徴に適した画像を得ることができる。 Thereby, an image suitable for the characteristics of the pet can be obtained.
請求項8に示すように請求項7に記載の撮像装置において、前記画像処理手段は、前記ペットが輝度の高い部分が少なく輝度の低い部分を多く含む場合に、前記本撮像した画像データに強くノイズ低減処理を行うことを特徴とする。 The imaging apparatus according to claim 7, wherein the image processing unit strongly resists the main imaged image data when the pet includes a portion with a high luminance and a low luminance. A noise reduction process is performed.
これにより、本来無いはずの高周波成分を除去した画像を得ることができる。 Thereby, it is possible to obtain an image from which a high-frequency component that should not exist is removed.
請求項9に示すように請求項7又は8に記載の撮像装置において、前記画像処理手段は、前記ペットが輝度の低い部分が少なく輝度の高い部分を多く含む場合に、前記本撮像した画像データに高輝度側のダイナミックレンジを拡大する階調変換処理を行うことを特徴とする。 9. The imaging device according to claim 7 or 8, wherein the image processing means includes the image data that is actually captured when the pet includes a small number of low-luminance portions and a large luminance portion. In addition, a gradation conversion process for expanding a dynamic range on the high luminance side is performed.
これにより、輝度が高いペットの白トビを防止した画像を得ることができる。 As a result, it is possible to obtain an image in which pets with high luminance are prevented from white spots.
前記目的を達成するために請求項10に記載の撮像装置は、被写体を撮像して画像データに変換する撮像手段と、撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出手段と、前記算出された露出補正条件をデータベースに登録する登録手段と、前記データベースから露出補正条件を読み出す読み出し手段と、前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正手段と、前記露出補正が施された画像データから前記ペットを検出するペット検出手段とを備えたことを特徴とする。 In order to achieve the object, the imaging apparatus according to claim 10 calculates an exposure correction condition when imaging the pet from the imaging unit that images the subject and converts the image into image data. Calculating means for registering, registration means for registering the calculated exposure correction condition in a database, reading means for reading the exposure correction condition from the database, and exposure to the image data in accordance with the exposure correction condition read from the database An exposure correction means for performing correction and a pet detection means for detecting the pet from the image data subjected to the exposure correction are provided.
これにより、ペットに対しての検出性能を向上させることができる。 Thereby, the detection performance with respect to a pet can be improved.
前記目的を達成するために請求項11に記載の撮像制御方法は、被写体を撮像して画像データに変換する撮像工程と、撮像するペットをユーザが指定する入力工程と、前記指定されたペットの外見の特徴をデータベースから読み出す読み出し工程と、前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理工程と、前記画像処理が施された画像データから前記ペットを検出するペット検出工程とを備えたことを特徴とする。
In order to achieve the object, an imaging control method according to
これにより、ペットに対しての検出性能を向上させることができる。 Thereby, the detection performance with respect to a pet can be improved.
前記目的を達成するために請求項12に記載の撮像制御方法は、被写体を撮像して画像データに変換する撮像工程と、撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出工程と、前記算出された露出補正条件をデータベースに登録する登録工程と、前記データベースから露出補正条件を読み出す読み出し工程と、前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正工程と、前記露出補正が施された画像データから前記ペットを検出するペット検出工程とを備えたことを特徴とする。
In order to achieve the above object, the imaging control method according to
これにより、ペットに対しての検出性能を向上させることができる。 Thereby, the detection performance with respect to a pet can be improved.
本発明によれば、データベースに登録されたペット特徴情報に基づいて画像処理を行うことにより、精度の高いペット検出を行うことができ、また最適な画像を提供することができる撮像装置及び撮像制御方法を提供することができる。 According to the present invention, by performing image processing based on pet feature information registered in the database, it is possible to perform highly accurate pet detection and to provide an optimal image and imaging control. A method can be provided.
以下、添付図面に従って本発明を実施するための最良の形態について説明する。 The best mode for carrying out the present invention will be described below with reference to the accompanying drawings.
<第1の実施の形態>
図1は、本発明が適用されたデジタルカメラの第1の実施の形態の電気的構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing an electrical configuration of a first embodiment of a digital camera to which the present invention is applied.
同図に示すように、本実施の形態のデジタルカメラ10は、光学ユニット11、モータ駆動部12、CCD13、タイミングジェネレータ14、アナログ信号処理部15、A/D変換器16、画像入力コントローラ17、バス18、検出部19、デジタル信号処理部20、フラッシュ21、充電部22、CPU23、メモリカード24、外部メモリインターフェース25、LCDインターフェース26、LCD27、メモリインターフェース28、RAM29、ROM30、圧縮処理部31等を備えて構成される。
As shown in the figure, the digital camera 10 of the present embodiment includes an
各部はCPU23に制御されて動作し、CPU23は、図示しない操作部からの入力に基づき所定の制御プログラムを実行することにより、デジタルカメラ10の各部を制御する。
Each unit operates under the control of the
ROM30には、このCPU23が実行する制御プログラムのほか、制御に必要な各種データ等が記録されている。CPU23は、このROM30に記録された制御プログラムをRAM29に読み出し、逐次実行することにより、デジタルカメラ10の各部を制御する。
In addition to the control program executed by the
なお、このRAM29は、プログラムの実行処理領域として利用されるほか、画像データ等の一時記憶領域、各種作業領域として利用される。
The
図示しない操作部は、シャッタボタンやズームレバー、メニューボタン、実行ボタン、キャンセルボタン、モード切換ダイヤル、電源ボタン等のカメラの一般的な操作手段を含み、操作に応じた信号をCPU23に出力する。
An operation unit (not shown) includes general camera operation means such as a shutter button, zoom lever, menu button, execution button, cancel button, mode switching dial, and power button, and outputs a signal corresponding to the operation to the
光学ユニット11は、フォーカスレンズ、ズームレンズ、絞りを含んで構成されており、これらはモータ駆動部12により移動を制御される。
The
CCD13は、光学ユニット11の後段に配置されており、光学ユニット11を透過した被写体光を受光する。光学ユニット11を透過した被写体光は、このCCD13の受光面上に結像され、各受光素子によって電気信号に変換される。
The
このCCD13は、タイミングジェネレータ14から供給される垂直転送クロック及び水平転送クロックに同期して、各画素に蓄積された電荷を1ラインずつシリアルな画像信号として出力する。CPU23は、タイミングジェネレータ14を制御して、CCD13の駆動を制御する。なお、各画素の電荷蓄積時間(露出時間)は、タイミングジェネレータ14から与えられる電子シャッタ駆動信号によって決められる。
The
また、画像信号の出力は、デジタルカメラ10が撮影モードにセットされると開始される。すなわち、デジタルカメラ10が撮影モードにセットされると、LCD27にスルー画像を表示するため、画像信号の出力が開始される。このスルー画像用の画像信号の出力は、本撮影の指示が行われると、一旦停止され、本撮影が終了すると、再度開始される。
The output of the image signal is started when the digital camera 10 is set to the shooting mode. In other words, when the digital camera 10 is set to the photographing mode, output of an image signal is started in order to display a through image on the
CCD13から出力される画像信号は、アナログ信号であり、このアナログの画像信号は、アナログ信号処理部15に取り込まれる。
The image signal output from the
アナログ信号処理部15は、相関二重サンプリング回路(CDS)、自動ゲインコントロール回路(AGC)を含んで構成される。CDSは、画像信号に含まれるノイズの除去を行い、AGCは、ノイズ除去された画像信号を所定のゲインで増幅する。このアナログ信号処理部15で所要の画像処理が施されたアナログの画像信号は、A/D変換器16に取り込まれる。
The analog
A/D変換器16は、取り込んだアナログの画像信号を所定ビットの階調幅を持ったデジタルの画像信号に変換する。この画像信号は、いわゆるRAWデータであり、画素ごとR、G、Bの濃度を示す階調値を有している。
The A /
画像入力コントローラ17は、所定容量のラインバッファを内蔵しており、A/D変換器16から出力された1コマ分の画像信号を蓄積する。この画像入力コントローラ17に蓄積された1コマ分の画像信号は、バス18を介してRAM29に格納される。
The
バス18には、上記CPU23、ROM30、RAM29、画像入力コントローラ17のほか、検出部19、デジタル信号処理部20、外部メモリインターフェース25、LCDインターフェース26、メモリインターフェース28、圧縮処理部31等が接続されており、これらはバス18を介して互いに情報を送受信できるようにされている。
In addition to the
RAM29に格納された1コマ分の画像信号は、点順次(画素の順番)にデジタル信号処理部20に取り込まれる。
The image signal for one frame stored in the
デジタル信号処理部20は、点順次に取り込んだR、G、Bの各色の画像信号に対して所定の画像処理を施し、輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)を生成する。
The digital
検出部19は、この画像信号から、被写体中に含まれる生物やペットの検出を行う。 The detection unit 19 detects a living thing or a pet contained in the subject from the image signal.
CPU23は、撮影領域(一画面)を複数の領域に分割し、分割領域ごとにR、G、Bごとの画像信号の積算値を算出し、この積算値から各分割領域における輝度値Yを算出する。R、G、Bごとの画像信号の積算値をr、g、bとすると、輝度値Yは[数1]のように表される。
The
[数1]
輝度値Y=0.299×r+0.587×g+0.114×b
ここで、r、g、bはそれぞれ0〜255の値をとるので、輝度値Yも0〜255の値となる。
[Equation 1]
Luminance value Y = 0.299 × r + 0.587 × g + 0.114 × b
Here, since r, g, and b each take a value from 0 to 255, the luminance value Y also takes a value from 0 to 255.
次に、算出された各分割領域における輝度値Yから仮の露出値(Ev値)αを求める。なお、仮の露出値αの算出方法は特に限定されず、公知の方法を用いて算出することができる。たとえば、画面全体の輝度値の平均を求めて、これを仮の露出値とする方式(いわゆる平均測光方式)や、平均測光方式において、輝度値の平均を求める際、画面中央付近の領域に重み付けする方式(いわゆる中央順点測光方式)、画像のごく狭い領域の輝度値の平均を求めて、これを仮の露出値とする方式(いわゆるスポット測光方式)、画面を複数の領域に分割し、パターン認識処理を行って、最も重要視される領域を予想し、その領域の輝度値の平均を求めて、これを仮の露出値とする方式(いわゆる分割測光方式)等、種々の方式を用いることができる。 Next, a temporary exposure value (Ev value) α is obtained from the calculated luminance value Y in each divided region. In addition, the calculation method of temporary exposure value (alpha) is not specifically limited, It can calculate using a well-known method. For example, in the method of calculating the average of the luminance values of the entire screen and using this as a temporary exposure value (so-called average metering method) or the average metering method, weighting the area near the center of the screen Method (so-called center forward point metering method), a method of calculating the average of brightness values in a very narrow area of an image, and using this as a temporary exposure value (so-called spot metering method), dividing the screen into a plurality of regions, Various methods are used such as a method (so-called divided photometry method) in which pattern recognition processing is performed to predict the most important region, the average of luminance values in the region is obtained, and this is used as a temporary exposure value. be able to.
本実施の形態のデジタルカメラでは、これらの測光方式をユーザが選択できるものとし、選択された測光方式の下で仮の露出値が算出される。 In the digital camera of the present embodiment, it is assumed that the user can select these photometry methods, and a temporary exposure value is calculated under the selected photometry method.
CPU23は、算出された仮の露出値αに対して必要に応じて露出補正を行い、最終的に得られた露出値(最終露出値)βに基づいて露出設定を行う。すなわち、最終露出値βから所定のプログラム線図に従って絞り値、シャッタ速度を決定する。
The
CPU23は、撮影光量が不足している場合や、主要被写体が逆光であると判断した場合に、充電部22により充電されたコンデンサによりフラッシュ21を発光させ、撮影補助光とする。
When the photographing light amount is insufficient or when the main subject is determined to be backlit, the
圧縮処理部31は、CPU23からの圧縮指令に従い、入力された輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)に所定形式(たとえば、JPEG)の圧縮処理を施し、圧縮画像データを生成する。また、CPU23からの伸張指令に従い、入力された圧縮画像データに所定形式の伸張処理を施して、非圧縮の画像データを生成する。
In accordance with a compression command from the
LCDインターフェース26は、CPU23からの指令に従い、LCD27への表示を制御する。
The
外部メモリインターフェース25は、CPU23からの指令に従い、メモリカード24に対してデータの読み/書きを制御する。
The
次に、ペット撮影モードの動作について説明する。ユーザは、図示しない操作部を用いてデジタルカメラ10をペット撮影モードに設定することができる。このペット撮影モードにおいては、まず最初に、撮影するペットの種類を選択する必要がある。撮影するペットの種類がネコの場合は「ネコ」を、カエルである場合は、「カエル」を選択する。撮影するペットの種類が設定されると、CPU23はCCD13から出力される信号に対して、ペット検出を行いやすいように処理を施す。図2は、この画像処理の動作を示したフローチャートである。
Next, the operation in the pet photographing mode will be described. The user can set the digital camera 10 to the pet photographing mode using an operation unit (not shown). In this pet photographing mode, first, it is necessary to select the type of pet to be photographed. If the pet to be photographed is a cat, “cat” is selected, and if it is a frog, “frog” is selected. When the type of pet to be photographed is set, the
まず、選択されたペットの種類の外見が、細かいか否かを判定する(ステップS201)。CPU23は、あらかじめROM30に記憶された各種ペットの特徴から、選択されたペットの種類の特徴を読み出す。図3(a)はネコの特徴を示す図であり、図3(b)はカエルの特徴を示す図である。このように読み出した特徴に基づいて、細かいか否かを判定する。
First, it is determined whether or not the appearance of the selected pet type is fine (step S201). The
選択されたペットの種類が細かいと判断された場合は、高周波成分を強調する処理を行う(ステップS202)。図4(a)や図4(b)に示す輪郭強調フィルタを用いて輪郭を抽出し、抽出した輪郭成分にゲインをかけ、元画像と合成する。図5(a)は入力画像を示し、図5(b)はこの処理を施した画像を示す。このような処理を施すことにより、ネコのような毛がふさふさしたペットが被写体である場合の、ペット検出の検出精度を上げることができる。なお、輪郭強調フィルタのフィルタ行列は、図4の行列に限定されるものではなく、適宜決めればよい。 If it is determined that the type of the selected pet is fine, a process for emphasizing the high frequency component is performed (step S202). A contour is extracted using the contour enhancement filter shown in FIGS. 4A and 4B, gain is applied to the extracted contour component, and the resultant is combined with the original image. FIG. 5A shows an input image, and FIG. 5B shows an image subjected to this processing. By performing such processing, it is possible to increase the detection accuracy of pet detection when a pet with hair like cats is a subject. Note that the filter matrix of the edge enhancement filter is not limited to the matrix in FIG. 4 and may be determined as appropriate.
被写体が細かくないと判断された場合は、被写体がつるつるであるか否かを判定する(ステップS203)。この判定も、ROM30から読み出した特徴に基づいて行う。被写体がつるつるであると判断された場合は、メディアンフィルタを用いてノイズリダクション処理を行う(ステップS204)。図6(a)は入力画像を示し、図6(b)はノイズリダクション処理を施した画像を示す。このようにノイズを低減することで、例えばカエルのように毛が無いペットが被写体である場合に、本来無いはずのざらざらを無くし、ペット検出の検出精度を上げることができる。
If it is determined that the subject is not fine, it is determined whether or not the subject is smooth (step S203). This determination is also made based on the features read from the
次に、輝度が高い部分が多いか否かの判定(ステップS205)と、輝度が低い部分が多いか否かの判定を行う(ステップS206、ステップS207)。この判定も、ROM30から読み出した特徴に基づいて行う。
Next, it is determined whether there are many parts with high luminance (step S205) and whether there are many parts with low luminance (steps S206, S207). This determination is also made based on the features read from the
輝度が高い部分が多く、かつ輝度が低い部分も多いと判断した場合は、ハイライト・ダーク両側のダイナミックレンジを広げる階調補正を行う(ステップS208)。図7(a)に、通常のガンマカーブと、ハイライト・ダーク両側のダイナミックレンジを拡大したガンマカーブを示す。このようなガンマカーブを用いて階調補正を行うことにより、高輝度部及び低輝度部に階調を持たせることができ、輝度が高い部分と低い部分が共に多いペットが被写体である場合の、ペット検出の検出精度を上げることができる。 If it is determined that there are many high-luminance parts and many low-luminance parts, gradation correction is performed to widen the dynamic range on both the highlight and dark sides (step S208). FIG. 7A shows a normal gamma curve and a gamma curve obtained by enlarging the dynamic range of both the highlight and dark sides. By performing gradation correction using such a gamma curve, gradation can be given to the high-luminance part and the low-luminance part. The detection accuracy of pet detection can be increased.
輝度が高い部分が多く、輝度が低い部分は少ないと判断された場合は、ハイライト側のダイナミックレンジを広げり階調補正を行う(ステップS209)。図7(b)に、通常のガンマカーブと、ハイライト側のダイナミックレンジを拡大したガンマカーブを示す。このようなガンマカーブを用いて階調補正を行うことにより、通常ガンマカーブを用いた場合に飽和して白トビしてしまう領域にも階調を持たせることができ、輝度が高い部分が多いペットが被写体である場合の、ペット検出の検出精度を上げることができる。 If it is determined that there are many high-luminance portions and few low-luminance portions, the dynamic range on the highlight side is expanded and gradation correction is performed (step S209). FIG. 7B shows a normal gamma curve and a gamma curve obtained by enlarging the dynamic range on the highlight side. By performing gradation correction using such a gamma curve, it is possible to provide gradation even in areas that are saturated and white tones when using a normal gamma curve, and there are many areas with high luminance. The detection accuracy of pet detection when the pet is the subject can be increased.
輝度が高い部分は少なく、輝度が低い部分が多いと判断された場合は、ダーク側のダイナミックレンジを広げる階調補正を行う(ステップS210)。図7(c)に、通常のガンマカーブと、ダーク側のダイナミックレンジを拡大したガンマカーブを示す。このようなガンマカーブを用いて階調変換を行うことにより、通常ガンマカーブを用いた場合に黒つぶれしてしまうダーク側に階調を持たせることができ、輝度が低い部分が多いペットが被写体である場合の、ペット検出の検出精度を上げることができる。 If it is determined that there are few high-luminance parts and many low-luminance parts, gradation correction is performed to widen the dark side dynamic range (step S210). FIG. 7C shows a normal gamma curve and a gamma curve in which the dynamic range on the dark side is expanded. By performing gradation conversion using such a gamma curve, it is possible to give gradation to the dark side that would be blackened when using a normal gamma curve, and pets with many parts with low brightness will be subject In this case, the detection accuracy of pet detection can be increased.
画像処理が終了すると、この処理を施された信号を用いて、検出部19がペット検出を行う。この信号は、ペットの種類に応じて検出に適した処理が施されているため、ペットの検出精度を向上することができる。ペットを検出すると、検出したペットに対してAE/AFが行われ、ユーザはペットに適した撮影を行うことができる。 When the image processing is completed, the detection unit 19 performs pet detection using the signal subjected to this processing. Since this signal has been subjected to processing suitable for detection according to the type of pet, the detection accuracy of the pet can be improved. When a pet is detected, AE / AF is performed on the detected pet, and the user can perform photographing suitable for the pet.
このように、選択されたペットの種類に応じて入力信号に処理を施し、処理を施した信号を用いてペット検出を行うことにより、対象のペットの特徴に応じて検出精度を上げることができる。 In this way, by performing processing on the input signal according to the type of the selected pet and performing pet detection using the processed signal, the detection accuracy can be increased according to the characteristics of the target pet. .
<第2の実施の形態>
第2の実施の形態のデジタルカメラ10について説明する。図8は、第2の実施の形態のデジタルカメラ10の内部構成を示すブロック図である。図1に示すブロック図とは、マイペット情報記録部32を備えたところが異なっている。第2の実施の形態のデジタルカメラ10は、ユーザが自分のペットを登録し、その登録したペットの特徴に応じて画像処理を行うことにより、ペット検出の検出精度を上げる。
<Second Embodiment>
A digital camera 10 according to the second embodiment will be described. FIG. 8 is a block diagram illustrating an internal configuration of the digital camera 10 according to the second embodiment. The block diagram shown in FIG. 1 is different from the block diagram shown in FIG. In the digital camera 10 of the second embodiment, the user registers his / her pet and performs image processing according to the registered pet characteristics, thereby increasing the detection accuracy of pet detection.
最初に、自分のペットの外見の特徴をデジタルカメラ10に登録する必要がある。ユーザは、図示しない操作部を用いてマイペット登録モードに設定し、登録したいペットを撮影することにより、ペットの特徴を登録することができる。図9は、マイペット登録モードの動作について示したフローチャートである。 First, it is necessary to register the appearance characteristics of his / her pet in the digital camera 10. The user can register the pet characteristics by setting the my pet registration mode using an operation unit (not shown) and photographing the pet to be registered. FIG. 9 is a flowchart showing the operation in the my pet registration mode.
まず、登録対象となるペットの撮影を行う(ステップS901)。マイペット登録モードでの撮影においては、ペットの外見の特徴をつかむために、ペットをフレームいっぱいに、又はフレームからはみ出るくらいの画角で撮影を行う。また、スルー画像上に枠を表示させ、この枠内にペットが収まるように撮影を行い、枠内の画像において特徴を抽出してもよい。なお、正面だけでなく、横、後、上から等、様々な角度から複数の撮影を行うことにより、より詳細にペットの外見の特徴を捉えることができる。 First, a pet to be registered is photographed (step S901). When shooting in the My Pet Registration mode, in order to grasp the features of the pet's appearance, the pet is shot at a field angle that fills the frame or protrudes from the frame. Alternatively, a frame may be displayed on the through image, and shooting may be performed so that the pet fits within the frame, and features may be extracted from the image within the frame. Note that the appearance characteristics of the pet can be captured in more detail by performing a plurality of shootings from various angles such as from the side, rear, and top, as well as from the front.
次に、撮影した画像について、「細かい(高周波成分)」の重み付けを行う(ステップS902)。この重み付けは、撮影した画像にハイパスフィルタをかけ、高周波成分を抽出することにより行う。図10は、「細かい」の重み付けについて示した図である。図10に示すように、高周波成分が撮影領域の80%以上の場合に重みを5、70%〜80%の場合に4、50%〜70%の場合に3、30%〜50%の場合に2、及び30%以下の場合に1とする。なお、ステップS901において複数の画像を撮影した場合は、各画像の平均を算出して重み付けを行えばよい。 Next, weighting of “fine (high frequency component)” is performed on the photographed image (step S902). This weighting is performed by applying a high-pass filter to the captured image and extracting a high-frequency component. FIG. 10 is a diagram illustrating the “fine” weighting. As shown in FIG. 10, when the high-frequency component is 80% or more of the imaging region, the weight is 5, when the high-frequency component is 70% to 80%, 4, when the high frequency component is 50% to 70%, and 3, 30% to 50%. 2 and 30% or less. If a plurality of images are taken in step S901, the average of each image may be calculated and weighted.
次に、撮影した画像について、「つるつる(低周波成分)」の重み付けを行う(ステップS903)。この重み付けは、撮影した画像にローパスフィルタをかけ、低周波成分を抽出することにより行う。図11は、「つるつる」の重み付けについて示した図である。図11に示すように、低周波成分が領域の80%以上の場合に重みを5、70%〜80%の場合に4、50%〜70%の場合に3、30%〜50%の場合に2、及び30%以下の場合に1とする。 Next, the photographed image is weighted with “smooth (low frequency component)” (step S903). This weighting is performed by applying a low-pass filter to the captured image and extracting a low-frequency component. FIG. 11 is a diagram illustrating the weighting of “smooth”. As shown in FIG. 11, when the low frequency component is 80% or more of the region, the weight is 5, when the low frequency component is 70% to 80%, 3, when the low frequency component is 50% to 70%, and 3, 30% to 50%. 2 and 30% or less.
次に、撮影した画像について、「輝度が高い」の重み付けを行う(ステップS904)。図12は、ペットの高輝度部の判定について示した図である。図12に示すように、輝度が255に飽和している領域が40%以上の場合に重みを5、20%〜40%の場合に4、飽和している領域が20%以下で、かつ輝度が200以上の領域が40%以上の場合に3、飽和している領域が20%以下で、かつ輝度が200以上の領域が20%〜40%の場合に2、及び上記に該当しない場合に1とする。 Next, the captured image is weighted with “high brightness” (step S904). FIG. 12 is a diagram illustrating determination of a high-intensity part of a pet. As shown in FIG. 12, the weight is 5 when the area where the luminance is saturated to 255 is 40% or more, 4 when the area is 20% to 40%, the luminance is 20% or less, and the luminance. Is 3 when the area of 200 or more is 40% or more, 2 when the area of saturation is 20% or less and the area of luminance of 200 or more is 20% to 40%, and when the above is not applicable Set to 1.
次に、撮影した画像について、「輝度が低い」の重み付けを行う(ステップS905)。図13は、ペットの低輝度部の判定について示した図である。図13に示すように、輝度が0につぶれている領域が40%以上の場合に重みを5、20%〜40%の場合に4、0につぶれている領域が20%以下で、かつ輝度が60以下の領域が40%以上の場合に3、0につぶれている領域が20%以下で、かつ輝度が60以下の領域が20%〜40%の場合に2、及び上記に該当しない場合に1とする。 Next, the photographed image is weighted with “low brightness” (step S905). FIG. 13 is a diagram showing the determination of the low luminance part of the pet. As shown in FIG. 13, the weight is 5 when the area collapsed to 0% is 40% or more, 4 when the area is 20% to 40%, and the area collapsed to 0 is 20% or less. When the area of 60 or less is 40% or more, the area collapsed to 0 is 20% or less, and when the area of luminance 60 or less is 20% to 40%, 2 and when the above does not apply 1
最後に、得られた各重み情報を、マイペット情報記録部32に記録する(ステップS906)。図14は、マイペット情報記録部32に記録したマイペット情報の一例を示す図である。以上で、ペットの登録処理が終了する。
Finally, each obtained weight information is recorded in the my pet information recording unit 32 (step S906). FIG. 14 is a diagram illustrating an example of my pet information recorded in the my pet
マイペットの登録が終了すると、ユーザは、図示しない操作部を用いてマイペット撮影モードに設定し、ペット撮影を行うことができる。図15は、マイペット撮影モードの画像処理について示したフローチャートである。 When the registration of the my pet is completed, the user can set the my pet shooting mode using an operation unit (not shown) and perform the pet shooting. FIG. 15 is a flowchart showing image processing in the My Pet shooting mode.
ユーザはマイペット撮影モードに設定した際、複数のマイペットが登録されている場合は、複数のマイペットの中からこれから撮影を行うマイペットの選択を行う。マイペットが選択されると、CPU23は、マイペット情報記録部32からマイペット情報を読み出し、読み出したマイペット情報を用いて輝度が高い部分が多いか否かを判定する(ステップS1501)。ここでは、「輝度が高い」の重みが3以上の場合に、輝度が高い部分が多いと判断する。輝度が高い部分が多いと判断した場合は、輝度が低い部分が多いか否かを判定する(ステップS1502)。ここでも、「輝度が低い」の重みが3以上の場合に、輝度が低い部分が多いと判断する。輝度が低い部分が多いと判断した場合は、ハイライト・ダーク両側のダイナミックレンジを広げる階調補正を行う(ステップS1503)。このハイライト・ダーク両側のダイナミックレンジを広げる階調補正は、第1の実施の形態と同様に、図7(a)に示すガンマカーブを用いて行う。輝度が低い部分が少ないと判断した場合は、ハイライト側のダイナミックレンジを広げる階調補正を行う(ステップS1504)。この場合も、第1の実施の形態と同様に、図7(b)に示すガンマカーブを用いて行う。
When the user has set the my pet photographing mode, if a plurality of my pets are registered, the user selects a my pet to be photographed from among the plurality of my pets. When the my pet is selected, the
また、輝度が高い部分が少ないと判断した場合は、輝度が低い部分が多いか否かの判定を行う(ステップS1505)。ここでも、「輝度が低い」の重みが3以上の場合に、輝度が低い部分が多いと判断する。輝度が低い部分が多いと判断した場合は、ダーク側のダイナミックレンジを広げる階調補正を行う(ステップS1506)。このダーク側のダイナミックレンジを広げる階調補正は、第1の実施の形態と同様に、図7(c)に示すガンマカーブを用いて行う。輝度が低い部分が少ないと判断した場合は、階調補正を行わずに、ステップS1507に進む。 If it is determined that there are few high-luminance parts, it is determined whether there are many low-luminance parts (step S1505). Again, when the weight of “low luminance” is 3 or more, it is determined that there are many portions with low luminance. If it is determined that there are many portions with low luminance, gradation correction is performed to widen the dark side dynamic range (step S1506). Tone correction for expanding the dynamic range on the dark side is performed using a gamma curve shown in FIG. 7C, as in the first embodiment. If it is determined that there are few portions with low luminance, the process proceeds to step S1507 without performing gradation correction.
次に、マイペット情報の「細かい」の重みに応じて、輪郭強調処理を行う(ステップS1507)。図16は、輪郭強調フィルタのフィルタ行列を示す図である。「細かい」の重みが1のときは、図16(a)や図16(b)に示すフィルタ、重みが2〜4のときは、図16(c)や図16(d)に示すフィルタ、重みが5のときは図16(e)や図16(f)に示すフィルタを選択し、選択したフィルタを用いて輪郭強調を行う。 Next, contour emphasis processing is performed according to the “fine” weight of the My Pet information (step S1507). FIG. 16 is a diagram illustrating a filter matrix of the edge enhancement filter. When the “fine” weight is 1, the filters shown in FIGS. 16A and 16B, and when the weight is 2 to 4, the filters shown in FIGS. 16C and 16D, When the weight is 5, the filter shown in FIG. 16E or FIG. 16F is selected, and contour enhancement is performed using the selected filter.
輪郭強調処理が終了したら、次に、「つるつる」の重みに応じて、ノイズリダクション処理を行う(ステップS1508)。 When the contour emphasis process is completed, a noise reduction process is then performed according to the “smooth” weight (step S1508).
ここでは、ノイズリダクション処理としてウィナーフィルタを用いる。ウィナーフィルタは、輝度に対するノイズテーブル(輝度毎のノイズ量)を持ち、そのノイズ量分だけノイズを低減する処理を行う。マイペット情報の「つるつる」の重みに応じて、ノイズテーブルの量を変動させることで、重みに応じたノイズリダクションの強弱をつけることが可能となる。図17は、ウィナーフィルタのノイズテーブルについて示した図である。図17に示すように、つるつるさの重みが大きいほど、ノイズリダクション効果を大きくしている。 Here, a Wiener filter is used as the noise reduction process. The Wiener filter has a noise table (amount of noise for each luminance) for luminance, and performs a process of reducing noise by the amount of noise. By varying the amount of the noise table according to the “smooth” weight of the My Pet information, it is possible to increase or decrease the noise reduction according to the weight. FIG. 17 is a diagram illustrating a noise table of the Wiener filter. As shown in FIG. 17, the noise reduction effect is increased as the smoothness weight increases.
以上で画像処理が終了する。検出部19は、この画像処理が施された信号を用いてペット検出を行う。この信号は、登録したペットに応じて検出に適した処理が施されているため、ペットの検出精度を向上することができる。ペットを検出すると、検出したペットに対してAE/AFが行われ、ユーザはペットに適した撮影を行うことができる。 This completes the image processing. The detection unit 19 performs pet detection using the signal subjected to the image processing. Since this signal is subjected to processing suitable for detection according to the registered pet, the detection accuracy of the pet can be improved. When a pet is detected, AE / AF is performed on the detected pet, and the user can perform photographing suitable for the pet.
このように、登録されたペットに応じて入力信号に処理を施し、処理を施した信号を用いてペット検出を行うことにより、対象のペットの特徴に応じて検出精度を上げることができる。 In this manner, by performing processing on the input signal according to the registered pet and performing pet detection using the processed signal, the detection accuracy can be increased according to the characteristics of the target pet.
なお、重み付けの判定の閾値は、本実施の形態の数値に限定されるものではなく、適宜決定すればよい。 Note that the weighting threshold value is not limited to the numerical value of the present embodiment, and may be determined as appropriate.
<第3の実施の形態>
第3の実施の形態のデジタルカメラ10について説明する。図18は、第3の実施の形態のデジタルカメラ10の内部構成を示すブロック図である。図8に示すブロック図とは、マイペット用AF/AE制御部33を備えたところが異なっている。第3の実施の形態のデジタルカメラ10は、ユーザが自分のペットを登録し、そのペットの特徴に応じてAEを制御することにより、ペット検出の検出精度を上げる。
<Third Embodiment>
A digital camera 10 according to a third embodiment will be described. FIG. 18 is a block diagram illustrating an internal configuration of the digital camera 10 according to the third embodiment. 8 is different from the block diagram shown in FIG. 8 in that an AF /
あらかじめ自分のペットの外見の特徴をマイペット情報として登録する必要があるが、マイペット情報の登録については、第2の実施の形態と同様であるので説明は省略する。マイペット情報の登録後、ユーザは、図示しない操作部を用いてマイペット撮影モードに設定し、ペット撮影を行う。図19は、マイペット撮影モードの画像処理について示したフローチャートである。 Although it is necessary to register in advance the features of the appearance of his / her pet as my pet information, the registration of my pet information is the same as in the second embodiment, and a description thereof will be omitted. After registering the My Pet information, the user sets the My Pet shooting mode using an operation unit (not shown), and performs pet shooting. FIG. 19 is a flowchart showing image processing in the My Pet shooting mode.
最初に、マイペット情報記録部32からマイペット情報を読み出し、「輝度が高い」条件から、露出補正量を読み出す(ステップS1901)。図20は、「輝度が高い」の重みと、露出補正量を示した図である。図20に示すように、各条件に対して、露出補正量が決められている。次に、「輝度が低い」条件から、露出補正量を読み出す(ステップS1902)。図21は、「輝度が低い」の重みと、露出補正量を示した図である。図20と同様に、各条件に対して、露出補正量が決められている。
First, the mipet information is read from the mipet
次に、撮影に用いる露出値を算出する(ステップS1903)。通常のAEから算出した適正露出に対して、ステップS1901で読み出した露出補正量と、ステップS1902で読み出した露出補正量を加算し、撮影に用いる露出値を決定する。以上のように算出した露出値を用いて、検出部19はペット検出を行う。 Next, an exposure value used for photographing is calculated (step S1903). The exposure correction amount read in step S1901 and the exposure correction amount read in step S1902 are added to the appropriate exposure calculated from the normal AE to determine the exposure value used for photographing. Using the exposure value calculated as described above, the detection unit 19 performs pet detection.
例えば、黒い犬を日中の屋外で撮影しようとした場合、周りは明るいのでAEは露出を下げる方に動く。そうすると、黒い犬はさらに暗くなり、黒つぶれしてしまうので、その状態では検出するのは困難となる。マイペット情報の「輝度が低い」の重みが強い場合は、周りの環境光の強さに関係なく露出を上げ、ペット自体を明るくすることによってペットを認識させやすくする。 For example, when shooting a black dog outdoors during the day, the AE moves to lower the exposure because the surroundings are bright. As a result, the black dog becomes darker and is crushed, making it difficult to detect in that state. When the weight of “low brightness” in the My Pet information is strong, the exposure is increased regardless of the ambient light intensity, and the pet itself is made brighter to make it easier to recognize the pet.
なお、ここで算出した露出値を用いて本撮影を行ってもよい。このように本撮影を行うことにより、ペットに応じた好ましい露出の画像を得ることが可能となる。 Note that the actual photographing may be performed using the exposure value calculated here. By performing the main photographing as described above, it is possible to obtain an image with a preferable exposure according to the pet.
<第4の実施の形態>
第4の実施の形態のデジタルカメラ10について説明する。第4の実施の形態のデジタルカメラ10は、自分のペットを撮影し、撮影した画像についてペットに適した画像処理を行う。内部構成のブロック図は図8と同様であり、マイペット情報記録部32を備えている。
<Fourth embodiment>
A digital camera 10 according to a fourth embodiment will be described. The digital camera 10 according to the fourth embodiment photographs his / her pet and performs image processing suitable for the pet on the photographed image. The block diagram of the internal configuration is the same as that of FIG.
第2の実施の形態と同様に、事前に自分のペットの外見の特徴をデジタルカメラ10に登録する必要がある。マイペット情報の登録については、第2の実施の形態と同様であるので説明を省略する。 Similar to the second embodiment, it is necessary to register the appearance characteristics of his / her pet in the digital camera 10 in advance. Since the registration of my pet information is the same as in the second embodiment, the description thereof is omitted.
ユーザは、マイペット情報を登録後、図示しない操作部を用いてマイペット撮影モードに設定して、本撮影を行う。デジタルカメラ10は、撮影データにマイペットが写っていると判断すると、図22のフローチャートに示す画像処理を施し、処理をした画像信号を外部メモリインターフェース25を介してメモリカード24に記録する。撮影データにマイペットが写っているか否かの判断は、スルー画像からペット検出を行ってもよいし、マイペット撮影モードに設定されたことでマイペットが写っていると判断してもよい。
After registering the My Pet information, the user sets the My Pet shooting mode using an operation unit (not shown) and performs the main shooting. When the digital camera 10 determines that the mypet is captured in the photographic data, the digital camera 10 performs image processing shown in the flowchart of FIG. 22 and records the processed image signal in the
ここで、画像処理について説明する。図22は、マイペット撮影モードにおける画像処理を示したフローチャートである。なお、図15に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。 Here, the image processing will be described. FIG. 22 is a flowchart showing image processing in the My Pet shooting mode. In addition, the same code | symbol is attached | subjected to the part which is common in the flowchart shown in FIG. 15, and the detailed description is abbreviate | omitted.
まず、マイペット情報記録部32からマイペット情報を読み出し、輝度が高い部分が多いか否かの判定(ステップS1501)と、輝度が低い部分が多いか否かの判定(ステップS1502、ステップS1505)を行う。第2の実施の形態と同様に、「輝度が高い」の重みが3以上の場合に輝度が高い部分が多いと判断し、「輝度が低い」の重みが3以上の場合に輝度が低い部分が多いと判断する。輝度が高い部分が多く、輝度が低い部分が少ないと判断した場合は、ハイライト側のダイナミックレンジを広げた階調補正を行う(ステップS1504)。ダイナミックレンジを広げる階調補正については、第1の実施の形態と同様に行う。このように階調補正を行うことで、例えば白いペットに対する白トビを防止することができる。
First, the my pet information is read from the my pet
また、輝度が高い部分が少なく、輝度が低い部分が多いと判断した場合は、ノイズリダクション処理の重みをプラス1とする(ステップS2201)。このように、ノイズリダクション処理を変更することで、例えばノイズの目立つ黒いペットに対して適切にノイズを低減することができる。 On the other hand, if it is determined that there are few high-luminance parts and many low-luminance parts, the noise reduction processing weight is set to plus 1 (step S2201). In this way, by changing the noise reduction processing, it is possible to appropriately reduce noise, for example, for a black pet with noticeable noise.
輝度が高い部分と輝度が低い部分が共に多いと判断した場合、及び共に少ないと判断した場合は、そのままステップS1507へ進む。 If it is determined that both the high luminance part and the low luminance part are both large and if both are low, the process proceeds to step S1507.
次に、マイペット情報の「細かい」の重みに応じて、輪郭強調処理を行う(ステップS1507)。第2の実施の形態と同様に、「細かい」の重みが1のときは、図16(a)や図16(b)に示すフィルタ、重みが2〜4のときは、図16(c)や図16(d)に示すフィルタ、重みが5のときは図16(e)や図16(f)に示すフィルタを使用し、輪郭強調処理を行う。このように、細かさに応じたフィルタを選択して輪郭強調処理を行うことで、例えば毛のふさふさしたペットに対してディテールを残すことができる。 Next, contour emphasis processing is performed according to the “fine” weight of the My Pet information (step S1507). Similarly to the second embodiment, when the “fine” weight is 1, the filter shown in FIG. 16A or 16B, and when the weight is 2 to 4, FIG. Alternatively, the filter shown in FIG. 16D and when the weight is 5, the filter shown in FIG. 16E or FIG. In this way, by selecting the filter according to the fineness and performing the contour emphasis process, it is possible to leave details for, for example, a pet whose hair is bushy.
輪郭強調処理が終了すると、次に、読み出したマイペット情報の「つるつる」の重みに応じて、ノイズリダクション処理を行う(ステップS1508)。ここで、ステップS2001でノイズリダクションの重みをプラス1されている場合は、「つるつる」の重みに1を加算し、ノイズリダクション処理を強めに行う。重みが6になってしまう場合は、重みは5とする。ノイズリダクション処理は、第2の実施の形態と同様にウィナーフィルタを用いる。各重みに対するノイズリダクション効果は、図17に示すようになっている。このように、「つるつる」の重みに応じてノイズリダクションを行うことで、例えば元々つるつるしたペットに対して、適切にノイズ低減を行うことができる。 When the contour emphasis process is completed, a noise reduction process is then performed according to the “smooth” weight of the read mypet information (step S1508). If the noise reduction weight is incremented by 1 in step S2001, 1 is added to the "smooth" weight, and the noise reduction process is performed stronger. If the weight becomes 6, the weight is 5. In the noise reduction process, a Wiener filter is used as in the second embodiment. The noise reduction effect for each weight is as shown in FIG. In this way, by performing noise reduction according to the weight of “smooth”, it is possible to appropriately reduce noise, for example, for a pet that originally slipped.
以上で画像処理が終了する。このように画像処理を施した画像をメモリカード24に記録することにより、自分のペットに適した画像を得ることができる。
This completes the image processing. By recording an image subjected to image processing in this way on the
マイペット情報として色情報を取得し、色情報に基づいて画像処理を行ってもよい。色情報を用いることにより、例えば特徴的な模様や色があるペットに対し、その色を強調するように鮮やかにする画像処理をおこなったり、色が単調で面積が広いペットに対し、色の繋がりを考慮して階調補正を軟調にしたり、黒い部分が多いペットに対し、黒をしっかりと表現するためにオフセットをかけたりすることも可能となる。 Color information may be acquired as my pet information, and image processing may be performed based on the color information. By using color information, for example, a pet with a characteristic pattern or color is processed to make it vivid so as to emphasize the color, or a color is connected to a pet that is monotonous and has a large area. This makes it possible to soften the tone correction in consideration of the above, or to apply an offset to a pet with many black portions in order to express black well.
11…光学ユニット、12…モータ駆動部、13…CCD、14…タイミングジェネレータ、15…アナログ信号処理部、16…A/D変換器、17…画像入力コントローラ、18…BUS、19…検出部、20…デジタル信号処理部、21…フラッシュ、22…充電部、23…CPU、24…メモリカード、25…外部メモリインターフェース、26…LCDインターフェース、27…LCD、28…メモリインターフェース、29…RAM、30…ROM、31…圧縮処理部、32…マイペット情報記録部、33…マイペット用AF/AE制御部
DESCRIPTION OF
Claims (12)
撮像するペットをユーザが指定する入力手段と、
ペットごとに前記ペットの外見の特徴を記憶するデータベースと、
前記指定されたペットの外見の特徴を前記データベースから読み出す読み出し手段と、
前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理手段と、
前記画像処理が施された画像データから前記ペットを検出するペット検出手段と、
を備えたことを特徴とする撮像装置。 Imaging means for imaging a subject and converting it into image data;
An input means for a user to specify a pet to be imaged;
A database for storing the pet's appearance characteristics for each pet;
Reading means for reading out the features of the appearance of the designated pet from the database;
Image processing means for performing predetermined image processing on the image data in accordance with the read appearance characteristics;
Pet detection means for detecting the pet from the image data subjected to the image processing;
An imaging apparatus comprising:
前記抽出したペットの外見の特徴を前記データベースに登録する登録手段と、
を備えたことを特徴とする請求項1に記載の撮像装置。 Extraction means for extracting the appearance characteristics of the pet from the image data of the captured pet;
Registration means for registering the extracted pet appearance characteristics in the database;
The imaging apparatus according to claim 1, further comprising:
撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出手段と、
前記算出された露出補正条件をデータベースに登録する登録手段と、
前記データベースから露出補正条件を読み出す読み出し手段と、
前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正手段と、
前記露出補正が施された画像データから前記ペットを検出するペット検出手段と、
を備えたことを特徴とする撮像装置。 Imaging means for imaging a subject and converting it into image data;
Calculating means for calculating exposure correction conditions when imaging the pet from the image data of the captured pet;
Registration means for registering the calculated exposure correction condition in a database;
Read means for reading exposure correction conditions from the database;
Exposure correction means for performing exposure correction on the image data in accordance with the exposure correction conditions read from the database;
Pet detection means for detecting the pet from the image data subjected to the exposure correction;
An imaging apparatus comprising:
撮像するペットをユーザが指定する入力工程と、
前記指定されたペットの外見の特徴をデータベースから読み出す読み出し工程と、
前記読み出した外見の特徴に応じて前記画像データに所定の画像処理を施す画像処理工程と、
前記画像処理が施された画像データから前記ペットを検出するペット検出工程と、
を備えたことを特徴とする撮像制御方法。 An imaging process for imaging a subject and converting it into image data;
An input process in which the user specifies the pet to be imaged;
A reading step of reading out the characteristics of the appearance of the designated pet from a database;
An image processing step of performing predetermined image processing on the image data in accordance with the read appearance characteristics;
A pet detection step of detecting the pet from the image data subjected to the image processing;
An imaging control method comprising:
撮像したペットの画像データから前記ペットを撮像する際の露出補正条件を算出する算出工程と、
前記算出された露出補正条件をデータベースに登録する登録工程と、
前記データベースから露出補正条件を読み出す読み出し工程と、
前記データベースから読み出した前記露出補正条件に応じて前記画像データに露出補正を施す露出補正工程と、
前記露出補正が施された画像データから前記ペットを検出するペット検出工程と、
を備えたことを特徴とする撮像制御方法。 An imaging process for imaging a subject and converting it into image data;
A calculation step of calculating an exposure correction condition when imaging the pet from the image data of the captured pet;
A registration step of registering the calculated exposure correction condition in a database;
A reading step of reading exposure correction conditions from the database;
An exposure correction step of performing exposure correction on the image data in accordance with the exposure correction condition read from the database;
A pet detection step of detecting the pet from the image data subjected to the exposure correction;
An imaging control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007183419A JP2009021862A (en) | 2007-07-12 | 2007-07-12 | Imaging apparatus, and imaging control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007183419A JP2009021862A (en) | 2007-07-12 | 2007-07-12 | Imaging apparatus, and imaging control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009021862A true JP2009021862A (en) | 2009-01-29 |
Family
ID=40361086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007183419A Abandoned JP2009021862A (en) | 2007-07-12 | 2007-07-12 | Imaging apparatus, and imaging control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009021862A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011013514A (en) * | 2009-07-03 | 2011-01-20 | Fujifilm Corp | Photographing control device and method, as well as program |
JP2015118320A (en) * | 2013-12-19 | 2015-06-25 | キヤノン株式会社 | Imaging apparatus, image processing method, and program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05189571A (en) * | 1992-01-13 | 1993-07-30 | Nikon Corp | Method and device for pattern matching |
JPH08329110A (en) * | 1995-06-05 | 1996-12-13 | Matsushita Electric Ind Co Ltd | Method for processing picture |
JP2003308524A (en) * | 2002-04-16 | 2003-10-31 | Nippon Signal Co Ltd:The | Access control system |
JP2004021924A (en) * | 2002-06-20 | 2004-01-22 | Nec Corp | Face feature extraction method, apparatus and information storage medium |
JP2005109579A (en) * | 2003-09-26 | 2005-04-21 | Sanyo Electric Co Ltd | Imaging apparatus employing solid-state imaging device |
JP2006092151A (en) * | 2004-09-22 | 2006-04-06 | Konica Minolta Holdings Inc | Device, method and program for detecting area |
JP2006229275A (en) * | 2005-02-15 | 2006-08-31 | Matsushita Electric Ind Co Ltd | Imaging apparatus |
JP2007026213A (en) * | 2005-07-19 | 2007-02-01 | Nikon Corp | Imaging device |
JP2007135501A (en) * | 2005-11-21 | 2007-06-07 | Atom System:Kk | Nose characteristic information-producing apparatus and nose characteristic information-producing program |
-
2007
- 2007-07-12 JP JP2007183419A patent/JP2009021862A/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05189571A (en) * | 1992-01-13 | 1993-07-30 | Nikon Corp | Method and device for pattern matching |
JPH08329110A (en) * | 1995-06-05 | 1996-12-13 | Matsushita Electric Ind Co Ltd | Method for processing picture |
JP2003308524A (en) * | 2002-04-16 | 2003-10-31 | Nippon Signal Co Ltd:The | Access control system |
JP2004021924A (en) * | 2002-06-20 | 2004-01-22 | Nec Corp | Face feature extraction method, apparatus and information storage medium |
JP2005109579A (en) * | 2003-09-26 | 2005-04-21 | Sanyo Electric Co Ltd | Imaging apparatus employing solid-state imaging device |
JP2006092151A (en) * | 2004-09-22 | 2006-04-06 | Konica Minolta Holdings Inc | Device, method and program for detecting area |
JP2006229275A (en) * | 2005-02-15 | 2006-08-31 | Matsushita Electric Ind Co Ltd | Imaging apparatus |
JP2007026213A (en) * | 2005-07-19 | 2007-02-01 | Nikon Corp | Imaging device |
JP2007135501A (en) * | 2005-11-21 | 2007-06-07 | Atom System:Kk | Nose characteristic information-producing apparatus and nose characteristic information-producing program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011013514A (en) * | 2009-07-03 | 2011-01-20 | Fujifilm Corp | Photographing control device and method, as well as program |
US8107805B2 (en) | 2009-07-03 | 2012-01-31 | Fujifilm Corporation | Photographing control device and method, as well as program |
JP2015118320A (en) * | 2013-12-19 | 2015-06-25 | キヤノン株式会社 | Imaging apparatus, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4218723B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
US8982232B2 (en) | Image processing apparatus and image processing method | |
JP5898466B2 (en) | Imaging device, control method thereof, and program | |
CN107730456B (en) | Image processing method and image processing apparatus | |
JP6720881B2 (en) | Image processing apparatus and image processing method | |
JP2010263423A (en) | Method and device for processing image | |
JP5156991B2 (en) | Imaging apparatus, imaging method, and imaging program | |
US11838648B2 (en) | Image processing device, imaging apparatus, image processing method, and program for determining a condition for high dynamic range processing | |
JP2010093679A (en) | Imaging apparatus, and imaging control method | |
JP2006295582A (en) | Image processor, imaging apparatus, and image processing program | |
KR20180138530A (en) | Detection apparatus, image processing apparatus, detection method, and image processing method | |
JP2003199115A (en) | Method for contrast enhancement in color digital image | |
JP2002092607A (en) | Image processor, image state determining method and recording medium | |
JP2009021862A (en) | Imaging apparatus, and imaging control method | |
JP4534750B2 (en) | Image processing apparatus and image processing program | |
JP4299753B2 (en) | Image signal processing apparatus and image signal processing method | |
JP2009218689A (en) | Photometry apparatus and imaging apparatus | |
JP2007174015A (en) | Image management program and image management apparatus | |
JP5693647B2 (en) | Image processing method, image processing apparatus, and imaging apparatus | |
JP5146223B2 (en) | Program, camera, image processing apparatus, and image contour extraction method | |
JP5264695B2 (en) | Image processing method, image processing apparatus, and imaging apparatus | |
JP2010119051A (en) | Imaging device and imaging method | |
KR101408359B1 (en) | Imaging apparatus and imaging method | |
JP5282533B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP2018152095A (en) | Image processing apparatus, imaging apparatus, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110805 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20110817 |