JP2003319242A - Camera - Google Patents

Camera

Info

Publication number
JP2003319242A
JP2003319242A JP2002119713A JP2002119713A JP2003319242A JP 2003319242 A JP2003319242 A JP 2003319242A JP 2002119713 A JP2002119713 A JP 2002119713A JP 2002119713 A JP2002119713 A JP 2002119713A JP 2003319242 A JP2003319242 A JP 2003319242A
Authority
JP
Japan
Prior art keywords
scene
area
skin color
face
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002119713A
Other languages
Japanese (ja)
Other versions
JP3754391B2 (en
Inventor
Kenichi Kikuchi
健一 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002119713A priority Critical patent/JP3754391B2/en
Priority to US10/420,064 priority patent/US7872670B2/en
Publication of JP2003319242A publication Critical patent/JP2003319242A/en
Application granted granted Critical
Publication of JP3754391B2 publication Critical patent/JP3754391B2/en
Priority to US12/378,068 priority patent/US20090153702A1/en
Priority to US12/378,069 priority patent/US7969481B2/en
Priority to US12/378,084 priority patent/US20090153695A1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability of a camera. <P>SOLUTION: Based upon positions of a zoom lens 12 and a focus lens 14, a distance to a main object existing within a field is measured and based upon the position of the focus lens 14, an interval between the focus lens 14 and an image sensor 20 is measured. A face area to be occupied by a face of a figure on a photo-detection plane of the image sensor 14 is specified based upon the measured distance and interval. On the other hand, a flesh-colored area in the field is detected based upon a photographed image signal. A photographing mode is determined based upon a size of the flesh-colored area included in the face area and a size of the flesh-colored area out of the face area, and the field is photographed in the determined photographing mode. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、カメラに関し、
特にたとえばディジタルカメラに適用され、被写界に応
じた撮影モードで当該被写界を撮影する、カメラに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera,
In particular, the present invention relates to a camera that is applied to a digital camera and shoots the scene in a shooting mode according to the scene.

【0002】[0002]

【従来技術】従来のこの種のカメラとして、人の顔の撮
影に適したポートレートモードを備えるものがある。こ
の撮影モードでは、絞りが開放されかつ露光時間が短縮
されるようにプログラム線図が補正され、人物の肌色の
変化が抑えられるように白バランス調整ゲインが補正さ
れる。これによって、背景をぼかした状態で健康的な表
情の顔を撮影することができる。
2. Description of the Related Art As a conventional camera of this type, there is one having a portrait mode suitable for photographing a human face. In this shooting mode, the program diagram is corrected so that the aperture is opened and the exposure time is shortened, and the white balance adjustment gain is corrected so as to suppress the change in the skin color of the person. As a result, it is possible to photograph a face with a healthy expression in a state where the background is blurred.

【0003】[0003]

【発明が解決しようとする課題】しかし、従来技術で
は、撮影モードを手動で設定する必要があり、操作性に
問題があった。
However, in the prior art, it was necessary to manually set the photographing mode, and there was a problem in operability.

【0004】それゆえに、この発明の主たる目的は、操
作性を向上させることができる、カメラを提供すること
である。
Therefore, a main object of the present invention is to provide a camera which can improve operability.

【0005】[0005]

【課題を解決するための手段】この発明は、被写界に応
じた撮影モードで撮影を行うカメラにおいて、被写界に
存在する主要被写体までの距離を測定する第1測定手
段、人物の顔が占めるべき顔領域を第1測定手段によっ
て測定された距離に基づいて被写界から特定する特定手
段、被写界の肌色領域を検出する検出手段、および顔領
域と肌色領域との関係に基づいて撮影モードを決定する
決定手段を備えることを特徴とする、カメラである。
According to the present invention, in a camera for photographing in a photographing mode according to a scene, a first measuring means for measuring a distance to a main subject existing in the scene, a face of a person. Based on the relationship between the face area and the skin color area, the specifying means for specifying the face area to be occupied by the object from the scene based on the distance measured by the first measuring means, the detecting means for detecting the skin color area of the scene, The camera is characterized in that the camera is provided with a deciding means for deciding a photographing mode.

【0006】[0006]

【作用】被写界に存在する主要被写体までの距離が第1
測定手段によって測定されると、特定手段が、人物の顔
が占めるべき顔領域を測定された距離に基づいて被写界
から特定する。一方、被写界の肌色領域は、検出手段に
よって検出される。撮影モードは、顔領域と肌色領域と
の関係に基づいて決定手段によって決定され、被写界は
決定された撮影モードで撮影される。
[Function] The first distance to the main subject existing in the object scene is
When measured by the measuring means, the specifying means specifies the face area that the face of the person should occupy from the scene based on the measured distance. On the other hand, the skin color region of the object scene is detected by the detection means. The shooting mode is determined by the determining means based on the relationship between the face area and the skin color area, and the scene is shot in the determined shooting mode.

【0007】人物の顔の大きさは予め想定できるため、
主要被写体までの距離が測定されると、被写界から顔領
域を特定することができる。撮影モードは、こうして特
定された顔領域と被写界の肌色領域との関係に基づいて
決定される。
Since the size of a person's face can be estimated in advance,
When the distance to the main subject is measured, the face area can be identified from the object scene. The shooting mode is determined based on the relationship between the face area thus identified and the skin color area of the scene.

【0008】ズームレンズを備える場合、主要被写体ま
での距離はズームレンズの位置に基づいて測定すればよ
い。
When the zoom lens is provided, the distance to the main subject may be measured based on the position of the zoom lens.

【0009】好ましくは、フォーカスレンズを経た被写
界の光学像がイメージセンサの受光面に入射され、フォ
ーカスレンズと当該受光面との間隔が第2測定手段によ
って測定される。特定手段は、主要被写体までの距離と
フォーカスレンズおよび受光面の間隔とに基づいて、受
光面に投影された被写界像の顔領域を特定する。
Preferably, the optical image of the object field that has passed through the focus lens is incident on the light receiving surface of the image sensor, and the distance between the focus lens and the light receiving surface is measured by the second measuring means. The specifying unit specifies the face area of the object scene image projected on the light receiving surface based on the distance to the main subject and the distance between the focus lens and the light receiving surface.

【0010】好ましくは、決定手段は、顔領域に含まれ
る第1肌色領域のサイズと顔領域から外れる第2肌色領
域のサイズとを判別し、第1肌色領域および第2肌色領
域のサイズに基づいて撮影モードをポートレートモード
に設定する。
Preferably, the determining means determines the size of the first skin color area included in the face area and the size of the second skin color area outside the face area, and based on the sizes of the first skin color area and the second skin color area. To set the shooting mode to portrait mode.

【0011】決定手段によって決定された撮影モードに
対応するメッセージを出力するようにすれば、オペレー
タは、当該撮影モードが所望のモードであるかどうかを
容易に判別することができる。
By outputting the message corresponding to the photographing mode determined by the determining means, the operator can easily determine whether the photographing mode is the desired mode.

【0012】[0012]

【発明の効果】この発明によれば、主要被写体までの距
離に基づいて特定された顔領域と被写界の肌色領域との
関係に基づいて撮影モードを決定するようにしたため、
カメラの操作性を向上させることができる。
According to the present invention, the photographing mode is determined based on the relationship between the face area specified based on the distance to the main subject and the skin color area of the field.
The operability of the camera can be improved.

【0013】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
The above-mentioned objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.

【0014】[0014]

【実施例】図1を参照して、この実施例のディジタルカ
メラ10は、ズームレンズ12,フォーカスレンズ1
4,絞り機構16およびシャッタ機構18を含む。被写
界の光学像は、これらの部材を介してイメージセンサ2
0の受光面に入射する。イメージセンサ12の有効画素
数は約400万画素であり、受光面の水平方向および垂
直方向には2300画素および1740ラインが存在す
る。受光面はCy(シアン),Ye(イエロー),Mg
(マゼンダ)およびG(グリーン)がモザイク状に配列
された色フィルタ(図示せず)によって覆われており、
光電変換によって生成される生画像信号の各画素は、C
y,Ye,MgまたはGの色情報を有する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to FIG. 1, a digital camera 10 of this embodiment includes a zoom lens 12 and a focus lens 1.
4, including a diaphragm mechanism 16 and a shutter mechanism 18. The optical image of the object field is transferred to the image sensor 2 through these members.
It is incident on the light receiving surface of 0. The number of effective pixels of the image sensor 12 is about 4 million pixels, and there are 2300 pixels and 1740 lines in the horizontal and vertical directions of the light receiving surface. Light-receiving surface is Cy (cyan), Ye (yellow), Mg
(Magenta) and G (green) are covered by a color filter (not shown) arranged in a mosaic pattern,
Each pixel of the raw image signal generated by photoelectric conversion is C
It has color information of y, Ye, Mg or G.

【0015】電源が投入されると、CPU32は、被写
体のリアルタイム動画像(スルー画像)をモニタ44に
表示するべく、TG(Timing Generator)30に1/6
の垂直間引き読み出しを命令し、ズーム回路34の水平
ズーム倍率および垂直ズーム倍率を“1/4”および
“1”に設定する。TG30は、イメージセンサ20に
間引き読み出しを施し、これによって、Cy,Ye,・
・・のラインおよびMg,G・・・のラインが交互に含
まれる2300画素×290ラインの生画像信号が、1
/30秒に1フレームの割合でイメージセンサ20から
出力される。
When the power is turned on, the CPU 32 displays a real-time moving image (through image) of the subject on the monitor 44 by ⅙ to the TG (Timing Generator) 30.
The vertical thinning-out reading is instructed to set the horizontal zoom magnification and the vertical zoom magnification of the zoom circuit 34 to "1/4" and "1". The TG 30 performs thinning-out reading on the image sensor 20, whereby Cy, Ye, ...
.. and 2300 pixels.times.290 lines of raw image signal including alternating lines of Mg, G ...
It is output from the image sensor 20 at a rate of 1 frame every / 30 seconds.

【0016】イメージセンサ20から出力された各フレ
ームの生画像信号は、CDS/AGC回路22によって
ノイズ除去およびレベル調整を施される。A/D変換器
24は、CDS/AGC回路22から出力された生画像
信号をディジタル信号に変換する。電源が投入された当
初、スイッチSW1は端子S1と接続され、A/D変換
器24から出力された生画像信号はスイッチSW1を介
して信号処理回路26に入力される。
The raw image signal of each frame output from the image sensor 20 is subjected to noise removal and level adjustment by the CDS / AGC circuit 22. The A / D converter 24 converts the raw image signal output from the CDS / AGC circuit 22 into a digital signal. When the power is turned on, the switch SW1 is connected to the terminal S1 and the raw image signal output from the A / D converter 24 is input to the signal processing circuit 26 via the switch SW1.

【0017】信号処理回路26は、図2に示すように構
成される。生画像信号を形成する各画素はCy,Ye,
MgおよびGのいずれか1つの色情報しか持たないた
め、まず色分離回路26aによって各画素が不足する色
情報が補完される。RGB変換回路26bは色分離回路
26bから出力された補色画像信号にRGB変換を施
し、白バランス調整回路26cはRGB変換回路26b
から出力された原色画像信号に白バランス調整を施す。
白バランス調整が施された原色画像信号は、YUV変換
回路26dによってYUV信号に変換される。生成され
たYUV信号は、Y:U:V=4:2:2の比率を有す
る。
The signal processing circuit 26 is constructed as shown in FIG. Each pixel forming the raw image signal is Cy, Ye,
Since it has only one color information of Mg and G, first, the color separation circuit 26a complements the color information that each pixel lacks. The RGB conversion circuit 26b performs RGB conversion on the complementary color image signal output from the color separation circuit 26b, and the white balance adjustment circuit 26c outputs the RGB conversion circuit 26b.
White balance adjustment is performed on the primary color image signal output from the.
The white color-adjusted primary color image signal is converted into a YUV signal by the YUV conversion circuit 26d. The generated YUV signal has a ratio of Y: U: V = 4: 2: 2.

【0018】白バランス調整回路26cから出力された
原色画像信号は積分回路26eにも入力され、YUV変
換回路26dから出力されたYUV信号を形成するY信
号もまた積分回路26fに与えられる。図3を参照し
て、被写界(画面)は、垂直方向および水平方向の各々
において16分割され、画面上には256個のブロック
が形成されている。各ブロックには、垂直位置番号i
(=0〜15)および水平位置番号j(=0〜15)が
割り当てられる。
The primary color image signal output from the white balance adjusting circuit 26c is also input to the integrating circuit 26e, and the Y signal forming the YUV signal output from the YUV converting circuit 26d is also applied to the integrating circuit 26f. Referring to FIG. 3, the field (screen) is divided into 16 in each of the vertical direction and the horizontal direction, and 256 blocks are formed on the screen. Each block has a vertical position number i
(= 0 to 15) and horizontal position number j (= 0 to 15) are assigned.

【0019】積分回路26dは、原色画像信号を形成す
るR信号,G信号およびB信号の各々をブロック毎に積
分し、積分回路26fは、Y信号をブロック毎に積分す
る。これによって、R信号に関する256個の積分値r
(i,j),G信号に関する256個の積分値g(i,
j)およびB信号に関する256個の積分値b(i,
j)が積分回路26eから1フレーム期間毎に出力さ
れ、Y信号に関する256個の積分値y(i,j)が積
分回路26fから1フレーム期間毎に出力される。
The integrating circuit 26d integrates each of the R signal, G signal and B signal forming the primary color image signal for each block, and the integrating circuit 26f integrates the Y signal for each block. As a result, 256 integrated values r of the R signal are obtained.
(I, j), 256 integrated values g (i,
j) and 256 integrated values b (i,
j) is output from the integrator circuit 26e every frame period, and 256 integrated values y (i, j) regarding the Y signal are output from the integrator circuit 26f every frame period.

【0020】図1に戻って、信号処理回路26から出力
されたYUV信号は、ズーム回路34に与えられる。当
該YUV信号は2300画素×290ラインの解像度を
有し、ズーム回路34の水平ズーム倍率および垂直ズー
ム倍率は“1/4”および“1”に設定されているた
め、ズーム回路34からは575画素×290ラインの
YUV信号が出力される。
Returning to FIG. 1, the YUV signal output from the signal processing circuit 26 is applied to the zoom circuit 34. The YUV signal has a resolution of 2300 pixels × 290 lines, and the horizontal zoom magnification and the vertical zoom magnification of the zoom circuit 34 are set to “1/4” and “1”. A YUV signal of x290 lines is output.

【0021】ズーム回路34から出力されたYUV信号
は、メモリ制御回路36によってSDRAM38の表示
画像エリア38a(図4参照)に書き込まれ、その後、
メモリ制御回路36によって表示画像エリア38aから
読み出される。読み出されたYUV信号の解像度は擬似
フレーム化回路40によって575画素×580ライン
に変換され、変換されたYUV信号はビデオエンコーダ
42によって640画素×480ラインのコンポジット
ビデオ信号にエンコードされる。エンコードされたコン
ポジットビデオ信号はモニタ44に与えられ、この結
果、被写体のスルー画像が画面に表示される。
The YUV signal output from the zoom circuit 34 is written in the display image area 38a (see FIG. 4) of the SDRAM 38 by the memory control circuit 36, and thereafter,
It is read from the display image area 38a by the memory control circuit 36. The resolution of the read YUV signal is converted into 575 pixels × 580 lines by the pseudo framing circuit 40, and the converted YUV signal is encoded into a composite video signal of 640 pixels × 480 lines by the video encoder 42. The encoded composite video signal is supplied to the monitor 44, and as a result, a through image of the subject is displayed on the screen.

【0022】図2に示す積分回路26fから出力された
256個の積分値y(i,j)は、CPU32によって
取り込まれ、レジスタrgst1に設定される。積分値
y(i,j)は1フレーム期間毎に生成されるため、レ
ジスタrgst1の設定値は1フレーム期間毎に更新さ
れる。
The 256 integrated values y (i, j) output from the integrating circuit 26f shown in FIG. 2 are fetched by the CPU 32 and set in the register rgst1. Since the integrated value y (i, j) is generated every frame period, the set value of the register rgst1 is updated every frame period.

【0023】ズームボタン56が操作されると、対応す
る状態信号がシステムコントローラ52からCPU32
に与えられる。CPU32はドライバ28aを制御し、
これによってズームレンズ12が光軸方向に移動する。
モニタ44に表示されたスルー画像のズーム倍率は、ズ
ームボタン56の操作に応答して変化する。
When the zoom button 56 is operated, a corresponding status signal is sent from the system controller 52 to the CPU 32.
Given to. The CPU 32 controls the driver 28a,
As a result, the zoom lens 12 moves in the optical axis direction.
The zoom magnification of the through image displayed on the monitor 44 changes in response to the operation of the zoom button 56.

【0024】シャッタボタン54が半押しされると、対
応する状態信号がシステムコントローラ52からCPU
32に与えられる。CPU32は、シャッタボタン54
の半押し後に積分回路26fから出力された256個の
積分値y(i,j)をレジスタrgst2に設定する。
この結果、連続する2フレームの積分値y(i,j)が
レジスタrgst1およびrgst2内に得られる。C
PU32は、こうして得られた積分値y(i,j)に基
づいて被写界がスポーツシーンである可能性を算出す
る。
When the shutter button 54 is pressed halfway, a corresponding status signal is sent from the system controller 52 to the CPU.
32. The CPU 32 uses the shutter button 54
The 256 integrated values y (i, j) output from the integrating circuit 26f after half-pressing are set in the register rgst2.
As a result, integrated values y (i, j) of two consecutive frames are obtained in the registers rgst1 and rgst2. C
The PU 32 calculates the possibility that the object scene is a sports scene based on the integral value y (i, j) thus obtained.

【0025】スポーツシーンの可能性判断が完了する
と、CPU32は、フォーカス調整を行う。フォーカス
レンズ14は、ドライバ28bによって光軸方向に移動
し、合焦位置に設定される。フォーカス調整が完了する
と、CPU32は、積分回路26eから出力された積分
値r(i,j),g(i,j)およびb(i,j)なら
びに積分回路26eから出力された積分値y(i,j)
をレジスタrgst3に設定する。1フレーム分の積分
値r(i,j),g(i,j),b(i,j)およびy
(i,j)の取り込みが完了すると、CPU32は、ポ
ートレートシーンの可能性,夕景シーンの可能性および
夜景シーンの可能性を判別する。
When the determination of the possibility of the sports scene is completed, the CPU 32 adjusts the focus. The focus lens 14 is moved in the optical axis direction by the driver 28b and set at the in-focus position. When the focus adjustment is completed, the CPU 32 causes the integrated values r (i, j), g (i, j) and b (i, j) output from the integration circuit 26e and the integrated value y (output from the integration circuit 26e. i, j)
Is set in the register rgst3. The integrated values r (i, j), g (i, j), b (i, j) and y for one frame
When the capture of (i, j) is completed, the CPU 32 determines the possibility of portrait scene, the possibility of evening scene, and the possibility of night scene.

【0026】ポートレートシーンの可能性は、ズームレ
ンズ12から主要被写体までの距離、フォーカスレンズ
14とイメージセンサ20との間隔、ならびにレジスタ
rgst3に設定された積分値r(i,j),g(i,
j)およびb(i,j)に基づいて算出される。また、
夕景シーンの可能性は、レジスタrgst3に設定され
た積分値r(i,j),g(i,j),b(i,j)お
よびy(i,j)に基づいて算出される。さらに、夜景
シーンの可能性は、レジスタrgst3に設定された積
分値y(i,j)に基づいて算出される。
The possibility of a portrait scene is that the distance from the zoom lens 12 to the main subject, the distance between the focus lens 14 and the image sensor 20, and the integral values r (i, j) and g (set in the register rgst3. i,
j) and b (i, j). Also,
The possibility of a sunset scene is calculated based on the integrated values r (i, j), g (i, j), b (i, j) and y (i, j) set in the register rgst3. Further, the possibility of a night scene is calculated based on the integrated value y (i, j) set in the register rgst3.

【0027】こうしてスポーツシーン,ポートレートシ
ーン,夕景シーンおよび夜景シーンの各々の可能性が算
出されると、最も可能性が高いシーンが被写界シーンと
して確定する。カメラ設定つまり撮影モードは確定した
シーンに応じて変更され、モニタ44には確定したシー
ンに対応するメッセージが表示される。
When the respective possibilities of the sports scene, the portrait scene, the evening scene and the night scene are calculated in this way, the scene with the highest possibility is determined as the scene scene. The camera setting, that is, the shooting mode is changed according to the confirmed scene, and the monitor 44 displays a message corresponding to the confirmed scene.

【0028】スポーツシーンに確定すると、CPU32
は、動きのある被写体が鮮明に撮影されるように露光調
整用のプログラム線図を補正する。これによって、撮影
モードがスポーツモードとなる。ポートレートシーンに
確定すると、CPU32は、背景がぼけるようにプログ
ラム線図を補正し、人物の肌色の変化が抑えられるよう
に白バランス調整ゲインを補正する。これによって、撮
影モードがポートレートモードとなる。夕景シーンに確
定すると、CPU32は、遠景が鮮明に撮影されるよう
にプログラム線図を補正し、夕焼けの色の変化が抑えら
れるように白バランス調整ゲインを補正する。これによ
って、撮影モードが夕景モードとなる。夜景シーンに確
定すると、CPU32は、イルミネーションが際立つよ
うにプログラム線図を補正する。これによって、撮影モ
ードが夜景モードとなる。
When the sports scene is confirmed, the CPU 32
Corrects the program diagram for exposure adjustment so that a moving subject can be captured clearly. As a result, the shooting mode becomes the sports mode. When the portrait scene is confirmed, the CPU 32 corrects the program diagram so that the background is blurred, and corrects the white balance adjustment gain so as to suppress the change in the skin color of the person. As a result, the shooting mode becomes the portrait mode. When the sunset scene is confirmed, the CPU 32 corrects the program diagram so that the distant view is captured clearly, and corrects the white balance adjustment gain so that the change in the color of the sunset can be suppressed. As a result, the shooting mode becomes the evening scene mode. When the night scene is confirmed, the CPU 32 corrects the program diagram so that the illumination becomes prominent. As a result, the shooting mode becomes the night view mode.

【0029】いずれのシーンに確定しても、プログラム
線図が補正される。このため、シーン判別が完了した
後、CPU32は、レジスタrgst2に設定された積
分値y(i,j)と補正されたプログラム線図とに基づ
いて、絞り量および露光時間を調整する。
Whichever scene is set, the program diagram is corrected. Therefore, after the scene determination is completed, the CPU 32 adjusts the aperture amount and the exposure time based on the integrated value y (i, j) set in the register rgst2 and the corrected program diagram.

【0030】このような露光調整が完了した後にシャッ
タボタン54が全押しされると、対応する状態信号がシ
ステムコントローラ52からCPU32に与えられる。
CPU32は、撮影処理を実行する。具体的には、CP
U32は、本露光をTG30に命令し、TG30による
本露光が完了した時点でドライバ28dによってシャッ
タ機構16を駆動する。シャッタ機構16の駆動によっ
て、イメージセンサ20への入射光が遮断される。CP
U32はまた、本露光によって得られた1フレーム分の
生画像信号をイメージセンサ20から出力するべく、T
G30に全画素読み出しを命令する。これによって、2
300画素×1740ラインの生画像信号がインタレー
ススキャン方式でイメージセンサ20から読み出され
る。
When the shutter button 54 is fully pressed after such exposure adjustment is completed, a corresponding status signal is given from the system controller 52 to the CPU 32.
The CPU 32 executes a shooting process. Specifically, CP
The U 32 commands the TG 30 to perform the main exposure, and when the main exposure by the TG 30 is completed, the driver 28 d drives the shutter mechanism 16. The incident light on the image sensor 20 is blocked by driving the shutter mechanism 16. CP
U32 also outputs a raw image signal for one frame obtained by the main exposure from the image sensor 20.
Instruct G30 to read all pixels. By this, 2
A raw image signal of 300 pixels × 1740 lines is read from the image sensor 20 by the interlaced scan method.

【0031】この生画像信号は、CDS/AGC回路2
2およびA/D変換器24を介してメモリ制御回路36
に与えられ、メモリ制御回路36によってSDRAM3
8の生画像エリア38b(図4参照)に書き込まれる。
この2300画素×1740ラインの生画像信号はイン
タレーススキャン信号であるため、生画像エリア38b
の前半に奇数フィールド信号が格納され、生画像エリア
38bの後半に偶数フィールド信号が格納される。つま
り、生画像エリア38bの中に、奇数フィールドエリア
および偶数フィールドエリアが形成される。
This raw image signal is supplied to the CDS / AGC circuit 2
2 and the A / D converter 24 through the memory control circuit 36
To the SDRAM 3 by the memory control circuit 36.
8 raw image areas 38b (see FIG. 4).
Since the raw image signal of 2300 pixels × 1740 lines is an interlaced scan signal, the raw image area 38b
The odd field signal is stored in the first half of the above, and the even field signal is stored in the latter half of the raw image area 38b. That is, odd field areas and even field areas are formed in the raw image area 38b.

【0032】生画像エリア38bへの書き込みが完了し
た後、メモリ制御回路36は、当該生画像信号を奇数フ
ィールドエリアおよび偶数フィールドエリアから1ライ
ン毎に交互に読み出す。これによって、インタレースス
キャン信号がプログレッシブスキャン信号に変換され
る。スイッチSW1は、シャッタボタン54が全押しさ
れた時点で端子S2と接続される。このため、メモリ制
御回路36によって読み出された生画像信号は、スイッ
チSW1を介して信号処理回路22に与えられる。信号
処理回路22では、色分離,RGB変換,白バランス調
整およびYUV変換の一連の処理が実行され、これによ
って2300画素×1740ラインのYUV信号(主要
YUV信号)が生成される。
After the writing to the raw image area 38b is completed, the memory control circuit 36 alternately reads out the raw image signal from the odd field area and the even field area line by line. As a result, the interlaced scan signal is converted into the progressive scan signal. The switch SW1 is connected to the terminal S2 when the shutter button 54 is fully pressed. Therefore, the raw image signal read by the memory control circuit 36 is given to the signal processing circuit 22 via the switch SW1. The signal processing circuit 22 executes a series of processes of color separation, RGB conversion, white balance adjustment, and YUV conversion, thereby generating a YUV signal (main YUV signal) of 2300 pixels × 1740 lines.

【0033】ズーム回路34の水平ズーム倍率および垂
直ズーム倍率は、シャッタボタン54が全押しされた時
点で“1/4”および“1/6”にそれぞれ設定され
る。このため、信号処理回路22から出力されたYUV
信号の解像度は、2300画素×1740ラインから5
75画素×290ラインに変換される。ズーム回路34
から出力された575画素×290ラインのYUV信号
は、メモリ制御回路36によって図4に示す表示画像エ
リア38aに書き込まれる。これ以降はスルー画像を表
示するときと同じ処理が行われ、これによってシャッタ
ボタン54が操作された時点のフリーズ画像がモニタ4
4に表示される。
The horizontal zoom ratio and the vertical zoom ratio of the zoom circuit 34 are set to "1/4" and "1/6", respectively, when the shutter button 54 is fully pressed. Therefore, the YUV output from the signal processing circuit 22
The signal resolution is 5 from 2300 pixels x 1740 lines.
It is converted into 75 pixels × 290 lines. Zoom circuit 34
The YUV signal of 575 pixels × 290 lines output from the memory control circuit 36 is written in the display image area 38a shown in FIG. After that, the same processing as that for displaying the through image is performed, whereby the freeze image at the time when the shutter button 54 is operated is displayed on the monitor 4.
4 is displayed.

【0034】信号処理回路26から出力された2300
画素×1740ラインの主要YUV信号はまた、そのま
まメモリ制御回路36に与えられ、メモリ制御回路36
によってSDRAM38の主画像エリア38c(図4参
照)に書き込まれる。書き込みが完了すると、CPU3
2がこの2300画素×1740ラインの主要YUV信
号に基づいて160画素×120ラインの縮小YUV信
号を作成する。具体的には、CPU32は、メモリ制御
回路36を介してSDRAM38にアクセスし、ソフト
ウェア処理によって縮小YUV信号を生成する。生成さ
れた縮小YUV信号は、SDRAM38の縮小画像エリ
ア38d(図4参照)に書き込まれる。
2300 output from the signal processing circuit 26
The main YUV signal of pixel × 1740 lines is also directly supplied to the memory control circuit 36, and the memory control circuit 36
Is written in the main image area 38c (see FIG. 4) of the SDRAM 38. When writing is completed, CPU3
2 creates a reduced YUV signal of 160 pixels × 120 lines based on the main YUV signal of 2300 pixels × 1740 lines. Specifically, the CPU 32 accesses the SDRAM 38 via the memory control circuit 36 and generates a reduced YUV signal by software processing. The generated reduced YUV signal is written in the reduced image area 38d (see FIG. 4) of the SDRAM 38.

【0035】メモリ制御回路36は、主要YUV信号お
よび縮小YUV信号をSDRAM38から読み出し、各
々のYUV信号をJPEGコーデック46に与える。J
PEGコーデック46は、与えられた主要YUV信号お
よび縮小YUV信号をJPEGフォーマットに従って圧
縮し、圧縮主要YUV信号および圧縮縮小YUV信号を
生成する。生成された圧縮主要YUV信号および圧縮縮
小YUV信号は、メモリ制御回路36によってSDRA
M38の圧縮主画像エリア38eおよび圧縮縮小画像エ
リア38f(図4参照)に書き込まれる。
The memory control circuit 36 reads out the main YUV signal and the reduced YUV signal from the SDRAM 38, and supplies each YUV signal to the JPEG codec 46. J
The PEG codec 46 compresses the supplied main YUV signal and reduced YUV signal according to the JPEG format, and generates a compressed main YUV signal and a compressed reduced YUV signal. The compressed main YUV signal and the compressed reduced YUV signal generated by the memory control circuit 36 are SDRA.
It is written in the compressed main image area 38e and the compressed and reduced image area 38f (see FIG. 4) of M38.

【0036】こうして撮影処理が完了すると、CPU3
2は、記録処理を実行する。具体的には、CPU32
は、メモリ制御回路36を介してSDRAM38にアク
セスし、圧縮主要YUV信号および圧縮縮小YUV信号
を圧縮主画像エリア38eおよび圧縮縮小画像エリア3
8fからそれぞれ読み出す。CPU46はさらに、読み
出された圧縮主要YUV信号および圧縮縮小YUV信号
をファイル形式で記録媒体50に記録する。なお、記録
媒体50は着脱自在であり、記録媒体50へのアクセス
はI/F48を介して行われる。
When the photographing process is completed in this way, the CPU 3
2 executes a recording process. Specifically, the CPU 32
Accesses the SDRAM 38 via the memory control circuit 36 and outputs the compressed main YUV signal and the compressed reduced YUV signal to the compressed main image area 38e and the compressed reduced image area 3.
Read from each 8f. The CPU 46 further records the read compressed main YUV signal and compressed reduced YUV signal in the recording medium 50 in a file format. The recording medium 50 is detachable, and the recording medium 50 is accessed via the I / F 48.

【0037】CPU32は、具体的には、図5〜図1
2、図15〜図16、図22〜図24、図29〜図30
に示すフロー図に対応する制御プログラムを実行する。
なお、この制御プログラムは、ROM58に記憶され
る。
The CPU 32 is specifically shown in FIGS.
2, FIG. 15 to FIG. 16, FIG. 22 to FIG. 24, FIG. 29 to FIG.
The control program corresponding to the flowchart shown in FIG.
The control program is stored in the ROM 58.

【0038】まず図5に示すステップS1で表示系を起
動する。具体的には、TG30に間引き読み出しを命令
し、ズーム回路34の水平ズーム倍率および垂直ズーム
倍率を“1/4”および“1”に設定する。これによっ
て、被写体のスルー画像がモニタ44に表示される。
First, the display system is activated in step S1 shown in FIG. Specifically, the TG 30 is instructed to perform thinning-out reading, and the horizontal zoom magnification and the vertical zoom magnification of the zoom circuit 34 are set to "1/4" and "1". As a result, a through image of the subject is displayed on the monitor 44.

【0039】ステップS3ではTG30から30fps
の垂直同期信号が発生したかどうか判断し、YESであ
ればステップS5で積分値取込処理1を実行する。これ
によって、図3に示す256個のブロックに個別に対応
する256個の積分値y(i,j)がレジスタrgst
1に設定される。ステップS7ではシャッタボタン54
が半押しされたかどうか判断し、ステップS9ではズー
ムボタン56が操作されたかどうか判断する。ズームボ
タン56が操作されたときはステップS9からステップ
S11に進み、ドライバ28aを制御してズームレンズ
12を光軸方向に移動させる。ステップS11の処理が
完了すると、ステップS3に戻る。
In step S3, TG 30 to 30 fps
It is determined whether or not the vertical synchronizing signal has been generated, and if YES, the integrated value fetching process 1 is executed in step S5. As a result, 256 integrated values y (i, j) individually corresponding to the 256 blocks shown in FIG. 3 are stored in the register rgst.
Set to 1. In step S7, the shutter button 54
Is pressed halfway, and in step S9 it is determined whether the zoom button 56 has been operated. When the zoom button 56 is operated, the process proceeds from step S9 to step S11 to control the driver 28a to move the zoom lens 12 in the optical axis direction. When the process of step S11 is completed, the process returns to step S3.

【0040】シャッタボタン54が半押しされたときは
ステップS7でYESと判断し、ステップS13で積分
値取込処理2を行う。これによって、256個の積分値
y(i,j)がレジスタrgst2に設定される。ステ
ップS15では、レジスタrgst1および2に設定さ
れた連続2フレームの積分値y(i,j)に基づいて被
写界がスポーツシーンである可能性を判断する。可能性
は、パーセンテージで表現される。
When the shutter button 54 is half-depressed, YES is determined in the step S7, and the integrated value fetching process 2 is performed in a step S13. As a result, 256 integrated values y (i, j) are set in the register rgst2. In step S15, the possibility that the object scene is a sports scene is determined based on the integrated value y (i, j) of two consecutive frames set in the registers rgst1 and 2. Possibility is expressed as a percentage.

【0041】ステップS15の処理が完了すると、ステ
ップS17でフォーカス調整を行う。具体的には、ドラ
イバ28bを制御してフォーカスレンズ14を光軸方向
に移動させ、これによって検出された合焦位置にフォー
カスレンズ14を設定する。フォーカス調整が完了する
と、垂直同期信号の発生を待ってステップS19からス
テップS21に進み、信号処理回路26から積分値r
(i,j),g(i,j),b(i,j)およびy
(i,j)を取り込む。取り込まれた積分値r(i,
j),g(i,j),b(i,j)およびy(i,j)
は、レジスタrgst3に設定される。
When the process of step S15 is completed, focus adjustment is performed in step S17. Specifically, the driver 28b is controlled to move the focus lens 14 in the optical axis direction, and the focus lens 14 is set at the in-focus position detected by this. When the focus adjustment is completed, the process proceeds from step S19 to step S21 after waiting for the generation of the vertical synchronizing signal, and the signal processing circuit 26 causes the integrated value r
(I, j), g (i, j), b (i, j) and y
Take in (i, j). The integrated value r (i,
j), g (i, j), b (i, j) and y (i, j)
Is set in the register rgst3.

【0042】ステップS23では、ズームレンズ12か
ら主要被写体までの距離、フォーカスレンズとイメージ
センサ20との間隔、ならびにレジスタrgst3に設
定された積分値r(i,j),g(i,j)およびb
(i,j)に基づいて、被写界がポートレートシーンで
ある可能性を判断する。ステップS25では、レジスタ
3に設定された積分値r(i,j),g(i,j),b
(i,j)およびy(i,j)に基づいて、被写界が夕
景シーンである可能性を判断する。ステップS27で
は、レジスタrgst3に設定された積分値y(i,
j)に基づいて被写界が夜景シーンである可能性を判断
する。なお、ここでも、可能性はパーセンテージで表現
される。
In step S23, the distance from the zoom lens 12 to the main subject, the distance between the focus lens and the image sensor 20, and the integral values r (i, j), g (i, j) and g (i, j) set in the register rgst3 and b
Based on (i, j), the possibility that the scene is a portrait scene is determined. In step S25, the integrated values r (i, j), g (i, j), b set in the register 3
Based on (i, j) and y (i, j), the possibility that the object scene is an evening scene is determined. In step S27, the integrated value y (i, i, i, i) set in the register rgst3 is set.
Judge the possibility that the scene is a night scene based on j). Here again, the possibility is expressed as a percentage.

【0043】ステップS29では、ステップS15,S
23,S25およびS27で求められた可能性の中から
パーセンテージが最も高い可能性を特定し、特定した可
能性に対応するシーンを被写界として確定する。ステッ
プS29ではさらに、確定したシーンに対応するカメラ
設定(撮影モード設定)を行う。被写界がスポーツシー
ンに確定したときは、動きのある被写体が鮮明に撮影さ
れるようにプログラム線図を補正する(スポーツモード
設定)。被写界がポートレートシーンに確定したとき
は、背景がぼけるようにプログラム線図を補正し、かつ
人物の肌色の変化が抑えられるように白バランス調整ゲ
インを補正する(ポートレートモード設定)。被写界が
夕景シーンに確定したときは、遠景が鮮明に撮影される
ようにプログラム線図を補正し、夕焼けの色の変化が抑
えられるように白バランス調整ゲインを補正する(夕景
モード設定)。被写界が夜景シーンに確定したときは、
イルミネーションが際立つようにプログラム線図を補正
する(夜景モード設定)。
In step S29, steps S15, S
The possibility with the highest percentage is specified from the possibilities calculated in S23, S25, and S27, and the scene corresponding to the specified possibility is determined as the scene. In step S29, the camera setting (shooting mode setting) corresponding to the confirmed scene is further performed. When the scene is determined to be a sports scene, the program diagram is corrected so that a moving subject is clearly captured (sport mode setting). When the scene is determined to be a portrait scene, the program diagram is corrected so that the background is blurred, and the white balance adjustment gain is corrected so that changes in the skin color of the person are suppressed (portrait mode setting). When the scene is confirmed as a sunset scene, the program diagram is corrected so that the distant view is captured clearly, and the white balance adjustment gain is corrected so that the change in the colors of the sunset can be suppressed (setting of the sunset mode). . When the scene is confirmed as a night scene,
Correct the program diagram so that the illumination is prominent (night view mode setting).

【0044】ステップS31では、キャラクタジェネレ
ータ(図示せず)を駆動して、確定したシーンに対応す
るキャラクタをモニタ44にOSD表示する。CPU3
2による自動判別では被写界の誤判別の可能性があるた
め、この実施例では、いずれのシーンに確定したかを可
視メッセージによってオペレータに通知するようにして
いる。これによって操作性が向上する。なお、詳しい説
明は省略しているが、スポーツシーン,ポートレートシ
ーン,夕景シーンまたは夜景シーンの設定は、オペレー
タの手動操作によって変更することができる。
In step S31, a character generator (not shown) is driven to display an OSD character corresponding to the confirmed scene on the monitor 44. CPU3
Since there is a possibility of erroneous discrimination of the object scene in the automatic discrimination according to No. 2, in this embodiment, the operator is notified by a visible message which scene has been decided. This improves operability. Although detailed description is omitted, the settings of the sports scene, portrait scene, evening scene, or night scene can be changed by an operator's manual operation.

【0045】ステップS33では、レジスタrgst2
に設定された積分値y(i,j)とステップS29のカ
メラ設定によって補正されたプログラム線図とに基づい
て最適絞り量および最適露光時間を特定し、最適絞り量
をドライバ28cによって絞り機構16に設定する。シ
ャッタ機構18は、後述するステップS39において、
本露光の開始から最適露光時間が経過した時点で駆動す
る。
In step S33, the register rgst2
The optimum aperture amount and the optimum exposure time are specified based on the integral value y (i, j) set in step S29 and the program diagram corrected by the camera setting in step S29, and the optimum aperture amount is determined by the driver 28c. Set to. The shutter mechanism 18, in step S39 described later,
The drive is performed when the optimum exposure time has elapsed from the start of main exposure.

【0046】ステップS35では、シャッタボタン54
が全押しされたかどうか判断し、ステップS37ではシ
ャッタボタン54の操作が解除されたかどうか判断す
る。シャッタボタン54が全押しされたときは、ステッ
プS37における撮影処理/記録処理を経てステップS
1に戻る。撮影処理および記録処理によって、被写体像
が記録媒体50に記録される。シャッタボタン54の操
作が解除されたときは、撮影処理/記録処理を行うこと
なくステップS1に戻る。
In step S35, the shutter button 54
It is determined whether or not is fully pressed, and in step S37, it is determined whether or not the operation of the shutter button 54 is released. When the shutter button 54 is fully pressed, the shooting process / recording process in step S37 is performed and then step S37 is performed.
Return to 1. The subject image is recorded on the recording medium 50 by the photographing process and the recording process. When the operation of the shutter button 54 is released, the process returns to step S1 without performing the photographing process / recording process.

【0047】ステップS5の積分値取込処理1は、図7
および図8に示すサブルーチンに従う。まずステップS
41で垂直位置番号iを“4”に設定し、ステップS4
3で水平位置番号jを“4”に設定する。ステップS4
5では、積分値y(i,j)をレジスタrgst1から
読み出し、当該積分値y(i,j)を特定積分値Ysp
1(i,j)としてrgst4に設定する。ステップS
47では水平位置番号jをインクリメントし、ステップ
S49ではインクリメントされた垂直値番号jを“1
2”と比較する。そして、j<12であればステップS
45に戻るが、j=12であれば、ステップS51で垂
直位置番号iをインクリメントし、ステップS53でイ
ンクリメントされた垂直位置番号iを“12”と比較す
る。ここで、i<12であればステップS43に戻り、
i=12となるとステップS55に進む。
The integrated value acquisition process 1 in step S5 is as shown in FIG.
And according to the subroutine shown in FIG. First step S
In step 41, the vertical position number i is set to "4", and step S4
At 3, the horizontal position number j is set to "4". Step S4
In 5, the integrated value y (i, j) is read from the register rgst1 and the integrated value y (i, j) is set to the specific integrated value Ysp.
It is set to rgst4 as 1 (i, j). Step S
In 47, the horizontal position number j is incremented, and in step S49, the incremented vertical value number j is set to "1".
2 ". If j <12, step S
Returning to 45, if j = 12, the vertical position number i is incremented in step S51, and the vertical position number i incremented in step S53 is compared with "12". Here, if i <12, the process returns to step S43,
When i = 12, the process proceeds to step S55.

【0048】ステップS55では垂直位置番号iを
“0”に設定し、続くステップS57では水平位置番号
jを“0”に設定する。ステップS59では、垂直位置
番号iおよび水平位置番号jが0<i<15および0<
j<15の条件を満たすかどうかを判断する。両方の条
件が満たされたときは、そのままステップS63に進
む。一方、上述の条件のいずれか一方でも満たされなけ
れば、ステップS61でレジスタrgst1の積分値y
(i,j)を特定積分値Ysp1(i,j)としてrg
st4に設定し、その後ステップS63に進む。ステッ
プS63では水平位置番号jをインクメントし、続くス
テップS65ではインクリメントされた水平位置番号j
を“16”と比較する。そして、j<16であればステ
ップS59に戻るが、j=16であればステップS67
に進む。ステップS67では垂直位置番号iをインクリ
メントし、ステップS69ではインクリメントされた垂
直位置番号iを“16”と比較する。そして、i<16
であればステップS57に戻るが、i=16であれば上
階層のルーチンに復帰する。
In step S55, the vertical position number i is set to "0", and in the following step S57, the horizontal position number j is set to "0". In step S59, the vertical position number i and the horizontal position number j are 0 <i <15 and 0 <
It is determined whether or not the condition of j <15 is satisfied. If both conditions are satisfied, the process directly proceeds to step S63. On the other hand, if any one of the above conditions is not satisfied, the integrated value y of the register rgst1 in step S61.
Rg with (i, j) as the specific integrated value Ysp1 (i, j)
It is set to st4, and then the process proceeds to step S63. In step S63, the horizontal position number j is incremented, and in the subsequent step S65, the incremented horizontal position number j
Is compared with "16". Then, if j <16, the process returns to step S59, but if j = 16, step S67.
Proceed to. In step S67, the vertical position number i is incremented, and in step S69, the incremented vertical position number i is compared with "16". And i <16
If so, the process returns to step S57, but if i = 16, the process returns to the upper hierarchy routine.

【0049】このような処理によって、図13に示す中
央領域CTR1を形成する64ブロックおよび周辺領域
ARD1を形成する60ブロックに関する合計124個
の特定積分値Ysp1(i,j)が求められる。
By such processing, a total of 124 specific integrated values Ysp1 (i, j) for 64 blocks forming the central region CTR1 and 60 blocks forming the peripheral region ARD1 shown in FIG. 13 are obtained.

【0050】図5に示すステップS13の積分値取込処
理2は、図9および図10に示すサブルーチンに従う。
ただし、このサブルーチンは、ステップS75およびS
91において、レジスタrgst2に格納された積分値
y(i,j)を特定積分値Ysp2(i,j)としてレ
ジスタrgst2に設定する点を除き、図7および図8
に示すサブルーチンと同じであるため、重複した説明は
省略する。この処理によって、図13に示す中央領域C
TR1および周辺領域ARD1を形成する124個の特
定積分値Ysp2(i,j)が求められる。
The integrated value fetching process 2 of step S13 shown in FIG. 5 follows the subroutine shown in FIGS.
However, this subroutine includes steps S75 and S
7 and 8 except that the integrated value y (i, j) stored in the register rgst2 is set in the register rgst2 as the specific integrated value Ysp2 (i, j) in 91.
Since it is the same as the subroutine shown in, duplicate description will be omitted. By this processing, the central area C shown in FIG.
The 124 specific integrated values Ysp2 (i, j) forming TR1 and the peripheral region ARD1 are obtained.

【0051】図5に示すステップS15の可能性判断処
理は、図11および図12に示すサブルーチンに従う。
まずステップS101で変数CctrおよびCardを
“0”に設定し、ステップS103およびS105で垂
直位置番号iおよび水平位置番号jを“4”に設定す
る。ステップS107では数1に従って特定積分値Ys
p1(i,j)およびYsp2(i,j)の差分絶対値
ΔYsp(i,j)を算出し、続くステップS109で
は算出された差分絶対値ΔYsp(i,j)を閾値Yt
h1と比較する。
The possibility determination process of step S15 shown in FIG. 5 follows the subroutine shown in FIGS.
First, the variables Cctr and Card are set to "0" in step S101, and the vertical position number i and the horizontal position number j are set to "4" in steps S103 and S105. In step S107, the specific integrated value Ys
The difference absolute value ΔYsp (i, j) between p1 (i, j) and Ysp2 (i, j) is calculated, and in the subsequent step S109, the calculated difference absolute value ΔYsp (i, j) is set to the threshold value Yt.
Compare with h1.

【0052】[0052]

【数1】ΔYsp(i,j)=|Ysp1(i,j)−
Ysp2(i,j)| ΔYsp(i,j)≧Yth1であれば、ステップS1
09でYESと判断し、ステップS111で変数Cct
rをインクリメントしてからステップS113に進む。
一方、ΔYsp(i,j)<Ythであれば、ステップ
S109でNOと判断し、そのままステップS113に
進む。
## EQU1 ## ΔYsp (i, j) = | Ysp1 (i, j)-
If Ysp2 (i, j) | ΔYsp (i, j) ≧ Yth1, step S1
In step S111, the variable Cct is determined as YES.
After incrementing r, the process proceeds to step S113.
On the other hand, if ΔYsp (i, j) <Yth, NO is determined in step S109, and the process directly proceeds to step S113.

【0053】ステップS113では水平位置番号jをイ
ンクリメントし、ステップS115ではインクリメント
された水平位置番号jを“12”と比較する。そして、
j<12であればステップS107に戻るが、j=12
であればステップS117に進む。ステップS117で
は垂直位置番号iをインクリメントし、ステップS11
9ではインクリメントされた垂直位置番号iを“12”
と比較する。そして、i<12であればステップS10
5に戻り、i=12であればステップS121に進む。
In step S113, the horizontal position number j is incremented, and in step S115, the incremented horizontal position number j is compared with "12". And
If j <12, the process returns to step S107, but j = 12
If so, the process proceeds to step S117. In step S117, the vertical position number i is incremented, and step S11
In 9, the incremented vertical position number i is “12”.
Compare with. If i <12, step S10
Returning to 5, if i = 12, the process proceeds to step S121.

【0054】ステップS107で算出される差分絶対値
ΔYsp(i、j)は、中央領域CTR1を形成する各
ブロック(i,j)での被写体の動き量に相当する。こ
の動き量が大きければ、ステップS109でYESと判
断され、変数Cctrがインクリメントされる。したが
って、動き量が大きな被写体が中央領域CTR1に占め
る割合が大きいほど、変数Cctrは大きな値を示す。
The absolute difference value ΔYsp (i, j) calculated in step S107 corresponds to the amount of movement of the subject in each block (i, j) forming the central area CTR1. If the amount of movement is large, YES is determined in step S109 and the variable Cctr is incremented. Therefore, the larger the proportion of the subject having a large amount of movement in the central region CTR1, the larger the value of the variable Cctr.

【0055】ステップS121では垂直位置番号iを
“0”に設定し、続くステップS123では水平位置番
号jを“0”に設定する。ステップS125では垂直位
置番号iおよび水平位置番号jが0<i<15および0
<j<15の条件を満たすかどうかを判断し、両方の条
件が満たされればそのままステップS131に進むが、
いずれか一方でも満たされなければステップS126に
進む。ステップS126では上述の数1に従って特定積
分値Ysp1(i,j)およびYsp2(i,j)の差
分絶対値ΔYsp(i,j)を算出し、続くステップS
127では算出された差分絶対値ΔYsp(i,j)を
閾値Yth1と比較する。そして、ΔYsp(i,j)
≧YthであればステップS129で変数Cardをイ
ンクリメントしてからステップS131に進むが、ΔY
sp(i,j)<YthであればそのままステップS1
31に進む。
In step S121, the vertical position number i is set to "0", and in the following step S123, the horizontal position number j is set to "0". In step S125, the vertical position number i and the horizontal position number j are 0 <i <15 and 0.
Whether or not the condition of <j <15 is satisfied is determined, and if both conditions are satisfied, the process directly proceeds to step S131.
If either one is not satisfied, the process proceeds to step S126. In step S126, the absolute difference value ΔYsp (i, j) between the specific integrated values Ysp1 (i, j) and Ysp2 (i, j) is calculated in accordance with the above equation 1, and the subsequent step S126
At 127, the calculated absolute difference value ΔYsp (i, j) is compared with the threshold value Yth1. And ΔYsp (i, j)
If ≧ Yth, the variable Card is incremented in step S129 and then the process proceeds to step S131.
If sp (i, j) <Yth, step S1 as it is.
Proceed to 31.

【0056】ステップS131では水平位置番号jをイ
ンクリメントし、ステップS133ではインクリメント
された水平位置番号jを“16”と比較する。そして、
j<16であればステップS125に戻るが、j=16
であればステップS135に進む。ステップS135で
は垂直位置番号iをインクリメントし、ステップS13
7ではインクリメントされた垂直位置番号iを“16”
と比較する。そして、i<16であればステップS12
3に戻り、i=16であればステップS139に進む。
The horizontal position number j is incremented in step S131, and the incremented horizontal position number j is compared with "16" in step S133. And
If j <16, the process returns to step S125, but j = 16
If so, the process proceeds to step S135. In step S135, the vertical position number i is incremented, and step S13
In 7, the incremented vertical position number i is "16".
Compare with. If i <16, step S12
Returning to 3, if i = 16, the process proceeds to step S139.

【0057】ステップS126で算出される差分絶対値
ΔYsp(i、j)は、周辺領域ARD1を形成する各
ブロック(i,j)での被写体の動き量に相当する。こ
の動き量が大きければ、ステップS127でYESと判
断され、変数Cardがインクリメントされる。したが
って、動き量が大きな被写体が周辺領域ARD1に占め
る割合が大きいほど、変数Cardは大きな値を示す。
The absolute difference value ΔYsp (i, j) calculated in step S126 corresponds to the amount of movement of the subject in each block (i, j) forming the peripheral area ARD1. If the amount of movement is large, YES is determined in step S127 and the variable Card is incremented. Therefore, the larger the ratio of the subject having a large amount of movement in the peripheral area ARD1, the larger the value of the variable Card.

【0058】ステップS139では、被写界がスポーツ
シーンである可能性Psprtを数2〜数4に従って算
出する。可能性Psprtが算出されると、上階層のル
ーチンに復帰する。
In step S139, the possibility Psprt that the object scene is a sports scene is calculated according to equations (2) to (4). When the possibility Psprt is calculated, the process returns to the upper hierarchy routine.

【0059】[0059]

【数2】Rcrt=Cctr/64*100(2) Rcrt = Cctr / 64 * 100

【0060】[0060]

【数3】Rard=Card/60*100## EQU00003 ## Rard = Card / 60 * 100

【0061】[0061]

【数4】Psprt=Rctr−a*Rard a:定数 中央領域CTR1を形成するブロックの数は“64”で
あり、周辺領域ARD1を形成するブロックの数は“6
0”である。このため、変数Cctrを“64”で割り
算しかつ割り算値に“100”を掛け算することで、動
き量が大きな被写体が中央領域CTR1に占める割合R
ctrが求められる。また、変数Cardを“60”で
割り算しかつ割り算値に“100”を掛け算すること
で、動き量が大きな被写体が周辺領域ARD1に占める
割合Rardが求められる。中央領域CRT1に存在す
る被写体のみの動きを判別するには被写界全体の動きを
排除する必要があるため、割合Rardに定数aを掛け
算し、割合Rctrから掛け算値a*Rardを引算し
ている。これによって、可能性Psprtがパーセンテ
ージで求められる。なお、図14に示すような野球のピ
ッチャーがボールを投げるシーンを撮影したときに、可
能性Psprtは高い数値を示す。
Psprt = Rctr-a * Rard a: The number of blocks forming the constant central region CTR1 is “64”, and the number of blocks forming the peripheral region ARD1 is “6”.
Therefore, by dividing the variable Cctr by “64” and multiplying the divided value by “100”, the ratio R of the subject having a large amount of motion to the central region CTR1 is R.
ctr is calculated. Further, by dividing the variable Card by “60” and multiplying the divided value by “100”, the ratio Rard of the subject having a large amount of motion in the peripheral area ARD1 is obtained. In order to determine the movement of only the subject existing in the central area CRT1, it is necessary to eliminate the movement of the entire object scene, so the ratio Rard is multiplied by a constant a, and the ratio Rctr is subtracted by the multiplication value a * Rard. ing. This gives the probability Psprt as a percentage. Note that the possibility Psprt shows a high numerical value when shooting a scene in which a baseball pitcher throws a ball as shown in FIG.

【0062】図6に示すステップS23の可能性判断処
理は、図15および図16に示すサブルーチンに従う。
まずステップS141でズームレンズ12およびフォー
カスレンズ14の位置を検出し、ステップS143およ
びS145でズームレンズ12から主要被写体までの距
離L1およびフォーカスレンズ14とイメージセンサ2
0との間隔L2を検出する(図18参照)。
The possibility determination process of step S23 shown in FIG. 6 follows the subroutine shown in FIGS.
First, the positions of the zoom lens 12 and the focus lens 14 are detected in step S141, and the distance L1 from the zoom lens 12 to the main subject and the focus lens 14 and the image sensor 2 are detected in steps S143 and S145.
The distance L2 from 0 is detected (see FIG. 18).

【0063】ROM58には、図17に示すグラフが格
納されている。図17によれば、横軸および縦軸はそれ
ぞれ、ズームレンズ12およびフォーカスレンズ14の
位置である。ズームレンズ12の位置はドライバ28a
に設けられたステッピングモータ(図示せず)のステッ
プ数によって表され、フォーカスレンズ14の位置はド
ライバ28bに設けられたステッピングモータ(図示せ
ず)のステップ数によって表される。このような縦軸お
よび横軸によって形成された平面上に、主要被写体まで
の距離に応じた複数の曲線A〜Iが描かれる。曲線A〜
Iはそれぞれ、被写体までの距離が0.4m,0.5
m,0.6m,0.8m,1.0m,1.5m,2.0
m,3.0mおよび無限遠(∞)であるときのレンズ位
置関係を示す。
The ROM 58 stores the graph shown in FIG. According to FIG. 17, the horizontal axis and the vertical axis are the positions of the zoom lens 12 and the focus lens 14, respectively. The position of the zoom lens 12 is the driver 28a.
Is represented by the number of steps of a stepping motor (not shown) provided in the driver, and the position of the focus lens 14 is represented by the number of steps of a stepping motor (not shown) provided in the driver 28b. A plurality of curves A to I corresponding to the distance to the main subject are drawn on the plane formed by the vertical axis and the horizontal axis. Curve A ~
I is the distance to the subject is 0.4 m and 0.5, respectively.
m, 0.6m, 0.8m, 1.0m, 1.5m, 2.0
The lens positional relationship at m, 3.0 m and infinity (∞) is shown.

【0064】したがって、ステップS143では、ステ
ップS141で求められたズームレンズ12およびフォ
ーカスレンズ14の位置と図17に示すグラフとに基づ
いて距離L1を検出する。また、ステップS145で
は、ステップS141で求められたフォーカスレンズ1
4の位置から間隔L2を検出する。
Therefore, in step S143, the distance L1 is detected based on the positions of the zoom lens 12 and the focus lens 14 obtained in step S141 and the graph shown in FIG. Further, in step S145, the focus lens 1 obtained in step S141
The distance L2 is detected from the position of 4.

【0065】ステップS147では、画面つまり被写界
において人物の顔が占めるべき領域(顔領域)の垂直ブ
ロック数FCを数5〜数6に従って算出する。
In step S147, the vertical block number FC of the area (face area) to be occupied by the person's face on the screen, that is, the object scene, is calculated according to equations (5) to (6).

【0066】[0066]

【数5】face2=face1*L2/L1 face1:人物の顔の長さ(定数:30cm) face2:受光面に投影された顔画像の長さ## EQU00005 ## face2 = face1 * L2 / L1 face1: length of person's face (constant: 30 cm) face2: the length of the face image projected on the light receiving surface

【0067】[0067]

【数6】FC=16*face2/h h:イメージセンサに形成された受光面の垂直サイズ 図18を参照して、顔の長さがface1の人物(主要
被写体)がズームレンズ12から距離L1だけ離れた位
置に存在すると仮定した場合、イメージセンサ20の受
光面に投影される顔画像の長さface2は、face
1にL2/L1を掛け算した値に相当する。また、受光
面に投影された顔領域の垂直ブロック数FCは、fac
e2を受光面の垂直サイズhで割り算し、割り算値に
“16”を掛け算した値に相当する。
FC = 16 * face2 / hh: Vertical size of light receiving surface formed on image sensor Referring to FIG. 18, a person (main subject) having a face length face1 is at a distance L1 from the zoom lens 12. Assuming that the face image is present at a position distant from the image sensor 20, the length face2 of the face image projected on the light receiving surface of the image sensor 20 is
This corresponds to a value obtained by multiplying 1 by L2 / L1. In addition, the number of vertical blocks FC of the face area projected on the light receiving surface is fac
This corresponds to a value obtained by dividing e2 by the vertical size h of the light receiving surface and multiplying the divided value by "16".

【0068】図15に戻って、ステップS149および
S151では、算出された垂直ブロック数FCを判別す
る。垂直ブロック数FCが“2”を下回るときは、ステ
ップS153で垂直ブロック数FCを“2”に設定して
からステップS156に進む。垂直ブロック数FCが
“8”を上回るときは、ステップS155で垂直ブロッ
ク数FCを“8”に設定してからステップS156に進
む。一方、2≦FC≦8の条件が満たされたときは、そ
のままステップS156に進む。こうして顔領域の面積
が2ブロック×2ブロック〜8ブロック×8ブロックの
範囲で設定される。
Returning to FIG. 15, in steps S149 and S151, the calculated vertical block number FC is determined. When the number of vertical blocks FC is less than "2", the number of vertical blocks FC is set to "2" in step S153, and then the process proceeds to step S156. When the number FC of vertical blocks exceeds "8", the number FC of vertical blocks is set to "8" in step S155, and then the process proceeds to step S156. On the other hand, when the condition of 2 ≦ FC ≦ 8 is satisfied, the process directly proceeds to step S156. In this way, the area of the face area is set within the range of 2 blocks × 2 blocks to 8 blocks × 8 blocks.

【0069】ステップS156では、変数Cinおよび
Coutを“0”に設定し、ステップS157およびS
159では垂直位置番号iおよび水平位置番号jを
“0”に設定する。ステップS161では、レジスタr
gst3に設定された積分値r(i,j),g(i,
j)およびb(i、j)を読み出し、数7に従ってブロ
ック(i,j)の色評価値RおよびGを算出する。
At step S156, variables Cin and Cout are set to "0", and at steps S157 and S157.
At 159, the vertical position number i and the horizontal position number j are set to "0". In step S161, the register r
The integrated values r (i, j), g (i,
j) and b (i, j) are read out, and the color evaluation values R and G of the block (i, j) are calculated according to Equation 7.

【0070】[0070]

【数7】R=r(i,j)/(r(i,j)+g(i,
j)+b(i、j)) G=g(i,j)/(r(i,j)+g(i,j)+b
(i、j)) ステップS163では算出された色評価値RおよびBが
図19に示す肌色領域SKNの属するかどうか判断し、
NOであればそのままステップS171に進む。一方、
ステップS163でYESであればステップS165に
進み、ブロック(i,j)がステップS147〜S15
5で求められたサイズによって規定される顔領域に属す
るかどうかを判断する。具体的には、数8に示す条件お
よび数9に示す条件の両方が満たされるかどうか判断す
る。そして、これらの条件の両方が満たされればブロッ
ク(i,j)は顔領域に属するとみなし、これらの条件
のいずれか一方でも満たされなければ、ブロック(i,
j)は顔領域に属さないとみなす。
## EQU00007 ## R = r (i, j) / (r (i, j) + g (i,
j) + b (i, j)) G = g (i, j) / (r (i, j) + g (i, j) + b
(I, j)) In step S163, it is determined whether the calculated color evaluation values R and B belong to the skin color area SKN shown in FIG.
If NO, the process proceeds directly to step S171. on the other hand,
If YES in step S163, the flow proceeds to step S165, and block (i, j) is processed in steps S147 to S15.
It is determined whether or not it belongs to the face area defined by the size obtained in 5. Specifically, it is determined whether both the condition shown in Formula 8 and the condition shown in Formula 9 are satisfied. Then, if both of these conditions are satisfied, the block (i, j) is considered to belong to the face region, and if either of these conditions is not satisfied, the block (i, j) is satisfied.
j) is considered not to belong to the face area.

【0071】[0071]

【数8】8−FC/2≦i≦7+FC/2[Equation 8] 8-FC / 2 ≦ i ≦ 7 + FC / 2

【0072】[0072]

【数9】8−FC/2≦j≦7+FC/2 数8および数9によれば、顔領域は、画面中央に形成さ
れる。たとえばFC=6であれば、図20に斜線で示す
領域FACEが顔領域とされる。ブロック(i,j)が
このような顔領域に属するときは、ステップS167で
変数CinをインクリメントしてからステップS171
に進むが、ブロック(i,j)が顔領域に属さないとき
は、ステップS169で変数Coutをインクリメント
してからステップS171に進む。
## EQU00009 ## 8-FC / 2.ltoreq.j.ltoreq.7 + FC / 2 According to Eqs. 8 and 9, the face region is formed at the center of the screen. For example, if FC = 6, the area FACE indicated by hatching in FIG. 20 is set as the face area. When the block (i, j) belongs to such a face area, the variable Cin is incremented in step S167 and then step S171.
If the block (i, j) does not belong to the face area, the variable Cout is incremented in step S169 and then the process proceeds to step S171.

【0073】ステップS171では水平位置番号jをイ
ンクリメントし、ステップS173ではインクリメント
された水平位置番号jを“16”と比較する。そして、
j<16であればステップS161に戻るが、j=16
であればステップS175に進む。ステップS175で
は垂直位置番号iをインクリメントし、ステップS17
7ではインクリメントされた垂直位置番号iを“16”
と比較する。そして、i<16であればステップS15
9に戻るが、i=16であればステップS179に進
む。このような処理が実行されることで、変数Cinは
顔領域に属する肌色ブロックの数を示し、変数Cout
は顔領域に属しない肌色ブロックの数を示すこととな
る。
In step S171, the horizontal position number j is incremented, and in step S173, the incremented horizontal position number j is compared with "16". And
If j <16, the process returns to step S161, but j = 16
If so, the process proceeds to step S175. In step S175, the vertical position number i is incremented, and step S17
In 7, the incremented vertical position number i is "16".
Compare with. If i <16, step S15
9, but if i = 16, the process proceeds to step S179. By performing such processing, the variable Cin indicates the number of skin color blocks belonging to the face area, and the variable Cout.
Indicates the number of skin color blocks that do not belong to the face area.

【0074】ステップS179では、被写界がポートレ
ートシーンである可能性Pptrtを数10に従って算
出する。可能性Pptrtが算出されると、上階層のル
ーチンに復帰する。
In step S179, the probability Pptrt that the object scene is a portrait scene is calculated according to equation 10. When the possibility Pptrt is calculated, the process returns to the upper hierarchy routine.

【0075】[0075]

【数10】Pptrt=(Cin−Cout*n)/F
2*100 n:定数 顔領域に属する肌色ブロック数が多いほど被写体が人物
の顔が存在する可能性が高く、顔領域に属する肌色ブロ
ック数が少ないほど被写体が人物の顔が存在する可能性
が低い。ただし、顔領域以外の領域に存在する肌色ブロ
ックが多いほど、被写体が人物の顔である可能性は低
い。そこで、変数Coutに定数nを掛け算した掛け算
値によって変数Cinを引き算している。一方、FC2
は、顔領域に属するブロックの総数であり、引き算値を
ブロック総数で割り算し、割り算値に“100”を掛け
ることによって、被写界がポートレートシーンである可
能性Pptrtがパーセンテージで求められる。なお、
図21に示すような人物が画面中央に存在するシーンを
撮影したときに、可能性Pptrtは高い数値を示す。
## EQU10 ## Pptrt = (Cin-Cout * n) / F
C 2 * 100 n: The larger the number of flesh-colored blocks belonging to the constant face area, the higher the possibility that the subject has a human face, and the smaller the number of flesh-colored blocks belonging to the face area, the higher the possibility that a subject has a human face. Is low. However, the more skin color blocks that exist in areas other than the face area, the less likely the subject is a human face. Therefore, the variable Cin is subtracted by the multiplication value obtained by multiplying the variable Cout by the constant n. On the other hand, FC 2
Is the total number of blocks belonging to the face area, and by dividing the subtraction value by the total number of blocks and multiplying the division value by “100”, the possibility Pptrt that the object scene is a portrait scene is obtained as a percentage. In addition,
When a person such as shown in FIG. 21 shoots a scene in the center of the screen, the possibility Pptrt shows a high numerical value.

【0076】図6に示すステップS25の可能性判断処
理は、図11および図12に示すサブルーチンに従う。
まずステップS181で変数Cssを“0”に設定し、
ステップS183で垂直位置番号iを“0”に設定し、
そしてステップS185で水平位置番号jを“0”に設
定する。ステップS187では垂直位置番号iおよび水
平位置番号jが6≦i≦9および6≦j≦9の条件を満
たすかどうか判断する。そして、いずれの条件も満たさ
れなければステップS197に進むが、少なくとも一方
の条件が満たされればステップS189に進む。
The possibility determination process of step S25 shown in FIG. 6 follows the subroutine shown in FIGS.
First, in step S181, the variable Css is set to "0",
In step S183, the vertical position number i is set to "0",
Then, in step S185, the horizontal position number j is set to "0". In step S187, it is determined whether the vertical position number i and the horizontal position number j satisfy the conditions of 6 ≦ i ≦ 9 and 6 ≦ j ≦ 9. Then, if none of the conditions is satisfied, the process proceeds to step S197, but if at least one of the conditions is satisfied, the process proceeds to step S189.

【0077】ステップS189では、レジスタrgst
3に設定された積分値r(i,j),g(i,j)およ
びb(i、j)を読み出し、上述の数7に従ってブロッ
ク(i,j)の色評価値RおよびGを算出する。ステッ
プS191では、算出された色評価値RおよびGが図2
7に斜線で示す夕景色領域EVENに属するかどうか判
断し、NOであればステップS195に進むが、YES
であればステップS193に進む。ステップS193で
は、レジスタrgst3に設定された積分値y(i,
j)を読み出し、当該積分値y(i,j)が高輝度であ
るかどうか判断する。具体的には、y(i,j)が閾値
Yth2を上回るかどうかを判断する。そして、y
(i,j)≦Yth2であればそのままステップS19
7に進むが、y(i,j)>Yth2であればステップ
S195で変数Cssをインクリメントしてからステッ
プS197に進む。
In step S189, the register rgst
The integrated values r (i, j), g (i, j) and b (i, j) set to 3 are read out, and the color evaluation values R and G of the block (i, j) are calculated according to the above-mentioned equation 7. To do. In step S191, the calculated color evaluation values R and G are shown in FIG.
7, it is determined whether or not it belongs to the evening scene area EVEN indicated by diagonal lines. If NO, the process proceeds to step S195, but YES
If so, the process proceeds to step S193. In step S193, the integrated value y (i, i, i) set in the register rgst3 is set.
j) is read, and it is determined whether the integrated value y (i, j) has high brightness. Specifically, it is determined whether y (i, j) exceeds the threshold value Yth2. And y
If (i, j) ≦ Yth2, then step S19 is performed.
7, if y (i, j)> Yth2, the variable Css is incremented in step S195 and then the process proceeds to step S197.

【0078】ステップS197では水平位置番号jをイ
ンクリメントし、ステップS201ではインクリメント
された水平位置番号jを“16”と比較する。そして、
j<16であればステップS187に戻るが、j=16
であればステップS201に進む。ステップS201で
は垂直位置番号iをインクリメントし、ステップS20
3ではインクリメントされた垂直位置番号iを“16”
と比較する。そして、i<16であればステップS18
5に戻るが、i=16であればステップS205に進
む。
In step S197, the horizontal position number j is incremented, and in step S201, the incremented horizontal position number j is compared with "16". And
If j <16, the process returns to step S187, but j = 16
If so, the process proceeds to step S201. In step S201, the vertical position number i is incremented, and in step S20
In 3, the incremented vertical position number i is "16".
Compare with. If i <16, step S18
5, the process proceeds to step S205 if i = 16.

【0079】このような処理が実行されることで、図2
5に斜線で示す十字領域CRS1を形成する各々のブロ
ックについて、夕景色であるかどうかの判別処理および
高輝度であるかどうかの判別処理が行われる。変数Cs
sは、夕景色でかつ高輝度のブロックの数を示すことと
なる。
By executing such processing, as shown in FIG.
For each block forming the cross-shaped region CRS1 indicated by hatching in FIG. 5, a determination process as to whether it is an evening scene and a determination process as to whether it is a high luminance are performed. Variable Cs
s will indicate the number of high-luminance blocks in the evening scene.

【0080】図23に示すステップS205では、周辺
輝度値Yupper,Ylower,Yleftおよび
Yrightを“0”に設定する。また、ステップS2
07およびS209では垂直位置番号iおよび水平位置
番号jを“0”に設定する。ステップS211では0≦
i≦1の条件が満たされるかどうかを判断し、ステップ
S215では14≦i≦15の条件が満たされるかどう
かを判断し、ステップS219では0≦j≦1の条件が
満たされるかどうかを判断し、そしてステップS225
では14≦j≦15の条件が満たされるかどうかを判断
する。
In step S205 shown in FIG. 23, the peripheral luminance values Yupper, Ylower, Yleft and Yright are set to "0". Also, step S2
In 07 and S209, the vertical position number i and the horizontal position number j are set to "0". In step S211, 0 ≦
It is determined whether the condition of i ≦ 1 is satisfied, it is determined in step S215 whether the condition of 14 ≦ i ≦ 15 is satisfied, and in step S219 it is determined whether the condition of 0 ≦ j ≦ 1 is satisfied. And then step S225
Then, it is determined whether or not the condition of 14 ≦ j ≦ 15 is satisfied.

【0081】ステップS211でYESと判断されると
ステップS213に進み、レジスタrgst3に格納さ
れた積分値y(i,j)を周辺輝度値Yupperに加
算する。ステップS215でYESと判断されるとステ
ップS217に進み、レジスタrgst3に格納された
積分値y(i,j)を周辺輝度値Ylowerに加算す
る。ステップS219でYESと判断されるとステップ
S221に進み、レジスタrgst3に格納された積分
値y(i,j)を周辺輝度値Yleftに加算する。ス
テップS225でYESと判断されるとステップS22
7に進み、レジスタrgst3に格納された積分値y
(i,j)を周辺輝度値Yrightに加算する。
If YES is determined in the step S211, the process proceeds to a step S213, and the integrated value y (i, j) stored in the register rgst3 is added to the peripheral brightness value Yupper. If YES is determined in the step S215, the process proceeds to a step S217, and the integrated value y (i, j) stored in the register rgst3 is added to the peripheral luminance value Ylower. If YES is determined in the step S219, the process proceeds to a step S221, and the integrated value y (i, j) stored in the register rgst3 is added to the peripheral luminance value Yleft. If YES is determined in step S225, step S22
7, the integrated value y stored in the register rgst3
(I, j) is added to the peripheral luminance value Yright.

【0082】ステップS229では水平位置番号jをイ
ンクリメントし、ステップS231ではインクリメント
された水平位置番号jを“16”と比較する。そして、
j<16であればステップS211に戻るが、j=16
であればステップS233に進む。ステップS233で
は垂直位置番号iをインクリメントし、ステップS23
5ではインクリメントされた垂直位置番号iを“16”
と比較する。そして、i<16であればステップS20
9に戻るが、i=16であればステップS237に進
む。
The horizontal position number j is incremented in step S229, and the incremented horizontal position number j is compared with "16" in step S231. And
If j <16, the process returns to step S211, but j = 16
If so, the process proceeds to step S233. In step S233, the vertical position number i is incremented, and step S23
In 5, the incremented vertical position number i is "16".
Compare with. If i <16, step S20
9, but if i = 16, the process proceeds to step S237.

【0083】このような処理によって求められた周辺輝
度値Yupper,Ylower,YleftおよびY
rightはそれぞれ、図26に示す斜線および太線で
示す周辺領域ARD2a,ARD2b,ARD2cおよ
びARD2dの輝度を示す。
The peripheral luminance values Yupper, Ylower, Yleft and Y obtained by the above processing
light indicates the luminance of the peripheral areas ARD2a, ARD2b, ARD2c, and ARD2d indicated by the slanted lines and the thick line in FIG. 26, respectively.

【0084】ステップS237では、周辺輝度値Yup
perおよびYlowerの差分を検出し、当該差分に
基づいて画面の上下の輝度差が大きいかどうかを判断す
る。ステップS239では、周辺輝度値Yleftおよ
びYrightの差分を検出し、当該差分に基づいて画
面の左右の輝度差が大きいかどうかを判断する。具体的
には、ステップS237では数11の条件が満たされる
かどうかを判断し、ステップS239では数12の条件
が満たされるかどうかを判断する。
In step S237, the peripheral luminance value Yup
The difference between per and Ylower is detected, and based on the difference, it is determined whether or not the difference in brightness between the top and bottom of the screen is large. In step S239, the difference between the peripheral luminance values Yleft and Yright is detected, and it is determined based on the difference whether the luminance difference between the left and right sides of the screen is large. Specifically, in step S237, it is determined whether the condition of expression 11 is satisfied, and in step S239, it is determined whether the condition of expression 12 is satisfied.

【0085】[0085]

【数11】|Yupper−Ylower|>Yth3[Equation 11] | Yupper-Ylower |> Yth3

【0086】[0086]

【数12】|Yleft−Yright|>Yth4 そして、数11の条件および数12の条件のいずれも満
たされなければステップS241に進み、被写界が夕景
シーンである可能性Pevenを“0”に設定する。一
方、数11の条件および数12の条件の少なくとも一方
が満たされれば、ステップS243で数13に従って可
能性Pevenを算出する。ステップS241またはS
243の処理を終えると、上階層のルーチンに復帰す
る。
[Expression 12] | Yleft-Yright |> Yth4 Then, if neither the condition of the expression 11 nor the condition of the expression 12 is satisfied, the process proceeds to step S241, and the possibility Peven that the scene is an evening scene is set to "0". Set. On the other hand, if at least one of the condition of expression 11 and the condition of expression 12 is satisfied, the possibility Peven is calculated according to expression 13 in step S243. Step S241 or S
When the processing of step 243 is completed, the process returns to the upper layer routine.

【0087】[0087]

【数13】Peven=Css/112*100 図25に示す十字領域CRS1を形成するブロックの数
は“112”であり、変数Cssは十字領域CRS1を
形成するブロックのうち夕景色で高輝度のブロックの数
である。このため、変数Cssを“112”で割り算し
た割り算値に“100”を掛けることで、被写界が夕景
シーンである可能性Pevenがパーセンテージで求め
られる。なお、図28に示すような夕日が山に沈むシー
ンを撮影したときに、可能性Pevenが高い数値を示
す。
[Equation 13] Peven = Css / 112 * 100 The number of blocks forming the cross region CRS1 shown in FIG. 25 is “112”, and the variable Css is a block having high brightness in the evening scene among the blocks forming the cross region CRS1. Is the number of. Therefore, by multiplying the divided value obtained by dividing the variable Css by “112” by “100”, the possibility Peven that the object scene is an evening scene can be obtained as a percentage. Note that the possibility Peven shows a high numerical value when shooting a scene in which the setting sun sets in the mountains as shown in FIG. 28.

【0088】図6に示すステップS27の可能性判断処
理は、図29および図30に示すサブルーチンに従う。
まずステップS251で輝度総和値Ysumを“0”に
設定し、ステップS253で垂直位置番号iを“0”に
設定し、ステップS255で水平位置番号jを“0”に
設定する。ステップS257では、レジスタrgst3
から積分値y(i,j)を読み出し、当該積分値y
(i,j)を輝度総和値Ysumに加算する。
The possibility determination process of step S27 shown in FIG. 6 follows the subroutine shown in FIGS. 29 and 30.
First, the total luminance value Ysum is set to "0" in step S251, the vertical position number i is set to "0" in step S253, and the horizontal position number j is set to "0" in step S255. In step S257, the register rgst3
The integrated value y (i, j) is read from the
(I, j) is added to the brightness sum value Ysum.

【0089】ステップS259では水平位置番号jをイ
ンクリメントし、ステップS261ではインクリメント
された水平位置番号jを“16”と比較する。そして、
j<16であればステップS257に戻るが、j=16
であればステップS263に進む。ステップS263で
は垂直位置番号iをインクリメントし、ステップS26
5ではインクリメントされた垂直位置番号iを“16”
と比較する。そして、i<16であればステップS25
5に戻るが、i=16であればステップS267で数1
4に従って輝度平均値Yavrを算出する。
In step S259, the horizontal position number j is incremented, and in step S261, the incremented horizontal position number j is compared with "16". And
If j <16, the process returns to step S257, but j = 16
If so, the process proceeds to step S263. In step S263, the vertical position number i is incremented, and step S26
In 5, the incremented vertical position number i is "16".
Compare with. If i <16, step S25
Returning to step 5, if i = 16, the number 1 is calculated in step S267.
The average luminance value Yavr is calculated according to 4.

【0090】[0090]

【数14】Yavr=Ysum/256 ステップS255〜S265の繰り返しによって、輝度
総和値Ysumはレジスタrgst3に設定された積分
値y(i,j)の総和を示す。画面に形成されたブロッ
クの総数は“256”であるため、数14によって求め
られる輝度平均値は、画面の平均輝度を示すこととな
る。
[Equation 14] Yavr = Ysum / 256 By repeating steps S255 to S265, the luminance sum total value Ysum indicates the sum total of the integrated values y (i, j) set in the register rgst3. Since the total number of blocks formed on the screen is “256”, the average brightness value obtained by Expression 14 indicates the average brightness of the screen.

【0091】ステップS269では、変数Cniを
“0”に設定し、ステップS271では垂直位置番号i
を“0”に設定し、ステップS273では水平位置番号
jを“0”に設定する。ステップS275では、レジス
タrgst3から積分値y(i,j)を読み出し、当該
積分値y(i,j)が数15に示す条件を満たすかどう
か判断する。
In step S269, the variable Cni is set to "0", and in step S271, the vertical position number i is set.
Is set to "0", and the horizontal position number j is set to "0" in step S273. In step S275, the integrated value y (i, j) is read from the register rgst3, and it is determined whether the integrated value y (i, j) satisfies the condition shown in Expression 15.

【0092】[0092]

【数15】y(i,j)>Yavr*m m:定数 数15に示す条件が満たされなければそのままステップ
S279に進むが、数15に示す条件が満たされるとき
はステップS277で変数Cniをインクリメントして
からステップS279に進む。
[Mathematical formula-see original document] y (i, j)> Yavr * m m: constant If the condition shown in Formula 15 is not satisfied, the process directly proceeds to step S279, but if the condition shown in Formula 15 is satisfied, the variable Cni is set in step S277. After incrementing, the process proceeds to step S279.

【0093】ステップS279では水平位置番号jをイ
ンクリメントし、ステップS281ではインクリメント
された水平位置番号jを“16”と比較する。そして、
j<16であればステップS275に戻るが、j=16
であればステップS283に進む。ステップS283で
は垂直位置番号iをインクリメントし、ステップS28
5ではインクリメントされた垂直位置番号iを“16”
と比較する。そして、i<16であればステップS27
3に戻るが、i=16であればステップS287に進
む。
In step S279, the horizontal position number j is incremented, and in step S281 the incremented horizontal position number j is compared with "16". And
If j <16, the process returns to step S275, but j = 16
If so, the process proceeds to step S283. In step S283, the vertical position number i is incremented, and step S28
In 5, the incremented vertical position number i is "16".
Compare with. If i <16, step S27
Returning to step 3, if i = 16, the process proceeds to step S287.

【0094】ステップS273〜S285の繰り返しに
よって、画面を形成する全てのブロックの積分値y
(i,j)が輝度平均値Yavrに定数mを掛け算した
掛け算値と比較される。変数Cniは、画面を形成する
256個のブロックのうち積分値y(i,j)が掛け算
値を上回る高輝度ブロックの数に相当する。
By repeating steps S273 to S285, the integrated value y of all blocks forming the screen is obtained.
(I, j) is compared with a multiplication value obtained by multiplying the average luminance value Yavr by a constant m. The variable Cni corresponds to the number of high-luminance blocks in which the integral value y (i, j) exceeds the multiplication value among the 256 blocks forming the screen.

【0095】ステップS287では輝度平均値Yavr
を閾値Ynightと比較し、Yavr≧Ynight
であれば、ステップS289で被写界が夜景シーンであ
る可能性Pnightを“0”に設定する。一方、Ya
vr<Ynightであれば、ステップS291で変数
Cniを閾値Cmaxと比較する。そして、Cni≦C
maxであればそのままステップS295に進むが、C
ni>CmaxであればステップS293で変数Cni
を閾値Cmaxに設定してからステップS295に進
む。ステップS295では、数16に従って可能性Pn
ightを算出する。ステップS289またはS295
の処理を終えると、上階層のルーチンに復帰する。
In step S287, the average luminance value Yavr
Is compared with a threshold value Ynight, and Yavr ≧ Ynight
If so, in step S289, the possibility Pnight of the scene being a night scene is set to "0". On the other hand, Ya
If vr <Ynight, the variable Cni is compared with the threshold value Cmax in step S291. And Cni ≦ C
If it is max, the process directly proceeds to step S295, but C
If ni> Cmax, the variable Cni is calculated in step S293.
Is set to the threshold value Cmax and then the process proceeds to step S295. In step S295, the probability Pn
Calculate light. Step S289 or S295
When the process of is finished, the process returns to the upper hierarchy routine.

【0096】[0096]

【数16】Pnight=Cni/Cmax*100 輝度平均値Yavrが低ければ被写界が夜景シーンであ
る可能性があるため、Yavr<Ynightの条件が
満たされるときに数16の演算が行われる。輝度平均値
Vavrが十分に小さい状況化で注目される変数Cni
は、夜景に点在する高輝度領域の数とみなすことができ
る。さらに、高輝度領域が多いほど輝度平均値Yavr
が大きくなるにも関わらず、処理がステップS295に
進むのは、高輝度領域以外の領域の輝度がかなり低い場
合である。したがって、輝度平均値Yavrが十分低い
ときに実行される演算において、高輝度領域のサイズに
関連する変数Cniを重視することで、被写界が夜景シ
ーンである可能性Pnightが求められる。なお、図
31に示すような窓の明かりが点在する夜の高層ビル群
を撮影したときに、可能性Pnightが高い数値を示
す。
[Expression 16] Pnight = Cni / Cmax * 100 If the luminance average value Yavr is low, the object scene may be a night scene, and therefore the operation of Expression 16 is performed when the condition of Yavr <Ynight is satisfied. Variable Cni noticed when the average luminance value Vavr is sufficiently small
Can be regarded as the number of high-brightness regions scattered in the night view. Further, as the number of high-luminance regions increases, the luminance average value Yavr
However, the process proceeds to step S295 when the brightness of the area other than the high brightness area is considerably low. Therefore, in the calculation executed when the average luminance value Yavr is sufficiently low, by placing importance on the variable Cni related to the size of the high luminance region, the possibility Pnight of the scene being a night scene can be obtained. Note that the possibility Pnight shows a high numerical value when a high-rise group of buildings is photographed at night in which window lights are scattered as shown in FIG.

【0097】以上の説明から分かるように、ポートレー
トシーンの可能性判断にあたっては、ズームレンズ12
およびフォーカスレンズ14の位置に基づいて被写界に
存在する主要被写体までの距離L1が測定され(S14
1,S143)、フォーカスレンズ14の位置に基づい
てフォーカスレンズ14とイメージセンサ20との間隔
L2が測定される(S145)。イメージセンサ14の
受光面において人物の顔が占めるべき顔領域は、測定さ
れた距離L1および間隔L2に基づいて特定される(S
147〜S155)。一方、被写界の肌色領域は、積分
値r(i,j),g(i,j)およびb(i,j)に基
づいて検出される(S163)。撮影モードは、顔領域
に含まれる肌色領域のサイズと顔領域から外れる肌色領
域のサイズとに基づいて決定される(S179,S2
9)。つまり、各々のサイズに基づいて算出される可能
性ptrtが最も大きければ、撮影モードはポートレー
トモードに決定される。被写界は、決定された撮影モー
ドで撮影される(S39)。
As can be seen from the above description, in determining the possibility of a portrait scene, the zoom lens 12
And the distance L1 to the main subject existing in the object scene is measured based on the position of the focus lens 14 (S14).
1, S143), the distance L2 between the focus lens 14 and the image sensor 20 is measured based on the position of the focus lens 14 (S145). The face area that the face of the person should occupy on the light receiving surface of the image sensor 14 is specified based on the measured distance L1 and the interval L2 (S
147-S155). On the other hand, the skin color region of the object scene is detected based on the integrated values r (i, j), g (i, j) and b (i, j) (S163). The shooting mode is determined based on the size of the skin color area included in the face area and the size of the skin color area outside the face area (S179, S2).
9). That is, if the possibility ptrt calculated based on each size is the largest, the shooting mode is determined to be the portrait mode. The object scene is photographed in the decided photographing mode (S39).

【0098】このように、主要被写体までの距離L1に
基づいて特定された顔領域と被写界の肌色領域との関係
に基づいて撮影モードを決定するようにしたため、カメ
ラの操作性を向上させることができる。
As described above, since the photographing mode is determined based on the relationship between the face area specified based on the distance L1 to the main subject and the skin color area of the field, the operability of the camera is improved. be able to.

【0099】なお、この実施例では、ディジタルカメラ
を用いて説明したが、この発明は、アナログ方式のビデ
オカメラや銀塩カメラにも適用できることはもちろんで
ある。
In this embodiment, a digital camera is used for explanation, but the present invention can of course be applied to an analog video camera and a silver salt camera.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】図1実施例に適用される信号処理回路の構成の
一例を示すブロック図である。
FIG. 2 is a block diagram showing an example of a configuration of a signal processing circuit applied to the embodiment in FIG.

【図3】画面に形成されたブロックの一例を示す図解図
である。
FIG. 3 is an illustrative view showing one example of a block formed on a screen.

【図4】図1実施例に適用されるSDRAMのマッピン
グ状態の一例を示す図解図である。
FIG. 4 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG.

【図5】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 5 is a flowchart showing a part of the operation of FIG. 1 embodiment.

【図6】図1実施例の動作の他の一部を示すフロー図で
ある。
FIG. 6 is a flowchart showing another portion of the operation of FIG. 1 embodiment.

【図7】図1実施例の動作のその他の一部を示すフロー
図である。
FIG. 7 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図8】図1実施例の動作のさらにその他の一部を示す
フロー図である。
FIG. 8 is a flowchart showing yet another portion of the operation of the embodiment in FIG. 1;

【図9】図1実施例の動作の他の一部を示すフロー図で
ある。
FIG. 9 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図10】図1実施例の動作のその他の一部を示すフロ
ー図である。
FIG. 10 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図11】図1実施例の動作のさらにその他の一部を示
すフロー図である。
FIG. 11 is a flowchart showing yet another portion of the operation of the embodiment in FIG. 1;

【図12】図1実施例の動作の他の一部を示すフロー図
である。
FIG. 12 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図13】図1実施例の動作の一部を示す図解図であ
る。
FIG. 13 is an illustrative view showing a part of the operation of the embodiment in FIG. 1;

【図14】スポーツシーンの一例を示す図解図である。FIG. 14 is an illustrative view showing one example of a sports scene.

【図15】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 15 is a flowchart showing one portion of the operation of the embodiment in FIG.

【図16】図1実施例の動作の他の一部を示すフロー図
である。
FIG. 16 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図17】ズームレンズ位置およびフォーカスレンズ位
置と被写体距離との関係を示すグラフである。
FIG. 17 is a graph showing a relationship between a zoom lens position and a focus lens position and a subject distance.

【図18】図1実施例の動作の一部を示す図解図であ
る。
FIG. 18 is an illustrative view showing a part of the operation of the embodiment in FIG. 1;

【図19】色評価値の分布状態を示す平面図である。FIG. 19 is a plan view showing a distribution state of color evaluation values.

【図20】図1実施例の動作の一部を示す図解図であ
る。
FIG. 20 is an illustrative view showing a part of the operation of the embodiment in FIG. 1;

【図21】ポートレートシーンの一例を示す図解図であ
る。
FIG. 21 is an illustrative view showing one example of a portrait scene.

【図22】図1実施例の動作の一部を示すフロー図であ
る。
22 is a flowchart showing one portion of behavior of FIG. 1 embodiment. FIG.

【図23】図1実施例の動作の他の一部を示すフロー図
である。
FIG. 23 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図24】図1実施例の動作のその他の一部を示すフロ
ー図である。
FIG. 24 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図25】図1実施例の動作の一部を示す図解図であ
る。
FIG. 25 is an illustrative view showing a part of the operation of the embodiment in FIG. 1;

【図26】図1実施例の動作の他の一部を示す図解図で
ある。
FIG. 26 is an illustrative view showing another portion of the operation of the embodiment in FIG. 1;

【図27】色評価値の分布状態を示す平面図である。FIG. 27 is a plan view showing a distribution state of color evaluation values.

【図28】夕景シーンの一例を示す図解図である。FIG. 28 is an illustrative view showing one example of a sunset scene.

【図29】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 29 is a flowchart showing one portion of behavior of the embodiment in FIG. 1;

【図30】図1実施例の動作の他の一部を示すフロー図
である。
FIG. 30 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図31】夜景シーンの一例を示す図解図である。FIG. 31 is an illustrative view showing one example of a night scene.

【符号の説明】[Explanation of symbols]

10…ディジタルカメラ 12…ズームレンズ 14…フォーカスレンズ 20…イメージセンサ 26…信号処理回路 32…CPU 36…メモリ制御回路 38…SDRAM 44…モニタ 46…JPEGコーデック 48…記録媒体 54…シャッタボタン 56…ズームボタン 10 ... Digital camera 12 ... Zoom lens 14 ... Focus lens 20 ... Image sensor 26 ... Signal processing circuit 32 ... CPU 36 ... Memory control circuit 38 ... SDRAM 44 ... Monitor 46 ... JPEG codec 48 ... Recording medium 54 ... Shutter button 56 ... Zoom button

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/238 H04N 101:00 5C065 9/04 G02B 7/11 D // H04N 101:00 G03B 3/00 A Fターム(参考) 2H002 AB03 FB56 2H011 BA31 DA00 2H051 BA47 EA28 2H102 AA66 5C022 AA13 AB66 AC11 AC32 AC42 AC54 AC69 5C065 AA03 BB02 BB16 BB30 DD01 GG24 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/238 H04N 101: 00 5C065 9/04 G02B 7/11 D // H04N 101: 00 G03B 3/00 AF term (reference) 2H002 AB03 FB56 2H011 BA31 DA00 2H051 BA47 EA28 2H102 AA66 5C022 AA13 AB66 AC11 AC32 AC42 AC54 AC69 5C065 AA03 BB02 BB16 BB30 DD01 GG24

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】被写界に応じた撮影モードで撮影を行うカ
メラにおいて、 前記被写界に存在する主要被写体までの距離を測定する
第1測定手段、 人物の顔が占めるべき顔領域を前記第1測定手段によっ
て測定された距離に基づいて前記被写界から特定する特
定手段、 前記被写界の肌色領域を検出する検出手段、および前記
顔領域と前記肌色領域との関係に基づいて前記撮影モー
ドを決定する決定手段を備えることを特徴とする、カメ
ラ。
1. A camera for shooting in a shooting mode according to an object scene, said first measuring means for measuring a distance to a main subject existing in said object scene, and said face area to be occupied by a human face. Based on the distance measured by the first measuring means, specifying means for specifying from the object scene, detecting means for detecting a skin color area of the object scene, and based on a relationship between the face area and the skin color area, A camera, comprising: a determination unit that determines a shooting mode.
【請求項2】ズームレンズをさらに備え、 前記第1測定手段は前記ズームレンズの位置に基づいて
前記距離を測定する、請求項1記載のカメラ。
2. The camera according to claim 1, further comprising a zoom lens, wherein the first measuring unit measures the distance based on a position of the zoom lens.
【請求項3】フォーカスレンズ、 前記フォーカスレンズを経た前記被写界の光学像が受光
面に入射されるイメージセンサ、および前記フォーカス
レンズと前記受光面との間隔を測定する第2測定手段を
さらに備え、 前記特定手段は前記第1測定手段によって測定された距
離と前記第2測定手段によって測定された間隔とに基づ
いて前記受光面に投影された被写界像の顔領域を特定す
る、請求項1または2記載のカメラ。
3. A focus lens, an image sensor in which an optical image of the field of view that has passed through the focus lens is incident on a light receiving surface, and second measuring means for measuring a distance between the focus lens and the light receiving surface. Wherein the specifying unit specifies a face area of the object scene image projected on the light receiving surface based on the distance measured by the first measuring unit and the distance measured by the second measuring unit. The camera according to Item 1 or 2.
【請求項4】前記決定手段は、前記顔領域に含まれる第
1肌色領域のサイズを判別する第1肌色領域判別手段、
前記顔領域から外れる第2肌色領域のサイズを判別する
第2肌色領域判別手段、および前記第1肌色領域のサイ
ズおよび前記第2肌色領域のサイズに基づいて前記撮影
モードをポートレートモードに設定するモード設定手段
を含む、請求項1ないし3のいずれかに記載のカメラ。
4. The first skin color area discriminating means for discriminating the size of the first skin color area included in the face area,
Second skin color area determination means for determining the size of the second skin color area deviating from the face area, and the photographing mode is set to the portrait mode based on the size of the first skin color area and the size of the second skin color area. The camera according to claim 1, further comprising a mode setting unit.
【請求項5】前記決定手段によって決定された撮影モー
ドに対応するメッセージを出力する出力手段をさらに備
える、請求項1ないし4のいずれかに記載のカメラ。
5. The camera according to claim 1, further comprising output means for outputting a message corresponding to the photographing mode determined by the determination means.
JP2002119713A 2002-04-22 2002-04-22 camera Expired - Fee Related JP3754391B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2002119713A JP3754391B2 (en) 2002-04-22 2002-04-22 camera
US10/420,064 US7872670B2 (en) 2002-04-22 2003-04-21 Camera performing photographing in accordance with photographing mode depending on object scene
US12/378,068 US20090153702A1 (en) 2002-04-22 2009-02-11 Camera performing photographing in accordance with photographing mode depending on object scene
US12/378,069 US7969481B2 (en) 2002-04-22 2009-02-11 Camera performing photographing in accordance with photographing mode depending on object scene
US12/378,084 US20090153695A1 (en) 2002-04-22 2009-02-11 Camera performing photographing in accordance with photographing mode depending on object scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002119713A JP3754391B2 (en) 2002-04-22 2002-04-22 camera

Publications (2)

Publication Number Publication Date
JP2003319242A true JP2003319242A (en) 2003-11-07
JP3754391B2 JP3754391B2 (en) 2006-03-08

Family

ID=29536194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002119713A Expired - Fee Related JP3754391B2 (en) 2002-04-22 2002-04-22 camera

Country Status (1)

Country Link
JP (1) JP3754391B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223378A (en) * 2010-04-12 2011-11-04 Sanyo Electric Co Ltd Electronic camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223378A (en) * 2010-04-12 2011-11-04 Sanyo Electric Co Ltd Electronic camera

Also Published As

Publication number Publication date
JP3754391B2 (en) 2006-03-08

Similar Documents

Publication Publication Date Title
US7969481B2 (en) Camera performing photographing in accordance with photographing mode depending on object scene
US8199203B2 (en) Imaging apparatus and imaging method with face detection based on scene recognition results
US8830338B2 (en) Imaging device
JP4819001B2 (en) Imaging apparatus and method, program, image processing apparatus and method, and program
JP4986175B2 (en) Imaging apparatus and program
JP4286292B2 (en) Electronic camera
JP4025865B2 (en) Electronic camera
JP5623256B2 (en) Imaging apparatus, control method thereof, and program
WO2011097236A1 (en) Capture condition selection from brightness and motion
JP2006254229A (en) Imaging apparatus, imaging method and imaging program
JP6887245B2 (en) Imaging device and its control method, program, storage medium
JP2006163496A (en) Apparatus, method and program for image recording
JP2003032521A (en) Camera
JP3949000B2 (en) Auto focus camera
JP3738231B2 (en) camera
JP5316923B2 (en) Imaging apparatus and program thereof
JP3588353B2 (en) camera
JP3754390B2 (en) camera
JP3949067B2 (en) Auto focus camera
JP3754391B2 (en) camera
JP3949066B2 (en) Auto focus camera
KR101421939B1 (en) Apparatus and method for processing digital image using face detection function
JP6900577B2 (en) Image processing equipment and programs
KR101417807B1 (en) Apparatus and method for adjusting focus by face detection in digital image processing device
JP2008312057A (en) Photographing method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees