JP2001330882A - Camera with subject recognizing function - Google Patents
Camera with subject recognizing functionInfo
- Publication number
- JP2001330882A JP2001330882A JP2000152436A JP2000152436A JP2001330882A JP 2001330882 A JP2001330882 A JP 2001330882A JP 2000152436 A JP2000152436 A JP 2000152436A JP 2000152436 A JP2000152436 A JP 2000152436A JP 2001330882 A JP2001330882 A JP 2001330882A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- recognition
- camera
- photographing
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Focusing (AREA)
- Image Analysis (AREA)
- Processing Of Color Television Signals (AREA)
- Studio Devices (AREA)
- Cameras In General (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、複数の画素からな
るエリアセンサの出力を用いて撮影する被写体を認識す
る被写体認識手段を有する被写体認識機能付きカメラの
改良に関するものであるBACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of a camera having an object recognizing function having an object recognizing means for recognizing an object to be photographed using an output of an area sensor comprising a plurality of pixels.
【0002】[0002]
【従来の技術】最近のカメラは機能の自動化が進み、例
えば図2に示すような撮影モードダイヤル43に設定可
能な複数の撮影モードを持たせ、撮影者が撮影したいシ
ーンに応じてそれに対応した絵表示の位置に該撮影モー
ドダイヤル43を設定すれば、あらかじめプログラミン
グしていた制御方法でカメラを動作させることができる
ようになっている。したがって、ユーザーは特にカメラ
の機能の知識がなくとも、撮りたい撮影シーンや状況に
応じて絵表示の中から一つを選べば、後はシャッタを押
すだけという簡便なものであった。2. Description of the Related Art In recent cameras, functions have been advanced automatically. For example, a photographing mode dial 43 as shown in FIG. 2 is provided with a plurality of settable photographing modes, and the photographer responds to the scene according to the scene to be photographed. If the photographing mode dial 43 is set at the position of the picture display, the camera can be operated by a previously programmed control method. Therefore, even if the user does not have any particular knowledge of the functions of the camera, the user simply selects one of the picture displays according to the shooting scene or situation desired to be taken, and then simply presses the shutter.
【0003】しかし、撮影シーンは設定できても、被写
体がどのようなもので、どこにあるのか、具体的には画
面内での被写体の位置,大きさ,数などは判らないた
め、撮影したい被写体に最適な露出制御やオートフォー
カスを行うことは正確にはできなかった。従って、ピン
ト合わせも失敗のないようにある程度の被写界深度を持
たせた絞りを固定して設定にしたりというように、あら
かじめ決められたプログラム線図に沿ったAE露出や、
適していると思われるAFモードを選択するだけであっ
た。また、逆光のシーンなどの背景と被写体に明るさの
差がある場合には、被写体だけに露出を合わせることは
難しかった。さらに別の面では、動きのある被写体を常
に追尾して露出やオートフォーカスを合わせることも難
しいものであった。[0003] However, even if the shooting scene can be set, it is not known what the subject is and where it is, specifically, the position, size and number of the subject on the screen. Exposure control and autofocus that were optimal for the camera could not be performed accurately. Therefore, AE exposure according to a predetermined program diagram, such as fixing an aperture with a certain depth of field so that focusing does not fail and setting the aperture,
Only the AF mode which seems to be suitable has been selected. Also, when there is a difference in brightness between the background and the subject such as a backlight scene, it has been difficult to adjust the exposure only to the subject. On the other hand, it has been difficult to constantly track a moving subject to adjust exposure and autofocus.
【0004】そこで、撮影する被写体を認識する被写体
認識手段を備えたカメラが望まれていた。例えば特開平
6−160944号では、撮影モードの中で動体を撮影
するのに適した撮影モードが選択されると、被写体追尾
装置を自動的に作動させる制御手段を設けたカメラが提
案されており、指定されたエリア内の被写界の色差信号
を検出して、この変化によって主要被写体がどの位置に
動いたかを検出するようになっている。Therefore, a camera provided with a subject recognizing means for recognizing a subject to be photographed has been desired. For example, JP-A-6-160944 proposes a camera provided with control means for automatically operating a subject tracking device when a shooting mode suitable for shooting a moving object is selected from the shooting modes. The color difference signal of the scene in the designated area is detected, and the position of the main subject is detected by this change.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、このよ
うな色差信号による追尾方法だけでは被写体を正確に把
握することはできず、特に被写体の多くを占める人物写
真においては有効とならないと言う問題があった。一方
では、顔を認識する技術はかなり多くの研究がみられ、
カラー画像の中から顔を抽出する方法として、特開平8
−63597号など多くの提案がなされているが、いず
れにおいても認識するまでの演算量が相当のものとな
り、カメラという限られたスペース、マイコン能力、コ
ストにおいてはこれらを実現することは難しいものがあ
った。特に認識スピードにおいてはシャッタを切るまで
の僅かな時間の間に処理しなければならず、高速処理す
ることがぜひとも必要であった。However, the tracking method based on the color difference signal alone cannot accurately grasp the subject, and there is a problem that it is not effective especially in a photograph of a person occupying a large part of the subject. Was. On the other hand, there has been considerable research on face recognition technology,
As a method of extracting a face from a color image, Japanese Patent Laid-Open No.
Although many proposals have been made, such as -63597, the amount of calculation required to recognize each of them is considerable, and it is difficult to achieve these in the limited space of a camera, microcomputer capability, and cost. there were. Particularly at the recognition speed, processing must be performed in a short time until the shutter is released, and high-speed processing is absolutely necessary.
【0006】(発明の目的)本発明の第1の目的は、被
写体認識手段をカメラに搭載することを容易すると共
に、被写体情報の認識精度や認識スピードを向上させ、
操作性の良好な被写体認識機能付きカメラを提供しよう
とするものである。(Object of the Invention) A first object of the present invention is to make it easy to mount an object recognizing means in a camera, and to improve accuracy and speed of recognizing object information.
An object of the present invention is to provide a camera with a subject recognition function with good operability.
【0007】本発明の第2の目的は、被写体情報の認識
アルゴリズムを複雑にする事なく、撮影モードに応じて
精度良く被写体情報の認識を行うことのできる被写体認
識機能付きカメラを提供しようとするものである。A second object of the present invention is to provide a camera with a subject recognizing function capable of accurately recognizing subject information according to a photographing mode without complicating a subject information recognizing algorithm. Things.
【0008】本発明の第3の目的は、被写体情報の認識
の為の負荷を軽減し、被写体認識手段をカメラに搭載す
ることをより容易なものにすることのできる被写体認識
機能付きカメラを提供しようとするものである。A third object of the present invention is to provide a camera with a subject recognizing function capable of reducing the load for recognizing subject information and making it easier to mount subject recognizing means on the camera. What you want to do.
【0009】[0009]
【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1に記載の発明は、カメラの撮影モー
ドを設定する撮影モード設定手段と、被写体を撮像する
複数の画素からなるエリアセンサと、該エリアセンサの
出力をもとに撮影する被写体情報を認識する被写体認識
手段と、該被写体認識手段による認識結果に応じてカメ
ラの撮影機能の制御を行う制御手段とを有し、前記被写
体認識手段は、設定された撮影モードに応じて、被写体
情報を認識する為の認識アルゴリズムを変更する被写体
認識機能付きカメラとするものである。According to a first aspect of the present invention, there is provided a photographing mode setting unit for setting a photographing mode of a camera, and a plurality of pixels for photographing a subject. An area sensor, subject recognition means for recognizing subject information to be shot based on the output of the area sensor, and control means for controlling a shooting function of the camera in accordance with a recognition result by the subject recognition means. The subject recognizing means is a camera with a subject recognizing function for changing a recognition algorithm for recognizing subject information according to a set photographing mode.
【0010】また、上記第2の目的を達成するために、
請求項2に記載の発明は、カメラの撮影モードを設定す
る撮影モード設定手段と、被写体を撮像する複数の画素
からなるエリアセンサと、該エリアセンサの出力をもと
に撮影する被写体情報を認識する被写体認識手段と、該
被写体認識手段による認識結果に応じてカメラの撮影機
能の制御を行う制御手段とを有し、前記被写体認識手段
は、設定された撮影モードに応じて、被写体情報を認識
する認識アルゴリズム及び該認識アルゴリズムを構成す
るパラメータを変更する被写体認識機能付きカメラとす
るものである。In order to achieve the second object,
According to a second aspect of the present invention, there is provided a photographing mode setting means for setting a photographing mode of a camera, an area sensor including a plurality of pixels for photographing a subject, and recognition of subject information to be photographed based on an output of the area sensor. And a control unit for controlling a photographing function of the camera in accordance with a result of the recognition by the subject recognition unit. The subject recognition unit recognizes the subject information in accordance with a set photographing mode. And a camera with a subject recognition function for changing parameters constituting the recognition algorithm.
【0011】また、上記第3の目的を達成するために、
請求項5に記載の発明は、カメラの撮影モードを設定す
る撮影モード設定手段と、被写体を撮像する複数の画素
からなるエリアセンサと、該エリアセンサの出力をもと
に撮影する被写体情報のうち少なくとも顔を認識する顔
認識アルゴリズムを備えた被写体認識手段と、該被写体
認識手段による認識結果に応じてカメラの撮影機能の制
御を行う制御手段とを有し、前記被写体認識手段は、設
定された撮影モードによっては前記顔認識アルゴリズム
の動作を行わない被写体認識機能付きカメラとするもの
である。Further, in order to achieve the third object,
According to a fifth aspect of the present invention, there is provided a photographing mode setting unit for setting a photographing mode of a camera, an area sensor including a plurality of pixels for photographing a subject, and object information to be photographed based on an output of the area sensor. At least a subject recognizing unit having a face recognizing algorithm for recognizing a face, and a control unit for controlling a photographing function of a camera according to a recognition result by the subject recognizing unit; The camera with the object recognition function that does not perform the operation of the face recognition algorithm depending on the shooting mode.
【0012】[0012]
【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.
【0013】図1は本発明を一眼レフカメラに適用した
際の要部構成図である。同図において、1は撮影レンズ
(簡略して4枚のみで図示)で、その構成レンズの一部
1aは焦点位置を調節するフォーカスレンズ、1bはぶ
れ補正用レンズである。ぶれ補正用レンズ1bは光軸K
と直交する平面において移動することが可能となってお
り、それによって該撮影レンズ1の結像面内で結像位置
を変化させることによって公知の手ぶれ補正を行えるよ
うになっている。2は主ミラーであり、ファインダ系に
よる被写体像の観察状態と被写体像の撮影状態に応じて
撮影光路へ斜設されあるいは待避される。3はサブミラ
ーであり、主ミラー2を透過した光束をカメラボディの
下方の後述する焦点検出装置6へ向けて反射する。4は
シャッタ、5は撮影レンズ1の焦点面に位置するフィル
ムないし固体撮像素子である画像記録部材である。FIG. 1 is a configuration diagram of a main part when the present invention is applied to a single-lens reflex camera. In FIG. 1, reference numeral 1 denotes a photographing lens (only four lenses are shown for simplicity), and a part 1a of the constituent lens is a focus lens for adjusting a focal position, and 1b is a blur correction lens. The blur correction lens 1b has an optical axis K
It is possible to move in a plane perpendicular to the image plane, and thereby to perform a known camera shake correction by changing an image forming position in the image forming plane of the photographing lens 1. Reference numeral 2 denotes a main mirror which is inclined or retracted to the photographing optical path according to the state of observation of the subject image by the finder system and the state of photography of the subject image. Reference numeral 3 denotes a sub-mirror, which reflects a light beam transmitted through the main mirror 2 toward a later-described focus detection device 6 below the camera body. Reference numeral 4 denotes a shutter, and reference numeral 5 denotes an image recording member which is a film or a solid-state image sensor located at a focal plane of the taking lens 1.
【0014】6は焦点検出装置であり、結像面近傍に配
置された視野マスク61、フィールドレンズ62、反射
ミラー63,66、二次結像レンズ65、絞り64、公
知の位相差検出方式の焦点検出用ラインセンサ67等か
ら構成されている。焦点検出装置6は最近では画面の中
央だけでなくその周辺においても複数の焦点検出点(ス
ディフォーカス情報を検出する為の領域)を設けたもの
が実現されている。この実施の形態においても、このよ
うな複数の焦点検出点を備えた焦点検出装置を想定して
いるが、この点については既に公知な技術であり詳細な
説明は省略する。7は撮影レンズ1の予定結像面に配置
されたピント板、8はペンタプリズムである。9と10
はそれぞれファインダ観察面内の被写体輝度を測定する
ための結像レンズと測光センサであり、測光センサ10
は画面内の複数の領域を測光できるように複数のフォト
ダイオードから構成されている。11はファインダ光路
内に設けられた半透過ミラーであり、ファインダ光の一
部は図1の上方に反射され、結像レンズ12によって公
知のエリアセンサ13にピント板7に結像している被写
体像を再結像する。一方、半透過ミラー11を透過した
ファインダ光は接眼レンズ14に導かれ、撮影者が被写
体像を拡大して観察できるようになっている。15はペ
ンタプリズム8の前面に配置されたストロボユニットで
あり、発光時にはポップアップするリトラクタブル機構
を備えている。16は撮影者の手ぶれを検出するために
光軸Kに対してピッチ方向とヨー方向の角速度を検出す
るように配置された振動ジャイロなどのぶれ検出センサ
である。Reference numeral 6 denotes a focus detection device, which includes a field mask 61, a field lens 62, reflection mirrors 63 and 66, a secondary imaging lens 65, an aperture 64, and a well-known phase difference detection method. It is composed of a focus detection line sensor 67 and the like. Recently, the focus detection device 6 is provided with a plurality of focus detection points (regions for detecting sudi focus information) not only in the center of the screen but also in the periphery thereof. In this embodiment as well, a focus detection device having such a plurality of focus detection points is assumed, but this point is a known technique, and a detailed description thereof will be omitted. Reference numeral 7 denotes a focusing plate arranged on a predetermined image forming plane of the photographing lens 1, and 8 denotes a pentaprism. 9 and 10
Are an imaging lens and a photometric sensor for measuring the luminance of the subject in the viewfinder observation surface, respectively.
Is composed of a plurality of photodiodes so that a plurality of areas in the screen can be measured. Reference numeral 11 denotes a semi-transmissive mirror provided in the finder optical path, and a part of the finder light is reflected upward in FIG. 1 and is imaged on the focus plate 7 on the known area sensor 13 by the imaging lens 12. Re-image the image. On the other hand, the finder light transmitted through the semi-transmissive mirror 11 is guided to the eyepiece lens 14 so that the photographer can enlarge and observe the subject image. Reference numeral 15 denotes a strobe unit arranged on the front surface of the pentaprism 8, which has a retractable mechanism that pops up when emitting light. Reference numeral 16 denotes a shake detection sensor such as a vibrating gyroscope arranged to detect angular velocities in the pitch direction and the yaw direction with respect to the optical axis K in order to detect camera shake of the photographer.
【0015】31は撮影レンズ1内に設けられた絞り、
32は絞り駆動装置、33はフォーカスレンズ駆動用モ
ータ、34は駆動ギヤ等からなるフォーカスレンズ駆動
装置である。35はフォトカプラとフォーカスレンズ駆
動装置34に取り付けられたパルス板からなるエンコー
ダであり、フォーカスレンズ駆動装置34の駆動量を検
知してレンズ制御回路104に伝えており、該レンズ制
御回路104はこの情報とカメラからフォーカスレンズ
駆動量の情報に基づいてフォーカスレンズ駆動用モータ
33を所定量駆動させ、フォーカスレンズ1aを合焦位
置に移動させるようになっている。Reference numeral 31 denotes an aperture provided in the taking lens 1;
Reference numeral 32 denotes an aperture driving device, 33 denotes a focus lens driving motor, and 34 denotes a focus lens driving device including a driving gear and the like. An encoder 35 includes a photocoupler and a pulse plate attached to the focus lens driving device 34. The encoder 35 detects a driving amount of the focus lens driving device 34 and transmits the detected amount to the lens control circuit 104. The focus lens drive motor 33 is driven by a predetermined amount based on the information and the information on the focus lens drive amount from the camera, and the focus lens 1a is moved to the in-focus position.
【0016】36は撮影レンズ1の絶対位置を検出しカ
メラから被写体までの距離を得るための被写体距離検出
装置であり、例えば至近位置から無限遠までを4bit 程
度のコードパターンからなり、不図示のブラシ接点を用
いて合焦位置での被写体距離が検出できるようになって
いる。37は撮影レンズ1の焦点距離を検知する焦点距
離検出装置であり、不図示のブラシ接点を用いてズーミ
ングするレンズに応じた焦点距離情報が検出できるよう
になっている。38はぶれ補正用レンズ1bを光軸Kに
直交する平面において移動すさせるシフトレンズ駆動装
置である。39は公知のカメラとレンズとの電気的イン
ターフェイスとなるマウント接点である。Reference numeral 36 denotes a subject distance detecting device for detecting the absolute position of the photographic lens 1 and obtaining the distance from the camera to the subject. The subject distance detecting device 36 comprises, for example, a code pattern of about 4 bits from the closest position to infinity. The subject distance at the in-focus position can be detected using the brush contact. Reference numeral 37 denotes a focal length detecting device that detects the focal length of the photographing lens 1, and is capable of detecting focal length information according to the zooming lens using a brush contact (not shown). Reference numeral 38 denotes a shift lens driving device that moves the blur correction lens 1b on a plane orthogonal to the optical axis K. Reference numeral 39 denotes a mounting contact serving as an electrical interface between a known camera and a lens.
【0017】図2は、上記構成より成る一眼レフカメラ
の上面図である。FIG. 2 is a top view of the single-lens reflex camera having the above configuration.
【0018】同図において、41はレリーズボタン、4
2は外部モニター用LCD、43はカメラのメインスイ
ッチと撮影モードの選択を行う撮影モードダイヤル、4
4はセルフタイマ設定釦である。In FIG. 1, reference numeral 41 denotes a release button,
Reference numeral 2 denotes an LCD for an external monitor; 43, a shooting mode dial for selecting a main switch of the camera and a shooting mode;
Reference numeral 4 denotes a self-timer setting button.
【0019】前記撮影モードダイヤル43には設定可能
な撮影モードが記されており、その中で、43aは絵文
字で示されたようなシーンに適した撮影モードが設定さ
れたイメージゾーンで、人物撮影に適したポートレイト
モード,風景撮影に適した風景モード,接写撮影に適し
たクローズアップモード,動体写真に適したスポーツモ
ードの4種類が揃えられている。本実施の形態において
は、このイメージゾーンの何れかの撮影モードを撮影者
が設定した時の動作を説明するものである。43bはグ
リーンモードと言われる一般的な撮影を想定してカメラ
があらかじめ所定の撮影機能を設定する撮影モードであ
る。The photographing mode dial 43 has settable photographing modes. Among them, reference numeral 43a denotes an image zone in which a photographing mode suitable for a scene represented by pictograms is set. There are four modes: portrait mode suitable for landscape photography, landscape mode suitable for landscape photography, close-up mode suitable for close-up photography, and sports mode suitable for moving body photography. In the present embodiment, an operation when the photographer sets any one of the photographing modes in the image zone will be described. Reference numeral 43b denotes a shooting mode in which the camera sets a predetermined shooting function in advance assuming general shooting called a green mode.
【0020】図3は、上記構成の一眼レフカメラに内蔵
された電気回路の構成を示すブロック図であり、図1と
同じ部材には同一の符号を付してある。FIG. 3 is a block diagram showing a configuration of an electric circuit built in the single-lens reflex camera having the above-described configuration. The same members as those in FIG. 1 are denoted by the same reference numerals.
【0021】カメラ本体に内蔵されたマイクロコンピュ
ータの、カメラ制御用中央処理装置(以下、CPUと記
す)101は、その内部において認識情報処理部101
aとEEPROM101bを備えている。そして、該C
PU101には、カメラの諸機能を制御するために各種
制御回路が接続されている。A microcomputer central processing unit (hereinafter, referred to as a CPU) 101 of a microcomputer built in the camera body includes a recognition information processing unit 101 therein.
a and the EEPROM 101b. And the C
Various control circuits are connected to the PU 101 to control various functions of the camera.
【0022】測光回路102は、測光センサ10からの
信号を増幅後、対数圧縮,A/D変換し、画面内の複数
の領域に対応する各センサの輝度情報としてCPU10
1に送信する。焦点検出回路103は、画面内の複数の
位置で位相差方式の焦点検出が行えるように複数組から
成るラインセンサ67からの出力をA/D変換し、CP
U101に送信する。レンズ1に配置されたレンズ制御
回路104は、マウント接点39を介してCPU101
からの制御情報をもとにフォーカスレンズ駆動用モータ
33を制御すること、絞り駆動装置31を制御するこ
と、シフトレンズ駆動装置38を制御することを司って
いる。The photometric circuit 102 amplifies the signal from the photometric sensor 10, performs logarithmic compression and A / D conversion on the amplified signal, and provides the CPU 10 with luminance information of each sensor corresponding to a plurality of areas in the screen.
Send to 1. The focus detection circuit 103 performs A / D conversion of outputs from a plurality of sets of line sensors 67 so that phase difference type focus detection can be performed at a plurality of positions in the screen, and performs CP conversion.
Transmit to U101. The lens control circuit 104 disposed on the lens 1 is connected to the CPU 101 via the mount contact 39.
It controls the focus lens driving motor 33 based on the control information from the camera, controls the aperture driving device 31, and controls the shift lens driving device 38.
【0023】ストロボ制御回路105は、CPU101
からのストロボ発光の信号を受けると内蔵ストロボ15
をポップアップさせるとともに、レリーズに同期して内
蔵ストロボ15を発光させ、調光センサ55からの信号
を受けてストロボ発光量を制御する。SW1はレリーズ
釦41の第一ストロークでONし、測光,AF及び本発
明の特徴の一つである被写体認識動作を開始させるため
のスイッチ、SW2はレリーズ釦41の第二ストローク
でONするカメラのレリーズスイッチである。SW-DIAL
は撮影モードダイヤル43内に設けられたダイヤルスイ
ッチである。上記各スイッチ及び図示はしていないがカ
メラの各所に配置された各種スイッチの状態信号がSW
信号入力回路106に入力され、データバスによってC
PU101に送信される。The flash control circuit 105 includes a CPU 101
The built-in flash 15
Is popped up, the built-in strobe 15 is caused to emit light in synchronization with the release, and a signal from the light control sensor 55 is received to control the amount of strobe light emission. SW1 is a switch for turning on the first stroke of the release button 41 to start photometry, AF, and a subject recognition operation which is one of the features of the present invention. SW2 is a camera for turning on the second stroke of the release button 41. Release switch. SW-DIAL
Is a dial switch provided in the photographing mode dial 43. The status signals of the above switches and various switches (not shown) arranged at various places of the camera are SW.
The signal is input to the signal input circuit 106,
It is transmitted to PU101.
【0024】LCD駆動回路107は、LCD(液晶表
示器)を表示駆動させるための公知の構成より成るもの
で、CPU101からの信号に従い、絞り値,シャッタ
秒時、設定した撮影モード等の表示を、モニター用LC
D42や図示しないファインダ内表示用LCDに表示さ
せる。シャッタ制御回路108は、通電すると先幕を走
行させるシャッタマグネットMg-1と後幕を走行させる
シャッタマグネットMg-2を制御し、感光部材に所定光
量を露光させる。モータ制御回路109は、フィルムの
巻き上げ,巻き戻しを行うモータM1と主ミラー2、シ
ャッタ4のチャージを行うモータM2を制御すためのも
のである。上記のシャッタ制御回路108とモータ制御
回路109によって一連のカメラのレリーズシーケンス
が実行される。The LCD drive circuit 107 has a known configuration for driving a liquid crystal display (LCD), and displays an aperture value, a shutter time, a set photographing mode, and the like in accordance with a signal from the CPU 101. , Monitor LC
It is displayed on D42 or a not-shown display LCD in the viewfinder. The shutter control circuit 108 controls the shutter magnet Mg-1 for running the front curtain and the shutter magnet Mg-2 for running the rear curtain when energized, and exposes the photosensitive member to a predetermined amount of light. The motor control circuit 109 controls the motor M1 for winding and rewinding the film, and the motor M2 for charging the main mirror 2 and the shutter 4. The shutter control circuit 108 and the motor control circuit 109 execute a series of camera release sequences.
【0025】ぶれ検出センサ16は、カメラの手ぶれに
よる角速度を出力し、ぶれ検出回路111はこの角速度
を実際のぶれ量に変換して認識情報処理部101aに送
る。それとともに手ぶれ補正回路110に送り、該手ぶ
れ補正回路110は実際に手ぶれの補正量に相当するシ
フトレンズの駆動量を算出してCPU101に送信す
る。これを受けてCPU101は、前述のようにレンズ
制御回路104に制御情報を送り、シフトレンズ駆動装
置38を介してぶれ補正用レンズ1bを制御して手ぶれ
補正を行う。The shake detection sensor 16 outputs an angular velocity due to camera shake, and a shake detection circuit 111 converts the angular velocity into an actual shake amount and sends it to the recognition information processing unit 101a. At the same time, it is sent to the camera shake correction circuit 110, which calculates the drive amount of the shift lens corresponding to the actual camera shake correction amount and sends it to the CPU 101. In response to this, the CPU 101 sends control information to the lens control circuit 104 as described above, and controls the blur correction lens 1b via the shift lens driving device 38 to perform camera shake correction.
【0026】ここで、説明をわかりやすくするために記
載したCPU101の内部で構成される認識情報処理部
101aへの接続について説明する。Here, a description will be given of the connection to the recognition information processing unit 101a formed inside the CPU 101, which is described for easy understanding.
【0027】まず、前述のぶれ検出回路111が接続さ
れており、手ぶれ量が情報信号として入力される。次
に、レンズ内に設けた被写体距離検出装置36、焦点距
離検出装置37の信号からレンズ位置検出回路112に
よって被写体距離情報と撮影レンズの焦点距離情報が入
力されるようになっている。First, the aforementioned shake detection circuit 111 is connected, and the amount of camera shake is input as an information signal. Next, the subject position information and the focal length information of the photographing lens are input by the lens position detection circuit 112 from the signals of the subject distance detection device 36 and the focal length detection device 37 provided in the lens.
【0028】エリアセンサ13は、主に被写体の顔情報
を検出するために必要な画素数(約数10万画素)を備
えたカラーエリアセンサであり、公知のCCDやC−M
OSセンサから成り、センサ制御回路113にて公知の
駆動方法で制御されている。センサ制御回路113に入
力された被写体画像は画像処理回路114に送られてA
/D変換され、認識情報処理部101aにて必要に応じ
て図示しないメモリ部に記憶されるとともに、後述のア
ルゴリズムにしたがって被写体認識回路115と被写体
像動きベクトル検出回路116にそれぞれ必要とする画
像データとして供給される。被写体認識回路115に
は、撮影画面に相当する画像データが、被写体像動きベ
クトル検出回路116には、所定の時間差を持った画像
データが、それぞれ出力される。The area sensor 13 is a color area sensor having the number of pixels (approximately several hundred thousand pixels) necessary to mainly detect face information of a subject, and is a known CCD or CM.
The sensor control circuit 113 is controlled by a known driving method. The subject image input to the sensor control circuit 113 is sent to the image processing circuit 114 and
/ D conversion and stored in a memory unit (not shown) by the recognition information processing unit 101a as necessary, and image data required by the subject recognition circuit 115 and the subject image motion vector detection circuit 116 in accordance with an algorithm described later. Supplied as Image data corresponding to a shooting screen is output to the subject recognition circuit 115, and image data having a predetermined time difference is output to the subject image motion vector detection circuit 116.
【0029】前記被写体認識回路115では、例えば被
写体に顔があれば、その大きさと数を検出する。また、
風景であればどのような風景シーンであるかを検出する
もので、詳細は後述のアルゴリズムの中で記載する。被
写体像動きベクトル検出回路116では、複数の領域ご
との時間差のある画像データから2次元の相関演算を行
い、動きベクトルを検出するもので、同じく詳細は後述
のアルゴリズムの中で記載する。The subject recognition circuit 115 detects the size and number of the face, for example, if the subject has a face. Also,
If it is a landscape, it detects what kind of landscape scene it is, and details will be described in an algorithm described later. The subject image motion vector detection circuit 116 detects a motion vector by performing a two-dimensional correlation operation from image data having a time difference for each of a plurality of regions, and the details will be described later in an algorithm.
【0030】以上のように、ぶれ検出回路111,レン
ズ位置検出回路112,被写体認識回路115,動きベ
クトル検出回路116がそれぞれCPU101に接続さ
れ、認識情報処理部101aに、カメラぶれ情報,レン
ズの焦点距離情報,被写体距離情報,被写体認識情報,
被写体像の動きベクトル情報が入力されるようになって
いる。As described above, the shake detection circuit 111, the lens position detection circuit 112, the object recognition circuit 115, and the motion vector detection circuit 116 are connected to the CPU 101, and the camera shake information and the focus of the lens are transmitted to the recognition information processing unit 101a. Distance information, subject distance information, subject recognition information,
The motion vector information of the subject image is input.
【0031】117は記録用の磁気ヘッドを含む認識情
報記録回路であり、前記認識情報処理部101aで最終
的に検出された被写体情報を認識情報としてフィルムの
磁気記録層に記録するものである。なお、勿論この磁気
記録方法に限らず、EEPROM、フラッシュメモリな
どの半導体メモリや、MO,DVD-ROM などの光記録手段
や、その他リムーバルな記録メディアでも良い。Reference numeral 117 denotes a recognition information recording circuit including a recording magnetic head, which records the subject information finally detected by the recognition information processing unit 101a as recognition information on the magnetic recording layer of the film. Of course, the present invention is not limited to this magnetic recording method, but may be a semiconductor memory such as an EEPROM or a flash memory, an optical recording means such as an MO or DVD-ROM, or other removable recording media.
【0032】次に、上記のように構成された一眼レフカ
メラの動作について説明する。Next, the operation of the single-lens reflex camera configured as described above will be described.
【0033】図4は、上記構成における一眼レフカメラ
の撮影動作までを示すフローチャートである。FIG. 4 is a flowchart showing up to the photographing operation of the single-lens reflex camera having the above configuration.
【0034】まず、ステップ#101にて、撮影モード
ダイアル43がLOCKボジションから外されてイメー
ジゾーン43aの何れかの撮影モードが設定されると電
源が供給され、カメラは撮影準備状態となる。次に、ス
テップ#102にて、レリーズ釦41の第一ストローク
でONするスイッチSW1がONしているかを検出し、
ONしていればステップ#103へ進み、OFFであれ
ばステップ#102の検出を繰り返す。ステップ#10
3へ進むと、ここでは設定した撮影モードが何であるか
を読み込み、ポートレイトモードであればステップ#1
04へ、風景モードであればステップ#105へ、接写
モードであればステップ#106へ、スポーツモードで
あればステップ#107へ、それぞれ進む。First, in step # 101, when the photographing mode dial 43 is released from the LOCK position and one of the photographing modes in the image zone 43a is set, power is supplied, and the camera is ready for photographing. Next, in step # 102, it is detected whether the switch SW1 which is turned on in the first stroke of the release button 41 is turned on,
If it is ON, the process proceeds to step # 103, and if it is OFF, the detection of step # 102 is repeated. Step # 10
When the process proceeds to step 3, what is the set photographing mode is read. If the photographing mode is the portrait mode, step # 1 is executed.
04, in the case of the landscape mode, to step # 105, in the case of the close-up mode, to step # 106, and in the case of the sports mode, to step # 107.
【0035】ポートレイトモードであれば、ステップ#
104を介してステップ#108に進み、ここでは被写
体認識回路115が顔認識処理を行う。つまり、被写体
認識回路115は、エリアセンサ13により被写体像を
所定のフレームレートで順次取り込むとともに、取り込
んだ被写体画像から顔認識処理を行い、被写体像の顔の
大きさ,数を判定する。この際、ポートレイトモードで
あることから、被写体認識処理は顔を認識するのに適し
たアルゴリズムで実行される。顔認識については詳細は
後述する。次にステップ#112へ進み、CPU101
はこの結果を前記被写体認識回路115より認識情報処
理部101aに取り込み、顔認識結果に応じてその被写
体にあったAEプログラム線図でのAE制御やAF動作
の制御内容について決定する。In the portrait mode, step #
The process proceeds to step # 108 via 104, where the subject recognition circuit 115 performs face recognition processing. That is, the subject recognition circuit 115 sequentially captures the subject images at the predetermined frame rate by the area sensor 13 and performs face recognition processing on the captured subject images to determine the size and number of faces of the subject images. At this time, since the mode is the portrait mode, the subject recognition processing is executed by an algorithm suitable for face recognition. Details of face recognition will be described later. Next, the process proceeds to step # 112, where the CPU 101
Fetches this result from the object recognition circuit 115 into the recognition information processing unit 101a, and determines the AE control or the control operation of the AF operation in the AE program diagram corresponding to the object according to the face recognition result.
【0036】この制御内容の一例を、図5に示す。な
お、図5の縦項目は認識した顔の数、横項目は顔領域の
大きさを表している。FIG. 5 shows an example of this control content. The vertical item in FIG. 5 indicates the number of recognized faces, and the horizontal item indicates the size of the face area.
【0037】まず、顔の数が一人でかつ顔領域の大きさ
が所定の大きさよりも大きいときには、AE(自動露出
制御)は装着レンズの開放Fナンバーを基準に長焦点側
になるとやや絞り込んでいく絞り優先AEプログラムと
する。これは一番人物中心となる写真で、顔だけにピン
トが合うように撮ることを優先に考えるが、装着レンズ
が長焦点になると顔の一部にしか合わなくなるのでやや
絞り込むプログラムとしている。また、AF(オートフ
ォーカス制御)は、顔領域に含まれる焦点検出点の平均
のピント位置に合わせるようにレンズを駆動させること
とする。First, when the number of faces is one and the size of the face area is larger than a predetermined size, the AE (automatic exposure control) stops down a little when it is on the long focal length side based on the open F number of the attached lens. It is assumed that the AE program has a narrow aperture priority. This is the most human-centered photo, and we give priority to taking pictures so that only the face is in focus. However, if the attached lens becomes a long focus, it will focus only on a part of the face, so it is a program to narrow down a little. In the AF (auto focus control), the lens is driven so as to match the average focus position of the focus detection points included in the face area.
【0038】顔領域の大きさが所定の大きさよりも小さ
い時には、AEは、装着レンズの開放FNo(Fナンバ
ー)優先プログラムとし、AFは、顔領域のなかで一番
至近にあるものにピントを合わせるようにレンズを駆動
させることとする。これも顔の大きさの割にはできるだ
けバックをぼかすように設定しているものである。When the size of the face area is smaller than the predetermined size, the AE is a program for giving priority to the open FNo (F number) of the mounted lens, and the AF focuses on the closest face area in the face area. The lens is driven so as to match. This is also set so that the background is blurred as much as possible for the size of the face.
【0039】なお、一人の場合はいずれにおいても内蔵
ストロボ15を強制発光させ、その調光補正量はマイナ
スの1段としている。これは被写体の瞳にキャッチライ
トを発生させる為に行うものである。In the case of one person, the built-in strobe 15 is forcibly fired in any case, and the dimming correction amount is one step of minus. This is performed in order to generate a catchlight on the subject's pupil.
【0040】次に、顔の数が二人から三人までであれ
ば、前記AEは、前述のような顔の大きさには関係なく
各人にピントが合う絞り値で制御する被写界深度優先プ
ログラムとする。また、AFは、近点と遠点に対して
「7:10」で内分する位置にレンズを駆動するように
設定する。これは、近点と遠点のそれぞれの人物のいず
れにもピントが合い、それ以外の遠方の背景は極力ぼか
すようにしたもので、複数の焦点検出点間でのディフォ
ーカス量に応じていずれもが被写界深度内に入るような
絞りを設定し、その絞り値優先のプログラムとしてお
り、いわゆるポートレイト写真ではないが、かなり人物
中心に捉えた撮影モードを設定する。Next, if the number of faces is from two to three, the AE is controlled by the aperture value at which each person is focused irrespective of the size of the face as described above. Depth priority program. Further, the AF is set so that the lens is driven to a position that internally divides the near point and the far point by “7:10”. This focuses on both the near-point and far-point persons, and blurs the other distant background as much as possible, depending on the amount of defocus between multiple focus detection points. The aperture is set to be within the depth of field, and the aperture value is prioritized. This is not a so-called portrait photograph, but a photographing mode that is focused on a person is set.
【0041】次に、顔の数が四人以上、ないし不特定で
あれば顔の大きさには関係なく、AEは、絞り値=F8
を基準として焦点距離に応じて絞り込む絞り優先AEプ
ログラムとしている。AFは、各すべての顔の平均の位
置にピントが合うようにレンズを駆動すさせることとす
る。これは、人物にすべてピントが合うのを基準にしな
がらも、人物と背景のいずれもがシャープに写るように
ある程度絞り込んだ設定にし、かつ、焦点距離に応じて
長焦点になるほど絞り込むようにしている。いわゆる全
体的に人物も背景も調和の取れた写真が撮れるような集
合写真的な撮影モードに設定するものである。Next, if the number of faces is four or more, or unspecified, regardless of the size of the face, AE is determined by the aperture value = F8
Aperture priority AE program for narrowing down according to the focal length based on In the AF, the lens is driven so that the average position of each face is focused. This is based on focusing on all the people, but with a setting that is narrowed down to a certain extent so that both the person and the background are sharply captured, and further narrowed down as the focal length becomes longer. . A so-called group photographing mode is set such that a photograph in which both the person and the background are harmonious overall can be taken.
【0042】このように、従来のカメラであればポート
レイトモードを選んでも、AEは開放FNoでの絞り優
先AE、AFはワンショットAFに固定されたものが、
上記のように人物撮影においていろいろな被写体の状況
に合わせて、より一層カメラの制御を最適化できるもの
である。As described above, even if the portrait mode is selected in the case of the conventional camera, the AE is fixed to the aperture priority AE at the open FNo and the AF is fixed to the one-shot AF.
As described above, camera control can be further optimized in accordance with the situation of various subjects in photographing a person.
【0043】図4に戻り、以上のようにしてポートレイ
トモードに設定したときの顔認識結果によるカメラの制
御内容が決定されると、実際に制御を行うべくステップ
#116に進む。Returning to FIG. 4, when the content of the camera control based on the face recognition result when the portrait mode is set as described above is determined, the process proceeds to step # 116 to actually perform the control.
【0044】また、風景モードであった場合はステップ
#105を介してステップ#109に進み、ここでは被
写体認識回路115がシーン認識処理を行う。つまり、
被写体認識回路115は、エリアセンサ13により被写
体像を所定のフレームレートで順次取り込むとともに、
取り込んだ被写体画像からシーン認識処理を行い、被写
体がどのような風景シーンであるかを認識する。この
際、風景モードであることから被写体認識処理はどのよ
うな風景であるかを認識するのに適したアルゴリズムで
実行される。シーン認識については詳細は後述する。次
にステップ#113へ進み、CPU101はこの結果を
前記被写体認識回路115より認識情報処理部101a
に取り込み、シーン認識結果に応じてそのシーンにあっ
たAE制御やAF動作の制御内容について決定する。If the mode is the landscape mode, the process proceeds to step # 109 via step # 105, where the object recognition circuit 115 performs a scene recognition process. That is,
The subject recognition circuit 115 sequentially captures the subject images at a predetermined frame rate by the area sensor 13,
A scene recognition process is performed from the captured subject image to recognize what kind of landscape scene the subject is. At this time, since the mode is the landscape mode, the subject recognition processing is executed by an algorithm suitable for recognizing what kind of landscape is. The details of the scene recognition will be described later. Next, the process proceeds to step # 113, where the CPU 101 outputs the result to the recognition information processing section 101a by the object recognition circuit 115.
To determine the AE control and AF operation control contents for the scene according to the scene recognition result.
【0045】例えば、所定以上の面積をしめる緑の領域
があれば、これは森林の風景であると認識されてくるの
で、測光センサの感度や人間の記憶色等を考慮してやや
露出補正をオーバー側に掛ける(例えば0.3〜0.5段プ
ラス)制御を行う。また、画面上部に所定以上の面積を
しめる青の領域や高輝度の領域があれば、空を含んでい
る風景と認識されてくるので、それに相当する測光領域
の輝度情報は排除するか所定値より減ずる処置をとる事
を行うようにする。AFにおいては、所定の距離よりも
近い位置にはピントを合わせないようにリミッターを設
けるようにする。For example, if there is a green area having an area larger than a predetermined area, the green area is recognized as a landscape of a forest. (For example, 0.3 to 0.5 step plus). If there is a blue area or a high-brightness area with an area larger than a predetermined area at the top of the screen, it will be recognized as a landscape including the sky. Try to take steps to reduce it. In AF, a limiter is provided at a position closer than a predetermined distance so as not to focus.
【0046】このように、従来のカメラであれば風景モ
ードを選択しても、測光方式は通常の評価測光や平均測
光の測光値でそのまま制御されるものが、風景撮影の被
写体に合わせて、より一層カメラの制御を最適化できる
ものである。As described above, in the case of a conventional camera, even if the landscape mode is selected, the photometry method is controlled directly by the photometry value of the normal evaluation photometry or the average photometry. The camera control can be further optimized.
【0047】また、接写モードであった場合はステップ
#106を介してステップ#110に進み、ここでは被
写体認識回路115が物体認識処理を行う。つまり、被
写体認識回路115はエリアセンサ13により被写体像
を所定のフレームレートで順次取り込むとともに、取り
込んだ被写体画像から物体認識処理を行い、被写体のな
かで主被写体となる物体の大きさと奥行きを認識する。
この際、接写モードであることから被写体認識処理は物
体の大きさを認識するのに適したアルゴリズムで実行さ
れる。物体認識については詳細は後述する。次にステッ
プ#114へ進み、CPU101はこの結果を前記被写
体認識回路115より認識情報処理部101aを取り込
み、物体認識結果に応じてそのシーンにあったAE制御
やAF動作の制御内容について決定する。If the mode is the close-up mode, the process proceeds to step # 110 via step # 106, where the object recognition circuit 115 performs object recognition processing. That is, the subject recognition circuit 115 sequentially captures the subject images at a predetermined frame rate by the area sensor 13 and performs object recognition processing on the captured subject images to recognize the size and depth of the main subject among the subjects. .
At this time, since the mode is the close-up mode, the subject recognition processing is executed by an algorithm suitable for recognizing the size of the object. Details of the object recognition will be described later. Next, the process proceeds to step # 114, where the CPU 101 fetches the result from the object recognition circuit 115 into the recognition information processing unit 101a, and determines AE control or AF operation control content corresponding to the scene according to the object recognition result.
【0048】例えば、画面内において所定以上の面積を
しめる物体の領域があり、かつ奥行きが所定以上ある物
体であると認識された情報がくると、至近点から奥行き
方向に約2/3いったところまでにピントが合うような
被写界深度を持つ絞りに設定し、AFも、それを満たす
位置にレンズを駆動するようにする。それ以外の大きさ
と奥行きの物体の場合には、奥行き全部にピントが合う
被写界深度を持つ絞りに設定し、AFも、それを満たす
位置にレンズを駆動するようにする。これは、接写対象
の被写体はある程度よりも大きくなると全体にピントを
合わせるためにはかなり絞り込まねばならず、実際に合
わせる限界を超えてしまうことや、このような画面の多
くを占める被写体を撮影する場合は全体にピントを合わ
せるようなことは接写写真の仕上がりとしてあまり適当
でない場合が多いことによるものである。For example, if there is a region of an object having an area larger than a predetermined area in the screen and information is recognized that the object has a predetermined depth or more, the depth is increased by about 2/3 from the closest point in the depth direction. The aperture is set to have a depth of field such that focus is achieved so far, and the AF also drives the lens to a position that satisfies it. In the case of an object having a size and depth other than that, the aperture is set to have a depth of field that can focus on the entire depth, and the AF is also driven to a position that satisfies the condition. This means that if the subject to be taken close-up becomes larger than a certain level, it will be necessary to narrow down considerably in order to focus on the whole, and it will exceed the limit of actual focusing, and shoot subjects that occupy a lot of such screens In such a case, focusing on the whole is often not very suitable as a finish of a close-up photograph.
【0049】このように、従来のカメラであれば接写モ
ードを選択しても被写界深度の深めの絞り値を固定とし
た絞り優先AE制御されるにすぎなかったが、上記のよ
うに接写撮影の対象となる被写体に合わせて、より一層
カメラの制御を最適化できるものである。As described above, in the case of the conventional camera, even if the close-up mode is selected, the aperture priority AE control with the fixed depth of field having a large depth of field is merely performed. The camera control can be further optimized according to the subject to be photographed.
【0050】また、スポーツモードであった場合はステ
ップ#107を介してステップ#111に進み、被写体
像動きベクトル検出回路116が被写体像の動き検出処
理を行う。つまり、被写体像動きベクトル検出回路11
6はエリアセンサ13により被写体像を所定のフレーム
レートで順次取り込むとともに、取り込んだ被写体画像
から被写体像の動き検出処理を行う。この際、スポーツ
モードであることから被写体認識処理は被写体が何であ
るかというのではなく、被写体の動きを検出するのに適
したアルゴリズムで実行される。動き検出については詳
細は後述する。次にステップ#115へ進み、CPU1
01はこの結果を被写像動き検出回路116より認識情
報処理部101aに取り込み、さらにぶれ検出センサ1
6とぶれ検出回路111にてカメラの手ぶれによる角速
度を実際のぶれ量に変換された情報を認識情報処理部1
01aに取り込む。これにより、認識情報処理部101
aは前記被写体動きベクトルぶれ検出回路116にて得
られた被写体画像の動きベクトル情報から、ぶれ検出回
路111にて得られた手ぶれ情報を差し引き、実際の被
写体の動き量を算出する。これは、前者の被写体像の動
きベクトルは撮影者の手ぶれ量も含んで検出されるため
である。こうして得られた被写体の動き検出結果に応じ
てそのシーンにあったAE制御やAF動作の制御内容に
ついて決定する。If the mode is the sports mode, the process proceeds to step # 111 via step # 107, and the subject image motion vector detecting circuit 116 performs a process of detecting the motion of the subject image. That is, the subject image motion vector detection circuit 11
Numeral 6 sequentially captures the subject image at a predetermined frame rate by the area sensor 13 and performs a motion detection process of the subject image from the captured subject image. At this time, since the mode is the sport mode, the subject recognition processing is executed by an algorithm suitable for detecting the motion of the subject, not by what the subject is. The details of the motion detection will be described later. Next, the process proceeds to step # 115, where the CPU 1
01 fetches the result into the recognition information processing unit 101a from the image movement detecting circuit 116,
6. The information processing unit 1 recognizes information obtained by converting the angular velocity due to camera shake into an actual shake amount by the shake detection circuit 111.
01a. Thereby, the recognition information processing unit 101
“a” subtracts the camera shake information obtained by the blur detection circuit 111 from the motion vector information of the subject image obtained by the subject motion vector blur detection circuit 116 to calculate the actual motion amount of the subject. This is because the former motion vector of the subject image is detected including the camera shake amount of the photographer. The control content of the AE control and the AF operation corresponding to the scene is determined according to the obtained motion detection result of the subject.
【0051】例えば、AEは、被写体の動き量に応じて
被写体ぶれを起こさないシャッタスピードに自動設定さ
れるシャッタスピード優先AEとなり、AFは、常にデ
ィフォーカス検出を行い、それに合わせてピントを連続
的に合わせていくサーボモードに設定するだけでなく、
被写体の動く方向に応じて焦点検出点を乗り移らせる、
いわゆる追尾モードを実行するように設定する。これ
は、スポーツモードにおいては動きのある被写体を最重
点な対象として補足していこうというものである。For example, AE is a shutter speed priority AE that is automatically set to a shutter speed that does not cause subject blur according to the amount of movement of the subject, and AF always performs defocus detection and focuses continuously in accordance with it. In addition to setting the servo mode to match
Move the focus detection point according to the moving direction of the subject,
It is set to execute a so-called tracking mode. This is to supplement a moving subject in the sports mode as a top priority target.
【0052】このように、従来のカメラであればスポー
ツモードを選択しても絞りとシャッタスピードの組み合
わせが標準のAEプログラムよりも高速シャッタ秒時側
にセットされたシャッタスピード優先的な露出プログラ
ムに一律に設定され、AFモードもサーボモードに設定
するだけであったが、上記のように動体撮影の際の被写
体に合わせて、より一層カメラの制御を最適化できるも
のである。As described above, in the conventional camera, even if the sports mode is selected, the combination of the aperture and the shutter speed is set to the shutter speed priority exposure program which is set to the higher shutter speed side than the standard AE program. Although the AF mode is set uniformly and the AF mode is merely set to the servo mode, the control of the camera can be further optimized according to the subject at the time of moving object shooting as described above.
【0053】以上のようにしてステップ#112〜#1
15の各撮影モードに対応した認識情報処理によりAE
制御やAF動作の制御内容について決定されると、実際
にこの決定された制御内容に沿ってカメラが制御される
ことになる。As described above, steps # 112 to # 1
AE by recognition information processing corresponding to each of the 15 shooting modes
When the control contents of the control and the AF operation are determined, the camera is actually controlled in accordance with the determined control contents.
【0054】上記ステップ#112〜#115のいずれ
かが実行されると次にステップ#116に進み、焦点検
出用ラインセンサ66の出力を取り込み、各焦点検出点
のディフォーカス量を算出する。そして、上記ステップ
#112〜#115で決定された制御内容に沿って最終
的にピントを合わせるべくディフォーカス量を算出す
る。そして、ステップ#117に進み、CPU101は
レンズ制御回路104に信号を送ってフォーカスレンズ
1aを該ディフォーカス量に応じて所定量だけ駆動さ
せ、レンズの焦点調節を行う。また、ワンショトかサー
ボかのいわゆるAFモードも設定する。次にステップ#
118にて、レンズ位置検出回路112からレンズ位置
情報として焦点距離情報と被写体距離情報を取り込む。
次にステップ#119に進み、CPU101は測光回路
102に測光を行わせる。そして全測光領域の輝度を検
出するとともに、上記ステップ#112〜#115で決
定された制御内容にそって、特定領域の重み付けや露出
補正をかける測光演算を行わせ、CPU101はこれを
取り込む。When any of steps # 112 to # 115 is executed, the process proceeds to step # 116, where the output of the focus detection line sensor 66 is fetched, and the defocus amount at each focus detection point is calculated. Then, the defocus amount is calculated in order to finally bring the subject into focus according to the control contents determined in steps # 112 to # 115. Then, proceeding to step # 117, the CPU 101 sends a signal to the lens control circuit 104 to drive the focus lens 1a by a predetermined amount according to the defocus amount, and adjusts the focus of the lens. Also, a so-called AF mode of one shot or servo is set. Then step #
At 118, focal length information and subject distance information are fetched from the lens position detection circuit 112 as lens position information.
Next, proceeding to step # 119, the CPU 101 causes the photometric circuit 102 to perform photometry. Then, the CPU 101 detects the luminance of the entire photometry area, performs a photometry operation for weighting the specific area and performs exposure correction in accordance with the control contents determined in steps # 112 to # 115, and the CPU 101 takes in the photometry calculation.
【0055】次にステップ#120では、CPU101
は、ぶれ検出センサ16を駆動し、ぶれ検出回路111
にて実際のぶれ量に変換された情報を撮影モード設定回
路101aに取り込む。また、前記実際のぶれ量に変換
された情報は手ぶれ補正回路110にも送られており、
ここで実際に手ぶれの補正量に相当するシフトレンズの
駆動量を算出され、CPU101はこれも取り込む。次
にステップ#121にて、CPU101はシフトレンズ
駆動量をもとにレンズ制御回路104に制御情報を送
り、シフトレンズ駆動装置38を介してぶれ補正レンズ
1bを制御し、手ぶれ補正を行う。Next, at step # 120, the CPU 101
Drives the shake detection sensor 16 and the shake detection circuit 111
The information converted into the actual blur amount is taken into the photographing mode setting circuit 101a. The information converted into the actual blur amount is also sent to the camera shake correction circuit 110,
Here, the driving amount of the shift lens corresponding to the actual amount of camera shake correction is calculated, and the CPU 101 also takes in the driving amount. Next, in step # 121, the CPU 101 sends control information to the lens control circuit 104 based on the shift lens driving amount, controls the shake correction lens 1b via the shift lens driving device 38, and performs camera shake correction.
【0056】次にステップ#122にて、上記ステップ
#119にて得られた測光値と設定された撮影モードを
もとに決定された露出値、すなわちシャッタ秒時と絞り
値をLCD駆動回路107がモニター用LCD42に表
示する。続くステップ#123では、上記ステップ#1
12〜#115で決定された制御内容にそってストロボ
撮影を必要とする状況であるかを判定し、必要であれば
ステップ#124にて内臓ストロボ15をポップアップ
させる。Next, in step # 122, the exposure value determined based on the photometric value obtained in step # 119 and the set photographing mode, that is, the shutter speed and the aperture value, are stored in the LCD drive circuit 107. Is displayed on the monitor LCD 42. In the following step # 123, the above step # 1
It is determined whether or not the situation requires flash photography in accordance with the control contents determined in steps 12 to # 115. If necessary, the built-in flash 15 is popped up in step # 124.
【0057】次のステップ#125では、レリーズ釦4
1の第二ストロークでONするスイッチSW2がONし
ているかを検出し、OFFしていればステップ#102
に戻り、前述の動作を繰り返す。一方、ONしていれば
ステップ#126に進み、カメラのレリーズシーケンス
を実行する。具体的には、まずCPU101はモータ制
御回路109を介してモータM2に通電して主ミラー2
をアップさせ、レンズ制御回路103を介して絞り駆動
装置31を駆動し、所定の開口まで絞り込む。次に、シ
ャッタ制御回路108にて所定のシャッタ秒時でシャッ
タを走行させ、必要であれば先幕が走行完了した時点
で、ストロボ制御回路105を介して内臓ストロボ15
を発光させ、画像記録部材5への露光を終了させる。そ
の後、モータM2に再度通電し、ミラーダウン,シャッ
タチャージを行うとともにモータM1にも通電して、フ
ィルムの駒送りを行い、一連のレリーズシーケンスが終
了する。In the next step # 125, the release button 4
It is detected whether the switch SW2, which is turned on in the second stroke of No. 1, is turned on.
And the above operation is repeated. On the other hand, if it is ON, the flow advances to step # 126 to execute the camera release sequence. Specifically, first, the CPU 101 supplies power to the motor M2 via the motor control
And drives the aperture driving device 31 via the lens control circuit 103 to stop down to a predetermined aperture. Next, the shutter is driven at a predetermined shutter time by the shutter control circuit 108, and if necessary, at the time when the front curtain has been driven, the built-in flash 15 is transmitted via the flash control circuit 105.
Is emitted, and the exposure to the image recording member 5 is completed. Thereafter, the motor M2 is energized again to perform mirror down and shutter charging, and is also energized to the motor M1 to feed the film frame, thereby completing a series of release sequences.
【0058】また、銀塩フィルムのカメラであれば、こ
の給送中に、ステップ#108〜#111の被写体認識
動作と、上記ステップ#112〜#115の認識情報処
理で得られた被写体情報の磁気書き込みを行う。なお、
銀塩フィルム以外のEEPROM,フラッシュメモリな
どの半導体メモリや、MO,DVD-ROM などの光記録手段
や、その他リムーバルな記録メデアにおいては、スイッ
チSW2がONした直後に記録しても良いし、画像の記
録もフィルムでなく電子撮像素子であれば撮影画像の記
録の終了後でも構わない。In the case of a silver halide film camera, during the feeding, the object recognition operation of steps # 108 to # 111 and the object information obtained by the recognition information processing of steps # 112 to # 115 are performed. Perform magnetic writing. In addition,
In semiconductor memories other than silver halide films, such as EEPROM and flash memory, optical recording means such as MO and DVD-ROM, and other removable recording media, recording may be performed immediately after the switch SW2 is turned on. The recording of the photographed image may be performed after the recording of the photographed image is completed, as long as it is not a film but an electronic image sensor.
【0059】以上説明したように、この実施の第1の形
態においては、選択された撮影モードに応じて被写体認
識(被写体の動き検知も含める)を行い、かつそれぞれ
のモードの特徴に応じた認識処理を行っている。As described above, in the first embodiment, the object recognition (including the motion detection of the object) is performed in accordance with the selected photographing mode, and the recognition is performed in accordance with the characteristics of each mode. Processing is in progress.
【0060】次に、図4のステップ#108〜#111
の各撮影モードでの被写体認識動作について、図6〜図
11を用いて詳述する。Next, steps # 108 to # 111 in FIG.
The object recognition operation in each shooting mode will be described in detail with reference to FIGS.
【0061】図6は、ポートレイトモードに設定されて
いる時の被写体認識アルゴリズムである、ステップ#1
08での顔認識を行うフローチャートである。FIG. 6 shows an object recognition algorithm when the portrait mode is set. Step # 1
It is a flowchart which performs face recognition in 08.
【0062】この動作がスタートすると、被写体認識回
路115はステップ#201にてEEPROM101b
から顔認識アルゴリズムに用いる各種パラメータを読み
込み、不図示のメモリの所定のアドレスに格納する。な
お、この認識アルゴリズムに用いるパラメータについて
は、他認識アルゴリズムと合わせてまとめて図7に示し
ている。次にステップ#202に進み、処理過程で発生
する変数の初期化を行う。次いでステップ#203に進
み、顔認識を行う領域の初期設定を行う。ここではポー
トレイトモードである為、被写体はほぼ中央およびその
近傍にあるもの、画面内の上部にある場合がほとんどで
ある。特にカメラの姿勢によって、例えば縦位置撮影で
は画面上部の割合はかなり高くなる。そこで、画面内の
上側領域を多く含む約50%の領域を初期の認識対象領
域として限定するようにパラメータを設定している。When this operation starts, the object recognizing circuit 115 determines in step # 201 that the EEPROM 101b
The various parameters used for the face recognition algorithm are read from the memory and stored in a predetermined address of a memory (not shown). The parameters used for this recognition algorithm are shown together with other recognition algorithms in FIG. Next, the process proceeds to step # 202, in which variables generated in the process are initialized. Next, the process proceeds to step # 203, in which an initial setting of an area for performing face recognition is performed. In this case, since the portrait mode is set, the subject is almost at the center and in the vicinity thereof, and in most cases is located at the upper part of the screen. In particular, depending on the posture of the camera, for example, in vertical position shooting, the ratio of the upper part of the screen is considerably high. Therefore, the parameters are set so that about 50% of the area including the upper area in the screen is limited as the initial recognition target area.
【0063】次にステップ#204に進み、上記ステッ
プ#203で限定された領域のセンサの予備蓄積を行っ
たのち、数画素単位でまとめたブロック単位で読み出
す。次にステップ#205に進み、各ブロックの輝度が
低輝度,中輝度,高輝度かを所定の閾値と比較した上
で、比較的低輝度のブロック領域と中輝度の領域が隣接
するブロック領域とその周辺領域のみを顔認識を行う領
域として更に限定する。これは、人の顔の部分は概ね相
対的に中輝度の領域であり、目や髪の毛が概ね低輝度の
領域であり、背景には概ね高輝度の領域を含んでいる事
によるものである。このように2段階で認識処理を行う
領域を限定する事で、認識の処理負荷をかなり軽くして
いる。この閾値はパラメータとしてEEPROM101
bに記憶されており、上記ステップ#201において読
み込まれたものである。Next, the process proceeds to step # 204, where the sensors are preliminarily stored in the limited area in step # 203, and then read out in blocks of several pixels. Next, the process proceeds to step # 205, where it is determined whether the luminance of each block is low, medium, or high with a predetermined threshold. Only the surrounding area is further limited as an area for performing face recognition. This is because the face portion of a person is a region of relatively medium luminance, the eyes and hair are regions of low luminance, and the background includes a region of high luminance. By limiting the area in which the recognition processing is performed in two stages, the processing load of the recognition is considerably reduced. This threshold is used as a parameter in the EEPROM 101.
b and read in step # 201.
【0064】次にステップ#206に進み、顔認識を行
うべくエリアセンサ13に蓄積動作を行わせ、顔認識を
行う領域の被写体画像の読み込み行う。そして、次のス
テップ#207にて、読み込まれたエリアセンサ13の
各画素のR,G,Bの値から明度,色相,彩度,色度,
色差といった色の特徴量を求める。ここで求める特徴量
は、次のステップで肌色領域を判定すべく色空間での特
徴量を求める事になる。次にステップ#208に進み、
これらの色の特徴量が予め定めた肌色の範囲内に入って
いれば対象画素が肌色であると判定し、肌色領域を抽出
する。ここで肌色とみなす色の領域はパラメータに設定
されており、例えば測光センサ10でフリッカーを検知
していれば、蛍光燈と判断して肌色領域のパラメータを
変化させたり、輝度そのものによって変化させて、光源
が変わっても肌色抽出が行えるようにしている。Next, proceeding to step # 206, the area sensor 13 performs an accumulation operation to perform face recognition, and reads an object image in an area where face recognition is performed. Then, in the next step # 207, the brightness, hue, saturation, chromaticity, and brightness are calculated from the read R, G, and B values of each pixel of the area sensor 13.
A color feature amount such as a color difference is obtained. The feature amount to be obtained here is to determine a feature amount in a color space in order to determine a skin color area in the next step. Next, proceed to step # 208,
If the feature values of these colors fall within a predetermined skin color range, the target pixel is determined to be a skin color, and a skin color region is extracted. Here, the area of the color regarded as a flesh color is set as a parameter. For example, if flicker is detected by the photometric sensor 10, it is determined as a fluorescent light and the parameters of the flesh color area are changed, or the flicker is changed by the luminance itself. In addition, even if the light source changes, the skin color can be extracted.
【0065】次にステップ#209に進み、肌色と判定
された画素領域とその周辺領域からなる画像に対してエ
ッジ検出処理を施す。エッジ検出処理としては幾つかの
手法があるが、ここでは2階差分に基づく方法で行う。
2階差分は連続空間上で2次微分に相当し、代表的に下
記のように表される。Then, the process proceeds to a step # 209, wherein an edge detection process is performed on the image composed of the pixel region determined to be flesh color and its peripheral region. There are several methods for the edge detection process, but in this case, it is performed by a method based on the second-order difference.
The second order difference is equivalent to a second derivative on a continuous space, and is typically represented as follows.
【0066】 ▽2 fij=fi+1,j+fi-1,j+fi,j+1+fi,j-1−4*fi,j ・・・・ (1) なお、fij は第i行、第j列の画素出力値(明度)を表
し、▽2 fij はfij のラプラシアン(2次微分)を表す
ものとする。▽ 2 f ij = f i + 1, j + f i-1, j + f i, j + 1 + f i, j-1 -4 * f i, j (1) where f ij Represents the pixel output value (lightness) of the i-th row and j-th column, and ▽ 2 f ij represents the Laplacian (second derivative) of f ij .
【0067】これを重み行列で表すと図8のようにな
り、この実施の形態の場合、対象画素を中心としてその
周囲8画素を対象とした8近傍ラプラシアンを演算する
ものである。そして、この値が所定の閾値よりも大きけ
れば対象画素をエッジ画素として2値化する。このよう
に、2階差分を行ってエッジを検出すると差分出力のゼ
ロクロス点を求める事になり、鋭いエッジでも緩やかな
エッジでもエッジ強度に影響されずらく、エッジが検出
しやすくなるが、反面ノイズに対して敏感になってい
る。しかし、本アルゴリズムでは肌色検出でかなり対象
領域が限定される為、このような手法が効果的である。This is represented by a weight matrix as shown in FIG. 8. In this embodiment, eight neighboring Laplacians are calculated centering on a target pixel and surrounding eight pixels. If this value is larger than a predetermined threshold, binarization is performed using the target pixel as an edge pixel. As described above, when the edge is detected by performing the second-order difference, the zero-cross point of the difference output is obtained. Thus, even a sharp edge or a gentle edge is hardly affected by the edge strength, and the edge is easily detected. Be sensitive to However, in the present algorithm, the target region is considerably limited by skin color detection, and thus such a method is effective.
【0068】次にステップ#210に進み、顔であるか
の判定の為のマッチング処理を行う。ここでは入力画像
のなかである部分画像(テンプレート)を動かしマッチ
するところを検出するテンプレートマッチングを用いる
ものとする。まず、大きさと長軸と短軸の比率の異なる
複数の楕円の顔のテンプレートを作成する。顔の大きさ
のしきい値としては画面の中で誰であるか充分判り、人
物中心の写真であると思われる程度(例えば全身が画面
の1/2程度)の大きさとしておく。これらのテンプレ
ートはあらかじめ作成しておき、図示しないメモリに記
憶させておいても良い。顔テンプレートは楕円で2値化
されたもので、実際の顔の輪郭とのマッチング度を上げ
るためにテンプレートの輪郭も数画素の幅を持たせてい
る。さらにマッチング処理を続けて上記ステップ#20
9で得られた顔候補のエッジ画像と顔テンプレートとの
マッチング度を求める。マッチング度を求める測度とし
ていくつかのものがあるが、例えば顔候補のエッジ画像
をf(x,y)、テンプレートをt(x,y)、Rはテンプレートの
全域とすると ∬R(f-t )2 dxdy ……(2) で算出される二乗誤差にて判定するものとする。このよ
うな方法で数種類の顔テンプレートをを用いてマッチン
グ処理を行い、最もよく一致するテンプレートを対象画
素に対して求める。Next, the process proceeds to step # 210, where a matching process for determining whether the face is a face is performed. Here, it is assumed that template matching is used, in which a partial image (template) in the input image is moved and a matching position is detected. First, a plurality of elliptical face templates having different sizes and different ratios of the major axis and the minor axis are created. The threshold of the size of the face is set to such a size that the user is sufficiently recognized on the screen and is considered to be a photograph centered on a person (for example, the whole body is about の of the screen). These templates may be created in advance and stored in a memory (not shown). The face template is binarized by an ellipse, and the template outline has a width of several pixels in order to increase the matching degree with the actual face outline. Further, the matching process is continued and the above step # 20 is performed.
The degree of matching between the edge image of the face candidate obtained in step 9 and the face template is determined. There are some things as a measure for determining the degree of matching, for example, an edge image f of the face candidate (x, y), template t (x, y), ∬ and R is the entire area of the template R (ft) 2 dxdy... (2) A matching process is performed using several types of face templates in this manner, and a template that best matches the target pixel is obtained.
【0069】次にステップ#211に進み、算出した二
乗誤差の値があらかじめ定めていた閾値より小さけれ
ば、対象画素を中心として最もよく一致する顔テンプレ
ートでか囲まれる領域を顔領域であると判定してステッ
プ#212に進む。そして、このステップ#212で
は、顔領域と判定された顔領域の数と大きさを求めてこ
れを出力し、図4のステップ#108の顔認識処理が終
了することなる。Next, proceeding to step # 211, if the calculated squared error value is smaller than a predetermined threshold value, it is determined that the area surrounded by the face template that best matches the target pixel is the face area. Then, the process proceeds to step # 212. Then, in step # 212, the number and size of the face area determined as the face area are obtained and output, and the face recognition processing in step # 108 in FIG. 4 ends.
【0070】また、上記ステップ#211で顔と判定さ
れる領域がなかった場合はステップ#213に進み、今
まで行ってきた顔認識の回数を判定する。所定の回数よ
り少なければステップ#214に進み、認識アルゴリズ
ムのパラメータを前回の検出とは異ならせて再度認識処
理行わせるべくパラメータを変更する。例えば、認識領
域の限定範囲を広げる、肌色特徴量の幅を広げる、エッ
ジ検出のしきい値を変更するなどを行い、ステップ#2
02に進み、新たな認識パラメータで顔認識処理を行
う。If there is no area determined to be a face in step # 211, the flow advances to step # 213 to determine the number of face recognition operations performed so far. If the number is less than the predetermined number, the process proceeds to step # 214, and the parameters of the recognition algorithm are changed so as to be different from the previous detection and to perform the recognition process again. For example, the limited range of the recognition area is widened, the width of the flesh color feature amount is widened, and the threshold value of the edge detection is changed.
In step 02, the face recognition process is performed using the new recognition parameters.
【0071】また、ステップ#213にて既に所定回数
の顔認識を実行している場合は、被写体にポートレイト
モードとしてふさわしい被写体ではなかったと判定し
て、カメラの制御モードをグリーンモードに自動的に設
定して、図4のステップ#116に進む。グリーンモー
ドはいわゆる公知の「カメラお任せモード」で、図2の
43bに示される撮影モードと同じ設定であり、ごく一
般的な撮影に適した制御モードに設定される図9は、風
景モードに設定されている時の被写体認識アルゴリズム
である、図4のステップ#109でのシーン認識を行う
フローチャートである。If face recognition has been performed a predetermined number of times in step # 213, it is determined that the subject is not suitable for portrait mode, and the camera control mode is automatically changed to green mode. After setting, the process proceeds to step # 116 in FIG. The green mode is a so-called "camera entrusting mode", which is the same setting as the shooting mode shown at 43b in FIG. 2, and which is set to a control mode suitable for a very general shooting. FIG. 5 is a flowchart illustrating a scene recognition algorithm in step # 109 in FIG. 4, which is a subject recognition algorithm when set.
【0072】この動作がスタートすると、被写体認識回
路115はステップ#301にてEEPROM101b
からシーン認識アルゴリズムに用いる各種パラメータを
読み込み、不図示のメモリの所定のアドレスに格納す
る。なお、前述と同じくこの認識アルゴリズムに用いる
パラメータについては、まとめて図7に示している。次
にステップ#302に進み、処理過程で発生する変数の
初期化を行う。そして、次のステップ#303にて、シ
ーン認識を行う領域の初期設定を行う。ここでは風景モ
ードである為、特に認識領域の限定は行わずファインダ
で観察できるほぼ全領域を対象とすることになる。When this operation starts, the object recognizing circuit 115 determines in step # 301 that the EEPROM 101b
, Various parameters used for the scene recognition algorithm are read and stored at predetermined addresses in a memory (not shown). Note that the parameters used in this recognition algorithm are collectively shown in FIG. 7 as described above. Next, the process proceeds to step # 302, where variables generated in the process are initialized. Then, in the next step # 303, an initial setting of an area for performing scene recognition is performed. Here, since the mode is the landscape mode, the recognition area is not particularly limited, and almost the entire area that can be observed with the viewfinder is targeted.
【0073】次にステップ#304に進み、上記ステッ
プ#303で限定された領域のセンサの予備蓄積を行っ
たのち、数画素単位でまとめたブロック単位で読み出
す。次いでステップ#305にて、各ブロックの輝度が
低輝度,中輝度,高輝度かを所定の閾値と比較するが、
風景モードにおいては低輝度から高輝度まで被写体シー
ンが及んでいるため、この輝度領域による限定をかける
ことはなく、従ってこのステップを介しても特に限定し
ないようにパラメータを設定している。次のステップ#
306では、シーン認識を行うべくエリアセンサ13に
蓄積動作を行わせ、シーン認識を行う領域の被写体画像
の読み込み行う。そして、次のステップ#307にて、
読み込まれたエリアセンサ13の各画素のR,G,Bの
値から明度,色相,彩度,色度,色差といった色の特徴
量を求める。ここで求める特徴量は、次のステップで自
然色領域を判定すべく色空間での特徴量を求める事にな
る。次にステップ#308に進み、これらの色の特徴量
が前記の予め定めた色の範囲内に入っていれば対象画素
が自然色であると判定し、色領域を抽出する。ここで自
然色とみなす色の領域はパラメータに設定されており、
例えばここでは特に森林風景を抽出すべく緑から深緑の
領域や空を抽出すべく青の領域を判定するようにパラメ
ータを設定する。Next, the process proceeds to step # 304, where the sensors are preliminarily stored in the limited area in step # 303, and then read out in blocks of several pixels. Next, in step # 305, whether the luminance of each block is low, medium, or high is compared with a predetermined threshold value.
In the landscape mode, since the subject scene extends from low luminance to high luminance, there is no limitation based on this luminance area, and therefore, parameters are set so that there is no particular limitation even through this step. Next step #
In step 306, the area sensor 13 performs an accumulation operation to perform scene recognition, and reads a subject image in an area where scene recognition is performed. Then, in the next step # 307,
From the read R, G, and B values of each pixel of the area sensor 13, color feature amounts such as lightness, hue, saturation, chromaticity, and color difference are obtained. The feature amount to be determined here is to determine a feature amount in a color space in order to determine a natural color area in the next step. Next, proceeding to step # 308, if the feature amounts of these colors fall within the predetermined color range, it is determined that the target pixel is a natural color, and a color region is extracted. Here, the area of the color considered as a natural color is set in the parameter,
For example, here, the parameters are set so as to determine a region from green to dark green to extract a forest scenery and a blue region to extract the sky.
【0074】次にステップ#309に進み、自然色と判
定された画素領域とその周辺領域からなる画像に対して
エッジ検出処理を施す。エッジ検出処理としては幾つか
の手法があるか、ここでは画像の勾配を利用してエッジ
の検出を行い、よく知られている方法としてロバーツの
勾配を用いる。Then, the process proceeds to a step # 309, wherein an edge detection process is performed on an image composed of the pixel region determined to be a natural color and its peripheral region. There are several methods for edge detection. Here, edge detection is performed using the gradient of an image, and the Roberts gradient is used as a well-known method.
【0075】 [(fi,j−fi+1,j+1)2 +(fi,j+1−fi+1,j)2 ]1/2 ・・・・(3) 定義から判るように、ロバーツの勾配は斜め方向のエッ
ジ検出に適しており、これは風景のような自然シーンに
おいても適当なものである。そして、この値が所定の閾
値よりも大きければ対象画素をエッジ画素として2値化
する。閾値としての勾配は比較的緩めにし、なだらかな
変化においても検出するようにパラメータを設定してあ
る。[(F i, j −f i + 1, j + 1 ) 2 + (f i, j + 1 −f i + 1, j ) 2 ] 1/2 ... (3) As can be seen, the Roberts gradient is suitable for oblique edge detection, which is also appropriate in natural scenes such as landscapes. If this value is larger than a predetermined threshold, binarization is performed using the target pixel as an edge pixel. The gradient as the threshold is set relatively gentle, and parameters are set so as to detect even a gentle change.
【0076】次にステップ#310に進み、シーンを認
識する領域抽出処理を行う。これもいくつかの手法があ
るが連結成分処理を行うものとする。エッジ処理によっ
て作られた2値化画像のなかには雑音成分が含まれてい
ることが多い。これら雑音的な小さい成分,突起,穴な
どは図形融合によって処理できる。あるいは、各連結成
分の特徴量(面積や幅)を測り、その値がある閾値以下
の成分を消去するようにして連結成分を作っていき、シ
ーンとして特徴のある領域を抽出する。なお更に細線化
処理によって線図形に変換して輪郭線抽出を行っても良
い。Then, the process proceeds to a step # 310, wherein a region extracting process for recognizing a scene is performed. Although there are several methods, it is assumed that connected component processing is performed. A binarized image created by edge processing often contains a noise component. These noise-like small components, protrusions, holes, etc. can be processed by graphic fusion. Alternatively, a characteristic amount (area or width) of each connected component is measured, and a connected component is created by eliminating components whose values are equal to or less than a certain threshold, and a characteristic region is extracted as a scene. Note that the contour may be extracted by further converting to a line figure by thinning processing.
【0077】次にステップ#311に進み、抽出された
領域があらかじめ定めていた閾値(ここでは画面にしめ
る大きさが5%以上)より大きければ、風景シーンとな
る領域があると判定してステップ#312に進む。ステ
ップ#312では、シーン領域と判定された領域(ここ
では森林と思われる領域、空と思われる領域)の画面内
のしめる位置を求めてこれを出力し、図4のステップ#
109のシーン認識処理が終了することなる。Next, the process proceeds to step # 311. If the extracted region is larger than a predetermined threshold value (here, the size to be displayed on the screen is 5% or more), it is determined that there is a region serving as a landscape scene, and step # 311 is performed. Proceed to 312. In step # 312, the position of the area determined to be the scene area (here, the area considered to be a forest, the area considered to be the sky) is determined on the screen, and is output.
The scene recognition processing of 109 is completed.
【0078】また、上記ステップ#311で風景シーン
と判定される領域がなかった場合はステップ#313に
進み、今まで行ってきたシーン認識の回数を判定し、所
定の回数より少なければステップ#314に進み、認識
アルゴリズムのパラメータを前回の検出とは異ならせて
再度認識処理行わせるべくパラメータを変更する。例え
ば自然色特徴量の幅を広げる、エッジ検出の閾値を変更
するなどを行い、ステップ#302に進み、新たな認識
パラメータでシーン認識処理を再度行う。If there is no area determined to be a scenery scene in step # 311, the flow advances to step # 313 to determine the number of scene recognition operations performed so far. The parameters are changed so that the parameters of the recognition algorithm are different from those of the previous detection and the recognition processing is performed again. For example, the width of the natural color feature amount is increased, the threshold value of the edge detection is changed, and the like, and the process proceeds to step # 302, where the scene recognition processing is performed again with the new recognition parameters.
【0079】また、上記ステップ#313にて既に所定
回数のシーン認識を実行している場合は、被写体に風景
モードとしてふさわしい被写体ではなかったと判定し
て、ここでもカメラの制御モードをグリーンモードに自
動的に設定して、図4のステップ#116に進む。If a predetermined number of scenes have already been recognized in step # 313, it is determined that the subject is not suitable for the landscape mode, and the camera control mode is automatically changed to the green mode. Then, the process proceeds to step # 116 in FIG.
【0080】このように、風景シーンの認識アルゴリズ
ムは前述の顔認識アルゴリズムに対して認識アルゴリズ
ムそのものをシーン検出にふさわしいものに変更した
り、また同じアルゴリズムでもパラメータを変更して認
識処理を行うようにして認識の精度を高めている。As described above, the scenery scene recognition algorithm is different from the face recognition algorithm described above in that the recognition algorithm itself is changed to one suitable for scene detection, and the same algorithm is used to change the parameters to perform recognition processing. To increase the accuracy of recognition.
【0081】なお領域抽出の方法として、領域形成法
(Region Growing)を行うとでも良い。これは小さい領
域の集合に分割した初期分割からスタートし、隣接領域
が併合しても一様な領域と見なせるかどうかを判定しな
がら併合処理を繰り返すもので、一様性の尺度としては
領域境界部での濃度値の不連続性、領域内の濃度値の分
布範囲、平均濃度からの最大偏差などがある。しかしな
がら認識アルゴリズムとしては精度は上がるが、演算能
力としてかなりの負荷となってしまう。As a method of region extraction, a region forming method (Region Growing) may be performed. This starts from the initial division into small sets of areas, and repeats the merging process while judging whether or not adjacent areas can be regarded as a uniform area even if they are merged. There is a discontinuity of the density value in the part, a distribution range of the density value in the area, a maximum deviation from the average density, and the like. However, although the accuracy is improved as a recognition algorithm, it imposes a considerable load on computational power.
【0082】図10は、接写モードに設定されている時
の被写体認識アルゴリズムである、図4のステップ#1
10での物体認識を行うフローチャートである。FIG. 10 shows an object recognition algorithm when the close-up mode is set.
It is a flowchart which performs the object recognition in 10.
【0083】この動作がスタートすと、被写体認識回路
115はステップ#401にてEEPROMから物体認
識アルゴリズムに用いる各種パラメータを読み込み、不
図示のメモリの所定のアドレスに格納する。次にステッ
プ#402に進み、処理過程で発生する変数の初期化を
行う。次いでステップ#403にて、シーン認識を行う
領域の初期設定を行う。ここでは接写モードである為、
被写体はほぼ中央部にあるものがほとんどであるが画面
に占める割合はかなり大きい。そこで、画面内の中心約
70%の領域を初期の認識対象領域として限定するよう
にパラメータを設定している。When this operation is started, the object recognizing circuit 115 reads various parameters used for the object recognizing algorithm from the EEPROM in step # 401 and stores them at predetermined addresses in a memory (not shown). Next, the process proceeds to step # 402, in which variables generated in the process are initialized. Next, in step # 403, an area for performing scene recognition is initialized. Since it is a close-up mode here,
Most subjects are located almost at the center, but the proportion of the subject on the screen is quite large. Therefore, the parameters are set so as to limit an area of about 70% at the center of the screen as an initial recognition target area.
【0084】次にステップ#404に進み、上記ステッ
プ#403で限定された領域のセンサの予備蓄積を行っ
たのち、数画素単位でまとめたブロック単位で読み出
す。そして、次のステップ#405にて、各ブロックの
輝度が低輝度,中輝度,高輝度かを所定の閾値と比較し
た上で、比較的低中輝度のブロック領域と高輝度の領域
のみを顔認識を行う領域として更に限定する。基本的に
は低輝度領域を排除することになり、これは接写撮影を
行う対象物は輝度を比較すると低い輝度であることはほ
とんどない事から限定したものである。Next, the process proceeds to step # 404, where the sensors are preliminarily stored in the limited area in step # 403, and then read out in blocks of several pixels. Then, in the next step # 405, whether the luminance of each block is low, medium, or high is compared with a predetermined threshold value. The area to be recognized is further limited. Basically, the low-luminance area is excluded, and this is limited because the object to be subjected to close-up photography has almost no low luminance when compared with the luminance.
【0085】次にステップ#406に進み、物体認識を
行うべくエリセンサ13に蓄積動作を行わせ、物体認識
を行う領域の被写体画像の読み込み行う。そして、次の
ステップ#407にて、読み込まれたエリアセンサ13
の各画素のR,G,Bの値から明度,色相,彩度,色
度,色差と言った色の特徴量を求める。ここで求める特
徴量は次のステップで同色領域を判定すべく色空間での
特徴量を求める事になる。次にステップ#308に進
み、これらの色の特徴量が前記の予め定めたいくつかの
種類の色の範囲内に入っているもの同志をそれぞれ対象
画素が同色であると判定し、同色領域を抽出する。ここ
で同色とみなす色の領域はパラメータに設定されてい
る。Next, the process proceeds to step # 406, in which the area sensor 13 performs an accumulation operation to perform object recognition, and reads a subject image in an area where object recognition is performed. Then, in the next step # 407, the read area sensor 13
From the R, G, and B values of each pixel, color feature amounts such as brightness, hue, saturation, chromaticity, and color difference are obtained. In the next step, the feature amount to be obtained in the color space is determined in order to determine the same color area. Next, the process proceeds to step # 308, in which the target pixels are determined to be the same color if the feature amounts of these colors are within the predetermined range of some types of colors, and the same color area is determined. Extract. Here, the area of the color regarded as the same color is set in the parameter.
【0086】次にステップ#409に進み、同色と判定
された画素領域とその周辺領域からなる画像に対してエ
ッジ検出処理を施すが、ここではシーン認識の上記ステ
ップ#309と同じくロバーツの勾配を用いる。そし
て、この値が所定の閾値よりも大きければ対象画素をエ
ッジ画素として2値化する。閾値としての勾配は上記ス
テップ#309に比較してきつめに設定し、ある程度は
っきりした変化において検出するようにパラメータを設
定してある。Next, the process proceeds to step # 409, where an edge detection process is performed on the image composed of the pixel region determined to be the same color and its peripheral region. Here, the Roberts gradient is set in the same manner as in step # 309 for scene recognition. Used. If this value is larger than a predetermined threshold, binarization is performed using the target pixel as an edge pixel. The gradient as the threshold is set tighter than in step # 309, and the parameters are set so as to detect a change that is somewhat clear.
【0087】次にステップ#410に進み、物体を認識
する領域抽出処理を行う。ここではステップ#310と
同じであり、説明を省略する。なお領域抽出の方法とし
て、同色領域を抽出してからエッジ処理(閾値処理)を
行ったが、色の特徴量を抽出し、同色の領域を抽出する
段階で前述の領域形成法(Region Growing)を行うこと
でも良い。Then, the process proceeds to a step # 410, wherein a region extracting process for recognizing the object is performed. Here, it is the same as step # 310, and the description is omitted. As a method of region extraction, edge processing (threshold processing) was performed after extracting the same color region. However, at the stage of extracting the color feature amount and extracting the region of the same color, the above-described region forming method (Region Growing) was used. May be performed.
【0088】次にステップ#411に進み、抽出された
領域があらかじめ定めていた閾値(ここでは画面にしめ
る大きさが10%以上)より大きければ、接写する対象
物の領域があると判定してステップ#412に進む。そ
して、このステップ#412では、接写対象物と判定さ
れた領域の画面内のしめる位置と大きさを求めてこれを
出力する。又合わせて焦点検出回路103から対象領域
のデフォーカス量を複数求め、これよりおおよその奥行
きを検出し出力する。これで図4のステップ#110の
物体認識処理が終了することなる。Next, proceeding to step # 411, if the extracted region is larger than a predetermined threshold value (here, the size to be displayed on the screen is 10% or more), it is determined that there is a region of the object to be photographed in close proximity, and the process proceeds to step # 411. Proceed to # 412. Then, in step # 412, the position and size of the area determined to be the close-up object on the screen are obtained and output. In addition, a plurality of defocus amounts of the target area are obtained from the focus detection circuit 103, and an approximate depth is detected and output from this. This completes the object recognition processing in step # 110 of FIG.
【0089】また、上記ステップ#411で接写対象物
と判定される領域がなかった場合はステップ#413に
進み、今まで行ってきた物体認識の回数を判定し、所定
の回数より少なければステップ#414に進み、認識ア
ルゴリズムのパラメータを前回の検出とは異ならせて再
度認識処理行わせるべくパラメータを変更する。例え
ば、同色と見なす特徴量の幅を広げる、エッジ検出の閾
値を変更するなどを行い、ステップ#402に進み、新
たな認識パラメータで物体認識処理を行う。If there is no area determined to be a close-up object in step # 411, the flow advances to step # 413 to determine the number of times of object recognition performed so far. Proceeding to 414, the parameters of the recognition algorithm are changed so as to be different from the previous detection and to perform the recognition process again. For example, the width of the feature amount regarded as the same color is widened, the threshold value of the edge detection is changed, and the like.
【0090】また、上記ステップ#413にて既に所定
回数の物体認識を実行している場合は、被写体は接写モ
ードとしてふさわしい被写体はなかったと判定して、こ
こでもカメラの制御モードをグリーンモードに自動的に
設定して、図4のステップ#116に進む。If the object recognition has been executed a predetermined number of times in step # 413, it is determined that no subject is suitable for the close-up mode, and the control mode of the camera is automatically changed to the green mode. Then, the process proceeds to step # 116 in FIG.
【0091】このように、接写シーンの認識アルゴリズ
ムは前述のシーン認識アルゴリズムに対してほぼ同じア
ルゴリズムを用いるが、認識のためのパラメータを変更
して認識処理を行うようにして、物体をより精度良く認
識できるように特化している。As described above, the close-up scene recognition algorithm uses almost the same algorithm as the above-described scene recognition algorithm. However, by changing the parameters for recognition and performing the recognition process, the object can be more accurately recognized. Specialized to recognize.
【0092】図11は、スポーツモードに設定されてい
る時の被写体認識アルゴリズムである、図4のステップ
#111での被写体の動き検出を行うフローチャートで
ある。FIG. 11 is a flowchart showing the subject recognition algorithm in step # 111 in FIG. 4, which is the subject recognition algorithm when the sport mode is set.
【0093】この動作がスタートすると、被写体認識回
路115はステップ#501にてEEPROMから動き
検出アルゴリズムに用いる各種パラメータを読み込み、
不図示のメモリの所定のアドレスに格納する。そして、
次のステップ#502にて、処理過程で発生する変数の
初期化を行う。次にステップ#503に進み、シーン認
識を行う領域の初期設定を行う。ここでは接写モードで
ある為、被写体はほぼ中央部にあるものがほとんどであ
る。画面に占める割合はそれほど大きくはないが被写体
がかなり移動するので、ここでは画面内の中心約70%
の領域を初期の認識対象領域として限定するようにパラ
メータを設定している。When this operation starts, the object recognizing circuit 115 reads various parameters used for the motion detection algorithm from the EEPROM in step # 501,
It is stored at a predetermined address in a memory (not shown). And
In the next step # 502, variables generated in the process are initialized. Next, the process proceeds to step # 503, in which an area for performing scene recognition is initialized. In this case, since the mode is the close-up mode, the subject is mostly located almost at the center. Although the proportion of the subject on the screen is not so large, the subject moves considerably.
Are set so as to limit the region as an initial recognition target region.
【0094】次にステップ#504に進み、動き検出を
行うべくエリアセンサ13に蓄積動作を行わせ、動き検
出を行う領域の被写体画像の読み込み行う。ここでは前
述の3アルゴリズムはエリアセンサ13の予備蓄積を行
っていたが、スポーツモードでは検出までの時間を極力
短くしたいため、このステップを省略している。次にス
テップ#505に進み、読み込まれたエリアセンサ13
の各画素のR,G,Bの値から輝度信号成分としてG成
分のみを用いて画像に対してエッジ検出処理を施す。こ
こでも上記ステップ#309と同じくロバーツの勾配を
用いる。そして、この値が所定の閾値よりも大きければ
対象画素をエッジ画素として2値化する。閾値としての
勾配は上記ステップ#309に比較してきつめに設定
し、ある程度はっきりした変化において検出するように
パラメータを設定してある。Next, the process proceeds to step # 504, in which the area sensor 13 performs an accumulation operation to detect a motion, and reads a subject image in an area where the motion is to be detected. Here, in the above three algorithms, preliminary storage of the area sensor 13 is performed, but in the sports mode, this step is omitted because it is desired to minimize the time until detection. Next, the process proceeds to step # 505, where the read area sensor 13 is read.
The edge detection process is performed on the image using only the G component as the luminance signal component from the R, G, and B values of each pixel. Also in this case, the gradient of Roberts is used as in step # 309. If this value is larger than a predetermined threshold, binarization is performed using the target pixel as an edge pixel. The gradient as the threshold is set tighter than in step # 309, and the parameters are set so as to detect a change that is somewhat clear.
【0095】次にステップ#506に進み、検出された
エッジ画像を図示しない所定のメモリに記憶させる。次
いでステップ#507にて、次フレームの画像読み出し
を行う。続くステップ#508では、上記ステップ#5
05と同じように輝度信号成分としてのG成分のみを用
いて画像に対してエッジ検出処理を施す。次にステップ
#509に進み、前フレームのエッジ画像をメモリから
読み出して今回のフレームの画像との相関を演算し、そ
の相関値に基づいて画像の動きを検出する。算出式とし
ては前フレームの画像fi-1(x,y) 、現フレームの画像fi
(x,y) とするとずらし量ξ、ηにおいて min ΣΣ[fi-1(x−ξ、y−η)−fi(fx、y) ]2 …(4) 又は min ΣΣ|fi-1(x−ξ、y−η)−fi(fx、y) | …(4)’ となり、これを求める事となる。Then, the process proceeds to a step # 506, wherein the detected edge image is stored in a predetermined memory (not shown). Next, in step # 507, the image of the next frame is read. In the following step # 508, the above-described step # 5
As in 05, an edge detection process is performed on the image using only the G component as a luminance signal component. Next, in step # 509, the edge image of the previous frame is read from the memory, the correlation with the image of the current frame is calculated, and the motion of the image is detected based on the correlation value. As calculation formula previous frame image f i-1 of the (x, y), the image f i of the current frame
Assuming that (x, y), the shift amount ξ, η is min ΣΣ [f i−1 (x−ξ, y−η) −f i (fx, y)] 2 (4) or min ΣΣ | f i− 1 (x−ξ, y−η) −f i (fx, y) | (4) ′, which is to be obtained.
【0096】具体的には、連続する2フレームの画像を
比較するわけであるが、この比較はメモリに記憶させた
画像データの読み出し位置を一画素づつずらしながら行
う。両者の各画素の差の和を求め、その値を1画素ずら
す毎に異なる領域に記憶していく。各画素の差の和はbi
t 比較を行い、異なるbit の数を数える事で行う。次ラ
イン以降も同様の比較を行い、その際の各画素の差の和
を1ライン目の値が記憶されている領域に加算してい
き、これが相関値となる。More specifically, two consecutive frames of images are compared. This comparison is performed while shifting the reading position of the image data stored in the memory by one pixel. The sum of the difference between the two pixels is obtained, and the value is stored in a different area each time the value is shifted by one pixel. The sum of the differences of each pixel is bi
This is done by comparing t and counting the number of different bits. The same comparison is performed on the next line and thereafter, and the sum of the differences between the pixels at that time is added to the area where the value of the first line is stored, and this becomes the correlation value.
【0097】次にステップ#510に進み、この相関値
が最も小さくなったところを求めて、その領域における
前回からの動きベクトル(動き量)とする。すなわち、
相関値が最小になった際の垂直水平方向にずらした画素
数が垂直水平方向の動き量となる。なおこのような手段
ではなく、水平方向と垂直方向に射影像を作りその相関
値(重心位置の移動量)から動きベクトルを求めても良
い。Then, the process proceeds to a step # 510, where a point where the correlation value becomes the smallest is obtained and is set as a motion vector (motion amount) from the previous time in the area. That is,
The number of pixels shifted in the vertical and horizontal directions when the correlation value becomes minimum is the amount of movement in the vertical and horizontal directions. Instead of such means, projected images may be formed in the horizontal direction and the vertical direction, and the motion vector may be obtained from the correlation value (movement amount of the position of the center of gravity).
【0098】次にステップ#511に進み、動きベクト
ルが所定量よりも大きければステップ#512に進み、
動体被写体があると判定し動きベクトル量を出力する。
これで図4のステップ#111の動き検出処理が終了す
ることなる。Next, proceeding to step # 511, if the motion vector is larger than the predetermined amount, proceeding to step # 512,
It determines that there is a moving subject and outputs a motion vector amount.
This completes the motion detection processing of step # 111 in FIG.
【0099】また、上記ステップ#511で動きベクト
ルが所定量よりも小さければステップ#513へ進み、
スイッチSW2がONしているかを判定し、ONしてい
ればここでもカメラの制御モードをグリーンモードに自
動的に設定して、図4のステップ#116に進む。ON
していなければ502へ戻り、動き検出を繰り返す。If the motion vector is smaller than the predetermined amount in step # 511, the flow advances to step # 513.
It is determined whether the switch SW2 is ON. If the switch SW2 is ON, the control mode of the camera is automatically set to the green mode, and the process proceeds to step # 116 in FIG. ON
If not, the process returns to 502 to repeat the motion detection.
【0100】このように、スポーツモードではどのよう
なものであるかを認識するよりも動体であるかを検出す
る事になるが、その検出アルゴリズムは認識パラメータ
を変更する事によって行われている。As described above, in the sports mode, a moving object is detected rather than recognizing what it is. The detection algorithm is performed by changing a recognition parameter.
【0101】(実施の第2の形態)次に、本発明の実施
の第2の形態について、図12のフローチャートを用い
て説明する。なお、一眼レフカメラの回路構成等は上記
実施の第1の形態と同様であるものとする。(Second Embodiment) Next, a second embodiment of the present invention will be described with reference to the flowchart of FIG. The circuit configuration and the like of the single-lens reflex camera are the same as those in the first embodiment.
【0102】上記実施の第1の形態では、すべての撮影
モードにおいて被写体認識処理を行ったが、カメラに搭
載しうるCPUの限られた演算能力では難しいものがあ
る。そこで、この実施の第2の形態においては、一般的
な撮影の主体である人物を撮影すると思われる撮影モー
ドにおいてのみ被写体認識処理を行うものである。In the first embodiment, the subject recognition processing is performed in all shooting modes. However, there are some difficulties due to the limited arithmetic capacity of the CPU that can be mounted on the camera. Therefore, in the second embodiment, the subject recognition process is performed only in a photographing mode in which a person who is a general photographer is considered to be photographed.
【0103】図12において、ステップ#601にて、
撮影モードダイアル43がLOCKボジションから外さ
れてイメージゾーン43aの何れかの撮影モードが設定
されて電源が供給され、カメラは撮影準備状態となる。
次にステップ#602にて、レリーズ釦41の第一スト
ロークでONするスイッチSW1がONしているかを検
出し、ONしていればステップ#603へ進み、OFF
であればステップ#602の検出を繰り返す。In FIG. 12, in step # 601,
The photographing mode dial 43 is removed from the LOCK position, one of the photographing modes in the image zone 43a is set, power is supplied, and the camera is ready for photographing.
Next, in step # 602, it is detected whether or not the switch SW1 which is turned on in the first stroke of the release button 41 is turned on. If the switch SW1 is turned on, the process proceeds to step # 603 and turned off.
If so, the detection in step # 602 is repeated.
【0104】ステップ#603に進むと、セルフタイマ
設定釦44が押されてセルフタイマモードに設定されて
いるかを設定されているかを判定し、セルフタイマモー
ドであればステップ#609へ進み、ここでは被写体認
識回路115が顔認識処理を行う。つまり、被写体認識
回路115は、エリアセンサ13により被写体像を所定
のフレームレートで順次取り込むとともに、取り込んだ
被写体画像から顔認識処理を行い、被写体像の顔の大き
さ,数を判定する。これは、上記実施の第1の形態のポ
ートレイトモードが設定された時と同じであり、セルフ
タイマ撮影の際はほとんど人物写真である事から強制的
に顔認識処理を行い、セルフタイマ撮影の機能を高める
とともに撮影者の操作性を簡便にしたものである。At step # 603, it is determined whether the self-timer setting button 44 has been pressed and the self-timer mode has been set. If the self-timer mode has been set, the process proceeds to step # 609, where The subject recognition circuit 115 performs face recognition processing. That is, the subject recognition circuit 115 sequentially captures the subject images at the predetermined frame rate by the area sensor 13 and performs face recognition processing on the captured subject images to determine the size and number of faces of the subject images. This is the same as when the portrait mode of the first embodiment is set. When the self-timer shooting is performed, the face recognition processing is forcibly performed because the photograph is almost a person, and the self-timer shooting is performed. The functions are enhanced and the operability of the photographer is simplified.
【0105】また、設定されていなければステップ#6
04に進み、設定した撮影モードが何であるかを読み込
み、ポートレイトモード(#605)か、風景モード
(#606)か、接写モード(#607)か、スポーツ
モード(#608)かのいずれかに進む。If not set, step # 6
The process proceeds to step 04 to read what the set shooting mode is, and to select one of the portrait mode (# 605), the landscape mode (# 606), the close-up mode (# 607), or the sports mode (# 608). Proceed to.
【0106】ポートレイトモードであった場合はステッ
プ#605を介してステップ#609に進み、上記実施
の第1の形態と同じ動作を行う。また、風景モードか、
接写モードか、スポーツモードであれば、ステップ#6
06,#607,#608を介してステップ#611〜
#613で公知の撮影プログラムを設定する。If the mode is the portrait mode, the flow advances to step # 609 via step # 605, and the same operation as in the first embodiment is performed. In landscape mode,
If the mode is the close-up mode or the sports mode, step # 6
Steps # 611 to # 611 through # 06, # 607 and # 608
In step # 613, a known photographing program is set.
【0107】例えば、風景モードであれば、「AEプロ
グラム=開放Fナンバー」と「1/焦点距離」のポイン
トから、「Tv:Av=1:2」の比率で変化するプロ
グラム,「AFモード=ワンショットAF」、「給送モ
ード=1駒撮り」、「測光モード=平均測光」というよ
うな風景モードプログラムをステップ#611で設定す
る。For example, in the case of the landscape mode, a program that changes at the ratio of “Tv: Av = 1: 2” from the point of “AE program = open F number” and “1 / focal length”, “AF mode = A landscape mode program such as "one-shot AF", "feed mode = 1 frame shooting", and "photometry mode = average photometry" is set in step # 611.
【0108】接写モードであれば、「AEプログラム=
被写界深度が深めの絞り優先プログラム」、「AFモー
ド=ワンショットAF」、「給送モード=1駒撮り」、
「測光モード=部分測光」というような接写モードプロ
グラムをステップ#612で設定する。また、スポーツ
モードであれば、「高速側シャッタ秒時側にセットされ
たシャッタースピード優先的露出プログラム」、「AF
モード=サーボAF」、「給送モード=連続撮影」、
「測光モード=中央部重点測光」というようなスポーツ
モードプログラムをステップ#613で設定する。In the close-up mode, "AE program =
Aperture priority program with deeper depth of field "," AF mode = one-shot AF "," feed mode = 1 frame shot ",
A close-up mode program such as "photometry mode = partial photometry" is set in step # 612. In the case of the sports mode, the shutter speed priority exposure program set to the high-speed shutter second side, the AF mode
Mode = servo AF ”,“ feed mode = continuous shooting ”,
A sports mode program such as "photometry mode = center-weighted photometry" is set in step # 613.
【0109】以上のように設定されると、次にステップ
#614に進み、以下のステップ#614〜#625が
実行されるが、これらについては上記実施の第1の形態
における図4のステップ#116〜#127と同様であ
るので説明は省略する。When the settings are made as described above, the process proceeds to step # 614, and the following steps # 614 to # 625 are executed. These are executed in step # 614 of FIG. 4 in the first embodiment. The description is omitted because it is the same as 116 to # 127.
【0110】このように、被写体認識処理を顔認識だけ
に限定し、かつ人物シーンを撮影すると想定できる撮影
モードを選択した時のみ機能させるようにしたので、搭
載するCPUの負荷が減り、より容易に被写体認識をカ
メラに搭載できるとともに、すべての撮影シーンにおい
て被写体認識機能をの効果を発揮は出来ないものの、多
くの撮影シーンで満足の行く結果が引き出せるものとな
っている。As described above, the subject recognition processing is limited to face recognition only, and the function is activated only when the photographing mode in which a person scene can be photographed is selected. In addition to being able to mount the object recognition on the camera and not being able to exert the effect of the object recognition function in all shooting scenes, satisfactory results can be obtained in many shooting scenes.
【0111】なお、セルフモードに限らず公知のリモコ
ン撮影モードにおいても顔認識処理を施すように、この
実施の第2の形態を構成しても良い。また、風景モード
等の撮影モードだけでなく、AFモードがサーボモード
に設定されたり、給送モードが連続撮影モードに設定さ
れた時には被写体認識処理を施さないように、この実施
の第2の形態を構成しても良い。The second embodiment may be configured so that the face recognition process is performed not only in the self mode but also in a known remote control shooting mode. Further, in the second embodiment, not only the shooting mode such as the landscape mode but also the AF mode is set to the servo mode or the feeding mode is set to the continuous shooting mode so that the subject recognition process is not performed. May be configured.
【0112】以上の実施の各形態によれば、ポートレイ
トモード、風景モード、接写モードもしくはスポーツモ
ードの何れの撮影モードが設定されているかに応じて、
被写体認識回路115や被写体像動きベクトル検出回路
116における認識アルゴリズムを変更するようにして
いる(図4のステップ#108〜#111、図12のス
テップ#609)ので、カメラへの認識手段の搭載が容
易なものになり、認識精度や認識スピードを向上させる
ことができ、これによって更に高度なカメラ制御を行な
わせ、操作性の良いカメラを提供する事ができる。According to each of the above embodiments, depending on which photographing mode is set, such as portrait mode, landscape mode, close-up mode, or sports mode,
Since the recognition algorithms in the object recognition circuit 115 and the object image motion vector detection circuit 116 are changed (steps # 108 to # 111 in FIG. 4 and step # 609 in FIG. 12), it is necessary to mount recognition means on the camera. This makes it easy to improve the recognition accuracy and the recognition speed, thereby enabling more advanced camera control and providing a camera with good operability.
【0113】また、設定された撮影モードに応じて、被
写体認識回路115や被写体像動きベクトル検出回路1
16における認識アルゴリズムを構成するパラメータ
(図7参照)を変更しているので、認識アルゴリズムを
複雑にする事なく、撮影モードに応じて精度良く被写体
を認識させることができる。Further, according to the set photographing mode, the subject recognition circuit 115 and the subject image motion vector detection circuit 1
Since the parameters (see FIG. 7) constituting the recognition algorithm in step 16 are changed, the subject can be accurately recognized according to the shooting mode without complicating the recognition algorithm.
【0114】また、セルフモードやポートレイトモード
以外の撮影モードが設定された場合には、前記顔認識ア
ルゴリズムの動作を禁止するようにしているので、より
容易にカメラへの認識手段の搭載を可能として、これに
よって撮影者はシャッタチャンスや画面の構図取りに専
念する事ができ、より良好な写真が撮影できる。When a photographing mode other than the self mode or the portrait mode is set, the operation of the face recognition algorithm is prohibited, so that it is possible to easily mount the recognition means on the camera. As a result, the photographer can concentrate on photo opportunities and composition of the screen, and can take better pictures.
【0115】(発明と実施の形態の対応)上記実施の各
形態において、モードダイヤル43、セルフタイマ設定
釦44が本発明の撮影モード設定手段に相当し、被写体
認識回路115と被写体像動きベクトル検出回路116
が本発明の被写体認識手段に相当し、CPU101(認
識情報処理部101a)が本発明の制御手段に相当す
る。(Correspondence Between the Invention and the Embodiment) In each of the above embodiments, the mode dial 43 and the self-timer setting button 44 correspond to the photographing mode setting means of the present invention, and the object recognition circuit 115 and the object image motion vector detection Circuit 116
Corresponds to subject recognition means of the present invention, and the CPU 101 (recognition information processing unit 101a) corresponds to control means of the present invention.
【0116】なお本発明は、これらの実施の形態の構成
に限定されるものではなく、請求項で示した機能、また
は実施の形態がもつ機能が達成できる構成であれば、ど
のようなものであっても良いことは言うまでもない。The present invention is not limited to the configurations of these embodiments, but may be any configuration that can achieve the functions described in the claims or the functions of the embodiments. Needless to say, there is no problem.
【0117】また本発明は、一眼レフカメラに適用した
例を述べているが、ビデオカメラや電子スティルカメラ
などの種々の形態の撮像装置に対しても適用できるもの
である。Although the present invention has been described with respect to an example in which the present invention is applied to a single-lens reflex camera, the present invention can also be applied to various types of imaging devices such as a video camera and an electronic still camera.
【0118】[0118]
【発明の効果】以上説明したように、請求項1に記載の
発明によれば、被写体認識手段をカメラに搭載すること
を容易すると共に、被写体情報の認識精度や認識スピー
ドを向上させ、操作性の良好な被写体認識機能付きカメ
ラを提供できるものである。As described above, according to the first aspect of the present invention, it is easy to mount the object recognizing means on the camera, and the accuracy and speed of recognizing the object information are improved. A camera with a good subject recognition function.
【0119】また、請求項2に記載の発明によれば、被
写体情報の認識アルゴリズムを複雑にする事なく、撮影
モードに応じて精度良く被写体情報の認識を行うことが
できる被写体認識機能付きカメラを提供できるものであ
る。According to the second aspect of the present invention, there is provided a camera with a subject recognition function capable of accurately recognizing subject information according to a shooting mode without complicating a subject information recognition algorithm. It can be provided.
【0120】また、請求項5に記載の発明によれば、被
写体情報の認識の為の負荷を軽減し、被写体認識手段を
カメラに搭載することをより容易なものにすることがで
きる被写体認識機能付きカメラを提供できるものであ
る。According to the fifth aspect of the present invention, the load for recognizing the subject information can be reduced and the subject recognizing means can be more easily mounted on the camera. It is possible to provide an attached camera.
【図1】本発明の実施例における被写体認識機能を備え
たカメラに適用した際の要部構成図である。FIG. 1 is a main part configuration diagram when applied to a camera having a subject recognition function according to an embodiment of the present invention.
【図2】図1のカメラの上面図であるFIG. 2 is a top view of the camera of FIG.
【図3】図1のカメラの電気回路の構成を示したブロッ
ク図であるFIG. 3 is a block diagram showing a configuration of an electric circuit of the camera in FIG. 1;
【図4】図1のカメラにおいて撮影動作までを示したフ
ローチャートである。FIG. 4 is a flowchart showing a shooting operation of the camera shown in FIG. 1;
【図5】図1のカメラにおいて顔認識結果によるカメラ
の制御例を示した図である。FIG. 5 is a diagram illustrating an example of camera control based on a face recognition result in the camera of FIG. 1;
【図6】図1のカメラにおいてポートレイトモードでの
被写体認識のフローチャートである。FIG. 6 is a flowchart of subject recognition in a portrait mode in the camera of FIG. 1;
【図7】図1のカメラにおいて被写体認識動作で用いる
認識パラメータを示した図である。FIG. 7 is a diagram illustrating recognition parameters used in a subject recognition operation in the camera of FIG. 1;
【図8】図1のカメラにおいて8近傍ラプラシアンの行
列式である。FIG. 8 is a determinant of Laplacian near 8 in the camera of FIG. 1;
【図9】図1のカメラにおいて風景モードでの被写体認
識のフローチャートである。FIG. 9 is a flowchart of subject recognition in a landscape mode in the camera of FIG. 1;
【図10】図1のカメラにおいて接写モードでの被写体
認識のフローチャートである。FIG. 10 is a flowchart of object recognition in a close-up mode in the camera of FIG. 1;
【図11】図1のカメラにおいてスポーツモードでの被
写体認識のフローチャートである。FIG. 11 is a flowchart of subject recognition in the sports mode in the camera of FIG. 1;
【図12】本発明の実施の第2の形態におけるカメラの
各撮影モードでの撮影動作を示す。FIG. 12 shows a photographing operation in each photographing mode of the camera according to the second embodiment of the present invention.
6 焦点検出装置 10 測光センサ 13 エリアセンサ 16 ぶれ検出センサ 43 撮影モードダイヤル 104 測光回路 101 CPU 101a 認識情報処理部 104 レンズ制御回路 111 ぶれ検出回路 112 レンズ位置検出回路 115 認識情報処理回路 116 被写体像動きベクトル検出回路 Reference Signs List 6 focus detection device 10 photometry sensor 13 area sensor 16 blur detection sensor 43 shooting mode dial 104 photometry circuit 101 CPU 101a recognition information processing unit 104 lens control circuit 111 blur detection circuit 112 lens position detection circuit 115 recognition information processing circuit 116 subject image motion Vector detection circuit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 300 H04N 5/232 Z 5C066 H04N 5/232 5/235 5L096 9/64 R 5/235 G02B 7/11 N 9/64 G03B 3/00 A Fターム(参考) 2H011 AA01 BA21 BB02 BB03 BB04 BB06 DA00 2H051 BA02 CB22 CE10 CE16 DA15 DA17 DA19 DA20 DA21 DB01 EB20 2H054 AA01 2H100 FF01 5C022 AA13 AB02 AB27 AB55 AC42 AC69 5C066 AA01 CA05 CA13 EF00 EF11 GA01 HA01 KD04 KD06 KE05 KE17 KM02 KM13 5L096 CA03 JA11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/00 300 H04N 5/232 Z 5C066 H04N 5/232 5/235 5L096 9/64 R 5/235 G02B 7/11 N 9/64 G03B 3/00 A F-term (reference) 2H011 AA01 BA21 BB02 BB03 BB04 BB06 DA00 2H051 BA02 CB22 CE10 CE16 DA15 DA17 DA19 DA20 DA21 DB01 EB20 2H054 AA01 2H100 FF01 5C022 AA13 AB02 AB27 AB02 AB27 CA05 CA13 EF00 EF11 GA01 HA01 KD04 KD06 KE05 KE17 KM02 KM13 5L096 CA03 JA11
Claims (9)
ド設定手段と、被写体を撮像する複数の画素からなるエ
リアセンサと、該エリアセンサの出力をもとに撮影する
被写体情報を認識する被写体認識手段と、該被写体認識
手段による認識結果に応じてカメラの撮影機能の制御を
行う制御手段とを有し、 前記被写体認識手段は、設定された撮影モードに応じ
て、被写体情報を認識する為の認識アルゴリズムを変更
することを特徴とする被写体認識機能付きカメラ。1. A photographing mode setting means for setting a photographing mode of a camera, an area sensor comprising a plurality of pixels for photographing a subject, and a subject recognizing means for recognizing subject information to be photographed based on an output of the area sensor. And control means for controlling the photographing function of the camera in accordance with the result of recognition by the object recognizing means. The object recognizing means performs recognition for recognizing object information in accordance with a set photographing mode. A camera with a subject recognition function that changes the algorithm.
ド設定手段と、被写体を撮像する複数の画素からなるエ
リアセンサと、該エリアセンサの出力をもとに撮影する
被写体情報を認識する被写体認識手段と、該被写体認識
手段による認識結果に応じてカメラの撮影機能の制御を
行う制御手段とを有し、 前記被写体認識手段は、設定された撮影モードに応じ
て、被写体情報を認識する認識アルゴリズム及び該認識
アルゴリズムを構成するパラメータを変更することを特
徴とする被写体認識機能付きカメラ。2. A photographing mode setting means for setting a photographing mode of a camera; an area sensor including a plurality of pixels for photographing a subject; And control means for controlling a photographing function of a camera according to a recognition result by the subject recognition means, wherein the subject recognition means recognizes subject information in accordance with a set shooting mode, and a recognition algorithm for recognizing subject information. A camera with a subject recognition function, wherein parameters constituting the recognition algorithm are changed.
認識を行うアルゴリズムを含むことを特徴とする請求項
1又2に記載の被写体認識機能付きカメラ。3. The camera according to claim 1, wherein the recognition algorithm includes at least an algorithm for performing face recognition.
写体の動きを検出するアルゴリズムを含むことを特徴と
する請求項1又は2に記載の被写体認識機能付きカメ
ラ。4. The camera with a subject recognition function according to claim 1, wherein the recognition algorithm includes at least an algorithm for detecting a motion of the subject.
ド設定手段と、被写体を撮像する複数の画素からなるエ
リアセンサと、該エリアセンサの出力をもとに撮影する
被写体情報のうち少なくとも顔を認識する顔認識アルゴ
リズムを備えた被写体認識手段と、該被写体認識手段に
よる認識結果に応じてカメラの撮影機能の制御を行う制
御手段とを有し、 前記被写体認識手段は、設定された撮影モードによって
は前記顔認識アルゴリズムの動作を行わないことを特徴
とする被写体認識機能付きカメラ。5. A photographing mode setting means for setting a photographing mode of a camera, an area sensor comprising a plurality of pixels for photographing a subject, and at least a face among subject information to be photographed is recognized based on an output of the area sensor. A subject recognition unit having a face recognition algorithm to perform, and a control unit for controlling a photographing function of a camera in accordance with a recognition result by the subject recognition unit. A camera with a subject recognition function, wherein the operation of the face recognition algorithm is not performed.
よる前記顔認識アルゴリズムの動作が行われなかった場
合は、あらかじめ設定されている撮影モードに対応する
情報に基づいてカメラの撮影機能の制御を行うことを特
徴とする請求項5に記載の被写体認識機能付きカメラ。6. The control unit controls the photographing function of the camera based on information corresponding to a preset photographing mode when the operation of the face recognition algorithm by the subject recognizing unit is not performed. The camera with a subject recognition function according to claim 5, wherein
リズムの動作を行わない撮影モードは、人物を主体にし
たシーンを撮影する撮影モード以外の撮影モードである
ことを特徴とする請求項5又は6に記載の被写体認識機
能付きカメラ。7. A photographing mode in which the object recognizing means does not perform the operation of the face recognition algorithm is a photographing mode other than a photographing mode for photographing a scene mainly composed of a person. The camera with the subject recognition function described in.
制御及び焦点調節制御であることを特徴とする請求項
1、2又は5に記載の被写体認識機能付きカメラ。8. The camera with a subject recognition function according to claim 1, wherein the control of the photographing function of the camera is exposure control and focus adjustment control.
類または状態に合わせて撮影者が手動により撮影モード
を設定する構成のものであることを特徴とする請求項1
〜8の何れかに記載の被写体認識機能付きカメラ。9. The photographing mode setting means according to claim 1, wherein the photographer manually sets the photographing mode in accordance with the type or state of the subject.
9. The camera with a subject recognition function according to any one of items 1 to 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000152436A JP2001330882A (en) | 2000-05-24 | 2000-05-24 | Camera with subject recognizing function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000152436A JP2001330882A (en) | 2000-05-24 | 2000-05-24 | Camera with subject recognizing function |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001330882A true JP2001330882A (en) | 2001-11-30 |
Family
ID=18657862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000152436A Pending JP2001330882A (en) | 2000-05-24 | 2000-05-24 | Camera with subject recognizing function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001330882A (en) |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003307669A (en) * | 2002-04-17 | 2003-10-31 | Nikon Gijutsu Kobo:Kk | Camera |
JP2005108195A (en) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | Object identification unit, method, and program |
JP2005270480A (en) * | 2004-03-26 | 2005-10-06 | Sumitomo Rubber Ind Ltd | Golf swing measuring system |
JP2005270534A (en) * | 2004-03-26 | 2005-10-06 | Sumitomo Rubber Ind Ltd | Golf swing measuring method |
JP2005345962A (en) * | 2004-06-07 | 2005-12-15 | Sony Corp | Solid-state imaging apparatus and focus control unit |
JP2006229367A (en) * | 2005-02-15 | 2006-08-31 | Nikon Corp | Digital camera |
JP2006285422A (en) * | 2005-03-31 | 2006-10-19 | Denso It Laboratory Inc | Scene-estimating device, scene-image extracting method, and sound-reproducing apparatus |
JP2006317701A (en) * | 2005-05-12 | 2006-11-24 | Nikon Corp | Camera |
JP2007074394A (en) * | 2005-09-07 | 2007-03-22 | Canon Inc | Image pickup device and control method of same |
JP2007235869A (en) * | 2006-03-03 | 2007-09-13 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2007264742A (en) * | 2006-03-27 | 2007-10-11 | Fujifilm Corp | Method for detecting face and imaging device using it |
JP2007279188A (en) * | 2006-04-04 | 2007-10-25 | Nikon Corp | Camera |
KR100777496B1 (en) * | 2004-01-27 | 2007-11-20 | 캐논 가부시끼가이샤 | Face detecting apparatus and method |
JP2007312249A (en) * | 2006-05-19 | 2007-11-29 | Canon Inc | Unit and method for image processing |
JP2008028802A (en) * | 2006-07-24 | 2008-02-07 | Seiko Epson Corp | Unit, method and program for processing image, and printer |
JP2008054297A (en) * | 2006-07-25 | 2008-03-06 | Fujifilm Corp | System for and method of photographing image, and computer program |
JP2008141666A (en) * | 2006-12-05 | 2008-06-19 | Fujifilm Corp | Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method |
US7397955B2 (en) | 2003-05-20 | 2008-07-08 | Fujifilm Corporation | Digital camera and method of controlling same |
JP2008187440A (en) * | 2007-01-30 | 2008-08-14 | Fujifilm Corp | Image sensing device and its driving method |
JP2008270896A (en) * | 2007-04-16 | 2008-11-06 | Casio Comput Co Ltd | Imaging device and program thereof |
WO2008139929A1 (en) * | 2007-05-08 | 2008-11-20 | Nec Corporation | Image direction judging method, image direction judging device and program |
JP2008306747A (en) * | 2008-07-17 | 2008-12-18 | Fujifilm Corp | Digital camera |
JP2009020163A (en) * | 2007-07-10 | 2009-01-29 | Casio Comput Co Ltd | Imaging apparatus and program therefor |
JPWO2007097287A1 (en) * | 2006-02-20 | 2009-07-16 | パナソニック株式会社 | Imaging device and lens barrel |
JP2009212557A (en) * | 2008-02-29 | 2009-09-17 | Casio Comput Co Ltd | Imaging apparatus, imaging method and program |
US7606476B2 (en) | 2006-01-23 | 2009-10-20 | Fujifilm Corporation | Imaging device and imaging method |
US7656456B2 (en) | 2005-09-07 | 2010-02-02 | Fujifilm Corporation | Image sensing system and method of controlling same |
JP2010093834A (en) * | 2009-11-27 | 2010-04-22 | Nikon Corp | Electronic camera and electronic camera system |
US7704157B2 (en) | 2004-03-26 | 2010-04-27 | Sri Sports Limited | Golf swing-measuring system |
JP2010177860A (en) * | 2009-01-28 | 2010-08-12 | Nikon Corp | Image composition apparatus, imaging apparatus, and image composition method |
JP2010250663A (en) * | 2009-04-17 | 2010-11-04 | Nikon Corp | Image matching device and camera |
JP2010271499A (en) * | 2009-05-20 | 2010-12-02 | Canon Inc | Imaging apparatus |
US7873221B2 (en) | 2005-11-14 | 2011-01-18 | Sony Corporation | Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method |
JP2011022203A (en) * | 2009-07-13 | 2011-02-03 | Fujifilm Corp | Af frame automatic follow-up system and method for automatically following up af frame |
US7920725B2 (en) | 2003-09-09 | 2011-04-05 | Fujifilm Corporation | Apparatus, method, and program for discriminating subjects |
JP2011097645A (en) * | 2011-01-31 | 2011-05-12 | Nikon Corp | Image synthesizing apparatus, imaging apparatus, and image synthesizing method |
US8131068B2 (en) | 2008-06-06 | 2012-03-06 | Nikon Corporation | Image matching device and camera |
US8228391B2 (en) | 2007-02-22 | 2012-07-24 | Panasonic Corporation | Image pickup apparatus and lens barrel |
JP2012163588A (en) * | 2011-02-03 | 2012-08-30 | Olympus Imaging Corp | Imaging device |
US8295544B2 (en) | 2007-06-26 | 2012-10-23 | Sony Corporation | Image processing apparatus, image capturing apparatus, image processing method, and program |
US8570427B2 (en) | 2009-01-28 | 2013-10-29 | Nikon Corporation | Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function |
JP2014064313A (en) * | 2013-11-26 | 2014-04-10 | Canon Inc | Image processing apparatus, image processing method, and program |
CN103905721A (en) * | 2012-12-25 | 2014-07-02 | 卡西欧计算机株式会社 | Imaging device, imaging control method and storage medium |
US8797423B2 (en) | 2006-07-25 | 2014-08-05 | Fujifilm Corporation | System for and method of controlling a parameter used for detecting an objective body in an image and computer program |
JP2014179755A (en) * | 2013-03-14 | 2014-09-25 | Canon Inc | Image processing device, control method therefor and control program |
US8928761B2 (en) | 2007-07-09 | 2015-01-06 | Panasonic Corporation | Digital camera |
US9147106B2 (en) | 2003-04-15 | 2015-09-29 | Nikon Corporation | Digital camera system |
JP2016025367A (en) * | 2014-07-16 | 2016-02-08 | キヤノン株式会社 | Imaging apparatus |
JP2016118799A (en) * | 2016-02-08 | 2016-06-30 | オリンパス株式会社 | Imaging device |
US9445005B2 (en) | 2013-07-22 | 2016-09-13 | Canon Kabushiki Kaisha | Optical device capable of selecting focus detection point, method of controlling the same, and storage medium |
US9794471B2 (en) | 2014-02-07 | 2017-10-17 | Fujifilm Corporation | Imaging device and focusing control method |
EP3462727A1 (en) * | 2007-06-14 | 2019-04-03 | FUJIFILM Corporation | Photographing apparatus |
JP2019159340A (en) * | 2014-10-17 | 2019-09-19 | 株式会社ニコン | Imaging device and electronic apparatus |
JP2020187239A (en) * | 2019-05-13 | 2020-11-19 | キヤノン株式会社 | Imaging apparatus, control method of imaging apparatus, program and storage medium |
CN113454531A (en) * | 2019-02-19 | 2021-09-28 | 索尼半导体解决方案公司 | Imaging device, electronic device, and imaging method |
KR102358898B1 (en) * | 2020-08-24 | 2022-02-07 | 민팃(주) | Method and apparatus of captureing object |
-
2000
- 2000-05-24 JP JP2000152436A patent/JP2001330882A/en active Pending
Cited By (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4543602B2 (en) * | 2002-04-17 | 2010-09-15 | 株式会社ニコン | camera |
US7965334B2 (en) | 2002-04-17 | 2011-06-21 | Nikon Corporation | Auto-focus camera with adjustable lens movement pitch |
JP2003307669A (en) * | 2002-04-17 | 2003-10-31 | Nikon Gijutsu Kobo:Kk | Camera |
US9147106B2 (en) | 2003-04-15 | 2015-09-29 | Nikon Corporation | Digital camera system |
US7397955B2 (en) | 2003-05-20 | 2008-07-08 | Fujifilm Corporation | Digital camera and method of controlling same |
JP2005108195A (en) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | Object identification unit, method, and program |
US7920725B2 (en) | 2003-09-09 | 2011-04-05 | Fujifilm Corporation | Apparatus, method, and program for discriminating subjects |
JP4510556B2 (en) * | 2003-09-09 | 2010-07-28 | 富士フイルム株式会社 | Object identification device and method, and program |
US8184870B2 (en) | 2003-09-09 | 2012-05-22 | Fujifilm Corporation | Apparatus, method, and program for discriminating subjects |
KR100777496B1 (en) * | 2004-01-27 | 2007-11-20 | 캐논 가부시끼가이샤 | Face detecting apparatus and method |
CN100395769C (en) * | 2004-01-27 | 2008-06-18 | 佳能株式会社 | Face detecting apparatus and method |
US7734098B2 (en) | 2004-01-27 | 2010-06-08 | Canon Kabushiki Kaisha | Face detecting apparatus and method |
JP2005270534A (en) * | 2004-03-26 | 2005-10-06 | Sumitomo Rubber Ind Ltd | Golf swing measuring method |
US7704157B2 (en) | 2004-03-26 | 2010-04-27 | Sri Sports Limited | Golf swing-measuring system |
JP2005270480A (en) * | 2004-03-26 | 2005-10-06 | Sumitomo Rubber Ind Ltd | Golf swing measuring system |
JP2005345962A (en) * | 2004-06-07 | 2005-12-15 | Sony Corp | Solid-state imaging apparatus and focus control unit |
JP2006229367A (en) * | 2005-02-15 | 2006-08-31 | Nikon Corp | Digital camera |
JP4581730B2 (en) * | 2005-02-15 | 2010-11-17 | 株式会社ニコン | Digital camera |
JP4634842B2 (en) * | 2005-03-31 | 2011-02-16 | 株式会社デンソーアイティーラボラトリ | Landscape estimation device |
JP2006285422A (en) * | 2005-03-31 | 2006-10-19 | Denso It Laboratory Inc | Scene-estimating device, scene-image extracting method, and sound-reproducing apparatus |
JP2006317701A (en) * | 2005-05-12 | 2006-11-24 | Nikon Corp | Camera |
JP2007074394A (en) * | 2005-09-07 | 2007-03-22 | Canon Inc | Image pickup device and control method of same |
US7656456B2 (en) | 2005-09-07 | 2010-02-02 | Fujifilm Corporation | Image sensing system and method of controlling same |
US7873221B2 (en) | 2005-11-14 | 2011-01-18 | Sony Corporation | Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method |
US7606476B2 (en) | 2006-01-23 | 2009-10-20 | Fujifilm Corporation | Imaging device and imaging method |
JPWO2007097287A1 (en) * | 2006-02-20 | 2009-07-16 | パナソニック株式会社 | Imaging device and lens barrel |
US8736691B2 (en) | 2006-02-20 | 2014-05-27 | Panasonic Corporation | Image pickup apparatus to control an exposure time based on motion of a detected optical image |
JP2007235869A (en) * | 2006-03-03 | 2007-09-13 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2007264742A (en) * | 2006-03-27 | 2007-10-11 | Fujifilm Corp | Method for detecting face and imaging device using it |
JP2007279188A (en) * | 2006-04-04 | 2007-10-25 | Nikon Corp | Camera |
JP2007312249A (en) * | 2006-05-19 | 2007-11-29 | Canon Inc | Unit and method for image processing |
JP2008028802A (en) * | 2006-07-24 | 2008-02-07 | Seiko Epson Corp | Unit, method and program for processing image, and printer |
JP2008054297A (en) * | 2006-07-25 | 2008-03-06 | Fujifilm Corp | System for and method of photographing image, and computer program |
US8797423B2 (en) | 2006-07-25 | 2014-08-05 | Fujifilm Corporation | System for and method of controlling a parameter used for detecting an objective body in an image and computer program |
JP2008141666A (en) * | 2006-12-05 | 2008-06-19 | Fujifilm Corp | Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method |
JP2008187440A (en) * | 2007-01-30 | 2008-08-14 | Fujifilm Corp | Image sensing device and its driving method |
US8228391B2 (en) | 2007-02-22 | 2012-07-24 | Panasonic Corporation | Image pickup apparatus and lens barrel |
US8411155B2 (en) | 2007-02-22 | 2013-04-02 | Panasonic Corporation | Image pickup apparatus and lens barrel |
JP2008270896A (en) * | 2007-04-16 | 2008-11-06 | Casio Comput Co Ltd | Imaging device and program thereof |
WO2008139929A1 (en) * | 2007-05-08 | 2008-11-20 | Nec Corporation | Image direction judging method, image direction judging device and program |
JP5224069B2 (en) * | 2007-05-08 | 2013-07-03 | 日本電気株式会社 | Image orientation determination method, image orientation determination apparatus, and program |
EP3462727A1 (en) * | 2007-06-14 | 2019-04-03 | FUJIFILM Corporation | Photographing apparatus |
US8295544B2 (en) | 2007-06-26 | 2012-10-23 | Sony Corporation | Image processing apparatus, image capturing apparatus, image processing method, and program |
US8928761B2 (en) | 2007-07-09 | 2015-01-06 | Panasonic Corporation | Digital camera |
JP2009020163A (en) * | 2007-07-10 | 2009-01-29 | Casio Comput Co Ltd | Imaging apparatus and program therefor |
JP2009212557A (en) * | 2008-02-29 | 2009-09-17 | Casio Comput Co Ltd | Imaging apparatus, imaging method and program |
US8131068B2 (en) | 2008-06-06 | 2012-03-06 | Nikon Corporation | Image matching device and camera |
JP2008306747A (en) * | 2008-07-17 | 2008-12-18 | Fujifilm Corp | Digital camera |
JP2010177860A (en) * | 2009-01-28 | 2010-08-12 | Nikon Corp | Image composition apparatus, imaging apparatus, and image composition method |
US8570427B2 (en) | 2009-01-28 | 2013-10-29 | Nikon Corporation | Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function |
JP4710983B2 (en) * | 2009-01-28 | 2011-06-29 | 株式会社ニコン | Image composition device, imaging device, and image composition method |
JP2010250663A (en) * | 2009-04-17 | 2010-11-04 | Nikon Corp | Image matching device and camera |
JP2010271499A (en) * | 2009-05-20 | 2010-12-02 | Canon Inc | Imaging apparatus |
JP2011022203A (en) * | 2009-07-13 | 2011-02-03 | Fujifilm Corp | Af frame automatic follow-up system and method for automatically following up af frame |
JP2010093834A (en) * | 2009-11-27 | 2010-04-22 | Nikon Corp | Electronic camera and electronic camera system |
JP2011097645A (en) * | 2011-01-31 | 2011-05-12 | Nikon Corp | Image synthesizing apparatus, imaging apparatus, and image synthesizing method |
JP2012163588A (en) * | 2011-02-03 | 2012-08-30 | Olympus Imaging Corp | Imaging device |
JP2014127744A (en) * | 2012-12-25 | 2014-07-07 | Casio Comput Co Ltd | Imaging device, imaging control method, and program |
CN103905721A (en) * | 2012-12-25 | 2014-07-02 | 卡西欧计算机株式会社 | Imaging device, imaging control method and storage medium |
JP2014179755A (en) * | 2013-03-14 | 2014-09-25 | Canon Inc | Image processing device, control method therefor and control program |
US9445005B2 (en) | 2013-07-22 | 2016-09-13 | Canon Kabushiki Kaisha | Optical device capable of selecting focus detection point, method of controlling the same, and storage medium |
JP2014064313A (en) * | 2013-11-26 | 2014-04-10 | Canon Inc | Image processing apparatus, image processing method, and program |
US9794471B2 (en) | 2014-02-07 | 2017-10-17 | Fujifilm Corporation | Imaging device and focusing control method |
JP2016025367A (en) * | 2014-07-16 | 2016-02-08 | キヤノン株式会社 | Imaging apparatus |
JP2019159340A (en) * | 2014-10-17 | 2019-09-19 | 株式会社ニコン | Imaging device and electronic apparatus |
JP2016118799A (en) * | 2016-02-08 | 2016-06-30 | オリンパス株式会社 | Imaging device |
CN113454531A (en) * | 2019-02-19 | 2021-09-28 | 索尼半导体解决方案公司 | Imaging device, electronic device, and imaging method |
CN113454531B (en) * | 2019-02-19 | 2023-10-27 | 索尼半导体解决方案公司 | Imaging device, electronic device and imaging method |
US11823493B2 (en) | 2019-02-19 | 2023-11-21 | Sony Semiconductor Solutions Corporation | Imaging device, electronic device, and imaging method |
JP2020187239A (en) * | 2019-05-13 | 2020-11-19 | キヤノン株式会社 | Imaging apparatus, control method of imaging apparatus, program and storage medium |
JP7312012B2 (en) | 2019-05-13 | 2023-07-20 | キヤノン株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
KR102358898B1 (en) * | 2020-08-24 | 2022-02-07 | 민팃(주) | Method and apparatus of captureing object |
WO2022045499A1 (en) * | 2020-08-24 | 2022-03-03 | 민팃(주) | Apparatus and method for photographing object |
CN116057940A (en) * | 2020-08-24 | 2023-05-02 | 明蒂股份有限公司 | Object photographing apparatus and method |
JP7509995B2 (en) | 2020-08-24 | 2024-07-02 | ミンティット カンパニー,リミテッド | Apparatus and method for photographing an object |
EP4203456A4 (en) * | 2020-08-24 | 2024-10-09 | Mintit Co Ltd | Apparatus and method for photographing object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001330882A (en) | Camera with subject recognizing function | |
JP2003344891A (en) | Automatic photographing mode setting camera | |
JP4136793B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP5082631B2 (en) | Imaging device | |
JP5096017B2 (en) | Imaging device | |
JP5247076B2 (en) | Image tracking device, focus adjustment device, and imaging device | |
JP4893334B2 (en) | Image tracking device and imaging device | |
JP2011097645A (en) | Image synthesizing apparatus, imaging apparatus, and image synthesizing method | |
JP5056136B2 (en) | Image tracking device | |
JP5054635B2 (en) | Imaging device | |
JPH05110912A (en) | Camera | |
JP2010177860A (en) | Image composition apparatus, imaging apparatus, and image composition method | |
JP2002311328A (en) | Electronic camera | |
JP4956403B2 (en) | Imaging apparatus, control method thereof, and program | |
JP4182864B2 (en) | Electronic camera | |
JP4985155B2 (en) | Focus adjustment device and imaging device | |
JP2002084444A (en) | Image pickup device | |
JP2004159211A (en) | Digital camera and image generation method | |
JP2010072283A (en) | Imaging device | |
JP2008199461A (en) | Imaging apparatus | |
JPH05100288A (en) | Camera with electric view finder | |
JP2002300435A (en) | Imaging device | |
JP2005024858A (en) | Digital single lens reflex camera | |
JP5447579B2 (en) | Tracking device, focus adjustment device, and photographing device | |
JP7327945B2 (en) | IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070724 |