JP5164775B2 - Imaging apparatus, control method thereof, and program - Google Patents

Imaging apparatus, control method thereof, and program Download PDF

Info

Publication number
JP5164775B2
JP5164775B2 JP2008256805A JP2008256805A JP5164775B2 JP 5164775 B2 JP5164775 B2 JP 5164775B2 JP 2008256805 A JP2008256805 A JP 2008256805A JP 2008256805 A JP2008256805 A JP 2008256805A JP 5164775 B2 JP5164775 B2 JP 5164775B2
Authority
JP
Japan
Prior art keywords
unit
image
control unit
designated
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008256805A
Other languages
Japanese (ja)
Other versions
JP2010087998A5 (en
JP2010087998A (en
Inventor
敦之 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008256805A priority Critical patent/JP5164775B2/en
Publication of JP2010087998A publication Critical patent/JP2010087998A/en
Publication of JP2010087998A5 publication Critical patent/JP2010087998A5/ja
Application granted granted Critical
Publication of JP5164775B2 publication Critical patent/JP5164775B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、所定の物体にピントを合わせることができる撮像装置、その制御方法及びプログラムに関するものである。 The present invention relates to an imaging apparatus capable of focusing on a predetermined object, a control method thereof, and a program.

撮影者がカメラを用いて、カーレースや陸上競技等、高速でカメラの撮影画面内を横切るような被写体を撮影したい場合、被写体は高速で移動しているために、所望する構図の撮影を行うのは困難である。従来、このような被写体に対して、1回のレリーズ操作で複数枚の写真を連続撮影するモータドライブ機能付きのカメラを用いることにより、所望する構図の撮影をすることが提案されている。   When the photographer wants to shoot a subject that crosses the camera's shooting screen at high speed, such as car racing or athletics, using the camera, the subject moves at high speed, so the desired composition is shot. It is difficult. Conventionally, it has been proposed to shoot a desired composition for such a subject by using a camera with a motor drive function that continuously shoots a plurality of photographs by one release operation.

しかし、このようなモータドライブ機能付きカメラであっても、カーレース等、高速で移動する物体は、タイミングを合わせるのが困難であり、望みの構図の写真が一枚得られるか否かである。したがって、フィルムの多数を無駄にしてしまい、撮影を手軽に行うことができないという不具合があった。   However, even with a camera with such a motor drive function, it is difficult to adjust the timing of an object that moves at high speed, such as a car race, and whether or not a single photograph of the desired composition can be obtained. . Therefore, a large number of films are wasted, and there is a problem that photographing cannot be performed easily.

そこで、高速移動する被写体の待ち伏せ撮影において、測距ポイントを選択的に指定し、被写体の移動方向と速度とを検出し、そのデータに基づいて、撮影者の所望する構図の撮影を確実に行なうような待ち伏せ機能付カメラがある(特許文献1参照)。
また、近年、ライブビューにより被写体を認識して被写体の動きを推定し、被写体の動きが指定した動きと一致する場合に、静止画撮影することが考えられている。
Therefore, in the ambush shooting of a fast-moving subject, a distance measuring point is selectively designated, the moving direction and speed of the subject are detected, and the photographer's desired composition is reliably shot based on the data. There is such a camera with an ambush function (see Patent Document 1).
In recent years, it has been considered that a subject is recognized by live view to estimate the motion of the subject, and still image shooting is performed when the motion of the subject matches a specified motion.

特開平2−162308号公報JP-A-2-162308 特開昭52−156624号公報JP-A-52-156624 特開平4−346333号公報JP-A-4-346333 特開平8−63597号公報JP-A-8-63597 特開平10−051676号公報JP-A-10-051676 特開平10−051677号公報JP 10-051677 A 特開平10−051679号公報JP-A-10-051679

しかしながら、上述した特許文献1に開示された技術や、上述した被写体の動きが指定した動きと一致する場合に行う静止画撮影は、レリーズタイミングのきっかけとなった被写体のみにピントを合わせて撮影するものである。すなわち、レリーズタイミングのきっかけとなった物体以外の物体にピントを合わせて撮影することができないという問題がある。
本発明は、上述したような問題点に鑑みてなされたものであり、レリーズタイミングのきっかけとなった物体以外の物体にピントを合わせて撮影することを目的とする。
However, the technique disclosed in Patent Document 1 described above and the above-described still image shooting performed when the movement of the subject coincides with the specified movement are performed by focusing only on the subject that triggered the release timing. Is. That is, there is a problem that it is not possible to focus and photograph an object other than the object that triggered the release timing.
The present invention has been made in view of the above-described problems, and an object of the present invention is to photograph an object other than the object that triggered the release timing while focusing.

本発明の撮像装置は、撮像素子と、前記撮像素子に光学像を結像するレンズユニットと、前記レンズユニットを駆動してピントの位置を制御する自動合焦手段と、前記撮像素子にて生成された画像データから予め指定された物体を認識する物体認識手段と、前記物体認識手段により認識された第一の物体による所定の動作を検出する動作検出手段と、前記動作検出手段により所定の動作が検出されたことに応じて、画像データを記録媒体に記録させる記憶手段と、画像表示部と、を有する撮像装置であって、記録された動画像を再生する動画再生手段と、前記動画再生成手段により再生され、前記画像表示部に表示される動画像から、ユーザによって指定された物体を検出する指定物体検出手段と、を有し、前記物体認識手段は、前記指定物体検出手段により検出された物体を前記第一の物体として認識し、前記第一の物体とは別の物体を第二の物体として認識し、前記自動合焦手段は、前記動作検出手段により所定の動作が検出された場合に、前記一の物体とは異なる前記第二の物体にピントを合わせ、前記記憶手段は、前記第二の物体にピントを合わせた状態の画像データを前記記録媒体に記録させることを特徴とする The image pickup apparatus of the present invention is generated by the image pickup device, a lens unit that forms an optical image on the image pickup device, an automatic focusing unit that drives the lens unit to control a focus position, and the image pickup device. Object recognition means for recognizing a pre-designated object from the image data, motion detection means for detecting a predetermined action by the first object recognized by the object recognition means, and predetermined action by the action detection means And a moving image reproducing means for reproducing the recorded moving image , the image capturing apparatus having a storage means for recording the image data on a recording medium and an image display unit in response to the detection of the moving image reproduction. Specified object detecting means for detecting an object specified by a user from a moving image reproduced by the generating means and displayed on the image display unit, and the object recognizing means includes the specified object Recognizes detected by the detection means the object as the first object, said the first object to recognize a different object as a second object, said automatic focusing means is predetermined by the operation detecting means If the operation is detected, the focus on different said second object and the first object, said storage means, the image data in a state of focus on the second object to said recording medium It is made to record .

本発明によれば、レリーズタイミングのきっかけとなった物体以外の物体にピントを合わせて撮影を行うことができる。   According to the present invention, it is possible to perform shooting while focusing on an object other than the object that triggered the release timing.

以下、本発明の実施形態について図面を参照して説明する。本実施形態では、撮像装置として一眼レフタイプのデジタルスチルカメラを取り上げて説明する。
(第1の実施形態)
まず、図1を参照して、一眼レフタイプのデジタルスチルカメラ(以下、カメラという)の構成について説明する。カメラ200は、カメラ本体201とカメラ本体201に対して着脱可能なレンズユニット202とを含んで構成されている。
図1において、シャッター11は、撮像素子12への露光量を制御する。撮像素子12は、光学像を電気信号に変換する。
Embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, a single-lens reflex digital still camera will be described as an imaging apparatus.
(First embodiment)
First, a configuration of a single-lens reflex digital still camera (hereinafter referred to as a camera) will be described with reference to FIG. The camera 200 includes a camera body 201 and a lens unit 202 that can be attached to and detached from the camera body 201.
In FIG. 1, the shutter 11 controls the exposure amount to the image sensor 12. The image sensor 12 converts the optical image into an electrical signal.

レンズユニット202側の撮影レンズ110に入射した光線は、一眼レフ方式によって、絞り111、レンズマウント106、13、ミラー14、シャッター11を介して導き、光学像として撮像素子12上に結像される。ここで、撮影レンズ110の設定が、マニュアルフォーカスモード(MF)でなく、オートフォーカスモード(AF)である場合、レンズユニット202は、そのフォーカスモードとF値(レンズの明るさ)とをカメラ200のカメラ本体201に通信する。F値が8.0よりも小さければカメラ200は、オートフォーカスを行う。一方、F値が8.0以上の場合、カメラ200は、オートフォーカスを行わない。   A light beam incident on the photographing lens 110 on the lens unit 202 side is guided through the diaphragm 111, the lens mounts 106 and 13, the mirror 14, and the shutter 11 by a single lens reflex method, and is formed on the image sensor 12 as an optical image. . Here, when the setting of the photographing lens 110 is not the manual focus mode (MF) but the auto focus mode (AF), the lens unit 202 sets the focus mode and the F value (lens brightness) to the camera 200. To the camera body 201 of the camera. If the F value is smaller than 8.0, the camera 200 performs autofocus. On the other hand, when the F value is 8.0 or more, the camera 200 does not perform autofocus.

A/D変換器15は、撮像素子12のアナログ信号出力をデジタル信号に変換する。
タイミング発生部16は、撮像素子12に電子シャッター制御信号、クロック信号を供給したり、A/D変換器15に制御信号やクロック信号を供給したりする。このタイミング発生部16は、メモリ制御部17及びデジタル部システム制御部18により制御される。
The A / D converter 15 converts the analog signal output of the image sensor 12 into a digital signal.
The timing generation unit 16 supplies an electronic shutter control signal and a clock signal to the image sensor 12 and supplies a control signal and a clock signal to the A / D converter 15. The timing generation unit 16 is controlled by the memory control unit 17 and the digital unit system control unit 18.

デジタル部システム制御部18は、カメラ200のデジタル部を制御する。デジタル部システム制御部18は、カメラ部システム制御部19と相互に通信可能である。また、デジタル部システム制御部18は、画像表示部20のデータ表示を制御する。また、デジタル部システム制御部18は、カメラ部システム制御部19から測光タイマ中か否かの通知を受け、その状態をRAM21に記憶したり、画像処理部22から画像処理中か否かの通知を受け、その状態をRAM21に記憶したりする。更に、デジタル部システム制御部18は、画像表示部20にデータ表示中か否かをRAM21に記憶する。デジタル部システム制御部18は、後述する画像認識部23が、ライブビューで画像認識した物体が指定した動作と一致する動作をしたと認識したときに、通知を受け、指定した物体にピントを合わせて撮影する。   The digital unit system control unit 18 controls the digital unit of the camera 200. The digital unit system control unit 18 can communicate with the camera unit system control unit 19. Further, the digital unit system control unit 18 controls data display of the image display unit 20. Also, the digital unit system control unit 18 receives a notification from the camera unit system control unit 19 whether or not the photometry timer is in operation, stores the state in the RAM 21, or notifies the image processing unit 22 whether or not image processing is in progress. And the state is stored in the RAM 21. Further, the digital unit system control unit 18 stores in the RAM 21 whether data is being displayed on the image display unit 20. The digital unit system control unit 18 receives a notification when the image recognition unit 23 (to be described later) recognizes that the object recognized by the live view has performed an operation that matches the specified operation, and focuses on the specified object. To shoot.

画像処理部22は、A/D変換器15からのデータ或いはメモリ制御部17からのデータに対して所定の画素補間処理や色変換処理を行ったり、画像処理中か否かをデジタル部システム制御部18に通知したりする。また、画像処理部22は、必要に応じて、撮像した画像データを用いて所定の演算処理を行う。カメラ部システム制御部19は、画像処理部22による演算結果に基づいて、露光制御部(シャッター制御部)24と測距制御部113とに対して制御を行う撮像面オートフォーカス処理、AE(自動露出)処理、EF(フラッシュ調光)処理を行う。また、画像処理部22は、カメラ200がライブビューモードに設定されている場合、撮像素子12に結像された画像の画像データをリアルタイムで画像表示部20に表示する。更に、画像処理部22は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいて、TTL方式のAWB(オートホワイトバランス)処理及び後述するTVAFを行う。   The image processing unit 22 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 15 or the data from the memory control unit 17, and controls whether the image processing is in progress. Notification to the unit 18. Further, the image processing unit 22 performs predetermined calculation processing using the captured image data as necessary. The camera unit system control unit 19 performs imaging surface autofocus processing for controlling the exposure control unit (shutter control unit) 24 and the distance measurement control unit 113 based on the calculation result by the image processing unit 22, and AE (automatic). Exposure) processing and EF (flash dimming) processing are performed. In addition, when the camera 200 is set to the live view mode, the image processing unit 22 displays the image data of the image formed on the image sensor 12 on the image display unit 20 in real time. Further, the image processing unit 22 performs predetermined calculation processing using the captured image data, and performs TTL AWB (auto white balance) processing and TVAF described later based on the obtained calculation result.

メモリ制御部17は、A/D変換器15、タイミング発生部16、画像処理部22、RAM21、圧縮・伸長部26を制御する。A/D変換器15により変換された画像データは、画像処理部22及びメモリ制御部17の双方を介して、又はメモリ制御部17のみを介して、RAM21に書き込まれる。
画像表示部20は、TFTLCD等であり、メニュー、撮影した画像データ等を表示する。なお、画像表示部20は、Videoコントローラを含む。また、画像表示部20は、デジタル部システム制御部18の指示により、表示をON又はOFFにすることができ、表示をOFFにした場合、カメラ200の電力消費を大幅に低減することができる。画像表示部20は、撮影した静止画像を表示する他、記録した動画像の再生を表示することができる。更に、画像表示部20は、画像認識させたい物体の動作を指定するメニューを表示したり、そのメニューを選択することにより画像認識させたい物体の動作を指定したりすることができる。
The memory control unit 17 controls the A / D converter 15, the timing generation unit 16, the image processing unit 22, the RAM 21, and the compression / decompression unit 26. The image data converted by the A / D converter 15 is written into the RAM 21 through both the image processing unit 22 and the memory control unit 17 or only through the memory control unit 17.
The image display unit 20 is a TFT LCD or the like, and displays a menu, captured image data, and the like. The image display unit 20 includes a Video controller. Further, the image display unit 20 can turn the display on or off according to an instruction from the digital unit system control unit 18, and when the display is turned off, the power consumption of the camera 200 can be significantly reduced. The image display unit 20 can display the reproduction of the recorded moving image in addition to displaying the captured still image. Further, the image display unit 20 can display a menu for designating the motion of an object to be recognized, and can designate the motion of an object to be recognized by selecting the menu.

RAM21は、撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。したがって、複数枚の静止画像を連続して撮影する連射撮影やパノラマ撮影の場合であっても、高速かつ大量の画像の書き込みを記録部153、163に対して行うことができる。なお、撮影された画像データ又は記録部153、163から読み出された画像データは、デジタル部システム制御部18の制御下でRAM21に格納される。このRAM21の一部は、本実施形態におけるキャッシュ領域として用いられる。更に、RAM21は、カメラ部システム制御部19の作業領域としても使用することができる。   The RAM 21 is a memory for storing captured still images and moving images, and has a sufficient storage capacity for storing a predetermined number of still images and moving images for a predetermined time. Accordingly, even in the case of continuous shooting or panoramic shooting in which a plurality of still images are continuously shot, a large amount of images can be written to the recording units 153 and 163 at high speed. Note that captured image data or image data read from the recording units 153 and 163 is stored in the RAM 21 under the control of the digital unit system control unit 18. A part of the RAM 21 is used as a cache area in the present embodiment. Further, the RAM 21 can be used as a work area for the camera system control unit 19.

圧縮・伸長部26は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する。圧縮・伸長部26は、RAM21に格納された画像データを読み込んで圧縮処理或いは伸長処理を行い、それらの処理が行われた画像データをRAM21に書き込む。
露光制御部24は、測光部27からの測光情報に基づいて、絞り111を制御する絞り制御部112と連携しながら、シャッター11を制御する。
測距部25は、AF(オートフォーカス)処理を行うための測距を行う。撮影レンズ110に入射した光線は、一眼レフ方式によって、絞り111、レンズマウント106、13、ミラー14、図示しない測距用サブミラーを介して、測距部25に入射させることにより、光学像として結像された画像の合焦状態を測定することができる。
The compression / decompression unit 26 compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like. The compression / decompression unit 26 reads the image data stored in the RAM 21, performs compression processing or decompression processing, and writes the image data subjected to such processing to the RAM 21.
The exposure control unit 24 controls the shutter 11 based on the photometric information from the photometric unit 27 in cooperation with the aperture control unit 112 that controls the aperture 111.
The distance measurement unit 25 performs distance measurement for performing AF (autofocus) processing. The light beam incident on the photographic lens 110 is made into an optical image by being incident on the distance measuring unit 25 through the diaphragm 111, the lens mounts 106 and 13, the mirror 14, and the distance measuring sub mirror (not shown) by a single lens reflex system. The in-focus state of the imaged image can be measured.

測光部27は、AE(自動露出)処理を行う。すなわち、撮影レンズ110に入射した光線は、絞り111、レンズマウント106、13、ミラー14、図示しない測光用レンズを介して、測光部27に入射させることにより、光学像として結像された画像の露出状態を測定することができる。また、測光部27は、フラッシュ29と連携することによりEF処理機能も有する。フラッシュ29は、AF補助光の投光機能及びフラッシュ調光機能も有する。   The photometry unit 27 performs AE (automatic exposure) processing. That is, the light beam incident on the photographing lens 110 is incident on the photometry unit 27 through the stop 111, the lens mounts 106 and 13, the mirror 14, and the photometry lens (not shown), thereby forming an optical image. The exposure state can be measured. The photometry unit 27 also has an EF processing function in cooperation with the flash 29. The flash 29 also has an AF auxiliary light projecting function and a flash light control function.

カメラ部システム制御部19は、撮像された画像データを画像処理部22が演算した演算結果に基づいて、露光制御部24、絞り制御部112、測距制御部113に対して制御を行う、ビデオTTL方式を用いて露出制御及びAF制御をすることもできる。カメラ部システム制御部19は、カメラ部を制御したり、測光タイマ動作中か否かをデジタル部システム制御部18に通知したりする。
メモリ30は、カメラ部システム制御部19の動作用の定数、変数、プログラム等を記憶する記憶部である。
The camera unit system control unit 19 controls the exposure control unit 24, the aperture control unit 112, and the distance measurement control unit 113 based on the calculation result obtained by the image processing unit 22 calculating the captured image data. Exposure control and AF control can also be performed using the TTL method. The camera unit system control unit 19 controls the camera unit and notifies the digital unit system control unit 18 whether or not the photometry timer is operating.
The memory 30 is a storage unit that stores constants, variables, programs, and the like for operation of the camera unit system control unit 19.

表示部31は、カメラ部システム制御部19によるプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する表示装置、スピーカー等の出力装置である。表示部31は、カメラ本体201の操作部32近辺のユーザが視認し易い位置に単数又は複数個所設置されている。表示部31は、例えばLCD、LED、発音素子等の組み合わせにより構成されている。
また、表示部31は、その一部の機能が光学ファインダ33内に設置されている。ここで、表示部31の表示内容のうち、LCD等に表示するものとしては、例えば、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示等である。また、例えば、シャッタースピード表示、絞り値表示、露出補正表示、フラッシュ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示、複数桁の数字による情報表示等である。また、例えば、記録媒体150、160の着脱状態表示、レンズユニット202の着脱状態表示、通信I/F動作表示、日付・時刻表示、外部コンピュータとの接続状態を示す表示等である。
The display unit 31 is an output device such as a display device and a speaker that displays an operation state, a message, and the like using characters, images, sounds, and the like according to execution of a program by the camera unit system control unit 19. One or a plurality of display units 31 are installed at positions that are easily visible to the user near the operation unit 32 of the camera body 201. The display unit 31 is configured by a combination of, for example, an LCD, an LED, a sound generation element, and the like.
In addition, the display unit 31 is partially installed in the optical viewfinder 33. Here, among the display contents of the display unit 31, what is displayed on the LCD or the like is, for example, single shot / continuous shooting display, self-timer display, compression rate display, recording pixel number display, recording number display, remaining shooting The number of possible images is displayed. Also, for example, shutter speed display, aperture value display, exposure compensation display, flash display, red-eye reduction display, macro shooting display, buzzer setting display, clock battery level display, battery level display, error display, multi-digit number For example, information display. Further, for example, display of attachment / detachment status of the recording media 150 and 160, display of attachment / detachment status of the lens unit 202, communication I / F operation display, date / time display, display showing connection status with an external computer, and the like.

表示部31の表示内容のうち、光学ファインダ33内に表示するものとしては、例えば、合焦表示、撮影準備完了表示、手振れ警告表示、フラッシュ充電表示、フラッシュ充電完了表示等である。また、例えば、シャッタースピード表示、絞り値表示、露出補正表示、記録媒体書き込み動作表示等である。
また、表示部31の表示内容のうち、LED等に表示するものとしては、例えば、合焦表示、撮影準備完了表示、手振れ警告表示、手振れ警告表示、フラッシュ充電表示、フラッシュ充電完了表示等である。また、例えば、記録媒体書き込み動作表示、マクロ撮影設定通知表示、二次電池充電状態表示等である。
また、表示部31の表示内容のうち、ランプ等に表示するものとしては、例えば、セルフタイマー通知ランプ等である。このセルフタイマー通知ランプは、AF補助光と共用して用いてもよい。
Among the display contents of the display unit 31, what is displayed in the optical viewfinder 33 is, for example, a focus display, a shooting preparation completion display, a camera shake warning display, a flash charge display, a flash charge completion display, or the like. Also, for example, shutter speed display, aperture value display, exposure correction display, recording medium writing operation display, and the like.
Further, among the display contents of the display unit 31, what is displayed on the LED or the like is, for example, in-focus display, shooting preparation completion display, camera shake warning display, camera shake warning display, flash charge display, flash charge completion display, or the like. . Further, for example, a recording medium writing operation display, a macro shooting setting notification display, a secondary battery charge state display, and the like.
Moreover, what is displayed on a lamp etc. among the display contents of the display part 31 is a self-timer notification lamp etc., for example. This self-timer notification lamp may be used in common with AF auxiliary light.

不揮発性メモリ34は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。
モードダイアルスイッチ35、シャッタースイッチ(SW1)36、シャッタースイッチ(SW2)37、再生スイッチ38、単写/連写スイッチ39及び操作部32等のユーザ操作部分は、カメラ部システム制御部19に動作指示を入力するためのものである。
これらのユーザ操作部分は、スイッチ、ダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。
モードダイアルスイッチ35は、自動撮影モード、プログラム撮影モード、シャッター速度優先撮影モード、絞り優先撮影モード、マニュアル撮影モード、焦点深度優先(デプス)撮影モード等の各機能撮影モードを切り替え設定するスイッチである。その他、切り替え設定する撮影モードには、例えば、ポートレート撮影モード、風景撮影モード、接写撮影モード、スポーツ撮影モード、夜景撮影モード、パノラマ撮影モード等がある。
The nonvolatile memory 34 is an electrically erasable / recordable memory, and for example, an EEPROM or the like is used.
User operation parts such as a mode dial switch 35, a shutter switch (SW1) 36, a shutter switch (SW2) 37, a playback switch 38, a single-shot / continuous-shot switch 39, and an operation unit 32 are instructed to operate the camera unit system control unit 19. Is for entering.
These user operation parts are configured by a single or a plurality of combinations such as a switch, a dial, a touch panel, pointing by eye-gaze detection, and a voice recognition device.
The mode dial switch 35 is a switch for switching and setting each function shooting mode such as an automatic shooting mode, a program shooting mode, a shutter speed priority shooting mode, an aperture priority shooting mode, a manual shooting mode, and a depth of focus priority (depth) shooting mode. . Other shooting modes to be switched include, for example, a portrait shooting mode, a landscape shooting mode, a close-up shooting mode, a sports shooting mode, a night scene shooting mode, a panoramic shooting mode, and the like.

シャッタースイッチ(SW1)36は、図示しないシャッターボタンの操作途中でONとなり、AF処理、AE処理、AWB処理、EF処理等の動作開始を指示する。
シャッタースイッチ(SW2)37は、図示しないシャッターボタンの操作完了でONとなり、一連の処理を指示する。この一連の処理では、撮像素子12から読み出した信号をA/D変換器15、メモリ制御部17を介してRAM21に画像データを書き込む露光処理、画像処理部22やメモリ制御部17での演算を用いた現像処理が行われる。また、RAM21から画像データを読み出し、圧縮・伸長部26で圧縮を行い、記録媒体150、160に画像データを書き込む記録処理が行われる。
The shutter switch (SW1) 36 is turned ON during operation of a shutter button (not shown), and instructs to start operations such as AF processing, AE processing, AWB processing, and EF processing.
The shutter switch (SW2) 37 is turned on when the operation of a shutter button (not shown) is completed, and instructs a series of processing. In this series of processes, the signal read from the image sensor 12 is subjected to exposure processing for writing image data into the RAM 21 via the A / D converter 15 and the memory control unit 17, and the calculation by the image processing unit 22 and the memory control unit 17. The used development processing is performed. Further, a recording process is performed in which the image data is read from the RAM 21, compressed by the compression / decompression unit 26, and written to the recording media 150 and 160.

再生スイッチ38は、撮影した静止画像、動画像をRAM21又は記録媒体150、160から読み出して画像表示部20に表示する再生動作の開始を指示する。また、再生スイッチ38は、記録した動画像の再生も行い、画像表示部20に動画像を表示する。
単写/連写スイッチ39は、シャッタースイッチSW2を押した場合に、1駒の撮影を行って待機状態とする単写モードと、シャッタースイッチSW2を押している間は連続して撮影を行い続ける連写モードとを設定するスイッチである。
The playback switch 38 instructs the start of a playback operation for reading the captured still image and moving image from the RAM 21 or the recording media 150 and 160 and displaying them on the image display unit 20. The playback switch 38 also plays back the recorded moving image and displays the moving image on the image display unit 20.
The single-shot / continuous-shot switch 39, when the shutter switch SW2 is pressed, performs a single-shot mode in which one frame is shot and enters a standby state, and continuous shooting continues while the shutter switch SW2 is pressed. This is a switch for setting the mode.

操作部32は、各種ボタン等からなり、例えば、メニューボタン、ライブビューを開始するセットボタン、動画記録を開始終了する動画記録開始/終了ボタン、動画再生を停止し静止画を表示させる動画停止ボタン等がある。また、例えば、画像認識を開始させる画像認識開始ボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタンがある。また、例えば、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタンがある。また、例えば、パノラマモード等の撮影及び再生を実行するときに各種機能の選択及び切り替えを設定する選択/切り替えボタン、パノラマモード等の撮影及び再生を実行するときに各種機能の決定及び実行を設定する決定/実行ボタンがある。また、例えば、画像表示部20のON/OFFを設定する画像表示ON/OFFスイッチ、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定するクイックレビューON/OFFスイッチがある。また、例えば、JPEG圧縮の圧縮率を選択するため或いは撮像素子12の信号をそのままデジタル化して記録媒体に記録するCCDRAWモードを選択するための圧縮モードスイッチがある。また、例えば、再生モード、マルチ画面再生・消去モード、PC接続モード等の各機能モードを設定することができる再生スイッチ、AFモード設定スイッチ等がある。AFモード設定スイッチは、シャッタースイッチSW1を押したならばオートフォーカス動作を開始し、一旦合焦したならばその合焦状態を保ち続けるワンショットAFモードに設定することができる。また、AFモード設定スイッチは、シャッタースイッチSW1を押している間は連続してオートフォーカス動作を続けるサーボAFモードを設定することができる。なお、上述したプラスボタン及びマイナスボタンの各機能は、回転ダイアルスイッチにすることにより、簡単に数値や機能を選択することができる。   The operation unit 32 includes various buttons, for example, a menu button, a set button for starting live view, a moving image recording start / end button for starting and ending moving image recording, and a moving image stop button for stopping moving image reproduction and displaying a still image. Etc. Further, for example, there are an image recognition start button for starting image recognition, a macro button, a multi-screen playback page break button, a flash setting button, and a single shooting / continuous shooting / self-timer switching button. Also, for example, menu movement + (plus) button, menu movement-(minus) button, playback image movement + (plus) button, playback image-(minus) button, shooting image quality selection button, exposure compensation button, date / time setting There is a button. Also, for example, a selection / switch button for setting selection and switching of various functions when shooting and playback in panorama mode, etc., and determination and execution of various functions when executing shooting and playback in panorama mode, etc. There is a decision / execute button to perform. Further, for example, there are an image display ON / OFF switch for setting ON / OFF of the image display unit 20, and a quick review ON / OFF switch for setting a quick review function for automatically reproducing image data taken immediately after shooting. Further, for example, there is a compression mode switch for selecting a compression rate of JPEG compression or for selecting a CCD RAW mode in which a signal from the image sensor 12 is directly digitized and recorded on a recording medium. Also, for example, there are a playback switch, an AF mode setting switch, and the like that can set each function mode such as a playback mode, a multi-screen playback / erase mode, and a PC connection mode. The AF mode setting switch can be set to a one-shot AF mode that starts an autofocus operation when the shutter switch SW1 is pressed and keeps the focused state once focused. Further, the AF mode setting switch can set a servo AF mode in which the autofocus operation is continuously performed while the shutter switch SW1 is pressed. It should be noted that the functions of the plus button and the minus button described above can be easily selected from numerical values and functions by using a rotary dial switch.

また、ユーザは、この操作部32を用いて、画像を認識させたい物体を指定することができる。この指定は、単数の物体に限られず、複数の物体の指定であってもよい。なお、画像を認識させる物体の指定は、操作部32に限られず、入力部40を用いてもよい。
また、ユーザは、この操作部32を用いて、ピントを合わせたい物体の指定を行うことができる。なお、ピントを合わせたい物体の指定は、操作部32に限られず、入力部40を用いてもよい。
Further, the user can designate an object whose image is to be recognized using the operation unit 32. This designation is not limited to a single object, but may be a designation of a plurality of objects. The designation of the object for recognizing the image is not limited to the operation unit 32, and the input unit 40 may be used.
In addition, the user can designate an object to be focused using the operation unit 32. The object to be focused on is not limited to the operation unit 32, and the input unit 40 may be used.

電源スイッチ41は、カメラ200の電源オン、電源オフの各モードを切り替え設定するスイッチである。また、電源スイッチ41では、カメラ200に接続されたレンズユニット202、外部ストロボ、記録媒体150、160等の各種付属装置の電源オン、電源オフの設定も合わせて切り替え設定することができる。
電源制御部42は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されている。電源制御部42は、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びカメラ部システム制御部19の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体150、160を含む各部へ供給する。
The power switch 41 is a switch that switches between power-on and power-off modes of the camera 200. In addition, the power switch 41 can also switch and set the power on and power off settings of various accessory devices such as the lens unit 202 connected to the camera 200, the external strobe, and the recording media 150 and 160.
The power control unit 42 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like. The power supply control unit 42 detects the presence / absence of a battery, the type of battery, and the remaining battery level, controls the DC-DC converter based on the detection result and the instruction of the camera unit system control unit 19, and sets the necessary voltage. It supplies to each part containing the recording media 150 and 160 for a required period.

カメラ本体201及び電源45は、それぞれコネクタ43、44によって、接続される。電源45は、例えば、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池、Li電池等の二次電池、ACアダプタ等である。
記録媒体150、160は、コネクタ151、161によってカメラ本体201のコネクタ48、49に接続される。記録媒体150、160は、例えば半導体メモリ又はハードディスク等の記録部153、163と、インタフェース152、162とを含み、カメラ本体201側のインタフェース46、47を介してカメラ本体201内のバスに接続される。
The camera body 201 and the power source 45 are connected by connectors 43 and 44, respectively. The power source 45 is, for example, a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter.
The recording media 150 and 160 are connected to the connectors 48 and 49 of the camera body 201 by the connectors 151 and 161. The recording media 150 and 160 include, for example, recording units 153 and 163 such as a semiconductor memory or a hard disk, and interfaces 152 and 162, and are connected to a bus in the camera body 201 via the interfaces 46 and 47 on the camera body 201 side. The

記録媒体着脱検知部50は、コネクタ48、49に記録媒体150、160が接続されているか否かを検知する。なお、本実施形態では、記録媒体を取り付けるインタフェース及びコネクタを2系統有するものとして説明しているが、これらは1系統でもよいし、3系統以上でもよい。複数系統のインタフェース及びコネクタを備える場合は、それらは互いに異なる仕様を有していてもよい。インタフェース46、47並びにコネクタ48、49としては例えば、PCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いることができる。この場合、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード等の各種通信カードを接続することができる。そして、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を相互に転送することができる。   The recording medium attachment / detachment detection unit 50 detects whether or not the recording media 150 and 160 are connected to the connectors 48 and 49. In the present embodiment, the description has been made assuming that the interface and the connector for attaching the recording medium are two systems, but these may be one system or three systems or more. When a plurality of interfaces and connectors are provided, they may have different specifications. As the interfaces 46 and 47 and the connectors 48 and 49, for example, those conforming to the standard such as a PCMCIA card or a CF (Compact Flash (registered trademark)) card can be used. In this case, various communication cards such as a LAN card, a modem card, a USB card, an IEEE 1394 card, a P1284 card, a SCSI card, a communication card such as a PHS can be connected. Then, image data and management information attached to the image data can be transferred to and from other peripheral devices such as computers and printers.

光学ファインダ33は、撮影レンズ110に入射した光線を、一眼レフ方式によって、絞り111、レンズマウント106及び13、ミラー14、28を介して導き、光学像として結像表示することができる。したがって、画像表示部20による電子ファインダ機能を使用することなく、光学ファインダ33のみを用いて撮影を行うことができる。光学ファインダ33内には、表示部31の一部の機能、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示等が配置されている。   The optical finder 33 can guide the light incident on the photographing lens 110 through the diaphragm 111, the lens mounts 106 and 13, and the mirrors 14 and 28 by the single-lens reflex method, and can form and display it as an optical image. Therefore, it is possible to perform photographing using only the optical viewfinder 33 without using the electronic viewfinder function of the image display unit 20. In the optical viewfinder 33, some functions of the display unit 31, for example, focus display, camera shake warning display, flash charge display, shutter speed display, aperture value display, exposure correction display, and the like are arranged.

通信部51は、例えば、IEEE1394等であり、カメラ200をPC等の外部装置に接続する。カメラ200は、通信部51を介することで、RAM21やROM53及び記録部153、163に格納された情報をPCに送信したり、逆に各種情報を受信したりする。ここでは、通信部51は、主に撮影データや画像データの送受信を行うために用いられる。また、通信部51は、RS232C、USB、USB2、P1284、SCSI、モデム、LAN、無線通信等により構成してもよい。
また、通信部51には、カメラ200を他の外部装置に接続するコネクタ52、又は無線通信機能を有するときには、アンテナが接続される。コネクタ52は、カメラ本体201と外部装置との間で制御信号、状態信号、データ信号等を互いに転送すると共に、各種電圧の電流を供給する機能も備えている。なお、コネクタ52は、電気通信のみならず、光通信、音声通信等により通信できるように構成してもよい。
The communication unit 51 is, for example, IEEE 1394 or the like, and connects the camera 200 to an external device such as a PC. The camera 200 transmits information stored in the RAM 21, ROM 53, and recording units 153 and 163 to the PC via the communication unit 51, and conversely receives various types of information. Here, the communication unit 51 is mainly used for transmitting and receiving shooting data and image data. The communication unit 51 may be configured by RS232C, USB, USB2, P1284, SCSI, modem, LAN, wireless communication, or the like.
The communication unit 51 is connected to a connector 52 for connecting the camera 200 to another external device, or an antenna when having a wireless communication function. The connector 52 has functions of transferring control signals, status signals, data signals, and the like between the camera body 201 and an external device and supplying currents of various voltages. The connector 52 may be configured to be able to communicate not only by electrical communication but also by optical communication, voice communication, or the like.

インタフェース54は、レンズマウント13内において、カメラ本体201をレンズユニット202に接続する。コネクタ55は、カメラ本体201をレンズユニット202に電気的に接続する。レンズ着脱検知部56は、レンズマウント13及びコネクタ55にレンズユニット202が装着されているか否かを検知する。
ミラー14及びミラー28は、撮影レンズ110に入射した光線を、一眼レフ方式によって光学ファインダ33に導く。なお、ミラー28は、クイックリターンミラーの構成であってもよく、ハーフミラーの構成であってもよい。
The interface 54 connects the camera body 201 to the lens unit 202 in the lens mount 13. The connector 55 electrically connects the camera body 201 to the lens unit 202. The lens attachment / detachment detection unit 56 detects whether or not the lens unit 202 is attached to the lens mount 13 and the connector 55.
The mirror 14 and the mirror 28 guide the light beam incident on the photographing lens 110 to the optical viewfinder 33 by a single-lens reflex system. The mirror 28 may have a quick return mirror configuration or a half mirror configuration.

記録媒体150、160は、例えば、メモリカードやハードディスク等であり、撮影した静止画像及び動画像を記録する。記録媒体150、160には、半導体メモリや磁気ディスク等から構成される記録部153、163、カメラ本体201とのインタフェース152、162、カメラ本体201と接続を行うコネクタ151、161を備えている。   The recording media 150 and 160 are, for example, a memory card or a hard disk, and record captured still images and moving images. The recording media 150 and 160 include recording units 153 and 163 each including a semiconductor memory or a magnetic disk, interfaces 152 and 162 with the camera body 201, and connectors 151 and 161 for connection with the camera body 201.

ROM53は、電気的に消去・記録可能な不揮発性メモリであり、カメラ200の電源がOFF状態であっても、その記憶内容が保持される。特に、ROM53には、カメラ動作を制御するプログラムを格納したり、撮影モードや撮影情報及び諸々のパラメータを記憶したりするために用いられる。
DMAコントローラ57は、画像表示部20にデータが表示されているとき、RAM21上に用意された表示用データを画像表示部20にDMA転送を行う。このDMA転送により転送されたデータが画像表示部20に表示される。
The ROM 53 is an electrically erasable and recordable non-volatile memory, and the stored contents are retained even when the camera 200 is turned off. In particular, the ROM 53 is used to store a program for controlling the camera operation, and to store a shooting mode, shooting information, and various parameters.
When data is displayed on the image display unit 20, the DMA controller 57 performs DMA transfer of display data prepared on the RAM 21 to the image display unit 20. The data transferred by this DMA transfer is displayed on the image display unit 20.

画像認識部23は、画像処理部22からのデータ又はメモリ制御部17からのデータに対して所定の画像認識処理を行う。また、画像認識部23は、画像認識する物体の動作を検出する処理を行う。例えば、画像認識部23は、ボールの大きさを検出したり、顔認識の処理をしたりする。ここで、顔認識とは、画像に顔があるか否かを検出するものである。なお、画像から顔認識を行う技術は、顔認識技術として、既に多くの方法により実現されている。   The image recognition unit 23 performs a predetermined image recognition process on the data from the image processing unit 22 or the data from the memory control unit 17. In addition, the image recognition unit 23 performs a process of detecting the motion of the object that recognizes the image. For example, the image recognition unit 23 detects the size of the ball or performs face recognition processing. Here, the face recognition is to detect whether or not there is a face in the image. Note that a technique for performing face recognition from an image has already been realized by many methods as a face recognition technique.

例えば、特許文献2では、撮影した画像から人の顔を抽出する方法として、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔とする方法が開示されている。また、特許文献3では、測光データを色相と彩度とに変換し、この2次元ヒストグラムを作成、解析することで顔領域を判断する方法が開示されている。更に、特許文献4では、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定するという方法が提案されている。本実施形態において、顔認識を行う方法は、どのような方法であってもよい。また、画像認識部23は、顔認識を行い、笑顔を検出したり、泣き顔を検出したり、怒った顔を検出したりする。   For example, Patent Document 2 discloses a method of extracting a human face from a captured image by extracting skin color data from an original image and using a cluster of photometric points determined as a skin color range as a face. Patent Document 3 discloses a method of determining a face area by converting photometric data into hue and saturation, and creating and analyzing this two-dimensional histogram. Furthermore, Patent Document 4 proposes a method of extracting a face candidate area corresponding to the shape of a human face and determining a face area from the feature amount in the area. In this embodiment, the method for performing face recognition may be any method. The image recognition unit 23 performs face recognition to detect a smile, a crying face, or an angry face.

入力部40は、例えばタッチパネル(検知部)である。タッチパネルは、画像表示部20に対する接触を検知する。したがって、ユーザは、タッチパネルにより画像を認識させたい物体を指定することができる。この指定は、単数の物体に限られず、複数の物体の指定であってもよい。なお、画像を認識させる物体の指定は、入力部40に限られず、上述した操作部32を用いてもよい。
また、ユーザは、この入力部40を用いて、ピントを合わせたい物体の指定を行うことができる。なお、ピントを合わせたい物体の指定は、入力部40に限られず、上述した操作部32を用いてもよい。
The input unit 40 is, for example, a touch panel (detection unit). The touch panel detects contact with the image display unit 20. Therefore, the user can specify an object whose image is to be recognized on the touch panel. This designation is not limited to a single object, but may be a designation of a plurality of objects. The designation of the object for which the image is recognized is not limited to the input unit 40, and the operation unit 32 described above may be used.
In addition, the user can specify an object to be focused using the input unit 40. The object to be focused on is not limited to the input unit 40, and the operation unit 32 described above may be used.

次に、レンズユニット202について説明する。レンズユニット202は、カメラ本体201に対して着脱できる交換レンズタイプである。
レンズマウント106は、レンズユニット202をカメラ本体201に機械的に結合する。レンズマウント106内には、レンズユニット202をカメラ本体201に電気的に接続する各種機能が含まれている。
インタフェース114は、レンズマウント106内において、レンズユニット202をカメラ本体201と接続する。コネクタ115は、レンズユニット202をカメラ本体201に電気的に接続する。コネクタ115は、カメラ本体201とレンズユニット202との間で制御信号、状態信号、データ信号等を互いに転送すると共に、各種電圧の電流を供給される、又は供給する機能も備えている。なお、コネクタ115は、電気通信のみならず、光通信、音声通信等により通信できるように構成としてもよい。
Next, the lens unit 202 will be described. The lens unit 202 is an interchangeable lens type that can be attached to and detached from the camera body 201.
The lens mount 106 mechanically couples the lens unit 202 to the camera body 201. The lens mount 106 includes various functions for electrically connecting the lens unit 202 to the camera body 201.
The interface 114 connects the lens unit 202 to the camera body 201 in the lens mount 106. The connector 115 electrically connects the lens unit 202 to the camera body 201. The connector 115 transfers a control signal, a status signal, a data signal, and the like between the camera body 201 and the lens unit 202, and has a function of supplying or supplying a current of various voltages. The connector 115 may be configured to be able to communicate not only by electrical communication but also by optical communication, voice communication, or the like.

絞り制御部112は、測光部27からの測光情報に基づいて、シャッター11を制御する露光制御部24と連携しながら、絞り111を制御する。測距制御部113は、撮影レンズ110のフォーカシングを制御する。また、ズーム制御部116は、撮影レンズ110のズーミングを制御する。
レンズシステム制御部117は、レンズユニット202全体を制御する。レンズシステム制御部117は、動作用の定数、変数、プログラム等を記憶するメモリを備えている。また、レンズシステム制御部117は、レンズユニット202固有の番号等の識別情報、管理情報、開放絞り値や最小絞り値、焦点距離等の機能情報、現在や過去の各設定値等を保持する不揮発メモリの機能も備えている。
The aperture control unit 112 controls the aperture 111 in cooperation with the exposure control unit 24 that controls the shutter 11 based on the photometry information from the photometry unit 27. The distance measurement control unit 113 controls focusing of the photographing lens 110. The zoom control unit 116 controls zooming of the photographing lens 110.
The lens system control unit 117 controls the entire lens unit 202. The lens system control unit 117 includes a memory for storing operation constants, variables, programs, and the like. The lens system control unit 117 also holds identification information such as a number unique to the lens unit 202, management information, function information such as an open aperture value, minimum aperture value, and focal length, and current and past set values. It also has a memory function.

次に、図2に示すフローチャートを参照して、本実施形態に係るカメラの動作処理について説明する。まず、画像認識させたい物体の指定方法について説明する。本実施形態では、ユーザによってライブビューモードが設定されているものとする。ライブビューモードでは、ミラー14が光路から退避し、光学像が撮像素子12に入射し続け、リアルタイムで生成された動画を画像表示部20に表示することができる。このとき、ミラー14が光路から退避しているため、AF処理とAE処理はそれぞれ測距部25と測光部27を用いるのではなく、撮像素子12で生成された画像データを用いて行われる。
ステップS201において、ユーザによってカメラ200の電源スイッチ41がONにされると、カメラ200のカメラ部システム制御部19が、カメラ本体201、レンズユニット202を起動する。
次に、ステップS202において、デジタル部システム制御部18は、撮像素子12に結像された画像の画像データをリアルタイムで画像表示部20に表示する。
Next, the operation processing of the camera according to the present embodiment will be described with reference to the flowchart shown in FIG. First, a method for specifying an object to be recognized is described. In the present embodiment, it is assumed that the live view mode is set by the user. In the live view mode, the mirror 14 is retracted from the optical path, the optical image continues to enter the image sensor 12, and a moving image generated in real time can be displayed on the image display unit 20. At this time, since the mirror 14 is retracted from the optical path, the AF process and the AE process are performed not using the distance measuring unit 25 and the photometric unit 27 but using the image data generated by the image sensor 12.
In step S <b> 201, when the user turns on the power switch 41 of the camera 200, the camera unit system control unit 19 of the camera 200 activates the camera body 201 and the lens unit 202.
Next, in step S202, the digital unit system control unit 18 displays the image data of the image formed on the image sensor 12 on the image display unit 20 in real time.

次に、ステップS203において、カメラ部システム制御部19が、ユーザによって動画記録開始ボタンの押下されるまで待機する。カメラ部システム制御部19が動画記録開始ボタンの押下を検出すると、デジタル部システム制御部18は、記録媒体150、160に動画像データの記録を開始する。
次に、ステップS204において、カメラ部システム制御部19は、ユーザにより動画記録終了ボタンが押下されたか否かを判定する。動画記録終了ボタンの押下を検出した場合、ステップS205に処理を進める。
ステップS205において、デジタル部システム制御部18は、記録媒体150、160に記憶した動画像の画像データを再生する。この処理は、動画再生手段の一例に対応する。
Next, in step S203, the camera unit system control unit 19 waits until the user presses the moving image recording start button. When the camera unit system control unit 19 detects pressing of the moving image recording start button, the digital unit system control unit 18 starts recording moving image data on the recording media 150 and 160.
Next, in step S204, the camera unit system control unit 19 determines whether or not the moving image recording end button has been pressed by the user. If it is detected that the moving image recording end button has been pressed, the process proceeds to step S205.
In step S <b> 205, the digital unit system control unit 18 reproduces the moving image image data stored in the recording media 150 and 160. This process corresponds to an example of a moving image reproducing unit.

次に、ステップS206において、デジタル部システム制御部18は、ユーザによって画像認識させたい物体が画像表示部20に表示されたことを示す操作が行われたか否かを判断する。例えば、ユーザによって動画像の再生を停止(一時停止)する操作がされたか否かを判断する。物体が表示された場合、ステップS207に処理を進める。
ステップS207において、デジタル部システム制御部18は、動画像の画像データの再生を停止し、画像表示部20に静止画を表示する。
次に、ステップS208において、デジタル部システム制御部18は、画像表示部20に表示されている画像のうち、ユーザが指定した領域を検出する。ユーザは、タッチパネルとしての入力部40を介して、画像認識させたい物体(第一の物体)を指定する。具体的には、ユーザは、画像表示部20に表示されている画像のうち画像認識させたい物体に、画像表示部20上で接触する。例えば、画像表示部20上で物体を囲むように丸(○)をつけたり、印をつけたり、輪郭をなぞったりすることにより指定する。なお、物体の指定方法は、この場合に限られず、例えば上述したように操作部32を用いてもよい。また、画像認識させたい物体を複数指定してもよい。
ユーザにより画像認識させたい物体が指定されると、デジタル部システム制御部18は、タッチパネルによる検知データ(検知情報)に基づいて、画像表示部20に表示されている物体のうち何れの物体が指定されたかを画像データと照合して、検出する。この処理は、指定物体検出手段の一例に対応する。その後、画像認識部23は、物体が人物であるか等の判定を行い、その特徴データ等をRAM21等に記憶する。
Next, in step S <b> 206, the digital unit system control unit 18 determines whether or not an operation indicating that an object to be recognized by the user is displayed on the image display unit 20 has been performed. For example, it is determined whether or not the user has performed an operation to stop (pause) the reproduction of the moving image. If an object is displayed, the process proceeds to step S207.
In step S207, the digital unit system control unit 18 stops the reproduction of the image data of the moving image and displays a still image on the image display unit 20.
Next, in step S <b> 208, the digital unit system control unit 18 detects an area designated by the user in the image displayed on the image display unit 20. The user designates an object (first object) to be recognized through the input unit 40 as a touch panel. Specifically, the user contacts an object to be recognized in the image displayed on the image display unit 20 on the image display unit 20. For example, it is specified by marking a circle (◯) so as to surround an object on the image display unit 20, marking it, or tracing an outline. The object designation method is not limited to this case, and the operation unit 32 may be used as described above, for example. In addition, a plurality of objects to be recognized may be designated.
When an object to be image-recognized is designated by the user, the digital unit system control unit 18 designates any of the objects displayed on the image display unit 20 based on detection data (detection information) by the touch panel. It is detected by comparing with the image data. This process corresponds to an example of the designated object detection unit. Thereafter, the image recognition unit 23 determines whether or not the object is a person, and stores the feature data or the like in the RAM 21 or the like.

次に、ステップS209において、デジタル部システム制御部18は、指定した物体のどの動作が、静止画撮影を開始させるタイミングとしてユーザによって指定されたかを検出する。ここでは、デジタル部システム制御部18は、画像表示部20に図3に示すような、複数の物体の動作項目からなるメニュー300を表示する。図3に示すメニュー300には、物体の大きさを示す項目として、「同じ大きさになったら」の動作項目301が表示されている。また、人物の表情を示す項目として、「笑ったら」の動作項目302、「泣いたら」の動作項目303、「怒ったら」の動作項目304が表示されている。また、人物の動作を示す項目として、「投げたら」の動作項目305が表示されている。ユーザは、操作部32を介して、メニュー300の中から所望する物体の動作項目を選択して、指定する。ここでは、ユーザは、例えば「笑ったら」の動作項目302を選択したものとする。デジタル部システム制御部18は、ユーザによって選択された動作項目を検出する。この処理は、選択検出手段の一例に対応する。
その後、デジタル部システム制御部18は、選択された動作項目をRAM21等に記憶する。ここでは、デジタル部システム制御部18は、物体の動作項目として「笑ったら」の動作項目をRAM21等に記憶する。
Next, in step S209, the digital unit system control unit 18 detects which operation of the designated object is designated by the user as a timing for starting still image shooting. Here, the digital unit system control unit 18 displays a menu 300 including a plurality of object action items as shown in FIG. 3 on the image display unit 20. In the menu 300 shown in FIG. 3, an operation item 301 “when it becomes the same size” is displayed as an item indicating the size of the object. In addition, as items indicating the facial expression of a person, an action item 302 “if you laugh”, an action item 303 “if you cry”, and an action item 304 “if you get angry” are displayed. In addition, an action item 305 “when thrown” is displayed as an item indicating the action of the person. The user selects and designates an action item of a desired object from the menu 300 via the operation unit 32. Here, for example, it is assumed that the user selects the action item 302 “when you laugh”. The digital unit system control unit 18 detects an operation item selected by the user. This process corresponds to an example of a selection detection unit.
Thereafter, the digital unit system control unit 18 stores the selected operation item in the RAM 21 or the like. Here, the digital unit system control unit 18 stores the operation item “if you laugh” in the RAM 21 or the like as the operation item of the object.

これまでの処理により、レリーズのタイミングを指定できたので、次にピントを合わせる物体を指定する。
ステップS210において、デジタル部システム制御部18は、画像表示部20に表示されている画像のうち、ユーザが指定したピントを合わせたい物体(第二の物体)を検出する。ユーザは、タッチパネルとしての入力部40を介して、ピントを合わせたい物体を指定する。具体的には、ユーザは、画像表示部20に表示されている画像のうちピントを合わせたい物体に、画像表示部20上で接触する。例えば、画像表示部20上で物体に三角(△)をつけたり、印をつけたりすることにより行う。なお、物体の指定方法は、この場合に限られず、例えば上述したように操作部32を用いてもよい。
ユーザにより画像認識させたい物体が指定されると、デジタル部システム制御部18は、タッチパネルによる検知データ(検知情報)に基づいて、画像表示部20に表示されている物体のうち何れの物体が指定されたかを画像データと照合して、検出する。この処理は、第二物体検出手段の一例に対応する。その後、画像認識部23は、物体が人物であるか等の判定を行い、その特徴データ等をRAM21等に記憶する。
この処理により、レリーズ時にピントを合わせる物体を指定することができた。
なお、ピントを合わせる物体を指定する順番と、画像を認識させる物体を指定して物体の動作を指定する順番とは、逆であってもよい。
Since the release timing has been specified by the processing so far, the object to be focused next is specified.
In step S210, the digital unit system control unit 18 detects an object (second object) that the user wants to focus on from the images displayed on the image display unit 20. The user designates an object to be focused through the input unit 40 as a touch panel. Specifically, the user touches on the image display unit 20 an object to be focused on among the images displayed on the image display unit 20. For example, this is performed by adding a triangle (Δ) to the object or marking the object on the image display unit 20. The object designation method is not limited to this case, and the operation unit 32 may be used as described above, for example.
When an object to be image-recognized is designated by the user, the digital unit system control unit 18 designates any of the objects displayed on the image display unit 20 based on detection data (detection information) by the touch panel. It is detected by comparing with the image data. This process corresponds to an example of the second object detection unit. Thereafter, the image recognition unit 23 determines whether or not the object is a person, and stores the feature data or the like in the RAM 21 or the like.
With this process, it was possible to specify an object to be focused at the time of release.
Note that the order in which the object to be focused is designated and the order in which the object to be recognized is designated and the operation of the object is designated may be reversed.

次に、指定したレリーズタイミングで指定した物体にピントを合わせて自動的に撮影する方法について説明する。
まず、ステップS211において、デジタル部システム制御部18は、撮像素子12に結像された画像の画像データをリアルタイムで画像表示部20に表示する。
次に、ステップS212において、画像認識部23は、表示している画像の画像データからステップS208で指定された物体を認識する。この処理は、物体認識手段の一例に対応する。
Next, a description will be given of a method of automatically shooting by focusing on an object designated at a designated release timing.
First, in step S <b> 211, the digital unit system control unit 18 displays the image data of the image formed on the image sensor 12 on the image display unit 20 in real time.
Next, in step S212, the image recognition unit 23 recognizes the object specified in step S208 from the image data of the displayed image. This process corresponds to an example of an object recognition unit.

ステップS213において、画像認識部23は、認識している物体の所定の動作を検出する。この処理は、動作検出手段の一例に対応する。ここで、所定の動作とは、ステップS209で指定した物体の動作である。上述では、ユーザは、図3に示すメニュー300のうち「笑ったら」の動作項目302を選択したので、画像認識部23は、認識している物体が「笑った」か否かを判定する。所定の動作と同じ動作をしたことを検出した場合、画像認識部23は、デジタル部システム制御部18に通知し、ステップS214に処理を進める。なお、このとき、画像認識部23は、表示している画像の画像データからステップS210で指定された物体(第二の物体)を認識する。この処理は、第二物体認識手段の一例に対応する。   In step S213, the image recognition unit 23 detects a predetermined operation of the recognized object. This process corresponds to an example of an operation detection unit. Here, the predetermined motion is the motion of the object specified in step S209. In the above description, since the user selects the “when you laugh” action item 302 in the menu 300 shown in FIG. 3, the image recognition unit 23 determines whether or not the recognized object is “laughed”. When it is detected that the same operation as the predetermined operation is detected, the image recognition unit 23 notifies the digital unit system control unit 18 and advances the process to step S214. At this time, the image recognition unit 23 recognizes the object (second object) specified in step S210 from the image data of the displayed image. This process corresponds to an example of the second object recognition unit.

ステップS214において、カメラ部システム制御部19は、ステップS210で指定した物体(第二の物体)にピントを合わせる。この処理は、自動合焦手段の一例に対応する。具体的には、画像処理部22が撮像素子12にて生成された画像データからAF評価値を求め、デジタル部システム制御部18を介してカメラ部システム制御部19にAF評価値を送信する。そして、測距制御部113は、カメラ部システム制御部19又はレンズシステム制御部117の指示の下で、撮影レンズ110を至近側又は∞側に駆動してAF評価値が最大となる位置へ撮影レンズ110を移動させ、指定した物体にピントを合わせる。なお、物体にピントを合わせるオートフォーカスは、例えば、特許文献5、特許文献6及び特許文献7に記載されているような、いわゆるTVAF(コントラスト検知オートフォーカス)とする。TVAFにすることにより、高速でかつ継続させて、物体(第二の物体)にピントを合わせることができる。このTVAFについては、後述する。
続いて、デジタル部システム制御部18およびカメラ部システム制御部19は、静止画の撮像を行う。この処理は、撮像手段の一例に対応する。
このように本実施形態によれば、画像認識した物体の動作に合わせて自動的にレリーズし、またそのピントは画像認識させた物体以外の物体に合わせることができる。したがって、例えば、お母さんが笑ったら、赤ちゃんにピントを合わせて静止画を撮影する等といったことが可能になる。
In step S214, the camera unit system control unit 19 focuses on the object (second object) designated in step S210. This process corresponds to an example of automatic focusing means. Specifically, the image processing unit 22 obtains an AF evaluation value from the image data generated by the image sensor 12 and transmits the AF evaluation value to the camera unit system control unit 19 via the digital unit system control unit 18. Then, the distance measurement control unit 113 drives the photographic lens 110 to the near side or the ∞ side under the instruction of the camera unit system control unit 19 or the lens system control unit 117, and shoots to the position where the AF evaluation value is maximized. The lens 110 is moved to focus on the designated object. The autofocus for focusing on the object is so-called TVAF (contrast detection autofocus) as described in Patent Document 5, Patent Document 6, and Patent Document 7, for example. By using TVAF, the object (second object) can be focused at high speed and continuously. This TVAF will be described later.
Subsequently, the digital unit system control unit 18 and the camera unit system control unit 19 capture a still image. This process corresponds to an example of an imaging unit.
As described above, according to the present embodiment, the shutter is automatically released according to the motion of the image-recognized object, and the focus can be adjusted to an object other than the image-recognized object. Therefore, for example, when the mother laughs, the baby can be focused and a still image can be taken.

次に、図4、図5を参照して、本実施形態で用いられるTVAFについて説明する。
TVAFは、高速でかつ継続させて所定の物体にピントを合わせることができるので、高速で移動する被写体等を撮像するような場合に用いられて好適である。
まず、図4のフローチャートに示すように、ステップS401において、操作部32よりTVAFを行うことを指定されると、カメラ部システム制御部19は、レンズシステム制御部117を動作させ、撮影レンズ110を微小駆動動作させる。デジタル部システム制御部18は、画像処理部22からAF評価値を取得して、現在合焦しているのか、ボケているのか、ボケているときには合焦点はどちらなのかを判断する。より具体的に説明すると、画像処理部22は、1フレームごとに得られた信号から高周波成分又は近接画素の輝度差の積分値を求め、これを合焦度合いを示すAF評価値とする。合焦状態にあるときは、被写体のエッジ部分がはっきりしているためにAF評価値が大きくなる。非合焦状態にあるときは、AF評価値が小さくなる。なお、AF評価値の算出は、デジタル部システム制御部18が行ってもよい。
Next, TVAF used in the present embodiment will be described with reference to FIGS. 4 and 5.
Since TVAF can focus on a predetermined object at high speed and continuously, it is suitable for use when imaging a subject moving at high speed.
First, as shown in the flowchart of FIG. 4, in step S <b> 401, when it is designated by the operation unit 32 to perform TVAF, the camera unit system control unit 19 operates the lens system control unit 117 to move the photographing lens 110. A minute driving operation is performed. The digital unit system control unit 18 acquires the AF evaluation value from the image processing unit 22, and determines whether the focus is currently in focus, whether it is out of focus, or when the focus is out of focus. More specifically, the image processing unit 22 obtains an integrated value of a high-frequency component or a luminance difference between adjacent pixels from a signal obtained for each frame, and uses this as an AF evaluation value indicating the degree of focus. In the in-focus state, the AF evaluation value increases because the edge portion of the subject is clear. When in the out-of-focus state, the AF evaluation value is small. The calculation of the AF evaluation value may be performed by the digital unit system control unit 18.

次に、ステップS402において、デジタル部システム制御部18は、タイミング発生部16のAGCから現在のAGCのゲインに応じ、ステップS403で用いる所定レベルを変更する。これは、タイミング発生部16のAGCがオフ(OFF)のときの値を基準にタイミング発生部16のAGCのゲインが上がるにつれて大きくなるように設定する。
次に、ステップS403において、デジタル部システム制御部18は、AF評価値が所定レベル以下か否かを判定する。AF評価値が所定レベル以下の場合、ステップS414に処理を進める。
Next, in step S402, the digital unit system control unit 18 changes the predetermined level used in step S403 according to the gain of the current AGC from the AGC of the timing generation unit 16. This is set so as to increase as the gain of the AGC of the timing generator 16 increases with reference to the value when the AGC of the timing generator 16 is OFF.
Next, in step S403, the digital unit system control unit 18 determines whether or not the AF evaluation value is equal to or lower than a predetermined level. If the AF evaluation value is equal to or lower than the predetermined level, the process proceeds to step S414.

ステップS414において、デジタル部システム制御部18は、微小駆動動作による方向判別を中止し、現在の撮影レンズ110の位置から山登り方向を設定する。ここで、図5を参照して、山登り方向について、説明する。
図5は、画像に表示されている所定の物体におけるレンズ位置とAF評価値との関係の特性線を示す図であり、横軸にレンズ位置を示し、縦軸にAF評価値を示している。図5に示す特性線は、特性線上の点CでAF評価値が最も高く、至近側及び∞側でAF評価値が低い山型形状である。ここでは、特性線上の点Cに対応するレンズ位置Sが所定の物体の合焦位置である。
ここで、レンズ位置Aである場合、対応する特性線上の点は点aであり、AF評価値は所定レベル以下である。したがって、上述したステップS414において、デジタル部システム制御部18は、山登り方向として図5に示す矢印方向を設定し、以下の処理において合焦位置のレンズ位置Sを検出していく。
ステップS414において、デジタル部システム制御部18が、山登り方向を設定した後、ステップS406に処理を進める。
In step S <b> 414, the digital unit system control unit 18 stops the direction determination by the minute driving operation and sets the mountain climbing direction from the current position of the photographing lens 110. Here, the mountain climbing direction will be described with reference to FIG.
FIG. 5 is a diagram showing a characteristic line of the relationship between the lens position and the AF evaluation value for a predetermined object displayed in the image, the horizontal axis indicates the lens position, and the vertical axis indicates the AF evaluation value. . The characteristic line shown in FIG. 5 is a mountain shape having the highest AF evaluation value at point C on the characteristic line and low AF evaluation values on the near side and the ∞ side. Here, the lens position S corresponding to the point C on the characteristic line is the in-focus position of the predetermined object.
Here, in the case of the lens position A, the corresponding point on the characteristic line is the point a, and the AF evaluation value is below a predetermined level. Therefore, in step S414 described above, the digital unit system control unit 18 sets the arrow direction shown in FIG. 5 as the mountain climbing direction, and detects the lens position S at the in-focus position in the following processing.
In step S414, the digital unit system control unit 18 sets the mountain climbing direction, and then proceeds to step S406.

一方、ステップS403において、AF評価値が所定レベル以下でない場合、ステップS404に処理を進める。
ステップS404において、デジタル部システム制御部18は、微小駆動動作の結果により現在、合焦状態にあるのか否かを判定する。合焦状態にある場合、ステップS410に処理を進める。ステップS410以降において、カメラ部システム制御部19は、撮影レンズ110の移動を停止して、再起動監視処理に進む。
On the other hand, if the AF evaluation value is not below the predetermined level in step S403, the process proceeds to step S404.
In step S <b> 404, the digital unit system control unit 18 determines whether or not it is currently in focus based on the result of the minute driving operation. If it is in focus, the process proceeds to step S410. In step S410 and subsequent steps, the camera unit system control unit 19 stops the movement of the photographing lens 110 and proceeds to the restart monitoring process.

一方、ステップS404において、合焦状態でない場合、ステップS405に処理を進める。ステップS405において、デジタル部システム制御部18は、微小駆動動作の結果により、どちらの方向に合焦点があるかの判別ができたか否かを判定する。方向判別ができない場合、ステップS401に処理を戻す。ステップS405において、方向判別ができた場合、ステップS406に処理を進める。   On the other hand, if the in-focus state is not determined in step S404, the process proceeds to step S405. In step S <b> 405, the digital unit system control unit 18 determines whether or not it is possible to determine which direction is in focus based on the result of the minute driving operation. If the direction cannot be determined, the process returns to step S401. If the direction can be determined in step S405, the process proceeds to step S406.

次に、ステップS406において、カメラ部システム制御部19は、ステップS414で設定された方向、ステップS405で判別した方向に、撮影レンズ110を駆動(山登り駆動動作)する。
次に、ステップS407において、デジタル部システム制御部18は、合焦点、すなわちAF評価信号(AF評価値)の頂点を越えたか否かを判定する。具体的には、図5に示す特性線上の点Cを越えたか否かを判定する。頂点を越えていないと判定した場合、ステップS406に処理を戻し、山登り駆動動作を続ける。
一方、ステップS407において、頂点を越えたと判定した場合、ステップS408に処理を進める。
Next, in step S406, the camera unit system control unit 19 drives the photographic lens 110 in the direction set in step S414 and the direction determined in step S405 (mountain climbing driving operation).
Next, in step S407, the digital unit system control unit 18 determines whether or not the focal point, that is, the vertex of the AF evaluation signal (AF evaluation value) has been exceeded. Specifically, it is determined whether or not the point C on the characteristic line shown in FIG. If it is determined that the peak is not exceeded, the process returns to step S406 to continue the hill-climbing drive operation.
On the other hand, if it is determined in step S407 that the vertex has been exceeded, the process proceeds to step S408.

ステップS408において、カメラ部システム制御部19は、撮影レンズ110を頂点に戻す。しかし、頂点に戻す動作をしている間に、パンニング等により被写体が変化する場合があるので、撮影レンズ110のレンズ位置が、頂点に辿り着いたとき、今いるところが本当に頂点、すなわち合焦点であるのかを判定する必要がある。
したがって、次に、ステップS409において、デジタル部システム制御部18は、撮影レンズ110が頂点に達したか否かを判定する。撮影レンズ110が頂点に達したと判定した場合、ステップS401に処理を戻し、以降の処理で合焦点であるかの判定に処理を進める。ステップS409において、撮影レンズ110が頂点に達していない場合、ステップS408に処理を戻す。
In step S408, the camera unit system control unit 19 returns the photographing lens 110 to the apex. However, since the subject may change due to panning or the like while returning to the apex, when the lens position of the taking lens 110 reaches the apex, the current position is really at the apex, that is, in focus. It is necessary to determine whether it exists.
Therefore, next, in step S409, the digital unit system control unit 18 determines whether or not the photographing lens 110 has reached the apex. If it is determined that the photographic lens 110 has reached the apex, the process returns to step S401, and the process proceeds to the determination of whether the focal point is in the subsequent process. If it is determined in step S409 that the taking lens 110 has not reached the top, the process returns to step S408.

一方、ステップS404において、合焦状態であると判定した場合、ステップS410に処理を進め、デジタル部システム制御部18は、現在合焦状態にある場合のAF評価値レベルをRAM21等に記憶する。
次に、ステップS411において、デジタル部システム制御部18は、再起動判定ルーチンを実行する。この再起動判定ルーチンは、現在合焦状態にある場合に、AF評価値レベルが、前回のステップS410において記憶したレベルに比べ、変動したか否かを判別する処理である。
次に、ステップS412において、デジタル部システム制御部18は、再起動したか否かを判定する。ここで、例えば、ステップS411において記憶したAF評価値レベルに対して、所定レベル以上変化していたら、パンニング等による被写体変化があったとして、「再起動した」と判定する。一方、所定レベル未満の変化量ならば被写体の変化はないとして「再起動しない」と判定する。「再起動しない」と判定した場合、ステップS413に処理を進める。
On the other hand, if it is determined in step S404 that the subject is in focus, the process proceeds to step S410, and the digital system control unit 18 stores the AF evaluation value level in the current focus state in the RAM 21 or the like.
Next, in step S411, the digital unit system control unit 18 executes a restart determination routine. This restart determination routine is a process for determining whether or not the AF evaluation value level has fluctuated compared to the level stored in the previous step S410 when the focus state is currently in focus.
Next, in step S412, the digital part system control part 18 determines whether it restarted. Here, for example, if the AF evaluation value level stored in step S411 has changed by a predetermined level or more, it is determined that the subject has been changed due to panning or the like and “restarted”. On the other hand, if the amount of change is less than the predetermined level, it is determined that there is no change in the subject and “no restart”. If it is determined that “do not restart”, the process proceeds to step S413.

ステップS413において、カメラ部システム制御部19は、撮影レンズ110の移動を停止して、ステップS411に処理を戻し、再び再起動監視処理を行う。一方、ステップS412において「再起動した」と判定した場合、ステップS401に処理を戻し、再び微小駆動動作を行い、合焦判定及び方向判定を行う。
このような、動作を繰り返すことで、絶えず指定した物体(第二の物体)に合焦状態を継続させるように撮影レンズ110を動作させて、TVAFを行うことができる。
In step S413, the camera unit system control unit 19 stops the movement of the photographing lens 110, returns the process to step S411, and performs the restart monitoring process again. On the other hand, if it is determined in step S412 that “re-started”, the process returns to step S401, the minute driving operation is performed again, and focus determination and direction determination are performed.
By repeating such an operation, it is possible to perform the TVAF by operating the photographing lens 110 so as to continue focusing on the designated object (second object).

(第2の実施形態)
次に、図6に示すフローチャートを参照して、野球でピッチャーがボールをバッターに向かって投げ、ボールが指定した大きさになったら、バッターにピントを合わせてレリーズする第2の実施形態について、説明する。本実施形態に係るカメラの構造は、第1の実施形態と同様であり、その説明を省略する。また、図6に示すフローチャートは、第1の実施形態で説明した図2に示すフローチャートと同様の処理については、適宜省略して説明する。
まず、画像認識させたい物体の指定方法について説明する。
図6に示すフローチャートのステップS201〜ステップS206までは、図2に示すフローチャートのステップS201〜ステップS206と同様であり、その説明を省略する。
(Second Embodiment)
Next, referring to the flowchart shown in FIG. 6, in the second embodiment, the pitcher throws the ball toward the batter in baseball, and when the ball reaches a specified size, the batter is focused and released. explain. The structure of the camera according to this embodiment is the same as that of the first embodiment, and a description thereof will be omitted. In the flowchart shown in FIG. 6, processing similar to the flowchart shown in FIG. 2 described in the first embodiment will be omitted as appropriate.
First, a method for specifying an object to be recognized is described.
Steps S201 to S206 in the flowchart shown in FIG. 6 are the same as steps S201 to S206 in the flowchart shown in FIG.

次に、ステップS507において、デジタル部システム制御部18は、動画データの再生を停止し、画像表示部20に静止画を表示する。ここでは、画像表示部20には、画像認識させたいボールが表示されているものとする。
次に、ステップS508において、デジタル部システム制御部18は、画像表示部20に表示されている画像のうち、ユーザが指定した領域を検出する。ユーザは、タッチパネルを介して、画像認識させたい物体(ボール)を指定する。具体的には、ユーザは、画像表示部20に表示されているボールの輪郭を画像表示部20上において囲む。なお、ボールの指定は、この場合に限られない。
Next, in step S507, the digital unit system control unit 18 stops the reproduction of the moving image data and displays a still image on the image display unit 20. Here, it is assumed that the image display unit 20 displays a ball to be recognized.
Next, in step S <b> 508, the digital unit system control unit 18 detects an area designated by the user in the image displayed on the image display unit 20. The user designates an object (ball) to be image-recognized via the touch panel. Specifically, the user surrounds the contour of the ball displayed on the image display unit 20 on the image display unit 20. The designation of the ball is not limited to this case.

次に、ステップS509において、デジタル部システム制御部18は、指定した物体のどの動作が、静止画撮影を開始させるタイミングとしてユーザによって指定されたかを検出する。ユーザは、静止画撮影を開始させるための、指定した物体の動作を指定する。ここでは、ユーザは、図3に示すメニュー300のうち、「同じ大きさになったら」の動作項目301を選択する。なお、動作項目は、この場合に限られず、例えば、「2倍の大きさになったら」等の動作項目であってもよい。   Next, in step S509, the digital unit system control unit 18 detects which operation of the designated object is designated by the user as a timing for starting still image shooting. The user designates the action of the designated object for starting still image shooting. Here, the user selects the action item 301 “when it becomes the same size” from the menu 300 shown in FIG. 3. The action item is not limited to this case, and may be an action item such as “when it becomes twice as large”, for example.

次に、ステップS510において、デジタル部システム制御部18は、画像表示部20に表示されている画像のうち、ユーザが指定したピントを合わせたい物体(第二の物体)を検出する。ユーザは、タッチパネルを介して、ピントを合わせたい物体(バッター)を指定する。具体的には、ユーザは、画像表示部20に表示されているバッターを画像表示部20上において△をつける。なお、バッターの指定は、この場合に限られない。   Next, in step S510, the digital unit system control unit 18 detects an object (second object) that the user wants to focus on from the images displayed on the image display unit 20. The user designates an object (batter) to be focused through the touch panel. Specifically, the user marks a batter displayed on the image display unit 20 on the image display unit 20. The batter designation is not limited to this case.

次に、指定したレリーズタイミングで指定した物体にピントを合わせて自動的に撮影する方法について説明する。図6に示すフローチャートのステップS211は、図2に示すフローチャートのステップS211と同様であり、その説明を省略する。
次に、ステップS512において、画像認識部23は、表示している画像の画像データからステップS508で指定されたボールを認識する。
Next, a description will be given of a method of automatically shooting by focusing on an object designated at a designated release timing. Step S211 of the flowchart shown in FIG. 6 is the same as step S211 of the flowchart shown in FIG.
Next, in step S512, the image recognition unit 23 recognizes the ball specified in step S508 from the image data of the displayed image.

次に、ステップS513において、画像認識部23は、認識しているボールの所定の動作を検出する。ここでは、所定の動作とは、ステップS509で指定した物体の動作である、「同じ大きさになったら」である。すなわち、画像認識部23は、認識しているボールの大きさが、ステップS508において、指定したボールと同じ大きさになったか否かを判定する。同じ大きさになったことを検出した場合、画像認識部23は、デジタル部システム制御部18に通知し、ステップS514に処理を進める。   Next, in step S513, the image recognition unit 23 detects a predetermined motion of the recognized ball. Here, the predetermined movement is the movement of the object specified in step S509, “when it becomes the same size”. That is, the image recognition unit 23 determines whether or not the size of the recognized ball has become the same size as the designated ball in step S508. If it is detected that the size is the same, the image recognition unit 23 notifies the digital unit system control unit 18 and advances the process to step S514.

ステップS514において、カメラ部システム制御部19は、ステップS510で指定したバッターにピントを合わせ、デジタル部システム制御部18およびカメラ部システム制御部19は、静止画の撮像を行う。なお、物体にピントを合わせる方法は、上述したTVAFにすることにより高速でかつ継続させて、バッターにピントを合わせることができる。
上述したような処理により、例えば、ピッチャーがボールをバッターに向かって投げ、そのボールが指定した大きさになると、バッターにピントを合わせてレリーズすることで、自動的に静止画を撮影することができる。
In step S514, the camera unit system control unit 19 focuses on the batter designated in step S510, and the digital unit system control unit 18 and the camera unit system control unit 19 capture a still image. Note that the method of focusing on an object can be continued at high speed by using the TVAF described above, and the batter can be focused.
Through the processing described above, for example, a pitcher throws a ball toward a batter, and when the ball reaches a specified size, the batter is focused and released to automatically shoot a still image. it can.

なお、上述した第1の実施形態及び第2の実施形態では、記録媒体150、160に記憶した動画データを再生して、表示されている画像から画像認識させたい物体及びピントを合わせたい物体を指定する場合について説明したが、この場合に限られない。例えば、画像認識させたい物体及びピントを合わせたい物体は、撮像した静止画から選択してもよく、予め指定したい物体が記憶されている物体を識別するデータから一覧リストを表示し、その一覧リストから指定したい物体を選択できるようにしてもよい。   In the first embodiment and the second embodiment described above, the moving image data stored in the recording media 150 and 160 is reproduced, and the object to be recognized from the displayed image and the object to be focused are determined. Although the case where it designates was demonstrated, it is not restricted to this case. For example, the object to be image-recognized and the object to be focused may be selected from captured still images, and a list is displayed from data for identifying an object in which an object to be specified in advance is stored. The object to be designated may be selected from the above.

なお、上述した実施形態における撮像装置を構成する各手段、並びに制御方法の各ステップは、撮像装置(コンピュータ)のRAMやROM等に記憶されたプログラムが動作することによって実現できる。このプログラム及びこのプログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。 In addition, each means which comprises the imaging device in embodiment mentioned above, and each step of a control method are realizable by the program memorize | stored in RAM, ROM, etc. of the imaging device (computer) operating. This program and a computer-readable recording medium on which this program is recorded are included in the present invention.

なお、本発明は、上述した実施形態の機能を実現するソフトウェアのプログラムを撮像装置に直接、又は遠隔から供給する。そして、その撮像装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   Note that the present invention supplies a software program for realizing the functions of the above-described embodiments directly or remotely to the imaging apparatus. In addition, this includes a case in which the computer of the imaging apparatus can also be achieved by reading and executing the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention. In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

一眼レフデジタルスチルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of a single-lens reflex digital still camera. 第1の実施形態に係る一眼レフデジタルスチルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the single-lens reflex digital still camera which concerns on 1st Embodiment. 画像認識させる物体の動作を指定するためのメニューを示す図である。It is a figure which shows the menu for designating operation | movement of the object made to recognize an image. TVAFの動作を示すフローチャートである。It is a flowchart which shows operation | movement of TVAF. TVAFの動作を説明するための図である。It is a figure for demonstrating operation | movement of TVAF. 第2の実施形態に係る一眼レフデジタルスチルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the single-lens reflex digital still camera which concerns on 2nd Embodiment.

符号の説明Explanation of symbols

200 デジタルスチルカメラ(撮像装置)
201 カメラ本体
202 レンズユニット
110 レンズ
20 画像表示部
18 デジタル部システム制御部
19 カメラ部システム制御部
23 画像認識部
32 操作部
40 入力部
200 Digital still camera (imaging device)
DESCRIPTION OF SYMBOLS 201 Camera main body 202 Lens unit 110 Lens 20 Image display part 18 Digital part System control part 19 Camera part system control part 23 Image recognition part 32 Operation part 40 Input part

Claims (4)

撮像素子と、前記撮像素子に光学像を結像するレンズユニットと、前記レンズユニットを駆動してピントの位置を制御する自動合焦手段と、前記撮像素子にて生成された画像データから予め指定された物体を認識する物体認識手段と、前記物体認識手段により認識された第一の物体による所定の動作を検出する動作検出手段と、前記動作検出手段により所定の動作が検出されたことに応じて、画像データを記録媒体に記録させる記憶手段と、画像表示部と、を有する撮像装置であって、
記録された動画像を再生する動画再生手段と、
前記動画再生手段により再生され、前記画像表示部に表示される動画像から、ユーザによって指定された物体を検出する指定物体検出手段と、を有し、
前記物体認識手段は、前記指定物体検出手段により検出された物体を前記第一の物体として認識し、前記第一の物体とは別の物体を第二の物体として認識し、
前記自動合焦手段は、前記動作検出手段により所定の動作が検出された場合に、前記一の物体とは異なる前記第二の物体にピントを合わせ、
前記記憶手段は、前記第二の物体にピントを合わせた状態の画像データを前記記録媒体に記録させることを特徴とする撮像装置。
An image sensor, a lens unit that forms an optical image on the image sensor, an automatic focusing unit that controls the focus position by driving the lens unit, and image data generated by the image sensor are designated in advance. An object recognizing unit for recognizing the detected object, a motion detecting unit for detecting a predetermined motion by the first object recognized by the object recognizing unit, and when a predetermined motion is detected by the motion detecting unit. An image pickup apparatus having storage means for recording image data on a recording medium, and an image display unit ,
Video playback means for playing back the recorded moving images;
Designated object detection means for detecting an object designated by a user from a moving image reproduced by the moving image reproduction means and displayed on the image display unit,
The object recognition means recognizes the object detected by the designated object detection means as the first object, recognizes an object different from the first object as a second object,
The automatic focusing means, when a predetermined operation is detected by the operation detecting unit, to focus on different said second object from said first object,
The image pickup apparatus, wherein the storage unit records image data in a state in which the second object is in focus on the recording medium.
複数の動作項目から、ユーザによって選択された動作項目を前記所定の動作として記憶する項目記憶手段を更に有することを特徴とする請求項に記載の撮像装置。 The imaging apparatus according to claim 1 , further comprising item storage means for storing an operation item selected by a user from a plurality of operation items as the predetermined operation. 撮像素子と、前記撮像素子に光学像を結像するレンズユニットと、前記レンズユニットを駆動してピントの位置を制御する自動合焦手段と、前記撮像素子にて生成された画像データから予め指定された物体を認識する物体認識手段と、前記物体認識手段により認識された第一の物体による所定の動作を検出する動作検出手段と、前記動作検出手段により所定の動作が検出されたことに応じて、画像データを記録媒体に記録させる記憶手段と、画像表示部と、を有する撮像装置の制御方法であって、
動画再生手段が、記録された動画像を再生する動画再生ステップと、
指定物体検出手段が、前記動画再生手段により再生され、前記画像表示部に表示される動画像から、ユーザによって指定された物体を検出する指定物体検出ステップと、
前記物体認識手段が、前記指定物体検出手段により検出された物体を前記第一の物体として認識し、前記第一の物体とは別の物体を第二の物体として認識するステップと、
前記自動合焦手段が、前記動作検出手段により所定の動作が検出された場合に、前記一の物体とは異なる前記第二の物体にピントを合わせるステップと、
前記記憶手段が、前記第二の物体にピントを合わせた状態の画像データを前記記録媒体に記録させるステップを有することを特徴とする撮像装置の制御方法。
An image sensor, a lens unit that forms an optical image on the image sensor, an automatic focusing unit that controls the focus position by driving the lens unit, and image data generated by the image sensor are designated in advance. An object recognizing unit for recognizing the detected object, a motion detecting unit for detecting a predetermined motion by the first object recognized by the object recognizing unit, and when a predetermined motion is detected by the motion detecting unit. An image pickup apparatus control method comprising: storage means for recording image data on a recording medium; and an image display unit .
A video playback step in which the video playback means plays back the recorded moving image;
A designated object detecting step for detecting an object designated by a user from a moving image reproduced by the moving image reproducing unit and displayed on the image display unit;
The object recognition means recognizing the object detected by the designated object detection means as the first object and recognizing an object different from the first object as a second object;
A step wherein the automatic focusing means, when a predetermined operation is detected by the operation detection unit, focusing on different said second object from said first object,
A method for controlling an imaging apparatus, comprising: a step of recording image data in a state in which the storage unit is focused on the second object on the recording medium.
請求項に記載の撮像装置の制御方法をコンピュータに実行させるためのプログラム。 A non-transitory computer-readable storage medium storing a program for causing a computer to execute the control method for an imaging apparatus according to claim 3 .
JP2008256805A 2008-10-01 2008-10-01 Imaging apparatus, control method thereof, and program Expired - Fee Related JP5164775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008256805A JP5164775B2 (en) 2008-10-01 2008-10-01 Imaging apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008256805A JP5164775B2 (en) 2008-10-01 2008-10-01 Imaging apparatus, control method thereof, and program

Publications (3)

Publication Number Publication Date
JP2010087998A JP2010087998A (en) 2010-04-15
JP2010087998A5 JP2010087998A5 (en) 2011-11-17
JP5164775B2 true JP5164775B2 (en) 2013-03-21

Family

ID=42251464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008256805A Expired - Fee Related JP5164775B2 (en) 2008-10-01 2008-10-01 Imaging apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5164775B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6148431B2 (en) * 2010-12-28 2017-06-14 キヤノン株式会社 Imaging apparatus and control method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4853707B2 (en) * 2006-07-21 2012-01-11 カシオ計算機株式会社 Imaging apparatus and program thereof
JP5056061B2 (en) * 2007-02-22 2012-10-24 株式会社ニコン Imaging device
JP5030022B2 (en) * 2007-12-13 2012-09-19 カシオ計算機株式会社 Imaging apparatus and program thereof

Also Published As

Publication number Publication date
JP2010087998A (en) 2010-04-15

Similar Documents

Publication Publication Date Title
JP4448039B2 (en) Imaging apparatus and control method thereof
JP5258531B2 (en) Imaging apparatus and zoom control method
JP5366584B2 (en) Imaging apparatus, image processing method, and program
JP6148431B2 (en) Imaging apparatus and control method thereof
JP2009044682A (en) Imaging apparatus and control method thereof
JP2006345254A (en) Photographing apparatus, its control method, program, and storage medium
JP2010288240A (en) Imaging apparatus, control method of the same, and program
JP2009086601A (en) Camera
JP4953971B2 (en) Image processing apparatus, image processing apparatus control method, and program for executing the same
JP2005167697A (en) Electronic camera having red-eye correction function
JP5094665B2 (en) Imaging apparatus, control method thereof, and program
JP5164775B2 (en) Imaging apparatus, control method thereof, and program
JP2010008711A (en) Imaging apparatus, imaging method, and program
JP4750616B2 (en) Imaging apparatus and control method thereof
JP4810485B2 (en) Image processing apparatus, image processing method, and computer program
JP2006270426A (en) Imaging apparatus, its control method, and computer program
JP2008268732A (en) Imaging apparatus and range-finding control method for the imaging apparatus
JP6289068B2 (en) Imaging apparatus and control method thereof
JP5178438B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2008060844A (en) Image processor and image processing method
JP2006203665A (en) Imaging device and method therefor, and recording medium and program
JP2016208206A (en) Recording apparatus
JP2006108878A (en) Imaging apparatus
JP2009124420A (en) Image processing apparatus, image processing method, and image processing program
JP5031304B2 (en) Information processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees