JP2006033033A - Method and program for reproducing motion image and image pickup device - Google Patents

Method and program for reproducing motion image and image pickup device Download PDF

Info

Publication number
JP2006033033A
JP2006033033A JP2004204426A JP2004204426A JP2006033033A JP 2006033033 A JP2006033033 A JP 2006033033A JP 2004204426 A JP2004204426 A JP 2004204426A JP 2004204426 A JP2004204426 A JP 2004204426A JP 2006033033 A JP2006033033 A JP 2006033033A
Authority
JP
Japan
Prior art keywords
image
frame
moving image
shooting
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004204426A
Other languages
Japanese (ja)
Inventor
Kenji Nakamura
健二 中村
Masahiro Kitamura
雅裕 北村
Shinichi Fujii
真一 藤井
Yasuhiro Kingetsu
靖弘 金月
Masaru Shintani
大 新谷
Tsutomu Honda
努 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2004204426A priority Critical patent/JP2006033033A/en
Publication of JP2006033033A publication Critical patent/JP2006033033A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion image reproducing technique capable of reproducing frame images corresponding to a desired photographing condition as motion images when frame pictures having different photographing conditions are sequentially photographed and recorded. <P>SOLUTION: The image pickup device can photograph at a high-speed frame rate of three times that of motion image reproduction. When this image pickup device photographs a motion image, a photographing operation is repeated while a focusing condition is changed in a three stages concerning, for example, a focusing position of a main object, thereby enabling sequentially acquiring three kinds of image data (a-c sequence) such as image data f1 of rear focus, image data f2 of just focus and image data f3 of front focus and recording the acquired data. In reproducing this, the frame image of the focus condition selected by a user is extracted from among a group of recorded frame images and time-sequentially reproduced. As a result, the frame images corresponding to the photographing conditions desired by the user can be appropriately reproduced as motion images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、記録手段に記録されたフレーム画像群に基づき動画再生を行う動画再生技術に関する。   The present invention relates to a moving image reproduction technique for performing moving image reproduction based on a frame image group recorded in a recording unit.

撮像装置における動画撮影では、異なる露光時間で撮像される2種類のフレーム画像を交互に取得し、これを合成することにより、原画像と同一のフレームレートでダイナミックレンジが広がった動画を生成する技術がある(特許文献1参照)。   In moving image shooting in an imaging apparatus, a technique for generating a moving image with a wide dynamic range at the same frame rate as the original image by alternately acquiring two types of frame images captured at different exposure times and combining them. (See Patent Document 1).

特開2003−46857号公報JP 2003-46857 A

しかしながら、上記の特許文献1の技術では、2種類のフレーム画像を合成して合成画像を生成するため、合成画像で構成される動画の再生は可能であるものの、合成元のフレーム画像それぞれで構成される各動画を再生したい場合でも、これに対応できるとは限らない。仮に再生できたとしても、交互に撮像しているため撮影時のフレームレートの半分での動画再生となり、滑らかな動きが損なわれることとなる。   However, since the technique disclosed in Patent Document 1 generates a composite image by combining two types of frame images, it is possible to reproduce a moving image composed of the composite images, but each frame image is composed of the original frame images. Even when it is desired to play back each moving image, it is not always possible to cope with this. Even if it can be reproduced, since the images are alternately captured, the moving image is reproduced at half the frame rate at the time of photographing, and the smooth movement is impaired.

本発明は、上記課題に鑑みてなされたものであり、撮影条件の異なるフレーム画像を順次に撮像し記録した場合に、所望の撮影条件に対応したフレーム画像を適切に動画再生できる動画再生技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a moving image reproduction technique capable of appropriately reproducing a frame image corresponding to a desired shooting condition when frame images having different shooting conditions are sequentially captured and recorded. The purpose is to provide.

上記の課題を解決するため、請求項1の発明は、所定の記録手段に記録されたフレーム画像群に基づき動画再生を行う動画再生方法であって、(a)前記フレーム画像群の撮影時に変更された2以上の撮影条件から1の撮影条件を選択する選択工程と、(b)前記フレーム画像群から前記1の撮影条件で撮像されたフレーム画像を抽出し、抽出したフレーム画像を撮像した時系列順に表示手段に表示させて動画再生を行う再生工程とを備え、前記フレーム画像群は、所定のフレームレートに基づくタイミングで前記2以上の撮影条件を順次に変更しつつ撮像された画像群である。   In order to solve the above-mentioned problem, the invention of claim 1 is a moving image reproduction method for reproducing a moving image based on a frame image group recorded in a predetermined recording means, and (a) changed at the time of photographing the frame image group A selection step of selecting one shooting condition from the two or more shooting conditions, and (b) extracting a frame image captured under the first shooting condition from the frame image group and capturing the extracted frame image. A playback step of displaying moving images by displaying on a display means in a sequence order, and the frame image group is an image group captured while sequentially changing the two or more shooting conditions at a timing based on a predetermined frame rate. is there.

また、請求項2の発明は、請求項1の発明に係る動画再生方法において、前記再生工程は、(b-1)前記フレーム画像群から、前記1の撮影条件に対応した判別情報が付与されたフレーム画像を抽出する抽出工程を有し、前記所定の記録手段に記録されたフレーム画像群の各フレーム画像には、前記2以上の撮影条件を区別する前記判別情報が付与されている。   Further, according to a second aspect of the present invention, in the moving image reproduction method according to the first aspect of the invention, in the reproduction step, (b-1) discrimination information corresponding to the first photographing condition is given from the frame image group. In addition, each of the frame images of the frame image group recorded in the predetermined recording unit is provided with the determination information for distinguishing the two or more photographing conditions.

また、請求項3の発明は、請求項1または請求項2の発明に係る動画再生方法において、前記所定のフレームレートは、前記再生工程において動画再生する際のフレームレートに対してN倍(Nは2以上の整数)のフレームレートである。   According to a third aspect of the present invention, in the moving image reproduction method according to the first or second aspect of the present invention, the predetermined frame rate is N times (N Is an integer of 2 or more).

また、請求項4の発明は、所定の記録手段に記録されたフレーム画像群に基づき動画再生を行うコンピュータによって実行されることにより、前記コンピュータに、(a)前記フレーム画像群の撮影時に変更された2以上の撮影条件から1の撮影条件を選択する選択工程と、(b)前記フレーム画像群から前記1の撮影条件で撮像されたフレーム画像を抽出し、抽出したフレーム画像を撮像した時系列順に表示手段に表示させて動画再生を行う再生工程とを実行させ、前記フレーム画像群は、所定のフレームレートに基づくタイミングで前記2以上の撮影条件を順次に変更しつつ撮像された画像群であることを特徴とする動画再生プログラムである。   According to a fourth aspect of the present invention, when executed by a computer that reproduces a moving image based on a frame image group recorded in a predetermined recording means, the computer changes to (a) when the frame image group is shot. A selection step of selecting one shooting condition from two or more shooting conditions; and (b) a time series in which a frame image captured under the first shooting condition is extracted from the frame image group, and the extracted frame image is captured. And a playback step of displaying a moving image by sequentially displaying on the display means, and the frame image group is an image group captured while sequentially changing the two or more shooting conditions at a timing based on a predetermined frame rate. It is a moving picture reproduction program characterized by being.

また、請求項5の発明は、画像表示が可能な表示手段を有する撮像装置であって、(a)被写体に係るフレーム画像を順次に生成する撮像手段と、(b)所定のフレームレートに基づくタイミングで2以上の撮影条件を順次に変更しつつ前記撮像手段によりフレーム画像を順次に撮像し、フレーム画像群として所定の記録媒体に記録する撮影制御手段と、(c)前記2以上の撮影条件から1の撮影条件を選択する選択手段と、(d)前記フレーム画像群から前記1の撮影条件で撮像されたフレーム画像を抽出し、抽出したフレーム画像を撮像した時系列順に前記表示手段に表示させて動画再生を行う再生制御手段とを備える。   Further, the invention of claim 5 is an image pickup apparatus having a display means capable of displaying an image, wherein (a) an image pickup means for sequentially generating frame images relating to a subject, and (b) based on a predetermined frame rate. (C) the two or more shooting conditions; and (c) the two or more shooting conditions, wherein two or more shooting conditions are sequentially changed at the timing, and frame images are sequentially picked up by the image pickup means and recorded as a frame image group on a predetermined recording medium. Selecting means for selecting one shooting condition from (d) extracting a frame image taken under the first shooting condition from the frame image group, and displaying the extracted frame image in time series in which the extracted frame images are taken. And a playback control means for playing back a moving image.

請求項1ないし請求項5の発明によれば、所定のフレームレートに基づくタイミングで2以上の撮影条件を順次に変更しつつ撮像されたフレーム画像群から、選択された1の撮影条件で撮像されたフレーム画像を抽出し、抽出したフレーム画像を撮像した時系列順に表示手段に表示させて動画再生を行う。その結果、所望の撮影条件に対応したフレーム画像を適切に動画再生できる。   According to the first to fifth aspects of the present invention, an image is captured under a selected one imaging condition from a group of frame images captured while sequentially changing two or more imaging conditions at a timing based on a predetermined frame rate. The extracted frame images are extracted, and the extracted frame images are displayed on the display means in the time series in which the extracted frame images are picked up to reproduce the moving image. As a result, a frame image corresponding to a desired shooting condition can be appropriately reproduced as a moving image.

特に、請求項2の発明においては、フレーム画像群から1の撮影条件に対応した判別情報が付与されたフレーム画像を抽出するため、撮影条件が等しいフレーム画像の抽出を簡易に行える。   In particular, in the second aspect of the invention, since the frame image to which the discrimination information corresponding to one shooting condition is added is extracted from the frame image group, it is possible to easily extract the frame image having the same shooting condition.

また、請求項3の発明においては、所定のフレームレートが画再生する際のフレームレートに対してN倍(Nは2以上の整数)のフレームレートであるため、自然な動画再生を行える。   In the invention of claim 3, since the predetermined frame rate is N times (N is an integer of 2 or more) the frame rate at the time of image reproduction, natural moving image reproduction can be performed.

<第1実施形態>
<撮像装置の要部構成>
図1は、本発明の第1実施形態に係る撮像装置1Aを示す斜視図である。また、図2は、撮像装置1Aの背面図である。なお、図1および図2には方位関係を明確にするために互いに直交するX,Y,Zの三軸を示している。
<First Embodiment>
<Principal configuration of imaging device>
FIG. 1 is a perspective view showing an imaging apparatus 1A according to the first embodiment of the present invention. FIG. 2 is a rear view of the image pickup apparatus 1A. 1 and 2 show three axes of X, Y, and Z that are orthogonal to each other in order to clarify the orientation relationship.

撮像装置1Aは、例えばデジタルカメラとして構成されており、カメラ本体10の前面には撮影レンズ11とフラッシュ12とが設けられている。撮影レンズ11の奥には、撮影レンズ11を介して入射する被写体像を光電変換してカラーの画像信号を生成する撮像素子としてのC−MOSセンサ(以下では単に「CMOS」という)21が設けられている。   The imaging apparatus 1A is configured as a digital camera, for example, and a photographing lens 11 and a flash 12 are provided on the front surface of the camera body 10. A C-MOS sensor (hereinafter simply referred to as “CMOS”) 21 as an image pickup device that photoelectrically converts a subject image incident through the shooting lens 11 to generate a color image signal is provided behind the shooting lens 11. It has been.

撮影レンズ11は、ズームレンズ111とフォーカスレンズ112(図3参照)とを含んでおり、これらのレンズを光軸方向に駆動することにより、CMOS21に結像される被写体像のズーミングや合焦を実現することができる。   The photographing lens 11 includes a zoom lens 111 and a focus lens 112 (see FIG. 3). By driving these lenses in the optical axis direction, zooming and focusing of a subject image formed on the CMOS 21 are performed. Can be realized.

撮像装置1Aの上面には、シャッターボタン13が配設されている。このシャッターボタン13は、被写体の撮影を行うときにユーザがその押下操作を行って撮像装置1Aに撮影指示を与えるもので、半押し状態(S1状態)と押し込んだ全押し状態(S2状態)とを検出可能な2段階スイッチとして構成されている。ここで、撮影モードとして動画撮影が設定された状態で全押し状態(S2状態)とすれば、再度全押し状態とされるまでの期間、動画撮影が行われることとなる。   A shutter button 13 is disposed on the upper surface of the imaging apparatus 1A. The shutter button 13 is used when a user performs a pressing operation when shooting a subject to give a shooting instruction to the imaging apparatus 1A. The shutter button 13 is in a half-pressed state (S1 state) and a fully-pressed state (S2 state). Is configured as a two-stage switch capable of detecting Here, if the fully-pressed state (S2 state) is set while moving image shooting is set as the shooting mode, moving image shooting is performed during the period until the fully-pressed state is reached again.

撮像装置1Aの側面部には、シャッターボタン13の押下操作に伴う本撮影動作で得られた画像データを記録するメモリカード9を装着する装着部14が形成されている。さらに、撮像装置1Aの側面には、装着部14からメモリカード9を取り出す際に操作するカード取り出しボタン15が配設されている。   A mounting portion 14 for mounting a memory card 9 for recording image data obtained by the main photographing operation accompanying the pressing operation of the shutter button 13 is formed on the side surface portion of the imaging device 1A. Further, a card eject button 15 that is operated when the memory card 9 is ejected from the mounting portion 14 is disposed on the side surface of the imaging apparatus 1A.

撮像装置1Aの背面には、本撮影前に被写体を動画的態様で表示するライブビュー表示や、撮影した画像等の画像表示を行う液晶ディスプレイ(LCD:Liquid Crystal Display)16と、シャッタースピードやズームなど撮像装置1Aの各種設定状態を変更するための背面操作部17とが設けられている。   On the back of the imaging device 1A, a liquid crystal display (LCD) 16 that displays a live view display that displays the subject in a moving image mode before the actual shooting, and an image display such as a shot image, a shutter speed and a zoom. And a rear operation unit 17 for changing various setting states of the imaging apparatus 1A.

背面操作部17は、複数の操作ボタン171〜173で構成されており、例えば操作ボタン171に対する操作によってズーム操作や露出設定等を行えるとともに、操作ボタン173に対する操作によって動画撮影モードや動画再生モードに設定できる。   The rear operation unit 17 includes a plurality of operation buttons 171 to 173. For example, zoom operation and exposure setting can be performed by operating the operation buttons 171, and moving image shooting mode and moving image reproduction mode can be performed by operating the operation buttons 173. Can be set.

図3は、撮像装置1Aの機能ブロックを示す図である。以下では、動画撮影のシーケンスに沿って、各部の機能を説明する。なお、本実施形態では動画フォーマットとしてMotionJPEG形式を用いている。   FIG. 3 is a diagram illustrating functional blocks of the imaging apparatus 1A. Below, the function of each part is demonstrated along the sequence of video recording. In the present embodiment, the Motion JPEG format is used as the moving image format.

メインスイッチが操作されカメラが起動された場合には、ズームレンズ111およびフォーカスレンズ112を通って被写体光像がCMOS21に結像され、被写体に関するアナログ信号のフレーム画像が順次に生成される。そして、このアナログ信号は、信号処理部22でのA/D変換によりデジタル信号に変換されて、メモリ23に一次記憶される。   When the main switch is operated and the camera is activated, a subject light image is formed on the CMOS 21 through the zoom lens 111 and the focus lens 112, and frame images of analog signals related to the subject are sequentially generated. The analog signal is converted into a digital signal by A / D conversion in the signal processing unit 22 and is temporarily stored in the memory 23.

メモリ23に一次記憶された画像データは、画像処理部24でγ変換やアパーチャコントロール等の画像処理を行った後、LCD16に表示するための処理が施されてLCD16にライブビュー表示される。   The image data primarily stored in the memory 23 is subjected to image processing such as γ conversion and aperture control in the image processing unit 24, and then subjected to processing for display on the LCD 16, and is displayed on the LCD 16 in a live view.

このような被写体のライブビュー表示により、構図の確認を行えるとともに、被写体の画像を視認しつつ操作ボタン171への操作によって画角を変更できる。この場合、操作ボタン171によるズーム操作が制御部20Aで検出されると、ズームレンズ111を駆動してユーザの所望する画角が設定されることとなる。なお、撮像装置1AのCMOS21では、後述のように90fpsでの撮像が可能であるが、ライブビュー表示の際にはLCD16で3フレームに1回の頻度で画像が更新される。   The composition of the subject can be confirmed by such a live view display of the subject, and the angle of view can be changed by operating the operation button 171 while visually recognizing the subject image. In this case, when the zoom operation by the operation button 171 is detected by the control unit 20A, the zoom lens 111 is driven to set the angle of view desired by the user. Note that the CMOS 21 of the imaging apparatus 1A can capture an image at 90 fps as described later, but the image is updated once every three frames on the LCD 16 during live view display.

そして、制御部20Aがシャッターボタン13の半押し(S1)を検出すると、CMOS21からの出力に基づきAE演算部25が撮影画像全体に対して適正な露出量を演算して、シャッタースピードや、信号処理部22におけるアンプのゲインを設定する。   When the control unit 20A detects that the shutter button 13 is half-pressed (S1), the AE calculation unit 25 calculates an appropriate exposure amount for the entire captured image based on the output from the CMOS 21, and the shutter speed and signal The gain of the amplifier in the processing unit 22 is set.

AE演算部26での演算が終了すると、ホワイトバランス(WB)演算部27で適正なWB設定値を演算して、画像処理部24でホワイトバランス補正を行うためのRゲインおよびGゲインを設定する。   When the calculation in the AE calculation unit 26 is completed, the white balance (WB) calculation unit 27 calculates an appropriate WB setting value, and the image processing unit 24 sets R gain and G gain for performing white balance correction. .

そして、WB演算部27での演算が終了すると、合焦演算部25において、CMOS21からの出力に基づきコントラスト方式のAFで利用するAF評価値を演算し、この演算結果に基づきフォーカスレンズ112の駆動を制御部20Aが制御して、被写体に合焦させる。具体的には、フォーカスモータ(不図示)を駆動し、CMOS21で取得される画像の高周波成分がピークとなるレンズ位置を検出して、この位置にフォーカスレンズ112を移動させる。   When the calculation in the WB calculation unit 27 is completed, the focus calculation unit 25 calculates an AF evaluation value used in contrast AF based on the output from the CMOS 21, and drives the focus lens 112 based on the calculation result. Is controlled by the control unit 20A to focus on the subject. Specifically, a focus motor (not shown) is driven to detect a lens position where the high frequency component of the image acquired by the CMOS 21 reaches a peak, and the focus lens 112 is moved to this position.

次に、シャッターボタン13の全押しが行われると、動画撮影が開始する。動画撮影中、画像処理部24からの画像データはメモリカード9に保存される。そして、再度全押しが行われると動画撮影は終了する。ライブビュー表示は引き続き行われる。   Next, when the shutter button 13 is fully pressed, moving image shooting starts. During moving image shooting, the image data from the image processing unit 24 is stored in the memory card 9. When the full press is performed again, the moving image shooting is finished. Live view display continues.

以上で説明した撮像装置1Aの動画撮影のシーケンスは、制御部20Aが各部を統括的に制御することにより実行される。   The moving image shooting sequence of the imaging apparatus 1A described above is executed by the control unit 20A controlling each unit in an integrated manner.

制御部20Aは、コンピュータとして働くCPUを有するとともに、フラッシュROM201およびRAM202を備えている。そして、フラッシュROM201には、撮像装置1Aを制御するための各種の制御プログラムが格納されており、このうち例えば動画再生プログラムが実行されることにより、90fpsの高速フレームレートで一緒に撮影された3種類の動画を個別に再生する動作が撮像装置1Aで行われることとなる(後で詳述)。   The control unit 20A includes a CPU that functions as a computer, and includes a flash ROM 201 and a RAM 202. The flash ROM 201 stores various control programs for controlling the image pickup apparatus 1A. Among them, for example, when a moving image reproduction program is executed, the images are taken together at a high frame rate of 90 fps. The operation of individually reproducing the types of moving images is performed by the imaging apparatus 1A (detailed later).

また、制御部20AのフラッシュROM201には、メモリカード9に記録されている動画再生プログラムなどのプログラムデータを格納することができる。これにより、この格納したプログラムを撮像装置1Aの動作に反映できる。   Program data such as a moving image reproduction program recorded on the memory card 9 can be stored in the flash ROM 201 of the control unit 20A. Thereby, the stored program can be reflected in the operation of the imaging apparatus 1A.

以下では、撮像装置1Aの動画撮影動作および動画再生動作について詳述する。   Hereinafter, the moving image shooting operation and the moving image reproduction operation of the imaging apparatus 1A will be described in detail.

<動画撮影動作>
図4は、撮像装置1Aにおける動画撮影動作および再生動作を説明するための図である。図4(a)〜(d)においては、横軸が時間軸を表している。
<Movie shooting operation>
FIG. 4 is a diagram for explaining a moving image shooting operation and a reproduction operation in the imaging apparatus 1A. 4A to 4D, the horizontal axis represents the time axis.

撮像装置1AのCMOS21では、図4(a)に示すように、90fps、つまりフレーム間の時間間隔が約11.1msで動画撮影が可能となっている。すなわち、LCD16に動画を表示する際の表示フレームレート(30fps)に対して3倍のフレームレートでCMOS21を駆動できる。なお、図4(a)中の数字1、2、3、・・・は、フレーム番号(No)で、番号が増加するほど後で撮影されたことを表している。   In the CMOS 21 of the image pickup apparatus 1A, as shown in FIG. 4A, moving images can be taken at 90 fps, that is, the time interval between frames is about 11.1 ms. That is, the CMOS 21 can be driven at a frame rate three times as high as the display frame rate (30 fps) when displaying a moving image on the LCD 16. The numbers 1, 2, 3,... In FIG. 4 (a) are frame numbers (No) and indicate that the image was taken later as the number increased.

このようなフレームレートで録画された動画についても、一般的な30fpsのフレームレート(フレーム間の時間間隔が約33.3ms)で再生すれば人の目で見る限り十分に動画として通用するため、撮像装置1Aでは、90fpsで記録された動画に対して1/3に間引きして再生する。   Even if a video is recorded at such a frame rate, if it is played back at a general frame rate of 30 fps (the time interval between frames is about 33.3 ms), it will be sufficient as a video as far as the human eye can see. In the image pickup apparatus 1A, a moving image recorded at 90 fps is thinned out and reproduced.

具体的には、図4(b)に示すように、図4(a)に示すフレーム画像群(No.1〜24)のうち、フレームNoが1、4、7・・・、つまり3n−2(nは自然数)となる画像を抽出して、動画として再生する。なお、以下では、説明の便宜上、フレームNoが1、4、7・・・の画像をa系列の画像群と呼び、a1、a2、a3・・・とも表示する。   Specifically, as shown in FIG. 4B, in the frame image group (Nos. 1 to 24) shown in FIG. 4A, the frame numbers are 1, 4, 7,..., 3n−. An image of 2 (n is a natural number) is extracted and reproduced as a moving image. In the following description, for convenience of explanation, images with frame numbers 1, 4, 7,... Are referred to as a-series image groups, and are also indicated as a1, a2, a3,.

また、図4(c)に示すように、図4(a)に示すフレーム画像群(No.1〜24)のうち、フレームNoが2、5、8・・・、つまり3n−1(nは自然数)となる画像を抽出して、動画として再生する。なお、以下では、説明の便宜上、フレームNoが2、5、8・・・の画像をb系列の画像群と呼び、b1、b2、b3・・・とも表示する。   Further, as shown in FIG. 4C, in the frame image group (Nos. 1 to 24) shown in FIG. 4A, the frame numbers are 2, 5, 8,..., That is, 3n−1 (n Is extracted as a moving image. In the following, for convenience of explanation, images with frame numbers of 2, 5, 8,... Are referred to as b-series image groups, and are also displayed as b1, b2, b3.

また、図4(d)に示すように、図4(a)に示すフレーム画像群(No.1〜24)のうち、フレームNoが3、6、9・・・、つまり3n(nは自然数)となる画像を抽出して、動画として再生する。なお、以下では、説明の便宜上、フレームNoが3、6、9・・・の画像をc系列の画像群と呼び、c1、c2、c3・・・とも表示する。   Further, as shown in FIG. 4D, among the frame image groups (No. 1 to 24) shown in FIG. 4A, the frame numbers are 3, 6, 9,..., That is, 3n (n is a natural number). ) Is extracted and reproduced as a moving image. In the following, for convenience of explanation, images with frame numbers of 3, 6, 9,... Are referred to as c-series image groups, and are also displayed as c1, c2, c3.

以上のように撮像装置1Aでは、1回の撮影でa〜c系列の画像群を同時に取得できるが、これらa〜c系列それぞれで異なる撮影条件の撮影を行うことで、3種類の動画の取得が可能となる。例えば、a〜c系列の画像群それぞれで、撮影レンズを主被写体(ここでは画像中央に位置する部分とする)に対して、合焦の位置、少し手前に合焦する位置、少し奥に合焦する位置の3段階に変更しつつ撮影することで、3種類の合焦状態の動画が取得できる。具体的には、これら3つの合焦条件を順次に変更しつつCMOS21によりフレーム画像を順次に撮像し、フレーム画像群としてメモリカード(記録媒体)9に記録する。   As described above, the image capturing apparatus 1A can simultaneously acquire a group of ac images in one shooting, but can acquire three types of moving images by shooting under different shooting conditions in each of the ac sequences. Is possible. For example, in each of the image series of a to c series, the photographic lens is focused on the main subject (here, the part located in the center of the image), focused slightly forward, focused slightly behind. By shooting while changing to three stages of the in-focus position, three types of in-focus moving images can be acquired. Specifically, frame images are sequentially captured by the CMOS 21 while sequentially changing these three focusing conditions, and are recorded on the memory card (recording medium) 9 as a group of frame images.

図5は、3種類の合焦状態を説明するための図である。図5(a)〜(c)は、それぞれ3台の自動車P1〜P3が走行しているシーンを表しており、撮像装置1Aからの距離が自動車P3、P2、P1の順番で後ろになるほど大きくなっている。   FIG. 5 is a diagram for explaining three types of in-focus states. FIGS. 5A to 5C show scenes in which three automobiles P1 to P3 are traveling, respectively, and the distance from the imaging device 1A increases in the order of the automobiles P3, P2, and P1. It has become.

図5(a)に示す画像は、合焦演算部25で主被写体(合焦被写体)の自動車P2に対する合焦演算を行った後に、この合焦位置から多少奥に合焦位置を設定して撮影した画像であり、自動車P1に合焦している。なお、図5(a)〜(c)では、自動車P1〜P3を描く線幅が太くなるほど合焦状態から外れていることを表現している。   In the image shown in FIG. 5A, after the focus calculation unit 25 performs a focus calculation on the automobile P2 of the main subject (focused subject), the focus position is set slightly behind the focus position. This is a photographed image and is focused on the automobile P1. 5A to 5C express that the line is drawn out of focus as the line width for drawing the automobiles P1 to P3 increases.

図5(b)に示す画像は、合焦演算部25で主被写体の自動車P2に対する合焦演算を行った後に、この合焦位置で撮影した画像であり、画面中央の自動車P1に合焦している。   The image shown in FIG. 5B is an image taken at this in-focus position after the focus calculation unit 25 performs the focus calculation on the car P2 of the main subject, and is focused on the car P1 in the center of the screen. ing.

図5(c)に示す画像は、合焦演算部25で主被写体の自動車P2に対する合焦演算を行った後に、この合焦位置から多少手前に合焦位置を設定して撮影した画像であり、自動車P3に合焦している。   The image shown in FIG. 5C is an image obtained by performing the focus calculation for the automobile P2 as the main subject in the focus calculation unit 25 and then setting the focus position slightly before this focus position. Focusing on the car P3.

以上のように、撮像装置1Aでは、3種類の合焦状態で撮影可能であるため、ユーザは、動画撮影時に合焦状態で撮影したい自動車に正確に合焦しているのか否かを気にしないで撮影に専念できる。   As described above, since the imaging apparatus 1A can shoot in three types of in-focus states, the user cares whether or not the user wants to accurately focus on the vehicle that he / she wants to shoot in the in-focus state during video shooting. You can concentrate on shooting without.

以上のような3種類の合焦状態の動画(フレーム画像群)を取得する具体的な動画撮影動作を、次で説明する。   A specific moving image shooting operation for acquiring moving images (frame image groups) in the above three types of in-focus states will be described below.

図6は、撮像装置1Aにおける動画撮影動作を説明するフローチャートである。本動作は、制御部20Aによって実行される。   FIG. 6 is a flowchart for explaining the moving image shooting operation in the imaging apparatus 1A. This operation is executed by the control unit 20A.

まず、操作ボタン173の操作により、動画撮影モードに設定され、LCD16でプレビュー表示が行われている状態で、ユーザによってシャッターボタン13が半押しされたかを判定する(ステップST1)。ここで、シャッターボタン13が半押しされた場合には、ステップST2に進み、半押しされていない場合には、ステップST1を繰り返す。   First, it is determined whether or not the shutter button 13 has been half-pressed by the user while the moving image shooting mode is set and the preview display is performed on the LCD 16 by operating the operation button 173 (step ST1). If the shutter button 13 is half-pressed, the process proceeds to step ST2. If the shutter button 13 is not half-pressed, step ST1 is repeated.

ステップST2では、AE演算部26でAE演算を行い、適正なCMOS21のシャッタースピードおよび信号処理部22のゲインを決定する。   In step ST2, the AE calculation unit 26 performs AE calculation to determine an appropriate shutter speed of the CMOS 21 and a gain of the signal processing unit 22.

ステップST3では、WB演算部27でWB演算を行い、適正なRゲインおよびBゲインを決定する。   In step ST3, the WB calculation unit 27 performs WB calculation to determine appropriate R gain and B gain.

ステップST4では、合焦演算部25で合焦演算を行い、上述したコントラスト方式のAFによってフォーカスレンズ112を主被写体の合焦位置に移動させる。   In step ST4, the focus calculation unit 25 performs focus calculation, and the focus lens 112 is moved to the focus position of the main subject by the above-described contrast AF.

ステップST5では、ユーザによってシャッターボタン13が全押しされたかを判定する。ここで、シャッターボタン13が全押しされた場合には、ステップST6に進み、全押しされていない場合には、ステップST2に戻る。   In step ST5, it is determined whether the shutter button 13 has been fully pressed by the user. If the shutter button 13 is fully pressed, the process proceeds to step ST6. If the shutter button 13 is not fully pressed, the process returns to step ST2.

ステップST6では、フォーカスレンズ112の合焦位置を奥側に設定する。具体的には、ステップST4で検出した主被写体の合焦位置から、フォーカスレンズ112を合焦位置が奥側に対応する方向に移動させる。   In step ST6, the focus position of the focus lens 112 is set to the back side. Specifically, the focus lens 112 is moved in the direction corresponding to the back side from the focus position of the main subject detected in step ST4.

ステップST7では、ステップST6で設定された合焦状態で図5(a)に示すようなa系列の画像を撮影する。ここで、CMOS21で取得された画像は、信号処理部22で信号処理されメモリ23に一旦格納された後に、画像処理部24で画像処理が施されてメモリカード9に記録される。   In step ST7, an a-sequence image as shown in FIG. 5A is taken in the focused state set in step ST6. Here, the image acquired by the CMOS 21 is signal-processed by the signal processing unit 22, temporarily stored in the memory 23, then subjected to image processing by the image processing unit 24 and recorded in the memory card 9.

ステップST8では、フォーカスレンズ112を合焦位置に設定する。具体的には、ステップST4で検出した主被写体の合焦位置に、フォーカスレンズ112を移動させる。   In step ST8, the focus lens 112 is set to the in-focus position. Specifically, the focus lens 112 is moved to the focus position of the main subject detected in step ST4.

ステップST9では、主被写体に合焦の状態で図5(b)に示すようなb系列の画像を撮影する。ここで、CMOS21で取得された画像は、信号処理部22で信号処理されメモリ23に一旦格納された後に、画像処理部24で画像処理が施されてメモリカード9に記録される。   In step ST9, a b-series image as shown in FIG. 5B is taken while the main subject is in focus. Here, the image acquired by the CMOS 21 is signal-processed by the signal processing unit 22, temporarily stored in the memory 23, then subjected to image processing by the image processing unit 24 and recorded in the memory card 9.

ステップST10では、フォーカスレンズ112の合焦位置を手前側に設定する。具体的には、ステップST4で検出した主被写体の合焦位置から、フォーカスレンズ112の合焦位置が手前側に対応する方向に移動させる。   In step ST10, the focus position of the focus lens 112 is set to the near side. Specifically, the focus position of the focus lens 112 is moved in the direction corresponding to the near side from the focus position of the main subject detected in step ST4.

ステップST11では、ステップST10で設定された合焦状態で図5(c)に示すようなc系列の画像を撮影する。ここで、CMOS21で取得された画像は、信号処理部22で信号処理されメモリ23に一旦格納された後に、画像処理部24で画像処理が施されてメモリカード9に記録される。   In step ST11, a c-sequence image as shown in FIG. 5C is taken in the in-focus state set in step ST10. Here, the image acquired by the CMOS 21 is signal-processed by the signal processing unit 22, temporarily stored in the memory 23, then subjected to image processing by the image processing unit 24 and recorded in the memory card 9.

ステップST12では、シャッターボタン13が再度全押しされたかを判定する。ここで、シャッターボタン13が全押しされた場合には、ステップST13に進み、されていない場合には、ステップST6に戻り、撮影動作を繰り返す。   In step ST12, it is determined whether the shutter button 13 is fully pressed again. If the shutter button 13 is fully pressed, the process proceeds to step ST13. If not, the process returns to step ST6 to repeat the photographing operation.

ステップST13では、後処理を行う。具体的には、上記のステップST7、ST9、ST11の動作によりメモリ23に未だ残っている画像に対して、画像処理を施し後述するタブの作成を行いメモリカード9に記録する動作を行う。   In step ST13, post-processing is performed. Specifically, the image processing is performed on the image still remaining in the memory 23 by the operations of the above-described steps ST7, ST9, and ST11, an operation of creating a tab to be described later, and recording it on the memory card 9 is performed.

ステップST14では、後処理が終了したかを判定する。ここで、後処理が終了した場合には、ステップST1に戻り、後処理が終了していない場合には、ステップST13を繰り返す。   In step ST14, it is determined whether the post-processing has been completed. Here, when the post-processing is completed, the process returns to step ST1, and when the post-processing is not completed, step ST13 is repeated.

以上のような動画撮影動作により、図7に示す各フレームの画像が取得できることとなる。すなわち、ステップST7の動作によってフレームf1(a1)、f4(a2)、f7(a3)、f10(a4)のa系列の画像が時系列順に撮影され、ステップST9の動作によってフレームf2(b1)、f5(b2)、f8(b3)、f11(b4)のb系列の画像が順次に撮影されるとともに、ステップST11の動作によってフレームf3(c1)、f6(c2)、f9(c3)、f12(c4)のc系列の画像が順次に撮影される。   Through the moving image shooting operation as described above, an image of each frame shown in FIG. 7 can be acquired. That is, the a-sequence images of the frames f1 (a1), f4 (a2), f7 (a3), and f10 (a4) are taken in time series by the operation of step ST7, and the frames f2 (b1), The b-sequence images of f5 (b2), f8 (b3), and f11 (b4) are sequentially taken, and the frames f3 (c1), f6 (c2), f9 (c3), f12 ( The c-series images of c4) are taken sequentially.

なお、上記のステップST6およびステップST10においては、主被写体の合焦位置から所定量だけ前後にずらせて設定するのは必須でなく、例えば図5に示す自動車P1および自動車P3それぞれに対する合焦演算を撮像の都度行って合焦させるようにしても良い。この場合には、主被写体以外のターゲットに対して合焦精度が向上する。   In steps ST6 and ST10 described above, it is not essential to set the main subject in a predetermined amount before and after the in-focus position. For example, the focus calculation for each of the automobile P1 and the automobile P3 shown in FIG. 5 is performed. You may make it focus every time imaging is performed. In this case, focusing accuracy is improved for targets other than the main subject.

以上のように撮影されたフレーム画像群に基づく再生動作について、以下で説明する。   The reproduction operation based on the frame image group photographed as described above will be described below.

<動画再生動作>
図8は、メモリカード9に記録されたフレーム画像のデータ配列を示す図である。
<Video playback operation>
FIG. 8 is a diagram showing a data arrangement of frame images recorded on the memory card 9.

記録された各フレームの画像データDIには、撮影条件等を示すタグ情報TGが付加されているが、このタグ情報TGの一部TGpに、画像データDIが、どの撮影条件で撮影されたか、つまりどの合焦状態で撮影されたかを示す撮影条件タグが設けられている。   Tag information TG indicating shooting conditions and the like is added to the recorded image data DI of each frame, and under which shooting conditions the image data DI was shot in a part TGp of the tag information TG. That is, a shooting condition tag is provided to indicate in which focusing state the shooting was performed.

このように3つの撮影条件を区別する判別情報を各フレーム画像に付与することにより、記録された画像データがa系列、b系列、c系列のいずれの画像に該当するかが判断でき、適切な再生を行える。   In this way, by adding discrimination information for distinguishing the three shooting conditions to each frame image, it is possible to determine whether the recorded image data corresponds to an image of a series, b series, or c series. Can play.

図9は、撮像装置1Aにおける動画再生動作を説明するフローチャートである。本再生動作は、制御部20AでフラッシュROM201内の動画再生プログラムが実行されることにより実施される。   FIG. 9 is a flowchart for explaining a moving image reproduction operation in the imaging apparatus 1A. This reproduction operation is performed by executing the moving image reproduction program in the flash ROM 201 by the control unit 20A.

操作ボタン173の操作によって動画再生モードに設定された後に、上記の動画撮影動作において変更された奥側の合焦位置、主被写体の合焦位置、手前側の合焦位置の3つの合焦条件から、ユーザの再生したい1つの合焦条件が選択されたかをチェックする(ステップST20)。この合焦状態の選択については、例えばLCD16に「奥側」、「主被写体(適性)」および「手前側」の文字表示を行い、背面操作部17に対するユーザ操作によって、いずれが選択できるようになっている。   After the moving image playback mode is set by operating the operation button 173, the three in-focus conditions, that is, the in-focus position, the in-focus position of the main subject, and the in-focus position changed in the above-described moving image shooting operation. Then, it is checked whether one focusing condition that the user wants to reproduce is selected (step ST20). Regarding the selection of the in-focus state, for example, the characters “back side”, “main subject (appropriate)”, and “front side” are displayed on the LCD 16, and any of them can be selected by a user operation on the rear operation unit 17. It has become.

ステップST21では、カウンタFCntをリセット、具体的にはカウンタFCntに1を代入する。このカウンタFCntは、上述した各系列a〜cにおけるフレームNoに対応しており、例えばカウンタFCnt=1は、a〜c系列の各フレームa1、b1、c1(図7)に該当する。   In step ST21, the counter FCnt is reset, specifically, 1 is substituted into the counter FCnt. The counter FCnt corresponds to the frame No. in each of the above-described series a to c. For example, the counter FCnt = 1 corresponds to each of the frames a1, b1, and c1 (FIG. 7) of the a to c series.

ステップST22では、現時点が30fpsのタイミングであるかを判定する。これは、LCD16での動画再生は30fpsのフレームレートで行われるため、このフレームレートのタイミングでフレーム画像の表示更新を行うのに必要な動作となる。ここでは、例えば制御部20A内のクロックを測定し、33.3ms周期ごとにステップST23以降の動作を行うとともに、それ以外の時間帯は待機状態とする。   In step ST22, it is determined whether the current timing is 30 fps. This is an operation necessary to update the display of the frame image at the frame rate timing because the moving image reproduction on the LCD 16 is performed at a frame rate of 30 fps. Here, for example, the clock in the control unit 20A is measured, the operation after step ST23 is performed every 33.3 ms period, and the other time zones are set in a standby state.

上記のステップST22において、30fpsのタイミングである場合には、ステップST23に進み、30fpsのタイミングでない場合には、ステップST22を繰り返して待機する。   If it is 30 fps timing in step ST22, the process proceeds to step ST23. If it is not 30 fps timing, step ST22 is repeated and the process waits.

ステップST23では、ステップST20でのチェックにより、奥側の合焦位置に設定された合焦状態の動画がユーザによって選択されたかを判定する。ここで、主被写体より奥側で合焦した動画が選択された場合には、ステップST25に進み、選択されていない場合には、ステップST24に進む。   In step ST23, it is determined by the check in step ST20 whether the in-focus moving image set at the in-focus position has been selected by the user. Here, if a moving image focused on the back side of the main subject is selected, the process proceeds to step ST25, and if not selected, the process proceeds to step ST24.

ステップST24では、ステップST20でのチェックにより、主被写体の合焦位置に設定された合焦状態の動画がユーザによって選択されたかを判定する。ここで、主被写体に合焦した動画が選択された場合には、ステップST26に進み、選択されていない場合には、ステップST27に進む。   In step ST24, it is determined by the check in step ST20 whether the in-focus moving image set at the in-focus position of the main subject has been selected by the user. Here, when the moving image focused on the main subject is selected, the process proceeds to step ST26, and when it is not selected, the process proceeds to step ST27.

ステップST25では、カウンタFCntの現在値に対応するフレームNoを持つa系列のフレーム画像をLCD16に表示する。   In step ST25, an a-series frame image having a frame number corresponding to the current value of the counter FCnt is displayed on the LCD 16.

ステップST26では、カウンタFCntの現在値に対応するフレームNoを持つb系列のフレーム画像をLCD16に表示する。   In step ST26, a b-series frame image having a frame number corresponding to the current value of the counter FCnt is displayed on the LCD 16.

ステップST27では、カウンタFCntの現在値に対応するフレームNoを持つc系列のフレーム画像をLCD16に表示する。   In step ST27, a c-series frame image having a frame number corresponding to the current value of the counter FCnt is displayed on the LCD 16.

ステップST28では、カウンタFCntをインクリメントする。すなわち、カウンタFCntの値を1だけ増加させる。   In step ST28, the counter FCnt is incremented. That is, the value of the counter FCnt is increased by 1.

ステップST29では、ユーザが再生を終了するかを判定する。具体的には、操作ボタン173がユーザによって操作されて動画再生モードが解除されたか、もしくはLCD16に現在表示中のフレーム画像が最終フレームであるかを判断する。ここで、再生を終了しない場合には、ステップST22に戻る。   In step ST29, it is determined whether the user ends the reproduction. Specifically, it is determined whether the operation button 173 has been operated by the user to release the moving image playback mode or whether the frame image currently displayed on the LCD 16 is the last frame. If the reproduction is not terminated here, the process returns to step ST22.

以上の動画再生動作による具体的な再生処理について、次で説明する。   A specific reproduction process by the above moving image reproduction operation will be described below.

図10は、再生処理を説明するための図である。なお、本図のフレーム画像f1〜f12は、図7に示す動画撮影時のフレーム画像f1〜f12に対応している。   FIG. 10 is a diagram for explaining the reproduction process. Note that the frame images f1 to f12 in this figure correspond to the frame images f1 to f12 at the time of moving image shooting shown in FIG.

ユーザによって主被写体より奥側の合焦位置に設定された合焦状態の動画が選択された場合には、a系列の動画が再生されるが(ステップST25)、この場合には図8に示す撮影条件タグTGpにおいて奥側の合焦位置の撮影条件に対応した判別情報が付与されたフレーム画像f1(a1)、f4(a2)、f7(a3)、f10(a4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16で再生表示される。   When the user selects the in-focus moving image set at the in-focus position behind the main subject, the a-series moving image is reproduced (step ST25). In this case, as shown in FIG. The frame images f1 (a1), f4 (a2), f7 (a3), and f10 (a4) to which the discrimination information corresponding to the shooting condition at the in-focus position is added in the shooting condition tag TGp are extracted from the frame image group. Then, the images are reproduced and displayed on the LCD 16 in the time series in which the images are taken.

ユーザによって主被写体の合焦位置に設定された合焦状態の動画が選択された場合には、b系列の動画が再生されるが(ステップST26)、この場合には図8に示す撮影条件タグTGpにおいて主被写体の合焦位置の撮影条件に対応した判別情報が付与されたフレーム画像f2(b1)、f5(b2)、f8(b3)、f11(b4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When a moving image in a focused state set at the in-focus position of the main subject is selected by the user, a b-series moving image is played back (step ST26). In this case, the shooting condition tag shown in FIG. In TGp, frame images f2 (b1), f5 (b2), f8 (b3), and f11 (b4) to which discrimination information corresponding to the imaging condition of the focus position of the main subject is extracted from the frame image group, The images are reproduced and displayed on the LCD 16 in the order of the captured images.

ユーザによって主被写体より手前側の合焦位置に設定された合焦状態の動画が選択された場合には、c系列の動画が再生されるが(ステップST27)、この場合には図8に示す撮影条件タグTGpにおいて手前側の合焦位置の撮影条件に対応した判別情報が付与されたフレーム画像f3(c1)、f6(c2)、f9(c3)、f12(c4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When the user selects a moving image in a focused state set at the in-focus position before the main subject, a c-series moving image is reproduced (step ST27). In this case, as shown in FIG. The frame images f3 (c1), f6 (c2), f9 (c3), and f12 (c4) to which the discrimination information corresponding to the shooting condition at the in-focus position on the shooting condition tag TGp is extracted from the frame image group. Then, the images are reproduced and displayed on the LCD 16 in the time series in which the images are taken.

以上の撮像装置1Aの動作により、高速フレームレートで合焦状態の変更を行いつつ撮像し記録されたフレーム画像群から、ユーザが選択した合焦状態に対応するフレーム画像を抽出し時系列順に再生するため、ユーザが所望する合焦条件に対応したフレーム画像を適切に動画再生できる。   Through the above operation of the image pickup apparatus 1A, the frame images corresponding to the in-focus state selected by the user are extracted from the group of frame images picked up and recorded while changing the in-focus state at the high-speed frame rate and reproduced in time series. Therefore, the frame image corresponding to the focusing condition desired by the user can be appropriately reproduced as a moving image.

<第2実施形態>
本発明の第2実施形態に係る撮像装置1Bは、図1〜図3に示す第1実施形態と類似の構成を有しているが、制御部の構成が異なっている。
Second Embodiment
An imaging apparatus 1B according to the second embodiment of the present invention has a configuration similar to that of the first embodiment shown in FIGS. 1 to 3, but the configuration of the control unit is different.

すなわち、撮像装置1Bの制御部20Bでは、以下で説明する動画撮影動作および画像撮影動作を行うための制御プログラムがROM201内に格納されている。   That is, in the control unit 20B of the imaging apparatus 1B, a control program for performing a moving image shooting operation and an image shooting operation described below is stored in the ROM 201.

<動画撮影動作>
撮像装置1Bにおいては、第1実施形態の撮像装置1Aと同様に、図4に示す90fpsの動画撮影が可能であり、1回の撮影でa〜c系列3種類の動画を取得できる。そして、撮像装置1Bでは、第1実施形態のように合焦条件を3段階に変更するのはなく、露出条件を3段階に変更する。
<Movie shooting operation>
In the imaging apparatus 1B, similarly to the imaging apparatus 1A of the first embodiment, 90 fps moving image shooting shown in FIG. 4 can be performed, and three types of moving images a to c can be acquired by one shooting. In the imaging apparatus 1B, the focusing condition is not changed to three stages as in the first embodiment, but the exposure condition is changed to three stages.

図11は、3種類の露出状態を説明するための図である。図11(a)〜(c)に示す各画像は、逆光の状態で人物SBが撮影されている。   FIG. 11 is a diagram for explaining three types of exposure states. In each of the images shown in FIGS. 11A to 11C, the person SB is photographed in a backlight state.

図11(a)に示す画像は、AE演算部26でAE演算を行った後に、画像全体に適正な露出状態からアンダー気味に設定して撮影した画像である。   The image shown in FIG. 11 (a) is an image taken after the AE calculation unit 26 performs the AE calculation and setting the entire image from the appropriate exposure state to the under-feeling.

図11(b)に示す画像は、AE演算部26でAE演算を行った後に、画像全体に適正な露出状態(基準パラメータ)に設定して撮影した画像である。   The image shown in FIG. 11 (b) is an image that was captured after the AE calculation unit 26 performed AE calculation and set to an appropriate exposure state (reference parameter) for the entire image.

図11(c)に示す画像は、AE演算部26でAE演算を行った後に、画像全体に適正な露出状態からオーバー気味に設定して撮影した画像である。なお、撮影が逆光で行われているため、画面全体に適正な露出状態の図11(b)に示す画像よりも、オーバー気味で撮影した図11(c)に示す画像の方が人物SBに対しては適正な露出状態となっている。   The image shown in FIG. 11 (c) is an image that was shot after the AE calculation unit 26 performed the AE calculation, and the entire image was set to an overexposed state from an appropriate exposure state. Note that, since the photographing is performed in the backlight, the image shown in FIG. 11C taken with the overexposure to the person SB rather than the image shown in FIG. On the other hand, the exposure is appropriate.

以上のように、撮像装置1Bでは3種類の露出状態で撮影可能であるため、ユーザは、動画撮影時に人物SBが適正な露出となっているか否かを気にしないで撮影に専念できる。   As described above, since the imaging apparatus 1B can shoot in three types of exposure states, the user can concentrate on shooting without worrying about whether or not the person SB is properly exposed during moving image shooting.

以上のような3種類の露出状態の動画を取得する動画撮影動作については、第1実施形態と同様の動作が行われる。   As for the moving image shooting operation for acquiring the above three types of exposed moving images, the same operation as in the first embodiment is performed.

これにより、図12に示す画像g1、g2、g3、・・g12のように順次にフレーム画像が取得される。そして、これらのフレーム画像には、露出アンダーとなるフレームg1(a1)、g4(a2)、g7(a3)、g10(a4)のa系列の画像と、露出適正となるフレームg2(b1)、g5(b2)、g8(b3)、g11(b4)のb系列の画像と、露出オーバーとなるフレームg3(c1)、g6(c2)、g9(c3)、g12(c4)のc系列の画像とが含まれている。   As a result, frame images are sequentially acquired as images g1, g2, g3,... G12 shown in FIG. These frame images include under-exposure frames g1 (a1), g4 (a2), g7 (a3), and g10 (a4), a series of images, and an appropriate exposure frame g2 (b1), b series images of g5 (b2), g8 (b3), and g11 (b4) and c series images of frames g3 (c1), g6 (c2), g9 (c3), and g12 (c4) that are overexposed. And are included.

以上のように撮影された動画の再生動作について、以下で説明する。   The reproduction operation of the moving image shot as described above will be described below.

<動画再生動作>
図13は、撮像装置1Bにおける動画再生動作を説明するフローチャートである。本動作は、制御部20BでフラッシュROM201内の動画再生プログラムが実行されることにより実施される。
<Video playback operation>
FIG. 13 is a flowchart for explaining the moving image reproduction operation in the imaging apparatus 1B. This operation is performed by executing a moving image reproduction program in the flash ROM 201 by the control unit 20B.

ステップST30〜ST32では、図9のフローチャートに示すステップST20〜ST22と同様の動作を行う。   In steps ST30 to ST32, operations similar to those in steps ST20 to ST22 shown in the flowchart of FIG. 9 are performed.

ステップST33では、ステップST30でのチェックにより、露出アンダーの動画がユーザによって選択されたかを判定する。ここで、露出アンダーの動画が選択された場合には、ステップST35に進み、選択されていない場合には、ステップST34に進む。   In step ST33, it is determined by the check in step ST30 whether an underexposed moving image has been selected by the user. If an underexposed video is selected, the process proceeds to step ST35, and if not selected, the process proceeds to step ST34.

ステップST34では、ステップST30でのチェックにより、露出適正の動画がユーザによって選択されたかを判定する。ここで、露出適正の動画が選択された場合には、ステップST36に進み、選択されていない場合には、ステップST37に進む。   In step ST34, it is determined by the check in step ST30 whether a moving image with proper exposure has been selected by the user. Here, when a moving image suitable for exposure is selected, the process proceeds to step ST36, and when it is not selected, the process proceeds to step ST37.

ステップST35〜ST39では、図9のフローチャートに示すステップST25〜ST29と同様の動作を行う。   In steps ST35 to ST39, operations similar to those in steps ST25 to ST29 shown in the flowchart of FIG. 9 are performed.

以上の動画再生動作による具体的な再生処理について、図12を参照して説明する。   A specific reproduction process by the above moving image reproduction operation will be described with reference to FIG.

ユーザによって露出アンダーの動画が選択された場合には、a系列の動画が再生されるが(ステップST35)、この場合には図8に示す撮影条件タグTGpにおいて露出アンダーの撮影条件に対応した判別情報が付与されたフレーム画像g1(a1)、g4(a2)、g7(a3)、g10(a4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16で再生表示される。   When an underexposed video is selected by the user, an a-series video is played (step ST35). In this case, determination corresponding to the underexposed shooting condition in the shooting condition tag TGp shown in FIG. The frame images g1 (a1), g4 (a2), g7 (a3), and g10 (a4) to which the information is added are extracted from the frame image group, and are reproduced and displayed on the LCD 16 in the order of the captured time series.

ユーザによって露出適正の動画が選択された場合には、b系列の動画が再生されるが(ステップST36)、この場合には図8に示す撮影条件タグTGpにおいて露出適正の撮影条件に対応した判別情報が付与されたフレーム画像g2(b1)、g5(b2)、g8(b3)、g11(b4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When the user selects a movie with proper exposure, a b-series movie is played (step ST36). In this case, the shooting condition tag TGp shown in FIG. The frame images g2 (b1), g5 (b2), g8 (b3), and g11 (b4) to which the information is added are extracted from the frame image group, and are reproduced and displayed on the LCD 16 in the time series in which the images were taken.

ユーザによって露出オーバーの動画が選択された場合には、c系列の動画が再生されるが(ステップST37)、この場合には図8に示す撮影条件タグTGpにおいて露出オーバーの撮影条件に対応した判別情報が付与されたフレーム画像g3(c1)、g6(c2)、g9(c3)、g12(c4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When an overexposed video is selected by the user, a c-series video is played back (step ST37). In this case, determination corresponding to the overexposed shooting condition in the shooting condition tag TGp shown in FIG. The frame images g3 (c1), g6 (c2), g9 (c3), and g12 (c4) to which the information is added are extracted from the frame image group, and are reproduced and displayed on the LCD 16 in the time series in which the images were taken.

以上の撮像装置1Bの動作により、高速フレームレートで露出条件の変更を行いつつ撮像し記録されたフレーム画像群から、ユーザが選択した露出条件に対応するフレーム画像を抽出し時系列順に再生するため、ユーザが所望する露出条件に対応したフレーム画像を適切に動画再生できる。   By the operation of the imaging apparatus 1B described above, a frame image corresponding to the exposure condition selected by the user is extracted from the group of frame images captured and recorded while changing the exposure condition at a high frame rate, and is reproduced in time series. The frame image corresponding to the exposure condition desired by the user can be appropriately reproduced as a moving image.

<第3実施形態>
本発明の第3実施形態に係る撮像装置1Cは、図1〜図3に示す第1実施形態と類似の構成を有しているが、制御部の構成が異なっている。
<Third Embodiment>
An imaging apparatus 1C according to the third embodiment of the present invention has a configuration similar to that of the first embodiment shown in FIGS. 1 to 3, but the configuration of the control unit is different.

すなわち、撮像装置1Cの制御部20Cでは、以下で説明する動画撮影動作および画像撮影動作を行うための制御プログラムがROM201内に格納されている。   That is, in the control unit 20C of the imaging apparatus 1C, a control program for performing a moving image shooting operation and an image shooting operation described below is stored in the ROM 201.

<動画撮影動作>
撮像装置1Cにおいては、第1実施形態の撮像装置1Aと同様に、図4に示す90fpsの動画撮影が可能であり、1回の撮影でa〜c系列3種類の動画を取得できる。そして、撮像装置1Cでは、第1実施形態のように合焦条件を3段階に変更するのはなく、ズーム条件(撮影レンズ11に関する焦点距離の条件)を3段階に変更する。
<Movie shooting operation>
In the imaging apparatus 1C, similarly to the imaging apparatus 1A of the first embodiment, 90 fps moving image shooting shown in FIG. 4 can be performed, and three types of moving images a to c can be acquired by one shooting. In the imaging apparatus 1C, the zoom condition (the focal length condition regarding the photographing lens 11) is changed to three stages without changing the focusing condition to three stages as in the first embodiment.

図14は、3種類のズーム状態を説明するための図である。図14(a)〜(c)に示す各画像は、人物OBが撮影されている。   FIG. 14 is a diagram for explaining three types of zoom states. In each of the images shown in FIGS. 14A to 14C, a person OB is captured.

図14(a)に示す画像は、ユーザが設定したズーム値(焦点距離)より、多少テレ側に設定して撮影した画像である。   The image shown in FIG. 14A is an image captured by setting the telephoto side somewhat from the zoom value (focal length) set by the user.

図14(b)に示す画像は、ユーザが設定したズーム値で撮影した画像である。   The image shown in FIG. 14B is an image taken at a zoom value set by the user.

図14(c)に示す画像は、ユーザが設定したズーム値より、多少ワイド側に設定して撮影した画像である。   The image shown in FIG. 14C is an image captured by setting the zoom value slightly wider than the zoom value set by the user.

以上のように、撮像装置1Cでは3種類のズーム状態で撮影可能であるため、ユーザは、動画撮影時に画角を気にしないで撮影に専念できる。   As described above, since the imaging apparatus 1C can shoot in three types of zoom states, the user can concentrate on shooting without worrying about the angle of view during moving image shooting.

以上のような3種類のズーム状態の動画を取得する動画撮影動作については、第1実施形態と同様の動作が行われる。   The moving image shooting operation for acquiring moving images in the three types of zoom states as described above is performed in the same manner as in the first embodiment.

これにより、図15に示す画像h1、h2、h3、・・h12のように順次にフレーム画像が取得される。そして、これらのフレーム画像には、テレ側のズーム状態となるフレームh1(a1)、h4(a2)、h7(a3)、h10(a4)のa系列の画像と、ユーザ指定のズーム状態となるフレームh2(b1)、h5(b2)、h8(b3)、h11(b4)のb系列の画像と、ワイド側のズーム状態となるフレームh3(c1)、h6(c2)、h9(c3)、h12(c4)のc系列の画像とが含まれている。   As a result, frame images are sequentially acquired as images h1, h2, h3,... H12 shown in FIG. These frame images have the a-series images of frames h1 (a1), h4 (a2), h7 (a3), and h10 (a4) that are in a tele zoom state, and a user-specified zoom state. B-series images of frames h2 (b1), h5 (b2), h8 (b3), h11 (b4), and frames h3 (c1), h6 (c2), h9 (c3), which are in the zoom state on the wide side, and a c-series image of h12 (c4).

以上のように撮影された動画の再生動作について、以下で説明する。   The reproduction operation of the moving image shot as described above will be described below.

<動画再生動作>
図16は、撮像装置1Cにおける動画再生動作を説明するフローチャートである。本動作は、制御部20CでフラッシュROM201内の動画再生プログラムが実行されることにより実施される。
<Video playback operation>
FIG. 16 is a flowchart for explaining the moving image reproduction operation in the imaging apparatus 1C. This operation is performed by executing a moving image reproduction program in the flash ROM 201 by the control unit 20C.

ステップST40〜ST42では、図9のフローチャートに示すステップST20〜ST22と同様の動作を行う。   In steps ST40 to ST42, operations similar to those in steps ST20 to ST22 shown in the flowchart of FIG. 9 are performed.

ステップST43では、ステップST40でのチェックにより、テレ側のズーム状態の動画がユーザによって選択されたかを判定する。ここで、テレ側のズーム状態の動画が選択された場合には、ステップST45に進み、選択されていない場合には、ステップST44に進む。   In step ST43, it is determined whether the moving image in the tele zoom state has been selected by the user through the check in step ST40. Here, when the moving image in the tele zoom state is selected, the process proceeds to step ST45, and when it is not selected, the process proceeds to step ST44.

ステップST44では、ステップST40でのチェックにより、ユーザ指定のズーム状態の動画が選択されたかを判定する。ここで、ユーザ指定のズーム状態の動画が選択された場合には、ステップST46に進み、選択されていない場合には、ステップST47に進む。   In step ST44, it is determined whether the moving image in the zoom state designated by the user is selected by the check in step ST40. Here, when a moving image in a zoom state designated by the user is selected, the process proceeds to step ST46, and when not selected, the process proceeds to step ST47.

ステップST45〜ST49では、図9のフローチャートに示すステップST25〜ST29と同様の動作を行う。   In steps ST45 to ST49, operations similar to those in steps ST25 to ST29 shown in the flowchart of FIG. 9 are performed.

以上の動画再生動作による具体的な再生処理について、図15を参照して説明する。   A specific reproduction process by the above moving image reproduction operation will be described with reference to FIG.

ユーザによってテレ側のズーム状態の動画が選択された場合には、a系列の動画が再生されるが(ステップST45)、この場合には図8に示す撮影条件タグTGpにおいてテレ側の撮影条件に対応した判別情報が付与されたフレーム画像h1(a1)、h4(a2)、h7(a3)、h10(a4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16で再生表示される。   When the user selects a video in the zoom state on the tele side, an a-series video is played (step ST45). In this case, the shooting condition tag TGp shown in FIG. The frame images h1 (a1), h4 (a2), h7 (a3), and h10 (a4) to which the corresponding discrimination information is added are extracted from the frame image group, and are reproduced and displayed on the LCD 16 in the order of the captured time series.

ユーザによってユーザ指定のズーム状態の動画が選択された場合には、b系列の動画が再生されるが(ステップST46)、この場合には図8に示す撮影条件タグTGpにおいてユーザ指定の撮影条件に対応した判別情報が付与されたフレーム画像h2(b1)、h5(b2)、h8(b3)、h11(b4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When a user-selected zoomed moving image is selected by the user, a b-series moving image is played (step ST46). In this case, the shooting condition tag TGp shown in FIG. The frame images h2 (b1), h5 (b2), h8 (b3), and h11 (b4) to which the corresponding discrimination information is assigned are extracted from the frame image group and are reproduced and displayed on the LCD 16 in the order of the captured time series.

ユーザによってワイド側のズーム状態の動画が選択された場合には、c系列の動画が再生されるが(ステップST47)、この場合には図8に示す撮影条件タグTGpにおいてワイド側の撮影条件に対応した判別情報が付与されたフレーム画像h3(c1)、h6(c2)、h9(c3)、h12(c4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When the user selects a wide-side zoom movie, the c-series movie is played (step ST47). In this case, the wide-side shooting condition is set in the shooting condition tag TGp shown in FIG. The frame images h3 (c1), h6 (c2), h9 (c3), and h12 (c4) to which the corresponding discrimination information is assigned are extracted from the frame image group, and are reproduced and displayed on the LCD 16 in the order of the captured images.

以上の撮像装置1Aの動作により、高速フレームレートでズーム条件(焦点距離の条件)の変更を行いつつ撮像し記録されたフレーム画像群から、ユーザが選択したズーム条件に対応するフレーム画像を抽出し時系列順に再生するため、ユーザが所望するズーム条件に対応したフレーム画像を適切に動画再生できる。   Through the operation of the imaging apparatus 1A described above, a frame image corresponding to the zoom condition selected by the user is extracted from a group of frame images captured and recorded while changing the zoom condition (focal length condition) at a high frame rate. Since the images are reproduced in time series order, the frame images corresponding to the zoom conditions desired by the user can be appropriately reproduced as moving images.

<第4実施形態>
本発明の第4実施形態に係る撮像装置1Dは、図1〜図3に示す第1実施形態と類似の構成を有しているが、制御部の構成が異なっている。
<Fourth embodiment>
An imaging apparatus 1D according to the fourth embodiment of the present invention has a configuration similar to that of the first embodiment shown in FIGS. 1 to 3, but the configuration of the control unit is different.

すなわち、撮像装置1Dの制御部20Dでは、以下で説明する動画撮影動作および画像撮影動作を行うための制御プログラムがROM201内に格納されている。   That is, in the control unit 20D of the imaging apparatus 1D, a control program for performing a moving image shooting operation and an image shooting operation described below is stored in the ROM 201.

<動画撮影動作>
撮像装置1Dにおいては、第1実施形態の撮像装置1Aと同様に、図4に示す90fpsの動画撮影が可能であり、1回の撮影でa〜c系列3種類の動画を取得できる。そして、撮像装置1Dでは、第1実施形態のように合焦条件を3段階に変更するのはなく、ホワイトバランス(WB)条件を3段階に変更する。
<Movie shooting operation>
In the imaging device 1D, similarly to the imaging device 1A of the first embodiment, 90 fps moving image shooting shown in FIG. 4 can be performed, and three types of moving images a to c can be acquired by one shooting. In the imaging apparatus 1D, the focus condition is not changed to three stages as in the first embodiment, but the white balance (WB) condition is changed to three stages.

図17は、3種類のWB状態を説明するための図である。図17(a)〜(c)に示す各画像は、夕景が撮影されている。   FIG. 17 is a diagram for explaining three types of WB states. In each of the images shown in FIGS. 17A to 17C, an evening scene is captured.

図17(a)に示す画像は、WB演算部27でWB演算を行った後に、適正なWB制御値より赤気味に設定して撮影した画像である。この場合、WB制御値が赤気味に設定されているため、鮮やかな夕景が映った画像が取得できる。   The image shown in FIG. 17 (a) is an image taken after setting the WB calculation value to be reddish from an appropriate WB control value after the WB calculation unit 27 performs the WB calculation. In this case, since the WB control value is set red, an image showing a vivid evening scene can be acquired.

図17(b)に示す画像は、WB演算部27でWB演算を行った後に、適正なWB制御値(基準パラメータ)に設定して撮影した画像である。この場合、WB演算に基づく適正値で撮影されているものの、夕景として多少物足りない画像が取得される。   The image shown in FIG. 17B is an image that is captured after the WB calculation unit 27 performs WB calculation and is set to an appropriate WB control value (reference parameter). In this case, an image that is shot with an appropriate value based on the WB calculation but is somewhat unsatisfactory as an evening scene is acquired.

図17(c)に示す画像は、WB演算部27でWB演算を行った後に、適正なWB制御値より青気味に設定して撮影した画像である。この場合、WB制御値が青気味に設定されているため、夕景らしさが多少欠ける画像が取得される。   The image shown in FIG. 17 (c) is an image that is captured after the WB calculation unit 27 performs the WB calculation and is set to be more bluish than the appropriate WB control value. In this case, since the WB control value is set to be bluish, an image that is somewhat lacking in sunset scenery is acquired.

以上のように、撮像装置1Dでは3種類のWB状態で撮影可能であるため、ユーザは、動画撮影時に意図するホワイトバランスの状態であるか否かを気にしないで撮影に専念できる。   As described above, since the imaging apparatus 1D can shoot in three types of WB states, the user can concentrate on shooting without worrying about whether or not the white balance is intended for moving image shooting.

以上のような3種類のWB状態の動画を取得する動画撮影動作については、第1実施形態と同様の動作が行われる。   The moving image shooting operation for acquiring moving images in the three types of WB states as described above is performed in the same manner as in the first embodiment.

これにより、図18に示す画像k1、k2、k3、・・k12のように順次にフレーム画像が取得される。そして、これらのフレーム画像には、赤気味のWB状態となるフレームk1(a1)、k4(a2)、k7(a3)、k10(a4)のa系列の画像と、適正なWB状態となるフレームk2(b1)、k5(b2)、k8(b3)、k11(b4)のb系列の画像と、青気味のWB状態となるフレームk3(c1)、k6(c2)、k9(c3)、k12(c4)のc系列の画像とが含まれている。   As a result, frame images are sequentially acquired as images k1, k2, k3,... K12 shown in FIG. These frame images include a-series images of frames k1 (a1), k4 (a2), k7 (a3), and k10 (a4) that are in a red WB state, and frames that are in an appropriate WB state. b-series images of k2 (b1), k5 (b2), k8 (b3), and k11 (b4), and frames k3 (c1), k6 (c2), k9 (c3), and k12 in a bluish WB state (c4) c-series images are included.

以上のように撮影された動画の再生動作について、以下で説明する。   The reproduction operation of the moving image shot as described above will be described below.

<動画再生動作>
図19は、撮像装置1Dにおける動画再生動作を説明するフローチャートである。本動作は、制御部20DでフラッシュROM201内の動画再生プログラムが実行されることにより実施される。
<Video playback operation>
FIG. 19 is a flowchart for describing a moving image reproduction operation in the imaging apparatus 1D. This operation is performed by executing a moving image reproduction program in the flash ROM 201 by the control unit 20D.

ステップST50〜ST52では、図9のフローチャートに示すステップST20〜ST22と同様の動作を行う。   In steps ST50 to ST52, operations similar to those in steps ST20 to ST22 shown in the flowchart of FIG. 9 are performed.

ステップST53では、ステップST50でのチェックにより、赤気味のWB状態の動画がユーザによって選択されたかを判定する。ここで、赤気味のWB状態の動画が選択された場合には、ステップST55に進み、選択されていない場合には、ステップST54に進む。   In step ST53, it is determined by the check in step ST50 whether a moving image in a reddish WB state has been selected by the user. Here, if a reddish WB moving image is selected, the process proceeds to step ST55, and if not selected, the process proceeds to step ST54.

ステップST54では、ステップST50でのチェックにより、適正なWB状態の動画がユーザによって選択されたかを判定する。ここで、適正なWB状態の動画が選択された場合には、ステップST56に進み、選択されていない場合には、ステップST57に進む。   In step ST54, it is determined by the check in step ST50 whether or not a moving image in an appropriate WB state has been selected by the user. Here, when a moving image in an appropriate WB state is selected, the process proceeds to step ST56, and when not selected, the process proceeds to step ST57.

ステップST55〜ST59では、図9のフローチャートに示すステップST25〜ST29と同様の動作を行う。   In steps ST55 to ST59, operations similar to those in steps ST25 to ST29 shown in the flowchart of FIG. 9 are performed.

以上の動画再生動作による具体的な再生処理について、図18を参照して説明する。   A specific reproduction process by the above moving image reproduction operation will be described with reference to FIG.

ユーザによって赤気味のWB状態の動画が選択された場合には、a系列の動画が再生されるが(ステップST55)、この場合には図8に示す撮影条件タグTGpにおいて赤気味の撮影条件に対応した判別情報が付与されたフレーム画像k1(a1)、k4(a2)、k7(a3)、k10(a4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16で再生表示される。   When the user selects a reddish WB movie, the a-series movie is played (step ST55). In this case, the shooting condition tag TGp shown in FIG. The frame images k1 (a1), k4 (a2), k7 (a3), and k10 (a4) to which the corresponding discrimination information is assigned are extracted from the frame image group and are reproduced and displayed on the LCD 16 in the order of the captured time series.

ユーザによって適正なWB状態の動画が選択された場合には、b系列の動画が再生されるが(ステップST56)、この場合には図8に示す撮影条件タグTGpにおいてWB適正の撮影条件に対応した判別情報が付与されたフレーム画像k2(b1)、k5(b2)、k8(b3)、k11(b4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When the user selects a moving image in the proper WB state, a b-sequence moving image is played (step ST56). In this case, the shooting condition tag TGp shown in FIG. The frame images k2 (b1), k5 (b2), k8 (b3), and k11 (b4) to which the discriminating information is added are extracted from the frame image group and are reproduced and displayed on the LCD 16 in the order of the captured time series.

ユーザによって青気味のWB状態の動画が選択された場合には、c系列の動画が再生されるが(ステップST57)、この場合には図8に示す撮影条件タグTGpにおいて青気味の撮影条件に対応した判別情報が付与されたフレーム画像k3(c1)、k6(c2)、k9(c3)、k12(c4)がフレーム画像群から抽出されて、撮像した時系列順にLCD16に再生表示される。   When a user selects a bluish WB moving image, a c-series moving image is played (step ST57). In this case, the bluish shooting condition is set in the shooting condition tag TGp shown in FIG. The frame images k3 (c1), k6 (c2), k9 (c3), and k12 (c4) to which the corresponding discrimination information is assigned are extracted from the frame image group, and are reproduced and displayed on the LCD 16 in the order of the captured time series.

以上の撮像装置1Dの動作により、高速フレームレートでWB条件の変更を行いつつ撮像し記録されたフレーム画像群から、ユーザが選択したWB条件に対応するフレーム画像を抽出し時系列順に再生するため、ユーザが所望するWB条件に対応したフレーム画像を適切に動画再生できる。   In order to extract the frame images corresponding to the WB condition selected by the user from the group of frame images picked up and recorded while changing the WB condition at the high-speed frame rate and to reproduce them in time series by the operation of the imaging apparatus 1D described above. The frame image corresponding to the WB condition desired by the user can be appropriately reproduced as a moving image.

<変形例>
◎上記の各実施形態においては、動画再生装置として撮像装置を使用するのは必須でなく、次のパーソナルコンピュータ(以下では「パソコン」という)を使用しても良い。
<Modification>
In each of the above embodiments, it is not essential to use an imaging device as a moving image playback device, and the following personal computer (hereinafter referred to as “personal computer”) may be used.

図20は、パソコン3の要部構成を説明するための図である。   FIG. 20 is a diagram for explaining a main configuration of the personal computer 3.

パソコン3は、箱状の形状を有する処理部30と、マウス311とキーボード312とを有する操作部31と、例えばCRTで構成される表示部32とを備えている。この処理部30の前面には、光ディスクを装着するドライブ301と、メモリカード9を装着するドライブ302とが設けられている。   The personal computer 3 includes a processing unit 30 having a box-like shape, an operation unit 31 having a mouse 311 and a keyboard 312, and a display unit 32 composed of, for example, a CRT. On the front face of the processing unit 30, a drive 301 for mounting an optical disk and a drive 302 for mounting a memory card 9 are provided.

このようなパソコン3では、上記の撮像装置1Aにおいて90fpsの高速フレームレートで撮影されたフレーム画像群を記録したメモリカード9をドライブ302に装着し、撮像装置1Aでの動画再生動作(図9参照)と同様の動作をパソコン3で行うことで、上述した3つの合焦状態の各動画が個別に表示部32で再生される。   In such a personal computer 3, a memory card 9 on which a frame image group photographed at a high-speed frame rate of 90 fps in the imaging apparatus 1A is mounted in the drive 302, and a moving image reproduction operation in the imaging apparatus 1A (see FIG. 9). ) Is performed on the personal computer 3, the moving images in the three in-focus states described above are individually reproduced on the display unit 32.

この再生動作については、処理部30内のハードディスクに格納される動画再生プログラムが、CPUで実行されることで実施されることとなる。なお、上記のハードディスクには、ドライブ301を介して光ディスクに記録されている動画再生プログラムのデータを格納できるが、これによって格納したプログラムをパソコン3の動作に反映できる。   About this reproduction | regeneration operation | movement, the moving image reproduction | regeneration program stored in the hard disk in the process part 30 will be implemented by running with CPU. The hard disk can store the data of the moving image reproduction program recorded on the optical disk via the drive 301, and the stored program can be reflected in the operation of the personal computer 3.

◎上記の各実施形態においては、撮影条件として合焦状態、露出の条件、ズーム(撮像光学系に係る焦点距離)の条件、およびホワイトバランスの条件のうち1つの条件を変更するのは必須でなく、これら4種類の撮影条件から複数の条件を組合わせて変更するようにしても良い。   In each of the above embodiments, it is essential to change one of the focusing condition, the exposure condition, the zoom (focal length related to the imaging optical system) condition, and the white balance condition as the shooting condition. Alternatively, a plurality of conditions may be combined and changed from these four types of shooting conditions.

◎上記の各実施形態においては、撮像素子としてCMOSを使用するのは必須でなく、CCDを使用しても良い。   In each of the above embodiments, it is not essential to use a CMOS as an image sensor, and a CCD may be used.

本発明の第1実施形態に係る撮像装置1Aを示す斜視図である。1 is a perspective view showing an imaging apparatus 1A according to a first embodiment of the present invention. 撮像装置1Aの背面図である。It is a rear view of imaging device 1A. 撮像装置1Aの機能ブロックを示す図である。It is a figure which shows the functional block of 1 A of imaging devices. 撮像装置1Aにおける動画撮影動作および再生動作を説明するための図である。It is a figure for demonstrating the video recording operation | movement and reproduction | regeneration operation | movement in 1 A of imaging devices. 3種類の合焦状態を説明するための図である。It is a figure for demonstrating three types of focusing states. 撮像装置1Aにおける動画撮影動作を説明するフローチャートである。It is a flowchart explaining the moving image shooting operation | movement in 1 A of imaging devices. 動画撮影によって取得されるフレーム画像を説明するための図である。It is a figure for demonstrating the frame image acquired by video recording. メモリカード9に記録されたフレーム画像のデータ配列を示す図である。4 is a diagram showing a data arrangement of frame images recorded on a memory card 9. FIG. 撮像装置1Aにおける動画再生動作を説明するフローチャートである。It is a flowchart explaining the moving image reproduction operation | movement in 1 A of imaging devices. 再生処理を説明するための図である。It is a figure for demonstrating reproduction | regeneration processing. 本発明の第2実施形態に係る撮像装置1Bにおける3種類の露出状態を説明するための図である。It is a figure for demonstrating three types of exposure states in the imaging device 1B which concerns on 2nd Embodiment of this invention. 動画撮影によって取得されるフレーム画像を説明するための図である。It is a figure for demonstrating the frame image acquired by video recording. 撮像装置1Bにおける動画再生動作を説明するフローチャートである。It is a flowchart explaining the moving image reproduction operation | movement in the imaging device 1B. 本発明の第3実施形態に係る撮像装置1Cにおける3種類のズーム状態を説明するための図である。It is a figure for demonstrating three types of zoom states in 1 C of imaging devices which concern on 3rd Embodiment of this invention. 動画撮影によって取得されるフレーム画像を説明するための図である。It is a figure for demonstrating the frame image acquired by video recording. 撮像装置1Cにおける動画再生動作を説明するフローチャートである。It is a flowchart explaining the moving image reproduction operation | movement in 1 C of imaging devices. 本発明の第4実施形態に係る撮像装置1Dにおける3種類のWB状態を説明するための図である。It is a figure for demonstrating three types of WB states in the imaging device 1D which concerns on 4th Embodiment of this invention. 動画撮影によって取得されるフレーム画像を説明するための図である。It is a figure for demonstrating the frame image acquired by video recording. 撮像装置1Dにおける動画再生動作を説明するフローチャートである。It is a flowchart explaining the moving image reproduction operation | movement in imaging device 1D. 本発明の変形例に係るパソコン3の要部構成を説明するための図である。It is a figure for demonstrating the principal part structure of the personal computer 3 which concerns on the modification of this invention.

符号の説明Explanation of symbols

1A〜1D 撮像装置
9 メモリカード
16 液晶ディスプレイ(LCD)
20A〜20D 制御部
21 CMOS
22 信号処理部
23 メモリ
24 画像処理部
25 合焦演算部
26 AE演算部
27 WB演算部
111 ズームレンズ
112 フォーカスレンズ
171〜173 操作ボタン
201 フラッシュROM
a1〜a4 a系列の画像
b1〜b4 b系列の画像
c1〜c4 c系列の画像
f1〜f12、g1〜g12、h1〜h12、k1〜k12 フレーム画像
TGp 撮影条件タグ
1A to 1D Imaging device 9 Memory card 16 Liquid crystal display (LCD)
20A-20D controller 21 CMOS
22 signal processing unit 23 memory 24 image processing unit 25 focusing calculation unit 26 AE calculation unit 27 WB calculation unit 111 zoom lens 112 focus lens 171 to 173 operation button 201 flash ROM
a1-a4 a-sequence image b1-b4 b-sequence image c1-c4 c-sequence image f1-f12, g1-g12, h1-h12, k1-k12 frame image TGp shooting condition tag

Claims (5)

所定の記録手段に記録されたフレーム画像群に基づき動画再生を行う動画再生方法であって、
(a)前記フレーム画像群の撮影時に変更された2以上の撮影条件から1の撮影条件を選択する選択工程と、
(b)前記フレーム画像群から前記1の撮影条件で撮像されたフレーム画像を抽出し、抽出したフレーム画像を撮像した時系列順に表示手段に表示させて動画再生を行う再生工程と、
を備え、
前記フレーム画像群は、所定のフレームレートに基づくタイミングで前記2以上の撮影条件を順次に変更しつつ撮像された画像群であることを特徴とする動画再生方法。
A moving image reproduction method for performing moving image reproduction based on a frame image group recorded in a predetermined recording means,
(a) a selection step of selecting one shooting condition from two or more shooting conditions changed at the time of shooting the frame image group;
(b) a reproduction step of extracting a frame image captured under the one shooting condition from the frame image group, displaying the extracted frame image on a display unit in time-series order, and reproducing a moving image;
With
The moving image reproducing method, wherein the frame image group is an image group captured while sequentially changing the two or more shooting conditions at a timing based on a predetermined frame rate.
請求項1に記載の動画再生方法において、
前記再生工程は、
(b-1)前記フレーム画像群から、前記1の撮影条件に対応した判別情報が付与されたフレーム画像を抽出する抽出工程、
を有し、
前記所定の記録手段に記録されたフレーム画像群の各フレーム画像には、前記2以上の撮影条件を区別する前記判別情報が付与されていることを特徴とする動画再生方法。
The video playback method according to claim 1,
The regeneration step includes
(b-1) an extraction step of extracting a frame image to which discrimination information corresponding to the one photographing condition is added from the frame image group;
Have
The moving image reproduction method according to claim 1, wherein the discrimination information for distinguishing the two or more shooting conditions is assigned to each frame image of the frame image group recorded in the predetermined recording unit.
請求項1または請求項2に記載の動画再生方法において、
前記所定のフレームレートは、前記再生工程において動画再生する際のフレームレートに対してN倍(Nは2以上の整数)のフレームレートであることを特徴とする動画再生方法。
In the moving image reproducing method according to claim 1 or 2,
The moving image reproduction method according to claim 1, wherein the predetermined frame rate is a frame rate N times (N is an integer of 2 or more) a frame rate at the time of moving image reproduction in the reproduction step.
所定の記録手段に記録されたフレーム画像群に基づき動画再生を行うコンピュータによって実行されることにより、
前記コンピュータに、
(a)前記フレーム画像群の撮影時に変更された2以上の撮影条件から1の撮影条件を選択する選択工程と、
(b)前記フレーム画像群から前記1の撮影条件で撮像されたフレーム画像を抽出し、抽出したフレーム画像を撮像した時系列順に表示手段に表示させて動画再生を行う再生工程と、
を実行させ、
前記フレーム画像群は、所定のフレームレートに基づくタイミングで前記2以上の撮影条件を順次に変更しつつ撮像された画像群であることを特徴とする動画再生プログラム。
By being executed by a computer that reproduces a moving image based on a group of frame images recorded in a predetermined recording means,
In the computer,
(a) a selection step of selecting one shooting condition from two or more shooting conditions changed at the time of shooting the frame image group;
(b) a reproduction step of extracting a frame image captured under the one shooting condition from the frame image group, displaying the extracted frame image on a display unit in time-series order, and reproducing a moving image;
And execute
The moving image reproduction program characterized in that the frame image group is an image group captured while sequentially changing the two or more shooting conditions at a timing based on a predetermined frame rate.
画像表示が可能な表示手段を有する撮像装置であって、
(a)被写体に係るフレーム画像を順次に生成する撮像手段と、
(b)所定のフレームレートに基づくタイミングで2以上の撮影条件を順次に変更しつつ前記撮像手段によりフレーム画像を順次に撮像し、フレーム画像群として所定の記録媒体に記録する撮影制御手段と、
(c)前記2以上の撮影条件から1の撮影条件を選択する選択手段と、
(d)前記フレーム画像群から前記1の撮影条件で撮像されたフレーム画像を抽出し、抽出したフレーム画像を撮像した時系列順に前記表示手段に表示させて動画再生を行う再生制御手段と、
を備えることを特徴とする撮像装置。
An imaging apparatus having display means capable of displaying an image,
(a) imaging means for sequentially generating frame images related to the subject;
(b) a shooting control unit that sequentially captures frame images by the imaging unit while sequentially changing two or more shooting conditions at a timing based on a predetermined frame rate, and records the frame images in a predetermined recording medium;
(c) selection means for selecting one shooting condition from the two or more shooting conditions;
(d) a reproduction control unit that extracts a frame image captured under the one shooting condition from the frame image group, displays the extracted frame image in the time series in which the extracted frame image is captured, and reproduces a moving image;
An imaging apparatus comprising:
JP2004204426A 2004-07-12 2004-07-12 Method and program for reproducing motion image and image pickup device Pending JP2006033033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004204426A JP2006033033A (en) 2004-07-12 2004-07-12 Method and program for reproducing motion image and image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004204426A JP2006033033A (en) 2004-07-12 2004-07-12 Method and program for reproducing motion image and image pickup device

Publications (1)

Publication Number Publication Date
JP2006033033A true JP2006033033A (en) 2006-02-02

Family

ID=35898915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004204426A Pending JP2006033033A (en) 2004-07-12 2004-07-12 Method and program for reproducing motion image and image pickup device

Country Status (1)

Country Link
JP (1) JP2006033033A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193342A (en) * 2007-02-02 2008-08-21 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2011221924A (en) * 2010-04-13 2011-11-04 Canon Inc Image processing device, display device, and photographing device
JP2013146104A (en) * 2013-04-09 2013-07-25 Canon Inc Playback apparatus and playback method
JP2014099929A (en) * 2014-02-21 2014-05-29 Canon Inc Playback apparatus, display device, and playback method
JP2014135775A (en) * 2014-04-23 2014-07-24 Canon Inc Reproducer, display device, reproduction method and program
JP2016059058A (en) * 2015-11-24 2016-04-21 オリンパス株式会社 Imaging device, control method for imaging device, and imaging method
WO2020019212A1 (en) * 2018-07-25 2020-01-30 深圳市大疆创新科技有限公司 Video playback speed control method and system, control terminal, and mobile platform

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193342A (en) * 2007-02-02 2008-08-21 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2011221924A (en) * 2010-04-13 2011-11-04 Canon Inc Image processing device, display device, and photographing device
US9001232B2 (en) 2010-04-13 2015-04-07 Canon Kabushiki Kaisha Image processing apparatus, display apparatus and image capturing apparatus, with moving image including plural frames of images alternately captured with different exposures including correct and incorrect exposures
US9357139B2 (en) 2010-04-13 2016-05-31 Canon Kabushiki Kaisha Image processing apparatus, display apparatus and image capturing apparatus with generation of composite image by adding multiplied edge components outputted from first multiplier and multiplied low frequency components outputted from second mylitplier
JP2013146104A (en) * 2013-04-09 2013-07-25 Canon Inc Playback apparatus and playback method
JP2014099929A (en) * 2014-02-21 2014-05-29 Canon Inc Playback apparatus, display device, and playback method
JP2014135775A (en) * 2014-04-23 2014-07-24 Canon Inc Reproducer, display device, reproduction method and program
JP2016059058A (en) * 2015-11-24 2016-04-21 オリンパス株式会社 Imaging device, control method for imaging device, and imaging method
WO2020019212A1 (en) * 2018-07-25 2020-01-30 深圳市大疆创新科技有限公司 Video playback speed control method and system, control terminal, and mobile platform

Similar Documents

Publication Publication Date Title
JP4727457B2 (en) Imaging device
TWI399082B (en) Display control device, display control method and program
JP3867687B2 (en) Imaging device
TWI378714B (en)
JP5931464B2 (en) Imaging device
US20060007341A1 (en) Image capturing apparatus
JP3395770B2 (en) Digital still camera
US20040165085A1 (en) Camera apparatus, displaying method, and storage medium containing displaying method
JP2006025312A (en) Imaging apparatus and image acquisition method
US20130114938A1 (en) Image-capturing apparatus
JP2006033049A (en) Image pickup device
JP2009077026A (en) Imaging apparatus and method, and program
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP2014057174A (en) Imaging apparatus and digital camera
JP4033456B2 (en) Digital camera
JP2006033033A (en) Method and program for reproducing motion image and image pickup device
JP2006033242A (en) Image reproducing method and image pickup device
JP2014053863A (en) Photographing apparatus
JP2005086219A (en) Digital camera and photographing control method
JP2004207805A (en) Digital still camera
JP4049291B2 (en) Digital still camera
JP4902365B2 (en) Image composition apparatus and program
JP2003018434A (en) Imaging apparatus
JP4243844B2 (en) Image capturing apparatus and image capturing method
JP2003319246A (en) Digital camera