JP2017199985A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2017199985A
JP2017199985A JP2016087587A JP2016087587A JP2017199985A JP 2017199985 A JP2017199985 A JP 2017199985A JP 2016087587 A JP2016087587 A JP 2016087587A JP 2016087587 A JP2016087587 A JP 2016087587A JP 2017199985 A JP2017199985 A JP 2017199985A
Authority
JP
Japan
Prior art keywords
frame
moving image
recording
reproducible
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016087587A
Other languages
Japanese (ja)
Inventor
理紗 小泉
Risa Koizumi
理紗 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016087587A priority Critical patent/JP2017199985A/en
Publication of JP2017199985A publication Critical patent/JP2017199985A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus capable of disabling reproduction of a screen that must not be reproduced.SOLUTION: An imaging apparatus includes means for detecting shooting conditions during video recording, discriminating whether or not each frame is a reproducible frame based on the detected shooting conditions, and generating management information indicating whether or not it is a reproducible frame, means for recording a video and management information as a video file, reproduction means of reproducing the video file, display means for displaying the reproduced video, and means for controlling the display means to discriminate whether or not each frame, in a reproduced video, is a reproducible frame, based on the header information in a reproduced video file, and to display a reproducible frame in place of a non-reproducible frame.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来、動画や静止画を撮影し、記録する撮像装置が知られている。また、動画記録中に静止画を記録する際に、ストロボ発光をしたら動画の記録を一時停止させ、ストロボが発行されたときの画面が動画に含まれないようにする技術が提案されている(特許文献1参照)。   2. Description of the Related Art Conventionally, imaging devices that capture and record moving images and still images are known. In addition, when recording a still image while recording a movie, a technology has been proposed in which the recording of the movie is paused when the flash fires, and the screen when the flash is issued is not included in the movie ( Patent Document 1).

特開2008−295098号公報JP 2008-295098 A

特許文献1では、ストロボ発光による画面を記録しないようにするだけである。例えば、撮影中に装置がぶれる等、見苦しい画像が記録された場合にはそのまま再生されてしまう。   In Patent Document 1, it is only necessary not to record a screen by flash emission. For example, if an unsightly image is recorded, such as when the device is shaken during shooting, it is reproduced as it is.

本発明は、このような問題を解決し、再生すべきではない画面が再生されないようにすることが可能な撮像装置を提供することを目的とする。   It is an object of the present invention to provide an imaging apparatus that can solve such a problem and prevent a screen that should not be reproduced from being reproduced.

上記の目的を達成するために、本発明に係る撮像装置は、
撮像手段と、前記撮像手段により出力された動画を記録する手段であって、記録開始の指示に応じて前記動画の記録を開始し、所定時間の動画を記録した後に、自動的に動画の記録を停止する記録手段と、前記記録手段による動画の記録中に、撮像装置の撮影状態を検出し、検出された撮影状態に基づいて、記録中の動画における各フレームが再生可能なフレームであるか否かを判別するとともに、記録された動画の各フレームについて、再生可能なフレームであるか否かを示す管理情報を生成する手段と、前記動画と前記管理情報とを含む動画ファイルを記録するように前記記録手段を制御する制御手段と、前記動画ファイルを再生する再生手段と、前記再生手段により再生された動画を表示する表示手段とを備え、前記制御手段は、前記再生手段により再生された動画ファイルにおける前記管理情報に基づいて、前記再生手段により再生された動画における各フレームについて、再生可能なフレームであるか否かを判別し、再生可能でないフレームに代えて、再生可能なフレームを表示するように、前記表示手段を制御することを特徴とする。
In order to achieve the above object, an imaging apparatus according to the present invention includes:
An image pickup means and a means for recording a moving image output by the image pickup means, starts recording the moving image in response to a recording start instruction, and automatically records the moving image after recording the moving image for a predetermined time. A recording unit that stops recording, and a recording state of the imaging apparatus is detected during recording of the moving image by the recording unit, and whether each frame in the moving image being recorded is a reproducible frame based on the detected shooting state A means for generating management information indicating whether each frame of the recorded moving image is a reproducible frame, and a moving image file including the moving image and the management information is recorded. Control means for controlling the recording means, reproducing means for reproducing the moving image file, and display means for displaying the moving image reproduced by the reproducing means, the control means comprising: Based on the management information in the moving image file reproduced by the raw means, it is determined whether or not each frame in the moving image reproduced by the reproducing means is a reproducible frame. The display means is controlled to display a reproducible frame.

本発明に係る撮像装置によれば、再生すべきではない画面が再生されないようにすることが可能となる。   With the imaging apparatus according to the present invention, it is possible to prevent a screen that should not be reproduced from being reproduced.

撮像装置のブロック図Block diagram of imaging device 三次元加速度センサの配置図Layout of 3D acceleration sensor 動画記録中におけるAF動作のフローチャートFlow chart of AF operation during moving image recording 動画記録中におけるAE動作のフローチャートFlow chart of AE operation during video recording 動画データ構造の模式図Schematic diagram of video data structure 動画再生動作のフローチャートFlow chart of video playback operation 識別データのレベルを決定するデータテーブルData table that determines the level of identification data

以下、本発明を実施するための形態を図面に基づいて説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

[実施例1]
図1は本実施形態に係る撮像装置100の構成を示すブロック図である。
[Example 1]
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 100 according to the present embodiment.

図1において、110は変倍レンズ、111はカメラのブレを補正するシフトレンズ、112は焦点調節用フォーカスレンズ、113は後段への光束を遮断するメカニカルシャッタ、114は後段への光束を調節する絞りである。115は撮像素子、116は撮像素子115を駆動及び、サンプリングに必要なタイミングパルスを発生するタイミング発生器である。   In FIG. 1, 110 is a variable power lens, 111 is a shift lens for correcting camera shake, 112 is a focus lens for focus adjustment, 113 is a mechanical shutter that blocks the light beam to the subsequent stage, and 114 is to adjust the light beam to the subsequent stage. Aperture. Reference numeral 115 denotes an image sensor, and 116 denotes a timing generator that drives the image sensor 115 and generates timing pulses necessary for sampling.

117は撮像素子115からの画像信号を処理する画像処理部である。画像処理部117は、撮像素子を駆動するための同期信号を発生するSSG回路や、前処理回路、AF評価値演算回路、輝度積分回路、信号処理回路、顔検出回路、縮小回路、ラスタブロック変換回路及び、圧縮回路を含む。   An image processing unit 117 processes an image signal from the image sensor 115. The image processing unit 117 includes an SSG circuit that generates a synchronization signal for driving the image sensor, a preprocessing circuit, an AF evaluation value calculation circuit, a luminance integration circuit, a signal processing circuit, a face detection circuit, a reduction circuit, and a raster block conversion. A circuit and a compression circuit.

SSG回路では、タイミング発生器から撮像駆動用のクロックを受けて、水平及び、垂直同期信号を発生し、タイミング発生器と撮像素子に出力する。前処理回路では、入力画像を行単位で輝度積分回路と信号処理回路とに分配する。また、撮像データに必要となるチャネル間のデータ補正等の処理を行う。AF評価値演算回路では、設定された複数の評価領域内に入力される画像信号の輝度成分について水平方向のフィルタ処理を施し、コントラストをあらわす所定周波数を抽出しながら最大値を選択し、垂直方向に積分演算を行う。輝度積分回路では、RGB信号から輝度成分を混合生成し、入力画像を複数領域に分割し、領域毎に輝度成分を生成する。   The SSG circuit receives an imaging drive clock from the timing generator, generates horizontal and vertical synchronization signals, and outputs them to the timing generator and the image sensor. The preprocessing circuit distributes the input image to the luminance integration circuit and the signal processing circuit in units of rows. Further, processing such as data correction between channels necessary for imaging data is performed. In the AF evaluation value calculation circuit, the luminance component of the image signal input in the set plurality of evaluation areas is subjected to horizontal filtering, and the maximum value is selected while extracting a predetermined frequency representing contrast, and the vertical direction Perform the integral operation. In the luminance integration circuit, luminance components are mixed and generated from RGB signals, the input image is divided into a plurality of regions, and a luminance component is generated for each region.

信号処理回路では、撮像素子出力データに色キャリア除去、アパーチャー補正、ガンマ補正処理等を行って輝度信号を生成する。同時に、色補間、マトリックス変換、ガンマ処理、ゲイン調整等を施して色差信号を生成し、メモリ部123にYUV形式の画像データを形成する。また、信号処理回路では、生成するYUV形式の画像データの輝度信号(Y)をそのレベル毎に集計し、画像データ毎の輝度分布データを生成する。   The signal processing circuit generates a luminance signal by performing color carrier removal, aperture correction, gamma correction processing, and the like on the image sensor output data. At the same time, color interpolation, matrix conversion, gamma processing, gain adjustment, and the like are performed to generate a color difference signal, and image data in YUV format is formed in the memory unit 123. In the signal processing circuit, the luminance signals (Y) of the YUV format image data to be generated are tabulated for each level, and luminance distribution data for each image data is generated.

縮小回路では、信号処理回路の出力を受けて、入力される画素データの切り出し、間引き及び、線形補間処理等を行い、水平垂直方向に画素データの縮小処理を施す。それを受けて、ラスタブロック変換回路では、縮小回路で変倍されたラスタスキャン画像データをブロックスキャン画像データに変換する。こうした一連の画像処理は、メモリ部123がバッファメモリとして用いられて実現される。圧縮回路は、バッファメモリでブロックスキャンデータに変換したYUV画像データを動画圧縮方式に従って圧縮して、動画ビットストリームを出力する。   The reduction circuit receives the output of the signal processing circuit, cuts out input pixel data, performs thinning, linear interpolation processing, and the like, and performs pixel data reduction processing in the horizontal and vertical directions. In response to this, the raster block conversion circuit converts the raster scan image data scaled by the reduction circuit into block scan image data. Such a series of image processing is realized by using the memory unit 123 as a buffer memory. The compression circuit compresses the YUV image data converted into the block scan data by the buffer memory according to the moving image compression method, and outputs a moving image bit stream.

118はメカニカルシャッタ113、絞り114を制御する露出制御部である。119は変倍レンズ110、焦点調節レンズ112を光軸上に沿って移動させ、被写界像を撮像素子115上に結像させるレンズ制御部である。また、角速度センサと加速度センサの出力に応じてシフトレンズを駆動し、画像記録再生装置の手ブレを光学的に補正する。また、120は撮影指示を行うレリーズスイッチである。   An exposure control unit 118 controls the mechanical shutter 113 and the diaphragm 114. A lens control unit 119 moves the zoom lens 110 and the focus adjustment lens 112 along the optical axis, and forms an object scene image on the image sensor 115. Further, the shift lens is driven in accordance with the outputs of the angular velocity sensor and the acceleration sensor, and the camera shake of the image recording / reproducing apparatus is optically corrected. Reference numeral 120 denotes a release switch for instructing photographing.

127は入力された音声を音声信号に変換するマイクロフォン、128はマイクロフォンの音声出力をデジタル音声信号に変換するA/D変換器、129は、デジタル音声データに所定の音声処理を施し、音声ビットストリームを出力する音声処理部である。   Reference numeral 127 denotes a microphone that converts input sound into a sound signal, 128 denotes an A / D converter that converts the sound output of the microphone into a digital sound signal, and 129 performs predetermined sound processing on the digital sound data to generate an audio bitstream. Is a voice processing unit that outputs.

システム制御回路121は、CPU及びメモリ等を含む。システム制御回路121は、撮像装置100の各部を制御するCPUが実行するプログラムは、フラッシュメモリ122に記憶されている。142は電源となる電池、130と141は画像記録装置100と電池142とを係合させる接続端子、140は画像記録装置100に電池142を保持する電池BOXである。133は画像を記録する記録媒体、125と132は、画像記録装置100と記録媒体133とを係合させる接続端子、134は記録媒体の書き込み禁止スイッチを検出するスイッチ、126は記録媒体133の着脱を検出する検出スイッチである。   The system control circuit 121 includes a CPU and a memory. In the system control circuit 121, a program executed by a CPU that controls each unit of the imaging apparatus 100 is stored in the flash memory 122. 142 is a battery serving as a power source, 130 and 141 are connection terminals for engaging the image recording apparatus 100 and the battery 142, and 140 is a battery BOX that holds the battery 142 in the image recording apparatus 100. Reference numeral 133 denotes a recording medium for recording an image; 125 and 132, connection terminals for engaging the image recording apparatus 100 and the recording medium 133; 134, a switch for detecting a write-protect switch of the recording medium; 126, attachment / detachment of the recording medium 133 This is a detection switch for detecting.

150は画像処理部117で生成され、メモリ部123に記憶された画像データを表示用画像に変換してモニタに転送する再生回路、151は表示装置である。再生回路150では、YUV形式の画像データを輝度成分信号Yと変調色差成分Cとに分離し、D/A変換を行ったアナログ化されたY信号にLPFを施す。また、D/A変換を行ったアナログC信号にBPFを施して変調色差成分の周波数成分のみを抽出する。こうして生成された信号成分とサブキャリア周波数に基づいて、Y信号とRGB信号に変換生成して、モニタ151に出力される。このように、撮像素子からの画像データを逐次処理して表示することによってEVFが実現される。   Reference numeral 150 denotes a reproduction circuit that converts image data generated by the image processing unit 117 and stored in the memory unit 123 into a display image and transfers it to a monitor, and 151 denotes a display device. The reproduction circuit 150 separates the YUV format image data into a luminance component signal Y and a modulated chrominance component C, and applies LPF to the analog Y signal subjected to D / A conversion. Further, BPF is applied to the analog C signal that has been subjected to D / A conversion, and only the frequency component of the modulated color difference component is extracted. Based on the signal component thus generated and the subcarrier frequency, the signal is converted into a Y signal and an RGB signal and output to the monitor 151. Thus, EVF is realized by sequentially processing and displaying the image data from the image sensor.

180は画像記録装置の垂直方向のシフトブレ及び、垂直方向の角度ブレを検出するための第一の加速度センサ対、190は画像記録装置の水平方向のシフトブレ及び、水平方向の角度ブレを検出するための第二の加速度センサ対である。第一の加速度センサ対は、第一と第二の二次元加速度センサで構成される。また、第二の加速度センサ対は、第三と第四の二次元加速度センサで構成される。   180 is a first acceleration sensor pair for detecting vertical shift blur and vertical angle blur of the image recording apparatus, and 190 is for detecting horizontal shift blur and horizontal angle blur of the image recording apparatus. The second acceleration sensor pair. The first acceleration sensor pair is composed of first and second two-dimensional acceleration sensors. The second acceleration sensor pair is composed of third and fourth two-dimensional acceleration sensors.

<ブレ検出の説明>
図2は加速度センサ対で構成した三次元加速度センサの配置を示したものである。
<Explanation of blur detection>
FIG. 2 shows the arrangement of a three-dimensional acceleration sensor composed of a pair of acceleration sensors.

加速度センサ対を構成する第一から第四の加速度センサは、それぞれ二つの感度軸を持つ。一方が光軸方向に一致するように固定され、他方が垂直方向または、水平方向に一致するように固定されることにより、光軸方向と垂直方向の加速度または、光軸方向と水平方向の加速度を検出する。   Each of the first to fourth acceleration sensors constituting the acceleration sensor pair has two sensitivity axes. One is fixed to match the optical axis direction, and the other is fixed to match the vertical direction or horizontal direction, so that the acceleration in the optical axis direction and the vertical direction, or the acceleration in the optical axis direction and the horizontal direction Is detected.

第一の加速度センサは光軸の真横に配置され、第二の加速度センサは第一の加速度センサと光軸に対して垂直な同一面上で且つ、第1の加速度センサに対して垂直方向に所定量ずらした位置に配置される。また、第三の加速度センサは光軸の真下に配置され、第四の加速度センサは第三の加速度センサと光軸に対して水平な同一面上で且つ、第三の加速度センサに対して水平方向に所定量ずらした位置に配置される。   The first acceleration sensor is arranged directly beside the optical axis, and the second acceleration sensor is on the same plane as the first acceleration sensor and perpendicular to the optical axis and in a direction perpendicular to the first acceleration sensor. Arranged at a position shifted by a predetermined amount. The third acceleration sensor is arranged directly below the optical axis, and the fourth acceleration sensor is on the same plane as the third acceleration sensor and parallel to the optical axis and is horizontal to the third acceleration sensor. It is arranged at a position shifted by a predetermined amount in the direction.

第一の加速度センサの出力であるG1信号及び、第二の加速度センサの出力であるG2信号は、システム制御回路121に入力される。システム制御回路121は入力されるG1信号とG2信号の差を時間軸方向に積分し、光軸に対して垂直方向の角度ブレ量と光軸方向の角度ブレ量を得る。また、G1信号及び、G2信号を時間軸方向に積分し、光軸に対する垂直方向のシフトブレ量を検出する。同様に、第三の加速度センサの出力であるG3信号及び、第四の加速度センサの出力であるG4信号は、システム制御回路121に入力され、水平方向の角度ブレ量と光軸方向の角度ブレ量及び、シフトブレ量を検出する。   The G1 signal that is the output of the first acceleration sensor and the G2 signal that is the output of the second acceleration sensor are input to the system control circuit 121. The system control circuit 121 integrates the difference between the input G1 signal and the G2 signal in the time axis direction, and obtains an angular blur amount in the direction perpendicular to the optical axis and an angular blur amount in the optical axis direction. Further, the G1 signal and the G2 signal are integrated in the time axis direction, and the shift blur amount in the direction perpendicular to the optical axis is detected. Similarly, the G3 signal, which is the output of the third acceleration sensor, and the G4 signal, which is the output of the fourth acceleration sensor, are input to the system control circuit 121, and the amount of horizontal angle shake and the angle shake in the optical axis direction are input. The amount and shift blur amount are detected.

<AF動作の説明>
図3は記録待機時(ライブビュー表示)、及び、動画記録中におけるAF(自動焦点調節)動作のフローチャートである。
<Description of AF operation>
FIG. 3 is a flowchart of AF (automatic focus adjustment) operation during recording standby (live view display) and during moving image recording.

図3のフローチャートを用いて、本実施例に係わるAF動作を説明する。この動作もシステム制御回路121がフラッシュメモリ122に記憶されたプログラムをロードして実行することで実現する。   The AF operation according to this embodiment will be described with reference to the flowchart of FIG. This operation is also realized by the system control circuit 121 loading and executing a program stored in the flash memory 122.

システム制御回路121のCPUは、動作撮影記録を開始し(S300)、定期的な評価値による合焦率判定を行う(S301)。合焦率が低いと判断された場合には、撮像に同期してフォーカスレンズを等速で移動する(S302)。最初の先頭行の露光が完了すると(S303)、後述する該当フレームIDのイメージプロパティ(画像情報)を取得し(S304)、評価値の積分を行う(S305)。焦点距離に応じた評価値サンプリング数分のスキャンが終了したかを判定し(S306)、スキャンが終了すると、上段、中段、下段それぞれの評価値枠の重心時刻を求める(S307)。   The CPU of the system control circuit 121 starts action shooting recording (S300), and performs focusing rate determination based on periodic evaluation values (S301). If it is determined that the focusing rate is low, the focus lens is moved at a constant speed in synchronization with the imaging (S302). When the exposure of the first head line is completed (S303), an image property (image information) of a corresponding frame ID described later is acquired (S304), and evaluation values are integrated (S305). It is determined whether scanning for the number of evaluation value samples corresponding to the focal length has been completed (S306). When the scanning is completed, the center-of-gravity time of each evaluation value frame in the upper, middle, and lower stages is obtained (S307).

各評価値枠の重心時刻にフォーカスレンズの位置を対応付け(S308)、所定のアルゴリズムで最も焦点の合った位置(合焦位置)にフォーカスレンズを移動させる(S309)。これらを動画記録が終了するまで続ける(S310)。AF動作期間において、AF用のプログラムは評価用のデータを後述するイメージプロパティに出力する。   The position of the focus lens is associated with the barycentric time of each evaluation value frame (S308), and the focus lens is moved to the most focused position (focus position) by a predetermined algorithm (S309). These are continued until the moving image recording is completed (S310). During the AF operation period, the AF program outputs evaluation data to an image property described later.

<輝度レベル変化の説明>
図4は記録待機時、及び、動画記録中におけるAE(自動露出制御)動作のフローチャートである。
<Description of luminance level change>
FIG. 4 is a flowchart of an AE (automatic exposure control) operation during recording standby and during moving image recording.

図4のフローチャートを用いて、本実施例に係わるAE動作を説明する。この動作もシステム制御回路121がフラッシュメモリ122に記憶されたプログラムをロードして実行することで実現する。   The AE operation according to this embodiment will be described with reference to the flowchart of FIG. This operation is also realized by the system control circuit 121 loading and executing a program stored in the flash memory 122.

システム制御回路121のCPUは、動画撮影記録を開始し(S400=S300)、画像処理部117の輝度積分回路に対し、入力画像を複数領域に分割し、領域毎に輝度成分を生成するための設定を行う(S401)。初期の露出制御を行い(S402)、この露出制御下での輝度積分が完了するのを待つ(S403)。輝度積分が完了すると、分割した領域毎の積分結果の評価演算を行い、適正露出からのずれ量を共に被写界輝度を求める(S404)。   The CPU of the system control circuit 121 starts moving image shooting and recording (S400 = S300), divides the input image into a plurality of areas for the luminance integration circuit of the image processing unit 117, and generates a luminance component for each area. Settings are made (S401). Initial exposure control is performed (S402), and the completion of luminance integration under this exposure control is awaited (S403). When the luminance integration is completed, evaluation calculation of the integration result for each divided area is performed, and the field luminance is obtained together with the amount of deviation from the appropriate exposure (S404).

求められた被写界輝度に適合する露出制御値に基づいて次の露光タイミングの露出制御を行う(S405)。これらを動画記録が終了するまで続ける(S406)。AE動作において、AE用のプログラムは積分結果から求めた適正露出からのずれ量をBv値として後述するイメージプロパティに出力する。   Based on the exposure control value that matches the determined field luminance, exposure control is performed at the next exposure timing (S405). These are continued until the moving image recording is completed (S406). In the AE operation, the AE program outputs a deviation amount from the appropriate exposure obtained from the integration result as a Bv value to an image property described later.

<動画記録の説明>
動画記録を行うため、システム制御回路121は予めプログラミングされた動画記録時の撮影を制御するための同期信号パターンを画像処理部117のSSG回路に設定する。SSG回路は、タイミング発生回路116のクロックに基づいて、水平及び、垂直同期信号を出力する。撮像素子115は、これらの同期信号に基づいて生成されるタイミング発生器116の出力にしたがって駆動され、連続的に撮像して得られたデジタル画像データが画像処理部に取り込まれる。
<Description of video recording>
In order to perform moving image recording, the system control circuit 121 sets a pre-programmed synchronization signal pattern for controlling shooting during moving image recording in the SSG circuit of the image processing unit 117. The SSG circuit outputs horizontal and vertical synchronization signals based on the clock of the timing generation circuit 116. The image sensor 115 is driven according to the output of the timing generator 116 generated based on these synchronization signals, and digital image data obtained by continuously capturing images is taken into the image processing unit.

取り込まれた画像データは順次、先に説明した画像処理を受けて、表示用のYUVデータと動画記録用のYUVデータに変換される。圧縮部では、動画記録用のYUVデータを圧縮して動画ビットストリームを出力する。システム制御回路121は、動画ビットストリームと音声ビットストリームから記録用の動画データをメモリに逐次蓄積しながら、順次記録媒体に記録する。   The captured image data is sequentially subjected to the image processing described above, and converted into YUV data for display and YUV data for moving image recording. The compression unit compresses the YUV data for moving image recording and outputs a moving image bit stream. The system control circuit 121 sequentially records the moving image data for recording from the moving image bit stream and the audio bit stream on the recording medium while sequentially accumulating them in the memory.

本実施形態では、動画記録時において、ユーザーによる動画の記録開始の指示に応じて動画の記録を開始し、所定時間、例えば4秒分の動画と音声とを記録した後、自動的に記録を停止する。この、1回の記録指示により記録される一連の動画をチャプターと呼ぶ。1チャプターが一つの動画ファイルとして記録され、それぞれの動画ファイルに対し、ヘッダーが付加される。   In the present embodiment, when recording a moving image, the recording of the moving image is started in response to an instruction to start recording the moving image by the user, and after a predetermined time, for example, 4 seconds of moving image and sound are recorded, the recording is automatically performed. Stop. A series of moving images recorded by one recording instruction is called a chapter. One chapter is recorded as one moving image file, and a header is added to each moving image file.

動画ビットストリームは、ヘッダー部と画像15フレームを単位とするGOP(Group Of Picture)の集合で構成される。図5は本実施例の動画ビットストリームのデータ構造を示した模式図で、4秒毎に一つのチャプターを形成するような動画データを表している。それぞれのチャプターの先頭部にはヘッダーが構成される。   The moving picture bitstream is composed of a set of GOP (Group Of Picture) in units of a header part and 15 frames of images. FIG. 5 is a schematic diagram showing the data structure of the moving image bit stream of the present embodiment, and represents moving image data that forms one chapter every 4 seconds. A header is formed at the beginning of each chapter.

システム制御回路121は、動画の記録時において取得した動画撮影時情報を基に動画の各フレームについて、再生すべき画面であるか否かを判定する。そして、その判定結果を示す管理情報をヘッダーに格納する。このヘッダーは4秒動画のフレーム数分のデータサイズ、つまり15バイト(120ビット)のデータ量をもっており、ビット0からビット119はフレーム0からフレーム119に対応したデータを保持している。即ち、管理情報の1ビットが各フレームが再生可能であるか否かを示している。動画記録時に取得した動画撮影時情報から再生可能でない(再生不可)フレームであると判定された場合には、フレームに対応したビットを例えば1に設定する。   The system control circuit 121 determines whether or not each frame of the moving image is a screen to be reproduced based on the moving image shooting information acquired at the time of recording the moving image. Then, management information indicating the determination result is stored in the header. This header has a data size corresponding to the number of frames of a 4-second moving image, that is, a data amount of 15 bytes (120 bits), and bits 0 to 119 hold data corresponding to frames 0 to 119. That is, one bit of the management information indicates whether or not each frame can be reproduced. If it is determined that the frame is not reproducible (non-reproducible) from the moving image shooting information acquired at the time of moving image recording, the bit corresponding to the frame is set to 1, for example.

動画撮影時情報とは、輝度変化レベル、ピントずれレベル、垂直方向のブレ量を時間軸方向に積分した垂直方向の振動レベルを含む。また、水平方向のブレ量を時間軸方向に積分した水平方向の振動レベル、垂直方向の角度ブレを時間軸方向に積分した垂直方向の回転レベルを含む。また、水平方向の角度ブレを時間軸方向に積分した水平方向の回転レベル、光軸方向の角度ブレを時間軸方向に積分した光軸方向の回転レベルを含む。   The moving image shooting information includes a luminance change level, a focus shift level, and a vertical vibration level obtained by integrating a vertical blur amount in the time axis direction. Further, it includes a horizontal vibration level obtained by integrating the horizontal shake amount in the time axis direction, and a vertical rotation level obtained by integrating vertical angle shake in the time axis direction. Further, a horizontal rotation level obtained by integrating the angular shake in the horizontal direction in the time axis direction and a rotation level in the optical axis direction obtained by integrating the angular shake in the optical axis direction in the time axis direction are included.

システム制御回路121は、その動画撮影時情報を図7に示すデータテーブルを基にグレードに変換する。そして、グレードの表の確固内の数字をそのグレードが割り当てられた項目数分乗算し、その値を最後に加算する。例えば、動画撮影時情報の7項目の内、5項目がグレード1、1項目がグレード2、1項目が3だった場合は、
50×5+40×1+30×1=320
のように求めることができる。
The system control circuit 121 converts the moving image shooting information into grades based on the data table shown in FIG. Then, the number in the grade table is multiplied by the number of items to which the grade is assigned, and the value is added at the end. For example, out of 7 items of video shooting information, 5 items are grade 1, 1 item is grade 2, 1 item is 3,
50 × 5 + 40 × 1 + 30 × 1 = 320
Can be obtained as follows.

算出した値が設定した閾値よりも大きい場合には、そのフレームを再生不可のフレームとし、上述したように記録する。   If the calculated value is larger than the set threshold, the frame is set as a non-reproducible frame and recorded as described above.

<動画再生時の動作>
図6は動画再生時の動作を示すフローチャートである。
<Operation during video playback>
FIG. 6 is a flowchart showing an operation during reproduction of a moving image.

図6のフローチャートを用いて、本実施例に係わる動画再生の動作を説明する。この動作もシステム制御回路121がフラッシュメモリ122に記憶されたプログラムをロードして実行することで実現する。   With reference to the flowchart of FIG. 6, the moving image reproduction operation according to the present embodiment will be described. This operation is also realized by the system control circuit 121 loading and executing a program stored in the flash memory 122.

図7の再生メインフローでは、まず記録媒体133に記録された動画のヘッダー部の管理情報をシステム制御回路121が読み出してメモリ部123に記憶し、その情報を読み込む(S601)。次に再生されるフレームが再生不可フレームかどうかを判定する(S602)。前述したように、再生不可フレームの場合、対応するフレームの管理情報のビットが1になっている。例えば、先頭フレームに対応する管理情報のビット0が1だった場合、先頭フレームが再生不可フレームであることを意味している。   In the reproduction main flow of FIG. 7, first, the system control circuit 121 reads out management information of the header portion of the moving image recorded on the recording medium 133, stores it in the memory unit 123, and reads the information (S601). Next, it is determined whether or not the frame to be reproduced is a non-reproducible frame (S602). As described above, in the case of a non-reproducible frame, the management information bit of the corresponding frame is 1. For example, if bit 0 of the management information corresponding to the top frame is 1, it means that the top frame is a non-reproducible frame.

再生不可フレームでない場合は、再生されたフレームをそのまま表示する(S603)。一方、再生不可フレームである場合、先頭フレームか否かを判別する(S605)。先頭フレームである場合、チャプターナンバーを確認し、直前に関連するチャプターがあるかどうかを確認する(S606)。チャプターナンバーが2以上の場合、そのチャプターの直前のチャプターの最終フレームを、再生不可のフレームの代わりに表示する(S607)。もし、直前の最終フレームが再生不可のフレームであった場合には、その最終フレームよりも前の再生可能なフレームを代わりに表示する。   If it is not a non-reproducible frame, the regenerated frame is displayed as it is (S603). On the other hand, if it is a non-reproducible frame, it is determined whether it is the top frame (S605). If it is the first frame, the chapter number is confirmed, and it is confirmed whether there is a related chapter immediately before (S606). When the chapter number is 2 or more, the last frame of the chapter immediately before the chapter is displayed instead of the unreproducible frame (S607). If the last frame immediately before is a frame that cannot be reproduced, the frame that can be reproduced before that final frame is displayed instead.

チャプターナンバーが1であった場合、再生不可フレームの直近の再生可フレームを表示する(S608)。ここでは、チャプターの先頭フレームが再生不可であるので、次のフレームを再生し、代わりに表示する。また、S605で、チャプターの先頭フレームでない場合には、再生不可フレームより前にある再生可のフレームを代わりに表示する(S609)。   If the chapter number is 1, the reproducible frame nearest the non-reproducible frame is displayed (S608). Here, since the first frame of the chapter cannot be reproduced, the next frame is reproduced and displayed instead. If it is not the first frame of the chapter in S605, a reproducible frame preceding the nonreproducible frame is displayed instead (S609).

このように1フレームについての表示を行い、残りのフレームがあるか、或いは、再生停止が指示されたか否かを判別する(S604)。再生停止の指示がなく、また、残りのフレームがある場合、次のフレームを選択して(S610)、S602に戻る。全フレームの再生が終わると動画再生を終了する。   In this way, display is performed for one frame, and it is determined whether there is a remaining frame or whether playback stop is instructed (S604). If there is no instruction to stop playback and there are remaining frames, the next frame is selected (S610), and the process returns to S602. When all the frames have been played, the video playback ends.

グレード判定を行うプログラムは、予め再生基準グレードを予め決定している。再生基準グレードの設定の詳細説明は割愛するが、表示装置にGUI表記などして、ユーザーに操作部材でグレードを選択されることも可能である。ユーザーが設定しない場合には、プログラムが記憶するデフォルトのグレードが選択される。   The program for performing the grade determination predetermines the reproduction reference grade in advance. Although detailed description of setting the reproduction reference grade is omitted, it is also possible for the user to select a grade with an operation member by displaying the GUI on the display device. If not set by the user, the default grade stored by the program is selected.

尚、本実施例では、記録時に再生可能なフレーム、或いは可能でないフレームを判定した情報をヘッダー部に保存し、再生時に再生不可のフレームに代えて再生可能なフレームを表示した。記録時に動画撮影時情報をそのまま記録し、再生時に特長要素毎にグレード選択設定して、振動や回転のひどい動画フレームだけを再生不可動画フレームと判定してもよい。また、ピントの甘い動画フレームだけを再生不可動画フレームと判定し、再生時のフレーム選択に幅を持たせてもよい。煩わしい編集なしの動画記録についても同様である。   In the present embodiment, information that determines frames that can be played back or not at the time of recording is stored in the header portion, and frames that can be played back are displayed instead of frames that cannot be played back during playback. Information at the time of moving image shooting may be recorded as it is at the time of recording, and a grade may be selected and set for each feature element at the time of reproduction, and only a moving image frame that is severely vibrated or rotated may be determined as a non-reproducible moving image frame. Further, only a moving image frame with a poor focus may be determined as a non-reproducible moving image frame, and the frame selection at the time of reproduction may be widened. The same applies to moving image recording without troublesome editing.

以上のように、記録時にフレーム毎の特徴から画像の品位を特徴付けるデータを抽出して記録することにより、再生時に不要と思われるフレームに代えて別のフレームを表示することが可能となる。また、同様にして煩わしい編集作業することなく快適な動画のみで構成されるファイルを記録しなおすことが可能となる。更に、快適な動画を決定付けるレベルを使用者が容易に決定し、再生若しくは、動画として残したいシーンを選択できる。   As described above, by extracting and recording data characterizing the quality of an image from the characteristics of each frame during recording, it is possible to display another frame instead of a frame that is considered unnecessary during reproduction. Similarly, it is possible to re-record a file composed only of comfortable moving images without troublesome editing work. Furthermore, the user can easily determine the level for determining a comfortable moving image, and can select a scene to be reproduced or left as a moving image.

即ち、本実施形態では、撮像手段と、撮像手段により出力された動画を記録する手段であって、記録開始の指示に応じて動画の記録を開始し、所定時間の動画を記録した後に、自動的に動画の記録を停止する記録手段とを備える。また、本実施形態では、動画の記録中における撮影状態を検出し、検出された撮影状態に基づいて、記録中の動画における各フレームが再生可能なフレームであるか否かを判別する。また、記録された動画の各フレームについて、再生可能なフレームであるか否かを示す管理情報を生成する。また、動画と管理情報とを動画ファイルとして記録する。   That is, in the present embodiment, the image pickup means and the means for recording the moving image output by the image pickup means, the recording of the moving image is started in response to the recording start instruction, and after the moving image for a predetermined time is recorded, Recording means for stopping the recording of the moving image. In the present embodiment, the shooting state during recording of a moving image is detected, and it is determined whether each frame in the moving image being recorded is a reproducible frame based on the detected shooting state. Also, management information indicating whether or not each frame of the recorded moving image is a reproducible frame is generated. The moving image and management information are recorded as a moving image file.

また、本実施形態では、動画ファイルを再生する再生手段と、再生された動画を表示する表示手段とを備える。更に、再生手段により再生された動画ファイルにおけるヘッダー情報に基づいて、再生手段により再生された動画における各フレームについて、再生可能なフレームであるか否かを判別する。そして、再生可能でないフレームに代えて、再生可能なフレームを表示する。   In the present embodiment, a playback unit that plays back a moving image file and a display unit that displays the played back moving image are provided. Furthermore, based on the header information in the moving image file reproduced by the reproducing means, it is determined whether or not each frame in the moving image reproduced by the reproducing means is a reproducible frame. Then, a reproducible frame is displayed instead of the non-reproducible frame.

また、本実施形態では、前記再生可能でないフレームにもっとも近い、再生可能なフレームを、再生可能でないフレームに代えて表示する。   In this embodiment, the reproducible frame closest to the non-reproducible frame is displayed instead of the non-reproducible frame.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

110 変倍レンズ、111 シフトレンズ、112 焦点調節用フォーカスレンズ、
113 メカニカルシャッタ、114 絞り、115 撮像素子、
116 タイミング発生器
110 zoom lens, 111 shift lens, 112 focus adjustment focus lens,
113 mechanical shutter, 114 aperture, 115 image sensor,
116 Timing Generator

Claims (4)

撮像装置であって、
撮像手段と、
前記撮像手段により出力された動画を記録する手段であって、記録開始の指示に応じて前記動画の記録を開始し、所定時間の動画を記録した後に、自動的に動画の記録を停止する記録手段と、
前記記録手段による動画の記録中に、前記撮像装置の撮影状態を検出し、検出された撮影状態に基づいて、記録中の動画における各フレームが再生可能なフレームであるか否かを判別するとともに、記録された動画の各フレームについて、再生可能なフレームであるか否かを示す管理情報を生成する手段と、
前記動画と前記管理情報とを含む動画ファイルを記録するように前記記録手段を制御する制御手段と、
前記動画ファイルを再生する再生手段と、
前記再生手段により再生された動画を表示する表示手段とを備え、
前記制御手段は、前記再生手段により再生された動画ファイルにおける前記管理情報に基づいて、前記再生手段により再生された動画における各フレームについて、再生可能なフレームであるか否かを判別し、再生可能でないフレームに代えて、再生可能なフレームを表示するように、前記表示手段を制御することを特徴とする撮像装置。
An imaging device,
Imaging means;
Recording means for recording the moving image output by the imaging means, wherein recording of the moving image is started in response to a recording start instruction, and recording of the moving image is automatically stopped after recording the moving image for a predetermined time. Means,
While the moving image is being recorded by the recording means, the shooting state of the imaging device is detected, and based on the detected shooting state, it is determined whether or not each frame in the moving image being recorded is a reproducible frame. Means for generating management information indicating whether or not each frame of the recorded moving image is a reproducible frame;
Control means for controlling the recording means to record a moving image file including the moving image and the management information;
Playback means for playing back the video file;
Display means for displaying the video reproduced by the reproduction means,
The control means determines whether or not each frame in the video reproduced by the reproduction means is a reproducible frame based on the management information in the video file reproduced by the reproduction means, and can be reproduced An imaging apparatus characterized by controlling the display means so as to display a reproducible frame instead of a non-frame.
前記制御手段は、前記再生可能でないフレームにもっとも近い、再生可能なフレームを、前記再生可能でないフレームに代えて表示するように、前記表示手段を制御することを特徴とする請求項1に記載の撮像装置。   2. The control unit according to claim 1, wherein the control unit controls the display unit to display a reproducible frame closest to the non-reproducible frame in place of the non-reproducible frame. Imaging device. 前記制御手段は、前記所定時間の動画の先頭のフレームが前記再生可能でないフレームである場合、その前に記録された、所定時間の動画の最終フレームを代わりに表示するように前記表示手段を制御することを特徴とする請求項1に記載の撮像装置。   The control means controls the display means to display instead the last frame of the moving picture of the predetermined time recorded before that when the first frame of the moving picture of the predetermined time is the non-reproducible frame. The imaging apparatus according to claim 1, wherein: 前記管理情報は、前記所定時間の動画のそれぞれのフレームについて、再生可能なフレームであるか否かを示す1ビットの情報を含むことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the management information includes 1-bit information indicating whether or not each frame of the moving image of the predetermined time is a reproducible frame.
JP2016087587A 2016-04-26 2016-04-26 Imaging apparatus Pending JP2017199985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016087587A JP2017199985A (en) 2016-04-26 2016-04-26 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016087587A JP2017199985A (en) 2016-04-26 2016-04-26 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2017199985A true JP2017199985A (en) 2017-11-02

Family

ID=60238206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016087587A Pending JP2017199985A (en) 2016-04-26 2016-04-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2017199985A (en)

Similar Documents

Publication Publication Date Title
US7847828B2 (en) Image capturing apparatus having a moving image capture function, and program and method for controlling same
JP5036410B2 (en) Imaging apparatus and control method thereof
KR101411627B1 (en) Imaging device and reproduction control device
JP4869270B2 (en) Imaging apparatus and image reproduction apparatus
JP4637045B2 (en) Imaging device
JP2008182485A (en) Photographing device and photographing method
JP4556195B2 (en) Imaging device, moving image playback device, and program
US20110199496A1 (en) Image capturing apparatus, image capturing control method, and storage medium
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP2006303961A (en) Imaging apparatus
JP3798544B2 (en) Imaging control apparatus and imaging control method
JP2010081260A (en) Imaging apparatus and program therefor
JP5938655B2 (en) Playback device, imaging device, and program
JP5600405B2 (en) Image processing apparatus, image processing method, and program
JP2007325152A (en) Imaging device, and program thereof
JP6170402B2 (en) Imaging apparatus and control method thereof
JP2017199985A (en) Imaging apparatus
JP2005094133A (en) Photographing apparatus
JP5406619B2 (en) MOVING IMAGE REPRODUCTION DEVICE, IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2015122731A (en) Video replay device and video replay method
JP2006148273A (en) Imaging apparatus
JP2013121005A (en) Imaging device
US20100215337A1 (en) Video replay device and video replay program
JP6520566B2 (en) Image recording device