JP2007266655A - Thumbnail generating apparatus and imaging apparatus - Google Patents

Thumbnail generating apparatus and imaging apparatus Download PDF

Info

Publication number
JP2007266655A
JP2007266655A JP2006084882A JP2006084882A JP2007266655A JP 2007266655 A JP2007266655 A JP 2007266655A JP 2006084882 A JP2006084882 A JP 2006084882A JP 2006084882 A JP2006084882 A JP 2006084882A JP 2007266655 A JP2007266655 A JP 2007266655A
Authority
JP
Japan
Prior art keywords
image
moving image
thumbnail
imaging
trigger condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006084882A
Other languages
Japanese (ja)
Other versions
JP4637045B2 (en
Inventor
Yukio Mori
幸夫 森
Yasuhachi Hamamoto
安八 浜本
Seiji Okada
誠司 岡田
Hiroaki Yoshida
博明 吉田
Satoru Takeuchi
悟 竹内
Masahiro Yokohata
正大 横畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006084882A priority Critical patent/JP4637045B2/en
Priority to CN2010101688843A priority patent/CN101867679B/en
Priority to CN2007100863754A priority patent/CN101047822B/en
Priority to US11/723,603 priority patent/US8000558B2/en
Publication of JP2007266655A publication Critical patent/JP2007266655A/en
Application granted granted Critical
Publication of JP4637045B2 publication Critical patent/JP4637045B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a thumbnail generating apparatus capable of generating thumbnail pictures for moving pictures excellently representing characteristics of moving pictures. <P>SOLUTION: The generating apparatus generates a thumbnail picture once by using the top picture or the like of moving pictures and stores the thumbnail picture to a header file. When a prescribed trigger condition is established during photographing of the moving pictures, the apparatus generates a new thumbnail picture from a frame picture at the establishment of the trigger condition and replaces the thumbnail picture in the header file with the newly generated thumbnail picture. For example, the trigger condition is established when a field angle is fixed for a prescribed time or over after zoom-in or when a prescribed time elapses after focus-lock. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置に用いられる、サムネイル生成装置に関する。また、本発明は、そのサムネイル生成装置を備えた撮像装置に関する。   The present invention relates to a thumbnail generation device used for an imaging device such as a digital still camera or a digital video camera. The present invention also relates to an imaging apparatus including the thumbnail generation apparatus.

デジタルビデオカメラ等の撮像装置には、サムネイル画像を表示するモードが設けられていることが多い。動画用のサムネイル画像は、通常、動画の先頭画像等を縮小した画像となっている。ユーザは、このサムネイル画像を頼りに、録画した複数の動画の内から再生しようとする動画を選び出す。図14に、従来のサムネイル画像の生成手順を表すフローチャートを示す。   An imaging device such as a digital video camera is often provided with a mode for displaying thumbnail images. The thumbnail image for moving images is usually an image obtained by reducing the top image of moving images. The user selects a moving image to be reproduced from a plurality of recorded moving images based on the thumbnail images. FIG. 14 is a flowchart showing a conventional thumbnail image generation procedure.

特開2001−111963号公報JP 2001-111963 A 特開2005−229236号公報JP 2005-229236 A 特開平8−251540号公報JP-A-8-251540

上記のように、従来の動画用のサムネイル画像は、撮影した動画の内容と関係なく、適当なタイミングにおける画像を基に生成される。このため、従来の撮像装置において、サムネイル画像は撮影した動画の特徴を表していないことが多く、所望の動画ファイルを効率的に選択して再生することが困難である、という問題があった。   As described above, a conventional thumbnail image for a moving image is generated based on an image at an appropriate timing regardless of the content of the captured moving image. For this reason, in the conventional imaging apparatus, the thumbnail image often does not represent the characteristics of the captured moving image, and there is a problem that it is difficult to efficiently select and reproduce a desired moving image file.

そこで本発明は、動画の特徴を良く表した動画用のサムネイル画像の生成を可能とするサムネイル生成装置及びこれを備えた撮像装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a thumbnail generation device that can generate a thumbnail image for a moving image that clearly represents the characteristics of the moving image, and an imaging device including the thumbnail generation device.

上記目的を達成するために本発明に係るサムネイル生成装置は、動画撮影が可能な撮像装置に備えられた撮像手段からの被写体に応じた撮像信号に基づき、撮影した動画に関連付けられたサムネイル画像を生成するサムネイル生成装置において、予め定められたタイミングにおける前記撮像信号に基づいて、前記サムネイル画像の候補としての第1の候補サムネイル画像を生成する第1生成手段を備え、前記動画の撮影中において、所定のトリガ条件が成立した際、前記トリガ条件成立時を基準とした所定タイミングにおける前記撮像信号を用いて、前記第1の候補サムネイル画像と異なる第2の候補サムネイル画像を生成し、該第2の候補サムネイル画像を前記サムネイル画像として前記動画に関連付けることを特徴とする。   In order to achieve the above object, a thumbnail generating apparatus according to the present invention generates a thumbnail image associated with a captured moving image based on an imaging signal corresponding to a subject from an imaging unit provided in an imaging apparatus capable of capturing the moving image. In the thumbnail generation device to be generated, the thumbnail generation device includes first generation means for generating a first candidate thumbnail image as a candidate for the thumbnail image based on the imaging signal at a predetermined timing, and during shooting of the moving image, When a predetermined trigger condition is satisfied, a second candidate thumbnail image different from the first candidate thumbnail image is generated using the imaging signal at a predetermined timing with reference to the time when the trigger condition is satisfied, and the second The candidate thumbnail images are associated with the moving image as the thumbnail images.

上記のように構成し、トリガ条件を適切に設定すれば、動画の特徴を良く表した動画用のサムネイル画像を生成することが可能となる。このため、再生時の動画ファイル選定の容易化が期待できる。   When configured as described above and appropriately set the trigger condition, it is possible to generate a thumbnail image for a moving image that clearly represents the characteristics of the moving image. For this reason, it is expected that movie files can be easily selected during reproduction.

具体的には例えば、前記撮像装置は、前記撮像手段による撮影の画角の変更を可能とするための画角変更手段を備え、前記トリガ条件は、前記画角を減少させるズームインの後、所定時間以上継続して、前記画角変更手段による前記画角の変更が行われないという条件を含む。   Specifically, for example, the imaging apparatus includes an angle-of-view changing unit for enabling change of an angle of view of photographing by the imaging unit, and the trigger condition is predetermined after zooming in to reduce the angle of view. It includes a condition that the angle of view is not changed by the angle-of-view changing means continuously for more than a time.

また具体的には例えば、前記撮像装置は、前記被写体を表す光学像が前記撮像手段に備えられた撮像素子の撮像面に結像するようにフォーカスレンズの位置を自動的に調節するオートフォーカス制御手段を備え、前記トリガ条件は、前記位置の変動の大きさが、所定時間以上継続して、所定の閾値内に収まるという条件を含む。   More specifically, for example, the image pickup apparatus automatically adjusts the position of a focus lens so that an optical image representing the subject is formed on an image pickup surface of an image pickup element provided in the image pickup unit. The trigger condition includes a condition that the magnitude of the position variation continues for a predetermined time or longer and falls within a predetermined threshold.

また具体的には例えば、前記撮像装置は、前記撮像信号に基づいて、動き検出領域内の画像の動きを検出する動き検出手段を備え、前記動き検出領域は、前記動画を構成する撮影画像内に設けられ、前記トリガ条件は、検出された前記動きの大きさが、所定時間以上継続して、所定の閾値内に収まるという条件を含む。   More specifically, for example, the imaging apparatus includes a motion detection unit that detects a motion of an image in a motion detection area based on the imaging signal, and the motion detection area is included in a captured image that forms the moving image. The trigger condition includes a condition that the magnitude of the detected motion continues for a predetermined time or longer and falls within a predetermined threshold.

また具体的には例えば、前記撮像装置は、前記撮像信号に基づいて、前記動画を構成する撮影画像内に存在する人物の顔領域を検出する顔領域検出手段を備え、前記トリガ条件は、検出された前記顔領域の大きさが所定の閾値以上であるという条件を含む。   More specifically, for example, the imaging apparatus includes face area detection means for detecting a face area of a person existing in a captured image constituting the moving image based on the imaging signal, and the trigger condition is detected. Including a condition that the size of the face area is equal to or greater than a predetermined threshold.

また具体的には例えば、前記撮像装置は、外部から音の入力を受ける音入力手段を備え、前記トリガ条件の成立は、前記動画の撮影中に入力された前記音の強さ又は大きさに基づいて判断され、前記音の強さ若しくは大きさ又は前記音の所定帯域の周波数成分の強さ若しくは大きさが前記動画の撮影中において最大となったタイミングを基準とした所定タイミングにおける前記撮像信号を用いて、前記第2の候補サムネイル画像を生成する。   More specifically, for example, the imaging apparatus includes sound input means for receiving sound input from the outside, and the establishment of the trigger condition is based on the intensity or the magnitude of the sound input during the shooting of the moving image. The imaging signal at a predetermined timing with reference to a timing at which the intensity or the magnitude of the sound or the intensity or the magnitude of the frequency component of the predetermined band of the sound is maximized during the shooting of the moving image. Is used to generate the second candidate thumbnail image.

また例えば、前記動画の撮影中において、前記トリガ条件が成立した際、前記トリガ条件成立時を含むフレームまたはその近傍のフレームにおける前記撮像信号に基づいて、前記第2の候補サムネイル画像を生成する。   Further, for example, when the trigger condition is satisfied during shooting of the moving image, the second candidate thumbnail image is generated based on the imaging signal in a frame including the time when the trigger condition is satisfied or a frame in the vicinity thereof.

「その近傍のフレーム」とは、例えば、前記トリガ条件成立時を含むフレームの数フレーム前または数フレーム後のフレームである。但し、前記トリガ条件成立時を含むフレームの数10フレーム前または数10フレーム後のフレームなどであってもよい。   The “neighboring frame” is, for example, a frame several frames before or several frames after the trigger condition is satisfied. However, it may be a frame several tens of frames before or several tens of frames after the trigger condition is satisfied.

また例えば、前記動画の撮影中に前記トリガ条件が一度も成立しなかった場合には、前記第1の候補サムネイル画像を前記サムネイル画像として前記動画に関連付ける。   Further, for example, when the trigger condition has never been satisfied during the shooting of the moving image, the first candidate thumbnail image is associated with the moving image as the thumbnail image.

また、上記目的を達成するために本発明に係る撮像装置は、動画撮影が可能な撮像装置において、上記の撮像手段と上記のサムネイル生成装置と、を備える。   In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus capable of shooting a moving image, and includes the above imaging unit and the above thumbnail generation apparatus.

本発明によれば、動画の特徴を良く表した動画用のサムネイル画像を生成することが可能となる。このため、再生時の動画ファイル選定の容易化が期待でき、ユーザに使いやすい環境を提供できる。   According to the present invention, it is possible to generate a thumbnail image for a moving image that clearly represents the characteristics of the moving image. For this reason, it is possible to easily select a moving image file at the time of reproduction, and an environment that is easy to use can be provided to the user.

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付す。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In the drawings to be referred to, the same parts are denoted by the same reference numerals.

図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラである。撮像装置1は、動画及び静止画を撮影可能となっていると共に、動画撮影中に静止画を同時に撮影することも可能となっている。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is, for example, a digital still camera or a digital video camera. The imaging device 1 can shoot moving images and still images, and can also shoot still images simultaneously during moving image shooting.

撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク(音入力手段)14と、音声信号処理部15と、圧縮処理部16と、内部メモリの一例としてのSDRAM(Synchronous Dynamic Random Access Memory)17と、メモリカード18と、伸張処理部19と、映像出力回路(ビデオ出力回路)20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。   The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a video signal processing unit 13, a microphone (sound input means) 14, an audio signal processing unit 15, a compression processing unit 16, and an internal memory. As an example, an SDRAM (Synchronous Dynamic Random Access Memory) 17, a memory card 18, a decompression processing unit 19, a video output circuit (video output circuit) 20, an audio output circuit 21, and a TG (timing generator) 22 , A CPU (Central Processing Unit) 23, a bus 24, a bus 25, an operation unit 26, a display unit 27, and a speaker 28. The operation unit 26 includes a recording button 26a, a shutter button 26b, an operation key 26c, and the like.

バス24には、撮像部11、AFE12、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19、映像出力回路20、音声出力回路21及びCPU23が接続されている。バス24に接続された各部位は、バス24を介して、各種の信号(データ)のやり取りを行う。   The bus 24 is connected to the imaging unit 11, AFE 12, video signal processing unit 13, audio signal processing unit 15, compression processing unit 16, expansion processing unit 19, video output circuit 20, audio output circuit 21, and CPU 23. Each part connected to the bus 24 exchanges various signals (data) via the bus 24.

バス25には、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19及びSDRAM17に接続されている。バス25に接続された各部位は、バス25を介して、各種の信号(データ)のやり取りを行う。   The bus 25 is connected to the video signal processing unit 13, the audio signal processing unit 15, the compression processing unit 16, the expansion processing unit 19, and the SDRAM 17. Each part connected to the bus 25 exchanges various signals (data) via the bus 25.

TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。具体的には、タイミング制御信号は、撮像部11、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19及びCPU23に与えられる。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。   The TG 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and provides the generated timing control signal to each unit in the imaging apparatus 1. Specifically, the timing control signal is given to the imaging unit 11, the video signal processing unit 13, the audio signal processing unit 15, the compression processing unit 16, the expansion processing unit 19, and the CPU 23. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync.

CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。SDRAM17は、フレームメモリとして機能する。撮像装置1内の各部は、必要に応じて、信号処理時に一時的に各種のデータ(デジタル信号)をSDRAM17に記録する。   The CPU 23 comprehensively controls the operation of each unit in the imaging apparatus 1. The operation unit 26 receives an operation by a user. The operation content given to the operation unit 26 is transmitted to the CPU 23. The SDRAM 17 functions as a frame memory. Each unit in the imaging apparatus 1 temporarily records various data (digital signals) in the SDRAM 17 during signal processing as necessary.

メモリカード18は、外部記録媒体であり、例えば、SD(Secure Digital)メモリカードである。メモリカード18は、撮像装置1に対して着脱自在となっている。メモリカード18の記録内容は、メモリカード18の端子を介して又は撮像装置1に設けられた通信用コネクタ部(不図示)を介して、外部のパーソナルコンピュータ等によって自在に読み出し可能である。尚、本実施形態では外部記録媒体としてメモリカード18を例示しているが、外部記録媒体を、1または複数のランダムアクセス可能な記録媒体(半導体メモリ、メモリカード、光ディスク、磁気ディスク等)で構成することができる。   The memory card 18 is an external recording medium, for example, an SD (Secure Digital) memory card. The memory card 18 is detachable from the imaging device 1. The recorded content of the memory card 18 can be freely read out by an external personal computer or the like via a terminal of the memory card 18 or a communication connector (not shown) provided in the imaging device 1. In this embodiment, the memory card 18 is illustrated as an external recording medium. However, the external recording medium is composed of one or a plurality of randomly accessible recording media (semiconductor memory, memory card, optical disk, magnetic disk, etc.). can do.

図2は、図1の撮像部11の内部構成図である。撮像部11は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。ドライバ34は、ズームレンズ30及びフォーカスレンズ31の移動並びに絞り12の開口量の調節を実現するためのモータ等から構成される。   FIG. 2 is an internal configuration diagram of the imaging unit 11 of FIG. The imaging unit 11 includes an optical system 35 including a plurality of lenses including a zoom lens 30 and a focus lens 31, an aperture 32, an imaging element 33, and a driver 34. The driver 34 includes a motor for realizing movement of the zoom lens 30 and the focus lens 31 and adjustment of the opening amount of the diaphragm 12.

被写体(撮像対象)からの入射光は、光学系35を構成するズームレンズ30及びフォーカスレンズ31、並びに、絞り32を介して撮像素子33に入射する。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。   Incident light from the subject (imaging target) enters the image sensor 33 through the zoom lens 30 and the focus lens 31 that constitute the optical system 35, and the diaphragm 32. The TG 22 generates a drive pulse for driving the image sensor 33 in synchronization with the timing control signal, and applies the drive pulse to the image sensor 33.

撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる。撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の画素(受光画素;不図示)を備え、各撮影において、各画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各画素からの電気信号は、TG22からの駆動パルスに従って、後段のAFE12に順次出力される。   The image sensor 33 is composed of, for example, a CCD (Charge Coupled Devices), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. The image sensor 33 photoelectrically converts an optical image incident through the optical system 35 and the diaphragm 32 and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the imaging device 33 includes a plurality of pixels (light receiving pixels; not shown) that are two-dimensionally arranged in a matrix, and in each photographing, each pixel receives a signal charge having a charge amount corresponding to the exposure time. store. The electrical signal from each pixel having a magnitude proportional to the amount of the stored signal charge is sequentially output to the subsequent AFE 12 in accordance with the drive pulse from the TG 22.

撮像素子33は、カラー撮影の可能な、単板式の撮像素子となっている。撮像素子33を構成する各画素には、例えば、赤(R)、緑(G)及び青(B)の何れかのカラーフィルタ(不図示)が設けられている。尚、撮像素子33として、3板式の撮像素子を採用することも可能である。   The image sensor 33 is a single-plate image sensor capable of color photography. Each pixel constituting the image sensor 33 is provided with, for example, one of red (R), green (G), and blue (B) color filters (not shown). Note that a three-plate image sensor can also be adopted as the image sensor 33.

AFE12は、撮像部11の出力信号(即ち、撮像素子33の出力信号)であるアナログの上記電気信号を増幅する増幅回路(不図示)と、増幅された電気信号をデジタル信号に変換するA/D(アナログ−デジタル)変換回路(不図示)と、を備える。AFE12によってデジタル信号に変換された撮像部11の出力信号は、順次、映像信号処理部13に送られる。また、CPU23は、撮像部11の出力信号の信号レベルに基づいて上記増幅回路の増幅度を調整する。   The AFE 12 includes an amplifier circuit (not shown) that amplifies the analog electrical signal that is an output signal of the imaging unit 11 (that is, an output signal of the imaging device 33), and an A / A that converts the amplified electrical signal into a digital signal. And a D (analog-digital) conversion circuit (not shown). The output signal of the imaging unit 11 converted into a digital signal by the AFE 12 is sequentially sent to the video signal processing unit 13. Further, the CPU 23 adjusts the amplification degree of the amplification circuit based on the signal level of the output signal of the imaging unit 11.

以下、撮像部11またはAFE12から出力される、被写体に応じた信号を、撮像信号と呼ぶ。   Hereinafter, a signal corresponding to the subject output from the imaging unit 11 or the AFE 12 is referred to as an imaging signal.

図3は、映像信号処理部13の内部ブロック図である。映像信号処理部13は、動画/静止画処理部41と、AF評価値検出部42と、AE評価値検出部43と、動き検出部44と、サムネイル生成部45と、顔領域検出部46と、を備える。   FIG. 3 is an internal block diagram of the video signal processing unit 13. The video signal processing unit 13 includes a moving image / still image processing unit 41, an AF evaluation value detection unit 42, an AE evaluation value detection unit 43, a motion detection unit 44, a thumbnail generation unit 45, and a face area detection unit 46. .

動画/静止画処理部41は、AFE12からの撮像信号に基づいて、撮像部11の撮影によって得られる映像(撮影画像)を表す映像信号を生成し、生成した映像信号を圧縮処理部16に送る。映像信号は、撮影画像の輝度を表す輝度信号Yと、撮影画像の色を表す色差信号U及びVと、から構成される。動画/静止画処理部41は、動画の映像信号の生成と静止画の映像信号の生成の双方を行う。   The moving image / still image processing unit 41 generates a video signal representing a video (captured image) obtained by shooting by the imaging unit 11 based on the imaging signal from the AFE 12, and sends the generated video signal to the compression processing unit 16. . The video signal is composed of a luminance signal Y representing the luminance of the photographed image and color difference signals U and V representing the color of the photographed image. The moving image / still image processing unit 41 generates both a moving image video signal and a still image video signal.

マイク14は、外部から与えられた音声(音)を、アナログの電気信号に変換して出力する。音声信号処理部15は、マイク14から出力される電気信号(音声アナログ信号)をデジタル信号に変換する。この変換によって得られたデジタル信号は、マイク14に対して入力された音声を表す音声信号として圧縮処理部16に送られる。   The microphone 14 converts the sound (sound) given from the outside into an analog electric signal and outputs it. The audio signal processing unit 15 converts an electrical signal (audio analog signal) output from the microphone 14 into a digital signal. The digital signal obtained by this conversion is sent to the compression processing unit 16 as an audio signal representing the audio input to the microphone 14.

圧縮処理部16は、映像信号処理部13(動画/静止画処理部41)からの映像信号を、所定の圧縮方式を用いて圧縮する。動画に対しては、例えば、MPEG(Moving Picture Experts Group)等の圧縮方式を用いて映像信号の圧縮を行い、静止画に対しては、例えば、JPEG(Joint Photographic Experts Group)等の圧縮方式を用いて映像信号の圧縮を行う。動画または静止画撮影時において、圧縮された映像信号はメモリカード18に送られる。   The compression processing unit 16 compresses the video signal from the video signal processing unit 13 (moving image / still image processing unit 41) using a predetermined compression method. For video, for example, compression of video signals is performed using a compression method such as MPEG (Moving Picture Experts Group), and for still images, for example, a compression method such as JPEG (Joint Photographic Experts Group) is used. To compress the video signal. During video or still image shooting, the compressed video signal is sent to the memory card 18.

尚、例えば、動画を構成する各撮影画像の画像サイズは、動画/静止画処理部41等において、必要に応じ、間引き処理等を介して縮小されている。静止画に対しては、例えば、そのような縮小処理は施されない(施してもよい)。   For example, the image size of each captured image constituting the moving image is reduced through thinning processing or the like in the moving image / still image processing unit 41 or the like as necessary. For example, such a reduction process is not performed on the still image (may be performed).

また、圧縮処理部16は、音声信号処理部15からの音声信号を、AAC(Advanced Audio Coding)等の所定の圧縮方式を用いて圧縮する。動画撮影時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて、時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらはメモリカード18に送られる。   The compression processing unit 16 compresses the audio signal from the audio signal processing unit 15 using a predetermined compression method such as AAC (Advanced Audio Coding). At the time of moving image shooting, the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 are compressed in the compression processing unit 16 while being correlated with each other in time, and the compressed signals are stored in the memory card. 18 is sent.

録画ボタン26aは、ユーザが動画(動画像)の撮影の開始及び終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、ユーザが静止画(静止画像)の撮影を指示するための押しボタンスイッチである。録画ボタン26aに対する操作に従って動画撮影の開始及び終了が実施され、シャッタボタン26bに対する操作に従って静止画撮影が実施される。1つのフレームにて1つのフレーム画像が得られる。各フレームの長さは、例えば1/60秒である。この場合、1/60秒の周期にて順次取得されるフレーム画像の集まり(ストリーム画像)が、動画を構成する。   The recording button 26a is a push button switch for the user to instruct the start and end of shooting of a moving image (moving image), and the shutter button 26b is a button for the user to instruct shooting of a still image (still image). It is a button switch. Moving image shooting is started and ended according to the operation on the recording button 26a, and still image shooting is performed according to the operation on the shutter button 26b. One frame image is obtained in one frame. The length of each frame is 1/60 seconds, for example. In this case, a collection of frame images (stream images) that are sequentially acquired at a period of 1/60 seconds constitutes a moving image.

撮像装置1の動作モードには、動画及び静止画の撮影が可能な撮影モードと、メモリカード18に格納された動画または静止画を表示部27に再生表示する再生モードと、が含まれる。再生モードには、メモリカード18に格納された動画または静止画に関連付けられたサムネイル画像を表示部27に再生表示するサムネイル画像表示モードが、含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。   The operation mode of the imaging apparatus 1 includes a shooting mode capable of shooting moving images and still images, and a playback mode for reproducing and displaying moving images or still images stored in the memory card 18 on the display unit 27. The reproduction mode includes a thumbnail image display mode for reproducing and displaying a thumbnail image associated with a moving image or a still image stored in the memory card 18 on the display unit 27. Transition between the modes is performed according to the operation on the operation key 26c.

撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後の各フレームの映像信号及びそれに対応する音声信号が、順次、圧縮処理部16を介してメモリカード18に記録される。つまり、音声信号と共に、各フレームの撮影画像(即ちフレーム画像)が順次メモリカード18に格納される。動画撮影の開始後、再度ユーザが録画ボタン26aを押下すると、動画撮影は終了する。つまり、映像信号及び音声信号のメモリカード18への記録は終了し、1つの動画の撮影は完了する。   When the user presses the recording button 26a in the shooting mode, under the control of the CPU 23, the video signal of each frame after the pressing and the corresponding audio signal are sequentially recorded on the memory card 18 via the compression processing unit 16. Is done. That is, the captured image (that is, the frame image) of each frame is sequentially stored in the memory card 18 together with the audio signal. When the user presses the recording button 26a again after starting the moving image shooting, the moving image shooting ends. That is, recording of the video signal and the audio signal to the memory card 18 is completed, and shooting of one moving image is completed.

また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画の撮影が行われる。具体的には、CPU23の制御の下、その押下直後の1つのフレームの映像信号が、静止画を表す映像信号として、圧縮処理部16を介してメモリカード18に記録される。動画の撮影中に静止画を同時撮影することも可能であり、この場合、同一のフレームの撮像信号に基づいて、動画に関する信号処理と静止画に関する信号処理が並行して行われる。尚、共通の回路を時分割で利用して、動画に関する信号処理と静止画に関する信号処理を別個のタイミングで行うようにしてもよい。例えば、静止画に関する信号処理を動画撮影終了後に行う。この場合、例えば、事後的に行うその信号処理に必要な撮像信号(撮影画像)をSDRAM17に一時記憶させておけばよい。   In the shooting mode, when the user presses the shutter button 26b, a still image is shot. Specifically, under the control of the CPU 23, the video signal of one frame immediately after being pressed is recorded on the memory card 18 through the compression processing unit 16 as a video signal representing a still image. It is also possible to simultaneously shoot a still image while shooting a moving image. In this case, signal processing related to the moving image and signal processing related to the still image are performed in parallel based on the imaging signal of the same frame. Note that a common circuit may be used in a time-sharing manner so that signal processing related to moving images and signal processing related to still images may be performed at separate timings. For example, signal processing related to a still image is performed after moving image shooting is completed. In this case, for example, an imaging signal (photographed image) necessary for the signal processing performed afterwards may be temporarily stored in the SDRAM 17.

再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、メモリカード18に記録された動画または静止画を表す圧縮された映像信号は、伸張処理部19に送られる。伸張処理部19は、受け取った映像信号を伸張して映像出力回路20に送る。また、撮影モードにおいては、通常、動画または静止画を撮影しているか否かに拘らず、映像信号処理13による映像信号の生成が逐次行われており、その映像信号は映像出力回路20に送られる。   When the user performs a predetermined operation on the operation key 26 c in the reproduction mode, a compressed video signal representing a moving image or a still image recorded on the memory card 18 is sent to the expansion processing unit 19. The decompression processing unit 19 decompresses the received video signal and sends it to the video output circuit 20. In the shooting mode, the generation of the video signal by the video signal processing 13 is normally performed regardless of whether or not a moving image or a still image is being shot, and the video signal is sent to the video output circuit 20. It is done.

映像出力回路20は、与えられたデジタルの映像信号を表示部27で表示可能な形式の映像信号(例えば、アナログの映像信号)に変換して出力する。表示部27は、液晶ディスプレイなどの表示装置であり、映像出力回路20から出力された映像信号に応じた画像を表示する。即ち、表示部27は、撮像部11から現在出力されている撮像信号に基づく画像(現在の被写体を表す画像)、または、メモリカード18に記録されている動画(動画像)若しくは静止画(静止画像)を、表示する。   The video output circuit 20 converts a given digital video signal into a video signal (for example, an analog video signal) in a format that can be displayed on the display unit 27 and outputs the video signal. The display unit 27 is a display device such as a liquid crystal display, and displays an image corresponding to the video signal output from the video output circuit 20. That is, the display unit 27 is an image based on the imaging signal currently output from the imaging unit 11 (an image representing the current subject), a moving image (moving image) or a still image (still image) recorded on the memory card 18. Image).

また、再生モードにおいて動画を再生する際、メモリカード18に記録された動画に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。   When a moving image is reproduced in the reproduction mode, a compressed audio signal corresponding to the moving image recorded on the memory card 18 is also sent to the expansion processing unit 19. The decompression processing unit 19 decompresses the received audio signal and sends it to the audio output circuit 21. The audio output circuit 21 converts a given digital audio signal into an audio signal in a format that can be output by the speaker 28 (for example, an analog audio signal) and outputs the audio signal to the speaker 28. The speaker 28 outputs the sound signal from the sound output circuit 21 to the outside as sound (sound).

尚、外部のテレビジョン等に表示部27及びスピーカ28が備えられていると考えることもできる。この場合、映像出力回路20の出力する映像信号及び音声出力回路21の出力する音声信号は、図示されないコネクタを介して外部のテレビジョン等に供給される。   It can be considered that the display unit 27 and the speaker 28 are provided in an external television or the like. In this case, the video signal output from the video output circuit 20 and the audio signal output from the audio output circuit 21 are supplied to an external television or the like via a connector (not shown).

次に、図2及び図3を参照して、撮像部11及び映像信号処理部13の機能について更に説明する。撮像装置1は、「自動的にフォーカスレンズ31の位置を制御することにより、被写体を表す光学像を撮像素子33の撮像面(受光面)に結像させる」所謂オートフォーカス制御機能を備えている。この機能により、理想的には、被写体を表す光学像が結像する点が撮像素子33の撮像面上の点と一致する。   Next, functions of the imaging unit 11 and the video signal processing unit 13 will be further described with reference to FIGS. 2 and 3. The imaging apparatus 1 has a so-called autofocus control function that “forms an optical image representing a subject on the imaging surface (light receiving surface) of the imaging element 33 by automatically controlling the position of the focus lens 31”. . With this function, ideally, the point where the optical image representing the subject is formed coincides with the point on the imaging surface of the imaging element 33.

オートフォーカス制御機能は、様々な手法によって実現可能である。例えば、映像信号中の輝度信号から所定の高域周波数成分を抽出し、その高域周波数成分のレベル(大きさ)に応じてフォーカスレンズ31の位置を制御することにより、被写体を表す光学像を撮像素子33の撮像面に結像させる。測距センサ(不図示)等を用いてオートフォーカス制御機能を実現するようにしてもよい。   The autofocus control function can be realized by various methods. For example, by extracting a predetermined high frequency component from the luminance signal in the video signal and controlling the position of the focus lens 31 in accordance with the level (size) of the high frequency component, an optical image representing the subject is obtained. An image is formed on the imaging surface of the imaging element 33. An autofocus control function may be realized using a distance measuring sensor (not shown) or the like.

オートフォーカス制御は、主として、図3のAF評価値検出部42と、図1のCPU23と、図2のドライバ34と、によって実現される。ドライバ34は、上記高域周波数成分のレベル(大きさ)を最大値(付近)に保つためにCPU23から送られてくるフォーカス制御信号に基づいて、フォーカスレンズ31を撮像面に鉛直な軸である光軸に沿って移動させることにより、被写体(撮像対象)の光学像を撮像素子33の撮像面(受光面)に結像させる。   The autofocus control is mainly realized by the AF evaluation value detection unit 42 in FIG. 3, the CPU 23 in FIG. 1, and the driver 34 in FIG. The driver 34 is an axis perpendicular to the imaging surface of the focus lens 31 based on a focus control signal sent from the CPU 23 in order to keep the level (magnitude) of the high frequency component at the maximum value (near). By moving along the optical axis, an optical image of the subject (imaging target) is formed on the imaging surface (light receiving surface) of the image sensor 33.

図4は、AF評価値検出部42の内部ブロック図である。AF評価値検出部42は、抽出部51、HPF(ハイパスフィルタ)52及び積算部53を、有して構成される。   FIG. 4 is an internal block diagram of the AF evaluation value detection unit 42. The AF evaluation value detection unit 42 includes an extraction unit 51, an HPF (high pass filter) 52, and an integration unit 53.

抽出部51は、動画/静止画処理部41にて生成された映像信号或いはAFE12からの撮像信号より輝度信号を抽出する。この際、画像内の、予め設定されたフォーカス検出領域内の輝度信号のみを抽出する。フォーカス検出領域は、例えば、画像の一部の領域であり、該一部の領域は画像内の中央付近に設けられる。HPF52は、抽出部51によって抽出された輝度信号中の所定の高域周波数成分のみを抽出する。   The extraction unit 51 extracts a luminance signal from the video signal generated by the moving image / still image processing unit 41 or the imaging signal from the AFE 12. At this time, only the luminance signal in the focus detection area set in advance in the image is extracted. The focus detection area is, for example, a partial area of the image, and the partial area is provided near the center in the image. The HPF 52 extracts only a predetermined high frequency component from the luminance signal extracted by the extraction unit 51.

積算部53は、HPF52によって抽出された高域周波数成分を積算することにより、フォーカス検出領域内の画像のコントラスト量に応じたAF評価値を求める。AF評価値は、フレーム毎に算出され、CPU23に逐次伝達される。AF評価値は、該コントラスト量に概ね比例し、該コントラスト量が増大するにつれて増大する。   The integrating unit 53 obtains an AF evaluation value corresponding to the contrast amount of the image in the focus detection area by integrating the high frequency components extracted by the HPF 52. The AF evaluation value is calculated for each frame and sequentially transmitted to the CPU 23. The AF evaluation value is approximately proportional to the contrast amount, and increases as the contrast amount increases.

CPU23は、逐次与えられるAF評価値を一時記憶し、AF評価値が最大値(付近)に保たれるように、所謂山登り演算を用いて、ドライバ34を介してフォーカスレンズ31の位置を制御する。フォーカスレンズ31が移動するに従い、画像のコントラストは変化し、AF評価値も変化する。CPU23は、AF評価値が大きくなる方向にドライバ34を介してフォーカスレンズ31の位置を制御する。この結果、同一の光学像に対する、フォーカス検出領域内の画像のコントラスト量は最大値(付近)に保たれる。   The CPU 23 temporarily stores sequentially given AF evaluation values, and controls the position of the focus lens 31 via the driver 34 using a so-called hill climbing operation so that the AF evaluation value is maintained at the maximum value (near). . As the focus lens 31 moves, the contrast of the image changes and the AF evaluation value also changes. The CPU 23 controls the position of the focus lens 31 via the driver 34 in the direction in which the AF evaluation value increases. As a result, the contrast amount of the image in the focus detection region with respect to the same optical image is kept at the maximum value (near).

また、撮像装置1は、撮影画像の明るさを(略)一定に保つための所謂オートアイリス制御機能を備えている。オートアイリス制御は、主として、図3のAE評価値検出部43と、図1のCPU23と、図2のドライバ34と、によって実現される。   The imaging apparatus 1 also has a so-called auto iris control function for keeping the brightness of the captured image (substantially) constant. The auto iris control is mainly realized by the AE evaluation value detection unit 43 shown in FIG. 3, the CPU 23 shown in FIG. 1, and the driver 34 shown in FIG.

AE評価値検出部43は、動画/静止画処理部41にて生成された映像信号或いはAFE12からの撮像信号より輝度信号を抽出する。ここで抽出される輝度信号は、例えば、画像の全体における輝度信号である。AE評価値検出部43は、抽出した輝度信号を1枚の画像全体で積算することにより、画像の明るさに比例したAE評価値を求める。AE評価値は、フレーム毎に算出され、CPU23に逐次伝達される。   The AE evaluation value detection unit 43 extracts a luminance signal from the video signal generated by the moving image / still image processing unit 41 or the imaging signal from the AFE 12. The luminance signal extracted here is, for example, a luminance signal in the entire image. The AE evaluation value detection unit 43 obtains an AE evaluation value proportional to the brightness of the image by integrating the extracted luminance signals over the entire image. The AE evaluation value is calculated for each frame and is sequentially transmitted to the CPU 23.

CPU23は、逐次与えられるAE評価値が、一定値に保たれるように、ドライバ34を介して絞り32の開口量(開口部の大きさ)を制御する。光学系35に入射する光学像が同じである場合、絞り32の開口量が大きくなるに従って、撮像素子33への単位時間当たりの入射光量は増大し、輝度信号の値は増大する。尚、絞り32の開口量を最大にしてもAE評価値が上記一定値未満にしかならない場合は、AFE12の増幅回路の増幅度を調整してAE評価値を一定値に保つ。   The CPU 23 controls the opening amount (size of the opening) of the diaphragm 32 via the driver 34 so that the sequentially given AE evaluation value is maintained at a constant value. When the optical images incident on the optical system 35 are the same, the amount of incident light per unit time on the image sensor 33 increases and the value of the luminance signal increases as the aperture of the diaphragm 32 increases. If the AE evaluation value is only less than the predetermined value even when the aperture of the diaphragm 32 is maximized, the amplification degree of the amplification circuit of the AFE 12 is adjusted to keep the AE evaluation value constant.

また、操作キー26cに対する所定の操作に従って、CPU23は、ドライバ34を介してズームレンズ30を光軸に沿って移動させることにより、撮像部11による撮影の画角を変更する(換言すれば、撮像素子33の撮像面上に形成される被写体の像を拡大または縮小する)。   Further, in accordance with a predetermined operation on the operation key 26c, the CPU 23 moves the zoom lens 30 along the optical axis via the driver 34, thereby changing the angle of view of shooting by the imaging unit 11 (in other words, imaging). The image of the subject formed on the imaging surface of the element 33 is enlarged or reduced).

また、図1の映像信号処理部13は、動き検出部44をも含む(図3参照)。動き検出部44は、撮像信号に基づいて、各画像間に存在する被写体の動きを検出する。この検出には、例えば周知の代表点マッチング法を用いる。検出された動き(動きベクトルなど)に基づいて、所謂手ぶれ補正などが実施される。   The video signal processing unit 13 in FIG. 1 also includes a motion detection unit 44 (see FIG. 3). The motion detection unit 44 detects the motion of the subject existing between the images based on the imaging signal. For this detection, for example, a well-known representative point matching method is used. Based on the detected motion (motion vector or the like), so-called camera shake correction or the like is performed.

図3のサムネイル生成部45は、静止画を撮影する際、CPU23の制御の下、静止画の撮影タイミングにおける撮像信号に基づいて静止画についてのサムネイル画像を生成する。このサムネイル画像は、撮影及び記録された1枚の静止画(静止画像)を、間引き処理等によって縮小した縮小画像である。静止画についてのサムネイル画像は、撮影した静止画に関連付けられつつ圧縮処理部16による圧縮(JPEGなど)を介してメモリカード18に記録される。撮影した静止画と関連付けられた上記サムネイル画像を、静止画用サムネイル画像と呼ぶ。   When shooting a still image, the thumbnail generation unit 45 in FIG. 3 generates a thumbnail image for the still image based on the imaging signal at the still image shooting timing under the control of the CPU 23. This thumbnail image is a reduced image obtained by reducing one still image (still image) that has been shot and recorded by thinning processing or the like. A thumbnail image of a still image is recorded on the memory card 18 through compression (JPEG or the like) by the compression processing unit 16 while being associated with the captured still image. The thumbnail image associated with the photographed still image is referred to as a still image thumbnail image.

また、サムネイル生成部45は、動画を撮影する際、CPU23の制御の下、所定タイミングにおける撮像信号に基づいて動画についてのサムネイル画像を生成する。このサムネイル画像は、例えば、動画撮影中の何れかのフレームの画像(1フレーム分の画像)を、間引き処理等によって縮小した縮小画像である。動画についてのサムネイル画像は、(原則として)撮影した動画に関連付けられつつ圧縮処理部16による圧縮(JPEGなど)を介してメモリカード18に記録される。撮影した動画に関連付けて記録するために生成された上記サムネイル画像を、動画用サムネイル画像と呼ぶ。尚、動画の画像サイズが比較的小さい場合などにおいては、撮影された動画を構成する1枚の画像そのものを、動画用サムネイル画像としても構わない。   In addition, when shooting a moving image, the thumbnail generation unit 45 generates a thumbnail image for the moving image based on the imaging signal at a predetermined timing under the control of the CPU 23. This thumbnail image is, for example, a reduced image obtained by reducing an image of one frame (image for one frame) during moving image shooting by thinning processing or the like. The thumbnail image of the moving image is recorded on the memory card 18 through compression (JPEG or the like) by the compression processing unit 16 while being associated with the captured moving image (in principle). The thumbnail image generated for recording in association with the captured moving image is referred to as a moving image thumbnail image. When the image size of the moving image is relatively small, one image itself constituting the captured moving image may be used as a moving image thumbnail image.

また、動画用サムネイル画像が実際に生成されるタイミングは任意である。動画撮影中にAFE12からの撮像信号を受けて動画用サムネイル画像を生成するようにしても良いし、動画撮影時に動画用サムネイル画像の基となる画像を選んでおき、後から(例えば、表示部27に表示する際に)その画像を用いて動画用サムネイル画像を生成するようにしてもよい。いずれにしても、同一の動画用サムネイル画像の生成の基となる撮像信号は同じである。本実施形態は、動画撮影時に、動画用サムネイル画像を生成してメモリカード18に格納しておく場合を例とする。同様に、静止画用サムネイル画像が実際に生成されるタイミングも任意である。   The timing at which the moving image thumbnail image is actually generated is arbitrary. A moving image thumbnail image may be generated by receiving an imaging signal from the AFE 12 during moving image shooting, or an image that becomes a base of the moving image thumbnail image at the time of moving image shooting is selected and later (for example, a display unit) The thumbnail image for moving image may be generated using the image (when displayed on the screen 27). In any case, the imaging signals that are the basis for generating the same moving image thumbnail image are the same. In the present embodiment, a case where a moving image thumbnail image is generated and stored in the memory card 18 at the time of moving image shooting is taken as an example. Similarly, the timing at which the still image thumbnail image is actually generated is also arbitrary.

サムネイル画像表示モードにおいて、メモリカード18に格納された動画用及び静止画用サムネイル画像は、伸張処理部19による伸張処理及び映像出力回路20による変換処理を介して、表示部27に表示される。   In the thumbnail image display mode, the moving image and still image thumbnail images stored in the memory card 18 are displayed on the display unit 27 through the expansion processing by the expansion processing unit 19 and the conversion processing by the video output circuit 20.

図5に、サムネイル画像表示モードにおける表示部27の表示画面の表示例を示す。図5では、表示部27の表示エリアは4分割され、表示エリアの左上、右上、左下及び右下に、それぞれ、サムネイル画像TN1、TN2、TN3及びTN4が表示されている。メモリカード18に、他のサムネイル画像が格納されている場合は、操作キー26cに所定の操作を施すことにより、上記他のサムネイル画像が表示される。サムネイル画像TN2及びTN3に付されたマーク71は、そのサムネイル画像が動画用のサムネイル画像であることを示している。従って、サムネイル画像TN2及びTN3は動画用サムネイル画像であり、サムネイル画像TN1及びTN4は静止画用サムネイル画像である。   FIG. 5 shows a display example of the display screen of the display unit 27 in the thumbnail image display mode. In FIG. 5, the display area of the display unit 27 is divided into four, and thumbnail images TN1, TN2, TN3, and TN4 are displayed on the upper left, upper right, lower left, and lower right of the display area, respectively. When another thumbnail image is stored in the memory card 18, the other thumbnail image is displayed by performing a predetermined operation on the operation key 26c. A mark 71 attached to the thumbnail images TN2 and TN3 indicates that the thumbnail image is a thumbnail image for a moving image. Therefore, the thumbnail images TN2 and TN3 are moving image thumbnail images, and the thumbnail images TN1 and TN4 are still image thumbnail images.

図5において、72は表示画面上のカーソルである。カーソル72は、操作キー26cに対する操作により表示画面上を移動する。図5は、サムネイル画像TN3がカーソル72によって選択されている状態を示している。各サムネイル画像の右下に表示されている「001」等の番号は、各サムネイル画像のファイル番号を示している。   In FIG. 5, reference numeral 72 denotes a cursor on the display screen. The cursor 72 moves on the display screen by operating the operation key 26c. FIG. 5 shows a state in which the thumbnail image TN3 is selected by the cursor 72. A number such as “001” displayed at the lower right of each thumbnail image indicates the file number of each thumbnail image.

カーソル72によって或るサムネイル画像を選択している状態において、所定のキー操作を行うと、そのサムネイル画像に関連付けられた動画または静止画がメモリカード18から読み出される。そして、読み出された動画または静止画が表示部27の表示画面全体を使って表示される。例えば、サムネイル画像TN3に対応する動画が再生されるようにキー操作を施した場合、表示部27の表示画面は図5に示す状態から図6に示す状態に遷移し、サムネイル画像TN3に対応する動画が表示部27の表示画面全体を使って再生表示される。この状態で、再生を停止するためのキー操作を施すと、表示画面は図5に示す状態に戻る。   When a predetermined key operation is performed while a certain thumbnail image is selected by the cursor 72, a moving image or a still image associated with the thumbnail image is read from the memory card 18. Then, the read moving image or still image is displayed using the entire display screen of the display unit 27. For example, when a key operation is performed so that a moving image corresponding to the thumbnail image TN3 is reproduced, the display screen of the display unit 27 transitions from the state illustrated in FIG. 5 to the state illustrated in FIG. 6, and corresponds to the thumbnail image TN3. The moving image is reproduced and displayed using the entire display screen of the display unit 27. In this state, when a key operation for stopping reproduction is performed, the display screen returns to the state shown in FIG.

[動画用サムネイル画像の生成手法]
次に、動画用サムネイル画像の生成手法について説明する。図7は、動画用サムネイル画像の生成手順を表すフローチャートである。以下、特に記述しない限り、或る1つの動画に着目して説明を行う。
[Method of generating thumbnail image for video]
Next, a method for generating a moving image thumbnail image will be described. FIG. 7 is a flowchart showing a procedure for generating a moving image thumbnail image. Hereinafter, unless otherwise stated, description will be made with a focus on a certain moving image.

撮像装置1に設けられた電源スイッチ(不図示)に対する操作によって撮像装置1内の各部に対する電源が起動すると、TG22は、垂直同期信号を所定の周期(例えば1/60秒)にて逐次生成する。まず、ステップS1では、TG22から垂直同期信号が出力されたかが確認される。垂直同期信号は、各フレームの開始時点でTG22から出力される。   When the power supply for each unit in the imaging apparatus 1 is activated by an operation on a power switch (not shown) provided in the imaging apparatus 1, the TG 22 sequentially generates a vertical synchronization signal at a predetermined cycle (for example, 1/60 seconds). . First, in step S1, it is confirmed whether a vertical synchronization signal is output from the TG 22. The vertical synchronization signal is output from the TG 22 at the start time of each frame.

垂直同期信号の出力が確認されていない場合は(ステップS1のNo)ステップS1の処理が繰り返され、垂直同期信号の出力が確認された場合は(ステップS1のYes)、ステップS2にて撮像装置1が録画中(動画撮影中)であるかが判断される。録画中である場合は(ステップS2のYes)ステップS7に移行する一方、録画中でない場合は(ステップS2のNo)ステップS3に移行する。ステップS3では、録画モードにて録画ボタン26aが押下されたかが確認される。録画モードにて録画ボタン26aが押下されたことが確認された場合は(ステップS3のYes)、ステップS4に移行するが、そうでない場合は(ステップS3のNo)、ステップS1に戻る。このように、録画が開始されるまではステップS1、S2及びS3から成るループ処理が繰り返し実行される。   If the output of the vertical synchronization signal has not been confirmed (No in step S1), the process in step S1 is repeated. If the output of the vertical synchronization signal has been confirmed (Yes in step S1), the imaging apparatus in step S2 It is determined whether 1 is recording (moving video recording). If recording is in progress (Yes in step S2), the process proceeds to step S7. If recording is not in progress (No in step S2), the process proceeds to step S3. In step S3, it is confirmed whether or not the recording button 26a is pressed in the recording mode. If it is confirmed that the recording button 26a is pressed in the recording mode (Yes in step S3), the process proceeds to step S4. If not (No in step S3), the process returns to step S1. In this manner, the loop process including steps S1, S2, and S3 is repeatedly executed until recording is started.

ステップS4において、CPU23は、0又は1の値をとる2つのフラグF0及びF1を定義し、双方のフラグF0及びF1に0を代入する(即ち、リセットする)。フラグF0は、録画が開始される度にリセットされる。フラグF1の役割については、後述の説明から明らかとなる。   In step S4, the CPU 23 defines two flags F0 and F1 each having a value of 0 or 1, and assigns 0 to both flags F0 and F1 (that is, resets). The flag F0 is reset every time recording is started. The role of the flag F1 will become clear from the following description.

ステップS4を終えて移行するステップS5において、サムネイル生成部45は、現在AFE12から出力される1枚の画像分の撮像信号に基づいて、動画用サムネイル画像を生成する。ステップS5に続くステップS6では、CPU23がヘッダファイルを作成する。該ヘッダファイルには、ステップS5にて生成された動画用サムネイル画像の他、撮影日時、ファイル番号等の諸情報が格納される。作成されたヘッダファイルは、SDRAM17に記録される。本実施形態では、1つのヘッダファイルに、1つの動画用サムネイル画像が格納される場合を例に挙げる。   In step S5, the process proceeds after step S4, and the thumbnail generation unit 45 generates a moving image thumbnail image based on the imaging signal for one image currently output from the AFE 12. In step S6 following step S5, the CPU 23 creates a header file. The header file stores various information such as the shooting date and time and the file number in addition to the moving image thumbnail image generated in step S5. The created header file is recorded in the SDRAM 17. In this embodiment, a case where one moving image thumbnail image is stored in one header file will be described as an example.

ステップS6を終えるとステップS1に戻り、再度、垂直同期信号の発生を待機する。ステップS4〜S6を介した後にステップS2に至った場合、撮像装置1は録画中であるためステップS7に移行する(ステップS2のYes)。   When step S6 ends, the process returns to step S1, and again waits for the generation of the vertical synchronization signal. When step S2 is reached after passing through steps S4 to S6, the imaging apparatus 1 is recording, and the process proceeds to step S7 (Yes in step S2).

ステップS7において、CPU23は、撮影した動画を表す画像の集まり(即ちストリーム画像)を格納するためのストリーム画像ファイルを作成し、該ストリーム画像ファイルをメモリカード18に記録する。ストリーム画像ファイルには、動画撮影中の各フレームの撮影画像を表す映像信号(圧縮映像信号)及びそれに対応する音声信号(圧縮音声信号)が順次追記される。録画が終了すると最終的に、ストリーム画像ファイルには、録画開始から録画終了までの各フレームの撮影画像を表す映像信号及びそれに対応する音声信号が格納されることになる。   In step S <b> 7, the CPU 23 creates a stream image file for storing a collection of images representing the captured moving image (that is, a stream image), and records the stream image file on the memory card 18. In the stream image file, a video signal (compressed video signal) representing a captured image of each frame during moving image shooting and a corresponding audio signal (compressed audio signal) are sequentially added. When the recording is finished, finally, the stream image file stores a video signal representing a captured image of each frame from the start of the recording to the end of the recording and an audio signal corresponding thereto.

ステップS7の処理を終えて移行するステップS8では、再度ユーザが録画ボタン26aを押下したか、即ち、録画停止が指示されたかを確認する。録画停止が指示されていない場合(ステップS8のNo)は、ステップS10に移行する。録画停止が指示されるまでは、ステップS10〜S15のステップ群と、ステップS1、S2、S7及びS8と、から成るループ処理が繰り返し実行される。このループ処理は、フレームごとに1回行われることになる。   In step S8, which is shifted to after the processing of step S7, it is confirmed whether or not the user has pressed the recording button 26a again, that is, whether or not recording has been instructed. When recording stop is not instructed (No in step S8), the process proceeds to step S10. Until the stop of recording is instructed, a loop process including steps S10 to S15 and steps S1, S2, S7 and S8 is repeatedly executed. This loop processing is performed once for each frame.

ステップS8において、録画停止の指示が確認された場合は(ステップS8のYes)、ステップS9に移行し、ステップS6で作成したヘッダファイルをステップS7で作成したストリーム画像ファイルに追記する。これにより、両ファイルが関連付けられ、ステップS5で生成した動画用サムネイル画像とストリーム画像ファイル内の動画とが関連付けられる、或いは(後述の説明から明らかとなるように)、後述のステップS13にて生成された動画用サムネイル画像とストリーム画像ファイル内の動画とが関連付けられる。ステップS9の処理を終えると、ステップS1に戻り、撮像装置1の状態は、他の動画の撮影開始を受け付ける状態に遷移する。   If an instruction to stop recording is confirmed in step S8 (Yes in step S8), the process proceeds to step S9, and the header file created in step S6 is added to the stream image file created in step S7. As a result, both files are associated, and the thumbnail image for moving image generated in step S5 and the moving image in the stream image file are associated (as will be apparent from the description below) or generated in step S13 described below. The moving image thumbnail image and the moving image in the stream image file are associated with each other. When the process of step S9 is completed, the process returns to step S1, and the state of the imaging device 1 transitions to a state of accepting the start of shooting of another moving image.

本発明の特徴部である、ステップS10〜S15の処理について説明する。   The process of steps S10 to S15, which is a characteristic part of the present invention, will be described.

ステップS10では、フラグF0がセットされているか、即ち、フラグF0が1であるかが判断される。フラグF0が1である場合は(ステップS10のYes)、ステップS1に戻り、フラグF0が0である場合は(ステップS10のNo)、ステップS11に移行する。1つの動画の撮影において、ステップS13及びS14の処理を一度実行するとステップS10の判断は常に肯定(Yes)となる。   In step S10, it is determined whether the flag F0 is set, that is, whether the flag F0 is 1. When the flag F0 is 1 (Yes in Step S10), the process returns to Step S1, and when the flag F0 is 0 (No in Step S10), the process proceeds to Step S11. In the shooting of one moving image, once the processing in steps S13 and S14 is executed, the determination in step S10 is always affirmative (Yes).

ステップS11では、CPU23が、所定のトリガ条件が成立するか否かを判断する。このトリガ条件については、後に詳説する。フラグF0が0である場合、ステップS11の処理は、動画撮影中の各フレームにおいて行われる。トリガ条件が成立しない場合は(ステップS11のNo)ステップS15に移行してフラグF1にゼロを代入してからステップS1に戻る。一方、トリガ条件が成立する場合には(ステップS11のYes)、ステップS12に移行し、フラグF1が1であるか否かが判断される。フラグF1が1である場合は(ステップS12のYes)ステップS1に戻る一方、フラグF1が0である場合は(ステップS12のNo)ステップS13に移行する。   In step S11, the CPU 23 determines whether or not a predetermined trigger condition is satisfied. This trigger condition will be described in detail later. When the flag F0 is 0, the process of step S11 is performed in each frame during moving image shooting. If the trigger condition is not satisfied (No in step S11), the process proceeds to step S15, zero is substituted for the flag F1, and the process returns to step S1. On the other hand, when the trigger condition is satisfied (Yes in step S11), the process proceeds to step S12, and it is determined whether or not the flag F1 is 1. If the flag F1 is 1 (Yes in step S12), the process returns to step S1, while if the flag F1 is 0 (No in step S12), the process proceeds to step S13.

ステップS13では、現在、AFE12から出力される1枚の画像分の撮像信号に基づいて、動画用サムネイル画像が生成される。これにより、ステップS11のトリガ条件が成立したタイミングを含むフレーム或いはその次のフレームの撮像信号(撮影画像)に基づいて、動画用サムネイル画像が生成されることになる。尚、トリガ条件成立時の数フレーム前や数フレーム後のフレームの撮像信号(撮影画像)に基づいて、ステップS13で生成されるべき動画用サムネイル画像を生成するようにしても構わない。   In step S <b> 13, a moving image thumbnail image is generated based on the image signal for one image currently output from the AFE 12. As a result, a moving image thumbnail image is generated based on the imaging signal (captured image) of the frame including the timing when the trigger condition of step S11 is satisfied or the next frame. Note that the moving image thumbnail image to be generated in step S13 may be generated based on the imaging signal (captured image) of the frame several frames before and after the trigger condition is satisfied.

ステップS13に続くステップS14では、ステップS6で作成したヘッダファイルに既に格納されている動画用サムネイル画像を、ステップS13にて生成した動画用サムネイル画像に置き換える。更に、フラグF0及びF1の双方に1を代入してから、ステップS1に戻る。   In step S14 following step S13, the moving image thumbnail image already stored in the header file created in step S6 is replaced with the moving image thumbnail image generated in step S13. Further, after substituting 1 for both flags F0 and F1, the process returns to step S1.

尚、ステップS10の処理を省略することも可能である。この場合、ステップS8において、録画停止が指示されていないと判断された場合(ステップS8のNo)は、ステップS11に直接移行することになる。ステップS10の処理を省略した場合、ステップS13及びS14の処理が行われた後であっても、トリガ条件が不成立となったことに起因してステップS15の処理を経ることにより、再度ステップS13及びS14の処理の実行が許容される。この場合、2回目以降のステップS14の処理において、ヘッダファイルに既に格納されている動画用サムネイル画像は、ステップS13にて生成した「最新の」動画用サムネイル画像に置き換えられることになる。   Note that the process of step S10 may be omitted. In this case, if it is determined in step S8 that recording stop is not instructed (No in step S8), the process directly proceeds to step S11. When the process of step S10 is omitted, even after the processes of steps S13 and S14 are performed, the process of step S15 is performed again through the process of step S15 because the trigger condition is not satisfied. Execution of the process of S14 is allowed. In this case, in the second and subsequent processing in step S14, the moving image thumbnail image already stored in the header file is replaced with the “latest” moving image thumbnail image generated in step S13.

上記の処理手順から理解されるように、ステップS5及びS13にて生成された各動画用サムネイル画像は、撮影した動画に関連付けられるべき動画用サムネイル画像の候補となる。1つの動画の撮影期間中において、仮にトリガ条件が1回も成立しなかった場合は、ステップS5にて生成された動画用サムネイル画像が、最終的に、動画に関連付けられた動画用サムネイル画像となる。   As understood from the above processing procedure, each moving image thumbnail image generated in steps S5 and S13 is a candidate for a moving image thumbnail image to be associated with the captured moving image. If the trigger condition is not satisfied even once during the shooting period of one moving image, the moving image thumbnail image generated in step S5 is finally the moving image thumbnail image associated with the moving image. Become.

ステップS11にてトリガ条件が成立した場合は、ステップS13にて生成された動画用サムネイル画像が、最終的に、撮影した動画に関連付けられる。ステップS10の処理を省略した場合は、ステップS13にて生成された最新の動画用サムネイル画像が、最終的に、撮影した動画に関連付けられる。   If the trigger condition is satisfied in step S11, the moving image thumbnail image generated in step S13 is finally associated with the captured moving image. When the process of step S10 is omitted, the latest moving image thumbnail image generated in step S13 is finally associated with the captured moving image.

ステップS13にて生成される動画用サムネイル画像が撮影した動画の特徴を良く表すように、上記トリガ条件は定められる。以下、ステップS11のトリガ条件の成立/不成立の判断手法として、第1、第2、第3、第4及び第5判断手法を例示する。図8は、第1〜第5判断手法におけるトリガ条件の典型例を示している。   The trigger condition is determined so that the moving image thumbnail image generated in step S13 well represents the characteristics of the captured moving image. Hereinafter, as determination methods for whether or not the trigger condition in step S11 is satisfied, first, second, third, fourth, and fifth determination methods are exemplified. FIG. 8 shows typical examples of trigger conditions in the first to fifth determination methods.

[第1判断手法]
まず、第1判断手法について説明する。第1判断手法を採用した場合におけるステップS11のトリガ条件を、第1トリガ条件と呼ぶ。第1トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
[First judgment method]
First, the first determination method will be described. The trigger condition of step S11 when the first determination method is adopted is referred to as a first trigger condition. If the first trigger condition is satisfied, the process proceeds to step S12. If the first trigger condition is not satisfied, the process proceeds to step S15.

第1判断手法を採用する場合、ステップS11では、例えば、「直近のズームインが行われた後、所定の時間T1以上継続して、ズームインまたはズームアウトによる画角の変更が行われていない(即ち、画角が固定されている)」という第1トリガ条件の成立/不成立が判断される。この判断は、現時点(現フレーム)を基準にして行われる。尚、時間T1は、例えば数秒(1〜2秒など)である。   In the case of adopting the first determination method, in step S11, for example, “After the most recent zoom-in is performed, the angle of view is not changed by zoom-in or zoom-out continuously for a predetermined time T1 or more (that is, It is determined whether or not the first trigger condition is satisfied. This determination is made based on the current time (current frame). The time T1 is, for example, several seconds (such as 1 to 2 seconds).

例えば図9に示す如く、動画の撮影開始後、1回目のズームインの直後に時間T1の経過を待つことなくズームアウトが行われ、その後に2回目のズームインが行われた場合は、2回目のズームイン(「直近のズームイン」に相当)終了時点を起算点として上記時間T1の経過が判断される。   For example, as shown in FIG. 9, when the zoom-out is performed without waiting for the elapse of time T <b> 1 immediately after the first zoom-in after the start of the movie shooting, and then the second zoom-in is performed, The passage of time T1 is determined from the end point of zoom-in (corresponding to “most recent zoom-in”).

ズームインとは、撮像素子33の撮像面上に形成される被写体の像を拡大させる動作であり、この動作に伴って撮像部11による撮影の画角は減少する。ズームアウトとは、撮像素子33の撮像面上に形成される被写体の像を縮小させる動作であり、この動作に伴って撮像部11による撮影の画角は増加する。ズームイン及びズームアウトは、操作キー26cに対する所定の操作に応じて実行される。   The zoom-in is an operation for enlarging an image of a subject formed on the imaging surface of the image sensor 33, and the angle of view of shooting by the imaging unit 11 decreases with this operation. Zooming out is an operation for reducing the image of the subject formed on the imaging surface of the image sensor 33, and the angle of view of imaging by the imaging unit 11 increases with this operation. The zoom-in and zoom-out are executed according to a predetermined operation on the operation key 26c.

ユーザは、しばしば、着目している人物等の被写体をズームインによって拡大撮影する。ユーザが、このズームインによって適切な画角が設定されたと判断すると、ユーザは画角の変更を停止する。この状態で撮影された画像は、ユーザが着目している被写体を大きく捉えた特徴的な画像であることが多い。このため、第1判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。   Users often magnify a subject such as a person of interest by zooming in. When the user determines that an appropriate angle of view has been set by zooming in, the user stops changing the angle of view. An image photographed in this state is often a characteristic image that largely captures the subject that the user is paying attention to. For this reason, by adopting the first determination method, it is possible to acquire a thumbnail image that clearly represents the characteristics of the moving image. As a result, it is possible to facilitate the search for a desired moving image.

尚、第1トリガ条件を、「直近のズームアウトが行われた後、所定の時間T1以上継続して、ズームインまたはズームアウトによる画角の変更が行われていない(即ち、画角が固定されている)」という条件に変更することも可能である。   Note that the first trigger condition is: “After the most recent zoom-out, the angle of view is not changed by zoom-in or zoom-out for a predetermined time T1 or more (that is, the angle of view is fixed). It is also possible to change the condition to

[第2判断手法]
次に、第2判断手法について説明する。第2判断手法を採用した場合におけるステップS11のトリガ条件を、第2トリガ条件と呼ぶ。第2トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
[Second Judgment Method]
Next, the second determination method will be described. The trigger condition in step S11 when the second determination method is employed is referred to as a second trigger condition. If the second trigger condition is satisfied, the process proceeds to step S12. If the second trigger condition is not satisfied, the process proceeds to step S15.

第2判断手法を採用する場合、ステップS11では、ピントが合って、フォーカスが(略)ロックされている状態が一定時間以上継続しているかが判断される。より詳細には、ステップS11では、例えば、「フォーカスレンズ31の位置の変動の大きさが、所定の時間T2以上継続して、所定の閾値内に収まっている」という第2トリガ条件の成立/不成立が判断される。この判断は、現時点(現フレーム)を基準にして行われる。尚、時間T2は、例えば数秒(1〜2秒など)である。   When the second determination method is adopted, in step S11, it is determined whether or not the focus is achieved and the state where the focus is (substantially) locked is continued for a certain time or more. More specifically, in step S11, for example, the second trigger condition that “the magnitude of the fluctuation of the position of the focus lens 31 continues within a predetermined time T2 and stays within a predetermined threshold” is satisfied / Failure is determined. This determination is made based on the current time (current frame). The time T2 is, for example, several seconds (such as 1-2 seconds).

上述したように、逐次算出されるAF評価値に基づいて、被写体を表す光学像が撮像素子33の撮像面(受光面)に結像するように、CPU23は、ドライバ34を介してフォーカスレンズ31の位置を調整する。このため、CPU23は、フォーカスレンズ31の位置を当然に認識している。フォーカスレンズ31の位置とは、例えば、撮像素子33の撮像面を基準としたフォーカスレンズ31の位置である。   As described above, the CPU 23, via the driver 34, the focus lens 31 so that an optical image representing the subject is formed on the image pickup surface (light receiving surface) of the image pickup device 33 based on the AF evaluation values calculated sequentially. Adjust the position. Therefore, the CPU 23 naturally recognizes the position of the focus lens 31. The position of the focus lens 31 is, for example, the position of the focus lens 31 with reference to the imaging surface of the imaging element 33.

図10を参照して、上記の第2トリガ条件の成立/不成立の判断手法例について詳細に説明する。図10の曲線75及び76は、それぞれ、動画撮影中における、AF評価値とフォーカスレンズ31の位置(例えば、フォーカスレンズ31と撮像面との距離)の時間変化を表している。図10は、タイミングt1で、AF評価値が概ね山登り曲線の最大値をとり、その状態がタイミングt2まで維持されている状態を示しいている。タイミングt1とt2の間の時間は、時間T2に一致する。   With reference to FIG. 10, an example of a method for determining whether the second trigger condition is satisfied or not will be described in detail. Curves 75 and 76 in FIG. 10 represent temporal changes in the AF evaluation value and the position of the focus lens 31 (for example, the distance between the focus lens 31 and the imaging surface) during moving image shooting, respectively. FIG. 10 shows a state in which the AF evaluation value takes the maximum value of the hill-climbing curve at the timing t1, and the state is maintained until the timing t2. The time between timings t1 and t2 coincides with time T2.

タイミングt2において、CPU23は、タイミングt1からt2までの期間中におけるフォーカスレンズ31の位置の変動の大きさ(変動範囲の大きさ)と、予め定められた基準値BREFとを比較する。そして、前者が後者(BREF)以下となっている場合に第2トリガ条件は成立していると判断し、そうでない場合に第2トリガ条件は不成立と判断する。上記の判断が可能なように、CPU23は、時間T2分の過去のフォーカスレンズ31の位置を特定する情報を、SDRAM17に逐次記録させている。 At timing t2, the CPU 23 compares the magnitude of fluctuation (the magnitude of the fluctuation range) of the position of the focus lens 31 during the period from timing t1 to t2 with a predetermined reference value BREF . If the former is less than or equal to the latter (B REF ), it is determined that the second trigger condition is satisfied, and otherwise, it is determined that the second trigger condition is not satisfied. In order to enable the above determination, the CPU 23 sequentially records information for specifying the position of the past focus lens 31 for time T2 in the SDRAM 17.

尚、ピントが合っている状態にてフォーカスレンズ31の位置が完全に止まる場合は、基準値BREFをゼロとすることもできる。この場合、第2トリガ条件は、「フォーカスレンズ31の位置が、所定の時間T2以上継続して、固定されている」と表記される。AF評価値の変動が或る範囲(その範囲の大きさは、例えば後述の閾値AREF)内に収まっている場合は、フォーカスレンズ31の位置を固定する、という位置制御手法を採用可能であり、その場合、閾値BREFはゼロとされる。 In addition, when the position of the focus lens 31 is completely stopped in a focused state, the reference value B REF can be set to zero. In this case, the second trigger condition is expressed as “the position of the focus lens 31 is fixed for a predetermined time T2 or more”. When the fluctuation of the AF evaluation value is within a certain range (the size of the range is, for example, a threshold value A REF described later), a position control method of fixing the position of the focus lens 31 can be employed. In this case, the threshold value B REF is set to zero.

また、図10にも示すように、通常、AF評価値とフォーカスレンズ31の位置は、連動している。このため、AF評価値に基づいてステップS11の分岐判断を行っても良い。つまり、例えば、タイミングt2において、CPU23は、タイミングt1からt2までのAF評価値の変動の大きさ(変動範囲の大きさ)と、予め定められた基準値AREFとを比較する。そして、前者が後者(AREF)以下となっている場合にステップS11からステップS12に移行するようにし、そうでない場合にステップS11からステップS15に移行するようにする。この場合、上記の判断が可能なように、CPU23は、時間T2分の過去のAF評価値を、SDRAM17に逐次記録させる。 In addition, as shown in FIG. 10, the AF evaluation value and the position of the focus lens 31 are usually linked. For this reason, the branch determination in step S11 may be performed based on the AF evaluation value. That is, for example, at the timing t2, the CPU 23 compares the magnitude of the AF evaluation value fluctuation (the magnitude of the fluctuation range) from the timing t1 to the time t2 with a predetermined reference value A REF . If the former is equal to or less than the latter (A REF ), the process proceeds from step S11 to step S12. If not, the process proceeds from step S11 to step S15. In this case, the CPU 23 sequentially records the past AF evaluation values for the time T2 in the SDRAM 17 so that the above determination is possible.

このように、「AF評価値の変動の大きさが、所定の時間T2以上継続して、所定の基準値AREF内に収まる」という条件の成立/不成立を、ステップS11にて判断するようにしてもよい。AF評価値とフォーカスレンズ31の位置が連動していることを考慮すれば、この条件は上記の第2トリガ条件と等価である、と言える。 In this way, whether or not the condition that the magnitude of the fluctuation of the AF evaluation value continues within the predetermined reference value A REF for a predetermined time T2 or more is satisfied or not is determined in step S11. May be. Considering that the AF evaluation value and the position of the focus lens 31 are linked, it can be said that this condition is equivalent to the second trigger condition.

動画撮影開始後、ユーザは、撮影の構図を考えながら撮像装置1を頻繁に動かすことが多い。撮影の構図が確定すると、ユーザは撮像装置1を被写体に対して(略)固定する。この状態では、フォーカスは通常ロックする一方で、撮像装置1はユーザが着目している被写体を捉える。このため、第2判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。   After starting moving image shooting, the user often moves the imaging apparatus 1 frequently while considering the shooting composition. When the shooting composition is confirmed, the user fixes (substantially) the imaging device 1 to the subject. In this state, while the focus is normally locked, the imaging device 1 captures the subject that the user is paying attention to. For this reason, by adopting the second determination method, it is possible to acquire a thumbnail image that clearly represents the characteristics of the moving image. As a result, it is possible to facilitate the search for a desired moving image.

[第3判断手法]
次に、第3判断手法について説明する。第3判断手法を採用した場合におけるステップS11のトリガ条件を、第3トリガ条件と呼ぶ。第3トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
[Third Judgment Method]
Next, the third determination method will be described. The trigger condition in step S11 when the third determination method is employed is referred to as a third trigger condition. If the third trigger condition is satisfied, the process proceeds to step S12. If not, the process proceeds to step S15.

第3判断手法を採用する場合、ステップS11では、撮影画像内の動きが(略)停止している状態が一定時間以上継続しているかが判断される。より詳細には、ステップS11では、例えば、「動き検出領域内の動きの大きさが、所定の時間T3以上継続して、所定の閾値内に収まる」という第3トリガ条件の成立/不成立が判断される。この判断は、現時点(現フレーム)を基準にして行われる。動き検出領域は、動画を構成する各フレームの撮像画像内に設けられる。動き検出領域は、撮像画像の全体または一部の領域である(撮像素子33の撮像領域の全体または一部の領域と捉えることもできる)。尚、時間T3は、例えば数秒(1〜2秒など)である。   When the third determination method is adopted, in step S11, it is determined whether or not the state in which the movement in the captured image is (substantially) stopped continues for a certain time or more. More specifically, in step S11, for example, it is determined whether or not the third trigger condition that “the magnitude of motion in the motion detection region continues within a predetermined time T3 and falls within a predetermined threshold” is satisfied / not satisfied. Is done. This determination is made based on the current time (current frame). The motion detection area is provided in the captured image of each frame constituting the moving image. The motion detection area is an entire or a partial area of the captured image (can also be regarded as an entire or partial area of the imaging area of the image sensor 33). The time T3 is, for example, several seconds (1 to 2 seconds or the like).

図11を参照して、第3トリガ条件の成立/不成立の判断手法例について、詳細に説明する。図11は、図3の動き検出部44にて定義される、撮影画像内の検出ブロックを表している。動き検出部44は、各フレームの撮影画像内に9つの検出ブロックBL1〜BL9を設ける。9つの検出ブロックBL1〜BL9は、上記の「動き検出領域」を形成する。   With reference to FIG. 11, an example of a method for determining whether the third trigger condition is satisfied or not will be described in detail. FIG. 11 shows detection blocks in the captured image defined by the motion detection unit 44 in FIG. The motion detection unit 44 provides nine detection blocks BL1 to BL9 in the captured image of each frame. The nine detection blocks BL1 to BL9 form the “motion detection area” described above.

そして、動き検出部44は、逐次取得される撮影画像間の対比に基づき、周知の代表点マッチング法を用いて、検出ブロックBL1〜BL9ごとに動きベクトルを検出する。この動きベクトルの検出は、フレームごとに行われる。検出ブロックBL1の動きベクトルは、検出ブロックBL1内の画像の動きを示すベクトルである。検出ブロックBL2〜BL9の動きベクトルについても同様である。また、検出ブロックBL1〜BL9にて検出された動きベクトルを、夫々、動きベクトルVC1〜VC9と表記する。   Then, the motion detection unit 44 detects a motion vector for each of the detection blocks BL1 to BL9 using a well-known representative point matching method based on the comparison between captured images acquired sequentially. This motion vector detection is performed for each frame. The motion vector of the detection block BL1 is a vector indicating the motion of the image in the detection block BL1. The same applies to the motion vectors of the detection blocks BL2 to BL9. In addition, the motion vectors detected by the detection blocks BL1 to BL9 are referred to as motion vectors VC1 to VC9, respectively.

CPU23は、フレームごとに検出された、動きベクトルVC1〜VC9の大きさに基づく動き評価値に基づいて、第3トリガ条件の成立/不成立を判断する。動き評価値は、フレームごとに算出される。動き評価値は、例えば、動きベクトルVC1〜VC9の大きさの平均値または積算値である。尚、動きベクトルVC1〜VC9の大きさそのものを、動き評価値としてもよい。この場合、1つのフレームに関し、動き評価値は9つの値から構成されることになる。   The CPU 23 determines whether the third trigger condition is satisfied or not based on the motion evaluation value based on the magnitudes of the motion vectors VC1 to VC9 detected for each frame. The motion evaluation value is calculated for each frame. The motion evaluation value is, for example, an average value or an integrated value of the magnitudes of the motion vectors VC1 to VC9. The magnitudes of the motion vectors VC1 to VC9 may be used as the motion evaluation value. In this case, the motion evaluation value is composed of nine values for one frame.

図12の曲線77は、動画撮影中における、動き評価値の時間変化を表している。タイミングt3で、動き評価値が予め定められた基準値CREF超から基準値CREF以下となり、その後、動き評価値が継続してタイミングt4まで基準値CREF以下に保たれている状態を想定する。タイミングt3とt4の間の時間は、時間T3に一致する。 A curve 77 in FIG. 12 represents a temporal change in the motion evaluation value during moving image shooting. At timing t3, as the reference value C REF or less from the motion estimation value is a predetermined reference value C REF greater, then, assuming a state in which motion estimation value continues being kept below the reference value C REF to timing t4 To do. The time between timings t3 and t4 coincides with time T3.

タイミングt4において、CPU23は、タイミングt3からt4までの各動き評価値と、基準値CREFとを比較する。そして、タイミングt3からt4の期間において、常に前者が後者(CREF)以下に保たれている場合に第3トリガ条件は成立していると判断し、そうでない場合に第3トリガ条件は不成立と判断する。上記の判断が可能なように、CPU23は、時間T3分の過去の動き評価値を、SDRAM17に逐次記録させている。 At timing t4, the CPU 23 compares each motion evaluation value from timing t3 to t4 with the reference value CREF . In the period from timing t3 to t4, it is determined that the third trigger condition is satisfied when the former is always kept below the latter (C REF ), otherwise the third trigger condition is not satisfied. to decide. In order to enable the above determination, the CPU 23 sequentially records the past motion evaluation values for the time T3 in the SDRAM 17.

上記の説明から理解されるように、第3トリガ条件は、「動画の動き検出領域内の動きの大きさに応じた動き評価値が、所定の時間T3以上継続して、所定の閾値内に収まる」という条件である、とも換言できる。   As understood from the above description, the third trigger condition is “the motion evaluation value according to the magnitude of motion in the motion detection area of the moving image continues for a predetermined time T3 or more and falls within a predetermined threshold value. In other words, the condition is “contains”.

動画の撮影画像内の動きが一定時間以上停止している状態は、例えば、着目している人物等の被写体を静止した状態で捉えている状態と一致している、と推測することができる。このため、第3判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。   It can be inferred that the state in which the motion in the captured image of the moving image has stopped for a certain time or more coincides with the state where the subject such as the person of interest is captured in a stationary state. Therefore, by adopting the third determination method, it is possible to acquire a thumbnail image that clearly represents the characteristics of the moving image, and as a result, it is possible to facilitate the search for a desired moving image.

尚、撮像装置1を手で支持する場合は、所謂手ぶれによって、画像内の被写体は若干動く。この手ぶれに起因する動きによって、全く第3トリガ条件が成立しなくなるといったことが回避されるように、上記の閾値は実機による実験等を介して適切に設定される。   When the imaging apparatus 1 is supported by hand, the subject in the image slightly moves due to so-called camera shake. The above threshold value is appropriately set through an experiment using an actual machine so as to avoid that the third trigger condition is not satisfied at all due to the movement caused by the camera shake.

また、動き検出領域内の動き(動きの大きさ)を検出する手法として、代表点マッチング法を用いる手法を例示したが、他の様々な検出手法を採用することも可能である。   In addition, as a technique for detecting the motion in the motion detection region (the magnitude of the motion), the technique using the representative point matching method has been exemplified, but various other detection techniques can be employed.

例えば、周知の如く、動画を構成する各フレーム間において、検出ブロックごとに明るさ(輝度信号)を比較し、各検出ブロックにおける明るさの変化に基づいて動き検出領域内の動き(動きの大きさ)を検出するようにしてもよい。また例えば、周知の如く、動画を構成する各フレーム間において、検出ブロックごとに色(色は映像信号から特定される)を比較し、各検出ブロックにおける色の変化に基づいて動き検出領域内の動き(動きの大きさ)を検出するようにしてもよい。   For example, as is well known, the brightness (luminance signal) is compared for each detection block between the frames constituting the moving image, and the motion in the motion detection area (the magnitude of the motion is based on the change in brightness in each detection block. May be detected. In addition, for example, as is well known, the colors (colors are specified from the video signal) are compared for each detection block between the frames constituting the moving image, and the motion detection area in the motion detection area is determined based on the color change in each detection block. You may make it detect a motion (magnitude | size of a motion).

[第4判断手法]
次に、第4判断手法について説明する。第4判断手法を採用した場合におけるステップS11のトリガ条件を、第4トリガ条件と呼ぶ。第4トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
[Fourth Judgment Method]
Next, the fourth determination method will be described. The trigger condition in step S11 when the fourth determination method is adopted is referred to as a fourth trigger condition. If the fourth trigger condition is satisfied, the process proceeds to step S12. If not, the process proceeds to step S15.

第4判断手法では、各フレームの撮影画像内に存在する人物の顔領域を検出する顔領域検出機能が利用される。この顔領域検出機能を実現するために必要となる顔領域検出部46が、映像信号処理部13に設けられている(図3参照)。そして、第4判断手法を採用する場合、ステップS11では、例えば、「検出された顔領域の大きさが所定の閾値(基準サイズ)以上である」という第4トリガ条件の成立/不成立が判断される。   In the fourth determination method, a face area detection function for detecting a face area of a person existing in a captured image of each frame is used. A face area detection unit 46 necessary for realizing the face area detection function is provided in the video signal processing unit 13 (see FIG. 3). When the fourth determination method is adopted, in step S11, for example, it is determined whether or not the fourth trigger condition that “the size of the detected face area is equal to or larger than a predetermined threshold (reference size)” is satisfied. The

顔領域検出の手法として、様々な手法を採用することが可能である。顔領域検出部46は、例えば、周知の如く、撮影画像の肌色を抽出することによって顔領域の大きさを判断する。つまり、例えば、動画を構成する各フレームの撮影画像から肌色に分類される映像信号を有する領域を顔領域として抽出し、抽出した領域の大きさ(例えば面積)に基づいて、顔領域の大きさを求める(検出する)。上記の抽出及び顔領域の大きさの検出は、フレームごとに行われる。尚、どのような映像信号を肌色と分類するかは、予め定められている。   Various methods can be employed as a method for detecting a face area. For example, as is well known, the face area detection unit 46 determines the size of the face area by extracting the skin color of the captured image. That is, for example, an area having a video signal classified as skin color is extracted as a face area from the captured images of each frame constituting the moving image, and the size of the face area is determined based on the size (for example, area) of the extracted area. Is detected (detected). The extraction and detection of the size of the face area are performed for each frame. Note that what video signals are classified as skin colors is determined in advance.

また、周知の如く、パターンマッチング法を用いて顔領域の大きさを検出するようにしても良い。この際、様々な顔領域のパターンに関する情報を撮像装置1内のメモリに格納しておき、それらのパターンと撮影画像とを比較することによって、顔領域を検出すると共に顔領域の大きさを検出する。   As is well known, the size of the face area may be detected using a pattern matching method. At this time, information on various face area patterns is stored in the memory in the imaging apparatus 1, and the face area is detected and the size of the face area is detected by comparing the pattern and the captured image. To do.

実際の処理では、例えば、顔領域検出部46が顔領域の大きさに応じた顔領域値をフレームごとに算出して、CPU23に逐次伝達する。CPU23は、逐次伝達された顔領域値が所定の閾値以上である場合に第4トリガ条件が成立すると判断し、そうでない場合に第4トリガ条件は不成立であると判断する。この顔領域値は、検出された顔領域の大きさが増大するにつれて増加する値である。   In the actual processing, for example, the face area detection unit 46 calculates a face area value corresponding to the size of the face area for each frame and sequentially transmits it to the CPU 23. The CPU 23 determines that the fourth trigger condition is satisfied when the successively transmitted face area value is equal to or greater than a predetermined threshold value, and determines that the fourth trigger condition is not satisfied otherwise. This face area value is a value that increases as the size of the detected face area increases.

画像内における顔の大きさが比較的大きくなっている状態は、ユーザが着目している人物の顔が大きく映し出されている状態と一致する、と推測することができる。このため、第4判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。   It can be estimated that the state in which the size of the face in the image is relatively large matches the state in which the face of the person that the user is paying attention is greatly projected. For this reason, by adopting the fourth determination method, it is possible to acquire a thumbnail image that clearly represents the characteristics of the moving image, and as a result, it is possible to facilitate the search for a desired moving image.

尚、第4トリガ条件を成立せしめる顔領域の大きさまたは顔領域値に、上限を定めても良い。即ち、「検出された顔領域の大きさまたは顔領域値が所定の第1閾値以上であって且つ第2閾値以下である」場合、換言すれば、「検出された顔領域の大きさまたは顔領域値が所定の範囲内にある」場合に、ステップS12に移行し、そうでない場合はステップS15に移行するようにしてもよい。但し、第2閾値は、第1閾値よりも大きな値を有する。   An upper limit may be set for the size of the face area or the face area value that satisfies the fourth trigger condition. That is, when “the size of the detected face area or the face area value is not less than a predetermined first threshold and not more than the second threshold”, in other words, “the size of the detected face area or the face If the region value is within a predetermined range, the process may proceed to step S12, and if not, the process may proceed to step S15. However, the second threshold value is larger than the first threshold value.

画像内を占める顔の大きさが大き過ぎる画像を基にサムネイル画像を生成すると、かえって動画の特徴が捉えにくくなることもある。これを考慮し、上記の如く上限を定めるようにしてもよい。   If a thumbnail image is generated based on an image in which the size of the face occupying the image is too large, it may be difficult to capture the feature of the moving image. Considering this, the upper limit may be determined as described above.

[第5判断手法]
次に、第5判断手法について説明する。第5判断手法を採用した場合におけるステップS11のトリガ条件を、第5トリガ条件と呼ぶ。第5トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。尚、第5判断手法を採用する場合、ステップS10の処理は省略される。
[Fifth determination method]
Next, the fifth determination method will be described. The trigger condition in step S11 when the fifth determination method is adopted is referred to as a fifth trigger condition. If the fifth trigger condition is satisfied, the process proceeds to step S12. If the fifth trigger condition is not satisfied, the process proceeds to step S15. In addition, when employ | adopting a 5th determination method, the process of step S10 is abbreviate | omitted.

第5判断手法では、動画撮影中においてマイク14を介して入力された音の強さに着目する。音声信号処理部15は、動画撮影中においてマイク14を介して入力された、音の強さ或いは音の所定帯域の周波数成分の強さを逐次検出する機能を備える。検出された音の強さ或いは音の所定帯域の周波数成分の強さは、音強度値として、逐次、CPU23に伝達される。   In the fifth determination method, attention is focused on the intensity of sound input through the microphone 14 during moving image shooting. The audio signal processing unit 15 has a function of sequentially detecting the intensity of sound or the frequency component of a predetermined band of sound input via the microphone 14 during moving image shooting. The detected sound intensity or the intensity of the frequency component of the predetermined band of the sound is sequentially transmitted to the CPU 23 as a sound intensity value.

また、音の強さの代わりに音の大きさを検出するようにし、検出された音の大きさ或いは音の所定帯域の周波数成分の大きさに応じた値を音強度値としてもよい。この場合、下記の「音の強さ」及び「音の所定帯域の周波数成分の強さ」は、それぞれ、「音の大きさ」及び「音の所定帯域の周波数成分の大きさ」に読み替えられる。   Alternatively, the sound intensity may be detected instead of the sound intensity, and a value corresponding to the detected sound intensity or the frequency component in a predetermined band of the sound may be used as the sound intensity value. In this case, the following “sound intensity” and “intensity of frequency components in a predetermined band of sound” are read as “sound volume” and “amplitude of frequency components in a predetermined band of sound”, respectively. .

音強度値は、例えば、検出された音の強さの、1フレーム分の平均値又は該フレームにおけるピーク値である。或いは、音強度値は、例えば、検出された音の所定帯域の周波数成分の強さの、1フレーム分の平均値若しくは該フレームにおけるピーク値である。従って、音検出値は、1フレームごとに検出される。音強度値は、音の強さが増大するにつれて大きくなる。上記の所定帯域の周波数成分とは、例えば、人の音声の周波数帯域成分または可聴周波数帯域成分である。音声信号処理部15は、バンドパスフィルタ等を用いて、マイク14を介して入力された音声信号から上記所定帯域の周波数成分を抽出する。   The sound intensity value is, for example, an average value for one frame of detected sound intensity or a peak value in the frame. Alternatively, the sound intensity value is, for example, an average value for one frame of the intensity of a frequency component in a predetermined band of the detected sound or a peak value in the frame. Therefore, the sound detection value is detected for each frame. The sound intensity value increases as the sound intensity increases. The frequency component of the predetermined band is, for example, a human voice frequency band component or an audible frequency band component. The audio signal processing unit 15 extracts the frequency component of the predetermined band from the audio signal input via the microphone 14 using a bandpass filter or the like.

CPU23は、動画の撮影開始時点のフレームから現フレームまでの音強度値の中で、現フレームの音強度値が最大であるかを判断する。そして、現フレームの音強度値が最大である場合に、第5トリガ条件が成立すると判断し、そうでない場合に第5トリガ条件は不成立であると判断する。   The CPU 23 determines whether the sound intensity value of the current frame is the maximum among the sound intensity values from the frame at the start of moving image shooting to the current frame. Then, when the sound intensity value of the current frame is the maximum, it is determined that the fifth trigger condition is satisfied, and otherwise, it is determined that the fifth trigger condition is not satisfied.

音楽会やパーティ会場の様子を撮影している場合において、音の強さが大きくなっている状態は、撮影現場が盛り上がっている状態と一致している、と考えることができる。このため、第5判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。   When shooting a concert or party venue, it can be considered that the state in which the sound intensity is high coincides with the state in which the shooting site is exciting. Therefore, by adopting the fifth determination method, it is possible to acquire a thumbnail image that clearly represents the characteristics of a moving image, and as a result, it is possible to facilitate the search for a desired moving image.

尚、第5判断手法を採用する場合は、図7のフローチャートで示される動画用サムネイル画像の生成手順に代えて、図13のフローチャートで示される動画用サムネイル画像の生成手順を採用することも可能である。   When the fifth determination method is employed, the moving image thumbnail image generation procedure illustrated in the flowchart of FIG. 13 may be employed instead of the moving image thumbnail image generation procedure illustrated in the flowchart of FIG. 7. It is.

この図13に示す生成手順について説明する。図7と図13において、同一記号が付されたステップにおける処理は同一である。つまり、図13におけるステップS1〜S3、S5〜S9及びS13では、図7におけるそれらと同じ処理が行われる。図13に示す手順では、図7のステップS4の代わりにステップS21が、図7のステップS10〜S12及びS15の代わりにステップS22及びS23が、図7のステップS14の代わりにステップS24が実行される。   The generation procedure shown in FIG. 13 will be described. In FIG. 7 and FIG. 13, the process in the step which attached | subjected the same symbol is the same. That is, in steps S1 to S3, S5 to S9, and S13 in FIG. 13, the same processes as those in FIG. 7 are performed. In the procedure shown in FIG. 13, step S21 is executed instead of step S4 in FIG. 7, steps S22 and S23 are executed instead of steps S10 to S12 and S15 in FIG. 7, and step S24 is executed instead of step S14 in FIG. The

ステップS3において、録画モードにて録画ボタン26aが押下されたことが確認されると、ステップS21に移行する。ステップS21において、変数Smaxに初期値Sinit(例えば0)を代入し、ステップS5に移行する。ステップS8において、録画停止が指示されていないと判断されると(ステップS8のNo)、ステップS22に移行する。録画停止が指示されるまでは、ステップS22、S23及びS13及びS24のステップ群と、ステップS1、S2、S7及びS8と、から成るループ処理が繰り返し実行される。このループ処理は、フレームごとに1回行われることになる。   If it is confirmed in step S3 that the recording button 26a has been pressed in the recording mode, the process proceeds to step S21. In step S21, an initial value Sinit (for example, 0) is substituted for variable Smax, and the process proceeds to step S5. If it is determined in step S8 that the recording stop is not instructed (No in step S8), the process proceeds to step S22. Until stop of recording is instructed, a loop process including steps S22, S23, S13, and S24 and steps S1, S2, S7, and S8 is repeatedly executed. This loop processing is performed once for each frame.

ステップS22では、現フレームの音強度値Sinが、変数Smaxよりも大きいかが判断される。不等式:Sin>Smax、が成立する場合は(ステップS22のYes)ステップS23に移行し、成立しない場合は(ステップS22のNo)ステップS1に戻る。ステップS23において、現フレームの音強度値Sinを変数Smaxに代入し、ステップS13に移行する。ステップS13にて動画用サムネイル画像が生成された後、ステップS24に移行する。ステップS24の処理は、図7のステップS14の処理からフラグF0及びF1に対する処理を除いたものである。ステップS24の処理を終えると、ステップS1に戻る。   In step S22, it is determined whether the sound intensity value Sin of the current frame is greater than the variable Smax. If the inequality: Sin> Smax is satisfied (Yes in step S22), the process proceeds to step S23. If not satisfied (No in step S22), the process returns to step S1. In step S23, the sound intensity value Sin of the current frame is substituted for the variable Smax, and the process proceeds to step S13. After the moving image thumbnail image is generated in step S13, the process proceeds to step S24. The process of step S24 is obtained by removing the processes for the flags F0 and F1 from the process of step S14 of FIG. When the process of step S24 is completed, the process returns to step S1.

[付加的条件の追加]
上に例示した第1〜第5トリガ条件の夫々に対して、任意の付加的条件を追加するようにしてもよい。つまり、例えば、上述した第kトリガ条件の成立に加えて(kは1〜5の範囲内の任意の整数)、付加的条件が更に成立した場合にのみステップS12に移行するようにし、第kトリガ条件が成立していても付加的条件が不成立の場合はステップS15に移行するようにしてもよい。
[Additional conditions]
You may make it add arbitrary additional conditions with respect to each of the 1st-5th trigger conditions illustrated above. That is, for example, in addition to the establishment of the k-th trigger condition described above (k is an arbitrary integer in the range of 1 to 5), the process proceeds to step S12 only when the additional condition is further established, and the k-th trigger condition is established. Even if the trigger condition is satisfied, if the additional condition is not satisfied, the process may proceed to step S15.

例えば、上述の第1トリガ条件に対して、「撮像装置1がパンまたはチルトしていないこと」という付加的条件を追加してもよい。つまり、上述の第1判断手法において、「直近のズームインが行われた後、所定の時間T1以上継続して、ズームインまたはズームアウトによる画角の変更が行われておらず且つ撮像装置1がパンまたはチルトしていない」場合に、ステップS12に移行するようにし、そうでない場合はステップS15に移行するようにしてもよい。   For example, an additional condition that “the imaging apparatus 1 is not panned or tilted” may be added to the first trigger condition described above. That is, in the first determination method described above, “after the most recent zoom-in is performed, the angle of view is not changed by zoom-in or zoom-out for a predetermined time T1 or more, and the imaging apparatus 1 is panned. Alternatively, the process may proceed to step S12 when “not tilted”, or may proceed to step S15 if not.

パンまたはチルトがなされていない状態で取得した画像、即ち撮像装置1を固定した状態で取得した画像の方が、ユーザが着目している被写体をより適切に写し出している、と考えられるからである。   This is because it is considered that an image acquired without panning or tilting, that is, an image acquired with the imaging device 1 fixed, more appropriately captures the subject focused on by the user. .

パン(パンニング)とは、撮像装置1の筐体(不図示)を左右方向に振ることを意味し、チルト(チルティング)とは、撮像装置1の筐体を上下方向に振ることを意味する。   Pan (panning) means that the casing (not shown) of the imaging apparatus 1 is shaken in the left-right direction, and tilt (tilting) means that the casing of the imaging apparatus 1 is shaken in the vertical direction. .

撮像装置1の動きの状態(撮像装置1の筐体の動きの状態)は、撮像装置1の筐体が静止している静止状態と、手の震え等によって撮像装置1の筐体が任意の方向に細かく振動している手振れ状態と、撮像装置1に対してパン操作(パンを行う操作)が行われているパン状態と、撮像装置1に対してチルト操作(チルトを行う操作)が行われているチルト状態と、に大別される。このため、上記付加的条件は、「撮像装置1が静止状態または手振れ状態にあること」とも言い換えられる。   The state of movement of the imaging apparatus 1 (the state of movement of the casing of the imaging apparatus 1) is determined as follows: a stationary state where the casing of the imaging apparatus 1 is stationary; A camera shake state that is finely oscillating in a direction, a pan state in which a pan operation (pan operation) is performed on the imaging device 1, and a tilt operation (tilt operation) on the imaging device 1 are performed. The tilt state is roughly divided into two. For this reason, the additional condition is also paraphrased as “the imaging apparatus 1 is in a stationary state or a shaking state”.

上記付加的条件の成立/不成立を判断する際、CPU23は、撮像装置1の動きの状態が、静止状態、手振れ状態、パン状態及びチルト状態の何れであるかを判別する動き検出手段として機能する。   When determining whether or not the additional condition is satisfied, the CPU 23 functions as a motion detection unit that determines whether the motion state of the imaging apparatus 1 is a stationary state, a hand shake state, a pan state, or a tilt state. .

例えば、CPU23は、周知の如く、撮像装置1の筐体の角速度を検出する角速度センサ(ジャイロセンサ;不図示)からの、該角速度を示す出力信号に基づいて、上記の判別を行う。   For example, as is well known, the CPU 23 performs the above determination based on an output signal indicating the angular velocity from an angular velocity sensor (gyro sensor; not shown) that detects the angular velocity of the housing of the imaging apparatus 1.

例えば、パン方向に対して考え、角速度センサの出力信号が、撮像装置1の筐体が左方向に振られた時に正の値をとり、右方向に振られた時に負の値をとり、固定された時にゼロの値をとる場合を考える。この場合、角速度センサの出力信号がゼロまたは実質的にゼロの場合は静止状態にあると判別し、角速度センサの出力信号が小刻みに振動しながら正と負の値をとる場合は手振れ状態にあると判別し、所定時間内の角速度センサの出力信号が正または負の値をとり続けた場合はパン状態であると判別する。チルト方向に対しても同様である。   For example, considering the pan direction, the output signal of the angular velocity sensor takes a positive value when the housing of the imaging apparatus 1 is shaken leftward, takes a negative value when the case is shaken rightward, and is fixed. Consider the case of taking a zero value when In this case, if the output signal of the angular velocity sensor is zero or substantially zero, it is determined that it is in a stationary state, and if the output signal of the angular velocity sensor vibrates little by little and takes a positive or negative value, it is in a shake state. If the output signal of the angular velocity sensor within a predetermined time continues to take a positive or negative value, it is determined that the camera is in the pan state. The same applies to the tilt direction.

また、周知の如く、図3の動き検出部44による画像の動きの検出結果に基づいて、撮像装置1の動きの状態を判別するようにしてもよい。例えば、CPU23は、第3判断手法にて述べた動きベクトルVC1〜VC9を参照する。例えば、動きベクトルVC1〜VC9の夫々の向きが、所定時間以上継続して同一の向き(例えば左向き)を維持している場合はパン状態またはチルト状態であると判別し、そうでない場合は手振れ状態または静止状態にあると判別する。   Further, as is well known, the state of motion of the imaging device 1 may be determined based on the detection result of the motion of the image by the motion detector 44 of FIG. For example, the CPU 23 refers to the motion vectors VC1 to VC9 described in the third determination method. For example, when the respective directions of the motion vectors VC1 to VC9 are maintained in the same direction (for example, leftward) for a predetermined time or longer, it is determined that the panning state or the tilting state is satisfied. Or it is determined that it is in a stationary state.

また例えば、「撮像装置1がパンまたはチルトしていないこと」という付加的条件を、上述の第2トリガ条件に対して追加するようにしてもよい。つまり、上述の第2判断手法において、「フォーカスレンズ31の位置の変動の大きさが、所定の時間T2以上継続して、所定の閾値内に収まっており且つ撮像装置1がパンまたはチルトしていない」場合に、ステップS12に移行するようにし、そうでない場合はステップS15に移行するようにしてもよい。尚、遠方の景色などを撮影している場合は、パン状態であってもフォーカスはロックすることが多い。   Further, for example, an additional condition that “the imaging apparatus 1 is not panned or tilted” may be added to the above-described second trigger condition. In other words, in the second determination method described above, “the magnitude of the variation in the position of the focus lens 31 continues for a predetermined time T2 or more and stays within a predetermined threshold, and the imaging apparatus 1 is panned or tilted. If not, the process may proceed to step S12, and if not, the process may proceed to step S15. When shooting a distant view, the focus is often locked even in a pan state.

<<変形等>>
尚、ステップS11において採用されるトリガ条件を如何なるトリガ条件とするかを、ユーザが設定できるようにしてもよい。例えば、ステップS11におけるトリガ条件として、上記の第1〜第5トリガ条件の何れを採用するかをユーザが設定できるようにしてもよい。この設定は、例えば、操作部26への操作を介して行われる。
<< Deformation, etc. >>
In addition, you may enable it for a user to set what kind of trigger conditions the trigger conditions employ | adopted in step S11 are used. For example, the user may be able to set which of the above first to fifth trigger conditions is used as the trigger condition in step S11. This setting is performed, for example, through an operation on the operation unit 26.

また、上述の第1〜第5判断手法の内、任意の2以上の判断手法を自由に組み合わせることも可能である。例えば、第1判断手法と第2判断手法を組み合わせる場合、ステップS11において、第1トリガ条件と第2トリガ条件の成立/不成立を判断する。そして、第1及び第2トリガ条件の内の何れか一方のトリガ条件が成立している場合はステップS12に移行するようにし、双方が不成立である場合にのみステップS15に移行するようにする。或いは、第1及び第2トリガ条件の双方が成立している場合にのみステップS12に移行するようにし、そうでない場合はステップS15に移行するようにする。   Moreover, it is also possible to freely combine any two or more of the above-described first to fifth determination methods. For example, when combining the first determination method and the second determination method, in step S11, it is determined whether the first trigger condition and the second trigger condition are satisfied or not. Then, when either one of the first and second trigger conditions is satisfied, the process proceeds to step S12, and when both are not satisfied, the process proceeds to step S15. Alternatively, the process proceeds to step S12 only when both the first and second trigger conditions are satisfied, and otherwise, the process proceeds to step S15.

また、ヘッダファイルに1つの動画用サムネイル画像を格納し、格納された1つの動画用サムネイル画像を1つの動画に関連付ける例を上述したが、ヘッダファイルに複数の動画用サムネイル画像を格納し、格納された複数の動画用サムネイル画像を1つの動画に関連付けるようにしても構わない。この場合、ステップS14では、ヘッダファイルに既に格納されている動画用サムネイル画像をステップS13で生成した(最新の)動画用サムネイル画像にて置き換えるのではなく、ステップS13で生成した動画用サムネイル画像をヘッダファイルに追加するようにする。   In addition, the example in which one moving image thumbnail image is stored in the header file and one stored moving image thumbnail image is associated with one moving image has been described above. However, a plurality of moving image thumbnail images are stored and stored in the header file. The plurality of moving image thumbnail images may be associated with one moving image. In this case, in step S14, instead of replacing the moving image thumbnail image already stored in the header file with the (latest) moving image thumbnail image generated in step S13, the moving image thumbnail image generated in step S13 is replaced. Add to the header file.

複数の動画用サムネイル画像を1つの動画に関連付けた場合において、例えば図5におけるカーソル72をサムネイルTN3の部分に移動させると、その複数の動画用サムネイル画像を構成する各動画用サムネイル画像が、所定の間隔を置きつつ順を追ってサムネルTN3の部分に更新表示される。   In a case where a plurality of moving image thumbnail images are associated with one moving image, for example, when the cursor 72 in FIG. 5 is moved to the thumbnail TN3 portion, each moving image thumbnail image constituting the plurality of moving image thumbnail images is predetermined. Are updated and displayed on the part of the thumbnail TN3 in order.

これに関連するが、動画用サムネイル画像は動画(以下、サムネイル動画という)であっても構わない。撮影した動画に対応する音声信号に基づいてサムネイル音声を作成し、サムネイル動画を表示する際、そのサムネイル音声をスピーカ28を介して同時に出力するようにしてもよい。尚、サムネイル画像が静止画である場合においても、上記サムネイル音声の出力は可能である。   Related to this, the moving image thumbnail image may be a moving image (hereinafter referred to as a thumbnail moving image). A thumbnail sound may be created based on an audio signal corresponding to the captured moving image, and the thumbnail sound may be simultaneously output via the speaker 28 when displaying the thumbnail moving image. Even when the thumbnail image is a still image, the thumbnail sound can be output.

また、1つの動画の撮影期間中において、仮にトリガ条件が1回も成立しなかった場合、ステップS5にて生成された動画用サムネイル画像(第1の候補サムネイル画像)が、最終的に、動画に関連付けられた動画用サムネイル画像となる例を上述した。この動画用サムネイル画像は、動画の撮影開始タイミング(撮影開始フレームまたは撮影開始直前のフレーム)における撮像信号に基づいて作成されることになる。   Also, if the trigger condition is not satisfied even once during the shooting period of one moving image, the moving image thumbnail image (first candidate thumbnail image) generated in step S5 is finally converted into the moving image. As described above, the example is a thumbnail image for a moving image associated with. This moving image thumbnail image is created based on the imaging signal at the moving image shooting start timing (the shooting start frame or the frame immediately before the shooting start).

1つの動画の撮影期間中においてトリガ条件が1回も成立しなかった場合に動画に関連付けられる動画用サムネイル画像は、上記に限定されない。その動画用サムネイル画像は、予め定められた任意のタイミング(フレーム)における撮像信号に基づいて生成されればよい。例えば、動画撮影直前もしくは直後における撮像信号、または動画撮影中の何れかのフレームの撮像信号に基づいて生成されればよい。   The moving image thumbnail image associated with the moving image when the trigger condition is not satisfied even once during the shooting period of one moving image is not limited to the above. The moving image thumbnail image may be generated based on an imaging signal at an arbitrary predetermined timing (frame). For example, it may be generated based on an imaging signal immediately before or after moving image shooting or an imaging signal of any frame during moving image shooting.

上述したように、メモリカード18の記録内容は、外部のパーソナルコンピュータ等によって自在に読み出し可能となっている。メモリカード18の記録内容を表示部27及びスピーカ28にて再生(映像表示及び音声出力)することができると上述したが、メモリカード18の記録内容の再生は、表示部とスピーカを備えたパーソナルコンピュータ等によっても同様に実現可能である。   As described above, the recorded contents of the memory card 18 can be freely read by an external personal computer or the like. As described above, the recorded content of the memory card 18 can be reproduced (video display and audio output) by the display unit 27 and the speaker 28. However, the recorded content of the memory card 18 is reproduced by a personal computer including the display unit and the speaker. It can be similarly realized by a computer or the like.

本実施形態において、画角変更手段として機能する部位は、ドライバ34を含む。図1の操作キー26c及び/又はCPU23、或いは、図2のズームレンズ30も画角変更手段の構成要素である、と捉えることも可能である。また、オートフォーカス制御手段は、主として、図3のAF評価値検出部42と、図1のCPU23と、図2のドライバ34と、によって実現される。   In the present embodiment, the part that functions as the angle of view changing means includes a driver 34. The operation key 26c and / or the CPU 23 in FIG. 1 or the zoom lens 30 in FIG. 2 can also be regarded as components of the field angle changing unit. Further, the autofocus control means is mainly realized by the AF evaluation value detection unit 42 in FIG. 3, the CPU 23 in FIG. 1, and the driver 34 in FIG.

本実施形態において、サムネイル生成装置は、主としてサムネイル生成部45(又はそれを含む映像信号処理部13)及びCPU23によって形成される。これに加えて、画角変更手段、オートフォーカス制御手段、動き検出手段(図3の動き検出部44に対応)、顔領域検出手段(図3の顔領域検出部46に対応)及び音入力手段(図1のマイク14に対応)の内の何れか1以上を、サムネイル生成装置の構成要素と捉えることも可能である。尚、図7及び図13のステップS5において、サムネイル生成部45は、第1生成手段として機能する。   In the present embodiment, the thumbnail generation device is mainly formed by the thumbnail generation unit 45 (or the video signal processing unit 13 including the thumbnail generation unit 45) and the CPU 23. In addition to this, an angle of view changing means, an autofocus control means, a motion detection means (corresponding to the motion detection section 44 in FIG. 3), a face area detection means (corresponding to the face area detection section 46 in FIG. 3), and a sound input means Any one or more (corresponding to the microphone 14 in FIG. 1) can be regarded as a component of the thumbnail generation apparatus. 7 and 13, the thumbnail generation unit 45 functions as a first generation unit.

本発明の実施の形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 図1の撮像部の内部ブロック図である。It is an internal block diagram of the imaging part of FIG. 図1の映像信号処理部の内部ブロック図である。FIG. 2 is an internal block diagram of a video signal processing unit in FIG. 1. 図3のAF評価値検出部の内部ブロック図である。FIG. 4 is an internal block diagram of an AF evaluation value detection unit in FIG. 3. サムネイル画像表示モードにおける、図1の表示部の表示画面の表示例を示す図である。It is a figure which shows the example of a display of the display screen of the display part of FIG. 1 in thumbnail image display mode. 図5の表示画面から遷移しうる、動画の再生表示画面を示す図である。It is a figure which shows the reproduction | regeneration display screen of a moving image which can be changed from the display screen of FIG. 図1の撮像装置における、動画用サムネイル画像の生成手順を示すフローチャートである。3 is a flowchart showing a procedure for generating a moving image thumbnail image in the imaging apparatus of FIG. 1. 図7のステップS11におけるトリガ条件を例示した図である。It is the figure which illustrated the trigger condition in Step S11 of FIG. 図7のステップS11におけるトリガ条件の成立/不成立に関する、第1判断手法を説明するための図である。It is a figure for demonstrating the 1st judgment method regarding establishment / non-establishment of the trigger condition in step S11 of FIG. 図7のステップS11におけるトリガ条件の成立/不成立に関する、第2判断手法を説明するためのである。It is for demonstrating the 2nd judgment method regarding establishment / non-establishment of the trigger condition in step S11 of FIG. 図7のステップS11におけるトリガ条件の成立/不成立に関する、第3判断手法を説明するための図である。It is a figure for demonstrating the 3rd judgment method regarding establishment / non-establishment of the trigger condition in step S11 of FIG. 図7のステップS11におけるトリガ条件の成立/不成立に関する、第3判断手法を説明するための図である。It is a figure for demonstrating the 3rd judgment method regarding establishment / non-establishment of the trigger condition in step S11 of FIG. 図7のステップS11におけるトリガ条件の成立/不成立に関する、第5判断手法を説明するための図である。It is a figure for demonstrating the 5th judgment method regarding establishment / non-establishment of the trigger condition in step S11 of FIG. 従来の撮像装置における、動画用サムネイル画像の生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the thumbnail image for moving images in the conventional imaging device.

符号の説明Explanation of symbols

1 撮像装置
11 撮像部
12 AFE
13 映像信号処理部
14 マイク
15 音声信号処理部
26 操作部
26a 録画ボタン
26b シャッタボタン
26c 操作キー
41 動画/静止画処理部
42 AF評価値検出部
43 AE評価値検出部
44 動き検出部
45 サムネイル生成部
46 顔領域検出部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 12 AFE
13 Video signal processing unit 14 Microphone 15 Audio signal processing unit 26 Operation unit 26a Recording button 26b Shutter button 26c Operation key 41 Video / still image processing unit 42 AF evaluation value detection unit 43 AE evaluation value detection unit 44 Motion detection unit 45 Thumbnail generation 46 Face area detection unit

Claims (9)

動画撮影が可能な撮像装置に備えられた撮像手段からの被写体に応じた撮像信号に基づき、撮影した動画に関連付けられたサムネイル画像を生成するサムネイル生成装置において、
予め定められたタイミングにおける前記撮像信号に基づいて、前記サムネイル画像の候補としての第1の候補サムネイル画像を生成する第1生成手段を備え、
前記動画の撮影中において、所定のトリガ条件が成立した際、前記トリガ条件成立時を基準とした所定タイミングにおける前記撮像信号を用いて、前記第1の候補サムネイル画像と異なる第2の候補サムネイル画像を生成し、該第2の候補サムネイル画像を前記サムネイル画像として前記動画に関連付ける
ことを特徴とするサムネイル生成装置。
In a thumbnail generation device that generates a thumbnail image associated with a captured moving image based on an imaging signal corresponding to a subject from an imaging unit provided in the imaging device capable of moving image shooting,
A first generation unit configured to generate a first candidate thumbnail image as a candidate for the thumbnail image based on the imaging signal at a predetermined timing;
When a predetermined trigger condition is satisfied during shooting of the moving image, a second candidate thumbnail image different from the first candidate thumbnail image is used by using the imaging signal at a predetermined timing with respect to when the trigger condition is satisfied. , And associating the second candidate thumbnail image with the moving image as the thumbnail image.
前記撮像装置は、前記撮像手段による撮影の画角の変更を可能とするための画角変更手段を備え、
前記トリガ条件は、前記画角を減少させるズームインの後、所定時間以上継続して、前記画角変更手段による前記画角の変更が行われないという条件を含む
ことを特徴とする請求項1に記載のサムネイル生成装置。
The imaging apparatus includes an angle-of-view changing unit for enabling change of an angle of view of photographing by the imaging unit,
2. The trigger condition includes a condition in which the angle of view is not changed by the angle of view changing unit for a predetermined time or more after zooming in to reduce the angle of view. The thumbnail generation device described.
前記撮像装置は、前記被写体を表す光学像が前記撮像手段に備えられた撮像素子の撮像面に結像するようにフォーカスレンズの位置を自動的に調節するオートフォーカス制御手段を備え、
前記トリガ条件は、前記位置の変動の大きさが、所定時間以上継続して、所定の閾値内に収まるという条件を含む
ことを特徴とする請求項1に記載のサムネイル生成装置。
The imaging apparatus includes an autofocus control unit that automatically adjusts a position of a focus lens so that an optical image representing the subject is formed on an imaging surface of an imaging element included in the imaging unit,
The thumbnail generation apparatus according to claim 1, wherein the trigger condition includes a condition that the magnitude of the position variation continues for a predetermined time or longer and falls within a predetermined threshold.
前記撮像装置は、前記撮像信号に基づいて、動き検出領域内の画像の動きを検出する動き検出手段を備え、前記動き検出領域は、前記動画を構成する撮影画像内に設けられ、
前記トリガ条件は、検出された前記動きの大きさが、所定時間以上継続して、所定の閾値内に収まるという条件を含む
ことを特徴とする請求項1に記載のサムネイル生成装置。
The imaging apparatus includes a motion detection unit that detects a motion of an image in a motion detection area based on the imaging signal, and the motion detection area is provided in a captured image constituting the moving image,
The thumbnail generation apparatus according to claim 1, wherein the trigger condition includes a condition that the magnitude of the detected movement continues for a predetermined time or longer and falls within a predetermined threshold.
前記撮像装置は、前記撮像信号に基づいて、前記動画を構成する撮影画像内に存在する人物の顔領域を検出する顔領域検出手段を備え、
前記トリガ条件は、検出された前記顔領域の大きさが所定の閾値以上であるという条件を含む
ことを特徴とする請求項1に記載のサムネイル生成装置。
The imaging apparatus includes a face area detection unit that detects a face area of a person existing in a captured image constituting the moving image based on the imaging signal,
The thumbnail generation apparatus according to claim 1, wherein the trigger condition includes a condition that a size of the detected face area is equal to or greater than a predetermined threshold.
前記撮像装置は、外部から音の入力を受ける音入力手段を備え、
前記トリガ条件の成立は、前記動画の撮影中に入力された前記音の強さ又は大きさに基づいて判断され、
前記音の強さ若しくは大きさ又は前記音の所定帯域の周波数成分の強さ若しくは大きさが前記動画の撮影中において最大となったタイミングを基準とした所定タイミングにおける前記撮像信号を用いて、前記第2の候補サムネイル画像を生成する
ことを特徴とする請求項1に記載のサムネイル生成装置。
The imaging device includes sound input means for receiving sound input from the outside,
The establishment of the trigger condition is determined based on the intensity or magnitude of the sound input during the shooting of the video,
Using the imaging signal at a predetermined timing with reference to a timing at which the intensity or the magnitude of the sound or the frequency component intensity or the magnitude of the predetermined band of the sound is maximized during shooting of the moving image, The thumbnail generation apparatus according to claim 1, wherein a second candidate thumbnail image is generated.
前記動画の撮影中において、前記トリガ条件が成立した際、前記トリガ条件成立時を含むフレームまたはその近傍のフレームにおける前記撮像信号に基づいて、前記第2の候補サムネイル画像を生成する
ことを特徴とする請求項1〜請求項6の何れかに記載のサムネイル生成装置。
When the trigger condition is satisfied during shooting of the moving image, the second candidate thumbnail image is generated based on the imaging signal in a frame including the time when the trigger condition is satisfied or a frame in the vicinity thereof. The thumbnail generation device according to any one of claims 1 to 6.
前記動画の撮影中に前記トリガ条件が一度も成立しなかった場合には、前記第1の候補サムネイル画像を前記サムネイル画像として前記動画に関連付ける
ことを特徴とする請求項1〜請求項7の何れかに記載のサムネイル生成装置。
8. The first candidate thumbnail image is associated with the moving image as the thumbnail image when the trigger condition has never been satisfied during the shooting of the moving image. A thumbnail generation device according to any one of the above.
動画撮影が可能な撮像装置において、
請求項1〜請求項8の何れかに記載の撮像手段及びサムネイル生成装置を備えた
ことを特徴とする撮像装置。
In an imaging device capable of video recording,
An imaging apparatus comprising the imaging means and thumbnail generation apparatus according to claim 1.
JP2006084882A 2006-03-27 2006-03-27 Imaging device Expired - Fee Related JP4637045B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006084882A JP4637045B2 (en) 2006-03-27 2006-03-27 Imaging device
CN2010101688843A CN101867679B (en) 2006-03-27 2007-03-15 Thumbnail generating apparatus and image shooting apparatus
CN2007100863754A CN101047822B (en) 2006-03-27 2007-03-15 Thumbnail generating apparatus and image shooting apparatus
US11/723,603 US8000558B2 (en) 2006-03-27 2007-03-21 Thumbnail generating apparatus and image shooting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006084882A JP4637045B2 (en) 2006-03-27 2006-03-27 Imaging device

Publications (2)

Publication Number Publication Date
JP2007266655A true JP2007266655A (en) 2007-10-11
JP4637045B2 JP4637045B2 (en) 2011-02-23

Family

ID=38639272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006084882A Expired - Fee Related JP4637045B2 (en) 2006-03-27 2006-03-27 Imaging device

Country Status (2)

Country Link
JP (1) JP4637045B2 (en)
CN (1) CN101047822B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004713A (en) * 2010-06-15 2012-01-05 Canon Inc Image processing device, image processing device control method, program, and recording medium
US9179090B2 (en) 2012-02-13 2015-11-03 Canon Kabushiki Kaisha Moving image recording device, control method therefor, and non-transitory computer readable storage medium
JP2017204783A (en) * 2016-05-12 2017-11-16 キヤノン株式会社 Imaging apparatus, control method thereof, program, and storage medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5463739B2 (en) * 2009-06-03 2014-04-09 ソニー株式会社 Imaging apparatus, image processing method, and program
CN104754223A (en) * 2015-03-12 2015-07-01 广东欧珀移动通信有限公司 Method for generating thumbnail and shooting terminal
CN108093164A (en) * 2016-11-22 2018-05-29 努比亚技术有限公司 A kind of method and device for realizing image procossing
CN106780301B (en) * 2016-11-30 2020-04-14 努比亚技术有限公司 Picture processing method and device
CN106780408B (en) * 2016-11-30 2020-03-27 努比亚技术有限公司 Picture processing method and device
KR20180074369A (en) * 2016-12-23 2018-07-03 삼성전자주식회사 Method and Apparatus for Managing Thumbnail of 3-dimensional Contents
JP7028698B2 (en) * 2018-04-13 2022-03-02 シャープ株式会社 Electronics, controls, control methods, and control programs
CN114884925B (en) * 2022-04-18 2023-04-18 深圳市绿联科技股份有限公司 Method, device and system for transmitting composite photo data and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1028250A (en) * 1996-07-10 1998-01-27 Hitachi Ltd Intelligent video camera and intelligent still camera
JP2000278641A (en) * 1999-03-24 2000-10-06 Casio Comput Co Ltd Device and method for processing moving picture
JP2002223412A (en) * 2001-01-26 2002-08-09 Canon Inc Image processor, image processing system, image processing method, storage medium, and program software
JP2005109789A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Apparatus and program for image processing
JP2005191679A (en) * 2003-12-24 2005-07-14 Canon Inc Image processing apparatus, image processing method, control program, and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304425A (en) * 2003-03-31 2004-10-28 Casio Comput Co Ltd Electronic camera
JP2004304642A (en) * 2003-03-31 2004-10-28 Casio Comput Co Ltd Electronic camera and image reproducing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1028250A (en) * 1996-07-10 1998-01-27 Hitachi Ltd Intelligent video camera and intelligent still camera
JP2000278641A (en) * 1999-03-24 2000-10-06 Casio Comput Co Ltd Device and method for processing moving picture
JP2002223412A (en) * 2001-01-26 2002-08-09 Canon Inc Image processor, image processing system, image processing method, storage medium, and program software
JP2005109789A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Apparatus and program for image processing
JP2005191679A (en) * 2003-12-24 2005-07-14 Canon Inc Image processing apparatus, image processing method, control program, and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004713A (en) * 2010-06-15 2012-01-05 Canon Inc Image processing device, image processing device control method, program, and recording medium
US9179090B2 (en) 2012-02-13 2015-11-03 Canon Kabushiki Kaisha Moving image recording device, control method therefor, and non-transitory computer readable storage medium
JP2017204783A (en) * 2016-05-12 2017-11-16 キヤノン株式会社 Imaging apparatus, control method thereof, program, and storage medium

Also Published As

Publication number Publication date
CN101047822A (en) 2007-10-03
JP4637045B2 (en) 2011-02-23
CN101047822B (en) 2010-09-08

Similar Documents

Publication Publication Date Title
JP4637045B2 (en) Imaging device
US8000558B2 (en) Thumbnail generating apparatus and image shooting apparatus
JP4441882B2 (en) Imaging device, display control method, program
JP5117280B2 (en) IMAGING DEVICE, IMAGING METHOD, REPRODUCTION DEVICE, AND REPRODUCTION METHOD
US10542216B2 (en) Apparatus and method for storing moving image portions
JP2008129554A (en) Imaging device and automatic focusing control method
JP2007318725A (en) Camera, photographing control method of camera, program, and recording medium
JP2007215091A (en) Imaging apparatus and program therefor
JP2008180906A (en) Photographing device and focusing control method
JP2013123210A (en) Image-capturing apparatus
JP2008139683A (en) Imaging apparatus and autofocus control method
JP2006303961A (en) Imaging apparatus
JP2015053741A (en) Image reproduction device
JP2009194770A (en) Imaging device, moving image reproducing apparatus, and program thereof
JP2007266659A (en) Imaging reproducing apparatus
JP4733068B2 (en) Imaging apparatus, method, and program
JP2007306500A (en) Image inclination correction device and image inclination correction method
KR101770298B1 (en) digital image photographing apparatus and method for controling the same
US8305467B2 (en) Image pickup apparatus and image pickup method
JP2010050784A (en) Digital camera
JP2008205953A (en) Imaging device and image reproducing device
JP2010192956A (en) Imaging apparatus, and speaking person recognition method
JP2014007454A (en) Image pickup device and image pickup method
JP2011119934A (en) Image shooting device and image shooting method
JP2009088688A (en) Imaging apparatus, its imaging method, and method for switching its settings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees