JPH089314A - Animation image recording medium, still image extracting device, animation image recorder and still image automatic extracting method - Google Patents

Animation image recording medium, still image extracting device, animation image recorder and still image automatic extracting method

Info

Publication number
JPH089314A
JPH089314A JP6140128A JP14012894A JPH089314A JP H089314 A JPH089314 A JP H089314A JP 6140128 A JP6140128 A JP 6140128A JP 14012894 A JP14012894 A JP 14012894A JP H089314 A JPH089314 A JP H089314A
Authority
JP
Japan
Prior art keywords
image
information
shooting
processing
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6140128A
Other languages
Japanese (ja)
Other versions
JP3525493B2 (en
Inventor
Hiroshi Akahori
裕志 赤堀
Yukie Goshima
雪絵 五島
Makoto Fujimoto
眞 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP14012894A priority Critical patent/JP3525493B2/en
Publication of JPH089314A publication Critical patent/JPH089314A/en
Application granted granted Critical
Publication of JP3525493B2 publication Critical patent/JP3525493B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To extract a representative image expressing sufficiently a content of the animation image as a still image automatically by providing a representative image extracting information evaluation section to the device so as to extract the image based on image extract information. CONSTITUTION:A camera operation information acquisition section 2, an image processing information acquisition section 3 and an image pickup state information acquisition section 4 respectively read out camera operation information, image processing information and image pickup information from a reproduced signal inputted by a reproduction signal input section 1. Then a representative image extracting information evaluation section 6 detects video recording start operation information included in the camera operation information to evaluate whether or not each image is proper to a representative image of a cut image as to each image in the same cut image till the succeeding video recording start operation information is detected. As a result, a representative image management section 7 fetches the image of one frame from the video signal acquisition section 5 as to the image evaluated to be proper as a representative image and stores the received image to a representative image storage section 8 and then the image stored in the storage section 8 is extracted and outputted through an output circuit 9.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ビデオカメラなどで撮
影された動画像の中から、代表的な画像を自動的に抽出
する静止画像抽出装置、およびそれに使用する動画像記
録媒体、さらには動画像記録装置および静止画像自動抽
出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a still image extracting device for automatically extracting a representative image from moving images captured by a video camera, a moving image recording medium used for the still image extracting device, and The present invention relates to a moving image recording device and a still image automatic extraction method.

【0002】[0002]

【従来の技術】従来の技術として、例えばVTRでは記
録された動画像を管理するための情報を、ビデオテープ
に動画像とともに記録するというものがある。一例とし
て、VISS(VHS Index Search System) について説
明する。VISSとは、VHS方式のVTRにおいて高
速頭出しを行うために開発されたものである。ビデオテ
ープには、通常の画像情報を記録するビデオトラック以
外に、この高速頭出しを行うためのVISS信号を記録
するコントロールトラックが存在する。このVISS信
号は、ビデオテープに画像情報を録画し始めたときに、
コントロールトラックに自動的に記録される。また、ユ
ーザが見たい場面に対してVISS信号を記録すること
もできる。このようにしてビデオテープ上に記録された
VISS信号を利用して、イントロサーチと呼ばれる早
送り再生を行うことができる。イントロサーチとは、早
送り中にVISS信号を見つけると、ある時間だけ再生
状態にし、その後再び早送りするという動作をテープの
終わりまで繰り返すものである。
2. Description of the Related Art As a conventional technique, for example, in a VTR, information for managing a recorded moving image is recorded on a video tape together with the moving image. As an example, a VISS (VHS Index Search System) will be described. VISS was developed for high-speed cueing in a VHS type VTR. The video tape has a control track for recording a VISS signal for performing this high-speed cueing, in addition to a video track for recording normal image information. This VISS signal is used when recording image information on a video tape.
Automatically recorded on the control track. It is also possible to record the VISS signal for the scene that the user wants to see. Using the VISS signal recorded on the video tape in this way, fast-forward reproduction called intro search can be performed. The intro search is a process in which when a VISS signal is found during fast-forwarding, the playback state is maintained for a certain time and then fast-forwarding is repeated until the end of the tape.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
VTRにおいて自動的に記録されるVISS信号は、ビ
デオテープに画像情報を録画し始めたときに記録される
ため、イントロサーチのようにVISS信号の付いてい
る部分の画像を抽出した場合、抽出された画像は動画像
の内容を十分に表現するものではない。また、動画像の
内容を十分に表現する部分にVISS信号を付与しよう
とすると、ユーザが手動で行わなければならず、膨大な
手間がかかる。
However, since the VISS signal automatically recorded in the conventional VTR is recorded when the image information is started to be recorded on the video tape, the VISS signal of the intro search is changed. When the image of the attached part is extracted, the extracted image does not sufficiently express the content of the moving image. In addition, if a VISS signal is to be added to a portion that sufficiently expresses the content of a moving image, the user has to do it manually, which takes a great deal of time and effort.

【0004】本発明はかかる点に鑑み、動画像の内容を
十分に表現する代表画像を自動的に抽出する静止画像抽
出装置、およびそれに使用する動画像記録媒体、さらに
は動画像記録装置および静止画像自動抽出方法を提供す
ることを目的とする。
In view of the above points, the present invention is directed to a still image extracting apparatus for automatically extracting a representative image that sufficiently expresses the content of a moving image, a moving image recording medium used for the still image extracting apparatus, and a moving image recording apparatus and still image. An object is to provide an image automatic extraction method.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するた
め、本発明の動画像記録媒体は、動画像を撮影する際に
撮影者がカメラを操作したカメラ操作情報が記憶された
カメラ操作情報記憶領域と、撮像した画像を処理して得
られた画像処理情報が記憶された画像処理情報記憶領域
と、センサーからの信号を処理して得られた撮影中の撮
影状態情報が記憶された撮影状態情報記憶領域の少なく
とも一つを備えた構成である。
In order to achieve the above object, a moving image recording medium of the present invention is a camera operation information storage in which camera operation information of a camera operated by a photographer at the time of shooting a moving image is stored. A region, an image processing information storage region that stores image processing information obtained by processing a captured image, and a shooting state that stores shooting state information during shooting obtained by processing a signal from a sensor This is a configuration including at least one of the information storage areas.

【0006】また本発明の静止画像抽出装置は、動画像
を撮影する際に撮影者がカメラを操作したカメラ操作情
報を取り込むカメラ操作情報獲得手段と、撮像した画像
を処理して得られた画像処理情報を取り込む画像処理情
報獲得手段と、センサーからの信号を処理して得られた
撮影中の撮影状態情報を取り込む撮影状態情報獲得手段
と、前記カメラ操作情報獲得手段からのカメラ操作情報
と前記画像処理情報獲得手段からの画像処理情報と前記
撮影状態情報獲得手段からの撮影状態情報の少なくとも
一つをもとにして、撮影者が撮影開始操作をしてから撮
影終了操作をするまでの間に撮影された動画像の中から
少なくとも1枚の静止画像を抽出する静止画像抽出手段
を備える。
Further, the still image extracting apparatus of the present invention includes a camera operation information acquisition means for taking in camera operation information of a camera operated by a photographer when capturing a moving image, and an image obtained by processing the captured image. Image processing information acquisition means for capturing processing information, shooting state information acquisition means for capturing shooting state information during shooting obtained by processing a signal from a sensor, camera operation information from the camera operation information acquisition means, and Based on at least one of the image processing information from the image processing information acquisition unit and the shooting state information from the shooting state information acquisition unit, from the time when the photographer performs the shooting start operation to the shooting end operation Still image extraction means is provided for extracting at least one still image from the moving images captured in step 1.

【0007】さらに本発明の動画像記録装置は、撮像装
置で撮影した動画像を動画像記録媒体に記録するととも
に、前記静止画像抽出手段で抽出した静止画像の情報を
記録する静止画像情報記録手段を備える。
Further, the moving image recording apparatus of the present invention records a moving image captured by the image pickup apparatus on a moving image recording medium, and also records still image information recording means for recording information of the still image extracted by the still image extracting means. Equipped with.

【0008】[0008]

【作用】以上のような構成において、撮影時における撮
影者のズームなどのカメラ操作情報や、画像処理を行っ
て得られる例えばフォーカスやアイリスの信頼性や被写
体の位置や障害物の存在状況などの画像処理情報や、セ
ンサーから得られる例えばパンなどの撮影状態情報をも
とにして評価を行い、評価値が高いか、もしくは一定の
条件を満足する画像を動画像の中から抽出する。これに
よって、抽出される静止画像は動画像の内容を十分に表
現したものとなる。
With the above structure, the camera operation information such as the zoom of the photographer at the time of photographing, the reliability of the focus and the iris obtained by performing the image processing, the position of the subject, the presence of obstacles, etc. An evaluation is performed based on image processing information and shooting state information such as pan obtained from a sensor, and an image having a high evaluation value or satisfying a certain condition is extracted from the moving image. As a result, the extracted still image sufficiently expresses the content of the moving image.

【0009】また、抽出した静止画像の情報を動画像と
ともに記録することによって、静止画像情報をもとに代
表画像を容易に検索したり、出力したりすることが可能
となる。
Further, by recording the information of the extracted still image together with the moving image, it becomes possible to easily retrieve or output the representative image based on the still image information.

【0010】[0010]

【実施例】以下、本発明の実施例について、図面を参照
しながら説明する。図1は本発明の動画像記録媒体の一
実施例を示すものである。図1は動画像記録媒体の一例
としてビデオテープを示すが、ビデオディスクやICメ
モリなどの他の記録媒体であってもよい。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an embodiment of a moving image recording medium of the present invention. Although FIG. 1 shows a video tape as an example of the moving image recording medium, it may be another recording medium such as a video disk or an IC memory.

【0011】図1に示すように、ビデオテープには映像
信号とともに、映像信号に対応してフレーム単位で代表
画像の抽出情報を各領域に記録しておく。ここで代表画
像の抽出情報とは、カメラ操作情報と画像処理情報と撮
影状態情報である。尚、ビデオテープのトラックの各領
域に記録する順序は、図に示す順序に限るものではない
ことは言うまでもない。
As shown in FIG. 1, on the video tape, along with the video signal, the extraction information of the representative image is recorded in each area in frame units corresponding to the video signal. Here, the extraction information of the representative image is camera operation information, image processing information, and shooting state information. It goes without saying that the order of recording in each area of the tracks of the video tape is not limited to the order shown in the figure.

【0012】カメラ操作とは、ビデオカメラで撮影した
際の録画開始操作やズーム操作、またはフェードや連写
などの撮影効果を出すための操作などであり、録画開始
操作情報は録画開始操作が行われた時点にフラグを立て
て録画開始点を示す情報であり、ズーム操作情報はズー
ム倍率を表す情報である。録画開始操作情報、ズーム操
作情報、フェード操作情報、連写操作情報はともに、ビ
デオカメラのボタン操作をもとに検出可能な情報であ
る。
[0012] The camera operation is an operation for starting recording or zooming when shooting with a video camera, or an operation for producing a shooting effect such as fade or continuous shooting. It is information indicating a recording start point by setting a flag at the time when the zoom operation is performed, and zoom operation information is information indicating a zoom magnification. The recording start operation information, the zoom operation information, the fade operation information, and the continuous shooting operation information are all information that can be detected based on the button operation of the video camera.

【0013】画像処理情報は撮像素子で撮像した映像信
号をもとにして自動的もしくは人間が関与して抽出処理
した情報で、例えばフォーカス制御を行うために求めた
映像信号の高周波成分の周波数や大きさ、またはフレー
ム間における輝度信号や色信号の差異を求めたフレーム
間差分値、または映像信号から被写体領域の位置や大き
さなどの情報を抽出したもの、逆光や過順光の状態、コ
ントラスト、さらにはγ補正値や色温度などである。
The image processing information is information which is automatically or based on a video signal picked up by an image pickup device and extracted by a human being. For example, the frequency of the high frequency component of the video signal obtained for performing focus control or The size, or the interframe difference value obtained by calculating the difference between the luminance signal and the chrominance signal between frames, or the information such as the position and size of the subject area extracted from the video signal, the state of backlight or over-light, and the contrast Further, it is a γ correction value and color temperature.

【0014】撮影状態情報はカメラの撮影状態をセンサ
ーで検出した情報で、例えば角速度センサーによって検
出したパンニングなどのカメラの動き情報、または光量
センサーによる被写体光量や絞り開度センサーで検出し
たレンズの絞り開度、またはレンズ位置検出によるフォ
ーカス距離、測距センサーなどによる被写体までの距離
などがある。
The photographing state information is information obtained by detecting the photographing state of the camera by a sensor, for example, camera movement information such as panning detected by an angular velocity sensor, or the light amount of an object detected by a light amount sensor or the aperture of a lens detected by an aperture opening sensor. For example, the opening distance or the focus distance by detecting the lens position, the distance to the subject by a distance measuring sensor, or the like.

【0015】以上のような代表画像抽出情報を動画像記
録媒体に備えることによって、以降の実施例で説明する
ように動画像中の代表画像を抽出することが可能とな
る。
By providing the moving image recording medium with the representative image extraction information as described above, it is possible to extract the representative image in the moving image as described in the following embodiments.

【0016】次に本発明の静止画像抽出装置の第1の実
施例について説明する。図2に本実施例の構成図を示
す。本実施例は、動画像記録媒体に映像信号とともに代
表画像を抽出するための情報を記録しておき、動画像記
録媒体から代表画像の抽出情報を読み出して評価し、評
価結果にもとづいて1カット(カメラにおいて録画開始
操作をしてから録画終了操作をするまでの間に連続して
撮影された動画像のかたまり)の中から代表的な画像を
静止画像として抽出するものである。
Next, a first embodiment of the still image extracting apparatus of the present invention will be described. FIG. 2 shows a block diagram of this embodiment. In this embodiment, information for extracting a representative image together with a video signal is recorded in a moving image recording medium, the extracted information of the representative image is read out from the moving image recording medium and evaluated, and one cut is made based on the evaluation result. A typical image is extracted as a still image from (a group of moving images continuously shot between the recording start operation and the recording end operation in the camera).

【0017】図2において、1は再生信号入力部、2は
カメラ操作情報獲得部、3は画像処理情報獲得部、4は
撮影状態情報獲得部、5は映像信号獲得部、6は代表画
像抽出情報評価部、7は代表画像管理部、8は代表画像
記憶部、9は出力装置である。以上の構成における各部
の動作について以下で詳細に説明する。
In FIG. 2, 1 is a reproduction signal input unit, 2 is a camera operation information acquisition unit, 3 is an image processing information acquisition unit, 4 is a shooting state information acquisition unit, 5 is a video signal acquisition unit, and 6 is a representative image extraction. An information evaluation unit, 7 is a representative image management unit, 8 is a representative image storage unit, and 9 is an output device. The operation of each unit in the above configuration will be described in detail below.

【0018】まず、再生信号入力部1には動画像記録媒
体に記録された情報を再生して入力する。カメラ操作情
報獲得部2および画像処理情報獲得部3および撮影状態
情報獲得部4では、再生信号入力部1に入力された再生
信号からそれぞれカメラ操作情報と画像処理情報と撮影
状態情報を読み出す。本実施例ではコード化された各情
報をデコードする。代表画像抽出情報評価部6は、カメ
ラ操作情報に含まれる録画開始操作情報を検出し、次の
録画開始操作情報を検出するまでの同一カット内の各画
像に対して、カメラ操作情報の中の録画開始操作情報以
外の情報と画像処理情報と撮影状態情報をもとに、各画
像がカットの代表画像として適当な画像であるかどうか
の評価を行う。代表画像として適当であると評価された
画像に関して、代表画像管理部7は映像信号獲得部5か
ら1フレームの画像を取り込み、代表画像記憶部8に記
憶する。出力装置9は代表画像記憶部8に記憶された代
表画像を取り出して出力するものであり、ディスプレイ
やプリンタなどである。なお、代表画像抽出情報評価部
6の動作については、後述の静止画像自動抽出方法の実
施例で詳細に説明する。
First, the reproduction signal input section 1 reproduces and inputs the information recorded on the moving image recording medium. The camera operation information acquisition unit 2, the image processing information acquisition unit 3, and the shooting state information acquisition unit 4 read camera operation information, image processing information, and shooting state information from the reproduction signal input to the reproduction signal input unit 1, respectively. In this embodiment, each coded information is decoded. The representative image extraction information evaluation unit 6 detects the recording start operation information included in the camera operation information, and for each image in the same cut until the next recording start operation information is detected, the representative image extraction information evaluation unit 6 Based on the information other than the recording start operation information, the image processing information, and the shooting state information, it is evaluated whether each image is an appropriate image as a representative image of cuts. Regarding the image evaluated as suitable as the representative image, the representative image management unit 7 takes in one frame image from the video signal acquisition unit 5 and stores it in the representative image storage unit 8. The output device 9 extracts and outputs the representative image stored in the representative image storage unit 8, and is a display, a printer, or the like. The operation of the representative image extraction information evaluation unit 6 will be described in detail in an example of a still image automatic extraction method described later.

【0019】以上の実施例では、動画像記録媒体に映像
信号とともに予め代表画像を抽出するための情報を記録
しておき、動画像記録媒体から代表画像の抽出情報を読
み出して代表画像を抽出する場合について説明を行っ
た。しかし、代表画像を抽出するための情報の一部もし
くは全部が動画像記録媒体に存在しない場合でも、動画
像記録媒体に記録された映像信号を処理することによっ
て、代表画像を抽出するための情報を獲得し、獲得した
情報をもとに代表画像を抽出することができる。これに
ついて以下の第2の実施例の静止画像抽出装置で詳細に
説明する。
In the above embodiment, the information for extracting the representative image is recorded in advance in the moving image recording medium together with the video signal, and the extraction information of the representative image is read from the moving image recording medium to extract the representative image. The case was explained. However, even if some or all of the information for extracting the representative image does not exist in the moving image recording medium, the information for extracting the representative image is processed by processing the video signal recorded in the moving image recording medium. The representative image can be extracted based on the acquired information. This will be described in detail in the still image extracting apparatus of the second embodiment below.

【0020】第2の実施例は、映像信号のみからすべて
の代表画像抽出情報を獲得するものである。図3に映像
信号から代表画像抽出情報を獲得する装置の構成例を示
す。図3で10はフレーム間差分値検出部、11はメモ
リ、12は変化量検出部、13はカットチェンジ検出
部、14はカメラワーク検出部、15は動きベクトル検
出部、16はカメラワークパラメータ推定部、17は被
写体情報検出部、18は動領域検出部、19は領域内特
徴量抽出部、20はフォーカス情報検出部、21は高域
通過フィルタ、22は平均値算出部、47はコントラス
ト情報検出部である。以上の構成における各部の動作に
ついて以下で詳細に説明する。
In the second embodiment, all representative image extraction information is acquired from only the video signal. FIG. 3 shows an example of the configuration of an apparatus that acquires representative image extraction information from a video signal. In FIG. 3, 10 is an inter-frame difference value detection unit, 11 is a memory, 12 is a change amount detection unit, 13 is a cut change detection unit, 14 is a camera work detection unit, 15 is a motion vector detection unit, and 16 is camera work parameter estimation. Reference numeral 17 is a subject information detection unit, 18 is a moving region detection unit, 19 is a region feature amount extraction unit, 20 is a focus information detection unit, 21 is a high-pass filter, 22 is an average value calculation unit, and 47 is contrast information. It is a detection unit. The operation of each unit in the above configuration will be described in detail below.

【0021】まず、フレーム間差分値検出部10および
カットチェンジ検出部13の動作について説明する。フ
レーム間差分値検出部10は、動画像信号を1フレーム
遅延させるためのメモリ11と、連続するフレーム間で
動画像信号の差分を求める変化量検出部12からなる。
動画像の連続するフレーム間の差を求める信号は輝度値
やrgb値などを用い、変化量検出部12において画素
単位で連続するフレーム間の画像信号の差分演算を行
い、画素ごとの差分値の総和を求めてフレーム間差分値
として出力する。カットチェンジ検出部13は、フレー
ム間差分値検出部10で求めたフレーム間差分値に対し
て閾値処理をする。すなわち、所定の閾値とフレーム間
差分値との比較を行い、フレーム間差分値が閾値より大
きい場合は、2枚のフレーム間で画像内容が大きく変化
していると考えて、その部分でカットチェンジがあった
と判断する。ビデオカメラでは、録画開始操作を行うこ
とによってカットチェンジが生じるため、逆に画像信号
からカットチェンジを検出することによって録画開始操
作を推定することができる。したがって、カットチェン
ジ検出部13では、閾値を越えるフレーム間差分値が検
出された時点で、録画開始操作情報を出力する。
First, the operations of the inter-frame difference value detecting section 10 and the cut change detecting section 13 will be described. The interframe difference value detection unit 10 includes a memory 11 for delaying the moving image signal by one frame, and a change amount detection unit 12 that obtains a difference between the moving image signals between consecutive frames.
A signal for obtaining a difference between consecutive frames of a moving image uses a luminance value, an rgb value, or the like, and the change amount detection unit 12 performs a difference calculation of image signals between consecutive frames in pixel units to obtain a difference value for each pixel. The sum is calculated and output as the interframe difference value. The cut change detection unit 13 performs threshold processing on the interframe difference value obtained by the interframe difference value detection unit 10. That is, a predetermined threshold value is compared with an inter-frame difference value, and if the inter-frame difference value is larger than the threshold value, it is considered that the image content is greatly changed between the two frames, and the cut change is performed at that portion. Judge that there was. In a video camera, a cut change occurs when a recording start operation is performed, and conversely, the recording start operation can be estimated by detecting the cut change from the image signal. Therefore, the cut change detection unit 13 outputs the recording start operation information when the inter-frame difference value exceeding the threshold value is detected.

【0022】なお、図3で示したフレーム間差分値検出
部10の構成は一例であり、図4で示すような他の構成
でもよい。図4で44は動画像信号の1フレームにおけ
る色ヒストグラムを求める色ヒストグラム検出部、45
は求めたヒストグラムを記憶するヒストグラムメモリ、
46は連続するフレーム間で色ヒストグラムの差異を検
出するヒストグラム差分検出部である。図4に示す構成
では、フレーム間で画素ごとの比較を行うのではなくフ
レーム全体で比較を行うものであるが、画面を複数のブ
ロックに分割し、ブロック単位でフレーム間の差分を求
める構成としてもよい。
The configuration of the inter-frame difference value detection unit 10 shown in FIG. 3 is an example, and another configuration as shown in FIG. 4 may be used. In FIG. 4, reference numeral 44 is a color histogram detection unit for obtaining a color histogram in one frame of the moving image signal, and 45.
Is a histogram memory that stores the obtained histogram,
Reference numeral 46 is a histogram difference detection unit that detects a difference in color histogram between consecutive frames. In the configuration shown in FIG. 4, the comparison is not performed for each pixel between frames but for the entire frame. However, the screen is divided into a plurality of blocks and the difference between the frames is obtained in block units. Good.

【0023】次にカメラワーク検出部14について説明
する。まず、動きベクトル検出部15の動作を説明す
る。図5は、検出する動きベクトルの画面内での位置を
説明するための図である。図5(a)は、全画面で水平、
垂直方向にM,N本の直線を格子状に配列した図であ
り、M・N個の交点は検出すべき動きベクトルの位置を
示している。以下M・N個の交点を格子点と呼び、水
平、垂直方向で各々i,j番目の格子点を、 格子点(i,j) (1≦i≦M,1≦j≦N) と呼ぶ。
Next, the camera work detecting section 14 will be described. First, the operation of the motion vector detection unit 15 will be described. FIG. 5 is a diagram for explaining the position of the detected motion vector on the screen. Figure 5 (a) shows
FIG. 7 is a diagram in which M and N straight lines are arranged in a grid pattern in the vertical direction, and the MN intersections indicate the positions of motion vectors to be detected. Hereinafter, the MN intersections are referred to as grid points, and the i and jth grid points in the horizontal and vertical directions are referred to as grid points (i, j) (1≤i≤M, 1≤j≤N). .

【0024】本実施例で格子点位置での動きベクトル
は、各格子点の周辺で複数の代表点を選び、代表点マッ
チングにより求める。図5(b)は、図5(a)の格子点
(i,j)近傍を拡大した図であり、格子点とその周辺
の(2・m+1)・(2・n+1)個の代表点の位置関係を示す。以
下、格子点(i,j)の代表点のうち、水平、垂直方向
にそれぞれk,l番目のものを、 代表点(i,j,k,l) (-m≦k≦m,-n≦l≦n) と呼ぶ。図5(b)からわかるように、代表点(i,j,
0,0)は格子点(i,j)に等しい。
In this embodiment, the motion vector at the grid point position is obtained by selecting a plurality of representative points around each grid point and performing representative point matching. FIG. 5 (b) is an enlarged view of the vicinity of the grid point (i, j) of FIG. 5 (a), where (2 · m + 1) · (2 · n + 1) grid points and their surroundings. The positional relationship of the representative points of is shown. Hereinafter, among the representative points of the grid point (i, j), the k-th and the l-th ones in the horizontal and vertical directions are represented by the representative point (i, j, k, l) (-m ≤ k ≤ m, -n ≦ l ≦ n). As can be seen from FIG. 5 (b), the representative points (i, j,
0,0) is equal to the grid point (i, j).

【0025】以下、動きベクトル検出部15の具体的な
ブロック図を示した図6を用いて、動きベクトルを求め
る方法を説明する。動きベクトル検出部15の入力は映
像信号であり、rフレームに1回(r:所定数)入力さ
れるように設定されているとする。ここで、ある時刻t
の画像を第0フレーム目の画像とし、以後、時刻(t+
τ)の画像を第(30・τ)フレーム目の画像と呼ぶこ
とにする。
A method of obtaining a motion vector will be described below with reference to FIG. 6 showing a concrete block diagram of the motion vector detecting section 15. It is assumed that the input of the motion vector detecting unit 15 is a video signal and is set to be input once (r: a predetermined number) in r frames. Here, a certain time t
Image as the image of the 0th frame, and after that, at time (t +
The image of τ) will be called the image of the (30 · τ) th frame.

【0026】今、第Rフレーム目の画像が入力されたも
のとする。入力画像はまず、BPF23においてバンド
パスフィルタに通される。ここで座標位置(x,y)で
のBPF処理後の画像の値をI(x,y)とする。
Now, it is assumed that the image of the Rth frame has been input. The input image is first passed through a bandpass filter in the BPF 23. Here, the value of the image after the BPF processing at the coordinate position (x, y) is set to I (x, y).

【0027】一方、代表点値記憶部24は、rフレーム
前すなわち第(R−r)フレーム目のBPF処理後の画
像の代表点の値が記憶されている。すなわち、代表点
(i,j,k,l)の値Y(i,j,k,l)が記憶される。
On the other hand, the representative point value storage unit 24 stores the value of the representative point of the image before the r frame, that is, after the BPF processing of the (R−r) th frame. That is, the value Y (i, j, k, l) of the representative point (i, j, k, l) is stored.

【0028】 Y(i,j,k,l)=I(pos_x(i,k),pos_y(j,l)) 1≦i≦M,1≦j≦N,-m≦k≦m,ーn≦l≦n pos_x(i,k):代表点(i,j,k,l)のx座標 pos_y(i,k):代表点(i,j,k,l)のy座標 マッチング部25は、BPF23からBPF処理後の画
像I(x,y)を、代表点値記憶部24からrフレーム
前の代表点の値Y(i,j,k,l)を入力し、代表点マッチン
グにより各格子点での動きベクトルを求める。即ち、格
子点(i,j)に関して、以下の(数1)で示すよう
に、Kが最小となるg,hを(2・G)・(2・H)の範囲内(−G
≦g≦G,−H≦h≦H)で探索することにより、動き
ベクトル(g,h)が求まる。
Y (i, j, k, l) = I (pos_x (i, k), pos_y (j, l)) 1 ≦ i ≦ M, 1 ≦ j ≦ N, −m ≦ k ≦ m,- n ≦ l ≦ n pos_x (i, k): x coordinate of the representative point (i, j, k, l) pos_y (i, k): y coordinate of the representative point (i, j, k, l) Matching unit 25 Inputs the image I (x, y) after the BPF processing from the BPF 23 and the value Y (i, j, k, l) of the representative point before r frames from the representative point value storage unit 24, and performs the representative point matching. The motion vector at each grid point is calculated. That is, for the grid point (i, j), as shown in the following (Equation 1), g and h where K is the minimum are within the range of (2G) (2H) (-G).
≦ g ≦ G, −H ≦ h ≦ H), the motion vector (g, h) is obtained.

【0029】[0029]

【数1】 [Equation 1]

【0030】代表点値記憶部24の内容は、マッチング
部25の処理が終了した後、更新される。具体的には、
代表点位置記憶部26において記憶されている代表点の
座標 pos_x(i,j,k,l)、pos_y(i,j,k,l) 1≦i≦M,1≦j≦N,-m≦k≦m,ーn≦l≦n を用いて、第Rフレーム目のBPF処理後の画像の代表
点での値を記録する。
The contents of the representative point value storage section 24 are updated after the processing of the matching section 25 is completed. In particular,
Coordinates pos_x (i, j, k, l) and pos_y (i, j, k, l) of the representative points stored in the representative point position storage unit 26 1 ≦ i ≦ M, 1 ≦ j ≦ N, -m The value at the representative point of the image after the BPF processing of the Rth frame is recorded by using ≤k≤m and -n≤l≤n.

【0031】以上のようにして、入力された画像とrフ
レーム前の画像の2枚の画像から動きベクトルを求める
ことができる。
As described above, the motion vector can be obtained from the two images, the input image and the image r frames before.

【0032】次に、カメラワークパラメータ推定部16
において、動きベクトルからカメラワークパラメータを
推定する方法を説明する。
Next, the camera work parameter estimation unit 16
In, a method of estimating a camerawork parameter from a motion vector will be described.

【0033】動画像から推定できるカメラワークは、カ
メラの水平、垂直方向の変化(パンニング、チルティン
グ)、カメラ画角の変化(ズーミング)、カメラの水平
・垂直・前後の位置の変化(トラッキング、ブーミン
グ、ドリーイング)などが考えられる。本実施例では簡
単のため、パンニング、チルティング、ズーミングの3
種類の操作を推定する方法を説明する。
Camera work that can be estimated from a moving image includes horizontal and vertical changes of the camera (panning and tilting), changes in the angle of view of the camera (zooming), changes in the horizontal / vertical / forward and backward positions of the camera (tracking, Booming, dolling) etc. are considered. In this embodiment, for simplicity, panning, tilting, and zooming are performed.
A method for estimating the type of operation will be described.

【0034】まず、上記3種類のカメラワークによっ
て、カメラの撮像面に投影された点がどのように移動す
るか考える。図7はカメラの撮像面と被写体の位置関係
を示す図であり、カメラの空間の3次元座標を(x,y,z)
で表し、撮像面上の2次元座標を(X,Y)で表してい
る。また、カメラの位置を3次元座標の原点とし、カメ
ラの光軸をz軸とする。撮像面はz=F(F:焦点距
離)に位置し、被写体の任意の点の座標u1=(x1,y
1,z1)が撮像面のU1=(X1,Y1)に投影されるこ
とを示している。ここで被写体の座標と撮像面上の座標
との関係は、(数2)で表せる。
First, consider how the points projected on the image pickup surface of the camera move by the above three types of camera work. FIG. 7 is a diagram showing the positional relationship between the imaging surface of the camera and the subject, and the three-dimensional coordinates in the space of the camera are (x, y, z).
, And the two-dimensional coordinates on the imaging surface are represented by (X, Y). Further, the position of the camera is the origin of the three-dimensional coordinates, and the optical axis of the camera is the z axis. The imaging plane is located at z = F (F: focal length), and the coordinates u1 = (x1, y) of an arbitrary point on the subject.
1, z1) is projected onto U1 = (X1, Y1) on the imaging surface. Here, the relationship between the coordinates of the subject and the coordinates on the imaging surface can be expressed by (Equation 2).

【0035】[0035]

【数2】 [Equation 2]

【0036】図7の座標を用いて、まずズーミングによ
る、被写体の座標の撮像面上の移動を考える。図8(a)
は、焦点距離の変化によって起こるズーミングを示した
ものである。同図に示すように、焦点距離がFからF’
に変化したとき、u1の被写体の投影がU1=(X1,Y
1)からU2=(X2,Y2)に移動する。ただし、(数
2)からU2はU2=U1・F’/F=f・U1を満たす。
ただし、f=F’/Fである。
First, using the coordinates of FIG. 7, consider the movement of the coordinates of the object on the image pickup surface by zooming. Figure 8 (a)
Shows zooming caused by a change in focal length. As shown in the figure, the focal length is from F to F '.
, The projection of the subject of u1 is U1 = (X1, Y
Move from 1) to U2 = (X2, Y2). However, from (Equation 2), U2 satisfies U2 = U1 · F ′ / F = f · U1.
However, f = F '/ F.

【0037】同様にして図8(b)を用いてパンニング、
チルティングの場合を考える。パンニング、チルティン
グはそれぞれカメラをy軸、x軸について回転する操作
に等しい。同図のようにカメラがx軸についてθxだけ
回転した場合、被写体の空間での座標u1はu3に移動す
る。ただし、u3は(数3)をみたす。
Similarly, using FIG. 8B, panning,
Consider the case of tilting. Panning and tilting are equivalent to rotating the camera about the y-axis and the x-axis, respectively. When the camera rotates about the x-axis by θx as shown in the figure, the coordinate u1 in the space of the subject moves to u3. However, u3 satisfies (Equation 3).

【0038】[0038]

【数3】 [Equation 3]

【0039】xに関する回転角θxが十分小さいと仮定
すると、移動後の撮像面上の座標U3=(X3,Y3)に対
して(数2)の関係から X3=X1、Y3=Y1+F・θx の関係が導かれる。これを一般化すると、x軸、y軸に
対してともに回転するカメラ操作の場合、任意の座標の
操作前後の関係は以下のように表すことができる。
Assuming that the rotation angle θx with respect to x is sufficiently small, the coordinate U3 = (X3, Y3) on the image plane after movement is expressed by the relationship of (Equation 2): X3 = X1, Y3 = Y1 + F · θx Relationship is guided. Generalizing this, in the case of a camera operation in which both the x-axis and the y-axis rotate, the relationship before and after the operation of arbitrary coordinates can be expressed as follows.

【0040】U3=U1+P ただし、P=(px,py) px、py:x軸、y軸の回転成分 以上のことからズーミング、パンニング、チルティング
を合成した一般的なカメラ操作に対して、カメラ操作前
後の座標U1=(X1,Y1)、U’=(X’,Y’)は
U’=f・U+Pを満たすことがわかる。以後fをズー
ム要素、Pを回転ベクトルと呼ぶ。従って、ズーム要素
と回転ベクトルを求めることにより、カメラの操作量を
推定することができることがわかる。
U3 = U1 + P However, P = (px, py) px, py: rotational components of x-axis and y-axis From the above, the camera operation is different from the general camera operation in which zooming, panning and tilting are combined. It can be seen that the coordinates U1 = (X1, Y1) and U ′ = (X ′, Y ′) before and after the operation satisfy U ′ = f · U + P. Hereinafter, f is called a zoom element and P is called a rotation vector. Therefore, it is understood that the operation amount of the camera can be estimated by obtaining the zoom element and the rotation vector.

【0041】以下に、動きベクトル検出部15で求めた
動きベクトルから、ズーム要素と回転ベクトルを推定す
る方法を説明する。ここで、格子点(i,j)に関し
て、位置(2次元座標)をUi,j、動きベクトル検出部
15で求められた動きベクトルをvi,jとする。今、ズ
ーム要素f、回転ベクトルPのカメラ操作が起こったと
き、格子点(i,j)は U’i,j(f,P)=f・Ui,j +P の位置に移動するはずである。従って実際に起こったカ
メラ操作のf、Pを推定するには、実際に移動した位置 Ureali,j=Ui,j+vi,j との誤差 E(f,P)=Σ(U’i,j(f,P)−Ureali,j)2 が最小になるようなf、Pを求めればよい。誤差Eは
f、Pに関して2次式なので、誤差Eを最小とするf、
Pは(数4)に示すように一意に決まる。
A method of estimating the zoom element and the rotation vector from the motion vector obtained by the motion vector detecting section 15 will be described below. Here, with respect to the lattice point (i, j), the position (two-dimensional coordinate) is Ui, j, and the motion vector obtained by the motion vector detection unit 15 is vi, j. Now, when the camera operation of the zoom element f and the rotation vector P occurs, the grid point (i, j) should move to the position of U'i, j (f, P) = f · Ui, j + P. . Therefore, in order to estimate f and P of the actual camera operation, the error E (f, P) = Σ (U'i, j with the actually moved position U real i, j = Ui, j + vi, j It suffices to find f and P such that (f, P) -U real i, j) 2 is minimized. Since the error E is a quadratic equation with respect to f and P, f, which minimizes the error E,
P is uniquely determined as shown in (Equation 4).

【0042】[0042]

【数4】 [Equation 4]

【0043】但し、<・,・>は内積を示す。したがっ
て、カメラワークパラメータ推定部16では、動きベク
トル検出部15から動きベクトルvi,jと格子点位置U
i,jを入力し、(数4)を用いてf,Pを計算することに
より、ズーミング、パンニング、チルティングの各カメ
ラワークパラメータを推定することができる。
However, <·, ·> indicates an inner product. Therefore, in the camerawork parameter estimation unit 16, the motion vector detection unit 15 detects the motion vector vi, j and the grid point position U.
By inputting i, j and calculating f, P using (Equation 4), each camera work parameter of zooming, panning, and tilting can be estimated.

【0044】次に被写体情報検出部17の動作について
説明する。被写体情報検出部17はビデオカメラで被写
体をトラッキングしている状態において、被写体の位置
や大きさ、色などの被写体情報を抽出するものである。
すなわち、カメラワーク検出部14でパンニングを検出
し、さらに動領域検出部18で動領域を検出できた場合
に対して、領域内特徴量抽出部19で動領域から領域内
の特徴量を抽出する。動領域検出部18における動作を
さらに詳述する。
Next, the operation of the subject information detecting section 17 will be described. The subject information detection unit 17 extracts subject information such as the position, size, and color of the subject while the subject is being tracked by the video camera.
That is, when the camerawork detection unit 14 detects panning and the moving region detection unit 18 can detect a moving region, the in-region characteristic amount extraction unit 19 extracts the characteristic amount in the region from the moving region. . The operation of the moving area detector 18 will be described in more detail.

【0045】動領域検出部18には、動きベクトル検出
部15で検出した画面内のM・N個の格子点の動きベク
トルvi,jと、カメラワーク検出部14で検出したパン
ニングによるカメラの動きベクトルVp が入力される。
動領域検出部18では、(数5)を満たす格子点を抽出
し、抽出した格子点の連結関係にもとづいて、パンニン
グによるカメラの動きベクトルとは異なる領域を抽出す
る。
The motion area detecting unit 18 detects the motion vectors vi, j of M / N lattice points in the screen detected by the motion vector detecting unit 15 and the motion of the camera by the panning detected by the camera work detecting unit 14. The vector Vp is input.
The moving area detection unit 18 extracts grid points that satisfy (Equation 5) and extracts an area different from the motion vector of the camera by panning based on the connection relationship of the extracted grid points.

【0046】[0046]

【数5】 [Equation 5]

【0047】領域内特徴量抽出部19では、動領域検出
部18で検出した動領域から領域内の特徴量として、重
心位置と面積と色を抽出する。
The in-region feature amount extraction unit 19 extracts the center of gravity position, area, and color from the moving region detected by the moving region detection unit 18 as the feature amount in the region.

【0048】次にフォーカス情報検出部20の動作につ
いて説明する。フォーカス情報検出部20は画像のピン
ボケ状態を検出するためのもので、画像の高周波成分の
量をもとにしている。すなわち、画像がレンズの焦点ず
れなどでぼけた状態では映像信号の高周波成分の値が小
さくなる。このため、高域通過フィルタ21で画像の高
周波成分を取り出し、平均値算出部22で画面全体、も
しくは指定領域内での高周波成分の平均値を求める構成
としている。
Next, the operation of the focus information detector 20 will be described. The focus information detector 20 is for detecting the out-of-focus state of the image, and is based on the amount of high frequency components of the image. That is, the value of the high frequency component of the video signal becomes small when the image is blurred due to defocus of the lens or the like. Therefore, the high-pass filter 21 takes out the high-frequency component of the image, and the average value calculation unit 22 obtains the average value of the high-frequency component in the entire screen or in the designated area.

【0049】次にコントラスト情報検出部47の動作に
ついて説明する。コントラスト情報の検出は、輝度ヒス
トグラム検出部48で1フレームの輝度ヒストグラムを
求め、求めたヒストグラムをもとにヒストグラム偏り量
検出部49でヒストグラムの偏りを検出し、これをコン
トラスト情報とする。ここでヒストグラムの偏りの尺度
の一例としては、輝度ヒストグラムの低輝度部分と高輝
度部分の度数の多い方の値とする。なお、ヒストグラム
の偏りの尺度はこれに限ったものではなく、典型的な輝
度のヒストグラム分布からのずれ量などとしてもよい。
Next, the operation of the contrast information detecting section 47 will be described. To detect the contrast information, the brightness histogram detection unit 48 obtains a one-frame brightness histogram, the histogram bias amount detection unit 49 detects the bias of the histogram based on the obtained histogram, and this is used as the contrast information. Here, as an example of the histogram bias, a value having a higher frequency in the low luminance portion and the high luminance portion of the luminance histogram is set. Note that the histogram bias scale is not limited to this, and may be a deviation amount from a typical luminance histogram distribution.

【0050】以上のようにして映像信号を処理すること
によって、代表画像を抽出するための情報を獲得するこ
とができる。本実施例ではγ補正値、色温度、逆光や過
順光状態、被写体光量などについては記載しなかった
が、これらの情報も映像信号を処理することによって獲
得することができる。代表画像を抽出するための情報を
獲得した後、獲得した情報をもとに代表画像を抽出する
構成と手法については静止画像抽出装置の第1の実施例
と同様であり、説明は省略する。
By processing the video signal as described above, the information for extracting the representative image can be obtained. In the present embodiment, the γ correction value, color temperature, backlight or over-illumination state, subject light amount, etc. were not described, but these information can also be obtained by processing the video signal. The structure and method for acquiring the information for extracting the representative image and then extracting the representative image based on the acquired information are the same as those in the first embodiment of the still image extracting apparatus, and the description thereof will be omitted.

【0051】以上説明した代表画像抽出情報を獲得する
装置は、動画像記録媒体に代表画像を抽出するための情
報が存在しない場合に、動画像記録媒体から読み込んだ
映像信号をもとにして代表画像抽出情報を獲得するもの
であったが、同様にしてビデオカメラで撮影中に、撮像
素子から取り込んだ映像信号をもとにして代表画像抽出
情報を獲得することもできる。この場合の構成は図3と
同様であり説明は省略するが、ビデオカメラに備えたセ
ンサーによって検出可能な代表画像抽出情報が存在する
場合は、映像信号から代表画像抽出情報を獲得する必要
がないことはいうまでもない。さらに、ビデオカメラで
撮影中に獲得した代表画像抽出情報は、映像信号ととも
に動画像記録媒体に記録してもよい。
The apparatus for acquiring the representative image extraction information described above represents the representative image based on the video signal read from the moving image recording medium when the information for extracting the representative image does not exist in the moving image recording medium. Although the image extraction information is obtained, similarly, the representative image extraction information can be obtained based on the video signal taken in from the image pickup device during photographing by the video camera. Although the configuration in this case is similar to that of FIG. 3 and the description thereof is omitted, it is not necessary to acquire the representative image extraction information from the video signal when the representative image extraction information that can be detected by the sensor included in the video camera exists. Needless to say. Further, the representative image extraction information acquired during shooting with the video camera may be recorded in the moving image recording medium together with the video signal.

【0052】次に本発明の動画像記録装置の実施例の構
成を図9に示す。本実施例はビデオカメラに静止画像抽
出装置を備えた構成であり、ビデオカメラで撮影中に代
表画像として抽出する静止画像を決定し、動画像記録媒
体に映像信号を記録するとともに抽出する静止画像の情
報を記録するものである。図9で本実施例の動画像記録
装置27は、カメラ操作情報獲得部28、画像処理情報
獲得部29、撮影状態情報獲得部30、映像信号獲得部
31、代表画像抽出情報評価部32、静止画像情報記録
部33、映像信号記録部34からなる。以上の構成にお
ける各部の動作について以下で詳細に説明する。
FIG. 9 shows the arrangement of an embodiment of the moving image recording apparatus of the present invention. In this embodiment, the video camera is provided with a still image extracting device, and a still image to be extracted as a representative image is determined during shooting by the video camera, a video signal is recorded on a moving image recording medium, and the still image is extracted. The information of is recorded. In FIG. 9, the moving image recording apparatus 27 of this embodiment includes a camera operation information acquisition unit 28, an image processing information acquisition unit 29, a shooting state information acquisition unit 30, a video signal acquisition unit 31, a representative image extraction information evaluation unit 32, and a still image. The image information recording unit 33 and the video signal recording unit 34 are included. The operation of each unit in the above configuration will be described in detail below.

【0053】カメラ操作情報獲得部28は、ビデオカメ
ラで撮影した際の録画開始操作やズーム操作、またはフ
ェードや連写などの撮影効果を出すための操作などの情
報を獲得する部分である。録画開始操作情報は録画開始
操作が行われた時点にフラグを立てて録画開始点を示す
情報であり、ズーム操作情報はズーム倍率を表す情報で
ある。録画開始操作情報、ズーム操作情報、フェード操
作情報、連写操作情報はともに、ビデオカメラのボタン
操作をもとに検出する。画像処理情報獲得部29は、撮
像素子で撮像した映像信号を処理した情報を獲得する部
分で、例えばフォーカス制御を行うために求めた映像信
号の高周波成分の周波数や大きさ、またはフレーム間に
おける輝度信号や色信号の差異を求めたフレーム間差分
値、または映像信号から求めた被写体領域の位置や大き
さなどの情報、逆光や過順光の状態、コントラスト、さ
らにはγ補正値や色温度などを抽出する。撮影状態情報
獲得部30は、カメラの撮影状態をセンサーで検出した
情報を獲得する部分で、例えば角速度センサーによって
検出したパンニングなどのカメラの動き情報、または光
量センサーによる被写体光量や絞り開度センサーで検出
したレンズの絞り開度、またはレンズ位置検出によるフ
ォーカス距離、測距センサーなどによる被写体までの距
離などを獲得する。
The camera operation information acquisition section 28 is a section for acquiring information such as a recording start operation or a zoom operation when shooting with a video camera, or an operation for producing a shooting effect such as fade or continuous shooting. The recording start operation information is information indicating a recording start point by setting a flag when the recording start operation is performed, and the zoom operation information is information indicating a zoom magnification. The recording start operation information, the zoom operation information, the fade operation information, and the continuous shooting operation information are all detected based on the button operation of the video camera. The image processing information acquisition unit 29 is a part that acquires information obtained by processing a video signal captured by an image sensor, and is, for example, the frequency or magnitude of the high frequency component of the video signal obtained for performing focus control, or the brightness between frames. Difference value between frames obtained from the difference between the signals and color signals, or information such as the position and size of the subject area obtained from the video signal, backlit and overlit conditions, contrast, and γ correction value and color temperature To extract. The shooting state information acquisition unit 30 is a unit that acquires information obtained by detecting the shooting state of the camera with a sensor. For example, camera movement information such as panning detected by an angular velocity sensor, or a subject light amount or aperture opening sensor with a light amount sensor. Acquires the detected aperture of the lens, the focus distance by detecting the lens position, the distance to the subject by a distance measuring sensor, and the like.

【0054】代表画像抽出情報評価部32は、カメラ操
作情報に含まれる録画開始操作情報を検出し、次の録画
開始操作情報を検出するまでの同一カット内の各画像に
対して、カメラ操作情報の中の録画開始操作情報以外の
情報と画像処理情報と撮影状態情報をもとに、各画像が
カットの代表画像として適当な画像であるかどうかの評
価を行う。代表画像として適当であると評価された画像
に関して、静止画像情報記録部33を介して静止画像情
報を記録媒体35の静止画像情報記録媒体に記録する。
なお、代表画像抽出情報評価部32の動作については、
後述の静止画像自動抽出方法の実施例で詳細に説明す
る。
The representative image extraction information evaluation unit 32 detects the recording start operation information included in the camera operation information, and the camera operation information for each image in the same cut until the next recording start operation information is detected. Based on the information other than the recording start operation information, the image processing information, and the shooting state information, it is evaluated whether each image is an appropriate image as a representative image of cuts. Regarding the image evaluated as suitable as the representative image, still image information is recorded on the still image information recording medium of the recording medium 35 via the still image information recording unit 33.
Regarding the operation of the representative image extraction information evaluation unit 32,
This will be described in detail in an embodiment of a still image automatic extraction method described later.

【0055】以下では、静止画像情報記録部33で記録
する静止画像情報についてさらに説明する。静止画像情
報とは、代表画像抽出情報評価部32で代表画像として
適当であると評価された静止画像そのもの、または縮小
などの画像処理したもの、または静止画像に対応する動
画像記録媒体上の格納位置情報、または静止画像に対応
する動画像に付与したフラグなどである。
The still image information recorded by the still image information recording section 33 will be further described below. The still image information is the still image itself that has been evaluated as suitable as a representative image by the representative image extraction information evaluation unit 32, image processing such as reduction, or storage on a moving image recording medium corresponding to the still image. It is position information or a flag added to a moving image corresponding to a still image.

【0056】静止画像情報が静止画像そのもの、または
縮小した画像の場合は、映像信号獲得部31と映像信号
記録部34によってカメラで撮影した動画像を記録する
動画像記録媒体上の記録位置とは異なる位置、または動
画像を記録する動画像記録媒体とは異なる記録媒体に静
止画像情報である画像を記録する。たとえば動画像記録
媒体がビデオテープの場合は、静止画像情報の画像だけ
をまとめてテープの先頭部分、もしくはテープの終端部
分に記録するか、またはテープとは別に備えたICメモ
リに静止画像情報だけを記録する。
When the still image information is the still image itself or a reduced image, what is the recording position on the moving image recording medium for recording the moving image captured by the camera by the video signal acquisition unit 31 and the video signal recording unit 34? An image, which is still image information, is recorded at a different position or a recording medium different from a moving image recording medium that records a moving image. For example, when the moving image recording medium is a video tape, only the still image information images are collectively recorded at the beginning portion of the tape or the end portion of the tape, or only the still image information is stored in an IC memory provided separately from the tape. To record.

【0057】静止画像情報が静止画像に対応する動画像
記録媒体上の格納位置情報の場合は、映像信号獲得部3
1と映像信号記録部34によってカメラで撮影した動画
像を記録する動画像記録媒体上の記録位置とは異なる位
置、または動画像を記録する動画像記録媒体とは異なる
記録媒体に、静止画像情報である静止画像に対応する動
画像記録媒体上の格納位置情報を記録する。
When the still image information is the storage position information on the moving image recording medium corresponding to the still image, the video signal acquisition unit 3
1 and still image information on a recording medium different from the recording position on the moving image recording medium on which the moving image recorded by the camera is recorded by the video signal recording unit 34 or on a recording medium different from the moving image recording medium on which the moving image is recorded. The storage position information on the moving image recording medium corresponding to the still image is recorded.

【0058】静止画像情報が静止画像に対応する動画像
に付与したフラグの場合は、映像信号獲得部31と映像
信号記録部34によってカメラで撮影した動画像を記録
する動画像記録媒体上の記録位置と同じ位置に静止画像
情報を記録する。すなわち、たとえば1フレーム単位で
記録する映像信号の先頭部分に静止画像情報のフラグを
記録する。
When the still image information is a flag added to the moving image corresponding to the still image, recording on the moving image recording medium for recording the moving image photographed by the camera by the image signal acquisition unit 31 and the image signal recording unit 34. The still image information is recorded at the same position as the position. That is, for example, the flag of the still image information is recorded at the beginning of the video signal recorded in 1-frame units.

【0059】以上のようにしてビデオカメラで撮影した
映像信号を動画像記録媒体に記録するとともに、撮影し
た動画像の中から代表画像を抽出し、代表画像の静止画
像情報を記録媒体に記録する。これによって記録された
静止画像情報を読みだして代表画像をディスプレイやプ
リンタに出力することが可能となる。
As described above, the video signal captured by the video camera is recorded in the moving image recording medium, the representative image is extracted from the captured moving image, and the still image information of the representative image is recorded in the recording medium. . This makes it possible to read the recorded still image information and output the representative image to a display or a printer.

【0060】次に本発明における静止画像自動抽出方法
の実施例を説明する。静止画像自動抽出方法は、図2の
代表画像抽出情報評価部6および図9の代表画像抽出情
報評価部32における処理方法である。
Next, an embodiment of the still image automatic extraction method according to the present invention will be described. The still image automatic extraction method is a processing method in the representative image extraction information evaluation unit 6 of FIG. 2 and the representative image extraction information evaluation unit 32 of FIG.

【0061】本発明の静止画像自動抽出方法は、録画開
始操作をしてから録画終了操作をするまでの間に連続し
て撮影された動画像の中から、代表的な画像を静止画像
として自動的に抽出するものである。ここで代表的な画
像とは、撮影者の意図、撮影された画像の状態、被写体
の状態をもとに評価して選びだした画像をいう。
The still image automatic extracting method of the present invention automatically selects a typical image as a still image from the moving images continuously photographed between the recording start operation and the recording end operation. To be extracted. Here, the representative image is an image selected by evaluation based on the intention of the photographer, the state of the image taken, and the state of the subject.

【0062】撮影者の意図は、ズームやパンなどのカメ
ラワークに反映される。すなわち、ズームインしている
ときは、注目している被写体が画面に存在する場合であ
り、重要な画像と考えられる。また、パンしているとき
は、ある場面から別の場面に移動している最中であり、
重要ではないと考えられる。さらに、パンしている場合
でも、トラッキングしている被写体が存在する場合は、
重要であると考えられる。このようにカメラワークから
撮影者の意図を推定し、重要な部分を代表画像として抽
出することが望ましい。
The photographer's intention is reflected in camera work such as zooming and panning. That is, when zooming in, the subject of interest exists on the screen, and is considered to be an important image. Also, when panning, you are moving from one scene to another,
Not considered important. Furthermore, even if you are panning, if there is an object you are tracking,
Considered to be important. In this way, it is desirable to estimate the intention of the photographer from the camera work and extract the important part as the representative image.

【0063】撮影された画像の状態とは、撮影時にフォ
ーカス制御がうまく行われていない場合のぼけた画像状
態や、アイリス制御が不適切な場合の過順光や逆光の状
態、さらにはγ補正が不適切な場合などの状態、コント
ラストの悪い状態、または絞りやフォーカスの調整中の
状態などをいう。これらの画像状態は、ビデオカメラで
の撮影時におけるフォーカス制御やアイリス制御の情
報、またはγ補正値をもとに判断することができる。ま
た、フォーカス制御やアイリス制御、γ補正、コントラ
ストの情報がない場合であっても、映像信号を処理する
ことによって求めることが可能である。これらの画像状
態を評価して、代表画像としては画像状態が良好なもの
を抽出することが望ましい。
The state of the photographed image is a blurred image state when focus control is not properly performed at the time of photographing, a state of excessive forward light or backlight when iris control is inadequate, and gamma correction. Is a state such as when the value is inappropriate, a state where the contrast is poor, or a state where the aperture or focus is being adjusted. These image states can be determined based on information of focus control and iris control at the time of shooting with a video camera, or a γ correction value. Further, even if there is no information on focus control, iris control, γ correction, and contrast, it can be obtained by processing the video signal. It is desirable to evaluate these image states and extract a representative image having a good image state.

【0064】被写体の状態とは、撮影している被写体の
位置や大きさなどの状態、撮影中にカメラの前を人が横
切った場合などの障害物の存在状況、撮影中にフラッシ
ュが光った場合などの状態、被写体にスポットライトが
照射されている状態などをいう。被写体の位置や大きさ
に関しては、位置がカメラの中央で面積が大きいほうが
望ましく、障害物は存在しない方が望ましい。また、フ
ラッシュが光った場合の画像は代表画像として抽出しな
い方が望ましい。また、スポットライトが照射されてい
る画像は注目画像であり、代表画像として抽出すること
が望ましい。
The state of the subject means the position and size of the subject being photographed, the presence of obstacles such as when a person crosses the front of the camera during photographing, and the flash flashes during photographing. A case or the like, a state in which a subject is illuminated by a spotlight, or the like. Regarding the position and size of the subject, it is desirable that the position is large in the center of the camera and the area is large, and it is desirable that there is no obstacle. Further, it is desirable not to extract the image when the flash is emitted as the representative image. Further, the image illuminated by the spotlight is the image of interest, and it is desirable to extract it as a representative image.

【0065】ここで、被写体の位置や面積の検出方法に
関しては、第3の実施例において図3の被写体情報検出
部17で説明している。また、フラッシュや障害物の検
出方法に関しては、図3のフレーム間差分値検出部10
で求めたフレーム間差分値をもとに検出可能である。す
なわち、フラッシュはフレーム間差分値が急変するた
め、所定のしきい値をもとに検出できる。障害物の場合
は、画面の中に障害物が入るときと画面から障害物が出
るときにフレーム間差分値が変化するため、フレーム間
差分値が所定のしきい値を越えてから、所定の時間内に
再びフレーム間差分値がしきい値を越える場合は、障害
物が画面内に存在するとして検出できる。また、スポッ
トライトの照射は、被写体光量をもとに検出することが
できる。
Here, the method of detecting the position and area of the object has been described in the object information detecting section 17 of FIG. 3 in the third embodiment. Further, regarding the method of detecting the flash and the obstacle, the inter-frame difference value detection unit 10 of FIG.
It is possible to detect based on the inter-frame difference value obtained in. That is, in the flash, the inter-frame difference value changes abruptly, so that the flash can be detected based on a predetermined threshold. In the case of an obstacle, the interframe difference value changes when the obstacle enters the screen and when the obstacle exits from the screen. If the inter-frame difference value again exceeds the threshold value within the time, it can be detected that an obstacle exists in the screen. The irradiation of the spotlight can be detected based on the light amount of the subject.

【0066】以上のような代表画像を抽出するための知
識に基づいて、以下では具体的な代表画像の抽出手法を
説明する。本実施例の構成例を図10に示す。図10で
36は重み付け加算部、37はゲート信号発生部、38
はゲート部、39は最大値検出部である。重み付け加算
部36にはズーム倍率と被写体情報が入力され、それぞ
れの信号に重みを付けて加算する。ここで、被写体情報
はカメラで被写体をトラッキングしているときに得られ
る情報で、トラッキング時の被写体の位置と大きさをも
とにしている。被写体情報は、被写体位置がカメラの中
心に近いほど、また被写体の面積が大きいほど大きな値
になるようにする。ゲート部38は、ゲート信号発生部
37のゲート信号をもとにスイッチのオン、オフを行
う。最大値検出部39は、ゲート部38から入力される
値の最大値を検出する。
Based on the knowledge for extracting the representative image as described above, a specific representative image extracting method will be described below. A configuration example of this embodiment is shown in FIG. In FIG. 10, 36 is a weighted addition section, 37 is a gate signal generation section, 38
Is a gate unit, and 39 is a maximum value detection unit. The zoom magnification and the subject information are input to the weighting addition unit 36, and the respective signals are weighted and added. Here, the subject information is information obtained when the subject is being tracked by the camera, and is based on the position and size of the subject at the time of tracking. The subject information has a larger value as the subject position is closer to the center of the camera and as the subject area is larger. The gate unit 38 turns on and off the switch based on the gate signal of the gate signal generation unit 37. The maximum value detecting unit 39 detects the maximum value of the values input from the gate unit 38.

【0067】ゲート信号発生部37は、パン信号と映像
信号の高周波成分値とフレーム間差分値などをもとにゲ
ート信号を発生する。ゲート信号の発生方法を図11に
示す。図11(a)はパン信号で、パンニング中が0
で、パンしていないときが1となる信号である。(b)
は映像信号の高周波成分値であり、値が小さいほど画像
がぼけた状態であることを意味する。(c)は(b)の
信号をしきい値処理して2値化したものであり、しきい
値以下の場合は0にしている。(d)はフレーム間差分
値である。(e)は(d)の信号をしきい値処理し、し
きい値以上の場合は0にし、さらに(d)の信号がしき
い値を越えてから所定時間内に再びしきい値を越えた場
合は、0と0の間の区間も0にする処理を行う。
The gate signal generator 37 generates a gate signal based on the high frequency component values of the pan signal and the video signal, the interframe difference value, and the like. A method of generating the gate signal is shown in FIG. FIG. 11A shows a pan signal, which is 0 during panning.
Thus, the signal is 1 when not panning. (B)
Is the high frequency component value of the video signal, and the smaller the value, the more blurred the image. (C) is a signal obtained by thresholding the signal of (b) and binarizing it. When the signal is below the threshold, it is set to zero. (D) is a difference value between frames. (E) thresholds the signal of (d), sets it to 0 when it is above the threshold, and exceeds the threshold again within a predetermined time after the signal of (d) exceeds the threshold. In the case where the value is 0, the processing for setting the interval between 0 to 0 is also performed.

【0068】すなわち、単独でフレーム間差分値が大き
くなる場合は、フラッシュなどによる画像異常が発生し
たものと判断し、フレーム間差分値がしきい値以上であ
る期間だけ0にする。しかし、前述したように障害物が
カメラの前を通過する場合には、フレーム間差分値は複
数のピークをとるため、障害物が画面の中に存在する期
間はフレーム間差分値がしきい値以下であっても0にす
る。以上のようにして2値化した(a)(c)(e)の
3信号の論理積をとることによって、ゲート信号を発生
する。
That is, when the inter-frame difference value alone becomes large, it is determined that an image abnormality due to flash or the like has occurred, and it is set to 0 only during the period when the inter-frame difference value is equal to or more than the threshold value. However, as described above, when the obstacle passes in front of the camera, the inter-frame difference value takes a plurality of peaks, so the inter-frame difference value is the threshold value during the period when the obstacle is present in the screen. Even if it is less than or equal to 0, it is set to 0. A gate signal is generated by taking the logical product of the three signals (a), (c), and (e) that are binarized as described above.

【0069】以上のようにして図10で示した構成で評
価値が最大値となる画像を求めることによって、パンし
ている期間や画像がぼけた期間、さらにフラッシュや障
害物が存在する期間を除いた中から、ズーム倍率が高
く、被写体が画面中央に大きく写っている画像を代表画
像として抽出することができる。なお、最大値検出部3
9で最大値を検出するのは、1カット全体であっても、
または1カット内の複数の区間であってもよい。
As described above, by obtaining the image having the maximum evaluation value with the configuration shown in FIG. 10, the panning period, the image blurring period, and the period in which a flash or an obstacle exists is determined. An image in which the zoom magnification is high and the subject is largely reflected in the center of the screen can be extracted as a representative image from the removed images. The maximum value detection unit 3
The maximum value is detected in 9 even if the whole one cut
Alternatively, it may be a plurality of sections within one cut.

【0070】なお、図10では重み付け加算部36とゲ
ート信号発生部37とゲート部38の構成によって複数
の入力からひとつの評価値を求めているが、この構成に
限ったものではなく、ファジィ推論などのルールに基づ
いたものや、ニューラルネットワークによって求める構
成も可能である。さらに、本実施例の構成にはγ補正値
や被写体光量、逆光や過順光状態、絞り開度、コントラ
スト、フォーカス距離に関する情報の処理を示さなかっ
たが、これらの信号も同様にして利用することができ
る。すなわち、γ補正値や絞り開度やフォーカス距離の
値が変動しているとき、また逆光や過順光状態のときに
は代表画像として抽出しないようにゲート信号を発生さ
せてもよい。また、被写体光量からスポットライトが照
射されていることを検出して評価値を高くするようにし
てもよい。
Note that in FIG. 10, one evaluation value is obtained from a plurality of inputs by the configuration of the weighting addition unit 36, the gate signal generation unit 37, and the gate unit 38, but the present invention is not limited to this configuration, and fuzzy inference is possible. It is possible to use a rule based on such rules, or a configuration obtained by a neural network. Further, although the processing of the information regarding the γ correction value, the light amount of the subject, the backlight or over-forwarding condition, the aperture opening, the contrast, and the focus distance is not shown in the configuration of the present embodiment, these signals are also used in the same manner. be able to. That is, the gate signal may be generated so as not to be extracted as the representative image when the γ correction value, the aperture opening value, or the focus distance value is fluctuating, or when the backlight or over-illumination state occurs. Alternatively, the evaluation value may be increased by detecting that the spotlight is emitted from the amount of light of the subject.

【0071】図12に静止画像自動抽出方法の他の構成
例を示す。本実施例ではズーム倍率やフレーム間差分値
などの入力情報から評価値を算出し、各評価値に重み付
け加算を行った総合評価値の最大値を求める構成であ
る。図12において、50は評価値算出部であり、各入
力情報に対して評価値を求める。例えば入力情報がズー
ム倍率であれば、倍率が高いほど高い評価値を出力す
る。また、入力情報がフレーム間差分値であれば、差分
値が小さいほど高い評価値を出力する。また、入力情報
がコントラストであれば、コントラストが高いほど高い
評価値を出力する。
FIG. 12 shows another configuration example of the still image automatic extraction method. In this embodiment, the evaluation value is calculated from the input information such as the zoom magnification and the inter-frame difference value, and each evaluation value is weighted and added to obtain the maximum total evaluation value. In FIG. 12, reference numeral 50 is an evaluation value calculation unit that calculates an evaluation value for each input information. For example, when the input information is the zoom magnification, the higher the magnification, the higher the evaluation value is output. If the input information is the inter-frame difference value, the smaller the difference value is, the higher the evaluation value is output. If the input information is contrast, the higher the contrast, the higher the evaluation value is output.

【0072】以上のようにして図12で示した構成で評
価値が最大値となる画像を求めることによって、コント
ラストが高くて画像がぼけておらず、さらにフラッシュ
や障害物が存在するような画像ではなく、ズーム倍率が
高く、被写体が画面中央に大きく写っている画像を代表
画像として抽出することができる。
As described above, by obtaining the image having the maximum evaluation value with the configuration shown in FIG. 12, the image is high in contrast and the image is not blurred, and there is a flash or an obstacle. Instead, an image having a high zoom magnification and a large subject in the center of the screen can be extracted as a representative image.

【0073】以上の実施例では静止画像を抽出する際
に、ズーム倍率と被写体情報のひとつである被写体の大
きさは独立な情報として利用する構成であったが、本実
施例の静止画像自動抽出方法では、ズーム倍率と被写体
距離から被写体の相対的な大きさに関連した評価値を推
定して静止画像を自動抽出する構成である。
In the above embodiment, when the still image is extracted, the zoom magnification and the size of the subject, which is one of the subject information, are used as independent information. In the method, the still image is automatically extracted by estimating the evaluation value related to the relative size of the subject from the zoom magnification and the subject distance.

【0074】撮像装置で撮像された被写体の大きさはズ
ーム倍率に比例し、被写体距離に反比例する。したがっ
て、撮影中の被写体が同一であれば、撮像された被写体
の相対的な大きさはズーム倍率と被写体距離から推定で
きる。
The size of the object imaged by the imaging device is proportional to the zoom magnification and inversely proportional to the object distance. Therefore, if the subject being photographed is the same, the relative size of the photographed subject can be estimated from the zoom magnification and the subject distance.

【0075】本実施例の静止画像自動抽出方法の構成を
図13に示す。図13で51は評価値算出部であり、5
1aはズーム倍率と被写体距離を入力として被写体の相
対的な大きさに関連した評価値を出力する評価値算出部
である。以下、評価値算出部51aの動作についてさら
に詳しく説明する。
FIG. 13 shows the configuration of the still image automatic extraction method of this embodiment. In FIG. 13, 51 is an evaluation value calculation unit, and 5
Reference numeral 1a is an evaluation value calculation unit that inputs a zoom magnification and an object distance and outputs an evaluation value related to the relative size of the object. Hereinafter, the operation of the evaluation value calculation unit 51a will be described in more detail.

【0076】いま、ズーム倍率の最大値をZmax 、被写
体距離として対象とする範囲内の最大距離をDmax とす
る。このとき、被写体距離として対象とする範囲内の最
小距離は、Dmax/Zmax となる。ここで評価値算出部
51aにズーム倍率zと被写体距離dが入力されると、
s=z・Dmax/dに基づいて評価値sが求められる。
Now, let us say that the maximum value of the zoom magnification is Zmax, and the maximum distance within the target range as the object distance is Dmax. At this time, the minimum distance within the target range as the subject distance is Dmax / Zmax. Here, when the zoom magnification z and the subject distance d are input to the evaluation value calculation unit 51a,
The evaluation value s is obtained based on s = z · Dmax / d.

【0077】尚、d≧Dmax のときd=Dmax、d≦Dm
ax/Zmax のときd=Dmax/Zmaxである。このように
して求めた評価値sは、撮像された被写体の大きさに比
例した値となる。
When d ≧ Dmax, d = Dmax, d ≦ Dm
When ax / Zmax, d = Dmax / Zmax. The evaluation value s thus obtained is a value proportional to the size of the imaged subject.

【0078】以上のようにして評価値算出部51で求め
た評価値をもとに、重み付け加算部36、最大値検出部
39から代表画像を抽出する方法は前実施例ですでに述
べた通りであり、説明は省略する。なお、本実施例で代
表画像を抽出するために利用している入力情報はズーム
倍率と被写体距離以外には、コントラストとフレーム間
差分値のみであるが、高周波成分などその他の入力情報
を用いてもよい。
The method for extracting the representative image from the weighting addition unit 36 and the maximum value detection unit 39 based on the evaluation value obtained by the evaluation value calculation unit 51 as described above is as described in the previous embodiment. Therefore, the description is omitted. The input information used to extract the representative image in this embodiment is only the contrast and the inter-frame difference value in addition to the zoom magnification and the subject distance, but other input information such as a high-frequency component is used. Good.

【0079】また、被写体距離の検出は赤外線センサー
や超音波センサーなどの測距センサーを用いて直接検出
する方法や、または合焦時のフォーカスレンズ位置をも
とに被写体距離を演算して算出する方法がある。
Further, the object distance is detected by a method of directly detecting it using a distance measuring sensor such as an infrared sensor or an ultrasonic sensor, or by calculating the object distance based on the focus lens position at the time of focusing. There is a way.

【0080】以上説明した静止画像自動抽出方法の実施
例の構成は、撮影者が撮影開始操作をしてから撮影終了
操作をするまでの間に撮影された動画像のすべてに対し
て評価を行って代表画像を抽出しているが、撮影者が撮
影開始操作をしてから所定時間経過後の画像から評価を
行い、所定の条件を満足した時点の画像を代表画像とし
て抽出する構成でもよい。以下ではこの構成の実施例に
ついて説明する。
In the configuration of the embodiment of the still image automatic extraction method described above, all the moving images photographed between the photographing start operation and the photographing end operation by the photographer are evaluated. Although the representative image is extracted by the photographer, the image may be evaluated after a lapse of a predetermined time after the photographer starts the photographing operation, and the image at the time when the predetermined condition is satisfied may be extracted as the representative image. An example of this configuration will be described below.

【0081】本実施例の構成を図14に示す。図14に
おいて、40はタイマー、41はゲート部、42は評価
部である。タイマー40は、撮影開始操作が行われてか
らの経過時間を測定し、撮影開始から一定時間が経過し
た時点でゲート部41のゲートを開くようにゲート信号
を発生する。評価部42はゲート部41を通過したフォ
ーカスの高周波成分値と、フレーム間差分値が条件を満
足しているかどうかの評価を行う。評価部42での条件
は、フォーカスの高周波成分値が所定のしきい値以上
で、かつフレーム間差分値が所定のしきい値以下である
という条件である。評価部42では条件が満足された時
点でそれ以降の評価を中止し、条件が満足された時点の
静止画像を代表画像として抽出する。なお、本実施例で
は評価に用いた信号はフォーカスの高周波成分値とフレ
ーム間差分値のふたつだけであるが、パンやズームなど
の他の信号を用いてもよい。
The structure of this embodiment is shown in FIG. In FIG. 14, 40 is a timer, 41 is a gate unit, and 42 is an evaluation unit. The timer 40 measures the elapsed time after the shooting start operation is performed, and generates a gate signal to open the gate of the gate unit 41 when a certain time has elapsed from the start of shooting. The evaluation unit 42 evaluates whether the high-frequency component value of the focus that has passed through the gate unit 41 and the inter-frame difference value satisfy the conditions. The condition in the evaluation unit 42 is that the high frequency component value of focus is equal to or higher than a predetermined threshold value and the inter-frame difference value is equal to or lower than the predetermined threshold value. When the condition is satisfied, the evaluation unit 42 stops the subsequent evaluation and extracts a still image at the time when the condition is satisfied as a representative image. In this embodiment, the signals used for evaluation are only the high-frequency component value of focus and the inter-frame difference value, but other signals such as pan and zoom may be used.

【0082】さらに静止画像自動抽出方法の別の実施例
の構成を説明する。本実施例の構成を図15に示し、図
14と同一のものには同一番号を付け説明は省略する。
本実施例は、撮影開始操作から撮影終了操作までの間に
撮影された画像の数に一定比率を乗じた画像数から評価
を行い、所定の条件を満足した時点の画像を代表画像と
して抽出するものである。図15の構成では撮影開始操
作から撮影終了操作までの間に撮影された画像に対し、
中間フレーム以降の画像を評価するものである。このた
めに中間フレーム検出部43において、撮影開始操作か
ら撮影終了操作までに撮影されたフレームの中間フレー
ムを検出し、中間フレームを検出した時点でゲート部4
1のゲートを開くようにゲート信号を発生する。ゲート
部41および評価部42の動作は図14の構成と同様で
あり、説明は省略する。
Further, the configuration of another embodiment of the still image automatic extraction method will be described. The structure of this embodiment is shown in FIG. 15, and the same parts as those in FIG.
In the present embodiment, evaluation is performed from the number of images obtained by multiplying the number of images captured between the image capturing start operation and the image capturing end operation by a fixed ratio, and the image at the time when a predetermined condition is satisfied is extracted as a representative image. It is a thing. In the configuration of FIG. 15, for images captured between the shooting start operation and the shooting end operation,
The image after the intermediate frame is evaluated. Therefore, the intermediate frame detection unit 43 detects an intermediate frame of frames captured from the shooting start operation to the shooting end operation, and when the intermediate frame is detected, the gate unit 4 is detected.
Generate a gate signal to open the gate of 1. The operations of the gate unit 41 and the evaluation unit 42 are the same as those in the configuration of FIG.

【0083】[0083]

【発明の効果】以上説明したように、本発明の動画像記
録媒体は、画像抽出情報を備えることによって、画像抽
出情報をもとにして動画像記録媒体に記録された動画像
中の代表画像を容易に抽出することが可能となる。
As described above, the moving image recording medium of the present invention is provided with the image extraction information, so that the representative image in the moving images recorded in the moving image recording medium based on the image extraction information. Can be easily extracted.

【0084】また、本発明の静止画像抽出装置は、画像
抽出情報をもとにして、動画像の中から動画像の内容を
十分に表現する静止画像を代表画像として抽出すること
が可能となり、動画像の内容を短時間で把握することが
できる。
Further, the still image extracting apparatus of the present invention can extract a still image that sufficiently expresses the content of the moving image as a representative image from the moving image based on the image extraction information. It is possible to grasp the content of the moving image in a short time.

【0085】さらに、本発明の動画像記録装置は、カメ
ラで撮影した映像信号を動画像記録媒体に記録するとと
もに、撮影した動画像の中から代表画像を抽出し、代表
画像の静止画像情報を記録媒体に記録することによっ
て、記録された静止画像情報を読みだして代表画像をデ
ィスプレイやプリンタに高速に出力することが可能とな
る。
Further, the moving image recording apparatus of the present invention records the video signal photographed by the camera in the moving image recording medium, extracts the representative image from the photographed moving image, and obtains the still image information of the representative image. By recording on a recording medium, it is possible to read the recorded still image information and output the representative image to a display or a printer at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の動画像記録媒体を示す図FIG. 1 is a diagram showing a moving image recording medium according to an embodiment of the present invention.

【図2】本発明の第1の実施例の静止画像抽出装置の構
成を示すブロック図
FIG. 2 is a block diagram showing a configuration of a still image extracting apparatus according to the first embodiment of the present invention.

【図3】本発明の第2の実施例の静止画像抽出装置にお
ける代表画像情報抽出装置の構成を示すブロック図
FIG. 3 is a block diagram showing a configuration of a representative image information extracting device in a still image extracting device according to a second embodiment of the present invention.

【図4】第2の実施例におけるフレーム間差分値検出部
の他の構成を示すブロック図
FIG. 4 is a block diagram showing another configuration of an interframe difference value detection unit in the second embodiment.

【図5】(a)は第2の実施例の静止画像自動抽出装置
における動きベクトル検出部における動きベクトルを検
出する格子点を示す図 (b)は図5(a)の格子点(i,j)近傍を拡大した図
5A is a diagram showing grid points for detecting a motion vector in a motion vector detection unit in the still image automatic extraction apparatus according to the second embodiment; FIG. 5B is a grid point (i, j) Enlarged view of the neighborhood

【図6】第2の実施例における動きベクトル検出部の構
成を示すブロック図
FIG. 6 is a block diagram showing the configuration of a motion vector detection unit in the second embodiment.

【図7】カメラの撮像面と被写体の位置関係を示す図FIG. 7 is a diagram showing a positional relationship between an imaging surface of a camera and a subject.

【図8】(a)はズーミングでのカメラの撮像面と被写
体の位置関係を示す図 (b)はチルティングでのカメラの撮像面と被写体の位
置関係を示す図
FIG. 8A is a diagram showing a positional relationship between an image pickup surface of a camera and a subject in zooming. FIG. 8B is a diagram showing a positional relation between an image pickup surface of a camera and a subject in tilting.

【図9】本発明の実施例の動画像記録装置の構成を示す
ブロック図
FIG. 9 is a block diagram showing a configuration of a moving image recording apparatus according to an embodiment of the present invention.

【図10】本発明の第1の実施例の静止画像自動抽出方
法の代表画像抽出情報評価部の構成を示すブロック図
FIG. 10 is a block diagram showing the configuration of a representative image extraction information evaluation unit of the still image automatic extraction method according to the first embodiment of the present invention.

【図11】(a)〜(e)は本発明の第1の実施例の静
止画像自動抽出方法のゲート信号発生部の動作を示す図
11A to 11E are diagrams showing the operation of the gate signal generator in the still image automatic extraction method according to the first embodiment of the present invention.

【図12】本発明の第2の実施例の静止画像自動抽出方
法の代表画像抽出情報評価部の構成を示すブロック図
FIG. 12 is a block diagram showing the configuration of a representative image extraction information evaluation unit of a still image automatic extraction method according to the second embodiment of the present invention.

【図13】本発明の第3の実施例の静止画像自動抽出方
法の代表画像抽出情報評価部の構成を示すブロック図
FIG. 13 is a block diagram showing a configuration of a representative image extraction information evaluation unit of a still image automatic extraction method according to a third embodiment of the present invention.

【図14】本発明の第4の実施例の静止画像自動抽出方
法の代表画像抽出情報評価部の構成を示すブロック図
FIG. 14 is a block diagram showing a configuration of a representative image extraction information evaluation section of a still image automatic extraction method according to a fourth example of the present invention.

【図15】本発明の第5の実施例の静止画像自動抽出方
法の代表画像抽出情報評価部の構成を示すブロック図
FIG. 15 is a block diagram showing a configuration of a representative image extraction information evaluation section of a still image automatic extraction method according to a fifth example of the present invention.

【符号の説明】[Explanation of symbols]

1 再生信号入力部 2 カメラ操作情報獲得部 3 画像処理情報獲得部 4 撮影状態情報獲得部 5 映像信号獲得部 6 代表画像抽出情報評価部 7 代表画像管理部 8 代表画像記憶部 9 出力装置 28 カメラ操作情報獲得部 29 画像処理情報獲得部 30 撮影状態情報獲得部 31 映像信号獲得部 32 代表画像抽出情報評価部 33 静止画像情報記録部 36 重み付け加算部 37 ゲート信号発生部 38 ゲート部 39 最大値検出部 40 タイマー 41 ゲート部 42 評価部 43 中間フレーム検出部 50 評価値算出部 51 評価値算出部 1 reproduction signal input unit 2 camera operation information acquisition unit 3 image processing information acquisition unit 4 shooting state information acquisition unit 5 video signal acquisition unit 6 representative image extraction information evaluation unit 7 representative image management unit 8 representative image storage unit 9 output device 28 camera Operation information acquisition unit 29 Image processing information acquisition unit 30 Imaging state information acquisition unit 31 Video signal acquisition unit 32 Representative image extraction information evaluation unit 33 Still image information recording unit 36 Weighting addition unit 37 Gate signal generation unit 38 Gate unit 39 Maximum value detection Unit 40 timer 41 gate unit 42 evaluation unit 43 intermediate frame detection unit 50 evaluation value calculation unit 51 evaluation value calculation unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 5/91 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location H04N 5/91

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】動画像を撮影する際に撮影者がカメラを操
作したカメラ操作情報が記憶されたカメラ操作情報記憶
領域と、撮像した画像を処理して得られた画像処理情報
が記憶された画像処理情報記憶領域と、センサーからの
信号を処理して得られた撮影中の撮影状態情報が記憶さ
れた撮影状態情報記憶領域の少なくとも一つを備えたこ
とを特徴とする動画像記録媒体。
1. A camera operation information storage area in which camera operation information of a camera operated by a photographer when shooting a moving image and image processing information obtained by processing the captured image are stored. A moving image recording medium comprising at least one of an image processing information storage area and a shooting state information storage area in which shooting state information during shooting obtained by processing a signal from a sensor is stored.
【請求項2】動画像を撮影する際に撮影者がカメラを操
作したカメラ操作情報を取り込むカメラ操作情報獲得手
段と、撮像した画像を処理して得られた画像処理情報を
取り込む画像処理情報獲得手段と、センサーからの信号
を処理して得られた撮影中の撮影状態情報を取り込む撮
影状態情報獲得手段と、前記カメラ操作情報獲得手段か
らのカメラ操作情報と前記画像処理情報獲得手段からの
画像処理情報と前記撮影状態情報獲得手段からの撮影状
態情報の少なくとも一つをもとにして、撮影者が撮影開
始操作をしてから撮影終了操作をするまでの間に撮影さ
れた動画像の中から少なくとも1枚の静止画像を抽出す
る静止画像抽出手段を備えたことを特徴とする静止画像
抽出装置。
2. A camera operation information acquisition means for acquiring camera operation information of a camera operated by a photographer when shooting a moving image, and an image processing information acquisition for acquiring image processing information obtained by processing the captured image. Means, a shooting state information acquisition means for capturing shooting state information during shooting obtained by processing a signal from the sensor, camera operation information from the camera operation information acquisition means, and an image from the image processing information acquisition means. Based on at least one of the processing information and the shooting state information from the shooting state information acquisition means, among the moving images shot between the shooting start operation and the shooting end operation by the photographer. A still image extracting device comprising a still image extracting means for extracting at least one still image from the image.
【請求項3】動画像を撮影する際に撮影者がカメラを操
作したカメラ操作情報を取り込むカメラ操作情報獲得手
段と、撮像した画像を処理して得られた画像処理情報を
取り込む画像処理情報獲得手段と、センサーからの信号
を処理して得られた撮影中の撮影状態情報を取り込む撮
影状態情報獲得手段と、前記カメラ操作情報獲得手段か
らのカメラ操作情報と前記画像処理情報獲得手段からの
画像処理情報と前記撮影状態情報獲得手段からの撮影状
態情報の少なくとも一つをもとにして、撮影者が撮影開
始操作をしてから撮影終了操作をするまでの間に撮影さ
れた動画像の中から少なくとも1枚の静止画像を抽出す
る静止画像抽出手段と、撮像装置で撮影した動画像を動
画像記録媒体に記録するとともに、前記静止画像抽出手
段で抽出した静止画像の情報を記録する静止画像情報記
録手段を備えることを特徴とする動画像記録装置。
3. A camera operation information acquisition means for acquiring camera operation information of a camera operated by a photographer when shooting a moving image, and an image processing information acquisition for acquiring image processing information obtained by processing the captured image. Means, a shooting state information acquisition means for capturing shooting state information during shooting obtained by processing a signal from the sensor, camera operation information from the camera operation information acquisition means, and an image from the image processing information acquisition means. Based on at least one of the processing information and the shooting state information from the shooting state information acquisition means, among the moving images shot between the shooting start operation and the shooting end operation by the photographer. A still image extracting means for extracting at least one still image from the still image, a moving image captured by the image pickup device is recorded in a moving image recording medium, and a still image extracted by the still image extracting means. Moving picture recording apparatus comprising: a still image information recording means for recording information of images.
【請求項4】撮影者が撮影開始操作をしてから撮影終了
操作をするまでの間に撮影された動画像の中から少なく
とも1枚の静止画像を抽出するために、撮像装置のズー
ムや撮影開始操作などのカメラ操作情報と撮像した画像
を処理して得られた画像処理情報とセンサーからの信号
を処理して得られた撮影中の撮影状態情報の少なくとも
一つを入力とし、静止画像抽出知識にもとづいて各画像
についての評価値を求め、評価値が高い画像を抽出する
ことを特徴とする静止画像自動抽出方法。
4. A zoom or image pickup of an image pickup device for extracting at least one still image from a moving image shot by a photographer between a shooting start operation and a shooting end operation. At least one of camera operation information such as start operation, image processing information obtained by processing the captured image, and shooting state information during shooting obtained by processing the signal from the sensor is input and still image extraction An automatic still image extraction method characterized by obtaining an evaluation value for each image based on knowledge and extracting an image having a high evaluation value.
【請求項5】撮影者が撮影開始操作をしてから撮影終了
操作をするまでの間に撮影された動画像の中から少なく
とも1枚の静止画像を抽出するために、撮像装置のカメ
ラ操作情報と撮像した画像を処理して得られた画像処理
情報とセンサーからの信号を処理して得られた撮影中の
撮影状態情報の少なくとも一つを入力とし、前記カメラ
操作情報もしくは前記画像処理情報もしくは前記撮影状
態情報が抽出条件を満足した画像を抽出することを特徴
とする静止画像自動抽出方法。
5. Camera operation information of an image pickup device for extracting at least one still image from a moving image shot between a shooting start operation and a shooting end operation by a photographer. And at least one of the image processing information obtained by processing the captured image and the shooting state information during shooting obtained by processing the signal from the sensor, and inputting the camera operation information or the image processing information or An automatic still image extracting method, characterized in that an image whose extraction condition information satisfies an extraction condition is extracted.
【請求項6】撮影者が撮影開始操作をしてから撮影終了
操作をするまでの間に撮影された動画像の中から少なく
とも1枚の静止画像を抽出するために、撮影開始操作か
ら一定時間経過後の画像に対して、撮像装置のズームな
どのカメラ操作情報と撮像した画像を処理して得られた
画像処理情報とセンサーからの信号を処理して得られた
撮影中の撮影状態情報の少なくとも一つを入力とし、前
記カメラ操作情報もしくは前記画像処理情報もしくは前
記撮影状態情報が抽出条件を満足した画像を抽出するこ
とを特徴とする請求項5記載の静止画像自動抽出方法。
6. A certain period of time from a shooting start operation in order to extract at least one still image from the moving images taken between the shooting start operation and the shooting end operation by the photographer. For the image after the elapse, the camera operation information such as the zoom of the imaging device, the image processing information obtained by processing the captured image, and the shooting state information during shooting obtained by processing the signal from the sensor 6. The automatic still image extraction method according to claim 5, wherein at least one of the inputs is input, and an image in which the camera operation information, the image processing information, or the shooting state information satisfies an extraction condition is extracted.
【請求項7】撮影者が撮影開始操作をしてから撮影終了
操作をするまでの間に撮影された動画像の中から少なく
とも1枚の静止画像を抽出するために、撮影開始操作か
ら撮影終了操作までの間に撮影された画像の数に一定比
率を乗じた画像数以降に撮影された画像に対して、撮像
装置のズームなどのカメラ操作情報と撮像した画像を処
理して得られた画像処理情報とセンサーからの信号を処
理して得られた撮影中の撮影状態情報の少なくとも一つ
を入力とし、前記カメラ操作情報もしくは前記画像処理
情報もしくは前記撮影状態情報が抽出条件を満足した画
像を抽出することを特徴とする請求項5記載の静止画像
自動抽出方法。
7. A shooting start operation to a shooting end in order to extract at least one still image from the moving images taken by the photographer between the shooting start operation and the shooting end operation. An image obtained by processing camera operation information such as the zoom of the imaging device and the captured image for the image captured after the number of images obtained by multiplying the number of images captured by the operation by a certain ratio An image in which at least one of the shooting state information during shooting obtained by processing the signal from the processing information and the sensor is input, and the image in which the camera operation information, the image processing information, or the shooting state information satisfies the extraction condition is input. The still image automatic extraction method according to claim 5, wherein the still image automatic extraction method is performed.
JP14012894A 1994-06-22 1994-06-22 Still image extraction device, moving image recording device, and still image automatic extraction method Expired - Fee Related JP3525493B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14012894A JP3525493B2 (en) 1994-06-22 1994-06-22 Still image extraction device, moving image recording device, and still image automatic extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14012894A JP3525493B2 (en) 1994-06-22 1994-06-22 Still image extraction device, moving image recording device, and still image automatic extraction method

Publications (2)

Publication Number Publication Date
JPH089314A true JPH089314A (en) 1996-01-12
JP3525493B2 JP3525493B2 (en) 2004-05-10

Family

ID=15261554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14012894A Expired - Fee Related JP3525493B2 (en) 1994-06-22 1994-06-22 Still image extraction device, moving image recording device, and still image automatic extraction method

Country Status (1)

Country Link
JP (1) JP3525493B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11176037A (en) * 1997-12-05 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for recording and reproducing video and recording medium in which video recording and reproducing program is recorded
JP2003032600A (en) * 2001-07-18 2003-01-31 Canon Inc Image processing unit, index preparing system, index preparing method, recording medium and program
JP2008109339A (en) * 2006-10-25 2008-05-08 Ikegami Tsushinki Co Ltd Thumbnail image detecting method in camera video image
JP2010011145A (en) * 2008-06-27 2010-01-14 Canon Inc Imaging device and method
US8600219B2 (en) 2000-07-13 2013-12-03 Sony Corporation Video-signal recording and playback apparatus, video-signal recording and playback method, and recording medium
JP2017112487A (en) * 2015-12-16 2017-06-22 三菱電機株式会社 On-vehicle display control device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012142645A (en) * 2009-04-28 2012-07-26 Mitsubishi Electric Corp Audio/video reproducing apparatus, audio/video recording and reproducing apparatus, audio/video editing apparatus, audio/video reproducing method, audio/video recording and reproducing method, and audio/video editing apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11176037A (en) * 1997-12-05 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for recording and reproducing video and recording medium in which video recording and reproducing program is recorded
US8600219B2 (en) 2000-07-13 2013-12-03 Sony Corporation Video-signal recording and playback apparatus, video-signal recording and playback method, and recording medium
JP2003032600A (en) * 2001-07-18 2003-01-31 Canon Inc Image processing unit, index preparing system, index preparing method, recording medium and program
JP4497761B2 (en) * 2001-07-18 2010-07-07 キヤノン株式会社 Image processing apparatus and index creation method
JP2008109339A (en) * 2006-10-25 2008-05-08 Ikegami Tsushinki Co Ltd Thumbnail image detecting method in camera video image
JP2010011145A (en) * 2008-06-27 2010-01-14 Canon Inc Imaging device and method
JP2017112487A (en) * 2015-12-16 2017-06-22 三菱電機株式会社 On-vehicle display control device

Also Published As

Publication number Publication date
JP3525493B2 (en) 2004-05-10

Similar Documents

Publication Publication Date Title
KR100215586B1 (en) Digest image auto-generating apparatus and digest image auto-generating method
US7742690B2 (en) Imaging apparatus and method for processing imaging results
JP4268220B2 (en) Imaging apparatus, imaging method, and program
JP5589527B2 (en) Imaging apparatus and tracking subject detection method
US7453506B2 (en) Digital camera having a specified portion preview section
JP3733392B2 (en) Image composition change detection method
JPH08191411A (en) Scene discrimination method and representative image recording and display device
JP2003219225A (en) Device for monitoring moving object image
JP3404803B2 (en) Moving image recording medium, still image extracting device, moving image recording device, and still image automatic extracting method
JP2002305683A (en) Image pickup device and recording medium for recording image pickup program
EP2157547B1 (en) Object tracking
JP2010114752A (en) Device and method of imaging and program
Quiroga et al. As seen on tv: Automatic basketball video production using gaussian-based actionness and game states recognition
JP2000188713A (en) Automatic focus controller and method for determining its focusing
JPH0580248A (en) Automatic focusing device
JP3525493B2 (en) Still image extraction device, moving image recording device, and still image automatic extraction method
Kender et al. On the structure and analysis of home videos
JP3561942B2 (en) Shot detection method and representative image recording / display device
JP7444604B2 (en) Image processing device and method, and imaging device
JP5698499B2 (en) Focus adjustment device and imaging device
JP3286360B2 (en) Automatic video digest display
JP2009118434A (en) Blurring correction device and imaging apparatus
JP3116422B2 (en) Camera control device
JPH09327037A (en) Contour extracting method and method and device for extracting image
JP3043034B2 (en) Image input / output device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040209

LAPS Cancellation because of no payment of annual fees