JP2008131617A - Video processing apparatus - Google Patents

Video processing apparatus Download PDF

Info

Publication number
JP2008131617A
JP2008131617A JP2006317955A JP2006317955A JP2008131617A JP 2008131617 A JP2008131617 A JP 2008131617A JP 2006317955 A JP2006317955 A JP 2006317955A JP 2006317955 A JP2006317955 A JP 2006317955A JP 2008131617 A JP2008131617 A JP 2008131617A
Authority
JP
Japan
Prior art keywords
video
processing apparatus
editing
video processing
edited
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006317955A
Other languages
Japanese (ja)
Other versions
JP2008131617A5 (en
Inventor
Toshio Nishida
西田寿雄
Hiroshi Chiba
千葉浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006317955A priority Critical patent/JP2008131617A/en
Priority to CNA2007101693661A priority patent/CN101193249A/en
Priority to US11/945,472 priority patent/US20080123966A1/en
Publication of JP2008131617A publication Critical patent/JP2008131617A/en
Publication of JP2008131617A5 publication Critical patent/JP2008131617A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video processing apparatus automatically editing a dynamic picture image by determining a scene that captures a subject from a motion vector between frames, and improving the usability of an automated editing apparatus for video. <P>SOLUTION: A video processing apparatus analyzes a motion vector between frames, and as a result, determines that a gathering region of motion vectors having the same directions and the same lengths is a capturing subject to automatically extract and edit a scene capturing the subject. Further, an edited video is composed of a plurality of scenes, and the video processing apparatus rearranges each scene based on a degree of importance and arranging based on an edit sequence, and connects and shortens similar scenes to improve the usability of a viewer. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、動画像の自動編集機能を有する映像処理装置に関する。   The present invention relates to a video processing apparatus having an automatic video editing function.

該技術分野の背景技術として、種々のものが提案されている。   Various background arts have been proposed.

例えば、特開2002−176613号公報(特許文献1)がある。該公報には、課題として「動画像を自動編集する装置を提供する。」と記載されている。また、解決手段として「固定ディスク104に複数の動画像ファイル142を記憶した動画像処理装置において、判定部21、抽出部22および合成部23を設ける。判定部21は画像信号または音声信号が所定の基準を満たす動画像中の部分を特定する。例えば、特定の人物の顔が映し出されている部分、撮影の際にズームアップが行われた部分、音量が所定の値を超える部分等が特定される。抽出部22は特定された部分を含む部分動画像を動画像ファイル142から抽出する。合成部23は、部分動画像を結合して編集済ファイル143を生成する。これにより、動画像の自動編集が実現される。」と開示されている。   For example, there exists Unexamined-Japanese-Patent No. 2002-176613 (patent document 1). This publication describes as a subject “Providing an apparatus for automatically editing a moving image”. Further, as a solving means, “a moving image processing apparatus in which a plurality of moving image files 142 are stored on the fixed disk 104 is provided with a determination unit 21, an extraction unit 22, and a synthesis unit 23. The determination unit 21 has a predetermined image signal or audio signal. For example, a part of a moving image that satisfies the criteria of the image is identified, for example, a part in which a specific person's face is projected, a part that has been zoomed in at the time of shooting, or a part whose volume exceeds a predetermined value. The extraction unit 22 extracts a partial moving image including the specified portion from the moving image file 142. The combining unit 23 combines the partial moving images to generate an edited file 143. Thus, the moving image is generated. Is automatically edited. ”.

また、特開2005−318180号公報(特許文献2)がある。該公報には、課題として「ダビングにあたって何も操作しなくても、ユーザの所望した位置でチャプターを自動的に設定できるようにする。」と記載されている。また、解決手段として「デジタルビデオカメラで撮影を行う場合、チャプターを設定したい箇所で静止画を撮影し挿入しておく。撮影した映像をカメラからハードディスクレコーダにダビングする際に、レコーダでは、映像データをMPEGエンコーダにより可変ビットレートで圧縮処理してハードディスクに記録する。このビットレートの値を閾値と比較し、閾値に満たない状態が一定区間以上連続すれば、映像が静止画であると判断して、その静止画の部分でチャプターを設定する。」と開示されている。   Moreover, there exists Unexamined-Japanese-Patent No. 2005-318180 (patent document 2). The gazette states that “a chapter can be automatically set at a position desired by a user without any operation during dubbing” as a problem. Also, as a solution, “When shooting with a digital video camera, a still image is shot and inserted at the location where the chapter is to be set. When dubbing the shot video from the camera to the hard disk recorder, the recorder The bit rate value is compressed by the MPEG encoder at a variable bit rate and recorded on the hard disk.The bit rate value is compared with a threshold value, and if a state that does not satisfy the threshold value continues for a certain period or longer, it is determined that the video is a still image. The chapter is set in the still image portion. "

特開2002−176613号公報JP 2002-176613 A 特開2005−318180号公報JP-A-2005-318180

近年、記録媒体の大容量化に伴い、ビデオカメラ等による動画像の長時間記録が可能になっている。また、パーソナルコンピュータ等により、これらの動画像を取り込み、編集することで新たな動画像を生成、記録を行うソフトも存在する。しかし、編集作業においては、残したいシーンを決定するために、映像および音声を視聴しながら作業することが不可欠であるため、長時間の動画像を編集する作業では、多大な労力および時間が必要となる。   In recent years, with the increase in capacity of recording media, it has become possible to record moving images for a long time using a video camera or the like. There is also software that generates and records new moving images by capturing and editing these moving images using a personal computer or the like. However, in editing work, it is indispensable to work while viewing video and audio in order to determine the scene that you want to keep, so editing work for a long time requires a lot of labor and time. It becomes.

そこで、動画像の自動編集を可能にする技術が提案されている。   Therefore, a technique that enables automatic editing of moving images has been proposed.

例えば、映像の記録時に、カメラの傾き、露光データ、ズーム倍率データ、被写体距離データなどの撮影環境情報を記録しておき、これらの情報に基づいて自動編集するという技術がある。また、記録された映像に対しては、特定の人間の顔が映っているシーン、音量が所定の基準を超えるシーンなどを抽出する技術や、高速でパン、チルト、ズームしているシーンは視聴者に不快感を与えるとして、自動的に削除する技術などがある。一方、ビデオカメラの場合、編集を容易にするための方法として、チャプターを設定したい位置で静止画を撮影しておき、編集時に映像のビットレートをもとにチャプターを自動設定する技術がある。   For example, there is a technique in which shooting environment information such as camera tilt, exposure data, zoom magnification data, and subject distance data is recorded during video recording, and automatic editing is performed based on such information. In addition, for recorded video, you can view scenes that show a specific human face, scenes whose volume exceeds a predetermined standard, and scenes that are panned, tilted, or zoomed at high speed. For example, there is a technique for automatically deleting a person who feels uncomfortable. On the other hand, in the case of a video camera, as a method for facilitating editing, there is a technique in which a still image is shot at a position where a chapter is desired to be set, and the chapter is automatically set based on the video bit rate during editing.

これらの自動編集技術を用いることにより、必要なシーンだけを残すことができる。しかし、編集前の映像データが膨大な量である場合、編集映像の量も自ずと多くなってしまう。そこで例えば、視聴者に対しては、編集映像を単に編集順に並べるのではなく、映像の重要度を考慮した順に並び替えて提供することにより使い勝手が向上する。   By using these automatic editing techniques, only necessary scenes can be left. However, when the amount of video data before editing is enormous, the amount of edited video naturally increases. Therefore, for example, for the viewer, the edited videos are not simply arranged in the order of editing, but are provided by being rearranged in the order in which the importance of the video is taken into consideration.

本発明は、映像の自動編集装置の使い勝手を向上させることを目的とする。   An object of the present invention is to improve the usability of an automatic video editing apparatus.

本発明の代表的なある一面の概要は、上記目的を達成するため、フレーム間の動きベクトルから、被写体を捉えているシーンの判定を行い、動画像を自動編集する構成となっている。詳細には、上記目的は特許請求項の範囲に記載の発明により達成できる。   In order to achieve the above object, a typical aspect of one aspect of the present invention is configured to determine a scene capturing a subject from a motion vector between frames and automatically edit a moving image. Specifically, the above object can be achieved by the invention described in the scope of claims.

本発明によれば、映像の自動編集装置の使い勝手が向上する。   According to the present invention, usability of an automatic video editing apparatus is improved.

なお、上記した以外の課題、手段、効果は、以下に説明する実施形態の中で明らかにされる。   Problems, means, and effects other than those described above will be clarified in the embodiments described below.

以下、図面を用いて本発明の一実施の形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明による動画像の自動編集方法の第1実施例に係る映像処理システムを示すブロック図である。ここでは、本映像処理システムをビデオカメラに適用した場合の一例について示す。図1において、1は撮像部、2は記録媒体、3は記録媒体2に記録されている撮影映像、4は撮影映像3を自動編集することで生成される編集映像、5は映像解析部、6は映像抽出部、7は映像編集部、8は表示部を示している。なお、撮影映像3における撮影映像A〜Cは、個々の撮影映像ファイルを意味する。これらの映像ファイルは、ファイル単位でアクセスすることが可能である。同様に、編集映像4における編集映像A−1、A−2、…、C−2は、個々の編集映像ファイルを意味する。これらの編集映像ファイルについても、ファイル単位でアクセスすることが可能である。ここでアクセスとは記録媒体への記録および/または再生である。また、記録媒体へのアクセスは、不図示の記録再生部にて行なわれるが、以下の説明では省略する。   FIG. 1 is a block diagram showing a video processing system according to a first embodiment of a moving image automatic editing method according to the present invention. Here, an example in which the present video processing system is applied to a video camera will be described. In FIG. 1, 1 is an imaging unit, 2 is a recording medium, 3 is a captured video recorded on the recording medium 2, 4 is an edited video generated by automatically editing the captured video 3, and 5 is a video analysis unit, Reference numeral 6 denotes a video extraction unit, 7 denotes a video editing unit, and 8 denotes a display unit. Note that the captured images A to C in the captured image 3 mean individual captured image files. These video files can be accessed in file units. Similarly, the edited videos A-1, A-2,..., C-2 in the edited video 4 mean individual edited video files. These edited video files can also be accessed in file units. Here, access is recording and / or reproduction on a recording medium. Access to the recording medium is performed by a recording / reproducing unit (not shown), which is omitted in the following description.

ビデオカメラで撮影された映像は、撮影映像3として記録媒体2に格納される。撮影された映像を自動編集する場合、まず、撮影映像3の各撮影映像ファイルに対し、映像解析部5による映像解析を行う。次に、映像抽出部6では、この解析結果をもとに、撮影映像3の各撮影映像ファイルから、実際に編集して残すシーンの抽出を行う。抽出されたシーンは、映像編集部7により、編集映像4として再び記録媒体2に格納される。格納された編集映像4は、表示部8において再生する。なお、編集映像4における編集映像A−1、A−2というのは、撮影映像3における撮影映像Aから抽出された、シーン1およびシーン2であることを意味している。   A video shot by the video camera is stored in the recording medium 2 as a shot video 3. When the captured video is automatically edited, first, video analysis by the video analysis unit 5 is performed on each captured video file of the captured video 3. Next, the video extraction unit 6 extracts scenes that are actually edited and left from each captured video file of the captured video 3 based on the analysis result. The extracted scene is stored again in the recording medium 2 as the edited video 4 by the video editing unit 7. The stored edited video 4 is reproduced on the display unit 8. Note that the edited videos A-1 and A-2 in the edited video 4 mean the scenes 1 and 2 extracted from the shot video A in the shot video 3.

ここで、映像解析部5における処理について示す。映像解析部5では、撮影映像3に対し、フレーム間の動き情報の解析を行うことにより、動きベクトルを求める。以下、具体例を挙げて、より詳細に説明する。   Here, processing in the video analysis unit 5 will be described. The video analysis unit 5 obtains a motion vector by analyzing motion information between frames of the captured video 3. Hereinafter, a specific example is given and it demonstrates in detail.

図2は、走行中の車を撮影した映像を、映像解析部5において処理した結果を簡易的に示したものである。図2において、9は被写体の車両、10は動きベクトルを示している。図2(a)は、被写体9を離れた位置から撮影した場合、図2(b)は、被写体9をズームアップし、カメラを動かしながら追尾するように撮影した場合である。図2(a)の場合、撮影映像の中で動いているのは被写体9であるため、その周囲に動きベクトルが現れることになる。被写体9が剛体であるとすれば、その周囲には、同じ向き、同じ大きさの動きベクトルが現れることになる。これに対し、図2(b)の場合は、被写体9を追尾しながら撮影しているため、被写体9ではなく、その背景領域に動きベクトルが現れることになる。この場合、被写体9の周囲には、ほとんど動きベクトルが現れない。これは、動きベクトルの大きさがほぼ「0」であるというだけであり、図2(a)の場合と同様に、被写体9の周囲に同じ向き、同じ大きさの動きベクトルが出ていることになる。従って、撮影された映像の動きベクトルを解析し、その結果、同じ向き、同じ大きさの動きベクトルが集まっている領域が存在する映像部分を抽出シーンとすることにより、被写体9を撮影しているシーンの抽出が可能になる。   FIG. 2 simply shows the result of processing in the video analysis unit 5 a video of a moving car. In FIG. 2, 9 indicates a subject vehicle and 10 indicates a motion vector. FIG. 2A shows a case where the subject 9 is photographed from a position away from the subject, and FIG. 2B shows a case where the subject 9 is photographed so that the subject 9 is zoomed up and tracked while moving the camera. In the case of FIG. 2A, since the subject 9 is moving in the captured video, a motion vector appears around it. If the subject 9 is a rigid body, motion vectors having the same direction and the same size appear around it. On the other hand, in the case of FIG. 2B, since the subject 9 is photographed while being tracked, a motion vector appears not in the subject 9 but in the background area. In this case, a motion vector hardly appears around the subject 9. This is only that the magnitude of the motion vector is almost “0”, and similarly to the case of FIG. 2A, motion vectors of the same direction and the same size appear around the subject 9. become. Therefore, the motion vector of the captured video is analyzed, and as a result, the subject 9 is captured by setting the video portion in which the motion vector of the same direction and the same size exists as an extraction scene. The scene can be extracted.

なお、抽出シーンは、被写体9が所定の大きさ以上で映っているシーンとする。これは、編集映像4が、被写体の良く映っているシーンで構成されることが好ましく、被写体が小さく映っているシーンなどの抽出を防ぐためである。この判定基準は、撮影映像3における、撮影映像ファイルごとに設ける。判定基準の決定方法としては、例えば、被写体9が最も大きく映っているフレームを検出し、そのフレームにおける被写体サイズを計測し、その大きさの半分以上のサイズで被写体9が映っているシーンのみを抽出対象とするという方法などが挙げられる。   The extracted scene is a scene in which the subject 9 is shown with a predetermined size or more. This is because the edited video 4 is preferably composed of scenes in which the subject is well reflected, in order to prevent extraction of scenes in which the subject is small. This criterion is provided for each captured video file in the captured video 3. As a determination method of the determination criterion, for example, a frame in which the subject 9 is shown to be the largest is detected, a subject size in the frame is measured, and only a scene in which the subject 9 is shown in a size more than half of the size. The method of making it an extraction object etc. are mentioned.

本実施例では、撮影した映像を記録媒体に格納した後に映像解析を行う構成を示したが、撮影と同時に映像解析を行い、この解析結果を撮影映像と共に記録し、この情報を映像抽出の際に用いる構成にしても良い。また、本実施例では、編集映像を記録媒体に格納した後に表示部へ出力する構成を示したが、編集映像を直接表示部へ出力する構成にしても良い。なお、映像抽出部6は、映像解析部5の解析結果をもとに抽出シーンの決定を行うが、その際、抽出シーンの前後に一定のマージンを付けた抽出を行ってもよい。マージンを付けずに抽出した場合、編集映像4は、被写体9がカメラの画角に収まっているシーンだけとなってしまう。しかし、マージンを付けて抽出を行った場合、編集映像4は、被写体9がフレームインしてフレームアウトするまでのシーンとなる。   In the present embodiment, the configuration is shown in which the video analysis is performed after the captured video is stored in the recording medium. However, the video analysis is performed simultaneously with the shooting, the analysis result is recorded together with the shot video, and this information is extracted at the time of video extraction. You may make it the structure used for. In the present embodiment, the configuration is shown in which the edited video is output to the display unit after being stored in the recording medium. However, the edited video may be directly output to the display unit. Note that the video extraction unit 6 determines an extraction scene based on the analysis result of the video analysis unit 5, but at this time, extraction may be performed with a certain margin before and after the extraction scene. When extracted without a margin, the edited video 4 is only a scene in which the subject 9 is within the angle of view of the camera. However, when extraction is performed with a margin, the edited video 4 is a scene from the subject 9 into the frame and out of the frame.

図3は、本発明による動画像の自動編集方法の第2実施例に係る映像処理システムを示すブロック図である。図3は、本発明の第1実施例のブロック図である図1と比較して、編集映像4における編集映像ファイルの格納順を変えたものである。   FIG. 3 is a block diagram showing a video processing system according to the second embodiment of the automatic moving image editing method of the present invention. FIG. 3 is a diagram in which the storage order of the edited video file in the edited video 4 is changed as compared with FIG. 1 which is a block diagram of the first embodiment of the present invention.

撮影映像3が膨大な量である場合、必要なシーンだけを抽出して編集された編集映像4の量も自ずと増えてしまう。このような状況になった場合、編集映像4を観る視聴者に対し、負担を強いることになる。そこで、映像編集部7において、編集映像4を単に編集順に格納していくのではなく、映像の重要度によって格納順の入れ替えを行い、視聴者にとって見やすい構成にする。   When the photographic video 3 is an enormous amount, the amount of the edited video 4 extracted by extracting only necessary scenes naturally increases. In such a situation, a burden is imposed on the viewer who watches the edited video 4. Therefore, the video editing unit 7 does not simply store the edited video 4 in the editing order, but changes the storage order according to the importance of the video so that the viewer can easily see the video.

例えば、図2(a)および(b)は、共に車両を撮影した映像の解析結果であるが、図2(a)は遠方から撮影したもの、図2(b)はズームアップして撮影したものである。ズームアップして撮影された映像というのは、撮影者がその被写体に注目して撮影したシーンである。従って、映像の重要度という意味では、ズームアップの度合いが大きいほど重要なシーンであると考えられる。そこで、映像解析部5において、解析処理に加え、ズーム率を考慮した重み付けを行う。そして、この重み付けの情報をもとに、映像編集部7で格納順を決定し、記録媒体2へと格納する。格納された編集映像4を再生する場合、表示部8では、編集映像ファイル一覧をサムネイル表示しても良い。その一例を以下に説明する。   For example, FIGS. 2 (a) and 2 (b) are the results of analyzing the images of the vehicle, FIG. 2 (a) was taken from a distance, and FIG. 2 (b) was taken with the zoom up. Is. An image shot with zooming up is a scene taken by a photographer paying attention to the subject. Therefore, in terms of the importance level of the video, the larger the zoom-up level, the more important the scene. Therefore, the video analysis unit 5 performs weighting in consideration of the zoom ratio in addition to the analysis processing. Based on this weighting information, the video editing unit 7 determines the storage order and stores it in the recording medium 2. When the stored edited video 4 is reproduced, the display unit 8 may display a thumbnail of the edited video file list. One example will be described below.

図4(a)および(b)は、編集映像ファイル一覧をサムネイル表示した場合の一例を示したものである。図4(a)は、重み付けの情報で決定された格納順にサムネイル表示を行った場合である。また、図4(b)は、図4(a)と同様に格納順にサムネイル表示したものであるが、重要度の高いものについては、その他のサムネイルに比べて大きく映像表示した場合である。ここでは簡単のため、映像ファイル名によるサムネイル表示を示しているが、実際には各編集映像の先頭フレーム画像を用いたサムネイル表示を行う。   4 (a) and 4 (b) show an example of the thumbnail list of the edited video file list. FIG. 4A shows a case where thumbnails are displayed in the storage order determined by the weighting information. FIG. 4B shows thumbnails displayed in the order of storage as in FIG. 4A, but the ones with high importance are the cases where the video is displayed larger than the other thumbnails. Here, for the sake of simplicity, the thumbnail display by the video file name is shown, but in reality, the thumbnail display using the first frame image of each edited video is performed.

ここで、ズーム率の取得方法について示す。映像解析部5で解析された動きベクトル情報から、同じ向き、同じ大きさの動きベクトルが集まっている領域が被写体の領域であると判断できる。従って、画面全体に対し、この領域の占める割合が大きければ大きいほど、ズームアップした映像であると考えられる。また、撮影中にズーム率の情報を取得しておき、これを用いても良い。   Here, a method for acquiring the zoom rate will be described. From the motion vector information analyzed by the video analysis unit 5, it can be determined that a region where motion vectors having the same direction and the same size are collected is a subject region. Therefore, it can be considered that the larger the proportion of this area with respect to the entire screen, the larger the zoomed-in video. Further, zoom ratio information may be acquired during shooting and used.

本実施例では、編集映像4の格納順を入れ替えることにより、視聴者の使い勝手を向上させる方法を示した。しかし、必ずしも格納順を入れ替える必要はない。例えば、編集映像を格納する際に、映像の重要度を付加情報として併せて格納する。これにより、実際に記録映像を再生する際に付加情報を参照し、その重要度にあわせて再生順を決定すればよい。また、映像の重要度の重み付けにズーム率を用いる例を示したが、特定の人物、動物、車両など、被写体の種類による重み付け、あるいは、被写体を捉えている時間の長さなどによる重み付けを行っても良い。   In the present embodiment, the method for improving the usability of the viewer by changing the storage order of the edited video 4 has been shown. However, it is not always necessary to change the storage order. For example, when storing an edited video, the importance of the video is also stored as additional information. Thus, it is only necessary to refer to the additional information when actually reproducing the recorded video and determine the reproduction order according to the importance. In addition, the zoom ratio is used for weighting the importance of the video, but weighting based on the type of subject, such as a specific person, animal, or vehicle, or weighting based on the length of time the subject is captured is performed. May be.

図5および図6は、本発明による動画像の自動編集方法の第3実施例に係る映像処理システムを示すブロック図である。図5および図6は、本発明の第1実施例のブロック図である図1と比較して、編集映像4における編集映像ファイルの構成を変えたものである。   5 and 6 are block diagrams showing a video processing system according to a third embodiment of the moving image automatic editing method of the present invention. 5 and FIG. 6 are different from FIG. 1 which is a block diagram of the first embodiment of the present invention, in which the configuration of the edited video file in the edited video 4 is changed.

実施例2で示したように、撮影映像3が膨大な量である場合、必要なシーンだけを抽出して編集された編集映像4の量も自ずと増えてしまう。このような状況になると、視聴者に負担を強いることになる。そこで、映像編集部7において、複数のシーンをつなぎ合わせて1つの映像にすることで編集映像4の整理を行い、視聴者にとって見やすい構成を実現する。   As shown in the second embodiment, when the captured video 3 is a huge amount, the amount of the edited video 4 that is edited by extracting only the necessary scenes naturally increases. In such a situation, the viewer will be burdened. Therefore, the video editing unit 7 organizes the edited video 4 by connecting a plurality of scenes into a single video, thereby realizing a configuration that is easy for the viewer to see.

例えば、撮影された映像のズーム率を利用した整理方法が挙げられる。ズームアップして撮影された映像というのは、撮影者がその被写体に注目して撮影したシーンである。これに対し、被写体を捉えているがズームアップしていない映像が存在する。これは、被写体の背景となる風景を同時に撮影した場合などである。従って、このズーム率の情報を用いることにより、被写体に特化したシーン集、あるいは、被写体の周囲を収めた風景シーン集といったように、映像内容によるグループ化を行うことが可能になる。また、撮影時刻の情報から、月単位、週単位、日単位など、時刻別にグループ化を行うことも可能である。図5および図6は、このような編集を行った一例を示したものである。   For example, there is a method of organizing using the zoom rate of the captured video. An image shot with zooming up is a scene taken by a photographer paying attention to the subject. On the other hand, there is an image that captures the subject but has not zoomed up. This is the case when a landscape that is the background of the subject is photographed at the same time. Therefore, by using this zoom ratio information, it is possible to perform grouping according to video content such as a collection of scenes specialized for a subject or a collection of landscape scenes surrounding the subject. Moreover, it is also possible to perform grouping by time, such as monthly, weekly, daily, etc., from the information of the photographing time. 5 and 6 show an example of such editing.

まず、図5は、映像抽出部6において抽出されたシーン全てを、映像編集部7において1つの映像としてつなぎ合わせて格納した場合を示している。なお、つなぎ合わせる順番は編集順でなくても良い。また、図6は、撮影映像ファイルA〜Dから抽出された映像が同じような種類のシーンであると判断し、1つの映像としてつなぎ合わされた場合を示している。なお、撮影映像ファイルEから抽出されたE−1およびE−2の2シーンは、異なる種類のシーンであるとして、いずれも他の映像とつなぎ合わされることなく格納されている。このように、つなぎ合わされた映像と、そうでない映像が混在する状態で格納しても良い。   First, FIG. 5 shows a case where all scenes extracted by the video extraction unit 6 are connected and stored as one video in the video editing unit 7. Note that the joining order may not be the editing order. FIG. 6 shows a case where the videos extracted from the captured video files A to D are determined to be the same type of scenes and are combined as one video. It should be noted that the two scenes E-1 and E-2 extracted from the captured video file E are stored as being connected to other videos, assuming that they are different types of scenes. In this way, the connected video and other video may be stored in a mixed state.

図7および図8は、本発明による動画像の自動編集方法の第4実施例に係る映像処理システムを示すブロック図である。図7および図8は、本発明の第1実施例のブロック図である図1と比較して、映像編集部7で編集された編集映像を外部記録媒体12に格納する構成にしたものである。図7は、映像編集部7において編集された編集映像を、一度、記録媒体2に格納し、それから外部記録媒体12にコピーあるいは移動させる場合の構成を示している。また、図8は、映像編集部7において編集された編集映像を、直接、外部記録媒体12に格納する場合の構成を示している。例えば、ビデオカメラの場合、このような構成にすることにより、内蔵のHDDやDVDドライブなどで記録した映像データを自動編集し、内蔵のHDDやDVDドライブ、あるいは外付けのレコーダやパーソナルコンピュータなどの外部記録媒体へ、コピーあるいは移動させることが可能になる。   7 and 8 are block diagrams showing a video processing system according to a fourth embodiment of the moving image automatic editing method of the present invention. 7 and 8 show a configuration in which the edited video edited by the video editing unit 7 is stored in the external recording medium 12 as compared with FIG. 1 which is a block diagram of the first embodiment of the present invention. . FIG. 7 shows a configuration in which the edited video edited by the video editing unit 7 is once stored in the recording medium 2 and then copied or moved to the external recording medium 12. FIG. 8 shows a configuration when the edited video edited by the video editing unit 7 is directly stored in the external recording medium 12. For example, in the case of a video camera, with such a configuration, video data recorded by a built-in HDD or DVD drive is automatically edited, and a built-in HDD or DVD drive, an external recorder, a personal computer, etc. It can be copied or moved to an external recording medium.

なお、上述した各実施例において、映像解析部5、映像抽出部6、映像編集部7は、それぞれが別個に上述したように動作するLSIで構成されても、あるいは、一部または全部を共通とするLSIで構成されても良い。もしくは、CPU等のハードウェアと上述した動作を実現するソフトウェアとが協働することにより構成されても良い。なお、このソフトウェアはメモリに格納されている。   In each of the above-described embodiments, the video analysis unit 5, the video extraction unit 6, and the video editing unit 7 may be configured by LSIs that individually operate as described above, or some or all of them are common. It may be configured by an LSI. Alternatively, it may be configured by cooperation of hardware such as a CPU and software that realizes the above-described operation. This software is stored in the memory.

また、上述した各実施例では、映像解析部5がフレーム間の動き情報の解析を行うことにより動きベクトルを求めるように説明したが、本発明はこれに限られない。例えば、撮影映像3は、例えばMPEG方式で圧縮符号化されており、この圧縮符号化の際に求められた、各フレームに付随して記憶されている動きベクトルを用いても良い。ここで、撮像映像の圧縮符号化は、撮像部1と記録媒体2との間に圧縮符号化部を設け、撮像部1で撮像された撮像映像をこの不図示の圧縮符号化部で圧縮符号化し、圧縮符号化された撮像映像を、不図示の記録再生部により記録媒体2に記録する。なお、MPEG方式でなくとも、フレーム相関を利用し、動きベクトルを用いる圧縮符号化方式であれば構わない。   In each of the above-described embodiments, the video analysis unit 5 has been described as obtaining a motion vector by analyzing motion information between frames, but the present invention is not limited to this. For example, the photographed video 3 is compression-encoded by, for example, the MPEG method, and a motion vector stored along with each frame obtained at the time of this compression-encoding may be used. Here, the compression encoding of the captured image is performed by providing a compression encoding unit between the image capturing unit 1 and the recording medium 2, and compressing the captured image captured by the image capturing unit 1 with the compression encoding unit (not shown). The compressed and encoded captured video is recorded on the recording medium 2 by a recording / reproducing unit (not shown). In addition, even if it is not an MPEG system, what is necessary is just the compression encoding system which uses a frame correlation and uses a motion vector.

本発明は、例えば、ビデオカメラ、レコーダ、監視システムなど、膨大な量の映像データを取扱うシステムへの利用が可能である。   The present invention can be used for a system that handles a huge amount of video data, such as a video camera, a recorder, and a surveillance system.

本発明の第1実施例に係る映像処理システムを示すブロック図である。1 is a block diagram illustrating a video processing system according to a first embodiment of the present invention. 本発明の第1実施例に係る映像処理システムを適用し、映像解析を行った場合の処理結果の一例を示す図である。It is a figure which shows an example of the process result at the time of applying the video processing system which concerns on 1st Example of this invention, and performing video analysis. 本発明の第2実施例に係る映像処理システムを示すブロック図である。It is a block diagram which shows the video processing system which concerns on 2nd Example of this invention. 本発明の第2実施例に係る映像処理システムを適用し、編集映像の一覧をサムネイル表示した場合の一例を示す図である。It is a figure which shows an example at the time of applying the video processing system which concerns on 2nd Example of this invention, and displaying the list of edit video as a thumbnail. 本発明の第3実施例に係る映像処理システムを示すブロック図である。It is a block diagram which shows the video processing system which concerns on 3rd Example of this invention. 本発明の第3実施例に係る映像処理システムを示すブロック図である。It is a block diagram which shows the video processing system which concerns on 3rd Example of this invention. 本発明の第4実施例に係る映像処理システムを示すブロック図である。It is a block diagram which shows the video processing system which concerns on 4th Example of this invention. 本発明の第4実施例に係る映像処理システムを示すブロック図である。It is a block diagram which shows the video processing system which concerns on 4th Example of this invention.

符号の説明Explanation of symbols

1 撮像部
2 記録媒体
3 撮影映像
4 編集映像
5 映像解析部
6 映像抽出部
7 映像編集部
8 表示部
9 被写体
10 動きベクトル
11 サムネイル表示画面
12 外部記録媒体
DESCRIPTION OF SYMBOLS 1 Image pick-up part 2 Recording medium 3 Shooting video 4 Edited video 5 Video analysis part 6 Video extraction part 7 Video editing part 8 Display part 9 Subject 10 Motion vector 11 Thumbnail display screen 12 External recording medium

Claims (11)

1つ以上の動画像を記録媒体に記録する記録手段と、
該動画像を解析する映像解析手段と、
該映像解析手段の解析結果に基づき、特定のシーンを抽出する映像抽出手段と、
該映像抽出手段で抽出されたシーンを編集する映像編集手段と、
該映像編集手段で編集された編集映像を表示する表示部と、
を備え、
該映像抽出手段は、被写体を所定の大きさ以上で捉えているシーンを抽出すること、
を特徴とする映像処理装置。
Recording means for recording one or more moving images on a recording medium;
Video analysis means for analyzing the moving image;
Video extraction means for extracting a specific scene based on the analysis result of the video analysis means;
Video editing means for editing the scene extracted by the video extraction means;
A display for displaying the edited video edited by the video editing means;
With
The video extraction means extracts a scene capturing the subject at a predetermined size or larger;
A video processing apparatus characterized by the above.
請求項1に記載の映像処理装置であって、
該映像解析手段は、動きベクトルを用いて被写体を所定の大きさ以上で捉えているシーンを抽出すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 1,
The video analysis means extracts a scene that captures a subject with a predetermined size or more using a motion vector;
A video processing apparatus characterized by the above.
請求項1に記載の映像処理装置であって、
該映像抽出手段は、抽出するシーンの前後に一定のマージンを付ける手段を有すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 1,
The video extracting means has means for adding a certain margin before and after the scene to be extracted;
A video processing apparatus characterized by the above.
請求項1に記載の映像処理装置であって、
該映像編集手段は、該映像抽出手段で抽出した1つ以上のシーンに対し、それぞれ異なる編集映像としてアクセスできるように編集する手段を有すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 1,
The video editing means has means for editing the one or more scenes extracted by the video extraction means so that they can be accessed as different edited videos,
A video processing apparatus characterized by the above.
請求項1に記載の映像処理装置であって、
該映像編集手段は、該映像抽出手段で抽出した2つ以上のシーンに対し、複数のシーンをつなぎ合わせ、1つの編集映像としてアクセスできるように編集する手段を有すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 1,
The video editing means includes means for connecting a plurality of scenes to two or more scenes extracted by the video extraction means, and editing them so that they can be accessed as one edited video,
A video processing apparatus characterized by the above.
請求項4または5に記載の映像処理装置であって、
該映像編集手段は、該映像抽出手段で抽出されたシーンに対し、ズームアップの度合いによる重み付けを行い、重みの大きいものを優先的にアクセスできるように編集する手段を有すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 4 or 5,
The video editing means has means for weighting the scene extracted by the video extracting means according to the degree of zoom-up, and editing so that a higher weight can be preferentially accessed,
A video processing apparatus characterized by the above.
請求項4または5に記載の映像処理装置であって、
該表示部は、該映像編集手段で編集された編集映像の重要度により、メニューの表示方法を変える手段を有すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 4 or 5,
The display unit has means for changing a menu display method according to the importance of the edited video edited by the video editing means;
A video processing apparatus characterized by the above.
請求項4または5に記載の映像処理装置であって、
該映像編集手段は、該映像抽出手段により抽出されたシーンに対し、シーン内容による振り分けを行い、振り分けられたグループごとにアクセスできるように編集する手段を有すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 4 or 5,
The video editing means has means for sorting the scenes extracted by the video extracting means according to scene contents and editing the scenes so that each group can be accessed.
A video processing apparatus characterized by the above.
請求項4または5に記載の映像処理装置であって、
該映像編集手段は、該映像抽出手段により抽出されたシーンに対し、シーン記録時刻による振り分けを行い、振り分けられたグループごとにアクセスできるように編集する手段を有すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 4 or 5,
The video editing means has means for sorting the scenes extracted by the video extracting means according to the scene recording time and editing the scenes so that each group can be accessed.
A video processing apparatus characterized by the above.
請求項4または5に記載の映像処理装置であって、
該映像編集手段により編集された編集映像を、該記録媒体もしくは外部記録媒体に記録すること、
を特徴とする映像処理装置。
The video processing apparatus according to claim 4 or 5,
Recording the edited video edited by the video editing means on the recording medium or an external recording medium;
A video processing apparatus characterized by the above.
被写体を撮像し、撮像映像を出力する撮像部と、
該撮像映像を、フレーム相関を利用して求めた動きベクトルを用いる圧縮符号化方式で圧縮符号化する圧縮符号化部と、
該圧縮符号化部で圧縮符号化された撮像映像を記録媒体に記録再生する記録再生部と、
CPUと、
該記録媒体に記録された撮像映像を再生するように該記録再生部を制御し、該撮像映像の動きベクトルを解析し、互いの差異が所定範囲以内の動きベクトルを画面内に所定数以上有する部分を抽出し、該抽出した部分を編集映像として該記録媒体に記録するように該記録再生部を制御するように、該CPUを動作させるプログラムを格納したメモリと、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and outputs a captured image;
A compression encoding unit that compresses and encodes the captured image using a compression encoding method that uses a motion vector obtained using frame correlation;
A recording / reproducing unit for recording / reproducing the captured image compressed and encoded by the compression encoding unit on a recording medium;
CPU,
The recording / playback unit is controlled to play back the captured video recorded on the recording medium, the motion vector of the captured video is analyzed, and a predetermined number or more of motion vectors within the predetermined range are included in the screen. A memory storing a program for operating the CPU so as to control the recording / reproducing unit so as to extract the part and record the extracted part as an edited video on the recording medium;
An imaging apparatus comprising:
JP2006317955A 2006-11-27 2006-11-27 Video processing apparatus Withdrawn JP2008131617A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006317955A JP2008131617A (en) 2006-11-27 2006-11-27 Video processing apparatus
CNA2007101693661A CN101193249A (en) 2006-11-27 2007-11-26 Image processing apparatus
US11/945,472 US20080123966A1 (en) 2006-11-27 2007-11-27 Image Processing Apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006317955A JP2008131617A (en) 2006-11-27 2006-11-27 Video processing apparatus

Publications (2)

Publication Number Publication Date
JP2008131617A true JP2008131617A (en) 2008-06-05
JP2008131617A5 JP2008131617A5 (en) 2009-04-02

Family

ID=39463776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006317955A Withdrawn JP2008131617A (en) 2006-11-27 2006-11-27 Video processing apparatus

Country Status (3)

Country Link
US (1) US20080123966A1 (en)
JP (1) JP2008131617A (en)
CN (1) CN101193249A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013179578A (en) * 2012-01-30 2013-09-09 Panasonic Corp Image editing device and thumbnail generation method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5300433B2 (en) * 2007-11-22 2013-09-25 株式会社半導体エネルギー研究所 Image processing method and display device
JP2009199586A (en) * 2008-01-23 2009-09-03 Canon Inc Information processing apparatus and control method thereof
JP5552769B2 (en) * 2009-07-29 2014-07-16 ソニー株式会社 Image editing apparatus, image editing method and program
JP5634111B2 (en) 2010-04-28 2014-12-03 キヤノン株式会社 Video editing apparatus, video editing method and program
JP5664120B2 (en) * 2010-10-25 2015-02-04 ソニー株式会社 Editing device, editing method, program, and recording medium
JP6332864B2 (en) * 2014-12-25 2018-05-30 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP7118379B1 (en) * 2021-02-19 2022-08-16 株式会社Gravitas VIDEO EDITING DEVICE, VIDEO EDITING METHOD, AND COMPUTER PROGRAM

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
JP4531897B2 (en) * 1999-12-27 2010-08-25 パナソニック株式会社 Person tracking device, person tracking method, and recording medium recording the program
JP4685465B2 (en) * 2005-02-01 2011-05-18 パナソニック株式会社 Monitoring and recording device
US7801328B2 (en) * 2005-03-31 2010-09-21 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
JP4345722B2 (en) * 2005-07-15 2009-10-14 ソニー株式会社 Moving object tracking control device, moving object tracking system, moving object tracking control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013179578A (en) * 2012-01-30 2013-09-09 Panasonic Corp Image editing device and thumbnail generation method

Also Published As

Publication number Publication date
CN101193249A (en) 2008-06-04
US20080123966A1 (en) 2008-05-29

Similar Documents

Publication Publication Date Title
US10367997B2 (en) Enriched digital photographs
JP3632703B2 (en) Video recording apparatus and video recording method
JP4760892B2 (en) Display control apparatus, display control method, and program
JP4525558B2 (en) Information processing apparatus, imaging apparatus, information processing method, and computer program
US8004594B2 (en) Apparatus, method, and program for controlling display of moving and still images
JP2008131617A (en) Video processing apparatus
JP5133816B2 (en) Camera, image composition method, and program
JP2003298982A (en) Imaging apparatus
US8078039B2 (en) Recording apparatus capable of recording moving image and still image
JP3814565B2 (en) Recording device
JP2007181164A (en) Image reproducing apparatus
JP2008199330A (en) Moving image management apparatus
JP4177081B2 (en) Image reproducing apparatus and method
JP3426997B2 (en) Editing video shooting method and apparatus with subject information acquisition function, and storage medium storing program describing the method
JP2013021654A (en) Reproduction apparatus
JP2003257158A (en) Recording and reproducing device, and recording and reproducing method
JP2017069596A (en) Image processing device and method
JP2022154659A (en) Image processing device, image processing method, and program
JP4217528B2 (en) Moving image processing method and apparatus
JP2007081463A (en) Image processing apparatus and method
JP2012004713A (en) Image processing device, image processing device control method, program, and recording medium
JP2006295411A (en) Camera device
JP2011015161A (en) Still image acquisition device, still image acquisition method and still image acquisition program
JP2004072591A (en) Recorder
KR20030085671A (en) Image file format and method for creating and playing image files

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090212

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100122