JP2008042270A - Highlight extracting apparatus - Google Patents

Highlight extracting apparatus Download PDF

Info

Publication number
JP2008042270A
JP2008042270A JP2006210177A JP2006210177A JP2008042270A JP 2008042270 A JP2008042270 A JP 2008042270A JP 2006210177 A JP2006210177 A JP 2006210177A JP 2006210177 A JP2006210177 A JP 2006210177A JP 2008042270 A JP2008042270 A JP 2008042270A
Authority
JP
Japan
Prior art keywords
light emission
time
highlight
video
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006210177A
Other languages
Japanese (ja)
Other versions
JP4631826B2 (en
Inventor
Sohei Tadokoro
想平 田所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2006210177A priority Critical patent/JP4631826B2/en
Publication of JP2008042270A publication Critical patent/JP2008042270A/en
Application granted granted Critical
Publication of JP4631826B2 publication Critical patent/JP4631826B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To extract important scenes of a video content picked up by a user by himself/herself. <P>SOLUTION: A light emission detector 12 detects a relative time in an input video image of a light emitter of a flash of a camera which is photographed in the input video image as an emission time of the flash. A highlight selector 14 selects the predetermined number of light emission times as a time in which a highlight exists from each light emission time detected by the light emission detector 12, on the basis of the number of light emission times included within a predetermined time before the light emission time, and selects a segment including the selected time as a highlight segment. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ビデオコンテンツを短時間で視聴できるようにし、あるいはビデオコンテンツの内容を容易に把握できるようにするために、自動的にビデオコンテンツの一部の区間をハイライトとして選択するハイライト抽出装置に関する。   The present invention automatically selects a part of video content as a highlight so that the video content can be viewed in a short time or the content of the video content can be easily grasped. Relates to the device.

近年、DVD(Digital Versatile Disc)、ハードディスクドライブ(HDD:Hard Disk Drive)、半導体メモリなどの大容量ディジタルストレージの普及により、各家庭に保存、管理されているビデオコンテンツの量は加速度的に増大している。これらのストレージはランダムアクセスが可能であり、指定した箇所から瞬時に再生を開始できるという点で、従来のテープメディアに対して大幅に利便性が向上している。   In recent years, with the widespread use of large-capacity digital storage such as DVDs (Digital Versatile Discs), hard disk drives (HDDs), and semiconductor memories, the amount of video content stored and managed at home has increased at an accelerated pace. ing. These storages can be accessed at random, and playback can be instantly started from a designated location, which greatly improves convenience over conventional tape media.

したがって、長時間にわたる一連の映像中から見たい部分だけを再生し、残りをスキップするような視聴方法が容易に実現できる。しかし一方、利用者が見たいシーンがどこに記録されているのかを把握していない場合は、こういったストレージのランダムアクセス性能はメリットとならない。   Therefore, it is possible to easily realize a viewing method in which only a portion to be viewed is reproduced from a series of videos over a long time and the rest is skipped. On the other hand, if the user does not know where the scene that the user wants to see is recorded, the random access performance of such storage is not a merit.

そこで、利用者がまだ見ていないコンテンツに対して、音声情報や画像情報を解析することによって、あらかじめ見所を抽出しておく技術が特許文献1に開示されている。特許文献1に開示された技術では、映像ストリーム中に発生した事象を定義したインデックスに予め設定された数値をルールファイルとして記憶しており、入力した映像情報中のインデックスに基づいてルールファイルから該当する数値を入力し、インデックスおよび数値に基づいて、映像情報の内容を数値の変化で表現した数値映像情報を生成し、生成した数値映像情報の数値の変化を用いて、映像情報からダイジェスト映像を抽出することで、ダイジェストの生成を実現している。   Therefore, Patent Document 1 discloses a technique for extracting points of interest in advance by analyzing audio information and image information with respect to content that has not yet been viewed by the user. In the technique disclosed in Patent Document 1, a numerical value set in advance in an index that defines an event that has occurred in a video stream is stored as a rule file, and the corresponding value is determined from the rule file based on the index in the input video information. Based on the index and the numerical value, generates the numerical video information that expresses the content of the video information by changing the numerical value, and uses the numerical value change of the generated numerical video information to convert the digest video from the video information. Extraction realizes digest generation.

これによって、利用者は、放送されているスポーツの中継番組やニュース番組に対して、見たいシーンをすぐに探し当てることができ、また、長時間の番組を短時間で視聴することができる。
特許第3176893号公報
As a result, the user can quickly find the scene he / she wants to watch for the broadcast program or news program of the broadcasted sports, and can watch a long program in a short time.
Japanese Patent No. 3176893

一方、HDD等のランダムアクセス可能な大容量ディジタルストレージに記録された、利用者自らがビデオカメラ等で撮影したコンテンツ(以降、プライベートコンテンツと呼ぶ)は、放送番組とは異なり、番組構成の様式、映像や音声の質、撮影環境などが事前に仮定できない。また、無駄な映像やミスショットが含まれている可能性が高く、ストーリー性に欠ける場合が多い。特に、結婚式や発表会といったイベントを撮影した場合、1カットが長くなることが多く、撮影した映像を後で視聴すると、撮影時間だけが長く、盛り上がりに欠ける映像になることが多い。   On the other hand, content (hereinafter referred to as private content) recorded by a user with a video camera or the like recorded in a randomly accessible large-capacity digital storage such as an HDD is different from a broadcast program, Video and audio quality, shooting environment, etc. cannot be assumed in advance. In addition, there is a high possibility that useless images and miss shots are included, and the story is often lacking. In particular, when shooting an event such as a wedding ceremony or a presentation, one cut is often long, and when a photographed image is viewed later, only the photographing time is long and the image lacks excitement.

このため、記録したプライベートコンテンツを視聴する際に、利用者が目的の重要なシーンにすぐにたどり着くことは難しく、ランダムアクセス可能なメディアの利点を生かすことができなかった。そこで、プライベートコンテンツの重要なシーンを抽出できるようにするための技術の開発が望まれていた。   For this reason, when viewing the recorded private content, it is difficult for the user to quickly reach the target important scene, and the advantage of the randomly accessible medium cannot be utilized. Therefore, development of a technique for enabling extraction of important scenes of private content has been desired.

本発明は上記に鑑みてなされたもので、プライベートコンテンツの重要なシーンを抽出することができるハイライト抽出装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a highlight extraction apparatus that can extract an important scene of private content.

上記目的を達成するため、本発明のハイライト抽出装置は、映像中に映りこんでいるカメラのフラッシュの発光に基づいて前記映像中の重要シーンとなる部分をハイライトとして抽出するハイライト抽出装置であって、入力映像の各フレームについてフラッシュの発光の有無を検出し、フラッシュの発光有りと検出されたフレームの前記入力映像における相対時刻をフラッシュの発光時刻として検出する発光検出手段と、この発光検出手段で検出した前記発光時刻を格納する記憶手段と、この記憶手段に格納された前記発光時刻のそれぞれについて、当該発光時刻以前の所定の時間内に含まれる発光時刻の数を前記各発光時刻の得点として算出し、当該発光時刻が、当該発光時刻の得点より高い得点を有する発光時刻以前の前記所定の時間内に含まれるときは、当該発光時刻の得点を取り消した後、得点の高い順から所定の数の前記発光時刻をハイライトが存在する時刻として選択し、選択した前記時刻を含む区間を前記入力映像におけるハイライト区間として選択するハイライト選択手段とを備えることを特徴とする。   In order to achieve the above object, a highlight extracting apparatus according to the present invention extracts, as a highlight, a part that becomes an important scene in the video based on light emission of a camera flash reflected in the video. A light emission detecting means for detecting the presence or absence of flash emission for each frame of the input video, and detecting the relative time in the input video of the frame detected as having flash emission as the flash emission time; Storage means for storing the light emission time detected by the detection means, and the number of light emission times included in a predetermined time before the light emission time for each of the light emission times stored in the storage means. Within the predetermined time before the light emission time when the light emission time is higher than the score of the light emission time. If included, after canceling the score of the light emission time, select a predetermined number of the light emission times from the highest score as the time when the highlight exists, and the section including the selected time in the input video Highlight selection means for selecting as a highlight section is provided.

また、本発明のハイライト抽出装置は、映像中に映りこんでいるカメラのフラッシュの発光に基づいて前記映像中の重要シーンとなる部分をハイライトとして抽出するハイライト抽出装置であって、入力映像の各フレームについて輝度ヒストグラムを生成し、当該フレームの輝度ヒストグラムと当該フレームから第1の所定数前のフレームの輝度ヒストグラムとの相関を第1の相関として算出し、当該フレームの輝度ヒストグラムと当該フレームから前記第1の所定数よりも大きな第2の所定数前のフレームの輝度ヒストグラムとの相関を第2の相関として算出し、前記第1の相関が所定の第1の閾値より小さく、かつ前記第2の相関が所定の第2の閾値より大きい場合に、当該フレームの前記入力映像における相対時刻をフラッシュの発光時刻として検出する動作をフレーム毎に行う発光検出手段と、この発光検出手段で検出した前記発光時刻を格納する記憶手段と、この記憶手段に格納された前記発光時刻のそれぞれについて、当該発光時刻以前の所定の時間内に含まれる発光時刻の数を前記各発光時刻の得点として算出し、当該発光時刻が、当該発光時刻の得点より高い得点を有する発光時刻以前の前記所定の時間内に含まれるときは、当該発光時刻の得点を取り消した後、得点の高い順から所定の数の前記発光時刻をハイライトが存在する時刻として選択し、選択した前記時刻を含む区間を前記入力映像におけるハイライト区間として選択するハイライト選択手段とを備えることを特徴とする。   Further, the highlight extracting apparatus of the present invention is a highlight extracting apparatus that extracts, as a highlight, a portion that becomes an important scene in the video based on light emission of a camera flash reflected in the video. A luminance histogram is generated for each frame of the video, and a correlation between the luminance histogram of the frame and the luminance histogram of the first predetermined number of frames before the frame is calculated as a first correlation, and the luminance histogram of the frame and the frame A correlation with a luminance histogram of a second predetermined number of frames larger than the first predetermined number from the frame is calculated as a second correlation, and the first correlation is smaller than a predetermined first threshold; If the second correlation is greater than a predetermined second threshold, the relative time in the input video of the frame is determined as flash emission. For each of the light emission times stored in the storage means, the light emission detection means for performing the detection operation for each frame for each frame, the storage means for storing the light emission time detected by the light emission detection means, and before the light emission time. The number of light emission times included in the predetermined time is calculated as the score of each light emission time, and the light emission time is included in the predetermined time before the light emission time having a score higher than the score of the light emission time. When the score of the light emission time is canceled, a predetermined number of the light emission times are selected as the time when the highlight exists in order from the highest score, and the section including the selected time is highlighted in the input video. Highlight selection means for selecting as a section is provided.

本発明のハイライト抽出装置は、入力映像に映りこんでいるカメラのフラッシュの発光箇所の入力映像における相対時刻をフラッシュの発光時刻として検出し、検出した各発光時刻から、当該発光時刻以前の所定の時間内に含まれる発光時刻の数に基づいて、所定の数の発光時刻をハイライトが存在する時刻として選択し、選択した時刻を含む区間をハイライト区間として選択するので、プライベートコンテンツの重要なシーンをハイライトとして抽出することができる。   The highlight extraction device of the present invention detects the relative time in the input image of the flash emission point of the camera's flash reflected in the input image as the flash emission time, and from each detected emission time, a predetermined time before the emission time is detected. Since a predetermined number of light emission times is selected as a time when a highlight exists and a section including the selected time is selected as a highlight period based on the number of light emission times included in the Can be extracted as highlights.

以下、本発明のハイライト抽出装置を実施するための最良の形態について、図面を参照して説明する。本発明では、プライベートコンテンツにおいて、カメラのフラッシュが頻繁に発光しているシーンは重要なシーンであると仮定する。   Hereinafter, the best mode for carrying out the highlight extraction apparatus of the present invention will be described with reference to the drawings. In the present invention, it is assumed that the scene in which the flash of the camera is frequently emitted is an important scene in the private content.

図1は本発明の一実施の形態に係るハイライト抽出装置の構成を示すブロック図である。図1に示すように本実施の形態のハイライト抽出装置1は、入力映像を格納する映像記憶部11と、入力映像に映りこんでいるフラッシュの発光箇所の入力映像における相対時刻をフラッシュの発光時刻として検出する発光検出部12と、発光検出部12で検出した発光時刻を格納する記憶部13と、記憶部13に格納された発光時刻に基づいて、入力映像におけるハイライト区間を選択するハイライト選択部14とを備える。   FIG. 1 is a block diagram showing a configuration of a highlight extracting apparatus according to an embodiment of the present invention. As shown in FIG. 1, the highlight extraction apparatus 1 according to the present embodiment includes a video storage unit 11 for storing an input video, and a flash time emission relative time in the input video of a flash emission point reflected in the input video. A light emission detection unit 12 that detects the time, a storage unit 13 that stores the light emission time detected by the light emission detection unit 12, and a highlight section that selects a highlight section in the input video based on the light emission time stored in the storage unit 13. And a light selection unit 14.

発光検出部12は、要素数4のリングバッファからなるバッファ12aと、発光検出部12の演算および制御を行う演算処理部12bとを備える。ハイライト選択部14は、各種情報を格納するメモリ14aと、ハイライト選択部14の演算および制御を行う演算処理部14bとを備える。   The light emission detection unit 12 includes a buffer 12 a made up of a ring buffer having four elements, and an arithmetic processing unit 12 b that performs calculation and control of the light emission detection unit 12. The highlight selection unit 14 includes a memory 14 a that stores various types of information, and a calculation processing unit 14 b that performs calculation and control of the highlight selection unit 14.

次に、本実施の形態に係るハイライト抽出装置の動作を説明する。   Next, the operation of the highlight extraction apparatus according to this embodiment will be described.

映像記憶部11は、外部からの入力映像を格納する。入力映像は静止画の連続で構成される動画像である。MPEGなどの圧縮符号化技術が適用された映像の場合は、復号後の映像を入力映像として受け取る。   The video storage unit 11 stores externally input video. The input video is a moving image composed of a series of still images. In the case of a video to which a compression encoding technique such as MPEG is applied, the decoded video is received as an input video.

そして、発光検出部12は、映像記憶部11から入力映像を受け取り、この入力映像を構成する静止画を解析し、フラッシュの発光時刻を検出する。以下、発光検出部12においてフラッシュの発光時刻を検出する手順について、図2を参照して説明する。図2は発光検出部12においてフラッシュの発光時刻を検出する手順を示すフローチャートである。   The light emission detection unit 12 receives an input video from the video storage unit 11, analyzes a still image constituting the input video, and detects a flash emission time. Hereinafter, a procedure for detecting the flash emission time in the light emission detection unit 12 will be described with reference to FIG. FIG. 2 is a flowchart showing a procedure for detecting the flash emission time in the light emission detector 12.

まず、ステップS110において、映像記憶部11から新しいフレームを受け取ると、ステップS120では、発光検出部12の演算処理部12bは、受け取ったフレームに対して輝度のヒストグラムを作成する。輝度はYUV表色系におけるYの値に相当する。RGB表色系からは以下の(数式1)で変換可能である。   First, when a new frame is received from the video storage unit 11 in step S110, in step S120, the arithmetic processing unit 12b of the light emission detection unit 12 creates a luminance histogram for the received frame. The luminance corresponds to the value of Y in the YUV color system. The RGB color system can be converted by the following (Equation 1).

Y=0.299R+0.587G+0.114B (数式1)
ヒストグラムは輝度を任意の幅で量子化し、入力映像の各画素の輝度がどの階級に属しているかを算出し、該当する階級の度数を足し上げていくことによって作成する。画像が十分大きい場合は、処理時間の短縮のために、画像を適当な間隔でサブサンプリングするとよい。輝度のヒストグラムの一例を図3に示す。図3に示す輝度のヒストグラムにおいて、x軸は64の階級を含み、y軸は各階級に入る画素(ピクセル)の数である。
Y = 0.299R + 0.587G + 0.114B (Formula 1)
The histogram is created by quantizing the brightness with an arbitrary width, calculating which class the brightness of each pixel of the input video belongs to, and adding the frequency of the corresponding class. If the image is sufficiently large, the image may be subsampled at an appropriate interval in order to shorten the processing time. An example of a luminance histogram is shown in FIG. In the luminance histogram shown in FIG. 3, the x-axis includes 64 classes, and the y-axis is the number of pixels (pixels) in each class.

次に、ステップS130では、演算処理部12bは、作成したヒストグラムをバッファ12aに格納する。バッファ12aは要素数4のリングバッファになっており、各要素にそれぞれヒストグラムが格納できる。最新のヒストグラムは、リングバッファ中の最も古いバッファを上書きするかたちで格納される。   Next, in step S130, the arithmetic processing unit 12b stores the created histogram in the buffer 12a. The buffer 12a is a ring buffer having four elements, and a histogram can be stored in each element. The latest histogram is stored by overwriting the oldest buffer in the ring buffer.

そして、ステップS140では、演算処理部12bは、バッファ12a内の最新のヒストグラムと、その1フレーム前のヒストグラムとの相関を算出する。相関は以下の(数式2)で求められる。

Figure 2008042270
In step S140, the arithmetic processing unit 12b calculates a correlation between the latest histogram in the buffer 12a and the histogram one frame before. The correlation is obtained by the following (Formula 2).
Figure 2008042270

ここで、Rは相関、Nはヒストグラムの階級の総数、a(I),b(I)は各ヒストグラムにおける階級Iの度数である。   Here, R is the correlation, N is the total number of classes in the histogram, and a (I) and b (I) are the frequencies of class I in each histogram.

次に、ステップS150では、演算処理部12bは、ステップS140で算出した相関が第1の閾値Aより小さいかどうかを判断する。相関が第1の閾値A以上の場合(ステップS150:NO)、この2枚のフレームは映像的に連続していると判断できる。カメラのフラッシュの光が映像中に映りこんだ場合、映像中の輝度分布が急激に変化するため、相関は第1の閾値Aを下回る。また、フラッシュが消えて通常の画像に戻る時点でも、相関は第1の閾値Aを下回る。 Next, in step S150, the processing unit 12b, the correlation calculated in step S140, it is determined whether the first threshold value A 1 is less than. If the correlation is the first threshold value A 1 or more (step S150: NO), the two frames can be determined to be consecutive, iconic. If the camera flash light yelling reflected in the video, the luminance distribution of the video changes abruptly, the correlation falls below a first threshold value A 1. Further, even when the back flush disappear normal image, the correlation falls below a first threshold value A 1.

したがって、相関が第1の閾値A以上の場合(ステップS150:NO)は、フラッシュは検出できなかったとして、ステップS190に進む。相関が第1の閾値Aより小さい場合(ステップS150:YES)は、フラッシュの可能性があるため、ステップS160に進む。なお、第1の閾値Aは実験的に最適なものを求める。 Therefore, when the correlation is equal to or higher than the first threshold A1 (step S150: NO), it is determined that no flash has been detected, and the process proceeds to step S190. If the correlation is the first threshold value A 1 is smaller than (Step S150: YES), since there is a possibility of flash, the process proceeds to step S160. Note that the first threshold A 1 is determined to be optimal experimentally.

そして、ステップS160では、演算処理部12bは、最新のヒストグラムと、3フレーム前のヒストグラムとの相関を算出する。次いで、ステップS170では、演算処理部12bは、ステップS160で得られた相関と第2の閾値Aとを比較する。 In step S160, the arithmetic processing unit 12b calculates the correlation between the latest histogram and the histogram three frames before. Then, in step S170, the arithmetic processing unit 12b compares the threshold value A 2 of the correlation and the second obtained in step S160.

フラッシュが映像に映りこんだ場合、1〜2フレームのあいだ輝度分布が大きく変化した後に、それ以前の輝度分布に戻ることが考えられる。したがって、1フレーム前の輝度のヒストグラムとの相関が小さく、3フレーム前の輝度のヒストグラムとの相関が大きいフレームは、直前のフレームでフラッシュが映りこんでいることが考えられる。   When the flash is reflected in the video, it is conceivable that the luminance distribution changes greatly during one to two frames and then returns to the previous luminance distribution. Therefore, in a frame having a small correlation with the luminance histogram of the previous frame and a large correlation with the luminance histogram of the previous three frames, the flash may be reflected in the immediately preceding frame.

したがって、ステップS160で算出した相関が第2の閾値Aより大きい場合(ステップS170:YES)は、直前のフレームにフラッシュが映りこんでいたと判断し、ステップS180において、演算処理部12bは、その時刻を発光時刻として検出し、記憶部13に記憶する。ステップS160で算出した相関が第2の閾値A以下の場合(ステップS170:NO)は、フラッシュは検出できなかったとして、ステップS190に進む。 Therefore, if the calculated correlation is greater than the second threshold value A 2 at the step S160 (step S170: YES), it is determined that the flash was not reflected on the previous frame, in step S180, the arithmetic processing unit 12b, The time is detected as the light emission time and stored in the storage unit 13. If the correlation calculated in step S160 is the second threshold value A 2 or less (step S170: NO), the flash as could be detected, the process proceeds to step S190.

ここで、時刻は、装置全体にわたって共通のタイムコードを用いる。タイムコードとしては、秒、ミリ秒、フレーム数等が考えられる。第2の閾値Aは、第1の閾値Aと同様に、実験的に最適値を求める。 Here, the time uses a common time code throughout the apparatus. As the time code, seconds, milliseconds, the number of frames, etc. can be considered. The second threshold value A 2, like the first threshold value A 1, determined experimentally optimum value.

ステップS190では、演算処理部12bは、入力映像の全フレームに対する処理を終えたかどうかを判断し、終えた場合(ステップS190:YES)は発光時刻検出処理を終了する。終えていない場合(ステップS190:NO)はステップS110に戻り、以降の処理を繰り返す。   In step S190, the arithmetic processing unit 12b determines whether or not the processing for all the frames of the input video has been completed. If the processing has been completed (step S190: YES), the light emission time detection processing ends. If not completed (step S190: NO), the process returns to step S110, and the subsequent processing is repeated.

記憶部13は、図2に示すフローチャートのステップS180において発光検出部12で検出された発光時刻を保持する。時刻は上述のタイムコードを用い、配列として保持する。記憶部13としては、半導体メモリを用いてもよいし、HDDを用いてもよい。また、映像記憶部11と同一のアドレス空間の一部を用いてもよいし、別のアドレス空間を用意してもよい。   The storage unit 13 holds the light emission time detected by the light emission detection unit 12 in step S180 of the flowchart shown in FIG. The time is stored as an array using the above time code. As the storage unit 13, a semiconductor memory or an HDD may be used. Moreover, a part of the same address space as the video storage unit 11 may be used, or another address space may be prepared.

そして、ハイライト選択部14は、記憶部13によって保持されている発光時刻に基づいて、ハイライト区間を選択する。以下、ハイライト選択部14においてハイライト区間を選択する手順について、図4を参照して説明する。図4はハイライト選択部14においてハイライト区間を選択する手順を示すフローチャートである。   The highlight selection unit 14 selects a highlight section based on the light emission time held by the storage unit 13. Hereinafter, a procedure for selecting a highlight section in the highlight selection unit 14 will be described with reference to FIG. FIG. 4 is a flowchart showing a procedure for selecting a highlight section in the highlight selection unit 14.

発光検出部12で検出された発光時刻は、記憶部13において、配列list[]に格納されている。まず、ステップS210では、演算処理部14bは、カウンタ変数i,jの初期化を行う。カウンタ変数iの初期値は、list[i]≧nである最小のiとする。ここで、nは任意の自然数、または実数で、使用しているタイムコードに応じてミリ秒、秒、あるいはフレーム数等を表す。以降、説明のためにタイムコードは秒であると仮定する。また、カウンタ変数jの初期値は0とする。   The light emission times detected by the light emission detection unit 12 are stored in the array list [] in the storage unit 13. First, in step S210, the arithmetic processing unit 14b initializes counter variables i and j. The initial value of the counter variable i is set to the minimum i where list [i] ≧ n. Here, n is an arbitrary natural number or real number, and represents milliseconds, seconds, or the number of frames according to the time code used. Hereinafter, for the sake of explanation, it is assumed that the time code is seconds. The initial value of the counter variable j is 0.

次に、ステップS220では、演算処理部14bは、フラッシュを検出した各発光時刻に対して得点を与え、この得点を配列としてメモリ14aに格納する。メモリ14aは、得点を配列point[]に格納し、list[i]の時刻に対応する得点はpoint[i]に格納する。ここで、得点は、得点を与える発光時刻の以前n秒間にフラッシュを検出した回数である。   Next, in step S220, the arithmetic processing unit 14b gives a score to each light emission time when the flash is detected, and stores the score as an array in the memory 14a. The memory 14a stores the score in the array point [], and stores the score corresponding to the time of list [i] in the point [i]. Here, the score is the number of times the flash is detected for n seconds before the emission time giving the score.

続いて、ステップS230では、演算処理部14bは、カウンタ変数iを1だけ加算する。そして、ステップS240では、演算処理部14bは、カウンタ変数iが配列list[]の最後の要素まで達しているかどうかを判断する。最後の要素まで達していない場合(ステップS240:YES)は、ステップS250に進み、最後の要素まで達している場合(ステップS240:NO)は、ステップS260に進む。   Subsequently, in step S230, the arithmetic processing unit 14b adds 1 to the counter variable i. In step S240, the arithmetic processing unit 14b determines whether the counter variable i has reached the last element of the array list []. If the last element has not been reached (step S240: YES), the process proceeds to step S250. If the last element has been reached (step S240: NO), the process proceeds to step S260.

ステップS250では、演算処理部14bは、カウンタ変数jの更新を行う。カウンタ変数jは、list[j]がlist[i]−n以上となる最も小さなjとする。その後、ステップS220に戻り、以降の処理を繰り返す。   In step S250, the arithmetic processing unit 14b updates the counter variable j. The counter variable j is the smallest j where list [j] is greater than or equal to list [i] −n. Thereafter, the process returns to step S220, and the subsequent processing is repeated.

フラッシュを検出したすべての発光時刻に得点がつくと、ステップS260において、演算処理部14bは、得点を格納した配列point[]を降順にソートする。また、演算処理部14bは、配列point[]の各要素がそれぞれどの時刻のものなのかを表す配列link[]を生成し、これをメモリ14aに格納する。例えば、時刻list[p]における得点がpoint[q]だった場合、p=link[q]となる。   When scores are obtained at all the light emission times at which flashes are detected, in step S260, the arithmetic processing unit 14b sorts the array point [] storing the scores in descending order. In addition, the arithmetic processing unit 14b generates an array link [] that indicates what time each element of the array point [] is, and stores this in the memory 14a. For example, when the score at time list [p] is point [q], p = link [q].

次いで、ステップS270では、演算処理部14bは、重複する複数の発光時刻を統合する。ある得点point[j]を有する時刻list[link[j]]が、point[j]より高い得点point[i](すなわちj>i)を有する時刻list[link[i]]とlist[link[i]]−nの間に含まれる場合、point[j]=0とする。   Next, in step S270, the arithmetic processing unit 14b integrates a plurality of overlapping light emission times. Times list [link [i]] and list [link [link [j] with time points [link [j]] with a certain score point [j] have higher score points [i] (ie j> i) than point [j] i]] − n, point [j] = 0.

次いで、ステップS280では、演算処理部14bは、得点の高い順に、配列link[]の先頭から順に時刻list[link[k]](0≦k<m)を取得し、ハイライトが存在する時刻とする。ここでmは任意の自然数であり、一連の映像中から取得するハイライトの数を表す。   Next, in step S280, the arithmetic processing unit 14b acquires time list [link [k]] (0 ≦ k <m) from the top of the array link [] in descending order of the score, and the time when the highlight exists. And Here, m is an arbitrary natural number and represents the number of highlights acquired from a series of videos.

最後に、ステップS290では、演算処理部14bは、ステップS280で取り出した各ハイライトの時刻を含むハイライト区間を生成するために、各ハイライトに対応する始点と終点とを決定する。始点と終点は、単純にハイライトが存在する時刻の前後の一定時間、としてもよいし、ハイライトが存在する時刻に最も近い映像のカット点を検索して、そこを始点や終点にしてもよい。   Finally, in step S290, the arithmetic processing unit 14b determines a start point and an end point corresponding to each highlight in order to generate a highlight section including the time of each highlight extracted in step S280. The start point and end point may simply be a fixed time before or after the time when the highlight exists, or the cut point of the video closest to the time when the highlight exists is searched and set as the start point or end point. Good.

そして、ハイライト選択部14の演算処理部14bは、各ハイライトに対応する始点と終点とを決定すると、その結果を外部の再生制御装置2に出力する。再生制御装置2では、ハイライト選択部14からの出力に基づいて、入力映像中のハイライトの映像を再生する。   Then, when the arithmetic processing unit 14b of the highlight selection unit 14 determines the start point and the end point corresponding to each highlight, the result is output to the external reproduction control device 2. The reproduction control device 2 reproduces the highlight video in the input video based on the output from the highlight selection unit 14.

このように本実施の形態によれば、入力映像に映りこんでいるカメラのフラッシュの発光箇所の入力映像における相対時刻をフラッシュの発光時刻として検出し、検出した各発光時刻から、当該発光時刻以前の所定の時間内に含まれる発光時刻の数に基づいて、所定の数の発光時刻をハイライトが存在する時刻として選択し、選択した時刻を含む区間をハイライト区間として選択するので、利用者が自らビデオカメラなどで撮影したプライベートコンテンツに対しても、重要なシーンをハイライトとして抽出することが可能になる。これにより、例えば、結婚式や発表会などのイベントを撮影したコンテンツにおいて、イベントが盛り上がるシーンにすばやくアクセスして再生することや、プライベートコンテンツを要約視聴することが可能となる。   As described above, according to the present embodiment, the relative time in the input image of the flash emission point of the camera reflected in the input image is detected as the flash emission time, and from the detected emission time, Based on the number of light emission times included in the predetermined time, a predetermined number of light emission times are selected as the time when the highlight exists, and the section including the selected time is selected as the highlight period. It is possible to extract important scenes as highlights even for private content shot by a video camera. This makes it possible to quickly access and play back scenes where events are lively, and to view summary content of private content, for example, in content taken of events such as weddings and presentations.

本発明は、カメラのフラッシュが頻繁に発光しているシーンは重要なシーンであるという仮定を置くことにより、単純な処理でプライベートコンテンツのハイライト検出を可能にしている。顔認識や音声認識といった複雑な処理を必要としないため、高い演算能力が見込めないDVR(Digital Video Recorder)やビデオカメラなどの組み込み機器への適用が可能である。   The present invention makes it possible to detect highlights of private contents with a simple process by assuming that scenes where the flash of the camera is frequently emitted are important scenes. Since complicated processing such as face recognition and voice recognition is not required, it can be applied to an embedded device such as a DVR (Digital Video Recorder) or a video camera, which cannot expect a high calculation capability.

以下に、本発明をDVRおよびビデオカメラに適用した実施例について説明する。   Embodiments in which the present invention is applied to a DVR and a video camera will be described below.

(実施例1)
図5は本発明を適用したDVRの構成を示すブロック図である。図5に示すようにDVR30は、外部機器との入出力を仲介するインターフェース31と、映像の圧縮符号化および符号化データの復号を行うエンコード・デコード回路32と、エンコード・デコード回路32で生成された符号化データを格納するHDD33と、利用者の操作を受け取り、結果を出力するユーザインターフェース34と、装置各部を制御する制御部35とを備える。
(Example 1)
FIG. 5 is a block diagram showing the configuration of a DVR to which the present invention is applied. As shown in FIG. 5, the DVR 30 is generated by an interface 31 that mediates input / output with an external device, an encoding / decoding circuit 32 that performs compression encoding of video and decoding of encoded data, and an encoding / decoding circuit 32. HDD 33 for storing the encoded data, a user interface 34 for receiving a user operation and outputting the result, and a control unit 35 for controlling each part of the apparatus.

制御部35はCPU(中央演算処理装置)35aとメモリ35bとを備える。CPU35aは、メモリ35bに格納されているプログラムにしたがって、図2のフローチャートに示した発光時刻検出処理、および図4のフローチャートに示したハイライト選択処理を実行する。また、DVR30の外部に、インターフェース31を介して、外部ストレージ41とテレビモニタ42とが接続されている。   The control unit 35 includes a CPU (Central Processing Unit) 35a and a memory 35b. The CPU 35a executes the light emission time detection process shown in the flowchart of FIG. 2 and the highlight selection process shown in the flowchart of FIG. 4 according to the program stored in the memory 35b. In addition, an external storage 41 and a television monitor 42 are connected to the outside of the DVR 30 via an interface 31.

このような構成のDVR30において、外部ストレージ41として家庭用のビデオカメラが接続されたとする。CPU35aの制御の下、ビデオカメラで再生された映像はインターフェース31を介してエンコード・デコード回路32に入力され、ここで圧縮符号化処理によって符号化データに変換され、生成された符号化データはHDD33に格納される。   Assume that a home video camera is connected as the external storage 41 in the DVR 30 having such a configuration. Under the control of the CPU 35a, the video reproduced by the video camera is input to the encoding / decoding circuit 32 via the interface 31, where it is converted into encoded data by compression encoding processing, and the generated encoded data is the HDD 33. Stored in

そして、CPU35aは、発光時刻検出処理のプログラムに従い、エンコード・デコード回路32、またはHDD33から映像を読み出し、図2のフローチャートに示した発光時刻検出処理を実行し、検出した発光時刻をHDD33に格納する。   Then, the CPU 35 a reads out the video from the encoding / decoding circuit 32 or the HDD 33 according to the program of the light emission time detection process, executes the light emission time detection process shown in the flowchart of FIG. 2, and stores the detected light emission time in the HDD 33. .

利用者がユーザインターフェース34を介してハイライト区間の再生を指示すると、CPU35aは、HDD33から発光時刻を読み出し、ハイライト選択処理のプログラムに従い、図4のフローチャートに示したハイライト選択処理を実行し、再生するハイライト区間を決定する。   When the user instructs playback of the highlight section via the user interface 34, the CPU 35a reads the light emission time from the HDD 33, and executes the highlight selection processing shown in the flowchart of FIG. 4 according to the highlight selection processing program. The highlight section to be reproduced is determined.

そして、決定したハイライト区間に基づいて、CPU35aは、再生する区間の符号化された映像データをHDD33から読み出し、読み出した符号化データを復号し、復号された映像を、インターフェース31を介して出力するようにエンコード・デコード回路32を制御する。出力された映像は、DVR30の外部に接続されたテレビモニタ42によって表示される。   Based on the determined highlight section, the CPU 35a reads the encoded video data of the section to be reproduced from the HDD 33, decodes the read encoded data, and outputs the decoded video via the interface 31. Thus, the encoding / decoding circuit 32 is controlled. The output video is displayed on a television monitor 42 connected to the outside of the DVR 30.

(実施例2)
図6は本発明を適用したHDD搭載の家庭用ビデオカメラの構成を示すブロック図である。図6に示すようにビデオカメラ50は、撮像素子51と、撮像素子51を駆動する撮像素子ドライバ回路52と、映像の圧縮符号化および符号化データの復号を行うエンコード・デコード回路53と、エンコード・デコード回路53で生成された符号化データを格納するHDD54と、映像を表示する液晶ディスプレイ55と、液晶ディスプレイ55を駆動する液晶ドライバ回路56と、利用者の操作を受け取り、結果を出力するユーザインターフェース57と、装置各部を制御する制御部58とを備える。
(Example 2)
FIG. 6 is a block diagram showing the configuration of a home video camera equipped with an HDD to which the present invention is applied. As shown in FIG. 6, the video camera 50 includes an image sensor 51, an image sensor driver circuit 52 that drives the image sensor 51, an encoding / decoding circuit 53 that performs compression encoding of video and decoding of encoded data, and encoding. A HDD 54 that stores the encoded data generated by the decoding circuit 53, a liquid crystal display 55 that displays video, a liquid crystal driver circuit 56 that drives the liquid crystal display 55, and a user that receives user operations and outputs the results. An interface 57 and a control unit 58 that controls each unit of the apparatus are provided.

制御部58はCPU58aとメモリ58bとを備える。CPU58aは、メモリ58bに格納されているプログラムにしたがって、図2のフローチャートに示した発光時刻検出処理、および図4のフローチャートに示したハイライト選択処理を実行する。   The control unit 58 includes a CPU 58a and a memory 58b. The CPU 58a executes the light emission time detection process shown in the flowchart of FIG. 2 and the highlight selection process shown in the flowchart of FIG. 4 according to the program stored in the memory 58b.

このような構成のビデオカメラ50において、CPU58aの制御の下、撮像素子51によって撮像された映像は、撮像素子ドライバ回路52を介して制御部58に読み込まれる。映像はエンコード・デコード回路53で圧縮符号化された後、生成された符号化データはHDD54に格納される。   In the video camera 50 having such a configuration, an image captured by the image sensor 51 is read into the control unit 58 via the image sensor driver circuit 52 under the control of the CPU 58a. The video is compressed and encoded by the encoding / decoding circuit 53, and the generated encoded data is stored in the HDD 54.

それと同時に、CPU58aは、発光時刻検出処理のプログラムに従い、エンコード・デコード回路53、またはHDD54から映像を読み出し、図2のフローチャートに示した発光検出処理を実行し、検出した発光時刻をHDD54に格納する。   At the same time, the CPU 58a reads out the video from the encoding / decoding circuit 53 or the HDD 54 according to the program of the light emission time detection process, executes the light emission detection process shown in the flowchart of FIG. 2, and stores the detected light emission time in the HDD 54. .

利用者がユーザインターフェース57を介してハイライト区間の再生を指示すると、CPU58aは、HDD54から発光時刻を読み出し、ハイライト選択処理のプログラムに従い、図4のフローチャートに示したハイライト選択処理を実行し、再生するハイライト区間を決定する。   When the user instructs playback of the highlight section via the user interface 57, the CPU 58a reads the light emission time from the HDD 54, and executes the highlight selection processing shown in the flowchart of FIG. 4 according to the highlight selection processing program. The highlight section to be reproduced is determined.

そして、決定したハイライト区間に基づいて、CPU58aは、再生する区間の符号化された映像データをHDD54から読み出し、読み出した符号化データを復号し、復号された映像を液晶ドライバ回路56に出力するようにエンコード・デコード回路53を制御する。その後、CPU58aは、液晶ディスプレイ55にハイライト区間の映像を表示するように液晶ドライバ回路56を制御する。   Then, based on the determined highlight section, the CPU 58 a reads the encoded video data of the section to be reproduced from the HDD 54, decodes the read encoded data, and outputs the decoded video to the liquid crystal driver circuit 56. Thus, the encoding / decoding circuit 53 is controlled. Thereafter, the CPU 58a controls the liquid crystal driver circuit 56 so as to display the video in the highlight section on the liquid crystal display 55.

なお、実施例2ではHDDに記録された映像情報を解析する例を示したが、記録媒体は光ディスク、あるいは半導体メモリでもよい。また、ネットワークに接続された媒体であれば同様の方法が適用できるので、通信を用いた映像コンテンツサービスにも適用することが可能である。   In the second embodiment, the example in which the video information recorded in the HDD is analyzed is shown, but the recording medium may be an optical disk or a semiconductor memory. Further, since the same method can be applied to any medium connected to a network, it can also be applied to a video content service using communication.

本発明の一実施の形態に係るハイライト抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the highlight extraction apparatus which concerns on one embodiment of this invention. フラッシュの発光時刻を検出する手順を示すフローチャートである。It is a flowchart which shows the procedure which detects the light emission time of a flash. 輝度のヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of a brightness | luminance. ハイライト区間を選択する手順を示すフローチャートである。It is a flowchart which shows the procedure which selects a highlight area. 本発明を適用したDVRの構成を示すブロック図である。It is a block diagram which shows the structure of DVR to which this invention is applied. 本発明を適用したビデオカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the video camera to which this invention is applied.

符号の説明Explanation of symbols

1 ハイライト抽出装置
11 映像記憶部
12 発光検出部
12a バッファ
12b 演算処理部
13 記憶部
14 ハイライト選択部
14a メモリ
14b 演算処理部
30 DVR
31 インターフェース
32 エンコード・デコード回路
33 HDD
34 ユーザインターフェース
35 制御部
35a CPU
35b メモリ
41 外部ストレージ
42 テレビモニタ
50 ビデオカメラ
51 撮像素子
52 撮像素子ドライバ回路
53 エンコード・デコード回路
54 HDD
55 液晶ディスプレイ
56 液晶ドライバ回路
57 ユーザインターフェース
58 制御部
58a CPU
58b メモリ
DESCRIPTION OF SYMBOLS 1 Highlight extraction apparatus 11 Image | video memory | storage part 12 Light emission detection part 12a Buffer 12b Arithmetic processing part 13 Storage part 14 Highlight selection part 14a Memory 14b Arithmetic processing part 30 DVR
31 Interface 32 Encode / Decode Circuit 33 HDD
34 User Interface 35 Control Unit 35a CPU
35b Memory 41 External storage 42 TV monitor 50 Video camera 51 Image sensor 52 Image sensor driver circuit 53 Encode / decode circuit 54 HDD
55 Liquid Crystal Display 56 Liquid Crystal Driver Circuit 57 User Interface 58 Control Unit 58a CPU
58b memory

Claims (2)

映像中に映りこんでいるカメラのフラッシュの発光に基づいて前記映像中の重要シーンとなる部分をハイライトとして抽出するハイライト抽出装置であって、
入力映像の各フレームについてフラッシュの発光の有無を検出し、フラッシュの発光有りと検出されたフレームの前記入力映像における相対時刻をフラッシュの発光時刻として検出する発光検出手段と、
この発光検出手段で検出した前記発光時刻を格納する記憶手段と、
この記憶手段に格納された前記発光時刻のそれぞれについて、当該発光時刻以前の所定の時間内に含まれる発光時刻の数を前記各発光時刻の得点として算出し、当該発光時刻が、当該発光時刻の得点より高い得点を有する発光時刻以前の前記所定の時間内に含まれるときは、当該発光時刻の得点を取り消した後、得点の高い順から所定の数の前記発光時刻をハイライトが存在する時刻として選択し、選択した前記時刻を含む区間を前記入力映像におけるハイライト区間として選択するハイライト選択手段と
を備えることを特徴とするハイライト抽出装置。
A highlight extraction device that extracts, as a highlight, a portion that becomes an important scene in the video based on light emission of a camera flash reflected in the video,
Flash detection means for detecting the presence or absence of flash emission for each frame of the input video and detecting the relative time in the input video of the frame detected as having flash emission as the flash emission time;
Storage means for storing the light emission time detected by the light emission detection means;
For each of the light emission times stored in the storage means, the number of light emission times included within a predetermined time before the light emission time is calculated as a score of each light emission time, and the light emission time is calculated based on the light emission time. When it is included in the predetermined time before the light emission time having a score higher than the score, after canceling the score of the light emission time, the time when the highlight exists for a predetermined number of the light emission times from the highest score And highlight selection means for selecting a section including the selected time as a highlight section in the input video.
映像中に映りこんでいるカメラのフラッシュの発光に基づいて前記映像中の重要シーンとなる部分をハイライトとして抽出するハイライト抽出装置であって、
入力映像の各フレームについて輝度ヒストグラムを生成し、当該フレームの輝度ヒストグラムと当該フレームから第1の所定数前のフレームの輝度ヒストグラムとの相関を第1の相関として算出し、当該フレームの輝度ヒストグラムと当該フレームから前記第1の所定数よりも大きな第2の所定数前のフレームの輝度ヒストグラムとの相関を第2の相関として算出し、前記第1の相関が所定の第1の閾値より小さく、かつ前記第2の相関が所定の第2の閾値より大きい場合に、当該フレームの前記入力映像における相対時刻をフラッシュの発光時刻として検出する動作をフレーム毎に行う発光検出手段と、
この発光検出手段で検出した前記発光時刻を格納する記憶手段と、
この記憶手段に格納された前記発光時刻のそれぞれについて、当該発光時刻以前の所定の時間内に含まれる発光時刻の数を前記各発光時刻の得点として算出し、当該発光時刻が、当該発光時刻の得点より高い得点を有する発光時刻以前の前記所定の時間内に含まれるときは、当該発光時刻の得点を取り消した後、得点の高い順から所定の数の前記発光時刻をハイライトが存在する時刻として選択し、選択した前記時刻を含む区間を前記入力映像におけるハイライト区間として選択するハイライト選択手段と
を備えることを特徴とするハイライト抽出装置。
A highlight extraction device that extracts, as a highlight, a portion that becomes an important scene in the video based on light emission of a camera flash reflected in the video,
A luminance histogram is generated for each frame of the input video, and a correlation between the luminance histogram of the frame and the luminance histogram of the first predetermined number of frames before the frame is calculated as a first correlation, Calculating a correlation with a luminance histogram of a second predetermined number of frames larger than the first predetermined number from the frame as a second correlation, wherein the first correlation is smaller than a predetermined first threshold; And when the second correlation is larger than a predetermined second threshold, a light emission detecting means for performing an operation for each frame to detect a relative time in the input video of the frame as a light emission time of the flash;
Storage means for storing the light emission time detected by the light emission detection means;
For each of the light emission times stored in the storage means, the number of light emission times included within a predetermined time before the light emission time is calculated as a score of each light emission time, and the light emission time is calculated based on the light emission time. When it is included in the predetermined time before the light emission time having a score higher than the score, after canceling the score of the light emission time, the time when the highlight exists for a predetermined number of the light emission times from the highest score And highlight selection means for selecting a section including the selected time as a highlight section in the input video.
JP2006210177A 2006-08-01 2006-08-01 Highlight extractor Expired - Fee Related JP4631826B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006210177A JP4631826B2 (en) 2006-08-01 2006-08-01 Highlight extractor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006210177A JP4631826B2 (en) 2006-08-01 2006-08-01 Highlight extractor

Publications (2)

Publication Number Publication Date
JP2008042270A true JP2008042270A (en) 2008-02-21
JP4631826B2 JP4631826B2 (en) 2011-02-16

Family

ID=39176847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006210177A Expired - Fee Related JP4631826B2 (en) 2006-08-01 2006-08-01 Highlight extractor

Country Status (1)

Country Link
JP (1) JP4631826B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284199A (en) * 2008-05-22 2009-12-03 Ikegami Tsushinki Co Ltd Television camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285523A (en) * 1997-04-06 1998-10-23 Sony Corp Image display device and method
JP2002099917A (en) * 2000-09-21 2002-04-05 Canon Inc Device and method for processing animation image and computer-readable memory
JP2007123981A (en) * 2005-10-25 2007-05-17 Sony Corp Device and method controlling display, program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285523A (en) * 1997-04-06 1998-10-23 Sony Corp Image display device and method
JP2002099917A (en) * 2000-09-21 2002-04-05 Canon Inc Device and method for processing animation image and computer-readable memory
JP2007123981A (en) * 2005-10-25 2007-05-17 Sony Corp Device and method controlling display, program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284199A (en) * 2008-05-22 2009-12-03 Ikegami Tsushinki Co Ltd Television camera

Also Published As

Publication number Publication date
JP4631826B2 (en) 2011-02-16

Similar Documents

Publication Publication Date Title
US8260090B2 (en) Information processing apparatus, imaging apparatus, image display control method and computer program
JP4998026B2 (en) Image processing apparatus, imaging apparatus, image display control method, and computer program
US8432965B2 (en) Efficient method for assembling key video snippets to form a video summary
US7502560B2 (en) Image capturing apparatus, method for recording captured image data, and captured image data processing apparatus and method
US9058840B2 (en) Method of displaying moving image and image playback apparatus to display the same
US8446490B2 (en) Video capture system producing a video summary
KR101362381B1 (en) Apparatus and method for selective real time recording based on face identification
US9071806B2 (en) Reproducing apparatus
US20080136937A1 (en) Image processing apparatus, image processing method, and program
US20060104609A1 (en) Reproducing device and method
JP5307535B2 (en) Extraction of video, picture, screen and saver functions
KR101323331B1 (en) Method and apparatus of reproducing discontinuous AV data
JP2005086734A (en) Image recorder
JP2008199330A (en) Moving image management apparatus
JP4631826B2 (en) Highlight extractor
JP2010263374A (en) Recording and reproducing device and recording and reproducing method
JP2016201617A (en) Moving picture reproduction device and method
US9595292B2 (en) Image processing apparatus
JP3617757B2 (en) Moving image display apparatus and method, and recording medium
KR101340308B1 (en) Video processing apparatus and method
US10410674B2 (en) Imaging apparatus and control method for combining related video images with different frame rates
KR20100018162A (en) Method of playing video contents by using skip function and method of generating thumbnail image by using skip function
JP2006211041A (en) Moving image reproducing device and imaging device
JP2012227615A (en) Recording and reproducing device
US20080152314A1 (en) Camera apparatus and reproduction control method in camera apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101101

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees