JP2006211191A - Editing operation auxiliary method, device, program, and medium - Google Patents

Editing operation auxiliary method, device, program, and medium Download PDF

Info

Publication number
JP2006211191A
JP2006211191A JP2005019407A JP2005019407A JP2006211191A JP 2006211191 A JP2006211191 A JP 2006211191A JP 2005019407 A JP2005019407 A JP 2005019407A JP 2005019407 A JP2005019407 A JP 2005019407A JP 2006211191 A JP2006211191 A JP 2006211191A
Authority
JP
Japan
Prior art keywords
editing
video
operation content
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005019407A
Other languages
Japanese (ja)
Inventor
Kazuhiro Kuroyama
和宏 黒山
Haruyo Ookubo
晴代 大久保
Takeshi Kawamura
岳 河村
Meiko Masaki
芽衣子 正木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005019407A priority Critical patent/JP2006211191A/en
Publication of JP2006211191A publication Critical patent/JP2006211191A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To automatically perform editing based on the operation content of a user in editing without allowing a user to be conscious of the subsequent editing of a video on viewing. <P>SOLUTION: An editing result which meets the viewing operation of the user is obtained with the use of an editing operation auxiliary method by recording the content operated by the user in viewing, so as to automatically analyze the operation content which is recorded in editing (S401), and performing editing processing (S402). Moreover, editing information is corrected by using the amount of features such as the scene change of video data, so that the editing result with higher precision is obtained. When the past operation content is used as a template, application is performed to the editing of the video which is not viewed yet. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、映像の視聴操作の内容を記録することで、記録した操作の内容に基づいて、映像を編集することに対応した、映像編集に関するものである。   The present invention relates to video editing corresponding to editing video based on the recorded operation content by recording the content of the video viewing operation.

従来、コマーシャルカットなどの映像編集は、操作を入力するステップと、編集点を入力するステップを備えることによって、編集時に、編集対象の映像に含まれている、カットする区間あるいはカットしない区間を、ユーザが手動で1つの区間ごとに指定していた。(例えば、特許文献1参照。)しかし、ハードディスクレコーダのような、長時間録画が可能な録画装置の登場によって、録画される映像データの量が増加し、ユーザは編集作業に、膨大な手間と時間を取られるという問題があった。さらに、ユーザの通常操作として、録画した映像データは一度視聴してから、気に入った映像データのみを編集して、DVDメディアなどに残すことが多く、映像データの視聴と編集の2度同じ映像を見ることになり、無駄が発生していた。さらに、視聴中にユーザが指定する編集点は、シーンの区切れ目など、ユーザが意図している目標とする編集点からずれていることが多く、誤差が含まれるため、意図している編集点に合わせるためには、映像フレームを1枚ずつ確認して、補正する必要があった。さらに、一度も視聴せず、編集点の情報を作成していない映像に対しては、編集点の情報が無いため、編集を行うことはできなかった。
特開2002−117653号公報
Conventionally, video editing such as commercial cut includes a step of inputting an operation and a step of inputting an editing point, so that a section to be cut or not to be cut included in the video to be edited at the time of editing The user manually specified for each section. (For example, refer to Patent Document 1.) However, with the advent of a recording device capable of recording for a long time, such as a hard disk recorder, the amount of video data to be recorded has increased, and the user has to spend a lot of time and effort on editing work. There was a problem of taking time. Furthermore, as a normal operation of the user, the recorded video data is often viewed once, and then only the favorite video data is edited and left on DVD media, etc. The same video is viewed and edited twice. There was a waste of money. In addition, edit points specified by the user during viewing often deviate from the target edit points intended by the user, such as scene breaks, and contain errors. In order to meet the above, it is necessary to check and correct video frames one by one. Furthermore, since there is no editing point information for a video that has never been viewed and for which editing point information has not been created, editing cannot be performed.
JP 2002-117653 A

解決しようとする課題は、コマーシャルカットなどの映像編集は、カットする区間あるいはカットしない区間を、ユーザが手動で1つの区間ごとに指定しなければならない点である。また、ユーザが指定した編集点には、誤差が含まれている点である。また、編集点を指定していない映像に対して、編集を自動的に行えない点である。   The problem to be solved is that in video editing such as commercial cut, a user must manually specify a section to be cut or a section not to be cut for each section. An edit point designated by the user is an error. In addition, editing cannot be automatically performed on a video for which no editing point is designated.

本発明は、映像の編集時において、ユーザの視聴時の操作内容の記録に基づき、自動的にカットする区間あるいはカットしない区間を特定することを最も主要な特徴とする。また、カットする区間あるいはカットしない区間の補正を自動的に行うことを最も主要な特徴とする。また、編集点の情報が無いときに、過去の操作内容のデータに基づき、自動的に編集を行うことを最も主要な特徴とする。   The main feature of the present invention is that, during video editing, the section to be automatically cut or the section not to be cut is specified based on the recording of the operation content at the time of viewing by the user. The most important feature is to automatically correct the section to be cut or the section not to be cut. In addition, the main feature is that when there is no editing point information, automatic editing is performed based on data of past operation contents.

本発明の編集操作補助装置は、映像の視聴時に、例えばリモコンを使ってユーザが操作した視聴操作から送信される操作信号から操作内容を抽出する操作内容抽出手段と、抽出した操作内容のデータを蓄積する操作内容蓄積手段と、映像の編集時に、前記操作内容蓄積手段に蓄積された操作内容のデータを解析することによって、編集情報を自動的に生成する操作データ解析手段と、前記操作データ解析手段で生成された編集情報に基づき映像を編集する映像データ編集手段を備えることで、視聴時にユーザは視聴している映像を後で編集することを意識せずとも、編集時に、ユーザの操作内容に基づいた編集を自動的に行えるという利点がある。   The editing operation assisting device of the present invention includes an operation content extracting means for extracting operation content from an operation signal transmitted from a viewing operation operated by a user using a remote controller, for example, when viewing a video, and data of the extracted operation content. Operation content storage means for storing, operation data analysis means for automatically generating editing information by analyzing operation content data stored in the operation content storage means during video editing, and the operation data analysis By providing video data editing means for editing the video based on the editing information generated by the means, the user's operation content at the time of editing without the user being aware that the video being viewed is edited later. There is an advantage that editing based on can be automatically performed.

また、映像の特徴量を抽出する映像特徴抽出手段と、抽出した映像特徴情報を蓄積する映像特徴情報蓄積手段と、映像の編集時に、前記映像特徴情報蓄積手段で蓄積した映像特徴情報に基づいて、編集情報の編集点を自動補正する編集情報補正手段をさらに備えることで、ユーザの操作内容に基づいて生成した編集情報を、シーンの変わり目のような、映像の変化点に変更することで、ユーザの操作の誤差を吸収して、ユーザの要望により適合した編集情報に補正することができるという利点がある。   Also, based on the video feature extraction means for extracting the feature amount of the video, the video feature information storage means for storing the extracted video feature information, and the video feature information stored in the video feature information storage means at the time of editing the video By further comprising editing information correction means for automatically correcting the editing point of the editing information, the editing information generated based on the user's operation content is changed to a video changing point, such as a scene change point. There is an advantage that the error of the user's operation can be absorbed and the editing information can be corrected according to the user's request.

また、前記操作内容蓄積手段で蓄積している操作内容のデータを利用して、選ばれた映像の保持する録画記録の情報と比較し、蓄積している操作内容のデータから自動的に選択して、前記操作データ解析手段の編集情報の生成に利用する、操作内容自動選択手段をさらに備えることで、ユーザがまだ視聴していない映像に対して、ユーザが編集点を入力することなく、編集することができるという利点がある。   In addition, the operation content data stored in the operation content storage means is used to compare with the recording record information held by the selected video, and automatically selected from the stored operation content data. In addition, by further comprising an operation content automatic selection means that is used to generate editing information of the operation data analysis means, the user can edit the video that the user has not yet viewed without inputting edit points. There is an advantage that you can.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態である編集操作補助装置の構成を示している。本実施形態である編集操作補助装置110は、入出力インターフェース部111、制御部112(操作内容抽出手段、操作データ解析手段、映像データ編集手段、編集情報補正手段、操作内容自動選択手段)、蓄積部113(操作内容蓄積手段)により構成されており、操作信号101及び出力信号102及びネットワーク103に接続されている。
(Embodiment 1)
FIG. 1 shows a configuration of an editing operation assisting device according to an embodiment of the present invention. The editing operation assisting device 110 according to this embodiment includes an input / output interface unit 111, a control unit 112 (operation content extraction unit, operation data analysis unit, video data editing unit, editing information correction unit, operation content automatic selection unit), storage. The unit 113 (operation content storage means) is connected to the operation signal 101, the output signal 102, and the network 103.

入出力インターフェース部111は、例えば、TVのリモコン受信やキーボードやマウスやTVチューナ入力やネットワークインターフェースボードやコンポジット入出力端子やRGB入出力端子や1394入出力端子やUSB入出力端子のような入出力装置であり、操作信号101や出力信号102やネットワーク103の入出力信号と制御部112の信号を相互に交換する。   The input / output interface unit 111 is, for example, input / output such as TV remote control reception, keyboard / mouse / TV tuner input, network interface board, composite input / output terminal, RGB input / output terminal, 1394 input / output terminal, and USB input / output terminal. It is an apparatus, and exchanges the operation signal 101, the output signal 102, the input / output signal of the network 103, and the signal of the control part 112 mutually.

制御部112は、演算部112a、メモリー部112bにより構成されている。演算部112aは、例えば中央演算装置(CPU)のような演算装置であり、各種プログラムを実行するとともに、装置の各部の制御を行う。メモリー部112bは、例えば、半導体メモリーのような記憶装置であり、演算部112aが実行するプログラムや処理の際に必要となるデータ等を格納している。尚、本構成では、演算部112a、メモリー部112bに分けて記載しているが、システムLSIのように2つの機能を備えていても、並列コンピュータのように、複数の演算部やメモリー部を備えていても構わない。   The control unit 112 includes a calculation unit 112a and a memory unit 112b. The calculation unit 112a is a calculation device such as a central processing unit (CPU), for example, and executes various programs and controls each unit of the device. The memory unit 112b is a storage device such as a semiconductor memory, for example, and stores programs executed by the arithmetic unit 112a, data necessary for processing, and the like. In this configuration, the calculation unit 112a and the memory unit 112b are described separately. However, even if two functions such as a system LSI are provided, a plurality of calculation units and memory units are provided as in a parallel computer. You may have.

蓄積部113は、例えば、ハードディスクや半導体メモリーや光ディスクメディアや磁気メディアのような記憶装置であり、1つだけ備えていても、複数の記憶装置を併用して備えていても構わない。また、蓄積部113は、当該編集操作補助装置の、視聴及び編集対象となる映像データを蓄積したり、ユーザの視聴時の操作内容を蓄積したり、編集情報や編集結果の映像データを蓄積する。   The storage unit 113 is, for example, a storage device such as a hard disk, a semiconductor memory, an optical disk medium, or a magnetic medium. The storage unit 113 may include only one or a plurality of storage devices. The accumulation unit 113 accumulates video data to be viewed and edited by the editing operation assisting device, accumulates operation contents at the time of viewing by the user, and accumulates editing information and editing result video data. .

尚、本実施の形態の構成では、1台の装置で視聴及び編集の動作を行っているが、例えば、携帯端末で視聴を行い、ホームサーバで編集を行うような、視聴と編集を別々の装置として、ネットワークあるいは記録媒体を介して、視聴時に蓄積された操作内容のデータを編集時に利用する構成であっても構わない。   In the configuration of the present embodiment, viewing and editing operations are performed by a single device. For example, viewing and editing are performed separately, such as viewing on a mobile terminal and editing on a home server. The apparatus may have a configuration in which operation content data stored during viewing is used during editing via a network or a recording medium.

次に、以上のように構成された実施の形態において、ユーザが映像の視聴を行うときに、ユーザの視聴操作の操作信号から操作内容を抽出し、蓄積部113に蓄積する動作を、フロー図2を用いて説明する。   Next, in the embodiment configured as described above, when the user views a video, an operation content is extracted from the operation signal of the user viewing operation and stored in the storage unit 113. 2 will be described.

ステップS201では、操作信号101から入力された操作信号を、入出力インターフェース部111を介して、制御部112内の演算部112aによって検出し、検出した操作信号を演算部112aにてメモリー部112bを使って、操作内容のデータに変換を行い、蓄積部113に蓄積する。   In step S201, the operation signal input from the operation signal 101 is detected by the calculation unit 112a in the control unit 112 via the input / output interface unit 111, and the detected operation signal is stored in the memory unit 112b by the calculation unit 112a. The data is converted into operation content data and stored in the storage unit 113.

ステップS202では、ステップS201で検出した操作信号に基づき、蓄積部113に蓄積されている映像データを読み取り、操作信号に基づいて再生の制御を行い、入出力インターフェース部111を介して、映像の出力を行う。   In step S202, video data stored in the storage unit 113 is read based on the operation signal detected in step S201, playback is controlled based on the operation signal, and video output is performed via the input / output interface unit 111. I do.

ここで、操作信号とは、例えばTVのリモコンの操作によって生成される信号や、キーボードやマウスの操作によって生成される信号や、他の機器からTVのチューナ入力を介して送信される信号や、インターネットを介して送信されてくる再生操作の信号である。   Here, the operation signal is, for example, a signal generated by operating a TV remote controller, a signal generated by operating a keyboard or a mouse, a signal transmitted from another device via a tuner input, A reproduction operation signal transmitted via the Internet.

また、操作内容のデータとは、図3のように、少なくとも、データパスなどの視聴対象の映像を特定するための情報と、再生や停止や早送りや巻き戻しや一時停止などの操作コマンドと、フレーム番号や時刻情報などの操作コマンドが実行されたときの映像の位置を特定する情報を含み、さらにユーザが番組を特定するための電子番組情報や録画時刻の情報を含んでいる。また、再生の制御とは、例えば再生や停止や早送りや巻き戻しや一時停止などの映像の再生に関連する操作に対する制御を意味する。   In addition, as shown in FIG. 3, the operation content data includes at least information for specifying a video to be viewed such as a data path, operation commands such as playback, stop, fast forward, rewind, and pause, It includes information for specifying the position of the video when an operation command such as a frame number and time information is executed, and further includes electronic program information and recording time information for the user to specify a program. The reproduction control means control for operations related to video reproduction such as reproduction, stop, fast forward, rewind, and pause.

尚、本実施例では、ステップS201にて操作内容の蓄積を先に実施したが、ステップS201及びステップS202は独立して実施することができるため、ステップS202の再生の制御を先に実施しても、同様の効果を得ることができる。また、同時にステップS201およびステップS202を実施しても、同様の効果を得ることができる。   In this embodiment, the operation contents are accumulated first in step S201. However, since step S201 and step S202 can be performed independently, the reproduction control in step S202 is performed first. The same effect can be obtained. Further, the same effect can be obtained even if step S201 and step S202 are performed at the same time.

次に、ユーザが映像の編集を行うときに、蓄積部113に蓄積した操作内容データを使って、自動的に編集情報を生成し、編集処理を行う動作を、フロー図4を用いて説明する。ステップS401では、操作信号101から入力された編集開始の合図や映像ファイルの選択や編集範囲の指定などユーザからの編集に関する操作信号を、入出力インターフェース部111を介して、制御部112内の演算部112aによって検出し、編集の対象となる映像に対応する操作内容データを、演算部112aによって蓄積部113から読み出す。さらに、読み出した操作内容データを解析することにより、編集情報の生成を行う。ここで、編集情報の生成方法については、操作内容データを利用することで、さまざまな方法で生成することが考えられるが、操作内容と特定の編集ルールを比較することによって、例えば図5に示すように、再生コマンド開始点から別の操作コマンドまでの範囲を選択とし、再生が10秒以下の場合は除外とするというルールに基づくことで、映像データの選択する部分を編集情報として生成することができる。また、映像データの同じ箇所を何度再生したかを操作内容データから検索することで、再生回数の多いところを映像の重要点としてオープニングやタイトルなどの代表の映像として用いることも可能である。また、倍速再生などの速度調節を行った視聴の操作内容データであれば、再生速度の違いや変化により、重要度を算出して、編集情報へ反映することも可能である。   Next, an operation of automatically generating editing information and performing editing processing using the operation content data stored in the storage unit 113 when the user edits video will be described with reference to the flowchart of FIG. . In step S 401, an operation signal related to editing, such as an editing start signal, a video file selection, or an editing range specification input from the operation signal 101, is calculated in the control unit 112 via the input / output interface unit 111. Operation content data detected by the unit 112a and corresponding to the video to be edited is read from the storage unit 113 by the calculation unit 112a. Further, editing information is generated by analyzing the read operation content data. Here, the generation method of editing information can be generated by various methods by using the operation content data. By comparing the operation content with a specific editing rule, for example, as shown in FIG. As described above, based on the rule that the range from the playback command start point to another operation command is selected and the playback is 10 seconds or less, the selected part of the video data is generated as editing information. Can do. In addition, by searching the operation content data to determine how many times the same portion of the video data has been reproduced, it is possible to use a portion with a large number of reproductions as an important point of the video as a representative video such as an opening or a title. In addition, in the case of viewing operation content data in which speed adjustment such as double speed playback is performed, the importance can be calculated and reflected in the editing information based on the difference or change in the playback speed.

尚、視聴操作は、操作方法にユーザごとの個性が反映されるため、常に不要部分は早送りなどの視聴操作で、飛ばされるとは限らない。このため、コマーシャル検出機能など他の編集補助の機能と組み合わせることで、よりユーザの希望に合った編集結果を得ることも可能である。   Note that the viewing operation reflects the individuality of each user in the operation method. Therefore, the unnecessary portion is not always skipped by a viewing operation such as fast-forwarding. For this reason, it is possible to obtain an editing result more suited to the user's wishes by combining with other editing assistance functions such as a commercial detection function.

ステップS402では、ステップS401で生成した編集情報に基づいて、カットやエフェクトなどの映像の編集の処理を行い、入出力インターフェース部111を介して、編集結果を出力信号として出力する。ここで、編集結果とは、元になる映像データから別の映像データを作成することや、映像のプレイリストのように、元になる映像の特定部分のみを再生あるいは特殊再生することである。また、特殊再生とは、スローや、エフェクト効果を付けたり、2つの映像を合成して、再生することである。尚、編集処理では、ユーザの期待通りの編集結果となっていることを確認することが、重要な要素であるので、一旦プレビューという形で、元になる映像を使って、特定部分のみの再生あるいは特殊再生を行い、ユーザの確認後に、別の映像データを作成するという手順を踏むことも可能である。また、出力信号とは、編集後の圧縮された映像データや、コンポジット形式やRGB形式などのTV受信機やパーソナルコンピュータで表示可能な映像信号である。出力信号から、TV画面へ表示することや、DVDメディアへの記録を行うことが可能である。また、ネットワーク103を介して、他の機器へ編集結果や出力信号を送信することも可能である。   In step S402, video editing processing such as cuts and effects is performed based on the editing information generated in step S401, and the editing result is output as an output signal via the input / output interface unit 111. Here, the editing result is to create another video data from the original video data, or to reproduce or specially reproduce only a specific part of the original video like a video playlist. Also, special playback is to perform playback by adding a slow or effect effect or synthesizing two videos. In the editing process, it is important to confirm that the editing result is as expected by the user, so only the specific part is reproduced using the original video once in the form of preview. Alternatively, it is possible to perform a special reproduction and follow the procedure of creating another video data after confirmation by the user. The output signal is compressed video data after editing, or a video signal that can be displayed on a TV receiver or personal computer in a composite format or RGB format. From the output signal, it is possible to display on a TV screen or to record on a DVD medium. It is also possible to transmit the editing result and output signal to other devices via the network 103.

次に、編集対象となる映像の映像特徴情報を利用して、編集情報の編集点を自動的に補正する動作について、フロー図6を用いて説明する。ステップS601では、前記ステップS401と同様の動作を行い、編集情報を生成する。ステップS602では、編集対象となる映像の解析を行った映像特徴情報を、演算部112aによって蓄積部113から読み出し、ステップS601で生成した編集情報の補正を行う。ここで、映像特徴情報とは、映像の画像フレームの前後差から取得するシーン変化量の情報や、映像の音声の音量変化から無音区間として推定した再生位置など、映像の特徴に関する解析情報である。また、映像特徴情報の作成するタイミングは、予め自動的に録画時や視聴時や編集前に検出を行って蓄積部113に蓄積することや、編集時に検出することや、ネットワーク103を介して別のサーバに蓄積されている映像特徴情報から取得することや、編集対象の映像データの動きベクトルなどの圧縮情報を利用することができる。   Next, an operation for automatically correcting the editing point of the editing information using the video feature information of the video to be edited will be described with reference to the flowchart of FIG. In step S601, the same operation as in step S401 is performed to generate editing information. In step S602, the video feature information obtained by analyzing the video to be edited is read from the storage unit 113 by the calculation unit 112a, and the editing information generated in step S601 is corrected. Here, the video feature information is analysis information related to video features such as information on the amount of scene change acquired from the difference between the front and back of the video image frame and the reproduction position estimated as a silent section from the change in the volume of the video audio. . In addition, the timing of creating the video feature information is automatically detected in advance during recording, viewing or editing, and stored in the storage unit 113, detected during editing, or separately via the network 103. Can be acquired from the video feature information stored in the server, and compression information such as a motion vector of video data to be edited can be used.

また、編集情報の補正とは、さまざまな補正方法が考えられるが、例えば、編集情報の開始点や終了点の特定範囲の付近に、解析情報の変化点の情報があれば、開始点や終了点を変化点に変更することで、映像に合わせた変化点に補正することが可能である。また、コマーシャルの可能性が高い区間に関しては、編集情報から除外することが可能である。また、映像の揺れが激しい箇所や、暗すぎる箇所に関しては、編集情報から除外することが可能である。尚、本実施の形態の例では、映像の特徴量の利用方法について述べているが、ユーザの癖を予め解析することで、操作内容に含まれているユーザ情報から、早送りの開始タイミングや、再生タイミングなどの、操作者の視聴操作の癖を含めた補正も、例えば、ユーザが一定の操作ボタンの遅延が行うことを設定しておくことで、遅延時間だけ、編集情報を変更するなどの補正も、同様の構成で実施することが可能である。   Various correction methods can be considered for correction of editing information. For example, if there is change point information in the analysis information in the vicinity of a specific range of the start point and end point of the edit information, the start point and end point are determined. By changing the point to the change point, it is possible to correct the change point according to the video. Moreover, it is possible to exclude from the editing information a section having a high possibility of commercial. In addition, it is possible to exclude from the editing information portions where the video shakes heavily or portions that are too dark. In the example of the present embodiment, the method of using the feature amount of the video is described. However, by analyzing the user's habit in advance, from the user information included in the operation content, The correction including the habit of the viewing operation of the operator such as the playback timing can be performed by changing the editing information only by the delay time, for example, by setting that the user delays a certain operation button. The correction can also be performed with the same configuration.

ステップS603では、前記ステップS402と同様の動作を行い、編集処理を行う。   In step S603, an operation similar to that in step S402 is performed to perform editing processing.

次に、蓄積部113に蓄積している操作内容データを利用して、ユーザが未視聴の映像
データを編集する動作について、フロー図7を用いて説明する。
Next, an operation of editing unviewed video data by using the operation content data stored in the storage unit 113 will be described with reference to a flowchart of FIG.

ステップS701では、操作信号101から入力された編集開始の合図や映像ファイルの選択や編集範囲の指定などユーザからの編集に関する操作信号を、入出力インターフェース部111を介して、制御部112内の演算部112aによって検出し、編集の対象となる映像に対応する録画情報を、蓄積部113から取得する。また、蓄積部113に蓄積されている過去の操作内容データと、前記録画情報とを比較して、類似する操作内容データを選択する。ここで、録画情報とは、少なくとも録画の年月日時分を含む開始時刻と終了時刻とチャンネル番号を含んだ録画されたときの情報であり、録画時に映像データと一緒に蓄積部113に蓄積を行うもの、あるいは映像データの中に含まれるものである。   In step S <b> 701, an operation signal related to editing such as a signal for starting editing, selection of a video file, or specification of an editing range input from the operation signal 101 is calculated in the control unit 112 via the input / output interface unit 111. Recording information detected by the unit 112 a and corresponding to the video to be edited is acquired from the storage unit 113. In addition, the past operation content data stored in the storage unit 113 is compared with the recording information, and similar operation content data is selected. Here, the recording information is information at the time of recording including at least the start date, the end time, and the channel number including the year, month, day, hour and minute of the recording. What to do or included in the video data.

また、操作内容データの選択とは、例えば、同じチャンネルで且つ、同じ録画開始時分で且つ、同じ録画終了時分の操作内容データの中で、一番録画年日に近い操作内容データを選択することである。他にも、1週間単位で検索することで、同じ曜日の操作内容データを選択したり、同じ録画時間の長さの操作内容データを選択したり、録画情報として電子番組情報などの番組名が利用可能な場合は、同じ番組名の操作内容データを選択することが可能である。尚、類似の操作内容データが無い場合は、ユーザに類似の操作内容データがないことを促し、類似の操作内容データをユーザが直接指定することや、視聴を実施することが可能である。   The operation content data selection is, for example, selecting the operation content data closest to the recording date among the operation content data of the same channel, the same recording start time and the same recording end time. It is to be. In addition, by searching on a weekly basis, operation content data for the same day of the week can be selected, operation content data for the same recording time length can be selected, and program names such as electronic program information can be recorded as recording information. When available, it is possible to select operation content data having the same program name. If there is no similar operation content data, the user is prompted to have no similar operation content data, and the user can directly specify similar operation content data or perform viewing.

ステップS702では、ステップS701で選択した操作内容データを、前記ステップS401にて視聴した操作内容データの代わりに利用することで、同様の動作を行い、編集情報を生成する。   In step S702, the operation content data selected in step S701 is used in place of the operation content data viewed in step S401, so that the same operation is performed and edit information is generated.

ステップS703では、前記ステップS402と同様の動作を行い、編集処理を行う。   In step S703, the same operation as in step S402 is performed to perform editing processing.

尚、本実施例では、操作内容データは、蓄積部113に蓄積されたものを検索しているが、ネットワーク103を介して、別の機器に蓄積されている操作内容データを検索しても同様の効果を得ることが可能である。また、前記ステップS201で取得した操作内容データを、ネットワーク103を介して、別の機器に予め蓄積しておくことで、他のユーザと操作内容データを共有することも可能である。尚、本実施例記載のネットワークは、インターネット、無線通信、赤外通信、ホームネットワーク通信などあらゆるネットワークを対象とする。   In this embodiment, the operation content data is searched for data stored in the storage unit 113. However, the operation content data stored in another device via the network 103 is also searched. It is possible to obtain the effect. The operation content data acquired in step S201 can be stored in advance in another device via the network 103, so that the operation content data can be shared with other users. The network described in this embodiment is intended for all networks such as the Internet, wireless communication, infrared communication, and home network communication.

本発明にかかる編集情報補助装置は、視聴時の操作内容を利用することで、編集時にユーザが編集点を指定せずに、編集処理を行うことが可能になるので、映像編集および映像編集の補助等として有用である。   The editing information assisting device according to the present invention uses the operation content at the time of viewing, so that the editing process can be performed without the user specifying the editing point at the time of editing. Useful as an aid.

本発明の実施の形態1に於ける編集操作補助装置の構成を示した図The figure which showed the structure of the edit operation assistance apparatus in Embodiment 1 of this invention 本発明の実施の形態1に於ける視聴時の編集操作補助装置の流れを示したフロー図The flowchart which showed the flow of the edit operation assistance apparatus at the time of viewing-and-listening in Embodiment 1 of this invention 本発明の実施の形態1に於ける編集操作補助装置の操作内容データの例を示した図The figure which showed the example of the operation content data of the edit operation assistance apparatus in Embodiment 1 of this invention 本発明の実施の形態1に於ける編集時の編集操作補助装置の流れを示したフロー図The flowchart which showed the flow of the edit operation assistance apparatus at the time of the edit in Embodiment 1 of this invention 本発明の実施の形態1に於ける編集操作補助装置の編集情報の生成の例を示した図The figure which showed the example of the production | generation of the edit information of the edit operation assistance apparatus in Embodiment 1 of this invention 本発明の実施の形態1に於ける編集時の補正処理を含む編集操作補助装置の流れを示したフロー図The flowchart which showed the flow of the edit operation assistance apparatus containing the correction process at the time of edit in Embodiment 1 of this invention 本発明の実施の形態1に於ける未視聴映像に対する編集時の編集操作補助装置の流れを示したフロー図The flowchart which showed the flow of the edit operation assistance apparatus at the time of the edit with respect to the unviewed video in Embodiment 1 of this invention

符号の説明Explanation of symbols

101 操作信号
102 出力信号
103 ネットワーク
110 編集操作補助装置
111 入出力インターフェース部
112 制御部(操作内容抽出手段、操作データ解析手段、映像データ編集手段、編集情報補正手段、操作内容自動選択手段)
112a 演算部
112b メモリー部
113 蓄積部(操作内容蓄積手段)
DESCRIPTION OF SYMBOLS 101 Operation signal 102 Output signal 103 Network 110 Editing operation assistance apparatus 111 Input / output interface part 112 Control part (Operation content extraction means, operation data analysis means, video data editing means, editing information correction means, operation content automatic selection means)
112a operation unit 112b memory unit 113 storage unit (operation content storage unit)

Claims (6)

映像の視聴時に、ユーザの視聴操作から生成される操作信号から操作内容を抽出する操作内容抽出ステップと、抽出した操作内容のデータを蓄積する操作内容蓄積ステップと、映像の編集時に、前記操作内容蓄積ステップで蓄積された操作内容のデータを解析することによって編集情報を生成する操作データ解析ステップと、前記操作データ解析ステップで生成された編集情報に基づき映像を編集する映像データ編集ステップを有する編集操作補助方法。 An operation content extraction step for extracting operation content from an operation signal generated from a user's viewing operation during viewing of the video, an operation content storage step for storing data of the extracted operation content, and the operation content at the time of video editing Editing including an operation data analysis step for generating editing information by analyzing the operation content data stored in the storage step, and a video data editing step for editing video based on the editing information generated in the operation data analysis step Operation assistance method. 映像の特徴量を抽出する映像特徴抽出ステップと、抽出した映像特徴情報を蓄積する映像特徴情報蓄積ステップと、映像の編集時に、前記映像特徴情報蓄積ステップで蓄積した映像特徴情報に基づいて、前記操作データ解析ステップで生成された編集情報の編集点を自動補正する編集情報補正ステップをさらに有する、請求項1に記載の編集操作補助方法。 Based on the video feature extraction step for extracting the video feature amount, the video feature information storage step for storing the extracted video feature information, and the video feature information stored in the video feature information storage step when editing the video, The editing operation assisting method according to claim 1, further comprising an editing information correcting step of automatically correcting an editing point of the editing information generated in the operation data analyzing step. 前記操作内容蓄積ステップで蓄積している操作内容のデータを利用して、選ばれた映像の保持する情報と比較し、蓄積している操作内容のデータから自動的に選択して、前記操作データ解析ステップでの編集情報の生成に利用する、操作内容自動選択ステップを、さらに備えたことを特徴とする請求項1または請求項2に記載の編集操作補助方法。 The operation content data stored in the operation content storage step is used to compare with the information held in the selected video, and the operation data is automatically selected from the stored operation content data. The editing operation assisting method according to claim 1, further comprising an operation content automatic selection step used for generation of editing information in the analysis step. 請求項1から請求項3のいずれかに記載された方法によりデータを編集する編集操作補助装置。 An editing operation assisting device for editing data by the method according to any one of claims 1 to 3. 請求項1から請求項3のいずれかに記載された方法を含むコンピュータを動作させるプログラム。 A program for operating a computer including the method according to any one of claims 1 to 3. 請求項5に記載されたプログラムを記録した媒体。 A medium on which the program according to claim 5 is recorded.
JP2005019407A 2005-01-27 2005-01-27 Editing operation auxiliary method, device, program, and medium Pending JP2006211191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005019407A JP2006211191A (en) 2005-01-27 2005-01-27 Editing operation auxiliary method, device, program, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005019407A JP2006211191A (en) 2005-01-27 2005-01-27 Editing operation auxiliary method, device, program, and medium

Publications (1)

Publication Number Publication Date
JP2006211191A true JP2006211191A (en) 2006-08-10

Family

ID=36967565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005019407A Pending JP2006211191A (en) 2005-01-27 2005-01-27 Editing operation auxiliary method, device, program, and medium

Country Status (1)

Country Link
JP (1) JP2006211191A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099685A1 (en) * 2007-02-01 2008-08-21 Sony Corporation Image reproducing apparatus, image reproducing method, imaging apparatus and method for controlling the imaging apparatus
WO2022250439A1 (en) * 2021-05-28 2022-12-01 주식회사 잘라컴퍼니 Streaming data-based method, server, and computer program for recommending image edit point

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099685A1 (en) * 2007-02-01 2008-08-21 Sony Corporation Image reproducing apparatus, image reproducing method, imaging apparatus and method for controlling the imaging apparatus
JPWO2008099685A1 (en) * 2007-02-01 2010-05-27 ソニー株式会社 Image reproducing apparatus, image reproducing method, imaging apparatus, and control method thereof
US8903222B2 (en) 2007-02-01 2014-12-02 Sony Corporation Image reproducing apparatus, image reproducing method, image capturing apparatus, and control method therefor
WO2022250439A1 (en) * 2021-05-28 2022-12-01 주식회사 잘라컴퍼니 Streaming data-based method, server, and computer program for recommending image edit point

Similar Documents

Publication Publication Date Title
JP4274087B2 (en) Information processing apparatus and method, and program
JP2007134010A (en) Information processor, display method and its program
JP2008078997A (en) Information processor and method, program, and recording medium
JP2009055152A (en) Motion picture generating apparatus, motion picture generating method, and program
JP2009105719A (en) Video content viewing terminal
JP2010057145A (en) Electronic device, and method and program for changing moving image data section
CN101188722A (en) Video recording/reproducing apparatus
JP2014030153A (en) Information processor, information processing method, and computer program
US20060126088A1 (en) Information processing apparatus and method, and program
JP2007141092A (en) Device, method and program for presenting information and information recording medium
JP2009004872A (en) One-segment broadcast receiver, one-segment broadcast receiving method and medium recording one-segment broadcast receiving program
JP2005252574A (en) Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system
JP2005341182A (en) Cooking recipe editing and presentating system
JP6443205B2 (en) CONTENT REPRODUCTION SYSTEM, CONTENT REPRODUCTION DEVICE, CONTENT RELATED INFORMATION DISTRIBUTION DEVICE, CONTENT REPRODUCTION METHOD, AND CONTENT REPRODUCTION PROGRAM
JP2006211191A (en) Editing operation auxiliary method, device, program, and medium
JP2007228220A (en) Built-in hard diskdrive television receiver and television receiver
JP2004023787A (en) Visualization and navigation interface by television system
JP2007295316A (en) Record reproducer
JP4230402B2 (en) Thumbnail image extraction method, apparatus, and program
JP4600891B2 (en) AV apparatus and broadcast recording method in AV apparatus
US20090150783A1 (en) Method and apparatus to control device
JP4171316B2 (en) Information editing apparatus, information editing method, and information editing program
JP2013066045A (en) Information processing system, information processor, and information processing program
JP2006270793A (en) Digest video recording system
JP2012004687A (en) Content playback device, content output device, and content playback system