JP2004364255A - Contents editing apparatus, contents editing method and contents editing program - Google Patents

Contents editing apparatus, contents editing method and contents editing program Download PDF

Info

Publication number
JP2004364255A
JP2004364255A JP2004080264A JP2004080264A JP2004364255A JP 2004364255 A JP2004364255 A JP 2004364255A JP 2004080264 A JP2004080264 A JP 2004080264A JP 2004080264 A JP2004080264 A JP 2004080264A JP 2004364255 A JP2004364255 A JP 2004364255A
Authority
JP
Japan
Prior art keywords
content
program
information
correction
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004080264A
Other languages
Japanese (ja)
Other versions
JP4124149B2 (en
Inventor
Akiko Mizuguchi
明子 水口
Seiji Kinohara
誠司 木ノ原
Masato Kuriki
眞人 久力
Mineo Masamitsu
峰夫 正満
Koichi Tanaka
弘一 田中
Shigemi Fusano
成実 房野
Satoshi Kibune
智 木舩
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004080264A priority Critical patent/JP4124149B2/en
Publication of JP2004364255A publication Critical patent/JP2004364255A/en
Application granted granted Critical
Publication of JP4124149B2 publication Critical patent/JP4124149B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a contents editing apparatus capable of automatically acquiring live contents by means of live reservation, incorporating the contents into a program including existing contents and efficiently correcting error such as misregistration. <P>SOLUTION: The editing apparatus comprises: a storage means for storing program proceeding information; an existing content acquiring means for acquiring existent contents on the basis of content information which is inputted according to the program proceeding information; a live content acquiring means for receiving a reserved starting time and a reserved ending time of live contents and acquiring the live contents on the basis of the relevant reserved starting time and reserved ending time; and a means for combining the existing contents and the live contents for outputting as program contents on the basis of the program proceeding information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、コンテンツを予約・編集するための技術に係り、特に、取得したコンテンツの時間的なずれを自動的に補正し、ライブコンテンツを含む多様なコンテンツの編集を効率良く行うための技術に関するものである。   The present invention relates to a technology for reserving and editing content, and more particularly to a technology for automatically correcting a time lag of acquired content and efficiently editing various content including live content. Things.

映像中のカメラのオン・オフや映像編集のつなぎ目(フェード、ワイプ等)によりシーンが切り替わる点をカットという。またショットはカットとカットの区間をいう。カットの検出を行い、ショット等を抽出する技術として例えば特許文献1に記載された技術がある。   A point at which a scene is switched by turning on / off a camera in a video or a joint of video editing (fade, wipe, etc.) is called cut. A shot refers to a section between cuts. As a technique for detecting a cut and extracting a shot or the like, there is a technique described in Patent Document 1, for example.

なお、記録間隔が所定時間内であるショット、カットの集合を1つの「トピック」と定義している。また、一般にトピックは意味のある動画又は静止画である。例えば、1つの番組の中にCMが含まれているとすると、そのCMはトピックの一つである。なお、本明細書中、ショット等のコンテンツを構成する要素となるものを「要素コンテンツ」と称する。   A set of shots and cuts whose recording interval is within a predetermined time is defined as one “topic”. In general, topics are meaningful moving images or still images. For example, if a CM is included in one program, the CM is one of the topics. In this specification, an element that constitutes a content such as a shot is referred to as “element content”.

特許文献1には、時間的にゆっくりとしたシーン(ショット)変化を検出でき、フラッシュ光を含む映像を統一的に実時間処理可能とするカット切出方法及びショット検出方法が記載されている。特許文献1に記載された技術を用いることにより複数のカット及びショットを検出することができる。検出したカット及びショットを基に所望の番組コンテンツを作成できるが、従来技術ではこの編集を手動で行う場合が多く、手間がかかっていた。   Patent Literature 1 describes a cut-out method and a shot detection method that can detect temporally slow scene (shot) changes and enable uniform real-time processing of an image including flash light. A plurality of cuts and shots can be detected by using the technique described in Patent Literature 1. Although desired program content can be created based on the detected cuts and shots, in the prior art, this editing is often performed manually, which is troublesome.

また、ライブコンテンツを含む種々のコンテンツを組み合わせた番組コンテンツを効率的に作成、編集する技術が要望されていた。
特開平8-214210号公報
In addition, there has been a demand for a technology for efficiently creating and editing program contents by combining various contents including live contents.
JP-A-8-214210

本発明は、上記従来技術の問題点に鑑みてなされたものであり、番組進行情報に基づき、ライブ予約により自動的にライブコンテンツを取得して既存のコンテンツを組み合わせた番組を作成することができ、更に効率的にコンテンツの取得における時間誤差の補正を行い、番組コンテンツとして出力することを可能としたコンテンツ編集のための技術を提供することを目的とする。   The present invention has been made in view of the above-described problems of the related art, and it is possible to automatically obtain live content by live reservation based on program progress information and create a program combining existing contents. It is another object of the present invention to provide a technology for content editing that can correct time errors in content acquisition more efficiently and output the program content.

上記の課題は、コンテンツを複数組み合わせて構成される番組コンテンツを編集するための編集装置であって、番組進行情報を蓄積する蓄積手段と、前記番組進行情報に従って入力されたコンテンツ情報に基づき既存コンテンツを取得する既存コンテンツ取得手段と、ライブコンテンツの予約開始時刻と予約終了時刻を受け、当該予約開始時刻と予約終了時刻に基づきライブコンテンツを取得するライブコンテンツ取得手段と、前記番組進行情報に基づき、前記既存コンテンツと前記ライブコンテンツとを組み合わせて番組コンテンツとして出力する手段とを有することを特徴とする編集装置により解決できる。   An object of the present invention is to provide an editing apparatus for editing a program content configured by combining a plurality of contents, the storage means for storing program progress information, and an existing content based on content information input according to the program progress information. An existing content acquisition unit for acquiring the live content reservation start time and the reservation end time, and a live content acquisition unit for acquiring the live content based on the reservation start time and the reservation end time, based on the program progress information, Means for combining the existing content and the live content and outputting the program content as program content.

本発明によれば、番組進行情報に基づき、ライブ予約により自動的にライブコンテンツを取得して、既存のコンテンツを含む番組に組み込んで所望の番組を編集することが可能となる。なお、コンテンツ情報とは例えば実施の形態で説明されているトピック情報である。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to acquire a live content automatically by a live reservation based on program progress information, to incorporate it into a program including existing content, and to edit a desired program. The content information is, for example, topic information described in the embodiment.

また、前記編集装置は、前記既存コンテンツ取得手段により取得された既存コンテンツの時間長、又は前記ライブコンテンツ取得手段により取得されたライブコンテンツの時間長に基づき、前記番組進行情報を変更する変更手段を有し、当該変更手段は、番組コンテンツを構成する各コンテンツの優先順位を参照して前記番組進行情報を変更する。   The editing device may further include a change unit that changes the program progress information based on a time length of the existing content acquired by the existing content acquisition unit or a time length of the live content acquired by the live content acquisition unit. And the changing means changes the program progress information with reference to the priority of each content constituting the program content.

従って、番組進行情報を変更して状況に適した構成の番組を作成することができる。   Therefore, it is possible to create a program having a configuration suitable for the situation by changing the program progress information.

前記既存コンテンツ取得手段は、入力されたコンテンツ情報に基づき既存コンテンツに付されたメタデータを検索することにより、当該コンテンツ情報に適合したコンテンツを取得するようにしてもよい。このようにすれば、自動的に所望の既存コンテンツを取得できる。   The existing content acquisition unit may retrieve content attached to the existing content by searching for metadata attached to the existing content based on the input content information. In this way, the desired existing content can be automatically obtained.

また、上記の編集装置に、前記取得したコンテンツの開始部分又は終了部分を補正して、当該コンテンツを前記番組コンテンツの中での使用に適したコンテンツとするための補正手段を設けることにより、コンテンツの取得におけるずれ等の誤差を自動的に補正できる。
前記補正手段は、前記番組進行情報における一のコンテンツの時間枠の開始時刻又は終了時刻と、取得された当該一のコンテンツを構成する要素コンテンツのうちの少なくとも1つの要素コンテンツの開始時刻又は終了時刻とに基づき、当該要素コンテンツ単位に前記取得された一のコンテンツを補正するよう構成できる。また、前記補正手段は、複数の補正パターンのうちの一つの補正パターンを用いて前記一のコンテンツを前記要素コンテンツ単位に補正することができる。更に、前記補正手段は、利用者により選択された補正パターンを用いて前記一のコンテンツの補正を行い、前記編集装置は、利用者により選択された補正パターンを、当該利用者の識別情報と当該補正パターンが使用されたコンテンツに関する情報とに対応付けて蓄積し、蓄積された補正パターンの情報を用いて、当該利用者による新たな番組コンテンツの作成時に特定の補正パターンを推奨する手段を有するよう構成できる。
The editing apparatus may further include a correction unit configured to correct a start portion or an end portion of the acquired content and make the content suitable for use in the program content. Can be automatically corrected.
The correction means includes: a start time or an end time of a time frame of one content in the program progress information; and a start time or an end time of at least one element content among the acquired element contents constituting the one content. Based on the above, the acquired one content may be corrected for each element content unit. Further, the correction means can correct the one content in units of the element content using one correction pattern of a plurality of correction patterns. Further, the correction unit corrects the one content using a correction pattern selected by the user, and the editing device displays the correction pattern selected by the user as identification information of the user and the correction pattern. The correction pattern may be stored in association with information on the used content, and using the stored correction pattern information, a means for recommending a specific correction pattern when the user creates new program content may be provided. Can be configured.

本発明は、上記の編集装置の処理方法また、コンピュータに上記の編集装置における処理を実行させるプログラム、及び、そのプログラムを記録した記録媒体としても構成できる。   The present invention can also be configured as a processing method of the editing device, a program for causing a computer to execute the processing in the editing device, and a recording medium on which the program is recorded.

上記のように本発明によれば、番組進行情報に従って自動的に既存コンテンツと予約するライブコンテンツを組み合わせて番組コンテンツの生成及び編集を行うことができる。更に、コンテンツの補正をショット単位に自動的に行うので、編集を従来よりも迅速に行うことができる。また、複数の補正パターンを使用できるので、より目的に適合した編集を行うことができる。   As described above, according to the present invention, it is possible to automatically generate and edit program content by automatically combining existing content and live content to be reserved according to program progress information. Further, since the correction of the content is automatically performed for each shot, the editing can be performed more quickly than in the past. Further, since a plurality of correction patterns can be used, it is possible to perform editing more suitable for the purpose.

以下、図面を参照して本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1に本発明の実施の形態におけるシステムの構成を示す。図1に示すように本発明の実施の形態におけるシステムは、編集装置1、インデキシング装置2、符号化処理装置3を有している。図2のフローを参照して本システムの動作概要について説明する。   FIG. 1 shows a configuration of a system according to an embodiment of the present invention. As shown in FIG. 1, the system according to the embodiment of the present invention includes an editing device 1, an indexing device 2, and an encoding processing device 3. An outline of the operation of the present system will be described with reference to the flow of FIG.

(システムの概要)
編集装置1では、まず、利用者が番組の構成に関する番組進行情報を入力する(ステップS1)。この番組進行情報は、編集装置1の記憶装置に保存され、必要に応じて変更及び更新が可能である。これにより、利用者は、既に保存してある番組進行情報を利用でき、新たな番組進行情報の作成負担を減らすことが可能である。この番組進行情報は、番組構成の基となるものであり、番組を構成する各トピックの時間枠の情報及び各トピックの優先順位の情報を含むものである。この番組進行情報に従って、ライブコンテンツや既存のコンテンツが自動で組み合わせられる。
(Overview of the system)
In the editing device 1, first, a user inputs program progress information on a program configuration (step S1). This program progress information is stored in the storage device of the editing device 1, and can be changed and updated as needed. As a result, the user can use the program progress information that has already been saved, and can reduce the burden of creating new program progress information. The program progress information is the basis of the program configuration, and includes information on the time frame of each topic constituting the program and information on the priority of each topic. Live content and existing content are automatically combined according to the program progress information.

次に、利用者は、番組進行情報に基づき番組を構成する複数のトピックに対するトピック情報を入力する(ステップS2)。トピック情報とはトピックに関する情報であり、例えば、ライブもしくはコンテンツID、ライブもしくはコンテンツの名称、時間情報、トピックの概要等である。   Next, the user inputs topic information for a plurality of topics constituting the program based on the program progress information (step S2). The topic information is information about the topic, for example, a live or content ID, a live or content name, time information, a topic summary, and the like.

次に、利用者からの操作に従って、ライブ挿入予約、既存コンテンツ取得を行う(ステップS3)。既存コンテンツ取得においては、メタデータ検索により、利用者が入力したトピック情報及び番組進行情報における時間長に適合したコンテンツを取得する。なお、この場合は既存コンテンツのインデキシング(ショットの識別等の処理)は既に行われているものとする。   Next, live insertion reservation and existing content acquisition are performed according to the operation from the user (step S3). In the existing content acquisition, the content matching the time length in the topic information and the program progress information input by the user is acquired by metadata search. In this case, it is assumed that indexing of existing content (processing such as shot identification) has already been performed.

ライブ挿入予約に基づき、符号化処理装置3によりライブコンテンツの符号化処理が行われ、インデキシング装置2は符号化されたライブコンテンツのインデキシング処理を行う(ステップS4)。なお、インデキシング処理とは、ショットの識別等の処理を行うことである。   Based on the live insertion reservation, the encoding processing device 3 performs the encoding process on the live content, and the indexing device 2 performs the indexing process on the encoded live content (step S4). Note that the indexing process refers to performing a process such as identification of a shot.

符号化された映像エンコードファイル(*.asf)、インデキシング処理されたコンテンツのシーン解析情報(*.xml)は、編集装置1に送られる。なお、既存コンテンツのインデキシング処理がステップS3の時点で行われていない場合には、既存コンテンツのインデキシング処理もステップS4で行い、既存コンテンツに対するメタデータ検索はステップS4の後で行う。   The encoded video encoding file (* .asf) and the scene analysis information (* .xml) of the indexed content are sent to the editing device 1. If the indexing process of the existing content has not been performed at the time of step S3, the indexing process of the existing content is also performed at step S4, and the metadata search for the existing content is performed after step S4.

編集装置1では、番組進行情報に従って編集を行う(ステップS5)。すなわち、番組進行情報に従って、取得したコンテンツ(トピック)を組み合わせ、番組コンテンツとする。このとき、番組進行情報における時間枠に対するトピックの補正が自動的になされる。より詳細には、ライブコンテンツ、もしくはメタデータ検索によりトピックとして取得したコンテンツから、不要な部分を除く等の補正処理を行い、番組コンテンツの中で使用するコンテンツを切り出して番組に組み込む。なお、本明細書では、特に区別しない限り“コンテンツ”の用語はライブコンテンツと既存コンテンツの両者を含む意味で使用する。   The editing device 1 performs editing according to the program progress information (step S5). That is, according to the program progress information, the acquired contents (topics) are combined into a program content. At this time, the topic is automatically corrected for the time frame in the program progress information. More specifically, correction processing such as removing unnecessary portions is performed from live content or content acquired as a topic by metadata search, and content used in program content is cut out and incorporated into the program. In this specification, the term “content” is used to mean both live content and existing content unless otherwise specified.

後述するように、上記の補正は複数の補正パターンから選択された補正パターンに従って行われる。どの補正パターンを使用するかは編集装置1が自動的に決定することもできるし、利用者が選択することもできる。また、トピックにおける不要なショットの削除、並べ替え、サムネイルの選択などの編集機能を利用者に提供することにより、利用者は細部における編集を行うことも可能である。   As described later, the above correction is performed according to a correction pattern selected from a plurality of correction patterns. Which correction pattern to use can be automatically determined by the editing apparatus 1 or can be selected by the user. Further, by providing the user with editing functions such as deletion, rearrangement, selection of thumbnails, and the like, unnecessary shots in the topic, the user can also edit in detail.

その後、目的とする編集済みの番組コンテンツを出力する(ステップS6)。出力の一形態として、Webページ(*.html)を所定のホームページテンプレートへ組み込み、サーバへ転送し、即時に編集済みの番組コンテンツをWebに公開することが可能である。   Thereafter, the intended edited program content is output (step S6). As one form of output, it is possible to incorporate a Web page (* .html) into a predetermined homepage template, transfer it to a server, and immediately publish the edited program content to the Web.

なお、図1に示す構成において、編集装置1、インデキシング装置2、符号化処理装置3の各々は一般的なコンピュータに、本実施の形態で説明するような処理を実行するプログラムを搭載することにより実現できる。また、編集装置1、インデキシング装置2、符号化処理装置3を1つのコンピュータで実現することもできるし、いずれか2つを1つのコンピュータとして実現することもできる。これらの各コンピュータを互いに遠隔に置き、ネットワーク接続する構成としてもよい。   In the configuration shown in FIG. 1, each of the editing device 1, the indexing device 2, and the encoding processing device 3 is obtained by installing a program for executing the processing described in the present embodiment on a general computer. realizable. Further, the editing device 1, the indexing device 2, and the encoding processing device 3 can be realized by one computer, or any two of them can be realized by one computer. Each of these computers may be remotely located and connected to a network.

また、本実施の形態に係る処理を行うプログラムは、コンピュータが読み取りできる記録媒体、例えば、FD(フロッピー(登録商標)ディスク)や、MO、ROM、メモリカード、CD−ROM、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、そのプログラムは、インターネットや電子メールなど、ネットワークを通して提供することも可能である。   Further, the program for performing the processing according to the present embodiment includes a computer-readable recording medium such as an FD (floppy (registered trademark) disk), an MO, a ROM, a memory card, a CD-ROM, a DVD, and a removable disk. And can be stored and distributed. Further, the program can be provided through a network such as the Internet or e-mail.

(編集装置1の詳細)
次に、図3を参照して編集装置1の構成を詳細に説明する。図3に示すように、本実施の形態における編集装置1は、番組進行情報の基になる情報の入力を受けて番組進行情報を作成し、記憶装置に蓄積する番組進行情報作成部10、蓄積された番組進行情報を更新及び管理する番組進行情報管理部11、トピック情報を入力するためのトピック情報収集部12を有している。
(Details of the editing device 1)
Next, the configuration of the editing apparatus 1 will be described in detail with reference to FIG. As shown in FIG. 3, the editing apparatus 1 according to the present embodiment generates program progress information in response to input of information on which program progress information is based, and stores a program progress information creating unit 10 for storing the program progress information in a storage device. It has a program progress information management unit 11 for updating and managing the received program progress information, and a topic information collection unit 12 for inputting topic information.

また、編集装置1は状況判断部13を有している。状況判断部13は、スケジューリング部14に番組進行情報の内容を保持しており、ライブコンテンツもしくはトピック情報に基づき取得したコンテンツの時間長が、当初設定した番組進行情報における該当トピックの時間長より長くなったような場合に、そのトピックの優先順位に応じて、番組進行情報における当該トピックの時間長を伸ばす等の通知を番組進行情報管理部11に対して行う。また、優先順位の高いトピックの時間長が伸ばされた結果、優先順位の低いトピックの時間枠を番組進行情報から削除したり、当該トピックの時間長を短縮させるための処理も行う。   The editing device 1 also has a situation determination unit 13. The situation determination unit 13 holds the content of the program progress information in the scheduling unit 14, and the time length of the content acquired based on the live content or the topic information is longer than the time length of the corresponding topic in the initially set program progress information. In such a case, the program progress information management unit 11 is notified of, for example, extending the time length of the topic in the program progress information according to the priority of the topic. In addition, as a result of extending the time length of a topic with a higher priority, a process for deleting the time frame of a topic with a lower priority from the program progress information or shortening the time length of the topic is also performed.

また、編集装置1は、番組コンテンツを構成するトピックを取得するためのトピック情報総合部15を有している。トピック情報総合部15は、コンテンツマッチング処理部16とメタデータ検索部17を有している。コンテンツマッチング処理部16は、入力されたトピック情報にマッチするコンテンツをトピックとして抽出する処理を行う。より詳細には、コンテンツマッチング処理部16は、入力されたトピック情報をメタデータ検索部17に渡し、メタデータ検索部17は、トピック情報に基づき対象のコンテンツにおけるメタデータを検索し、適切なコンテンツ部分をコンテンツマッチング処理部16に渡す。また、コンテンツマッチング処理部16は、ライブコンテンツを予約し、取得するためのコンテンツ予約挿入部18と、優先順位付けされたトピックを処理するための優先処理部19を有している。   Further, the editing device 1 has a topic information synthesis unit 15 for acquiring topics constituting the program content. The topic information synthesis unit 15 has a content matching processing unit 16 and a metadata search unit 17. The content matching processing unit 16 performs a process of extracting a content that matches the input topic information as a topic. More specifically, the content matching processing unit 16 passes the input topic information to the metadata search unit 17, and the metadata search unit 17 searches for metadata in the target content based on the topic information, and The part is passed to the content matching processing unit 16. Further, the content matching processing unit 16 has a content reservation insertion unit 18 for reserving and acquiring live content, and a priority processing unit 19 for processing the prioritized topics.

優先処理部19は状況判断部13と連携して動作する。例えば、優先順位の高いトピックの時間長が長くなり、優先順位の低いトピックの時間長を短縮しなければならないようなときに、予め入力された情報に基づき、優先順位の低いトピックに対応するコンテンツ(例えば特定のシーンのみ等)を、メタデータ検索部17を利用して取得する処理を行う。また、状況判断部13によりあるトピックの時間長が番組進行情報と異なることが検知されると、優先処理部19は、番組進行情報に入力されている優先順位を変更する画面を表示し、利用者に優先順位を変更させることも可能である。   The priority processing unit 19 operates in cooperation with the situation determination unit 13. For example, when the time length of a high-priority topic increases and the time length of a low-priority topic needs to be shortened, the content corresponding to the low-priority topic is determined based on information input in advance. For example, only a specific scene or the like is obtained using the metadata search unit 17. Further, when the situation determination unit 13 detects that the time length of a certain topic is different from the program progress information, the priority processing unit 19 displays a screen for changing the priority input in the program progress information, and It is also possible for the user to change the priority.

更に、編集装置1は、編集部20、及び出力部21を有している。編集部20は、番組進行情報の時間枠に組み込むべきトピックのショット単位の補正を所定の補正パターンに従って行う補正部22と、利用者に選択させるために複数の補正パターンを表示する補正パターン表示部23と、利用者により選択された補正パターンを、利用者とコンテンツ種類等に対応付けて記憶する補正パターン記憶部24と、記憶されている補正パターンに対して統計的処理を施す統計処理部25と、特定のコンテンツの補正時に利用者におすすめの補正パターンを教示するための教示部26とを有している。また、編集部20は、不要シーンの削除、トピックの並び替え、サムネイル選択等のトピックの編集を手動もしくは自動で行う編集機能部27を有している。   Further, the editing device 1 has an editing unit 20 and an output unit 21. The editing unit 20 includes a correction unit 22 that corrects a shot to be incorporated into a time frame of the program progress information in a unit of a shot in accordance with a predetermined correction pattern, and a correction pattern display unit that displays a plurality of correction patterns for the user to select. 23, a correction pattern storage unit 24 that stores the correction pattern selected by the user in association with the user and the content type, and a statistical processing unit 25 that performs statistical processing on the stored correction pattern. And a teaching unit 26 for teaching a user a recommended correction pattern when correcting a specific content. The editing unit 20 has an editing function unit 27 for manually or automatically editing topics such as deleting unnecessary scenes, rearranging topics, and selecting thumbnails.

出力部21は、編集済みの番組コンテンツを出力するための機能部であり、番組進行情報に従って作成された番組コンテンツを組み込むテンプレートを選択し、ホームページを作成するホームページ画面作成部28を備えている。また、編集装置1は、装置間における時間調整を行う時間補正部29、及び、編集装置1とインデキシング装置2との間で時間同期をとるための時計部30を有している。   The output unit 21 is a functional unit for outputting the edited program content, and includes a homepage screen creating unit 28 for selecting a template incorporating the program content created according to the program progress information and creating a homepage. The editing device 1 also has a time correction unit 29 for adjusting the time between the devices, and a clock unit 30 for time synchronization between the editing device 1 and the indexing device 2.

以下、図3に示す編集装置1の動作を図4のシーケンスチャートを参照して説明する。なお、図4のシーケンスチャートでは、編集装置1の部分を編集系と称し、インデキシング装置2と符号化処理装置3の部分を生成系と称している。   Hereinafter, the operation of the editing apparatus 1 shown in FIG. 3 will be described with reference to the sequence chart of FIG. In the sequence chart of FIG. 4, the part of the editing device 1 is called an editing system, and the part of the indexing device 2 and the encoding processing device 3 is called a generation system.

ライブ予約では、編集装置1で設定した時間がインデキシング装置2によりライブ取り込みに使用されることから、まず、時計部30により編集装置1とインデキシング装置2との間における時間調整(同期をとる)が行われる(ステップS11)。   In the live reservation, since the time set in the editing device 1 is used for live capturing by the indexing device 2, first, the time adjustment (time synchronization) between the editing device 1 and the indexing device 2 is performed by the clock unit 30. This is performed (step S11).

番組進行情報作成部10に番組進行情報の基となる情報(各トピックの時間枠の開始時刻、終了時刻等)が入力され、この情報に基づき番組進行情報が作成されると(ステップS12)、当該番組進行情報に対応してトピック情報を入力する画面を表示する。利用者は、番組進行情報における該当する時間枠に挿入するトピックのトピック情報を入力する(ステップS13)。トピックがスタジオ等から中継されるライブコンテンツである場合には、それに対応するトピック情報(ライブコンテンツを特定する情報)、ライブの予約開始時刻及び予約終了時刻を入力する。なお、ライブコンテンツには、本当のライブコンテンツだけでなく、テープ等に保存したライブコンテンツ(VODコンテンツ等)も含む。なお、テープ等に保存したものを擬似ライブコンテンツともいう。   When the information (start time, end time, etc. of the time frame of each topic) that is the basis of the program progress information is input to the program progress information creating unit 10, and the program progress information is created based on this information (step S12), A screen for inputting topic information corresponding to the program progress information is displayed. The user inputs topic information of a topic to be inserted into a corresponding time frame in the program progress information (step S13). When the topic is live content relayed from a studio or the like, the user inputs the corresponding topic information (information for specifying the live content), the reservation start time of the live, and the reservation end time. Note that the live content includes not only true live content but also live content (such as VOD content) stored on a tape or the like. Note that what is stored on a tape or the like is also called pseudo live content.

続いて、既存コンテンツに対しては、トピック情報に基づき既存コンテンツに対するメタデータ検索が行われ、当該コンテンツの中から所望のトピックを抽出する(ステップS14)。ライブコンテンツに対しては、入力した情報に基づきライブの予約がなされる。   Subsequently, for the existing content, a metadata search for the existing content is performed based on the topic information, and a desired topic is extracted from the content (step S14). For the live content, a live reservation is made based on the input information.

上記のメタデータ検索の処理は既存技術であり、検索対象のコンテンツに付してあるメタデータと、入力したトピック情報のメタデータとのマッチング検索を行うことにより実現できる。メタデータは、例えば、コンテンツID、コンテンツタイトル、日時(IN、OUT時間帯含む)、要約、キーワード、透かし等の著作権関連情報、コンテンツの概要等である。   The above metadata search process is an existing technology, and can be realized by performing a matching search between metadata attached to the content to be searched and metadata of the input topic information. The metadata is, for example, a content ID, a content title, date and time (including the IN and OUT time zones), a summary, a keyword, a copyright-related information such as a watermark, a content outline, and the like.

上記のトピック情報の入力としては種々の情報の入力が可能であるが、例えば、図5に示すような複数のトピックに対する各々のトピック情報を、図6に例として示すユーザインタフェースを用いて入力することが可能である。   As the input of the topic information, various information can be input. For example, each topic information for a plurality of topics as shown in FIG. 5 is input using a user interface shown as an example in FIG. It is possible.

図5に示す例では、トピック1、3、4が既存のコンテンツファイルから取得されるコンテンツであり、トピック2がライブ予約により取得するコンテンツである。図7(a)に示すように、番組進行情報に基づき全てのトピック情報が入力されると、各トピック情報に対応した所定の時間長のコンテンツ(トピック)が抽出される(図7(b))。なお、図5に示すような番組構成の他、図8に示すようなTree構造の番組構成とすることもできる。また、既存コンテンツのみの組み合わせ、もしくはライブコンテンツのみの組み合わせからなる番組構成とすることもできる。   In the example shown in FIG. 5, topics 1, 3, and 4 are contents obtained from existing content files, and topic 2 is content obtained by live reservation. As shown in FIG. 7A, when all topic information is input based on the program progress information, content (topic) having a predetermined time length corresponding to each topic information is extracted (FIG. 7B). ). In addition to the program configuration shown in FIG. 5, a program configuration having a tree structure as shown in FIG. 8 may be used. In addition, a program configuration including a combination of only existing contents or a combination of only live contents can be adopted.

なお、番組進行情報における時間の流れは相対的なものである。例えば、最初のトピックの開始の時刻を0とし、以降の時間枠(開始時刻、終了時刻)はそこからの経過時間で表される。ライブコンテンツの場合、予約及び取得は実際の時刻で行うが、番組進行情報上では、ライブコンテンツの開始、終了は上記の相対時刻で表現される。すなわち、実際の予約開始時刻が番組進行情報上の開始時刻(これを予約開始時刻と呼ぶ場合がある)に対応し、実際の予約終了時刻が番組進行情報上の終了時刻(これを予約終了時刻と呼ぶ場合がある)に対応する。また、既存コンテンツの場合は、例えば、取得したコンテンツの開始の部分をそのコンテンツに対応する時間枠の開始に合わせて番組進行情報の相対的な時間にあてはめる。もしくは、取得したコンテンツの開始点を、そのコンテンツに対応する時間枠の開始時刻より所定のショット数分時間的に前に置くようにしてもよい。   Note that the flow of time in the program progress information is relative. For example, the start time of the first topic is set to 0, and the subsequent time frame (start time, end time) is represented by the elapsed time from that time frame. In the case of live content, reservation and acquisition are performed at the actual time, but on the program progress information, the start and end of the live content are expressed by the relative time. That is, the actual reservation start time corresponds to the start time on the program progress information (this may be called the reservation start time), and the actual reservation end time is the end time on the program progress information (this is the reservation end time). In some cases). In the case of existing content, for example, the start portion of the acquired content is applied to the relative time of the program progress information in accordance with the start of the time frame corresponding to the content. Alternatively, the start point of the acquired content may be placed a predetermined number of shots in time before the start time of the time frame corresponding to the content.

図4において、ライブ予約が終了すると、入力した予約開始時刻に基づき、自動的にライブ予約開始時刻の直前の数ショット及び予約終了時刻の直後の数ショットを含むライブコンテンツのキャプチャが開始される。すなわち、インデキシング装置2は、符号化処理装置3を介してライブコンテンツの取り込みを行い(ステップS16、S17)、インデキシング装置2は、符号化したライブコンテンツに対してショットの検出などのインデキシング処理を行う(ステップS18)。   In FIG. 4, when the live reservation ends, the capture of live content including several shots immediately before the live reservation start time and several shots immediately after the reservation end time is automatically started based on the input reservation start time. That is, the indexing device 2 captures live content via the encoding processing device 3 (steps S16 and S17), and the indexing device 2 performs indexing processing such as shot detection on the encoded live content. (Step S18).

取り込みが終了すると(ステップS19)、インデキシング処理が施されたコンテンツの映像データ(*.asf)とインデックスデータ(*.xml)は、インデキシング装置2から編集装置1に送られる。作成されたインデキシングファイルからトピックが生成される。   When the loading is completed (step S19), the video data (* .asf) and the index data (* .xml) of the indexed content are sent from the indexing device 2 to the editing device 1. Topics are generated from the created indexing file.

次に、編集を行う(ステップS20)。この編集装置1では、既存コンテンツとライブコンテンツとから得られたトピックを番組進行情報に従って組み合わせる。また、各トピックに対するサムネイル画像の自動選択処理が行われる。サムネイル画像は、インデキシングによるシーン解析の結果を反映し、トピックの概要に適したフレームを自動選択するようにしているが、ショットが最も長いものを選択してもよいし、他の方法で選択してもよい。また、編集装置1では、取得したトピックの時間長に応じた番組進行情報の更新、トピックの補正等が行われる。   Next, editing is performed (step S20). In the editing apparatus 1, topics obtained from existing content and live content are combined according to program progress information. Further, an automatic selection process of a thumbnail image for each topic is performed. The thumbnail image reflects the result of the scene analysis by indexing, and automatically selects a frame suitable for the topic outline.However, the one with the longest shot may be selected, or another method may be used. You may. The editing apparatus 1 updates the program progress information according to the acquired time length of the topic, corrects the topic, and the like.

この補正に関し、特にライブの場合、実際の運用ではライブが予約開始時刻から開始されていない場合があるので、予約開始時刻を指定してインデキシング装置2により取り込まれたライブコンテンツは、番組コンテンツの中で使用するコンテンツとして適切でない場合がある。従って、適切にライブコンテンツとしてのトピックを切り出すためには、編集部20においてこのずれを補正することが必要になる。また、例えば、映像の最初の部分で出演者が目を閉じていたりする場合があり、このような映像を含むショットを除く補正を行う。更に、例えば、出演者が音声を発する最初のショットを開始ショットとする補正を行う。本実施の形態における編集装置1ではこの補正を自動的に行うこともできるし、利用者にショット単位の編集画像を表示して、利用者にショット単位の補正を行わせることもできる。なお、自動で補正を行うか、もしくは利用者が編集画面を見ながら補正を行うかは、例えばトピック情報入力時に選択できる。また、複数パターンの補正の方法があり、利用者は所望の補正パターンを選択することが可能である。更に、当該利用者が過去に使用した補正パターンを統計的に処理し、自動的に補正パターンを選択したり、当該利用者に対しておすすめの補正パターンを提示することもできる。   Regarding this correction, especially in the case of live, in actual operation, the live may not have started from the reservation start time, so the live content taken in by the indexing device 2 by specifying the reservation start time is included in the program content. May not be appropriate as content used in Therefore, in order to appropriately extract a topic as live content, it is necessary for the editing unit 20 to correct this shift. In addition, for example, there is a case where a performer closes his or her eyes in the first part of a video, and correction is performed except for a shot including such a video. Further, for example, a correction is made with the first shot in which the performer emits sound as the start shot. In the editing apparatus 1 according to the present embodiment, this correction can be automatically performed, or the edited image can be displayed to the user in shot units, and the user can perform correction in shot units. Whether the correction is performed automatically or the user performs the correction while looking at the editing screen can be selected, for example, when inputting topic information. Further, there is a method of correcting a plurality of patterns, and a user can select a desired correction pattern. Furthermore, it is also possible to statistically process correction patterns used by the user in the past and automatically select a correction pattern, or present a recommended correction pattern to the user.

また、この補正はライブコンテンツばかりでなく、既存コンテンツに対しても必要に応じて行われる。すなわち、既存コンテンツからメタデータ検索等により抽出したコンテンツのままでは、例えば、コンテンツの最初、もしくは終了の部分が、トピックとして採用するには不適切である場合があり、このような部分を含むショットを自動的に除く補正を行う。   This correction is performed not only for live content but also for existing content as needed. In other words, if the content extracted from the existing content by metadata search or the like remains, for example, the beginning or end of the content may be inappropriate for adopting as a topic. Is automatically removed.

補正が終了した後、ホームページ画面を生成し、出力を行う(ステップS21)。すなわち、HTMLファイルの出力スタイルシートを利用し、VOD番組コンテンツを図9に示す出力画面に出力する。WMTファイルのアップロードを行い、図10に示すようなホームページを作成、出力することも可能である。   After the correction is completed, a homepage screen is generated and output (step S21). That is, the VOD program content is output to the output screen shown in FIG. 9 using the output style sheet of the HTML file. It is also possible to upload and upload a WMT file to create and output a home page as shown in FIG.

以上説明した一連の処理の中で、番組進行情報の自動更新とトピックの補正について説明する。   In the series of processes described above, automatic updating of program progress information and correction of topics will be described.

(番組進行情報の自動更新)
まず、番組進行情報の自動更新について説明する。前述した通り、番組進行情報は複数のトピックの時間枠からなる。また、番組進行情報における各トピックの枠に対応付けられて優先順位が入力されている。
(Automatic update of program progress information)
First, automatic updating of program progress information will be described. As described above, the program progress information includes time frames of a plurality of topics. In addition, the priority is input in association with the frame of each topic in the program progress information.

ここで、番組進行情報に従って入力されたトピック情報に適合したトピックが取得されると、状況判断部13は、番組進行情報における当該トピックに対応する時間長と抽出したトピックの時間長とを比較し、両時間長に差がある場合には、番組進行情報の当該トピックに対応する時間枠を縮小又は拡大するよう番組進行情報管理部11に通知し、番組進行情報管理部11が番組進行情報の変更を行う。ただし、当該トピックの優先順位を考慮する。   Here, when a topic that matches the topic information input according to the program progress information is obtained, the situation determination unit 13 compares the time length corresponding to the topic in the program progress information with the time length of the extracted topic. If there is a difference between the two time lengths, the program progress information management unit 11 is notified to reduce or expand the time frame corresponding to the topic in the program progress information, and the program progress information management unit 11 Make changes. However, the priority of the topic is considered.

例えば、図11に示すように、トピック1が最も優先順位が高く、トピック4が最も優先順位が低い場合において、トピック1のコンテンツが番組進行情報における当初設定した時間長より長くなった場合に、そのトピック1の番組進行情報における時間長を増加させる。番組進行情報における番組コンテンツの全体の時間長は概ね一定なので、トピック1の時間長を増加させた結果、他のトピックに割り当てられる時間長が減少する。従って、図11の場合では、最も優先順位の低いトピック4を削除している。トピック4を削除するほどトピック1が長くない場合には、トピック4の時間長を適宜減少させることになる。この場合には、減少した時間長に適合するように、例えば対象コンテンツの中の特定のシーンだけをショット単位に抽出するようにしてトピック4を構成する。時間長が減少したときに、どのようなシーンを抽出するかは、トピック情報入力のときに設定が可能である。   For example, as shown in FIG. 11, when topic 1 has the highest priority and topic 4 has the lowest priority, if the content of topic 1 is longer than the initially set time length in the program progress information, The time length in the program progress information of the topic 1 is increased. Since the overall time length of the program content in the program progress information is substantially constant, as a result of increasing the time length of topic 1, the time length allocated to other topics decreases. Therefore, in the case of FIG. 11, the topic 4 with the lowest priority is deleted. If the topic 1 is not long enough to delete the topic 4, the time length of the topic 4 is appropriately reduced. In this case, the topic 4 is configured such that only a specific scene in the target content is extracted in shot units so as to match the reduced time length. What scenes are extracted when the time length is reduced can be set when topic information is input.

(トピックの補正)
次に、ショット単位のトピック補正の方法について図12を参照して説明する。なお、この補正方法は、番組進行情報の自動更新を行う場合でも、行わない場合でも適用可能である。番組進行情報の自動更新が行われた対象トピックに関しては、番組進行情報の時間枠から外に出ることはないが、例えばその枠内のトピックの端の部分で、使用に適さない映像部分がある場合等には、それを削除するといった観点から補正が有効である。また、番組進行情報の自動更新を行わない場合は、取得したトピックの時間長が、当初設定した番組進行情報の時間枠より長くなるもしくは短くなる場合があるので、適切にトピックを切り出すという観点からも補正が有効である。また、ショット単位に補正を行うので効率的に補正を行うことができる。
(Topic correction)
Next, a method of topic correction in shot units will be described with reference to FIG. This correction method can be applied whether or not the program progress information is automatically updated. The target topic for which the program progress information has been automatically updated does not go out of the time frame of the program progress information, but there is a video portion that is not suitable for use, for example, at the end of the topic within the frame. In such cases, the correction is effective from the viewpoint of deleting it. Also, if the program progress information is not automatically updated, the time length of the acquired topic may be longer or shorter than the originally set time frame of the program progress information. The correction is also effective. Further, since the correction is performed on a shot-by-shot basis, the correction can be performed efficiently.

まず、この補正方法の概要を図12(a)を用いて説明する。なお、図12はライブコンテンツの場合の例である。番組進行情報における時間枠(予約開始時刻―予約終了時刻)がA−Bであるとして、生成系で実際に取得したコンテンツにおける所望のライブのシーンがショットC、ショットD、ショットEであるとする。この場合、本発明の補正方法では、予約開始時刻―予約終了時刻の間に、ショットの先頭時刻(開始点ともいう)が含まれるショットを、トピックとして採用する。言い換えると、予約開始時刻後に開始点を有するショットであって、予約開始時刻に最も近い開始点を有するショットから、予約終了時刻前に開始点を有するショットであって、予約終了時刻に最も近い開始点を有するショットまでのショットを採用する。なお、以下、ライブコンテンツでないコンテンツの場合でも、番組進行情報における時間枠の開始時刻を予約開始時刻、終了時刻を予約終了時刻と称することとする。   First, an outline of this correction method will be described with reference to FIG. FIG. 12 shows an example of live content. Assume that the time frame (reservation start time-reservation end time) in the program progress information is AB, and the desired live scenes in the content actually acquired by the generation system are shot C, shot D, and shot E. . In this case, in the correction method of the present invention, a shot that includes the start time of a shot (also referred to as a start point) between the reservation start time and the reservation end time is adopted as a topic. In other words, a shot having a start point after the reservation start time and having a start point closest to the reservation start time and a shot having a start point before the reservation end time and having a start point closest to the reservation end time The shot up to the shot having the point is adopted. Hereinafter, even when the content is not live content, the start time of the time frame in the program progress information is referred to as a reservation start time, and the end time is referred to as a reservation end time.

図12(a)の場合、ショットCとDの先頭時刻は予約における開始時刻と終了時刻の間にあるので、ショットCとDは採用するが、ショットEは予約時間の間に先頭時刻が含まれないので採用しない。上記の補正は自動的に行ってもよいし、利用者にショット単位に映像を提示して、採用するショットを選択させてもよい。例えば予約開始時刻に跨るようなショットは適切なショットでないことが経験的にわかっているような場合に、上記の自動補正が特に有効である。   In the case of FIG. 12A, since the head times of the shots C and D are between the start time and the end time in the reservation, the shots C and D are adopted, but the head time of the shot E is included in the reservation time. Not adopted. The above correction may be performed automatically, or the user may be presented with an image in shot units to select a shot to be adopted. For example, when it is empirically known that a shot straddling the reservation start time is not an appropriate shot, the above automatic correction is particularly effective.

上記の方法を用いずに、一般的に行われているフレーム単位の補正を手動で行うとなると、図12(b)に示すように、ずれた部分には多数のフレームが含まれているため、一つ一つ確認しながら補正する必要があり、補正には時間と手間が非常にかかる。   If the general correction in units of frames is performed manually without using the above method, a large number of frames are included in the shifted part as shown in FIG. It is necessary to make corrections while confirming each one, and the corrections require a lot of time and labor.

一方、図12(c)に示すように、本発明の補正方法を用いることにより、ショット単位で自動的に補正できるので、フレーム単位に補正する場合に比べて大幅に補正時間を短縮できる。   On the other hand, as shown in FIG. 12C, by using the correction method of the present invention, the correction can be automatically performed in units of shots, so that the correction time can be greatly reduced as compared with the case of performing correction in units of frames.

上記の補正により、最初に抽出したトピックから、予約開始時刻―予約終了時刻の時間長に概ね適合させて適切な切れ目でトピックを抽出できることに加えて、例えば、図12(a)のショットxに出演者が目を閉じている映像が含まれている可能性がある場合に、その映像を自動的に削除できるといった観点からも有効である。   By the above-mentioned correction, in addition to the topic extracted first, the topic can be extracted at an appropriate break by being approximately adapted to the time length of the reservation start time-reservation end time. In addition, for example, the shot x in FIG. This is also effective from the viewpoint that when there is a possibility that a video in which the performer has closed eyes may be automatically deleted.

(補正パターンについて)
補正は図12に示した方法以外に種々の方法で行うことが可能である。図12に示した方法を含め、図13に8パターンの補正方法を例示する。各パターンにおいて、トピックとして採用する最初のショットと最後のショットを示している。各ショットにおいて、黒丸がショットの開始点を表し、白丸がショットの終了点を示す。また、黒丸又は白丸に付されたxは、着目する点(開始点又は終了点)を示している。図に示すように、(a)〜(d)はショットの開始点に着目しており、(e)〜(h)はショットの終了点に着目している。
(About correction pattern)
The correction can be performed by various methods other than the method shown in FIG. FIG. 13 exemplifies a correction method for eight patterns including the method shown in FIG. In each pattern, the first shot and the last shot adopted as a topic are shown. In each shot, a black circle indicates the start point of the shot, and a white circle indicates the end point of the shot. Further, x attached to a black or white circle indicates a point of interest (start point or end point). As shown in the figure, (a) to (d) focus on the start point of the shot, and (e) to (h) focus on the end point of the shot.

図13(b)のパターンでは、予約開始時刻前に開始点を有するショットであって、予約開始時刻に最も近い開始点を有するショットから、予約終了時刻前に開始点を有するショットであって、予約終了時刻に最も近い開始点を有するショットまでのショットを採用する。(c)では、予約開始時刻後に開始点を有するショットであって、予約開始時刻に最も近い開始点を有するショットから、予約終了時刻後に開始点を有するショットであって、予約終了時刻に最も近い開始点を有するショットまでのショットを採用する。(d)では、予約開始時刻前に開始点を有するショットであって、予約開始時刻に最も近い開始点を有するショットから、予約終了時刻後に開始点を有するショットであって、予約終了時刻に最も近い開始点を有するショットまでのショットを採用する。   In the pattern of FIG. 13B, shots having a start point before the reservation start time and shots having a start point before the reservation end time from shots having the start point closest to the reservation start time, Shots up to the shot having the start point closest to the reservation end time are adopted. In (c), a shot having a start point after the reservation start time and having a start point closest to the reservation start time is a shot having a start point after the reservation end time and closest to the reservation end time. The shots up to the shot having the starting point are adopted. In (d), a shot having a start point before the reservation start time and having a start point closest to the reservation start time is a shot having a start point after the reservation end time and having a start point after the reservation end time. Employ shots up to the shot with the closest starting point.

(e)〜(h)は、(a)〜(d)における“開始点”を“終了点”に置き換えたものに相当する。例えば(e)では、予約開始時刻後に終了点を有するショットであって、予約開始時刻に最も近い終了点を有するショットから、予約終了時刻前に終了点を有するショットであって、予約終了時刻に最も近い終了点を有するショットまでのショットを採用する。   (E) to (h) correspond to those obtained by replacing “start point” in (a) to (d) with “end point”. For example, in (e), a shot having an end point after the reservation start time and a shot having an end point closest to the reservation start time is a shot having an end point before the reservation end time, and The shots up to the shot having the closest end point are adopted.

上記の各補正パターンでは、開始点又は終了点が予約開始時刻又は予約終了時刻に最も近いショットを用いているが、最も近いショットの代わりに、複数番目に近いショットを用いるようにしてもよい。例えば、開始時刻側で3番目に近いショットを用いる場合、例えばパターン(b)では図14に示すようなショットを採用する。すなわち、予約開始時刻前に開始点を有するショットであって、予約開始時刻に3番目に近い開始点を有するショットから、予約終了時刻前に開始点を有するショットであって、予約終了時刻に最も(=1番目に)近い開始点を有するショットまでのショットを採用する。   In each of the above correction patterns, a shot whose start point or end point is closest to the reservation start time or the reservation end time is used, but a shot closest to a plurality of shots may be used instead of the closest shot. For example, when the shot closest to the third on the start time side is used, for example, a shot as shown in FIG. 14 is employed in the pattern (b). That is, a shot having a start point before the reservation start time and a shot having a start point closest to the reservation start time and a shot having a start point before the reservation end time and Take the shots up to the shot with the closest starting point (= first).

利用者は、例えば編集後に(もしくはトピック情報入力時に)、どの補正パターンを使用するかをトピック毎に選択する。また、編集画面を見ながら補正パターンを選択し、予約開始時刻又は予約終了時刻からの開始点又は終了点の距離(何番目か)を指定できる。そして、編集装置1は、利用者の選択に基づく補正パターンを使用して補正を行う。   For example, after editing (or when inputting topic information), the user selects which correction pattern to use for each topic. In addition, the user can select a correction pattern while viewing the editing screen, and specify the distance (what number) between the start point and the end point from the reservation start time or the reservation end time. Then, the editing apparatus 1 performs the correction using the correction pattern based on the user's selection.

自動補正は、例えば、図15に示すフローに従って行うことができる。なお、図15の例は図13に示す補正パターンの例である。   The automatic correction can be performed, for example, according to the flow shown in FIG. The example of FIG. 15 is an example of the correction pattern shown in FIG.

まず、利用者により選択された補正パターンを取得する。その補正パターンが図13のパターン(a)であれば、パターン(a)のフローによる処理を行う。パターン(a)のフローでは、まず予約開始時刻を取得する(ステップS32)。そして予約開始時刻より後で、予約開始時刻に最も近いショットの先頭位置を取得する(ステップS33)。ショットの先頭位置を取得できない場合には処理を終了する(ステップS35)。先頭位置を取得できた場合には、その先頭位置が終了時間内であるか否かをチェックする(ステップS36)。終了時間内でなければ処理を終了する。終了時間内であれば、その先頭位置を持つショットを、番組の中のコンテンツにおけるショットとして採用し(ステップS37)、ステップS33に戻り時間的に後の次のショットの先頭位置を取得する。そして、上記の処理を繰り返す。   First, a correction pattern selected by the user is obtained. If the correction pattern is the pattern (a) in FIG. 13, the processing according to the flow of the pattern (a) is performed. In the flow of the pattern (a), first, a reservation start time is obtained (step S32). Then, after the reservation start time, the head position of the shot closest to the reservation start time is acquired (step S33). If the start position of the shot cannot be obtained, the process ends (step S35). If the start position has been acquired, it is checked whether the start position is within the end time (step S36). If it is not within the end time, the process ends. If it is within the end time, the shot having the head position is adopted as the shot in the content of the program (step S37), and the process returns to step S33 to acquire the head position of the next shot temporally later. Then, the above processing is repeated.

上記のような処理の他、予約終了時刻前に最も近い開始点を取得し、予約開始時刻より後で、予約開始時刻に最も近い開始点のショットから、予約終了時刻前に最も近い開始点のショットまでのショットを採用するという処理でもよい。他のパターンについても同様に処理が行われる。   In addition to the processing described above, a start point closest to the reservation end time is obtained, and a shot of the start point closest to the reservation start time after the reservation start time is obtained. A process of adopting a shot up to a shot may be used. The same processing is performed for other patterns.

更に、図15のフローにおいて、予約開始時刻の代わりに、予約開始時刻から所定の時間(例えばショットの時間長の平均)を減算した時刻を新たに予約開始時刻とすれば、パターン(b)における補正の処理フローとなり得る。同様に図15のフローにおいて、予約終了時刻から所定の時間を加算した時刻を新たに予約終了時刻とすることにより、パターン(c)の処理フローとなり得る。他のパターンについてもこのような観点からの処理を行うことが可能である。   Further, in the flow of FIG. 15, if a time obtained by subtracting a predetermined time (for example, the average of the shot time length) from the reservation start time is newly set as the reservation start time instead of the reservation start time, the pattern (b) in the pattern (b) This can be a correction processing flow. Similarly, in the flow of FIG. 15, by setting a time obtained by adding a predetermined time from the reservation end time to the new reservation end time, the processing flow of the pattern (c) can be obtained. Processing from such a viewpoint can be performed on other patterns.

また、上記のような補正パターンによる補正に加えて、図16に示す規則を用いて自動的に補正をすることも可能である。すなわち、ショットの開始点と終了点との間に予約開始時刻がある場合において、開始点と終了点のうち予約開始時刻に近いほうを選択する。開始点を選択した場合であれば、その開始点を有するショットを採用する。終了点を選択したのであれば、その終了点を含むショットの次のショットを最初のショットとして採用する。予約終了時刻においても同様に、開始点と終了点のうち予約終了時刻に近いほうを選択する。   Further, in addition to the above-described correction using the correction pattern, the correction can be automatically performed using the rule shown in FIG. That is, when there is a reservation start time between the start point and the end point of the shot, the one that is closer to the reservation start time is selected from the start point and the end point. If the start point is selected, a shot having the start point is adopted. If the end point is selected, the next shot after the shot including the end point is adopted as the first shot. Similarly, at the reservation end time, a start point and an end point that are closer to the reservation end time are selected.

また、映像開始部分において出演者が目を閉じている映像を含むショットを削除するために、当該出演者が目を開いている映像を編集装置1に記憶しておき、当該映像を用いて類似画像検索を行って、予約開始時刻から、もしくは、予約開始時刻から所定の時間前の時刻から、出演者が目を開いている映像を含む最初のショットを検出し、当該ショットを開始ショットとして採用することも可能である。   In addition, in order to delete a shot including a video in which the performer has closed eyes in the video start portion, the video in which the performer has open eyes is stored in the editing apparatus 1, and similar images are stored using the video. Perform an image search to detect the first shot including the video with the performer's eyes open from the reservation start time or from a time before the reservation start time by a predetermined time, and adopt the shot as the start shot It is also possible.

更に、出演者の音声が開始した映像を含むショットを開始ショットとして採用するという観点から、予約開始時刻から、もしくは、予約開始時刻から所定の時間前の時刻から、音声強度が予め定めた閾値を越える部分を含む最初のショットを検出し、当該ショットを開始ショットとして採用することも可能である。   Further, from the viewpoint of adopting a shot including a video in which the voice of the performer has started as a start shot, from a reservation start time, or from a time a predetermined time before the reservation start time, the audio intensity is set to a predetermined threshold. It is also possible to detect the first shot that includes the portion that exceeds, and use that shot as the start shot.

(補正パターンの自動選択)
編集装置1は、利用者が過去に選択した補正パターンに基づき、自動的に補正パターンを選択して補正を行うことも可能である。また、自動的に選択したパターンを、利用者におすすめの補正パターンとして提示し、利用者に確認させることもできる。おすすめの補正パターンの提示は、トピック情報入力時に行ってもよいし、編集の場面で行ってもよい。以下、自動的に補正パターンを選択する処理について説明する。
(Automatic selection of correction pattern)
The editing apparatus 1 can automatically select a correction pattern and perform correction based on the correction pattern selected by the user in the past. In addition, the automatically selected pattern can be presented to the user as a recommended correction pattern, and can be confirmed by the user. The presentation of the recommended correction pattern may be performed when the topic information is input, or may be performed in an editing scene. Hereinafter, a process of automatically selecting a correction pattern will be described.

例えば、ある利用者が、第1回目に図17に示すトピック構成の番組を作成し、各トピックにおいて利用者が選択した補正パターンが図17に示す通りであったとする。この補正パターンの情報は、当該利用者のID及び各トピックに対応するトピック情報とともに補正パターン記憶部23に記憶される。そして、当該利用者が次に番組を作成する際に、補正パターン記憶部23に記憶された情報を補正部22が参照することにより、補正パターン記憶部23に記憶されたトピック情報に関連するトピックに関しては、そのトピックに対して前に使用した補正パターンと同じ補正パターンを自動的に選択する。そして、その補正パターンを用いて補正を行う。もしくは、補正パターン表示部23がその補正パターンを表示する。補正パターンが表示された場合、利用者はその補正パターンをそのまま採用してもよいし、他の補正パターンに変更してもよい。   For example, it is assumed that a certain user creates a program having the topic configuration shown in FIG. 17 for the first time, and the correction pattern selected by the user in each topic is as shown in FIG. This correction pattern information is stored in the correction pattern storage unit 23 together with the user ID and topic information corresponding to each topic. Then, when the user next creates a program, the correction unit 22 refers to the information stored in the correction pattern storage unit 23 so that the topic related to the topic information stored in the correction pattern storage unit 23 For, the same correction pattern as the correction pattern used previously for the topic is automatically selected. Then, correction is performed using the correction pattern. Alternatively, the correction pattern display unit 23 displays the correction pattern. When the correction pattern is displayed, the user may use the correction pattern as it is or may change it to another correction pattern.

また、図18に示すように、利用者による複数回の番組作成における補正パターンを記憶しておき、統計的処理を施すことにより、新規の番組作成時に補正パターンを自動的に選択することもできる。例えば、複数回の補正パターン選択において、特定のコンテンツに関するトピックに対しては、特定の補正パターンが最も多い場合に、当該特定の補正パターンを、当該特定のコンテンツに関するトピックに対して選択する。また、おすすめ補正パターンとして教示部26が表示してもよい。   In addition, as shown in FIG. 18, correction patterns in a plurality of program creations by a user are stored and statistical processing is performed, so that a correction pattern can be automatically selected when a new program is created. . For example, in a plurality of correction pattern selections, for a topic related to a specific content, if the specific correction pattern is the largest, the specific correction pattern is selected for the topic related to the specific content. The teaching unit 26 may display the recommended correction pattern.

また、自動的に選択されたおすすめ補正パターンは、編集場面での補正時に、図19に示すような画面として表示することもできる。この画面では、例として開始部分の補正状況を示しており、画面の上部に、トピック1の開始部分における予約開始時刻の直前に開始点を有するショットの映像を示し、このショットを採用することがおすすめの補正であることを示している。また、画面の下部には、予約開始時刻の直後に開始点を有するショットの映像を示している。当該画面には、これまでに説明した種々の補正パターンによるショットを表示でき、利用者はどの補正パターンを採用するかをこの画面を見ながら選択できる。選択したい補正パターンが存在しない場合には、詳細な補正を手動で行うことも可能である。前述の補正パターンの自動選択処理においては、このような画面から利用者により選択された過去の補正パターンに基づき統計処理等を行うのが特に有効である。   Further, the automatically selected recommended correction pattern can be displayed as a screen as shown in FIG. 19 at the time of correction in an editing scene. In this screen, the correction status of the start part is shown as an example. At the top of the screen, a video of a shot having a start point immediately before the reservation start time in the start part of topic 1 is shown, and this shot can be adopted. This is a recommended correction. The lower part of the screen shows a video of a shot having a start point immediately after the reservation start time. On this screen, shots based on the various correction patterns described above can be displayed, and the user can select which correction pattern to use while viewing this screen. If there is no correction pattern to be selected, detailed correction can be performed manually. In the automatic correction pattern selection process described above, it is particularly effective to perform statistical processing or the like based on past correction patterns selected by the user from such a screen.

(既存編集ツールとの比較)
次に、図20を参照して、企業インフォメーションコマーシャル配信サービス(Webによる配信)における、ライブ映像を組み込んだコンテンツの編集の場合を例にとり、従来技術における既存編集ツールとの比較をすることにより、本実施の形態の効果について説明する。なお、インフォメーションコマーシャルとは、短い放送時間を最大限に利用して、多彩な商品PR、企業の事業内容PRまで細かく行うコマーシャルのことであり、このようなコマーシャルは視聴者への広告内容の浸透度が大きい。
(Comparison with existing editing tools)
Next, referring to FIG. 20, taking a case of editing a content incorporating a live video in a corporate information commercial distribution service (distribution via the Web) as an example, by comparing with a conventional editing tool in the prior art, The effect of the present embodiment will be described. In addition, information commercials are commercials that make the most of the short broadcast time and make various product PRs and corporate business PRs in detail, and such commercials spread advertising content to viewers. Great degree.

図20の上段に既存編集ツールを用いた場合を示し、下段に本実施の形態におけるシステムを用いた場合を示す。   The upper part of FIG. 20 shows a case where the existing editing tool is used, and the lower part shows a case where the system according to the present embodiment is used.

企業インフォメーションコマーシャル配信サービス(Webによる配信)におけるコンテンツの編集では、まず、Web画面の企画が行われる。そして、既存のコンテンツ(ストリームファイル)を入力するなどの事前のWeb画面編集が行われる。従来の技術における既存の編集ツールでは、本実施の形態で説明したような、トピック情報入力に基づく番組進行情報の作成などの機能はなく、コンテンツをシステムに入力した後、補正をして番組コンテンツを作成するまでに時間、手間がかかる。これに対し、本実施の形態によれば、番組進行情報に基づき、トピック情報を入力し、コンテンツを組み合わせていくので、作業を短時間で完了させることができる。   In editing content in a corporate information commercial distribution service (distribution via the Web), first, a Web screen is planned. Then, Web screen editing in advance such as input of existing content (stream file) is performed. The existing editing tools in the prior art do not have a function of creating program progress information based on the input of topic information as described in the present embodiment. It takes time and effort to create. On the other hand, according to the present embodiment, the topic information is input and the contents are combined based on the program progress information, so that the work can be completed in a short time.

また、本実施の形態では、ライブコンテンツの予約ができ、取得したライブを用いてVODコンテンツを作成する手間が削減でき、短時間でVODコンテンツを作成できる。更に、複数の補正パターンを用いて、取得したコンテンツの時間誤差を自動でショット単位で補正できるので、利用者が望む番組コンテンツの作成における編集作業負担を大幅に削減できる。   Further, in the present embodiment, the reservation of live content can be made, the trouble of creating VOD content using the acquired live can be reduced, and the VOD content can be created in a short time. Furthermore, since the time error of the acquired content can be automatically corrected for each shot using a plurality of correction patterns, the editing work load in creating the program content desired by the user can be greatly reduced.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。   It should be noted that the present invention is not limited to the above embodiment, and various changes and applications are possible within the scope of the claims.

本発明の実施の形態におけるシステムの構成図である。FIG. 1 is a configuration diagram of a system according to an embodiment of the present invention. 本発明の実施の形態におけるシステムの動作概要を説明するための図である。FIG. 2 is a diagram for describing an operation outline of a system according to the embodiment of the present invention. 本発明の実施の形態における編集装置1の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an editing device 1 according to an embodiment of the present invention. 本発明の実施の形態におけるシステムの動作を説明するためのシーケンスチャートである。5 is a sequence chart for explaining an operation of the system according to the embodiment of the present invention. 本発明の実施の形態におけるトピック情報の例を示す図である。FIG. 4 is a diagram illustrating an example of topic information according to the embodiment of the present invention. 本発明の実施の形態におけるトピック情報入力のための画面例を示す図である。It is a figure showing the example of a screen for topic information input in an embodiment of the invention. 本発明の実施の形態における番組進行情報の例を示す図である。It is a figure showing an example of program progress information in an embodiment of the invention. 本発明の実施の形態における番組進行情報の例を示す図である。It is a figure showing an example of program progress information in an embodiment of the invention. 本発明の実施の形態における出力される画面例を示す図である。It is a figure showing the example of the screen outputted in an embodiment of the invention. 本発明の実施の形態における出力される画面例を示す図である。It is a figure showing the example of the screen outputted in an embodiment of the invention. 本発明の実施の形態における番組進行情報の更新の例を示す図である。It is a figure showing an example of updating of program progress information in an embodiment of the invention. 本発明の実施の形態におけるコンテンツの補正の方法を説明するための図である。FIG. 5 is a diagram for describing a method of correcting content according to the embodiment of the present invention. 本発明の実施の形態におけるコンテンツの補正の方法を説明するための図である。FIG. 5 is a diagram for describing a method of correcting content according to the embodiment of the present invention. 本発明の実施の形態におけるコンテンツの補正の方法を説明するための図である。FIG. 5 is a diagram for describing a method of correcting content according to the embodiment of the present invention. 本発明の実施の形態におけるコンテンツの補正のフローチャートである。5 is a flowchart of content correction according to the embodiment of the present invention. 本発明の実施の形態におけるコンテンツの補正の方法を説明するための図である。FIG. 5 is a diagram for describing a method of correcting content according to the embodiment of the present invention. 自動的に補正パターンを選択する処理を説明するための図である。FIG. 9 is a diagram for explaining a process of automatically selecting a correction pattern. 自動的に補正パターンを選択する処理を説明するための図である。FIG. 9 is a diagram for explaining a process of automatically selecting a correction pattern. 利用者に補正パターンを選択させる画面例である。It is an example of a screen which makes a user select a correction pattern. 本発明の実施の形態と従来技術における既存編集ツールとの比較をするための図である。FIG. 11 is a diagram for comparing an embodiment of the present invention with an existing editing tool according to the related art.

符号の説明Explanation of reference numerals

1 編集装置
2 インデキシング装置
3 符号化処理装置
10 番組進行情報作成部
11 番組進行情報管理部
12 トピック情報収集部
13 状況判断部
14 スケジューリング部
15 トピック情報総合部
16 コンテンツマッチング処理部
17 メタデータ検索部
18 コンテンツ予約挿入部
19 優先処理部
20 編集部
21 出力部
22 補正部
23 補正パターン表示部
24 補正パターン記憶部
25 統計処理部
26 教示部
27 編集機能部
28 ホームページ画面作成部
29 時間補正部
30 時計部
REFERENCE SIGNS LIST 1 editing device 2 indexing device 3 encoding processing device 10 program progress information creating unit 11 program progress information managing unit 12 topic information collecting unit 13 situation judging unit 14 scheduling unit 15 topic information general unit 16 content matching processing unit 17 metadata search unit 18 Content reservation insertion unit 19 Priority processing unit 20 Editing unit 21 Output unit 22 Correction unit 23 Correction pattern display unit 24 Correction pattern storage unit 25 Statistical processing unit 26 Teaching unit 27 Editing function unit 28 Homepage screen creation unit 29 Time correction unit 30 Clock Department

Claims (18)

コンテンツを複数組み合わせて構成される番組コンテンツを編集するための編集装置であって、
番組進行情報を蓄積する蓄積手段と、
前記番組進行情報に従って入力されたコンテンツ情報に基づき既存コンテンツを取得する既存コンテンツ取得手段と、
ライブコンテンツの予約開始時刻と予約終了時刻を受け、当該予約開始時刻と予約終了時刻に基づきライブコンテンツを取得するライブコンテンツ取得手段と、
前記番組進行情報に基づき、前記既存コンテンツと前記ライブコンテンツとを組み合わせて番組コンテンツとして出力する手段と
を有することを特徴とする編集装置。
An editing device for editing program content configured by combining a plurality of contents,
Storage means for storing program progress information;
Existing content acquisition means for acquiring existing content based on the content information input according to the program progress information,
Live content acquisition means for receiving a live content reservation start time and a reservation end time, and acquiring live content based on the reservation start time and the reservation end time;
Means for combining the existing content and the live content and outputting the program content based on the program progress information.
前記既存コンテンツ取得手段により取得された既存コンテンツの時間長、又は前記ライブコンテンツ取得手段により取得されたライブコンテンツの時間長に基づき、前記番組進行情報を変更する変更手段を有する請求項1に記載の編集装置。   The method according to claim 1, further comprising a changing unit configured to change the program progress information based on a time length of the existing content obtained by the existing content obtaining unit or a time length of the live content obtained by the live content obtaining unit. Editing device. 前記変更手段は、番組コンテンツを構成する各コンテンツの優先順位を参照して前記番組進行情報を変更する請求項2に記載の編集装置。   3. The editing apparatus according to claim 2, wherein the change unit changes the program progress information with reference to a priority order of each content constituting the program content. 前記既存コンテンツ取得手段は、入力されたコンテンツ情報に基づき既存コンテンツに付されたメタデータを検索することにより、当該コンテンツ情報に適合したコンテンツを取得する請求項1に記載の編集装置。   The editing apparatus according to claim 1, wherein the existing content obtaining unit obtains content suitable for the content information by searching for metadata attached to the existing content based on the input content information. 前記取得したコンテンツの開始部分又は終了部分を補正して、当該コンテンツを前記番組コンテンツの中での使用に適したコンテンツとするための補正手段を有する請求項1に記載の編集装置。   The editing apparatus according to claim 1, further comprising a correction unit configured to correct a start portion or an end portion of the acquired content to make the content suitable for use in the program content. 前記補正手段は、前記番組進行情報における一のコンテンツの時間枠の開始時刻又は終了時刻と、取得された当該一のコンテンツを構成する要素コンテンツのうちの少なくとも1つの要素コンテンツの開始時刻又は終了時刻とに基づき、当該要素コンテンツ単位に前記取得された一のコンテンツを補正する請求項5に記載の編集装置。   The correction means includes: a start time or an end time of a time frame of one content in the program progress information; and a start time or an end time of at least one element content among the acquired element contents constituting the one content. 6. The editing apparatus according to claim 5, wherein the acquired one content is corrected for each element content based on the content. 前記補正手段は、複数の補正パターンのうちの一つの補正パターンを用いて前記一のコンテンツを前記要素コンテンツ単位に補正する請求項6に記載の編集装置。   The editing apparatus according to claim 6, wherein the correction unit corrects the one content in units of the element content using one correction pattern among a plurality of correction patterns. 前記補正手段は、利用者により選択された補正パターンを用いて前記一のコンテンツの補正を行い、
前記編集装置は、利用者により選択された補正パターンを、当該利用者の識別情報と当該補正パターンが使用されたコンテンツに関する情報とに対応付けて蓄積し、蓄積された補正パターンの情報を用いて、当該利用者による新たな番組コンテンツの作成時に特定の補正パターンを推奨する手段を有する請求項7に記載の編集装置。
The correction unit corrects the one content using a correction pattern selected by a user,
The editing device accumulates the correction pattern selected by the user in association with the identification information of the user and information relating to the content in which the correction pattern is used, and uses the accumulated correction pattern information. 8. The editing apparatus according to claim 7, further comprising means for recommending a specific correction pattern when the user creates new program content.
コンテンツを複数組み合わせて構成される番組コンテンツを編集するための編集装置が実行する処理の方法であって、
番組進行情報を蓄積するステップと、
前記番組進行情報に従って入力されたコンテンツ情報に基づき既存コンテンツを取得する既存コンテンツ取得ステップと、
ライブコンテンツの予約開始時刻と予約終了時刻を受け、当該予約開始時刻と予約終了時刻に基づきライブコンテンツを取得するライブコンテンツ取得ステップと、
前記番組進行情報に基づき、前記既存コンテンツと前記ライブコンテンツとを組み合わせて番組コンテンツとして出力するステップと
を有することを特徴とする方法。
A method of processing executed by an editing device for editing program content configured by combining a plurality of contents,
Accumulating program progress information;
An existing content acquisition step of acquiring an existing content based on the content information input according to the program progress information;
A live content acquisition step of receiving a live content reservation start time and a reservation end time, and acquiring live content based on the reservation start time and the reservation end time;
Combining the existing content and the live content based on the program progress information and outputting the combined program content as program content.
コンピュータを、コンテンツを複数組み合わせて構成される番組コンテンツを編集するための手段として機能させるプログラムであって、コンピュータを、
番組進行情報を蓄積する蓄積手段、
前記番組進行情報に従って入力されたコンテンツ情報に基づき既存コンテンツを取得する既存コンテンツ取得手段、
ライブコンテンツの予約開始時刻と予約終了時刻を受け、当該予約開始時刻と予約終了時刻に基づきライブコンテンツを取得するライブコンテンツ取得手段、
前記番組進行情報に基づき、前記既存コンテンツと前記ライブコンテンツとを組み合わせて番組コンテンツとして出力する手段
として機能させるプログラム。
A program causing a computer to function as a means for editing program content configured by combining a plurality of contents, the computer comprising:
Storage means for storing program progress information;
Existing content acquisition means for acquiring existing content based on content information input according to the program progress information,
Live content acquisition means for receiving a live content reservation start time and a reservation end time, and acquiring live content based on the reservation start time and the reservation end time;
A program functioning as means for combining the existing content and the live content and outputting the program content based on the program progress information.
前記既存コンテンツ取得手段により取得された既存コンテンツの時間長、又は前記ライブコンテンツ取得手段により取得されたライブコンテンツの時間長に基づき、前記番組進行情報を変更する変更手段を有する請求項10に記載のプログラム。   The method according to claim 10, further comprising a changing unit configured to change the program progress information based on a time length of the existing content obtained by the existing content obtaining unit or a time length of the live content obtained by the live content obtaining unit. program. 前記変更手段は、番組コンテンツを構成する各コンテンツの優先順位を参照して前記番組進行情報を変更する請求項11に記載のプログラム。   12. The program according to claim 11, wherein the change unit changes the program progress information with reference to a priority order of each content constituting the program content. 前記既存コンテンツ取得手段は、入力されたコンテンツ情報に基づき既存コンテンツに付されたメタデータを検索することにより、当該コンテンツ情報に適合したコンテンツを取得する請求項10に記載のプログラム。   The program according to claim 10, wherein the existing content acquisition unit retrieves metadata attached to the existing content based on the input content information, thereby acquiring a content suitable for the content information. 前記取得したコンテンツの開始部分又は終了部分を補正して、当該コンテンツを前記番組コンテンツの中での使用に適したコンテンツとするための補正手段を有する請求項10に記載のプログラム。   The program according to claim 10, further comprising a correction unit configured to correct a start portion or an end portion of the acquired content to make the content suitable for use in the program content. 前記補正手段は、前記番組進行情報における一のコンテンツの時間枠の開始時刻又は終了時刻と、取得された当該一のコンテンツを構成する要素コンテンツのうちの少なくとも1つの要素コンテンツの開始時刻又は終了時刻とに基づき、当該要素コンテンツ単位に前記一のコンテンツを補正する請求項14に記載のプログラム。   The correction means includes: a start time or an end time of a time frame of one content in the program progress information; and a start time or an end time of at least one element content among the acquired element contents constituting the one content. 15. The program according to claim 14, wherein the one content is corrected for each element content based on the following. 前記補正手段は、複数の補正パターンのうちの一つの補正パターンを用いて前記一のコンテンツを前記要素コンテンツ単位に補正する請求項15に記載のプログラム。   The program according to claim 15, wherein the correction unit corrects the one content in units of the element content by using one correction pattern of a plurality of correction patterns. 前記補正手段は、利用者により選択された補正パターンを用いて前記一のコンテンツの補正を行い、
前記プログラムは、前記コンピュータを、利用者により選択された補正パターンを、当該利用者の識別情報と当該補正パターンが使用されたコンテンツに関する情報とに対応付けて蓄積し、蓄積された補正パターンの情報を用いて、当該利用者による新たな番組コンテンツの作成時に特定の補正パターンを推奨する手段として更に機能させる請求項16に記載のプログラム。
The correction unit corrects the one content using a correction pattern selected by a user,
The program accumulates the computer with a correction pattern selected by a user in association with identification information of the user and information on content in which the correction pattern is used, and stores information on the stored correction pattern. 17. The program according to claim 16, wherein the program further functions as means for recommending a specific correction pattern when the user creates new program content.
請求項10ないし17に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium recording the program according to claim 10.
JP2004080264A 2003-05-14 2004-03-19 Content editing apparatus, content editing method, and content editing program Expired - Lifetime JP4124149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004080264A JP4124149B2 (en) 2003-05-14 2004-03-19 Content editing apparatus, content editing method, and content editing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003135919 2003-05-14
JP2004080264A JP4124149B2 (en) 2003-05-14 2004-03-19 Content editing apparatus, content editing method, and content editing program

Publications (2)

Publication Number Publication Date
JP2004364255A true JP2004364255A (en) 2004-12-24
JP4124149B2 JP4124149B2 (en) 2008-07-23

Family

ID=34067225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004080264A Expired - Lifetime JP4124149B2 (en) 2003-05-14 2004-03-19 Content editing apparatus, content editing method, and content editing program

Country Status (1)

Country Link
JP (1) JP4124149B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012120221A (en) * 2006-01-26 2012-06-21 Sony Corp Method and system for providing dailies and edited video to users
JPWO2019026397A1 (en) * 2017-07-31 2020-05-28 ソニー株式会社 Information processing apparatus, information processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012120221A (en) * 2006-01-26 2012-06-21 Sony Corp Method and system for providing dailies and edited video to users
US9196304B2 (en) 2006-01-26 2015-11-24 Sony Corporation Method and system for providing dailies and edited video to users
JPWO2019026397A1 (en) * 2017-07-31 2020-05-28 ソニー株式会社 Information processing apparatus, information processing method, and program
JP7176519B2 (en) 2017-07-31 2022-11-22 ソニーグループ株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP4124149B2 (en) 2008-07-23

Similar Documents

Publication Publication Date Title
US7600244B2 (en) Method for extracting program and apparatus for extracting program
EP2063635A1 (en) Content imaging device
CN111147955B (en) Video playing method, server and computer readable storage medium
JP4341656B2 (en) Content management apparatus, web server, network system, content management method, content information management method, and program
JP3988079B2 (en) Information processing apparatus and method, and program
JP5289151B2 (en) Data management apparatus, control method thereof, and program
US20060126963A1 (en) Frame classification information providing device and program
JP2008078997A (en) Information processor and method, program, and recording medium
JP4643735B1 (en) Electronic device and video processing method
US20120274846A1 (en) Secondary content provision system and method
JP2008005010A (en) Motion picture editing method
JP2008521116A (en) File management method and apparatus
TWI382410B (en) Recording-and-reproducing apparatus and recording-and-reproducing method
JP2007020195A (en) Method and device for retrieving video
US7844163B2 (en) Information editing device, information editing method, and computer product
JP4124149B2 (en) Content editing apparatus, content editing method, and content editing program
US7675827B2 (en) Information processing apparatus, information processing method, and program
JP2019092025A (en) Editing system
JP2009129039A (en) Content storage device and content storage method
JP2003224791A (en) Method and device for retrieving video
JP2007318450A (en) Video editing method and device
KR101716109B1 (en) Method for time synchronization of a plurality of images and system displaying multi-images
JP2004348553A (en) Method for editing metadata, device and program thereof
JP2005117330A (en) Content editing apparatus and program
US20240143910A1 (en) Video File Integration and Creation System and Method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080428

R150 Certificate of patent or registration of utility model

Ref document number: 4124149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term