JP2019062357A - Video server system - Google Patents

Video server system Download PDF

Info

Publication number
JP2019062357A
JP2019062357A JP2017184831A JP2017184831A JP2019062357A JP 2019062357 A JP2019062357 A JP 2019062357A JP 2017184831 A JP2017184831 A JP 2017184831A JP 2017184831 A JP2017184831 A JP 2017184831A JP 2019062357 A JP2019062357 A JP 2019062357A
Authority
JP
Japan
Prior art keywords
editing
item
video server
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017184831A
Other languages
Japanese (ja)
Other versions
JP6873878B2 (en
Inventor
聡子 久間
Satoko Hisama
聡子 久間
裕通 小薗
Hiromichi Kozono
裕通 小薗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2017184831A priority Critical patent/JP6873878B2/en
Publication of JP2019062357A publication Critical patent/JP2019062357A/en
Application granted granted Critical
Publication of JP6873878B2 publication Critical patent/JP6873878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a technology to reduce the editing workload of an item material in program production.SOLUTION: In a video server system 100, an item material mark unit 51 automatically marks usage of an item material when each material constituting a program is edited. An item material management unit 52 manages data of mark points of use, and creates edit data and telop data of item materials based on the use of each material and a broadcast play list. An expansion unit 53 arranges the item materials in the order of broadcasting based on the telop data at the start of editing the item materials and expands an editing timeline to which a telop is added.SELECTED DRAWING: Figure 1

Description

本発明は、ビデオサーバシステムに係り、例えば、放送局等において放送素材を編集して送出するビデオサーバシステムに関する。   The present invention relates to a video server system, and more particularly to a video server system that edits and transmits broadcast material at a broadcasting station or the like.

テレビジョン放送では、カメラまたはVTR(Video Tape Recorder)などに記録さている番組やCM等の放送用の映像データ(以下、素材という)を、ビデオサーバに収録してからオンエアするノンリニアバンクシステムが利用されている。このようなシステムにおいて、ビデオサーバの入出力信号を非圧縮の映像信号(ベースバンド信号)から圧縮された映像ファイルデータ形式の映像信号とし、またビデオサーバに収録されている素材から番組用放送素材を編集する機能を備えたテープレスシステムが使用されている。このようなシステムに関して、利便性等を向上させる各種の技術が提案されている(例えば特許文献1、2参照)。   In television broadcasting, a non-linear bank system is used that records video data (hereinafter referred to as a material) for broadcasting such as a program or CM recorded in a camera or VTR (Video Tape Recorder) on a video server and then airs it. It is done. In such a system, input / output signals of the video server are video signals of the video file data format compressed from uncompressed video signals (baseband signals), and materials recorded in the video server are used for program broadcast materials A tapeless system with the ability to edit is used. With regard to such a system, various techniques have been proposed to improve convenience and the like (see, for example, Patent Documents 1 and 2).

特許文献1に開示の技術では、編集時に作成されるロール情報をデータベースに送信し、そのロール情報を基にプレイリストを作成することで、編集結果の放送素材の情報とプレイリスト情報を一元管理する。その結果、作業の効率化及び入力ミスによる事故を防ぐことを実現している。   In the technology disclosed in Patent Document 1, role information created at the time of editing is transmitted to a database, and a playlist is created based on the role information, thereby centrally managing broadcast material information and playlist information as a result of editing. Do. As a result, it is possible to improve work efficiency and prevent accidents due to input errors.

特許文献2に開示の技術では、放送業務の編集機において使用される頻度が高い素材である詳細情報の取得処理を高速化することで、ユーザが効率よく素材の編集を行うことができるテープレスシステムを実現している。   In the technology disclosed in Patent Document 2, the speed of acquisition processing of detailed information, which is a material that is frequently used in an editor for broadcasting operations, is tapeless, which allows the user to edit the material efficiently. The system is realized.

一般に、(1)ニュース番組を構成する各素材の編集が平行で行われ、それとは別システムで放送順序など番組の構成が決められる。(2)各素材の編集が完了すると、番組冒頭で放送される項目素材(「ダイジェスト」ともいう)を作成する。(3)項目素材にテロップを付加する。編集機のテロップ作成機能などを用いて手入力で作成する。(4)完成後、放送を出力する。   In general, (1) editing of each material constituting a news program is performed in parallel, and the configuration of the program such as the broadcast order is determined by another system. (2) When editing of each material is completed, an item material (also referred to as "digest") to be broadcasted at the beginning of the program is created. (3) Add telop to the item material. Manually created using the editor's telop creation function. (4) After completion, output the broadcast.

特開2008−205990号公報JP 2008-205990 A 特開2012−222436号公報JP 2012-222436 A

ところで、項目素材の編集作業では、新規(カラ)の編集タイムラインに、各素材の使いどころをコピーして作成する。使いどころについては、項目素材の編集者が決めたり、各素材の編集者から口頭連絡で決めることが多く、また放送直前の作業となることが多いため、作業効率を向上させ、間違いを低減する技術が求められていた。   By the way, in the editing work of the item material, the usage of each material is copied and created on a new (kara) editing timeline. The editor of the item material decides about the usage, the editor of each material often decides by verbal communication, and since it is often the work just before the broadcast, work efficiency is improved and errors are reduced. Technology was required.

本発明は、このような状況に鑑みなされたもので、上記課題を解決することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to solve the above-mentioned problems.

本発明は、番組編集が可能なビデオサーバシステムにおいて、番組を構成する各素材の編集時に項目素材用の使いどころをマークする項目素材マーク部と、使いどころのマーク点をデータ管理し、各素材の使いどころと放送プレイリストをもとに、項目素材用編集データとテロップデータを作成する項目素材管理部と、前記項目素材の編集開始時に、テロップデータをもとに、各項目素材を放送順に並べ、テロップを付加した編集タイムラインを展開する展開部と、編集された項目素材を放送出力する送出部と、を備える。
また、前記項目素材マーク部は、画像認識又は音声認識によって特定画像や急に大音量となる箇所をキーに、使いどころとしてマークして自動検出してもよい。
また、前記項目素材管理部は、前記項目素材のメタデータをもとに前記テロップデータを作成してもよい。
また、前記展開部は、項目素材を編集する際、項目素材用編集データとテロップデータをもとに、項目素材編集用のタイムラインを自動展開してもよい。
また、テロップの表示スタイルを登録・保持するスタイル記憶部とを有し、前記展開部は、テロップデータで前記表示スタイルを指定し、編集展開時に前記スタイル記憶部を参照して前記表示スタイルを自動反映してもよい。
また、編集履歴から編集開始時に予め必要となる映像を予測する予測部を備え、前記展開部は、予測した素材をまとめて展開してもよい。
また、前記予測部は、ニュース原稿に含まれる単語、実際の映像内容、映像に含まれている音声と、実際にニュースに使われた素材の統計から必要となる素材を予測してもよい。
The present invention, in a video server system capable of program editing, manages data of an item material mark portion which marks usage of item material at the time of editing each material constituting a program, and data of mark points of usage. The item material management unit creates item material editing data and telop data based on the usage of the item and the broadcast playlist, and the item material in the order of broadcasting based on the telop data when editing of the item material starts. An expansion unit for expanding an editing timeline to which a line is added and a telop is added, and a sending unit for broadcasting and outputting the edited item material.
Further, the item material mark section may mark a specific image or a place where the volume suddenly becomes loud by image recognition or voice recognition as a key and automatically detect it.
Further, the item material management unit may create the telop data based on metadata of the item material.
Further, when the item material is edited, the developing unit may automatically expand a timeline for item material editing based on the item material editing data and the telop data.
The expansion unit is configured to specify the display style with telop data, and to automatically display the display style by referring to the style storage unit when editing and expanding. It may be reflected.
The image processing apparatus may further include a prediction unit that predicts an image required in advance at the start of editing from the editing history, and the expanding unit may expand the predicted materials collectively.
Further, the prediction unit may predict a necessary material from words contained in the news manuscript, actual video content, audio contained in the video, and statistics of materials actually used for the news.

本発明よれば、項目素材の編集作業負荷を軽減し、作業ミスを低減する技術を提供できる。   According to the present invention, it is possible to provide a technology for reducing the editing work load of item materials and reducing work errors.

実施形態に係る、ビデオサーバシステムの構成を示すブロック図である。It is a block diagram showing composition of a video server system concerning an embodiment. 実施形態に係る、項目素材の生成フローを示すチャート図である。It is a chart figure showing a generation flow of an item material concerning an embodiment.

以下、本発明の実施形態について図面を参照して詳細に説明する。
図1は、本実施形態に係るビデオサーバシステム100の構成を示すブロック図である。図示のように、ビデオサーバシステム100は、ビデオサーバ10と、編集機20と、ディスプレイ30とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of a video server system 100 according to the present embodiment. As shown, the video server system 100 comprises a video server 10, an editor 20 and a display 30.

ディスプレイ30は、編集機20に接続されており、素材一覧の表示用の素材一覧表示用ディスプレイ31と、素材一覧から番組用放送素材を編集するための編集用ディスプレイ32があり、それらは操作卓としての機能を備える。   The display 30 is connected to the editing machine 20, and includes a display 31 for displaying a material list for displaying a material list, and a display 32 for editing for editing a broadcast material for a program from the material list. It has the function as

ビデオサーバ10はWEBサーバ機能を、編集機20はWEBクライアント機能(WEBクライアント部23)を備える。ビデオサーバ10と編集機20とは、それら機能によって接続される。ビデオサーバ10には、複数の編集機20が接続されることが多いが、ここでは1台の編集機20と、編集機20に接続される1台のディスプレイ30のみを示す。   The video server 10 has a WEB server function, and the editing machine 20 has a WEB client function (WEB client unit 23). The video server 10 and the editing machine 20 are connected by these functions. Although a plurality of editing machines 20 are often connected to the video server 10, only one editing machine 20 and one display 30 connected to the editing machines 20 are shown here.

ビデオサーバ10は、取込機能、ファイルシステム機能、リレーショナルデータベース機能、記憶装置、通信機能(WEBサーバ機能等)等の一般的な機能を備えており、カメラまたはVTRなどから入力した複数の素材を収録し、また素材に対応付けられたメタデータ(基本情報及び詳細情報)を記録している。なお、メタデータは、素材自体のデータに含まれてもよいし、素材のデータとは別に記憶されてもよい。   The video server 10 has general functions such as a capture function, file system function, relational database function, storage device, communication function (WEB server function etc.), and a plurality of materials input from a camera or VTR etc. It records and records metadata (basic information and detailed information) associated with materials. The metadata may be included in the data of the material itself, or may be stored separately from the data of the material.

基本情報とは、例えば、素材ID,タイトル、コメント、撮影日時等の撮影情報、収録日時等の収録情報、及びサムネイルから構成される素材の情報である。また、ビデオサーバ10は、編集機20で生成された番組用放送素材(項目素材や各種の素材等が纏められたコンテンツ)を放送出力(オンエア)する。   The basic information is, for example, information of a material including a material ID, a title, a comment, shooting information such as a shooting date and time, recording information such as a recording date and time, and a thumbnail. Also, the video server 10 broadcasts (on air) the broadcast material for a program (content in which item materials, various materials, and the like are collected) generated by the editing machine 20.

詳細情報とは、例えば、In点(挿入開始点)、Out点(挿入終了点)、著作権情報、ダビング履歴、キャプション、削除制限日時、放送制限日時等の放送業務ワークフロー上の多岐にわたる情報で、素材への直接の操作がなくても更新される情報を含んでいる。   The detailed information is, for example, various information on the broadcast work workflow such as In point (insertion start point), Out point (insertion end point), copyright information, dubbing history, caption, deletion restriction date, broadcast restriction date, etc. Contains information that is updated without direct manipulation of the material.

編集機20は、ディスプレイ30に対するユーザ操作に基づいてビデオサーバ10から素材を取得して番組用放送素材に編集する。編集された番組用放送素材は、再びビデオサーバ10に収録されオンエアされる。   The editor 20 acquires the material from the video server 10 based on the user operation on the display 30, and edits the material into a program broadcast material. The edited program broadcast material is again recorded on the video server 10 and aired.

具体的には、編集機20は、ビデオサーバ10から所望の素材一覧を取得し表示する素材一覧アプリケーション部21と、表示された素材一覧から番組用放送素材を編集する編集用アプリケーション部22と、WEBクライアント部23とを備える。   Specifically, the editing machine 20 acquires a desired material list from the video server 10 and displays the material list application unit 21; and an editing application unit 22 edits a program broadcast material from the displayed material list; And a WEB client unit 23.

素材一覧アプリケーション部21は、素材一覧表示用ディスプレイ31の操作卓の機能から素材一覧要求を受信すると、素材一覧を収集し、Webクライアント部23に出力する。   When the material list application unit 21 receives a material list request from the function of the console of the material list display 31, the material list application unit 21 collects the material list and outputs it to the Web client unit 23.

編集アプリケーション部22は、基本的な機能として、素材プレビュー領域、タイムライン表示領域等を有する基本画面、素材一覧画面、及び素材詳細情報画面とをディスプレイ30に操作可能に表示する。   The editing application unit 22 displays the basic screen having a material preview area, a timeline display area, and the like, a material list screen, and a material detailed information screen in an operable manner on the display 30 as basic functions.

素材一覧画面には、例えばOnDragDropイベントハンドラが設定されており、クリップボードに保持された情報が素材IDの書式かどうかを判断し、書式が合致すれば、それを素材IDで特定されるビデオサーバ10に保存されているファイルのマウントを行う。このマウントにより、ユーザは、編集用ディスプレイ32で素材の編集を行うことができる。   For example, the OnDragDrop event handler is set in the material list screen, it is determined whether the information held in the clipboard is the format of the material ID, and if the format matches, the video server 10 identified by the material ID Mount the file stored in. This mount allows the user to edit the material on the editing display 32.

Webクライアント部23は、素材一覧表示用ディスプレイ31から素材一覧要求を受信し、また、素材一覧表示用ディスプレイ31に素材一覧を送信する。   The Web client unit 23 receives a material list request from the material list display 31, and transmits the material list to the material list display 31.

ここで、ビデオサーバシステム100において、編集機20が素材の基本情報と詳細情報を表示するまでの基本的な手順について簡単に説明する。   Here, in the video server system 100, a basic procedure until the editor 20 displays the basic information and the detailed information of the material will be briefly described.

ユーザが素材一覧表示用ディスプレイ31から検索条件を指定して素材一覧の表示要求を行うと、素材一覧表示用ディスプレイ31から編集機20に対して素材一覧要求が送信される。編集機20が素材一覧要求を受信すると、素材一覧アプリケーション部21が素材一覧要求をビデオサーバ10に送信する。   When the user designates a search condition from the material list display 31 and makes a display request of the material list, the material list request is transmitted from the material list display 31 to the editing machine 20. When the editor 20 receives the material list request, the material list application unit 21 transmits the material list request to the video server 10.

ビデオサーバ10は、素材一覧要求を受信すると、その素材一覧要求に対する応答として、指定された検索条件に対する各素材の基本情報を収集した素材一覧データを編集機20に送信する。   When receiving the material list request, the video server 10 transmits, to the editing machine 20, material list data in which basic information of each material for the specified search condition is collected, as a response to the material list request.

編集機20の素材一覧アプリケーション部21は、素材一覧データを受信すると、素材一覧データを素材一覧表示用ディスプレイ31の素材一覧画面に表示する。ユーザが素材一覧表示用ディスプレイ31に表示された素材一覧画面から、例えば基本情報の素材IDなどを1つずつ指定することで、その素材の詳細情報要求を行うとことで、素材一覧表示用ディスプレイ31から編集機20に対して詳細情報要求が送信される。編集機20の素材一覧アプリケーション部21は、詳細情報要求を受信すると、詳細情報要求をビデオサーバ10に送信する。   When the material list application unit 21 of the editing machine 20 receives the material list data, it displays the material list data on the material list screen of the material list display 31. The material list display display can be performed by the user specifying the material ID of the basic information one by one from the material list screen displayed on the material list display 31, for example. A request for detailed information is sent from 31 to the editor 20. When the material list application unit 21 of the editor 20 receives the detailed information request, the material list application unit 21 transmits the detailed information request to the video server 10.

ビデオサーバ10は、詳細情報要求を受信すると、その詳細情報要求に対する応答として、指定された検索条件に対する各素材の詳細情報である詳細情報データを編集機20に送信する。   When receiving the detailed information request, the video server 10 transmits detailed information data, which is detailed information of each material for the designated search condition, to the editor 20 as a response to the detailed information request.

編集機20の素材一覧アプリケーション部21は、詳細情報データを受信すると、詳細情報データを素材一覧表示用ディスプレイ31の素材詳細情報画面に表示する。   When the material list application unit 21 of the editing machine 20 receives the detailed information data, the material list application unit 21 displays the detailed information data on the material detailed information screen of the material list display 31.

また、素材一覧アプリケーション部21は、編集用ディスプレイ32からビデオサーバ10に収録されている素材にアクセスできるようにするため、ビデオサーバ10の素材に対してマウントを行う。このマウントにより、編集用ディスプレイ32はビデオサーバ10に保存されている素材を用いて編集を行うことができる。   The material list application unit 21 mounts the material of the video server 10 so that the material stored in the video server 10 can be accessed from the editing display 32. By this mounting, the editing display 32 can perform editing using the material stored in the video server 10.

続いて、本実施形態において特徴的な機能、すなわち、編集用アプリケーション部22における項目素材の編集機能について説明する。詳細は次に説明するが、項目素材の編集機能では、次の特徴を有する。
(1)各素材の編集時に項目素材用(ダイジェスト)の使いどころを、マークする。画像認識・音声認識によって特定画像や急に大音量となるポジションなどをキーに、使いどころとして自動検出する。
(2)各素材の使いどころと放送プレイリストをもとに、項目素材用編集データを作成する。また、素材のメタデータをもとにテロップデータを作成する。
(3)項目素材の編集開始時に、上記(2)の成果物をもとに、各素材を放送順に並べ、テロップを付加した編集タイムラインを展開する。編集者は内容の確認と手直しが可能である。使いどころの変更は、上記(1)と同様に自動検出機能を用いることができる。
Subsequently, the characteristic function in the present embodiment, that is, the editing function of the item material in the editing application unit 22 will be described. Details will be described next, but the item material editing function has the following features.
(1) Mark the use of item digest (digest) when editing each material. It automatically detects a specific image or a position that suddenly becomes loud by image recognition and voice recognition as a key.
(2) Create editing data for item material based on the usage of each material and the broadcast playlist. In addition, telop data is created based on the metadata of the material.
(3) At the start of editing the item material, the materials are arranged in the order of broadcasting based on the result of the above (2), and an editing timeline to which telops are added is developed. Editors can check and revise the content. The change of usage can use the automatic detection function as in the above (1).

編集用アプリケーション部22は、項目素材マーク部51と、項目素材管理部52と、展開部53と、テロップデータ作成部54と、スタイル記憶部55と、予測部56とを備える。   The editing application unit 22 includes an item material mark unit 51, an item material management unit 52, a development unit 53, a telop data creation unit 54, a style storage unit 55, and a prediction unit 56.

項目素材マーク部51は、各素材の項目素材用(ダイジェスト)としての使いどころをマークする。上述のように、ニュース番組等では、番組を構成する各素材の編集が平行で行われ、それら各素材の編集とは別に放送順序などの番組の構成が決定される。各素材の編集が完了すると、番組冒頭で放送される項目素材が作成され、さらにテロップが付加すされる。本実施形態では、項目素材マーク部51は、手動(ユーザの目視)によるマーク機能とともに自動マーク機能を有し、画像認識又は音声認識によって特定画像や急に大音量となる箇所をキーに、使いどころとしてマーク(マーク点)して自動検出する。   The item material mark portion 51 marks the use as an item material (digest) of each material. As described above, in a news program or the like, editing of each material constituting the program is performed in parallel, and the configuration of the program such as the broadcast order is determined separately from the editing of each material. When editing of each material is completed, item material to be broadcasted at the beginning of the program is created, and a telop is added. In the present embodiment, the item material mark unit 51 has an automatic mark function as well as a manual (visual observation by the user) mark function, and uses a specific image or a sudden loud area as a key by image recognition or voice recognition. As mark, mark (mark point) automatically detects.

項目素材管理部52は、項目素材マーク部51によってマークされた使いどころのマーク点をデータ管理し、各素材の使いどころと放送プレイリストをもとに項目素材用編集データとテロップデータを作成する。項目素材管理部52は、テロップデータを作成する際に項目素材のメタデータを参照して作成する。   The item material management unit 52 manages data of the mark points of usage marked by the item material mark unit 51, and creates editing data and telop data of the item material based on the usage of each material and the broadcast playlist. . The item material management unit 52 refers to the metadata of the item material when creating the telop data.

展開部53は、項目素材を編集する際に、テロップデータをもとに、各項目素材を放送順に並べ、テロップを付加した編集タイムラインを展開する。また、展開部53は、項目素材を編集する際、項目素材用編集データとテロップデータをもとに、項目素材編集用のタイムラインを自動展開する。編集者は、展開された内容を確認し必要に応じて手直しをする。使いどころの変更は、例えば、使いどころのマーク点の自動検出機能を実行して、候補点を選択可能に表示させる。   When editing the item material, the expanding unit 53 arranges the item materials in the order of broadcasting based on the telop data, and expands an editing timeline to which the telop is added. Further, when editing the item material, the expanding unit 53 automatically expands the item material editing timeline based on the item material editing data and the telop data. The editor confirms the expanded contents and makes adjustments as necessary. The change of use, for example, executes an automatic detection function of the easy-to-use mark points to display candidate points in a selectable manner.

スタイル記憶部55は、テロップの表示スタイルを登録・保持する。展開部53は、テロップデータで表示スタイルを指定し、編集展開時にスタイル記憶部55を参照して表示スタイルを自動反映する。   The style storage unit 55 registers and holds the display style of the telop. The expansion unit 53 designates a display style by telop data, and automatically reflects the display style with reference to the style storage unit 55 at the time of editing and expansion.

予測部56は、予め各素材を読込んだ状態で編集を行い、編集履歴から編集開始時に予め必要となる映像を予測する。したがって、展開部53は、予測部56の機能を用いることで、予測した素材をまとめて展開(編集可能に表示)する。ここで、予測部56は、ニュース原稿に含まれる単語、実際の映像内容、映像に含まれている音声と、実際にニュースに使われた素材の統計とから、必要となる素材を予測する。   The prediction unit 56 edits in a state in which each material is read in advance, and predicts an image required in advance at the start of editing from the editing history. Therefore, the developing unit 53 uses the function of the prediction unit 56 to collectively deploy (predictably display) the predicted materials. Here, the prediction unit 56 predicts the necessary material from the words included in the news manuscript, the actual video content, the audio included in the video, and the statistics of the material actually used for the news.

図2は、項目素材の生成フローを示すチャート図である。
まず、編集機20において、各素材の編集作業がそれぞれ平行して行われる(S10)。ここでは、素材A、素材B及び素材Cが放送素材として利用される。項目素材マーク部51は、各素材の項目素材用(ダイジェスト)としての使いどころを、特定画像や音量等を基準に自動的にマークする。マーク点については、項目素材管理部52がデータ管理する。成果物として、素材A、素材B及び素材Cのそれぞれに使いどころが追加されたデータが生成される。
FIG. 2 is a chart showing the generation flow of item material.
First, in the editing machine 20, editing operations for each material are performed in parallel (S10). Here, the material A, the material B and the material C are used as broadcast materials. The item material mark unit 51 automatically marks the use as an item material (digest) of each material on the basis of a specific image, a volume, or the like. The item material management unit 52 manages data of mark points. As a result, data is generated in which usage preferences are added to each of the material A, the material B, and the material C.

次に、項目素材用編集データが作成される(S20)。具体的には、展開部53が、各素材の編集作業(S10)の成果物と放送順決定処理における放送プレイリストをもとに、項目素材用編集データを生成する。項目素材用編集データとは、どの素材をどの放送タイミング(開始時刻。終了時刻)とするかの一覧である。また、テロップデータ作成部54は、各素材(ここでは素材A、素材B、素材C)のメタデータをもとにテロップデータを生成する。このとき、テロップデータ作成部54は、スタイル記憶部55を参照して、テロップのスタイルを決定する。   Next, item material editing data is created (S20). Specifically, the expanding unit 53 generates item material editing data based on the result of the editing work (S10) of each material and the broadcast playlist in the broadcast order determination process. The item material edit data is a list of which material is used as the broadcast timing (start time; end time). Further, the telop data creation unit 54 creates telop data based on the metadata of each material (here, the material A, the material B, and the material C). At this time, the telop data creation unit 54 refers to the style storage unit 55 to determine the telop style.

次に、展開部53は、各素材を放送順に並べ、テロップを付加した編集タイムラインを展開する(S30)。このとき、編集者は、内容を確認するとともに必要に応じて使い所を変更する。完了後、展開部53は、放送素材(項目素材、素材A、素材B、素材C)としてWEBクライアント部23を介してビデオサーバ10に出力し、最終的にビデオサーバ10は、所期のタイミングで、放送プレイリストに基づき放送される(S40)。   Next, the developing unit 53 arranges the respective materials in the order of broadcasting, and develops an editing timeline to which telops are added (S30). At this time, the editor confirms the contents and changes the usage if necessary. After completion, the deployment unit 53 outputs the broadcast material (item material, material A, material B, material C) to the video server 10 via the WEB client unit 23, and the video server 10 finally receives the desired timing. And broadcast based on the broadcast playlist (S40).

このように、素材の編集時に、自動的に項目素材用の使いどころがマークされるので、項目素材の編集作業負荷を軽減することができる。また、各素材の編集者が使いどころをマークしておくことで、編集者の見せたい部分をミスなく確実に反映できる。   As described above, when the material is edited, the usage for the item material is automatically marked, so that the workload of editing the item material can be reduced. In addition, the editors of each material mark usage points, so that it is possible to reliably reflect the parts that the editors want to show without mistakes.

続いて、予測部56の機能について説明する。一般的な技術では、映像を編集するとき、編集者(ユーザ)は素材一覧から目的の映像を検索する必要がある。検索には、(A)番組名(B)日付(C)タイトル・サブタイトルを指定し、実際に試写を行いながら目的の映像を探す。通常は、編集開始時に必要となる素材を探す必要がある。検索を行っても、試写の結果、目的の素材では無いことや、実際に見つけられないこともある。   Subsequently, the function of the prediction unit 56 will be described. According to a general technique, when editing a video, an editor (user) needs to search for a target video from the material list. In the search, (A) program name (B) date (C) title and subtitle are specified, and a target image is searched while performing previewing. Usually, you need to find the material you need at the start of editing. Even if you search, the results of the preview may not be the desired material or may not actually be found.

そこで、本実施形態では、編集機20の予測部56が、予め必要となる映像を予測し、ひとまとめにして編集者に提供する。すなわち、これまで素材の分類分けに利用されていなかった情報(ニュース原稿に含まれている単語、実際の映像内容、映像に含まれている音声と、実際にニュースに使われた素材の統計など)から、必要となる素材を予想する。分類分けの結果に基づき、編集開始時に必要となる素材をひとまとめにしてユーザへ提供する。予測技術については、特に限定しないが、近年精度向上しているAI技術(ディープラーニング)等の学習機能を用いることで、編集者に対して、より望ましい素材候補を提供することができる。   Therefore, in the present embodiment, the prediction unit 56 of the editing machine 20 predicts in advance necessary images, and collectively provides them to the editor. That is, information that has not been used to classify materials (words included in news manuscripts, actual video content, audio included in video, statistics of materials actually used for news, etc.) From), predict the required materials. Based on the classification result, the materials required at the start of editing are provided collectively to the user. The prediction technology is not particularly limited, but it is possible to provide more desirable candidate materials for the editor by using a learning function such as an AI technology (deep learning) which has recently been improved in accuracy.

すなわち、過去の編集履歴から編集開始時に必要となる素材を予想して、予め素材を読込んだ状態で編集を開始することができる。これによって、編集者は、自ら素材を探す手間を大幅に削減できる。また、学習機能により、編集者が認識していた素材より適切な素材を見つけ出すことが可能となる。   That is, it is possible to predict the material required at the start of editing from the past editing history, and to start editing while reading the material in advance. By this, the editor can significantly reduce the time and effort of searching for the material by itself. In addition, the learning function makes it possible to find out more appropriate materials than those recognized by the editor.

以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described above based on the embodiments. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of the respective constituent elements, and such modifications are also within the scope of the present invention.

10 ビデオサーバ
20 編集機
21 素材一覧アプリケーション部
22 編集用アプリケーション部
23 WEBクライアント部
30 ディスプレイ
31 素材一覧表示用ディスプレイ
32 編集用ディスプレイ
51 項目素材マーク部
52 項目素材管理部
53 展開部
54 テロップデータ作成部
55 スタイル記憶部
56 予測部
100 ビデオサーバシステム
DESCRIPTION OF SYMBOLS 10 Video server 20 Editing machine 21 Material list application part 22 Application part 23 for editing Web client part 30 Display 31 Display for material list display 32 Display for edit 51 Item Material mark part 52 Item Material management part 53 Expansion part 54 Telop data creation part 55 style storage unit 56 prediction unit 100 video server system

Claims (7)

番組編集が可能なビデオサーバシステムにおいて、
番組を構成する各素材の編集時に項目素材用の使いどころをマークする項目素材マーク部と、
使いどころのマーク点をデータ管理し、各素材の使いどころと放送プレイリストをもとに、項目素材用編集データとテロップデータを作成する項目素材管理部と、
前記項目素材の編集開始時に、テロップデータをもとに、各項目素材を放送順に並べ、テロップを付加した編集タイムラインを展開する展開部と、
編集された項目素材を放送出力する送出部と、
を備えることを特徴とするビデオサーバシステム。
In a video server system capable of program editing,
An item material mark section that marks the use of item material when editing each material making up a program,
An item material management unit that manages data of mark points for use and creates edit data for item materials and telop data based on the use of each material and the broadcast playlist,
A development unit which arranges each item material in the order of broadcasting based on the telop data at the start of editing the item material, and develops an edit timeline to which the telop is added;
A sending unit that broadcasts the edited item material;
A video server system comprising:
前記項目素材マーク部は、画像認識又は音声認識によって特定画像や急に大音量となる箇所をキーに、使いどころとしてマークして自動検出することを特徴とする請求項1に記載のビデオサーバシステム。   2. The video server system according to claim 1, wherein the item material mark unit automatically marks a specific image or a portion which suddenly becomes loud by image recognition or voice recognition as a key by using as a key. . 前記項目素材管理部は、前記項目素材のメタデータをもとに前記テロップデータを作成することを特徴とする請求項1または2に記載のビデオサーバシステム。   3. The video server system according to claim 1, wherein the item material management unit creates the telop data based on metadata of the item material. 前記展開部は、項目素材を編集する際、項目素材用編集データとテロップデータをもとに、項目素材編集用のタイムラインを自動展開することを特徴とする請求項1〜3までのいずれかに記載のビデオサーバシステム。   4. The apparatus according to any one of claims 1 to 3, wherein, when editing the item material, the developing unit automatically develops a timeline for item material editing based on the item material editing data and telop data. Video server system as described in. テロップの表示スタイルを登録・保持するスタイル記憶部を有し、
前記展開部は、テロップデータで前記表示スタイルを指定し、編集展開時に前記スタイル記憶部を参照して前記表示スタイルを自動反映することを特徴とする請求項1〜4までのいずれかに記載のビデオサーバシステム。
Has a style storage unit that registers and holds the display style of telop,
The said expansion | deployment part designates the said display style by telop data, The said display style is automatically reflected with reference to the said style memory part at the time of edit expansion | deployment, The said display style is characterized by the above-mentioned. Video server system.
編集履歴から編集開始時に予め必要となる映像を予測する予測部を備え、
前記展開部は、予測した素材をまとめて展開することを特徴とする請求項1〜5までのいずれかに記載のビデオサーバシステム。
A prediction unit that predicts an image required in advance at the start of editing from the editing history;
The video server system according to any one of claims 1 to 5, wherein the deployment unit deploys predicted materials collectively.
前記予測部は、ニュース原稿に含まれる単語、実際の映像内容、映像に含まれている音声と、実際にニュースに使われた素材の統計から必要となる素材を予測することを特徴とする請求項6に記載のビデオサーバシステム。   The prediction unit predicts a required material from the words contained in the news manuscript, the actual video content, the audio contained in the video, and the statistics of the material actually used for the news. The video server system according to claim 6.
JP2017184831A 2017-09-26 2017-09-26 Video server system Active JP6873878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017184831A JP6873878B2 (en) 2017-09-26 2017-09-26 Video server system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017184831A JP6873878B2 (en) 2017-09-26 2017-09-26 Video server system

Publications (2)

Publication Number Publication Date
JP2019062357A true JP2019062357A (en) 2019-04-18
JP6873878B2 JP6873878B2 (en) 2021-05-19

Family

ID=66177660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017184831A Active JP6873878B2 (en) 2017-09-26 2017-09-26 Video server system

Country Status (1)

Country Link
JP (1) JP6873878B2 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261754A (en) * 1999-03-05 2000-09-22 Jisedai Joho Hoso System Kenkyusho:Kk Digest generator, digest generating method, and recording medium recording program to allow computer to execute each process step of the method and read by the computer
JP2002251869A (en) * 2001-02-23 2002-09-06 Telecommunication Advancement Organization Of Japan Material edit processing system and material edit processing method
JP2002259720A (en) * 2001-03-02 2002-09-13 Internatl Business Mach Corp <Ibm> Contents summarizing system, image summarizing system, user terminal unit, summary image producing method, summary image receiving method, and program
JP2005109566A (en) * 2003-09-26 2005-04-21 Toshiba Corp Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program
JP2007096675A (en) * 2005-09-28 2007-04-12 Victor Co Of Japan Ltd Information recording and reproducing device
CN1993988A (en) * 2004-06-23 2007-07-04 松下电器产业株式会社 Archive management device, archive management system and archive management program
WO2007091509A1 (en) * 2006-02-07 2007-08-16 The Tokyo Electric Power Company, Incorporated Content edition/generation system
JP2008185626A (en) * 2007-01-26 2008-08-14 Toshiba Corp Highlight scene detection apparatus
JP2008205990A (en) * 2007-02-22 2008-09-04 Hitachi Kokusai Electric Inc Editing and transmission system
JP2011029938A (en) * 2009-07-24 2011-02-10 Toshiba Corp Video server and highlight scene editing method
JP2012084979A (en) * 2010-10-07 2012-04-26 Sony Corp Information processing device and method, program, and information processing system
JP2012222436A (en) * 2011-04-05 2012-11-12 Hitachi Kokusai Electric Inc Tapeless system
US20140369667A1 (en) * 2007-01-09 2014-12-18 Sony Corporation Information processing apparatus, information processing method, and program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261754A (en) * 1999-03-05 2000-09-22 Jisedai Joho Hoso System Kenkyusho:Kk Digest generator, digest generating method, and recording medium recording program to allow computer to execute each process step of the method and read by the computer
JP2002251869A (en) * 2001-02-23 2002-09-06 Telecommunication Advancement Organization Of Japan Material edit processing system and material edit processing method
JP2002259720A (en) * 2001-03-02 2002-09-13 Internatl Business Mach Corp <Ibm> Contents summarizing system, image summarizing system, user terminal unit, summary image producing method, summary image receiving method, and program
JP2005109566A (en) * 2003-09-26 2005-04-21 Toshiba Corp Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program
CN1993988A (en) * 2004-06-23 2007-07-04 松下电器产业株式会社 Archive management device, archive management system and archive management program
JP2007096675A (en) * 2005-09-28 2007-04-12 Victor Co Of Japan Ltd Information recording and reproducing device
WO2007091509A1 (en) * 2006-02-07 2007-08-16 The Tokyo Electric Power Company, Incorporated Content edition/generation system
US20140369667A1 (en) * 2007-01-09 2014-12-18 Sony Corporation Information processing apparatus, information processing method, and program
JP2008185626A (en) * 2007-01-26 2008-08-14 Toshiba Corp Highlight scene detection apparatus
JP2008205990A (en) * 2007-02-22 2008-09-04 Hitachi Kokusai Electric Inc Editing and transmission system
JP2011029938A (en) * 2009-07-24 2011-02-10 Toshiba Corp Video server and highlight scene editing method
JP2012084979A (en) * 2010-10-07 2012-04-26 Sony Corp Information processing device and method, program, and information processing system
JP2012222436A (en) * 2011-04-05 2012-11-12 Hitachi Kokusai Electric Inc Tapeless system

Also Published As

Publication number Publication date
JP6873878B2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
US20090142037A1 (en) Image processing apparatus and method for generating and displaying playlist for image data
US20050033758A1 (en) Media indexer
JP3988079B2 (en) Information processing apparatus and method, and program
EP1755018A2 (en) Electronic device, data processing method, data control method, and content data processing system
JPH0944394A (en) Multimedia data filing system
US20070201864A1 (en) Information processing apparatus, information processing method, and program
GB2520041A (en) Automated multimedia content editing
KR20000071793A (en) Apparatus, method and medium for information processing
US8023799B2 (en) Recording control device, recording control method, and program
US7675827B2 (en) Information processing apparatus, information processing method, and program
JP2004297493A (en) Digital contents editing system and method thereof
JP6873878B2 (en) Video server system
JPH113346A (en) Moving image file managing device
JP2009253769A (en) Imaging apparatus, method for controlling imaging apparatus, and program
JP2005167822A (en) Information reproducing device and information reproduction method
JP2005182931A (en) Device and method for recording/reproducing information
JP2005039354A (en) Metadata input method and editing system
JP2002199330A (en) Recorder and reproducing device
JP2008017235A (en) Apparatus and method for adding information of degree of importance based on video operation history
JP2006344321A (en) Information recording/reproducing apparatus
JP4171316B2 (en) Information editing apparatus, information editing method, and information editing program
JP2002304349A (en) Information regenerator, information recorder, and recording medium
JP4323172B2 (en) Information editing system, information editing apparatus, and information editing program
JP5746478B2 (en) Data processing apparatus, data processing method, and program
JP5473517B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R150 Certificate of patent or registration of utility model

Ref document number: 6873878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150