JP2011205268A - Video editing support system and video editing support program - Google Patents

Video editing support system and video editing support program Download PDF

Info

Publication number
JP2011205268A
JP2011205268A JP2010069107A JP2010069107A JP2011205268A JP 2011205268 A JP2011205268 A JP 2011205268A JP 2010069107 A JP2010069107 A JP 2010069107A JP 2010069107 A JP2010069107 A JP 2010069107A JP 2011205268 A JP2011205268 A JP 2011205268A
Authority
JP
Japan
Prior art keywords
video
information
section
important
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010069107A
Other languages
Japanese (ja)
Other versions
JP5599632B2 (en
Inventor
Masahiro Kubota
昌宏 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SKY Co Ltd
Original Assignee
SKY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SKY Co Ltd filed Critical SKY Co Ltd
Priority to JP2010069107A priority Critical patent/JP5599632B2/en
Publication of JP2011205268A publication Critical patent/JP2011205268A/en
Application granted granted Critical
Publication of JP5599632B2 publication Critical patent/JP5599632B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system which supports editing a video image to be reproduced in a recording and reproducing device, or the like, by specifying the start and end points of a part to be edited based on the content of user operation during viewing the video.SOLUTION: The video editing support system stores point information indicating a part determined to be important by a person who reproduces a video image, and determines an important range in the video image by using the point information thus stored. The range in the video image containing the content determined to be unnecessary is also determined simultaneously using a result of determining the important range. The video is processed automatically based on the determination result, and a processed image is displayed on the display of the person who reproduces the video.

Description

本発明は、映像の編集に関し、特に記録再生機器等において再生される映像の視聴と同時に編集箇所を特定する技術に関する。   The present invention relates to video editing, and more particularly, to a technique for specifying an editing location at the same time as viewing a video played back on a recording / playback device.

一般的に、テレビ放送される番組や撮影した動画を記録保存する場合、これらの映像に含まれる不要部分を削除する等の編集作業が行われる。しかし、この編集作業は、映像の内容に応じて編集箇所を特定しなければならないため、映像の内容確認が複数回必要となり、手間がかかるという問題がある。例えば、テレビ番組に含まれるコマーシャル映像を削除するためにその開始点と終了点を特定したり、撮影した映像の中から重要部分のみを抽出するためにその開始点と終了点を特定したりする場合、編集作業を行う者は、映像の内容を把握して編集箇所を特定しなければならないため、「巻き戻し」や「早送り」操作を複数回繰り返すこととなってしまう。   In general, when recording and saving a program broadcasted on a television or a captured moving image, an editing operation such as deleting unnecessary portions included in these videos is performed. However, in this editing work, the editing location must be specified according to the content of the video, so that there is a problem that it is necessary to confirm the content of the video a plurality of times, which is troublesome. For example, the start point and end point are specified in order to delete a commercial video included in a TV program, or the start point and end point are specified in order to extract only important parts from the shot video. In this case, the person who performs the editing work has to grasp the content of the video and specify the editing portion, and therefore, the “rewind” and “fast forward” operations are repeated a plurality of times.

上記の問題を解決する手段として、映像の録画再生分野において、ユーザが映像を視聴しながら削除したい場面の映像(映画の予告編やテレビコマーシャル等)を発見した際、リモコン操作で削除したい場面を指定するという技術がある。この技術において、ユーザが映像を見ながらリモコンの編集ボタンを押下した映像位置を記録し、編集モード起動時に、その記録しておいた映像位置にジャンプ移動することにより編集操作の手間を削減するという手段が用いられている。これにより、編集作業を行うために「巻き戻し」や「早送り」操作を行う回数を削減することができる。(特許文献1参照)   As a means to solve the above problems, in the video recording and playback field, when a user finds a video of a scene (movie trailer, TV commercial, etc.) to be deleted while viewing the video, the scene to be deleted is specified by remote control operation. There is technology to do. In this technology, the video position when the user presses the edit button on the remote control while watching the video is recorded, and when the edit mode is started, the jumping to the recorded video position is performed to reduce the editing operation. Means are used. As a result, the number of times of performing “rewind” and “fast-forward” operations for editing can be reduced. (See Patent Document 1)

特開2006−5394号公報JP 2006-5394 A

特許文献1の技術を用いると、映像の編集作業を行う際に「巻き戻し」や「早送り」操作を行う回数を削減することができる。しかし、ユーザが映像を視聴しながら削除したい場面をリモコンで指定したとしても、その指定した時点において削除したい場面の開始点が既に過ぎ去ってしまっていたり、指定した時点では削除したい場面がいつまで続くのか分からなかったりする。このため、特許文献1の技術では編集箇所の大まかな映像位置は把握することができたとしても、編集箇所の開始点と終了点を特定することはできない。   By using the technique of Patent Document 1, it is possible to reduce the number of times of performing “rewind” and “fast forward” operations when editing an image. However, even if the user specifies the scene to be deleted while viewing the video with the remote control, the starting point of the scene to be deleted has already passed at the specified time, or how long will the scene to be deleted continue at the specified time? I do n’t know. For this reason, even if the technique of Patent Document 1 can grasp the rough video position of the edited portion, the start point and the end point of the edited portion cannot be specified.

本発明は、上記従来技術の問題点を解消することを課題とする。具体的には、記録再生機器等において再生される映像の編集作業において、その映像を視聴しながら行われるユーザの操作内容に基づいて編集箇所の開始点と終了点を特定し、編集作業の手間を軽減するシステムを提供することを課題とする。   An object of the present invention is to solve the above-mentioned problems of the prior art. Specifically, in the editing work of a video played back on a recording / playback device or the like, the start and end points of the editing part are specified based on the user's operation contents performed while viewing the video, and the editing work is troublesome. It is an object of the present invention to provide a system for reducing the risk.

上記の課題を解決するために、本発明の映像編集支援システムは、映像の再生者が重要と判断した箇所を示すポイント情報を記憶するポイント情報記憶部と、ポイント情報を用いて映像内の重要範囲を判定する重要範囲判定部と、重要範囲判定部における判定結果に基づいて映像を加工処理する加工処理部と、映像加工部において加工処理された加工映像を表示する表示制御部と、を備えている。   In order to solve the above problems, a video editing support system according to the present invention includes a point information storage unit that stores point information indicating a location that is determined to be important by a video player, and an important point in the video using the point information. An important range determination unit that determines a range, a processing unit that processes a video based on a determination result in the important range determination unit, and a display control unit that displays a processed video processed in the video processing unit ing.

本発明のように構成することにより、映像の再生者が重要と判断した時点を示すポイント情報から、映像内において重要な内容が記録されている範囲を把握することができる。さらに、その重要範囲の判定結果を利用することにより、映像内において不要と判断できる内容が記録されている範囲も把握することができる。これにより、編集箇所をその開始点と終了点も含めて特定することができるため、編集作業の手間を軽減することが可能となる。   With the configuration according to the present invention, it is possible to grasp the range in which important content is recorded in the video from the point information indicating the time point when the video player determines that the video is important. Further, by using the determination result of the important range, it is possible to grasp the range in which contents that can be determined to be unnecessary in the video are recorded. As a result, it is possible to specify the editing portion including its start point and end point, and thus it is possible to reduce the labor of editing work.

本発明におけるポイント情報とは、ユーザが映像を視聴しながら重要だと感じた映像位置に関する情報のことをいう。具体的には、ユーザが映像視聴時に重要だと判断してリモコンのボタン等を押下した時刻を示す情報などがポイント情報として考えられる。   The point information in the present invention refers to information regarding the video position that the user feels important while viewing the video. Specifically, information indicating the time when the user determines that it is important at the time of video viewing and presses a button or the like on the remote controller is considered as point information.

本発明における重要範囲とは、映像中において、その映像の再生者が重要だと判断した内容が記録されている映像位置の範囲を示す情報のことをいう。具体的には、ユーザが重要だと判断した場面の開始点と終了点の両方を示す再生時間情報などが重要範囲として考えられる。   The important range in the present invention refers to information indicating the range of the video position where the content determined by the player of the video is important in the video. Specifically, reproduction time information indicating both the start point and end point of a scene that the user has determined to be important can be considered as an important range.

本発明の映像編集支援システムは更に、映像を一定の時間的範囲を示す区間で区切る区間設定部と、ポイント情報と前記区間情報を関連付けた区間情報を記憶する区間記憶部と、を備え、重要範囲判定部は、区間情報に基づいて重要範囲を判定する、という構成としてもよい。   The video editing support system of the present invention further includes a section setting section that divides the video into sections showing a certain time range, and a section storage section that stores section information in which the point information is associated with the section information. The range determination unit may be configured to determine the important range based on the section information.

本発明のように構成することにより、編集箇所の開始点と終了点を明確に特定することができるため、本システムにおける重要範囲の判定と加工処理を素早く行うことが可能となる。   By configuring as in the present invention, it is possible to clearly specify the start point and the end point of the editing portion, so that it is possible to quickly determine the important range and perform the processing in the present system.

本発明における区間とは、予め定めておいた条件に対応する映像位置で所定数に区切った範囲の一つを示す情報のことをいう。区間に区切る方法としては、所定値に基づいて均等に区切る方法(一定の時間的範囲で区切る場合や、予め定めた全区間数に応じて均等に区切る場合など。)や、映像の要素に応じて区切る方法(映像の色の変化量に応じて区切る場合や、映像に含まれる音情報の変化量に応じて区切る場合など。)等が考えられるが、いずれを用いても構わない。   The section in the present invention refers to information indicating one of ranges divided into a predetermined number at video positions corresponding to predetermined conditions. As a method of dividing into sections, a method of equally dividing based on a predetermined value (when dividing within a certain time range, equally dividing according to a predetermined number of all sections, etc.), or according to video elements. (For example, when dividing according to the amount of change in the color of the video, or when dividing according to the amount of change in the sound information included in the video).

本発明の映像編集支援システムは更に、区間情報に含まれるポイント情報の数に応じて前記区間毎の重要度を決定する区間重要度決定部と、を備え、区間情報記憶部は記憶されている区間情報に対して区間重要度を加える形に更新して記憶し、重要範囲判定部は、区間重要度に基づいて重要範囲を決定する、という構成としてもよい。   The video editing support system of the present invention further includes a section importance degree determination section that determines the importance degree for each section according to the number of point information included in the section information, and the section information storage section is stored. The section information may be updated and stored in such a manner that the section importance is added, and the important range determination unit may determine the important range based on the section importance.

本実施例のように構成することにより、映像中における重要部分や不要部分について、その重要度合いに応じた編集処理を行うことができる。これにより、ユーザの操作内容に応じて多様な編集処理を行うことが可能となる。   By configuring as in the present embodiment, it is possible to perform editing processing according to the degree of importance of important and unnecessary parts in the video. As a result, various editing processes can be performed according to the user's operation content.

本発明の映像編集支援システムは更に、映像が再生された時点における再生状況を解析した解析情報を記憶する解析情報記憶部を備え、重要範囲判定部は、解析情報に基づいて重要範囲を判定する、という構成としてもよい。   The video editing support system according to the present invention further includes an analysis information storage unit that stores analysis information obtained by analyzing a playback situation at the time of video playback, and the important range determination unit determines the important range based on the analysis information. It is good also as a structure of.

本発明のように構成することにより、ユーザが映像をどういう状態で視聴したのかという再生状況を把握することができる。これにより、編集箇所の開始点と終了点をユーザの視聴状況に応じて細かく調整することが可能となる。   According to the configuration of the present invention, it is possible to grasp the reproduction status as to how the user has viewed the video. Thereby, it is possible to finely adjust the start point and end point of the edited portion according to the viewing situation of the user.

本発明における再生状況とは、ユーザが映像をどういう状態で使用していたのかという状況のことをいう。具体的には、映像の再生スピードや音声の大きさ等の情報が再生状況として取得できる情報の一例として考えられる。   The playback situation in the present invention refers to the situation in which the user is using the video. Specifically, information such as video playback speed and audio volume can be considered as an example of information that can be acquired as a playback status.

また、本発明のプログラムを端末に読み込ませて実行することで、上述の本発明を実現させることも可能である。つまり、録画された映像に対して、その映像の再生者が重要と判断した箇所を示すポイント情報を記憶するポイント情報記憶部を備える映像編集支援システムに用いるプログラムであって、ポイント情報を用いて映像内の重要範囲を判定する重要範囲判定機能と、重要範囲判定部における判定結果に基づいて映像を加工処理する映像加工機能と、映像加工部において加工処理された加工映像を表示する表示制御機能と、をコンピュータに実現させる映像編集支援プログラムとして構成してもよい。   It is also possible to realize the above-described present invention by reading the program of the present invention into a terminal and executing it. In other words, for a recorded video, a program for use in a video editing support system including a point information storage unit that stores point information indicating a location that is determined to be important by a player of the video, using the point information An important range determination function that determines the important range in the video, a video processing function that processes the video based on the determination result in the important range determination unit, and a display control function that displays the processed video processed in the video processing unit May be configured as a video editing support program that causes a computer to realize the above.

このプログラムも、上述の映像編集支援システムと同様の作用効果を伴うものであり、上述した種々の特徴構成を備えることもできる。   This program also has the same operational effects as the above-described video editing support system, and can also have the various feature configurations described above.

上述のように構成された本発明によれば、映像の再生者が重要と判断した箇所を示すための操作内容に基づいて、映像内の重要箇所と不要箇所の開始点及び終了点を特定することができる。これにより、編集処理を自動的に行うことができ、編集作業の手間を軽減することができるという効果を得ることができる。   According to the present invention configured as described above, the start point and the end point of the important part and the unnecessary part in the video are specified based on the operation content for indicating the part that is determined to be important by the video player. be able to. Thereby, an edit process can be performed automatically and the effect that the effort of edit work can be reduced can be acquired.

本発明のシステム構成の一例を示す概念図。The conceptual diagram which shows an example of the system configuration | structure of this invention. 本発明の管理サーバのハードウェア構成の一例を示す概念図。The conceptual diagram which shows an example of the hardware constitutions of the management server of this invention. 本発明の実施例1におけるシステム構成の一例を示す機能ブロック図。The functional block diagram which shows an example of the system configuration | structure in Example 1 of this invention. 本発明のシステム構成の別例を示す概念図。The conceptual diagram which shows another example of the system configuration | structure of this invention. 本発明の実施例1におけるシステム構成の別例を示す機能ブロック図。The functional block diagram which shows another example of the system configuration | structure in Example 1 of this invention. 本発明の実施例1における処理プロセスの一例を示すフローチャート。The flowchart which shows an example of the process in Example 1 of this invention. 本発明の映像情報記憶部13に記憶する映像情報の一例を示す図。The figure which shows an example of the video information memorize | stored in the video information storage part 13 of this invention. 本発明の加工データ記憶部15に記憶する加工データの一例を示す図。The figure which shows an example of the process data memorize | stored in the process data storage part 15 of this invention. 本発明のポイント情報生成部25にて生成するポイント情報の一例を示す図。The figure which shows an example of the point information produced | generated in the point information production | generation part 25 of this invention. 本発明のポイント情報記憶部12に記憶するポイント情報の一例を示す図。The figure which shows an example of the point information memorize | stored in the point information storage part 12 of this invention. 本発明の加工データ記憶部15内に設ける加工テーブルの一例を示す図。The figure which shows an example of the process table provided in the process data storage part 15 of this invention. 本発明の加工データ記憶部15に記憶する加工データの一例を示す図。The figure which shows an example of the process data memorize | stored in the process data storage part 15 of this invention. 本発明の加工処理部16にて生成する編集アドバイス情報の一例を示す図。The figure which shows an example of the edit advice information produced | generated in the process part 16 of this invention. 本発明の実施例2におけるシステム構成の一例を示す機能ブロック図。The functional block diagram which shows an example of the system configuration | structure in Example 2 of this invention. 本発明の実施例2におけるシステム構成の別例を示す機能ブロック図。The functional block diagram which shows another example of the system configuration | structure in Example 2 of this invention. 本発明の実施例2における処理プロセスの一例を示すフローチャート。The flowchart which shows an example of the process in Example 2 of this invention. 本発明の区間情報記憶部18bに記憶する区間情報の一例を示す図。The figure which shows an example of the area information memorize | stored in the area information storage part 18b of this invention. 本発明のポイント情報記憶部12に記憶するポイント情報の一例を示す図。The figure which shows an example of the point information memorize | stored in the point information storage part 12 of this invention. 本発明の区間情報記憶部18bに記憶する更新後の区間情報の一例を示す図。The figure which shows an example of the section information after the update memorize | stored in the section information storage part 18b of this invention. 本発明の重要範囲判定部14内に設ける判定テーブルの一例を示す図。The figure which shows an example of the determination table provided in the important range determination part 14 of this invention. 本発明の実施例3におけるシステム構成の一例を示す機能ブロック図。The functional block diagram which shows an example of the system configuration | structure in Example 3 of this invention. 本発明の実施例3におけるシステム構成の別例を示す機能ブロック図。The functional block diagram which shows another example of the system configuration | structure in Example 3 of this invention. 本発明の実施例3における処理プロセスの一例を示すフローチャート。The flowchart which shows an example of the process in Example 3 of this invention. 本発明の解析情報記憶部19bに記憶する解析情報の一例を示す図。The figure which shows an example of the analysis information memorize | stored in the analysis information storage part 19b of this invention. 本発明の重要範囲判定部14内に設ける修正テーブルの一例を示す図。The figure which shows an example of the correction table provided in the important range determination part 14 of this invention.

〔実施例1−構成(1)〕
以下、図面を用いて本発明の実施形態を説明する。図1に、本発明の映像編集支援システムの全体構成の一例を概念的に示す。本発明は図1に示すように、映像管理サーバA(以下、「管理サーバA」という)が、複数のクライアント端末B(以下、「端末B」という)と、通信ネットワークN(以下、「ネットワークN」という)を介して接続されるという形で構成されている。さらに、端末Bと、外部表示装置C及び外部入力装置Dとが、直接接続又はネットワークNを介して接続されるという形式で構成されている。また、その接続形式は、無線接続形式でも優先接続形式でも、そのどちらであっても構わない。
[Example 1-Configuration (1)]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 conceptually shows an example of the overall configuration of the video editing support system of the present invention. In the present invention, as shown in FIG. 1, a video management server A (hereinafter referred to as “management server A”) has a plurality of client terminals B (hereinafter referred to as “terminal B”) and a communication network N (hereinafter referred to as “network”). N ”). Further, the terminal B, the external display device C, and the external input device D are configured to be connected directly or via a network N. The connection format may be either a wireless connection format or a priority connection format.

外部表示装置Cは、指定されたデータや画像を画面やスクリーン等に表示する出力装置である。具体的には、ディスプレイやプロジェクタ等が一例として考えられる。管理サーバAや端末Bに付属した表示装置とは別個の表示装置であることを明示するため、本明細書では外部表示装置Cと表記することとする。   The external display device C is an output device that displays specified data and images on a screen, a screen, or the like. Specifically, a display, a projector, etc. can be considered as an example. In order to clearly indicate that the display device is separate from the display device attached to the management server A or the terminal B, it is referred to as an external display device C in this specification.

外部入力装置Dは、所定の指示やデータ等の情報を入力するための入力装置である。具体的には、ユーザが指示した情報を送信するリモコンやキーボード等が一例として考えられる。管理サーバAや端末Bに付属した入力装置とは別個の入力装置であることを明示するため、本明細書では外部入力装置Dと表記することとする。   The external input device D is an input device for inputting information such as predetermined instructions and data. Specifically, a remote controller or a keyboard that transmits information instructed by the user can be considered as an example. In order to clearly indicate that the input device is separate from the input device attached to the management server A or the terminal B, it is expressed as an external input device D in this specification.

ネットワークNは、企業や学校等の限られた施設内において情報を物理的に送るケーブルと、LANスイッチやハブ等でなる中継機器を備えたCSMA/CD(Carrier Sense Multiple Access With Collision Detection)方式のイーサネット(登録商標)型のLANとして構成されたものであるが、その他、インターネットの技術を用いたイントラネットで構築されたものや、WAN(Wide Area Network)の技術によって構築されるものでもよい。   Network N is a CSMA / CD (Carrier Sense Multiple Access Collision Detection) system equipped with a cable that physically transmits information in a limited facility such as a company or school, and a relay device such as a LAN switch or hub. Although it is configured as an Ethernet (registered trademark) type LAN, it may be constructed by an intranet using the Internet technology or by a WAN (Wide Area Network) technology.

図2に、管理サーバA又は端末Bのハードウェア構成の一例を概念的に示す。   FIG. 2 conceptually shows an example of the hardware configuration of the management server A or the terminal B.

管理サーバAは、プログラムの演算処理を実行するCPU等の演算装置1と、情報を記憶するRAMやハードディスク等の記憶装置2と、演算装置1の処理結果や記憶装置2に記憶する情報をインターネットやLAN等のネットワークを介して送受信する通信装置3とを少なくとも有している。端末上で実現する各機能(各手段)は、その処理を実行する手段(プログラムやモジュール等)が演算装置1に読み込まれることでその処理が実行される。各機能は、記憶装置2に記憶した情報をその処理において使用する場合には、該当する情報を当該記憶装置2から読み出し、読み出した情報を適宜、演算装置1における処理に用いる。   The management server A includes an arithmetic device 1 such as a CPU that executes arithmetic processing of a program, a storage device 2 such as a RAM and a hard disk for storing information, processing results of the arithmetic device 1 and information stored in the storage device 2 on the Internet. And at least a communication device 3 that transmits and receives via a network such as a LAN. Each function (each unit) realized on the terminal is executed when a unit (program, module, or the like) that executes the process is read into the arithmetic unit 1. When using the information stored in the storage device 2 in the processing, each function reads the corresponding information from the storage device 2 and uses the read information in the processing in the arithmetic device 1 as appropriate.

管理サーバAは、必要に応じてキーボード、マウス又はテンキー等の入力装置4と、ディスプレイ(画面)等の表示装置5を備えた構成としてもよい。また、管理サーバAは、複数の端末又はサーバにその機能が分散配置されていてもよい。   The management server A may include an input device 4 such as a keyboard, a mouse, or a numeric keypad and a display device 5 such as a display (screen) as necessary. In addition, the management server A may have its functions distributed to a plurality of terminals or servers.

端末Bのハードウェア構成も管理サーバAとほぼ同様で、図2に示したとおり、演算装置1、記憶装置2、通信装置3、入力装置4及び表示装置5を有している。   The hardware configuration of the terminal B is almost the same as that of the management server A, and includes a computing device 1, a storage device 2, a communication device 3, an input device 4, and a display device 5, as shown in FIG.

図3に、本発明の映像編集支援システムを構成する管理サーバA、端末B、外部表示装置C及び外部入力装置Dの機能ブロック図を示す。本発明における各構成部及び各手段は、その機能が論理的に区別されているのみであって、物理上あるいは事実上同一の領域を為していてもよい。   FIG. 3 shows a functional block diagram of the management server A, terminal B, external display device C, and external input device D constituting the video editing support system of the present invention. Each component and each means in the present invention are only logically distinguished in function, and may be physically or virtually identical.

また、図3は、本発明において必要となる最小限度の機器、構成部及び手段等のみを記載しており、その他の機器、構成部及び手段等についてはその記載を省略する。   FIG. 3 shows only the minimum equipment, components, means and the like necessary in the present invention, and the description of the other devices, components, means, etc. is omitted.

管理サーバAは、ネットワークNを介して端末Bと様々な情報を送受信するためのネットワークI/F10、端末Bにおいて再生された映像の重要箇所を示すポイント情報を取得するポイント情報取得部11、取得したポイント情報を記憶するポイント情報記憶部12、端末Bで再生する映像に関する情報を記憶する映像情報記憶部13、ポイント情報と映像情報を用いて映像内の重要範囲を判定する重要範囲判定部14、判定した重要範囲に基づいて映像を加工するための情報を生成して記憶する加工データ記憶部15、記憶された加工データを用いて映像に対して加工処理を行う加工処理部16、加工処理した結果生成された映像を端末Bに対して送信する表示制御部17を備えている。   The management server A has a network I / F 10 for transmitting and receiving various information to and from the terminal B via the network N, a point information acquisition unit 11 for acquiring point information indicating important parts of the video reproduced at the terminal B, and acquisition A point information storage unit 12 for storing the point information, a video information storage unit 13 for storing information related to the video to be played back on the terminal B, and an important range determination unit 14 for determining an important range in the video using the point information and the video information. A processing data storage unit 15 that generates and stores information for processing the video based on the determined important range; a processing unit 16 that performs processing on the video using the stored processing data; The display control part 17 which transmits the image | video produced | generated as a result with respect to the terminal B is provided.

端末Bは、ネットワークNを介して管理サーバAと様々な情報を送受信するためのネットワークI/F20、端末Bにおいて再生される映像に関する情報を管理サーバAから受信する表示情報受信部21、受信した情報に応じて端末Bにおける各種動作を実行する端末制御部22、端末制御部22によって指示された情報を表示する端末表示装置22、端末制御部22に対して情報を入力する端末入力装置24、端末Bにおいて再生された映像の重要箇所を示すポイント情報を生成するポイント情報生成部25を備えている。   The terminal B receives the network I / F 20 for transmitting and receiving various information to and from the management server A via the network N, the display information receiving unit 21 that receives information about the video played back on the terminal B from the management server A, and A terminal control unit 22 that executes various operations in the terminal B according to the information, a terminal display device 22 that displays information instructed by the terminal control unit 22, a terminal input device 24 that inputs information to the terminal control unit 22, A point information generation unit 25 that generates point information indicating an important part of the video reproduced on the terminal B is provided.

外部表示装置Cは、端末Bと直接接続又はネットワークNを介して接続されるという形式(無線接続形式又は優先接続形式のどちらでも構わない。)で構成され、端末制御部22指示された情報を表示する。   The external display device C is configured in a format (either a wireless connection format or a priority connection format) in which the external display device C is directly connected to the terminal B or connected via the network N, and the information instructed by the terminal control unit 22 is displayed. indicate.

外部入力装置Dは、端末Bと直接接続又はネットワークNを介して接続されるという形式(無線接続形式又は優先接続形式のどちらでも構わない。)で構成され、端末制御部22対して情報を入力する。   The external input device D is configured to be connected directly to the terminal B or connected via the network N (which may be either a wireless connection format or a priority connection format), and inputs information to the terminal control unit 22. To do.

以下、図3に記載した本発明を構成する機能ブロック図に基づいて、各構成部の動作について説明する。   The operation of each component will be described below based on the functional block diagram constituting the present invention shown in FIG.

表示情報受信部21は、端末Bにおいて再生する映像に関する情報を、ネットワークI/F20を介して管理サーバAから取得し、取得した映像情報を端末制御部22に送信する。   The display information receiving unit 21 acquires information about the video to be played back on the terminal B from the management server A via the network I / F 20 and transmits the acquired video information to the terminal control unit 22.

上記の映像情報とは、端末Bを使用するユーザが端末Bを利用して視聴する映像に関する情報のことをいう。具体的には、映像に含まれる音声及び動画等に関するデータ情報、映像の全体再生時間情報、映像を一義的に識別する映像識別情報(タイトル、番組名、識別コードなど)等を含むものをいう。   The above video information refers to information related to a video that a user who uses the terminal B views using the terminal B. Specifically, the information includes data information related to audio and moving images included in the video, overall playback time information of the video, video identification information (title, program name, identification code, etc.) that uniquely identifies the video, and the like. .

端末制御部22は、表示情報受信部21から取得した映像情報を再生表示する処理を実行し、端末表示装置23又は外部表示装置Cに表示する。さらに、端末制御部22は、端末表示装置23又は外部表示装置Cに表示された映像を視聴したユーザが、端末入力装置24又は外部入力装置Dを用いた入力によって、映像中において重要だと判定した箇所に関する重要箇所情報を取得する。   The terminal control unit 22 executes a process of reproducing and displaying the video information acquired from the display information receiving unit 21 and displays it on the terminal display device 23 or the external display device C. Further, the terminal control unit 22 determines that the user who has viewed the video displayed on the terminal display device 23 or the external display device C is important in the video by the input using the terminal input device 24 or the external input device D. Acquire important part information about the done part.

ポイント情報生成部25は、端末制御部22が取得した端末入力装置24又は外部入力装置Dによって入力された重要箇所情報と再生表示している映像情報とを取得し、ポイント情報を生成する。さらに、生成したポイント情報をネットワークI/F20を介して管理サーバAに送信する。   The point information generation unit 25 acquires the important part information input by the terminal input device 24 or the external input device D acquired by the terminal control unit 22 and the video information being reproduced and displayed, and generates point information. Further, the generated point information is transmitted to the management server A via the network I / F 20.

上記のポイント情報とは、ユーザが映像視聴時に重要だと判断して端末入力装置24又は外部入力装置D(キーボードやリモコン等)のボタン等を押下した時刻、又はそのボタンが押下された時点における映像位置を示す情報のことをいう。具体的には、ユーザが視聴した映像を一義的に識別する映像識別情報、及び重要だと判断してボタンを押下した時点を示す再生時間情報(又は映像位置を示す位置情報等)を含むものをいう。   The above point information is the time when the user determines that it is important when viewing the video and presses the button of the terminal input device 24 or the external input device D (keyboard, remote control, etc.), or the time when the button is pressed. This refers to information indicating the video position. Specifically, it includes video identification information that uniquely identifies the video viewed by the user, and playback time information (or position information that indicates the video position, etc.) that indicates when the button was pressed because it was determined to be important. Say.

ポイント情報取得部11は、ネットワークNに接続されている端末Bから出力されたポイント情報をネットワークI/F10を介して取得し、取得したポイント情報をポイント情報記憶部12に記憶する。   The point information acquisition unit 11 acquires the point information output from the terminal B connected to the network N via the network I / F 10 and stores the acquired point information in the point information storage unit 12.

ポイント情報記憶部12には、ポイント情報取得部11が取得したポイント情報が記憶される。その際の記憶形式は、ポイント情報に含まれる映像識別情報を利用して、映像別に関連付けて記憶するという形式にすると好適である。さらに、ポイント情報に含まれる再生時間情報を利用して、時系列的に記憶するという形式にしてもよい。   The point information storage unit 12 stores the point information acquired by the point information acquisition unit 11. The storage format at that time is preferably a format in which the video identification information included in the point information is used and stored in association with each video. Furthermore, it may be in a form of storing time-sequentially using reproduction time information included in the point information.

映像情報記憶部13には、端末Bを介して端末表示装置23又は外部表示装置Cにおいて再生表示させるための映像情報が予め記憶される。その際の記憶形式は、映像情報に含まれる映像識別情報を利用して、映像別に各種情報を関連付けて記憶するという形式にすると好適である。   In the video information storage unit 13, video information to be reproduced and displayed on the terminal display device 23 or the external display device C via the terminal B is stored in advance. The storage format at that time is preferably a format in which video identification information included in the video information is used to store various information in association with each video.

重要範囲判定部14は、ポイント情報記憶部12に記憶されているポイント情報に対応する映像情報を、ポイント情報に含まれている映像識別情報を利用して映像情報記憶部13から抽出し、その抽出した映像情報内における重要範囲を判定する。そして、重要範囲判定部14は、判定した重要範囲情報を加工データ生成部15に送信する。   The important range determination unit 14 extracts video information corresponding to the point information stored in the point information storage unit 12 from the video information storage unit 13 using the video identification information included in the point information, The important range in the extracted video information is determined. Then, the important range determination unit 14 transmits the determined important range information to the machining data generation unit 15.

上記の重要範囲の判定方法について詳細に説明する。重要範囲判定部14は、まず、抽出した映像情報のどの位置(再生時刻等)においてポイント情報が取得されているのかを判定する。次に、そのポイント情報が取得された位置を基準として、予め定められた所定値分の前後範囲を算出し、その算出した前後範囲内を当該映像における重要範囲と判定する。そして、その重要範囲以外の箇所は、当該映像における不要範囲であると判定する。この重要範囲と不要範囲に関する情報をまとめた重要範囲情報が、加工データ記憶部15に送信されることとなる。なお、加工データは重要範囲のみ、もしくは、不要範囲のみ、を判定・生成するようにしても当然にかまわない。   The method for determining the important range will be described in detail. The important range determination unit 14 first determines at which position (reproduction time, etc.) of the extracted video information the point information is acquired. Next, based on the position from which the point information is acquired as a reference, a front-rear range corresponding to a predetermined value is calculated, and the calculated front-rear range is determined as an important range in the video. Then, it is determined that a portion other than the important range is an unnecessary range in the video. The important range information that summarizes the information related to the important range and the unnecessary range is transmitted to the machining data storage unit 15. It should be noted that the processing data may be determined and generated only in the important range or only in the unnecessary range.

加工データ記憶部15は、重要範囲判定部14から取得した重要範囲情報の内容に基づいて、映像のどの部分にどういった加工処理を施すのかを示す加工データを生成し、映像識別情報毎に関連付けて記憶する。   Based on the content of the important range information acquired from the important range determination unit 14, the processed data storage unit 15 generates processed data that indicates what part of the video is to be processed, and for each video identification information. Store it in association.

上記の加工データの生成方法について詳細に説明する。まず、加工データ記憶部15は、まず、重要範囲判定部14から取得した重要範囲情報と、重要範囲情報と加工処理内容とを関連付けた加工テーブル(図示せず)との内容を照合し、映像のどの部分にどういった編集処理を施すのかを決定する。この際に用いる加工テーブルには、重要範囲と不要範囲に対して、それぞれどういった加工処理を施すのかを予め一対一で対応させた形式で記憶されているものとする。そして、加工データ記憶部15は、決定した加工処理の内容と当該映像を示す映像識別情報とを関連付けて加工データを生成し、加工データに含まれる映像識別情報毎に記憶しておく。   The process data generation method will be described in detail. First, the processing data storage unit 15 first collates the contents of the important range information acquired from the important range determination unit 14 and the processing table (not shown) in which the important range information and the processing content are associated with each other, Decide what kind of editing process to apply to which part of the. It is assumed that the processing table used at this time stores in advance a one-to-one correspondence with what kind of processing is performed on the important range and the unnecessary range. Then, the processed data storage unit 15 generates processed data by associating the determined content of the processed processing with the video identification information indicating the video, and stores the processed data for each video identification information included in the processed data.

加工処理部16は、表示制御部17から映像加工指示を受信すると、映像情報記憶部13から該当する映像情報を抽出し、さらに抽出した映像情報に対応する加工データを加工データ記憶部15から抽出する。次に、映像に対して加工データに基づいた加工処理を実行する。そして、加工処理後の加工映像情報を表示制御部17に送信する。   When the video processing instruction is received from the display control unit 17, the processing processing unit 16 extracts the corresponding video information from the video information storage unit 13, and further extracts the processing data corresponding to the extracted video information from the processing data storage unit 15. To do. Next, processing based on the processing data is performed on the video. Then, the processed video information after the processing is transmitted to the display control unit 17.

表示制御部17は、ネットワークI/F10を介して端末Bから映像要求指示を受信すると、加工処理部16に対して映像加工指示を送信する。そして、加工処理部16から受信した加工処理後の加工映像情報を、ネットワークI/F10を介して端末Bに送信する。   When the display control unit 17 receives the video request instruction from the terminal B via the network I / F 10, the display control unit 17 transmits the video processing instruction to the processing unit 16. Then, the processed video information after the processing process received from the processing unit 16 is transmitted to the terminal B via the network I / F 10.

〔実施例1−構成(2)〕
次に、図面を用いて本実施形態の別構成について説明する。図4に、本発明の表示変更システムの全体構成の一例を概念的に示す。本発明は図4に示すように、端末Bと外部表示装置C及び外部入力装置Dとが、直接接続又はネットワークNを介して接続されるという形で構成されている。また、その接続形式は、無線接続形式でも優先接続形式でも、そのどちらであっても構わない。
[Example 1-Configuration (2)]
Next, another configuration of the present embodiment will be described with reference to the drawings. FIG. 4 conceptually shows an example of the overall configuration of the display change system of the present invention. As shown in FIG. 4, the present invention is configured such that a terminal B, an external display device C, and an external input device D are connected directly or via a network N. The connection format may be either a wireless connection format or a priority connection format.

次に、図5の機能ブロック図を用いて、本発明の表示変更システムの本実施形態の構成(2)について説明する。なお、構成(1)と同一の構成部には同一の符号を付しており、構成(1)と同じ動作をする場合にはその詳細な説明は省略する。   Next, the configuration (2) of the present embodiment of the display change system of the present invention will be described using the functional block diagram of FIG. In addition, the same code | symbol is attached | subjected to the component same as a structure (1), and the detailed description is abbreviate | omitted when performing the same operation | movement as a structure (1).

本発明の表示変更システムの本実施例における構成(2)は、端末Bの内部に、ポイント情報記憶部12、映像情報記憶部13、重要範囲判定部14、加工データ記憶部15、加工処理部16、及び表示制御部17を有しているという点において、本実施例の構成(1)と異なっている。   The configuration (2) in the present embodiment of the display change system of the present invention has a point information storage unit 12, a video information storage unit 13, an important range determination unit 14, a processing data storage unit 15, a processing processing unit inside the terminal B. 16 and the display control unit 17 are different from the configuration (1) of the present embodiment.

本構成(2)は、本実施例の構成(1)のように管理サーバAを設けず、端末Bのみで本発明を実現することができるという点に特徴がある。上述のように構成することにより、本発明のシステム構成に関わる作業や費用を削減することができる。   This configuration (2) is characterized in that the present invention can be realized only by the terminal B without providing the management server A as in the configuration (1) of the present embodiment. By configuring as described above, work and costs related to the system configuration of the present invention can be reduced.

〔実施例1−処理プロセス〕
次に、本発明の映像編集支援システムにおける処理プロセスの一例を、図3の機能ブロック図及び図6のフローチャート等を用いて説明する。なお、以下の説明では、本システムの使用場所として小学校、本システムのユーザとして小学校教諭(以下「教師」という)、本システムによる編集対象となる映像として録画したテレビ番組、を用いる場合を例に説明することとする。
Example 1 Treatment Process
Next, an example of a processing process in the video editing support system of the present invention will be described with reference to the functional block diagram of FIG. 3, the flowchart of FIG. In the following description, an example of using an elementary school as a place where the system is used, an elementary school teacher (hereinafter referred to as “teacher”) as a user of the system, and a TV program recorded as an image to be edited by the system is taken as an example. I will explain.

端末Bの端末制御部22は、端末入力装置24又は外部入力装置Dを介して端末Bに入力された映像要求指示を取得し、表示情報受信部21に送信する。表示情報受信部21は、ネットワークI/F20を介して映像要求指示を管理サーバAに送信する。   The terminal control unit 22 of the terminal B acquires the video request instruction input to the terminal B via the terminal input device 24 or the external input device D, and transmits it to the display information receiving unit 21. The display information receiving unit 21 transmits a video request instruction to the management server A via the network I / F 20.

上記の処理について、本システムを小学校で使用する場合を例に説明する。端末Bのユーザである教師は、自身の授業で使用するために録画して管理サーバAに保存しておいたテレビ番組(映像)を授業前に視聴するために、端末Bに接続されているキーボード等(端末入力装置24)や、リモコン(外部入力装置D)を用いて、端末Bのディスプレイ(端末表示装置23)又は端末Bと接続されているモニターやプロジェクター(外部表示装置C)に映像を表示するように指示を行う。この指示を受信した端末制御部22は、表示情報受信部21に映像要求指示を生成させ、表示情報受信部21は、生成した映像要求指示をネットワークI/F20を介して管理サーバAへ送信する。この映像要求指示には、ユーザが要求する映像を一義的に識別する映像識別情報が含まれることとする。本実施例では、映像識別情報「V001」を表示するように映像要求指示が出力されたこととする。   The above processing will be described by taking the case of using this system in an elementary school as an example. A teacher who is a user of terminal B is connected to terminal B in order to watch a television program (video) recorded for use in his class and stored in management server A before class. Using a keyboard or the like (terminal input device 24) or a remote control (external input device D), video is displayed on the display (terminal display device 23) of terminal B or a monitor or projector (external display device C) connected to terminal B. Is instructed to be displayed. Upon receiving this instruction, the terminal control unit 22 causes the display information receiving unit 21 to generate a video request instruction, and the display information receiving unit 21 transmits the generated video request instruction to the management server A via the network I / F 20. . The video request instruction includes video identification information for uniquely identifying the video requested by the user. In this embodiment, it is assumed that a video request instruction is output so as to display the video identification information “V001”.

管理サーバAの表示制御部17は、端末Bから出力された映像要求指示をネットワークI/F10を介して取得し(S101)、映像要求指示に含まれる映像識別情報を用いて、映像を抽出するための映像取得指示を作成し、加工処理部16に送信する。この映像取得指示には、映像識別情報が含まれることとする。本実施例の場合、映像識別情報「V001」が含まれることとなる。   The display control unit 17 of the management server A acquires the video request instruction output from the terminal B via the network I / F 10 (S101), and extracts the video using the video identification information included in the video request instruction. A video acquisition instruction is generated and transmitted to the processing unit 16. This video acquisition instruction includes video identification information. In this embodiment, the video identification information “V001” is included.

加工処理部16は、表示制御部17から映像取得指示を受信すると、映像取得指示に含まれる映像識別情報を用いて、映像情報記憶部13から該当する映像情報を抽出して取得する(S102)。本実施例の場合、映像識別情報「V001」に関する映像情報を取得することとなる。   When receiving the video acquisition instruction from the display control unit 17, the processing unit 16 extracts and acquires corresponding video information from the video information storage unit 13 using the video identification information included in the video acquisition instruction (S102). . In the case of the present embodiment, video information related to the video identification information “V001” is acquired.

映像情報記憶部13には、端末Bにおいて再生するために予め保存された各種映像情報が記憶される。この記憶される映像情報には、映像を一義的に識別する映像識別情報、映像全体の再生時間情報(全体再生時間情報)、映像に含まれる動画データ情報及び音声データ情報が含まれていることとする。映像情報記憶部13に記憶されている映像情報の一例を、図7に示す。   The video information storage unit 13 stores various video information stored in advance for reproduction on the terminal B. The stored video information includes video identification information for uniquely identifying the video, playback time information for the entire video (total playback time information), moving image data information and audio data information included in the video. And An example of the video information stored in the video information storage unit 13 is shown in FIG.

次に、加工処理部16は、抽出した映像情報に該当する加工データが存在するかどうか、映像情報に含まれる映像識別情報を用いて、加工データ記憶部15内を検索する。検索した結果加工データが存在しない場合、取得した映像情報をそのまま(加工処理せずに)表示制御部17に送信する(S103)。   Next, the processing unit 16 searches the processing data storage unit 15 using the video identification information included in the video information to determine whether there is processing data corresponding to the extracted video information. If there is no processed data as a result of the search, the acquired video information is transmitted to the display control unit 17 as it is (without being processed) (S103).

加工データ記憶部15には、映像のどの部分にどういった加工処理を施すのかを示す加工データが、映像識別情報毎に関連付けて記憶されている。この記憶される加工データには、映像を一義的に識別する映像識別情報、映像の重要箇所を示す重要範囲、映像の不要箇所を示す不要範囲、及びそれぞれの範囲に対してどういった加工処理を施すのかを示す加工処理内容が含まれていることとする。加工データ記憶部15に記憶されている加工データの一例を、図8に示す。本実施例の場合、加工データ記憶部15内に映像識別情報「V001」の加工データは存在していないので、取得した映像情報は加工処理されずにそのまま表示制御部17に送信されることとなる。   In the processed data storage unit 15, processed data indicating which part of the video is to be processed is stored in association with each video identification information. In the stored processing data, video identification information for uniquely identifying the video, an important range indicating an important part of the video, an unnecessary range indicating an unnecessary part of the video, and any processing for each range It is assumed that the processing content indicating whether or not to apply is included. An example of the machining data stored in the machining data storage unit 15 is shown in FIG. In the case of the present embodiment, since there is no processed data of the video identification information “V001” in the processed data storage unit 15, the acquired video information is transmitted to the display control unit 17 as it is without being processed. Become.

表示制御部17は、加工処理部16から取得した映像情報をネットワークI/F10を介して端末Bに送信する。   The display control unit 17 transmits the video information acquired from the processing unit 16 to the terminal B via the network I / F 10.

端末Bの表示情報受信部21は、ネットワークI/F20を介して管理サーバAから映像情報を受信し、端末制御部22に送信する。   The display information receiving unit 21 of the terminal B receives the video information from the management server A via the network I / F 20 and transmits it to the terminal control unit 22.

端末制御部22は、取得した映像情報を再生し、端末表示装置23又は外部表示装置Cに表示する(S104)。   The terminal control unit 22 reproduces the acquired video information and displays it on the terminal display device 23 or the external display device C (S104).

端末表示装置23又は外部表示装置Cにおいて映像を視聴したユーザは、再生されている映像において重要だと判断した場面に関するポイント情報を、端末入力装置24又は外部入力装置Dを用いて端末制御部22に対して入力する。   A user who views the video on the terminal display device 23 or the external display device C uses the terminal input device 24 or the external input device D to obtain point information regarding a scene that is determined to be important in the video being played back. Enter against.

上記の処理について、本実施例における場合を例に具体的に説明する。上述に示すように、ユーザが小学校の教師で、視聴する映像が当該教師の授業において使用するビデオ映像(映像識別情報「V001」)であった場合、教師は、映像を視聴している中で、重要だと判断した場面で端末入力装置24(例えば、キーボード等)のボタンや、外部入力装置D(例えば、リモコン等)のボタンを押下する。視聴している映像中において、重要だと判断できる場面が複数連続して出てくる場合や、より重要だと判断する場面が出てきた場合には、ボタンを連続して押下することとする。ボタン押下の回数やタイミングについては特に制限は設けないこととする。   The above processing will be specifically described by taking the case of the present embodiment as an example. As described above, when the user is an elementary school teacher and the video to be viewed is a video video (video identification information “V001”) used in the teacher's class, the teacher is viewing the video. In a scene that is determined to be important, the button of the terminal input device 24 (for example, a keyboard) or the button of the external input device D (for example, a remote controller) is pressed. When multiple scenes that can be determined to be important appear in the video being viewed, or when a scene that is determined to be more important appears, the button must be pressed continuously. . There are no particular restrictions on the number and timing of button presses.

ポイント情報生成部25は、端末制御部22が取得した端末入力装置24又は外部入力装置Dによって入力された情報を取得し、ポイント情報を生成する。この生成されるポイント情報には、ユーザが視聴した映像を一義的に識別する映像識別情報、ユーザが重要だと判断してボタンを押下した映像位置を示す再生時間情報、及び視聴したユーザを一義的に識別するユーザ識別情報(又は、ポイント情報を出力した端末を一義的に識別する端末識別情報)が少なくとも含まれていることとする。生成されるポイント情報の一例を、図9に示す。   The point information generation unit 25 acquires information input by the terminal input device 24 or the external input device D acquired by the terminal control unit 22, and generates point information. The generated point information includes video identification information for uniquely identifying the video viewed by the user, playback time information indicating the video position at which the user has determined that the user has pressed the button, and the user who has viewed the video. User identification information (or terminal identification information for uniquely identifying a terminal that has output point information) is included at least. An example of the generated point information is shown in FIG.

ポイント情報生成部25は、さらに、生成したポイント情報をネットワークI/F20を介して管理サーバAに送信する。このポイント情報の送信タイミングは、ポイント情報生成部がポイント情報を生成するタイミングでその都度送信する形式としても良いし、所定時間内に生成されたポイント情報をまとめて定期的に送信するという形式としてもよい。 The point information generation unit 25 further transmits the generated point information to the management server A via the network I / F 20. The point information transmission timing may be a format in which the point information generation unit transmits the point information each time it is generated, or a format in which the point information generated within a predetermined time is transmitted periodically. Also good.

管理サーバAのポイント情報取得部11は、端末Bから送信されたポイント情報をネットワークI/F10を介して取得し、取得したポイント情報をポイント情報記憶部12に記憶する(S105)。ポイント情報記憶部12に記憶されているポイント情報の一例を、図10に示す。   The point information acquisition unit 11 of the management server A acquires the point information transmitted from the terminal B via the network I / F 10 and stores the acquired point information in the point information storage unit 12 (S105). An example of the point information stored in the point information storage unit 12 is shown in FIG.

重要範囲判定部14は、ポイント情報記憶部12に記憶されているポイント情報に対応する映像情報を、映像情報記憶部13から抽出し、その抽出した映像情報内における重要範囲を判定する(S106)。そして、判定した重要範囲情報を加工データ生成部15に送信する。   The important range determination unit 14 extracts video information corresponding to the point information stored in the point information storage unit 12 from the video information storage unit 13, and determines an important range in the extracted video information (S106). . Then, the determined important range information is transmitted to the machining data generation unit 15.

上記の処理について具体的に説明する。ポイント情報が図10の通りに記憶されており、映像識別情報「V001」に対応する映像の重要範囲を判定する場合を例に説明する。まず、重要範囲判定部14は、映像情報記憶部13から映像識別情報「V001」に該当する映像情報を抽出する。次に、映像情報記憶部13から抽出した映像識別情報「V001」のポイント情報が取得された位置(再生時間情報)を中心として、予め定められた所定値分の前後範囲を算出し、その算出した前後範囲内を当該映像における重要範囲と判定する。ここでは、所定値を「前後5分間」と設定することとする。この設定の場合、重要範囲は「0:05:20〜0:15:20」、「0:20:40〜0:30:40」、「0:37:05〜0:47:05」の三つであると判定される。そして、映像識別情報「V001」に該当する映像情報の中から全体の再生時間「0:55:30」を抽出し、そこから重要範囲を除外した不要範囲を判定する。その結果、「0:00:00〜0:05:20」、「0:15:20〜0:20:40」、「0:30:40〜0:37:05」、「0:47:05〜0:55:30」の四つであると判定される。重要範囲判定部14は、この判定された重要範囲と不要範囲に関する情報を重要範囲情報としてまとめて、加工データ記憶部15に送信する。   The above processing will be specifically described. A case will be described as an example where point information is stored as shown in FIG. 10 and an important range of video corresponding to video identification information “V001” is determined. First, the important range determination unit 14 extracts video information corresponding to the video identification information “V001” from the video information storage unit 13. Next, a range before and after a predetermined value is calculated around the position (reproduction time information) from which the point information of the video identification information “V001” extracted from the video information storage unit 13 is acquired. The determined range is determined as the important range in the video. Here, the predetermined value is set to “5 minutes before and after”. In this setting, the important ranges are “0:05:20 to 0:15:20”, “0:20:40 to 0:30:40”, “0:37:05 to 0:47:05”. It is determined that there are three. Then, the entire reproduction time “0:55:30” is extracted from the video information corresponding to the video identification information “V001”, and an unnecessary range excluding the important range is determined therefrom. As a result, “00: 00: 00-0: 05: 20”, “0: 15: 20-0: 20: 40”, “0: 30: 40-0: 37: 05”, “0:47: "05 to 0:55:30". The important range determination unit 14 collects information regarding the determined important range and unnecessary range as important range information and transmits the information to the processing data storage unit 15.

加工データ記憶部15は、重要範囲判定部14から取得した重要範囲情報に基づいて加工データを生成すると共に、その加工データを自身の記憶領域内に映像識別情報毎に関連付けて記憶する(S107)。   The processing data storage unit 15 generates processing data based on the important range information acquired from the important range determination unit 14, and stores the processing data in association with each video identification information in its own storage area (S107). .

上記の処理について具体的に説明する。まず、加工データ記憶部15は、まず、重要範囲判定部14から取得した重要範囲情報に対して、重要範囲種別(ここでは、重要範囲か不要範囲かを識別する情報のことをいう。)と加工処理内容とを関連付けた加工テーブルとの内容を照合し、映像のどの部分にどういった編集処理を施すのかを決定する。この場合に用いられる加工テーブルの一例を、図11に示す。   The above processing will be specifically described. First, the processing data storage unit 15 first has an important range type (referred to here as information for identifying an important range or an unnecessary range) with respect to the important range information acquired from the important range determination unit 14. The contents of the modification table associated with the contents of the modification process are collated to determine what part of the video is to be edited. An example of the processing table used in this case is shown in FIG.

次に、加工データ記憶部15は、重要範囲情報に応じた加工処理の内容を決定し、映像識別情報と関連付けて加工データを生成する。そして、その加工データ情報に含まれる映像識別情報ごとに、自身の記憶領域内に加工データを記憶しておく。加工データ記憶部15内に記憶されている加工データの一例を、図12に示す。   Next, the processing data storage unit 15 determines the content of the processing according to the important range information, and generates processing data in association with the video identification information. Then, for each video identification information included in the processed data information, the processed data is stored in its own storage area. An example of the machining data stored in the machining data storage unit 15 is shown in FIG.

加工処理部16は、表示制御部17から映像取得指示に基づいて、映像情報記憶部13から該当する映像情報を抽出して取得する(S102)。本実施例では、教師が授業で実際に使用するために、映像識別情報「V001」に関する映像情報を取得する(2回目の取得)場合を例に説明する。   The processing unit 16 extracts and acquires the corresponding video information from the video information storage unit 13 based on the video acquisition instruction from the display control unit 17 (S102). In the present embodiment, a case will be described as an example in which video information related to video identification information “V001” is acquired (second acquisition) for a teacher to actually use in class.

次に、加工処理部16は、抽出した映像情報に該当する加工データが存在するかどうか、加工データ記憶部15内を検索する(S103)。検索した結果加工データが存在する場合、加工データに基づいて映像情報を加工処理する(S108)。そして、加工処理部16は、加工処理後の加工映像情報を表示制御部17に送信する。   Next, the processing unit 16 searches the processing data storage unit 15 for processing data corresponding to the extracted video information (S103). If the retrieved processed data exists, the video information is processed based on the processed data (S108). Then, the processing unit 16 transmits the processed video information after the processing to the display control unit 17.

上記の処理を具体的に説明する。加工データ記憶部内に記憶されている加工データが図12の通りであり、表示制御部17から、映像識別情報「V001」に関する映像情報の映像取得指示を受信した場合について説明する。加工処理部16は、映像識別情報「V001」に関する加工データが存在するかどうか、加工データ記憶部15内を検索する。その結果、映像識別情報「V001」に関する加工データが存在するので、その加工データに基づいて取得した映像情報に対して加工処理を実行する。具体的には、映像情報の中から、不要範囲「0:00:00〜0:05:20」、「0:15:20〜0:20:40」、「0:30:40〜0:37:05」、「0:47:05〜0:55:30」の四つの不要範囲の動画データ及び音声データについて、映像情報から削除するという加工処理が実行される。そして、加工処理後の加工映像情報を表示制御部17に送信する。   The above processing will be specifically described. The case where the processed data stored in the processed data storage unit is as shown in FIG. 12 and a video acquisition instruction for video information related to the video identification information “V001” is received from the display control unit 17 will be described. The processing unit 16 searches the processing data storage unit 15 to determine whether there is processing data related to the video identification information “V001”. As a result, since there is processed data regarding the video identification information “V001”, the processing process is executed on the video information acquired based on the processed data. Specifically, from the video information, unnecessary ranges “0:00:00 to 0:05:20”, “0:15:20 to 0:20:40”, “0:30:40 to 0: The processing of deleting the video data and the audio data in the four unnecessary ranges of “37:05” and “0:47:05 to 0:55:30” is executed. Then, the processed video information after the processing is transmitted to the display control unit 17.

上述の処理では、映像情報から不要範囲の動画データ及び映像データを削除するという加工処理を行う場合を説明したが、別の方法で加工処理を実行してもよい。例えば、実際に削除を行うのではなく、映像情報から削除すべき動画データ及び音声データの位置及び範囲を、実際に編集処理を行うユーザに対してアドバイスするような画像を生成し、映像情報に添付して加工映像情報として表示制御部17に送信するという方法も考えられる。   In the above-described processing, the case has been described in which the processing of deleting moving image data and video data in an unnecessary range from the video information has been described. However, the processing may be executed by another method. For example, instead of actually deleting, an image that advises the user who actually edits the position and range of moving image data and audio data to be deleted from the video information is generated, and the video information is A method of attaching and transmitting the processed video information to the display control unit 17 is also conceivable.

上記の処理内容を具体的に説明する。加工処理部16は、加工処理部16を検索し、映像識別情報「V001」に関する加工データに基づいて取得した三つの必要範囲及び四つの不要範囲と、映像情報記憶部13から取得した映像識別情報「V001」に関する映像の全体再生時間情報「0:55:30」とを用いて、編集アドバイス情報を生成する。生成される編集アドバイス情報の一例を、図13に示す。そして、加工処理部16は、映像情報に編集アドバイス情報を加えた情報を加工映像情報として、表示制御部17に送信する。   The above processing contents will be specifically described. The processing processing unit 16 searches the processing processing unit 16 to obtain the three necessary ranges and four unnecessary ranges acquired based on the processing data related to the video identification information “V001”, and the video identification information acquired from the video information storage unit 13. Editing advice information is generated using the entire video playback time information “0:55:30” related to “V001”. An example of the generated editing advice information is shown in FIG. Then, the processing unit 16 transmits information obtained by adding editing advice information to the video information to the display control unit 17 as processed video information.

表示制御部17は、加工処理部15から受信した加工映像情報をネットワークI/F10を介して端末Bに送信し、端末Bの端末表示装置23又は端末Bに接続される外部表示装置Cに表示させる(S109)。   The display control unit 17 transmits the processed video information received from the processing unit 15 to the terminal B via the network I / F 10 and displays it on the terminal display device 23 of the terminal B or the external display device C connected to the terminal B. (S109).

上記の処理について、端末Bの端末表示装置23又は端末Bに接続される外部表示装置Cで表示される加工映像情報は、映像情報から不要範囲の動画データ及び映像データを削除された編集済みの加工映像が表示されるとしてもよいし、映像情報から削除すべき動画データ及び音声データの位置及び範囲をアドバイスする編集アドバイス情報が表示されるとしてもよい。   Regarding the above processing, the processed video information displayed on the terminal display device 23 of the terminal B or the external display device C connected to the terminal B is an edited video data and video data that have been deleted from the unnecessary range from the video information. The processed video may be displayed, or editing advice information that advises the position and range of moving image data and audio data to be deleted from the video information may be displayed.

上記の処理では、重要範囲をポイント情報の位置を基準とした前後所定範囲と判定するようにしたが、特定のポイント情報の位置の所定範囲内に別のポイント情報が含まれている場合は、その別のポイント情報の数に応じて重要範囲を変更するようにしても良い。例えば、特定のポイント情報の位置の前後5分内に他のポイント情報が更にもう1つ含まれている場合は、特定のポイント情報の前後7分間を重要範囲とし、他のポイント情報が更に2つ含まれている場合は、特定のポイント情報の前後9分間を重要範囲とするなどである。   In the above processing, the important range is determined to be a predetermined range before and after the position of the point information, but when another point information is included in the predetermined range of the position of the specific point information, You may make it change an important range according to the number of the other point information. For example, when another point information is included within 5 minutes before and after the position of the specific point information, the important range is 7 minutes before and after the specific point information, and the other point information is further 2 If it is included, 9 minutes before and after the specific point information is set as an important range.

上述の実施形態とすることにより、ユーザが映像内の重要箇所及び不要箇所の開始点並びに終了点を特定するという操作を行わなくても、システム側で自動的に開始点並びに終了点の判定を自動で行うことが可能となり、編集作業の手間を軽減することができる。   By adopting the above-described embodiment, the system automatically determines the start point and end point without the user performing an operation of specifying the start point and end point of important and unnecessary points in the video. It can be performed automatically, and the labor of editing can be reduced.

〔実施例2−構成(1)〕
次に、本発明の第二実施形態について説明する。本発明の第二実施形態の全体構成は、図1に示すものと同様、管理サーバAが複数のクライアント端末Bと通信ネットワークNを介して接続されるという形で構成されている。さらに、端末Bと、外部表示装置C及び外部入力装置Dとが、直接接続又はネットワークNを介して接続されるという形式で構成されている。
[Example 2-Configuration (1)]
Next, a second embodiment of the present invention will be described. The overall configuration of the second embodiment of the present invention is configured in such a manner that the management server A is connected to a plurality of client terminals B via a communication network N, as shown in FIG. Further, the terminal B, the external display device C, and the external input device D are configured to be connected directly or via a network N.

次に、図14の機能ブロック図を用いて、本発明の表示変更システムの第二実施形態を説明する。なお、実施例1と同一の構成部には同一の符号を付しており、実施例1と同じ動作をする場合にはその詳細な説明は省略する。   Next, a second embodiment of the display change system of the present invention will be described using the functional block diagram of FIG. In addition, the same code | symbol is attached | subjected to the same component as Example 1, and when performing the same operation | movement as Example 1, the detailed description is abbreviate | omitted.

本発明の映像編集支援システムの第二実施形態は、管理サーバAの内部に、映像を一定の時間的範囲を示す区間で区切る区間設定部18a、区切った区間に関する情報を記憶する区間情報記憶部18b、区切った区間毎の重要度を判定する区間重要度決定部18cを備えているという点において、実施例1の実施形態と異なっている。   In the video editing support system according to the second embodiment of the present invention, a section setting unit 18a for partitioning a video by a section indicating a certain temporal range, and a section information storage unit for storing information related to the partitioned section, in the management server A. 18b, which is different from the embodiment of the first embodiment in that a section importance degree determination unit 18c that determines the importance degree for each divided section is provided.

以下、各構成部の動作について説明する。なお、実施例1と同様の構成部又は同様の動作については、詳細な説明を省略する。   Hereinafter, the operation of each component will be described. Detailed descriptions of the same components or operations as those in the first embodiment are omitted.

区間設定部18aは、映像情報記憶部13に記憶されている映像情報に対し、あらかじめ定められた所定範囲に基づいて区切った区間を設定する。この区間の設定方法は、予め定められた時間的範囲に基づいて区間を設定するという方法を用いてもよいし、映像情報に対して設ける区関数を予め所定数に定めておいて、その区間数にあわせて等間隔に区間を設定するという方法を用いてもよい。そして、設定した区間に関する情報と映像情報に含まれる映像識別情報とを関連付けて区間情報を生成し、区間情報記憶部18bに送信する。   The section setting unit 18a sets sections divided based on a predetermined range for the video information stored in the video information storage unit 13. The section setting method may be a method of setting a section based on a predetermined time range, or a predetermined number of section functions to be provided for video information, and the section A method of setting intervals at equal intervals according to the number may be used. Then, the section information is generated by associating the information about the set section with the video identification information included in the video information, and transmitted to the section information storage unit 18b.

区間情報記憶部18bには、区間設定部で生成された区間情報が記憶される。その記憶形式は、区間情報に含まれる映像識別情報毎に関連付けて記憶するという形式にすると好適である。   The section information generated by the section setting unit is stored in the section information storage unit 18b. The storage format is preferably a format in which the video identification information included in the section information is stored in association with each other.

区間重要度決定部18cは、区間情報記憶部18bに記憶されている区間情報を抽出し、それぞれの区間においてどれだけのポイント情報が出力されているのか、ポイント情報記憶部12を検索する。そして、その検索結果に基づいて各区間の重要度(区間重要度)を判定する。そして、区間重要度算出部18cは、抽出した区間情報に対して、各区間の区間重要度を加える形で更新を行い、区間情報記憶部18bに記憶する。   The section importance degree determination unit 18c extracts the section information stored in the section information storage unit 18b, and searches the point information storage unit 12 to see how much point information is output in each section. Then, the importance (interval importance) of each section is determined based on the search result. Then, the section importance calculation unit 18c updates the extracted section information by adding the section importance of each section, and stores it in the section information storage unit 18b.

上記の区間情報における各区間の区間重要度の決定方法について詳細に説明する。まず、
区間情報記憶部18bに記憶されている各区間情報を抽出する。次に、その抽出した区間情報に含まれる映像識別情報に基づいて対応するポイント情報をポイント情報記憶部12の中から検索し、各区間においてどれだけのポイント情報が出力されているのか、その数を計数する。そして、そのポイント情報の計数結果に応じて各区間の区間重要度を決定する。
A method for determining the section importance of each section in the section information will be described in detail. First,
Each section information stored in the section information storage unit 18b is extracted. Next, the corresponding point information is searched from the point information storage unit 12 based on the video identification information included in the extracted section information, and how many point information are output in each section. Count. And the section importance of each section is determined according to the counting result of the point information.

上記では、区間情報毎に区間重要度を算出する方法について説明したが、区間重要度を算出せずに、区間毎にポイント情報の有無を検索し、ポイント情報が含まれている区間を重要区間、含まれていない区間を不要区間として判定するとしてもよい。   In the above, the method of calculating the section importance for each section information has been described. However, without calculating the section importance, the presence or absence of point information is searched for each section, and the section including the point information is selected as the important section. A section that is not included may be determined as an unnecessary section.

重要範囲判定部14は、区間情報記憶部18bに記憶されている区間情報に基づいて、映像情報内における重要範囲を判定する。そして、重要範囲判定部14は、判定した重要範囲情報を加工データ生成部15に送信する。   The important range determination unit 14 determines an important range in the video information based on the section information stored in the section information storage unit 18b. Then, the important range determination unit 14 transmits the determined important range information to the machining data generation unit 15.

上記の重要範囲の判定は、区間情報に含まれる区間重要度を利用し、様々な方法を用いて行うことができる。例えば、(1)区間重要度が所定値以上の区間を重要範囲として判定する方法、(2)区間重要度に応じて、区間の範囲を増減調整して得られた値を重要範囲として判定する方法、という方法が考えられる。   The determination of the important range can be performed using various methods by using the section importance included in the section information. For example, (1) a method in which a section whose section importance is equal to or greater than a predetermined value is determined as the important range, and (2) a value obtained by increasing or decreasing the section range is determined as the important range according to the section importance. A method called a method is conceivable.

〔重要範囲の判定方法(1)〕
区間重要度が所定値以上の区間を重要範囲として判定する方法について説明する。この方法は、まず、重要範囲判定部14の内部に判定を行うための基準となる所定値を設定する判定テーブル(図示せず)を設け、その判定テーブルに所定値を予め定めておく。次に、重要範囲判定部14は、区間情報記憶部18bに記憶されている各区間の区間情報を抽出し、その区間重要度が所定値以上か否かを判定する。そして、区間重要度が所定値以上であった区間を重要範囲と判定するというものである。
[Important range judgment method (1)]
A method for determining an interval having an interval importance of a predetermined value or more as an important range will be described. In this method, first, a determination table (not shown) for setting a predetermined value as a reference for making a determination is provided inside the important range determination unit 14, and the predetermined value is set in advance in the determination table. Next, the important range determination unit 14 extracts the section information of each section stored in the section information storage unit 18b, and determines whether or not the section importance is greater than or equal to a predetermined value. Then, a section whose section importance is equal to or greater than a predetermined value is determined as an important range.

〔重要範囲の判定方法(2)〕
区間重要度に応じて区間の範囲を増減調整して得られた区間を重要範囲として判定する方法について説明する。この方法は、まず、重要範囲判定部14の内部に判定を行うための基準となる所定値を設定する判定テーブル(図示せず)を設け、その判定テーブルに所定値を予め定めておく。この判定テーブルには、区間重要度と範囲の増減調整値とが関連付けて記憶されているものとする。次に、重要範囲判定部14は、区間情報記憶部18bに記憶されている各区間の区間情報を抽出し、その区間重要度に対応する範囲の増減調整値を判定テーブルから特定する。そして、特定した範囲の増減調整値に応じて該当する区間の範囲を調整し、その調整後の範囲を重要範囲として判定するというものである。
[Important range judgment method (2)]
A method for determining the section obtained by increasing or decreasing the section range according to the section importance as the important range will be described. In this method, first, a determination table (not shown) for setting a predetermined value as a reference for making a determination is provided inside the important range determination unit 14, and the predetermined value is set in advance in the determination table. In this determination table, it is assumed that the section importance and the range increase / decrease adjustment value are stored in association with each other. Next, the important range determination unit 14 extracts the section information of each section stored in the section information storage unit 18b, and specifies the increase / decrease adjustment value of the range corresponding to the section importance from the determination table. Then, the range of the corresponding section is adjusted according to the increase / decrease adjustment value of the specified range, and the adjusted range is determined as the important range.

〔実施例2−構成(2)〕
次に、図面を用いて本実施形態の別構成について説明する。本構成は図4に示すものと同様、端末Bと外部表示装置C及び外部入力装置Dとが、直接接続又はネットワークNを介して接続されるというものである。また、その接続形式は、無線接続形式でも優先接続形式でも、そのどちらであっても構わない。
[Example 2-Configuration (2)]
Next, another configuration of the present embodiment will be described with reference to the drawings. In this configuration, as shown in FIG. 4, the terminal B, the external display device C, and the external input device D are connected directly or via a network N. The connection format may be either a wireless connection format or a priority connection format.

次に、図15の機能ブロック図を用いて、本発明の表示変更システムの本実施形態の構成(2)について説明する。なお、構成(1)と同一の構成部には同一の符号を付しており、構成(1)と同じ動作をする場合にはその詳細な説明は省略する。   Next, the configuration (2) of the present embodiment of the display change system of the present invention will be described using the functional block diagram of FIG. In addition, the same code | symbol is attached | subjected to the component same as a structure (1), and the detailed description is abbreviate | omitted when performing the same operation | movement as a structure (1).

本発明の表示変更システムの本実施例における構成(2)は、端末Bの内部に、ポイント情報記憶部12、映像情報記憶部13、重要範囲判定部14、加工データ記憶部15、加工処理部16、表示制御部17、区間設定部18a、区間情報記憶部18b、および区間重要度決定部18cを有しているという点において、本実施例の構成(1)と異なっている。   The configuration (2) in the present embodiment of the display change system of the present invention has a point information storage unit 12, a video information storage unit 13, an important range determination unit 14, a processing data storage unit 15, a processing processing unit inside the terminal B. 16, the display control unit 17, the section setting unit 18a, the section information storage unit 18b, and the section importance degree determination unit 18c are different from the configuration (1) of the present embodiment.

本構成(2)は、本実施例の構成(1)のように管理サーバAを設けず、端末Bのみで本発明を実現することができるという点に特徴がある。上述のように構成することにより、本発明のシステム構成に関わる作業や費用を削減することができる。   This configuration (2) is characterized in that the present invention can be realized only by the terminal B without providing the management server A as in the configuration (1) of the present embodiment. By configuring as described above, work and costs related to the system configuration of the present invention can be reduced.

〔実施例2−処理プロセス(1)〕
次に、本発明の映像編集支援システムにおける処理プロセスの一例を、図14の機能ブロック図及び図16のフローチャート等を用いて説明する。なお、以下の説明では、重要範囲の判定方法として(1)区間重要度が所定値以上の区間を重要範囲として判定する方法、を用いる場合について説明する。
[Example 2-Treatment process (1)]
Next, an example of a processing process in the video editing support system of the present invention will be described with reference to the functional block diagram of FIG. 14, the flowchart of FIG. In the following description, a case will be described in which (1) a method in which a section having a section importance of a predetermined value or more is determined as the important range is used as the important range determination method.

図16のフローチャートにおける(S201)から(S205)、(S209)から(S211)の動作については、〔実施例1−処理プロセス〕と同様のため、その説明を省略する。   The operations from (S201) to (S205) and (S209) to (S211) in the flowchart of FIG. 16 are the same as those in [Example 1-Processing process], and thus the description thereof is omitted.

区間設定部18aは、映像情報記憶部13に記憶されている映像情報に対し、予め定められた所定範囲に基づいて区切った区間を設定し、設定した区間に関する情報と映像情報に含まれる映像識別情報とを関連付けて区間情報を生成して(S207)、区間情報記憶部18bに送信する。   The section setting unit 18a sets a section divided based on a predetermined range with respect to the video information stored in the video information storage unit 13, and the video identification included in the information related to the set section and the video information The section information is generated in association with the information (S207), and is transmitted to the section information storage unit 18b.

上記の処理を具体的に説明する。映像情報が図7の通りに記憶されており、映像識別情報「V002」に対応する映像の区間情報を生成する場合を例に説明する。まず、区間設定部18aは、映像情報記憶部13から映像識別情報「V0002」に該当する映像情報を抽出する。次に、予め定められた所定範囲(ここでは、「15分」とする。)に基づいて映像情報を区切って区間情報を生成する。   The above processing will be specifically described. A case will be described as an example where video information is stored as shown in FIG. 7 and video section information corresponding to the video identification information “V002” is generated. First, the section setting unit 18 a extracts video information corresponding to the video identification information “V0002” from the video information storage unit 13. Next, section information is generated by dividing video information based on a predetermined range (here, “15 minutes”).

区間情報記憶部18bには、区間設定部で生成された区間情報が記憶される。その記憶形式は、区間情報に含まれる映像識別情報毎に関連付けて記憶するという形式にすると好適である。記憶される区間情報の一例を、図17に示す。   The section information generated by the section setting unit is stored in the section information storage unit 18b. The storage format is preferably a format in which the video identification information included in the section information is stored in association with each other. An example of the section information stored is shown in FIG.

区間重要度決定部18cは、区間情報記憶部18bに記憶されている区間情報を抽出し、それぞれの区間において出力されているポイント情報の数を、ポイント情報記憶部12を検索することにより計数する。そして、その計数結果に基づいて各区間の区間重要度を判定する。さらに、区間重要度算出部18cは、抽出した区間情報に対して、各区間の区間重要度を加える形で更新を行い、区間情報記憶部18bに記憶する(S207)。   The section importance determination unit 18c extracts the section information stored in the section information storage unit 18b, and counts the number of point information output in each section by searching the point information storage unit 12. . Then, the section importance of each section is determined based on the counting result. Furthermore, the section importance calculation unit 18c updates the extracted section information in a manner that adds the section importance of each section, and stores it in the section information storage unit 18b (S207).

上記の処理を具体的に説明する。区間情報が図17の通りに記憶されており、ポイント情報が図18の通りにポイント情報記憶部12に記憶されている場合を例に説明する。区間重要度決定部18cは、区間情報記憶部18bに記憶されている区間情報の中から、区間識別情報「区間1」を抽出する。次に、ポイント情報記憶部12を検索し、区間識別情報「区間1」の区間範囲「0:00:00〜0:15:00」においてポイント情報がいくつあるかを検索する。その結果、ポイント情報の数は「1」と計数される。同様にして、区間情報記憶部18bに記憶されている全ての区間情報についてポイント情報の数を計数した結果、区間識別情報「区間2」は「2」、「区間3」は「3」、「区間4」は「0」、「区間5」は「2」、「区間6」は「0」であると計数される。   The above processing will be specifically described. An example in which the section information is stored as shown in FIG. 17 and the point information is stored in the point information storage unit 12 as shown in FIG. 18 will be described. The section importance level determination unit 18c extracts the section identification information “section 1” from the section information stored in the section information storage unit 18b. Next, the point information storage unit 12 is searched to search how many point information there is in the section range “0:00:00 to 0:15:00” of the section identification information “section 1”. As a result, the number of point information is counted as “1”. Similarly, as a result of counting the number of point information for all the section information stored in the section information storage unit 18b, the section identification information “section 2” is “2”, “section 3” is “3”, “ “Section 4” is counted as “0”, “Section 5” is counted as “2”, and “Section 6” is counted as “0”.

さらに、区間重要度決定部18cは、計数したポイント情報の数に応じて予め設定された係数で換算した区間重要度を算出し、各区間における区間重要度を決定する。本実施例では、ポイント情報の数に対して係数「1」を乗算した値を区間重要度として算出することとする。そして、区間重要度算出部18cは、抽出した区間情報に対して、各区間の区間重要度を加える形で更新を行い、区間情報記憶部18bに記憶する。更新して記憶される区間情報の一例を、図19に示す。   Furthermore, the section importance degree determination unit 18c calculates the section importance degree converted by a coefficient set in advance according to the counted number of point information, and determines the section importance degree in each section. In this embodiment, a value obtained by multiplying the number of point information by a coefficient “1” is calculated as the section importance. Then, the section importance calculation unit 18c updates the extracted section information by adding the section importance of each section, and stores it in the section information storage unit 18b. An example of the section information updated and stored is shown in FIG.

重要範囲判定部14は、区間情報記憶部18bに記憶されている区間情報に基づき、映像情報内における重要範囲を判定する(S208)。そして、判定した重要範囲情報を加工データ生成部15に送信する。   The important range determination unit 14 determines an important range in the video information based on the section information stored in the section information storage unit 18b (S208). Then, the determined important range information is transmitted to the machining data generation unit 15.

上記の処理を具体的に説明する。まず、重要範囲判定部14は、区間情報記憶部18bに記憶された区間情報を抽出し、各区間における区間重要度に応じて重要範囲か否かの判定を行う。その判定方法は、重要範囲判定部14の内部に判定基準となる所定値を設定する判定テーブル(図示せず)を設け、その判定テーブルを用いて判定を行うという方法を用いる。本実施例では、判定テーブル内に所定値として「区間重要度2以上」が設定されることとする。   The above processing will be specifically described. First, the important range determination unit 14 extracts the section information stored in the section information storage unit 18b, and determines whether or not it is an important range according to the section importance in each section. As the determination method, there is used a method in which a determination table (not shown) for setting a predetermined value as a determination reference is provided inside the important range determination unit 14, and determination is performed using the determination table. In the present embodiment, “section importance 2 or higher” is set as a predetermined value in the determination table.

次に、重要範囲判定部14は、区間情報記憶部18bに記憶されている各区間の区間情報を抽出し、その区間重要度が所定値以上か否かを判定する。その結果、区間識別情報「区間3」と「区間5」が所定値以上であると判定される。そして、その所定値以上の区間情報に含まれる区間範囲を重要範囲と判定し、加工データ生成部15に送信する。本実施例では、区間識別情報「区間3」の区間範囲「0:30:00〜0:45:00」と、区間識別情報「区間5」の区間範囲「1:00:00〜1:15:00」の二つが重要範囲と判定され、加工データ生成部15に送信されることとなる。なお、区間重要度が所定値以上であって、さらに高い任意の値(重要閾値)を超えている場合には、隣接する区間を重要範囲として含むようにしてもかまわない。   Next, the important range determination unit 14 extracts the section information of each section stored in the section information storage unit 18b, and determines whether or not the section importance is greater than or equal to a predetermined value. As a result, the section identification information “section 3” and “section 5” are determined to be equal to or greater than a predetermined value. Then, the section range included in the section information greater than or equal to the predetermined value is determined as the important range, and is transmitted to the processed data generation unit 15. In the present embodiment, the section range “0:30:00 to 0:45:00” of the section identification information “section 3” and the section range “10:00:00 to 1:15” of the section identification information “section 5”. : 00 ”is determined to be an important range and is transmitted to the machining data generation unit 15. Note that if the section importance is equal to or higher than a predetermined value and exceeds an even higher value (importance threshold), an adjacent section may be included as an important range.

上述の実施形態とすることにより、システム側で自動的に開始点並びに終了点の判定を自動で行うことが可能となることに加え、ユーザがより重要であると感じている箇所を自動的に厳選して加工処理を行うということも可能となり、ユーザ編集作業の手間をさらに軽減することができる。   By adopting the above-described embodiment, in addition to being able to automatically determine the start point and the end point on the system side, the location that the user feels is more important automatically Careful selection and processing can also be performed, and the labor of user editing can be further reduced.

〔実施例2−処理プロセス(2)〕
次に、本発明の映像編集支援システムにおける処理プロセスの別実施例を、図14の機能ブロック図及び図16のフローチャート等を用いて説明する。なお、以下の説明では、重要範囲の判定方法として(2)区間重要度に応じて区間の範囲を増減調整して得られた値を重要範囲として判定する方法、を用いる場合について説明する。
[Example 2-Treatment process (2)]
Next, another embodiment of the processing process in the video editing support system of the present invention will be described with reference to the functional block diagram of FIG. 14, the flowchart of FIG. In the following description, a case will be described in which (2) a method of determining, as an important range, a value obtained by increasing / decreasing the range of a section according to the section importance is used as an important range determination method.

図16のフローチャートにおける(S208)以外の動作については、〔実施例1−処理プロセス〕及び〔実施例2−処理プロセス(1)〕と同様のため、その説明を省略する。   Since operations other than (S208) in the flowchart of FIG. 16 are the same as those in [Example 1-Processing Process] and [Example 2-Processing Process (1)], description thereof will be omitted.

重要範囲判定部14は、区間情報記憶部18bに記憶されている区間情報に基づき、映像情報内における重要範囲を判定する(S208)。そして、判定した重要範囲情報を囲うデータ生成部15に送信する。   The important range determination unit 14 determines an important range in the video information based on the section information stored in the section information storage unit 18b (S208). And it transmits to the data generation part 15 surrounding the determined important range information.

上記の処理を具体的に説明する。まず、重要範囲判定部14は、区間情報記憶部18bに記憶された区間情報を抽出し、各区間における区間重要度に応じて重要範囲の長さを増減調整する。その判定は、重要範囲判定部14の内部に設けられた、区間重要度と範囲の増減調整値とを関連付けて記憶した判定テーブルを利用することにより行われる。この判定テーブルに記憶されている内容の一例を、図20に示す。   The above processing will be specifically described. First, the important range determination unit 14 extracts the section information stored in the section information storage unit 18b, and increases or decreases the length of the important range according to the section importance in each section. The determination is performed by using a determination table provided in the important range determination unit 14 and storing the section importance and the range increase / decrease adjustment value in association with each other. An example of the contents stored in this determination table is shown in FIG.

次に、重要範囲判定部14は、区間情報記憶部18bに記憶されている各区間の区間情報のうち、区間重要度が「1」以上の区間情報を抽出し、その区間重要度に対応する範囲の増減調整値を判定テーブルから特定する。この場合において、区間情報記憶部18bに記憶されている区間情報が図19に示す通りであった場合、区間識別情報「区間1」、「区間3」、及び「区間5」が抽出されることとなる。そして、図20に示す判定テーブルに基づいて重要範囲が判定され、その結果「0:00:00〜0:15:00」、「0:28:00〜0:47:00」、「0:59:00〜1:16:00」の三つが重要範囲として判定され、加工データ生成部15に送信されることとなる。   Next, the important range determination unit 14 extracts section information having a section importance of “1” or more from the section information of each section stored in the section information storage unit 18b, and corresponds to the section importance. The range increase / decrease adjustment value is specified from the determination table. In this case, if the section information stored in the section information storage unit 18b is as shown in FIG. 19, the section identification information “section 1”, “section 3”, and “section 5” are extracted. It becomes. Then, the important range is determined based on the determination table shown in FIG. 20, and as a result, “00:00:00 to 0:15:00”, “0:28:00 to 0:47:00”, “0: 59: 00 to 1:16:00 ”are determined as the important ranges and are transmitted to the machining data generation unit 15.

上述の実施形態とすることにより、システム側で自動的に開始点並びに終了点の判定を自動で行うことが可能となることに加え、ユーザがより重要であると感じている箇所については、より長い時間再生されるように自動調整した形で加工処理を行うということも可能となり、ユーザ編集作業の手間をさらに軽減することができる。   By adopting the above-described embodiment, in addition to being able to automatically determine the start point and the end point on the system side, the location that the user feels more important is more It is also possible to perform processing in a form that is automatically adjusted so as to be played back for a long time, and the labor of user editing work can be further reduced.

〔実施例3−構成(1)〕
次に、本発明の第三実施形態について説明する。本発明の第三実施形態の全体構成は、図1に示すものと同様、管理サーバAが複数のクライアント端末Bと通信ネットワークNを介して接続されるという形で構成されている。さらに、端末Bと、外部表示装置C及び外部入力装置Dとが、直接接続又はネットワークNを介して接続されるという形式で構成されている。
[Example 3-Configuration (1)]
Next, a third embodiment of the present invention will be described. The overall configuration of the third embodiment of the present invention is configured in such a manner that the management server A is connected to a plurality of client terminals B via a communication network N, similar to that shown in FIG. Further, the terminal B, the external display device C, and the external input device D are configured to be connected directly or via a network N.

次に、図21の機能ブロック図を用いて、本発明の表示変更システムの第三実施形態を説明する。なお、実施例1と同一の構成部には同一の符号を付しており、実施例1と同じ動作をする場合にはその詳細な説明は省略する。   Next, a third embodiment of the display change system of the present invention will be described using the functional block diagram of FIG. In addition, the same code | symbol is attached | subjected to the same component as Example 1, and when performing the same operation | movement as Example 1, the detailed description is abbreviate | omitted.

本発明の映像編集支援システムの第三実施形態は、管理サーバAの内部に、映像が再生された時点における再生状況を解析した解析情報を取得する解析情報取得部19aと、取得した解析情報を記憶する解析情報記憶部19bを備えているという点において、実施例1の実施形態と異なっている。   In the third embodiment of the video editing support system of the present invention, an analysis information acquisition unit 19a that acquires analysis information obtained by analyzing a playback state at the time when a video is played is stored in the management server A, and the acquired analysis information is The present embodiment is different from the first embodiment in that an analysis information storage unit 19b is provided.

以下、各構成部の動作について説明する。なお、実施例1と同様の構成部又は同様の動作については、詳細な説明を省略する。   Hereinafter, the operation of each component will be described. Detailed descriptions of the same components or operations as those in the first embodiment are omitted.

解析情報取得部19aは、表示制御部17が端末Bに対して送信した映像情報の、端末Bにおける再生状況を取得し、取得した再生状況と当該映像の映像識別情報とを関連付けて解析情報を生成し、解析情報記憶部19bに記憶する。ここでいう再生状況とは、ユーザが映像をどういう状態で再生したのかという状況のことをいい、具体的には、映像の再生スピードや音声の等の情報が再生状況として取得できる情報の一例として考えられる。   The analysis information acquisition unit 19a acquires the reproduction status at the terminal B of the video information transmitted from the display control unit 17 to the terminal B, and associates the acquired reproduction status with the video identification information of the video to obtain the analysis information. Generated and stored in the analysis information storage unit 19b. The playback situation here refers to the situation in which the user has played the video, and specifically, as an example of information that can be acquired as the playback status, such as video playback speed and audio. Conceivable.

解析情報記憶部19bには、解析情報取得部19aが取得した解析情報が記憶される。その際の記憶形式は、解析情報に含まれる映像識別情報を利用して、映像別に関連付けて記憶するという形式にすると好適である。   The analysis information storage unit 19b stores the analysis information acquired by the analysis information acquisition unit 19a. The storage format at that time is preferably a format in which the video identification information included in the analysis information is used and stored in association with each video.

重要範囲判定部14は、ポイント情報記憶部12に記憶されているポイント情報に対応する映像情報を、ポイント情報に含まれている映像識別情報を利用して映像情報記憶部13から抽出し、その抽出した映像情報内における重要範囲を判定する。さらにその後、解析情報記憶部19bに記憶されている解析情報の中から、映像識別情報を利用して対応する解析情報を抽出し、その解析情報を利用して重要範囲に修正を加える。そして、重要範囲判定部14は、修正した修正重要範囲情報を加工データ生成部15に送信する。   The important range determination unit 14 extracts video information corresponding to the point information stored in the point information storage unit 12 from the video information storage unit 13 using the video identification information included in the point information, The important range in the extracted video information is determined. Thereafter, corresponding analysis information is extracted from the analysis information stored in the analysis information storage unit 19b using the video identification information, and the important range is corrected using the analysis information. Then, the important range determination unit 14 transmits the corrected corrected important range information to the processing data generation unit 15.

上記の補正重要範囲の生成方法について詳細に説明する。この方法は、まず、重要範囲判定部14の内部に修正を行うための基準となる修正テーブル(図示せず)を設け、その修正テーブルに所定値を予め定めておく。この修正テーブルには、解析情報の内容と重要範囲の修正内容とが関連付けて記憶されているものとする。次に、重要範囲判定部14は、解析情報記憶部19bに記憶されている解析情報を抽出し、その解析情報に対応する重要範囲の修正内容を修正テーブルから特定する。そして、特定した修正内容に応じて、判定した重要範囲に対して修正を行うというものである。   The method for generating the correction important range will be described in detail. In this method, first, a correction table (not shown) serving as a reference for correction is provided inside the important range determination unit 14, and a predetermined value is set in advance in the correction table. It is assumed that the contents of the analysis information and the correction contents of the important range are associated with each other and stored in this correction table. Next, the important range determination unit 14 extracts the analysis information stored in the analysis information storage unit 19b, and specifies the correction contents of the important range corresponding to the analysis information from the correction table. Then, the determined important range is corrected according to the specified correction content.

〔実施例3−構成(2)〕
次に、図面を用いて本実施形態の別構成について説明する。本構成は図4に示すものと同様、端末Bと外部表示装置C及び外部入力装置Dとが、直接接続又はネットワークNを介して接続されるというものである。また、その接続形式は、無線接続形式でも優先接続形式でも、そのどちらであっても構わない。
[Example 3-Configuration (2)]
Next, another configuration of the present embodiment will be described with reference to the drawings. In this configuration, as shown in FIG. 4, the terminal B, the external display device C, and the external input device D are connected directly or via a network N. The connection format may be either a wireless connection format or a priority connection format.

次に、図22の機能ブロック図を用いて、本発明の表示変更システムの本実施形態の構成(2)について説明する。なお、構成(1)と同一の構成部には同一の符号を付しており、構成(1)と同じ動作をする場合にはその詳細な説明は省略する。   Next, the configuration (2) of this embodiment of the display change system of the present invention will be described using the functional block diagram of FIG. In addition, the same code | symbol is attached | subjected to the component same as a structure (1), and the detailed description is abbreviate | omitted when performing the same operation | movement as a structure (1).

本発明の表示変更システムの本実施例における構成(2)は、端末Bの内部に、ポイント情報記憶部12、映像情報記憶部13、重要範囲判定部14、加工データ記憶部15、加工処理部16、表示制御部17、解析情報取得部19a、及び解析情報記憶部19bを有しているという点において、本実施例の構成(1)と異なっている。   The configuration (2) in the present embodiment of the display change system of the present invention has a point information storage unit 12, a video information storage unit 13, an important range determination unit 14, a processing data storage unit 15, a processing processing unit inside the terminal B. 16, the display control unit 17, the analysis information acquisition unit 19a, and the analysis information storage unit 19b are different from the configuration (1) of the present embodiment.

本構成(2)は、本実施例の構成(1)のように管理サーバAを設けず、端末Bのみで本発明を実現することができるという点に特徴がある。上述のように構成することにより、本発明のシステム構成に関わる作業や費用を削減することができる。   This configuration (2) is characterized in that the present invention can be realized only by the terminal B without providing the management server A as in the configuration (1) of the present embodiment. By configuring as described above, work and costs related to the system configuration of the present invention can be reduced.

〔実施例3−処理プロセス〕
次に、本発明の映像編集支援システムにおける処理プロセスの一例を、図21の機能ブロック図及び図23のフローチャート等を用いて説明する。なお、以下の説明では、解析情報に含まれる再生状況として、ユーザによる映像の再生スピードを用いる場合について説明する。
Example 3 Treatment Process
Next, an example of a processing process in the video editing support system of the present invention will be described with reference to the functional block diagram of FIG. 21, the flowchart of FIG. In the following description, the case where the video playback speed by the user is used as the playback status included in the analysis information will be described.

図16のフローチャートにおける(S305)、及び(S307)以外の動作については、〔実施例1−処理プロセス〕と同様のため、その説明を省略する。   Since operations other than (S305) and (S307) in the flowchart of FIG. 16 are the same as those in [Example 1-Processing Process], description thereof will be omitted.

解析情報取得部19aは、表示制御部17から、端末Bにおける映像情報の再生状況を取得し、取得した再生状況と当該映像の映像識別情報とを関連付けて解析情報を生成して、解析情報記憶部19bに記憶する(S305)。記憶される解析情報の一例を、図24に示す。   The analysis information acquisition unit 19a acquires the playback status of the video information in the terminal B from the display control unit 17, generates the analysis information by associating the acquired playback status with the video identification information of the video, and stores the analysis information storage The information is stored in the unit 19b (S305). An example of the analysis information stored is shown in FIG.

重要範囲判定部14は、ポイント情報記憶部12に記憶されているポイント情報に対応する映像情報を、ポイント情報に含まれている映像識別情報を利用して映像情報記憶部13から抽出し、その抽出した映像情報内における重要範囲を判定する。さらにその後、解析情報記憶部19bに記憶されている解析情報の中から、映像識別情報を利用して対応する解析情報を抽出し、その解析情報を利用して重要範囲に修正を加える。そして、重要範囲判定部14は、修正した修正重要範囲情報を加工データ生成部15に送信する(S307)。   The important range determination unit 14 extracts video information corresponding to the point information stored in the point information storage unit 12 from the video information storage unit 13 using the video identification information included in the point information, The important range in the extracted video information is determined. Thereafter, corresponding analysis information is extracted from the analysis information stored in the analysis information storage unit 19b using the video identification information, and the important range is corrected using the analysis information. Then, the important range determination unit 14 transmits the corrected corrected important range information to the processed data generation unit 15 (S307).

上記の重要範囲に修正を加える処理について具体的に説明する。まず、重要範囲判定部14は、解析情報記憶部19bに記憶された解析情報を抽出し、その解析情報に基づいて重要範囲に修正を加える。その修正内容は、重要範囲判定部14の内部に設けられた修正テーブルを利用することにより行われる。この修正テーブルに記憶されている内容の一例を、図25に示す。   The process for modifying the above important range will be specifically described. First, the important range determination unit 14 extracts the analysis information stored in the analysis information storage unit 19b, and corrects the important range based on the analysis information. The content of the correction is performed by using a correction table provided in the important range determination unit 14. An example of the contents stored in this correction table is shown in FIG.

本実施例において、ポイント情報記憶部12に記憶されているポイント情報が図10に示す通りであった場合、まず、重要範囲判定部14によって、映像識別情報「V001」に対応する映像の重要範囲は「0:05:20〜0:15:20」、「0:20:40〜0:30:40」、「0:37:05〜0:47:05」の三つであると判定される。次に、重要範囲判定部14は、修正テーブルにより再生状況「2倍速」に対応する修正内容を抽出し、この判定した三つの重要範囲に対して修正を加える。その結果、修正重要範囲は「0:04:20〜0:16:20」、「0:19:40〜0:31:40」、「0:36:05〜0:48:05」となる。そして、そして、映像識別情報「V001」に該当する映像情報の中から全体の再生時間「0:55:30」を抽出し、そこから重要範囲を除外した不要範囲を判定する。その結果、「0:00:00〜0:04:20」、「0:16:20〜0:19:40」、「0:31:40〜0:36:05」、「0:48:05〜0:55:30」の四つであると判定される。重要範囲判定部14は、この判定された重要範囲と不要範囲に関する情報を修正重要範囲情報としてまとめて、加工データ記憶部15に送信する。   In the present embodiment, when the point information stored in the point information storage unit 12 is as shown in FIG. 10, first, the important range determination unit 14 first performs the important range of the video corresponding to the video identification information “V001”. Are determined to be “0:05:20 to 0:15:20”, “0:20:40 to 0:30:40”, and “0:37:05 to 0:47:05”. The Next, the important range determination unit 14 extracts the correction content corresponding to the reproduction status “double speed” from the correction table, and corrects the determined three important ranges. As a result, the important correction ranges are “0:04:20 to 0:16:20”, “0:19:40 to 0:31:40”, and “0:36:05 to 0:48:05”. . Then, the entire reproduction time “0:55:30” is extracted from the video information corresponding to the video identification information “V001”, and an unnecessary range excluding the important range is determined therefrom. As a result, “00: 00: 00-0: 04: 20”, “0: 16: 20-0: 19: 40”, “0: 31: 40-0: 36: 05”, “0:48: "05 to 0:55:30". The important range determination unit 14 collects information regarding the determined important range and unnecessary range as corrected important range information, and transmits the information to the processing data storage unit 15.

本発明のように構成することにより、ユーザが映像をどういう状態で視聴したのかという再生状況を把握し、編集箇所の開始点と終了点をユーザの視聴状況に応じて細かく調整することが可能となり、ユーザ編集作業の手間をさらに軽減することができる。   By configuring as in the present invention, it is possible to grasp the playback status of how the user viewed the video, and to finely adjust the start point and end point of the editing location according to the user viewing status. Thus, the user editing work can be further reduced.

A:管理サーバ
B:端末
C:外部表示装置
D:外部入力装置
1:演算装置
2:記憶装置
3:通信装置
4:入力装置
5:表示装置
10:ネットワークI/F
11:ポイント情報取得部
12:ポイント情報記憶部
13:映像情報記憶部
14:重要範囲判定部
15:加工データ記憶部
16:加工処理部
17:表示制御部
18a:区間設定部
18b:区間情報記憶部
18c:区間重要度決定部
19a:解析情報取得部
19b:解析情報記憶部
20:ネットワークI/F
21:表示情報受信部
22:端末制御部
23:端末表示装置
24:端末入力装置
25:ポイント情報生成部

A: Management server B: Terminal C: External display device D: External input device 1: Computing device 2: Storage device 3: Communication device 4: Input device 5: Display device 10: Network I / F
11: Point information acquisition unit 12: Point information storage unit 13: Video information storage unit 14: Important range determination unit 15: Processing data storage unit 16: Processing processing unit 17: Display control unit 18a: Section setting unit 18b: Section information storage Unit 18c: Section importance determination unit 19a: Analysis information acquisition unit 19b: Analysis information storage unit 20: Network I / F
21: Display information reception unit 22: Terminal control unit 23: Terminal display device 24: Terminal input device 25: Point information generation unit

Claims (5)

録画された映像に対する編集作業の支援を行う映像編集支援システムであって、
前記映像において、前記映像の再生者が重要と判断した箇所を示すポイント情報を記憶するポイント情報記憶部と、
前記ポイント情報を用いて前記映像内の重要範囲を判定する重要範囲判定部と、
前記重要範囲判定部における判定結果に基づいて前記映像を加工処理する加工処理部と、
前記映像加工部において加工処理された加工映像を表示する表示制御部と、
を備えることを特徴とする映像編集支援システム。
A video editing support system that supports editing work on recorded video,
In the video, a point information storage unit that stores point information indicating a location that is determined to be important by a player of the video;
An important range determination unit that determines an important range in the video using the point information;
A processing unit that processes the video based on a determination result in the important range determination unit;
A display control unit for displaying the processed video processed in the video processing unit;
A video editing support system comprising:
前記映像編集支援システムは、更に、
前記映像を一定の時間的範囲を示す区間で区切る区間設定部と、
前記ポイント情報と前記区間とを関連付けた区間情報を記憶する区間情報記憶部と、を備え、
前記重要範囲判定部は、
前記区間情報に基づいて重要範囲を判定する
ことを特徴とする請求項1に記載の映像編集支援システム。
The video editing support system further includes:
A section setting unit that divides the video by a section indicating a certain time range;
A section information storage unit that stores section information that associates the point information with the section, and
The important range determination unit
The video editing support system according to claim 1, wherein an important range is determined based on the section information.
前記映像編集支援システムは、更に、
前記区間情報に含まれるポイント情報の数に応じて前記区間毎の重要度を決定する区間重要度決定部と、を備え、
前記区間情報記憶部は、
記憶されている前記区間情報に対して前記区間重要度を加える形に更新して記憶し、
前記重要範囲判定部は、
前記区間重要度に基づいて前記重要範囲を判定する
ことを特徴とする請求項2に記載の映像編集支援システム。
The video editing support system further includes:
A section importance determining unit that determines the importance for each section according to the number of point information included in the section information,
The section information storage unit
Update and store the section importance added to the stored section information,
The important range determination unit
The video editing support system according to claim 2, wherein the important range is determined based on the section importance.
前記映像編集支援システムは、更に、
前記映像が再生された時点における再生状況を解析した解析情報を記憶する解析情報記憶部と、を備え、
前記重要範囲判定部は、
前記解析情報に基づいて前記重要範囲を判定する
ことを特徴とする請求項1及び請求項3に記載の映像編集支援システム。
The video editing support system further includes:
An analysis information storage unit for storing analysis information obtained by analyzing the reproduction status at the time when the video is reproduced,
The important range determination unit
4. The video editing support system according to claim 1, wherein the important range is determined based on the analysis information.
録画された映像に対して、当該映像の再生者が重要と判断した箇所を示すポイント情報を記憶するポイント情報記憶部を備える映像編集支援システムに用いるプログラムであって、
前記ポイント情報を用いて前記映像内の重要範囲を判定する重要範囲判定機能と、
前記重要範囲判定部における判定結果に基づいて前記映像を加工処理する映像加工機能と、
前記映像加工部において加工処理された加工映像を表示する表示制御機能と、
をコンピュータに実現させる映像編集支援プログラム。


A program for use in a video editing support system including a point information storage unit that stores point information indicating a location that is determined to be important by a player of the video for a recorded video,
An important range determination function for determining an important range in the video using the point information;
A video processing function for processing the video based on a determination result in the important range determination unit;
A display control function for displaying the processed video processed in the video processing unit;
Is a video editing support program that enables a computer to realize this.


JP2010069107A 2010-03-25 2010-03-25 Video editing support system and video editing support program Expired - Fee Related JP5599632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010069107A JP5599632B2 (en) 2010-03-25 2010-03-25 Video editing support system and video editing support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010069107A JP5599632B2 (en) 2010-03-25 2010-03-25 Video editing support system and video editing support program

Publications (2)

Publication Number Publication Date
JP2011205268A true JP2011205268A (en) 2011-10-13
JP5599632B2 JP5599632B2 (en) 2014-10-01

Family

ID=44881471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010069107A Expired - Fee Related JP5599632B2 (en) 2010-03-25 2010-03-25 Video editing support system and video editing support program

Country Status (1)

Country Link
JP (1) JP5599632B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232823A (en) * 2000-11-17 2002-08-16 Sony Corp Communication apparatus, communication method and storage medium
JP2004159192A (en) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Video image summarizing method, program, and storage medium for storing video image summarizing program
JP2007306279A (en) * 2006-05-11 2007-11-22 Sony Corp Content marking method, content reproducing device, content reproducing method, and program for content marking and program for content retrieval
JP2008130215A (en) * 2006-11-24 2008-06-05 Sharp Corp Automatic editing apparatus and automatic editing method
JP2009206841A (en) * 2008-02-28 2009-09-10 Panasonic Corp System and program for content reproduction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232823A (en) * 2000-11-17 2002-08-16 Sony Corp Communication apparatus, communication method and storage medium
JP2004159192A (en) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Video image summarizing method, program, and storage medium for storing video image summarizing program
JP2007306279A (en) * 2006-05-11 2007-11-22 Sony Corp Content marking method, content reproducing device, content reproducing method, and program for content marking and program for content retrieval
JP2008130215A (en) * 2006-11-24 2008-06-05 Sharp Corp Automatic editing apparatus and automatic editing method
JP2009206841A (en) * 2008-02-28 2009-09-10 Panasonic Corp System and program for content reproduction

Also Published As

Publication number Publication date
JP5599632B2 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
US10425618B2 (en) Information processing apparatus, tuner, and information processing method
KR101001172B1 (en) Method and apparatus for similar video content hopping
US8661462B2 (en) Information processing apparatus and method, computer program thereof, and recording medium
EP3467639A1 (en) Concurrent use of multiple user interface devices
US20060233514A1 (en) System and method of video editing
JP2001292402A (en) Digital video reproducing method, digital video reproducing device and digital video recording and reproducing device
JP5868978B2 (en) Method and apparatus for providing community-based metadata
JPWO2006025284A1 (en) Stream playback device
JP2012105012A (en) Moving image reproduction apparatus, moving image reproduction method, computer program, and storage medium
JPWO2005013613A1 (en) Program recording device
JP2008078876A (en) Program recording reproducing device, program reproducing position control method and program information providing device
JP2010204942A (en) Apparatus and method for presenting contents
JP2009225207A (en) Information processor
EP2495968B1 (en) Information processing apparatus, tuner, and information processing method
US20240056620A1 (en) Terminal, method, and server
JP2007250097A (en) Contents reproducing device, contents reproduction restarting method, and contents reproducing program
JP2015119286A (en) Content server, content reproduction device, content reproduction control method, and content reproduction control program
JP5596622B2 (en) Digest video information providing apparatus, digest video information providing method, and digest video information providing program
JP4709929B2 (en) Electronic device and display control method
JP5599632B2 (en) Video editing support system and video editing support program
JP2011170735A (en) Sever device, electronic equipment, retrieval system, retrieval method and program
US20110083093A1 (en) Apparatus and method for displaying log information
JP4196278B2 (en) Recording apparatus, recording control method, recording medium, and program
JP2007116249A (en) Image recording device
JP2006325012A (en) Support method of selecting program to be video recorded and video recording and reproducing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140813

R150 Certificate of patent or registration of utility model

Ref document number: 5599632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees